Im ersten Teil ging es um die große Content-Frage: KI macht Lerninhalte billig, schnell und überall verfügbar – und Lernende reagieren darauf erstaunlich differenziert.
Heute geht es um etwas, das noch stärker am Nerv der Arbeitswelt liegt: KI, die nicht nur redet, sondern handelt. Oder, anders gesagt: Wir sind dabei, den Schritt von der „sprechenden Bibliothek“ zur „handelnden Kollegin“ zu gehen.
Unser interne AI-Update-Post von Maria Matthäus las sich dazu wie ein Prolog zur neuen Arbeitskultur. Der Hauptdarsteller: Claude Cowork von Anthropic.
Claude Cowork: „Claude Code für den Rest deiner Arbeit“
Anthropic hat Cowork im Januar 2026 als Research Preview veröffentlicht, aktuell in der Claude-Desktop-App auf macOS und (vorerst) nur für Claude-Max-Abonnenten (100–200 USD/Monat).
Die Idee ist bestechend simpel: Man gibt keinen Prompt ab, wartet auf Text und kopiert ihn irgendwo hin. Man wählt stattdessen einen Ordner aus, beschreibt ein Ergebnis – und die KI arbeitet mehrstufig, mit Dateien, Strukturen, Zwischenständen. Anthropic positioniert das ausdrücklich als „Coworker“-Gefühl: weniger Ping-Pong, mehr „ich hinterlasse eine Nachricht und komme später wieder“.
Was Cowork (laut Berichten und Demos) typischerweise macht: Dateien organisieren, Daten aus Screenshots extrahieren, Notizen zu Reports strukturieren, Präsentationen vorbereiten, also genau jene Wissensarbeit, die selten glamourös ist, aber zuverlässig Zeit frisst.
Technisch ist Cowork kein Zauberwesen, sondern eine neue Verpackung für etwas, das viele bisher als „zu nerdig“ abgehakt haben: Es nutzt dieselbe agentische Architektur wie Claude Code – nur ohne Terminal.
Sicherheit: Wenn die KI Dateien anfassen darf, wird aus Komfort plötzlich Verantwortung
Cowork darf – je nach Freigabe – Dateien lesen, schreiben, umbenennen. Und damit verschiebt sich das Risiko von „falsche Antwort“ zu „falsche Aktion“. Anthropic warnt selbst davor, dass bei mehrdeutigen Anweisungen auch mal Dateien gelöscht oder falsch verändert werden können.
Noch heikler: Prompt Injection. Also versteckte Anweisungen in Dokumenten oder Webinhalten, die ein Modell dazu bringen können, seine eigentlichen Regeln zu ignorieren. Das ist nicht Randnotiz, das ist inzwischen eine der prominentesten Risikokategorien: In der OWASP Top 10 für LLM-Anwendungen steht „Prompt Injection“ als LLM01.
Spannend ist, wie sehr hier „Engineering“ plötzlich zum Kulturthema wird. Cowork läuft – nach Analysen – in einer isolierten VM-Umgebung unter macOS (Apple Virtualization Framework / VZVirtualMachine) und bootet ein eigenes Linux-Root-Filesystem.
Das klingt trocken, ist aber im Kern eine Botschaft: Wenn KI handelt, brauchen wir Grenzen, nicht nur gute Antworten.
Anthropic hat schon 2025 ausführlich über Sandboxing und Isolation als Sicherheitsprinzip für agentische Systeme geschrieben – Dateisystem- und Netzwerktrennung sind dabei zentrale Leitplanken.
Übersetzung wird zur Oberfläche – und zur Infrastrukturfrage
Parallel zur Agentenwelle passiert etwas scheinbar Kleines, das in Wahrheit strategisch groß ist: OpenAI hat ChatGPT Translate als eigenen Übersetzungsdienst ausgerollt (um den 15. Januar 2026).
Auf der offiziellen Seite ist von Übersetzungen in „40+“ Sprachen die Rede – andere Berichte sprechen von „50+“. Das Bemerkenswerte ist weniger die reine Übersetzungsleistung (dafür gibt es seit Jahren starke Tools), sondern die Kontextfähigkeit: Übersetzen mit Tonalität, Zielgruppe, Fachsprache, Dokumenten-Upload.
Und während OpenAI Übersetzung als Consumer-Feature auf eine eigene Bühne stellt, kontert Google in die andere Richtung: mit TranslateGemma, einer Suite offener Übersetzungsmodelle (4B/12B/27B), gebaut auf Gemma 3, für 55 Sprachen – inklusive Übersetzung von Text in Bildern.
Man kann das als „Google Translate, aber open“ lesen. Oder als Signal: Nicht alles muss in die Cloud, wenn Daten sensibel sind.
Geschwindigkeit ist plötzlich Produktpolitik: OpenAI × Cerebras
Wenn Agenten und Assistenten ernsthaft in Arbeitsprozesse rutschen, wird ein altes UX-Thema zum Wettbewerbsfaktor: Latenz. OpenAI hat eine Partnerschaft mit Cerebras angekündigt, um „ultra low-latency“ Compute in großem Maßstab (750MW) auf die Plattform zu bringen.
Das ist nicht nur Chip-Industrie-Drama. Das ist ein Hinweis darauf, dass sich „Assistenz“ auch über das Gefühl definiert: Antworten, bevor der Gedanke weg ist.
Plattformen legen sich fest: Apple und das „Gemini-Siri“-Kapitel
Und dann sind da die Entscheidungen, die man nicht in Feature-Listen misst, sondern in Reichweite: Apple soll Siri stärker in Richtung Chatbot umbauen und dabei auf eine Variante von Googles Gemini setzen. Reuters berichtet über eine Partnerschaft Apple–Google für Gemini-Modelle im Siri-Kontext.
Solche Deals sind für den Markt oft wichtiger als jede einzelne Modellverbesserung, weil sie bestimmen, wo Menschen KI überhaupt erleben und ob sie sie als „Tool“ oder als „Teil des Betriebssystems“ wahrnehmen.
Europa zieht Grenzen – oder versucht es zumindest: AWS European Sovereign Cloud
Sobald KI an Dateien, Kundendaten, Trainingsunterlagen oder Produktdokumentationen darf, wird aus „KI-Strategie“ schnell „Datenresidenz“. AWS hat im Januar 2026 die AWS European Sovereign Cloud als allgemein verfügbar angekündigt: eine unabhängige, in der EU lokalisierte und physisch/logisch getrennte Cloud-Infrastruktur, inklusive Investitionsankündigungen in Milliardenhöhe.
Das ist kein romantisches Souveränitätsgedicht, sondern ein Infrastrukturversuch, europäische Regulatorik und Cloud-Realität zusammenzubringen – gerade dann, wenn KI-Workloads (und ihre Daten) nicht mehr „irgendwo“ liegen dürfen.
Personalisierung auf Steroiden: Googles „Personal Intelligence“
Gleichzeitig schiebt Google das Assistenzversprechen in Richtung „Ich kenne dich wirklich“: Personal Intelligence in Gemini verbindet (beta/USA, opt-in) Dienste wie Gmail, Photos, YouTube und Search, um Antworten stärker zu personalisieren.
Das ist faszinierend und eine perfekte Brücke zurück zu Teil 1: Lernende wünschen sich Kontext, Klarheit und menschliche Anschlussfähigkeit. Personalisierung liefert davon etwas. Aber sie eröffnet auch neue Fragen: Wer kontrolliert die Schlussfolgerungen? Welche Daten fließen? Wie transparent ist der Prozess?
Und dann noch das Fernste, das plötzlich nah wirkt: Gehirn–Computer–Interfaces
OpenAI investiert in Merge Labs, ein BCI-Forschungslabor, das neue, weniger invasive Schnittstellen zwischen Gehirn und Computer erforschen will.
Das klingt nach Science-Fiction, ist aber in seiner Logik konsequent: Wenn KI immer besser versteht, was wir meinen, wird der nächste Engpass die Eingabe – unser mühsames Tippen, Klicken, Swipen.
Mathematik als Lackmustest: Erdős Problem #728 und der Wunsch nach „Beweisen statt Behaupten“
Zwischen all diesen Produktnews steht ein Ereignis, das eher nach Universitätsflur als nach App-Store klingt: Eine Kombination aus GPT‑5.2 Pro (OpenAI) und Aristotle (Harmonic) soll Erdős Problem #728 gelöst haben – mit formalisiertem Beweis in Lean, und laut Writeup als Meilenstein „autonomer“ KI-Lösung.
Das ist mehr als Nerd-Futter. Es ist ein Symbol dafür, wohin die Vertrauensdebatte zieht: weg von „klingt plausibel“ hin zu „ist überprüfbar“. In einer Welt, in der KI nicht nur Content produziert, sondern Entscheidungen vorbereitet und Aktionen ausführt, wird Verifikation zur Währung.
Was das alles miteinander zu tun hat
Teil 1 war im Kern eine Lektion über Lernende: Akzeptanz entsteht nicht durch Technik, sondern durch erlebte Glaubwürdigkeit.
Teil 2 zeigt: Genau diese Glaubwürdigkeit wird jetzt in eine neue Umgebung verpflanzt – in Dateisysteme, Clouds, Betriebssysteme, persönliche Kontexte.
Wenn KI zur Kollegin wird, zählt nicht nur, ob sie nett formuliert. Dann zählt, ob sie sicher arbeitet, nachvollziehbar bleibt, Grenzen respektiert und ob wir als Organisationen überhaupt wissen, wo sie überall mitliest.
Und vielleicht ist das die eigentliche Pointe der Agenten-Ära: Die große Revolution ist nicht, dass KI Dinge kann. Sondern dass wir uns daran gewöhnen müssen, dass sie Dinge tut.


