Claude auf Colossus: Was der xAI-Anthropic-Deal bringt

Claude auf Colossus: Anthropic mietet 300 Megawatt von Musks xAI-Datacenter, Code-Limits steigen, Cognee löst das Memory-Problem von KI-Agenten.

Claude auf Colossus heißt: Anthropic mietet ab sofort 300 Megawatt Rechenleistung von Elon Musks xAI-Datacenter Colossus 1. Das verdoppelt sofort das 5-Stunden-Limit in Claude Code. Die Redaktion ordnet die wichtigsten KI-Nachrichten ein. Auto-Dream, Cognee Memory und HyperFrames stehen im Fokus.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Anthropic auf Colossus: Was Musk wirklich vermietet

Der neue Anthropic-Deal mit SpaceX und xAI verschiebt das Kräfteverhältnis im KI-Compute-Markt. Anthropic zog seine Inferenz bislang fast vollständig über AWS Trainium. Jetzt laufen die Claude-Modelle zu großen Teilen auf Colossus 1 von xAI. Die gemietete Kapazität liegt bei 300 Megawatt von etwa 425 Megawatt Gesamtleistung.

Musk begründet das damit, dass xAI Grok inzwischen auf Colossus 2 trainiert. Colossus 2 liegt bei rund 1,5 Gigawatt, also dreimal größer als Colossus 1. Branchenkenner lesen darin ein klares Signal: xAI hat aktuell nicht die Endkunden-Nachfrage von Anthropic. Vermieten lohnt sich dort mehr als Eigenbetrieb.

Den Hintergrund liefert Dario Amodei selbst. Im ersten Quartal 2026 wuchs die Anthropic-Nutzung 80-fach pro Jahr. Geplant waren 10-fach. Genau dieses Wachstum hat die Compute-Engpässe der letzten Wochen ausgelöst. Anthropic plant zusätzlich orbitale Compute-Kapazität mit SpaceX, also Rechenzentren im Weltall.

Claude Code 5-Stunden-Limit verdoppelt

Das 5-Stunden-Nutzungslimit in Claude Code wurde verdoppelt. Die Wochenlimits bleiben gleich. Auf den ersten Blick erreicht ein Nutzer damit nur schneller die Wochenobergrenze. In der Praxis treffen Heavy User mit vielen parallelen Instanzen aber ständig das 5-Stunden-Limit. Das Wochenlimit erreichen sie selten.

Noch spannender sind die neuen Anthropic-API-Rate-Limits. Im Tier 1 stieg die maximale Output-Token-Rate von 8.000 auf 80.000 pro Minute. Der Input-Limit wuchs von 30.000 auf 500.000 Token pro Minute. Entwickler arbeiten ab sofort produktiv im Einstiegs-Tier, ohne in höhere Stufen wechseln zu müssen.

Die Konsequenz für den Markt: Eigene Tools auf Claude-Basis sind kostengünstiger und produktiver geworden. Das gilt für Voice-Agents, RAG-Pipelines und Automatisierungs-Workflows. Wer parallel mehrere Claude-Instanzen orchestriert, profitiert sofort.

Auto-Dream und Cognee: Warum Agenten jetzt im Schlaf lernen

Anthropic schiebt mehrere Updates für Claude Managed Agents nach. Multi-Agent-Sessions sind jetzt verfügbar. Claude-Agenten können also Subagenten nutzen, was Recherche-Aufgaben und Token-Kosten optimiert. Webhooks lassen sich direkt in der Anthropic-Plattform anbinden, etwa über n8n. Eine technische Einordnung findet sich im Artikel zu Claude Managed Agents.

Das eigentliche Highlight ist Auto-Dream. Es adressiert das Memory-Problem von Agenten direkt. Agenten vergessen Anweisungen früher oder später. Auto-Dream entscheidet im Hintergrund, was im Kurzzeitgedächtnis bleibt und was ins Langzeitgedächtnis wandert. Die Analogie: menschlicher Schlaf konsolidiert Tagesinhalte.

Genau hier setzt das Memory-Startup Cognee an. Die Firma hat 7,5 Millionen Dollar Seed-Funding eingesammelt. Co-Founder Vincent Pistor erklärt das Prinzip im Interview. Ihre Open-Source-Engine normalisiert PDFs, Videos und Voice-Aufnahmen. Danach landen sie als Graph-Vektorrepräsentationen im Memory-Layer. Eine einzige Remember-Funktion abstrahiert die fünf bis sechs internen Bausteine.

Pistor sieht 2026 als das Jahr, in dem KI-Modelle zur Commodity werden. Den Unterschied machen Teams, die das Harness um die Modelle herum orchestrieren. In Unternehmen werden bald 100 Agenten parallel arbeiten, alle auf einem gemeinsamen Memory-Layer mit unterschiedlichen Submemories.

Codex überholt Claude Code: Chrome Extension und HyperFrames

Codex hat Claude Code bei den Downloads in der letzten Woche überholt. Die installierte Basis von Claude Code ist über die Monate höher gewachsen, doch Codex zieht stark nach. Für Einsteiger gilt Codex aktuell als einfachere Alternative im agentischen Coding. Einen Detailvergleich zeigt der Artikel zum Wettkampf zwischen Claude Code und Codex.

Neu ist das Codex Chrome Plugin. Bis der Atlas-Browser 100 Prozent zuverlässig läuft, automatisiert Codex jetzt Browser-Aufgaben über Chrome direkt. Web-Scraping, Lead-Recherche, Formulare ausfüllen, alles ohne manuelles Klicken.

Spannend wird es beim Video-Editing per Prompt. HeyGen hat HyperFrames veröffentlicht. Das Tool basiert auf HTML, CSS und JavaScript. Codex baut Animationen frame-für-frame per Prompt. Remotion verfolgt das gleiche Prinzip auf React-Basis und ist kostenlos, auch kommerziell.

Im Praxisvergleich liefert HyperFrames smoothere Animationen out-of-the-box. Remotion zeigt seine Stärken bei Skalierung und personalisierten Videos. Viele Teams setzen beide parallel ein, je nach Projekt.

GPT Realtime 2: Der eigentliche Hebel für KI-Agenten

OpenAI hat GPT Realtime 2 veröffentlicht. Dazu kommt GPT Realtime Translate für Live-Übersetzung in Meetings. Das Speech-to-Speech-Modell sitzt hinter dem Advanced Voice Mode von ChatGPT, dem aktuell stärksten Voice-Mode am Markt.

Der entscheidende Unterschied zur Vorversion: Realtime 2 ist explizit für agentische Aufgaben gebaut. Das Modell kann zwei Minuten an einer Aufgabe arbeiten, während ein Nutzer spricht. Es pausiert ohne Unterbrechung und kehrt erst nach Aufforderung zur Konversation zurück.

Die Demo zeigt einen Agenten, der ein CRM live bedient. Er pflegt Leads, recherchiert vor Vertriebs-Calls und gibt Feedback während des Gesprächs. Branchenkenner sehen darin das Zukunftsbild für Software. Ein Realtime-Agent sitzt als Seitenleiste in jeder Anwendung. Er bedient die Software für den Nutzer.

OpenAI ist hier strategisch breit aufgestellt: ChatGPT, Codex, Atlas-Browser, Computer Use und der stärkste Voice-Mode. Sam Altman bestätigt: Verbesserungen kommen nicht nur in den Chat, sondern auch in Codex. Coding-Agenten lassen sich dann nur noch per Sprache bedienen.

Fazit: Claude auf Colossus markiert den Compute-Pivot

Die Woche zeigt zwei Linien klar. Anthropic kauft sich mit dem Musk-Deal Luft im 5-Stunden-Limit und in den API-Rate-Limits. Gleichzeitig lösen Auto-Dream und Cognee das Memory-Problem von Agenten. Beobachter sehen Realtime-Agenten als Seitenleiste in jeder Software als nächste Stufe. Der KI-Compute-Markt ist im Pivot.

Häufige Fragen

Was bedeutet der Anthropic-SpaceX-Deal für Claude-Code-Nutzer?

Claude läuft jetzt zu großen Teilen auf den 300 Megawatt der Colossus-1-Infrastruktur von xAI. Das 5-Stunden-Limit in Claude Code wurde sofort verdoppelt. Die Anthropic-API-Rate-Limits stiegen im Tier 1 dramatisch. Output-Tokens steigen von 8.000 auf 80.000 pro Minute. Input-Tokens wachsen von 30.000 auf 500.000 pro Minute. Die Wochenlimits bleiben unverändert. Beobachter werten den Deal als strategische Verschiebung im KI-Compute-Markt.

Was ist Auto-Dream in Claude Managed Agents?

Auto-Dream ist eine Memory-Funktion, die im Hintergrund entscheidet, welche Informationen ein Agent ins Langzeitgedächtnis übernimmt. Das Prinzip orientiert sich am menschlichen Schlaf, der Tagesinhalte konsolidiert. Damit löst Anthropic ein Kernproblem von KI-Agenten: das Vergessen von Anweisungen über mehrere Sessions hinweg. Die Funktion ist neu in Managed Agents verfügbar und kombiniert sich mit Multi-Agent-Sessions.

Wie unterscheiden sich HyperFrames und Remotion?

HyperFrames basiert auf HTML, CSS und JavaScript und liefert per Prompt smoothere Animationen out-of-the-box. Es ist kostenlos, auch im kommerziellen Einsatz. Remotion basiert auf React und gilt als stärkere Wahl für Skalierung, personalisierte Videos und Frame-für-Frame-Kontrolle. Beide werden über KI-Coding-Agenten wie Codex bedient. Viele Teams setzen beide parallel ein, je nach Projektanforderung.

Warum ist Cognee als Memory-Layer interessant?

Cognee hat 7,5 Millionen Dollar Seed-Funding für eine Open-Source-Memory-Engine eingesammelt. Die Engine normalisiert PDFs, Videos und Voice-Aufnahmen und legt sie als Graph-Vektorrepräsentationen ab. Co-Founder Vincent Pistor sieht 2026 als Commodity-Jahr für KI-Modelle. Den Wettbewerbsvorteil holen Teams über Memory-Orchestrierung. Die Remember-Funktion abstrahiert die Komplexität auf einen Aufruf.

Lohnt sich der Wechsel von Claude Code zu Codex?

Codex hat Claude Code bei den Downloads in der letzten Woche überholt. Für Einsteiger gilt Codex aktuell als einfachere Alternative im agentischen Coding. Mit dem neuen Chrome-Plugin automatisiert Codex Browser-Aufgaben direkt. Für Video-Editing per Prompt arbeiten HyperFrames und Remotion über Codex zuverlässig. Ein Wechsel ist sinnvoll, wenn Browser-Automation oder einfacher Einstieg im Vordergrund stehen.

Gib hier deine Suche ein