Meta und Amazon Web Services haben eine weitreichende Partnerschaft vereinbart: Meta setzt künftig tens of millions of AWS Graviton5-Prozessorkerne ein, um die nächste Generation agentischer KI zu betreiben. Der Deal ist Teil von Metas massiver Diversifizierungsstrategie bei der KI-Infrastruktur – und zeigt, warum CPUs bei KI-Workloads wieder in den Mittelpunkt rücken.
Inhaltsverzeichnis
Fasse den Artikel im Bullet-Stil zusammen.
Warum Meta keine GPUs alleine reichen
Lange galt: Wer KI trainiert, braucht GPUs. Das stimmt für das Training großer Modelle weiterhin. Doch agentenartige KI-Systeme – also Modelle, die eigenständig planen, Aufgaben ausführen, Code schreiben und Nutzeranfragen in Echtzeit beantworten – verlangen nach etwas anderem: massiver, dauerhafter CPU-Leistung.
Die Ausbreitung agentischer KI erzeugt enorme Nachfrage nach CPU-intensiven Workloads – Echtzeit-Reasoning, Code-Generierung, Suche und das Orchestrieren mehrstufiger Aufgaben. GPUs sind für Spitzenlasten im Training optimiert. CPUs wie Graviton5 übernehmen dagegen die Steuerungsebene: Orchestrierung, Speicherverwaltung, Scheduling – und das kontinuierlich, nicht stoßweise.
Was den Graviton5 so leistungsfähig macht
AWS hat den Graviton5 im Dezember 2025 vorgestellt. Der Chip verfügt über 192 Kerne und einen fünfmal größeren Cache als die Vorgängergeneration. Die Latenz bei der Kommunikation zwischen den Kernen sinkt dadurch um bis zu 33 Prozent – ein entscheidender Vorteil bei KI-Workloads, die Daten dauerhaft zwischen Kernen austauschen.
Gebaut auf 3-Nanometer-Chip-Technologie, liefert Graviton5 bis zu 25 Prozent mehr Leistung als der Vorgänger – bei gleichzeitig führender Energieeffizienz. AWS gibt an, dass Graviton die beste Preis-Leistung aller EC2-Optionen bietet und dabei 60 Prozent weniger Energie verbraucht. Zusätzlich unterstützt Graviton5 den Elastic Fabric Adapter (EFA), der latenzarme, hochbandbreitige Kommunikation zwischen Instanzen ermöglicht – essenziell für groß angelegte agentenbasierte Workloads, bei denen Aufgaben über viele Prozessoren verteilt laufen.
Der Deal: Dimensionen, die erschrecken
Der Vertrag läuft mindestens drei Jahre. Meta war bereits zuvor ein kleiner Graviton-Nutzer – jetzt steigt das Unternehmen zu einem der fünf größten Graviton-Kunden weltweit auf. Der Startpunkt: tens of millions of Graviton-Kerne, mit der Option zur Ausweitung. Hochgerechnet auf 192 Kerne pro Chip bedeuten allein 10 Millionen Kerne rund 52.000 Chips.
AWS-CEO Andy Jassy hatte kurz zuvor in einem Aktionärsbrief offenbart, dass zwei große Kunden sämtliche verfügbaren Graviton-Kapazitäten für das laufende Jahr anfragen wollten – was AWS ablehnen musste, um andere Kunden zu bedienen. Die Nachfrage übersteigt das Angebot. Meta setzt dabei nicht nur auf Graviton: Das Unternehmen arbeitet parallel mit Nvidia, ARM und AMD zusammen und entwickelt eigene Trainings- und Inferenz-Chips (MTIA). Die Graviton-Partnerschaft ergänzt diesen Mix als kostenoptimierte, effiziente CPU-Schicht für Workloads, die keine Beschleuniger benötigen.
CPUs sind das neue Herzstück der KI-Infrastruktur
Die Entscheidung ist ein Signal für die gesamte Branche. Der KI-Stack wird heterogener, nicht homogener. Unternehmen teilen Workloads zunehmend nach Verhalten auf – Prefill vs. Decode, zustandslos vs. zustandsbehaftet, Spitzenlast vs. Dauerbetrieb. GPUs übernehmen die Momente hoher Rechenintensität; CPUs wie Graviton5 halten den Rest am Laufen – kontinuierlich, effizient, günstig.
Für Onlinehändler, die eigene KI-Lösungen auf AWS aufbauen oder planen, bedeutet das: Die Wahl des richtigen Chip-Typs für den jeweiligen Workload wird zur strategischen Entscheidung. Graviton5 ist nicht für alles die Antwort – aber für agentische Anwendungen wie Chatbots, Such-Orchestrierung und Echtzeit-Personalisierung ist er laut AWS die effizienteste Option. Und dass Meta darauf setzt, dürfte das Vertrauen in diese Wahl für viele weitere Unternehmen festigen.





