Google plant, Cloud-Anbieter zu finanzieren, die ihre Beschleuniger nutzen.
Google versucht, seine KI-Beschleuniger auf ein neues Niveau zu heben
OpenAI fördert aktiv sein „Ring“-Modell der Zusammenarbeit, was anscheinend nicht unbemerkt bei Google blieb. Als Reaktion entschied sich das Unternehmen, finanzielle Ressourcen einzusetzen, um neue Kunden zum Kauf eigener KI-Beschleuniger (KI) zu bewegen. Konkurrenten betrachten die Initiative skeptisch, und ein Mangel an Komponenten erschwert die Umsetzung des Plans.
Was bekannt ist
Die Ausgabe *The Wall Street Journal* berichtet von Googles Absicht, die Nachfrage nach eigenen Chips zu stimulieren. Die größten Cloud-Anbieter nutzen hauptsächlich Nvidia-Beschleuniger, daher hat Google Schwierigkeiten bei der Förderung seiner TPU (Tensor Processing Unit). Um die Situation zu ändern, plant das Unternehmen, mit neuen Akteuren des Cloud-Marktes – „Neocloud“-Anbietern – zusammenzuarbeiten und ihre Käufe eigener Beschleuniger durch finanzielle Beteiligung anzuregen.
- Investitionen in Fluidstack
Laut einer Quelle führt Google Verhandlungen über eine Investition von 100 Mio. USD in das Start-up Fluidstack. Der Deal im Gesamtwert von 7,5 Mio. USD sieht vor, dass Fluidstack die GPU- und TPU-Infrastruktur von Google nutzt.
- Unterstützung ehemaliger Mining-Projekte
Es wird ebenfalls berichtet, dass Google mehrere Projekte finanzieren will, die früher Kryptowährungs-Mining betrieben haben und nun auf den Aufbau von Rechenzentren (CSD) umgestellt werden.
- Strukturelle Unabhängigkeit der TPU-Abteilung
Innerhalb des Unternehmens wird diskutiert, dem TPU-Entwicklungsteam mehr Autonomie zu geben. Dies würde es ermöglichen, externes Kapital für die Chipentwicklung einzubringen. Offizielle Stellungnahmen dazu liegen jedoch noch nicht vor.
Aktueller Stand der TPU
Seit 2018 bietet Google Cloud-Kunden Zugang zu Rechenleistung auf Basis von TPUs an. Dennoch ist ein Großteil der Google-Infrastruktur weiterhin von Nvidia-Beschleunigern abhängig. Nach einigen Angaben verkauft das Unternehmen seine TPUs bereits an externe Kunden, die eigene Rechenkapazitäten bauen.
Der Leiter der TPU-Entwicklung – Amin Vahdat – wurde kürzlich zum Chief Technology Officer für KI-Infrastruktur befördert und berichtet nun direkt an den CEO Sundar Pichai.
Wachstumsbeschränkungen
Ein zentrales Problem für das Wachstum des TPU-Geschäfts bleibt die Knappheit an Produktionskapazitäten bei TSMC, die Priorität auf Aufträge von Nvidia legt. Zusätzlich verlangsamt der Mangel an Arbeitsspeicher das Wachstum der TPU-basierten Infrastruktur.
Trotzdem zeigen große Unternehmen Interesse an Googles Beschleunigern. Zu den potenziellen Kunden gehören Meta Platforms und Anthropic. Amazon (AWS) sieht Google jedoch nur als Konkurrenten und zögert, auf TPUs umzusteigen, da es eigene Graviton-Prozessoren entwickelt. Dasselbe gilt für Microsoft mit dem Cloud-Dienst Azure.
Damit unternimmt Google eine Reihe finanzieller und organisatorischer Schritte, um seine KI-Beschleuniger in einem schnell wachsenden Cloud-Segment wettbewerbsfähiger zu machen.
Kommentare (0)
Teile deine Meinung — bitte bleib höflich und beim Thema.
Zum Kommentieren anmelden