Meta nutzt selbst entwickelten KI-Beschleuniger MTIA für Facebook und Instagram

Die eigenen KI-Prozessoren schlucken deutlich weniger Strom als etwa Nvidias KI-Beschleuniger. Sie sollen besser auf Metas KI-Bedürfnisse zugeschnitten sein.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen
Meta-Logo und Kopf eines weiblichen Roboters

(Bild: Below the Sky/Shutterstock.com)

Lesezeit: 3 Min.
Von
  • Frank Schräer

Meta Platforms hat die zweite Generation seiner selbst entwickelten KI-Beschleuniger vorgestellt. Die "Meta Training and Inference Accelerator" (MTIA) sollen speziell auf die Anforderungen Metas an die Nutzung Künstlicher Intelligenz auf den eigenen Plattformen wie Facebook, Instagram und WhatsApp zugeschnitten sein. Meta bezeichnet MTIA als die effizienteste Architektur für Metas einzigartige Workloads und setzt sie bereits im Produktionsbetrieb der eigenen Rechenzentren ein.

Meta hatte die erste MTIA-Generation bereits letztes Jahr präsentiert, diese KI-Interferenzbeschleuniger aber offenbar nicht verwendet. MTIA v1 verfügte nach Angaben Metas nicht über die geforderte Leistungsfähigkeit hinsichtlich Speicher- und Schnittstellenbandbreite. Auf Basis der Erfahrungen bei der Entwicklung des ersten eigenen KI-Beschleunigers hat Meta die zweite Generation entwickelt. Bereits vor zwei Monaten wurde berichtet, dass Meta Platforms diese KI-Prozessoren aus Eigenbau installieren wird.

Jetzt nennt Meta in einem Blog-Betrag Details zu diesen Interferenzbeschleunigern. Demnach konnte die zweite MTIA-Generation die Bandbreiten bei Berechnungen und Speicher mehr als verdoppeln gegenüber dem ersten MTIA-Chip, was die Leistung bei verschiedenen Meta-spezifischen Workloads verdreifacht habe. Allerdings steigt gleichzeitig der typische Stromverbrauch dieser Chips um den Faktor 3,6. Dabei werden die neue MTIA-Chips bei TSMC im 5-Nanometer-Prozess gefertigt, während die erste Generation noch in 7-nm-Technik hergestellt wurde.

Der neue MTIA-Chip setzt sich zusammen aus insgesamt 64 sogenannten Prozessorelementen (PEs), wobei jedes PE über eigenen Speicher (384 KByte Cache) und der Chip selbst über zusätzlich 256 MByte Speicher verfügt. Dazu kommen bis zu 128 GByte LPDDR5 als Hauptspeicher des Systems. Gegenüber MTIA v1 wurden Hauptspeicher und On-Chip-Speicher verdoppelt, der PE-interne Speicher sogar verdreifacht. Zudem wurde die Taktfrequenz des Chips um fast 70 Prozent gesteigert und als Schnittstelle wird nun PCI Express der fünften statt der vierten Generation unterstützt, was die externe Bandbreite verdoppelt. Einen Vergleich mit KI-Beschleunigern von AMD oder Nvidia zieht Meta nicht.

MTIA KI-Beschleunigerkarte

(Bild: Meta)

Die MTIA-Chips werden im Rechenzentrum in einem von Meta entwickelten Rack-System eingesetzt, das aus bis zu 72 KI-Beschleunigern besteht. Es handelt sich um drei Gehäuse mit jeweils zwölf Karten, die über zwei MTIA-Chips verfügen. Eine solche Konfiguration ermöglicht laut Meta die Steigerung der Taktraten von 800 MHz bei der ersten Generation auf jetzt 1,35 GHz. Damit steigt auch der Stromverbrauch von 25 auf 90 Watt pro Chip. KI-Stromverbrauch lässt sich schlecht einschätzen, aber Nvidias H100 und AMDs MI300X sind für 700 respektive 750 Watt pro Karte ausgelegt.

Meta verspricht sich von den eigenen KI-Beschleunigern eine effiziente Bedienung der Ranking- und Empfehlungsmodelle, die etwa bei Facebook und Instagram dafür sorgen, dass den Anwendern passende Empfehlungen auf Basis individueller Nutzung gegeben werden können. Die bereits in Produktion eingesetzte neue MTIA-Generation erlaubt Meta nach eigenen Angaben zudem intensivere KI-Workloads.

Obwohl Meta enorme Summen für den Kauf von Server-GPUs für KI-Berechnungen zahlt, überwiegend an Nvidia, das mit dem H100 AMD und Intel dominiert, sollen die eigenen KI-Beschleuniger diese GPUs nicht ersetzen, sondern ergänzen. Meta geht davon aus, dass dies die optimale Mischung aus Leistung und Effizienz bei den eigenen KI-Workloads darstellt.

(fds)