Huawei setzt verstärkt auf KI-Hardware

Angesichts der Sanktionen hielt sich Huawei auf seiner Hauskonferenz mit Ankündigungen zurück. Immerhin bei den KI-Beschleunigern gab es neue Technik zu sehen.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: Huawei)

Lesezeit: 2 Min.
Von
  • Udo Seidel

Mit Spannung erwarteten Beobachter Huaweis jüngste Hauskonferenz Connect: Während die US-Sanktionen dem Hersteller hinsichtlich der Chip-Exporte das Geschäft erschweren, sorgt der Wettkampf mit Nvidia im Bereich der KI-Hardware für weitere Brisanz. Das Grundthema der Konferenz war – wie könnte es anders sein – Künstliche Intelligenz. Laut Huawei-CEO Sabrina Meng ist nach "All IP" und "All Cloud" nun die Zeit für "All Intelligence". Huawei will diese Zukunft tatkräftig mitgestalten und beschleunigen.

Den Anfang macht der Cluster Atlas 900 mit aufgefrischter Hardware. Nach Aussage von David Wang – Executive Director, Chairman of the ICT Infrastructure Managing Board – enthält dieser jetzt 544 TByte Hauptspeicher, 8 Racks und einen 800 GBit/s schnellen Datenbus. Das auf dem Ascend-Chip basierende System soll 200 PFlops (FP16) erreichen – also 200 Billiarden 16-bittige Gleitkommaoperationen in der Sekunde. Damit hat der neue Cluster doppelt so viel Rechenleistung wie sein Vorgänger. Die Ausfallrate hat Huawei um den Faktor 10 verbessert.

CANN (Compute Architecture for Neural Networks) ist nun in der Version 7.0 verfügbar. Dabei hat insbesondere AscendCL (Ascend Computing Language) ein Upgrade erfahren. Laut Wang sollen Entwickler mit CANN 7.0 deutlich effektiver ihre Anwendungen programmieren können – bis hin zu einem Faktor 2.

Ebenfalls neu ist OceanStor A800. Dieses Produkt soll als Hochleistungsspeicher für KI-Daten dienen, etwa für ganze Modelle. Huawei will damit drei aktuelle Herausforderungen in diesem Bereich meistern: bessere Verwendung von Rechenleistung bei Modellen, die aus vielen kleinen Dateien bestehen; weniger Anfälligkeit bei Unregelmäßigkeiten im Netzwerkverkehr oder Ausfällen im Prozessor-Bereich; besserer Zugang zu großen KI-Modellen für jedermann. Der OceanStor A800 soll mit parallelem NFS+ eine Bandbreite von 500 GB/s liefern. Das Lesen und Schreiben von sogenannten Checkpoints im TByte-Bereich bewegt sich im Bereich von 10 Sekunden. Das beschleunigt das Wiederaufnehmen eines pausierten Trainings.

(fo)