
Groq ruft seinen Architektur Tensor Streaming-Prozessor (TL) auf. Zwei Jahre zurück, es sagte, es hatte acht der zehn Personen eingestellt, die die Tensor-Verarbeitungseinheit (TPU) von Google entwickelten.
Das Unternehmen hat in der Finanzierung von 62,3 Millionen US-Dollar gesammelt.
Die Architektur der Groq entspricht einem Quadrillion-Vorgang pro Sekunde oder 1e15 OPS / S und in der Lage von bis zu 250 Billionen Fließkommaoperationen pro Sekunde (Flops).
"Top-GPU-Unternehmen erzählen den Kunden, dass sie in den nächsten Jahren, in der Lage sein würden, in der Lage zu sein, innerhalb der nächsten Jahre eine Petaop / S-Leistung liefern zu können. GRAT kündigt es heute an Wir hatten erstes Silicon-Rücken, erstes Einschalten, Programme, die in der ersten Woche ausgeführt wurden, von Partnern und Kunden in weniger als sechs Wochen aufgeteilt, wobei A0-Silizium in Produktion läuft "
Mit einer Software-Erst-Mindset behauptet die TSP-Architektur der Groq, sowohl Flexibilität als auch massive Parallelität ohne den Synchronisationsaufwand der traditionellen GPU- und CPU-Architekturen zu erreichen.
Die Groqs Architektur kann sowohl traditionelle als auch neue Machine-Lernmodelle unterstützen und ist derzeit auf Kundenwächtern in X86- und Nicht-X86-Systemen in Betrieb.
Die Architektur ist speziell für die Leistungsanforderungen von Computervision, Maschinenlernen und anderen AI-Workloads konzipiert.
Die Ausführungsplanung geschieht in der Software, die Silizium-Immobilien freigibt, andernfalls der dynamischen Anweisungsausführung.
Die von dieser Architektur bereitgestellte enge Kontrolle bietet eine deterministische Verarbeitung, die besonders wertvoll ist, wenn Sicherheit und Genauigkeit von größter Bedeutung sind.
Im Vergleich zu komplexen traditionellen Architekturen, die auf CPUs, GPUs und FPGAs basieren, rationalisiert der GPUs-Chip auch Qualifikation und Bereitstellung, sodass Kunden skalierbare, hochleistungs-pro-Watt-Systeme einfach und schnell implementieren können.