Google ka publikuar detaje të reja në lidhje me superkompjuterët që përdor për të trajnuar modelet e tij të inteligjencës artificiale, duke thënë se sistemet janë edhe më të shpejtë dhe më efikas në energji sesa sistemet e krahasueshme nga Nvidia Corp (NVDA.O).
Google ka projektuar çipin e tij personal të quajtur Njësia e Përpunimit Tensor ose TPU. Ai përdor ato çipa për më shumë se 90% të punës së kompanisë në trajnimin e inteligjencës artificiale, procesin e ushqyerjes së të dhënave përmes modeleve për t’i bërë ato të dobishme në detyra të tilla si përgjigjja ndaj pyetjeve me tekst të ngjashëm me njeriun ose gjenerimi i imazheve.
Google TPU tani është në gjeneratën e tij të katërt. Kompania publikoi së fundmi një punim shkencor duke detajuar se si ka bashkuar më shumë se 4000 çipa së bashku në një superkompjuter duke përdorur çelësat e tij optikë të zhvilluar me porosi për të ndihmuar në lidhjen e makinave individuale.
Përmirësimi i këtyre lidhjeve është bërë një pikë kyçe e konkurrencës midis kompanive që ndërtojnë superkompjuterë të AI, sepse të ashtuquajturat modele të mëdha gjuhësore që fuqizojnë teknologjitë si Bard i Google ose ChatGPT i OpenAI kanë shpërthyer në madhësi, që do të thotë se ato janë shumë të mëdha për t’u ruajtur në një çip të vetëm.
Google tha se superkompjuterët e tij e bëjnë të lehtë rikonfigurimin e lidhjeve midis çipave në fluturim, duke ndihmuar në shmangien e problemeve dhe përmirësimin e performancës.