Sad i Foxconn ima svoj veliki jezični model
Model FoxBrain obučen je pomoću 120 Nvidijinih GPU-ova H100. Temelji se na arhitekturi Llama 3.1 tvrtke Meta Platforms.

Tajvanski Foxconn lansirao je svoj prvi veliki jezični model. Planira tu tehnologiju koristiti za poboljšanje proizvodnje i upravljanja opskrbnim lancem.
Model FoxBrain obučen je pomoću 120 Nvidijinih GPU-ova H100. Dovršen je za oko četiri tjedna. Temelji se na arhitekturi Llama 3.1 tvrtke Meta Platforms. To je tajvanski prvi veliki jezični model s mogućnostima razmišljanja optimiziran za tradicionalne kineske i tajvanske jezične stilove.
Foxconn je objavio kako, iako postoji mali jaz u performansama u usporedbi s modelom destilacije kineskog DeepSeeka, ukupna izvedba njihovog modela vrlo je blizu standardima svjetske klase. Više pojedinosti objavit će tijekom Nvidijine konferencije za programere GTC sredinom ožujka.
U početku dizajniran za interne aplikacije, FoxBrain pokriva analizu podataka, podršku odlučivanju, suradnju na dokumentima, matematiku, razmišljanje i rješavanje problema te generiranje koda. Foxconn planira surađivati s tehnološkim partnerima kako bi proširio aplikacije modela, podijelio informacije otvorenog koda i promovirao umjetnu inteligenciju u proizvodnji, upravljanju opskrbnim lancem i inteligentnom donošenju odluka.
Nvidia je pružila podršku putem svog tajvanskog superračunala Taipei-1 i ponudila tehničko savjetovanje tijekom obuke modela.