Luda utrka na tržištu procesora za umjetnu inteligenciju
Umjetna inteligencija od uspjeha DeepMinda protiv svjetskog prvaka u igri Go Leeja Sedola 2016. pa do robusnih prediktivnih sposobnosti OpenAI-jevog ChatGPT-a iz studenom 2022. ubrzano mijenja svijet
Složenost algoritama AI za obuku raste zapanjujućom brzinom. Stručnjaci su već izračunali da se količina računanja potrebna za pokretanje novorazvijenih algoritama za obuku udvostručuje otprilike svaka četiri mjeseca što je fascinantan podatak. Kako bi se održao korak s takvim rastom, potreban je hardver za aplikacije umjetne inteligencije koji nije samo skalabilan – omogućava dugotrajnost kako se uvode novi algoritmi, a istovremeno održava niske operativne režijske troškove – već je također sposoban nositi se sa sve složenijim novim AI modelima.
Prema izvješćima analitičke tvrtke IDTechEx AI Chips: 2023-2033 i AI Chips for Edge Applications 2024-2034: Artificial Intelligence at the Edge, predviđa da će rast AI hardvera, prije svega procesora, kako za obuku i primjenu unutar cloud computinga, tako i za primjenu na sve češćem edge computingu, nastaviti ubrzavati u sljedećih deset godina, kako svijet i uređaji u njemu sukladno potrošačkoj i poslovnoj primjeni postaju sve više automatizirani i međusobno povezani.
FPU i GPU upoznaju umjetnu inteligenciju
Ideja projektiranja hardvera za ispunjavanje određene funkcije, osobito ako je ta funkcija ubrzavanje određenih vrsta izračuna preuzimanjem kontrole nad njima od glavnog (host) procesora, nije nova; rani dani računalstva vidjeli su CPU (centralne procesorske jedinice) uparene s matematičkim koprocesorima, poznatim kao jedinice s pomičnim zarezom (FPU). Svrha je bila prebaciti složene matematičke operacije s pomičnim zarezom s CPU-a na procesor posebne namjene, budući da bi on mogao učinkovitije upravljati proračunima, oslobađajući CPU da se usredotoči na osnovne stvari.
Kako su se tržišta i tehnologija razvijali, tako su se povećavala i radna opterećenja, pa su novi dijelovi hardvera bili potrebni za podnošenje tih radnih opterećenja. Posebno značajan primjer jednog od ovih specijaliziranih radnih opterećenja je proizvodnja računalne grafike, gdje je dotični akcelerator postao nešto poput poznatog naziva: grafička procesorska jedinica (GPU).
Strojno učenje (obuka)
Baš kao što je računalna grafika zahtijevala potrebu za drugačijom vrstom arhitekture procesora, pojava strojnog učenja dovela je do potražnje za drugom vrstom akceleratora, onog koji je sposoban učinkovito nositi se s radnim opterećenjem strojnog učenja. Strojno učenje je proces u kojem računalni programi koriste podatke za izradu predviđanja na temelju modela, a zatim optimiziraju model kako bi bolje odgovarao pruženim podacima, prilagođavanjem korištenih pondera. Računanje stoga uključuje dva koraka: obuku i primjenu (odlučivanje).
Prva faza implementacije algoritma umjetne inteligencije je faza obuke, gdje se podaci unose u model, a model prilagođava svoje težine dok se na odgovarajući način ne uklopi u pružene podatke.
Primjene naučenog na nepoznatim podacima
Druga faza je faza primjene, odnosno donošenje odluka, gdje se izvodi obučeni algoritam umjetne inteligencije, a novi podaci (koji nisu navedeni u fazi obuke) klasificiraju se na način koji je u skladu sa prikupljenim podacima.
Obuka hardverski zahtjevnija
Od te dvije faze, faza obuke je računalno intenzivnija, s obzirom na to da ova faza uključuje izvođenje istog izračuna milijune puta (obuka za neke vodeće algoritme umjetne inteligencije može trajati danima). Kao takva, obuka se odvija unutar okruženja računalstva u cloudu (tj. podatkovnih centara), gdje se koristi veliki broj čipova koji mogu izvesti vrstu paralelne obrade potrebne za učinkovito treniranje algoritama (CPU-ovi obrađuju zadatke na serijalizirani način, gdje jedna izvršna nit počinje kada završi prethodna izvršna nit. Kako bi se smanjila latencija, koriste se veliki i brojni predmemorije memorije tako da je većina vremena izvođenja izvršne niti posvećena obradi. Za usporedbu, paralelna obrada uključuje višestruke izračune koji se odvijaju istovremeno, gdje je lagano izvođenje niti se preklapaju tako da je latencija učinkovito maskirana. Mogućnost razdvajanja i izvođenja višestrukih izračuna istovremeno velika je prednost za obuku algoritama umjetne inteligencije, kao i u mnogim slučajevima primjene). Nasuprot tome, faza primjene može se odvijati unutar okruženja cloud computinga i edge clouda.
Procesori za obuku i za primjenu
Unutar okruženja cloud computinga GPU-ovi dominiraju i predviđa se da će tako i nastaviti tijekom sljedećeg desetogodišnjeg razdoblja, s obzirom na Nvidijinu dominaciju u prostoru za obuku AI-ja. Za AI edge cloudu, ASIC-ovi su poželjni, s obzirom na to da su čipovi češće dizajnirani s određenim problemima na umu (kao što je detekcija objekata unutar sustava sigurnosnih kamera, na primjer).
Rast tržišta
Očekuje se da će prihod od prodaje AI procesora (uključujući prodaju fizičkih procesora i iznajmljivanje procesora putem usluga u cloudu) porasti na jedva 300 milijardi američkih dolara do 2034. godine, uz prosječnu godišnju stopu rasta (GAGR) od 22% od 2024. do 2034. godine. Ti prihodi uključuju korištenje procesora za ubrzanje radnih opterećenja strojnog učenja na rubu mreže, za telekomunikacijski rub i unutar podatkovnih centara u cloudu. Od 2024. godine procesori za primjenu AI (i na rubu i unutar clouda) čine 63% generiranog prihoda, s tim da će taj udio porasti na više od dvije trećine ukupnog prihoda do 2034. godine. To je velikim dijelom posljedica značajnog rasta na rubu i telekomunikacijskom rubu, jer se mogućnosti umjetne inteligencije koriste bliže krajnjem korisniku.
Što se tiče industrijske vertikale, očekuje se da će IT i telekomunikacije prednjačiti u korištenju AI čipova tijekom sljedećeg desetljeća, s bankarstvom, financijskim uslugama i osiguranjem (BFSI) koji će biti iza njih i potrošačkom elektronikom. Od toga, industrija potrošačke elektronike trebala bi generirati najviše prihoda na rubu, s obzirom na daljnje uvođenje umjetne inteligencije u potrošačke proizvode za domove.