- Maia 200 je Microsoftov najnovejši interni pospeševalnik umetne inteligence, optimiziran za sklepanje v velikem obsegu z več kot 10 PFLOPS v FP4 in približno 5 PFLOPS v FP8.
- Čip je namenjen podatkovnim središčem v oblaku in poganja delovne obremenitve, kot so Copilot, Microsoft Foundry, OpenAI-jev GPT-5.2 in projekte ekipe Superintelligence.
- Zgrajena na TSMC-jevem 3-nm procesu z več kot 100 milijardami tranzistorjev in 216 GB HBM3E, si Maia 200 prizadeva za visoko učinkovitost in boljše razmerje med ceno in kakovostjo kot Maia 100 in konkurenčni hiperskalerski silicij.
- Microsoft Maia 200 postavlja kot strateško potezo za zmanjšanje odvisnosti od Nvidie in bolj neposredno konkurenco Amazonovemu Trainiumu in Googlovim družinam TPU.
Naš Microsoft Maia 200 je prišel kot najnovejši interni pospeševalnik umetne inteligence podjetja, čip, zasnovan od začetka za prenos obsežnih inferencialnih delovnih obremenitev v oblak. Namesto da bi bil namenjen vsakodnevnim potrošniškim napravam, je ta procesor zasnovan za zahtevna okolja podatkovnih centrov, kjer se modeli z milijardami parametrov neprekinjeno izvajajo za odgovarjanje na vprašanja, ustvarjanje vsebin in poganjanje poslovnih aplikacij.
Microsoft opisuje Maio 200 kot nekakšno »Silicijeva delovna sila« za sklepanje umetne inteligence, posebej uglašen za hitro, učinkovito in obsežno izvajanje že naučenih modelov. Čip je postavljen kot temelj infrastrukture Azure podjetja, ki podpira storitve, kot so Microsoft 365 Copilot, Microsoft Foundry in najnovejše generacije velikih jezikovnih modelov, razvitih tako interno kot v sodelovanju z OpenAI.
Arhitektura, procesno vozlišče in surova zmogljivost
V središču novega pospeševalnika je TSMC-jev 3-nanometrski proizvodni proces, s čimer je Maia 200 uskladila z najnaprednejšimi tehnologijami izdelave, ki so trenutno na voljo za visokozmogljivo računalništvo. Z izkoriščanjem tega vozlišča je Microsoft v nekaterih razkritjih na eno samo čip Maia 200 namestil več kot 100 milijard tranzistorjev, medtem ko druga tehnična poročila navajajo številko, ki je bližje 140 milijard tranzistorjevČeprav se natančno število razlikuje glede na vir, se vsa poročila strinjajo, da gre za zelo gosto in najsodobnejšo zasnovo.
Kar zadeva zmogljivost, je Maia 200 očitno optimizirana za nizko natančni formati podatkov ki so postali standard v sodobnih delovnih obremenitvah sklepanja. Microsoft poroča, da lahko pospeševalnik preseže 10 petaflopov (1015 operacij s plavajočo vejico na sekundo) pri delovanju v 4-bitni natančnosti (FP4), stisnjenem numeričnem formatu, ki žrtvuje nekaj natančnosti za zelo visoko prepustnost in boljšo energetsko učinkovitost. V 8-bitnem načinu (FP8) naj bi čip dosegel približno 5 petaflopov, kar mu daje veliko prostora za zahtevne naloge sklepanja, ki še vedno potrebujejo večjo natančnost kot FP4.
Te številke niso akademske: Eno vozlišče Maia 200 je opisano kot sposobno poganjati današnje največje modele hkrati pa pušča prostor za še večje arhitekture, ki se bodo verjetno pojavile v bližnji prihodnosti. To pojasnjuje, zakaj Microsoft izpostavlja Maio 200 kot doslej najzmogljivejši silicij prvega proizvajalca za sklepanje, ki je namenjen predvsem delovnim obremenitvam, ki že tako ali tako preizkušajo obstoječo infrastrukturo na meji.
V internih in javnih primerjavah Microsoft trdi, da Maia 200 dosega tri- do štirikrat večjo zmogljivost kot FP4 Amazonovega pospeševalnika Trainium tretje generacije in prepustnosti FP8, ki v nekaterih meritvah prekaša Googlov TPU sedme generacije. Čeprav so neposredne primerjave med čipi vedno niansirane, številke kažejo, da je Microsoft dovolj prepričan, da Maia 200 uvrsti med trenutne pospeševalnike, zasnovane s hiperskalerji.
Pomembno je, da podjetje ne poudarja le surove hitrosti, temveč učinkovitost in stroškiPo navedbah Microsofta Maia 200 ponuja približno 30 % boljšo zmogljivost na dolar kot prva generacija Maia 100, kljub temu da deluje z višjo toplotno močjo. Za ponudnike storitev v oblaku in stranke je takšno razmerje med stroški in zmogljivostjo osrednji dejavnik pri odločanju o tem, kako razširiti storitve umetne inteligence.
Pomnilniški podsistem in obdelava podatkov

Eden najbolj presenetljivih vidikov Maie 200 je njen konfiguracija pomnilnika, ki je posebej prilagojena za velike modele umetne inteligencePospeševalnik ima 216 GB visokopasovnega pomnilnika HBM3E, ki je povezan s skupno pasovno širino HBM približno 7 TB/s. Ta pasovna širina je namenjena zagotavljanju ogromnih uteži modelov in aktivacij brez ozkih grl, kar je ključna zahteva za visokozmogljivo sklepanje in sodobne arhitekture sistemov za shranjevanje.
Poleg HBM čip vključuje še okoli 272 MB SRAM-a na čipu, razporejenih v večplastni hierarhiji, ki jo Microsoft opisuje kot SRAM na ravni gruče (CSRAM) in SRAM na ravni ploščic (TSRAM). Ta večplastna zasnova omogoča, da se pogosto dostopani podatki nahajajo bližje računskim enotam, kar zmanjša zakasnitev in izboljša učinkovito izrabo razpoložljive pasovne širine. Zdi se, da je bil dober del raziskovalnih in razvojnih prizadevanj za Maia 200 vložen v to hierarhijo pomnilnika, ki je ključnega pomena za ohranjanje zasedenosti računskih enot pospeševalnika.
Celotna arhitektura je usmerjena k ohranjanje lokalnih parametrov modela in vmesnih podatkov čim bolj, da naloga sklepanja ne bi morala nenehno iskati potrebnih informacij prek strežnika ali omrežne strukture. Ta lokalna osredotočenost pomeni, da je za gostovanje določenega modela morda potrebnih manj pospeševalcev, kar lahko zmanjša tako število strojne opreme kot tudi operativno kompleksnost za stranke, ki uvajajo velike delovne obremenitve.
Poleg vgrajenega pomnilnika Maia 200 podpira tudi precejšen povečanje pasovne širine med čipi, o kateri poročajo s hitrostjo do 2.8 TB/s. Ta povezovalna zmogljivost je zasnovana tako, da omogoča delovanje več pospeševalnikov kot tesno integriranega nabora virov znotraj strežnika ali omare, kar jim pomaga pri reševanju posebej velikih ali kompleksnih nalog sklepanja, ki bi lahko presegle zmogljivost ene same naprave.
Čeprav Microsoft še ni objavil izčrpnih podrobnosti o natančni postavitvi omare z omogočenim procesorjem Maia 200 ali skupni petaflop zmogljivosti za popolnoma zaseden sistem, podjetje ugotavlja, da bodo ti pospeševalniki nameščeni skupaj z drugimi vrstami strojne opreme umetne inteligence. V praksi to pomeni Maia 200 je del heterogene infrastrukture Azure., ki sodeluje z grafičnimi procesorji in drugimi pospeševalniki, namesto da bi jih popolnoma nadomestil.
Osredotočenost na sklepanje in delovne obremenitve v resničnem svetu
Za razliko od pospeševalnikov učenja, ki so optimizirani za gradnjo modelov iz nič, je Maia 200 namenjena sklepanje – postopek izvajanja modelov, ko so usposobljeniTa faza uporabe umetne inteligence pogosto prevladuje nad tekočimi obratovalnimi stroški, saj se lahko modeli po končanem usposabljanju poizvedujejo milijone ali milijarde krat. Ker organizacije uvajajo vse bolj kompleksne sisteme, je potreba po poenostavitvi sklepanja postala še bolj nujna.
Z osredotočanjem na formata FP4 in FP8 si Maia 200 prizadeva doseči idealno ravnovesje med natančnost, hitrost in poraba energijeFP4, čeprav manj natančen, omogoča izjemno visoko prepustnost in je lahko zelo primeren za modele, ki prenašajo kvantizacijo brez znatnega poslabšanja kakovosti izhoda. FP8 ponuja možnost večje natančnosti za scenarije, kjer je natančnost še vedno večji pomislek, hkrati pa zagotavlja boljšo učinkovitost kot tradicionalni 16-bitni ali 32-bitni formati s plavajočo vejico.
Microsoft je začel uporabljati Maio 200 za svoje storitve. OpenAI-jev model GPT-5.2 in drugi napredni LLM-ji prek Azure. Pospeševalnik je vgrajen tudi v Microsoft Foundry, platformo za gradnjo prilagojenih rešitev umetne inteligence, in poganja delovne obremenitve za Microsoft 365 Copilot, pomočnika podjetja, osredotočenega na produktivnost. V teh vlogah naj bi Maia 200 pomagala izboljšati odzivne čase, povečati prepustnost in omogočiti bolj dovršene funkcije brez sorazmernega povečanja stroškov.
Maia 200 interno že podpira projekte iz Microsoftova ekipa za superinteligenco, ambiciozni oddelek, ki raziskuje najsodobnejše sisteme umetne inteligence. Podjetje izbranim partnerjem, vključno z akademiki, razvijalci, laboratoriji za umetno inteligenco in sodelavci pri modelih odprte kode, odpira predogled kompleta za razvoj programske opreme Maia 200. Namen predogleda kompleta SDK je pomagati zunanjim ekipam pri prilagajanju delovnih obremenitev čipu in raziskovanju, kako najbolje izkoristiti njegovo arhitekturo.
Z vidika uporabnika uvedba Maia 200 ne bo takoj spremenila načina, kako večina ljudi vsakodnevno komunicira s storitvami umetne inteligence. Vendar pa se s selitvijo vse več nalog sklepanja v novi pospeševalnik, Končni uporabniki lahko opazijo hitrejše odzive, bolj gladko izkušnjo in nove zmogljivosti v orodjih, kot so Copilot, aplikacije, ki temeljijo na Azure OpenAI, in druge Microsoftove storitve, ki se zanašajo na močno sklepanje v zakulisju.
Uvajanje v podatkovne centre Azure in razpoložljivost
Maia 200 je že v produkcijski uporabi znotraj Microsoftove oblačne infrastrukture. Podjetje to potrjuje. Začetne uvedbe so aktivne v osrednji ameriški regiji Azure., blizu Des Moinesa v Iowi. Načrtujejo se dodatne uvedbe, pri čemer je US West 3 na območju Phoenixa v Arizoni označen kot ena od naslednjih regij, ki bo prejela zmogljivost Maia 200, sčasoma pa se pričakujejo še več geografskih območij, saj se bo dobava povečevala.
Zaenkrat je Maia 200 nameščena izključno kot del Sistemi podatkovnih centrov, ki jih upravlja MicrosoftZa razliko od grafičnih procesorjev ali nekaterih pospeševalcev drugih proizvajalcev, ki se prodajajo neposredno strankam, čip ni na voljo kot ločena komponenta za nakup in namestitev v lokalnih okoljih. Namesto tega bodo organizacije do zmogljivosti Maia 200 dostopale posredno prek storitev Azure, API-jev in upravljanih platform.
Microsoft je namignil, da bo širša razpoložljivost za stranke v prihodnosti, kar kaže, da bo več strank lahko izrecno ciljalo na primerke ali storitve, ki jih podpira Maia 200, znotraj Azureja, ko se bo ekosistem razvijal. Ali se bo to sčasoma razširilo na samostojne sisteme zunaj Microsoftovega oblaka, ostaja odprto vprašanje, vendar je trenutni poudarek trdno na gostovanih ponudbah.
Kar zadeva praktične koristi, bi morali stranke Azure OpenAI, znanstveniki, razvijalci in velika podjetja postopoma videti večja prepustnost in boljša latenca za kompleksne delovne obremenitve sklepanja, ko se Maia 200 vse bolj uporablja. To bi lahko bilo še posebej pomembno za aplikacije, kot so finančno modeliranje, iskanje, avtonomni agenti ali generativni sistemi v realnem času, ki zahtevajo tako hitrost kot doslednost.
Microsoft namiguje, da bi infrastruktura, ki jo poganja Maia 200, poleg komercialnih uporabnikov lahko podpirala tudi obsežne raziskovalni projekti na področjih, kot so podnebno modeliranje, bioznanosti in kemijaTa področja so močno odvisna od podrobnih simulacij in kompleksnih modelov, ki jim lahko znatno koristijo pospeševalniki, optimizirani za hitro sklepanje na obsežnih naborih podatkov.
Učinkovitost, termični in okoljski položaj
Ker se pozornost posveča okoljskim stroškom infrastrukture umetne inteligence, Microsoft upodablja Maio 200 kot pospeševalnik, ki se zaveda učinkovitosti namesto popolnoma energijsko požrešne zasnove. Čip ima ocenjeno toplotno nazivno moč (TDP) približno 750 vatov, kar je opazno manj od nekaterih najbolj energijsko potratnih grafičnih procesorjev na trgu, kot je Nvidia Blackwell B300 Ultra, ki ima približno 1,400 vatov.
Kljub višjemu TDP v primerjavi s predhodnikom, Maia 100, naj bi novi pospeševalnik zagotavljal približno 30 % boljša učinkovitost na dolar kot prejšnja generacija. To izboljšanje je posledica prehoda na naprednejše proizvodno vozlišče, arhitekturnih izboljšav in učinkovitejšega pomnilniškega podsistema. Prejšnja poročila so nakazovala, da je bil Maia 100 tehnično zasnovan za 700-vatno ohišje, vendar ga je Microsoft v praksi omejil na približno 500 vatov, kar kaže na to, da bi lahko Maia 200 delovala tudi pod svojo teoretično zgornjo mejo, odvisno od izbire namestitve.
Microsoftovo sporočilo o Maia 200 se ujema s širšimi prizadevanji podjetja, da pokaže, da je zavedajoč se vpliva velikih podatkovnih centrov na okoliške skupnosti in okolje. Vodilni delavci so javno zagovarjali, da mora razvoj umetne inteligence družbi pokazati konkretne koristi, da bi ohranili javno podporo in se izognili temu, kar nekateri opisujejo kot morebiten negativni odziv na umetno inteligenco.
V praksi lahko večja učinkovitost na vat in na dolar pomaga zmanjšati število pospeševalnikov, potrebnih za podporo določene ravni storitev, s čimer se omeji tako porabo energije kot tudi porabo strojne opreme. To pa lahko pomaga hiperskalerjem pri odzivanju na pomisleke glede porabe energije, porabe vode za hlajenje in širših meritev trajnosti.
Čeprav Microsoft še ni delil podrobnosti o celotnem paketu, kot so skupna poraba energije in zmogljivost popolnoma zasedenega omare Maia 200, poudarek na učinkovitosti sklepanja kaže, da naj bi čip igral ključno vlogo pri ohranjanju dolgoročnih obratovalnih stroškov storitev umetne inteligence obvladljivih, tako finančno kot okoljsko.
Konkurenčno okolje: Trainium, TPU in Nvidijin ekosistem
Maia 200 prihaja v trenutku, ko se veliki ponudniki storitev v oblaku hitro trudijo razvijajo lastne pospeševalnike umetne inteligence da bi zmanjšali odvisnost od zunanjih prodajalcev, zlasti Nvidie. Googlova linija TPU in Amazonova serija Trainium sta že bili osrednjega pomena za ta trend, saj sta ponudili alternative, ki so globoko integrirane v njune platforme v oblaku.
Z Maio 200 Microsoft odkrito pozicionira svoj čip kot neposredni tekmec Amazonovega Trainiuma3 in Googlovega TPU sedme generacijePodjetje trdi, da njegov pospeševalnik ne le prekaša Trainium3 v prepustnosti FP4 za faktor tri do štiri, temveč ponuja tudi zmogljivost FP8, ki prekaša TPU v7, hkrati pa več kot podvoji Trainium3 v nekaterih metrikah FP8.
Zmogljivost pomnilnika in pasovna širina sta prav tako del te konkurenčne zgodbe. Maia 200 216 GB pomnilnika HBM3E in 7 TB/s pasovne širine so v nasprotju z javnimi specifikacijami za Trainium3 (144 GB in 4.9 TB/s) in TPU v7 (192 GB in 7.4 TB/s). Na strani skaliranja se pasovna širina medsebojne povezave 2.8 TB/s, navedena za Maia 200, primerja z do 2.56 TB/s za Trainium3 in približno 1.2 TB/s za TPU v7.
Vendar je konkurenčna slika bolj zapletena kot zgolj surove številke. Nvidia ostaja prevladujoči dobavitelj za usposabljanje umetne inteligence in v mnogih primerih tudi za sklepanje, predvsem zaradi zrelosti ekosistema programske opreme, ki temelji na CUDA, in široke ponudbe strojne opreme. Čeprav Microsoft, Amazon in Google širijo svoje lastne portfelje silicijevih procesorjev, še vedno sodelujejo z Nvidio pri novih arhitekturah in integriranih sistemih.
Amazon dejansko sodeluje z Nvidio pri vključitvi prihajajočega Trainiuma4 skupaj s tehnologijami, kot sta referenčni modeli NVLink 6 in MGX. Podobno Microsoft še naprej uporablja grafične procesorje Nvidia v svojih podatkovnih centrih, s čimer Maio 200 postavlja kot del heterogenega okolja in ne kot univerzalno zamenjavo.
Za stranke se bodo ključna vprašanja vrtela okoli skupni stroški lastništva in integracije programske opremeKako enostavno je mogoče prenesti ali optimizirati delovne obremenitve za Maio 200 in kako se cene primerjajo s primerki, ki temeljijo na Nvidia ali TPU, bo močno vplivalo na to, kateri pospeševalni sklad bodo izbrali. Microsoftov poudarek na zmogljivosti na dolar in na vat kaže, da so ti dejavniki osrednjega pomena za njegovo strategijo.
Od Maie 100 do Maie 200: razvoj in namigi za načrt
Maia 200 gradi na Temelje, ki jih je postavila Maia 100, ki ga je Microsoft predstavil leta 2023 kot svoj prvi interni pospeševalnik umetne inteligence. Čeprav je podjetje med generacijama zagotovilo le malo neposredno primerljivih meritev, je novejši čip očitno namenjen večji zmogljivosti, z agresivnejšimi oblikovnimi cilji in razširjenimi pomnilniškimi viri.
Poročila kažejo, da je Maia 200, interno kodno poimenovana "Braga", je imel daljši cikel razvoja in uvajanja, kot je bilo prvotno načrtovano. Prva pričakovanja so predvidevala prihod leta 2025, kar bi lahko celo prehitelo nekatere ponudbe grafičnih procesorjev naslednje generacije na trgu. Na koncu se je časovnica izdaje premaknila, vendar se zdi, da je Microsoft zdaj odločen utrditi svojo prisotnost kot resen igralec na področju silicija na trgu hiperskalirane umetne inteligence.
Kljub višjemu TDP-ju, ki znaša okoli 750 vatov, podjetje trdi, da Splošna ekonomska učinkovitost Maia 200 je bistveno boljša kot pri Maii 100, deloma zaradi naprednejšega procesnega vozlišča in arhitekturnih posodobitev. Povečana poraba energije se šteje za sprejemljiv kompromis za doseganje večje trajnostne prepustnosti in nižjih stroškov sklepanja na operacijo.
Poročila iz industrije kažejo, da bo v prihodnje Prihodnji Microsoftovi pospeševalniki bi lahko bili izdelani po Intelovem 18A procesu, kar kaže na to, da podjetje raziskuje več partnerstev z livarnami za nadaljnje modele. Ta diverzifikacija bi lahko Microsoftu omogočila večjo fleksibilnost pri uravnoteženju zmogljivosti, dobave in stroškovnih dejavnikov v prihodnjih generacijah.
Zaenkrat Maia 200 predstavlja pomemben korak na širši poti Microsofta od podjetja, ki ga v prvi vrsti vodi programska oprema, do podjetja, ki oblikuje ključne strojne komponente, ki so osnova za njegovo vodilno ponudbo umetne inteligence. Njena uvedba bo verjetno vplivala na to, kako agresivno bo Microsoft lahko v prihodnjih letih širil storitve, kot so Copilot, Foundry in Azure OpenAI.
Če upoštevamo vse te elemente, se Maia 200 izkaže za namensko zgrajen pospeševalnik sklepanja ki združuje visoko prepustnost FP4 in FP8, obsežen pomnilniški podsistem in integracijo, osredotočeno na oblak, v heterogeno infrastrukturo Azure. Čeprav številne globlje arhitekturne podrobnosti in celotne meritve na ravni sistema še niso bile razkrite, čip jasno označuje pomemben korak v Microsoftovih prizadevanjih za nadzor nad večjim obsegom svojega sklada umetne inteligence, upravljanje stroškov in neposredno tekmovanje z drugimi hiperskalerji v tekmi za pogon naslednjega vala obsežnih aplikacij umetne inteligence.
