Amazon gaat Nvidia-technologie integreren in zijn AI-chips en lanceert nieuwe Trainium-servers

  • AWS gaat Nvidia's NVLink Fusion integreren in zijn aankomende Trainium4 AI-chip om de hoogwaardige onderlinge verbindingen te verbeteren.
  • Het bedrijf lanceert nieuwe servers met Trainium3, met ruim vier keer zoveel rekenkracht en 40% minder energieverbruik.
  • Amazon versterkt zijn toewijding aan AI met AI Factories: inzetbare infrastructuren in datacenters van bedrijven en overheden.
  • De strategie is erop gericht de afhankelijkheid van externe leveranciers te verminderen en rechtstreeks te concurreren met Nvidia, Google en Microsoft op het gebied van chips en AI-infrastructuur.

Kunstmatige intelligentie-infrastructuur in de cloud

Amazon Web Services heeft zijn kunstmatige intelligentiestrategie Met een reeks aankondigingen die zowel het eigen chipportfolio als de technologische alliantie met Nvidia versterken, gaf het bedrijf gedetailleerd aan hoe het Nvidia-technologie gaat integreren in zijn toekomstige AI-processors en onthulde het nieuwe servers die zijn ontworpen voor het trainen en implementeren van grootschalige AI-modellen tijdens zijn grote jaarlijkse cloud computing-conferentie in Las Vegas.

Deze stap positioneert AWS nog prominenter in de race om kunstmatige intelligentie (AI), een gebied waar het rechtstreeks concurreert met giganten zoals Microsoft, Google en Meta. Verre van simpelweg GPU's van derden te verkopen, zet Amazon in op een combinatie van eigen chips, gespecialiseerde interconnects en overeenkomsten met Nvidia om om Europese en mondiale bedrijven meer prestatie- en kostenopties te bieden.

Trainium4: de volgende chip van Amazon zal de taal van Nvidia spreken

Een van de meest opvallende aankondigingen was de bevestiging dat de toekomstige AI-trainingschip van het bedrijf, bekend als Trein4zal interconnectietechnologie integreren Nvidia NVLink FusionDeze oplossing maakt razendsnelle communicatie tussen processoren mogelijk, wat essentieel is wanneer duizenden machines gecoördineerd moeten samenwerken om grote taalmodellen te trainen.

NVLink wordt beschouwd als een van Nvidia's grootste troeven in high-performance datacenters en werd tot nu toe voornamelijk geassocieerd met configuraties die uitsluitend gebaseerd waren op de eigen GPU's van het bedrijf. De beslissing van Amazon om deze technologie in Trainium4 te integreren, betekent dat toekomstige AI-clusters AWS-chips en Nvidia GPU's in dezelfde infrastructuur kunnen combineren, wat de integratie van Nvidia-chips en Nvidia-GPU's mogelijk maakt. hybride architecturen.

Hoewel AWS geen specifieke data heeft genoemd voor de komst van Trainium4 op de markt, heeft het bedrijf wel duidelijk gemaakt wat het doel is: een platform bieden waarmee klanten kunnen blijven profiteren van het software-ecosysteem van Nvidia, met name CUDA, terwijl ze een deel van hun workloads kunnen migreren naar hardware die is ontworpen door Amazon op zoek naar een betere beschikbaarheid en prijs.

Deze compatibiliteit is vooral relevant voor organisaties in Europa en Spanje die al gestandaardiseerd zijn rond Nvidia GPU's en geoptimaliseerde bibliotheken, maar die problemen ondervinden capaciteitsbeperkingen of stijgende kosten bij het opschalen van hun generatieve AI-projecten.

Servers en chips voor kunstmatige intelligentie

Nieuwe servers met Trainium3: meer kracht en minder energie

Terwijl de ontwikkeling van Trainium4 op de achtergrond doorgaat, heeft AWS er ​​al een in productie genomen. nieuwe generatie servers Gebaseerd op de Trainium3-chip. Deze apparaten, verkrijgbaar op de conferentie in Las Vegas zelf, zijn gericht op het trainen van grote modellen en grootschalige inferentie in cloud AI-services.

Elke server integreert 144 Trainium3-chips Volgens het bedrijf biedt het meer dan vier keer zoveel rekenkracht als de vorige generatie AI-hardware van AWS. Bovendien verbruikt het ongeveer 40% minder energie, een belangrijke factor in een context waarin elektriciteitskosten en netwerkbeperkingen de uitbreiding van datacenters beginnen te beïnvloeden.

Dave Brown, vice president van computing en machine learning services bij AWS, benadrukte dat het doel niet alleen is om op te scheppen over pure kracht, maar om klanten te laten zien dat die bestaat. een concurrerend alternatief qua prijs-prestatieverhouding vergeleken met traditionele GPU's. Het bedrijf geeft geen absolute cijfers, maar benadrukt dat de sprong ten opzichte van de vorige generatie opmerkelijk is.

Deze efficiëntieverbetering is met name interessant voor Europese operators, waar de regelgevende en maatschappelijke druk op het energieverbruik van digitale infrastructuur voortdurend toeneemt. Minder elektriciteit voor hetzelfde trainingsvolume betekent duurzamere datacenters en, potentieel, beknoptere facturen voor zakelijke klanten.

Binnen de roadmap van Amazon probeert Trainium3 niet alleen terrein te winnen ten opzichte van Nvidia, maar ook de afhankelijkheid van externe aanbieders te verminderen en een sterke positie te verwerven. gepatenteerde lijn van AI-chips die zich kunnen ontwikkelen met cycli die beter door het bedrijf worden gecontroleerd.

AI-fabrieken: speciale infrastructuur in onze eigen datacenters

Een andere aankondiging die veel aandacht heeft gegenereerd, is de lancering van de zogenaamde AI-fabrieken van AWS, een product dat is ontworpen voor grote bedrijven en overheidsinstellingen die geavanceerde systemen voor kunstmatige intelligentie op hun systemen willen laten draaien eigen datacenters, zonder de integratie met de Amazon-cloud op te geven.

Het model is op papier eenvoudig: de klant levert de fysieke ruimte en energie, en AWS zorgt voor de installatie, het beheer en het onderhoud van het AI-systeem en verbindt het met de rest van de diensten van het platform. Op deze manier kunnen Europese bedrijven met strenge regelgeving, of overheden die zich zorgen maken over datasoevereiniteit, hun data behouden. volledige controle over gevoelige informatie zonder het bloot te stellen aan externe infrastructuur.

De term AI-fabrieken is niet toevallig. Nvidia gebruikt hetzelfde concept om te verwijzen naar zijn eigen hardwaresystemen die geoptimaliseerd zijn voor kunstmatige intelligentie, en in dit geval wordt de AWS-oplossing gebouwd in samenwerking met de GPU-fabrikant. Amazons AI-fabrieken zullen Blackwell-chips van Nvidia en het nieuwe Trainium3, dat vertrouwt op AWS-cloudnetwerken, -opslag en -beveiliging.

Naast hardware kunnen deze faciliteiten worden geïntegreerd met beheerde services zoals Amazonebodem —om fundamentele AI-modellen te orkestreren en te implementeren— en AWS SalieMaker, gericht op de ontwikkeling en training van bedrijfseigen modellen. Voor bedrijven betekent dit een krachtige AI-omgeving, maar geïmplementeerd in een hybride cloudomgeving die beter aansluit op de lokale dataregelgeving.

Ondertussen bewegen andere grote aanbieders zoals Microsoft ook in dezelfde richting, met lokale datacenters en oplossingen die zijn ontworpen voor datasoevereiniteit. Amazons toewijding aan zijn AI-fabrieken weerspiegelt de mate waarin kunstmatige intelligentie (AI) wordt ingezet. cloudgiganten naar meer hybride modellen duwenafstappen van het puur gecentraliseerde model van tien jaar geleden.

Datacenter met servers voor AI

Nova- en Sonic-modellen en de boost voor het AI-aanbod van AWS

Naast de hardware-innovaties gebruikte Amazon zijn conferentie om zijn softwarekant te versterken met nieuwe versies van zijn modellen voor kunstmatige intelligentie, gegroepeerd onder het merk NovaHet bedrijf presenteerde Nova 2, een evolutie die een hogere snelheid en responsiviteit belooft vergeleken met de vorige generatie.

Eén van de varianten van Nova is in staat om met gebruikers te communiceren, niet alleen via tekst, maar ook via afbeeldingen, stem en videoDit vergroot de potentiële toepassingsmogelijkheden in sectoren zoals klantenservice, online onderwijs en contentcreatie. Deze multimodale functionaliteit plaatst het op gelijke voet met andere toonaangevende voorstellen in de generatieve AI-markt.

Bovendien presenteerde AWS een model genaamd sonisch, gericht op spraakinteractie. Volgens Matt Garman, CEO van Amazon Web Services, kan dit systeem op gesproken commando's reageren met een stemuitvoer van "menselijke" kwaliteit, wat de deur opent naar meer natuurlijke conversatie-assistenten voor publieke en private diensten.

Hoewel het bedrijf toegeeft dat zijn modellen nog steeds voor de uitdaging staan ​​om marktaandeel te winnen ten opzichte van concurrenten zoals ChatGPT (OpenAI), Claude (antropisch) o Tweeling (Google)De bedrijfscijfers van AWS over het afgelopen kwartaal wijzen op een solide groei. De omzet van de divisie steeg met ongeveer 20%, grotendeels gedreven door de vraag naar AI-computing en -infrastructuur.

Voor Europese bedrijven betekent deze uitgebreide catalogus meer opties bij het kiezen van een AI-platform, zowel wat betreft kant-en-klare modellen als wat betreft... infrastructuur waarop bedrijfseigen oplossingen kunnen worden getraind aangepast aan elke sector en de lokale regelgeving.

Hevige concurrentie in de race om AI-chips en -infrastructuur

Al deze releases vinden plaats in een context van intense concurrentie op de markt kunstmatige intelligentiechipsNvidia behoudt een dominante positie dankzij zijn GPU's en de kracht van zijn CUDA-ecosysteem, maar bedrijven als Amazon, Google, Microsoft en zelfs traditionele processorfabrikanten investeren miljoenen om te voorkomen dat ze achterop raken.

In het geval van AWS maakt de investering in Trainium3 en het toekomstige Trainium4 deel uit van een dubbele strategie. Enerzijds streeft het naar de afhankelijkheid van externe leveranciers verminderen en de kosten en beschikbaarheid van de infrastructuur beter te beheersen. Aan de andere kant wil het klanten hardware-alternatieven bieden waarmee ze hun uitgaven kunnen optimaliseren zonder dat dit ten koste gaat van de prestaties of compatibiliteit met Nvidia-tools.

Vanuit een marktperspectief positioneert de combinatie van eigen chips, samenwerkingsovereenkomsten met Nvidia en producten zoals AI Factories Amazon als een speler die niet alleen kan concurreren op het gebied van clouddiensten, maar ook op het gebied van de basis van de hardware die de nieuwe golf van toepassingen voor kunstmatige intelligentie aanjaagt.

Voor bedrijven en overheidsinstanties in Spanje en Europa vertaalt dit scenario zich in een breder scala aan mogelijke infrastructuren – van de publieke cloud tot on-premises of hybride datacenters – met de mogelijkheid om te kiezen tussen verschillende configuraties qua prijs, prestaties en datasoevereiniteit. In een sector waar technologische beslissingen directe impact op de kostenVoldoen aan regelgeving en innovatiemogelijkheden, de komst van Trainium3, toekomstige integraties met NVLink Fusion en AI Factories voegen nieuwe troeven toe aan het kaartspel die de acceptatie van grootschalige oplossingen voor kunstmatige intelligentie (AI) naar verwachting nog verder zullen versnellen.

Wat is RISC-V RVA23?
Gerelateerd artikel:
RISC-V RVA23: Alles over het profiel dat processors verandert