
Amazon Web Services ha fet un gir de rosca a la seva estratègia en intel·ligència artificial amb una bateria d'anuncis que reforcen tant el catàleg de xips propis com l'aliança tecnològica amb Nvidia. En la seva gran conferència anual de computació al núvol a Las Vegas, la companyia va detallar com integrarà tecnologia de Nvidia als seus propers processadors d'IA i va presentar nous servidors dissenyats per a entrenament i desplegament de models a gran escala.
El moviment situa AWS en una posició encara més rellevant dins la carrera pel còmput d'intel·ligència artificial, un terreny on competeix directament amb altres gegants com ara Microsoft, Google o Meta. Lluny de limitar-se a revendre GPU de tercers, Amazon aposta per una combinació de xips propis, interconnexions especialitzades i acords amb Nvidia per oferir a empreses europees i globals més opcions de rendiment i cost.
Trainium4: el proper xip d'Amazon parlarà l'idioma de Nvidia
Un dels anuncis més destacats va ser la confirmació que el futur xip d'entrenament d'IA de la companyia, conegut com Trainium4, incorporarà la tecnologia d'interconnexió NVLink Fusion de Nvidia. Aquesta solució permet comunicacions ultraràpides entre processadors, cosa crítica quan milers de màquines han de treballar coordinades per entrenar grans models de llenguatge.
NVLink és considerada una de les grans cartes de Nvidia en centres de dades d'alt rendiment, i fins ara s'associava sobretot a configuracions purament basades en GPU de la pròpia companyia. La decisió d'Amazon d'integrar aquesta tecnologia a Trainium4 implica que els seus futurs clústers d'IA podran combinar xips d'AWS i GPU Nvidia a la mateixa infraestructura, facilitant arquitectures híbrides.
Tot i que AWS no ha donat dates concretes per a l'arribada al mercat de Trainium4, sí que ha deixat clar l'objectiu: oferir una plataforma que permeti als clients seguir aprofitant l'ecosistema de programari de Nvidia, especialment CUDA, mentre migren part de les càrregues a maquinari dissenyat per Amazon a la recerca de millor disponibilitat i preu.
Aquesta compatibilitat és especialment rellevant per a organitzacions a Europa i Espanya que ja s'han estandarditzat al voltant de GPU Nvidia i biblioteques optimitzades, però que s'estan trobant amb limitacions de capacitat o costos creixents a l'hora d'escalar els projectes d'IA generativa.
Nous servidors amb Trainium3: més potència i menys energia
Mentre el desenvolupament de Trainium4 avança en segon pla, AWS ja ha posat en producció una nova generació de servidors basada en el xip Trainium3. Aquests equips, disponibles des de la conferència de Las Vegas, s'orienten a l'entrenament de grans models ia la inferència d'alt volum en serveis d'IA al núvol.
Cada servidor integra 144 xips Trainium3 i, segons dades de la companyia, ofereix més de quatre vegades la capacitat de còmput respecte de la generació prèvia de maquinari d'IA d'AWS. A més, ho fa amb un consum energètic aproximadament un 40% menor, un factor clau en un context en què el cost de l'electricitat i les restriccions de xarxa comencen malgrat l'expansió dels centres de dades.
Dave Brown, vicepresident de serveis de computació i aprenentatge automàtic d'AWS, va subratllar que l'objectiu no és únicament presumir de potència bruta, sinó demostrar als clients que hi ha una alternativa competitiva en la relació preu-rendiment davant de les GPU tradicionals. La companyia evita donar xifres absolutes, però insisteix que el salt respecte a la generació anterior és notable.
Aquesta millora d'eficiència resulta especialment interessant per a operadors europeus, on la pressió reguladora i social sobre el consum energètic de les infraestructures digitals és cada vegada més gran. Menys electricitat per a un mateix volum d'entrenament significa centres de dades més sostenibles i, potencialment, factures més contingudes per a clients empresarials.
Dins del full de ruta d'Amazon, Trainium3 no només busca guanyar terreny davant Nvidia, sinó també reduir la dependència de proveïdors externs i refermar-ne una línia pròpia de xips d'IA que pugui evolucionar amb cicles més controlats per la companyia.
Fàbriques d'IA: infraestructura dedicada a centres de dades pròpies
Un altre dels anuncis que més atenció ha generat és el llançament de les trucades Fàbriques d'IA d'AWS, un producte pensat per a grans empreses i administracions públiques que volen executar sistemes d'intel·ligència artificial avançats en els seus propis centres de dades, sense renunciar a la integració amb el núvol d'Amazon.
El model és senzill sobre el paper: el client aporta l'espai físic i l'energia i AWS s'encarrega d'instal·lar, gestionar i mantenir el sistema d'IA, connectant-lo amb la resta de serveis de la plataforma. D'aquesta manera, companyies europees amb fortes exigències reguladores o governs preocupats per la sobirania de les dades poden mantenir el control total sobre la informació sensible sense exposar-la a infraestructures alienes.
El terme Fàbriques de IA no és casual. Nvidia utilitza aquest mateix concepte per referir-se als seus propis sistemes de maquinari optimitzats per a intel·ligència artificial, i en aquest cas la solució d'AWS es construeix precisament en col·laboració amb el fabricant de GPU. Les Fàbriques d'IA d'Amazon combinaran xips Blackwell de Nvidia i el nou Trainium3, recolzant-se a la xarxa, l'emmagatzematge i la seguretat del núvol d'AWS.
A més del maquinari, aquestes instal·lacions podran integrar-se amb serveis gestionats com Amazon Bedrock -per orquestrar i desplegar models d'IA fundacionals- i AWS SageMaker, orientat al desenvolupament i entrenament de models propis. Per a les empreses això significa un entorn d'IA d'alt rendiment, però desplegat sota un esquema de núvol híbrid que s'adapta millor a normatives locals de dades.
En paral·lel, altres grans proveïdors com Microsoft també estan avançant a la mateixa adreça, amb centres de dades i solucions locals pensades per a sobirania de dades. L'aposta d'Amazon amb les Fàbriques d'IA reflecteix fins a quin punt la intel·ligència artificial està empenyent els gegants del núvol cap a esquemes més híbrids, allunyant-se del model purament centralitzat de fa una dècada.
Models Nova, Sonic i l'impuls a l'oferta d'IA d'AWS
Al costat de les novetats de maquinari, Amazon va aprofitar la conferència per reforçar la part de programari amb noves versions dels seus models d'intel·ligència artificial agrupats sota la marca Nou. La companyia va presentar Nova 2, una evolució que promet més velocitat i capacitat de resposta davant de la generació anterior.
Una de les variants de Nova és capaç d'interactuar amb els usuaris no només mitjançant text, sinó també a través de imatges, veu i vídeo, ampliant els casos d'ús possibles en sectors com l'atenció al client, l'educació en línia o la creació de continguts. Aquesta capacitat multimodal la situa a la mateixa lliga que altres propostes protagonistes del mercat d'IA generativa.
A més, AWS va mostrar un model anomenat sònic, orientat a interaccions per veu. Segons Matt Garman, director executiu d'Amazon Web Services, aquest sistema pot respondre a instruccions orals amb sortides de veu de qualitat «semblant a la humana», cosa que obre la porta a assistents conversacionals més naturals per a serveis públics i privats.
Encara que la companyia admet que els seus models encara tenen per davant el repte de guanyar quota de mercat davant de competidors com ChatGPT (OpenAI), Claude (antròpic) o Bessons (Google), les xifres de negoci d'AWS a l'últim trimestre apunten a un creixement sòlid. Les vendes de la divisió van augmentar al voltant d'un 20%, impulsades en bona part per la demanda de còmput i d'infraestructura d'IA.
Per al teixit empresarial europeu, aquesta ampliació de catàleg suposa més opcions a l'hora d'escollir plataforma d'IA, tant a la vessant de models llestos per utilitzar com a la de infraestructura sobre la qual entrenar solucions pròpies adaptades a cada sector i regulació local.
Competència ferotge a la carrera de xips i infraestructura d'IA
Tots aquests llançaments es produeixen en un context de competència intensa al mercat de xips d'intel·ligència artificial. Nvidia manté una posició dominant gràcies als seus GPU ia la força del seu ecosistema CUDA, però companyies com Amazon, Google, Microsoft i fins i tot fabricants tradicionals de processadors estan invertint sumes milionàries per no quedar enrere.
En el cas de l'AWS, l'aposta per Trainium3 i el futur Trainium4 respon a una estratègia doble. D'una banda, cerca reduir la dependència de proveïdors externs i controlar millor els costos i la disponibilitat de la infraestructura. De l'altra, vol oferir als clients alternatives de maquinari que permetin optimitzar la despesa sense renunciar a rendiment ni compatibilitat amb les eines de Nvidia.
Des del punt de vista del mercat, la combinació de xips propis, acords de col·laboració amb Nvidia i productes com les Fàbriques d'IA situa Amazon com un actor capaç de competir no només en serveis al núvol, sinó també a la base mateixa del maquinari que impulsa la nova onada d'aplicacions d'intel·ligència artificial.
Per a empreses i administracions d'Espanya i d'Europa, aquest panorama es tradueix en una oferta més àmplia d'infraestructures possibles —des del núvol públic fins a centres de dades pròpies o híbrids—, amb la possibilitat d'escollir entre diferents configuracions de preu, rendiment i sobirania de dades. En un sector on les decisions tecnològiques tenen impacte directe en costos, compliment normatiu i capacitat d'innovació, l'arribada de Trainium3, les futures integracions amb NVLink Fusion i les Fàbriques d'IA afegeix noves cartes a la baralla que, previsiblement, encara acceleraran més l'adopció de solucions d'intel·ligència artificial a gran escala.

