SiFive impulsa la IA amb X160, X180, X280 Gen 2, X390 Gen 2 i XM Gen 2

  • Nova família SiFive Intelligence Gen 2: X160/X180 per a edge, X280/X390 per a vectorització avançada i XM amb motor matricial.
  • Suport de RVA23, RVV 1.0 i formats BF16/MXFP8/MXFP4; interfícies VCIX/SSCI per acoblar coprocessadors amb accés directe a registres.
  • X390 Gen 2 escala fins a 4 nuclis coherents amb fins a 1 TB/s; XM Gen 2 arriba a 64 TFLOPS FP8 per clúster i supera 4 PFLOPS en multicluster.
  • IPs ja llicenciables; primers xips basats en elles previstos per al segon trimestre del 2026.

Família SiFive Intelligence Gen 2

La nova fornada d'IPs de SiCinc arriba trepitjant fort i amb vocació d'abastar-ho tot: des del IoT i la robòtica fins al cor dels centres de dades. La companyia presenta la segona generació de la família Intelligence amb cinc peces clau: X160 Gen 2, X180 Gen 2, X280 Gen 2, X390 Gen 2 i XM Gen 2, totes basades en l'arquitectura RISC-V i amb el focus posat en càrregues d'IA modernes.

No és casualitat que aquesta actualització s'hagi donat a conèixer en un fòrum de referència com AI Infra Summit: el mercat empeny cap a solucions més configurables, escalables i eficients, i SiFive respon integrant motors escalar, vectorial i matricial sota una mateixa estratègia. A més, la firma busca retallar temps i costos de disseny amb blocs IP ben acoblats i noves interfícies de coprocessador optimitzades per accelerar el desenvolupament.

Què aporta la segona generació de SiFive Intelligence

En aquest lliurament, SiFive refina la seva fórmula combinant flexibilitat i rendiment per watt. La família Intelligence Gen 2 consolida un enfocament de còmput heterogeni que integra nuclis escalars potents amb vectors RVV 1.0 i, en el cas de XM, un motor matriu propi, tot això amb una estratègia de memòria pensada per esprémer l'amplada de banda i reduir colls d'ampolla.

La companyia manté la seva filosofia de disseny modular i afegeix dues vies d'acoblament d'acceleradors: la Vector Coprocessor Interface Extension (VCIX) i la Scalar Coprocessor Interface (SSCI). Aquestes interfícies permeten als acceleradors accedir directament a registres de la CPU, simplificant el programari, reduint la latència i millorant l'eficiència de dades quan s'integren coprocessadors externs o motors especialitzats.

Amb el teló de fons d'unes previsions que, segons Deloitte, anticipen un creixement dels workloads d'IA del 20% en tots els àmbits tecnològics i de fins a un 78% a edge computing, el moviment de SiFive té molt de sentit. L'objectiu és oferir peces llistes per llicenciar que permetin a OEMs i proveïdors cloud armar plataformes d'IA modulables i preparades per al futur.

A més del maquinari, la companyia fa un pas important en l'ecosistema programari: per accelerar el time-to-market, SiFive està alliberant com a codi obert el seu SiFive Kernel Library. Aquesta iniciativa complementa el disseny de les interfícies VCIX/SSCI i apunta a un desenvolupament de piles d'IA més ràpid i menys costós.

X160 i X180 Gen 2: eficiència per a l'edge i l'IoT

Els nous X160 Gen 2 (32 bits) i X180 Gen 2 (64 bits) estan pensats per a escenaris amb restriccions d'energia i espai com dispositius IoT, drones y robòtica autònoma. Comparteixen el suport de registres vectorials de 128 bits i un camí de dades de 64 bits, cosa que els permet executar de forma eficient formats numèrics populars a IA com INT8 i BF16.

En termes d'escalat, tots dos es poden agrupar en clústers de fins a quatre nuclis, de manera que s'aconsegueix un equilibri molt atractiu entre rendiment i consum. Aquest enfocament permet adaptar la potència a cada cas dús sense renunciar a la eficiència energètica que demana l'edge.

El fet que integrin vectors de 128 bits en aquesta gamma “lleugera” posa de manifest la intenció de SiFive: portar el còmput de IA veritablement útil a sensors, controladors i robots que operen amb bateries o pressupostos tèrmics ajustats, sense penalitzar el cost ni la superfície de silici.

Per a aplicacions que necessiten processar visió artificial, classificació de senyals o control intel·ligent, aquests nuclis ofereixen el conjunt just de prestacions vectorials amb una ruta de dades generosa (64 bits) i compatibilitat amb tipus de precisió reduïda que marquen la diferència en inferència.

X280 Gen 2: vectorització madura i optimitzada per a la vora

la sèrie X280 ja venia d'una primera generació amb molt bona adopció a AI/ML, i la revisió X280 Gen 2 redobla l'aposta per a l'edge amb una microarquitectura de 8 etapes, doble emissió, in-order i de tipus superscalar. Aquest nucli és multi-core capable i està afinat per a computació de IA/ML a la vora amb extensions vectorials àmplies, pensades per a RVV 1.0 i les pròpies SiFive Intelligence Extensions.

En concret, el X280 Gen 2 ofereix processament vectorial amb VLEN de 512 bits i DLEN de 256 bits, una configuració que permet paral·lelitzar de manera efectiva operacions típiques de visió, àudio i models lleugers. Aquesta amplada vectorial, juntament amb les extensions específiques de SiFive, accelera els kernels crítics que marquen el rendiment de les aplicacions reals.

Un altre canvi clau és la simplificació de la jerarquia de memòria: s'elimina la capa de memòria cau L3 a favor d'un L2 compartit de fins a 1 MB per cluster. Amb aquesta decisió, SiFive busca reduir latències i complexitat, apostant per una memòria cau L2 més gran i flexible que beneficia especialment a workloads d'inferència amb conjunts de treball mitjans.

Al plànol de la ISA, la nova remesa adopta RVA23, que introdueix suport nadiu per a formats emergents a IA com BF16, MXFP8 y MXFP4. Aquest darrer ha estat elegit recentment per OpenAI per a la distribució de models open‑weight, la qual cosa subratlla la importància d'oferir tipus de dades compactes amb bona fidelitat a inferències a gran escala.

Amb la seva capacitat multi-nucli i la seva orientació a la vora, l'X280 Gen 2 encaixa en mòbil, infraestructura i automoció, camps on ja va triomfar la primera generació. Per als que necessitin combinar latències baixes amb un perfil de consum ajustat, resulta una base molt sòlida per aplicacions embegudes d'IA.

X390 Gen 2: quan importa esprémer cada vector

Per a escenaris que demanen més múscul vectorial, el X390 Gen 2 fa un salt notable respecte al X280 original: amb un únic nucli ja aporta una millora 4× en còmput vectorial gràcies a duplicar la longitud de vector i sumar dos ALUs vectorials treballant en paral·lel.

Arquitectònicament, també és un disseny de 8 etapes, doble emissió, in‑order i superscalar, però aquí s'hi incorporen dues unitats vectorials amb VLEN de 1024 bits i DLEN de 512 bits. El resultat és una plataforma que accelera de forma contundent operacions intensives a ample de vector, obrint la porta a models i kernels més exigents.

El X390 Gen 2 és escalable fins complexos coherents de 4 nuclis, i pot incorporar de manera opcional la interfície VCIX per acoblar molt de prop acceleradors de IA dissenyats pel client o altres coprocessadors. Aquesta proximitat redueix la sobrecàrrega de comunicació i facilita integrar motors externs sense “peatges” de programari innecessaris.

En configuracions de quatre nuclis, SiFive parla d'assolir fins a 1 TB/s d'ample de banda efectiu, una xifra que col·loca X390 Gen 2 com a candidat idoni tant per actuar com Accelerator Control Unit (ACU) com per exercir de motor dIA autònom. Aquesta versatilitat permet construir des de piles d‟acceleració híbrida fins a pipelins purs d'IA sobre el RISC‑V.

No és casual que els dissenys X280 i X390 hagin trobat lloc en projectes de grans tecnològiques: ja s'han vist en aplicacions de companyies com Google als seus TPU, on la simbiosi entre control, pre/post‑procés i acceleració dura és clau per al rendiment de producció.

XM Gen 2: el bloc matricial que escala al datacenter

la sèrie XM Gen 2 representa el “bloc gros” per a càrregues d'entrenament lleuger i inferència a gran escala: integra quatre nuclis X390 Gen 2 al costat d'un motor de còmput matricial desenvolupat per SiFive. Aquesta combinació habilita un processament mixt escalar-vector-matricial molt eficient en memòria.

Cada cluster XM Gen 2 pot lliurar fins a 64 TFLOPS en FP8 a 2 GHz, i el disseny està pensat per apilar-se en configuracions multicluster que superen en conjunt els 4 PFLOPS. Aquest enfocament modular facilita compondre acceleradors a mida destinats a centres de dades amb diferents perfils de consum i rendiment.

SiFive subratlla, a més, que XM Gen 2 està fortament tunejat per a LLMs i manté la tradició de la casa en rendiment per watt. La integració estreta dels tres dominis de còmput (escalar, vector i matriu) permet aprofitar un ample de banda de memòria molt eficient i minimitzar còpies i moviments de dades redundants.

Per als equips que necessitin una base sobre la qual construir acceleradors personalitzats, XM Gen 2 actua com projecte llest per llicenciar: els blocs X390 Gen 2 aporten control i vectorització potent, mentre que el motor matricial escala el throughput on cal densitat de MACs.

Interfícies VCIX i SSCI: accelerar sense fricció

L'arribada de VCIX (Vector Coprocessor Interface Extension) i SSCI (Scalar Coprocessor Interface) és un dels punts diferencials daquesta generació. Ambdues interfícies permeten a acceleradors i coprocessadors accedir de forma directa als registres de la CPU, el que redueix la pila de programari intermèdia, baixa latències i millora la utilització global del subsystem de memòria.

A la pràctica, això es tradueix en menys temps “cola” i més temps útil de còmput: els equips poden acoblar acceleradors vectorials o especialitzats sense reinventar la roda, amb protocols estables i un camí de dades optimitzat. Combinades amb l'obertura de la SiFive Kernel Library, la fricció per arribar a prototips funcionals cau de manera sensible.

Per càrregues amb fases de preprocessament, planificació i postprocessament (per exemple, pipelins de visió i inferència), aquesta connexió directa a registres simplifica molt l'orquestració. Els nuclis RISC‑V poden conduir el flux amb precisió mentre deleguen “el pesat” a coprocessadors que operen amb la menor penalització possible.

Adopció de RVA23 i suport de formats emergents

SiFive alinea els vostres IP amb l'especificació RVA23, clau per al futur del programari a RISC‑V orientat a IA. Aquest pas habilita de fàbrica tipus de dades com BF16, MXFP8 y MXFP4, una cosa especialment valuosa quan el mercat es mou cap a precisions mixtes i dinàmiques.

El suport de MXFP4 no és un caprici: ha estat escollit per OpenAI per a la distribució de models open‑weight, de manera que disposar d'acceleració directa a aquest format redueix conversions i colls d'ampolla en desplegaments moderns. En inferència a escala, cada cicle i cada byte compten.

La compatibilitat amb RVV 1.0 a X280 i l'ampliació de VLEN/DLEN a X390 asseguren que biblioteques, compiladors i marcs puguin esprémer amb facilitat el maquinari. Això accelera l'adopció en ecosistemes on els cicles de validació i manteniment del programari són, en general, la part més car.

Rendiment, memòria i escalabilitat pràctica

Un avantatge transversal de la família Intelligence Gen 2 és com gestiona el ample de banda i el moviment de dades. La reconfiguració de caixets a X280 Gen 2 (adéu a L3, hola a un L2 compartit fins a 1 MB) i la combinació de ALUs vectorials duals a X390 Gen 2 permeten sostenir taxes elevades sense caure en saturacions primerenques.

La dada de fins 1 TB / s en configuracions de quatre X390 Gen 2 il·lustra bé l'ambició del disseny: no n'hi ha prou de tenir molts FLOPS si no s'alimenten de manera eficient. A XM Gen 2, la integració vector‑matriu i la topologia multi‑cluster reforcen aquesta idea en minimitzar hops i còpies intermèdies.

Per a equips d'enginyeria, això es tradueix en solucions que escalen “net”: es pot començar amb clústers petits per a POCs i créixer cap a desplegaments amb diversos clústers sense haver de replantejar tota l'arquitectura de dades i coherència.

Casos d'ús: del sensor al datacenter

A l'extrem de l'edge, X160/X180 Gen 2 permeten aplicar IA a sensors intel·ligents, control de vol de drones i robots mòbils, on els pressupostos denergia i cost per unitat són crítics. El suport de INT8 i BF16, juntament amb registres vectorials de 128 bits, accelera convolucions, filtres i kernels de visió amb gran eficiència.

Un pas a dalt, X280 Gen 2 encaixa en gateways i sistemes embeguts que requereixen més densitat vectorial, ja sigui per a analítica en temps real, preprocessament de dades en xarxes 5G/6G o funcions avançades en automoció. La seva orientació a RVV 1.0 i la memòria cau L2 compartida aplanen el camí per a pipelins d'inferència amb baixa latència.

A la franja d'alt rendiment, X390 Gen 2 es presta a actuar com a cervell de acceleradors externs (ACU) o directament com a motor vectorial autònom, amb l'avantatge d'un camí clar per afegir coprocessadors mitjançant VCIX. Això facilita muntar solucions híbrides on el control i el còmput pesant conviuen de manera més eficient.

Finalment, XM Gen 2 posa la cirereta per a càrregues a gran escala on prevalen els TFLOPS per watt i la facilitat per escalar. En estar “molt afinat” per a LLMs, resulta especialment atractiu per a inferència de models grans i per a certes fases de entrenament lleuger o ajust fi en centres de dades.

Disponibilitat i full de ruta

SiFive ha confirmat que totes aquestes IP estan ja disponibles per llicenciar, cosa que permet als socis començar immediatament la seva integració. Pel que fa a productes comercials, els primers xips basats en aquestes IP s'esperen al segon trimestre 2026, un horitzó raonable per a dissenys complexos amb certificacions i validació exhaustiva.

Aquesta finestra temporal encaixa amb la demanda creixent prevista per a edge i centre de dades, i dóna marge als equips per madurar les seves piles de programari recolzant-se a la SiFive Kernel Library ia l'estandardització d'interfícies que proposa la marca.

Resum d'especificacions i trets clau

Per situar cada peça al seu lloc, cal recordar els punts més distintius de la família. El X160/X180 Gen 2 s'orienta a baix consum amb vectorització moderada; X280 Gen 2 reforça l'edge amb RVV 1.0 i L2 compartit; X390 Gen 2 dispara l'amplada vectorial i el paral·lelisme; i XM Gen 2 suma un motor matricial propi pensat per a LLMs i escalat multicluster.

  • X160/X180 Gen 2: 32/64 bits, registres vectorials de 128 bits, camí de dades de 64 bits, suport d'INT8 i BF16, clusters de 4, enfocament IoT/robòtica amb eficiència màxima.
  • X280 Gen 2: 8 etapes, dual‑issue, in‑order, superscalar; VLEN 512/DLEN 256; RVV 1.0 + SiFive Intelligence Extensions; jerarquia amb L2 compartit de fins a 1 MB per cluster.
  • X390 Gen 2: 8 etapes, dual‑issue, in‑order, superscalar; doble ALU vectorial; VLEN 1024/DLEN 512; escalable a 4 nuclis coherents; VCIX opcional; fins a 1 TB/s en configuració de 4 nuclis.
  • XM Gen 2: 4 × X390 Gen 2 + motor matricial SiFive; fins a 64 TFLOPS FP8 a 2 GHz per cluster; escalable per sobre de 4 PFLOPS en multicluster; molt afinat per a LLMs i alt rendiment per watt.

Per què importa ara: programari, estàndards i ecosistema

Els anuncis de maquinari són rellevants quan vénen acompanyats de programari sòlid i estàndards. L'adopció de RVA23, el suport explícit de formats com MXFP8/MXFP4/BF16 i l'alliberament de la SiFive Kernel Library apuntalen la proposta perquè biblioteques i frameworks puguin treure suc sense friccions.

L'aposta per interfícies clares (VCIX i SSCI) també redueix el “factor risc” per als que planegen integrar acceleradors propis. En una època en què la diferenciació passa per kernels específics i models propietaris, tenir un camí net a registres i rutes de dades de baixa latència marca la diferència.

Sumat a la tracció prèvia en sectors com a automoció, infraestructura i mòbil, ia haver entrat a l'ecosistema de grans com Google, SiFive envia el senyal que RISC‑V ja no és només una alternativa, sinó una plataforma madura per a càrregues de IA de producció.

Tot això, a més, arriba quan els proveïdors busquen autonomia tecnològica, costos sostenibles i flexibilitat de llicències. La recepta modular d'Intelligence Gen 2 encaixa amb aquest desig de construir exactament el que cal, ni més ni menys, i escalar quan el negoci ho requereixi.

Tot i que cada cas d'ús tindrà el propi diagrama de blocs, la coherència de disseny entre X160/X180, X280, X390 i XM permet combinar peces sense “sorpreses” i amb una ruta evident per optimitzar rendiment/consum. Aquesta consistència obre la porta a cicles de desenvolupament més curts ia menys treball.

Vista en conjunt, la família Intelligence Gen 2 cobreix amb solvència l'arc complet: des del sensor que necessita IA bàsica fins al rack que exigeix ​​PFLOPS escalables, passant per gateways i controladors que orquestan acceleradors externs. És una jugada coherent amb la tendència del sector cap a arquitectures heterogènies i composable.

Qui busqui fonamentar una plataforma d'IA moderna, té blocs que combinen aquí vectorització madura, còmput matricial contundent i un ecosistema programari que no parteix de zero. Si a això se li suma l'empenta d'estàndards emergents i la previsió de creixement en edge, l'encaix de les peces en té prou sentit.

SiFive col·loca sobre la taula maquinari RISC‑V per a IA que se sent pràctic i ben pensat: configurable on ha de ser-ho, eficient en el que compta i amb el pont al programari cada cop més ferm. Amb llicències ja disponibles i primeres implementacions de silici previstes per al 2026, és una proposta amb recorregut per construir avui les plataformes de matí.

què és RISC-V RVA23
Article relacionat:
RISC-V RVA23: Tot sobre el perfil que està canviant els processadors