Raspberry Pi AI HAT+ 2: la nova aposta per portar la IA generativa a la vora

  • El Raspberry Pi AI HAT+ 2 integra un accelerador Hailo‑10H i 8 GB de RAM dedicada per a IA local
  • Permet executar models de llenguatge lleugers i combinar visió per ordinador i LLM en una Raspberry Pi 5
  • La seva potència està limitada a 3 W, cosa que condiciona la mida de models davant d'una Pi 5 de 16 GB
  • Arriba per uns 130 dòlars i apunta projectes IoT, automatització industrial i prototips a Europa

Placa Raspberry Pi AI HAT+ 2 per a intel·ligència artificial

L'arribada de la Raspberry Pi AI HAT+ 2 suposa un nou pas per als que volen treballar amb intel·ligència artificial directament en una Gerd Pi 5 sense dependre del núvol. Aquesta placa d'expansió combina un accelerador neuronal dedicat i memòria pròpia per descarregar gran part del treball de IA del processador principal i permetre usos més ambiciosos al terreny de la IA generativa.

Amb un preu recomanat al voltant de 130 dòlars (l'import final a Espanya ia la resta d'Europa dependrà dels distribuïdors oficials), l'AI HAT+ 2 es posiciona com una opció relativament assequible per experimentar amb models de llenguatge i visió artificial a la vora. No és un substitut de solucions de gamma alta, però sí una peça cridanera per a projectes de IoT, automatització, prototipat i formació.

Què és exactament la Raspberry Pi AI HAT+ 2

Expansion AI HAT+ 2 per a Raspberry Pi 5

La Raspberry Pi AI HAT+ 2 és una placa d'ampliació per a la Raspberry Pi 5 que es connecta mitjançant la interfície PCI Express integrada a la pròpia placa base. Neix com a successora directa de la primera AI HAT+, llançada el 2024, que se centrava gairebé per complet en tasques de visió per computador gràcies als acceleradors Hailo-8 i Hailo-8L.

característiques del NVIDIA Jetson T5000
Article relacionat:
NVIDIA Jetson T5000: així és el 'cervell' compacte per a IA física

En aquest nou model, Raspberry Pi Holdings plc aposta per l?accelerador de xarxes neuronals Hailo‑10H i afegeix 8 GB de memòria LPDDR4X dedicats a la pròpia targeta. Aquesta combinació s'orienta a suportar càrregues de treball de IA generativa, especialment models de llenguatge grans de mida reduïda i models de visió‑llenguatge, directament al dispositiu.

En disposar de memòria DRAM al mateix HAT, el sistema pot separar els recursos de la Raspberry Pi 5 (CPU, GPU i RAM principal) dels de l'accelerador d'IA. Això permet que la placa principal s'encarregui de la lògica de l'aplicació, les comunicacions o la interfície d'usuari, mentre el coprocessador Hailo‑10H assumeix gran part de la inferència.

Maquinari, rendiment i diferències amb la primera AI HAT+

El cor del nou accessori és el Hailo‑10H NPU, un accelerador especialitzat en xarxes neuronals que, segons les dades de Raspberry Pi i Hailo, ofereix fins i tot 40 TOPS de rendiment d'inferència. A la documentació es parla de xifres a INT4 i INT8, la qual cosa indica que part del rendiment màxim s'aconsegueix amb quantització agressiva, molt habitual en desplegaments d'IA a la vora. Encara que altres plataformes embegudes com la Nvidia Jetson T5000 ofereixen alternatives amb diferent arquitectura.

El consum del Hailo‑10H està limitat a uns 3 W, la qual cosa ajuda a mantenir el conjunt dins de marges raonables de temperatura i potència, una cosa clau en projectes encastats i en caixes compactes. A canvi, aquesta restricció implica que el rendiment brut no sempre superarà el de la pròpia Raspberry Pi 5 treballant sola en determinades tasques, especialment si es comparen càrregues molt optimitzades per a la CPU i la GPU integrades.

Enfront del primer AI HAT+, la millora principal està al salt des dels 13/26 TOPS del Hailo‑8L i Hailo‑8 als 40 TOPS, a més de l'aparició dels 8 GB de RAM a bord. El model original estava més pensat per a detecció d'objectes, estimació de posis o segmentació, mentre que aquesta segona generació obre la porta a LLMs i models multimodals, mantenint les capacitats de visió.

Raspberry Pi ha recalcat que la integració amb lentorn de càmera hauria de ser pràcticament transparent per als projectes existents, ja que la integració amb el stack de programari de la companyia es manté, evitant haver de reescriure des de zero tot el codi de visió per ordinador.

Models d'IA compatibles i ús de LLM a local

Un dels punts que crida més l'atenció és la possibilitat d'executar models de llenguatge en local sobre la Raspberry Pi 5, recolzant-se en la potència de la NPU i la memòria dedicada del HAT. Durant el llançament, la companyia ha esmentat una sèrie de LLM entre 1.000 i 1.500 milions de paràmetres com a configuració de partida.

Entre els models esmentats es troben DeepSeek‑R1‑Distill, Truca 3.2, Qwen2, Qwen2.5‑Instruct i Qwen2.5‑Coder. Aquests models relativament compactes permeten casos d'ús com ara xat bàsic, generació de codi, traducció de textos o descripció d'escenes, tot sense enviar les dades a servidors externs.

La placa està pensada per aprofitar tècniques de quantització i inferència optimitzada, de manera que models d'aquesta mida es puguin executar amb baixa latència i mantenint un consum ajustat. Raspberry Pi i Hailo han mostrat exemples de traducció entre idiomes i respostes a preguntes simples executades completament al dispositiu.

Això sí, convé tenir clar que l'AI HAT+ 2 no està dissenyada per a models massius com les versions completes de ChatGPT, Claude o els LLM més grans de Meta, el nombre de paràmetres dels quals es mou en rangs de centenars de milers de milions o fins i tot bilions. En aquests casos, la barrera no només és la potència de còmput, sinó sobretot la memòria necessària.

Limitacions de memòria i comparació amb una Raspberry Pi 5 de 16 GB

Tot i que els 8 GB de RAM LPDDR4X dedicats suposen una millora important respecte a la primera generació d'AI HAT+, aquesta xifra té implicacions clares. Molts models de llenguatge quantitzats de mida mitjana i amb contextos amplis poden requerir fàcilment més de 10 GB de memòria, per tant, de moment, l'accessori s'orienta a models més petits o amb contextos retallats.

Si es compara directament amb una Raspberry Pi 5 de 16 GB, la placa base amb la major configuració de memòria continua oferint més marge per carregar models grans íntegrament a RAM, sobretot si es renuncia a una part de la memòria per a altres tasques i es dedica el sistema gairebé exclusivament a la IA.

A la pràctica, la combinació d'una Pi 5 i l'AI HAT+ 2 té sentit quan es vol separar les funcions: deixar que el Hailo‑10H s'encarregui de la inferència i que la placa principal mantingui un escriptori lleuger, servidors web, lògica d'automatització o serveis addicionals. D'aquesta manera, el sistema pot continuar sent usable mentre s'executen models de llenguatge o de visió.

Per als que només vulguin xatejar amb una IA local senzilla, traduir textos o provar assistents bàsics, l'equilibri entre potència, consum i cost de l'AI HAT+2 pot ser suficient. No obstant això, per la memòria necessària per models de grans dimensions o per a contextos molt extensos, seguirà sent més pràctic recórrer a equips amb més memòria o al núvol.

Visió per computador i execució simultània de models

Un dels avantatges d'aquesta nova generació és que no es renuncien a les capacitats de visió per ordinador que ja oferia el primer AI HAT+. El Hailo‑10H manté un rendiment molt semblant al Hailo‑8 a l'hora d'executar models de detecció i seguiment d'objectes, estimació de postura humana o segmentació d'escenes.

Raspberry Pi indica que l'AI HAT+ 2 és capaç de executar de forma simultània models de visió i de llenguatge, la qual cosa la fa interessant per a projectes que combinin càmeres i text: per exemple, càmeres intel·ligents que generin descripcions, sistemes de vigilància que classifiquin esdeveniments o dispositius que ofereixin resums del que passa en una escena.

Al terreny pràctic, s'esmenten escenaris com l'ús de models tipus YOLO per a detecció dobjectes en temps real, amb taxes de refresc que poden rondar els 30 fotogrames per segon segons la complexitat del model i la resolució. La idea és que el HAT assumeixi aquesta càrrega mentre la Raspberry Pi 5 maneja l'emmagatzematge, la interfície o l'enviament d'alertes.

L'ecosistema de programari encara està en procés de maduració: encara que hi ha exemples i frameworks oficials, la execució en paral·lel de diversos models (visió, llenguatge, multimodal) continua sent un camp en evolució. En qualsevol cas, la integració amb la pila de càmeres de Raspberry Pi simplifica força la posada en marxa per als que ja treballaven amb mòduls de càmera oficials.

Casos d'ús a Espanya i Europa: IoT, indústria i prototips

La combinació de baix consum, mida reduïda i execució local de la IA encaixa bé amb moltes de les tendències de digitalització que s'estan veient a Espanya i altres països europeus. En entorns industrials, on l'accés constant al núvol no sempre està garantit o no és desitjable per motius de confidencialitat, una solució d'aquest tipus davant d'alternatives com la integració de Nvidia en xips pot ser especialment útil.

Entre els usos que més es repeteixen a la documentació es troben aplicacions de automatització industrial, control de processos i gestió d'instal·lacions. Sistemes dinspecció visual en línies de producció, detecció danomalies en temps real, supervisió daccessos o recompte de persones són alguns dels casos que podrien beneficiar-se de combinar visió i models de llenguatge lleugers.

Al terreny de l'IoT domèstic i comercial, l'AI HAT+ 2 pot servir com a base per a assistents locals, panells intel·ligents que interpretin dades de sensors, càmeres que descriguin escenes o dispositius d'anàlisi de vídeo que no hagin de pujar imatges a servidors externs, cosa que ajuda a complir normatives de privadesa cada vegada més exigents a la Unió Europea.

També és una opció a considerar com kit de desenvolupament per a empreses i startups que valorin integrar el xip Hailo‑10H als seus propis productes finals. Provar la solució a una Raspberry Pi 5 permet validar rendiment, consum i estabilitat abans d'embarcar-se en dissenys de maquinari a mida.

Perfil d'usuari: des de makers fins a desenvolupadors professionals

L'AI HAT+ 2 es dirigeix ​​a diversos perfils alhora. D'una banda, a la comunitat de makers i entusiastes que ja estan familiaritzats amb les Raspberry Pi i volen anar un pas més enllà amb projectes de IA generativa o visió avançada sense invertir en estacions de treball específiques o en tarifes cloud contínues.

De l'altra, apunta clarament a desenvolupadors professionals i startups que busquen un entorn de proves assequible per a IA embeguda. Davant solucions amb GPUs discretes o NPUs per a PC industrial, aquest HAT ofereix un format compacte, un consum ajustat i un cost més contingut, a costa de renunciar als nivells de potència de plataformes molt més cares.

En entorns educatius i de formació tècnica a Espanya i Europa es pot convertir en una eina útil per apropar la formació tècnica a la pràctica, permetent que lalumnat experimenti amb models reals en maquinari relativament econòmic.

Això sí, per a usuaris que només vulguin executar models de llenguatge en local amb el màxim marge possible, una Raspberry Pi 5 amb 16 GB de RAM sense HAT pot continuar sent una opció més senzilla, sempre que s'accepti que la CPU i la GPU de la placa principal seran les que suportin tota la inferència.

Integració de programari i recursos per començar

Raspberry Pi ha posat èmfasi que l'AI HAT+ 2 interfície PCIe il?entorn habitual de la Raspberry Pi 5, reduint la fricció per als qui ja coneixen l?ecosistema. La comunicació amb el HAT es realitza a través de la interfície PCIe i els controladors i llibreries específics permeten dirigir les càrregues de treball d'IA cap al Hailo‑10H.

Per part de Hailo, els usuaris tenen un repositori a GitHub i una Developer Zone on s'ofereixen exemples de codi, models preconfigurats, tutorials i frameworks per treure partit tant a la IA generativa com a la visió computaritzada. Això facilita començar amb prototips sense necessitat de construir tota la pila des de zero.

En el moment del llançament ja se n'anuncien diversos models de llenguatge llestos per instal·lar, amb la promesa d'anar ampliant el catàleg amb variants més grans o afinades a casos d'ús específics. A més, s'esmenta la possibilitat de recórrer a tècniques com LoRA (Low-Rank Adaptation) per adaptar els models a tasques concretes sense haver de reentrenar-los del tot.

Com sol passar en aquest tipus de solucions, l'experiència real dependrà del grau de maduresa del programari. Alguns analistes assenyalen que encara hi ha marge de millora en estabilitat, eines i suport per a execucions simultànies de diversos models, però la tendència apunta a una integració cada cop més polida dins de l'ecosistema Raspberry Pi.

Preu, disponibilitat i aspectes pràctics

Pel que fa al preu, la Raspberry Pi AI HAT+ 2 ha estat anunciada amb un cost de referència de 130 dòlars. A Espanya ia altres països europeus, l'import final dependrà del tipus de canvi, els impostos i la política de cada distribuïdor, per la qual cosa és previsible trobar lleugeres variacions.

La placa és compatible amb totes les versions de Raspberry Pi 5, des dels models amb 1 GB fins als de 16 GB de RAM, i es connecta mitjançant la interfície PCIe del propi SBC. Això evita recórrer a adaptadors addicionals i simplifica el muntatge en caixes o xassís pensats per al format estàndard.

En el paquet s'inclou un dissipador opcional per al Hailo‑10H. Encara que la NPU està limitada a uns 3 W, la recomanació habitual és instal·lar aquest dissipador, sobretot si s'executaran càrregues de treball intensives durant llargs períodes o benchmarks exigents, ja que el xip pot assolir temperatures elevades.

Al moment de la presentació, algunes botigues especialitzades informaven de estoc limitat, una cosa habitual cada vegada que apareix un nou accessori popular de Raspberry Pi. Per això, els qui vulguin assegurar-se una unitat a curt termini hauran d'estar atents a la disponibilitat en distribuïdors europeus autoritzats.

La Raspberry Pi AI HAT+ 2 es posiciona com una solució intermèdia entre el núvol i els grans servidors d'IA, pensada per als que necessiten processament local, privadesa de dades i costos continguts. Ofereix una forma relativament accessible de combinar visió per computador i models de llenguatge lleugers a la vora, amb marge per créixer a mesura que el programari maduri i s'enriqueixi el catàleg de models disponibles, sempre que s'assumeixin les limitacions de potència i memòria pròpies d'un dispositiu dissenyat per al consum baix.