
L'arribada de la Raspberry Pi AI HAT+ 2 suposa un nou pas per als que volen treballar amb intel·ligència artificial directament en una Gerd Pi 5 sense dependre del núvol. Aquesta placa d'expansió combina un accelerador neuronal dedicat i memòria pròpia per descarregar gran part del treball de IA del processador principal i permetre usos més ambiciosos al terreny de la IA generativa.
Amb un preu recomanat al voltant de 130 dòlars (l'import final a Espanya ia la resta d'Europa dependrà dels distribuïdors oficials), l'AI HAT+ 2 es posiciona com una opció relativament assequible per experimentar amb models de llenguatge i visió artificial a la vora. No és un substitut de solucions de gamma alta, però sà una peça cridanera per a projectes de IoT, automatització, prototipat i formació.
Què és exactament la Raspberry Pi AI HAT+ 2
La Raspberry Pi AI HAT+ 2 és una placa d'ampliació per a la Raspberry Pi 5 que es connecta mitjançant la interfÃcie PCI Express integrada a la pròpia placa base. Neix com a successora directa de la primera AI HAT+, llançada el 2024, que se centrava gairebé per complet en tasques de visió per computador grà cies als acceleradors Hailo-8 i Hailo-8L.
En aquest nou model, Raspberry Pi Holdings plc aposta per l?accelerador de xarxes neuronals Hailo‑10H i afegeix 8 GB de memòria LPDDR4X dedicats a la pròpia targeta. Aquesta combinació s'orienta a suportar cà rregues de treball de IA generativa, especialment models de llenguatge grans de mida reduïda i models de visió‑llenguatge, directament al dispositiu.
En disposar de memòria DRAM al mateix HAT, el sistema pot separar els recursos de la Raspberry Pi 5 (CPU, GPU i RAM principal) dels de l'accelerador d'IA. Això permet que la placa principal s'encarregui de la lògica de l'aplicació, les comunicacions o la interfÃcie d'usuari, mentre el coprocessador Hailo‑10H assumeix gran part de la inferència.
Maquinari, rendiment i diferències amb la primera AI HAT+
El cor del nou accessori és el Hailo‑10H NPU, un accelerador especialitzat en xarxes neuronals que, segons les dades de Raspberry Pi i Hailo, ofereix fins i tot 40 TOPS de rendiment d'inferència. A la documentació es parla de xifres a INT4 i INT8, la qual cosa indica que part del rendiment mà xim s'aconsegueix amb quantització agressiva, molt habitual en desplegaments d'IA a la vora. Encara que altres plataformes embegudes com la Nvidia Jetson T5000 ofereixen alternatives amb diferent arquitectura.
El consum del Hailo‑10H està limitat a uns 3 W, la qual cosa ajuda a mantenir el conjunt dins de marges raonables de temperatura i potència, una cosa clau en projectes encastats i en caixes compactes. A canvi, aquesta restricció implica que el rendiment brut no sempre superarà el de la pròpia Raspberry Pi 5 treballant sola en determinades tasques, especialment si es comparen cà rregues molt optimitzades per a la CPU i la GPU integrades.
Enfront del primer AI HAT+, la millora principal està al salt des dels 13/26 TOPS del Hailo‑8L i Hailo‑8 als 40 TOPS, a més de l'aparició dels 8 GB de RAM a bord. El model original estava més pensat per a detecció d'objectes, estimació de posis o segmentació, mentre que aquesta segona generació obre la porta a LLMs i models multimodals, mantenint les capacitats de visió.
Raspberry Pi ha recalcat que la integració amb lentorn de cà mera hauria de ser prà cticament transparent per als projectes existents, ja que la integració amb el stack de programari de la companyia es manté, evitant haver de reescriure des de zero tot el codi de visió per ordinador.
Models d'IA compatibles i ús de LLM a local
Un dels punts que crida més l'atenció és la possibilitat d'executar models de llenguatge en local sobre la Raspberry Pi 5, recolzant-se en la potència de la NPU i la memòria dedicada del HAT. Durant el llançament, la companyia ha esmentat una sèrie de LLM entre 1.000 i 1.500 milions de parà metres com a configuració de partida.
Entre els models esmentats es troben DeepSeek‑R1‑Distill, Truca 3.2, Qwen2, Qwen2.5‑Instruct i Qwen2.5‑Coder. Aquests models relativament compactes permeten casos d'ús com ara xat bà sic, generació de codi, traducció de textos o descripció d'escenes, tot sense enviar les dades a servidors externs.
La placa està pensada per aprofitar tècniques de quantització i inferència optimitzada, de manera que models d'aquesta mida es puguin executar amb baixa latència i mantenint un consum ajustat. Raspberry Pi i Hailo han mostrat exemples de traducció entre idiomes i respostes a preguntes simples executades completament al dispositiu.
Això sÃ, convé tenir clar que l'AI HAT+ 2 no està dissenyada per a models massius com les versions completes de ChatGPT, Claude o els LLM més grans de Meta, el nombre de parà metres dels quals es mou en rangs de centenars de milers de milions o fins i tot bilions. En aquests casos, la barrera no només és la potència de còmput, sinó sobretot la memòria necessà ria.
Limitacions de memòria i comparació amb una Raspberry Pi 5 de 16 GB
Tot i que els 8 GB de RAM LPDDR4X dedicats suposen una millora important respecte a la primera generació d'AI HAT+, aquesta xifra té implicacions clares. Molts models de llenguatge quantitzats de mida mitjana i amb contextos amplis poden requerir fà cilment més de 10 GB de memòria, per tant, de moment, l'accessori s'orienta a models més petits o amb contextos retallats.
Si es compara directament amb una Raspberry Pi 5 de 16 GB, la placa base amb la major configuració de memòria continua oferint més marge per carregar models grans Ãntegrament a RAM, sobretot si es renuncia a una part de la memòria per a altres tasques i es dedica el sistema gairebé exclusivament a la IA.
A la prà ctica, la combinació d'una Pi 5 i l'AI HAT+ 2 té sentit quan es vol separar les funcions: deixar que el Hailo‑10H s'encarregui de la inferència i que la placa principal mantingui un escriptori lleuger, servidors web, lògica d'automatització o serveis addicionals. D'aquesta manera, el sistema pot continuar sent usable mentre s'executen models de llenguatge o de visió.
Per als que només vulguin xatejar amb una IA local senzilla, traduir textos o provar assistents bà sics, l'equilibri entre potència, consum i cost de l'AI HAT+2 pot ser suficient. No obstant això, per la memòria necessà ria per models de grans dimensions o per a contextos molt extensos, seguirà sent més prà ctic recórrer a equips amb més memòria o al núvol.
Visió per computador i execució simultà nia de models
Un dels avantatges d'aquesta nova generació és que no es renuncien a les capacitats de visió per ordinador que ja oferia el primer AI HAT+. El Hailo‑10H manté un rendiment molt semblant al Hailo‑8 a l'hora d'executar models de detecció i seguiment d'objectes, estimació de postura humana o segmentació d'escenes.
Raspberry Pi indica que l'AI HAT+ 2 és capaç de executar de forma simultà nia models de visió i de llenguatge, la qual cosa la fa interessant per a projectes que combinin cà meres i text: per exemple, cà meres intel·ligents que generin descripcions, sistemes de vigilà ncia que classifiquin esdeveniments o dispositius que ofereixin resums del que passa en una escena.
Al terreny prà ctic, s'esmenten escenaris com l'ús de models tipus YOLO per a detecció dobjectes en temps real, amb taxes de refresc que poden rondar els 30 fotogrames per segon segons la complexitat del model i la resolució. La idea és que el HAT assumeixi aquesta cà rrega mentre la Raspberry Pi 5 maneja l'emmagatzematge, la interfÃcie o l'enviament d'alertes.
L'ecosistema de programari encara està en procés de maduració: encara que hi ha exemples i frameworks oficials, la execució en paral·lel de diversos models (visió, llenguatge, multimodal) continua sent un camp en evolució. En qualsevol cas, la integració amb la pila de cà meres de Raspberry Pi simplifica força la posada en marxa per als que ja treballaven amb mòduls de cà mera oficials.
Casos d'ús a Espanya i Europa: IoT, indústria i prototips
La combinació de baix consum, mida reduïda i execució local de la IA encaixa bé amb moltes de les tendències de digitalització que s'estan veient a Espanya i altres països europeus. En entorns industrials, on l'accés constant al núvol no sempre està garantit o no és desitjable per motius de confidencialitat, una solució d'aquest tipus davant d'alternatives com la integració de Nvidia en xips pot ser especialment útil.
Entre els usos que més es repeteixen a la documentació es troben aplicacions de automatització industrial, control de processos i gestió d'instal·lacions. Sistemes dinspecció visual en lÃnies de producció, detecció danomalies en temps real, supervisió daccessos o recompte de persones són alguns dels casos que podrien beneficiar-se de combinar visió i models de llenguatge lleugers.
Al terreny de l'IoT domèstic i comercial, l'AI HAT+ 2 pot servir com a base per a assistents locals, panells intel·ligents que interpretin dades de sensors, cà meres que descriguin escenes o dispositius d'anà lisi de vÃdeo que no hagin de pujar imatges a servidors externs, cosa que ajuda a complir normatives de privadesa cada vegada més exigents a la Unió Europea.
També és una opció a considerar com kit de desenvolupament per a empreses i startups que valorin integrar el xip Hailo‑10H als seus propis productes finals. Provar la solució a una Raspberry Pi 5 permet validar rendiment, consum i estabilitat abans d'embarcar-se en dissenys de maquinari a mida.
Perfil d'usuari: des de makers fins a desenvolupadors professionals
L'AI HAT+ 2 es dirigeix ​​a diversos perfils alhora. D'una banda, a la comunitat de makers i entusiastes que ja estan familiaritzats amb les Raspberry Pi i volen anar un pas més enllà amb projectes de IA generativa o visió avançada sense invertir en estacions de treball especÃfiques o en tarifes cloud contÃnues.
De l'altra, apunta clarament a desenvolupadors professionals i startups que busquen un entorn de proves assequible per a IA embeguda. Davant solucions amb GPUs discretes o NPUs per a PC industrial, aquest HAT ofereix un format compacte, un consum ajustat i un cost més contingut, a costa de renunciar als nivells de potència de plataformes molt més cares.
En entorns educatius i de formació tècnica a Espanya i Europa es pot convertir en una eina útil per apropar la formació tècnica a la prà ctica, permetent que lalumnat experimenti amb models reals en maquinari relativament econòmic.
Això sÃ, per a usuaris que només vulguin executar models de llenguatge en local amb el mà xim marge possible, una Raspberry Pi 5 amb 16 GB de RAM sense HAT pot continuar sent una opció més senzilla, sempre que s'accepti que la CPU i la GPU de la placa principal seran les que suportin tota la inferència.
Integració de programari i recursos per començar
Raspberry Pi ha posat èmfasi que l'AI HAT+ 2 interfÃcie PCIe il?entorn habitual de la Raspberry Pi 5, reduint la fricció per als qui ja coneixen l?ecosistema. La comunicació amb el HAT es realitza a través de la interfÃcie PCIe i els controladors i llibreries especÃfics permeten dirigir les cà rregues de treball d'IA cap al Hailo‑10H.
Per part de Hailo, els usuaris tenen un repositori a GitHub i una Developer Zone on s'ofereixen exemples de codi, models preconfigurats, tutorials i frameworks per treure partit tant a la IA generativa com a la visió computaritzada. Això facilita començar amb prototips sense necessitat de construir tota la pila des de zero.
En el moment del llançament ja se n'anuncien diversos models de llenguatge llestos per instal·lar, amb la promesa d'anar ampliant el catà leg amb variants més grans o afinades a casos d'ús especÃfics. A més, s'esmenta la possibilitat de recórrer a tècniques com LoRA (Low-Rank Adaptation) per adaptar els models a tasques concretes sense haver de reentrenar-los del tot.
Com sol passar en aquest tipus de solucions, l'experiència real dependrà del grau de maduresa del programari. Alguns analistes assenyalen que encara hi ha marge de millora en estabilitat, eines i suport per a execucions simultà nies de diversos models, però la tendència apunta a una integració cada cop més polida dins de l'ecosistema Raspberry Pi.
Preu, disponibilitat i aspectes prà ctics
Pel que fa al preu, la Raspberry Pi AI HAT+ 2 ha estat anunciada amb un cost de referència de 130 dòlars. A Espanya ia altres països europeus, l'import final dependrà del tipus de canvi, els impostos i la polÃtica de cada distribuïdor, per la qual cosa és previsible trobar lleugeres variacions.
La placa és compatible amb totes les versions de Raspberry Pi 5, des dels models amb 1 GB fins als de 16 GB de RAM, i es connecta mitjançant la interfÃcie PCIe del propi SBC. Això evita recórrer a adaptadors addicionals i simplifica el muntatge en caixes o xassÃs pensats per al format està ndard.
En el paquet s'inclou un dissipador opcional per al Hailo‑10H. Encara que la NPU està limitada a uns 3 W, la recomanació habitual és instal·lar aquest dissipador, sobretot si s'executaran cà rregues de treball intensives durant llargs perÃodes o benchmarks exigents, ja que el xip pot assolir temperatures elevades.
Al moment de la presentació, algunes botigues especialitzades informaven de estoc limitat, una cosa habitual cada vegada que apareix un nou accessori popular de Raspberry Pi. Per això, els qui vulguin assegurar-se una unitat a curt termini hauran d'estar atents a la disponibilitat en distribuïdors europeus autoritzats.
La Raspberry Pi AI HAT+ 2 es posiciona com una solució intermèdia entre el núvol i els grans servidors d'IA, pensada per als que necessiten processament local, privadesa de dades i costos continguts. Ofereix una forma relativament accessible de combinar visió per computador i models de llenguatge lleugers a la vora, amb marge per créixer a mesura que el programari maduri i s'enriqueixi el catà leg de models disponibles, sempre que s'assumeixin les limitacions de potència i memòria pròpies d'un dispositiu dissenyat per al consum baix.
