Hyundai Motor Group ha svelato durante il CES 2026 di Las Vegas il suo nuovo chip AI on-device chiamato Edge Brain, sviluppato in collaborazione con la società coreana DeepX nell’arco di tre anni. Questa tecnologia segna l’ingresso del colosso automobilistico nel settore della robotica industriale avanzata: permette ai robot umanoidi di elaborare dati e prendere decisioni in completa autonomia, anche senza dipendere dalla connettività cloud.


La rilevanza di questa mossa risiede nella capacità del gruppo di integrare l’intera catena robotica, dalla progettazione dei semiconduttori alla produzione di massa, sfruttando l’esperienza maturata nel settore automotive. Edge Brain rappresenta la base di un ecosistema completo che mira a trasformare Hyundai da produttore di veicoli a fornitore di soluzioni di automazione fisica su scala globale.
L’intelligenza artificiale fisica (physical AI) secondo Euisun Chung (presidente esecutivo di Hyundai Motor Group), rappresenta il campo dove Hyundai può esprimere al meglio la propria competitività, combinando capacità di progettazione e produzione di livello mondiale.
L’ambizione dichiarata prevede una capacità produttiva di 30.000 unità robotiche all’anno entro il 2030, volume che richiederà un’infrastruttura manifatturiera robusta e una supply chain altamente efficiente. Le soluzioni robotiche di Hyundai sono già operative in diversi settori industriali, con partnership che includono DHL, Nestlé e Maersk.
Caratteristiche tecniche del chip Edge Brain di Hyundai
Il chip Edge Brain è stato sviluppato nell’arco di tre anni dal Robotics Lab di Hyundai insieme all’hardware di DeepX. Consuma meno di 5 watt, una soglia critica per applicazioni mobili e autonome che devono bilanciare prestazioni e durata energetica. DeepX offre due varianti del suo processore neurale: il modello DX-M1, capace di 200 TOPS (tera-operazioni al secondo) nella fascia da 2-5 watt, e il DX-M1M, più contenuto con 25 TOPS nello stesso range di consumo.
La scelta di un’architettura on-device elimina la latenza legata alla comunicazione con server remoti e migliora la sicurezza dei dati. Tuttavia, restano aperti diversi interrogativi tecnici che influenzeranno la competitività di Edge Brain nel mercato dei chip per robotica edge. L’assenza di informazioni dettagliate su kit di sviluppo, documentazione del compilatore e integrazione con framework standard come ROS 2 potrebbe rappresentare un ostacolo per sviluppatori terzi interessati a costruire applicazioni sulla piattaforma Hyundai.
Al contrario, NVIDIA fornisce pacchetti ROS 2 accelerati per le proprie piattaforme Jetson, facilitando l’adozione da parte di system integrator che offrono servizi di ottimizzazione e distribuzione per operatori logistici e sanitari. Se Hyundai rilasciasse SDK completi e supporto ROS 2, potrebbe abilitare un ecosistema di fornitori focalizzati su siti che implementano robot di consegna o sistemi di sicurezza.
Applicazioni pratiche già in fase di test nei siti Hyundai
Dal giugno 2024, il chip Edge Brain è stato sottoposto a prove sul campo presso il Factorial Seongsu, struttura situata nella zona orientale di Seoul. Qui vengono testati due sistemi robotici distinti che incorporano la nuova tecnologia: il robot di riconoscimento facciale Facey e il robot di consegna autonomo DAL-e Delivery. Questi programmi pilota sono stati progettati per valutare prestazioni, stabilità e qualità del servizio in condizioni operative reali.


I test si concentrano su scenari dove la connettività di rete può risultare problematica o assente, come parcheggi sotterranei, centri logistici e siti industriali. In questi contesti, l’elaborazione on-device diventa essenziale per garantire continuità operativa e tempi di risposta adeguati alle esigenze di sicurezza.
A partire già da quest’anno, Hyundai prevede di installare il chip nei robot prodotti in serie, estendendo progressivamente la distribuzione a ospedali, hotel e altre strutture commerciali. Questa strategia di implementazione graduale permetterà di raccogliere dati operativi preziosi per ottimizzare sia l’hardware che il software di controllo, creando un ciclo di miglioramento continuo basato su feedback reali.
Il robot Atlas e l’integrazione con Google DeepMind per l’intelligenza fisica
L’ecosistema robotico di Hyundai si estende ben oltre i chip di elaborazione, e include la produzione di robot umanoidi attraverso Boston Dynamics, acquisita dal gruppo nel 2021. Durante il CES 2026, è stata presentata la nuova iterazione del robot Atlas, progettato specificamente per operare in contesti industriali affiancando lavoratori umani. Atlas si distingue per una mobilità articolare sorprendente, con capacità di rotazione a 360 gradi in molteplici giunture, permettendo movimenti che sfidano le convenzioni della biomeccanica umana, come la rotazione completa del torso e del collo o la flessione all’indietro delle dita.
Il piano di implementazione prevede l’introduzione di Atlas negli stabilimenti Hyundai a partire dal 2028, con la fabbrica di veicoli elettrici di Savannah, Georgia, indicata come una delle prime destinazioni. L’azienda ha già manifestato l’intenzione di acquistare decine di migliaia di robot Boston Dynamics nei prossimi anni, segnalando un impegno significativo verso l’automazione dei propri processi produttivi.
La collaborazione con Google DeepMind rappresenta un tassello fondamentale di questa strategia. L’integrazione tra i robot umanoidi di Boston Dynamics e i modelli fondazionali di AI robotica Gemini di DeepMind mira a creare macchine capaci non solo di eseguire compiti programmati, ma di ragionare e adattarsi a qualunque situazione.
Visione strategica per il futuro della robotica
Hyundai sta compiendo il passo definitivo da “produttore di auto” a “gigante della robotica”. L’obiettivo è quello di creare dei robot umanoidi efficienti, a basso consumo e intelligenti che generino valore tangibile nei luoghi in cui operano. Inoltre, sviluppare chip proprietari per l’intelligenza artificiale significa non dipendere più da fornitori terzi (come Nvidia o Qualcomm) e poter ottimizzare l’hardware esattamente per i movimenti e il calcolo spaziale dei robot.
La capacità di mantenere gli impegni di produzione dichiarati, raggiungendo 30.000 unità robotiche e 9,8 milioni di veicoli entro il 2030, determinerà se questa visione ambiziosa si tradurrà in leadership di mercato concreta. Il vero banco di prova non sarà solo la tecnologia in sé, ma la capacità di scalare efficacemente dalle fasi pilota alle implementazioni commerciali su larga scala, costruendo un ecosistema aperto che attragga sviluppatori terzi e clienti industriali.
Concorrenti come Tesla stanno parimenti investendo nell’integrazione di robot umanoidi nei processi produttivi. La differenza sostanziale risiede nell’approccio di Hyundai, che combina sviluppo interno di chip con l’esperienza consolidata di Boston Dynamics nella robotica avanzata, creando potenzialmente un vantaggio competitivo.










