Durante l’edizione 2025 del SIGGRAPH, Arm ha presentato l’introduzione dei neural accelerators nelle GPU Arm disponibili a partire dal 2026. La nuova tecnologia trasforma smartphone e tablet in dispositivi con una qualità visiva simile a quella dei PC da gioco; pur restando efficienti dal punto di vista energetico.
Il cuore di questa tecnologia è il concetto di neural rendering; ovvero, una metodologia che sfrutta l’AI per migliorare le immagini renderizzate in tempo reale. In questo modo si riduce il carico sulla GPU fino al 50%. L’adozione di questa tecnologia ottimizza il software e crea anche una simbiosi hardware/AI pensata per offrire grafica fluida, dettagliata e meno energivora.

Arm ha già rilasciato un Neural Graphics Development Kit completamente open-source; inoltre, compatibile con strumenti esistenti come Unreal Engine, Vulkan e GitHub. Il kit permette agli sviluppatori di iniziare a lavorare con il sistema un anno prima che l’hardware venga commercializzato. L’obiettivo è di accelerare l’adozione e lasciare spazio alla sperimentazione creativa. Partner come Epic Games, Tencent, NetEase e Sumo Digital hanno già mostrato interesse.
Neural Super Sampling di Arm: il DLSS del mobile
Il fiore all’occhiello del nuovo pacchetto è il Neural Super Sampling (NSS). Questo sistema di upscaling è stato progettato per funzionare in modo simile al DLSS di NVIDIA; tuttavia, è ottimizzato per i limiti termici e di consumo tipici dei dispositivi mobili. NSS consente di renderizzare un frame a bassa risoluzione, per esempio 540p; quindi, di ricostruirlo fino a 1080p attraverso una rete neurale pre-addestrata. Il tutto in circa 4 millisecondi per frame, un tempo compatibile con giochi a 60 fps. Questo approccio consente di alleggerire enormemente la GPU, lasciando spazio per effetti visivi più avanzati, o per prolungare l’autonomia della batteria.
L’elemento davvero interessante è la qualità dell’immagine ottenuta. NSS promette un risultato quasi indistinguibile dal rendering nativo. A questo si aggiunge la capacità di mantenere intatti dettagli superficiali, illuminazione e chiarezza nei movimenti, parametri fondamentali per un’esperienza di gioco soddisfacente. Il tutto si integra perfettamente nel pipeline grafico grazie alle nuove estensioni ML di Vulkan, che aggiungono un terzo percorso computazionale accanto a quelli grafici e di calcolo: il Graph Pipeline, dedicato all’inferenza AI.

Una piattaforma aperta
Ciò che rende la proposta di Arm particolarmente interessante è l’efficienza, ma soprattutto la filosofia di apertura totale. Il modello neurale, i pesi, il codice di inferenza: tutto viene rilasciato apertamente su GitHub e Hugging Face. Questo approccio open consente a ogni studio di modificare o addestrare il proprio modello, adattandolo al tipo di gioco o all’estetica desiderata.
Il Development Kit comprende già un plugin per Unreal Engine, strumenti di profiling aggiornati, emulazione Vulkan su PC e modelli pre-addestrati pronti all’uso. Questa architettura modulare si presta a molteplici applicazioni, anche fuori dall’ambito videoludico; per esempio, le fotocamere neurali, il path tracing mobile, le app di produttività oppure la realtà aumentata.

A partire dal 2026, la roadmap di Arm include altre due tecnologie: il Neural Frame Rate Upscaling, pensato per raddoppiare il framerate senza raddoppiare il carico grafico; e un sistema combinato di Super Sampling e Denoising neurale, per abilitare il path tracing in tempo reale su smartphone con un numero ridotto di raggi per pixel. L’obiettivo è rendere possibile una grafica cinematografica anche nei contesti più compatti e a bassa potenza.
Arm Neural Super Sampling: conclusioni
Arm sta costruendo una infrastruttura neurale completa, progettata per portare il rendering mobile a un nuovo livello di qualità. Non è un caso che realtà come Tencent, NetEase o Sumo Digital stiano già collaborando a stretto contatto con Arm per testare il Neural Graphics Development Kit.
Questa tecnologia è la chiave per offrire esperienze più coinvolgenti, scalabili e coerenti su una vasta gamma di dispositivi. Chi sviluppa giochi su mobile, ma anche chi lavora su imaging, metaverso o realtà aumentata, ha l’opportunità di fare di più, consumando meno.
Arm propone una visione dove ogni frame è il risultato di una collaborazione tra pixel e neuroni artificiali.