Basta leggere le specifiche tecniche degli ultimi top di gamma presentati nella seconda metà del 2017 per accorgersi che, nel giro di un paio d'anni o poco più, tutti i dispositivi informatici saranno dotati di un'unità di calcolo neurale (Neural Processing Unit, abbreviato in NPU) dedicata all'esecuzione dei calcoli più complessi e degli algoritmi di intelligenza artificiale. Un'evoluzione "naturale", se così vogliamo dire, che asseconda lo sviluppo cui si è andati incontro in settori come quello dell'intelligenza artificiale (per l'appunto), della realtà virtuale e della realtà aumentata.
Una tendenza che riguarda principalmente gli smartphone, ma non in maniera "esclusiva". Non è da escludere, infatti, che le NPU arrivino ben presto a bordo dei computer di casa, andando ad affiancare (se non addirittura a sostituire) il "vecchio" processore. Non che si tratti di una novità assoluta: già in passato, infatti, si era assistito alla comparsa di chip "complementari" e progettati per svolgere una funzione in particolare. Si pensi, ad esempio, ai chip FPGA (acronimo di Field-programmable Gate Arrays), processori "generici" programmabili via software per svolgere un determinato compito piuttosto che un altro.
Chiamate anche AI accelerator ("acceleratore a intelligenza artificiale" in italiano), le NPU sono processori "complementari" progettati per eseguire algoritmi legati all'intelligenza artificiale e all'automazione (sia domestica, sia industriale). Basate su reti neurali artificiali, sono particolarmente indicate per compiti di machine learning e machine vision (ovvero "visione computerizzata"): operazioni nelle quali non è richiesta una particolare abilità e precisione nell'eseguire calcoli matematici, ma capacità analitiche paragonabili (per l'appunto) a quelle di un vero cervello biologico.
Alla base del funzionamento delle NPU ci sono, come già detto, delle speciali reti neurali artificiali preposte a risolvere calcoli (non matematici) complessi. Per farlo, sono impiegati chip multicore che "imitano" il calcolo parallelo tipico delle reti neurali biologiche. Un tempo queste operazioni erano compiute sfruttando GPGPU (General Purpose GPU, letteralmente "calcolo a scopo generale su unità di elaborazione grafica") oppure i già citati chip FPGA: l'utilizzo di processori NPU, invece, permetterà di ottenere risultati migliori con un minor consumo energetico. Essendo progettati per questo specifico compito, infatti, i processori neurali saranno caratterizzati da una maggiore efficienza dei consumi a parità di performance.
Come mostrato da Apple e Huawei nel corso della presentazione dell'iPhone X e del Mate 10 Pro, una Neural Processing Unit è in grado di processare diverse migliaia di immagini al minuto, confrontandole e analizzandole sin nei minimi dettagli. Ciò permette alle NPU di "leggere" la realtà che le circonda per mezzo dei sensori e della fotocamera dei dispositivi mobili con i quali interagiscono e svolgere così compiti piuttosto complessi (e onerosi, da un punto di vista computazionale), orientati proprio alla comprensione della situazione reale nella quale operano.
In questo senso, le NPU potranno essere impiegate per "predire" le necessità degli utenti e aiutarli nello svolgimento di alcuni particolari compiti nel corso della giornata. Se, ad esempio, ci trovassimo a scattare una foto di un panorama o il ritratto di una persona, il processore NPU consiglierebbe come posizionarsi per ottenere i migliori risultati o utilizzerebbe filtri per migliorare automaticamente i nostri scatti. Capacità che potranno essere utilizzate anche nel campo della realtà mista: le NPU, infatti, potranno "guidarci" in maniera più efficiente nel caso in cui indossassimo un visore VR o AR, evidenziando dettagli o particolari di nostro interesse che potrebbero sfuggirci a occhio nudo.
Anche se le applicazioni reali dei chip a intelligenza artificiali sono ancora molto limitate – per "colpa", se così vogliamo dire, della mancata ottimizzazione di app e servizi già esistenti – è già possibile intravedere quali siano i possibili campi di utilizzo e cosa possono fare le NPU. Anche se ci sono sottilissime differenze tra le strategie messe in campo da Apple, Huawei e Qualcomm, è possibile comunque individuare un filo comune che accompagnerà le esperienze d'uso degli utenti.
A livello tecnologico, i vari chip AI presentati sinora sono tutti simili, se non identici. Da tre anni a questa parte, infatti, i produttori di SoC per dispositivi mobili impiegano l'architettura big.LITTLE di ARM, che unisce core lenti e "monofunzionali" a core più veloci e in grado di svolgere calcoli e processare informazioni anche molto pesanti. In questo modo si riescono a ottimizzare i consumi e dotare smartphone o smartwatch di funzioni avanzate. Alcuni esempi dell'utilità di questa architettura ci vengono dati proprio dai tre chip AI oggi in commercio.
1 febbraio 2018