
Apple ha racchiuso una nuova interessante funzione di accessibilità nell'ultima beta di iOS: un sistema che rileva la presenza e la distanza dalle persone nel raggio visivo della fotocamera dell'iPhone, in modo che gli utenti non vedenti possano socializzare in modo efficace, tra molte altre cose.
La funzionalità arriva dai laboratori di Apple, ARKit, e sarebbe in grado di rilevare le forme delle persone e di lasciar passare oggetti virtuali. Il team accessibilità si è reso conto che questo, combinato con le misurazioni accurate della distanza fornite dalle unità LIDAR su iPhone 12 Pro e Pro Max, potrebbe essere uno strumento estremamente utile per chiunque abbia una disabilità visiva.
Ovviamente durante la pandemia si pensa subito all'idea di tenersi a due metri di distanza dalle altre persone. Ma sapere dove sono gli altri e quanto sono lontani è un compito visivo di base che usiamo sempre per pianificare dove camminiamo, se attraversare la strada e così via. La nuova funzionalità, che farà parte dell'app Magnifier, utilizza il lidar e la fotocamera grandangolare di Pro e Pro Max, fornendo feedback all'utente in vari modi.
Il sistema richiede un'immagine decente sulla fotocamera grandangolare, quindi non funzionerà nell'oscurità totale. E mentre la restrizione della funzionalità alla fascia alta della linea iPhone riduce in qualche modo la portata, l'utilità in costante aumento di un tale dispositivo come una sorta di protesi visiva probabilmente rende l'investimento nell'hardware più appetibile per le persone che ne hanno bisogno.
Ad oggi, molti telefoni e dispositivi dedicati hanno funzionalità per trovare oggetti e persone, ma non è frequente che vengano fornite come funzionalità standard.
Il rilevamento delle persone è disponibile per iPhone 12 Pro e Pro Max che eseguono la versione iOS 14.2, resa disponibile da poco. I dettagli appariranno presumibilmente presto sul sito dedicato all'accessibilità per iPhone di Apple.
Fonte: techcrunch.com