Da quando Microsoft ha annunciato le nuove console Xbox Series X e Series S con il loro supporto al Dolby Vision un numero sempre maggiore di appassionati ha iniziato a porsi delle domande in merito. Cos'è il Dolby Vision per i videogiochi? Ed in che modo dovrebbe migliorare l'esperienza rispetto, ad esempio, ad uno standard ben più diffuso come l'HDR10? Le differenze tra le due tecnologie esistono e sono tali da influenzare la resa di alcuni videogiochi in modo percettibile, per cui vale la pena approfondire gli elementi che le differenziano con particolare attenzione al Dolby Vision per i videogiochi.
La presenza dei metadati dinamici ha garantito per diverso tempo un vantaggio a Dolby Vision.
Con HDR10 la luminosità massima era definita come un valore massimo statico, quindi prefissato, da mantenere per l'intera durata del contenuto, mentre come detto Dolby Vision poteva offrire il livello di luminosità più adatto in base alla scena o al singolo fotogramma. Può sembrare una differenza da poco, magari un dettaglio, ma pensate ad una scena in cui si passa in modo repentino da un panorama bene illuminato ad uno buio: la regolazione dinamica del livello di luminosità, in casi come questo, fa davvero la differenza. Più sottile invece, in termini pratici, la differenza in nit tra Dolby Vision e HDR10 della luminosità di picco e dei 2 bit di "vantaggio" che lo standard di Dolby può tuttora vantare su HDR10+: al momento è pressoché impossibile raggiungere 4.000 nit di luminosità o sfruttare i 12 bit su televisori consumer, per cui Dolby Vision potrà spendere il vantaggio con le smart TV di domani.
Sul sito web dedicato allo standard campeggia il principale elemento di vantaggio di Dolby Vision per i videogiochi: "dì addio alle regolazioni" scrive Dolby, poiché "i giochi si adattano automaticamente al tuo schermo Dolby Vision mentre giochi, quindi vedi sempre l'immagine migliore possibile". Dolby centra il punto in poche righe. Il principale difetto che i videogiocatori denunciano dello standard HDR è che, paradossalmente, manca la standardizzazione tra i vari titoli.
Proprio per questa ragione è stato istituito l'HDR Gaming Interest Group o HGIG che mira ad abbattere questa criticità, ma ad oggi sono ancora pochi i titoli che supportano questa modalità, e peraltro i pochi che lo fanno richiedono una calibrazione apposita ed una TV che supporta HGIG. Insomma, allo stato attuale Dolby Vision per i videogiochi ha costruito un discreto vantaggio nei confronti dello standard rivale, non tanto su film e serie TV quanto nel mondo del gaming dove HDR e HGIG hanno ancora troppe grane da risolvere.
È da tenere a mente però il fatto che allo stato attuale nemmeno Dolby Vision per i videogiochi è perfetto.
Sebbene il formato sia compatibile con i display compatibili con HDMI 2.1 con risoluzione 4K a 120 Hz, molti modelli (inclusi gli ultimi LG OLED o i Sony 2020 e 2021) in questo momento riescono a coniugare il Dolby Vision solamente con il 4K a 60 Hz. Generalmente avviene a causa del chip MediaTek che equipaggia alcune smart TV, in cui l'attivazione di Dolby Vision disabilita il supporto ai 120 Hz. Così, delle due l'una: 4K a 60 Hz con Dolby Vision, oppure 4K a 120 Hz con HDR10. Infine chi possiede un televisore Samsung sappia che non può utilizzare il Dolby Vision: l'azienda coreana fa parte del consorzio HDR e ha deciso di non supportare lo standard "rivale" su nessun modello.