Novità in Accessibilità di iOS 16 per gli utenti non vedenti e sordi

Tradotto dal’inglese da:
https://www.applevis.com/blog/whats-new-ios-16-accessibility-blind-deafblind-users

Introduzione

Sono tornato ancora una volta. Proprio come negli anni passati, settembre ci porta una nuova versione importante di iOS. Quest’ultima edizione include molte modifiche tradizionali come una schermata di blocco rinnovata; miglioramenti alle funzionalità di privacy e sicurezza; miglioramenti della modalità di messa a fuoco; nuove funzionalità in Messaggi e Mail; insieme a molti altri miglioramenti. Per l’elenco ufficiale di Apple delle funzionalità e delle modifiche di iOS 16, 
vedi questa pagina web che ne mette in evidenza molti.
Molti articoli copriranno questi cambiamenti in dettaglio, ma molto meno copriranno i miglioramenti e le caratteristiche dell’accessibilità per le persone che sono cieche o sordeche.

Cambiamenti mainstream degni di nota

Ciao Verifica Automatica, Addio Captcha!
I CAPTCHA potrebbero presto diventare una cosa del passato grazie a una nuova funzionalità in iOS 16 chiamata Verifica automatica. Consentendo a iCloud di verificare automaticamente e privatamente il tuo dispositivo e il tuo account, potrebbe presto essere possibile per gli utenti bypassare i CAPTCHA. Per informazioni più dettagliate su come funziona la verifica automatica, consulta questo 
articolo di TechCrunch.
Questa capacità dovrà essere ulteriormente sviluppata, quindi potrebbe volerci del tempo prima che funzioni in azione, ma è un’idea meravigliosa che si spera ottenga il supporto degli sviluppatori. Sebbene questa funzione sia stata abilitata per impostazione predefinita per me, puoi assicurarti che sia impostata per te andando su Impostazioni > ID Apple > Password e sicurezza > Verifica automatica e impostandola su “on”.

Siri

Ogni volta che parlo delle novità di iOS, Siri riceve una menzione. Questo articolo non fa eccezione. Questa volta, Siri ottiene la possibilità di svolgere nuove attività. Puoi spegnere il telefono, riavviarlo, riattaccare una chiamata e altre azioni. Con “Hey Siri” abilitato, digli semplicemente di svolgere una di queste attività.
Se sei qualcuno che preferisce raccogliere i propri pensieri prima di dettare, ora hai anche la possibilità di controllare la quantità di tempo in cui Siri aspetterà una risposta. Puoi regolarlo andando su Impostazioni > Accessibilità > Siri e scegliendo tra le 3 opzioni. L’impostazione predefinita è quella che abbiamo sempre avuto, ma ora ci sono opzioni per “Longer” e “Longest”.
Infine, ci sono nuovi suoni per quando Siri sta ascoltando e quando si ferma. Questi nuovi suoni sono molto più bassi e potrebbero essere più facili da rilevare per qualcuno con una perdita dell’udito ad alta frequenza.

Dettatura.

Con iOS 16, per lo più non è più necessario pronunciare la punteggiatura necessaria per formulare una frase corretta. Anche quando parlavo senza inflessione nella mia voce, la dettatura era ancora in grado di inserire correttamente i segni di punteggiatura in molti casi. Detto questo, ho anche avuto momenti casuali in cui non appare alcuna punteggiatura, quindi è sempre meglio verificare cosa stai inviando prima di farlo.
Se vuoi aggiungere o eliminare la punteggiatura, tuttavia, puoi modificarla al volo poiché la tastiera sullo schermo rimane disponibile durante la dettatura. È anche possibile dettare le emoji. Ad esempio, dire “faccia sorridente con emoji occhi sorridenti” produrrebbe l’emoji corretta.
Ho scoperto che la punteggiatura e l’inserimento delle emoji sono accurati di circa l’80% sul mio iPhone SE 3, ma che era un po’ più alto su un iPhone 12 Pro Max. Vale la pena notare che l’inserimento automatico di emoji e punteggiatura è disponibile solo su iPhone XS e versioni successive, che include SE 2, 3 e XR.

VoiceOver

Ci Sono Più Voci Dentro Il Mio Telefono!
iOS 16 porta un gran numero di nuove opzioni vocali a coloro che le usano per VoiceOver, Speak Screen o Speak Selection. Secondo la pagina Apple collegata sopra, le opzioni di discorso sono ora disponibili in oltre 20 lingue e impostazioni locali aggiuntivi, tra cui il Bangladesh (India), il bulgaro, il catalano, l’ucraino e il vietnamita.
Queste nuove opzioni non sono solo nuove voci, ma sono incluse versioni più recenti di vari sintetizzatori software, come una frequenza di campionamento più elevata sulla voce chiamata Tom, una nuova versione premium di Ava e nuove voci come Nathan, Joelle, Noelle e altre. Esplora queste e altre nuove opzioni andando su Impostazioni > Accessibilità > VoiceOver > Voce > Voce.

Leggi con eloquence

Puoi ascoltare il tuo dispositivo iOS con qualsiasi altra variante di Eloquence che desideri. In inglese, questo include sia le varianti USA che quelle del Regno Unito. Molti preferiscono questo sintetizzatore vocale ad altri, in quanto è l’impostazione predefinita con JAWS ed è molto reattivo. La sua natura relativamente robotica e più prevedibile può anche aiutare coloro che hanno problemi di udito, poiché a volte può essere difficile capire i sintetizzatori concatenativi più moderni a tassi più rapidi.
Proprio come il cibo, la musica, i libri o molte altre cose nella vita, questo è altamente soggettivo. Con iOS 16, la tua scelta di voci e lingue è più grande che mai. Anche le voci di novità con cui gli utenti macOS hanno familiarità sono ora disponibili.
Un elenco completo delle voci statunitensi e delle dimostraZIONI audio può essere trovato in 
questo podcast di Thomas Domville.
C’è un 
secondo podcast che dimostra ed elenca le voci inglesi per coloro che sono al di fuori degli Stati Uniti.

Meno A Volte È Meglio
Quando 
è stato rilasciato iOS 15,
ha portato più opzioni Verbosity sia agli utenti vocali che a quelli braille, incluso come trasmettere la disponibilità del rotore Action. La sfida era che i messaggi erano sempre attivi o sempre spenti. Sempre attivo ha causato problemi con l’app Mail, poiché il rotore delle azioni è quasi sempre disponibile, ma è stato molto utile per conoscere la disponibilità del rotore delle azioni in contesti sconosciuti. In iOS 16, ora c’è un’impostazione che, quando è abilitata, visualizza o pronuncia queste informazioni solo una volta fino a quando non cambia. Coloro che usano Mail e simili non si troveranno più regolarmente interrotti da questi messaggi ripetuti. Trovalo in Impostazioni > Accessibilità > VoiceOver > Verbosità > Azioni. Attivare “Solo primo elemento” è l’unica nuova opzione.

È Ora Di Iniziare

Una nuova funzione per Apple Maps è il feedback sonoro e tattile per gli utenti di VoiceOver per identificare il punto di partenza per le indicazioni a piedi. Da quanto ho capito, questa funzione viene attivata automaticamente ogni volta che VoiceOver è in esecuzione.

Lente d’ingrandimento

Rilevamento delle porte
Ci sono altre cose oltre all’ingrandimento che accadono in questa app. Uno di questi è il rilevamento. Dopo aver aperto l’app Lente d’ingrandimento, sul lato in basso a destra dello schermo troverai un pulsante chiamato “Rilevamento”. L’attivazione di questa modalità rivela una nuova schermata che avrà 3 pulsanti: rilevamento delle persone, rilevamento delle porte e descrizione dell’immagine. Ognuno di questi 3 pulsanti può essere attivato e il tuo dispositivo iOS troverà e segnalerà ciò che pensa di aver rilevato.
Camminando per il mio quartiere con tutti e 3 i pulsanti attivati, la quantità di informazioni era travolgente. Questo in parte perché c’erano molte aziende in ogni isolato, persone che andavano nel pomeriggio e molta pubblicità e informazioni da rilevare. Accendere solo il rilevamento delle porte sembrava rallentare le cose.
Mentre siamo sul tema della lentezza, questa è esattamente la velocità di cui avrai bisogno per viaggiare per il LiDar e altri hardware per darti informazioni accurate. Il che ha senso, quando si identificano gli oggetti e la loro distanza misurata in piedi, 1 o 2 passi possono cambiare l’intera prospettiva. Tuttavia, se stai cercando una porta o un cartello, probabilmente ti muoverai comunque a un ritmo più lento. Il mio problema era che le informazioni erano senza contesto a meno che non sapessi già che qualcuno o qualcosa fosse lì. Ad esempio, ero spesso informato della presenza di altri, ma non avevo informazioni su dove si trovavano in relazione con me. Sono stato anche in grado di leggere i numeri di indirizzo, il che è stato bello, ma spesso c’erano 2 o 3 porte rilevate contemporaneamente, quindi capire esattamente cosa veniva segnalato ha richiesto lavoro.
C’è anche il problema di non avere mani libere quando si conduce questo esercizio. Stavo camminando con il bastone in una mano e il telefono nell’altra. Deve affrontare verso l’esterno, il che potrebbe essere problematico se qualcuno ti incontra o pensa di volere un nuovo iPhone e cerca di rubarlo. Per una persona totalmente sorda, molto probabilmente dovrebbe proteggere il telefono tramite un cordino o qualche altro metodo, poiché avrebbero il telefono, l’aiuto alla mobilità e il display braille per destreggiarsi quando utilizzano questa tecnologia.
Navigando in casa con questo nuovo set di strumenti, ho scoperto che funzionavano molto meglio e sono stati in grado di fornirmi informazioni utili. Ad esempio, quando mi sono fermato davanti a una porta in un edificio per uffici a caso, l’iPhone è stato in grado di identificare la stanza. Mi ha anche letto il nome della persona che probabilmente pensava che fossi uno strano per essere appeso fuori dalla loro porta.
Come nel caso di altri tipi di apprendimento automatico, sento che ci stiamo avvicinando al momento in cui questi strumenti forniranno informazioni estremamente preziose. È mio parere, senza dire, che tale tecnologia funzionerebbe molto meglio sotto forma di occhiali o qualche altro dispositivo indossato a testa. Il rilevamento nell’app Lente d’ingrandimento è disponibile solo sulle versioni Pro e Pro Max di iPhone 12, 13 e 14.

Attività

iOS 13 ha portato questa funzione a VoiceOver, ma iOS 16 estende lo stesso tipo di flessibilità contestuale alla Lente d’ingrandimento. Puoi salvare i tuoi controlli lente d’ingrandimento preferiti, tra cui fotocamera, luminosità, contrasto, filtri e altro ancora come attività, e passare rapidamente da una all’altra. Ciò rende più efficiente il passaggio di configurazioni ottimizzate per attività e situazioni ricorrenti come un menu di ristorante rispetto a una scheda di volo aeroportuale.

Udito

Didascalie in tempo reale
La novità di iOS 16 è una funzione Live Caption che non solo fornirà didascalie per app come FaceTime, ma è anche disponibile in tutto il sistema. Puoi abilitare la funzione andando su Impostazioni > Accessibilità > Live Captions (Beta).
Ci sono possibilità di controllare l’aspetto del pannello delle didascalie. Sono disponibili opzioni per rendere il testo in grassetto, regolare la dimensione del testo, il colore del testo, il colore di sfondo e l’opacità inattiva.
Per gli utenti braille, la funzione Live Captions è utile, anche se un po’ frustrante da navigare. Quando è acceso e si utilizzano didascalie a livello di sistema, in genere è possibile trovare l’icona nell’angolo in basso a destra della schermata Home con spazio e punti 4-5-6 e quindi premere spazio con il punto 4 per arrivare all’icona. Tuttavia, a volte l’icona Live Captions non c’è.
Per coloro che desiderano utilizzare regolarmente questa funzione, consiglio di impostare un comando da tastiera per passare direttamente al pannello Live Captions da qualsiasi luogo. Il comando che deve essere personalizzato è “sposta all’app successiva”. Per impostare un comando personalizzato per la funzione Live Captions, attenersi alla seguente procedura:

    1. Vai su Impostazioni > Accessibilità > VoiceOver > Braille > Ulteriori informazioni (sotto il dispositivo che hai collegato) e poi comandi.
    2. Attivare il pulsante Dispositivo.
    3. Trova “sposta all’app successiva” tra l’elenco delle scelte.
    4. Scorri fino a “Assegna nuove chiavi Braille”.
    5. Tieni a mente un comando in modo da poter premere immediatamente questa combinazione di tastiera. Ad esempio, Dot 8 con punti 2-6. Se il comando che hai scelto non ha già qualcosa assegnato, questo processo sarà completato. Se l’assegnazione della tastiera Braille ha un comando già associato a quella combinazione di tastiera, riceverai un avviso che ti dice qual è l’azione già assegnata e ti chiederà se desideri cambiarla.
    6. Scegli “OK” o “Annulla” e verrà selezionata l’opzione appropriata.

Una volta attivo, puoi andare al pannello delle didascalie premendo il comando assegnato sopra. Una volta nel pannello, oltre alle didascalie, incontrerai alcune opzioni. Se non sono disponibili didascalie, troverai “Ascoltare…” Dopo di che c’è un pulsante “Pausa”, seguito da un pulsante del microfono e dal pulsante “Minimizza”. L’attivazione del microfono abilita le didascalie in diretta dell’ambiente circostante. Se il microfono non è selezionato, riceverai le didascalie di qualsiasi audio diverso da VoiceOver riprodotto su altre app. Ad esempio, ho estratto un flusso di WCBS AM sull’app OOTunes e ho ricevuto didascalie di ciò che l’host stava dicendo. Frustrativamente, l’arrivo del nuovo testo riporta la messa a fuoco all’inizio della riga e interrompe il flusso di lettura. Questo è un problema anche quando si usano Live Captions con quelli intorno a te. Questo potrebbe rivelarsi un fastidio anche per i lettori braille veloci. Quando si è in una chiamata FaceTime e utilizzando VoiceOver, è possibile andare al pulsante “ulteriori informazioni” e attivare le didascalie in diretta per le chiamate FaceTime. Sul mio iPhone SE, non sono stato in grado di far funzionare le didascalie dal vivo con FaceTime Audio, solo quando facevo una videochiamata. Sono supportate anche le chiamate telefoniche standard, il che significa che alla fine potrebbe sostituire app come ClearCaptions che mette nuove didascalie su linee diverse. Questo significa che il testo in primo piano non cambi ogni volta che arriva un nuovo testo. I vantaggi di questo rispetto a un’app di terze parti sono che non è richiesto un numero di telefono diverso e che non esiste una complessa verifica dell’identità richiesta dai regolamenti FCC per il servizio telefonico di tidascalia del protocollo di relè e internet.
Le didascalie stesse sono affidabili quanto la dettatura. Significa che a volte escono bene, e altre volte, non così tanto. Ho chiamato un amico della Carolina del Sud che ha un accento meridionale molto spesso. Non ha fatto così bene con la sua voce. Tuttavia, dopo aver chiamato mio fratello che vive nel Michigan, è stato molto più accurato. Live Captions è una funzione disponibile solo negli Stati Uniti e in Canada al momento del lancio e richiede un iPhone 11 o versioni successive.

I tuoi suoni identificati

Con il rilascio di iOS 14, Apple ha introdotto il riconoscimento del suono. Alcuni nuovi suoni che potrebbe identificare sono stati presenti in iOS 15, ma ora puoi insegnare al tuo dispositivo cosa ascoltare.
Per configurare questa funzione, vai su Impostazioni > Accessibilità > Riconoscimento audio e scegli se vuoi personalizzare un allarme o un’appliance. Dopo aver selezionato “Personalizzato” sarai guidato attraverso il processo di configurazione che prima ti farà assegnare un nome al suono e poi riprodurlo 5 volte. Ho avuto alcuni problemi con tutti e 5 i tentativi di registrazione, ma dopo averlo giocato 7 o 8 volte, sembrava funzionare.
Un’altra nuova funzionalità di iOS 16 è la possibilità di scegliere un suono e una vibrazione personalizzata per ogni avviso. Quindi, se hai una notifica urgente come un rilevatore di fumo, potresti voler utilizzare uno dei patern delle vibrazioni più persistenti. Per i pochi suoni che ho attivi, ho registrato la mia vibrazione sotto forma di un modello di codice morse a 3 caratteri in modo che l’avviso fosse immediatamente riconoscibile.
Le prestazioni sembrano essere migliorate e sembrano particolarmente più affidabili per i suoni personalizzati. Ho scoperto che, per esempio, l’avviso del campanello non era troppo affidabile nelle versioni precedenti di iOS. Ora che posso registrare il mio, l’affidabilità è migliorata senza falsi positivi. Trovo ancora, però, che il suono in questione debba essere abbastanza forte affinché il riconoscimento del suono mi avvisi. Anche la soglia di rumore con le registrazioni sonore personalizzate sembra essere un po’ inferiore ai suoni standard disponibili da Apple.
Sono pronto a buttare via il mio rilevatore di fumo e altri allarmi? Per niente, poiché il mio sistema di allarme predefinito sembra più sicuro e affidabile.

Sono Stato Avvisato

Per gli utenti di AirPods e cuffie Beats, è stato possibile ricevere le notifiche direttamente in quei dispositivi tramite Siri quando è stato annunciato. IOS offre questa capacità agli utenti di apparecchi acustici mFI.

Salute dell’udito

in iOS 15, agli utenti è stata data la possibilità di ottenere sistemazioni per le cuffie per compensare qualsiasi tipo di perdita dell’udito. L’utente completerebbe un breve controllo dell’udito che verrebbe quindi preso in considerazione se utilizzato con cuffie compatibili. iOS 16 lo espande consentendo di importare l’audiogramma generato nell’app Salute.

Appenderlo

Per impostazione predefinita, ora è possibile terminare le chiamate premendo il pulsante laterale sul tuo iPhone, tuttavia, non sono in grado di farlo funzionare con il mio iPhone SE. Ho provato a lasciare un dispositivo audio Bluetooth collegato, scollegando l’audio Bluetooth e tenendo il telefono all’orecchio e ho anche provato la funzione con VoiceOver spento. Altri hanno avuto successo con questa funzione, ma non riesco ancora a riattaccarmi alle persone in modo affidabile. È possibile disattivare questa impostazione se lo si desidera, può essere trovata in Impostazioni>Accessibilità>Touch>Prevent Lock To End Call.”

Conclusione

Apple continua a innovare e a portare nuove funzionalità di accessibilità agli utenti che ne hanno bisogno. Avere nuove funzionalità che posso usare specificamente come utente VoiceOver e braille ogni anno mi fa sentire incluso nel processo. Anche se ci sono certamente bug nella versione di iOS 16, ho scelto di aggiornare il mio dispositivo principale poiché sono in grado di aggirare i bug presenti. Molti degli insetti che ho trovato sono di natura minore. Anche se questo è vero per la mia circostanza, potrebbe non essere per la tua. Consiglierei di controllare iOS 16 su un altro dispositivo prima di installarlo da solo, specialmente come utente ipovedenti. Apple ha indicato, ad esempio, nell’articolo collegato nel primo paragrafo che ci sono molti nuovi design. Inoltre, consiglierei di controllare l’elenco
 dei bug 
sul sito web AppleVis. Il post originale e i commenti spesso forniscono informazioni preziose che possono aiutarti a decidere se iOS 16 è giusto per te. Se è così, puoi prenderlo su iPhone 8 e versioni successive. Scusa gli amanti dell’iPod touch, iOS 15.6.1 era la fine della linea per l’iPod 7. Puoi scaricare e installare l’aggiornamento andando su Impostazioni > Generali > Aggiornamento software. Ricorda, però, che potresti essere in grado di tornare al 15.6.1 solo per un tempo molto limitato, e che il processo per farlo è tutt’altro che semplice.