Apple ha annunciato nuove funzioni di accessibilità in arrivo entro la fine dell’anno, tra cui le schede sull’accessibilità, che offriranno informazioni più dettagliate per app e giochi sull’App Store. Le persone cieche o ipovedenti potranno esplorare, imparare e interagire usando la nuova app Lente per Mac; prendere appunti ed eseguire calcoli con la nuova funzione Braille Access, e sfruttare il potente sistema di fotocamere di Apple Vision Pro con i nuovi aggiornamenti a visionOS. Altre novità includono Accessibility Reader, una nuova modalità di lettura a livello di sistema creata pensando all’accessibilità, e aggiornamenti ad “Ascolto dal vivo”, “Suoni di sottofondo”, “Voce personale”, “Indicatori di movimento nei veicoli”, e molto altro ancora. Sfruttando la potenza del chip Apple, oltre ai miglioramenti del machine learning on-device e dell’intelligenza artificiale, gli utenti sperimenteranno un nuovo livello di accessibilità in tutto l’ecosistema Apple.
Tra le novità in arrivo quella più interessante è Braille Access, un’esperienza tutta nuova che trasforma iPhone, iPad, Mac e Apple Vision Pro in strumenti completi per prendere appunti in braille perfettamente integrati nell’ecosistema Apple. Con una funzione integrata per l’avvio delle app, gli utenti potranno aprire facilmente qualsiasi app digitando con “Input Braille schermo” o un dispositivo braille collegato. Con Braille Access, è possibile prendere appunti al volo in formato braille ed eseguire calcoli usando il codice braille di Nemeth, spesso utilizzato nelle classi per le scienze e la matematica. Gli utenti possono aprire i file Braille Ready Format (BRF) direttamente da “Braille Access”, sbloccando un’ampia gamma di libri e file creati in precedenza su dispositivi che consentono di prendere appunti in braille. E grazie a una versione integrata di “Trascrizioni live” possono trascrivere le conversazioni in tempo reale direttamente sui display braille.
Accessibility Reader invece è una nuova modalità di lettura, a livello di sistema, progettata per rendere più facile la lettura di testi per utenti con varie disabilità, come la dislessia o l’ipovisione. Disponibile su iPhone, iPad, Mac e Apple Vision Pro, Accessibility Reader offre alle persone nuovi modi per personalizzare i testi e concentrarsi sui contenuti che si vogliono leggere, con tante opzioni per quanto riguarda font, colore e spaziatura, nonché il supporto di “Contenuto letto ad alta voce”. La funzione Accessibility Reader si può avviare da qualsiasi app ed è integrata nell’app Lente per iOS, iPadOS e macOS, permettendo così agli utenti di interagire con il testo rilevato nel mondo reale, come libri o menu di ristoranti.
Per le persone cieche o ipovedenti, visionOS amplierà le funzioni di accessibilità per la vista usando l’evoluto sistema di fotocamere di Apple Vision Pro. Con potenti aggiornamenti alla funzione Zoom, gli utenti potranno ingrandire tutto ciò che è visibile, incluso l’ambiente intorno, usando la fotocamera principale. Per chi usa VoiceOver, la funzione “Riconoscimento in tempo reale” in visionOS utilizza il machine learning on-device per descrivere l’ambiente circostante, trovare oggetti, leggere documenti, e tanto altro ancora. Per sviluppatori e sviluppatrici che si occupano di accessibilità, una nuova API consentirà alle app approvate di accedere alla fotocamera principale per offrire assistenza di persona e in tempo reale per l’interpretazione visiva in app come Be My Eyes, offrendo alle persone nuovi modi per comprendere l’ambiente circostante, a mani libere
Altri aggiornamenti
- “Suoni di sottofondo” diventa più facile da personalizzare, con nuove impostazioni di equalizzazione, l’opzione di arresto automatico dopo un determinato periodo di tempo e nuove azioni per le automazioni in Comandi rapidi. “Suoni di sottofondo” può aiutare a ridurre le distrazioni per favorire la concentrazione e il rilassamento, aspetti che, secondo alcune persone, possono contribuire ad alleviare i sintomi dell’acufene.
- Per le persone che rischiano di perdere la facoltà di parlare, Voce personale diventa più veloce, semplice e potente che mai, sfruttando i miglioramenti del machine learning on-device e dell’intelligenza artificiale per creare una voce dal suono più naturale in meno di un minuto, usando solo 10 frasi registrate. “Voce personale” aggiungerà il supporto anche per lo spagnolo (Messico).2
- La funzione Indicatori di movimento nei veicoli, che può aiutare a ridurre la nausea quando si usa un dispositivo su un veicolo in movimento, arriva su Mac, insieme a nuovi modi per personalizzare i punti animati sullo schermo su iPhone, iPad e Mac.
- Chi usa “Tracciamento occhi” su iPhone e iPad ora potrà scegliere di usare un interruttore o un ritardo per effettuare selezioni. Ora l’esperienza di digitazione sulla tastiera quando si usa la funzione “Tracciamento occhi” o “Controllo interruttori” è ancora più semplice su iPhone, iPad e Apple Vision Pro, grazie a miglioramenti che includono un nuovo timer del ritardo per la tastiera, un minor numero di passaggi quando si digita con interruttori e la possibilità di usare QuickPath per iPhone e Apple Vision Pro.
- Con “Tracciamento testa”, gli utenti potranno controllare più facilmente iPhone e iPad con i movimenti del capo, in modo analogo alla funzione “Tracciamento occhi”.
- Per utenti con disabilità motorie gravi, iOS, iPadOS e visionOS aggiungeranno un nuovo protocollo per supportare “Controllo interruttori” per Brain Computer Interfaces (BCIs), una nuova tecnologia che permette di controllare il proprio dispositivo senza alcun movimento fisico.
- “Accesso assistito” introduce una nuova app Apple TV su misura con un player multimediale semplificato. Gli sviluppatori e le sviluppatrici riceveranno anche supporto per creare esperienze personalizzate per utenti con disabilità intellettive e di sviluppo usando l’API di “Accesso assistito”.
- “Feedback aptici musica” su iPhone diventa più personalizzabile, con la possibilità di sentire feedback aptici per un intero brano o solo per le tracce vocali, e l’opzione per regolare l’intensità complessiva di tocchi, texture e vibrazioni.
- “Riconoscimento suoni” introduce Name Recognition, una nuova funzione che permette alle persone sorde o ipoudenti di sapere quando viene pronunciato il loro nome.
- “Controllo vocale” introduce una nuova modalità di programmazione in Xcode per sviluppatori e sviluppatrici di software con difficoltà motorie. “Controllo vocale” aggiunge anche una funzione di sincronizzazione del dizionario tra dispositivi e amplierà il supporto linguistico per includere arabo (Arabia Saudita), cinese mandarino (Taiwan), coreano, inglese (Singapore), italiano, russo, spagnolo (America Latina) e turco.
- “Trascrizioni live” aggiunge il supporto per cantonese (Cina continentale, Hong Kong), cinese mandarino (Cina continentale), coreano, francese (Canada, Francia), giapponese, inglese (Australia, India, Regno Unito, Singapore), spagnolo (America Latina, Spagna) e tedesco (Germania).
- Gli aggiornamenti a CarPlay includono il supporto per “Testo più grande”. Grazie alle novità in arrivo per “Riconoscimento suoni” su CarPlay, le persone sorde o ipoudenti che guidano o viaggiano in auto potranno ricevere una notifica quando vengono rilevati suoni come il pianto di un bambino, oltre a suoni esterni al veicolo, come clacson o sirene.
- Share Accessibility Settings è un nuovo modo per condividere velocemente e temporaneamente le proprie impostazioni di accessibilità con un altro iPhone o iPad. Questa funzione è molto utile quando si prende in prestito un dispositivo o si usa una postazione pubblica, per esempio quando si è in un bar.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di
BitCity.it iscriviti alla nostra
Newsletter gratuita.