Apple Intelligence: nuove funzioni in arrivo su iPhone, iPad, Mac, Apple Watch ed Apple Vision Pro
Gli aggiornamenti a Apple Intelligence estendono l’intelligenza visiva ai contenuti visualizzati sul display di iPhone, permettendo all’utente di eseguire azioni come cercare oggetti simili tramite Google, Etsy o altre app supportate.
Apple ha annunciato nuove funzioni di Apple Intelligenceche migliorano ulteriormente l’esperienza utente su iPhone, iPad, Mac, Apple Watch e Apple Vision Pro.
La traduzione in tempo reale abbatte le barriere linguistiche
Quando si fa fatica a esprimersi per via delle barriere linguistiche, la traduzione in tempo reale può aiutare a comunicare in modo efficiente sia per iscritto che a voce. L’esperienza è integrata nelle app Messaggi, FaceTime e Telefono, ed è resa possibile dai modelli creati da Apple che elaborano i dati esclusivamente sul dispositivo, così le conversazioni dell’utente rimangono riservate. In Messaggi, la funzione di traduzione in tempo reale può tradurre i messaggi in automatico. Se l’utente sta facendo dei progetti con dei nuovi amici nel corso di un viaggio all’estero, i loro messaggi possono essere tradotti in automatico mentre vengono digitati, e consegnati nella lingua preferita di chi li riceve. E quando arriva la risposta, il testo può essere tradotto all’istante.2Durante le chiamate FaceTime, l’utente può seguire la conversazione grazie alle trascrizioni live tradotte, continuando a sentire la voce dell’interlocutore. E se si è al telefono, la traduzione viene riprodotta ad alta voce nel corso dell’intera conversazione.
La funzione di traduzione in tempo reale permette di comunicare tra lingue diverse, sia per iscritto in Messaggi sia a voce durante le conversazioni con FaceTime e Telefono.
Nuovi modi di esplorare la creatività grazie agli aggiornamenti a Genmoji e Image Playground
Le Genmoji e Image Playground offrono ancora più modi per esprimersi. Oltre a trasformare un testo descrittivo in una Genmoji, l’utente può ora mischiare varie emoji e combinarle con delle descrizioni per creare qualcosa di unico. Quando crea immagini ispirate a persone amiche o della famiglia usando Genmoji e Image Playground, può ora cambiare le espressioni o modificare caratteristiche fisiche come la pettinatura, per esempio, affinché sia in linea con il look più recente di quella persona.
Gli aggiornamenti a Genmoji offrono poi nuovi modi di esprimersi permettendo di mischiare varie emoji e combinarle con delle descrizioni per creare qualcosa di unico. In Image Playground, l’utente può scegliere tra nuovi stili attraverso ChatGPT, per esempio uno stile ispirato ai dipinti a olio o all’arte vettoriale. E se ha un’idea specifica in mente, può anche fare tap su Any Style e descrivere ciò che vuole. Image Playground invia la descrizione o la foto dell’utente a ChatGPT e crea un’immagine originale. L'utente ha sempre il controllo e nulla viene condiviso con ChatGPT senza il suo consenso.
L’intelligenza visiva aiuta a fare ricerche ed eseguire azioni
Sfruttando Apple Intelligence, l’intelligenza visiva si estende al display di iPhone, permettendo all’utente di fare
Gli aggiornamenti a Apple Intelligence estendono l’intelligenza visiva ai contenuti visualizzati sul display di iPhone, permettendo all’utente di eseguire azioni come cercare oggetti simili tramite Google, Etsy o altre app supportate. L’intelligenza visiva è già in grado di aiutare l’utente a saperne di più su oggetti e luoghi intorno a sé attraverso la fotocamera di iPhone, e ora permette di fare ancora di più, più velocemente, con i contenuti visualizzati sullo schermo di iPhone. L’utente può chiedere a ChatGPT ulteriori informazioni su ciò che vede sul display, ma anche fare ricerche in Google, Etsy e altre app supportate per trovare immagini e prodotti simili. Se un oggetto ha attirato particolarmente la sua attenzione, per esempio una lampada, può evidenziarla per cercare online proprio quel modello o articoli simili.
L’intelligenza visiva con ChatGPT Grazie all’intelligenza visiva, l’utente può chiedere a ChatGPT informazioni su oggetti specifici. L’intelligenza visiva capisce anche quando l’utente sta dando un’occhiata ad un evento e suggerisce di aggiungerlo a Calendario.4 A quel punto, Apple Intelligence identifica la data, l'ora e il luogo in modo da inserire questi dettagli essenziali in un evento.
L’intelligenza visiva capisce anche quando l’utente sta dando un’occhiata a un evento e suggerisce di aggiungerlo a Calendario. A quel punto, Apple Intelligence identifica le informazioni utili per creare l’evento nell’app. Per accedere all’intelligenza visiva per i contenuti visualizzati sul display, basta premere gli stessi tasti usati per fare uno screenshot. L’utente potrà scegliere se salvare o condividere lo screenshot, oppure se scoprire di più con l’intelligenza visiva.
Apple Intelligence debutta nel fitness con Apple Watch
Workout Buddy su Apple Watch è un’esperienza di allenamento unica nel suo genere che, con l’aiuto di Apple Intelligence, incorpora i dati e la cronologia dei workout per generare informazioni personalizzate e motivazionali durante la sessione di allenamento.5 Per dare la carica in tempo reale in maniera contestualizzata, Workout Buddy analizza i dati del workout in corso insieme alla cronologia di allenamento, basandosi su dati quali battito cardiaco, ritmo, distanza, anelli Attività, traguardi fitness personali e molto altro ancora. Un nuovo modello di sintesi vocale converte poi le informazioni in una voce generativa dinamica basata sui dati vocali del team di trainer Fitness+, per darle l’energia, lo stile e il tono giusto per l’allenamento. Workout Buddy elabora questi dati in modo privato e sicuro con Apple Intelligence. Workout Buddy sarà disponibile su Apple Watch con un paio di cuffie o auricolari Bluetooth e richiede un iPhone con Apple Intelligence che deve trovarsi nelle vicinanze. Inizialmente sarà disponibile in lingua inglese per alcuni degli allenamenti più popolari, tra cui Corsa outdoor e indoor, Camminata outdoor e indoor, Bici outdoor, HIIT, e Rafforzamento muscolare tradizionale e funzionale.
Il modello on-device di Apple Intelligence è ora disponibile per chi sviluppa app
Apple sta offrendo la possibilità ad ogni app di attingere direttamente al modello di base on-device di Apple Intelligence.
Il framework Foundation Models permette a sviluppatori e sviluppatrici di attingere direttamente al modello on‑device su cui si basa Apple Intelligence, accedendo a un’intelligenza potente, rapida, progettata intorno alla privacy e disponibile anche offline. Grazie al framework Foundation Models, chi sviluppa app potrà sfruttare Apple Intelligence per offrire nuove esperienze intelligenti, disponibili quando sono offline e progettate per rispettare la loro privacy, usando un’inferenza AI a costo zero. Per esempio, un’app didattica può usare il modello on-device per generare un quiz personalizzato partendo dalle note dell’utente, senza nessun costo per l’API cloud, oppure un’app per le escursioni all’aperto potrebbe offrire funzioni di ricerca di suoni della natura che funzionano anche offline.
Grazie al supporto nativo per Swift, il framework Foundation Models permette a chi sviluppa app di accedere facilmente al modello di Apple Intelligence scrivendo soltanto tre righe di codice. Il framework offre supporto nativo per Swift, così chi sviluppa app può accedere facilmente al modello di Apple Intelligence scrivendo soltanto tre righe di codice. La generazione guidata e la chiamata di funzione, tra le altre cose, sono integrate nel framework, rendendo più facile che mai implementare capacità generative direttamente nell’app già esistente.
I comandi rapidi diventano più intelligenti
I comandi rapidi sono ora più potenti e intelligenti che mai. L’utente ha ora a disposizione varie azioni intelligenti, con una nuova serie di scorciatoie rese possibili da Apple Intelligence. Inoltre, può usare azioni dedicate per funzioni come il riepilogo dei testi con gli Strumenti di scrittura o la creazione di immagini con Image Playground. Ora l’utente potrà sfruttare direttamente i modelli di Apple Intelligence, on-device ma anche con il Private Cloud Compute, per generare risposte che verranno poi utilizzate nei suoi comandi rapidi. Per esempio, chi studia può creare una scorciatoia che usa il modello di Apple Intelligence per confrontare la trascrizione audio di una lezione con gli appunti presi, e aggiungere eventuali concetti chiave che potrebbero essere sfuggiti. L’utente può anche scegliere di attingere a ChatGPT per trovare risposte che verranno poi utilizzate nel suo comando rapido.
Altre nuove funzioni
Apple Intelligence è integrata ancora più profondamente nelle app e nelle esperienze su cui l’utente fa affidamento ogni giorno:
Le azioni più pertinenti in un’email, su un sito web, in una nota o in qualsiasi altro contenuto ora possono essere identificate e classificate automaticamente inPromemoria.
OraApple Walletè in grado identificare e riassumere i dettagli di tracking di un ordine presenti nelle email di esercenti o corrieri. Funziona per tutti gli ordini, e permette all’utente di vedere i dettagli completi, le notifiche sullo stato dell’ordine e molto altro ancora, in un unico posto.
InMessaggisi possono creare sondaggi su qualsiasi cosa. Inoltre, grazie ad Apple Intelligence, l’app capisce quando potrebbe essere utile un sondaggio, e lo propone direttamente. E con gli sfondi nell’app Messaggi, l’utente può personalizzare le chat con splendidi design, e usare Image Playground per creare sfondi originali che si abbinano bene alle varie conversazioni.
Altre funzioni rese possibili da Apple Intelligence includono la possibilità di riassumere i dettagli di tracking di un ordine inviati da commercianti o corrieri, e la capacità di suggerire un sondaggio pertinente per amici e parenti nelle chat di gruppo in Messaggi.
Le seguenti funzioni basate su Intelligence sono già disponibili per chi usa i dispositivi Apple:
GliStrumenti di scritturapossono aiutare l’utente a riscrivere, correggere e riassumere il testo che ha scritto. E con Descrivi la modifica, l’utente può descrivere la modifica specifica da applicare al suo testo, per esempio trasformare un invito a cena in una poesia.
Ripulisciin Foto permette di rimuovere gli elementi di distrazione da una foto, mantenendo invariata l’autenticità dello scatto.
L’intelligenza visivasfrutta Apple Intelligence per aiutare l’utente ad avere informazioni su oggetti e luoghi intorno a sé, all’istante.
LeGenmojipermettono di creare le proprie emoji digitandone la descrizione. E proprio come le emoji, le Genmoji possono essere aggiunte ai messaggi o condivise come adesivi o reaction con un Tapback.
Image Playgroundpermette di creare immagini spiritose in un attimo, partendo da un tema, un abito, un accessorio o un luogo. E l’utente può aggiungere le proprie descrizioni in formato testuale e creare immagini con le sembianze di familiari e amici usando gli scatti disponibili nella sua libreria di Foto.
Bacchetta immaginipuò trasformare uno schizzo appena abbozzato in un’illustrazione fatta e finita a complemento degli appunti appena presi.
Iriepiloghi in Mailpermettono di vedere le informazioni principali di un’email o di lunghi thread semplicemente toccando o cliccando su Riassumi.
Risposta veloceoffre suggerimenti per rispondere al volo in Mail e Messaggi.
Siri è più naturale e utile, anche grazie all’opzioneScrivi a Siri, e poichéconosce a fondo i dispositivi, può fornire informazioni su funzioni e impostazioni dei prodotti Apple. Inoltre, riesce a capire l’utente anche quando si incespica con le parole, e non perde il filo tra una richiesta e l’altra.
L’accesso aChatGPTè integrato negli Strumenti di scrittura e in Siri, così si può attingere alle relative capacità di comprensione delle immagini e dei testi senza dover passare da uno strumento all’altro.
Laricerca con linguaggio naturalein Foto permette di trovare facilmente una foto o un video specifici semplicemente descrivendoli.
L’utente puòcreare il filmato di un ricordoin Foto scrivendo una descrizione.
Iriepiloghi delle trascrizioni audio in Notevengono generati in automatico per mettere in evidenza le informazioni più importanti a colpo d’occhio.
L’utente può generare iriepiloghi delle trascrizioni delle chiamateper mettere in evidenza i punti principali.
La sezioneMessaggi con prioritàin cima alla casella di posta in Mail mostra le email più urgenti, ad esempio un invito a pranzo per il giorno stesso o la carta d’imbarco per un volo imminente.
Lenotifiche prioritarieappaiono in cima a tutte le altre per mettere in evidenza quelle più importanti che potrebbero richiedere l’attenzione immediata dell’utente.
Iriepiloghi delle notificheaiutano a scorrere rapidamente le pile di notifiche mostrando solo i dettagli chiave direttamente sulla schermata di blocco.
Leanteprime in Mail e Messaggimostrano un breve riepilogo delle informazioni principali senza bisogno di aprire il messaggio.
La full immersionMeno distrazionimostra solo le notifiche che potrebbero richiedere un’attenzione immediata.
Una rivoluzione per la privacy nell’AI
Progettata per proteggere la privacy dell’utente ad ogni passo, Apple Intelligence usa l’elaborazione on-device: significa che molti dei modelli su cui si basa vengono eseguiti interamente sul dispositivo. Per le richieste che necessitano di modelli più grandi, il Private Cloud Compute dà accesso a un set di dati più ampio estendendo la privacy e la sicurezza di iPhone nel cloud, così le informazioni dell’utente non vengono mai archiviate né condivise con Apple, ma sono usate solo per rispondere alla sua richiesta. Il codice in esecuzione sui server con chip Apple può essere e viene già ora ispezionato con controlli indipendenti, per verificare che la privacy sia davvero rispettata come dichiarato. È uno straordinario passo avanti per la privacy nell’AI.
Disponibilità
A partire da oggi, tutte queste nuove funzioni possono essere testate tramite l’Apple Developer Program, all’indirizzodeveloper.apple.com. La beta pubblica sarà disponibile il mese prossimo tramite il programma Apple Beta Software subeta.apple.com. Gli utenti che abilitano Apple Intelligence su un dispositivo compatibile impostando una delle lingue supportate avranno accesso alle nuove funzioni a partire da questo autunno. Sono inclusi tutti i modelli di iPhone 16, iPhone 15 Pro, iPhone 15 Pro Max, iPad mini (A17 Pro), e i modelli di iPad e Mac con chip M1 e successivo, impostando Siri e la lingua del dispositivo su cinese (semplificato), coreano, francese, giapponese, inglese, italiano, portoghese (Brasile) o spagnolo.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con le notizie di BitCity.it iscriviti alla nostra Newsletter gratuita.