“Dopo anni, abbiamo rivisto completamente l’interfaccia dei nostri dispositivi, per noi è una rivoluzione“. Lo ha detto Craig Federighi, vicepresidente di Apple e responsabile dello sviluppo software dell’azienda americana. Federighi ha aperto la prima parte dell’appuntamento Worldwide Developer Conference 2025, dedicato agli sviluppatori. “Dal 2026, cambieremo l’identificazione dei nostri sistemi operativi, che seguirà l’anno in corso. Quindi, il prossimo sarà iOs 26 e così per tutti gli altri”, ha proseguito il manager. Il cambio di passo avverrà già a settembre, con l’arrivo dei nuovi iPhone.
Tra le novità, in maniera simile ad Android, sugli smartphone sarà possibile accedere a informazioni a colpo d’occhio già dalla schermata di blocco. Lo stesso sarà per iPad, Apple Watch e la serie di computer della Mela.
Apple sfida OpenAI e apre la sua IA agli sviluppatori
Alla Worldwide Developer Conference in corso a Cupertino, Apple ha annunciato Foundation Models Framework. Si tratta di una nuova piattaforma che permette agli sviluppatori di terze parti di integrare l’intelligenza artificiale generativa di Cupertino nelle loro applicazioni. L’intento è chiaro: rivaleggiare con OpenAI, Google e Microsoft nel settore dell’IA generativa, puntando sugli sviluppatori. “Si tratta di un modo per ampliare gli usi dell’IA ma tenendo al primo posto la privacy”, ha spiegato Craig Federighi.
Secondo l’azienda, grazie al Foundation Models Framework, gli sviluppatori di app potranno portare l’IA a bordo delle applicazioni preservando la privacy, lasciando che il grosso delle operazioni venga svolto sui dispositivi, sfruttando le capacità dei modelli di eseguire operazioni senza inviare continuamente dati in rete.
“L’anno scorso abbiamo mosso i primi passi in un percorso per offrire agli utenti un’intelligenza utile, pertinente, facile da usare e disponibile proprio dove serve, proteggendo al contempo la loro privacy. Ora, i modelli alla base di Apple Intelligence stanno diventando più potenti ed efficienti“, ha dichiarato Federighi. “Crediamo che la nostra apertura darà il via ad una nuova ondata di app intelligenti”. In un esempio, il manager ha mostrato un’app didattica che, poggiando su Apple Intelligence, può generare quiz a partire dalle note degli utenti sul dispositivo.
Apple lancia l’assistente IA che parla con i contact center
Il grosso delle novità della Apple WWDC 2025 è focalizzato sull’intelligenza artificiale. Grazie ai modelli dell’azienda, sarà possibile utilizzare un assistente virtuale durante le telefonate per svolgere diverse attività. Tra queste, la traduzione delle conversazioni in tempo reale sull’app Telefono, Messaggi e anche le videochiamate di Facetime.
“Stiamo introducendo la traduzione dal vivo con Apple Intelligence (l’intelligenza artificiale di Apple). La traduzione dal vivo può tradurre le conversazioni all’istante. È integrata in Messaggi, FaceTime e nel telefono, ed è abilitata da modelli costruiti da Apple in esecuzione sul dispositivo”, ha spiegato l’azienda durante l’evento a Cupertino. Apple ha presentato la funzione con un video preregistrato di una conversazione in francese e inglese su FaceTime che mostrava i sottotitoli sullo schermo. La società ha spiegato che questo strumento all’avanguardia “funzionerà senza problemi anche quando si chiama qualcuno che non ha un iPhone”.
Nuove funzioni di traduzione arriveranno anche su Apple Music, l’applicazione musicale dell’azienda, che aggiungerà la traduzione dei testi e della pronuncia delle canzoni, “in modo che tutti possano cantare insieme, indipendentemente dalla lingua”.
Come mostrato dai manager di Cupertino, l’IA generativa permetterà anche di non dover aspettare minuti al telefono in attesa di parlare con un operatore di un servizio clienti supportato. La funzione si chiama hold assist. Ci penserà l’assistente ad avvisare, con la propria voce, che la persona dall’altra parte della comunicazione è in attesa di mettersi in contatto con l’operatore. Questo potrà ‘avvisare’ l’assistente quando pronto oppure avviare una sessione di chat con la messaggistica interna dell’iPhone per dar seguito alle richieste.
Per Apple, ogni contenuto generato dall’intelligenza artificiale resta sul dispositivo a difesa della privacy dei consumatori. L’aggiornamento arriverà a settembre con il sistema operativo iOs 26.
Inoltre, Apple ha aggiornato Visual Intelligence, che utilizza la fotocamera dell’iPhone per identificare oggetti ed eventi sullo schermo del telefono. Un ulteriore guanto di sfida a Google e alla sua funzionalità “cerchia e cerca” sui dispositivi Android. Un nuovo pulsante “chiedi” consentirà di interpellare ChatGpt per ottenere risposte su cosa c’è sul display, da un oggetto visto in un video e che si vuole comprare ad un concerto da aggiungere automaticamente al calendario. L’intelligenza visiva può anche effettuare ricerche all’interno delle app partendo dalle foto nella galleria. Tutte novità che troveranno una realizzazione nella consueta finestra di lancio autunnale, dopo l’arrivo degli iPhone 17.


Vuoi ricevere le notifiche sulle nostre notizie più importanti?