Il settore della ricerca sull’intelligenza artificiale di Apple ha svelato nuove informazioni riguardo al modello progettato per rendere più rapido ed efficiente impartire comandi a Siri, convertendo qualsiasi contesto in testo più facilmente analizzabile da un Large Language Model (LLM).
Questo nuovo modello, denominato ReALM (Reference Resolution As Language Modeling), affronta il problema della risoluzione di riferimento, ovvero far sì che un programma informatico esegua un’azione basata su input di linguaggio vago, come “questo” o “quello”. Apple ha trovato una soluzione semplificata utilizzando LLM, che converte tutto in testo, consentendo a Siri di interpretare meglio il contesto e fornire risposte più accurate agli utenti.I modelli ReALM più piccoli hanno dimostrato prestazioni simili a GPT-4 con meno parametri, rendendoli più adatti per l’uso on-device.
Aumentare i parametri di ReALM ha migliorato ulteriormente le prestazioni, superando GPT-4.Convertendo le informazioni visive in testo, ReALM evita la necessità di avanzati parametri di riconoscimento delle immagini, rendendo il processo più efficiente e riducendo il rischio di allucinazioni. Questo significa che Siri può comprendere meglio il contesto e fornire risposte più mirate agli utenti, ad esempio chiamando un’azienda dopo aver visualizzato il suo numero di telefono su una pagina web.
Apple sta lavorando per integrare questa tecnologia in una strategia più ampia di intelligenza artificiale, che potrebbe includere modelli più piccoli on-device per garantire la privacy e la sicurezza degli utenti, oltre alla concessione in licenza di LLM di altre aziende per l’elaborazione off-device. Si prevede che ulteriori dettagli saranno annunciati durante la WWDC 2024.