Gli attuali modelli di intelligenza artificiale basati su grandi modelli linguistici (LLM) non sono ancora capaci di comprendere concetti sensoriali come un essere umano: è quanto dimostra uno studio della Ohio State University pubblicato su Nature Human Behaviour, guidato da Qihui Xu. I ricercatori hanno analizzato come IA e persone valutano oltre 4.400 concetti, tra cui “fiore”, “altalena” e “umoristico”, utilizzando due scale di riferimento: Glasgow e Lancaster.
Mentre le intelligenze artificiali come GPT-3.5, GPT-4, PaLM e Gemini si avvicinano alle valutazioni umane per concetti astratti o linguistici, faticano a rappresentare quelli legati ai sensi e al corpo. Un fiore, ad esempio, per l’uomo evoca odori, consistenze ed emozioni che l’IA non può percepire, non avendo esperienze dirette del mondo.
Secondo Xu, il linguaggio da solo non basta a catturare la complessità dell’esperienza umana. Tuttavia, modelli addestrati anche su immagini mostrano migliori prestazioni, e si ipotizza che futuri LLM dotati di sensori e capacità robotiche possano ridurre questo divario, interagendo attivamente con la realtà.