Guida autonoma: il MIT scova i punti deboli del sistema

MeteoWeb

Vi avevamo già parlato di fiducia nei confronti della guida autonoma e della soluzione studiata dal gruppo Jaguar Land Rover.

Il gruppo inglese (controllato dall’indiana Tata) si è però concentrato sul rendere chiare ed esplicite le intenzioni del veicolo qualora non ci fosse nessuno alla guida ma cosa succede se quelle intenzioni, che si traducono poi in manovre e comportamenti del veicolo nel traffico, sono sbagliate e portano ad errori e potenziali incidenti?
Ci sono casi infatti in cui gli algoritmi di guida autonoma non sono sufficienti a gestire la situazione, ad esempio le auto intelligenti sono in grado di distinguere una ambulanza da un normale furgone bianco e, di conseguenza, rallentare, accostare e dare la precedenza? La riposta è no, almeno fino ad ora.

I ricercatori del MIT di Boston hanno infatti sviluppato un sistema che nasce per migliorare gli algoritmi di intelligenza artificiale grazie agli input forniti dall’uomo.

Sono numerosi i punti deboli (definiti “blind spot”) dell’intelligenza artificiale emersi durante le simulazioni, dovuti al fatto che i software che gestiscono la guida autonoma sono programmati per rispondere a determinate situazioni tipo in modo standard.
Per identificarli, i ricercatori del MIT hanno cercato di individuare le differenze tra la teoria e la pratica e hanno deciso di affiancare l’intelligenza artificiale, intervenendo in tempo reale per correggerne gli errori. In questo modo, si forniscono all’IA informazioni più complete su una determinata situazione, consentendole di effettuare scelte più corrette e sicure in futuro. Il soggetto che si troverà all’interno dell’auto, dopo aver rilevato un errore del sistema di guida autonoma, prenderà il controllo del mezzo, di conseguenza l’AI imparerebbe da questa situazione adattando il proprio comportamento nel caso in cui si ripresentasse una situazione simile in futuro.

Così Ramya Ramakrishnan, uno dei ricercatori del laboratorio di Informatica e Intelligenza Artificiale del MIT nonché autore dello studio, ha spiegato il modello di simulazione: “Il modello aiuta i sistemi autonomi a conoscere meglio ciò che non conoscono. Molte volte, quando questi sistemi vengono implementati, le loro simulazioni addestrate non corrispondono al contesto reale e potrebbero commettere errori. L’idea è di sfruttare gli umani per colmare il divario tra la simulazione e il mondo reale, in modo sicuro, in modo da poter ridurre alcuni di questi errori”.