È stata aperta un’indagine sul primo incidente mortale che ha coinvolto un’auto Tesla Model S che stava utilizzando il sistema Autopilot di pilota automatico. Lo schianto, secondo quanto riferiscono le autorità della Florida, è avvenuto lo scorso 7 maggio, quando il 40enne Joshua Brown viaggiava sull’auto nei pressi di Williston su una strada non trafficata. Ma il sistema ha confuso un camion bianco con il cielo, e l’impatto è stato terribile. Il pilota è morto sul colpo, secondo alcune testimonianze “mentre guardava un film assolutamente inconsapevole del rischio”. Un episodio che non potrà che causare polemiche e dibattito sul sistema e la sicurezza. L’Nhtsa (l’ente Usa che si occupa della sicurezza nazionale del traffico autostradale) ha aperto un’indagine preliminare per un controllo sui 25mila veicoli Model S dotate dell’Autopilot. Si tratta del primo passo per emanare un eventale ordine di richiamo in caso emergesse che i veicoli non sono sicuri. L’incidente, spiega l’ente, “richiede un esame della progettazione e delle performance di ogni aiuto alla guida in uso al momento dello schianto”. Si tratta del primo incidente mortale in oltre 130 milioni di miglia percorse con l’autopilota. Tesla ha spiegato sul suo sito che né il conducente né il sistema di guida autonoma hanno visto il lato bianco del tir, che si trovava perpendicolare all’auto, contro un cielo particolarmente luminoso: il sistema avrebbe confuso la fiancata del camion bianco con il cielo chiaro. “La particolare altezza del rimorchio – ha scritto l’azienda – combinata con la sua posizione attraverso la strada e le circostanze estremamente rare dell’impatto, hanno fatto sì che il modello S passasse sotto il rimorchio”. Tesla sostiene che l’incidente ha portato al primo decesso conosciuto in oltre 130 milioni di miglia percorse con l’autopilota e che l’inchiesta della NHTSA è un’indagine preliminare, per stabilire se il sistema abbia funzionato come ci si aspettava. Un’auto Tesla dotata del sistema viene venduta a partire da 66mila dollari. In una nota l’azienda ribadisce che ai clienti è richiesto di dare “un consenso esplicito” in cui indicano di essere a conoscenza del fatto che l’Autopilot è una nuova tecnologia ancora in sviluppo: nel caso in cui il consenso non venga dato, il sistema non viene attivato.
Il pilota automatico che stava guidando l’auto di Brown in realtà è un software semiautonomo. Permette di impostare una velocità su un tratto di strada, è in grado di guidare rilevando le curve e i movimenti delle altre auto. Brown era un entusiasta di questa tecnologia e su YouTube aveva pubblicato diversi video, filmati mentre era inserito il software. Come scrive The Verge, un filmato visto da più di due milioni di persone, mostra come il programma per la guida senza conducente abbia salvato la vita all’uomo, schivando un’auto in entrata nella corsia sulla quale viaggiava.
Ma in queste ore stanno emergendo anche altri dettagli sulla vicenda. Il camionista coinvolto nell’incidente sostiene che l’auto di Brown stesse viaggiando ad alta velocità. “Non l’ho neppure vista arrivare”, ha detto Frank Baressi in una intervista a un quotidiano locale della Florida, sostenendo di aver sentito il monitor dell’auto che continuava a trasmettere il film anche dopo lo schianto. Una notizia smentita da Tesla. In una nota il gruppo californiano sostiene che su Model S non è possibile vedere film sullo schermo al lato del conducente. Inoltre nel comunicato stampa Tesla ha aggiunto che si tratta del primo incidente in 200 milioni di chilometri percorsi con il pilota automatico. Il Wall Street Journal aggiunge un altro tassello alla vicenda ricordando come per Tesla – e per il suo amministratore delegato, Elon Musk – il mese di giugno sia stato molto difficile. In borsa infatti il gruppo ha perso oltre il 12% del suo valore, sia per la decisione di acquistare SolarCity (gruppo che produce pannelli solari di proprietà di Musk), sia per la notizia dell’apertura di una inchiesta sull’incidente mortale di maggio.
Oltre a tutto questo l’indagine mette sotto pressione l’intero mercato dei veicoli senza conducente, che nei prossimi anni dovrebbe diventare il settore più redditizio. Il quesito principale è di natura etica: quanto le auto senza conducente sono in grado di diminuire gli incidenti e dunque salvare vite? Di recente una ricerca franco-americana pubblicata da Science pone un paradosso con il quale i governi dovranno confrontarsi: anche se i veicoli autonomi diminuiranno il traffico e gli incidenti, potrebbero essere programmati per prevenire la morte del maggior numero di persone possibile. E così, se necessario, decidere di sacrificare uno o più passeggeri per salvare, per esempio, diversi pedoni. La ricerca condotta dalla Toulouse School of Economics insieme al MIT di Boston e alla University of Oregon, sostiene infine che anche se la maggior parte delle persone credono sia giusto che il software decida di uccidere i passeggeri in casi estremi, non vorrebbero acquistare un’auto che è programmata per far loro del male.