Guida autonoma: incidente mortale su una Tesla Model S con Autopilot

Guida autonoma: incidente mortale su una Tesla Model S con Autopilot

La vettura si è infilata sotto un autotreno, deceduto un uomo in Florida, i dubbi su questa tecnologia

da in Guida autonoma, Incidenti stradali, Motori, News Motori
Ultimo aggiornamento:
    Guida autonoma: incidente mortale su una Tesla Model S con Autopilot

    Un uomo è morto in un incidente stradale a bordo di una Tesla Model S in cui, secondo le informazioni attuali, era attivo il sistema Autopilot di guida semiautomatizzata. Vediamo di capirci qualcosa, anche se quasi certamente le polemiche intorno a questo episodio si trasformeranno nelle solite battaglie di religione, dove nessuno è interessato a conoscere i fatti ma solo ad ascoltare ciò che vuole sentirsi dire.

    Il sistema Autopilot installato sulla Tesla Model S è in grado di manovrare l’auto completamente, sterzata compresa; tuttavia ha diversi limiti, per cui viene venduto come sistema semi-automatico e richiede la costante attenzione del guidatore.

    L’incidente mortale è accaduto il 7 maggio 2016 in Florida e finora era rimasto confinato nella cronaca locale. Però dal 30 giugno è diventato un caso internazionale proprio per le implicazioni che riguardano il sistema Autopilot. E’ stata la stessa Tesla Motors a parlarne attraverso un comunicato. Qui l’azienda americana di Elon Musk annuncia di essere stata informata di un’indagine sull’accaduto da parte della Nhtsa, l’autorità federale statunitense sulla sicurezza stradale.

    Ricostruiamo l’accaduto secondo quanto riporta la stampa locale (il Levy Journal on line), basandosi sulle dichiarazioni della polizia (la Florida Highway Patrol). Nel pomeriggio del 7 maggio, lungo una strada statale della località di Williston, città appartenente alla contea di Levy, situata a circa 560 Km a nord-ovest di Miami, la Tesla Model S a bordo della quale c’era il proprietario Joshua Brown, si è schiantata contro un grosso autotreno a 18 ruote che stava svoltando. La vettura si è infilata sotto l’enorme automezzo; nell’impatto il tetto è stato letteralmente strappato via; l’auto ha proseguito la propria corsa per alcuni metri, prima di schiantarsi ulteriormente contro una recinzione. Brown, 45 anni, ex marine, è morto sul colpo. Illeso il conducente del camion.

    Nel suo comunicato Tesla Motors afferma di avere informato la Nhtsa subito dopo il fatto. Riportiamo la traduzione del comunicato dell’azienda nel passo più significativo: “L’Autopilot era attivo quando un autotreno ha attraversato la strada perpendicolarmente alla Model S. Né l’Autopilot né il guidatore hanno notato il lato bianco dell’autotreno sullo sfondo del cielo molto illuminato dal sole, così non c’è stata frenata.“.
    Successivamente il comunicato ricorda ciò che è contenuto in tutti i manuali d’uso della Tesla: “E’ importante notare che Tesla disabilita di default l’Autopilot e richiede esplicito riconoscimento, prima di essere attivato, del fatto che il sistema è una nuova tecnologia e che si trova ancora in una fase di beta pubblica. Quando il guidatore attiva l’Autopilot, il box informativo del sistema avvisa che si tratta di una caratteristica di assistenza che richiede di mantenere sempre le mani sul volante e che è necessario mantenere il controllo e la responsabilità del proprio veicolo“.

    Il comunicato prosegue avvertendo che “Ogni volta che l’Autopilot è attivato, l’auto ricorda al conducente di tenere sempre le mani sul volante e di prepararsi a riprendere il controllo in ogni momento. Inoltre il sistema esegue frequenti controlli per assicurare che le mani siano sul volante, emettendo allarmi sonori e visuali in caso contrario. Se non rileva la presenza delle mani sul volante, il sistema rallenta gradualmente l’auto fino al momento in cui le mani non vengono nuovamente poste sul volante“.

    Tutto ciò è molto comodo da parte di Tesla. Installa una tecnologia molto invasiva, che toglie il controllo al guidatore, ma poi se ne lava le mani, dicendo che non è ancora perfetta e che la responsabilità è sempre del guidatore. E’ il sogno proibito delle lobby della guida autonoma: lasciar credere che l’auto guidi da sola in modo perfetto togliendo al guidatore il controllo effettivo del veicolo, ma poi scaricando su di lui ogni responsabilità in caso di problemi.

    Se le indagini confermeranno che l’incidente mortale ha effettivamente avuto quella dinamica, qui siamo di fronte a problemi molto grossi.
    Innanzitutto chi si mette al volante di queste macchine non deve credere che vadano da sole. Perché non è assolutamente vero. Lo dice lo stesso produttore. Chi proprio odia guidare, vada in autobus o si faccia accompagnare.

    Altrimenti rischia di fare la fine del signor Brown.

    Però, come dicevamo, anche i costruttori devono essere responsabili. Perché è stato messo in commercio un sistema non ancora pronto? Le versioni beta possono andare bene per un telefonino o per un computer da ufficio, dove al massimo perdi dei dati. Ma quando qualcosa non funziona su un’automobile, si perde la vita.

    Una persona attenta alla guida avrebbe certamente visto un autotreno a 18 ruote in procinto di svoltare. Ipotizzando che il guidatore di questo incidente abbia effettivamente violato le avvertenze, quindi stesse facendo altro lasciando la guida esclusivamente all’autopilot (alcune voci dicono che stesse guardando un video, ma non c’è la certezza), abbiamo la prova che l’autopilot ha clamorosamente fallito nel suo compito principale: garantire una migliore sicurezza. La telecamera non ha “visto” un autotreno lungo quanto una locomotiva ferroviaria, solo perché era bianco come il cielo? Alla Tesla pensano che una “patch” o un “service pack” possa riportare in vita il loro ex cliente?

    Anche l’insistenza dei controlli sulle mani al volante ha poco senso. Si possono tenere le mani sul volante ma lo sguardo altrove, magari sul display del telefonino, perché “tanto la macchina guida da sola”. Quindi viene meno tutta la presunta sicurezza.
    Non vale nemmeno la solita risposta degli oltranzisti: quelle macchine hanno percorso tanta strada senza fare incidenti. La stessa cosa scritta da Tesla in un’altra parte di questo comunicato: “Questa è la prima vittima in oltre 130 milioni di miglia in cui l’Autopilot è stato utilizzato. Nel mondo muore per incidente stradale in media una persona ogni 60 milioni di miglia“.

    No, signor Musk e illustri esponenti delle altre case automobilistiche e di Google, Apple e chissà quanti altri futuristi ad oltranza. La guida automatica o è totalmente sicura o non lo è per niente. E totalmente in questo caso significa 200%. Anche 199% non è sufficiente per rinunciare al controllo umano. Perché le variabili improbabili, come il camion bianco sul fondo bianco, sono troppe. Ma uccidono. Quindi è meglio lasciare, insieme alla responsabilità, anche il controllo all’umano.

    E’ inutile dare la colpa ai guidatori che lasciano il volante e guardano altrove, magari si mettono anche a dormire. La domanda che a molti non conviene porre è: come mai tutte queste persone credono che la macchina guidi effettivamente da sola?
    Non è forse che lo slogan “guida autonoma” viene venduto come l’ennesimo miracolo di quella stessa tecnologia magica che ci regala quei telefonini così sofisticati?
    Forse è una tecnologia che vuole essere imposta dal marketing, l’ennesimo gadget da vendere subito, non importa se sia effettivamente maturo per l’uso quotidiano? L’ennesima moda?
    Lasciateci guidare in pace. Tornate quando sarete tecnicamente pronti, non perché lo vuole una moda da voi stessi inventata.

    1247

    SCRITTO DA PUBBLICATO IN Guida autonomaIncidenti stradaliMotoriNews Motori

    Referendum costituzionale 2016

     
     
     
     
     
     
    PIÙ POPOLARI