Tesla Model X, incidente mortale con Autopilot attivo: il conducente giocava con lo smartphone

Tesla Model X, incidente mortale con Autopilot attivo: il conducente giocava con lo smartphone

Il conducente della Model X rimasto vittima di un incidente mentre si affidava alla modalità Autopilot stava giocando con il proprio smartphone durante l'avvenimento

di pubblicata il , alle 19:21 nel canale Auto Elettriche
Tesla
 

Walter Huang è rimasto ucciso in un incidente avvenuto nel 2018 mentre la sua Model X procedeva in modalità semi-autonoma con Autopilot attivo. La tecnologia non sarebbe, tuttavia, da additare come unica responsabile nell'avvenimento visto che, secondo gli ultimi dati rilasciati dagli investigatori, al momento dell'impatto fatale il conducente stava giocando a un videogioco sul proprio smartphone invece di rimanere vigile.

Nello specifico l'indagine della National Transport and Safety Board (NTSB) ha individuato che Huang, ingegnere informatico e sviluppatore di giochi Apple di 38 anni, non ha neanche tentato di fermare il suo veicolo mentre si dirigeva verso una barriera di sicurezza. La Tesla Model X era in modalità Autopilot e viaggiava a circa 110km/h quando ha colpito la barriera di sicurezza, coinvolgendo nell'incidente anche altri due veicoli.

Huang è deceduto in seguito in ospedale per via delle ferite riportate durante l'incidente. Robert Sumwalt, Presidente dell'NTSB, ha commentato così gli ultimi risvolti dell'indagine: "Un'auto che dispone di una modalità di guida semi-autonoma è diversa da un'auto a guida autonoma. Ciò significa che quando si guida nella modalità di guida semi-autonoma non si può dormire, non si può leggere un libro, non si può guardare un film o un programma TV. Non si può neanche scrivere messaggi o giocare ai videogiochi. Eppure abbiamo scoperto che questo conducente stava facendo una di queste attività durante l'incidente".

I funzionari dell'NTSB hanno dichiarato che l'incidente di Huang è stato molto simile ad altri incidenti di Tesla attualmente sotto indagine e ha invitato le case automobilistiche, gli enti normativi, le compagnie di telefonia mobile e altri addetti ai lavori a fare di più per prevenire gli incidenti causati dalla guida distratta. Secondo Sumwalt gli enti normativi, nello specifico, hanno effettuato "scarsa supervisione" sui produttori che sviluppano tecnologie a guida autonoma e Tesla non ha ancora risposto alla richiesta di chiarimenti sulle norme di sicurezza adoperate, che sono state inviate all'azienda 881 giorni fa.

L'NTSB ha precedentemente criticato l'approccio di Tesla con il suo Autopilot dopo un incidente fatale del 2016 in Florida e ha invitato la società a rendere i suoi sistemi di assistenza alla guida meno soggetti all'uso improprio da parte dei conducenti distratti. All'audizione gli esperti di NTSB hanno discusso su quello che chiamano "automation complacency", ovvero il fenomeno secondo cui i conducenti ripongono troppa fiducia nella tecnologia.

-5%

Elon Musk. (Italiano)

27.00 25.65 Compra ora

"Non è un problema solo di Tesla", ha comunque commentato Robert Molloy, dirigente dell'NTSB. "È un problema legato all'automazione e al modo in cui le persone lavorano con l'automazione". È da dire che Tesla ha già parlato dell'argomento in passato a più riprese, sostenendo che i suoi dati interni mostrano come l'uso di Autopilot riduca la possibilità di incidente rispetto alla guida manuale.

22 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
al13527 Febbraio 2020, 09:20 #1
forse sono troppo cattivo ma questa la chiamo selezione naturale
Rigetto27 Febbraio 2020, 09:46 #2
Originariamente inviato da: al135
forse sono troppo cattivo ma questa la chiamo selezione naturale


Sì d'accordo ma come la mettiamo con gli altri coinvolti nell'incidente?
nickmot27 Febbraio 2020, 09:53 #3
Era un ingegnere informatico, mi chiedo come possa avere avuto tutta questa fiducia (azzardo dicendo incoscienza) in un SW di guida automatica, ben sapendo che bug e problemi sono all'ordine del giorno persino su applicazioni meno complesse.
marcram27 Febbraio 2020, 10:12 #4
Originariamente inviato da: nickmot
Era un ingegnere informatico, mi chiedo come possa avere avuto tutta questa fiducia (azzardo dicendo incoscienza) in un SW di guida automatica, ben sapendo che bug e problemi sono all'ordine del giorno persino su applicazioni meno complesse.


Perché avere il titolo di ingegnere informatico non vuol dire automaticamente avere conoscenze e capacità informatiche...
Unrue27 Febbraio 2020, 11:08 #5
Ma non è possibile implementare un controllo sul guidatore, in modo da verificare che stia guardando la strada o abbia le mani sul volante? In caso negativo l'Autopilot si disattiverebbe in automatico (con un avviso prima magari)
Portocala27 Febbraio 2020, 11:09 #6
Originariamente inviato da: Svelgen
Una macchina così sofisticata, e non hanno previsto un sistema di monitoraggio del conducente che controlli se si sta facendo i catzi suoi o meno.
Hai 200 telecamere che controllano tutto, mettine una in più a bordo e fine dei problemi.


Ma dovresti "istruirlo" a distinguere cosa fa il bipede (si scaccola, si gratta il naso, legge) e per questioni di privacy credo nessuno lo accetterebbe.
Opteranium27 Febbraio 2020, 11:43 #7
ennesima dimostrazione di come NOI siamo impreparati alla guida autonoma, che poi tra l'altro ancora non lo è.

Fino a che non ci sarà un sistema totalmente indipendente dal guidatore, succederanno queste cose
marcram27 Febbraio 2020, 12:18 #8
Originariamente inviato da: Opteranium
ennesima dimostrazione di come NOI siamo impreparati alla guida autonoma, che poi tra l'altro ancora non lo è.

Fino a che non ci sarà un sistema totalmente indipendente dal guidatore, succederanno queste cose


ALCUNI di noi sono impreparati a qualsiasi cosa...
Puoi fare una motosega con i sensori per le mani, il blocco catena automatico, degli accelerometri per rilevare movimenti improvvisi, ecc... e ci sarà sempre qualcuno che blocca i sensori per le mani e si mette ad usarla con una mano mentre manda un messaggio con il cellulare con l'altra.
E di chi sarebbe la colpa, della motosega? Perché non ha sistemi di protezione ancora migliori?
Queste cose succederanno sempre. Pazienza. Basta che succedano in numero esiguo.
amd-novello27 Febbraio 2020, 15:17 #9
Originariamente inviato da: Unrue
Ma non è possibile implementare un controllo sul guidatore, in modo da verificare che stia guardando la strada o abbia le mani sul volante? In caso negativo l'Autopilot si disattiverebbe in automatico (con un avviso prima magari)


esiste da molti anni una cosa del genere. ora anche sulle utilitarie ma sulla lexus 600h c'era da eoni.
Saturn27 Febbraio 2020, 15:22 #10
Originariamente inviato da: Redazione di Hardware Upgrade
Il conducente della Model X rimasto vittima di un incidente mentre si affidava alla modalità Autopilot stava giocando con il proprio smartphone durante l'avvenimento


E di che vi stupite...giocare magari FORSE no, ma whatsapp e altri social sono la normalità per tantissimi SUBNORMALI alla guida e parlo di auto NORMALI. Anche questi si scontrano con la legge dell'evoluzione naturale...
Il problema è che rischiano di portare al Creatore anche il prossimo innocente !

Fonte: il sottoscritto. Di quelli che mi sfrecciano davanti mentre corro (a piedi) con la macchina 6/10, ad essere buoni con la statistica, stanno con lo sguardo sullo smartphone.

Figuriamoci quando la gente ha la (falsa) sicurezza della guida con autopilot cosa combinerà.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^