Tesla

Primo caso di incidente grave con Autopilot: un proprietario Tesla accusato di omicidio stradale

di pubblicata il , alle 19:58 nel canale Auto Elettriche Primo caso di incidente grave con Autopilot: un proprietario Tesla accusato di omicidio stradale

In California l'uomo è stato accusato di duplice omicidio stradale, dopo esser passato con il rosso ed aver travolto un'altra auto. È in guai grossi perché l'incidente è avvenuto nel 2019

 

Di chi è la colpa in caso di incidente con un sistema di guida assistita attivato? Secondo i pubblici ministeri della California è esclusivamente del conducente, in quanto hanno presentato due accuse di omicidio stradale contro l'autista di una Tesla, con Autopilot attivo, che è passato con il semaforo rosso, si è schiantato contro un'altra auto e ha ucciso due persone, nel 2019.

È probabilmente il primo caso di un incidente particolarmente grave, in cui è coinvolta una vettura con un sistema di guida assistita attivo, cosa già accertata dall'organo di sicurezza americano, la NHTSA, che da tempo indaga sulla vicenda.

Tesla Model S crash

L'incidente, avvenuto nel 2019, torna ora all'onore della cronaca proprio perché le indagini hanno portato a formulare le accuse definitive lo scorso mese di ottobre, e i documenti sono da poco diventati di pubblico dominio. Kevin George Aziz Riad, autista di 27 anni, stava guidando la sua Tesla Model S con modalità Autopilot inserita quando, bruciando un semaforo rosso, ha urtato violentemente una Honda Civic, i cui occupanti, coniugi, sono morti nell'impatto.

L'accusa per Riad è particolarmente grave in quanto nel 2019 le auto Tesla non avevano ancora nessuna possibilità di arrestarsi autonomamente ai semafori rossi, e dunque la responsabilità ricade esclusivamente sul conducente, per altro avvisato dal sistema di restare vigile e pronto a intervenire. Difficile quindi che gli avvocati difensori possano cercare di giocarsi la carta Autopilot, per girare la colpa al costruttore. Sembrano essere di questo parere anche i procuratori che, infatti, nell'accusa non citano minimamente il sistema di guida assistita, ma trattano l'incidente come avvenuto con guida normale.

13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Mars9519 Gennaio 2022, 21:21 #1
...nel 2019 le auto Tesla non avevano ancora nessuna possibilità di arrestarsi autonomamente ai semafori rossi...


Quindi di che parliamo?
Notturnia19 Gennaio 2022, 22:30 #2
Si uno che si è fatto abbindolare dalla falsa dicitura “Full Self Driving” e alla fine credendo nel marketing ha fatto due morti..
colpa sua e di chi non ha vietato il nome farlocco..
krissparker19 Gennaio 2022, 22:55 #3

davvero?

Originariamente inviato da: Notturnia
Si uno che si è fatto abbindolare dalla falsa dicitura “Full Self Driving” e alla fine credendo nel marketing ha fatto due morti..
colpa sua e di chi non ha vietato il nome farlocco..


ma non dire vaccate, il computer delle Tesla ti avvisano 50 volte che il sistema è in beta e che devi sempre essere vigile e attento alla guida... dai su...
peppapig19 Gennaio 2022, 22:56 #4
Originariamente inviato da: Mars95
Quindi di che parliamo?


Infatti articolo inutile con classico titolo clickbait.
giovanni6919 Gennaio 2022, 23:13 #5
Vallo a ricordare ai familiari del morto che i beta tester di TSLA sono campioni di guida sicura mentre i comuni mortali acquirenti di auto hanno tutt'altra indole.
icoborg19 Gennaio 2022, 23:34 #6
pensavo che almeni i semafori li vedesse
Pino9019 Gennaio 2022, 23:46 #7
Che tragedia... due vite finite e una rovinata per sempre.
woddy6820 Gennaio 2022, 00:23 #8
Originariamente inviato da: giovanni69
Vallo a ricordare ai familiari del morto che i beta tester di TSLA sono campioni di guida sicura mentre i comuni mortali acquirenti di auto hanno tutt'altra indole.

Cosa vuoi dire ai famigliari...che un pirla è passato con il rosso, a prescindere dall'auto che non c'entra niente. Se è vero quello che è stato scritto qui...c'è poco altro d'aggiungere.
Peppe197020 Gennaio 2022, 07:31 #9
Originariamente inviato da: icoborg
pensavo che almeni i semafori li vedesse


Li vede, ma in BETA
ramses7720 Gennaio 2022, 08:43 #10
Originariamente inviato da: Notturnia
Si uno che si è fatto abbindolare dalla falsa dicitura “Full Self Driving” e alla fine credendo nel marketing ha fatto due morti..
colpa sua e di chi non ha vietato il nome farlocco..


Originariamente inviato da: giovanni69
Vallo a ricordare ai familiari del morto che i beta tester di TSLA sono campioni di guida sicura mentre i comuni mortali acquirenti di auto hanno tutt'altra indole.




E niente, sotto ogni articolo Tesla devono per forza sempre uscire utonti senza vergogna che devono per forza parlarne male.
Vorrei tanto che ci spiegaste cosa cavolo centra l’FSD, che è uscito a fine 2020 ed è ancora riservato ai beta tester, con l’incidente dell’articolo avvenuto nel 2019, tra l’altro in circostanze dove emerge chiaramente la responsabilità dell’automobilista e la totale trascurabilità dell’auto utilizzata visto che è stato bruciato un semaforo.
Troppa fatica leggere l’articolo o è un problema di comprensione?

(Che poi, fare i flamer con due morti è anche un pochino miserabile… )

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^