Tesla

Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso

di pubblicata il , alle 09:32 nel canale Tecnologia Nuovo guaio per Autopilot Tesla: sotto indagine per troppi incidenti contro mezzi di soccorso

L'ente americano per la sicurezza stradale ha reso noto di aver aperto un procedimento per indagare sul sistema di guida assistita Tesla. La causa sarebbe una serie di incidenti sospetti, tutti contro mezzi di primo soccorso in sosta

 
60 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
acerbo17 Agosto 2021, 16:55 #21
L'autopilot é un pacchetto SW che si puo' acquistare in qualsiasi momento, inoltre lo sanno tutti che é ancora in fase di sviluppo ed evolve di anno in anno, lo stesso venditore tesla tra le righe mi ha consigliato di non prenderlo al momento dell'acquisto, tanto se vuoi aggiungerlo basta comprarlo in un secondo momento con la carta di credito.
Detto questo se si parla di 11 indcidenti in circa 3 anni mi pare poca roba, vorrei sapere quanti incidenti l'autopilot avrebbe evitato prendendo il controllo sugli imbecilli che corrono a 140 all'ora in tangenziale o quelli che si mettono a guidare mezzi ubriachi o stanchi per le troppe ore al volante.
Adamo K.17 Agosto 2021, 19:08 #22
Originariamente inviato da: acerbo
L'autopilot é un pacchetto SW che si puo' acquistare in qualsiasi momento, inoltre lo sanno tutti che é ancora in fase di sviluppo ed evolve di anno in anno, lo stesso venditore tesla tra le righe mi ha consigliato di non prenderlo al momento dell'acquisto, tanto se vuoi aggiungerlo basta comprarlo in un secondo momento con la carta di credito.
Detto questo se si parla di 11 indcidenti in circa 3 anni mi pare poca roba, vorrei sapere quanti incidenti l'autopilot avrebbe evitato prendendo il controllo sugli imbecilli che corrono a 140 all'ora in tangenziale o quelli che si mettono a guidare mezzi ubriachi o stanchi per le troppe ore al volante.


Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
QuÎ però dice che verranno presi in esame SOLO 11 incidenti, ma questi incidenti che coinvolgono le tesla sono sicuramente molti di più di 11.
Ago7217 Agosto 2021, 19:37 #23
Originariamente inviato da: pin-head
L’autopilot ha già evitato molti (ma molti) più incidenti di quanti ne siano successi: è più sicuro della guida umana, già al momento (ed è in beta).


Dato molto interessante, Mi puoi dare la fonte dei dati?

Originariamente inviato da: pin-head
Il lidar non serve a nulla, anzi è un problema.


Perchè il Lidar sarebbe un problema?
acerbo17 Agosto 2021, 20:05 #24
Originariamente inviato da: Adamo K.
Seventeen injuries and one death are part of these 11 incidents. More Tesla crashes in which Autopilot was said to factor have happened, of course, but these are the 11 that NHTSA will look into to determine what the agency's next steps should be regarding Tesla's technology.
https://www.caranddriver.com/news/a...hes-fatalities/
QuÎ però dice che verranno presi in esame SOLO 11 incidenti, ma questi incidenti che coinvolgono le tesla sono sicuramente molti di più di 11.


I dati vanno analizzati tutti pero'.
Quante sono le Tesla in circolazione con autopilot attivo? Quanti sono stati gli incidenti causati dall'autopilot?
L'autopilot é piu' pericoloso di un essere umano?
Ci sono tante variabili in gioco ed é per questo che la guida autonoma non é neanche legale nella maggior parte dei Paesi, per ora sono legali solo gli ADAS
blobb17 Agosto 2021, 20:11 #25
Originariamente inviato da: Massimiliano Zocchi
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.

Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.


È una guida assistita giusto ma se funziona male un indagine mi pare giusta
blobb17 Agosto 2021, 20:12 #26
Originariamente inviato da: Massimiliano Zocchi
Concordo sul nome.
Sulle percentuali, pure nella vita dovrebbero essere zero, eppure c'è un sacco di gente che scivola nella vasca da bagno. Colpa della vasca, o colpa dell'utente?


Se la vasca ha il fondo antiscivolo si
pin-head17 Agosto 2021, 23:27 #27
Originariamente inviato da: Ago72
Dato molto interessante, Mi puoi dare la fonte dei dati?


I veicoli Tesla con autopilot nel 2020 hanno totalizzato 0.2 incidenti ogni milione di miglia negli stati uniti.
La media americana nel 2020 è stata di 2 incidenti per milione di miglia, che è circa NOVE volte di più.
Fonte: https://www.tesla.com/impact-report/2020 (pagina 37)

Perchè il Lidar sarebbe un problema?


Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.
sbaffo18 Agosto 2021, 00:02 #28
Originariamente inviato da: Massimiliano Zocchi
Prima di tutto è necessario fare una premessa fondamentale: Autopilot, ad oggi, è un sistema di livello 2 sulla scala SAE, per cui è solo assistenza alla guida, che necessita si attenzione a intervento continuo del conducente umano. Per cui gli incidenti non sono da imputare ad Autopilot, ma appunto al conducente. Chi usa Autopilot come guida autonoma viola i termini di utilizzo, oltre a compiere un illecito nel caso usi un accessorio per ingannare il rilevatore di mani sul volante.

Detto questo, arrotondando a 1 milione le vetture Tesla presenti su strada, 11 auto coinvolte rappresentano lo 0,0011 % delle auto. Che sia una casistica irrisoria è sia mia opinione, sia un dato noto, credo. Poniamo anche il caso che ci siano casi non dichiarati o sconosciuti, per cui questi casi siano in realtà 10 volte di più, resterebbe una percentuale, come detto, irrisoria.

Ci mancava pure il redattore che diventa paladino dell'azienda di turno, come se mancassero i fanboy qui su HWUP. Ti do un consiglio non richiesto, meglio che i redattori siano imparziali. Tra l'altro tra le regole base del (buon) giornalismo.

Venendo al fatto, vuoi insegnare all' NHTSA come davono fare il loro lavoro e come si fanno le statistiche?
Iniziamo dalla tua:
-che senso ha calcolare sulla base del numero di Tesla vendute? Di solito si guardano le miglia percorse. Comunque essemdo un evento non comune bisognerebbe sapere quante hanno incrociato un incidente con veicoli fermi a bordo strada in situazioni simili ecc., al limite potrebbero essere il 100% dei casi. Poi bisognerebbe sapere quante volte è o non è intervenuto il guidatore per evitare l'incidente, qui è meno assurdo pensare che se non interviene il guidatore l'incidente è quasi sicuro. ecc...
- sei sicuro che abbia senso fare un ragionamento basato sulla statistica quando ci sono morti e feriti in mezzo? Un terrorista di boston/san bernardino/ecc. fa qualche decina tra morti e feriti, su 300 milioni di americani sarà lo 0,0..%, non indaghiamo tanto è una percentuale irrisoria, no?
...

Ah, Tesla è indagata anche in Cina per problemi all'autopilot (accelera a vanvera), ma lo fanno solo perche sono comunisti e cattivi, vero?

Pienamente d'accordo invece sul nome ingannevole, se non è un autopilot non lo puoi chiamare così, indipendentemente da quello che poi scrivi nel libretto di istruzioni o altrove.
Ricordo che quando arrivarono sul mercato i primi navigatori in Usa venivano chiamati autopilot, qualche frescone ha creduto al nome e su un camper ha attivato il navigatore ed è andato dietro a dormire , vi lascio immaginare come è finita. Non ricordo se avesse fatto causa all'azienda che lo aveva chiamato così, comunque mi pare che dopo gli cambiarono nome.

In Usa devono addirittura scrivere sui microonde di non asciugarci gli animali domestici perchè qualcuno lo ha fatto.
Ma è capitato di rado, quindi chissenefrega, giusto?
ramses7718 Agosto 2021, 08:04 #29
Originariamente inviato da: sbaffo
Ci mancava pure il redattore che diventa paladino dell'azienda di turno, come se mancassero i fanboy qui su HWUP. Ti do un consiglio non richiesto, meglio che i redattori siano imparziali. Tra l'altro tra le regole base del (buon) giornalismo.

Non sarai tu quello imparziale? No eh…
Ma secondo te un redattore “paladino dell’azienda di turno” pubblicherebbe una notizia potenzialmente negativa sull’azienda in questione titolandolo “nuovo guaio”?
Non è questione di essere imparziali o fanboy, ma di fare pace col cervello.
È una semplice doverosa inchiesta sul perché, probabilmente, degli idioti alla vista di un incidente o mezzi di soccorso, non hanno disattivato il sistema e ripreso a guidare personalmente come vorrebbe una minima decenza cerebrale.
[U]Come al solito[/U], probabilmente emergerà che stavano facendo altro, non badando alla strada e quando emergerà tutti gli haters si guarderanno bene dal riconoscere che il sistema è stato scagionato.
Qarboz18 Agosto 2021, 08:18 #30
Originariamente inviato da: pin-head
[...]Perché capita che restituisca dati non coerenti con il feed delle videocamere.
Gli esseri umani guidano senza lidar, e di occhi ne hanno solo due. Una IA fatta bene (come quella che sta allenando Tesla) sarà tra poco superiore a chiunque, utilizzando solo le videocamere.



Tra poco? IMHO devono passare ancora parecchi anni.
Un paio di esempi in cui si vede che l'intelligenza artificiale non è così... intelligente come vogliono far credere

https://www.reddit.com/r/teslamotor..._content=header

https://mobile.twitter.com/JordanTe...Ctwcon%5Es1_c10

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^