Auto Tesla con Autopilot: bastano tre adesivi per farle scontrare contro altre automobili

Auto Tesla con Autopilot: bastano tre adesivi per farle scontrare contro altre automobili

L'exploit, se così possiamo definirlo, non è stato sfruttando in casi d'usi reali, ma un gruppo di ricercatori ha dimostrato che Autopilot può essere ingannato sfruttando pochi adesivi

di pubblicata il , alle 19:21 nel canale Tecnologia
Tesla
 

Ricercatori nel campo della cybersicurezza al lavoro per Keen Labs (di Tencent) hanno dichiarato di essere riusciti a ingannare il sistema Autopilot delle auto Tesla costringendolo a dirottare l'autovettura verso un ipotetico traffico in arrivo sull'altra corsia. Il tutto incollando tre piccoli adesivi sul manto stradale. Tesla è intervenuta sin da subito sottolineando che l'exploit non è mai stato sfruttato pubblicamente e ha ringraziato il team di ricercatori per aver scoperto la falla nel sistema di guida assistita.

Keen Labs, apparso già due volte nel programma di caccia al bug di Tesla, ha scritto all'interno di un documento di ricerca pubblicato lo scorso sabato che ha provato nello specifico due metodi diversi per ingannare il sistema di riconoscimento della corsia adottato da Autopilot semplicemente cambiando fisicamente le caratteristiche della superficie stradale.

Il primo metodo, non andato in porto, consisteva nel confondere Autopilot utilizzando delle toppe al fine di rendere meno nette o nascondere le strisce che limitano la corsia di sinistra. Si tratta di un sistema difficile da implementare su strada reale e semplice da riconoscere, sia per eventuali operatori umani sia per i sistemi computerizzati di Tesla: "Non è semplice per gli aggressori installare sistemi non invasivi nel mondo reale per disabilitare la funzione di riconoscimento della corsia installata in un veicolo Tesla", ha dichiarato Keen Labs.

I ricercatori hanno però intuito che le auto Tesla riuscivano a gestire la situazione in maniera appropriata perché i sistemi sono stati addestrati con "linee di corsia anomale" durante le fasi di training. Questo anche per gestire le situazioni di scarsa visibilità, o in presenza di manto stradale bagnato o innevato. Ma cosa succederebbe se il sistema venisse ingannato con linee di corsia in realtà non reali? È questa la domanda che si sono posti i ricercatori di Keen Labs, che hanno provato a tratteggiare tre piccoli segni rettangolari nella corsia come se le due corsie dovessero unirsi in un unico senso di marcia. Così facendo l'auto è stata fattivamente ingannata, provocando una pericolosa sterzata verso la corsia di sinistra dove, in teoria, avrebbe dovuto transitare il traffico nel senso opposto.

Si tratta di un comportamento ancor più pericoloso rispetto al mancato riconoscimento del limite della corsia, fa notare il laboratorio: "Ingannare il veicolo con Autopilot facendogli raggiungere una corsia nel senso opposto con alcuni segni realizzati da un aggressore con finalità malevole può essere più pericoloso che impedirgli il riconoscimento della corsia. Se il veicolo, invece, riuscisse a riconoscere i segnali che vogliono condurlo alla corsia con le auto provenienti nel senso opposto potrebbe facilmente ignorarli ed evitare un grave incidente.

In risposta a quanto rivelato da Keen Labs Tesla ha dichiarato che il problema "non rappresenta qualcosa di riproducibile nel mondo reale", e nessun autista ha verificato o identificato problemi di questa natura: "In questa dimostrazione i ricercatori hanno approntato un ambiente fisico intorno al veicolo per far sì che la macchina si comportasse in maniera diversa rispetto al normale", fa sapere l'azienda americana. "Non è una preoccupazione reale visto che un pilota può bypassare facilmente Autopilot usando lo sterzo o i freni e dovrebbe essere pronto a farlo in ogni momento".

Le scoperte di Keen Labs non sono quindi idonee per la partecipazione al programma "bug-bounty" di Tesla, tuttavia le due realtà rimarranno in contatto al fine di migliorare la sicurezza e l'affidabilità dei sistemi automatizzati dei veicoli con funzionalità di guida autonoma.

 

 

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

14 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
marchigiano02 Aprile 2019, 20:51 #1
cavoli ma allora questo autopilot è già installato su decine di vetture, anche vecchie di 20 anni, vedo fare la stessa manovra tutti i giorni...
marcram02 Aprile 2019, 21:28 #2
E, scommetto che se qualcuno con un pennarello trasforma un 3 in un 8 su un segnale di limite di velocità, l'autopilot non rispetterà i 30 km/h...
sbaffo02 Aprile 2019, 23:57 #3
situazione non riproducibile nella realtà non direi, forse non sono mai stati sulla milano torino mentre facevano i lavori della terza corsia, era tutta un serpentone con lavori in corso e cambi di corsia con strisce vecchie e nuove provvisorie che si incrociavano.
emanuele8303 Aprile 2019, 07:02 #4
Bello l'articolo dell' IEEE Spectrum, lo aspettavo in versione italiana.

https://spectrum.ieee.org/cars-that...o-oncoming-lane
piv3z03 Aprile 2019, 11:05 #5
Originariamente inviato da: sbaffo
situazione non riproducibile nella realtà non direi, forse non sono mai stati sulla milano torino mentre facevano i lavori della terza corsia, era tutta un serpentone con lavori in corso e cambi di corsia con strisce vecchie e nuove provvisorie che si incrociavano.


Se in una corsia dove fanno i lavori vai di autopilot (non ce l'ho con te) sei un coglione e meriti di estinguerti.
Mi dispiace (sempre e) solo per chi proviene dall'altra carreggiata.
sidewinder03 Aprile 2019, 11:50 #6
Originariamente inviato da: marcram
E, scommetto che se qualcuno con un pennarello trasforma un 3 in un 8 su un segnale di limite di velocità, l'autopilot non rispetterà i 30 km/h...


E' già successo. Alcuni ADAS montato su molte marche, arrivavano a leggere gli indicatori di v max degli autocarri/bus e interpretare come cartelli di velocita massima.

Oppure di leggere dei cartelli messi male sulle vie traversali
Bradiper03 Aprile 2019, 12:15 #7
L autopilot è un optional che va usato con coscienza e dove la strada lo consente,non per niente più di un possessore di tesla ha detto che quando il traffico è intenso e le cose si complicano l autopilot si disinserisce automaticamente, sembra che fanno passare il messaggio che chi compra una tesla lo fa solo per l autopilot o che chi ce l ha..l auto non va senza. Ripeto è solo un optional e molti non lo comprano nemmeno, comprano una tesla per altri motivi.
Mparlav03 Aprile 2019, 12:39 #8
A partire dal 2022, molti dispositivi diventeranno obbligatori:
https://www.quattroruote.it/news/si..._l_accordo.html

è già impensabile che questi dispositivi possano essere infallibili, ma tutto sommato conta il risultato finale: ridurre gli incidenti intervenendo sulla sicurezza attiva, visto che sulla quella passiva più di tanto non si può fare.

Si parla di Autopilot della Tesla, ma facciamo un passo indietro: i sistemi di frenata d'emergenza e mantenimento della distanza e di corsia sono già presenti su molte autovetture in commercio.

Sono molto scettico che possano resistere ai sabotaggi.
aleardo03 Aprile 2019, 13:23 #9
In fondo con un conducente umano basta un solo adesivo, opportunamente piazzato sugli occhi, per causare scontri con le altre auto...
Bradiper03 Aprile 2019, 14:57 #10
Poi hanno provato con le altre macchine che leggono i cartelli segnalie e tengono la corsia ?? Sembra sempre un dare contro a tesla.. Saranno mica pagati dalla concorrenza?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^