Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

Le auto a guida autonoma dovranno essere in grado di compiere delle scelte che potrebbero compromettere la vita delle persone a bordo

di pubblicata il , alle 11:31 nel canale Tecnologia
 

Molti esponenti del mondo tecnologico sostengono che l'intelligenza artificiale possa essere una minaccia reale per il proseguo della razza umana, proprio come avviene negli intrecci della letteratura distopica. Tuttavia gli stessi esponenti, come ad esempio Elon Musk, stanno contribuendo in maniera proattiva all'evoluzione delle macchine intelligenti. Tesla ad esempio, produttore d'automobili elettriche amministrato da Musk, è fra i primi brand ad aver introdotto algoritmi di guida autonoma gestiti dall'intelligenza artificiale sui propri prodotti già in commercio.

Google, auto a guida autonoma

Un nuovo articolo pubblicato dal New York Times si pone alcuni interrogativi leciti sulle scelte che l'uomo prima, e le macchine dopo, devono osservare in alcune circostanze durante la guida in occasione di specifiche emergenze: nel caso del pedone sbadato che attraversa la strada, l'auto dovrebbe colpire il pedone, probabilmente uccidendolo, o decidere di danneggiarsi e danneggiare i passeggeri all'interno, probabilmente uccidendoli? Molti produttori stanno già lavorando sulle "self-driving car", ma le feature da introdurre sono ancora in fase di finalizzazione.

In aggiunta, mancano ancora delle leggi specifiche su questo particolare tipo di veicolo, quindi le auto del tutto autonome potrebbero essere illegali su strade aperte in alcuni paesi quando i primi modelli verranno commercializzati. L'assunto principale è che le auto a guida autonoma renderanno più sicure le strade minimizzando il rischio di incidenti. Questo non si traduce nell'eliminazione del rischio di incidente, soprattutto nel caso in cui l'algoritmo (che in teoria è perfetto) deve interagire con esseri umani (che per loro natura perfetti non sono) alla guida o per strada.

Le auto a guida autonoma saranno quindi programmate per compiere delle scelte, reagendo anche negli scenari più ostici sulla base dei dati catturati in tempo reale dai diversi sensori presenti su schermo. Scelte che verranno operate molto più rapidamente rispetto a quanto possibile dai riflessi di un essere umano, ma a volte non così rapidamente da evitare il peggio. L'auto dovrà quindi decidere chi preservare in queste circostanze: nel caso del pedone che attraversa la strada, se non è possibile salvare tutti, capire se investirlo o se danneggiare i passeggeri all'interno della vettura.

L'intelligenza artificiale dovrà quindi avere il potere di stabilire cosa è giusto o sbagliato in ogni circostanza, ma non in maniera del tutto autonoma. Ad avere una grossa voce in capitolo, sostiene il New York Times, saranno i produttori e i legislatori dei vari paesi all'interno delle normative delle cosiddette auto "self-driving". Secondo un nuovo studio indicato dalla fonte, i futuri acquirenti di auto a guida autonoma hanno dichiarato che preferirebbero se le auto senza conducente prendessero decisioni per il bene collettivo, e non del singolo, preservando tuttavia la vita dei passeggeri.

Insegnare un comportamento etico ad un algoritmo sarà secondo il NYT la sfida più importante nel portare le auto a guida autonoma all'interno delle strade, una sfida di gran lunga superiore per i tecnici rispetto al semplice insegnamento di routine predeterminate sulla base delle singole circostanze. Forzando le auto a rispettare un certo insieme di normative, le compagnie tecnologiche saranno costrette ad insegnare all'algoritmo cosa fare in certi tipi di situazioni, e quindi se scegliere di mettere volontariamente in pericolo la vita di un essere umano. E' inevitabile.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta pi interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

111 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
PietroGiuliani27 Giugno 2016, 12:29 #1
Ho capito, ci vogliono anche i pedoni che si guidano da soli...
demon7727 Giugno 2016, 12:42 #2
Il dilemma del pedone distratto è una bella gatta da pelare.

l'IA potrebbe decidere se sterzare e magari andare a sbattere contro un muro in base a degli elementi che devono essee tutti parte di una equazione:

- numero di vite presenti nel veicolo rispetto a numero di vite che verrebbero falciate
- le persone nell'auto sono protette dall'auto stessa e dai relativi sistemi di sicurezza.
- evitando i pedoni si potrebbe andare contro altre persone lì vicine
benderchetioffender27 Giugno 2016, 12:45 #3
Originariamente inviato da: PietroGiuliani
Ho capito, ci vogliono anche i pedoni che si guidano da soli...




anyway, penso che la scelta sia tutelare il guidatore, d'altronde se l'auto - ricordiamo dotata di radar in grado di vedere entità in movimento e quindi prevederne le traiettorie meglio, molto meglio degli umani- è costretta dagli eventi alla collisione, vuol dire che l'entità ha fatto un palese errore (chessò, un pedone che svolta all'improvviso e taglia la strada).... giusto che paghi le conseguenze

d'altra parte non vedo come una macchina possa fare una valutazione di merito sul tipo di collisione e conseguenze -tipo scelgo di uccidere i passeggeri piuttosto che il bimbo che attraversa senza motivo-

chiudo con: Darwin vince sempre e a mani basse.... purtroppo la società ancora non vuole assimilare il concetto che se uno è inabile a sopravvivere (tipo attraversare all'improvviso) è giusto che ci lasci le penne
Cfranco27 Giugno 2016, 12:51 #4
Ne avevano già parlato a Top Gear
https://www.youtube.com/watch?v=ZbLRIhRqMVk
Apix_102427 Giugno 2016, 13:01 #5
Originariamente inviato da: benderchetioffender
chiudo con: Darwin vince sempre e a mani basse.... purtroppo la società ancora non vuole assimilare il concetto che se uno è inabile a sopravvivere (tipo attraversare all'improvviso) è giusto che ci lasci le penne


massima stima!
kirylo27 Giugno 2016, 13:03 #6

argomento non vero

E' un argomento del tutto falso, in quanto le regole di guida e la gestione di situazioni di emergenza sono chiare ed insegnate anche alla scuola guida e nessuna regola sensata sosterebbe di mettere in pericolo te stesso per evitare un altro pericolo.

Nel caso del pedone è molto semplice, se il pedone, animale o per qualsiasi oggetto che si trovi in mezzo al tracciato, la macchina tenterà di evitarlo nei limiti della sicurezza dei passeggeri, in modo da evitare incidenti più gravi, l'ultima opzione è la frenata con impatto se non ci sono soluzioni alternative sicure. Se il pedone viene colpito, il problema è solo del pedone che ha attraversato senza guardare. Stessa logica dovrebbe avvenire con alla guida l'uomo.
TheDarkAngel27 Giugno 2016, 13:07 #7
Originariamente inviato da: demon77
Il dilemma del pedone distratto è una bella gatta da pelare.

l'IA potrebbe decidere se sterzare e magari andare a sbattere contro un muro in base a degli elementi che devono essee tutti parte di una equazione:

- numero di vite presenti nel veicolo rispetto a numero di vite che verrebbero falciate
- le persone nell'auto sono protette dall'auto stessa e dai relativi sistemi di sicurezza.
- evitando i pedoni si potrebbe andare contro altre persone lì vicine


L'ai si limiterebbe a rispettare il codice della strada dove non è previsto di scansare il pedone e ammazzarsi, frena, se riesce in tempo bene, oppure muore il pedone. Ci mancherebbe pure che per colpa di un pedone, l'auto decidesse di andare contro un albero, io prima la pago e poi lei mi ammazza
Notturnia27 Giugno 2016, 13:08 #8
se la macchina uccidesse i passeggeri per salvare il pedone (per esempio la macchina centra un albero per fermarsi prima del pedone) nessuno comprerebbe le macchine a guida autonoma.. figuriamoci se compriamo un veicolo che puo' decidere di uccidermi dopo che l'ho comprato io.. resto con la guida manuale come faceva Will Smith in Io Robot :-D
Goofy Goober27 Giugno 2016, 13:12 #9
Originariamente inviato da: demon77
l'IA potrebbe decidere se sterzare e magari andare a sbattere contro un muro in base a degli elementi che devono essee tutti parte di una equazione:

- numero di vite presenti nel veicolo rispetto a numero di vite che verrebbero falciate




non mi pare un parametro valido per l'equazione.
tu da solo ti suicideresti seduta stante per salvare altre 10 persone da morte certa?

a prescindere far decidere ad una IA chi vive e chi muore è roba di cui sarebbe meglio non parlare nemmeno...
tantovale tirare una moneta.
randorama27 Giugno 2016, 13:24 #10
e chi l'avrebbe mai detto che le tre leggi dell'automobilismo sarebbero arrivate prima di quelle della robotica?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^