Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

di pubblicata il , alle 11:31 nel canale Tecnologia Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

Le auto a guida autonoma dovranno essere in grado di compiere delle scelte che potrebbero compromettere la vita delle persone a bordo

 
108 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7727 Giugno 2016, 14:25 #21
Originariamente inviato da: Simonex84
Decidere chi deve vivere e chi no mi sembra un po' troppo giocare a fare dio.

Se un pullman a guida autonoma con 50 anziani sta per investire una comitiva di 40 bambini dell'asilo chi salviamo?

Stando ai numeri dovremmo salvare gli anziani, però gli altri sono dei bambini, magari è meglio salvare la nuova generazione, come si fa a decidere....

Forse il random è la scelta migliore, oppure preservare sempre e comunque gli occupanti del veicolo, fregandosene del numero.


Arogomento ostico e pieno di paradossi..
il punto centrale è che se non puoi farci nulla è un discorso (guidatore umano colto di sorpresa).. ma se puoi deciderlo (reazione fulminea di un computer al presentarsi dell'imprevisto) la questione cambia radicalmente.
Non è giocare a fare dio.. è che sei obbligato a prendere una decisione.
Haran Banjo27 Giugno 2016, 14:26 #22
Eppure la soluzione è semplice... eliminare le strisce pedonali. Così il pedone avrà sempre torto, e l'auto potrà dare la priorità al salvataggio dei suoi occupanti.
Eddài pedone... aspetta un po' che la strada sia completamente sgombra... se hai fretta, vai in auto!
;-)
demon7727 Giugno 2016, 14:30 #23
Originariamente inviato da: benderchetioffender
se il cancello automatico (dio non voglia mai) schiaccia tu a figlia? il concetto è lo stesso

cioè l'errore è pensare che una macchina a reazione avanzata sia una AI... bene non è così, perchè la macchina dovrebbe avere coscienza di sè, mentre è solamente una macchina che agisce secondo istruzioni -complesse quanto vuoi, ma sempre istruzioni sono... - tanto quanto si agisce secondo istruzione (il codice stradale) mentre si guida, ne piu ne meno... e reagisce secondo casistiche precompilate

AI è un altra cosa... le auto a guida autonoma son piu simili ai PC, o ad un animale....


Dipende appunto da come si evolve l'auto a guida autonoma.
Mi pare si parli sempre di AI e deep learning. Non auto automatica programmata secondo una sequenza di regole rigide.
Poi AI non vuol dire autocoscienza, vuol dire che è in grado di prendere decisioni sulla base di esperienze accumulate.
Simonex8427 Giugno 2016, 14:31 #24
Originariamente inviato da: Haran Banjo
Eppure la soluzione è semplice... eliminare le strisce pedonali. Così il pedone avrà sempre torto, e l'auto potrà dare la priorità al salvataggio dei suoi occupanti.
Eddài pedone... aspetta un po' che la strada sia completamente sgombra... se hai fretta, vai in auto!
;-)


che poi il pedone non paga neanche il bollo, e pretende pure di essere preservato, ma non scherziamo
Simonex8427 Giugno 2016, 14:34 #25
Originariamente inviato da: demon77
Dipende appunto da come si evolve l'auto a guida autonoma.
Mi pare si parli sempre di AI e deep learning. Non auto automatica programmata secondo una sequenza di regole rigide.
Poi AI non vuol dire autocoscienza, vuol dire che è in grado di prendere decisioni sulla base di esperienze accumulate.


Per me non si può prescindere dal determinismo, il comportamento dell'IA deve sempre e comunque essere prevedibile.

Nella medesima situazione due IA diverse devono prendere la stessa decisione, altrimenti è anarchia totale.
TheDarkAngel27 Giugno 2016, 14:43 #26
Originariamente inviato da: quiete
In entrambi i casi c'è un morto di mezzo e la responsabilità non è di nessuno a quanto pare. Non è accettabile una cosa del genere. Se un'auto a guida autonoma uccide mia figlia (che sia pedone o conducente) a chi mi rivolgo?


A nessuno come oggi? se tua figlia si butta sotto un'auto nessuno ti darà niente
Qui si sta parlando di pedoni che non rispettano il codice della strada, non di pedoni che attraversano sulle strisce o controllano che non sopraggiungano autoveicoli e che le strisce distino più di 100m
Goofy Goober27 Giugno 2016, 14:46 #27
Originariamente inviato da: demon77
non so cosa risponderti.
in generale io penso che tre vite sono più di una e se può/deve esserci una preferenza è ovviamnte per salvare le tre vite.
Penso che sia meglio così che "tiriamo la moneta e vediamo chi la scampa"

Ovvio che poi qui si sta un po' facendo un discorso da bar.. le variabili sono molte e tutte possono avere il loro peso nella decisione fulminea di una IA davanti ad una situazione di emergenza.
Il risultato finale non è nè scontato nè sempre il medesimo.


Finchè si parla di "moralità" la decisione che sembra più giusta è sempre quella che è populisticamente più facile da far accettare.
Non per questo si può dire che pochi tecnici/ingegneri che programmano un apparato informatico/meccanico possono decidere chi vive e chi muore sulla base di questo.

Originariamente inviato da: quiete
In entrambi i casi c'è un morto di mezzo e la responsabilità non è di nessuno a quanto pare. Non è accettabile una cosa del genere. Se un'auto a guida autonoma uccide mia figlia (che sia pedone o conducente) a chi mi rivolgo?


Uccide nel senso che si mette in moto, parte, sale sul marciapiede e invece volontariamente qualcuno?

Originariamente inviato da: quiete
certo... ma non vedo la possibilità di regolamentare sta cosa


Quel di cui si parlava era più una questione di "moralità", piuttosto che "legalità".

Il tuo discorso è più relativo alle implicazioni legali seguenti ad un incidente, piuttosto che alla regolamentazione di un computer che lo ha causato...

Ma in quel caso non penso interessi quale meccanismo software ha causato l'incidente, ma chi è il proprietario dell'oggetto (software incluso) che ha causato il danno.
Almeno credo sia così.

Originariamente inviato da: Simonex84
Forse il random è la scelta migliore, oppure preservare sempre e comunque gli occupanti del veicolo, fregandosene del numero.


Già.
Paganetor27 Giugno 2016, 15:05 #28
che poi è la Legge Zero della robotica postulata da Asimov!
baruk27 Giugno 2016, 15:26 #29
Prima Legge delle auto a A.I.: Un'auto ad A.I. non può danneggiare i suoi passeggeri, ne permettere, col suo mancato intervento, che un suo passeggero riceva danno.

Seconda legge delle auto a A.I.: Un'auto ad A.I. può causare danno ai suoi passeggeri nel caso che il numero di pedoni che vengano investiti sia di numero superiore al numero dei passeggeri nell'auto.

Terza legge delle auto a A.I.: Un'auto ad A.I. deve tutelare se stessa, a patto di non essere in contrasto con la prima e la seconda legge.

Scusate, ma mi son venute d'istinto...
dany-dm27 Giugno 2016, 15:33 #30
Se un pedone mi attraversa la strada e io lo investo, amen... la colpa è sua. Mi dispiacerà moltissimo.

Se a causa di quel pedone sterzo sbattendo contro un platano e uccidendo il mio passeggero, sono io ad aver ucciso. e non me lo potrò perdonare mai.

Io non devo mettere a rischio la vita degli altri. Se un pedone mi attraversa la strada, è lui che si mette in pericolo.

Il guidatore deve cercare di evitare il pericolo senza mettere a repentaglio vite umane. Discorso valido sia che il guidatore sia umano che artificiale.

Non importa se su quel pullman ci sono 40 vecchietti e davanti ci sono 40 bambini. Io non ho facoltà di decidere la vita o la morte di nessuno. Chissà che magari tra quei vecchietti non ci sia un ricercatore che sta per rendere pubblica un cura al 100% contro il cancro giovanile.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^