Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

di pubblicata il , alle 11:31 nel canale Tecnologia Le auto a guida autonoma potrebbero decidere di uccidere i passeggeri, per il bene di tutti

Le auto a guida autonoma dovranno essere in grado di compiere delle scelte che potrebbero compromettere la vita delle persone a bordo

 
108 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
demon7727 Giugno 2016, 13:41 #11
Originariamente inviato da: Goofy Goober


non mi pare un parametro valido per l'equazione.
tu da solo ti suicideresti seduta stante per salvare altre 10 persone da morte certa?

a prescindere far decidere ad una IA chi vive e chi muore è roba di cui sarebbe meglio non parlare nemmeno...
tantovale tirare una moneta.


si mi rendo conto che è piuttosto paradossale.
Ma se stai guidando e all'improvviso ti saltano fuori due bambinni dietro ad un pallone.. magari ti viene pure di istinto o di inchiodare, o di sterzare bruscamente per evitarli andandoti però a schiantare contro un muro magari.

Lì la mossa è dettata dal caso e dall'istinto.. la moneta appunto.
Ma se fossi tu a programmare le auto autonome e lo potessi pianificare come regola cosa sceglieresti?
Un bimbo falciato o uno schianto di un'auto con magari tre persone sopra?
E se i bimbi fossero due sulla strada e l'auto con il solo guidatore la scelta sarebbe la stessa?
TheDarkAngel27 Giugno 2016, 13:42 #12
Originariamente inviato da: demon77
Ma se fossi tu a programmare le auto autonome e lo potessi pianificare come regola cosa sceglieresti?
Un bimbo falciato o uno schianto di un'auto con magari tre persone sopra?
E se i bimbi fossero due sulla strada e l'auto con il solo guidatore la scelta sarebbe la stessa?


Si, la responsabilità in italia è personale, sarebbe assurdo cagionare a se danni per responsabilità terze
Potrebbero anche essere 40 bambini (tanto per impietosire sempre....) che non cambia nulla.
Goofy Goober27 Giugno 2016, 14:01 #13
Originariamente inviato da: demon77
si mi rendo conto che è piuttosto paradossale.
Ma se stai guidando e all'improvviso ti saltano fuori due bambinni dietro ad un pallone.. magari ti viene pure di istinto o di inchiodare, o di sterzare bruscamente per evitarli andandoti però a schiantare contro un muro magari.

Lì la mossa è dettata dal caso e dall'istinto.. la moneta appunto.


esatto.
se la stessa cosa ti capita su un ponte alto 50mt, se l'istinto ti fa evitare l'impatto con una persona o dieci persone in mezzo alla strada, di contro di condanna a morte quasi sicura.

però che scelta faresti a sangue freddo, adesso in questo momento, se ti dicessero che buttandoti da questo ponte ora salveresti sicuramente la vita a 10 persone random nel mondo, che altrimenti sarebbero quasi certe di morire?


Ma se fossi tu a programmare le auto autonome e lo potessi pianificare come regola cosa sceglieresti?
Un bimbo falciato o uno schianto di un'auto con magari tre persone sopra?
E se i bimbi fossero due sulla strada e l'auto con il solo guidatore la scelta sarebbe la stessa?


E' facile, non sceglierei la regola. Perchè non ci può essere una regola che decidw uno vive-uno muore, uno muore-tanti vivono, uno vive-tanti muoiono.
Non puoi decidere di chi vive o chi muore sulla base di una presunzione che sarà meglio così piuttosto che comì, perchè 3 è più di 1.

E se ci sono 1 adulto e 2 bambini in macchina, e 1 adulto e 2 bambini in strada, che si fa?
Autodistruzione del mezzo dopo l'investimento dei malcapitati, per non fare torti a nessuno?

Se l'auto a guida autonoma fosse una monoposto allora si è già condannati a morte nel 100% dei casi sfigati?

La realtà è che in taluni casi la cosa più ovvia è lasciare tutto nelle mani del caso (o caos se vogliamo dirla realisticamente parlando). Quindi l'auto fa di tutto per evitare lo scontro SENZA mettere in pericolo l'incolumintà dei passeggeri.

Perchè perlomeno il caso è equo.

L'IA non ha "istinto", e non ha "il caso", ha regole dalle quali non può uscire.
Le regole non possono basarsi sull'istinto umano, perchè l'istinto non ha regole.

Tra l'altro se ci pensiamo stiamo parlando del nulla o quasi, perchè si descrive un caso in cui si sta presupponendo il "fallo" della/e persone che verranno investite, ossia il caso che spazia da uno che tenta di suicidarsi ad una possibile caduta accidentale dal lato strada, o ancora ad un pedone distratto/impazzito che attraversa a caso.

Perchè in tutti gli altri casi, come pedone sulle strisce, o pedone già pre-esistente sulla carreggiata, l'auto a guida autonoma sarà programmata a dovere per anticipare ampliamente il disastro.

Infine, penso di aver fatto un errore, ossia parlare di "IA" riguardo a ciò che controllerà la guida autonoma.
A mio parere dire IA è errato, in quanto, sempre secondo me, quello che controllerà la vettura non dovrà esser un sistema intelligente autonomo, bensì qualcosa su "binari" più simile ad un treno che ad una vettura.
quiete27 Giugno 2016, 14:08 #14
In entrambi i casi c'è un morto di mezzo e la responsabilità non è di nessuno a quanto pare. Non è accettabile una cosa del genere. Se un'auto a guida autonoma uccide mia figlia (che sia pedone o conducente) a chi mi rivolgo?
demon7727 Giugno 2016, 14:09 #15
Originariamente inviato da: Goofy Goober
esatto.
se la stessa cosa ti capita su un ponte alto 50mt, se l'istinto ti fa evitare l'impatto con una persona o dieci persone in mezzo alla strada, di contro di condanna a morte quasi sicura.

però che scelta faresti a sangue freddo, adesso in questo momento, se ti dicessero che buttandoti da questo ponte ora salveresti sicuramente la vita a 10 persone random nel mondo, che altrimenti sarebbero quasi certe di morire?




E' facile, non sceglierei la regola. Perchè non ci può essere una regola che decidw uno vive-uno muore, uno muore-tanti vivono, uno vive-tanti muoiono.
Non puoi decidere di chi vive o chi muore sulla base di una presunzione che sarà meglio così piuttosto che comì, perchè 3 è più di 1.

E se ci sono 1 adulto e 2 bambini in macchina, e 1 adulto e 2 bambini in strada, che si fa?
Autodistruzione del mezzo dopo l'investimento dei malcapitati, per non fare torti a nessuno?

Se l'auto a guida autonoma fosse una monoposto allora si è già condannati a morte nel 100% dei casi sfigati?

La realtà è che in taluni casi la cosa più ovvia è lasciare tutto nelle mani del caso (o caos se vogliamo dirla realisticamente parlando). Quindi l'auto fa di tutto per evitare lo scontro SENZA mettere in pericolo l'incolumintà dei passeggeri.

Perchè perlomeno il caso è equo.

L'IA non ha "istinto", e non ha "il caso", ha regole dalle quali non può uscire.
Le regole non possono basarsi sull'istinto umano, perchè l'istinto non ha regole.

Tra l'altro se ci pensiamo stiamo parlando del nulla o quasi, perchè si descrive un caso in cui si sta presupponendo il "fallo" della/e persone che verranno investite, ossia il caso che spazia da uno che tenta di suicidarsi ad una possibile caduta accidentale dal lato strada, o ancora ad un pedone distratto/impazzito che attraversa a caso.

Perchè in tutti gli altri casi, come pedone sulle strisce, o pedone già pre-esistente sulla carreggiata, l'auto a guida autonoma sarà programmata a dovere per anticipare ampliamente il disastro.

Infine, penso di aver fatto un errore, ossia parlare di "IA" riguardo a ciò che controllerà la guida autonoma.
A mio parere dire IA è errato, in quanto, sempre secondo me, quello che controllerà la vettura non dovrà esser un sistema intelligente autonomo, bensì qualcosa su "binari" più simile ad un treno che ad una vettura.


non so cosa risponderti.
in generale io penso che tre vite sono più di una e se può/deve esserci una preferenza è ovviamnte per salvare le tre vite.
Penso che sia meglio così che "tiriamo la moneta e vediamo chi la scampa"

Ovvio che poi qui si sta un po' facendo un discorso da bar.. le variabili sono molte e tutte possono avere il loro peso nella decisione fulminea di una IA davanti ad una situazione di emergenza.
Il risultato finale non è nè scontato nè sempre il medesimo.
demon7727 Giugno 2016, 14:11 #16
Originariamente inviato da: quiete
In entrambi i casi c'è un morto di mezzo e la responsabilità non è di nessuno a quanto pare. Non è accettabile una cosa del genere. Se un'auto a guida autonoma uccide mia figlia (che sia pedone o conducente) a chi mi rivolgo?


La giurisprudenza in merito deve essere ancora tutta scritta.
E' una tipologia di evento e situazione che non è mai accaduta fino ad oggi.
quiete27 Giugno 2016, 14:14 #17
Originariamente inviato da: demon77
La giurisprudenza in merito deve essere ancora tutta scritta.
E' una tipologia di evento e situazione che non è mai accaduta fino ad oggi.


certo... ma non vedo la possibilità di regolamentare sta cosa
Simonex8427 Giugno 2016, 14:15 #18
Originariamente inviato da: demon77
non so cosa risponderti.
in generale io penso che tre vite sono più di una e se può/deve esserci una preferenza è ovviamnte per salvare le tre vite.
Penso che sia meglio così che "tiriamo la moneta e vediamo chi la scampa"

Ovvio che poi qui si sta un po' facendo un discorso da bar.. le variabili sono molte e tutte possono avere il loro peso nella decisione fulminea di una IA davanti ad una situazione di emergenza.
Il risultato finale non è nè scontato nè sempre il medesimo.


Decidere chi deve vivere e chi no mi sembra un po' troppo giocare a fare dio.

Se un pullman a guida autonoma con 50 anziani sta per investire una comitiva di 40 bambini dell'asilo chi salviamo?

Stando ai numeri dovremmo salvare gli anziani, però gli altri sono dei bambini, magari è meglio salvare la nuova generazione, come si fa a decidere....

Forse il random è la scelta migliore, oppure preservare sempre e comunque gli occupanti del veicolo, fregandosene del numero.
benderchetioffender27 Giugno 2016, 14:18 #19
Originariamente inviato da: quiete
In entrambi i casi c'è un morto di mezzo e la responsabilità non è di nessuno a quanto pare. Non è accettabile una cosa del genere. Se un'auto a guida autonoma uccide mia figlia (che sia pedone o conducente) a chi mi rivolgo?


se il cancello automatico (dio non voglia mai) schiaccia tu a figlia? il concetto è lo stesso

cioè l'errore è pensare che una macchina a reazione avanzata sia una AI... bene non è così, perchè la macchina dovrebbe avere coscienza di sè, mentre è solamente una macchina che agisce secondo istruzioni -complesse quanto vuoi, ma sempre istruzioni sono... - tanto quanto si agisce secondo istruzione (il codice stradale) mentre si guida, ne piu ne meno... e reagisce secondo casistiche precompilate

AI è un altra cosa... le auto a guida autonoma son piu simili ai PC, o ad un animale....
demon7727 Giugno 2016, 14:22 #20
Originariamente inviato da: quiete
certo... ma non vedo la possibilità di regolamentare sta cosa


Guarda, è una bella gatta da pelare come ho detto.. ma di certo una quadra bisognerà trovarla. Volente o nolente.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
^