offerte prime day amazon

Drive.ai, deep learning per la guida autonoma

Drive.ai, deep learning per la guida autonoma

Una startup californiana potrà fare test drive reali sulle strade americane per raccogliere dati e informazioni con i quali allenare gli algoritmi di deep learning da utilizzare come base per lo sviluppo di sistemi di guida autonomi

di pubblicata il , alle 10:41 nel canale Tecnologia
 

La startup Drive.ai, nata all'interno dell'AI Lab della Stanford University, ha ottenuto l'autorizzazione per condurre test su veicoli autonomi sulle strade pubbliche della California. I co-fondatori, Sameep Tandon e Carol Reily, hanno lavorato per diversi anni alle tecnologie e tecniche di deep learning presso l'AI di Stanford, decidendo in seguito di mettere in piedi la startup per un possibile sbocco commerciale delle proprie idee.

L'approccio di Drive.ai è quello di usare il deep learning per l'intera attività della guida autonoma, dalla percezione e rilevazione, alla pianficazione del percorso, ai controlli, invece di affrontare singolarmente ciascun comparto come invece si tende a fare oggi in altre realtà.

In un'intervista al sito IEEE Spectrum, Tandon ha spiegato: "Quando si sviluppa un veicolo autonomo la parte difficile è la gestione dei casi limite. Questi comprendono condizioni atmosferiche come pioggia o neve, ad esempio. La tendenza è quella di programmare regole specifiche per far sì che tutto funzioni. L'approccio deep learning prevede di imparare cosa fare dalla comprensione a livello fondamentale delle varie informazioni".

Drive.ai ha quindi in programma di portare un veicolo sulle strade per iniziare a reccogliere dati che possano essere usati per costruire l'esperienza dei loro algoritmi. "Non è il numero di ore o il numero di chilometri di dati raccolti. Si tratta invece di avere il giusto tipo di esperienze per allenare il sistema, il che significa avere poi un team che sappia come trattare queste informazioni perché il sistema funzioni in un'auto. Questa mossa, da ambilenti di simulazione e verso le strade pubbliche è un grande passo per la nostra compagnia e prendiamo molto seriamente questa responsabilità" ha affermato Tandon.

L'attenzione principale degli ingegneri sarà il software, che rappresenta la parte più complessa di qualsiasi sistema di guida autonoma. Tandon e Reily osservano però che una buona parte dell'hardware sensorio disponibile oggi è sottoutilizzato. "Se si guida un'auto con l'autoradio accesa, l'unico sensore di input su cui ti basi per guidare sono gli occhi. Fa un po' paura pensare che ci fidiamo di noi stessi oggi a guidare in questo modo, controllando l'auto solamente sulla base di queste informazioni". Il concetto è che un'auto piena di sensori può rilevare eventi molto più facilmente e prontamente di un essere umano. Il vero problema è fare in modo che reagisca altrettanto prontamente e adeguatamente alle situazioni.

Anche NVIDIA sta approcciando il mondo della guida autonoma con il deep learning con Drive PX 2, basata su due SoC Tegra e due GPU basate su architettura Pascal. Ne abbiamo parlato in questo articolo.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
pabloski04 Maggio 2016, 11:15 #1
Bah! Si continua a dimenticare che il deep learning non e' altro che un insieme di tecniche per creare modelli matematici che sono, ne' piu' ne' meno, cassoni pieni di conoscenza copiata dall'uomo.

Che voglio dire? Che un sistema siffatto, di fronte ad un imprevisto, potra' fare solo una colossale cazzata.

Credo che la moda del deep learning in ambienti reali finira' dopo i primi disastri.
Karandas04 Maggio 2016, 12:05 #2
I bambini quando nascono fanno la stessa medesima cosa....deep learning, con la differenza che lo fanno a 360° e con un computer organico infinitamente più potente e in grado di aumentare la propria capacità computazionale in base alle esperienze(sinapsi) e la crescita.
I sistemi sono simili sono che il primo è un frammento di quello che è in grado di fare il cervello umano.
E' un passaggio obbligato, da qualche parte bisogna iniziare.
Non dimenticare che il nostro cervello è il più potente decoder audio/video che esista!
pabloski04 Maggio 2016, 12:42 #3
Originariamente inviato da: Karandas
I bambini quando nascono fanno la stessa medesima cosa....deep learning, con la differenza che lo fanno a 360° e con un computer organico infinitamente più potente e in grado di aumentare la propria capacità computazionale in base alle esperienze(sinapsi) e la crescita.
I sistemi sono simili sono che il primo è un frammento di quello che è in grado di fare il cervello umano.
E' un passaggio obbligato, da qualche parte bisogna iniziare.
Non dimenticare che il nostro cervello è il più potente decoder audio/video che esista!


Non e' questione di inizi, ma di metodo. L'apprendimento nelle reti neurali non avviene online. Il deep learning non contempla la creativita' ( necessaria per risolvere alcune situazioni ). I modelli di deep learning sono solo delle complicate funzioni composte con moltissime variabili, che mappano input e output secondo gli esempi che hanno appreso.

Ma se nel training set mancava l'esempio simile al problema corrente? Semplicemente la rete produrra' un output completamente sballato ( cioe' non capisce di non conoscere la soluzione ).

L'unica speranza e' di creare un training set talmente vasto e completo da riuscire a coprire tutti i possibili casi reali. Buona fortuna!
X1l10on8805 Maggio 2016, 01:02 #4
Originariamente inviato da: pabloski
Non e' questione di inizi, ma di metodo. L'apprendimento nelle reti neurali non avviene online. Il deep learning non contempla la creativita' ( necessaria per risolvere alcune situazioni ). I modelli di deep learning sono solo delle complicate funzioni composte con moltissime variabili, che mappano input e output secondo gli esempi che hanno appreso.

Ma se nel training set mancava l'esempio simile al problema corrente? Semplicemente la rete produrra' un output completamente sballato ( cioe' non capisce di non conoscere la soluzione ).

L'unica speranza e' di creare un training set talmente vasto e completo da riuscire a coprire tutti i possibili casi reali. Buona fortuna!


Nell'ultimo strato di una CNN si può usare una SVM con kernel radiale, che implica una superficie decisionale chiusa, che implica un output ragionevole per qualsiasi input, anche lontano un miglio da qualsiasi cosa nel training set. Lasciamo stare che sicuramente questa non sarà la soluzione al problema che hai evidenziato, sono fiducioso che dato le montagne di denaro che le più grandi aziende al mondo ci stanno investendo qualcuno più sveglio e più preparato di noi ci sta lavorando ed ha anche trovato eccellenti soluzioni...
pabloski05 Maggio 2016, 10:14 #5
Originariamente inviato da: X1l10on88
Nell'ultimo strato di una CNN si può usare una SVM con kernel radiale, che implica una superficie decisionale chiusa, che implica un output ragionevole per qualsiasi input, anche lontano un miglio da qualsiasi cosa nel training set. Lasciamo stare che sicuramente questa non sarà la soluzione al problema che hai evidenziato, sono fiducioso che dato le montagne di denaro che le più grandi aziende al mondo ci stanno investendo qualcuno più sveglio e più preparato di noi ci sta lavorando ed ha anche trovato eccellenti soluzioni...


Non metto in dubbio che ci stiano lavorando. Tuttavia le support vector machines non sono la panacea per questo genere di problemi. C'e' solo da sperare che il training set usato sia talmente ampio e consistente da rendere le reti neurali capaci di far fronte a qualsiasi imprevisto.

Mi spaventa un po' l'idea di alcuni ( Tesla ) di usare l'apprendimento online. In pratica mettiamo in strada un "ragazzino" e lasciamo che impari facendo incidenti??

Poi e' ovvio che se le strade verranno modificate per offrire supporto alle IA, allora il discorso cambia di parecchio. Anche se non mi e' chiaro come potrebbero modificare milioni di strade. Magari solo le autostrade?? Che pero' sono quelle che presentano meno imprevisti.
X1l10on8805 Maggio 2016, 11:03 #6
Originariamente inviato da: pabloski
Non metto in dubbio che ci stiano lavorando. Tuttavia le support vector machines non sono la panacea per questo genere di problemi. C'e' solo da sperare che il training set usato sia talmente ampio e consistente da rendere le reti neurali capaci di far fronte a qualsiasi imprevisto.

Mi spaventa un po' l'idea di alcuni ( Tesla ) di usare l'apprendimento online. In pratica mettiamo in strada un "ragazzino" e lasciamo che impari facendo incidenti??

Poi e' ovvio che se le strade verranno modificate per offrire supporto alle IA, allora il discorso cambia di parecchio. Anche se non mi e' chiaro come potrebbero modificare milioni di strade. Magari solo le autostrade?? Che pero' sono quelle che presentano meno imprevisti.


Chiaramente per quanto riguarda il training set the bigger the better , però secondo me persino il primo sistema commerciale che sarà in circolazione (con tutti i mostruosi bug che avrà sarà già molto, ma molto più sicuro di avere alla guida un "average driver".

L'apprendimento online immagino sarà limitato ad una fine tuning della rete su eventuali strade percorse giornalmente, d'altronde quando noi facciamo una strada per la prima volta ci guardiamo sicuramente di più intorno!
Zenida06 Maggio 2016, 22:04 #7
Un cervello umano non è molto diverso da una macchina alla fine.. il primo è organico e il secondo elettronico.

Quello che è diverso (oggi) è il modo di ragionare, anche l'uomo sfrutta dei preset per risolvere i problemi. Quello che ci rende "umani" è il fatto di poter ragionare fuori dagli schemi difronte a situazioni impreviste e nuove. Ma anche questo non è altro che il frutto di un preset.

Quando ragioniamo fuori dagli schemi, semplicemente utilizziamo conoscenze pre-acquisite in altri ambiti e che noi riadattiamo per lo scopo... ma dobbiamo averle pre-acquisite, altrimenti non possiamo inventarcele certe conoscenze.

Non sto dicendo che ci siamo quasi con le macchine, ma temo che sopravvalutiamo troppo le nostre capacità mentali... siamo solo un ammasso di sinapsi e reagiamo all'ambiente esterno esattamente come farebbe un qualsiasi nesso di causalità --> effetto. Con la semplice differenza che il numero elevato di connessioni ci rende imprevedibili e tutti diversi.
X1l10on8807 Maggio 2016, 01:00 #8
Originariamente inviato da: Zenida
Un cervello umano non è molto diverso da una macchina alla fine.. il primo è organico e il secondo elettronico.

Quello che è diverso (oggi) è il modo di ragionare, anche l'uomo sfrutta dei preset per risolvere i problemi. Quello che ci rende "umani" è il fatto di poter ragionare fuori dagli schemi difronte a situazioni impreviste e nuove. Ma anche questo non è altro che il frutto di un preset.

Quando ragioniamo fuori dagli schemi, semplicemente utilizziamo conoscenze pre-acquisite in altri ambiti e che noi riadattiamo per lo scopo... ma dobbiamo averle pre-acquisite, altrimenti non possiamo inventarcele certe conoscenze.

Non sto dicendo che ci siamo quasi con le macchine, ma temo che sopravvalutiamo troppo le nostre capacità mentali... siamo solo un ammasso di sinapsi e reagiamo all'ambiente esterno esattamente come farebbe un qualsiasi nesso di causalità --> effetto. Con la semplice differenza che il numero elevato di connessioni ci rende imprevedibili e tutti diversi.


This! "L'imprevidibilità" è dovuta semplicemente al fatto che ancora del cervello non ci abbiamo capito assolutamente niente...
pabloski07 Maggio 2016, 10:07 #9
Originariamente inviato da: Zenida
Quando ragioniamo fuori dagli schemi, semplicemente utilizziamo conoscenze pre-acquisite in altri ambiti e che noi riadattiamo per lo scopo... ma dobbiamo averle pre-acquisite, altrimenti non possiamo inventarcele certe conoscenze.


Hai detto niente. E' proprio questo il problema dell'IA. Le reti neurali attuali riescono a svolgere egregiamente il loro compito relativamente al loro dominio di conoscenza. Se lo si allarga troppo, si rischia che la rete cominci a sbarellare.

La soluzione e' quella che gli esperti chiamano AGI, ma non e' chiaro come una cosa del genere possa essere realizzata in pratica.

Yann LeCun ha usato l'analogia di un gelato alla crema per descrivere l'attuale stato delle cose. Noi abbiamo appena infilato il cucchiaio nello strato superficiale di panna!
GTKM07 Maggio 2016, 10:45 #10
Magari sbaglio, ma, secondo me, riusciremo davvero ad arrivare a I.A. ottimali solo quando conosceremo a fondo e totalmente il cervello umano.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^