Intelligenza artificiale per comandare in modo naturale l'auto con la voce (con uno zampino italiano)
di Roberto Colombo pubblicata il 14 Novembre 2017, alle 13:01 nel canale Tecnologia"Aumentare la sicurezza dei conducenti con interazioni intuitive e a minor carico cognitivo" questo il modo con cui l'Intelligenza Artificiale di Nuance punta a farci guidare in modo più sicuro. E c'è uno zampino italiano, con alcuen soluzioni sviluppate nel nostro paese a Torino da Nuance
La filiale italina è tuttora una costola fondamentale della compagnia statunitense e a Torino si sviluppano alcune delle soluzioni di punta di Nuance, in particolare quelle legate al mondo automotive. "Macchine che imparano nel tempo", anche questa è una definizione che descrive bene le vere intelligenze artificiali : le macchina fanno cose non perché programmate per eseguire certe istruzioni, ma perché hanno imparato quali azioni eseguire direttamente sul campo tramite opportune sessioni di allenamento o osservando da agente nascosto l'interazione tra due essere umani. Così un bot può imparare ascoltando le conversazioni di un call center oppure un'auto a guida autonoma può imparare facendo chilometri inattiva e cercando di riportare a un suo schema le azioni del conducente.
Cosa c'entra l'intelligenza artificiale con le soluzioni vocali? Molto. L'IA èmolto più diffusa di quanto si pensi: call center a risposta automatica e le voci stazioni sono un paio di esempi. Capire il significato di una frase pronunciata da un cliente al telefono anche se le parole non rientrano esattamente in uno schema prefissato oppure da una conversazione con una linea scadente; pronunciare degli avvisi per i viaggiatori in 'linguaggio naturale' con intonazione tale da non far pensare immediatamente alla voce di una macchina; ecco come l'intelligenza artificiale fa da supporto alle soluzioni vocali, in un senso e nell'altro.
Si tratta di un fattore fondamentale quando si parla di automibili, dove l'obiettivo è "aumentare la sicurezza dei conducenti con interazioni intuitive e a minor carico cognitivo". Proprio il carico cognitivo (ossia il tasso di occupazione del cervello e il numero di risorse che vengono sottratte all'attenzione della guida) è un punto fondamentale. Da un lato sentirsi rispondere in modo naturale è un modo per impegnare il cervello al minimo e dall'altro apostrofare il sistema di gestione dell'auto in modo altrettanto naturale (senza dover pensare alla corretta frase da pronunciare) va nella stessa identica direzione. Il tutto senza dover togliere gli occhi dalla strada e premere tasti sul volante o (peggio) sulla console centrale. Questo anche per azioni complesse come quelle che possono sottostare al comando "Cerca un ristorante lungo la strada, ma evita le pizzerie". Oppure dettare un SMS o un messaggio Whatsapp con la possibilità di modificarlo senza l'intervento del dito.
In questo campo il progresso tecnologico è galoppante e spesso poco compatibile con i tempi di sviluppo dei sistemi automotive, che spesso impiegano almeno due anni per arrivare sulle auto in commercio (se non di più) e poi vi permangono per almeno il ciclo completo di un modello, spesso pari a circa 7 anni. Una soluzione, adottata da Nuance per alcuni dei suoi clienti come Audi, BMW e la cinese Roewe, è l'approccio ibrido, che combina riconoscitore vocale embedded (integrato sul veicolo e in grado di operare anche in assenza di rete) con una parte cloud, che a differenza del primo può essere sempre aggiornata. Nel momento in cui l'utente parla partono due processi, quello di comprensione tramite il sistema di bordo e l'invio al cloud: se il primo capisce perfettamente ed è in grado di eseguire il comando l'invio alla rete viene cancellato, se no si attende la risposta in arrivo dalla 'nuvola'.
Oggi vorremmo che l'auto fosse più intelligente e potesse farci da assistente, da DJ, da segretaria, da concierge, da guida turistica, da meteo e molto altro ancora. Una delle cose su cui si sta lavorando è il meccanico a bordo, per interrogare l'auto su eventuali problemi senza dover aprire il manuale cartaceo. Dire "Cos'è quella spia gialla al centro de cruscotto a forma di ruota che si è appena accesa" o " Qual è la pressione giusta per le gomme da neve?": ecco esempi di un assistente che in molti vorrebbero a bordo.
L'inteligenza artificiale non aiuta solo a parlare in modo più naturale con l'auto, ma permette di utilizzare la voce come vero e proprio strumento univoco di autenticazione. Già oggi i sistemi di riconoscimento permettono agli operatori dei call center di avere in pochi secondi lo storico di un cliente dopo poche parole di quest'ultimo e il sistema è così preciso che è possibile accedere a servizi automatizzati bancari dal telefono senza dover pronunciare ID utente, password, codici PIN o simili. HSBC utilizza già la formula "La mia voce è la mia password" per far accedere i clienti ai propri servizi, soprattutto in paesi dove l'uso della voce è ancora predominante sui cellulari.
Come abbiamo visto nell'articolo di ieri, sono molti gli ambiti in cui l'intelligenza artificiale punta a cambiarci la vita: aggiungendo la biometria vocale a quanto già visto è facile immaginare l'aeroporto del futuro a flusso libero, di cui abbiamo parlato nella notizia a questo indirizzo .
Voi che esperienza avete con i sistemi di riconoscimento vocale? In auto vi trovate a ripetere dieci volte lo stesso comando o avete già un'esperienza naturale? E ancora, vi piacerebbe poter eseguire operazioni bancarie semplicemente autenticandovi con la vostra voce, senza dover ricordare codici, numeri e strane password?
5 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info...vabbè tutto fico, MA
...i dati di chi sono e che fine fanno?!La privacy del'utente come è protetta e rispettata?
...la decodifica del linguaggio naturale spesso avverrà "lato server" :-) per evidenti ragioni di brokeraggio dati dove anche il settore automotive sta scimmiottando il modello delle OTT nel quale gli utenti sono meri serbatoi di dati da usurpare per farci business... SENZA LASCIARE NEMMENO LE BRICIOLE a chi i dati li genera.... sorry ma questo modello di business imploderà...a breve!
Com'è ovvio che sia, visto che le auto [U]non è garantito che possano essere connesse[/U] sempre ai server.
Peraltro l'unica connessione possibile, SE presente, è tramite una SIM integrata, dove il traffico dati DEVE essere limitato, visto che la casa automobilistica paga un canone per ogni SIM integrata sull'auto.
Ecco perché, come dice l'articolo, prima viene utilizzato il riconoscitore vocale integrato, che quindi è stato realizzato per fornire già delle risposte. Solo se fallisce si passa al cloud (che ha risorse hardware di gran lunga superiori all'auto, e software sempre aggiornato), SE è stato possibile contattarlo.
Ma, appunto, l'auto deve poter funzionare anche nel caso peggiore, e quindi in assenza di connessione. Per cui la versione embedded dev'essere già di buon livello (e lo è, effettivamente, per chi ha provato il sistema Nuance di cui parla l'articolo).
Il problema non è, quindi, l'aggiornamento, visto che ormai le auto si aggiornano da sole abbastanza di frequente (se non ricordo male 5-6 volte l'anno), per cui la possibilità di avere codice e/o una base dati migliore per la versione embedded c'è sempre (basta aspettare un po' di mesi).
Ma sempre nei limiti dello spazio e della percentuale di CPU utilizzabile dal componente riconoscitore vocale.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".