• Home
  • Google Duplex: fino a dove ci spingeremo?

L’8 maggio si è tenuto l’ultimo key note di Google, in cui oltre a tante altre cose si è puntato all’AI (intelligenza artificiale) e dunque a Google Duplex.


Google Duplex, di cosa si tratta?

Sino ad ora siamo abituati a dover memorizzare schemi con cui chiedere certe informazioni all’assistente di Google (ma anche ad Alexa, a Siri ..) per poi ricevere risposte conseguenti.

L’intento di Google nel dare in pasto Duplex al suo assistente è quello di rendere quest’ultimo più dinamico e capace di simulare task con interlocutori reali. Non ho tempo di prenotare il parrucchiere, dico all’assistente di prenotare per me. Ho paura di scordare di prenotare il tavolo al ristorante, lo fa l’assistente per me.

Se andate ad ascoltare gli esempi proposti probabilmente resterete a bocca aperta. Se siete programmatori, sviluppatori o comunque “del settore” capirete quale sia la difficoltà di raggiungere un livello tecnico simile.

Gli esempi sono tanti e si concentrano sulla complessità linguistica, gli accenti, le cadenze. Mostruoso.


Fino a dove ci spingeremo?

Avete sentito quegli esempi? Se non vi avessero detto che quello che parla è l’assistente di Google, avreste capito – come invece di solito riuscite a fare – che quello che parla è proprio un robot? Questo in particolare, per me è incredibile.

Sino ad ora siamo stati abituati a percepire chiaramente l’assitente come un “androide”. Non siamo sicuramente abituati a sentirlo interagire – probabilmente battendo il test di Turing – con un altro umano che non sia il suo padrone. Nè ad affrontare un’intera conversazione.

Penso al solo espediente di dire “uhm”, “ehm”, “yeah”, “mhmm” o simili, per restituire una modalità di espressione discretamente più umana.

Mi chiedo davvero fino a dove ci spingeremo. Avevo l’assistente robot dentro il mio telefono, relegato a task che implicavano solo me e ciò che mi riguardava.

Ora, anche se solo per task circoscritti e di poca entità, l’interazione aumenta: io chiedo all’assistente, lui chiama e prenota per me qualcosa.

Poi, mi domando… l’altra persona? Dagli esempi visti al key note o su ai.googleblog.com è evidente che l’interlocutore non ha modo di rendersi conto di star conversando con un’intelligenza artificiale. Ma se dovesse rendersene conto, perchè sicuramente qualche domanda o risposta sarà fuori schema e prima o poi Duplex inciamperà? Come si sentirà quella persona?

E’ un pò come se i confini fossero stati abbattuti e adesso fossero molto più avanti. Molto più in là. Da una scatola di fiammiferi in cui era relegato Assistent, s’è passati ad una scatola per scarpe. Un bel salto in avanti.

Che ne pensate?


 

Condividi: