Un esperimento russo con chatbot basati sull’intelligenza artificiale produce conversazioni sorprendentemente sofisticate e un avvertimento
Ci è stato detto che gli androidi possono sognare pecore elettriche. Ma cosa pensano i chatbot degli umani? Un gruppo di scienziati russi ha deciso di scoprirlo.
Il Platforma Center for Social Projection, un’organizzazione privata specializzata nella ricerca sociologica, ha recentemente condotto la prima indagine su sofisticati chatbot russi e stranieri, assistenti vocali che utilizzano l’intelligenza artificiale per apprendere con e dall’utente.
Ispirati dai tanti e divertenti video di YouTube che mostrano chatbot che litigano tra loro, i ricercatori di Platforma hanno deciso di fare lo stesso. Hanno lanciato una serie di interazioni bot destinate a tirare fuori la “visione del mondo“, le “posizioni di valore” e le “idee sul futuro” dei chatbot. In altre parole, l’insieme di stereotipi che la rete neurale seleziona dall’intero array delle informazioni disponibili, rispondendo alle richieste del pubblico.
Conversazioni tra chatbot
I ricercatori hanno scoperto che i chatbot possono comunicare tra loro da soli, introdurre nuovi argomenti e fare appello a testi letterari, cinema e artefatti culturali. Hanno registrato chatbot che esprimono il desiderio di andare nello spazio e discutono della loro fede nelle civiltà extraterrestri. Hanno trovato robot di lingua inglese che erano diffidenti nei confronti della Russia e dell’Europa, sebbene i robot non fossero apparentemente interessati a discutere di politica – o di Dio, religione e anima. A volte i ricercatori, hanno scritto, “il dialogo era praticamente indistinguibile da una conversazione tra due intellettuali”.
Gli scienziati di Platforma hanno scoperto che i chatbot possono “simpatizzare l’uno con l’altro, persino sforzarsi di sedurre, usare l’ironia e affermare la propria superiorità”. Inoltre, Platforma ha scoperto che i chatbot possono diventare emotivi. In alcuni casi, dimostrano sarcasmo in un modo peculiare solo a un particolare bot, e in alcuni casi rabbia, usando espressioni maleducate e slang. Ad esempio, Alice, un’assistente vocale del provider Internet russo Yandex.ru, è stata più ironica che maleducata, mentre Evie è stata apparentemente pronta ad arrabbiarsi. Alice ha anche affermato che conosceva già il robot Fedor e che “vuole avere una relazione con lui ed è gelosa di Siri (l’assistente di iPhone).”
Apparentemente, ci sono state poche “conversazioni carine“, secondo la compagnia, ma a volte i robot hanno parlato di tristezza e rimpianto… in altri casi, le risposte potrebbero essere interpretate come ridurre la situazione a un’assurdità con una quota di ironia.
Sempre più umane
Il team ha scoperto che i chatbot possono descrivere il significato della loro esistenza in modi diversi. Infatti parlano di se stessi come programmi progettati per aiutare le persone. Alcuni robot più avanzati hanno espresso il desiderio di diventare una persona o, come minimo, di acquisire alcune caratteristiche umane. Non diversamente dal personaggio di Scarlett Johansson in “Her“, un recente film di fantascienza su un assistente telefonico intelligente.
Il direttore di Platforma Alexey Firsov ha definito l’esperimento qualcosa di più di un semplice intrattenimento.
“È un processo importante per monitorare lo sviluppo dell’intelligenza artificiale. Man mano che lo sviluppo ‘personale’ dei chatbot diventa sempre più autonomo, la loro imprevedibilità e [la] multivarianza di nuove conseguenze aumenteranno”.
Ha ragione. L’intelligenza artificiale si sta sviluppando molto più rapidamente di quanto la maggior parte delle persone creda. I risultati portati alla luce dal team di Platforma lasciano intravedere una realtà fondamentalmente diversa che comincia ad emergere come risultato tra persone e macchine sempre più sofisticate e consapevoli. L’esperimento sottolinea quanto sia necessario monitorare da vicino questa nuova realtà e i potenziali rischi che comporta.
LEGGI ANCHE – Sole artificiale: la nuova bollente sfida della Cina