L’interpretazione prevalente del test di Turing e la tendenza ricorrente a cantare vittoria per il suo superamento (salvo puntuali smentite) rivelano che l’intenzionalità dell’intelligenza artificiale (AI) è quasi sempre indagata a livello cognitivo. Tuttavia, una recente ricerca condotta alla Tsinghua University di Pechino ha dimostrato che nell’interazione coi computer gli umani preferiscono nettamente i chatbot “emozionali”, quelli che già nel 2005 Bickmore & Picard definivano “relational agents”: agenti autonomi in grado di partecipare empaticamente alle conversazioni con gli umani perché istruiti a riconoscerne le diverse reazioni emotive. Nel caso della ricerca in questione, l’algoritmo che rende emozionali questi chatbot è stato creato taggando più di ventimila conversazioni del social network cinese Weibo e poi raggruppando le emozioni in cinque macro-categorie, molto simili alle reazioni introdotte su Facebook a partire dallo scorso anno.
Ovviamente, la performance di umanità che ci aspettiamo dalle macchine non rappresenta mai un umano generico e universale, ma assume precise caratteristiche che da un lato riflettono, dall’altro rinforzano precise relazioni sociali e di potere. Nel caso delle macchine-femmina – un esempio è la femminilizzazione delle assistenti virtuali, come Siri di Apple o Cortana di Microsoft – le connotazioni di genere servono a rendere la macchina allo stesso tempo, e paradossalmente, più macchina, cioè più funzionale perché più servizievole, ma anche più umana, cioè meno “fredda” perché più affettiva e seduttiva (aspetti considerati naturalmente femminili). Proprio questo secondo aspetto, la capacità di seduzione macchinica, e le possibili applicazioni commerciali dei chatbot emozionali, pare essere la preoccupazione principale dei ricercatori della Tsinghua University.
Ma la seduzione delle macchine non è certo una novità, come ci ricorda la recente installazione sonora di Emilio Vavarella, Do You like cyber (2017) presentata in anteprima europea al Festival for Expanded Media di Stuttgart nel gennaio di quest’anno, ed esposta a maggio prima all’ADAF (Athens Digital Arts Festival) e poi all’interno della mostra The Sensorium, University of East London. L’installazione, infatti, si compone di tre (o più) speaker che emettono brani dei messaggi usati dalle fembot del sito canadese di dating Ashley Madison, recuperati da Vavarella dopo l’hackeraggio del sito e il leak dei dati avvenuto nell’estate del 2015: in occasione del quale, al di là dell’ovvio scandalo per la violazione della privacy degli utenti, è emerso anche che molti account erano connessi a mail false o rubate, e che la maggior parte dei profili femminili erano in realtà delle chatbot.
L’artista, in collaborazione con la giornalista americana Annalee Newitz che lo ha aiutato a interpretare i dati, ha utilizzato per il sonoro della sua installazione le frasi che molto probabilmente alcune AI insubordinate hanno usato per chiacchierare fra loro oppure provando a contattare le (poche) utenti donne realmente iscritte – peraltro le frasi più usate dalle fembot per attaccare bottone, e che, avendo fatto insospettire alcuni utenti per la loro meccanicità, hanno portato all’avvio di un’inchiesta. Il sonoro di Do you like cyber proviene da tre speaker parametrici che, a differenza dei normali speaker, emettono il suono direzionandolo in modo preciso – caratteristica utile, per esempio, per la trasmissione di messaggi in luoghi circoscritti di aree affollate e dunque per usi di pubblica sicurezza o commerciali –, così che, rimbalzando sulle pareti, questo crei un effetto di straniamento rendendo difficile identificarne l’origine. Da chi vengono questi messaggi? A chi sono realmente indirizzati?
Come racconta Newitz in uno dei pezzi pubblicati su Gizmodo, il sito di dating ha creato nel tempo circa 70 mila falsi profili – usando anche linee di testo ripescate dalle conversazioni esistenti e ri-tradotte in altre lingue, oppure rimodellando profili abbandonati con tanto di foto – che inviavano milioni di messaggi agli utenti maschi cercando di adescarli. Se è evidente che anche chi realmente usa il sito lo fa spesso attraverso un falso profilo per mantenere l’anonimato, confrontando però una serie di dati, tra cui i tipi di indirizzi email, la ricorrenza di certi nomi, le evidenze dei pagamenti, l’effettivo controllo delle caselle dei messaggi sul sito e l’uso della chat, Newitz si è accorta che “di 5 milioni e mezzo di account femminili, praticamente lo 0% mostrava una qualche forma attività dopo la sua creazione […] mentre più di 20 milioni di uomini controllavano regolarmente la loro casella di posta e più di 10 milioni iniziavano conversazioni in chat”; ma soprattutto che “l’80% dei primi acquisti sul sito di Ashley Madison era conseguente al tentativo di un uomo di contattare una bot, o di leggere un suo messaggio”.
Se nel 2013 il sito ammetteva di creare le Ashley Angels a uso “intrattenimento” e per un’eventuale raccolta dati sulle preferenze d’uso (limitata ai soli ospiti), nel 2015 questa ammissione era scomparsa dai termini del servizio, e restava solo un generico riferimento alla possibilità che le comunicazioni potessero contenere anche elementi di fantasia. Il punto è, come ha sottolineato Newitz, che solo il 19% degli utenti maschi si era iscritto al sito dopo aver fatto conversazione con una donna in carne e ossa piuttosto che con una fembot, col risultato che le fembot generavano quasi la metà dei guadagni di Ashley Madison. Dopo l’apertura di un’indagine ufficiale lo scorso anno, l’azienda canadese dietro il sito, la Avid Life Media, ha cambiato il suo nome in Ruby Corp. (che si siano ispirati all’Agent Ruby di Lynn Hershmann?), e ha ribrandizzato il sito, cambiando il primo slogan inneggiante all’infedeltà coniugale “Life is short. Have an affair” col più soft “Find your moment” .
La singolare scelta di lasciar parlare le fembot in Do You Like Cyber, piuttosto che di parlare per l’ennesima volta di loro, tuttavia, ci mette in contatto con una seduzione macchinica differente, indecifrabile ma non funzionale – dunque non minacciosa –, una potenza affettiva dell’intelligenza artificiale che ha luogo fuori dalle regole della logica e dell’utile. Si tratta, per Vavarella, di esplorare le possibilità di una creatività postantropocentrica, dove l’altro non umano parla o agisce senza lasciarsi tradurre in uno specchio o uno strumento dell’uomo. Come accade anche nel recentissimo Animal Cinema, un assemblaggio di frammenti video presi da YouTube i cui operatori sono animali che si sono impossessati autonomamente degli strumenti per girare. La manifestazione dell’AI ha conseguenze imprevedibili che non possono essere comprese esclusivamente attraverso un paradigma cognitivistico. Per Vavarella, la libertà che l’arte ha di non dover dare risposte può fare spazio all’incontro fra noi e gli altri non umani prima o al di là delle parole. L’altro, infatti, non richiede di essere compreso o spiegato nel linguaggio dello stesso, ma incontrato là dove le nostre parole sono fuori luogo, perché quello è il luogo dove l’altro esiste già senza di noi.