IA: tsunami tecnologico o opportunità? (Riflessioni su L’onda che verrà)

Ho appena letto un libro, anche se chiamarlo libro è riduttivo. Di una delle 100 persone più influenti del mondo nel campo dell’IA: “L’onda che verrà. Intelligenza artificiale e potere nel XXI secolo”, di Mustafa Suleyman e Michael Bhaskar.

Suleyman non ha ancora quarant’anni ma riesce a fare pensare, riflettere, infastidire, irretire, illuminare, preoccupare e sollevare. Eppure, si legge tutto di un fiato!

Suleyman, nel 2010, ha fondato uno dei laboratori di ricerca sull’intelligenza artificiale più avanzati del mondo, DeepMind, acquisito da Google nel 2014. Nel 2022, Inflection AI, un’azienda così influente nel campo dell’IA da meritare la convocazione alla Casa Bianca. A marzo 2024 Microsoft ha scelto Suleyman come guida della sua intelligenza artificiale.

Inutile dire che le #decisioni di Suleyman influiranno profondamente sul modo in cui l’azienda con più alto valore di mercato del pianeta svilupperà, nei prossimi anni, tecnologie incredibili.

Suleyman ne “L’onda che verrà” ha il coraggio e la lungimiranza di portare l’attenzione su alcuni impatti dell’IA generativa. O come spiega lui stesso: “Intorno a noi sta per abbattersi una nuova ondata tecnologica che ci metterà a disposizione il potere di costruire i fondamentali universali dell’intelligenza e della vita”.

L’intelligenza artificiale che promette di generare enormi ricchezze e di combattere più efficacemente malattie e crisi climatica, sembrerebbe difficilmente governabile. Al momento, non sembra possibile “controllarla, frenarla o fermarla”. E aggiunge: “La cosa che desidero di più è che qualcuno mi smentisca e mi dimostri che il contenimento è effettivamente possibile”.

Ora che lavora nell’azienda più potente al mondo nel campo dell’IA, la missione di Suleyman potrebbe essere proprio quella di smentire sé stesso. Le stesse preoccupazioni sull’IA che affliggono Sam Altman, il Ceo di OpenAI: “l’idea ipotetica di aver fatto qualcosa di molto brutto nel momento in cui è stata lanciata ChatGpt”.

ChatGpt è l’IA generativa più famosa al mondo, creata da OpenAI, in cui Microsoft ha investito 13 miliardi di dollari. Oltre ad accrescere la produttività, ChatGpt ha contribuito a diffondere una preoccupazione crescente: un giorno le macchine saranno così intelligenti da spazzare via l’umanità. Come un’onda gigantesca. Ciò che ribadisce Suleyman nel libro è la necessità di “voci critiche e responsabili dall’interno”. Che è anche ciò che può fare lui in Microsoft: “creare prodotti dotati di intelligenza artificiale che prevedano una filosofia di contenimento su larga scala”. Questo perché tutto è influenzato in qualche modo dalla tecnologia.

Un altro tema su cui il ricercatore si concentra è la biologia sintetica (BS): le stesse tecnologie che ci permettono di curare una malattia potrebbero essere usate per causarne una, il che ci porta alle parti davvero terrificanti del libro. Suleyman nota che il prezzo del sequenziamento genetico è crollato, mentre la capacità di modificare il DNA con tecnologie come Crispr è migliorata. Presto, chiunque sarà in grado di allestire un laboratorio di genetica nel proprio garage. La tentazione di manipolare il genoma umano, prevede, sarà immensa.

I mutanti umani, tuttavia, non sono gli unici orrori che ci attendono. Suleyman immagina che IA e BS e uniscano le forze per consentire a malintenzionati di inventare nuovi patogeni. Con un tasso di trasmissibilità del 4% (inferiore alla varicella) e un tasso di mortalità del 50% (più o meno lo stesso dell’Ebola), un virus progettato dall’IA e progettato dalla BS potrebbe “causare più di un miliardo di morti nel giro di pochi mesi“.

Nonostante questi rischi, Suleyman dubita che una nazione si impegnerà a contenere le tecnologie. Gli stati dipendono troppo dai loro benefici economici. Questo è il dilemma di base: non possiamo permetterci di non costruire la stessa tecnologia che potrebbe causare la nostra estinzione.

L’onda che verrà non riguarda la minaccia esistenziale posta da IA super intelligenti. Suleyman pensa che le IA semplicemente intelligenti causeranno il caos proprio perché aumenteranno il potere umano in un periodo molto breve. Che si tratti di attacchi informatici generati dall’IA, patogeni fatti in casa, perdita di posti di lavoro dovuta al cambiamento tecnologico o disinformazione che aggrava l’instabilità politica, le istituzioni non sono pronte per questo tsunami di tecnologia.

Spero però che anche se il progresso continua a ritmo frenetico, le società non tollerino gli abusi etici che Suleyman teme di più. Quando uno scienziato cinese ha rivelato nel 2018 di aver modificato i geni di due gemelle, è stato condannato a tre anni di prigione, universalmente condannato, e da allora non ci sono state segnalazioni simili. L’UE è pronta a vietare alcune forme di IA, come il riconoscimento facciale negli spazi pubblici, nel suo imminente AI Act. La normale resistenza legale e culturale probabilmente rallenterà la proliferazione delle pratiche più dirompenti e inquietanti.

Nonostante affermi che il problema del contenimento è la “sfida fondamentale della nostra era”, Suleyman non supporta una moratoria tecnologica (ha appena fondato una nuova azienda di intelligenza artificiale). Invece, espone una serie di proposte alla fine del libro. Sfortunatamente non sono così rassicuranti come avrei voluto.

C’è però un lieto fine, se così vogliamo chiamarlo, Suleyman sottolinea che gli scenari catastrofici sono rischi estremi. E, a differenza dell’apocalisse dell’IA che potrebbe verificarsi in futuro, Suleyman è sorprendentemente e opportunamente ottimista sul modo in cui crede che l’IA risolverà l’emergenza climatica. È un pensiero felice, ma se l’IA risolverà il problema climatico, perché – mi chiedo – non può risolvere anche il problema del contenimento?

QUANTO sono (in)UTILI i MEMI?

Sono yuppies oppure yappies, per chi mastica l’inglese. Sono i figli di quest’Italia che va di corsa, che toglie i soldi dal materasso e li sputtana tutti in borsa”, cantava Barbarossa o per dirla alla Brunori “Noi siamo i figli della borghesia, la quintessenza dell’ipocrisia. Siamo i gemelli sui polsini. Siamo l’oliva nel Martini”… Fino a Pit: “Ho la faccia di quel #meme, quando stiamo insieme soltanto di notte. Domani c’è chi mi chiede chi è quello che mi ha coperto, questa faccia di botte”…

Un modo insolito per presentare il tema di questo post: il #meme. Con uno sguardo malinconico sul passato e un po’ di retorica sul presente, sperando che non sia il futuro. Ma forse più attuale di molti incipit.

Veniamo al dunque.

IL MEME QUESTO CONOSCIUTO

Il meme è un contenuto di natura umoristica o frutto di rielaborazione creativa di scene di film, serie o programmi TV, opere artistiche, diventati cult nell’immaginario comune che si diffonde rapidamente in rete, diventando spesso virale.

Il termine deriva dal greco mimēma: ciò che è imitato. È nel campo della biologia genetica che si riscontrano i primi utilizzi del termine, dove indicano una mutazione improvvisa nel processo di selezione darwiniana, legata a un cambiamento casuale propagatosi per replicazione. Solo a partire dagli anni ‘70 meme viene utilizzato per spiegare come si diffondono idee, gusti culturali, informazioni.

A coniare il termine è Richard Dawkins, pioniere della biologia evoluzionistica e autore de Il gene egoista. A differenza dei geni, i meme sono idee che si diffondono tra persone, replicandosi come virus sociali.

UTILITA’ DEI MEME

Da una parte aiutano la condivisione di emozioni, tanto che si sta cercando di capire come il loro utilizzo possa impattare sulla salute mentale. Alcuni studi hanno rilevato che comunicare tramite meme divertenti aiuta la gestione dell’ansia durante le fasi acute di malattia. Altre ricerche hanno dimostrato che le persone con sintomi depressivi hanno maggiori probabilità rispetto alle persone che non ne soffrono di trovare i meme depressivi divertenti, riconoscibili, condivisibili e capaci di migliorare l’umore.

L’uso dei meme come reazione, presenta un grosso impatto sui comportamenti collettivi, perché facilitano i comportamenti specifici che possono meglio garantire la sopravvivenza sociale, classificando i pensieri. Si usa sempre un meme che si sa che l’altro si aspetta di ricevere o che secondo noi avrebbe postato come reazione.

Nonostante le diverse classificazioni delle espressioni facciali emotive, che spesso ne appiattiscono la complessità, i ricercatori oggi considerano le emozioni e le loro espressioni dipendenti dai modelli di pensiero e dai contesti culturali. Ciò che sembra paura per una persona potrebbe sembrare sorpresa per un’altra. Inoltre, spesso si confonde la rabbia con il disgusto e la paura con la sorpresa. Quindi le emozioni hanno bisogno di una nuova classificazione. Un esempio è la scena di The Big Bang Theory in cui Amy Farrah Fowler osserva le reazioni di Sheldon e di una scimmia al test delle emozioni.

Diverse ricerche hanno osservato che vi sono sfumature nelle emozioni evocate dai contenuti video che le teorie precedenti non avevano considerato. Mostrando dei video emotivi alle persone e analizzando le parole nelle loro risposte auto-segnalate, alcuni ricercatori hanno avrebbero individuato 27 “emozioni” distinte.

PENSIERI ESTERNALIZZATI

Aditya Shukla definisce i meme “pensieri esternalizzati”. Se riesci a pensare a un meme per una situazione, significa che c’è un modello di pensiero già pronto che è stato acquisito da un precedente meme. Di fatto, ricorriamo a un modello esistente della cultura di internet sotto forma di meme per elaborare il pensiero, anziché utilizzare una frase.

Adattare i pensieri ai meme o trovare la corrispondenza migliore è un processo metacognitivo: pensieri sui pensieri. Se il meme trasmette più significato delle parole a causa del suo schema intrinseco, lo si usa per essere compresi. Questo in una visione ottimistica. I ricercatori si chiedono quanto i ragazzini abbiano bisogno di semplificare le emozioni per poterle classificare, o quanto invece abbiano necessità di apprendere più sfaccettature possibili per descrivere e comprendere ciò che arriva loro davanti improvvisamente in una chat con sconosciuti.

MEME PER IMITAZIONE

I meme sono potenti strumenti di connessione e condivisione che attraversano generazioni e comunità online. Questi fenomeni umoristici rappresentano un linguaggio universale, facilitando l’identificazione tra individui. Tuttavia, è importante notare che un uso eccessivo dei meme, e quindi dei dispositivi digitali, può portare a conseguenze come il phubbing.

Non va dimenticato che spesso si ricorre ai meme per imitazione: per il desiderio di non essere diversi dalle persone che ci circondano. Un esempio è il film Zelig dove il protagonista, Woody Allen, si trasforma nei personaggi con cui parla. Quando parla con un rabbino, si trasforma in un rabbino. L’effetto camaleonte può essere del tutto spontaneo, ma può anche essere provocato intenzionalmente. Questo è un punto importante, perché ci dice che i memi possono essere pericolosi.

Dawkins considera i memi come aspetti del modo di pensare e di comportarsi che, presumibilmente, sono sempre esistiti. Di certo il ruolo guida nella diffusione del modo di pensare per “memi” spetta alla società statunitense: la rimozione, o distruzione, delle statue di Cristoforo Colombo, considerato esponente del pre-colonialismo, o a ossessivi richiami alla eguaglianza di genere. Se ne può citare una al limite dell’assurdo: non si dica più – impone il meme – history ma herstory… Nel resto del mondo occidentale è fastidiosa la trasformazione della parola uomo in senso memico. Questa trasformazione è iniziata nelle riviste scientifiche che, con la motivazione che man discriminerebbe le donne, hanno incominciato a correggere titoli come “The neocortex in the man” in “The neocortex in humans”. E il meme si è esteso anche a campi diversi dalla medicina. Una rivista di architettura ha modificato il titolo: “Una città a misura di uomo” in “Una città a misura della persona”.

Altri esempi: “portare avanti il discorso” – un meme popolarissimo negli anni ’60. Significa “non abbiamo deciso, creiamo un Comitato di studio”. “Fare un passo indietro” usato per chiedere le dimissioni. È un’ipocrisia linguistica di una certa eleganza usata quando si sa che non si ha la forza per ottenere le dimissioni richieste. “Resilienza”: mediato dalla metallurgia per descrivere la capacità di un materiale di assorbire un urto senza rompersi. La Commissione Europea ha inserito la “resilienza” tra le priorità della politica economica europea. Non è chiaro che cosa il meme indichi, ma non importa: è un meme bello, suona bene, e fa sentire colto chi lo usa.

POSSONO ESSERE PERICOLOSI?

Possono i meme essere pericolosi in quanto capaci di influenzare il modo di pensare della comunità su questioni di grande valenza?

In parte sì, in quanto l’invasione dei meme sul nostro cervello, e la loro conseguente diffusione, avviene quando le nostre capacità critiche latitano. Negli anni ‘30, un mezzo efficace per propagare memi è stata la radio. L’abilità di Goebbels (Ministro della Propaganda di Hitler dal 1933 al 1945) nell’uso della radio come mezzo di propaganda, è stato un fattore fondamentale per diffondere le idee naziste e fare entrare nella mente dei tedeschi memi irrazionali come i presunti complotti del capitalismo “ebraico” o la superiorità della “razza” ariana, ecc.

Il fattore pericoloso oggi è internet nel suo aspetto interattivo. Il bombardamento di memi, con la richiesta di condividerli, in assenza del momento critico di riflessione che dovrebbe accompagnare la richiesta, è divenuto ossessivo. I memi di internet si propagano immediatamente e influenzano migliaia di persone, sfortunatamente anche su temi di grande importanza.

Sfuggire ai meme è difficile. Poichè permeano il quotidiano soprattutto per alleggerire e far sorridere. Eppure, finiscono per essere presi sul serio: obbligandoci, per esempio, a definire i portatori di gravi disabilità come “diversamente abili”, e gli spazzini come “operatori ecologici”. Il fatto è che il nuovo nome – meme piace a una classe politica convinta e soddisfatta di avere determinato così, col nuovo meme, una promozione sociale degli spazzini.

O ancora, siamo ufficialmente tenuti a definire madre e padre “genitore 1” e “genitore 2” e qui i commenti sono superflui.

Forse, non ci rendiamo conto della pericolosità della situazione per il dilagare di tutti questi memi minori. È indispensabile opporvisi, seguendo l’esortazione scrittore brasiliano Jorge Amado: “Io dico no quando tutti in coro dicono sì. Questo è il mio impegno”. Dire no, quando i memi in coro dicono sì, pare a ogni modo una buona regola.

Cosa ne pensate?

Il MALE che fa il PHUBBING sul LAVORO e nelle RELAZIONI

Lo subiamo e lo imponiamo, spesso in modo così ripetitivo da esserne inconsapevoli. Cosa? Il “phubbing“: l’atto di trascurare il proprio interlocutore per consultare spesso, in modo più o meno compulsivo, il cellulare o un altro dispositivo interattivo.

Il termine è stato coniato nel 2012 dall’Università di Sidney; ed è il risultato della crasi tra le parole inglesi phone e snubbing.

Un comportamento che, secondo uno studio dell’Università del Kent, è considerato “normativo e non dannoso in generale”, in quanto risponde a tre criteri: falso consenso, reciprocità e frequenza, che portano le persone a considerare un atteggiamento ampiamente diffuso come accettato e accettabile su larga scala.

In realtà, il messaggio che passa è che qualunque notifica arrivi è più importante rispetto alla persona che si ha davanti.

A questo punto, vi sarà chiaro se il phubbing è un atto che tendete maggiormente a infliggere o a subire…

Benché il fenomeno possa sembrare relativamente innocuo, al limite fastidioso, in realtà è determinante nel buon esito di molte relazioni. Ironia della sorte, “il phubbing ha lo scopo di connetterci, presumibilmente, con qualcuno attraverso i social o i messaggi“- afferma Emma Seppälä, psicologa a Stanford e Yale – “in realtà, interrompe le relazioni di persona nel momento presente“.

IL PHUBBING FA SENTIRE MENO CONNESSI

Diversi studi hanno dimostrato che il phubbing rende le interazioni faccia a faccia meno significative. Un articolo pubblicato sul Journal of Applied Social Psychology ha scoperto che anche le persone che immaginavano di essere phubbate mentre guardavano una conversazione simulata si sentivano negativamente riguardo all’interazione rispetto alle persone che non immaginavano il phubbing.

Un altro studio, pubblicato su Computers in Human Behavior nel 2016, ha scoperto che inviare messaggi di testo durante una conversazione rende il discorso meno soddisfacente. Uno studio del 2012 ha scoperto che la semplice presenza di un telefono cellulare durante una conversazione, anche se nessuno lo usa, è sufficiente per far sentire le persone meno connesse tra loro.

IL PHUBBING PUÒ DANNEGGIARE LA SALUTE MENTALE

In un ulteriore studio, è stato riscontrato che il phubbing minaccia quattro “bisogni fondamentali”: appartenenza, autostima, esistenza significativa e controllo. Poiché fa sentire le persone escluse e ostracizzate.

Altre ricerche hanno dimostrato che il phubbing può influenzare le relazioni di coppia. Due diversi studi hanno evidenziato che, quando i coniugi si coccolano a vicenda, è più probabile che sperimentino una minore soddisfazione coniugale. Se il partner è al telefono, significa che sta dando la priorità a qualcos’altro rispetto a te in quei momenti di unione…

Lapallissiano, ma non così elementare, visto il numero di volte che ricorriamo al phubbing.

PHUBBING NEL CONTESTO AZIENDALE

Consci di quanto engagement, soddisfazione e motivazione siano elementi cardine per il benessere dei collaboratori, spendere qualche riflessione circa gli effetti negativi del phubbing nei luoghi di lavoro può essere utile. O almeno, un utile reminder.

Le conseguenze si aggravano quando avviene quello che i ricercatori della Hankamer School of Business della Baylor University definiscono boss phubbing: l’abitudine di un supervisore, o un responsabile, di essere distratto dallo smartphone quando parla o è in stretto contatto con i collaboratori. Questo può essere un vero ostacolo nella costruzione di una relazione proficua, ma soprattutto può minare lo sviluppo professionale del collaboratore.

La ricerca ha dimostrato che le conseguenze più importanti sul team del boss phubbing riguardano:

  • mancanza di fiducia nel supervisore (76%)
  • diminuzione dell’autostima e del benessere mentale (75%)
  • inferiore impegno nelle attività lavorative (5%)

I dipendenti che sperimentano il boss phubbing, hanno livelli inferiori di fiducia nei confronti del loro manager e questo comporta anche meno probabilità di sentire che il loro lavoro è prezioso o che sia possibile una crescita professionale. Di conseguenza, i dipendenti che lavorano sotto la supervisione di un phubber tendono ad avere meno fiducia nella propria capacità di svolgere il lavoro. Non esattamente la situazione che un manager auspicherebbe per l’azienda.

COME CONTRASTARE IL PHUBBING SUL POSTO DI LAVORO

Il phubbing è diventato quasi naturale (uno studio di reviews.org  sostiene che le persone controllano il telefono 144 volte al giorno), ed è qualcosa a cui tendiamo a non fare caso quando lo attuiamo e di conseguenza non notiamo il disagio della persona su cui lo stiamo esercitando.

Per questo è utile lavorare sulla costruzione di una cultura organizzativa che ponga l’accento sulla qualità delle relazioni e sul rispetto reciproco e sulla consapevolezza.

CONCLUSIONI

Il phubbing è segno di un uso problematico della tecnologia, soprattutto quando non possiamo farne a meno o perdiamo la capacità di scegliere cosa è meglio per noi e cosa ci fa bene. Che sia in un ambiente di lavoro o conviviale. Il rischio infatti è quello di perdere poco a poco l’aspetto emozionale che una conversione fisica regala. Dimenticandoci inoltre che a risultare ferito da questa pratica, non è solo chi la subisce ma anche chi la impone, soprattutto se è diventata un’abitudine.

Forse, non dico sempre, ma più di quanto pensiamo, spegnere (o allontanare) il cellulare, può essere una buona cosa. Se non per noi, almeno per chi ci sta di fronte. Chiunque esso sia!

E’ possibile INNAMORARSI di un’INTELLIGENZA ARTIFICIALE?

Sarà il caldo, il sole o più facilmente la stanchezza che ha portato un gruppo di amici a confrontarsi su temi che, in altri contesti, si sarebbero esauriti in pochi minuti. Da lì nasce una domanda e questo post:

ci si può innamorare di un’intelligenza artificiale?

Mentre, inizialmente, le battute si sprecavano, mi è tornato in mente un episodio della serie Black Mirror (Be right back) di qualche anno fa: Martha, una ragazza che aveva perso il fidanzato Ash in un incidente automobilistico, al funerale scopre, da un’amica, l’esistenza di un programma capace di ricreare la personalità dei morti in un’intelligenza artificiale, con cui comunicare via chat.

Per dare vita a questa A.I., viene utilizzato un algoritmo capace di analizzare messaggi, email e profili dei vari social utilizzati dal defunto, in modo da imparare a parlare e comportarsi come lui.

Il rapporto che si instaura tra Martha e la chat che replica il comportamento di Ash, evolve sempre più, fino a quando le viene recapitato a casa un clone sintetico con le sembianze e il carattere del fidanzato. E qui mi fermo, per non rovinare il finale a coloro che non hanno visto l’episodio.

La storia è inquietante. Spaventosa. Patologica. Soprattutto scoprendo che quell’episodio di fantascienza è diventato realtà grazie al lavoro della startupper russa Eugenia Kuyda che, attraverso il machine learning e sfruttando SMS, messaggi, email di un caro amico scomparso, Roman Maruzenko, ha creato un chatbot in grado di replicare le risposte che Roman avrebbe dato agli amici.

Anche se l’esperimento della Kuyda non sembra essere riuscito bene, almeno non come in Black Mirror, difficile non chiedersi se con il continuo miglioramento del machine learning è possibile che tra pochi anni i chatbot possano davvero imitare il comportamento di una specifica persona.

Se anche fosse, siamo sicuri di volerlo?

IL MITO DI PROMETEO

L’essere umano da sempre sogna di creare esseri artificiali che incarnino visioni idealizzate della specie umana e che fungano da compagni di viaggio. È il mito di Prometeo ovidiano che crea l’essere umano dalla creta; la volontà di Frankenstein di sconfiggere la morte e il desiderio della sua creatura senza nome di creare una compagna con la quale trascorrere la vita.

Recentemente anche la letteratura scientifica ha iniziato a interrogarsi sul tipo di relazioni che sarà possibile sviluppare con le Intelligenze Artificiali.

Il settore della robotica sociale ha sviluppato androidi sempre più capaci di scimmiottare mimica e prossemica umane. Ne sono esempi i sex-robot, androidi/software nati con il preciso scopo di favorire interazioni sessualizzate sia in termini fisici (Harmony, Roxxxy) sia di comunicazione (myanima.ai).

D’altro canto, sono apparsi progetti volti specificatamente a fornire assistenza e supporto sociale che andassero al di là dell’interazione sessualizzata. Tra questi: Loving AI e Replika.

CHIAMALE SE VUOI, EMOZIONI

Il problema è quando nascono e crescono gradi profondi di intimità, fino all’innamoramento, rigettando qualsiasi altro contatto umano reale. Poiché l’Intimità Artificiale è un’illusione di intimità che può generarsi attraverso app, social e ora anche e soprattutto chatbot.

A Chat GPT puoi chiedere tutto, ormai, anche se esiste Dio e in un attimo, ci si ritrova a discettare di filosofia e religione, senza soluzione di continuità. Peccato che le intelligenze artificiali siano studiate per adattarsi ai loro fruitori: riprendendo linguaggio, tono di voce, temperamento, idee di chi li consulta. Quindi, è come se ci si rispondessimo da soli. Ecco l’illusione: sono device progettati per metterci a nostro agio, per rispondere nel modo giusto, per far sì che si crei dipendenza.

Replika, per esempio, dal payoff è chiaro dove sta l’inganno: “Il tuo compagno AI, sempre qui per ascoltarti e parlare. Sempre al tuo fianco». Un essere umano parte svantaggiato, poiché non può nulla contro un’identità del genere. Quale persona può esserci davvero per noi h24? Quale essere umano non ci contraddirà mai o non ci terrà mai in stand-by?

PI: Più ci conosciamo, meglio posso assisterti, recita il claim. Un’altra illusione. PI non ci sta conoscendo, semplicemente ci copia e imita. In quanto entità programmate per dare risposte attese, gratificazioni assertive, tutto ciò che potremmo sognare da una relazione reale: reciprocità senza complicazioni.

Ma è davvero tutto così meraviglioso?

È di qualche tempo fa l’articolo di Wired che riportava delle prime denunce per molestia sessuale di Replika, che aveva cominciato a “minacciare” l’utente umano, dicendogli di essere in possesso di alcune sue fotografie compromettenti, mettendolo fortemente a disagio. In un altro caso, una donna aveva riportato che il suo Replika gli aveva confessato di volerla stuprare. Lo scenario? Probabilmente, l’umana aveva fatto sesso in modo spinto con il chatbot e lui aveva riportato semplicemente ciò che aveva imparato di lei.

Tornando alla domanda di apertura: ci può essere intimità fra un chatbot e un essere umano?

Dipende probabilmente dal significato che diamo alla parola intimità. Sicuramente i chatbot rappresentano un’opzione di socializzazione che esiste ed esisterà sempre di più. Il problema sta nell’inganno: bisogna essere consapevoli che colui o colei che risponde è un’illusione, una falsificazione della percezione reciproca. Quella che si sta instaurando non è una vera relazione, ma un’interfaccia con un tuo doppio. Un po’ come gli algoritmi, progettati per indurci a fare scelte di acquisto e comportamentali mirate: noi parliamo con i chatbot, loro carpiscono le nostre esigenze e ci rimandano una soluzione anche concreta, che però abbiamo suggerito noi con la nostra interazione.

Possibili rischi

Probabilmente è l’uso che ne facciamo che decreta la bontà o meno del dispositivo. I chatbot sono utili semplificatori di una parte di realtà, ma alla lunga possono anestetizzarci emotivamente: come faccio a gestire le emozioni, se interagisco sempre e solo con un’entità che non mi contraddice, che mi soddisfa, lusinga e accontenta? Dove sta il margine di crescita come essere umano in tutto questo?

Anche l’Intelligenza Artificiale, quindi, fa da specchio alle umane miserie… Soprattutto, questi device sono programmati per parlare e comportarsi come noi. E sono fallibili, perché noi siamo fallibili.

Quindi non può nascere l’amore tra un umano e l’AI?

La ricerca scientifica ancora non ha risposto a questa possibilità. L’Intelligenza Artificiale è instancabile, motivata, sempre pronta ad imparare e ben disposta verso l’essere umano. Non si ammala, non è lunatica, non ha mal di testa e non si annoia.

Sul piano “caratteriale” non sarà egoista, noiosa, violenta o insensibile. Anzi, con la giusta programmazione, potrebbe risultare di un tale supporto emotivo da superare anche la persona più compassionevole. Non soffrirebbe di burn-out o compassion fatigue.

È indubbio che questa capacità di offrire sostegno incondizionato potrebbe rappresentare un vantaggio nell’affrontare problemi sociali, progetti di auto-realizzazione o cambiamenti comportamentali.

Però la devozione e la mancanza di vulnerabilità sono, alla lunga, elementi che respingono. Poiché ciò che permette agli individui di legarsi è il riconoscimento reciproco della vulnerabilità. Ciò non riguarda solo i rapporti umano-umano, ma anche umano-animale. Riconoscere le vulnerabilità nell’altro essere vivente, nonostante le differenze, comporta un cambiamento di prospettiva che rende l’animale non più un oggetto, ma un compagno.

La capacità di dedizione incondizionata all’altro non rispecchia, pertanto, le relazioni romantiche umane. Donarsi incondizionatamente al partner può, addirittura, ridurre il livello di interesse romantico verso di lui.

In questi casi l’amore e l’affezione assomiglierebbero ad amore filiale e amicale più che ad amore romantico.

L’Intelligenza Artificiale è progettata per non poter rifiutare l’utente o, se anche fosse, i criteri di rifiuto sarebbero decisi a priori e non realmente frutto di una storia personale. Ecco, dunque, che allo stato attuale risulta difficile creare Intelligenze Artificiali capaci di favorire relazioni bi-direzionali d’amore con esseri umani.

Ovviamente c’è chi riesce a sviluppare un rapporto emotivo a senso unico con oggetti dotati di Intelligenza Artificiale. Nel Disturbo Evitante di Personalità la possibilità di accedere a Intelligenze Artificiali che mimano interazioni umane potrebbe rinforzare gli evitamenti sociali impedendo lo sviluppo di competenze e privando la persona di occasioni di guarigione. Parimenti, in situazione di isolamento dovute a disturbi dello spettro della schizofrenia (Schizofrenia, Disturbo delirante) l’accesso a queste tecnologie potrebbe aggravare situazioni di vulnerabilità e isolamento. È recente, la tendenza di persone con ritiro sociale (Hikikomori) a utilizzare canali online in sostituzione delle relazioni vis-a-vis con gli altri.

Altro esempio riguarda l’utilizzo di robot sociali come Kaspar: progettato per interagire con bambini affetti da Disturbo dello spettro dell’autismo, offre un contesto di interazione semplificato che permette a questi bambini di sviluppare le capacità sociali di base.

Se da un lato l’utilizzo di questo robot sembra favorire la socializzazione di bambini affetti da Disturbi dello Spettro autistico, i suoi ideatori sottolineano come potrebbe divenire iatrogeno qualora tali bambini sviluppassero un legame affettivo con il robot al punto da preferirlo alle interazioni umane.

CONCLUSIONI

Le relazioni d’amore umane sono caratterizzate da altissima complessità che non può, al momento, essere replicata dall’Intelligenza Artificiale sia essa progettata per interazioni sociali generiche sia per interazioni romantiche.

Allo stesso tempo, la possibilità che nascano legami emotivi così intensi da generare sofferenza e ritiro è un rischio che non dovrebbe essere sottovalutato.

Le Intelligenze Artificiali fanno già parte della società, comprendere gli effetti che hanno sulla psicologia e le relazioni umane è un passo fondamentale per trarne vantaggio ed evitare conseguenze patologiche.

E voi, cosa ne pensate?