SIAMO SICURI che l’IA SEMPLIFICHI la VITA? Le mie BATTAGLIE PERSE con ALEXA
Adoro la tecnologia che mi semplifica la vita.
Anelo all’auto elettrica, annoiandomi alla guida e avendo un senso dell’orientamento deficitario anche con il navigatore in funzione… al robot che fa la spesa, pulisce casa e se possibile cucina… e poi c’è Alexa, che da qualche settimana è refrattaria alle mie richieste. Si rifiuta di accendere alcune stazioni radio italiane (RDS per citarne una) a vantaggio della BBC che, seppure sento spesso per allenare il mio inglese, non dovrebbe avere il monopolio. Alexa è stata acquistata per aiutarmi laddove glielo permetto. Anche se la sua fissazione o testardaggine a farmi sentire ciò che piace a lei è tutt’altro che persuasiva.
Qual è dunque la vera utilità degli assistenti vocali?
I ricercatori dell’Università di Sidney hanno scoperto che i messaggi che arrivano da dispositivi di Intelligenza Artificiale (IA) sono più persuasivi quando evidenziano come dovrebbe essere eseguita un’azione, piuttosto che perché[1].
Ad esempio, siamo più disposti a mettere la protezione solare quando un dispositivo di IA spiega come applicare la crema, piuttosto che perché. Tendenzialmente non crediamo che una macchina possa comprendere le necessità e soddisfare i nostri desideri.
La ricerca suggerisce che le persone trovano i consigli dell’IA più persuasivi in situazioni in cui questa mostra semplici passaggi su come preparare una spremuta o scegliere la racchetta da tennis giusta, piuttosto che il perché tale scelta sia importante o necessaria.
L’intelligenza artificiale ha il libero arbitrio?
La maggior parte di noi crede di avere il libero arbitrio. Ci complimentiamo con chi aiuta gli altri perché pensiamo che lo faccia liberamente e penalizziamo coloro che danneggiano o ignorano gli altri. Siamo disposti a ridurre la pena se il reo è stato privato del libero arbitrio, ad esempio se in preda a un delirio schizofrenico.
Ma cosa pensiamo del libero arbitrio rispetto l’‘IA?
In un esperimento sono stati dati a una persona $ 100 a cui si è chiesto di regalarne una parte, a piacimento, a un’altra persona. L’unica condizione è che il ricevente accetti quanto gli viene donato o entrambi otterranno niente.
Quando la prima persona tiene per sè 80$ e ne regala 20, il ricevente tende a rifiutare l’offerta. Benchè razionalmente $ 20 sia meglio di niente, le ricerche suggeriscono che è probabile che l’offerta di $ 20 venga rifiutata perché percepita come ingiusta. Ci si aspetta di ricevere almeno la metà, ossia 50 dollari. O ci sentiamo svalutati[2].
Cosa succede se il proponente anziché un essere umano è un’IA?
Il rifiuto si riduce in modo significativo: è più probabile che le persone accettino l’offerta “sleale” di soli 20 dollari.
Questo perché non pensiamo che l’IA abbia l’intento dannoso di sfruttarci o svalutarci: è solo un algoritmo, non ha il libero arbitrio, quindi possiamo accettare soli 20 dollari.
Il fatto che le persone possano accettare offerte sleali dall’AI preoccupa perché significa che questo fenomeno potrebbe essere usato in modo dannoso e manipolativo. Ad esempio, un’azienda potrebbe manipolare i lavoratori affinché accettino salari ingiusti dicendo che è stata una decisione presa da un computer. Per proteggere i consumatori, occorre capire quando, dove e quanto le persone sono vulnerabili alla manipolazione da parte dell’IA.
Siamo sorprendentemente disposti a divulgare informazioni all’AI
In alcuni lavori in via di pubblicazione, i ricercatori hanno scoperto che le persone tendono a divulgare informazioni personali ed esperienze imbarazzanti più volentieri all’intelligenza artificiale che a un essere umano.
E’ stato detto ai partecipanti di immaginare di essere dal medico per un’infezione del tratto urinario. I partecipanti sono stati divisi in due gruppi, quindi metà ha parlato con un medico in carne ed ossa e metà con un medico di IA. I partecipanti sono stati informati che il dottore avrebbe fatto alcune domande per trovare il miglior trattamento e più si rispondeva più questo avrebbe aiutato il medico.
I partecipanti hanno rivelato più informazioni personali all’AI, riguardo a domande potenzialmente imbarazzanti sull’uso di giocattoli sessuali, preservativi o altre attività sessuali. Questo perché siamo portati a pensare che l’IA non giudichi, mentre gli umani sì.
Parlare con un sistema di intelligenza artificiale ci fa sentire più al sicuro e meno giudicati, nonostante molte persone temano per la loro privacy.
Se l’intelligenza artificiale avesse il libero arbitrio?
Dare all’IA caratteristiche umane o un nome umano, induce a credere che l’IA abbia il libero arbitrio[3]. Con tutte le implicazioni del caso:
- L’’IA si fa così più persuasiva non solo quando dice come fare le cose, ma anche quando spiega il perché, poiché vedendola a noi simile, pensiamo sia in grado di comprendere obiettivi e motivazioni umane
- Offerte e condizioni sleali (per esempio i 20 dollari dell’esperimento sopra citato) hanno meno probabilità di essere accettate se l’IA ha un aspetto umano che la accomuna all’uomo
- Iniziamo a sentirci giudicati dall’intelligenza artificiale e in imbarazzo e tendiamo a rivelare meno informazioni personali
- Ci sentiamo in colpa quando danneggiamo un’IA dall’aspetto umano, e quindi tendiamo ad agire in modo più benigno nei suoi confronti
In futuro con il progredire dell’IA, quando diverranno utili in cucina, a servire, a vendere, a prendersi cura dei pazienti in ospedale e persino a sedersi a un tavolo da pranzo come un partner normale, sarà importante capire come influenza le nostre decisioni per proteggerci là dove e quando serva[4].
Intanto Alexa ha deciso di farmi sentire una stazione radio irlandese…
Fonti
[1] Kim TW, Duhachek A., Artificial Intelligence and Persuasion: A Construal-Level Account. Psychological Science. 2020;31(4):363-380.
[2] Henrich J., Boyd R, Bowles S., Camerer C.F., Foundations of humans sociality: economic experiments and ethnographic evidence from fifteen small-scale societies, 2006, Oxford University Press
[3] http://abotdatabase.info/
[4] Danaher J., McArthur N., Robot sex: social and ethical implications, The Mit Press, 2017