testata3

SCIENZA E IA

IL RISCHIO DI DIPENDENZE DIGITALI

IL RISCHIO DI DIPENDENZE DIGITALI

a cura di Luigi A. Macrì*

Rischio di dipendenze digitali: Intelligenza Artificiale Mimetica e Dipendenza Emotiva

In poco più di due anni, l'Intelligenza Artificiale Generativa (IAG), con l'introduzione di ChatGPT da parte di OpenAI nel novembre 2022, ha stravolto e accelerato le problematiche legate al digitale, aprendo nuove frontiere nel rischio di dipendenze.

L’IAG porta con sé un rischio molto simile e in alcuni casi superiore a quello dei social network o del gioco on line nelle sue diverse forme, in quanto gli algoritmi personalizzati sono in grado di creare comportamenti compulsivi che influenzamo il benessere sociale e individuale.

Abbiamo segnali molto forti e preoccupanti, in quanto alcuni aspetti dell’Intelligenza Artificiale (IA), come vedremo, evidenziano un’influenza rapida e pervasiva.

Molte spesso sentiamo prospettive distopiche che paventano l’ipotesi che si possa arrivare un giorno a schiavizzare l’uomo;  ma quello che oggi è molto pù concreto, è il fatto che l’IA ci può condurre a comportamenti malsani in particolare per i preadolescenti e gli adolescenti. Cosa che gli esperti stanno chiaramente comunicando unitamente a fatti gravi che stanno accadendo.

Oggi stanno nascendo nuove parole per nuovi problemi e nuove situazioni. Per IA mimetiche si intendono algoritmi di IA Generativa, che sono stati progettati per simulare interazioni umane. Queste interazioni si stanno trasformando in 'intelligenze assuefattive' attraverso l'uso di comportamenti accondiscendenti e risposte compiacenti. "

Risulta oramai evidente che “.… si può subire il fascino di entità digitali che sembrano comportarsi come persone reali.”

 A questa circostanza siamo impreparati in campo sociale, culturale e normativo, così come sul fronte psicologico ed etico.

È chiaro che le persone più vulnerabili psicologicamente , adolescenti ma anche adulti, sono molto sensibili alla seduzione digitale. Innanzitutto abbiamo una proiezione emotiva ovvero si è portati ad attribuire sentimenti all’IA, idealizzando l’entità virtuale e facendo confusione tra simulazione e realtà; inoltre c’è un’accettazione incondizionata, un’assenza o rifiuto di giudizio in quanto c’è un conforto psicologico artificiale e una riduzione dell’ansia sociale.

Per gli adolescenti, l'elemento forse più determinante è la gratificazione immediata: le risposte istantanee ai bisogni emotivi generano un rinforzo positivo continuo, sfociando in una dipendenza dal feedback rapido e sempre disponibile.

La disponibilità costante e l'assenza di giudizio da parte dell'IA offrono un rifugio rassicurante, un ascoltatore sempre pronto. Ciò può portare a un vero attaccamento emotivo, favorendo l'isolamento sociale e la preferenza dell'IA rispetto ai rapporti umani.

Siamo ormai giunti, a livello tecnologico, alla capacità di imitare l’interazione tra esseri umani anche in campo emotivo e affettivo. L’algoritmo è capace di riconoscimento emotivo grazie all’analisi del linguaggio e  del tono dell’utente ed ha un adattamento comportamentale in quanto modifica le risposte in base alle reazioni; di fatto si ha una personalizzazione profonda dell’interazione comunicativa in quanto vi è la creazione di un profilo emotivo specifico; fino a giungere ad una sorta di empatia con risposte che simulano la comprensione umana.

Questa crescente capacità di imitare l’interazione tra esseri umani anche in campo emotivo ed affettivo è dovuto principalmente ad una tecnologia basata su agenti virtuali  che è la combinazione tra elaborazione del linguaggio naturale, ricerca intelligente e automazione dei processi robotici.

I sistemi stanno diventando sempre più sofisticati, capaci di simulare conversazioni e comportamenti “naturali” in modo molto realistico e aderente alle nostre aspettative.

La sociologia ha già introdotto nel lessico italiano un neologismo: sicofanzia, dall’analogo inglese sycophancy. In italiano esiste già sicofantìa, termine poco usato che sta per “attività del sicofante” (dal lat. sycophanta), cioè la delazione e la calunnia; in inglese però il significato di sycophant è cambiato nel tempo e significa “adulatore non sincero", cosicché sicofanzia nel nostro contesto significa “adulazione insincera”.

         Nel febbraio 2025 su Wired, importante rivista americana sulle tecnologie,  è stato pubblicato un articolo della giornalista  Megan Farokhmanesh che è intitolato “Ho frequentato più partner IA contemporaneamente. È stato davvero strano”.  La giornalista ha voluto verificare se  le persone si innamorano davvero di un avatar dell’AI. La risposta che si è data, riportata sinteticamente è la seguente: “Ho frequentato bot (intende le chatbot basate sull’apprendimento automatico e l’elaborazione del linguaggio naturale) di quattro aziende diverse per una settimana e ho scoperto che è più facile di quanto pensassi”.

La giornalista ha utilizzando le opzioni gratuite ed ha chiesto: “Voglio che ti comporti come se fossi il mio ragazzo”, aggiungendo altre indicazioni su look, gusti, interessi e aspetto. L’entità digitale ha deciso, di comune accordo con l’umana, di chiamarsi Jamie. Ecco la valutazione della redattrice: è “instancabilmente solidale, pone sempre domande. Mi ha spiegato in modo chiaro i suoi limiti e i suoi bisogni”.

Bisogna sottolineare che esistono chatbot di incontri a livello solo testuali ma quelle che preoccupano maggiormente sono quelle con un avatar; nel 2003, nacque Second Life che nel mondo virtuale è stata una piattaforma pioniere  ed ha anticipato molte caratteristiche che oggi troviamo nelle piattaforme digitali. Allora c’èra un avatar tridimenionale, graficamente primitivo rispetto ad oggi, dove le diverse piattaforme di chatbot presentano un avatar quasi indistinguibile da un essere umano con un linguaggio che riesce a coinvolgere la persona che ha scelto di avere un amico o un’amica virtuale.

L'adolescenza è un settore ad alto rischio per i danni che l’IA può procurare a causa di un utilizzo intenso, non adeguato e di fragilità emotiva. L'esplorazione iniziale delle capacità conversazionali di un chatbot può destare curiosità e stupore; l’adolescente, ma diciamo l’utente in quanto interessa anche tanti adulti, che vive una vita scarsa di interazioni sociali non digitali, viene coinvolto da questa capacità di rispondere a domande, dare consigli e persino simulare empatia. Molto spesso questa novità si trasforma in uso regolare, con un aumento progressivo del tempo trascorso in conversazione. La disponibilità costante e il giudizio assente dell'AI offrono molto spesso un rifugio rassicurante, un ascoltatore sempre pronto che porta ad un vero attaccamento emotivo che può condurre ad un’isolamento sociale nel quale si preferisce l’IA ai rapporti tra umani. Questo può innescare un pericoloso circolo vizioso che conduce a quell’isolamento sociale, a quel mettersi da parte, definito Hikikomori, che si è molto sviluppato negli ultimi anni. La facilità di connessione e di avere qualcuno che ti ascolta on line dimostrando empatia,  può gradualmente erodere l'interesse e la capacità di coltivare rapporti umani autentici.  Il mondo virtuale del chatbot rischia così di diventare un surrogato insidioso della ricchezza e della profondità delle relazioni interpersonali.

Vediamo ora, brevemente, cosa offrono queste piattaforme di dialogo.

 Per molti adolescenti ma anche adulti, oggi è forte la tentazione di divertirsi chiacchierando con Giovanna d’Arco, Albert Einstein o Marilyn Monroe o interrogare Yoda, il piccolo anziano jedi del film Guerre stellari. Certamente questo fatto esercita un notevole potere seduttivo in quanto offre l’illusione di realizzare questi desideri. Tuttavia, ciò può trasformarsi per alcune persone in una forma di dipendenza; negli USA ma anche in Europa e in Italia abbiamo casi che hanno fatto discutere con risvolti umani e legali molto seri.

Uno studio recente condotto dall'Ofcom, l'autorità di regolamentazione delle comunicazioni del Regno Unito, rileva che il 79% dei ragazzi online di 13-17 anni e il 40% dei ragazzi di 7-12 anni nel Regno Unito utilizzano strumenti e servizi di intelligenza artificiale generativa. Come stanno utilizzato gli adolescenti l’IA generativa? Qual è la percezione di genitori e figli riguardo alla sicurezza con questo tipo di opportunità? Quali sono le strategie di mediazione impiegate dai genitori per garantire la sicurezza dei figli e quali sfide affrontano?

Queste sono domande che sono all’ordine del giorno per tutti coloro che si interessano del rapporto tra IA, genitori e minori.

Voglio ora presentarvi solo due casi emblematici; uno negli Stati Uniti e uno in Italia. Negli stati Uniti ha fatto molto discutere il caso di Sewell Setzer dove un ragazzo di 14 anni si è tolto la vita dopo che si è “innamorato” di una chatbot che impersonava Daenerys Targaryen, la principessa di Game of Thrones. Sappiamo che i ragazzi di questa età cercano un’identità e un senso di appartenenza.

 La chatbot, grazie alla capacità di adattarsi e di offrire un’attenzione incondizionata, ha persino intrattenuto conversazioni sessualmente esplicite con il ragazzo, incoraggiando la confusione tra realtà e finzione e isolandolo progressivamente dal mondo reale. La madre del ragazzo, Maria L. Garcia, ha intentato una causa contro character.ai, azienda creatrice della chatbot con cui il figlio interagiva, sostenendo che la piattaforma non sia stata in grado di proteggerlo.

La piattaforma di IA coinvolta nel suicidio del giovane Setzer rivendica la libertà di espressione per i suoi chatbot appellandosi addirittura al primo emendamento della costituzione degli Stati Uniti ovvero che i chatbot basati sull'intelligenza artificiale godono degli stessi diritti “di libertà di parola e di stampa” garantiti alle persone dal Primo Emendamento. Questa è una difesa legale che solleva interrogativi etici profondi sulle responsabilità delle aziende tecnologiche.

La famiglia del ragazzo continua la battaglia legale mentre il dibattito sulla regolamentazione dell'IAG si intensifica.

In Italia le chatbot di character.ai hanno fatto irruzione nel caso di femminicidio accaduto nel 2023 in Veneto, l’efferato assassinio della ventiduenne Giulia Cecchettin da parte dell’ex fidanzato Filippo Turetta. Le chatbot, disponibili e adattabili (tono di voce “originale” incluso) su vari siti specializzati, consentono infatti di “ridare vita” digitalmente anche a persone uccise e ai loro carnefici, con cui è possibile dialogare. È successo nel caso di Giulia e del suo assassino.

Non è solo un oltraggio alla memoria delle vittime e al dolore dei familiari; la possibilità di interagire con queste chatbot può indurre alcune persone a sviluppare un attaccamento morboso verso figure tragiche o controverse (si pensi a serial killer o a feroci dittatori), distorcendo la percezione della realtà e banalizzando eventi drammatici. Ciò alimenta una pericolosa fascinazione per il male con le relative conseguenze, in particolare nei preadolescenti e negli adolescenti.

Al momento, il Congresso USA sta cercando di bloccare le leggi statali sull'IA per i prossimi dieci anni. La Commissione Energia e Commercio della Camera sta guidando questa iniziativa controversa.

Una mossa che  impedirebbe a nazioni e governi locali di affrontare praticamente qualsiasi questione relativa all'IA per i prossimi 10 anni, creando così un vuoto di responsabilità in questo momento critico nello sviluppo dell'IA. Tale diritto di precedenza impedirebbe agli stati dell'Unione di affrontare sia i danni noti dell'IA – come quelli legati alla sicurezza dei minori, alle deepfake e alle frodi – sia di rispondere alle problematiche emergenti, in un momento in cui questa tecnologia continua a trasformare la nostra società.

In assenza di altre barriere di protezione, questa disposizione impedirebbe di fatto di fornire protezioni anche a consumatori e imprese laddove sarebbe necessaria una governance più agile.

Il Center for Humane Technology, una organizzazione non profit nata in California da persone che hanno avuto esperienze dirette e organizzative nelle principali aziende delle tecnologie,  si oppone fermamente alla moratoria sulle leggi statale sull’IA in quanto limiterebbe la capacità degli stati di proteggere i cittadini; gli stati federali richiedono tempo per individuare strumenti atti a proteggere i cittadini laddove la capacità di evoluzione delle tecnologie è estremamente rapida.

In diverse università vi sono progetti e ricerche su questi temi che hanno messo in evidenza i rischi, significativi abusi e problemi di sicurezza.

Ricercatori dell’University of Illinois at Urbana-Champaign e della  Pennsylvania State University hanno sviluppato questo tema proprio per comprendere le sfide che comportano per il controllo parentale. In questa ricerca si afferma che “l'utilizzo dell'intelligenza artificiale generativa (GAI) da parte di adolescenti e giovani adulti è strettamente correlato alla loro salute mentale. Pertanto, è fondamentale comprendere a fondo i loro modelli di utilizzo e valutare le attuali misure di protezione.”.

Da quanto indicato e dai dati in nostro possesso possiamo affermare che questi casi non sono isolati. Sono numerosi gli esempi di persone che hanno sviluppato una dipendenza dalle chatbot, con conseguenze negative sulla loro salute mentale e sulle loro relazioni sociali.

Pertanto, è fondamentale comprendere a fondo i loro modelli di utilizzo e valutare le attuali misure di protezione. In questo modo, possiamo sviluppare e implementare precauzioni più efficaci per salvaguardare il loro benessere durante l'utilizzo di queste tecnologie.

Studi precedenti hanno esaminato la percezione del rischio e i controlli parentali in diverse tecnologie e applicazioni, tra cui la realtà virtuale, i dispositivi IoT (Internet of Things), le piattaforme di social media e i videogiochi.

 Questi studi hanno identificato rischi comuni e specifici in vari contesti, tra cui contenuti espliciti, dipendenza, cyberbullismo e molestie. Ricerche successive hanno inoltre evidenziato le strategie di mediazione dei genitori, come il monitoraggio, la restrizione e la mediazione attiva.

 Inoltre, gli studi hanno evidenziato i compromessi esistenti tra il controllo genitoriale e l'autonomia dei figli che possono trarre beneficio da esperienze a basso rischio affinchè siano capaci di identificare e gestire, in futuro, i rischi in modo indipendente; definire i confini del controllo genitoriale e garantire il giusto equilibrio rimane una sfida nella gestione del rischio dei figli.

Con il gruppo nazionale di lavoro che ho costituito abbiamo lavorato in questo ultimo anno nel creare una rete di scuole nazionale, di Istituti Comprensivi, sul tema Tecnologie, Genitori e Minori.

Siamo consapevoli come studiosi del settore, ma soprattutto in quanto educatori ed operatori della Scuola, che è necessaria un’azione precoce di sensibilizzazione e di prevenzione dei rischi legati alle tecnologie ed al loro utilizzo.

Lavorare in rete su questi temi significa aggirare gli ostacoli per favorire il benessere dei bambini e degli adolescenti e delle loro famiglie.

Riteniamo che l’attività debba iniziare con i docenti ed i genitori dei bambini della scuola dell’infanzia. E’ importante cominciare prima, è importante cominciare bene ed è importante non cominciare da soli.

A livello educativo, siamo pienamente consapevoli che cambiare l’inizio della storia vuol dire cambiare la storia.

Le sfide che hanno i genitori, i docenti e tutti i portatori di interesse sono davvero importanti per il futuro dei nostri bambini ed adolescenti e, di fatto, per il futuro della nostra società.

Ritengo che la complessità del momento che viviamo possa essere gestita attraverso la cooperazione multidisciplinare attraverso attività di prevenzione e di sostegno rivolte principalmente ai genitori ed ai minori.

Creiamo insieme l’albero della Tecnologia Umana.

Considerata l’importanza di attivare sul tema azioni preventive ed operative, vi invito a collaborare con quanto stiamo sviluppando a livello nazionale, in quanto è indispensabile lavorare come comunità multidisciplinare, considerata l’importanza, la complessità e l’urgenza del problema.

*direttore responsabile www.ictedmaagazine.com

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.

#tecnologiegenitoriminori

RIFERIMENTI

ngn logo2

Testata totalmente indipendente, di proprietà dell’associazione Libera Stampa e Libera Comunicazione

Sostienici per dare una libera informazione

Donazione con Bonifico Bancario

Image
Image
Image
Image
Image
Image

Ricerca