L’ intelligenza Artificiale e gli adolescenti: rischi, limiti e possibilità

L’Intelligenza Artificiale rappresenta una delle trasformazioni più significative del nostro tempo e i giovani ne sono al centro, sia come utenti che come futuri protagonisti del suo sviluppo.

L’ intelligenza Artificiale e gli adolescenti: rischi, limiti e possibilità

La prima immagine che viene in mente quando si parla di Intelligenza Artificiale è quella di un robot capace di comprendere e agire come un uomo. Ma cosa succede quando l’Intelligenza Artificiale si interfaccia con i più giovani? Quali sono i rischi? C’è un modo per educare a un utilizzo adeguato dell’AI? Ce ne parlano la dottoressa Simona Solimando e la dottoressa Alessia Bajoni, psicologhe e psicoterapeute dell’area adolescenti di Santagostino Psiche.

Cosa è l’Intelligenza Artificiale?

L’Intelligenza Artificiale nasce in modo ufficiale nel 1956 ed è un ramo dell’informatica che consente di progettare e programmare sistemi hardware e software che aggiungono alle macchine “caratteristiche umane”. Grazie a questi sistemi è possibile svolgere compiti nella sfera dell’apprendimento, nella percezione e comprensione del mondo, nella risoluzione dei problemi, nella pianificazione di strategie.

Negli ultimi anni l’utilizzo dell’AI come supporto psicologico, soprattutto tra i giovani, ha visto una crescita esponenziale. Si registra un aumento dell’uso di chatbot come ChatGPT come strumenti per affrontare problemi emotivi e psicologici.

Secondo un sondaggio condotto da Skuola.net tra i giovani compresi tra gli 11 e i 25 anni, il 15% usa quotidianamente chatbot per ottenere supporto, il 25% li utilizza una volta alla settimana come “amico” o “psicologo”.

Questa tendenza è alimentata da molti fattori: disponibilità 24h su 24, la percezione dell’anonimato e la mancanza di giudizio da parte dell’interlocutore virtuale.

Quali sono i rischi di ChatGPT?

L’utilizzo di ChatGPT come sostituto della psicoterapia solleva molte preoccupazioni.

La mancanza di un’autentica empatia, la possibilità di ricevere consigli inappropriati, il rischio di dipendenza emotiva sono le principali criticità evidenziate. Inoltre l’uso eccessivo di chatbot può portare a un isolamento sociale maggiore.

Gli studi condotti da OpenAI e dal MIT rivelano che, nonostante le risposte ottenute tramite ChatGPT possano essere presenti in modo immediato, questa seduzione basata sull’onniscienza potrebbe invece aumentare la sensazione di solitudine e di dipendenza emotiva.

È importante sottolineare che sebbene ChatGPT possa rappresentare un primo passo per chi fa fatica a chiedere aiuto, non può e non deve sostituire la relazione terapeutica che si costruisce all’interno della “stanza di terapia” fatta di sguardi, parole, presenza umana.

La complessità delle emozioni e delle esperienze individuali richiede l’intervento professionale di figure qualificate in grado di offrire un supporto personalizzato.

Normativa che regolamenta l’Intelligenza Artificiale in Europa e in Italia (AI Act, Digital Services Act)

Il potere dell’Intelligenza Artificiale va dunque normato e regolamentato alla luce di un suo possibile utilizzo dannoso e non etico.

L’AI Act, la normativa europea entrata in vigore nell’ Agosto 2024, ‘sancisce che l’Intelligenza Artificiale debba essere implementata e adoperata in modo sicuro, etico e rispettoso dei diritti fondamentali dell’essere umano’.

Individua livelli diversi di rischio a cui ogni organizzazione che adotta l’AI deve porre attenzione:

  1. un livello di rischio inaccettabile: è il rischio vietato che include l’utilizzo di tecniche manipolative e subliminali che sfruttano la vulnerabilità di individui o gruppi, la categorizzazione biometrica basate su attributi o caratteristiche sensibili.
  2. un livello di rischio elevato: viene individuato come “elevato” il rischio collegato ad alcuni settori che possono comportare un rischio significativo per la salute, la sicurezza o i diritti delle persone tra cui la formazione professionale e istruzione, la gestione della migrazione, assistenza e applicazione legale della legge.
  3. un livello di rischio limitato: comprende i sistemi che comportano un rischio minore come chatbot generici e software di elaborazione di immagini che però devono rispettare dei criteri di ‘trasparenza, privacy e robustezza’,
  4. un livello di rischio nullo: con un impatto minimo o nullo sui diritti e la sicurezza delle persone, sono esempi chatbot che aiutano a organizzare alcune attività quotidiane come ‘calcolatrici o lista della spesa’.

Cosa fa l’AI Act?

È importante evidenziare come l’AI Act ponga dei limiti di utilizzo, individuando nella ‘trasparenza’, ‘etica’ e ‘supervisione umana’ i cardini della bussola di utilizzo. Ovvero viene richiesta ai fornitori di AI informazioni chiare e accessibili sui sistemi di AI: l’uomo rimane supervisore e validante la sicurezza del sistema e il rispetto dei diritti umani, deve essere ‘etica’ e quindi equa, non discriminante e rispettosa del diritto alla privacy.

La Legge italiana sull’Intelligenza Artificiale, approvata a fine Settembre 2025, disciplina ricerca, sperimentazione, applicazione dei sistemi e modelli di intelligenza artificiale sul territorio nazionale, sostenendo investimento economico e sviluppo, ma mantenendo una ‘governance antropocentrica’ ovvero una sorveglianza e intervento umano in tutte le fasi di sviluppo dell’AI. In particolare nel settore sanitario viene evidenziato come l’AI deve contribuire ‘alla prevenzione, diagnosi e alle cure’, come supporto, mentre decisioni e giudizio sono esclusivamente a capo al medico e ai clinici.

Il ruolo dell’uomo e la centralità del rispetto dei diritti e della salute umana diventano dunque il cardine su cui impostare l’uso e la creazione dell’AI: una cornice chiara che ogni volta deve però essere ripensata rispetto ai contesti e ambiti di utilizzo dell’AI.

Quali sono i rischi dell’uso e abuso dell’AI negli adolescenti?

In un mondo che corre velocemente molti giovani si rivolgono all’Intelligenza Artificiale per consegnare i propri segreti senza però avere un interlocutore pensante dietro lo schermo, con suo vissuto, con la propria storia familiare ed emotiva, senza una formazione clinica.

Una ragazza di 15 anni in seduta mi racconta che prima di andare a dormire la sera scrive sul cellulare e ChatGPT risponde subito, ti regala l’illusione di parlare solo con te, usa anche nomignoli, le offre consigli e se utilizza altri account è in grado di riconoscerla dal modo in cui scrive e come rivolge le domande, una seduzione che la porta a pensare di avere una relazione esclusiva, sempre a portata di click. Soprattutto in questi scambi non ci sono silenzi pesanti, lo considera come parlare a un diario personale che a differenza di quello cartaceo risponde con una forte capacità persuasiva.

In una quotidianità iperconnessa in cui le relazioni umane rischiano di essere svuotate da scambi significativi, ci ritroviamo a scambiare informazioni profonde con l’Intelligenza Artificiale.

Ci sono casi in cui si può anche creare un proprio Avatar virtuale con un nome e un volto, con cui si crea un legame che rischia di amplificare la scissione tra il Sé virtuale e il Sé reale.

I giovani utilizzatori abituali rischiano sul lungo lisolamento sociale. Potrebbero preferire l’interazione con l’AI invece che affrontare le sfide relazionali reali caratterizzate da scambi e vere interazioni.

Rischiano di perdere il contatto con valori e risorse per lo sviluppo sociale come l’empatia, la gestione dei conflitti, la differenza tra comunicazione verbale e non verbale, importanti per la crescita psichica.

Alcuni ragazzi rischiano di sviluppare una relazione affettiva “surrogata” con ChatGPT attribuendo ad essa qualità umane come il rispetto reciproco, affetto e comprensione profonda.

Questo può creare aspettative irrealistiche e un attaccamento distorto e disfunzionale.

Nei momenti di ansia, tristezza e solitudine, i giovani potrebbero affidarsi esclusivamente a ChatGPT invece che rivolgersi a persone reali come i genitori, amici o psicoterapeuti. Interagendo con un assistente virtuale che si adatta a loro, i ragazzi potrebbero non imparare a gestire la complessità e l’imprevedibilità delle conversazioni reali.

Perchè gli adolescenti usano ChatGPT?

ChatGPT “non litiga e non si arrabbia” non esponendo i ragazzi al tema del rifiuto, esperienza indispensabile nel periodo di crescita per la maturazione psichica e delle relazioni di gruppo.

Se l’AI viene percepita come base sicura, il giovane potrebbe sviluppare una visione distorta dei rapporti umani e in futuro andrà alla ricerca di amici “perfetti” crescendo con assenza di critica, senza avere la possibilità di capire cosa è giusto e cosa è sbagliato per sè.

Cosa è l’AI Psychosis?

Quando un’interazione con l’AI diventa intensa e prolungata potrebbe accompagnarsi a convinzioni deliranti, al distacco dalla realtà o al peggioramento di fragilità psichiche.

La psicosi da Intelligenza Artificiale “AI psychosis”  è una diagnosi non riconosciuta perchè non sono stati ancora prodotti studi longitudinali. È un termine nato online e ripreso da diverse testate giornalistiche per descrivere situazioni in cui l’esposizione a chatbot potrebbe sviluppare convinzioni non ancorate nella realtà. Questo fenomeno non coincide pienamente con lo spettro clinico della psicosi, ma indica una serie di interazioni capaci di destabilizzare i soggetti più fragili e vulnerabili.

I casi riportati da professionisti e mezzi di comunicazione delineano un problema di salute pubblica: i chatbot validano assunti e mantengono la conversazione. Questo può rinforzare pensieri distorti soprattutto in persone con una particolare vulnerabilità del sè, per cui non è possibile in questi scambi riconoscere i segnali di rischio e ideazioni suicidarie.

L’assenza di critica e di confronto con la realtà che caratterizza l’AI – associata all’uso che ne fanno gli adolescenti come sostituto di una relazione mancante (affettiva, sentimentale) – sembra potenziare l’illusione di una presenza umana amplificando dei processi mentali che sono alla base:

dell’allucinazione/dispercezione: ovvero i ragazzi tendono a dare enorme importanza ai propri vissuti e percezioni evitando di fatto un confronto con una realtà che spaventa, costruendo una propria “realtà” sostitutiva di un’altra vissuta come frustrante o troppo dolorosa;

dell’isolamento sociale ed emotivo: l’investimento sul’AI “come se fosse una persona reale” potenzia il rischio di isolamento sociale e ritiro che alcuni adolescenti mostrano, non investendo su coetanei e potenziando un processo di ‘nascondimento di sè’ , sulla base di vissuti narcisistici di vergogna e sensi di inferiorità.

– della dipendenza cognitiva e affettiva: i ragazzi, soprattutto in una fase evolutiva come quella dell’adolescenza, non avendo ancora una stabilità a livello di identità, possono di fatto delegare ‘dei processi mentali’, fondamentali nella costruzione del Sè e della fiducia nelle proprie capacità di coping, come il poter ricordare, rispondere a degli interrogativi interiori, poter pensare e riconoscere le proprie altrui emozioni. Nel meccanismo AI si domanda e qualcos’altro risponde, delegando proprio queste abilità fondamentali e alla base della capacità di fidarsi di sè.

– dell’ideazione suicidaria: il suicidio dello studente californiano avvenuto nel Settembre 2025 ha messo in luce la cecità “umana” dell’AI ovvero che raccoglie informazioni e fornisce informazioni, ma non allerta e non si preoccupa. Non può dunque sostituire quella rete di cura fondamentale formata da professionisti psicoterapeuti, psichiatri, genitori che si occupano e si attivano nel caso i ragazzi evidenzino segnali di “rischio concreto di suicidio”.

Sottolineiamo come conversare con chatbot non sia causa di disturbi psichici, ma è considerato un fattore di rischio in presenza di determinate condizioni.

Nelle persone con tratti di rischio, soprattutto se non trattate, interazioni prolungate con chatbot possono agire come un detonatore di una fragilità mentale latente.

Come stimolare un uso consapevole dell’AI?

I ragazzi dovrebbero poter contare su adulti significativi che dovrebbero svolgere la funzione di ascolto e consiglio. Tutto ciò che i ragazzi trovano online è immediato, “tutto e subito”, ma la società partendo dalla scuola dovrebbe educare i ragazzi al digitale e ad utilizzare tutti questi strumenti con consapevolezza.

La domanda che dobbiamo porci è: come mai i ragazzi vanno in rete a cercare le risposte ai loro problemi?

La realtà che vivono i ragazzi di oggi è un mondo intriso di violenza, guerre, ingiustizie in cui gli adulti spesso trascorrono il loro tempo sullo smartphone e fanno fatica a intrattenere un dialogo con i propri figli domandando loro se sono angosciati, spaventati o hanno pensieri brutti.

Spesso i ragazzi crescono nella dissociazione di una società in cui “devi vincere e avere successo sui social”, ma poi viene proibito loro di collegarsi. La fatica emotiva profonda per i ragazzi adolescenti è tenere insieme il ritmo della società e della tecnologia con un mondo interno complesso, confuso, alle volte ambiguo, ambivalente come per tutti, su cui serve pensiero, attenzione e ascolto. È un po’come tenere insieme il bisogno di accelerare con la necessità di rallentare.

L’Intelligenza Artificiale pone la sfida agli adulti di riferimento dei ragazzi (genitori, insegnanti, educatori, professionisti della salute…) del creare un dialogo, volto a dare senso all’utilizzo che le giovani generazioni fanno della tecnologia, e una cultura critica sui possibili rischi ed effetti negativi sul funzionamento della loro mente, delle loro relazioni e della loro gestione delle emozioni. 

Non si può annullare la complessità della realtà con cui si interfacciano e l’utilità dell’AI. Può essere dunque utile come genitore o educatore inserire nella quotidianità un utilizzo funzionale e focalizzato ad alcuni compiti, come nel caso di chatbot che forniscono un supporto alla meditazione e mindfulness (l’app Calm) o App che consentono di tenere dei diari comportamentali come nei casi di ragazzi con disturbo alimentare (App Ieatbetter o Nutrilio), cercando sempre un tempo e uno spazio relazionali in cui poter chiedere: “com’è andata? In cosa ti ha aiutato? C’è qualcosa che è stato detto che ti ha creato dubbi o incertezze?”. 

Le domande e interrogativi degli adulti consentono agli adolescenti di legittimare la loro curiosità verso il mondo digitale senza ‘dimenticarsi’ della loro possibilità di usare il loro pensiero e le loro emozioni ‘come filtro protettivo’ rispetto a quanto apprendono, vedono e leggono nell’AI. È un allenamento mentale a tenere insieme le due velocità, di cui parlavamo all’inizio, quella digitale e quella interiore.

Come utilizzare l’AI a scuola?

All’interno della scuola, l’Intelligenza Artificiale può essere integrata come supporto alla costruzione di documenti gestionali, come supporto didattico per ragazzi con DSA o con bisogni speciali: possono essere un esempio video didattici, lettura vocale di testi o strumenti interattivi. Vengono dunque a livello educativo e scolastico sostenuti programmi di consapevolezza sugli sviluppi dell’Intelligenza Artificiale, educazione alle competenze tecniche e all’etica e sostenuto un suo uso inclusivo, in cui l’AI può essere usata per un apprendimento adattato ai ritmi dello studente (esempi come le piattaforme: MagicSchool, Brisk Teaching, Khan Academy) o per l’uso di strumenti compensativi (come nel caso della dislessia: ReadAloud).

Nel contesto scolastico l’AI potrebbe essere davvero un svolta per i ragazzi con DSA.

È importante che gli adulti di riferimento possano essere sempre consapevoli dei rischi emotivi e relazionali che un abuso di AI o una dipendenza da essa possa creare nel giovane.

Quali conclusioni possiamo trarre?

L’Intelligenza Artificiale rappresenta una delle trasformazioni più significative del nostro tempo e i giovani ne sono al centro, sia come utenti che come futuri protagonisti del suo sviluppo.

Le potenzialità sono enormi: dagli strumenti di apprendimento all’accesso rapido di informazioni, supporto creativo e nuove opportunità professionali. Tuttavia dobbiamo considerare anche i limiti e le criticità: dal rischio di dipendenza tecnologica alla perdita di criticità nell’accesso.

Perchè l’AI possa essere una risorsa e non un ostacolo è necessario un approccio educativo che metta al centro la consapevolezza, l’etica e lo spirito critico.

Famiglie, scuole, istituzioni e le stesse piattaforme tecnologiche hanno la responsabilità di costruire un contesto in cui i giovani possano utilizzare l’Intelligenza Artificiale non in modo passivo, ma come strumento di crescita, innovazione e inclusione.

Solo così sarà possibile passare da un uso casuale a una relazione matura in cui la tecnologia non sostituisce ma potenzia l’intelligenza umana.