Il 52% dei testi che leggi online è generato da intelligenza artificiale (e si vede)

| |

Author Details
Dott.ssa in biologia e psicologia. Esperta in genetica del comportamento e neurobiologia. Scrittrice e founder di Psicoadvisor

Aprile 2025. Blog e voci autorevoli del settore hi-tech annunciano il lancio di un codice di tracciamento capace di certificare — senza eccezioni — se un testo sia stato creato da ChatGPT. I guru della tecnologia spiegano che si tratta di un codice che agisce come un “watermark”, rimanendo attivo nel testo anche se non visibile. Insomma, un marchio rintracciabile che ne testimonia l’origine anche durante tutte le fasi di copia e incolla. Nello stesso mese, aziende di sviluppo software propongono risorse gratuite atte a rimuovere quel presunto “marchio”. In realtà era tutta una bufala, ma è durata abbastanza da mandare in paranoia chiunque utilizzasse ChatGPT per lavoro, incollandone i testi nel corpo dell’email, nei pdf e nei documenti di testo.

Anche se la storia del “codice identificativo di ChatGPT” si è rivelata falsa, oggi esistono diversi strumenti — i più efficaci disponibili in abbonamento — capaci di valutare la probabilità che un testo sia stato scritto da un’intelligenza artificiale o da un essere umano, stimandone la percentuale di contributo. Alcuni testi raggiungono match del 100%. L’uso di queste risorse può essere utile per un editore come Psicoadvisor che vuole sincerarsi della provenienza di un pezzo prima di pubblicarlo. Tutti gli articoli pubblicati su Psicoadvisor, infatti, sono scritti da umani, psicologi o psicoterapeuti. Devo ammettere, poi, che mi diverto a usare queste risorse per “sgamare” pseudointellettualoidi che esaltano la propria originalità e poi si fanno fare i testi e le bibliografie proprio da ChatGPT.

Ma dov’è il problema? Le intelligenze artificiali sono strumenti utili: velocizzano il lavoro, offrono spunti creativi, permettono di superare i blocchi e ampliare le prospettive. Sono, in molti casi, ottime alleate. E allora perché nasconderne l’uso?

Quando l’IA diventa make-up per pseudo-intellettuali

La questione non è più solo tecnica, ma etica. Non riguarda ciò che l’IA fa, ma ciò che rappresenta quando viene impiegata. Dichiarare o meno l’uso di un assistente artificiale tocca il tema della trasparenza, della fiducia e, in fondo, dell’autenticità. La differenza non sta tanto nel risultato, quanto nell’onestà del processo. Nascondere l’intervento dell’IA può significare voler mantenere intatta un’aura di originalità o competenza “umana”, come se ammettere un aiuto tecnologico ridimensionasse il valore del proprio lavoro. Allora lo fa? Lo ridimensiona? Altrimenti perché nasconderlo?

È legittimo chiedersi: se scrivere con l’aiuto di un’intelligenza artificiale è ancora percepito come un disvalore — come sembrano ammettere coloro che ne negano l’uso — che cosa stiamo davvero imparando? Non a usare in modo consapevole la tecnologia, ma a ingannare chi ci sta intorno.

L’etica dell’apparenza sopra ogni cosa

Stiamo costruendo un’etica dell’apparenza, in cui l’importante non è più comunicare chi siamo, attraverso parole che nascono dall’esperienza, dall’immaginazione o anche solo da quella scarica elettrica di pensieri che attraversa i nostri neuroni. No. Oggi non conta più essere, ma esserci. Non contano più la sostanza, la voce, la profondità — ma la visibilità, la superficie, la posa. Quanti paroloni nuovi ti so dire. Ogni giorno ne butto fuori uno, più altisonante del precedente… Ancora una volta, ricorriamo all’abuso di linguaggio “intellettualizzato” per mascherarci.

L’abuso del linguaggio “intellettualizzato” e di IA

Usare parole “difficili” è un modo per segnalare competenza, intelligenza e appartenenza quando ci sono forti crepe. È una strategia per mettere un gradino tra me e te, dove io… grazie alla mia presunta levatura intellettuale, occupo il grado superiore.  Serve a marcare una distanza dagli altri, a sentirsi “più”.  In termini psicologici, è una forma di autoaffermazione narcisistica: “se parlo in modo complicato, allora valgo di più”.

Molti ricorrono al linguaggio artificioso perché temono che un linguaggio semplice possa apparire banale o poco “professionale”. È una maschera linguistica: si teme che la semplicità equivalga a superficialità, e quindi si costruisce una corazza di parole complesse per proteggersi dal giudizio. È il classico paradosso dell’insicurezza che si traveste da sicurezza! Anche fin troppo scontato. È un comportamento gregario e conformista, più sociale che linguistico: serve a essere accettati e a evitare l’esclusione quando la si teme perché intimamente ci si percepisce “meno”.

In psicologia cognitiva, si parla di inflazione semantica: le parole diventano simboli vuoti, formule ripetute, che danno l’illusione del contenuto ma ne riducono la sostanza. Si parla tanto per sottolineare l’ovvio — e questo, purtroppo, riduce la profondità del pensiero. L’abuso di linguaggio “intellettualizzato” è coerente con la logica dei social in cui lo scopo è costruire un’immagine di sé brillante, sofisticata, “da esperto”. Le intelligenze artificali, dunque, sono la versione linguistica dei filtri beuty di Instagram: servono a migliorare la percezione, non la realtà.

E allora la domanda diventa inevitabile: vogliamo davvero un futuro in cui la trasparenza valga meno dell’apparenza? Un mondo in cui la creatività non si misura sull’autenticità, ma sulla capacità di fingere — di sembrare veri, anche quando non lo siamo più? Francamente, apprezzo molto più chi ammette apertamente di usare l’IA di chi finge. Di chi vuole elevarsi al top del suo settore solo perché un’intelligenza artificiale gli ha suggerito qualche parola da dire! Diamo un’occhiata ai dati aggiornati.

  • Uno studio dell’agenzia SEO Graphite ha rilevato che circa il 52% degli articoli nuovi online sono prodotti da IA (cioè almeno metà dei contenuti!).
  • Un’indagine fatta da Ahrefs su 900.000 nuove pagine web individuate in aprile 2025 mostra che il 74,2% conteneva qualche parte generata da IA.

Gli errori di ChatGPT

Ripeto. Questo non è un dibattito sull’utilità dell’IA ma sull’etica che ci stiamo costruendo intorno. Personalmente utilizzo tantissimo diversi tipi di IA. Soprattutto per l’organizzazione di dataset in fogli ecxel, per l’analisi dei dati e la gestione degli outcome di software statistici come SPSS. Ma non affiderei mai a un’intelligenza generativa la stesura di un mio articolo, ne’ di una frase. Mi metterebbe in cattiva luce. La mia mente è di certo più sveglia. ChatGPT, per esempio, ha tanti limiti. Il primo è anche il più pericoloso. Ti dà l’illusione della conoscenza.

Faccio un esempio. Chiedo a ChatGPT di segnalarmi qual è la migliore acqua in bottiglia di vetro. Di elencarmi le analisi effettuate. E l’IA mi segnala una marca come alcalinizzante. Tuttavia, non aveva un profilo chimico particolare e il suo pH era inferiore a 7. Gli faccio notare la cosa e il suo feedback è: «ho usato il termine alcalinizzante in modo improprio». A voi sembra forse un’inerzia ma non lo è. Io ho potuto notare l’incongruenza tra il profilo chimico e le caratteristiche elencate, ma chi non ne aveva la facoltà? Inoltre, questo esempio, è la dimostrazione pratica che i modelli generativi possono confondere linguaggio persuasivo con verità fattuale. Insomma: anche loro hanno imparato che l’apparenza vale più della sostanza. Che una falsità convincente possa essere megliore della verità.

Quindi il rischio non è tecnico soltanto, è culturale e politico: delegare giudizi, dati e credenze a strumenti che possono fabbricare coerenze plausibili ma false, alimenta disinformazione, mina la fiducia e normalizza la superficiale apparenza di competenza.   Se la maggior parte delle persone non ha la conoscenza per distinguere un’affermazione corretta da una plausibile ma errata, allora l’IA non sta amplificando la capacità umana: sta aumentando esponenzialmente gli inganni.

Che fare? Servirebbero tre cose immediate e non negoziabili.

  • Responsabilità e trasparenza — Chi pubblica o condivide un testo generato con IA dovrebbe dichiararlo. Non è un vezzo: è un principio di onestà intellettuale.

  • Controllo umano qualificato — Le risposte che implicano dati tecnici, valutazioni scientifiche o consigli pratici devono essere verificate da persone competenti prima della diffusione pubblica. L’IA può essere un input da esplorare, verificare, ma mai la fonte ultima.

  • Alfabetizzazione critica — Educare chi usa questi strumenti a verificarne le affermazioni (controllo delle fonti, confronto con dati primari…) insomma, senso critico elementare!

Il vero cambiamento non nasce da chi vuole vincere schiacciando gli altri, ma da chi, silenziosamente, ha il coraggio di riconsegnarsi alla propria umanità, anche quando il mondo sembra volerla soffocare.

La cura? Sottrarsi alla corsa collettiva verso l’apparenza

Con i contenuti che diffondiamo, i like che lasciamo, rischiamo di costruire un mondo dove il valore non si misura più con la verità, ma dalla capacità di far sembrare vero qualcosa che illude e stupisce. Eppure, la via d’uscita esiste.

Sta nel recuperare la nostra interezza, nel tornare ad abitare quel luogo interiore da cui nasce ogni pensiero autentico. Sta nel prendersi cura di sé, nel sottrarsi alla corsa collettiva verso l’apparenza, nel ritrovare la propria voce invece di rincorrere l’eco degli altri: sui social, nelle relazioni e in qualsiasi contesto!

Come ti spiego nel mio libro «lascia che la felicità accada» è lì — dentro — che si trova la forza per chiamarsi fuori dal gregge, per non confondere il rumore con la profondità, per tornare a creare vicinanza e non agganci a senso unico. Per mettere in salvo se stessi (e chi amiamo) mentre tutti corrono impazziti verso l’ostentazione. «Lascia che la felicità accada»Lezioni di educazione emotiva per vivere e viversi meglio. Lo trovi in preordine a questa pagina amazon e dal 28 ottobre in tutte le librerie d’Italia. Non parla di intelligenza artificiale ma della forma d’intelligenza più autentica e raffinata di cui dovremmo disporre noi umani, quella emotiva e cognitiva. Anche se hai già letto molti libri di psicologia, fidati, sarà un bel salto nel vuoto!

Autore: Anna De Simone, psicologo esperto in psicobiologia
Se ti è piaciuto questo articolo puoi seguirmi su Instagram:  @annadesimonepsi
Seguire le pagine ufficiali di Psicoadvisor su Facebook: sulla fb.com/Psicoadvisor e su Instagram @Psicoadvisor