giovedì 30 ottobre 2025

Capire l'Intelligenza Artificiale Generativa. Paolo Poletti (Università Link - Laboratorio HAL) Spiega "Perché Non si Può Davvero 'Parlare' con l'AI"


Roma (a cura di Paolo Poletti*) - Premessa: l’arrivo della nuova Intelligenza Artificiale. Negli ultimi due anni, l’Intelligenza Artificiale è uscita dai laboratori e ha iniziato a far parte della vita quotidiana. Scrive testi, traduce, genera immagini, compone musica, analizza dati, perfino risponde con naturalezza alle nostre domande.

Questa è la Generative AI, l’Intelligenza Artificiale capace di creare contenuti nuovi — non solo di analizzare o classificare ciò che già esiste. Alla base di questa rivoluzione ci sono i Large Language Models (LLM): enormi modelli di linguaggio addestrati su miliardi di parole, in grado di produrre testi coerenti, argomentati e stilisticamente credibili. 

Sono il cuore di sistemi come ChatGPT, Gemini, Claude o LLaMA e rappresentano il passaggio da un’intelligenza artificiale “che esegue” ad una che simula il pensare umano. Per la prima volta, abbiamo una tecnologia che sa usare il linguaggio, cioè lo strumento che definisce la nostra umanità.

Ecco perché è così importante e anche così delicata. Cosa fa davvero un LLM. Un modello linguistico non ragiona: predice. È una macchina matematica che calcola, in ogni istante, la parola più probabile da scrivere dopo la precedente. Non ha idee, non ha intenzioni, non ha consapevolezza: ha solo un’enorme quantità di dati e una straordinaria capacità di calcolo.

Durante la fase di addestramento, un LLM “legge” milioni di libri, articoli, conversazioni e siti web. Da questi testi apprende le relazioni statistiche tra le parole, imparando come esse si combinano per formare frasi sensate. Così, quando gli scriviamo qualcosa, il modello riconosce il contesto e genera una risposta coerente, ma non comprende ciò che dice.

Esempi:se scrivo: «Il cielo è …», il modello “sa” che le continuazioni più probabili sono «blu», «nuvoloso», «limpido». Non perché veda il cielo, ma perché ha osservato migliaia di frasi simili nei testi; se scrivo: «Il cuore è …», proporrà «un muscolo», «l’organo principale della circolazione» o perfino «il simbolo dell’amore», a seconda del contesto. Non perché conosca la fisiologia o la poesia: riconosce pattern linguistici.

Il risultato è un linguaggio fluido e naturale, ma sempre frutto di predizioni statistiche, non di pensiero.Tokenizzazione: la lingua ridotta a numeri. Per poter “leggere”, l’AI deve trasformare le parole in numeri. Ogni parola (o pezzo di parola) diventa un token, cioè un’unità numerica con cui il modello lavora.

“La medicina è una scienza umana” si trasforma in una sequenza di token: non significati “umani”, ma relazioni numeriche tra simboli. Questa conversione è la base di tutto: il modello non manipola concetti, manipola numeri che rappresentano il linguaggio.Transformer: il cervello artificiale del linguaggio.

L’architettura Transformer (2017) ha rivoluzionato l’AI linguistica grazie al meccanismo di self-attention: il modello pesa le parole più importanti nel contesto, anche se sono lontane tra loro nella frase.
Esempio: «Il medico cura la paziente con attenzione». Il Transformer modella che attenzione è il modo della cura, non l’oggetto. Non “capisce” come un umano, ma riconosce dipendenze e schemi in modo estremamente efficace.Transfer learning: imparare a imparare.

Dopo il pre-addestramento generale sulla lingua, il modello può essere specializzato (fine-tuning) su domini specifici: scrittura medica, legale, tecnica. Questo è il transfer learning: riusare la competenza linguistica generale in nuovi contesti, senza ricominciare da zero.Generalizzazione: l’illusione dell’intelligenza. I LLM generalizzano: applicano quanto appreso a casi nuovi, generando testi plausibili su temi mai visti.




Ma “plausibile” non significa “vero”. La generalizzazione è adattamento statistico, non comprensione. Per questo possono presentare “allucinazioni”: risposte linguisticamente perfette ma fattualmente errate.Perché non si può davvero “parlare” con l’AI.

Parlare implica intenzione, memoria, coscienza dell’altro. Un LLM, invece:non ha intenzioni né emozioni; non “ascolta”: completa statisticamente; non sa di cosa parla: simula la conversazione.

È come un cruciverba linguistico infinito: riempie le caselle con parole plausibili, senza capire il disegno.

In sintesi: Fase Cosa fa il modello linguistico

Addestramento Legge miliardi di testi e impara relazioni tra parole.


                          

Tokenizzazione Converte parole in token numerici.


Transformer Pesa le parole in base al contesto (self-attention).


Transfer learning Trasferisce la competenza generale in nuovi domini.



Generalizzazione Produce testi plausibili anche su temi mai visti.
Interazione Simula un dialogo umano, ma senza comprensione reale.

Dalla fascinazione alla consapevolezza. La Generative AI tocca il linguaggio e, quindi, la nostra identità culturale.

Serve una nuova alfabetizzazione cognitiva: usare questi strumenti con fiducia e con spirito critico, distinguendo plausibilità e verità, simulazione e comprensione:
l’AI non pensa: predice;
non capisce: imita;
non parla: completa;
il compito di dare senso e di assumerci la responsabilità delle parole resta umano.Parlare con l’AI: l’arte del prompting.

Abbiamo visto che un modello linguistico come ChatGPT o Gemini non pensa, ma predice parole. Eppure, quando dialoghiamo con esso, abbiamo l’impressione di parlare con una mente. La differenza la fa come poniamo le domande. È qui che nasce il prompting: l’arte di dialogare consapevolmente con l’intelligenza artificiale per ottenere risposte utili, accurate e coerenti con i nostri obiettivi.

Cos’è un prompt e perché conta.

Un prompt è una semplice istruzione in linguaggio naturale: una frase che dice all’AI cosa fare, in quale modo e con quale obiettivo. 
Non basta chiedere “Spiegami qualcosa”: serve dire come e perché vuoi quella risposta:
Prompt = istruzione + contesto + obiettivo + formato dell’output.

La differenza tra un prompt generico e uno efficace è come la differenza tra dire “raccontami una storia” e dire “raccontami una storia di riscatto ambientale ambientata in una periferia urbana”. Il primo genera qualsiasi cosa; il secondo guida l’intelligenza artificiale verso una direzione precisa e sensata.Prompting: perché è importante.

I LLM non comprendono il significato come noi: calcolano probabilità. Un prompt chiaro e specifico riduce l’ambiguità e guida il modello verso risposte più coerenti e utili. Scrivere un buon prompt non è un dettaglio tecnico: è una nuova forma di alfabetizzazione digitale, una competenza cognitiva che tutti dovremo sviluppare.Prompt Engineering. È la pratica di progettare, testare e migliorare i prompt per ottenere risposte migliori.

In ambito professionale, si chiama anche prompt optimization: consiste nel perfezionare le istruzioni finché il modello non produce risultati soddisfacenti.Prompting come nuova alfabetizzazione. Saper scrivere un prompt è come saper fare una domanda giusta nel momento giusto. È una forma di pensiero critico digitale: aiuta a distinguere tra verosimiglianza e verità, tra linguaggio automatico e linguaggio umano.


È una competenza civica, prima ancora che tecnica: perché imparare a “parlare con le macchine” significa restare padroni del significato.Anatomia di un buon prompt.

Un prompt efficace contiene alcuni elementi chiave:contesto – spiega chi è l’AI e cosa deve fare: “sei un educatore digitale che scrive per un pubblico di studenti delle scuole superiori”;
compito – indica con precisione cosa vuoi ottenere: “spiega perché è importante verificare le fonti prima di condividere una notizia online”;
istruzioni – specifica tono, formato e obiettivo: “usa un linguaggio chiaro, con un esempio di fake news e una breve conclusione etica”;
esempi (facoltativi) – mostrano lo stile desiderato: “esempio: condividere una notizia falsa non è un errore tecnico, è una responsabilità sociale”;
output – indica come vuoi la risposta: “rispondi in un elenco numerato con massimo 5 punti”.Tipi di prompting:

Zero-Shot Prompting.

Il modello riceve solo la domanda: “Scrivi un testo sull’uguaglianza di genere.” Risposta: generica, scolastica, corretta ma poco incisiva;One-Shot Prompting. Aggiungiamo un esempio: “l’uguaglianza non è solo un diritto, ma una responsabilità quotidiana”. Ora scrivi un breve post che spieghi perché la parità di genere è una conquista collettiva”. Più chiaro, più coerente con lo stile desiderato;Few-Shot Prompting.

Più esempi = più direzione.

“Esempio 1: ogni ragazza che studia scienza apre una porta anche per le altre. Esempio 2: la parità si costruisce con educazione, non con slogan. Ora genera un messaggio motivazionale per la Giornata internazionale delle donne”.Role Prompting.

Prompt strutturato con ruolo, obiettivo e formato.

“Agisci come un formatore di cittadinanza digitale. Scrivi un breve articolo di 200 parole per studenti delle superiori sul tema ‘Cyberbullismo e responsabilità online’. Usa un tono empatico e inserisci un esempio reale o realistico.”

L’AI ora ha chiaro chi è, cosa fa e come deve rispondere.Chain-of-Thought Prompting.

Guida l’AI a ragionare passo dopo passo.

“Spiega passo dopo passo come un messaggio offensivo può diventare virale sui social e quali azioni concrete possono interrompere questa catena”.

Il modello ora esplicita il ragionamento, come in un percorso educativo.Esercizi per il lettore.

Provali in sequenza e osserva come cambiano chiarezza e profondità delle risposte.

Esercizio 1 – Precisione del prompt:A) Prompt generico: “Scrivi un testo sull’inclusione sociale”.
B) Prompt migliorato: “Scrivi un testo di 150 parole sull’inclusione sociale, spiegando perché è una responsabilità condivisa tra cittadini e istituzioni. Usa un linguaggio chiaro e aggiungi un esempio concreto”.

Confronta tono, coerenza e rilevanza.

Esercizio 2 – Role Prompting:A) Prompt meno preciso: “Spiega l’importanza della solidarietà”.
B) Prompt più preciso: “Agisci come un operatore di una ONG e scrivi un breve post che racconti come un gesto di solidarietà può trasformare la vita di una comunità locale. Usa un tono autentico e ispirazionale”.

La differenza di ruolo cambia completamente la prospettiva narrativa.

Esercizio 3 – Chain of Thought:Prompt meno preciso: “Come si combatte la disinformazione online?”
Prompt più preciso: “Ragiona passo per passo su come un cittadino può riconoscere, verificare e contrastare una notizia falsa sui social:spiega cosa induce a crederci;
descrivi come controllare le fonti;
indica come reagire in modo costruttivo”.

L’AI ora produce un vero percorso educativo, non solo una risposta rapida.Considerazioni finali: la cultura come bussola nella rivoluzione dell’intelligenza artificiale.

L’interazione con l’intelligenza artificiale segna un passaggio epocale, forse non meno di quanto accadde all’inizio del Novecento con la teoria della relatività e la fisica quantistica.

Anche oggi siamo chiamati a ridefinire i confini di ciò che significa essere umani, in un mondo dove la velocità dello sviluppo tecnologico supera spesso la capacità di comprensione culturale della società.

Come ha osservato il poeta Valerio Magrelli durante l’ultimo Festival Kum! di Pesaro, l’AI «procede secondo il criterio della moltiplicazione dei dati, processati e incrociati il più rapidamente possibile». Ma, come ha ricordato Walter Siti, essa non potrà mai creare un romanzo, perché «non possiede un inconscio: l’iceberg che emerge per una piccola puntina è il pensiero cosciente, tutto il resto dell’uomo è passioni, relazioni, connessioni sommerse».

Una riflessione profonda e, in un certo senso, consolante. Ci ricorda che – per quanto potente – l’intelligenza artificiale resta confinata nella dimensione del calcolo, mentre la profondità umana nasce dall’esperienza, dalla memoria e dal desiderio.

Siamo, forse, alla disperata ricerca di qualcosa che ancora ci distingua dalla potenza inusitata e inesplorata della macchina. Come ha scritto Benjamin Labotout, «abbiamo smesso di capire il mondo»: allora è necessario riapprendere a comprenderlo, questa volta attraverso la lente del digitale.

Non a caso, Marcello Ienca, professore di Etica dell’Intelligenza Artificiale e delle Neuroscienze all’Università tecnica di Monaco, ha sottolineato che «il processo di digitalizzazione comporta una ridefinizione di che cosa significa essere umani».

Etica e consapevolezza del prompting.

Dialogare con un modello di intelligenza artificiale non è un atto neutro: ogni domanda che poniamo contribuisce a costruire il mondo linguistico in cui la macchina opera.

Il prompting diventa così una pratica etica, perché implica la responsabilità di formulare interrogativi rispettosi della verità, della dignità umana e del pluralismo culturale.

Un prompt ben strutturato non è solo un esercizio tecnico: è un atto di consapevolezza civica, la manifestazione di una mente che sceglie come e perché usare la tecnologia.

In questo senso, saper dialogare con l’AI significa esercitare pensiero critico e consapevolezza sociale. Il prompting non è un trucco tecnico: è un modo nuovo di formulare domande, di pensare meglio, di agire con più responsabilità in un mondo dove linguaggio e tecnologia si confondono.

“Le parole guidano la tecnologia, ma restano una responsabilità umana” (Marco Filoni, HAL – Human AI Lab).

Cultura, spirito critico e libertà.

L’adozione dell’AI non è un fatto scontato: richiede accettazione, formazione e consapevolezza collettiva.

La cultura, più della tecnica, resta il principale strumento per interpretare l’innovazione e collocarla nel contesto dei valori umani.

Se abdichiamo alla cultura, il “come” prevarrà sul “perché”: continueremo a chiedere alla tecnologia di compiere azioni solo perché ne è capace, senza domandarci se siano giuste o necessarie.

È già accaduto con i social media, dove la logica dell’algoritmo ha prevalso sulla riflessione etica. Con l’intelligenza artificiale sarebbe un errore irreparabile.

Come ricordava Paul Ricoeur, “viviamo in un’epoca in cui alla bulimia dei mezzi corrisponde l’atrofia dei fini”.

Oggi, più che mai, serve ristabilire un equilibrio: la tecnologia risponde alla domanda come fare; ma la domanda perché farlo appartiene ancora e soltanto a noi.

La responsabilità del pensare.

L’AI può portare benefici straordinari: nel campo della ricerca scientifica, della salute, dell’educazione e della sostenibilità, ma solo se sarà accompagnata da spirito critico, cultura e responsabilità.

La cultura non è un freno al progresso: è il suo sistema immunitario. Essa sola può impedirci di diventare vittime di una tecnologia che procede “senza bisogno di convincere”, spingendoci invece a interrogarci sul senso delle nostre scelte, sul valore delle parole e sul significato del pensiero umano.

In definitiva, l’intelligenza artificiale ci obbliga ad un’alfabetizzazione cognitiva nuova: imparare a pensare con la macchina senza smettere di pensare da esseri umani.

Articolo di : *Paolo Poletti, Docente di Information Security Management – Università degli Studi Link di Roma; membro di HAL – Human AI Lab – Università degli studi Link, Roma

(www.agenziaomniapress.com - 30.10.2025)