
L’intelligenza artificiale è un settore dell’informatica che studia i metodi e le tecniche per costruire sistemi capaci di svolgere compiti che definiremmo “intelligenti” se fossero eseguiti da esseri umani. Questa definizione è molto semplice, ma utile: ci ricorda che non stiamo cercando di riprodurre l’intelligenza umana in sé, ma di progettare sistemi che sappiano eseguire alcuni compiti in modo efficace.
Il dibattito pubblico spesso dà l’idea che tutto sia iniziato con ChatGPT, nel 2022. È davvero così?
No, affatto. L’intelligenza artificiale come disciplina scientifica nasce nel 1956, ma le domande sull’intelligenza delle macchine risalgono almeno al 1950, con il famoso “test di Turing”. L’idea era semplice e rivoluzionaria: se non siamo in grado di distinguere, dialogando, una macchina da un essere umano, allora possiamo considerare la macchina “intelligente”. Da allora l’IA si è evoluta moltissimo, uno dei momenti più noti è del 1997, quando il sistema Deep Blue di IBM riuscì a battere il campione mondiale di scacchi Garry Kasparov. Gli scacchi sono un gioco di una complessità enorme, e quel risultato ebbe un fortissimo impatto simbolico: mostrò che le macchine potevano superare gli esseri umani in compiti altamente strutturati.
Oggi l’IA non gioca solo a scacchi. La troviamo nella medicina, nella logistica, nella creatività… che cosa è cambiato rispetto agli inizi?
Oggi siamo nel mezzo di un vero cambio di paradigma. Storicamente l’intelligenza artificiale è stata costruita soprattutto secondo l’approccio simbolico, cioè basato su regole e rappresentazioni esplicite della conoscenza. In questo modello si può ragionare in modo rigoroso: se so che tutte le balene sono mammiferi e che Moby è una balena, posso dedurre con certezza che Moby è un mammifero. L’intelligenza, in questo caso, deriva dalla struttura logica delle informazioni.
Negli ultimi anni, però, si è affermato un approccio diverso, quello delle reti neurali artificiali. Queste ultime sono state originariamente proposte negli anni’40 del secolo scorso ma sono diventate paradigma di successo solo con l’aumento dei dati e delle risorse di calcolo a disposizione. Le reti neurali prendono ispirazione — creandone un modello — dall’organizzazione funzionale del cervello, pur lavorando, è bene ribadirlo, in modo molto diverso dal cervello stesso. Qui non ci sono regole dichiarate: i sistemi imparano dai dati, riconoscendo pattern statistici. È da questa tradizione che nascono anche i modelli noti come di IA generativa, come GPT, capace di produrre testo fluido e adattabile a moltissimi contesti.Ed è bene ricordare che la potenza dell’IA generativa non si limita al testo, ma si estende anche alla produzione di immagini, musica e altri tipi di contenuti, sollevando interrogativi profondi su cosa possa essere considerato arte. Un esempio emblematico è la celebre immagine “Théâtre D’opéra Spatial”, generata con l’IA generativa Midjourney dall’artista Jason Allen, che nel 2022 è diventata la prima opera realizzata con l’ausilio dell’IA a vincere una competizione artistica, dando origine a un intenso dibattito mediatico e culturale.
E’ vero che questi sistemi sono sorprendentemente potenti, ma è fondamentale ricordare che non ragionano: predicono in modo statistico. Per questo oggi una delle sfide scientifiche più importanti è riuscire a integrare i due approcci, quello dell’approccio simbolico e quello statistico. Se ci riusciremo, potremmo ottenere sistemi insieme espressivi e affidabili.

Quali limiti ha l’IA generativa, ovvero strumenti come ChatGPT, in particolare?
Questi sistemi di fatto non capiscono ciò che producono, anche se sembra che lo facciano riuscendo a generare sequenze testuali plausibili e generando, agli occhi di utenti inesperti, quella che l’informatico Quattrociocchi ha definito “epistemia”: l’illusione della conoscenza derivante dal ricevere un output in linguaggio plausibile e coerente ma non verificato. Tali sistemi calcolano le sequenze di parole statisticamente più probabili da far seguire ad altre, in base ad un certo input linguistico: il “prompt”. Questo li porta a generare risposte spesso corrette e ben formulate, ma anche errori assurdi, espressi però con grande sicurezza. Questi errori si chiamano “allucinazioni”: l’IA inventa dettagli, riferimenti o spiegazioni che suonano plausibili, ma non sono vere. Molti di questi sistemi cadono facilmente nel paradosso di Moravec, facendo degli errori che non farebbe un essere umano. Paradossalmente, le cose che a noi sembrano facili per loro sono estremamente complesse. Per esempio, nei compiti percettivi, come la classificazioni di immagini (n.d.r. vedi per esempio nell’immagine, i risultati della classificazione eseguita dall’IA in cui emergono le difficoltà a riconoscere un gatto o un panda). Per questo è sbagliato usare sistemi come ChatGPT, che appunto appartengono alla categoria della cosiddetta “IA generativa”, come se fossero fonti di verità. Non lo sono. Sono simulazioni di intelligenza: strumenti molto potenti, capaci di assisterci, (a patto che chi le usa sia un esperto del dominio di conoscenza su cui chiede assistenza. Non sono soggetti pensanti. La parte positiva è che, se comprendiamo questo, possiamo usarli bene. La parte pericolosa è considerarli “oracoli” e delegare loro la responsabilità del giudizio. Quella resta nostra.

Che cosa significa tutto questo per la scuola?
Significa due cose. La prima è che non ha senso vietare l’IA, perché fa già parte del mondo in cui gli studenti crescono e cresceranno. La seconda è che bisogna insegnare a usarla criticamente. L’IA può aiutare a scrivere, analizzare, esplorare, creare — ma solo se chi la usa sa riconoscere un errore, sa confrontare le fonti, sa pensare autonomamente. La competenza chiave è la capacità di giudizio.
Inoltre, l’intelligenza artificiale ha cambiato la prospettiva del ruolo dei “compiti a casa”. Quando è possibile – e questo è vero in molti casi – risolvere un problema di geometria o fare una versione di latino chiedendo a un sistema di IA vuol dire che l’esercizio va fatto in classe, senza l’ausilio di questi strumenti. La “comprensione” avviene tramite fatica ed errori, che sono fondamentali in fase di apprendimento. Anche nella didattica universitaria si sta verificando una situazione analoga: gli studenti possono in parte accedere da casa, con l’ausilio di strumenti di IA, a una serie di informazioni la cui comprensione, contestualizzazione e trasformazione in conoscenza va però verificata, pensata e discussa in una interazione con un esperto in presenza, che permetta loro di andare in profondità e svelare eventuali superficialità o incomprensioni generate da uno studio iniziale con un “tutor digitale”.
Come andrebbe introdotta a scuola l’IA? Ci sono attenzioni, strumenti, approcci e consigli particolari?
A scuola introdurrei dei corsi che permettano, sia a studenti che a docenti, di capire come funzionano questi sistemi. Questo dovrebbe permettere un uso più consapevole ad entrambi. Purtroppo, sento sempre più spesso casi di insegnanti che delegano la correzione dei compiti a questi sistemi che, anche svolgendo questo compito, hanno gli stessi limiti di cui parlavamo in precedenza. Dal punto di vista dell’utilizzo, proporrei invece di usare questi strumenti in fase di verifica di quanto appreso. Infatti, dopo aver studiato un certo argomento X, è utile avere a disposizione un sistema di AI generativa su cui “testare” il proprio grado di conoscenza anche giocando a scovare i casi in cui tali sistemi sbagliano.
In questo scenario credo che la strategia della “flipped classroom”, che in parte menzionavo anche prima, sia una delle modalità da utilizzare in modo più marcato rispetto al passato, in quando meglio si adatta alle esigenze didattiche determinate dalla diffusione dell’IA generativa.



Add Comment