Dubbi e curiosità sull’intelligenza artificiale? Abbiamo fatto qualche domanda a chi, da anni, la studia e ci lavora.

Università e intelligenza artificiale? Ne parliamo con Piermatteo Grieco, AI expert e cofondatore di AiGot, realtà italiana che sviluppa software per automazione, machine learning e applicazioni AI. Piermatteo lavora l’intelligenza artificiale dal lato più difficile: la trasforma in prodotti, sistemi e casi d’uso reali. Il suo nome compare nel dossier di Repubblica sui 500 italiani che contano oggi nell’AI, e i suoi progetti open-source –come SAM, Smart Access Memory, una soluzione per la memoria degli agenti AI – l’hanno portato anche qui, a chiacchierare con noi.
(https://www.repubblica.it/tecnologia/dossier/romecup/2024/03/19/news/intelligenza_artificiale_in_italia_ecco_tutti_nomi_luniversita_e_la_ricerca_le_startup_e_le_grandi_aziende_larte_e_la_-422332723/amp/)
Intervista
Iris: Che atteggiamento stanno avendo oggi le scuole e le università italiane verso l’AI? Cosa cambieresti?
Piermatteo: A mio avviso, scuola e università italiane stanno uscendo dalla fase puramente difensiva e stanno entrando in una fase più pragmatica, ma con velocità diverse. Nella scuola il salto istituzionale c’è stato: il Ministero dell’Istruzione e del Merito ha pubblicato nel 2025 le linee guida nazionali per l’introduzione dell’AI nelle istituzioni scolastiche, e nel marzo 2026 ha aperto un avviso PNRR per creare snodi formativi territoriali dedicati proprio all’uso dell’AI nella scuola. Nell’università, invece, il presidio oggi si vede soprattutto a livello di singolo ateneo, dipartimento o corso, attraverso policy locali e linee guida specifiche. ([1])
Il punto è che l’Italia si sta muovendo, ma parte da un livello di adozione ancora relativamente basso. Secondo l’OCSE, nel 2024 in Italia solo il 25% dei docenti della secondaria di primo grado dichiarava di aver usato l’AI per insegnare o sostenere l’apprendimento, contro una media OCSE del 37%. Tra chi la usa, gli impieghi più frequenti riguardano riassunti di argomenti, piani di lezione, analisi dei dati su partecipazione e performance, e in parte anche la valutazione. In parallelo, Eurostat colloca l’Italia tra i Paesi UE con il minore uso della GenAI tra i cittadini: 19,9% nel 2025, contro una media UE del 32,7%. ([2])
Io cambierei soprattutto il modo in cui facciamo la domanda. Non chiederei più “AI sì o AI no?”, ma “per quali compiti, con quali limiti, con quale responsabilità e con quale valore educativo?”. UNESCO, Commissione europea e OCSE convergono su un’idea molto chiara: l’AI va inserita in un quadro human-centred, con attenzione a privacy, bias, etica, trasparenza e obiettivi pedagogici, e non deve sostituire lo sforzo cognitivo né indebolire la relazione educativa. ([3])
I: Formeresti di più tutor e docenti? In che modo?
P: Sì, in modo netto. E non con il classico webinar una tantum. L’AI Act europeo ha fatto entrare in applicazione dal 2 febbraio 2025 gli obblighi di AI literacy, e la Commissione chiarisce che limitarsi a far leggere istruzioni o manuali spesso non basta: la formazione deve essere calibrata sul ruolo, sul rischio, sul contesto d’uso e sul sistema concreto che si utilizza. La stessa Commissione sottolinea che livelli diversi di formazione possono essere appropriati, e che nella literacy AI devono entrare anche aspetti legali ed etici. ([4])
Io farei quattro livelli di formazione.
Primo: alfabetizzazione di base, cioè come funzionano questi strumenti, quali errori fanno, che cosa sono le hallucinations, come si verificano gli output.
Secondo: formazione didattica, cioè come riprogettare compiti, rubriche, feedback ed esami in un mondo in cui l’AI esiste.
Terzo: formazione disciplinare, diversa per aree umanistiche, scientifiche e professionalizzanti.
Quarto: formazione di governance, per dirigenti, coordinatori e personale che si occupa di privacy, procurement e policy. È esattamente la direzione indicata dalle linee guida europee per educatori, dai principi del Russell Group nel Regno Unito e dai toolkit operativi australiani per la formazione alla ricerca. ([5])
I: Le università dovrebbero integrare l’AI per tesi, elaborati, corsi ed esami?
P: Sì, ma integrazione non significa permissività indiscriminata. Significa riconoscere che l’AI esiste, renderne l’uso visibile, regolato e valutabile. Io sono contrario sia al divieto totale sia al far finta di niente. La linea giusta, secondo me, è: usare l’AI come supporto, non come delega; dichiararla, non nasconderla; valutare il processo, non solo il prodotto finale. Questa è anche la logica che emerge dalle policy universitarie più mature. ([6])
In Italia abbiamo già esempi interessanti. L’Università di Bologna considera coerente l’uso della GenAI per costruire la struttura preliminare di una tesi e, con supervisione critica e citazione, anche per alcune fasi di stesura; ma esclude esplicitamente il semplice copia-e-incolla. Unimi stabilisce che, se il docente non ha dato indicazioni diverse, usare la GenAI per completare la maggior parte di un compito, un esame o un progetto non è consentito, e l’uso va dichiarato; la dichiarazione è suggerita anche per l’elaborato finale. Padova insiste su trasparenza dei metodi, responsabilità dell’autore e possibilità che i corsi adottino politiche permissive, intermedie o restrittive. Un esempio ancora più prudente viene da linee guida Sapienza per una prova finale triennale, che ammettono l’AI come supporto alla stesura con massima trasparenza, ma non per produrre contenuti originali o per cercare fonti bibliografiche. ([6])
Per tesi ed elaborati, quindi, io integrerei l’AI per brainstorming, outline, revisione linguistica, supporto al coding e organizzazione del lavoro; ma chiederei sempre dichiarazione d’uso, responsabilità piena dell’autore e possibilità di discussione orale del lavoro. La Commissione europea, con l’ERA Forum, ha già pubblicato linee guida per l’uso responsabile della GenAI nella ricerca. In Australia, TEQSA raccomanda di aggiornare policy e procedure per tesi, submission ed esame finale, di far dichiarare l’uso della GenAI e di rafforzare verifiche come viva voce ed esami orali per assicurare che l’apprendimento sia realmente avvenuto. ([7])
Per corsi ed esami farei un passo ulteriore: non chiederei solo “è permessa?”, ma “questa prova misura ancora bene ciò che vogliamo misurare?”. L’OCSE avverte che, senza guida pedagogica, l’uso della GenAI può migliorare la performance apparente senza produrre veri guadagni di apprendimento; e che insegnamento e valutazione dovrebbero arricchire l’apprendimento, non sostituire lo sforzo cognitivo. Per questo vedo più spazio per orali, prove contestualizzate, portfolio di processo, confronto con fonti e discussione critica delle scelte fatte con o senza AI. ([8])
I: Come vedi l’Italia rispetto al resto del mondo?
P: L’Italia non è più ferma, ma è ancora più disomogenea di altri sistemi. Nel Regno Unito il Russell Group parla già in modo molto esplicito di AI literacy, supporto ai docenti e adattamento di didattica e assessment all’uso etico della GenAI. In Australia TEQSA è scesa molto nel dettaglio su supervisione, privacy, documentazione, tesi ed esame finale. In Italia, la scuola ha ormai una cornice nazionale; nell’università, invece, osservando le policy oggi pubbliche, il presidio appare ancora soprattutto d’ateneo o di dipartimento. ([9])
I: In che misura l’AI è utile nelle facoltà umanistiche e in quelle scientifiche? Ci sono differenze?
P: L’AI è utile in entrambe, ma non nello stesso modo. Nelle facoltà umanistiche la vedo soprattutto come uno strumento di esplorazione, comparazione e revisione: interrogare grandi corpora, individuare pattern, confrontare versioni di testi, migliorare la leggibilità, generare ipotesi interpretative da verificare. Non è solo teoria: lavori recenti di storia digitale mostrano come machine learning ed explainable AI possano produrre analisi corpus-wide su materiali storici su scala difficilmente raggiungibile da un singolo ricercatore. ([10])
Però proprio nelle discipline umanistiche il rischio è molto alto sul piano epistemico. Le LLM possono produrre testi fluidi e convincenti pur inventando fatti o risposte infondate; e uno studio pubblicato su Science Advances ha mostrato che l’accesso a idee generate dall’AI può aumentare la creatività individuale, ma rendere i risultati più simili tra loro, riducendo la diversità collettiva dei contenuti. In altre parole: molto utili per partire, pericolose se sostituiscono l’originalità, la critica delle fonti e la voce dell’autore. ([11])
Nelle facoltà scientifiche l’utilità tende a essere più operativa e immediata: coding, documentazione, triage della letteratura, organizzazione dei workflow, analisi dati, supporto al design sperimentale. Una review del 2025 su npj Artificial Intelligence descrive le LLM come tecnologie che stanno ridefinendo varie fasi del metodo scientifico, dall’ipotesi alla scoperta, ma sottolinea anche che questa integrazione va perseguita in allineamento con obiettivi scientifici umani e metriche di valutazione chiare. ([12])
Quindi la differenza non è che l’AI serva alle STEM ma non alle humanities. La differenza è che, nelle umanistiche, il valore si concentra di più su esplorazione, sintesi e revisione critica; nelle scientifiche su produttività cognitiva, automazione e supporto sperimentale. In entrambe, però, restano decisivi trasparenza, verificabilità e responsabilità umana sui metodi e sui risultati.
I: Ci sono AI migliori di altre per determinati scopi o si equivalgono?
P: No, non si equivalgono affatto. Oggi i modelli si differenziano in modo misurabile per ragionamento, conoscenza, matematica, programmazione, prezzo, velocità, latenza e ampiezza del contesto. Benchmark indipendenti come quelli di Artificial Analysis costruiscono confronti proprio su queste dimensioni, combinando test su reasoning, knowledge, maths e programming, e confrontando oltre 100 modelli anche su costi e performance.
La regola che darei è questa: non scegliere “il modello migliore in assoluto”, ma il modello più adatto al compito e al contesto. Per scrittura avanzata, sintesi e ragionamento servono modelli forti sul reasoning; per coding e data work servono modelli forti in programmazione; per un uso universitario o aziendale con dati sensibili contano moltissimo governance, retention, data residency e controllo degli accessi; in alcuni contesti di ricerca o amministrazione è preferibile poter self-hostare la soluzione on-premise. ([13])
Su questo fronte ci sono differenze concrete tra fornitori. OpenAI dichiara che nei prodotti business ed Edu non addestra i modelli sui dati del cliente per default, che il cliente mantiene controllo su input, output e retention, e offre opzioni di data residency in Europa per clienti idonei. Google dichiara che in Gemini Enterprise i dati, inclusi prompt e output, non vengono usati per addestrare i modelli Google. Anthropic dichiara che, nei prodotti commerciali, input e output non sono usati per l’addestramento di default. Mistral offre anche opzioni self-hosted/on-premise. Quindi, per un’università, la domanda non è solo “quanto è bravo il modello?”, ma anche “dove vanno i dati, chi li usa, per quanto tempo restano, e posso auditare il processo?”. ([14])
I: Da qui a 5 anni, come evolveranno lavoro e università?
P: Nei prossimi cinque anni vedo impatti sia immediati sia strutturali. Sul lavoro, il quadro più serio oggi non è “spariranno i lavori”, ma “cambieranno rapidamente compiti e skill”. L’ILO stima che il 25% dell’occupazione globale ricada in lavori potenzialmente esposti alla GenAI, quota che sale al 34% nei Paesi ad alto reddito, e sottolinea che per molti ruoli è più probabile una trasformazione delle mansioni che un’automazione totale. L’OCSE aggiunge che i lavoratori terziariamente istruiti e white-collar saranno tra i più esposti alla disruption, anche se finora non si osserva un calo generale dell’occupazione dovuto all’AI. ([15])
Il cambiamento più sicuro riguarda le competenze. Il World Economic Forum riporta che i datori di lavoro si aspettano che entro il 2030 cambi il 39% delle skill core dei lavoratori, e indica AI e big data come la competenza in più rapida crescita, insieme a cybersecurity, technological literacy, pensiero analitico, creatività, resilienza e lifelong learning. Per questo io non vedo un futuro dominato solo da tecnici, ma da profili ibridi: persone che sanno collaborare con i sistemi AI senza delegare loro il giudizio. ([16])
Per l’università questo significa almeno tre trasformazioni. Primo: l’AI literacy diventerà una competenza trasversale di base, non un tema per pochi specialisti. Secondo: la valutazione si sposterà dal solo prodotto finale alla tracciabilità del processo — bozze, dichiarazioni d’uso, revisioni, oral defence, verifica della comprensione. Terzo: crescerà il valore delle capacità distintamente umane — formulare buone domande, validare fonti, interpretare risultati, assumersi responsabilità, lavorare in modo interdisciplinare. OCSE, UNESCO e Commissione europea convergono su questo punto: l’AI va usata per arricchire l’apprendimento e sviluppare capacità umane, non per sostituire lo sforzo cognitivo.
La mia sintesi è questa: l’AI non va né subita né celebrata. Va insegnata, regolata e valutata bene. Non renderà irrilevante l’università; renderà irrilevanti alcune pratiche universitarie. E lo stesso vale per il lavoro: non sparirà il valore delle persone, ma sparirà il valore di molte attività ripetitive, standardizzate e poco verificabili. Le istituzioni che staranno meglio non saranno quelle che vietano tutto o accettano tutto, ma quelle che insegnano a usare questi strumenti con trasparenza, metodo e senso critico.
[1]: https://www.mim.gov.it/-/pubblicate-le-linee-guida-per-l-introduzione-dell-intelligenza-artificiale-nelle-istituzioni-scolastiche-allegato-al-dm-n-166-del-09-08-2025 “https://www.mim.gov.it/-/pubblicate-le-linee-guida-per-l-introduzione-dell-intelligenza-artificiale-nelle-istituzioni-scolastiche-allegato-al-dm-n-166-del-09-08-2025
[2]: https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/12/ai-adoption-in-the-education-system_43251cf0/69bd0a4a-en.pdf “https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/12/ai-adoption-in-the-education-system_43251cf0/69bd0a4a-en.pdf
[3]: https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research “https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research”
[4]: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai “https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai”
[5]: https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence “https://education.ec.europa.eu/focus-topics/digital-education/actions/plan/ethical-guidelines-for-educators-on-using-artificial-intelligence”
[6]: https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/Casi-uso-GenAI-comunita-studentesca-valutazione “https://www.unibo.it/it/ateneo/statuto-norme-strategie-bilanci/intelligenza-artificiale/Casi-uso-GenAI-comunita-studentesca-valutazione”
[7]https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en “https://research-and-innovation.ec.europa.eu/news/all-research-and-innovation-news/guidelines-responsible-use-generative-ai-research-developed-european-research-area-forum-2024-03-20_en”
[8]: https://www.oecd.org/en/publications/oecd-digital-education-outlook-2026_062a7394-en.html .
[9]: ac.uk/sites/default/files/2025-01/Russell%20Group%20principles%20on%20generative%20AI%20in%20education.pdf
[10]: https://www.science.org/doi/10.1126/sciadv.adj1719 “https://www.science.org/doi/10.1126/sciadv.adj1719”
[11]: https://www.nature.com/articles/s41586-024-07421-0 “https://www.nature.com/articles/s41586-024-07421-0”
[12]: https://www.nature.com/articles/s44387-025-00019-5 “https://www.nature.com/articles/s44387-025-00019-5”
[13]: https://artificialanalysis.ai/methodology/intelligence-benchmarking “https://artificialanalysis.ai/methodology/intelligence-benchmarking”
[14]: https://openai.com/enterprise-privacy/ “https://openai.com/enterprise-privacy/”
[15]: https://www.ilo.org/resource/news/one-four-jobs-risk-being-transformed-genai-new-ilo%E2%80%93nask-global-index-shows “https://www.ilo.org/resource/news/one-four-jobs-risk-being-transformed-genai-new-ilo%E2%80%93nask-global-index-shows”
[16]: https://www.weforum.org/publications/the-future-of-jobs-report-2025/in-full/3-skills-outlook/ “https://www.weforum.org/publications/the-future-of-jobs-report-2025/in-full/3-skills-outlook/”