Logo G.B. Palumbo Editore
......
\

Intelligenza Artificiale e nuove guide

Manifesto per un’intelligenza artificiale etica e responsabile nella scuola

Per un uso etico e responsabile dell’IA a scuola, la Casa Editrice si è avvalsa della consulenza di Paolo Benanti, uno dei più autorevoli esperti del settore: teologo e filosofo, unico italiano membro del Comitato sull’intelligenza artificiale delle Nazioni Unite.
Tutta la nostra produzione a partire dal 2026 osserverà le linee-guida suggerite, che vogliono essere un invito a sperimentare questa nuova risorsa tecnologica mantenendo una postura etica che valorizzi sempre il ruolo attivo e creativo degli studenti e il ruolo di guida del docente.
Di seguito riportiamo la lettera manifesto di Paolo Benanti.
Manifesto per un’intelligenza artificiale etica e responsabile nella scuola Ci troviamo oggi sulla soglia di una metamorfosi epistemologica senza precedenti, un frangente storico in cui la tecnologia non si limita più a fungere da mero strumento o protesi delle nostre capacità fisiche e intellettuali, ma si eleva a interlocutore attivo, capace di generare linguaggio, immagini e sintesi di pensiero. L’avvento dell’Intelligenza Artificiale generativa nelle aule scolastiche non rappresenta una semplice innovazione didattica, paragonabile all’introduzione del personal computer o della lavagna interattiva multimediale, bensì configura una ridefinizione ontologica del rapporto tra l’essere umano e la conoscenza. Di fronte a tale scenario, la scuola, intesa come istituzione custode del sapere e fucina di cittadinanza, non può permettersi il lusso della reazione difensiva o del rifiuto aprioristico, né tantomeno quello di un’accettazione acritica e passiva. È imperativo, invece, tracciare una rotta etica, un manifesto di intenzioni che guidi la comunità educante attraverso le nebbie dell’incertezza tecnologica verso un orizzonte di consapevolezza e responsabilità.
Il primo pilastro di questo manifesto risiede nella ferma convinzione che l’Intelligenza Artificiale debba essere intesa e utilizzata come un catalizzatore dell’umanità, e mai come un suo sostituto. In un mondo in cui le macchine sono in grado di fornire risposte immediate, elaborare saggi complessi e risolvere equazioni in frazioni di secondo, il valore dell’essere umano si sposta radicalmente dalla capacità di accumulare e restituire informazioni a quella, ben più nobile e insostituibile, di porre le giuste domande. La scuola del futuro, dunque, non sarà il luogo dove si insegna a competere con l’algoritmo sulla velocità di esecuzione o sulla vastità del database mnemonico, ma l’agora in cui si coltiva l’arte del dubbio, la profondità del pensiero critico e la sensibilità ermeneutica necessaria per interpretare e dare senso agli output della macchina. L’etica dell’IA a scuola inizia proprio qui: nel riaffermare la centralità della coscienza umana come unica vera fonte di significato, relegando l’algoritmo al suo ruolo legittimo di potente, ma subalterno, assistente cognitivo.
Questa prospettiva ci impone di ripensare radicalmente il concetto di autorialità e di creatività. L’utilizzo responsabile dell’IA non significa demandare alla macchina la fatica del concetto o la sofferenza della pagina bianca, che sono passaggi ineludibili della crescita intellettuale, bensì instaurare con essa un dialogo dialettico. Lo studente non deve essere un utente passivo che preme un tasto e attende un risultato, ma un direttore d’orchestra che guida, corregge, integra e talvolta confuta quanto prodotto dall’intelligenza sintetica. L’integrità accademica, in questo nuovo contesto, non si misurerà più soltanto sull’assenza di aiuti esterni, ma sulla trasparenza del processo creativo e sulla capacità dello studente di apportare quel “quid” di originalità, emozione e vissuto personale che nessuna rete neurale, per quanto sofisticata, potrà mai replicare.
Educare all’uso etico significa insegnare ai giovani che la scorciatoia cognitiva offerta dall’IA, se usata per aggirare la fatica dell’apprendimento, porta a un’atrofia del pensiero, mentre se usata come trampolino per esplorazioni più ardite, può espandere i confini della mente.
Un ulteriore snodo cruciale riguarda la democratizzazione del sapere e la lotta alle disuguaglianze, tema caro a ogni visione pedagogica progressista. L’Intelligenza Artificiale possiede un potenziale enorme in termini di inclusione: può personalizzare i percorsi di apprendimento, adattare i contenuti alle specifiche esigenze neurodiverse, tradurre in tempo reale per abbattere le barriere linguistiche e fungere da tutor paziente e instancabile per chi ha bisogno di tempi più distesi. Tuttavia, un approccio etico richiede una vigilanza costante affinché queste tecnologie non divengano, al contrario, amplificatori di bias sociali, culturali o di genere preesistenti nei dati su cui sono state addestrate. La scuola deve farsi garante di un utilizzo equo, insegnando agli studenti a riconoscere i pregiudizi algoritmici e a comprendere che la “verità” fornita dalla macchina è sempre una probabilità statistica, mai un dogma infallibile. È compito del docente trasformare l’interazione con l’IA in un esercizio di educazione civica digitale, dove si analizza come i dati vengono raccolti, come gli algoritmi influenzano le nostre opinioni e come preservare la propria privacy e autonomia decisionale in un ecosistema sempre più sorvegliato e guidato dai dati. In questo quadro complesso, la figura del docente non ne esce sminuita, bensì enormemente potenziata e caricata di nuove, decisive responsabilità. Se il trasferimento nozionistico può essere in parte delegato o coadiuvato dalla tecnologia, la funzione educativa in senso stretto – quella di mentore, guida morale, motivatore e accenditore di scintille – diviene appannaggio esclusivo dell’essere umano. L’insegnante nell’era dell’IA è colui che insegna a navigare nel mare magnum dell’informazione sintetica distinguendo il segnale dal rumore, il fatto dall’allucinazione, la saggezza dalla mera conoscenza. È un architetto di esperienze di apprendimento che sa quando integrare la tecnologia per potenziare la lezione e quando, invece, chiedere ai suoi studenti di spegnere ogni schermo per guardarsi negli occhi, dibattere a voce viva e riscoprire la bellezza analogica del confronto umano diretto. L’uso etico dell’IA a scuola è, paradossalmente, un ritorno all’essenza della relazione educativa, liberata dalle incombenze burocratiche e ripetitive che l’automazione può farsi carico di svolgere.
Non possiamo, inoltre, ignorare la dimensione estetica ed esistenziale dell’apprendimento. La scrittura, la pittura, la composizione musicale e la risoluzione di problemi complessi sono attività che forgiano l’identità dell’individuo. Se delegassimo integralmente queste funzioni all’IA, rischieremmo di allevare una generazione di spettatori della propria vita, incapaci di esprimere il proprio mondo interiore senza un’intermediazione algoritmica. Il manifesto per un uso responsabile deve quindi sancire il “diritto alla fatica”, intesa come sforzo costruttivo che plasma il carattere e le competenze. L’IA deve intervenire per rimuovere gli ostacoli inutili, non per spianare le montagne che è necessario scalare per fortificare i muscoli dell’intelletto. Dobbiamo promuovere una pedagogia della resistenza cognitiva, che valorizzi il tempo lento della riflessione, la bellezza dell’imperfezione umana e l’importanza dell’errore come momento generativo di conoscenza, in contrapposizione alla perfezione standardizzata e immediata della risposta artificiale.
Guardando al futuro prossimo, l’adozione dell’IA nelle nostre scuole deve essere guidata da un principio di precauzione proattiva e di trasparenza radicale. Ogni strumento introdotto in classe deve essere vagliato non solo per la sua efficacia tecnica, ma per il suo impatto pedagogico e psicologico a lungo termine. Dobbiamo chiederci costantemente se l’uso di una determinata tecnologia stia aumentando l’autonomia dello studente o la sua dipendenza, se stia stimolando la sua creatività o la stia omologando a pattern statistici mediocri. La scuola deve rimanere uno spazio sicuro, un laboratorio protetto dove l’innovazione è al servizio della persona e non viceversa. In tal senso, è fondamentale che i dati prodotti dagli studenti durante le loro interazioni con le piattaforme educative siano custoditi gelosamente e non divengano merce di scambio nell’economia dell’attenzione. La sovranità sui propri dati e sui propri processi cognitivi è la prima forma di libertà che dobbiamo garantire alle nuove generazioni.
Concludendo questa riflessione, che vuole essere pietra angolare per l’anno scolastico che verrà e per quelli a seguire, l’invito che rivolgiamo a dirigenti, docenti, studenti e famiglie è quello di abbracciare l’Intelligenza Artificiale con “ottimismo critico”. Non dobbiamo temere che le macchine sostituiscano l’uomo, ma dobbiamo temere che l’uomo, per pigrizia o disattenzione, inizi a pensare e agire come una macchina. La sfida che abbiamo di fronte è quella di costruire un Nuovo Umanesimo Digitale, in cui la tecnologia più avanzata si sposi con i valori più antichi e profondi della nostra civiltà: l’empatia, la solidarietà, la ricerca della verità e la bellezza. Utilizzare l’IA in modo etico e responsabile significa, in ultima analisi, utilizzarla per diventare più umani, per liberare tempo ed energie da dedicare alla cura degli altri e del mondo che abitiamo. Che questo manifesto non resti lettera morta, ma diventi prassi quotidiana, dialogo vivo e bussola sicura per navigare verso un futuro in cui l’intelligenza artificiale sia il vento che gonfia le vele del nostro ingegno, ma dove il timone resti, saldamente e orgogliosamente, nelle nostre mani.

Paolo Benanti (Roma, 20 luglio 1973) è un presbitero, teologo e filosofo italiano del Terzo ordine regolare di San Francesco. Insegna presso la LUISS Guido Carli e presso l’Università di Seattle ed è stato consigliere di papa Francesco sui temi dell’intelligenza artificiale e dell’etica della tecnologia. È l’unico italiano membro del Comitato sull’intelligenza artificiale delle Nazioni Unite.