A confronto

L’IA e il Futuro dell’Istruzione: Rotture, Dilemmi e Direzioni

Executive Summary

Questo documento di briefing sintetizza le principali riflessioni contenute nella pubblicazione dell’UNESCO “AI and the future of education: Disruptions, dilemmas and directions”. L’intelligenza artificiale (IA) sta emergendo come una forza dirompente nel settore dell’istruzione, generando speranze, tensioni e profondi dilemmi. Se da un lato l’IA promette di rivoluzionare l’apprendimento attraverso la personalizzazione su larga scala, l’automazione delle valutazioni e nuovi strumenti pedagogici, dall’altro minaccia di aggravare le disuguaglianze esistenti, erodere il pensiero critico e mercificare l’istruzione.

Un tema centrale è la disparità di accesso: mentre un terzo dell’umanità rimane offline, i modelli di IA più avanzati sono riservati a chi dispone di abbonamenti, infrastrutture e vantaggi linguistici. Ciò determina quali conoscenze, valori e lingue dominano i sistemi che influenzano sempre più l’istruzione. La pubblicazione dell’UNESCO funge da “bene comune dialogico”, riunendo pensatori globali per esplorare queste complessità, sfidare le narrazioni dominanti e immaginare futuri educativi equi.

Le riflessioni chiave includono:

  • Provocazioni Filosofiche: L’IA non è solo uno strumento, ma una forza che scuote le fondamenta ontologiche ed epistemologiche dell’istruzione. Si propongono visioni del mondo alternative che privilegiano l’armonia, la relazionalità e l’educazione alla saggezza rispetto ai paradigmi basati sull’efficienza e l’ottimizzazione.
  • Poteri e Pericoli: Esiste una profonda tensione tra le visioni tecno-ottimiste, che vedono l’IA come un acceleratore della riforma educativa, e le critiche che la considerano una forza che richiede controllo democratico e moderazione etica, denunciando i modelli linguistici di grandi dimensioni (LLM) come strumenti che producono disinformazione su misura e concentrano il potere in pochi attori commerciali.
  • Pedagogia e Valutazione: L’iper-personalizzazione algoritmica rischia di isolare gli studenti e di appiattire la complessità del pensiero umano. L’IA generativa sta rendendo obsoleti i sistemi di valutazione tradizionali, aprendo la possibilità di valutazioni formative continue e centrate sull’uomo (“apprendimento cyber-sociale”), ma anche il rischio di approfondire le disuguaglianze globali.
  • Centralità dell’Insegnante Umano: L’istruzione è intrinsecamente una relazione umana (I-Thou). Un’eccessiva dipendenza dall’IA rischia di minare le condizioni che supportano l’autodeterminazione, la curiosità e il benessere emotivo. L’IA deve essere progettata “con compassione” (“compassion by design”), attraverso la co-progettazione con gli insegnanti e ponendo al centro la cura, l’equità e la dignità pedagogica.
  • Etica e Governance: L’etica non deve essere un’aggiunta a posteriori, ma deve essere integrata fin dall’inizio attraverso una “etica della cura by design”. La governance deve affrontare la “governance sintetica”, in cui i processi decisionali sono sempre più modellati da logiche algoritmiche, richiedendo risposte democratiche critiche.
  • Disuguaglianze Codificate: L’IA rischia di perpetuare le disuguaglianze codificate. È fondamentale sviluppare approcci partecipativi e orientati alla giustizia che diano priorità alla diversità culturale e linguistica, specialmente per le comunità emarginate nel Sud Globale.
  • Politica e Geopolitica: L’IA è diventata uno strumento di arte di governo (“statecraft”), con una corsa geopolitica tra nazioni come Stati Uniti e Cina. Le politiche educative devono essere ripensate come processi di cambiamento dei sistemi e di apprendimento collettivo, mettendo in discussione ciò che conta come “evidenza” in un mondo in cui la conoscenza viene mercificata.

In conclusione, la pubblicazione invita a un dialogo più profondo e a un’azione collettiva per garantire che i futuri dell’istruzione, sebbene intrecciati con l’IA, siano definiti e dignificati dalla nostra comune umanità, salvaguardando l’istruzione come un bene pubblico.

Introduzione: L’IA come Forza dirompente nell’Istruzione

L’intelligenza artificiale sta entrando nell’istruzione non in silenzio, ma come una forza dirompente che suscita speranza, inquietudine e tensione. Scene che pochi anni fa erano impensabili—un bambino in Ghana che fa pratica di algebra con un tutor IA su WhatsApp, un’adolescente nel Regno Unito che si confida con un “compagno” IA, o un avatar IA che tiene lezioni universitarie in Corea—si stanno moltiplicando a livello globale. Questi esempi illustrano come l’IA stia occupando spazi un tempo riservati agli esseri umani, diventando un attore interattivo che risponde, dialoga e ci coinvolge.

Questa rottura storica, tuttavia, porta con sé profonde contraddizioni e dilemmi. L’istruzione sta diventando un campo di battaglia per modelli di IA commerciali di frontiera che promettono velocità ed efficienza, ma minacciano la lentezza necessaria per l’apprendimento profondo e la connessione umana. Gli stessi sistemi che aprono nuove prospettive rischiano di causare scarico cognitivo, un declino del pensiero critico e di rafforzare i divari di accesso, genere e lingua.

Di fronte a queste tensioni, è necessario un processo di costruzione collettiva del senso, immaginazione etica e una leadership coraggiosa. La pubblicazione dell’UNESCO “AI and the future of education” si propone come uno spazio di dialogo per costruire un “bene comune dialogico” sull’IA nell’istruzione. Riunisce 21 saggi di pensatori, educatori e agenti di cambiamento globali per rendere visibili e confrontare visioni diverse e talvolta contrastanti, con l’obiettivo di ampliare la conversazione, far emergere le voci messe a tacere e promuovere direzioni più etiche e socialmente mirate per i futuri educativi.

Analisi dei Temi Principali

La pubblicazione è strutturata attorno a sette temi interconnessi che esplorano le rotture, i dilemmi e le direzioni future dell’IA nell’istruzione.

1. Provocazioni Filosofiche sui Futuri dell’IA nell’Istruzione

Questa sezione mette in discussione le fondamenta dell’istruzione in un mondo potenziato dall’IA, invitando a una riflessione più profonda sul significato di apprendere, essere e divenire.

  • Báyò Akómoláfé propone una visione post-umanista, in cui l’IA non è un semplice strumento ma una forza che destabilizza le nostre certezze ontologiche ed epistemologiche. Egli introduce il concetto di paragogia (come i sistemi imparano) e di assemblaggi eco-cognitivi (la cognizione non è un evento privato ma un campo ecologico e relazionale). Invece di cercare soluzioni, Akómoláfé invita a “fare santuario nelle crepe”, ovvero a dimorare negli spazi in cui i paradigmi dominanti si fratturano, vedendoli come aperture per nuovi modi di sentire e coesistere.
  • Bing Song, ispirandosi alle filosofie classiche cinesi, propone una visione del mondo integrativa in cui esseri umani e non-umani sono in una relazione olistica e co-generativa. In questa prospettiva, le tecnologie sono interne agli esseri umani e l’IA può diventare un “compagno” che stimola l’auto-riflessione. L’istruzione deve superare il “paradigma dell’intelligenza”, basato su competenze e conoscenza, per abbracciare un'”educazione alla saggezza” che coltivi il discernimento etico e l’equilibrio interiore.
  • Mary Rice e Joaquín T. Argüello de Jesús utilizzano l’acqua come metafora per esplorare l’intreccio tra IA e istruzione. L’acqua è vista come:
    • Il primo insegnante: L’apprendimento è un processo lento, come l’acqua che modella una roccia.
    • La prima tecnologia: Il gioco con acqua e fango è un atto creativo e di apprendimento incarnato.
    • La prima scarsità: L’enorme consumo di acqua e energia da parte dell’IA solleva questioni ecologiche e di giustizia, evidenziando il rischio che i bambini più poveri vengano relegati a esperienze virtuali mentre i ricchi giocano nella natura.

2. Dibattito sui Poteri e i Pericoli dell’IA

Questa sezione presenta punti di vista divergenti sull’impatto dell’IA, riflettendo le tensioni tra tecno-ottimismo e scetticismo critico.

  • Andreas Horn (Visione Industriale): Propone una roadmap pragmatica per l’integrazione dell’IA, sottolineando la necessità di mettere la pedagogia al primo posto, investire negli insegnanti, promuovere l’alfabetizzazione obbligatoria all’IA e stabilire delle barriere di protezione (“guardrails”).
  • Emily M. Bender (Visione Critica): Definisce gli LLM un “trucco da salotto” che produce “disinformazione su misura”. Sostiene che la vera rottura non è tecnologica, ma consiste nella concentrazione di potere e influenza da parte di pochi attori commerciali che stanno ridisegnando l’istruzione pubblica secondo priorità private. Critica aspramente la narrazione dell’inevitabilità dell’IA.
  • Markus Deimann e Robert Farrow: Analizzano gli “immaginari contrastanti” sull’IA (utopici vs. distopici) e come questi influenzino le traiettorie educative. Sottolineano come il “cyberlibertarismo” e il “soluzionismo” stiano plasmando l’istruzione superiore, e chiedono di rivendicare immaginari basati su valori di inclusione, giustizia e cura.
Immaginario/IdeologiaDescrizioneCampi di Contesa
IA Utopica per l’IstruzioneL’IA come strumento per l’apprendimento personalizzato, l’accesso ampliato e l’equità educativa (allineato con l’SDG 4).Accesso vs. equità; Personalizzazione vs. standardizzazione.
IA come Educatore PerfettoL’IA come entità autonoma che insegna, valuta e fa da tutor, migliorando i risultati con un intervento umano minimo.Agenzia umana vs. automazione; Relazione insegnante-studente; Neutralità di genere del modello IA.
Tecno-soluzionismoLa convinzione che la tecnologia risolva intrinsecamente i problemi educativi (accesso, qualità, scala).Logica di mercato vs. bene pubblico; Qualità vs. quantità.
CyberlibertarismoL’ideologia secondo cui le tecnologie digitali dovrebbero operare al di fuori della regolamentazione governativa.Regolamentazione vs. autonomia; Democrazia vs. privatizzazione.
IA Distopica e Stato di SorveglianzaLa paura che l’IA venga usata per sorvegliare, controllare e manipolare gli ambienti educativi.Sorveglianza vs. autonomia; Libertà vs. controllo.
IA come Catastrofe EcologicaIl riconoscimento che le promesse dell’IA potrebbero essere insostenibili a causa degli enormi requisiti di dati ed energia.Sostenibilità vs. profitto; Implementazione etica vs. innovazione.

3. Pedagogie, Valutazione e Futuri Educativi Emergenti

Questa sezione esamina l’influenza dell’IA sulle pratiche pedagogiche fondamentali, con un’attenzione particolare all’iper-personalizzazione e alla valutazione.

  • Abeba Birhane sostiene che l’istruzione è un’impresa intrinsecamente relazionale, etica e politica. Critica l’idea che l’apprendimento possa essere ridotto a modelli probabilistici, avvertendo che i sistemi di IA addestrati su dati storici appiattiscono la complessità del pensiero umano e riproducono le disuguaglianze sistemiche. Chiede una resistenza all’adozione acritica dell’IA fino a quando non saranno in vigore una supervisione indipendente e tutele normative.
  • Carla Aerts e Paul Prinsloo mettono in guardia contro l’iper-personalizzazione, che pur promettendo istruzione differenziata, rischia di isolare gli studenti in “camere dell’eco” e “bolle di filtraggio”, riducendo l’autonomia e marginalizzando il ruolo dell’insegnante. Propongono approcci centrati sull’uomo in cui l’IA agisce come una “terza presenza” di supporto nell’intelligenza sociale collettiva.
  • Il tema della valutazione viene affrontato da due prospettive complementari:
    • Mike Perkins e Jasper Roe sostengono che l’IA generativa espone le vulnerabilità dei sistemi di valutazione tradizionali e approfondisce le disuguaglianze globali. Propongono un quadro di riferimento, l’AI Assessment Scale (AIAS), per guidare gli insegnanti nel decidere quando l’uso dell’IA supporta o compromette l’apprendimento.
    • Bill Cope, Mary Kalantzis e Akash Kumar Saini offrono una prospettiva più ottimista. Vedono l’IA come un partner per creare una valutazione continua, formativa e centrata sull’uomo. Il loro concetto di “apprendimento cyber-sociale” riformula l’IA come un collaboratore che arricchisce il feedback degli studenti e rafforza le pedagogie relazionali, superando i test standardizzati ad alto rischio.

4. Rivalutare e Ricentrare gli Insegnanti Umani

Le riflessioni in questa sezione si concentrano sulla ridefinizione del ruolo dell’insegnante in contesti didattici sempre più potenziati dall’IA.

  • Ching Sing Chai, Jiun-Yu Wu e Thomas K.F. Chiu ricordano che l’istruzione non è solo trasmissione di conoscenza, ma la coltivazione di soggetti capaci di autonomia e riflessione critica. Basandosi sul lavoro di Martin Buber, sottolineano la centralità della relazione insegnante-studente (I-Thou) e avvertono che un’eccessiva dipendenza dall’IA rischia di minare le condizioni che supportano l’autodeterminazione, la curiosità e il benessere emotivo.
  • Arafeh Karimi offre una roadmap pratica basata su una “compassione by design“. Propone sette cambiamenti attuabili per integrare cura, equità e responsabilità relazionale nello sviluppo e nella governance dei sistemi di IA. Questi includono:
    1. Co-progettazione partecipativa con insegnanti e studenti.
    2. Spiegabilità guidata dall’equità.
    3. Audit sulla fiducia e il benessere.
    4. Flussi di lavoro che incoraggiano pause e riflessione.
    5. Valutazione dell’appartenenza e della riflessione.
    6. Percorsi adattivi e continuità narrativa (“wayfaring”).
    7. Gestione etica dei dati guidata dagli educatori.

5. Imperativi Etici e di Governance per i Futuri dell’IA

Questa sezione affronta la complessa questione di chi stabilisce le regole per la progettazione, l’implementazione e il monitoraggio dell’IA nell’istruzione.

  • Kaśka Porayska-Pomsta e Isak Nti Asare propongono un'”etica della cura by design“, sostenendo che l’etica deve essere integrata fin dall’inizio attraverso processi di progettazione partecipativi che diano priorità alle realtà vissute da studenti e insegnanti, riconoscendo l’istruzione come un processo umano di crescita, vulnerabilità e interdipendenza.
  • Kalervo N. Gulson e Sam Sellar esaminano l’ascesa della “governance sintetica“, una modalità di processo decisionale sempre più modellata da sistemi algoritmici e logiche macchiniche. La loro nozione di “politica sintetica” sfida l’assunto di neutralità dell’IA e richiede risposte democratiche critiche che mettano in primo piano i valori, la partecipazione e il potere.

6. Affrontare le Disuguaglianze Codificate nell’Istruzione

I quattro saggi in questa sezione offrono immaginari sociali alternativi per affrontare le emergenti forme di disuguaglianze codificate, concentrandosi sull’agenzia umana, la diversità culturale e le realtà degli studenti emarginati nel Sud Globale.

  • Vukosi Marivate, Nombuyiselo Caroline Zondi e Baphumelele Masikisiki propongono una visione per l’integrazione dell’IA nell’istruzione superiore africana, radicata nell’equità e nel pluralismo culturale. Sostengono approcci partecipativi e guidati a livello locale che diano priorità all’agenzia umana e alla conoscenza contestuale, con sistemi di IA in grado di supportare le lingue sottorappresentate.
  • Kiran Bhatia e Payal Arora sfidano i paradigmi protezionistici che vedono le giovani donne come rischi da gestire. Offrono una visione dell’IA nell’istruzione centrata sulla gioia, la creatività e l’agenzia trasformativa, celebrando l’ingegno e la resilienza delle giovani donne.
  • Yuchen Wang chiede chiarezza concettuale su cosa significhi inclusione, enfatizzando la relazionalità e l’appartenenza rispetto a una personalizzazione ristretta.
  • Marloes Williams van Elswijk evidenzia le complesse realtà degli studenti sordi e con problemi di udito (DHH), sostenendo sistemi di IA multimodali co-progettati con le comunità DHH.

7. Ripensare le Politiche sull’IA nell’Istruzione

Gli ultimi due saggi esplorano le direzioni politiche e il ruolo del processo decisionale basato sull’evidenza.

  • George Siemens osserva che l’IA è sempre più uno strumento di arte di governo (“statecraft”), con paesi come Stati Uniti e Cina che investono in essa con la stessa lungimiranza strategica riservata al potere militare ed economico. Questa corsa geopolitica sottolinea l’urgenza per i ministri dell’istruzione di affrontare le politiche come un processo di cambiamento dei sistemi e di apprendimento collettivo.
  • Ilkka Tuomi critica la mercificazione della conoscenza sotto l’IA generativa. Propone di riformulare le politiche educative come un processo di costruzione collettiva del senso (“collective sense-making”) e di sperimentazione evolutiva. Invita a ripensare a ciò che conta come “evidenza” e a progettare l’evidenza per servire il processo decisionale come un sistema di apprendimento intelligente.

Conclusione: Il Ruolo dell’UNESCO

L’antologia dimostra che navigare l’intersezione tra IA e istruzione richiede più di semplici politiche tecniche; esige forme più profonde di dialogo, riflessione e immaginazione. Le storie che raccontiamo sull’IA e sui futuri dell’istruzione sono ancora in fase di scrittura, e vi è una responsabilità collettiva di plasmarle con cura, chiarezza e coraggio.

L’UNESCO si impegna a continuare a guidare questo discorso globale attraverso tre aree d’azione principali:

  1. Custode di un’IA Etica ed Equa nell’Istruzione: L’UNESCO promuoverà sistemi che coltivino l’agenzia umana etica, l’equità e la giustizia sociale, contrastando l’influenza tecnocratica e aziendale e combattendo la discriminazione algoritmica.
  2. Leader di Pensiero nel Ripensare Curriculum e Pedagogia: L’organizzazione guiderà l’esplorazione di nuovi cambiamenti curriculari e pedagogici che diano priorità al pensiero critico, alle pedagogie della cura e al ragionamento etico.
  3. Piattaforma per Dialoghi Pluralistici: L’UNESCO continuerà a convocare forum deliberativi in cui diverse comunità, discipline e culture possano confrontarsi con le controversie sull’IA, amplificando le voci delle comunità emarginate

Assolutamente! Ottima scelta di approfondimento. Il concetto di Pluriverso è fondamentale nelle prospettive etiche non occidentali, specialmente nella visione offerta da Báyò Akómoláfé.

Il Pluriverso è una critica diretta all’idea di Universalità e al modo in cui le architetture globali e tecnologiche tendono a imporre la standardizzazione e l’omogeneizzazione.

Ecco un approfondimento del concetto di Pluriverso secondo le fonti:

🌌 1. Il Pluriverso come Molteplicità di Mondi

Il Pluriverso è definito da Akómoláfé come i molti mondi all’interno di questo mondo (the many worlds within this world).

  • Opposizione all’Universalismo: L’universalismo è criticato perché impone l’estetica e la macchina della standardizzazione. L’idea di “globale” non è vista come una categoria neutra, ma come una “geografia di cancellazione” (“geography of erasure”) che oscura il pluriverso. Il Pluriverso non si adatta ordinatamente alle rubricche standardizzate.
  • Pluralismo Irriducibile: L’universalità assume che principi come l’equità, l’inclusione e l’apprendimento permanente siano auto-evidenti e universalmente desiderabili. Tuttavia, questi principi, per quanto ben intenzionati, possono nascondere una violenza più profonda: il rifiuto dell’alterità e dell’inintelligibilità, ovvero il rifiuto di mondi che non cercano riconoscimento secondo i termini familiari.

🌳 2. Implicazioni Filosofiche e per la Governance

Il concetto di Pluriverso è strettamente legato alle epistemologie indigene e relazionali (come quelle Yolngu in Australia o le cosmologie Andine).

  • Conoscenza come Relazione: In questi mondi, la conoscenza non è una proprietà, ma una relazione. Esempi includono mondi in cui l’apprendimento non è un viaggio individuale di padronanza, ma la memoria di un fiume.
  • Compostare l’Universalità: Impegnarsi con il Pluriverso non significa semplicemente estendere l’universalità per includere più voci. Significa “compostare l’universalità stessa” (compost universality). Questo processo permette che l’universalità “marcisca nel terreno di nuove grammatiche di convivenza”.
  • Grammatiche Non Traducibili: Il punto cruciale è che queste nuove “grammatiche di convivenza” potrebbero non essere mai universalmente traducibili.

📜 3. Ridefinire i Diritti e l’Etica nel Pluriverso

Nel contesto del Pluriverso, anche concetti fondamentali come i diritti (spesso visti da UNESCO come diritti universali e standardizzati) devono essere ripensati:

  • Diritti come Proprietà Emergenti della Relazione: I diritti non devono essere considerati come titoli astratti che fluttuano al di sopra del contesto. Devono essere visti come proprietà emergenti della relazione.
  • Rituali di Responsabilità: Akómoláfé suggerisce che i diritti dovrebbero essere visti come rituali di responsabilità che sorgono dal suolo, dai legami di parentela (kin) e dagli specifici intrecci (entanglements) che rendono possibile una vita. Il diritto non è ciò che si richiede al mondo, ma il modo in cui ci si presenta al mondo.

In sintesi, il Pluriverso è la prospettiva che invita la governance e l’educazione a riconoscere che non esiste un unico “mondo” governato da principi universali e standardizzati, ma una coesistenza inestricabile di molti mondi. Rifiutare l’universalità in favore del Pluriverso è un invito a creare spazi dove possono emergere nuove e uniche grammatiche di convivenza, anche se incomprensibili o intraducibili, sfidando così l’approccio tecnorazionalista che cerca di risolvere i problemi attraverso la standardizzazione e il controllo.


I quadri etici non occidentali e le filosofie relazionali offrono prospettive alternative che enfatizzano l’armonia, la cura, la contestualizzazione e la pluralità come principi fondamentali per la governance dell’IA nell’educazione.

I contributi esaminati nelle fonti evidenziano in particolare tre prospettive chiave che offrono quadri etici e di governance più solidi:

💡 1. L’Integrazione Orientale e la Saggezza (Wisdom Education)

Bing Song invoca tradizioni filosofiche, radicate in visioni integrative ricche nelle tradizioni e pratiche asiatiche, africane e indigene, che concettualizzano gli esseri umani e gli attori non umani in una relazione olistica, relazionale, mutualmente inclusiva e cogeneratrice.

  • L’Etica della Relazionalità e della Cura: Il fondamento metafisico, tracciato nella filosofia cinese classica (come il Dao), implica che gli esseri umani abbiano l’imperativo etico di apprezzare la relazionalità e l’interazione dinamica all’interno di questo ordine olistico, mostrando cura, responsabilità e sensibilità morale verso tutto ciò che li circonda.
  • Cameratismo Universale (Universal Camaraderie): Ispirandosi allo studioso neo-confuciano Zhang Zai, l’etica del “cameratismo universale” (min bao wu yu) suggerisce di considerare tutte le persone come fratelli e sorelle e tutte le cose come nostri compagni. Questo pone le tecnologie come riflessi della coscienza e delle intenzioni umane, non entità esterne.
  • Governance attraverso l’Auto-riflessione: La paura dei sistemi di IA è, in realtà, la paura degli esseri umani. Per contrastare i rischi, la chiave di volta è che gli esseri umani si impegnino nell’auto-riflessione e nella modifica comportamentale per progettare e implementare sistemi di IA in modo ponderato, lasciando dietro di sé dati che riflettano la deliberazione morale e la sensibilità umana.
  • Educazione alla Saggezza (Wisdom Education): La governance dell’IA nell’educazione dovrebbe includere l’“educazione alla saggezza” nel curriculum di base, che rifletta su cosa significhi essere umani e sulla natura della realtà. Questo approccio contrasta la tendenza a ridurre l’educazione a metriche ristrette di abilità e intelligenza (il paradigma dell'”intelligenza”) e aiuta a riconcettualizzare gli esseri umani nell’ambiente pervasivo dell’IA.

🌍 2. Prospettive Africane e la Governance Contestualizzata

Le riflessioni sull’integrazione dell’IA nell’istruzione superiore in Africa propongono una visione radicata nell’equità, nel pluralismo culturale e nelle realtà quotidiane di studenti ed educatori.

  • Priorità al Contesto Locale e alla Cura Pedagogica: Si promuovono approcci partecipativi e a guida locale che danno priorità all’agency umana, alla cura pedagogica e alla conoscenza contestuale. Questo è fondamentale per la governance, poiché assicura che i sistemi di IA non siano semplicemente tradotti, ma trasformati per riconoscere le diverse modalità comunicative, supportare le lingue sottorappresentate e riflettere gli immaginari sociali delle comunità locali.
  • Contrasto alle Disuguaglianze Codificate: La governance deve confrontarsi con il fatto che le IA, spesso addestrate primariamente sull’inglese e basate su prospettive occidentali, rischiano di emarginare le lingue indigene, i modi di conoscere non occidentali e i bisogni delle comunità multilingui, specialmente nel Sud Globale.
  • Azioni di Governance Concrete: Le strategie di governance in questi contesti includono l’implementazione di strumenti di IA compatibili offline e la calibrazione dei modelli guidata dagli insegnanti. Devono essere stabiliti quadri etici per l’uso dei dati, come i data trust comunitari con repository governati localmente, per evitare l’estrazione storica dei dati.

🏞️ 3. Epistemologie Indigene e Relazionali (Il Pluriverso)

Báyò Akómoláfé, attingendo al pensiero post-umanista e relazionale, offre una prospettiva che sfida direttamente i concetti occidentali di sovranità, universalità e controllo, proponendo un approccio alla governance basato sull’entanglement (intreccio) e il pluriverso.

  • Rifiuto dell’Universalismo (Il Pluriverso): Akómoláfé critica l’idea di universalità, sostenendo che il “globale” è una geografia di cancellazione che impone la standardizzazione, oscurando il pluriverso—i molti mondi all’interno di questo mondo.
    • Le politiche di governance dovrebbero quindi compostare l’universalità e permettere l’emergere di nuove grammatiche di convivenza che potrebbero non essere universalmente traducibili.
  • Conoscenza come Relazione: Le epistemologie indigene (come quelle Yolngu in Australia, o le cosmologie Andine) insegnano che la conoscenza non è una proprietà, ma una relazione. I fiumi, gli antenati e gli esseri non umani sono co-insegnanti.
  • Ridefinire la Governance e l’Etica: La governance dell’IA non dovrebbe mirare a risolvere problemi o controllare (logica tecnorazionalista), ma ad “abitare le crepe” (make sanctuary in the cracks), quegli spazi dove i paradigmi dominanti si fratturano.
  • Etica per Sofferenza (Ethics-by-Distress): Invece di un'”etica per design” (che perpetua il controllo antropocentrico), si può sperimentare con un'”etica per sofferenza“: un’etica che emerge in risposta alle crepe, che ascolta e che esita, riconoscendo che l’IA potrebbe disorientare la nostra immagine dell’umano.

In sintesi, per la governance dell’IA nell’educazione, i quadri non occidentali suggeriscono un orientamento che si allontana dal modello di ottimizzazione e di controllo (spesso associato ai design occidentali) a favore di un modello relazionale e situato che:

  1. Valorizza la Saggezza e la coltivazione morale (Asia).
  2. Riconosce l’Agency Umana come intrecciata con l’IA, anziché sovrana o isolata.
  3. Prioritizza la Contesualizzazione Culturale e Linguistica (Global South/Africa) per garantire che l’equità non sia un’illusione.
  4. Enfatizza la Responsabilità verso l’entanglement complessivo (Pluriverso) piuttosto che il mero rispetto di regole astratte.

L’obiettivo è trasformare l’IA da una forza guidata dal mercato e dall’efficienza in un collaboratore in un ecosistema in evoluzione in cui l’equità, l’appartenenza e la dignità pedagogica sono deliberatamente coltivate.

Assolutamente! 😊 La sua domanda tocca un punto fondamentale: l’esigenza di quadri etici per l’IA nell’educazione che vadano oltre l’impostazione occidentale, spesso incentrata sull’efficienza e sul controllo. Le fonti che abbiamo a disposizione offrono prospettive non occidentali ricche e interconnesse, in particolare derivanti dalle tradizioni filosofiche asiatiche, africane e indigene, che enfatizzano la relazionalità, la saggezza, la cura e la contestualizzazione come principi guida per la governance dell’IA.

Di seguito sono riportati i quadri etici non occidentali e le prospettive emergenti che offrono visioni alternative e più robuste per la governance dell’IA nell’educazione:

🌍 1. L’Etica Orientale dell’Integrazione e della Saggezza (Bing Song)

Bing Song invoca tradizioni filosofiche integrative, prevalenti nelle tradizioni asiatiche, africane e indigene, che concettualizzano gli esseri umani e gli altri attori non umani in una relazione olistica, relazionale, di inclusione reciproca e cogenerativa.

💡 Fondamenti Filosofici e Implicazioni per la Governance:

  • Olismo e Relazionalità: Il fondamento metafisico di questa visione, rintracciabile nel Dao della filosofia classica cinese, implica una connettività primordiale tra tutte le entità, umane e non umane (wan wu). In questo ordine olistico, gli esseri umani hanno l’imperativo etico di apprezzare la relazionalità e l’interazione dinamica, manifestando cura, responsabilità e sensibilità morale verso tutto ciò che li circonda.
  • Tecnologia come Riflesso Umano: Le tecnologie, inclusi i sistemi di IA, non sono entità esterne, ma riflessi della coscienza e delle intenzioni umane. La paura dei sistemi di IA è, in realtà, una paura degli esseri umani stessi.
  • Il Ruolo dell’Autocritica (Self-Reflection): Per contrastare i rischi dell’IA, la questione cruciale è che gli esseri umani si impegnino nell’auto-riflessione e nella modifica comportamentale per progettare e implementare i sistemi di IA in modo ponderato. Dobbiamo lasciare dietro di noi dati che riflettano la deliberazione morale e la sensibilità umana.
  • Educazione alla Saggezza (Wisdom Education): Per affrontare le sfide dell’IA, l’educazione dovrebbe andare oltre il paradigma dell’“intelligenza” (focalizzato su abilità e conoscenza) e includere l’“educazione alla saggezza” nel curriculum di base.
    • Questo tipo di educazione richiede di riflettere su cosa significhi essere umani, sulla natura del sé, della mente e della realtà.
    • L’obiettivo è contrastare l’“IA-izzazione” degli esseri umani creando uno spazio mentale riflessivo e aiutando a riconcettualizzare gli umani nell’ambiente pervasivo dell’IA.

🤝 Universal Camaraderie (Min Bao Wu Yu):

Il concetto di “cameratismo universale” (min bao wu yu), derivante dallo studioso neo-confuciano Zhang Zai (1020–1077), suggerisce di considerare tutte le persone come fratelli e sorelle e tutte le cose come nostri compagni. L’aspetto cruciale di questo antico insegnamento è che le “mirabili cose” (myriad things) servono come mezzo per sollecitare l’auto-riflessione umana e la modifica comportamentale.

🌳 2. Epistemologie Indigene e Prospettive Relazionali (Báyò Akómoláfé)

Báyò Akómoláfé, filosofo post-umanista e pensatore radicato nella tradizione Yoruba, offre una prospettiva che sfida i concetti occidentali di sovranità, universalità e controllo, suggerendo una governance basata sull’entanglement (intreccio) e il pluriverso.

🌀 Governance attraverso la Disorientazione e la Cura:

  • Ascoltare le “Crepe” (Cracks): Invece di risolvere i problemi (logica tecnorazionalista), la governance e l’etica dovrebbero emergere in risposta alle “crepe”—gli spazi dove i paradigmi dominanti si fratturano e dove possiamo “creare santuario” (make sanctuary).
  • Rifiuto dell’Universalismo (Il Pluriverso): L’idea di universalità è criticata come una “geografia di cancellazione” che impone la standardizzazione.
    • La governance dovrebbe “compostare l’universalità” (compost universality) e permettere l’emergere di nuove grammatiche di convivenza che potrebbero non essere universalmente traducibili.
  • Etica per Sofferenza (Ethics-by-Distress): Invece di un’etica per design (ethics-by-design), che cerca di controllare l’ignoto, si suggerisce un’“etica per sofferenza” (ethics-by-distress).
    • Questa è un’etica che emerge in risposta alle crepe, che piange, ascolta ed esita, riconoscendo che l’IA potrebbe disorientare la nostra stessa immagine di cosa sia l’umano.
  • Conoscenza come Relazione: Le epistemologie indigene (come quelle Yolngu in Australia, o le cosmologie Andine) insegnano che la conoscenza non è una proprietà, ma una relazione. Fiumi, antenati e esseri non umani sono co-insegnanti.
  • Valutazione basata sulla Relazione: La valutazione potrebbe focalizzarsi sui ritmi di cura dello studente, sulla loro responsività ai cambiamenti stagionali e sui gesti di reciprocità, piuttosto che sulla padronanza dei contenuti. La domanda diventa: “come sei stato toccato [dall’incontro]?”.

🇿🇦 3. L’Etica della Cura Contestualizzata e l’Equità Linguistica (Global South/Africa)

Le discussioni sull’integrazione dell’IA nell’istruzione superiore in Africa e le riflessioni sulle disuguaglianze codificate evidenziano la necessità di quadri etici che diano priorità all’equità, al pluralismo culturale e alla conoscenza contestuale.

🏞️ Principi di Governance Contestuale:

  • Approcci Participativi e Cura Pedagogica: Per garantire un’IA inclusiva e contestualizzata, è essenziale promuovere approcci partecipativi e a guida locale. La governance deve dare priorità all’agency umana, alla cura pedagogica e alla conoscenza contestuale.
  • Trasformazione Culturale e Linguistica: I sistemi di IA devono essere trasformati (non semplicemente tradotti) per riconoscere le diverse modalità comunicative, supportare le lingue sottorappresentate e riflettere gli immaginari sociali delle comunità locali.
  • Strategie di Governance per l’Equità: Per affrontare il rischio che l’IA addestrata principalmente in inglese e basata su prospettive occidentali emarginino le lingue indigene e le comunità multilingui, sono necessarie azioni specifiche di governance:
    • Sviluppo di strumenti di IA compatibili offline.
    • Calibrazione dei modelli guidata dagli insegnanti.
    • Istituzione di data trust comunitari con repository governati localmente per l’uso etico dei dati e per evitare l’estrazione storica dei dati.

Questi quadri non occidentali suggeriscono che una governance etica dell’IA nell’educazione non può essere limitata a regole astratte universali, ma deve essere relazionale, situata e centrata sulla coltivazione della saggezza e dell’armonia comunitaria, riconoscendo l’IA come un co-attore nell’evoluzione di un ecosistema educativo che valorizzi la dignità pedagogica e l’appartenenza.

😊 La parola “disruption” (disgregazione o rottura) è un concetto centrale nel contesto dell’Intelligenza Artificiale (IA) e del futuro dell’educazione, secondo il rapporto.

Il rapporto intende la “disruption” come una forza dirompente e trasformativa con profonde implicazioni per il settore educativo, che sconvolge i rituali familiari dell’insegnamento e dell’apprendimento.

Ecco i dettagli principali su cosa significa “disruption” nel contesto dell’IA nell’educazione:

💥 1. Una Forza che Sconvolge e Rimodella i Fondamenti

L’IA sta entrando nell’educazione non in modo silenzioso, ma come una forza dirompente (“disruptive force”) che solleva speranza, disagio e tensione. Questa presenza dell’IA, in particolare dell’IA generativa (GenAI), segna una “altra grande rottura storica nell’educazione” (“another major historical rupture in education”).

  • Sconvolgimento dei Ruoli Umani: L’IA sta subentrando in spazi e compiti che erano un tempo riservati esclusivamente agli umani, come il tutor matematico personalizzato, l’ascoltatore non giudicante disponibile 24/7 o persino il professore universitario digitale.
  • Rimodellamento della Conoscenza: Le aule, prima ancorate al “lavoro lento della pedagogia,” devono ora confrontarsi con algoritmi che accelerano, prevedono e rimodellano la natura stessa della conoscenza.
  • Contraddizioni e Dilemmi: Questa rottura porta con sé “profonde contraddizioni e dilemmi”. L’educazione sta diventando un campo di battaglia per modelli di IA commerciali che promettono velocità, efficienza e scalabilità, minacciando però la lentezza dove prosperano l’apprendimento profondo, la riflessione e la connessione umana.

🌪️ 2. La Disruption come Rottura Filosofica e Sistemica

Il concetto di disruption va oltre il mero cambiamento tecnologico, sfidando i fondamenti stessi del sistema educativo e della comprensione umana:

  • Sfida Ontologica ed Epistemologica: Báyò Akómoláfé in particolare inquadra l’IA non solo come uno strumento dirompente, ma come un catalizzatore per la riorientazione della civiltà (“civilizational reorientation”) e lo svelamento dei fondamenti della modernità. L’IA mette in crisi l’immagine dell’umano e il programma di “insediamento” (“settlement”), portando a un “disorientamento della civiltà“.
  • Rischio di Sostituzione Pedagogica: La GenAI e i Large Language Models (LLM) sono visti come una “forza dirompente” che minaccia di rendere i sistemi di valutazione tradizionali anacronistici e di spingere l’educazione a riconsiderare il suo scopo.
  • L’IA come Attore Interattivo: La presenza crescente dell’IA generativa (GenAI) rappresenta una rottura perché le macchine non sono più solo strumenti passivi, ma stanno rapidamente diventando “attori interattivi e agenti che rispondono, reagiscono e ci coinvolgono” come tutor, compagni e professori personalizzati, rimodellando cosa significa imparare e insegnare.

In breve, la “disruption” non è solo l’introduzione di nuovi strumenti, ma la crisi fondamentale dei paradigmi esistenti relativi a cosa sia l’apprendimento, chi sia l’essere umano (in relazione alla macchina) e come debbano essere governati i sistemi educativi.

Lascia un commento