Spiegabilità?

Intelligenza Artificiale Spiegabile (XAI) nel Contesto Educativo: Sintesi e Approfondimenti

Executive Summary

Il presente documento sintetizza i temi, le analisi e le conclusioni centrali riguardanti l’Intelligenza Artificiale Spiegabile (XAI) nel settore dell’istruzione, basandosi sul rapporto del Gruppo di lavoro dell’European Digital Education Hub. La XAI emerge non più come una mera esigenza tecnica per gli sviluppatori, ma come un pilastro fondamentale per garantire fiducia, equità e responsabilità nell’uso dei sistemi di IA in ambito educativo. La sua importanza è amplificata dal quadro normativo europeo, in particolare dall’AI Act e dal GDPR, che impongono rigorosi obblighi di trasparenza, sorveglianza umana e governance dei dati, classificando molte applicazioni educative, come i sistemi di valutazione e di ammissione, come “ad alto rischio”.

Il successo dell’integrazione della XAI richiede un approccio collaborativo e incentrato sull’essere umano, che riconosca le diverse esigenze dei vari stakeholder. Studenti, educatori, sviluppatori, dirigenti scolastici e policy maker necessitano di spiegazioni personalizzate, chiare e comprensibili per poter interagire in modo critico e consapevole con gli strumenti di IA. Questo imperativo rende l’alfabetizzazione all’IA e lo sviluppo di competenze specifiche per gli educatori il fulcro di un’implementazione responsabile. L’obiettivo non è la semplice adozione della tecnologia, ma la promozione del pensiero critico, la salvaguardia dell’autonomia decisionale umana e l’allineamento degli strumenti di IA con i valori e gli obiettivi pedagogici.

1. Fondamenti dell’IA Spiegabile (XAI)

L’Intelligenza Artificiale Spiegabile (XAI) è un sottocampo dell’IA che mira a fornire spiegazioni comprensibili sulle decisioni e sugli output generati da un sistema intelligente. Nata come esigenza tecnica per garantire l’affidabilità dei sistemi, la sua rilevanza è cresciuta esponenzialmente con la diffusione di massa dell’IA, diventando un requisito etico e legale imprescindibile.

1.1 Rilevanza Etica e Normativa

La XAI è un elemento chiave per la creazione di un’IA “affidabile”. Gli “Orientamenti etici per un’IA affidabile” della Commissione Europea (2019) identificano sette requisiti fondamentali, tra cui trasparenza, sorveglianza umana e accountability, per i quali la XAI fornisce un supporto pratico. Sebbene l’AI Act non menzioni esplicitamente la “spiegabilità”, i suoi requisiti in materia di trasparenza, governance dei dati e diritto alla spiegazione per le decisioni individuali ne sottolineano l’importanza.

La necessità di spiegazioni nasce da due caratteristiche intrinseche dei moderni sistemi di IA:

  1. Autonomia e Adattabilità: I sistemi di IA possono operare con alti livelli di autonomia, svolgendo compiti prima riservati agli esseri umani e rischiando di comprometterne l’agenzia.
  2. Complessità e Opacità: L’IA può elaborare input complessi per generare output difficilmente comprensibili per un essere umano, mancando al contempo di ragionamento, empatia e comprensione delle sfumature culturali.

A ciò si aggiunge il problema dell’imprecisione: a differenza del software tradizionale, i sistemi di IA non garantiscono sempre risultati corretti. È quindi essenziale che forniscano spiegazioni sull’accuratezza raggiunta per rafforzarne l’affidabilità.

1.2 Approcci Tecnici e la Sfida della Spiegabilità

Esistono due approcci principali all’IA, con implicazioni diverse per la spiegabilità:

ApproccioDescrizioneSpiegabilità
IA basata sulla ConoscenzaRappresenta la conoscenza umana tramite regole logiche e ragionamento probabilistico (es. Sistemi di Tutoraggio Intelligente basati su regole).Alta (White-Box): Le spiegazioni sono relativamente semplici da ottenere, in quanto la logica decisionale è esplicita e tracciabile, simile a un software tradizionale.
IA basata sui Dati (Data-Driven)Estrae conoscenza direttamente dai dati attraverso algoritmi di Machine Learning (ML) che identificano pattern nascosti (es. reti neurali artificiali).Bassa (Black-Box): Le decisioni derivano da complessi insiemi di parametri numerici. Ottenere spiegazioni chiare è una sfida tecnica significativa.

I recenti progressi nel Machine Learning hanno reso l’approccio basato sui dati dominante. Tuttavia, settori critici come l’istruzione e la sanità continuano a privilegiare la spiegabilità, anche a scapito di performance inferiori. La ricerca sta attivamente sviluppando tecniche “post-hoc” per estrarre spiegazioni anche da modelli complessi.

1.3 Concetti Chiave della XAI

La XAI si articola attorno a quattro concetti fondamentali, organizzati in una dimensione tecnica e una umana:

  • Dimensione Tecnica (lato sviluppatore):
    • Trasparenza: Principio etico fondamentale. Il sistema di IA è sviluppato in modo da rendere disponibili informazioni su dati, modelli, processi, risultati e scopo, garantendo tracciabilità e spiegabilità.
    • Interpretabilità: Caratteristica intrinseca del modello di IA che descrive la facilità con cui un essere umano (tipicamente uno sviluppatore) può comprenderne il funzionamento interno. I modelli possono essere intrinsecamente interpretabili (white-box) o opachi (black-box).
  • Dimensione Umana (lato utente):
    • Spiegabilità: Caratteristica attiva di un sistema di IA, che adotta meccanismi specifici per giustificare e chiarire il proprio comportamento e le proprie decisioni agli utenti finali.
    • Comprensibilità: Misura dell’effettiva utilità della XAI. Si riferisce al grado in cui un utente finale riesce a comprendere una spiegazione, tenendo conto delle sue esigenze cognitive e del suo contesto.

1.4 Caratteristiche di una Spiegazione Efficace

Per essere eticamente responsabile e utile, una spiegazione fornita da un sistema di IA dovrebbe possedere le seguenti caratteristiche:

CategoriaSottocaratteristicaDescrizione
ChiarezzaLinguaggio semplice, Livelli di dettaglioLa spiegazione deve essere accessibile, evitando tecnicismi e offrendo la possibilità di approfondire.
PertinenzaRilevanza contestuale, Utilità praticaLa spiegazione deve essere pertinente al contesto applicativo e aiutare l’utente a prendere decisioni.
SpecificitàLogica del modello, Limiti e incertezzeDeve chiarire il processo decisionale (es. dati usati) e comunicare i livelli di affidabilità o incertezza.
TracciabilitàResponsabilità, VerificabilitàDeve essere chiaro chi è responsabile del sistema e deve permettere la verifica del processo decisionale.
CoerenzaSpiegazioni coerenti, Assenza di contraddizioniLa logica della spiegazione deve essere consistente per input simili e non deve contraddirsi a diversi livelli di dettaglio.

2. Quadro Normativo Europeo per l’IA nell’Istruzione

L’approccio dell’Unione Europea alla regolamentazione del digitale è fondato sulla tutela dei diritti fondamentali e sulla promozione di un’IA affidabile e centrata sull’uomo. L’AI Act, il GDPR e altre normative correlate creano un ecosistema legale complesso che impone obblighi precisi agli attori del settore educativo.

2.1 L’AI Act e il suo Impatto sul Settore Educativo

L’AI Act adotta un quadro normativo basato sul rischio, classificando i sistemi di IA in quattro categorie. Molte applicazioni in ambito educativo rientrano nella categoria ad alto rischio, tra cui:

  • Sistemi che determinano l’accesso a istituti di istruzione e formazione.
  • Sistemi destinati a valutare i risultati dell’apprendimento.

Per questi sistemi, la maggior parte degli obblighi ricade sui fornitori (sviluppatori), ma anche i deployer (es. istituti scolastici, educatori) hanno responsabilità significative.

Altre pratiche sono invece considerate a rischio inaccettabile e quindi vietate nel contesto educativo, come:

  • Il social scoring basato su comportamenti o caratteristiche personali.
  • Sistemi utilizzati per dedurre le emozioni di una persona negli istituti di istruzione.

2.2 Obblighi Chiave e Responsabilità

Per i sistemi ad alto rischio, l’AI Act stabilisce obblighi fondamentali:

  • Sorveglianza Umana (Art. 14): I sistemi devono essere progettati per consentire una supervisione umana efficace (“human-in-the-loop”). I deployer devono garantire che personale competente possa monitorare il sistema e, se necessario, intervenire o ignorare le decisioni automatiche.
  • Trasparenza e Informazione (Art. 13): I fornitori devono fornire ai deployer istruzioni chiare su capacità, limiti, rischi e modalità di interpretazione degli output.
  • Dati e Governance dei Dati (Art. 10): I set di dati usati per l’addestramento devono essere pertinenti, rappresentativi e privi di errori per evitare bias e discriminazioni.
  • Valutazione d’Impatto sui Diritti Fondamentali (FRIA) (Art. 27): I deployer che sono enti pubblici o forniscono servizi pubblici devono condurre una FRIA prima di implementare un sistema ad alto rischio.
  • Diritto alla Spiegazione (Art. 86): Le persone interessate da una decisione assistita da un sistema di IA hanno il diritto di ottenere dal deployer una spiegazione “chiara e significativa”.

2.3 Intersezione con il GDPR e Altre Normative Digitali

L’AI Act si integra con il corpus normativo digitale dell’UE:

  • GDPR: Disciplina il trattamento dei dati personali. L’articolo 22 vieta decisioni basate esclusivamente su trattamenti automatizzati che producono effetti giuridici significativi, a meno che non vi sia un’adeguata supervisione umana. Impone inoltre obblighi di trasparenza (artt. 12-14) e la necessità di Valutazioni d’Impatto sulla Protezione dei Dati (DPIA) per trattamenti a rischio elevato.
  • Digital Services Act (DSA): Impone trasparenza sugli algoritmi delle piattaforme online (es. sistemi di raccomandazione dei contenuti in una piattaforma di e-learning) e obblighi specifici per la protezione dei minori.
  • Data Act e Data Governance Act (DGA): Regolano la condivisione sicura e l’interoperabilità dei dati, promuovendo l’innovazione ma con regole chiare su accesso e utilizzo.

3. La XAI in Pratica: Prospettive degli Stakeholder

L’efficacia della XAI dipende dalla sua capacità di rispondere alle esigenze eterogenee degli stakeholder del mondo educativo. Spiegazioni puramente tecniche non sono sufficienti; è necessario un approccio orientato all’utente che utilizzi formati comprensibili, come le spiegazioni visive (dashboard, grafici, diagrammi), per comunicare la logica dell’IA in modo intuitivo.

3.1 Analisi dei Casi d’Uso

L’analisi di due applicazioni comuni di IA in educazione rivela le diverse necessità di spiegabilità.

Caso d’Uso 1: Sistema di Tutoraggio Intelligente (ITS)

Un ITS che personalizza l’apprendimento della matematica per una studentessa della scuola primaria.

  • Studenti: Hanno bisogno di spiegazioni semplici per capire perché vengono assegnati certi esercizi. Questo promuove fiducia, coinvolgimento e apprendimento autonomo.
  • Insegnanti: Necessitano di spiegazioni per validare le raccomandazioni dell’IA, allinearle agli obiettivi pedagogici e mantenere la sorveglianza umana, potendo intervenire o modificare i percorsi suggeriti.
  • Leader Educativi: Richiedono spiegazioni a livello più aggregato per garantire che l’ITS sia equo, accessibile, allineato alle politiche istituzionali e conforme alle normative sulla protezione dei dati.
  • Sviluppatori: Devono implementare tecniche XAI per rendere le raccomandazioni trasparenti e integrare meccanismi di feedback per un miglioramento continuo, garantendo al contempo l’integrità dei dati.

Caso d’Uso 2: Generatore di Piani di Lezione (LPG)

Un LPG che assiste un’insegnante nella creazione di lezioni per una classe con abilità miste.

  • Insegnanti: Cercano spiegazioni che giustifichino le attività e le risorse suggerite, per mantenere il controllo professionale e adattare il piano generato al proprio stile didattico e alle dinamiche della classe.
  • Progettisti Curricolari: Hanno bisogno di trasparenza per verificare che i piani generati siano allineati agli standard curricolari e per identificare e mitigare eventuali bias culturali o pedagogici.
  • Policy Maker: Esigono garanzie di equità, responsabilità e protezione dei dati, richiedendo meccanismi che rendano i sistemi trasparenti e soggetti a supervisione.
  • Sviluppatori: Devono garantire che lo strumento generi output pertinenti e spiegabili, utilizzando tecniche XAI per chiarire la logica dietro la selezione dei contenuti e permettendo un’ampia personalizzazione da parte dell’insegnante.

3.2 Tassonomia della Spiegabilità nell’Istruzione

Per soddisfare queste diverse esigenze, le spiegazioni possono essere classificate secondo quattro dimensioni chiave:

DimensioneDescrizioneEsempio Educativo
AmbitoSpiegazioni globali (sul comportamento generale del modello) o locali (su una decisione specifica).Globale: Comprendere perché un sistema di valutazione tende a dare voti più bassi a un certo gruppo demografico. Locale: Spiegare perché a uno specifico studente è stato assegnato un certo voto.
ProfonditàSpiegazioni esaurienti (dettagliate per analisi approfondite) o selettive (semplificate per feedback immediato).Esauriente: Un report per un dirigente scolastico sull’efficacia di un ITS. Selettiva: Una notifica a uno studente che spiega perché gli è stato consigliato un esercizio.
AlternativeSpiegazioni contrastive (perché è accaduto X invece di Y) o non contrastive (elenco dei fattori che hanno portato a X).Contrastiva: Perché a uno studente è stato consigliato un video e non un testo? Non contrastiva: Quali sono i fattori più importanti che l’IA considera nell’assegnare un voto?
FlussoSpiegazioni condizionali (basate su regole “se-allora”) o correlazionali (mostrano relazioni e tendenze).Condizionale: “Se il punteggio è < 60%, assegna esercizi di recupero”. Correlazionale: Mostrare che un aumento del tempo di studio è correlato a voti più alti.

4. Competenze degli Educatori e Alfabetizzazione all’IA

L’integrazione efficace della XAI dipende in modo critico dalle competenze degli educatori e dall’alfabetizzazione all’IA dell’intero ecosistema scolastico. L’obiettivo non è formare tecnici, ma cittadini e professionisti capaci di interagire criticamente con la tecnologia.

4.1 Il Pensiero Critico come Obiettivo Primario

L’alfabetizzazione all’IA è definita come l’insieme di competenze per valutare criticamente, comunicare e utilizzare efficacemente l’IA. La trasparenza e la spiegabilità fornite dalla XAI sono prerequisiti per esercitare questo pensiero critico. Senza comprendere come e perché un’IA prende una decisione, studenti ed educatori rischiano di accettarne passivamente i risultati, incorrendo in atrofia cognitiva o manipolazione. La XAI trasforma i sistemi di IA da “scatole nere” a strumenti che possono essere interrogati, analizzati e messi in discussione.

4.2 Competenze Fondamentali per l’Integrazione della XAI

Gli educatori necessitano di un set di competenze specifiche per utilizzare e insegnare la XAI, che progrediscono con i livelli di istruzione (ISCED).

  • Livelli ISCED 1-3 (Primaria e Secondaria):
    • Etica dell’IA: Comprendere e insegnare i principi etici fondamentali, usando la XAI per analizzare come le decisioni dell’IA si allineano a tali standard.
    • Approccio Antropocentrico: Sottolineare che la responsabilità finale delle decisioni assistite dall’IA ricade sempre sull’essere umano.
    • Tecniche e Applicazioni dell’IA: Saper determinare quando l’uso dell’IA è appropriato, valutandone limiti e capacità attraverso le spiegazioni fornite.
  • Livelli ISCED 3-5 (Istruzione e Formazione Professionale – VET):
    • Collaborazione con l’IA: Saper interagire con sistemi di IA specifici del settore, interpretandone criticamente gli output (es. diagnostica assistita da IA).
    • Competenze Pratiche: Gestire e risolvere problemi su software e macchinari basati su IA.
    • Uso Etico nell’Industria: Comprendere le implicazioni etiche dell’IA nel proprio ambito professionale (es. sicurezza, privacy, bias).
  • Livelli ISCED 6-8 (Istruzione Superiore):
    • Ricercatori: Promuovere la scienza aperta, utilizzare tecniche XAI avanzate (ante-hoc, post-hoc) per validare i modelli e comunicare i risultati in modo trasparente.
    • Docenti (non tecnici): Sviluppare un’alfabetizzazione critica alla XAI per interpretare i risultati dell’IA nel proprio dominio e integrare i principi della spiegabilità nella didattica.
    • Docenti (tecnici): Padroneggiare e insegnare gli algoritmi XAI e integrare la “spiegabilità by design” nella progettazione di sistemi di IA.

4.3 Raccomandazioni per gli Stakeholder

Per un’integrazione di successo della XAI, sono necessarie azioni coordinate:

StakeholderAzioni Chiave
EducatoriSviluppare un approccio critico verso l’IA, allineare gli strumenti agli obiettivi educativi e partecipare a una formazione professionale continua.
Leader EducativiScegliere strumenti di IA che rispettino i principi XAI, fornire formazione al personale e dare priorità a soluzioni che supportino la pedagogia.
Policy MakerSviluppare un quadro europeo per l’alfabetizzazione all’IA, fornire risorse (potenza di calcolo, OER) e aumentare i finanziamenti per la ricerca e l’implementazione dell’IA etica nell’istruzione.

5. Conclusione

L’Intelligenza Artificiale Spiegabile (XAI) non è un semplice accessorio tecnico, ma un requisito fondamentale per un’integrazione etica, efficace e responsabile dell’IA nel settore educativo. Come evidenziato nel rapporto, essa costituisce il ponte tra le complesse capacità tecnologiche dei sistemi di IA e la necessità umana di comprensione, fiducia e controllo. Il quadro normativo europeo, con l’AI Act in prima linea, sancisce questa necessità, trasformando la trasparenza e la sorveglianza umana da principi auspicabili a obblighi legali.

La realizzazione della XAI non è compito esclusivo degli sviluppatori, ma un processo di co-creazione che coinvolge attivamente l’intero ecosistema educativo. Richiede educatori dotati di competenze critiche, studenti formati per essere utenti consapevoli, leader istituzionali impegnati nella scelta di strumenti equi e policy maker che promuovano un’innovazione responsabile. In definitiva, il futuro dell’IA nell’istruzione dipende dalla nostra capacità collettiva di garantire che essa rimanga uno strumento al servizio dell’apprendimento umano, supportando — e mai sostituendo — il giudizio, i valori e l’agenzia delle persone.

La ringrazio per la sua richiesta. Di seguito sono illustrate la tesi di fondo e i concetti a supporto tratti dalle fonti, focalizzati sull’Intelligenza Artificiale Spiegabile (XAI) nel contesto educativo.

Tesi di Fondo (Core Thesis)

La tesi di fondo del rapporto è che l’Intelligenza Artificiale Spiegabile (XAI) è un requisito imprescindibile per garantire l’affidabilità, l’etica e la trasparenza dei sistemi di IA, in particolare nel settore dell’istruzione, dove le decisioni producono effetti significativi sugli individui e sulla società.

Il rapporto enfatizza che l’integrazione della XAI è cruciale per promuovere l’intervento e la sorveglianza umana e la responsabilità condivisa. L’obiettivo finale è che l’impiego dell’IA nell’istruzione supporti, e non sostituisca, il giudizio, i valori e la supervisione attiva dell’essere umano, favorendo l’autonomia individuale e il pensiero critico.

Concetti a Supporto (Supporting Concepts)

I concetti che supportano questa tesi si articolano su definizioni fondamentali della XAI, requisiti etici e legali, caratteristiche delle spiegazioni e ruoli degli stakeholder nel contesto educativo.

1. I Quattro Concetti Fondamentali della XAI

La XAI si articola attorno a quattro concetti fondamentali, organizzati in dimensioni tecniche e umane:

  • Trasparenza: È considerata il concetto etico fondamentale dell’IA. Si riferisce al processo mediante il quale tutte le informazioni, le decisioni, i processi decisionali e le ipotesi sono rese disponibili per essere condivise con le parti interessate, migliorandone la comprensione. Dipende principalmente dallo sviluppatore. La trasparenza deve coprire cinque aspetti chiave: dati, modello, processo, risultato e scopo.
  • Interpretabilità: Si riferisce alla facilità con cui gli esseri umani possono comprendere il funzionamento di un modello o il modo in cui esso prende decisioni. È una caratteristica passiva che può essere intrinseca (modelli white-box, come le regole logiche) o introdotta post-hoc per modelli complessi (black-box, come le reti neurali).
  • Spiegabilità: Riguarda la capacità attiva del sistema di giustificare il proprio comportamento agli utenti finali. Si concentra sul fornire spiegazioni chiare e coerenti per decisioni specifiche, rispondendo a domande come “Perché il sistema di IA ha fatto questa particolare previsione?”.
  • Comprensibilità: Misura il grado in cui l’utente finale riesce a comprendere un’esplicazione a lui destinata, costituendo la misura dell’effettiva utilità della XAI. Si configura come una dimensione centrata sull’essere umano, che deve essere in linea con le esigenze cognitive e contestuali dell’uomo.

2. Requisiti Etici e Legali

La necessità della XAI è rafforzata da quadri etici e normativi europei:

  • Affidabilità Etica: La XAI è fondamentale per garantire i requisiti etici stabiliti dagli Orientamenti etici per un’IA affidabile della Commissione Europea, in particolare in relazione a trasparenza e accountability (responsabilità).
  • Conformità al GDPR: Il GDPR (Regolamento generale sulla protezione dei dati) garantisce agli interessati il diritto a una comunicazione trasparente, compreso il diritto di ricevere spiegazioni chiare e significative sulle modalità di coinvolgimento del sistema di IA nel processo decisionale.
  • Conformità all’AI Act: Il Regolamento sull’IA (AI Act) non stabilisce esplicitamente che l’IA debba essere esplicabile, ma fa riferimento alla sorveglianza dell’essere umano, alla governance dei dati e alla trasparenza. I sistemi classificati come ad alto rischio (come quelli che valutano i risultati dell’apprendimento o le ammissioni) richiedono misure rigorose su trasparenza, sorveglianza umana e responsabilità.

3. Caratteristiche di una Spiegazione Efficace

Per essere efficace e soddisfare i requisiti etici, una spiegazione fornita da un sistema di IA dovrebbe possedere diverse caratteristiche fondamentali:

CategoriaDescrizione e Funzione
ChiarezzaLinguaggio semplice e possibilità di fornire livelli multipli di dettaglio per utenti diversi.
PertinenzaDeve essere pertinente al contesto dell’applicazione e aiutare l’utente a compiere i passi successivi o a prendere decisioni pratiche.
SpecificitàL’utente deve comprendere la logica del modello e conoscere i limiti e le incertezze del risultato, come il livello di affidabilità.
TracciabilitàDeve consentire la verificabilità (auditabilità) del processo decisionale e identificare chi è responsabile dei risultati.
CoerenzaLe spiegazioni per casi simili non devono variare e non devono esserci messaggi contraddittori tra i diversi livelli di dettaglio.

4. Ruolo della XAI nel Settore Educativo

L’impatto della XAI nell’istruzione va oltre lo sviluppo delle competenze. In ambito educativo, la XAI è richiesta per affrontare sfide specifiche:

  • Promozione del Pensiero Critico e dell’Agenzia Umana: La XAI fornisce alle persone le competenze necessarie per valutare l’affidabilità dei sistemi di IA e interagire con essi in modo critico, informato e responsabile.
  • Gestione della Complessità: L’istruzione presenta dati “rumorosi” e complessi (interazioni digitali, valutazioni), richiedendo un’analisi rigorosa per un’interpretazione affidabile.
  • Prevenzione dei Fraintendimenti e dei Bias: I sistemi devono prevenire l’introduzione di concetti errati o bias negli output generati. La XAI aiuta a comprendere come il modello associa i pattern di interazione al contenuto didattico e a prevenire distorsioni sistemiche.
  • Responsabilità e Trasparenza per gli Educatori: Gli educatori devono essere in grado di spiegare l’uso dei sistemi di IA agli studenti, ai genitori o all’amministrazione, e di intervenire o ignorare le raccomandazioni dell’IA (sorveglianza umana).

5. Dimensioni Chiave della Spiegabilità (Tassonomia)

Gli sviluppatori e gli operatori del settore educativo devono adattare la spiegazione alle esigenze specifiche degli stakeholder, considerando quattro dimensioni chiave:

  • Ambito: Spiegazioni globali (comprendere il comportamento del modello in un’ampia gamma di scenari, utili per i decisori politici) o locali (concentrate sul comportamento per un caso specifico, utili per gli insegnanti o gli studenti).
  • Profondità: Spiegazioni esaurienti (valutazioni complete per revisioni approfondite) o selettive (approfondimenti semplificati per un feedback immediato).
  • Alternative: Spiegazioni contrastive (evidenziano la differenza tra ciò che è accaduto e ciò che era previsto) o non contrastive (informazioni sul comportamento senza riferimenti a risultati alternativi).
  • Flusso: Spiegazioni condizionali (basate su regole “se-allora”, utili per linee guida chiare) o correlazionali (utili per comprendere come i cambiamenti negli input influenzano l’output, ad esempio tendenze).

Lascia un commento