La seguente tabella elenca gli articoli contenuti nel Volume 45 (Artificial intelligence in applied linguistics) dell’Annual Review of Applied Linguistics, riportando per ciascuno la tesi di base e gli elementi a supporto, basandosi sulle informazioni fornite nelle fonti.
| Articolo (Autore/i) | Tesi di Base | Elementi a Supporto |
|---|---|---|
| Identity and investment in the age of generative AI (Ron Darvin) | È necessaria una valutazione critica dell’IA generativa (GenAI) nel contesto dell’interazione umano-IA, adottando la prospettiva delle pratiche di alfabetizzazione agentiva. Gli studenti devono negoziare la loro agenzia e sviluppare alfabetizzazioni digitali critiche per resistere ai pregiudizi impliciti e alle strutture di potere presenti negli strumenti GenAI. | Il framework si basa sul modello di investimento di Darvin e Norton (2015) e sul concetto di sociomaterialità di Fenwick (2015) per integrare questioni di potere, agenzia e disuguaglianza. L’agenzia in questa interazione è concettualizzata come relazionale, emergente e distribuita. |
| How does interaction with LLM powered chatbots shape human understanding of culture? The need for Critical Interactional Competence (CritIC) (David Wei Dai, Zhu Hua e Guanliang Chen) | L’interazione uomo-IA può rafforzare e riprodurre i pregiudizi culturali insiti nei set di dati dei Large Language Models (LLM). È fondamentale che gli utenti di GenAI sviluppino la Critical Interactional Competence (CritIC) per aumentare la consapevolezza degli stereotipi culturali e riflettere criticamente su tali predisposizioni. | Lo studio ha utilizzato l’Analisi Sequenziale-Categoriale su interazioni simulate tra una fisioterapista umana e tre pazienti chatbot generati da ChatGPT (cinese, australiano e indiano). L’analisi ha mostrato che gli utenti sono altamente suscettibili di rimanere interazionalmente radicati in narrazioni culturali essenzializzate. |
| Digital accents, homogeneity-by-design, and the evolving social science of written language (AJ Alvero, Quentin Sedlacek, Maricela León e Courtney Peña) | L’IA generativa fallisce sistematicamente nel cogliere l’ampiezza della variazione linguistica presente nella scrittura umana, un risultato chiamato “omogeneità per progetto” (homogeneity-by-design). Questo fenomeno potenzialmente rafforza le gerarchie di utilizzo della lingua. | Il lavoro introduce il concetto di “accenti digitali” (digital accents) per descrivere come l’identità sociale di uno scrittore si rifletta nelle caratteristiche linguistiche della sua lingua scritta digitalizzata. Si invita a un’analisi critica dei modelli LLM da parte degli scienziati sociali per promuovere uno sviluppo etico dell’IA. |
| Bias and stereotyping: Human and artificial intelligence (AI) (Okim Kang e Kevin Hirschi) | I pregiudizi sociali, in particolare quelli relativi al parlato con accento, vengono riprodotti e talvolta amplificati nei sistemi di IA. | Vengono sintetizzate prove estese che mostrano come le aspettative etno-razziali degli ascoltatori umani distorcano la percezione del parlato (stereotipi linguistici inversi o RLS). I pregiudizi sono incorporati nei dati di addestramento, nell’architettura del modello e nei processi di convalida dell’IA, portando a prestazioni ineguali in base all’accento e alla varietà linguistica. |
| Generative AI and English language teaching: A global Englishes perspective (Seongyong Lee, Jaeho Jeon, Jim McKinley e Heath Rose) | I pregiudizi degli LLM tendono a produrre output conformi alle norme del parlante inglese nativo (NES), ma l’uso di tecniche di prompt engineering avanzate e l’integrazione di dati esterni possono attenuare questi pregiudizi per allineare GenAI a una prospettiva Global Englishes Language Teaching (GELT). | Lo studio ha triplicato i modelli ChatGPT (Basic, Refined 1, Refined 2). Il Modello Refined 2, che incorporava tecniche di prompting multi-step e dati di corpus esterni (ELF), ha mostrato miglioramenti significativi, offrendo output più diversi e culturalmente accettabili, nonostante la persistenza di alcuni pregiudizi standardizzati. |
| NLP-powered quantitative verification of the English Grammar Profile’s structure-level assignment (Daniela Verratti-Souto, Nelly Sagirov e Xiaobin Chen) | È necessario verificare quantitativamente le assegnazioni di livello strutturale grammaticale dell’English Grammar Profile (EGP) per i livelli CEFR. Il disaccordo limitato tra l’approccio quantitativo basato sulla frequenza e le mappature EGP originali suggerisce che i dati di frequenza da soli non sono sufficienti per la convalida del livello. | È stato utilizzato un sistema di Natural Language Processing (NLP) (POLKE) per estrarre automaticamente le strutture EGP da un ampio corpus di apprendenti (EFCAMDAT). Il livello di acquisizione è stato operazionalizzato come il primo livello CEFR in cui la frequenza di una struttura è aumentata significativamente. |
| The role of generative AI in mediating L2MSS and engagement with written feedback in EFL learning: A structural equation modeling approach (Jerry Huang e Atsushi Mizumoto) | L’uso di GenAI funge da fattore di mediazione tra la motivazione degli studenti e il loro coinvolgimento (affettivo, comportamentale e cognitivo) nell’apprendimento EFL, in particolare quando interagiscono con feedback scritti. | Lo studio empirico con 174 partecipanti ha utilizzato la modellazione di equazioni strutturali (SEM). Ha confermato che la motivazione ha un’influenza positiva sull’uso dell’IA da parte degli studenti, il che a sua volta ha avuto un impatto su tutti e tre gli aspetti del loro coinvolgimento. |
| On the nascency of ChatGPT in foreign language teaching and learning (Shaohua Fang e ZhaoHong Han) | L’obiettivo è fornire una sintesi narrativa della ricerca emergente e in rapida evoluzione sull’applicazione di ChatGPT nell’insegnamento e nell’apprendimento delle lingue straniere, identificando le lacune concettuali e metodologiche. | La revisione di 71 pubblicazioni (studi empirici, recensioni, documenti di posizione) evidenzia che la maggior parte degli studi esamina le percezioni, è prevalentemente qualitativa/esplorativa e si concentra sulla scrittura. Si sottolinea la necessità di indagini sistematiche e longitudinali. |
| Developing and assessing second language listening and speaking: Does AI make it better? (Christine C. M. Goh e Vahid Aryadoust) | GenAI offre un potenziale trasformativo per lo sviluppo e la valutazione dell’ascolto e del parlato in L2, ma solleva preoccupazioni significative (autenticità, validità cognitiva, privacy dei dati). Si propone la co-intelligenza (uso collaborativo con supervisione umana) come principio guida. | La revisione copre tecnologie GenAI come i sistemi di dialogo parlati e gli LLM, valutandone l’allineamento con i processi cognitivi, sociali e affettivi complessi alla base della competenza orale. Si sottolinea l’importanza dell’esperienza dell’insegnante e dell’alfabetizzazione all’IA (AI literacy). |
| Revisiting communicative competence in the age of AI: Implications for large-scale testing (Xiaoming Xi) | I progressi dell’IA impongono un riesame della competenza comunicativa convenzionale, proponendo un approccio interazionista mediato dall’IA (AI-mediated interactionalist approach). Questo approccio espande la competenza per includere le competenze di alfabetizzazione digitale dell’IA e abilità linguistiche/cognitive ampliate. | Vengono esaminate quattro concezioni tradizionali della competenza linguistica (orientata al compito, orientata al tratto, interazionista, psicolinguistica). Si sostiene che l’abilità di valutare e modificare criticamente gli output dell’IA sia essenziale per la comunicazione moderna e la sua valutazione. |
| How good are LLMs in generating input texts for reading tasks in German as a foreign language? (Anastasia Drackert, Andrea Horbach e Anja Peters) | I testi generati dagli LLM per i compiti di lettura (Tedesco come Lingua Straniera – GFL) sono un punto di partenza prezioso, ma richiedono aggiustamenti manuali da parte di esperti per allinearsi ai testi di benchmark esistenti. | Il confronto sistematico con testi di benchmark umani (TestDaF) ha utilizzato l’analisi computazionale (caratteristiche linguistiche) e la valutazione di esperti. Le discrepanze chiave includono l’eccessiva nominalizzazione, espressioni non idiomatiche (derivanti da traduzioni dirette dall’inglese), una maggiore complessità sintattica e una struttura rigida. |
| The capacity of ChatGPT-4 for L2 writing assessment: A closer look at accuracy, specificity, and relevance (Aysel Saricaoglu e Zeynep Bilki) | ChatGPT-4 è altamente accurato nel rilevare problemi nella valutazione della scrittura in L2 in base ai criteri IELTS, ma mostra variabilità nella specificità del feedback, in particolare a livello di discorso. | Analisi qualitativa e quantitativa di 1.795 feedback su 35 saggi argomentativi in L2. Il feedback era dettagliato per accuratezza grammaticale e risorse lessicali, ma generico per risposta al compito e coerenza/coesione. |
| Exploring the dual impact of AI in post-entry language assessment: Potentials and pitfalls (Tiancheng Zhang, Rosemary Erlam e Morena Botelho de Magalhães) | L’IA generativa (GenAI) presenta sia potenziali che insidie nella valutazione linguistica post-ingresso (PELA). È essenziale adottare un approccio IA incentrata sull’Umano (Human-Centered AI) che integri l’esperienza umana. | Due studi empirici nel contesto DELNA (Diagnostic English Language Needs Assessment): (1) la generazione automatica di item (AIG) per la lettura è accettabile ma necessita di affinamento della complessità; (2) la valutazione automatica della scrittura (AWE) allineata al punteggio complessivo umano, ma carente nella specificità del feedback. |
| Ethical AI for language assessment: Principles, considerations, and emerging tensions (Evelina Galaczi e Carla Pastorino-Campos) | È necessario sviluppare un quadro etico per l’uso dell’IA nella valutazione linguistica, promuovendo un approccio “etico per progetto” (ethical-by-design) per gestire le tensioni e proteggere gli stakeholder. | L’analisi tematica induttiva e deduttiva di documenti politici e standard professionali ha portato alla formulazione di 10 principi (es. Governance e Stewardship, Controllo umano, Equità e Giustizia, Standard di valutazione) e 40 considerazioni. |
| A question of alignment – AI, GenAI and applied linguistics (Niall Curry, Tony McEnery e Gavin Brookes) | L’articolo fornisce una valutazione critica dell’IA e GenAI per la linguistica applicata, sottolineando i problemi di disallineamento tra l’IA e le tradizioni epistemologiche, ontologiche ed etiche della linguistica applicata. Si propone di aumentare l’allineamento piuttosto che mirare all’automazione o alla sostituzione degli esperti. | Il disallineamento epistemologico è legato al fatto che l’IA privilegia la probabilità e il riconoscimento di pattern rispetto alla riflessività e al contesto. Il disallineamento ontologico deriva dal fatto che l’IA fissa le ontologie, mentre la LA abbraccia la complessità. Le preoccupazioni etiche riguardano i pregiudizi algoritmici e la mancanza di trasparenza (“scatola nera”). |
Riepilogo
L’avvento dell’intelligenza artificiale (IA), e in particolare dell’IA generativa (GenAI), sta innescando una trasformazione radicale nel campo della linguistica applicata, introducendo opportunità senza precedenti e sfide complesse. Questo documento sintetizza le principali tematiche emerse da una rassegna della letteratura accademica, delineando i punti di intersezione, le tensioni e le direzioni future. I temi centrali identificati sono:
- Il Problema dell’Allineamento: Esiste un potenziale disallineamento fondamentale tra le basi epistemologiche, ontologiche ed etiche dell’IA e quelle della linguistica applicata. Mentre la linguistica applicata contemporanea valorizza la pluralità, la contestualizzazione, la riflessività critica e il ruolo indispensabile della cultura umana nella costruzione della conoscenza, la GenAI opera principalmente attraverso il riconoscimento di pattern probabilistici derivati da vasti set di dati di addestramento. Ciò solleva preoccupazioni riguardo alla standardizzazione della conoscenza e al rischio di “epistemicidio”, ovvero la distruzione di sistemi di conoscenza non allineati al paradigma dominante.
- Bias, Stereotipi e Omogeneizzazione: Una preoccupazione pervasiva è che i sistemi di IA, inclusi i Large Language Models (LLM) e i sistemi di riconoscimento vocale automatico (ASR), non solo riproducano ma amplifichino i bias e gli stereotipi presenti nei dati di addestramento. La ricerca ha evidenziato bias sistematici legati ad accento, razza, genere e cultura, con implicazioni significative per l’equità sociale e la giustizia. Inoltre, i modelli di IA tendono a promuovere l’omogeneizzazione linguistica, privilegiando le varietà linguistiche standard e marginalizzando la diversità, un fenomeno definito “omogeneità-by-design”.
- Applicazioni e Sfide nell’Educazione Linguistica: Nel campo dell’apprendimento e della valutazione delle lingue, l’IA offre notevoli vantaggi, come la personalizzazione dell’apprendimento, la creazione di contenuti, il feedback immediato e l’aumento della disponibilità a comunicare da parte degli studenti. Tuttavia, emergono sfide significative legate all’accuratezza, all’autenticità dei testi generati, alla validità cognitiva delle valutazioni, all’equità nell’accesso e al rischio di un apprendimento superficiale. Il ruolo dell’insegnante e la necessità di una supervisione umana (“human-in-the-loop”) rimangono cruciali.
- Necessità di un Impegno Critico e di Alfabetizzazione all’IA: Un appello unanime emerge dalla letteratura: la necessità per ricercatori, educatori e studenti di sviluppare una solida alfabetizzazione critica all’IA (Critical AI Literacy). Ciò include la capacità di comprendere i limiti della tecnologia, interrogare i suoi output, riconoscere i bias impliciti e resistere a un’eccessiva dipendenza. Viene proposta l’adozione di un approccio “etico-by-design” e di “co-intelligenza”, in cui l’IA agisce come strumento a supporto dell’esperienza umana, piuttosto che come sostituto. La ricerca in questo campo, sebbene in rapida crescita, è ancora nascente e necessita di maggiore rigore metodologico e trasparenza.
——————————————————————————–
1. Il Problema dell’Allineamento: Prospettive Fondamentali
L’integrazione dell’IA nella linguistica applicata solleva questioni fondamentali riguardo all’allineamento tra i due campi. L’articolo “A question of alignment” di Curry, McEnery e Brookes (2025) identifica questo “problema di allineamento” come una tensione critica che attraversa tre aree fondamentali: epistemologia, ontologia ed etica.
1.1 Epistemologia: Come Conosciamo
L’epistemologia, che teorizza come costruiamo e diamo senso alla conoscenza, rappresenta un’area di significativo disallineamento.
- Linguistica Applicata: Questo campo è caratterizzato da una pluralità di epistemologie. La conoscenza è spesso locale, dipendente dal contesto, mediata dal linguaggio e costruita attraverso processi riflessivi, critici e non lineari. La posizione del ricercatore e la cultura umana sono centrali (Kuteeva & Andersson, 2024; Tang & Cooper, 2024).
- Intelligenza Artificiale Generativa (GenAI): Per la GenAI, “conoscere” è il prodotto di processi basati su probabilità e riconoscimento di pattern derivati dai dati di addestramento (Cope & Kalantzis, 2024). Questa concettualizzazione diverge dalla creatività, responsabilità e flessibilità del ricercatore umano.
Le principali aree di attrito epistemologico includono:
- Allucinazioni e Fabbricazione di Dati: I modelli di IA possono “allucinare”, ovvero generare dati falsi, minando l’integrità della ricerca (Curry et al., 2024).
- Epistemicidio: La tendenza della GenAI a standardizzare e semplificare la conoscenza minaccia i sistemi di conoscenza diversi e non dominanti, un fenomeno definito “epistemicidio” (Pragya, 2024).
- Riproduzione vs. Creazione: Poiché la GenAI opera riproducendo pattern esistenti, la sua capacità di supportare la creazione di nuova conoscenza (un processo centrale nella linguistica applicata) è messa in discussione (Kuteeva & Andersson, 2024).
- Scatola Nera (Black Box): La mancanza di trasparenza nei processi di ragionamento dei moderni strumenti di IA (“black box research”) crea una sfida etica ed epistemologica, poiché non è possibile spiegare come si è giunti a una conclusione (Casal & Kessler, 2023).
La conclusione prevalente è che l’IA debba essere uno strumento al servizio delle epistemologie della linguistica applicata, e non viceversa. La responsabilità critica e la capacità di interpretazione devono rimanere saldamente nelle mani del ricercatore umano.
1.2 Ontologia: La Natura dell’Esistenza
L’ontologia, che si occupa della natura dell’essere e dell’esistenza, è un altro punto di disallineamento.
- Linguistica Applicata: Le ontologie non sono fisse, ma negoziate e performate attraverso la pratica sociale. Il linguaggio è visto come il mezzo primario attraverso cui le entità sociali sono costruite. Il campo abbraccia una pluralità di ontologie che sfidano le visioni monolitiche e dominanti del linguaggio (Demuro & Gurney, 2021; Dewaele, 2019).
- Intelligenza Artificiale: L’ontologia dell’IA è limitata e definita dai suoi dati di addestramento. Ciò che l’IA può “sapere” o “produrre” è confinato a ciò su cui è stata addestrata, che tipicamente riflette un linguaggio giornalistico e normativo (Nesi, 2024).
Questo divario ontologico alimenta preoccupazioni sul fatto che i modelli linguistici limitati della GenAI siano “incommensurabili” con la visione del mondo della linguistica applicata. L’IA non può sostituire l’analista umano, specialmente quando sono in gioco questioni di equità e contesto sociale.
1.3 Etica: Principi Morali e Pratiche
Sebbene la ricerca accademica sull’IA condivida valori etici con la linguistica applicata (es. attenzione al bias algoritmico, impatto sociale), la pratica, in particolare nell’industria dell’IA, rivela un disallineamento.
- Linguistica Applicata: La ricerca è guidata da macro-etica (istituzionale) e micro-etica (situata), con un’enfasi sul rispetto per le persone, sulla minimizzazione del danno e sulla giustizia sociale (De Costa, 2015).
- IA in Pratica: Emergono preoccupazioni etiche significative, come:
- Dati di Addestramento: Addestramento di modelli su materiali protetti da copyright senza autorizzazione (Milmo, 2024).
- Riproduzione di Bias: I modelli di IA perpetuano pregiudizi sociali esistenti legati a genere, razza e cultura, poiché riflettono le norme presenti nei dati web (Choi, 2022; Putland et al., 2023).
- Impatto Ambientale: L’enorme consumo di risorse (acqua, energia) per alimentare e raffreddare i server farm, specialmente nel Sud del mondo, solleva questioni di sostenibilità (Bashir et al., 2024).
Curry et al. (2025) citano l’esempio di una raccolta curata da Udaya e Reddy (2024), generata da una macchina, che è stata criticata per problemi di qualità, coerenza e rappresentazione del campo, evidenziando i rischi di una produzione accademica priva di “curatela umana o valutazione critica” (Szudarski, 2025, p. 3).
2. Bias, Stereotipi e Omogeneizzazione Linguistica
Una delle sfide più urgenti e discusse nell’adozione dell’IA è la sua tendenza a codificare, riprodurre e amplificare i bias umani, portando alla perpetuazione di stereotipi e a una crescente omogeneizzazione del linguaggio.
2.1 Bias nei Dati e negli Algoritmi
I sistemi di IA, in particolare gli LLM, apprendono da enormi quantità di dati testuali e vocali prodotti da esseri umani. Di conseguenza, ereditano i bias sociali in essi contenuti.
- Bias Razziali e Culturali: Gli LLM mostrano un persistente bias anti-musulmano (Abid et al., 2021) e associano l’aggettivo “americano” con le persone bianche nei modelli multimodali (Wolfe & Caliskan, 2022). Un esperimento di Hofmann et al. (2024) ha rilevato che gli LLM, nel valutare una testimonianza ipotetica, erano molto più propensi a raccomandare la pena di morte se il testo presentava caratteristiche dell’African American English (AAE).
- Stereotipi di Genere e Sociali: La ricerca ha dimostrato che modelli come BERT replicano i bias di genere della società e l’omofobia/transfobia (Nozza et al., 2021).
2.2 Bias nel Riconoscimento Vocale e nel Linguaggio Scritto
Il bias si manifesta in modo particolarmente evidente nelle tecnologie che elaborano il linguaggio parlato e scritto.
- Riconoscimento Vocale Automatico (ASR): I sistemi ASR mostrano tassi di errore significativamente più alti per il parlato degli afroamericani rispetto a quello degli americani bianchi (Koenecke et al., 2020; Martin & Wright, 2023). Sono stati riscontrati anche bias di genere (con trascrizioni più accurate per i parlanti maschi) e dialettali (es. parlanti scozzesi) nelle didascalie automatiche di YouTube (Tatman, 2017). Analogamente, i sistemi ASR hanno mostrato tassi di errore più elevati per il parlato accentato di apprendenti L2 cinesi rispetto a quelli indiani e spagnoli (Bae & Kang, 2024).
- Rilevatori di IA e Scrittori L2: Gli strumenti di rilevamento di testi generati da IA classificano erroneamente in modo consistente i testi scritti da apprendenti L2 come generati da IA, a causa della ridotta variabilità linguistica e complessità sintattica che a volte caratterizza i loro scritti (Liang et al., 2023).
2.3 Radicamento degli Stereotipi nell’Interazione Uomo-IA
L’interazione con i chatbot basati su LLM può rafforzare e radicare stereotipi culturali. Dai, Hua e Chen (2025) introducono i concetti di “istinto interazionale” (la predisposizione umana alla cooperazione) e “radicamento interazionale” (la routinizzazione di schemi attraverso l’esposizione ripetuta) per spiegare questo fenomeno.
In uno studio di caso, una fisioterapista umana (“Lisa”) ha interagito con tre pazienti chatbot (cinese, australiano, indiano). L’analisi ha rivelato che l’interazione ha rafforzato stereotipi culturali:
- Paziente Cinese: Rappresentato come parte di una famiglia multigenerazionale in cui i membri si prendono cura l’uno dell’altro.
- Paziente Australiana: Rappresentata con un partner di grande supporto e uno stile di vita incentrato sul relax e sul tempo libero (barbecue, amici).
- Paziente Indiana: Rappresentata come una “casalinga devota” la cui identità è appiattita sul lavoro domestico.
Lo studio mostra come l’utente umano, spinto dall’istinto interazionale e dal design pro-sociale del chatbot, diventi complice nella riproduzione di questi stereotipi, specialmente quando manca di familiarità con la cultura rappresentata. Per contrastare ciò, gli autori propongono lo sviluppo di una “Competenza Interazionale Critica” (CritIC), ovvero la capacità di riflettere e contestare attivamente i bias durante l’interazione.
2.4 Omogeneità-by-Design e Accenti Digitali
Alvero et al. (2025) sostengono che gli LLM promuovono una “omogeneità-by-design”. Non sono progettati per rappresentare la diversità del linguaggio umano, ma per essere relativamente omogenei, in parte come strategia di business per garantire prevedibilità e un ampio utilizzo. Questo processo inizia prima dell’IA, attraverso “filtri sociali” che limitano la gamma di pratiche linguistiche rappresentate nei corpora di addestramento.
- Filtri Sociali: La lingua di coloro che detengono il potere sociale è quella che ha maggiori probabilità di essere pubblicata e quindi inclusa nei dati di addestramento. Un sondaggio condotto su insegnanti di immersione bilingue negli Stati Uniti ha mostrato che, sebbene l’uso di varietà come l’African American Language o il code-mixing spagnolo-inglese sia accettabile nelle fasi iniziali della scrittura (brainstorming), diventa progressivamente meno accettabile man mano che ci si avvicina alla fase di pubblicazione, filtrando di fatto la diversità linguistica.
- Accenti Digitali: Parallelamente agli accenti parlati, le caratteristiche della comunicazione scritta sono spesso correlate all’identità demografica socialmente costruita degli scrittori. Questo fenomeno, definito “accenti digitali”, significa che l’omogeneizzazione dell’IA non è neutrale: favorisce gli stili di scrittura associati a gruppi socialmente privilegiati, marginalizzando ulteriormente le espressioni linguistiche diverse.
3. Applicazioni, Promesse e Sfide nell’Educazione e Valutazione Linguistica
L’impatto dell’IA è particolarmente sentito nel campo dell’apprendimento, insegnamento e valutazione delle lingue (L2). La ricerca, sebbene nascente, delinea un quadro di grande potenziale temperato da significative preoccupazioni.
3.1 Lo Stato della Ricerca
Una rassegna narrativa di Fang e Han (2025) su 71 pubblicazioni rivela che la ricerca su ChatGPT nell’insegnamento delle lingue è agli inizi.
| Caratteristiche della Ricerca (Fang & Han, 2025) | Dettagli |
| Fase | Nascente, con un picco di pubblicazioni nel 2023. |
| Tipo di Ricerca | Prevalenza di studi empirici (68%), la maggior parte dei quali si concentra sulle percezioni di studenti e insegnanti. Gli studi sperimentali sono pochi e spesso mancano di un gruppo di controllo. |
| Contesto | Dominanza del contesto di lingua straniera (85%) e dell’istruzione universitaria (75%). |
| Lingua e Abilità | L’inglese come lingua straniera (EFL) è predominante (81%). La scrittura è l’abilità più studiata. |
| Metodologia | Forte presenza di metodi qualitativi. Molti studi mancano di trasparenza nel riportare informazioni chiave (es. versione di ChatGPT usata, dettagli dell’intervento). |
3.2 Potenziale e Opportunità
Diverse fonti evidenziano le promesse dell’IA per l’educazione linguistica:
- Apprendimento Personalizzato: L’IA può creare esperienze di apprendimento su misura per le esigenze individuali degli studenti (Konyrova, 2024) e fornire feedback immediato e adattivo.
- Creazione di Materiali: Gli insegnanti possono usare la GenAI per generare materiali didattici, piani di lezione, quiz e attività interattive (Kohnke et al., 2023; Pack & Maloney, 2023).
- Pratica Orale: I chatbot e gli assistenti personali intelligenti (IPA) offrono opportunità di pratica conversazionale, riducendo l’ansia e aumentando la disponibilità a comunicare (Willingness to Communicate) degli studenti (Goh & Aryadoust, 2025; Zhang et al., 2024).
- Sviluppo della Scrittura: La GenAI può assistere in tutte le fasi del processo di scrittura, dalla generazione di idee alla revisione grammaticale e stilistica.
- Efficienza nella Valutazione: L’IA può automatizzare la valutazione, in particolare per il feedback linguistico preciso (Saricaoglu & Bilki, 2025).
3.3 Sfide e Preoccupazioni
Le opportunità sono controbilanciate da una serie di sfide critiche:
- Qualità e Accuratezza: I testi generati dall’IA possono contenere inesattezze fattuali (“allucinazioni”) e non cogliere le sfumature culturali e linguistiche (Creely, 2024). Uno studio di Drackert et al. (2025) ha rilevato che i testi di lettura in tedesco generati da ChatGPT per un esame erano più complessi dal punto di vista linguistico ma contenevano espressioni non idiomatiche, un eccesso di nominalizzazioni e una mancanza di esempi concreti rispetto ai testi scritti da esperti umani.
- Validità nella Valutazione: Nella valutazione linguistica, l’IA solleva questioni di validità. L’uso di strumenti di IA durante un test cambia la natura di ciò che viene misurato (il costrutto). Xi (2025) sostiene la necessità di ridefinire la competenza comunicativa per includere l’alfabetizzazione all’IA, ma sottolinea le sfide nell’implementazione, specialmente nei test ad alta posta in gioco. La valutazione deve riflettere l’uso reale del linguaggio mediato dall’IA.
- Equità e Accesso: L’efficacia dell’uso dell’IA dipende dall’alfabetizzazione digitale e dall’accesso all’infrastruttura tecnologica, rischiando di approfondire il divario digitale esistente. Darvin (2025) osserva come le differenze tra le versioni gratuite e a pagamento di ChatGPT creino disuguaglianze nell’accesso a funzionalità avanzate, influenzando l’agentività dello studente.
- Rischio di Apprendimento Superficiale: L’eccessiva dipendenza dall’IA può ostacolare lo sviluppo del pensiero critico e delle capacità di risoluzione dei problemi. Esiste il rischio che i contenuti generati dall’IA non portino a un apprendimento genuino a causa della loro limitata contestualizzazione (Creely, 2024).
- Effetto ELIZA: Gli utenti tendono a riporre una fiducia implicita e talvolta ingiustificata nelle macchine, un fenomeno che risale al chatbot ELIZA degli anni ’60 (Weizenbaum, 1976). Questo può portare gli studenti ad accettare acriticamente gli output dell’IA.
3.4 Proposte per un’Integrazione Efficace
Per affrontare queste sfide, la letteratura suggerisce diversi percorsi:
- Co-intelligenza: Goh e Aryadoust (2025) propongono il concetto di “co-intelligenza”, ovvero un uso collaborativo dell’IA con una supervisione umana esperta. L’IA dovrebbe aumentare, non sostituire, le competenze umane.
- Supervisione Umana Esperta: È essenziale un intervento umano per perfezionare gli item dei test, fornire feedback specifico e garantire la qualità dei materiali (Drackert et al., 2025; Zhang et al., 2025).
- Valutazione per l’Apprendimento (AfL) e come Apprendimento (AaL): L’IA può essere particolarmente utile per supportare approcci di valutazione formativa che aiutano gli studenti a sviluppare l’autoregolazione e a impegnarsi attivamente con il feedback, piuttosto che limitarsi a classificare le loro prestazioni (Goh & Aryadoust, 2025).
4. Verso un Impegno Critico: Etica e AI Literacy
Di fronte alla rapida integrazione dell’IA, emerge un consenso trasversale sulla necessità di un approccio critico, etico e informato. Questo richiede lo sviluppo di nuove competenze sia per gli utenti che per i professionisti del settore e la creazione di quadri normativi specifici per il dominio.
4.1 Un Quadro Etico per la Valutazione Linguistica
Riconoscendo che le valutazioni linguistiche ad alta posta in gioco hanno un impatto significativo sulla vita delle persone, Pastorino e Galaczi (2025) propongono un quadro completo per l’uso etico dell’IA in questo campo, sostenendo un approccio “etico-by-design”. Basandosi sull’analisi di documenti politici internazionali e standard professionali, identificano 10 principi fondamentali.
Principi per un’IA Etica nella Valutazione Linguistica (Pastorino & Galaczi, 2025):
- Governance e Stewardship: Stabilire politiche e standard per la gestione dell’intero ciclo di vita del sistema di IA.
- Controllo Umano della Tecnologia: Garantire che la responsabilità ultima e il controllo rimangano agli esseri umani, con meccanismi di supervisione e revisione umana.
- Responsabilità (Accountability): Designare e documentare esplicitamente le responsabilità di ciascuna parte interessata.
- Centralità Umana (Human-centricity): Progettare sistemi di IA per migliorare le capacità umane e sostenere il benessere e la dignità umana.
- Sostenibilità e Proporzionalità: Minimizzare l’impatto ambientale e sociale, utilizzando l’IA in modo proporzionato alle necessità.
- Privacy: Proteggere i dati personali fin dalla progettazione (privacy by design), garantendo il consenso informato e il controllo dell’utente.
- Equità e Giustizia (Fairness and Justice): Garantire un trattamento equo, utilizzare dati diversi per mitigare i bias e assicurare l’accessibilità per tutti.
- Sicurezza (Security and Safety): Proteggere i sistemi da attacchi malevoli e garantire che funzionino come previsto, minimizzando i danni.
- Trasparenza e Spiegabilità: Comunicare in modo chiaro il funzionamento dei sistemi di IA e rendere comprensibili le loro decisioni.
- Standard di Valutazione: Garantire che l’uso dell’IA sostenga la validità del test, la qualità psicometrica e l’integrità del processo di valutazione.
4.2 L’Imperativo della “Critical AI Literacy”
Tutti i documenti analizzati convergono sulla necessità di andare oltre una semplice alfabetizzazione funzionale all’IA.
- Darvin (2025) distingue tra:
- Alfabetizzazione Digitale Funzionale: La capacità di lavorare con la logica di uno strumento, riconoscendone i limiti e le potenzialità.
- Alfabetizzazione Digitale Critica: La capacità di problematizzare il design dello strumento, interrogare come media l’agentività, riconoscere il controllo algoritmico e analizzare i bias incorporati.
- Dai, Hua e Chen (2025) propongono la “Competenza Interazionale Critica” (CritIC), che è una forma di criticità in interazione, la capacità di disimpegnarsi e contestare attivamente bias e stereotipi nel momento in cui si presentano, resistendo alla pressione verso l’affiliazione.
- Curry et al. (2025) e altri sottolineano che gli utenti devono essere consapevoli dei limiti dell’IA, delle implicazioni etiche del suo utilizzo e della necessità di non delegare completamente la produzione di significato alla tecnologia.
In definitiva, la comunità della linguistica applicata è chiamata a impegnarsi attivamente nella definizione di un uso critico e responsabile dell’IA, un uso che dia priorità ai valori umani, alla trasparenza e alla responsabilità. L’obiettivo non è l’automazione della ricerca linguistica, ma l’allineamento degli strumenti di IA con i principi fondamentali del campo per garantire un approccio equilibrato ed equo in un panorama in rapida evoluzione.
