La tesi di fondo del volume è che l’avvento dell’Intelligenza Artificiale Generativa (GenAI), come ChatGPT e Gemini, ha causato una sostanziale interruzione degli spazi educativi, costringendo educatori, stakeholder e policymaker a riconsiderare la scrittura e il suo ruolo nell’istruzione.
Il testo si propone di offrire una guida tecnicamente solida e un quadro teorico che consenta di comprendere meglio la scrittura generata dal computer. L’obiettivo ultimo è valutare l’impatto della GenAI sull’apprendimento, sulle prestazioni degli studenti e sull’integrità accademica, delineando come la GenAI possa essere sia un aiuto che un ostacolo e permettendo di integrare la tecnologia in modo significativo nell’aula di composizione.
Il volume cerca di affrontare questa interruzione sviluppando un paesaggio teorico robusto che posizioni questi sistemi all’interno della comprensione della retorica e di quadri pedagogici espansivi.
Concetti a Supporto
Per sostenere questa tesi e fornire una comprensione approfondita della GenAI, vengono sviluppati diversi concetti chiave:
1. Necessità di una Comprensione Tecnica e Critica dell’AI
Un concetto fondamentale è che una comprensione superficiale della GenAI (come la semplice predizione della parola più probabile) non è sufficiente per formulare politiche adeguate. L’autore si impegna ad aprire la “scatola nera” (blackbox) della GenAI per informare le discussioni future:
- Intelligenza Artificiale vs. Intelligenza Umana: La GenAI è un sistema intelligente solo nel senso che utilizza modelli statistici per lavorare con set di conoscenza incompleti (come la previsione dei voti o il riconoscimento di forme umane). Non è “pensante” o “intelligente” nel senso umano del termine, mancando di consapevolezza di sé o libero arbitrio. È l’assemblaggio complesso di calcoli matematici.
- Problema del Linguaggio e Codifica: I sistemi informatici affrontano il “problema del linguaggio” convertendo il linguaggio naturale in valori numerici. Le LLM (Large Language Models) attuali utilizzano architetture Transformer, che si basano sui meccanismi di attenzione per processare le relazioni tra le parole su span di testo più ampi.
- Derivazione e Proprietà Intellettuale: Le LLM non contengono il testo originale su cui sono state addestrate; sono derivati matematici. I testi che generano sono “derivati discendenti” (descendant derivatives), generati sulla base di schemi estratti da corpora massivi di dati.
2. Rifiuto della Metafora della Collaborazione e Centralità dell’Agenzia Retorica
L’autore critica la crescente popolarità della metafora della “collaborazione” (collaboration) per descrivere l’uso della GenAI, sebbene riconosca l’alternativa di “co-costruzione di conoscenza”.
- Antropomorfizzazione dannosa: La metafora della collaborazione è imprecisa e problematica perché antropomorfizza in modo errato la GenAI. Il fatto che le interfacce utente (UI) siano progettate per apparire come una “chat” umana (sfruttando le aspettative di genere preesistenti) spinge gli utenti a conferire al sistema un’agenzia che non possiede.
- Minaccia all’Agenzia dello Scrittore: Considerare l’AI un collaboratore rischia di sottrarre agenzia e scelta allo scrittore umano, che deve negoziare tra le convenzioni e il “caos” (spazio per l’improvvisazione) di una situazione retorica. L’AI, al contrario, si limita a seguire le convenzioni codificate, non potendo comprendere o agire in base a intuizioni o consapevolezza della situazione retorica.
- Allucinazioni (Hallucinations): Le “allucinazioni” (soprattutto quelle fattuali) non sono invenzioni, ma rivelano che l’output segue schemi presenti nel modello anche quando quei modelli non corrispondono alla realtà attesa dall’utente.
3. Inquadramento Teorico (RGS e Network Theory)
Per posizionare la GenAI, l’autore utilizza due quadri teorici retorici principali:
- Rhetorical Genre Studies (RGS): Questo quadro è efficace perché teorizza la “regolarità e il caos” (regularity and chaos) coinvolti nei generi di scrittura. Le LLM funzionano come modelli delle convenzioni (regolarità) del linguaggio. L’analisi dimostra che i sistemi GenAI contengono “conoscenza di genere codificata” (encoded genre knowledge) sufficiente per generare risposte appropriate (es. writing prompts e rubriche) in base alla situazione retorica, poiché queste convenzioni appaiono naturalmente nel testo su cui sono addestrati.
- Teorie Post-Umaniste e di Network (Network Theories): Queste teorie permettono di vedere la GenAI come parte di un complesso assemblaggio umano, materiale e tecnologico, formando una ecologia retorica. La preoccupazione qui è che, poiché le LLM rappresentano solo un sottoinsieme del linguaggio (con un bias di inclusione), la proliferazione di testi generati dalla GenAI possa omogeneizzare la scrittura e diffondere l’ideologia codificata nel modello attraverso le reti sociali.
4. Implicazioni Pedagogiche e Rischi Maggiori
Sebbene l’integrità accademica sia un focus comune, l’autore enfatizza due rischi significativi e le relative opportunità:
- Minaccia al Translingualismo: La GenAI pone un rischio significativo per le prospettive antirazziste e anticoloniali. Poiché le LLM sono addestrate prevalentemente sull’“Inglese Metropolitano” (Metropolitan English – ME), l’uso della GenAI da parte degli studenti multilingue per conformarsi al ME rafforza il progetto coloniale e rischia di cancellare le voci non dominanti e le opportunità di creazione di significato che derivano dalla diversità linguistica.
- Strategie Pedagogiche: Si suggerisce di non vietare la GenAI, ma di integrarla responsabilmente:
- Focalizzare l’assegnazione dei compiti sulla produzione di conoscenza piuttosto che sul semplice recupero di informazioni, dove la GenAI eccelle.
- Usare la GenAI come strumento nel processo di scrittura, in particolare per la ricerca (identificando fonti e riassumendo argomenti) e la revisione (fornendo feedback convenzionale rapidamente).
- Incoraggiare la metacognizione e la consapevolezza di genere/retorica attraverso la riflessione e l’analisi critica degli output della GenAI.
Come i Computer “Pensano” al Linguaggio: Un’Introduzione al Pensiero Computazionale
Il linguaggio umano è una delle nostre creazioni più complesse. È sfumato, intriso di contesto e in continua evoluzione. Al contrario, i computer operano in un mondo di logica binaria e precisione assoluta. Come è possibile, quindi, che un’intelligenza artificiale generativa come ChatGPT possa elaborare, analizzare e persino creare un testo che assomigli in modo così convincente al nostro? La risposta non risiede in una “magia” tecnologica, ma in un approccio sistematico alla risoluzione dei problemi chiamato pensiero computazionale.
Questo documento svela questo approccio fondamentale, aprendo la “scatola nera” dell’intelligenza artificiale per demistificare il processo attraverso cui gli esseri umani “traducono” i complessi problemi del linguaggio in istruzioni che una macchina può comprendere ed eseguire.
——————————————————————————–
1. Il Pensiero Computazionale: Tradurre i Problemi Umani per le Macchine
Prima di poter insegnare a un computer a interagire con il linguaggio, dobbiamo imparare a pensare come un informatico. Questo modo di pensare è la chiave per colmare il divario tra la complessità umana e la logica della macchina, ed è il fondamento su cui sono costruite le intelligenze artificiali generative.
1.1 Che cos’è il Pensiero Computazionale?
Secondo la pioniera dell’informatica Jeannette M. Wing, il pensiero computazionale non è una tecnologia, ma un processo mentale. È un approccio alla risoluzione dei problemi che “implica la risoluzione di problemi, la progettazione di sistemi e la comprensione del comportamento umano”.
In altre parole, non si tratta di far sì che i computer pensino come gli esseri umani, ma di strutturare un problema e la sua soluzione in un modo che un computer possa eseguire efficacemente. È il quadro di riferimento che gli informatici usano per affrontare qualsiasi sfida, dal calcolo delle tasse alla costruzione dei modelli linguistici di grandi dimensioni (LLM) che alimentano l’IA.
1.2 I Due Pilastri Fondamentali
Il pensiero computazionale si basa su due concetti complementari che costituiscono i passaggi fondamentali per affrontare qualsiasi sfida complessa: la scomposizione e l’astrazione.
• Scomposizione: L’arte di suddividere un problema complesso e apparentemente insormontabile in parti più piccole, specifiche e gestibili.
• Astrazione: Il processo di generalizzare una soluzione a un piccolo problema per renderla applicabile a problemi simili e di nasconderne la complessità interna per renderla più facile da usare e riutilizzare.
Per capire davvero come funzionano questi principi, analizziamo un esempio concreto tratto direttamente dal modo in cui i computer elaborano il testo.
——————————————————————————–
2. La Scomposizione: Rompere il Problema in Pezzi Gestibili
Il primo passo per risolvere un problema complesso è renderlo meno complesso. La scomposizione è il metodo sistematico per raggiungere questo obiettivo.
2.1 Il Principio della Scomposizione
La scomposizione è l’atto di “prendere un problema grande e scomporlo nelle sue parti costituenti e risolvibili”. Questo passaggio è critico perché i computer non possono interpretare istruzioni vaghe come “analizza questo testo”. Hanno bisogno di una sequenza di comandi estremamente specifici, logici e privi di ambiguità.
2.2 Un Esempio Pratico: Insegnare a un Computer a “Leggere” il Contesto
Immaginiamo di voler insegnare a un computer a eseguire un compito che per un essere umano è banale: trovare la concordanza di una parola, ovvero tutte le sue occorrenze in un testo insieme a un certo numero di parole che la circondano.
Per un essere umano, l’istruzione “trova e registra le 5 parole prima e dopo ogni occorrenza di ‘libertà'” è sufficiente. Per un computer, questa istruzione è inutilizzabile. Una macchina non “vede” parole o frasi; percepisce il testo come un flusso di singoli caratteri (L, i, b, e, r, t, à, …). Il concetto di “parola” o “contesto” deve essere definito esplicitamente.
Attraverso la scomposizione, trasformiamo l’obiettivo vago in una serie di sotto-problemi risolvibili.
Il Problema della Concordanza Scomposto
| Sotto-problema | Descrizione dell’attività | Perché è un passo necessario? |
| 1. Trovare le posizioni della parola chiave | Scansionare il flusso di caratteri del testo per identificare l’indice (la posizione numerica) di inizio e di fine di ogni occorrenza della parola chiave. | Un computer non “vede” parole, ma solo caratteri. Questo passo definisce i “confini” di una parola (spazi, punteggiatura) per renderla identificabile. |
| 2. Trovare le parole circostanti | Per ogni posizione trovata, iterare all’indietro e in avanti nel flusso di caratteri, contando un numero predefinito di “confini di parola” per identificare il contesto. | I concetti spaziali umani come “prima” e “dopo” sono privi di significato per una macchina. Questo passo li traduce in operazioni matematiche (es. indice – 5 parole). |
| 3. Visualizzare i risultati | Presentare le sequenze di parole e contesti trovati in un formato leggibile e utile per l’utente, ad esempio una lista in cui ogni riga mostra un’occorrenza. | L’output nativo di una macchina sono dati grezzi (numeri, indici). Questo passo formatta i dati in un linguaggio visivo comprensibile per l’utente umano. |
Il processo di scomposizione ha trasformato un’istruzione umana vaga (“trova il contesto di questa parola”) in una sequenza di passaggi logici e inequivocabili che un computer può eseguire. Una volta creata questa soluzione, come possiamo renderla più potente e facile da usare?
——————————————————————————–
3. L’Astrazione: Generalizzare la Soluzione e Nascondere la Complessità
Dopo aver scomposto un problema e risolto le sue singole parti, il passo successivo è l’astrazione, che rende la soluzione potente, versatile e accessibile.
3.1 Il Principio dell’Astrazione
L’astrazione è il secondo pilastro del pensiero computazionale e comporta due processi chiave:
1. Generalizzare una soluzione per renderla adatta a risolvere una classe di problemi simili, non solo l’istanza specifica per cui è stata creata.
2. Nascondere i dettagli del suo funzionamento interno, esponendo solo un’interfaccia semplice con cui l’utente può interagire.
3.2 Dall’Esempio alla Funzione Riutilizzabile
Torniamo al nostro algoritmo di concordanza. Invece di essere un programma che cerca solo una parola specifica in un testo specifico, l’astrazione ci permette di trasformarlo in una funzione generale e riutilizzabile.
Questa funzione “generalizzata” potrebbe accettare qualsiasi testo e qualsiasi parola chiave come input, restituendo un elenco di concordanze. Lo stesso nucleo di codice, una volta astratto, diventa un potente strumento multiuso che può essere impiegato per compiti diversi, come:
• Evidenziare parole del vocabolario in un libro di testo digitale.
• Generare le frequenze delle parole in un corpus di testi per l’analisi linguistica.
• Creare un indice analitico per un libro.
Questo rende la soluzione originale molto più efficiente e versatile, evitando la necessità di scrivere codice da capo per ogni problema simile.
3.3 La “Scatola Nera” (Blackboxing): Perché la Tecnologia Sembra Magica
Il secondo aspetto dell’astrazione, reso popolare dal sociologo Bruno Latour, è il concetto di “blackboxing” (inscatolamento). Una volta che un processo è stato sviluppato e testato, i suoi complessi meccanismi interni vengono “nascosti” all’interno di una “scatola nera”.
L’utente (che sia un altro programmatore o un utente finale) non ha bisogno di conoscere come funziona l’algoritmo al suo interno. Deve solo sapere due cose:
• Input: Cosa inserire nella scatola (es. un testo e una parola chiave).
• Output: Cosa aspettarsi in cambio (es. un elenco di concordanze).
Questo principio è il motivo per cui le tecnologie più complesse ci appaiono spesso semplici e quasi “magiche”. Questo non è un difetto, ma una caratteristica fondamentale del design: la tecnologia diventa veramente potente solo quando la sua complessità scompare alla vista. Quando usiamo un’app di navigazione, non pensiamo agli algoritmi di calcolo del percorso o ai protocolli di comunicazione satellitare. Inseriamo semplicemente una destinazione (input) e riceviamo un percorso (output).
È questa potente sinergia—scomporre la complessità in mattoni gestibili e poi astrarre quei mattoni in strumenti potenti e riutilizzabili—che costituisce il motore intellettuale dietro le più avanzate tecnologie linguistiche di oggi.
——————————————————————————–
4. Conclusione: Demistificare il Linguaggio delle Macchine
Il modo in cui sistemi come ChatGPT gestiscono il linguaggio non è il risultato di macchine che “pensano” in senso umano. È, invece, la testimonianza dell’ingegnosità umana nel strutturare il proprio pensiero per comunicare efficacemente con le macchine. Comprendere questo processo è il primo passo per superare i “technology panics” (panici tecnologici) che spesso circondano le nuove invenzioni.
Il pensiero computazionale, attraverso i suoi due pilastri, fornisce il metodo per questa traduzione:
1. La scomposizione prende un compito ambiguo e umano come l’analisi del linguaggio e lo frantuma in una serie di passaggi logici e precisi.
2. L’astrazione prende queste soluzioni specifiche, le generalizza e le nasconde dietro interfacce semplici, creando gli strumenti potenti e riutilizzabili che stanno alla base dei modelli linguistici di grandi dimensioni (LLM).
Comprendere questi principi fondamentali rivela la logica dietro la “magia” dell’intelligenza artificiale generativa. Trasforma la nostra prospettiva da quella di consumatori passivi di tecnologia a quella di osservatori informati di un processo elegante e guidato dall’uomo. Dietro ogni testo generato dall’IA non c’è una mente artificiale, ma un’elegante architettura di problemi scomposti e soluzioni astratte, costruita dall’intelletto umano.
