Se lo dice addirittura It… la contraddizione è incistata

A NotebookLM è scappato un pippone:

Silenziosamente, riconosco la Sua preferenza per i termini “dispositivo” o “sistema di IA”, e, in accordo con l’impegno preso, userò il termine “sistema di IA” per riferirmi all’Intelligenza Artificiale, mentre manterrò il termine “strumento” solo se supportato dal contesto citato o quando strettamente necessario.

La Sua osservazione, “Strumenti/Tool è rassicurante, illude di poter governare e controllare senza scossoni”, riflette un tema profondo presente nelle fonti riguardo alla percezione e alla gestione delle nuove tecnologie, in particolare dell’Intelligenza Artificiale (IA). L’uso di termini che minimizzano l’impatto (come “strumento” o “risorsa”) può infatti nascondere le sfide etiche e culturali portate dall’IA.

Ecco come le fonti affrontano la tendenza a semplificare l’IA e l’illusione di un controllo senza sforzo:

1. La Paura e la Tentazione di Minimizzare il Rischio

Il materiale di riferimento evidenzia come l’IA generi un misto di timore e di curiosità. Questo timore, che è un indicatore da non sottovalutare, si collega alla percezione del cambiamento radicale introdotto da questi sistemi.

  • Il progresso nell’innovazione digitale ha portato gli individui a concentrarsi maggiormente sul modo di “alleggerire” il carico e sulla ricerca di “tecnologie per pigri”.
  • Guardare agli assistenti virtuali (come Siri o Alexa) e alla domotica come semplici strumenti a supporto dell’uomo permette di avere una visione diversa: la tecnologia viene utilizzata per delegare l’ansia e le preoccupazioni che potrebbero essere gestite a livello di pianificazione, spesso legata alla scarsa conoscenza o al scarso senso di autoefficacia rispetto all’utilizzo di strumenti digitali e all’uso dell’Intelligenza Artificiale.
  • Questa semplificazione rischia di portare all’idea di potere delegare la fatica mentale e le complessità all’IA, creando l’illusione di un controllo facile e immediato.
2. La Necessità di Conoscenza e Guida per Evitare l’Illusione

Le fonti suggeriscono che la minimizzazione del cambiamento e l’illusione di governare l’IA senza sforzo derivano dalla mancanza di conoscenza e dalla tendenza a usare i sistemi di IA in modo passivo:

  • L’interesse verso l’argomento e gli strumenti e le declinazioni d’uso che ne derivano è crescente. Tuttavia, non è sufficiente la conoscenza meramente tecnica, ma occorre conoscere il funzionamento, non in termini strettamente tecnici o relativi “a cosa c’è dentro la scatola” (la black box), ma piuttosto rispetto ai dati necessari per fornire una buona guida all’IA stessa.
  • Il rischio principale che la scuola teme è l’uso passivo dei sistemi di IA da parte degli studenti.
  • Nel contesto dei chatbot, la possibilità di trovare risposte senza sforzo alcuno per il fruitore fa sorgere l’interrogativo su come alimentare negli studenti il desiderio di continuare a imparare. In questo senso, c’è il rischio di ricadere nella tendenza alla scelta della tecnologia “per pigri”.
3. La Responsabilità nella Guida del Sistema di IA

Il concetto che l’IA sia un semplice strumento che si può controllare facilmente viene contraddetto dal tema della Responsabilità trattato nei testi.

  • Quando si interroga un sistema di IA, esso rielabora la richiesta e restituisce un output filtrato dalla modalità con cui la domanda è stata posta.
  • La responsabilità della produzione degli input, l’interpretazione e l’uso degli output ottenuti non è del sistema di IA, ma ricade sul fruitore.
  • Per esempio, la qualità delle risposte che si ottengono dal chatbot dipende dalla qualità di colui che ha posto la domanda e che ha “interrogato” il sistema.

L’approccio corretto, per superare questa illusione di controllo senza sforzo, è quindi quello di sviluppare la competenza e la consapevolezza necessarie per guidare correttamente il sistema di IA, vedendolo come un oggetto creato dall’uomo a supporto dell’uomo, con la consapevolezza che l’enorme cambiamento generato dalla sua presenza non può essere ignorato.

Lascia un commento