In questo contributo si riflette sulle implicazioni educative che emergono dalle dichiarazioni dei giovani rispetto all’Intelligenza Artificiale (IA) e di come la ‘postura mediaeducativa’ sia interrogata dall’analisi dei dati raccolti nella ricerca dell’Osservatorio Giovani dell’Istituto Toniolo, esito di un questionario somministrato tra il 25 luglio e il 9 agosto 2023 a 6.003 giovani di età compresa tra i 18 e i 34 anni che risiedono in Italia, Francia, Germania, Spagna e Regno Unito. I dati sono riletti secondo l’Artificial Intelligence Literacy (AIL) in cui la nuova literacy è costituita da quattro dimensioni: conoscitiva (conoscere e comprendere l’IA), operativa (usare e applicare l’IA), critica (valutare e creare l’IA) ed etica (comprendere le implicazioni etiche dell’IA). Si assume così una postura che mira a promuovere la capacità di navigare, comprendere e interagire in modo critico nel complesso ecosistema dell’IA.
Pasta, S., La riflessione educativa alla prova dell’Artificial Intelligence Literacy, in Beccalli, E., Pais, I., Rosina, A., Viola, A. (ed.), Intelligenza artificiale: rischi e opportunità, Vita e Pensiero, Milano 2024: 43- 55 [https://hdl.handle.net/10807/297656]
La riflessione educativa alla prova dell’Artificial Intelligence Literacy
Pasta, Stefano
2024
Abstract
In questo contributo si riflette sulle implicazioni educative che emergono dalle dichiarazioni dei giovani rispetto all’Intelligenza Artificiale (IA) e di come la ‘postura mediaeducativa’ sia interrogata dall’analisi dei dati raccolti nella ricerca dell’Osservatorio Giovani dell’Istituto Toniolo, esito di un questionario somministrato tra il 25 luglio e il 9 agosto 2023 a 6.003 giovani di età compresa tra i 18 e i 34 anni che risiedono in Italia, Francia, Germania, Spagna e Regno Unito. I dati sono riletti secondo l’Artificial Intelligence Literacy (AIL) in cui la nuova literacy è costituita da quattro dimensioni: conoscitiva (conoscere e comprendere l’IA), operativa (usare e applicare l’IA), critica (valutare e creare l’IA) ed etica (comprendere le implicazioni etiche dell’IA). Si assume così una postura che mira a promuovere la capacità di navigare, comprendere e interagire in modo critico nel complesso ecosistema dell’IA.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.