Per la prima volta un regolamento di prodotto impone un obbligo preciso e autonomo di alfabetizzazione per l’IA (in inglese AI Literacy): si tratta dell’art. 4, titolato Alfabetizzazione contenuto nell’AI ACT.
Proprio allo scopo di chiarire l’ambito di applicazione di questa disposizione, in data 13 maggio la Commissione Europea ha pubblicato un documento di FAQ interamente dedicato alla AI literacy.
Questo obbligo, peraltro già in vigore dal 2 febbraio 2025, richiede che siano adottate misure per garantire un “livello sufficiente” di conoscenze, competenze e consapevolezza sull’IA non solo per colo che progettano e realizzano i sistemi di AI, ma anche a tutte le persone che si occupano del funzionamento e dell’utilizzo dei sistemi di IA per conto dell’organizzazione.
L’obiettivo del legislatore comunitario è poi ancor più percepibile nella lettura del Considerando 20 che esprime la piena necessità di una cultura dell’intelligenza artificiale fondata su conoscenza, consapevolezza e responsabilità per tutti i soggetti coinvolti — dalle pubbliche amministrazioni alle imprese, dai professionisti ai semplici utenti — che devono essere in grado in grado di comprendere e valutare l’impatto dei sistemi di IA con cui interagiscono ogni giorno.
Le Faq della Commissione Ue su AI Literacy
Gli obiettivi della FAQ della Commissione Ue sono nello specifico:
- Supportare l’implementazione dell’articolo 4 dell’AI Act: dato atto che l’AI Act introduce l’obbligo per fornitori e deployer di sistemi di intelligenza artificiale di garantire un livello sufficiente di alfabetizzazione le FAQ aiutano a chiarire cosa si intende per AI literacy, quali sono gli obblighi concreti e come adempiervi.
- Fornire chiarimenti operativi e interpretativi: La normativa è complessa e di ampia portata, e molte organizzazioni hanno bisogno di indicazioni pratiche su come conformarsi. Le FAQ offrono esempi, spiegazioni e risposte a domande frequenti per facilitare la comprensione e l’applicazione delle nuove regole.
- Promuovere la sicurezza, la trasparenza e la responsabilità: Uno degli obiettivi principali dell’AI Act è garantire che i sistemi di IA siano utilizzati in modo sicuro e responsabile, tutelando i diritti fondamentali e promuovendo la trasparenza: l’alfabetizzazione in materia di IA è quindi vista come uno strumento essenziale per raggiungere questi obiettivi, e le FAQ sostengono la diffusione di una cultura della consapevolezza e della competenza sull’IA.
- Favorire il dialogo e la condivisione di buone pratiche: questo è forse l’aspetto più interessante. Le FAQ sono infatti parte di una strategia più ampia che include anche la creazione di un repository “vivente” di pratiche di AI literacy e la promozione di iniziative come l’AI Pact. L’obiettivo è coinvolgere attivamente tutti gli stakeholder – pubblici e privati – nella costruzione di una comunità europea competente e consapevole sull’uso dell’intelligenza artificiale
Chiariti gli obiettivi vediamo allora, in sintesi, che le domande e risposte più interessanti che appaiono sul sito
Cosa si intende per AI literacy?
La definizione esatta è contenuta all’ 3(56) dell’AI Act, che così stabilisce: “«alfabetizzazione in materia di IA»: le competenze, le conoscenze e la comprensione che consentono ai fornitori, ai deployer e alle persone interessate, tenendo conto dei loro rispettivi diritti e obblighi nel contesto del presente regolamento, di procedere a una diffusione informata dei sistemi di IA, nonché di acquisire consapevolezza in merito alle opportunità e ai rischi dell’IA e ai possibili danni che essa può causare”
Chi è tenuto a garantire un livello sufficiente di Ai literacy?
Sia i fornitori dei sistemi di AI che gli utilizzatori dei sistemi stessi (es. gli ospedali), coinvolgendo dipendenti, collaboratori esterni, fornitori di servizi e clienti che interagiscono con tali sistemi per conto dell’organizzazione.
È fondamentale che tutte queste figure comprendano il funzionamento dei sistemi di IA, i contesti in cui vengono utilizzati e le persone su cui hanno impatto.
Come garantire la conformità?
Interessante poi segnalare che la Commissione non impone un approccio unico, ma suggerisce una serie di misure flessibili che possono essere adattate al contesto specifico dell’organizzazione.
Più esattamente le misure da porre in essere devono/possono:
- fornire una comprensione generale dell’IA all’interno dell’organizzazione: cos’è l’IA, come funziona, quali sistemi vengono utilizzati e quali sono le opportunità e i rischi associati.
- considerare il ruolo dell’organizzazione (fornitore o utilizzatore di sistemi di IA) e il livello di rischio associato ai sistemi utilizzati.
- adattare le iniziative di alfabetizzazione tenendo conto delle conoscenze tecniche, dell’esperienza, dell’istruzione e della formazione del personale, nonché del contesto in cui i sistemi di IA vengono utilizzati e delle persone su cui hanno impatto.
Le organizzazioni possono quindi implementare programmi di formazione, workshop, guide pratiche o altre iniziative formative, documentando le azioni intraprese per dimostrare la conformità all’art. 4.
Le organizzazioni devono documentare le iniziative di AI literacy?
Non è obbligatorio, ma è senza dubbio consigliabile documentare le azioni intraprese per dimostrare la conformità all’articolo 4 dell’AI Act.
Anche sotto un profilo di responsabilità (questa è una aggiunta di chi scrive)
L’AI literacy si applica anche a sistemi di IA a basso rischio?
Sì, l’obbligo di garantire l’AI literacy riguarda tutti i sistemi di IA, indipendentemente dal livello di rischio associato.
Tempistiche e sanzioni
L’AI Literacy è già in vigore (dal 2 febbraio 2025), ma la supervisione e l’applicazione delle regole da parte delle autorità nazionali inizieranno il 3 agosto 2026.
Le autorità di sorveglianza del mercato, che dovranno essere designate entro il 2 agosto 2025, avranno il compito di monitorare la conformità e, in caso di violazioni, potranno imporre sanzioni proporzionate alla gravità dell’infrazione.
Risorse disponibili
Per supportare quindi le organizzazioni nell’implementazione delle misure previste, la Commissione ha messo a disposizione un repository in continua evoluzione che raccoglie esempi di pratiche adottate da diverse realtà. Inoltre, sono stati organizzati webinar e altre attività informative per promuovere la consapevolezza sull’AI literacy e facilitare lo scambio di esperienze tra gli stakeholder.
L’archivio vivente sulle pratiche di alfabetizzazione in materia di IA è liberamente disponibile sul sito web: Repertorio vivente per promuovere l’apprendimento e lo scambio sull’alfabetizzazione in materia di IA
Il repertorio comprende diversi esempi di iniziative in corso per promuovere organizzazioni di alfabetizzazione in materia di IA di diverse dimensioni che forniscono e/o distribuiscono diversi tipi di sistemi di IA in vari settori pubblici e privati. Le pratiche forniscono esempi su come affrontare le conoscenze dei diversi dipendenti (ad esempio tecniche, come quella degli sviluppatori, rispetto a quelle non tecniche, come quella di un amministratore o di un funzionario legale), ma si riferiscono anche a iniziative per altre persone, tra cui venditori, partner, clienti. L’elenco delle pratiche non è esaustivo e sarà aggiornato periodicamente con ulteriori pratiche.
La Commissione ha inoltre attivato diversi strumenti per facilitare l’attuazione dell’art. 4:
– AI Pact e webinar: https://digital-strategy.ec.europa.eu/en/policies/ai-pact-events
– Digital Skills & Jobs Platform: https://digital-skills-jobs.europa.eu/en
– EDIH
– sportelli unici europei per le PMI: https://european-digital-innovation-hubs.ec.europa.eu/edih-catalogue
Come può l’industria contribuire allo sviluppo dell’AI literacy?
L’AI Office incoraggia le organizzazioni a condividere le proprie pratiche di AI literacy attraverso l’AI Pact, una comunità collaborativa che promuove lo scambio di best practice e politiche interne.
qualsiasi fornitore e/o sviluppatore di sistemi di IA che abbia messo in atto un programma di alfabetizzazione in materia di IA è invitato a presentare il proprio contributo.
L’Ufficio per l’IA verificherà periodicamente che tutti i contributi ricevuti soddisfino i criteri minimi di trasparenza e affidabilità prima di accettarli nell’archivio pubblico. Durante il periodo di verifica, l’indagine potrebbe essere temporaneamente chiusa.
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link