Dal 2 febbraio 2025 è pienamente applicabile l’obbligo previsto dall’articolo 4 del Regolamento europeo sull’AI (AI Act): fornitori e utilizzatori (deployer) di sistemi di Intelligenza Artificiale devono adottare misure concrete per garantire un adeguato livello di alfabetizzazione AI.

Cos’è l’alfabetizzazione in materia di AI?

Si tratta dell’insieme di competenze, conoscenze e comprensione che consentono di:

  • utilizzare i sistemi di AI con piena consapevolezza;
  • conoscere le opportunità offerte e i rischi potenziali;
  • agire nel rispetto dei diritti e degli obblighi definiti dall’AI Act.

Non basta dunque saper usare tecnicamente l’AI: è fondamentale comprendere anche gli impatti sociali, etici e legali del suo impiego.

Chi è coinvolto?

L’obbligo riguarda:

  • il personale interno delle aziende;
  • chiunque utilizzi sistemi AI per conto del fornitore o dell’utilizzatore.

La formazione deve tener conto del livello di istruzione, dell’esperienza e del contesto d’uso dei sistemi di AI.

Perché l’articolo 4 è strategico?

L’alfabetizzazione AI è alla base di altri principi chiave dell’AI Act:

  • trasparenza (art. 13);
  • supervisione umana (art. 14).

Garantisce che il personale coinvolto sia adeguatamente formato per operare in sicurezza con i sistemi di intelligenza artificiale.

Misurazione e valutazione delle competenze

Non è richiesta una valutazione formale delle conoscenze, ma è obbligatorio assicurare un livello sufficiente di alfabetizzazione. Le aziende devono quindi:

  • considerare le competenze tecniche pregresse;
  • valutare istruzione e formazione ricevute;
  • garantire un aggiornamento continuo in base ai rischi e alle tecnologie adottate.

Contenuti minimi di un programma di alfabetizzazione AI

La Commissione europea propone un approccio flessibile, ma indica alcuni elementi essenziali da includere:

  1. Comprensione generale dell’IA: cos’è, come funziona, quali sistemi sono utilizzati o forniti dall’organizzazione, opportunità e rischi associati.
  2. Ruolo dell’organizzazione: è sviluppatore/fornitore oppure utilizzatore di sistemi sviluppati da terzi?
  3. Analisi del rischio: il personale deve conoscere i rischi specifici e le misure di mitigazione da adottare.
  4. Progettazione della formazione: deve basarsi su analisi dei profili coinvolti, contesto di utilizzo e scopo dei sistemi AI.

Non esiste un formato obbligatorio a livello UE: ogni programma formativo deve essere personalizzato sul contesto organizzativo e sulla tecnologia impiegata. Sono comunque disponibili risorse utili e repository della Commissione per ispirarsi a buone pratiche.

Tempistiche, enforcement e sanzioni

2 febbraio 2025: obbligo in vigore.

2 agosto 2025: scadenza per la nomina delle autorità nazionali di vigilanza e per l’adozione delle leggi nazionali (incluse le sanzioni).

2 agosto 2026: inizio delle attività di vigilanza.

Le sanzioni saranno proporzionate, ma più severe in caso di incidenti causati da formazione inadeguata. Saranno valutati la gravità della violazione e il suo carattere: intenzionale o negligente.

Cosa devono fare le organizzazioni oggi?

Alle aziende che fanno utilizzo di sistemi IA è richiesto un intervento immediato, volto ad avviare o rafforzare programmi di alfabetizzazione AI, documentare le azioni formative intraprese, prepararsi a eventuali controlli da parte delle autorità.

L’adozione tempestiva di queste misure non è solo un obbligo normativo, ma un fattore strategico per la governance dei sistemi AI.

MI.ZAR. può seguire la tua azienda nell’adempimento degli obblighi europei sull’IA, contattaci adesso per maggiori informazioni:

    PrivatoProfessionistaAzienda

    Acconsento al trattamento dei miei dati personali*
    Qui puoi consultare il testo della Privacy Policy