L’AI Act è la legge dell’Unione Europea sull’intelligenza artificiale, approvata nel 2024, che regola lo sviluppo e l’uso dell’IA per garantire sicurezza, trasparenza e rispetto dei diritti fondamentali.
Punti chiave dell’AI Act
🔹 Classificazione dei sistemi IA in base al rischio
L’AI Act suddivide i sistemi di intelligenza artificiale in 4 categorie di rischio:
1. Rischio inaccettabile 🚫 → Vietati (es. riconoscimento facciale in tempo reale, manipolazione comportamentale).
2. Alto rischio ⚠️ → Fortemente regolamentati (es. IA in ambito medico, finanziario, giudiziario).
3. Rischio limitato ⚖️ → Devono rispettare obblighi di trasparenza (es. chatbot, deepfake).
4. Rischio minimo ✅ → Libero utilizzo (es. IA per videogiochi, filtri fotografici).
🔹 Obblighi per le aziende
Le aziende che sviluppano IA devono rispettare regole di sicurezza, trasparenza e protezione dei dati. Chi usa IA ad alto rischio deve effettuare valutazioni d’impatto e garantire che il sistema non discrimini.
🔹 Regole sui modelli di IA generativa (es. ChatGPT, Gemini, Claude)
Gli sviluppatori di IA generativa devono:
• Dichiarare che il contenuto è generato da un’IA.
• Prevenire la generazione di contenuti illegali.
• Pubblicare sintesi degli utilizzi dei dati di addestramento.
🔹 Sanzioni severe per chi non rispetta la legge
Le multe possono arrivare fino a 35 milioni di euro o il 7% del fatturato globale!
L’AI Act entrerà in vigore progressivamente tra il 2024 e il 2026.
Data pubblicazione : 04/04/2025
Leggi AI ACT