Legge sull’IA: linee guida per l’uso

Dal 2 febbraio sono entrate in vigore le prime norme previste dall'Artificial Intelligence Act (AI Act). Tra queste, troviamo la definizione di sistema AI, l'alfabetizzazione AI e un numero limitato di casi d'uso proibiti che comportano rischi elevati nell'Unione Europea. Per supportare gli Stati membri e promuovere un panorama di intelligenza artificiale sicuro ed etico, la Commissione Europea ha pubblicato linee guida non vincolanti sia sulla definizione di sistema di intelligenza artificiale che sulle pratiche di IA vietate.
Le linee guida sulla definizione di sistema AI sono pensate per aiutare i fornitori e gli altri soggetti interessati a capire quando un sistema software possa essere considerato un sistema di intelligenza artificiale, così da facilitare l’applicazione delle normative europee. Queste indicazioni verranno aggiornate in base all'evoluzione del contesto, soprattutto alla luce delle esperienze pratiche e dei casi d'uso.
Le linee guida sulle pratiche di IA vietate, invece, offrono una panoramica delle pratiche ritenute inaccettabili per i rischi che pongono ai valori e diritti fondamentali europei. L’AI Act classifica i sistemi di IA in diverse categorie di rischio: vietati, ad alto rischio e soggetti a obblighi di trasparenza. In particolare, le linee guida affrontano pratiche come la manipolazione dannosa, il punteggio sociale e l'identificazione biometrica remota in tempo reale.
Oltre a chiarire l'interpretazione dei divieti da parte della Commissione, con riferimenti alle interpretazioni autorevoli della Corte di Giustizia dell'Unione Europea, le linee guida forniscono anche spiegazioni legali ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti previsti dall'AI Act.
chiara.gaffuri@unioncamere-europa.eu
Aggiornato il