di Martina Moggio
Dopo un lungo iter legislativo cominciato nel 2021, il Parlamento Europeo ha approvato in via definitiva il Regolamento Europeo sull’intelligenza artificiale (AI Act), che dovrà solo attendere la pubblicazione in Gazzetta Ufficiale per essere pienamente in vigore.
L’Intelligenza Artificiale (AI) sta ormai rivoluzionando il settore Life Science offrendo soluzioni tecnologiche che apportano una vasta gamma di benefici di carattere economico, sociale e ambientale. Con il voto del 13 Marzo 2024, l’Unione Europea è la prima al mondo a regolamentare tale rivoluzione.
Le due norme cardine che delimitano l’ambito di applicazione del nuovo Regolamento sono: l’articolo 3, che contiene la definizione di intelligenza artificiale, e l’articolo 6, che stabilisce quali sono i software di AI considerati ad alto rischio.
I sistemi di AI, infatti, sono divisi in quattro macrocategorie: a rischio minimo, limitato, alto ed inaccettabile; maggiore è il livello di rischio maggiori saranno le responsabilità e i limiti per sviluppatori e utilizzatori.
Cosa devono fare le aziende?
Per i sistemi a rischio limitato o minimo, l’approccio è basato sull’autoregolamentazione, consentendo ai fornitori di scegliere volontariamente di adottare requisiti per un’AI affidabile ed aderire a codici di condotta.
Al contrario, i sistemi di AI ad alto rischio saranno soggetti a requisiti più rigorosi.
Nell’allegato I del Regolamento (AI Act) sono indicati il Regolamento UE 2017/745 (MDR) e il Regolamento UE 2017/46 (IVDR). La norma (AI Act) stabilisce che i sistemi di AI, utilizzati in autonomia o come componenti di sicurezza, sono qualificati ad alto rischio se rientrano nell’elenco di cui all’allegato I (qui troviamo MDR e IVDR) ed il sistema deve essere sottoposto al controllo da parte di Organismi Notificati. Questi sistemi, dunque, dovranno superare una valutazione di conformità che dimostri il rispetto dei requisiti obbligatori per un’AI affidabile stabiliti dal Regolamento AI Act. Tali requisiti includono la qualità dei dati, la documentazione e la tracciabilità, la trasparenza, la supervisione umana, l’accuratezza, la sicurezza informatica e la robustezza del sistema. L’obiettivo è garantire che i sistemi di AI ad alto rischio siano altamente sicuri, affidabili e trasparenti, mitigando i rischi potenziali per gli individui e la società, tutelando allo stesso tempo i diritti fondamentali e i valori dell’UE. Un obiettivo complementare è quello di incentivare gli investimenti e l’innovazione nel campo dell’AI, stabilendo così un importante precedente per l’intera industria europea.
Timeline
Dopo il completamento del processo legislativo e quindi la pubblicazione in Gazzetta dell’AI Act (prevista per l’estate), seguirà un calendario ben preciso. La norma entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale UE e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore.
In un contesto in rapidissima evoluzione come quello dei software basati sull’intelligenza artificiale e da utilizzare in ambito medicale come DM, le perplessità per i Fabbricanti di dispositivi medici sono molteplici e complesse.
Con i nostri servizi di consulenza regolatoria comprensivi della valutazione e corretta classificazione dei software come DM (Software as Medical Device), della preparazione di Report di validazione dell’usabilità del prodotto, in accordo alle norme tecniche armonizzate, Biochem Consulting può supportarti nell’adempimento di tutti i requisiti richiesti dai Regolamenti MDR (UE) 2017/745 e IVDR (UE) 2017/746.
Per informazioni chiamaci al numero: 081.18902885 o scrivici a: info@biochem.it