BRUXELLES - La legge europea sull'intelligenza artificiale (Ia) manca di un reale approccio basato sul rischio e porterà all'incertezza giuridica e a un eccesso di regolamentazione, oltre che a un aumento ingiustificato dei costi di conformità, a meno che non vengano apportati miglioramenti cruciali durante l'imminente fase di attuazione. È l'avvertimento lanciato in uno studio sull'AI Act, prossimo all'entrata in vigore, commissionato dalla lobby tech Computer & Communications Industry Association (Ccia Europe).
Lo studio, condotto dal docente di diritto informatico, Martin Ebers, rileva che numerose norme sono il risultato di compromessi politici affrettati piuttosto che di un'analisi approfondita dei rischi e dei benefici. L'attuale sistema di classificazione dei sistemi di Ia ad alto rischio, ad esempio, non è adeguatamente supportato da prove empiriche, osserva l'esperto, che invita l'Ufficio Ue per l'Ia, operativo da questa settimana, a modificare e perfezionare gli attuali casi di uso ad alto rischio.
La ricerca evidenzia inoltre l'importanza di garantire in futuro che i benefici economici e sociali dei sistemi di Ia siano esplicitamente soppesati rispetto ai rischi, cosa che ancora non avviene. Il rapporto chiede inoltre una metodologia unificata per identificare e valutare i rischi sistemici derivanti dai modelli di Ia per scopi generali (Gpai), ossia l'Ia generativa, in gran parte non definiti nella legge sull'Ia a seguito di compromessi politici. Allo stesso modo, l'Ufficio Ai dovrebbe aggiornare la soglia per i modelli Gpai con rischi sistemici, basandosi su prove tangibili.
"Questo studio propone soluzioni concrete a problemi seri" ha commentato Boniface de Champris, Senior Policy Manager di Ccia Europe, esortando l'Ufficio dell'Ue per l'Ia a "garantire che l'attuazione dell'AI Act rispetti l'approccio basato sul rischio previsto, comprese le linee guida, il diritto derivato, gli standard e i codici di condotta".
Riproduzione riservata © Copyright ANSA