El creador del ChatGpt, por ejemplo, "advierte que no se le tiene que preguntar sobre salud, pero la gente lo hace" y "cuando se utiliza para pedirle consejos e información sobre una patología y la información no es correcta, eso afecta a las personas", apunta.
También con una aplicación de ayuda psicológica que antes la hacían seres humanos y ahora la hace la IA "ha habido casos de problemas de trastornos alimenticios que en lugar de mitigarlos lo aumentaban, porque proporcionaba comentarios muy centrados sobre el consumo de calorías y los psicólogos vieron que el resultado era negativo", señala.
Estos "impactos afectan al derecho a la salud", subraya.
Otros derechos que pueden ser afectados, como la libertad de expresión, ocurren cuando, por ejemplo, "al controlar los contenidos de las redes sociales la IA se equivoca, lo que puede limitar la libertad de expresión".
Mantelero, miembro del Comité de Ética de la Universidad Politécnica de Turín (Italia) y autor del libro "Beyond the data", en el que trata este tema, pone otros ejemplos de riesgos como cuando un "chatbot da información errónea sobre impuestos, o en un entorno judicial cuando se utiliza para adoptar sanciones administrativas. Equivocarse puede acarrear muchos problemas", advierte.
"No es un discurso apocalíptico, sino que cada aplicación tiene su riesgo específico, hay que analizarlos y desarrollar la IA teniendo en cuenta esos impactos".
En este sentido, considera "clave" en el proyecto legislativo que votó hoy el Parlamento Europeo para regular la gestión de la IA "la evaluación de riesgo, que la gente pueda conocer cuál es el nivel de riesgo de la aplicación que usa y cómo se ha afrontado".
El proyecto europeo "incluye una valoración del impacto, pero falta la metodología, no dice cómo hacerlo y esto es un tema crucial", considera.
En una jornada organizada en Barcelona por la Autoridad catalana de protección de datos (APDCAT) Mantelero defendió que el mercado de la inteligencia artificial solo puede crecer "si va de la mano de la garantía de la protección de los derechos humanos".
TODOS LOS DERECHOS RESERVADOS © Copyright ANSA