El creador del ChatGpt, por ejemplo, "advierte que no se le
tiene que preguntar sobre salud, pero la gente lo hace" y
"cuando se utiliza para pedirle consejos e información sobre una
patología y la información no es correcta, eso afecta a las
personas", apunta.
También con una aplicación de ayuda psicológica que antes la
hacían seres humanos y ahora la hace la IA "ha habido casos de
problemas de trastornos alimenticios que en lugar de mitigarlos
lo aumentaban, porque proporcionaba comentarios muy centrados
sobre el consumo de calorías y los psicólogos vieron que el
resultado era negativo", señala.
Estos "impactos afectan al derecho a la salud", subraya.
Otros derechos que pueden ser afectados, como la libertad de
expresión, ocurren cuando, por ejemplo, "al controlar los
contenidos de las redes sociales la IA se equivoca, lo que puede
limitar la libertad de expresión".
Mantelero, miembro del Comité de Ética de la Universidad
Politécnica de Turín (Italia) y autor del libro "Beyond the
data", en el que trata este tema, pone otros ejemplos de riesgos
como cuando un "chatbot da información errónea sobre impuestos,
o en un entorno judicial cuando se utiliza para adoptar
sanciones administrativas. Equivocarse puede acarrear muchos
problemas", advierte.
"No es un discurso apocalíptico, sino que cada aplicación
tiene su riesgo específico, hay que analizarlos y desarrollar la
IA teniendo en cuenta esos impactos".
En este sentido, considera "clave" en el proyecto
legislativo que votó hoy el Parlamento Europeo para regular la
gestión de la IA "la evaluación de riesgo, que la gente pueda
conocer cuál es el nivel de riesgo de la aplicación que usa y
cómo se ha afrontado".
El proyecto europeo "incluye una valoración del impacto,
pero falta la metodología, no dice cómo hacerlo y esto es un
tema crucial", considera.
En una jornada organizada en Barcelona por la Autoridad
catalana de protección de datos (APDCAT) Mantelero defendió que
el mercado de la inteligencia artificial solo puede crecer "si
va de la mano de la garantía de la protección de los derechos
humanos".
TODOS LOS DERECHOS RESERVADOS © Copyright ANSA