El Parlamento Europeo da el primer paso para regular la inteligencia artificial
Aprueba un documento que identifica los riesgos de Chat GPT
La Unión Europea ve con recelos la irrupción de la inteligencia artificial (IA) y una de sus instituciones, el Parlamento Europeo, dio ayer el paso inicial para aprobar la primera ley en el mundo que regulará la utilización de herramientas como el ChatGPT.
Los miembros de las comisiones de Libertades Civiles y de Protección de los Consumidores votaron por una amplísima mayoría (84 votos a favor, siete en contra y 12 abstenciones) a favor de limitar el uso de la IA en el territorio de los 27.
El texto se presentará a mediados de junio en el pleno de la Cámara comunitaria y si sale adelante, los Estados miembro y Bruselas negociarán una redacción definitiva.
El Parlamento Europeo quiere garantizar que los sistemas de IA estén supervisados por personas, sean seguros, transparentes, ‘trazables’ (que se pueda identificar el origen y las diferentes etapas del proceso), no discriminatorios y respetuosos con el medio ambiente. También pretende contar con una definición uniforme de IA diseñada para ser tecnológicamente neutra, de manera que los consumidores puedan elegir libremente qué tecnología se adapta mejor a sus necesidades, poniendo coto así a los sistemas de recomendación.
En este informe pionero, los eurodiputados han identificado un notable número de riesgos en la inteligencia artificial en áreas como la salud, la seguridad, los derechos fundamentales o el medio ambiente y buscan prohibir usos «intrusivos», como la identificación biométrica remota en tiempo real en espacios de acceso público y a posteriori, con la única excepción de las fuerzas del orden para la persecución de delitos graves y sólo previa autorización judicial; la categorización biométrica que utilice características sensibles (por ejemplo, sexo, raza, etnia, estatus de ciudadanía, religión, orientación política); los sistemas policiales predictivos (basados en perfiles, localización o comportamientos delictivos anteriores); los sistemas de reconocimiento de emociones en las fuerzas del orden, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y la extracción indiscriminada de datos biométricos de redes sociales o grabaciones de circuitos cerrados de televisión (CCTV) para crear bases de datos de reconocimiento facial (violación de los derechos humanos y del derecho a la intimidad). Además, los parlamentarios también consideran de alto riesgo los sistemas de IA que influyan en los votantes en las campañas políticas.
En concreto, la legislación europeo se inclina por que ChatGPT y aplicaciones similares cumplan requisitos adicionales de transparencia, como revelar qué contenidos han sido generados por inteligencia artificial, diseñar el modelo para evitar que surjan contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para su entrenamiento. Los legisladores también quieren facilitar el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de inteligencia artificial de alto riesgo.