En un hito legislativo, el Parlamento Europeo ha dado luz verde a la Ley de Inteligencia Artificial, una normativa pionera destinada a garantizar la seguridad, el respeto por los derechos fundamentales y el fomento de la innovación en el ámbito de la IA. Con una votación contundente de 523 votos a favor, 46 en contra y 49 abstenciones, esta ley, fruto de intensas negociaciones con los Estados miembros finalizadas en diciembre de 2023, establece un marco regulador sin precedentes que coloca a Europa a la vanguardia del desarrollo tecnológico global.
Objetivos claros para una IA segura y responsable
La normativa busca un equilibrio entre proteger la democracia, los derechos fundamentales, el Estado de derecho y el medio ambiente, frente a los riesgos que pueden presentar ciertas aplicaciones de la IA. Así, categoriza y establece obligaciones específicas para las aplicaciones de IA en función de sus riesgos potenciales y nivel de impacto, promoviendo al mismo tiempo un entorno propicio para la innovación.
Aplicaciones prohibidas: priorizando los derechos ciudadanos
La ley marca un antes y un después al prohibir ciertas aplicaciones de la IA que comprometen la privacidad y los derechos individuales. Entre las prohibiciones destacan el uso de sistemas de categorización biométrica basados en características sensibles, la creación de bases de datos de reconocimiento facial a partir de imágenes obtenidas de internet o cámaras de vigilancia, y el reconocimiento de emociones en entornos laborales y educativos. Asimismo, se prohíben los sistemas de puntuación ciudadana y la actuación policial predictiva basada exclusivamente en perfiles personales.
Exenciones y salvaguardias para la seguridad pública
Aunque se establecen restricciones claras al uso de sistemas de identificación biométrica por las fuerzas de seguridad, se contemplan excepciones bajo condiciones estrictamente definidas para casos como la búsqueda de personas desaparecidas o la prevención de atentados terroristas, siempre con autorización judicial o administrativa previa.
Inteligencia Artificial: amenazas y oportunidades |
IA de alto riesgo: un compromiso con la seguridad y transparencia
La legislación especifica obligaciones detalladas para los sistemas de IA considerados de alto riesgo, que incluyen la evaluación y mitigación de riesgos, mantenimiento de registros, transparencia, precisión y supervisión humana. Se garantiza a los ciudadanos el derecho a presentar reclamaciones y recibir explicaciones sobre las decisiones tomadas por estos sistemas que afecten a sus derechos.
Fomento de la innovación y apoyo a las pymes
La ley contempla medidas de apoyo a la innovación, como la creación de espacios de prueba para que las pymes y startups puedan desarrollar y probar IA innovadora bajo condiciones reales antes de su lanzamiento al mercado.
Requisitos de transparencia y etiquetado de contenidos artificiales
Se exige a los sistemas de IA y a los modelos en los que se basan cumplir con requisitos de transparencia y etiquetar claramente las imágenes, audios o videos artificiales o manipulados como tales.
Próximos pasos y aplicación
Tras una última revisión jurídico-lingüística, se espera la aprobación definitiva de la normativa antes del fin de la legislatura actual. La ley entrará en vigor veinte días después de su publicación en el Diario Oficial de la UE y será plenamente aplicable veinticuatro meses después, con ciertas disposiciones que se aplicarán en diferentes plazos.
Este marco legislativo responde a las propuestas ciudadanas de la Conferencia sobre el Futuro de Europa y se erige como un punto de partida para la gobernanza futura de la IA, poniendo a los seres humanos y los valores europeos en el centro del desarrollo tecnológico.
Fuente: Parlamento Europeo
Deja una respuesta