Título: Auditing the quality of datasets used in algorithmic decision-making systems
Resumen:Los sesgos suelen considerarse uno de los efectos más perjudiciales del uso de la inteligencia artificial (IA). Por ello, la UE se ha comprometido a reducir su incidencia en la medida de lo posible. Sin embargo, la existencia de los sesgos es anterior a la creación de las herramientas de IA. Todas las sociedades humanas tienen sesgos; la IA sólo reproduce lo que somos. Por lo tanto, oponerse a esta tecnología por esta razón simplemente ocultaría la discriminación y no la evitaría. Corresponde a la supervisión humana utilizar todos los medios disponibles -que son muchos- para mitigar sus sesgos. Es probable que en algún momento del futuro las recomendaciones hechas por un mecanismo de IA contengan menos sesgos que las hechas por los seres humanos. A diferencia de los humanos, la IA puede ser revisada y sus defectos corregidos de forma constante. En última instancia, la IA podría servir para construir sociedades más justas y menos sesgadas. Este estudio comienza proporcionando una visión general de los sesgos en el contexto de la inteligencia artificial, y más concretamente de las aplicaciones de aprendizaje automático. La segunda parte está dedicada al análisis de los sesgos desde un punto de vista jurídico. El análisis muestra que las deficiencias en este ámbito exigen la aplicación de instrumentos normativos adicionales para abordar adecuadamente la cuestión de los sesgos. Por último, este estudio plantea varias opciones políticas en respuesta a los retos identificados.
Summary:Biases are commonly considered one of the most detrimental effects of artificial intelligence (AI) use. The EU is therefore committed to reducing their incidence as much as possible. However, the existence of biases pre-dates the creation of AI tools. All human societies are biased – AI only reproduces what we are. Therefore, opposing this technology for this reason would simply hide discrimination and not prevent it. It is up to human supervision to use all available means – which are many – to mitigate its biases. It is likely that at some point in the future, recommendations made by an AI mechanism will contain less bias than those made by human beings. Unlike humans, AI can be reviewed and its flaws corrected on a consistent basis. Ultimately, AI could serve to build fairer, less biased societies. This study begins by providing an overview of biases in the context of artificial intelligence, and more specifically to machine-learning applications. The second part is devoted to the analysis of biases from a legal point of view. The analysis shows that shortcomings in this area call for the implementation of additional regulatory tools to adequately address the issue of bias. Finally, this study puts forward several policy options in response to the challenges identified.
Fecha publicación: 02-09-2022
Autor: Dirección General de Servicios de Estudios Parlamentarios; Miguel Beriain, Iñigo de; Jiménez, Pilar Nicolás; Rementería, María José; Cirillo, Davide; Cortés, Atia; Saby, Diego; Lazcoz, Guillermo
ISBN / ISSN: 978-92-846-9681-9
Link: https://bit.ly/3TGsgYx
Palabras clave: datos personales , igualdad de trato , inteligencia artificial , lucha contra la discriminación , protección de datos , recogida de datos , tecnología inteligente , toma de decisiones , Tratado de la Unión Europea , ética
Keywords: anti-discriminatory measure , artificial intelligence , data collection , data protection , decision-making , equal treatment , ethics , personal data , smart technology , Treaty on European Union