• Saltar a la navegación principal
  • Saltar al contenido principal
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Facebook
  • Instagram
  • LinkedIn
  • TikTok
  • Twitter
  • YouTube
CDE Almería – Centro de Documentación Europea – Universidad de Almería

CDE Almería - Centro de Documentación Europea - Universidad de Almería

Centro de Documentación Europea de la Universidad de Almería

  • Inicio
  • ACTUALIDAD
    • NOTICIAS UE
    • ACTIVIDADES
    • CONVOCATORIAS Y PREMIOS UE
    • Programa de radio Europa Contigo
    • Boletines CDE
  • DOCUMENTACIÓN
    • FONDO BIBLIOGRÁFICO
      • FONDO DIGITAL CDE ALMERIA
      • BIBLIOTECA UNIVERSIDAD DE ALMERÍA
    • BASES DE DATOS
    • DOCUMENTACIÓN POR TEMAS
    • MEDIATECA UE
      • ESPACIO WEB
      • REPOSITORIO MEDIATECA
    • EUROEXPERTOS
  • EUROPA EN LA RED
    • INSTITUCIONES Y AGENCIAS
    • REPRESENTACIÓN DE LA UE EN ESPAÑA
    • RED DE INFORMACIÓN EUROPEA DE ANDALUCIA
    • DIARIOS DE LA UE
  • CONÓCENOS
    • PRESENTACIÓN
    • LAS PERSONAS
    • CONTACTO
  • Español

Auditing the quality of datasets used in algorithmic decision-making systems

Inicio » Fichas » Fondo Digital » Defensa y Seguridad » Ciberseguridad » Auditing the quality of datasets used in algorithmic decision-making systems

5 de septiembre de 2022

Título: Auditing the quality of datasets used in algorithmic decision-making systems
Resumen:Los sesgos suelen considerarse uno de los efectos más perjudiciales del uso de la inteligencia artificial (IA). Por ello, la UE se ha comprometido a reducir su incidencia en la medida de lo posible. Sin embargo, la existencia de los sesgos es anterior a la creación de las herramientas de IA. Todas las sociedades humanas tienen sesgos; la IA sólo reproduce lo que somos. Por lo tanto, oponerse a esta tecnología por esta razón simplemente ocultaría la discriminación y no la evitaría. Corresponde a la supervisión humana utilizar todos los medios disponibles -que son muchos- para mitigar sus sesgos. Es probable que en algún momento del futuro las recomendaciones hechas por un mecanismo de IA contengan menos sesgos que las hechas por los seres humanos. A diferencia de los humanos, la IA puede ser revisada y sus defectos corregidos de forma constante. En última instancia, la IA podría servir para construir sociedades más justas y menos sesgadas. Este estudio comienza proporcionando una visión general de los sesgos en el contexto de la inteligencia artificial, y más concretamente de las aplicaciones de aprendizaje automático. La segunda parte está dedicada al análisis de los sesgos desde un punto de vista jurídico. El análisis muestra que las deficiencias en este ámbito exigen la aplicación de instrumentos normativos adicionales para abordar adecuadamente la cuestión de los sesgos. Por último, este estudio plantea varias opciones políticas en respuesta a los retos identificados.

Summary:Biases are commonly considered one of the most detrimental effects of artificial intelligence (AI) use. The EU is therefore committed to reducing their incidence as much as possible. However, the existence of biases pre-dates the creation of AI tools. All human societies are biased – AI only reproduces what we are. Therefore, opposing this technology for this reason would simply hide discrimination and not prevent it. It is up to human supervision to use all available means – which are many – to mitigate its biases. It is likely that at some point in the future, recommendations made by an AI mechanism will contain less bias than those made by human beings. Unlike humans, AI can be reviewed and its flaws corrected on a consistent basis. Ultimately, AI could serve to build fairer, less biased societies. This study begins by providing an overview of biases in the context of artificial intelligence, and more specifically to machine-learning applications. The second part is devoted to the analysis of biases from a legal point of view. The analysis shows that shortcomings in this area call for the implementation of additional regulatory tools to adequately address the issue of bias. Finally, this study puts forward several policy options in response to the challenges identified.

Fecha publicación: 02-09-2022
Autor: Dirección General de Servicios de Estudios Parlamentarios; Miguel Beriain, Iñigo de; Jiménez, Pilar Nicolás; Rementería, María José; Cirillo, Davide; Cortés, Atia; Saby, Diego; Lazcoz, Guillermo
ISBN / ISSN: 978-92-846-9681-9
Link: https://bit.ly/3TGsgYx
Palabras clave: datos personales , igualdad de trato , inteligencia artificial , lucha contra la discriminación , protección de datos , recogida de datos , tecnología inteligente , toma de decisiones , Tratado de la Unión Europea , ética
Keywords: anti-discriminatory measure , artificial intelligence , data collection , data protection , decision-making , equal treatment , ethics , personal data , smart technology , Treaty on European Union

Barra lateral principal

A European Gas Demand Reduction Plan (Disponible en Español)

Publicaciones relacionadas


Study to support the review of Directive (EU) 2016/1148 concerning measures for a high common level of security of network and information systems across the Union (NIS Directive), No. 2020- 665


Review of behavioural sciences research in the field of cybersecurity


Consolidated annual activity report 2020


ENISA threat landscape for supply chain attacks


ENISA threat landscape 2021. April 2020 to mid-July 2021

Footer

Logotipo en negativo del Centro de Documentación Europea de Almería
  • CDE Almería
  • Edificio Parque Científico-Tecnológico (Pita)
  • Planta: 1ª, Despacho: 2904120.
  • Ctra. Sacramento s/n. Almería (Spain)
  • Teléfono: (+34) 950 015266
  • INICIO
  • NOTICIAS
  • DOCUMENTACION
  • EUROPA EN LA RED
  • CONÓCENOS
  • AVISO LEGAL
  • POLÍTICA DE PRIVACIDAD
  • POLÍTICA DE COOKIES
  • ACCESIBILIDAD
  • MAPA DE SITIO

Copyright © 2023 CDE Almería · Licencia de Creative CommonsEste obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial 4.0 Internacional.

Utilizamos cookies para ofrecerte la mejor experiencia en nuestra web.

Puedes aprender más sobre qué cookies utilizamos o desactivarlas en los ajustes.

Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Cookies estrictamente necesarias

Las cookies estrictamente necesarias tiene que activarse siempre para que podamos guardar tus preferencias de ajustes de cookies.

Si desactivas esta cookie no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Cookies de terceros

Esta web utiliza Google Analytics para recopilar información anónima tal como el número de visitantes del sitio, o las páginas más populares.

Dejar esta cookie activa nos permite mejorar nuestra web.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!

Política de cookies

Más información sobre nuestra política de cookies