El Comité Económico y Social Europeo (CESE) sugiere que la UE debería desarrollar una certificación para aplicaciones de IA confiables, que será entregada por un organismo independiente después de probar los productos en busca de requisitos clave como resistencia, seguridad y ausencia de prejuicios, discriminación o sesgo.
La propuesta se ha presentado en dos recientes opiniones del CESE, una que abarca la comunicación sobre la creación de confianza en la inteligencia artificial centrada en el ser humano en su conjunto y la otra sobre sus implicaciones específicas para el sector del automóvil, subrayan que dicha certificación contribuiría en gran medida a aumentar la confianza pública en la inteligencia artificial (AI) en Europa.
La cuestión sobre inteligencia artificial en Europa se ha centrado en la ética y un enfoque humano al mando. Si bien algunos insisten en que, para que las personas confíen en los productos de inteligencia artificial, los algoritmos deben ser explicables, pero son tan complejos que incluso las personas que los están desarrollando no saben realmente cuál será su resultado, y tienen que desarrollar herramientas de prueba para ver dónde están sus límites.
El CESE propone confiar la prueba a un organismo independiente, que evaluaría los sistemas en busca de prejuicios, discriminación, sesgo, resistencia, solidez y, en particular, seguridad. Las empresas podrían usar el certificado para demostrar que están desarrollando sistemas de inteligencia artificial que son seguros, confiables y están en línea con los valores y estándares europeos. El CESE cree que dicho sistema de certificación le daría a Europa una ventaja competitiva en la escena internacional y también subraya la necesidad de normas claras sobre la responsabilidad, que siempre debe estar vinculada a una persona, ya sea natural o legal.
Antecedentes
En diciembre de 2018, el grupo de expertos de alto nivel de la Comisión Europea en IA publicó un conjunto de pautas éticas preliminares para desarrollar IA en Europa de una manera que colocara a las personas en el centro. Las directrices, revisadas en marzo de 2019, identifican los siguientes siete requisitos clave que las aplicaciones de IA deben respetar para ser considerados confiables:
- Agencia humana y supervisión
- Robustez técnica y seguridad
- Privacidad y gobernanza de datos
- Transparencia
- Diversidad, no discriminación y equidad
- Bienestar social y ambiental
- Responsabilidad
Como siguiente paso, la Comisión ha lanzado una fase piloto donde se invita a las partes interesadas a probar la lista de evaluación y proporcionar comentarios prácticos sobre cómo se puede mejorar. A principios de 2020, se revisará la lista de evaluación y, si corresponde, la Comisión propondrá nuevas medidas.
Más información
Bloque temático de I+I
Deja una respuesta