¿Cómo prevenir los ciberataques de Machine Learning? ¿Cómo desplegar los controles sin obstaculizar el rendimiento?
El Machine Learning (ML) es actualmente el subcampo de la inteligencia artificial más desarrollado y prometedor para las infraestructuras industriales y gubernamentales. Al proporcionar nuevas oportunidades para resolver problemas de toma de decisiones de forma inteligente y automática, la inteligencia artificial (IA) se aplica en casi todos los sectores de nuestra economía.
Aunque los beneficios de la IA son significativos e innegables, el desarrollo de la IA también induce nuevas amenazas y desafíos, identificados en el Panorama de Amenazas de la IA de ENISA.
Los algoritmos de aprendizaje automático se utilizan para dar a las máquinas la capacidad de aprender de los datos con el fin de resolver tareas sin estar explícitamente programadas para ello. Sin embargo, estos algoritmos necesitan volúmenes de datos extremadamente grandes para aprender. Y al hacerlo, también pueden ser objeto de ciberamenazas específicas.
El informe Securing Machine Learning Algorithms presenta una taxonomía de las técnicas de ML y sus funcionalidades principales. El informe también incluye un mapa de las amenazas dirigidas a las técnicas de ML y las vulnerabilidades de los algoritmos de ML. Proporciona una lista de controles de seguridad relevantes recomendados para mejorar la ciberseguridad en los sistemas que dependen de las técnicas de ML. Uno de los retos destacados es cómo seleccionar los controles de seguridad a aplicar sin poner en peligro el nivel de rendimiento esperado.
Los controles de mitigación de los ataques específicos de ML esbozados en el informe deben implantarse, en general, durante todo el ciclo de vida de los sistemas y aplicaciones que hacen uso del ML.
Taxonomía de los algoritmos de aprendizaje automático
A partir de la revisión de la documentación y de las entrevistas con los expertos del grupo de trabajo ad hoc sobre IA de la ENISA, se identificaron un total de 40 algoritmos de ML más utilizados. La taxonomía desarrollada se basa en el análisis de dichos algoritmos.
La taxonomía no exhaustiva concebida tiene por objeto apoyar el proceso de identificación de las amenazas específicas que se dirigen a los algoritmos de LD, de las vulnerabilidades asociadas y de los controles de seguridad necesarios para hacer frente a esas vulnerabilidades.
Público objetivo
- Público/gobierno: Instituciones y agencias de la UE, organismos reguladores de los Estados miembros, autoridades de supervisión en materia de protección de datos, organismos militares y de inteligencia, comunidad policial, organizaciones internacionales y autoridades nacionales de ciberseguridad.
- Industria en general, incluidas las pequeñas y medianas empresas (PYME) que recurren a soluciones de IA, operadores de servicios esenciales;
- La comunidad técnica, académica y de investigación de la IA, los expertos en ciberseguridad de la IA y los expertos en IA como diseñadores, desarrolladores, expertos en ML, científicos de datos, etc.
- Organismos de normalización.
Deja una respuesta