Renombrados expertos en IA piden a los gobiernos de todo el mundo y a las grandes empresas tecnológicas que actúen ya frente a los riesgos de la IA.
«Probablemente ninguno de nosotros tendrá trabajo», afirmó Elon Musk sobre la inteligencia artificial durante su intervención a distancia en una importante conferencia tecnológica celebrada en París el 23 de mayo. El multimillonario no ha tenido reparos en referirse a la IA como su mayor temor. Horas antes, en la Cumbre sobre Seguridad de la Inteligencia Artificial celebrada en Seúl el 21 de mayo, dieciséis empresas encabezadas por Google, Meta y Microsoft se comprometieron a desarrollar la IA de forma segura. Esta declaración fue respaldada por diez países y la Unión Europea (UE). «Estamos siendo testigos de avances tecnológicos que cambian la vida… y de nuevos riesgos que amenazan la vida, desde la desinformación a la vigilancia masiva, pasando por la perspectiva de armas autónomas letales», comentó el Secretario General de la ONU, António Guterres, en la cumbre mundial.
Dices que quieres una revolución de la IA
En la revista «Science», veinticinco de los mayores expertos académicos del mundo en IA, entre ellos los «padrinos de la IA» Geoffrey Hinton y Yoshua Bengio, advierten sobre lo mucho que queda por hacer para alcanzar un acuerdo mundial sobre seguridad. Presentan medidas políticas de investigación, desarrollo y gobernanza para mitigar los riesgos y las amenazas. Los autores sostienen que no estamos debidamente preparados para afrontar los posibles riesgos de la IA, ya que se dedican pocos recursos a salvaguardar el desarrollo y la aplicación seguros y éticos de las sus tecnologías. Instan a las grandes empresas tecnológicas y a los financiadores públicos a invertir más, y a destinar al menos un tercio de sus presupuestos para abordar los riesgos. Además, piden que los reguladores mundiales y los gobiernos pongan en vigor normas que impidan la imprudencia y el uso indebido.
Del debate a la acción
«El mundo acordó durante la última cumbre sobre IA que necesitábamos actuar, pero ahora es el momento de pasar de las propuestas vagas a los compromisos concretos. En este documento aparecen muchas recomendaciones importantes sobre lo que las empresas y los gobiernos deberían comprometerse a hacer», señaló el coautor Philip Torr, un catedrático de la Universidad de Oxford, en un comunicado de prensa. «Tenemos que prepararnos para riesgos que pueden parecer de ciencia ficción, como sistemas de IA que pirateen redes e infraestructuras esenciales, manipulación política a gran escala, robots soldados y drones asesinos totalmente autónomos, e incluso IA que intente ser más lista que nosotros y pueda eludir nuestros esfuerzos por desactivarla», explica Jan Brauner, coautor del estudio, también de la Universidad de Oxford. «En la actualidad, el mundo de la IA se centra en aumentar cada vez más sus capacidades, lo que deja la seguridad y la ética en un segundo plano. Para que la IA sea de gran ayuda, tenemos que reorientarnos; impulsar las capacidades no es suficiente».
La Comisión crea una Oficina de IA para reforzar el liderazgo de la UE en materia de inteligencia artificial segura y fiable |
Más información: Comisión Europea
Deja una respuesta