La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra
Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido empresario Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) muy potente porque consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes“, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”.
Incluso aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” a estas mentes digitales.
Los firmantes enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: “Tales decisiones no deben delegarse en líderes tecnológicos no electos”.
En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.
Asimismo, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.
Fuente: EFE
Deja un comentario
Todos los comentarios pasan por un proceso de validación antes de ser publicados.