Ejecutivos de alto rango de la industria de la inteligencia artificial (IA), como Sam Altman, presidente ejecutivo de OpenAI, se unieron el martes a expertos y profesores para plantear el "riesgo de extinción por la IA", e instaron a las autoridades a equipararlo con los riesgos que plantean las pandemias y la guerra nuclear.
"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto a otros riesgos a escala social como las pandemias y la guerra nuclear", escribieron más de 350 firmantes en una carta publicada por el Centro para la Seguridad de la IA (CAIS), una organización sin ánimo de lucro.
Además de Altman, entre los firmantes figuran los directores ejecutivos de las empresas de inteligencia artificial DeepMind y Anthropic, y directivos de Microsoft MSFT.O y Google GOOGL.O.
También estaban entre ellos Geoffrey Hinton y Yoshua Bengio -dos de los tres llamados "padrinos de la IA", que recibieron el Premio Turing 2018 por su trabajo en aprendizaje profundo- y profesores de instituciones que van desde Harvard hasta la Universidad Tsinghua de China.
Un comunicado de CAIS señaló a Meta META.O, donde trabaja el tercer padrino de la IA, Yann LeCun, por no firmar la carta.
"Pedimos a muchos empleados de Meta que firmaran", declaró Dan Hendrycks, director del CAIS. Meta no respondió inmediatamente a las peticiones de comentarios.
La carta coincidió con la reunión del Consejo de Comercio y Tecnología Estados Unidos-Unión Europea en Suecia, donde se espera que los políticos hablen sobre la regulación de la IA.
Elon Musk y un grupo de expertos en IA y ejecutivos de la industria fueron los primeros en citar los riesgos potenciales para la sociedad en abril.
"Hemos cursado una invitación (a Musk) y esperamos que la firme esta semana", dijo Hendrycks.
Los recientes avances en IA han creado herramientas que, según sus partidarios, pueden utilizarse en aplicaciones que van desde el diagnóstico médico a la redacción de informes jurídicos, pero esto ha suscitado temores de que la tecnología pueda dar lugar a violaciones de la privacidad, impulsar campañas de desinformación y provocar problemas con "máquinas inteligentes" que piensan por sí mismas.
La advertencia llega dos meses después de que la organización sin ánimo de lucro Future of Life Institute (FLI) publicó una carta abierta similar, firmada por Musk y cientos de personas más, en la que exigía una pausa urgente en la investigación avanzada de la IA, citando riesgos para la humanidad.
"Nuestra carta hizo conocida la demanda de una pausa, esto hace conocidos los riesgos de extinción", dijo Max Tegmark, presidente del FLI, quien también firmó la carta más reciente. "Ahora puede empezar por fin una conversación abierta y constructiva".
Hinton, pionero de la IA, declaró a Reuters previamente que la IA podría suponer una amenaza "más urgente" para la humanidad que el cambio climático.
La semana pasada, Sam Altman, presidente ejecutivo de OpenAI, se refirió a los esfuerzos de la UE por crear una normativa para la IA -los primeros en el mundo- como un exceso de regulación y amenazó con abandonar Europa. A los pocos días se retractó tras las críticas de los políticos.
¡Conéctate con la Voz de América! Suscríbete a nuestro canal de YouTube y activa las notificaciones, o bien, síguenos en las redes sociales: Facebook, Twitter e Instagram.