Un grupo de expertos en Inteligencia Artificial emitió una declaración sobre el riesgo de esta tecnología y advirtió que "mitigar" las consecuencias de la IA respecto a la "extinción" de la humanidad debe ser una "prioridad mundial".
"Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA. Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada", aseguraron a través del sitio web del Centro para la Seguridad de la IA (CAIS, por sus siglas en inglés).
La declaración, indicaron, tiene como objetivo "superar este obstáculo y abrir la discusión" como también "crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada".
De esta manera, concluyeron indicando que "mitigar el riesgo de extinción a causa de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear".
Entre los firmantes están Demis Hassabis, el CEO de Google DeepMind; Sam Altman, CEO de OpenAI, académicos de las universidades más prestigiosas del mundo, autoridades gubernamentales, entre otros.
El CAIS es una organización sin fines de lucro de investigación y construcción de campo con sede en San Francisco, Estados Unidos, que buscan que la IA beneficie al mundo pero a través de un desarrollo seguro.