Joe Biden presentará hoy nuevas reglas para la inteligencia artificial

Publicado:
- Periodista Digital:
EFE

Orden ejecutiva incluirá cláusulas para proteger la privacidad, mejorar los derechos civiles, apoyar a los trabajadores y promover la innovación.

 Pixabay (referencial)

El presidente de Estados Unidos, Joe Biden, tiene previsto aprobar este lunes una orden ejecutiva para permitir mayores controles de seguridad sobre los sistemas de inteligencia artificial y mitigar los riesgos de esta tecnología.

Según la información facilitada por la Casa Blanca, se trata del "conjunto de acciones más fuertes puesto en marcha por un gobierno en todo el mundo".

Así lo apuntó el subjefe de gabinete, Bruce Reed, quien señaló que este decreto con rango de ley es el "siguiente paso" de una "agresiva" estrategia para actuar en todos los frentes "aprovechando los beneficios de la IA y mitigando sus riesgos".

La norma llega después de que en julio, 15 de las principales empresas tecnológicas del país -entre ellas Amazon, Google, Meta y Microsoft- aceptasen adoptar medidas de seguridad sobre el desarrollo de IA propuestas por la Administración Biden.

LAS MEDIDAS

La orden ejecutiva, que Biden presentará en la Casa Blanca a las 14.30 (13.30 hora chilena), incorpora cláusulas para proteger la privacidad, mejorar los derechos civiles, proteger los consumidores, apoyar a los trabajadores y promover la innovación, entre otras.

Entre las medidas que incluye está la de exigir que los desarrolladores de inteligencia artificial más importantes compartan con el gobierno estadounidense los resultados de sus pruebas de seguridad y otra información que se considere "crucial".

De acuerdo con la Ley de Producción de Defensa, las empresas que desarrollen cualquier sistema que pueda suponer un riesgo grave para la seguridad nacional, la seguridad económica nacional o la salud públicas deberán notificar a la administración cuando vayan a poner a prueba ese modelo.

Estas medidas garantizarán que los sistemas de inteligencia artificial sean "seguros y de confianza antes de que las empresas los hagan públicos".

El Instituto Nacional de Estándares y Tecnología será el que establezca los "rigurosos" estándares para las pruebas de seguridad. Y el Departamento de Interior los aplicará en sectores "fundamentales".

Además, los Departamentos de Energía e Interior se encargarán de vigilar las posibles amenazas de sistemas de IA sobre infraestructuras críticas y los riesgos que pueda suponer en los campos químico, biológico, radiológico, nuclear o de ciberseguridad.

La norma incluye medidas para tratar de evitar tanto la creación de "materiales biológicos peligrosos" como el fraude y el engaño mediante el uso de la IA, en este caso para etiquetar con claridad el contenido generado por la inteligencia artificial.

La orden ejecutiva también establecerá un programa para que la IA descubra y arregle vulnerabilidades del software. Finalmente se desarrollará un memorándum de seguridad nacional para el uso ético de la IA por parte de las fuerzas armadas y los servicios de inteligencia.