El Gobierno ingresó esta semana al Congreso Nacional un proyecto de ley para regular la Inteligencia Artificial, herramienta tecnológica que ha irrumpido fuertemente en la vida diaria en los últimos años, según el nivel de riesgo que representen para las personas, la sociedad y los derechos fundamentales.
La iniciativa (revisa el texto) toma como referente la Ley de IA de la Unión Europea, y recoge principios consensuados al alero de la Unesco y la OCDE, y apunta a clasificar los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.
La categoría "inaceptable" está definida en el texto, a diferencia de "alto riesgo" y "riesgo limitado", que son descritas en forma genérica a fin de que el Consejo Asesor Técnico de Inteligencia Artificial -formado por representantes del sector privado, público, academia y sociedad civil- proponga usos y aplicaciones existentes.
Asimismo, "en lugar de exigir que las tecnologías pasen por un proceso de certificación o análisis antes de entrar al mercado, se estableció que cada empresa clasifique sus sistemas de IA en base a un listado de riesgos que se elaborará, donde cada categoría tendrá reglas específicas que cumplir", explicó la ministra de Ciencia, Tecnología e Innovación, Aisén Etcheverry.
"Las sanciones para quienes no lo hagan serán administrativas, aplicadas por la futura Agencia de Protección de Datos Personales, en un procedimiento regulado por ley y en el que se puede apelar en las Cortes de Apelaciones", puntualizó.
INACEPTABLES Y RIESGOS ALTOS A BAJOS
Se consideran "inaceptables" aquellas herramientas que atenten contra la dignidad de las personas, como los utilizados para crear deepfakes de contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes. También prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona, los usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real -salvo para usos relacionados con la seguridad pública-, y los sistemas de IA basados en técnicas de facial scraping.
En tanto, define de "alto riesgo" las aplicaciones que presentan un peligro significativo de causar perjuicios para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución o el medio ambiente, así como para los derechos de los consumidores: por ejemplo, un sistema de IA destinado a la contratación o selección de personas, especialmente para analizar y filtrar solicitudes de empleo y evaluar candidatos.
En "riesgo limitado" se incluyen usos que no implican peligros significativos de manipulación, engaño o error derivado de la interacción con personas, como puede ser un chatbot de un servicio público que responde a consultas dentro de su esfera de competencia.
Una IA "sin riesgo evidente", por su parte, podría ser uno que sugiere películas o canciones, según las preferencias de un usuario, u otro que en ninguna circunstancia pueda causar perjuicios a los derechos fundamentales.
"No es lo mismo un algoritmo destinado a influir las emociones que uno que pretende recomendar opciones de música", comparó la ministra Etcheverry al relevar el enfoque de la propuesta legislativa.
También apunta a que esta tecnología funcione de manera transparente, asegurando que los usuarios reciban información clara y precisa y sean conscientes siempre de que están interactuando con una máquina.
La iniciativa también recoge el trabajo de la Comisión de Desafíos del Futuro, Ciencia, Tecnología e Innovación del Senado y de la Comisión de Futuro, Ciencia, Tecnología, Conocimiento e Innovación de la Cámara de Diputadas y Diputados, y las recomendaciones del Consejo Asesor de IA.
"Todo ello permite que esta propuesta de regulación converse muy bien con los países a los cuales exportamos y desde donde importamos tecnología", concluyó la ministra.