El director de investigación del Instituto de Inteligencia Artificial (IA) de la Universidad del Noroeste de Silicon Valley, Ricardo Baeza-Yates, quien recibió el Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024, explicó en Cooperativa que dicha tecnología está programada para imitar; no para saber.
En conversación con Una Nueva Mañana, el investigador sostuvo que "hay riesgos que ya existen, (como) el tema de noticias falsas, porque la IA puede imitar todo. Y hay otros temas como la salud mental de la gente, porque estamos humanizando la tecnología. Hay gente que cree que estos sistemas piensan, tienen conciencia o que realmente son como humanos cuando no lo son, porque nos imitan tan bien que ya no podemos distinguir entre lo que es humano y lo que no lo es".
La IA "no sabe nada, no entiende nada, pero imita muy bien, ese es el problema. No conseguimos distinguir entre lo que es imitación y realidad. Como no saben nada y no entienden nada, no tienen ninguna intención, es decir, si pasa algo va a ser por estupidez humana, no va a ser por intención maligna de la máquina, (puesto que) no tiene autonomía para tomar decisiones por sí sola", explicó.