Profesor de ética: "Vetar la inteligencia artificial no soluciona los dilemas que genera"

Publicado:
| Periodista Digital: EFE

El académico Miquel Bastons propone regular tanto a los usuarios como a las empresas que desarrollan estas herramientas.

A la vez, pidió proteger los datos que son fuente de respuestas proporcionadas por plataformas como ChatGPT.

Profesor de ética:
 Pixabay (Referencial)

"Si esta tecnología no se regula, podemos destruirnos a nosotros mismos y como sociedad", advirtió el doctor en Filosofía.

Llévatelo:

Países como Italia han bloqueado el uso de ChatGPT recientemente por no respetar la ley de protección de datos de los consumidores, pero el doctor en Filosofía y profesor de Ética Miquel Bastons cree que prohibir herramientas de inteligencia artificial (IA) no soluciona los dilemas éticos que genera esta tecnología.

"La IA es fascinante, pero casi da vértigo por los retos que plantea", afirmó en una entrevista con EFE Bastons, que también es doctor en Ciencias Económicas y profesor de Ética en la Universidad Internacional de Cataluña (UIC), en España, en la que ha sido decano de la Facultad de Ciencias Económicas y Sociales.

Para el académico, la solución a los "temores" que infunde la IA, como el impacto sobre los derechos y la privacidad o la falta de transparencia, entre otros, pasa por "educar, formar y regular", porque "sólo prohibir no sirve".

"La tecnología no es ni buena ni mala en sí misma y sus resultados dependen del uso que hagan de ella las personas. Podemos potenciar el desarrollo de la sociedad o fomentar la autodestrucción", advirtió el doctor, cuyas publicaciones están centradas en la ética en la toma de decisiones en las organizaciones.

Por eso, Bastons argumentó que "hace falta información, educación en valores y saber ejercer correctamente la libertad", por lo tanto, opta por ir hacia la regulación de esta tecnología y establecer reglas: "La IA es como un auto: nos permite ir más rápido, pero deben existir normas de circulación porque nos podemos estrellar si no las hay".

Y, según defendió, esa regulación "debería aplicarse tanto a los usuarios de herramientas de inteligencia artificial como a las empresas que las desarrollan, que no siempre son transparentes".

En cuanto a la fuente de respuestas que dan plataformas como ChatGPT, Bastons opinó que "hay cierta opacidad en cuáles son esos datos y de dónde proceden. Podrían, incluso, llegar a ser personales, por lo que deberían estar protegidos".

¿ES INTELIGENTE LA INTELIGENCIA ARTIFICIAL?

El doctor en Filosofía se planteó "si la inteligencia artificial es inteligente", pues "hace operaciones mecánicas como calcular o traducir a una velocidad de vértigo, pero no puede ir al fondo de las cuestiones, carece de habilidades humanas y siempre hace falta una persona que valide lo que dice o hace la máquina".

Bastons consideró "muy importante" no confundir la capacidad de redacción de las herramientas de IA con la veracidad de la información que ofrecen, porque "el buen redactado aparenta credibilidad aunque los datos proporcionados sean falsos".

También cree esencial "potenciar aquello que, como seres humanos, nos diferencia de las máquinas" y lo que más le preocupa en este sentido es que las personas no sean capaces de darse cuenta de que "la IA potencia, pero no sustituye".

"Las personas tomamos decisiones en función de nuestra escala de valores y buscamos la verdad, pero las herramientas de inteligencia artificial no pueden establecer esta escala, se basan únicamente en datos y reglas del lenguaje", subrayó.

Por este motivo, el filósofo apeló a "no confiar nuestras decisiones a una IA", pues "no pueden hacer valoraciones ni persiguen la verdad".

"Si esta tecnología no se regula, podemos destruirnos a nosotros mismos y como sociedad, porque estamos ante una herramienta con mucha potencialidad en determinadas operaciones intelectuales. Es como si no se regula la energía nuclear, nos puede hacer mucho daño porque es muy potente", concluyó Bastons.

LEER ARTICULO COMPLETO

Suscríbete a nuestro newsletter