• noviembre 26, 2024 6:32 am

AVANCE DE LA INTELIGENCIA ARTIFICIAL PRECISA REGULACIÓN LEGISLATIVA

PorEl Informador

May 19, 2023

La inteligencia artificial (IA) se faculta para las causas más venturosas de la humanidad, pero también para la creación de sistemas autónomos y de armamento, por lo que la especie humana se encuentra en peligro como cuando se descubrió la energía atómica; en consecuencia, es un tema de regulación que no podemos dejar de considerar, planteó Pablo Pruneda Gross.

 

 

 

El coordinador de la línea de investigación “Derecho e Inteligencia Artificial”, del Instituto de Investigaciones Jurídicas (IIJ) de la UNAM, aseguró: si a la IA se le permite tener acceso a mecanismos que dañen o atenten contra la vida, puede tener la capacidad de decidir entre que viva o no un ser humano.

 

 

 

“Lo que hemos visto desde 2018 es una irrupción tecnológica, ha venido a violentar de manera positiva a veces, a veces no. Tenemos mecanismos de reconocimiento de voz, facial, algoritmos que revisan la moderación de contenidos en una red social: primero me clasifican a ver qué intereses tengo y luego me mandan la información que saben que nos puede interesar; ahora entendemos por qué no dejamos de ver la pantalla”, alertó.

 

 

 

Al participar en el Seminario “Derecho digital y tecnologías disruptivas”, el investigador se refirió a la Inteligencia Artificial Generativa como el ChatGPT, herramienta que “es una especie de chat como WhatsApp, solo que en lugar de hablar con una persona se conversa con una entidad artificial; no es un buscador de fuentes, es un generador de contenido que trabaja con frases cercanas a la realidad y por eso asombra”.

 

 

 

En el Aula Centenario del IIJ, Pruneda Gross mencionó que es una entidad que nos recuerda la primera vez que usamos internet y cómo nos asombramos de lo que ocurre en nuestra computadora. “Eso mismo está pasando con este chat, se programa a través de la emulación de las redes neuronales; ya se creó la versión más moderna (GPT-4) a través de Machine Learning que es el Deep Learning”.

 

 

 

ChatGPT busca y a partir de lo que encuentra crea contenidos: le proporcionas imágenes y realiza un diseño, un archivo o lectura en PDF; le solicitas que formule un resumen con los puntos fundamentales, o la creación de una página de internet y la elabora.

 

 

 

“Con GPT-4 se viene un replanteamiento de la inteligencia general artificial, la que tiene capacidades similares a las de un ser humano. Se trata de un algoritmo que programa algoritmos, y si lo que programa lo hace mejor que el ser humano rápidamente habrá un crecimiento exponencial de la tecnología y los seres humanos nos vamos a quedar viendo”, destacó.

 

 

 

Pablo Pruneda afirmó que la IA generativa tiene capacidades similares a las de una persona como es el Chat GPT-4. “Tiene muchas ventajas y enseñanzas, pero puede ser que estemos abriendo una caja de pandora, puede ser una tecnología tan perniciosa que extinga a la raza humana, de ese tamaño es el problema y ahora sí hay indicios en la tecnología que están presentes para afirmarlo, ¿qué tenemos que hacer?, regular”.

 

 

 

En aras de ganar la carrera tecnológica, formuladores y creadores toman atajos y cometen errores, por lo que tiene que haber un regulador. ¿Quién debe regular y quién debe entrar? ¿quién va a emitir una ley de una tecnología que es transfronteriza, qué soberanía aplica?

 

 

 

Riesgos

 

 

 

El especialista del IIJ señaló algunos riesgos de no regular o legislar las prácticas de la IA generativa. Puede ser adherida a ciertos valores e intereses humanos; además de la generación de contenido escrito, imagen y video falso o malicioso que podría utilizarse en fraudes o suplantación de personas e identidades. También ser una influencia en la democracia hacia la polarización, incidir en la protección a la imagen e intimidad; se convertiría en un riesgo en la interacción con menores de edad.

 

 

 

Puso como ejemplo una imagen reciente del Papa Francisco I donde porta una chamarra larga de color blanco exhibida en redes sociales digitales, fotografía elaborada por ChatGPT.

 

 

 

Ante esto, Pablo Pruneda preguntó: ¿Quién debe evaluar esto, el gobierno solo, o se lo dejamos a las empresas? Hay que generar un discurso conjunto entre academia, gobierno, empresa, industria y sociedad civil. En este momento, como dijo el periodista estadounidense Ezra Klein, “es mejor equivocarnos por sobre regular, que por subregular”.

 

 

 

En la actividad académica estuvieron también: Israel Santos Flores y Mauricio Padrón Innamorato, investigador y secretario académico del IIJ, respectivamente; Alicia Edith Trejo Jiménez, doctoranda del Instituto, y María Cristina Múzquiz Fragoso, directora de Docencia en Tecnologías de Información y Comunicación de la Dirección General de Cómputo y de Tecnologías de Información y Comunicación.

About The Author

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *