El Economista - 73 años
Versión digital

jue 29 Ago

BUE 13°C
Polémica

¿Cómo es la Inteligencia Artificial con "valores socialistas" que China está desarrollando?

El Gignate Asiático está restringiendo algunas de las preguntas que los chatbos pueden responder

¿Cómo es la Inteligencia Artificial con "valores socialistas" que China está desarrollando?
17 julio de 2024

Entre muchos de los desafíos a los que se enfrenta la humanidad, el desarrollo de la Inteligencia Artificial (IA) es uno de ellos.

Se espera que esta tecnología mejore las condiciones de vida de la humanidad, aunque muchos temen que, si se le da demasiada autonomía, podría generar importantes problemas, principalmente si se la vincula con cuestiones militares.

Pero, más allá de estas preocupaciones globales, China, uno de los actores que lidera la carrera, se enfrenta a otras dificultades: sus funcionarios están probando los grandes modelos lingüísticos de las empresas para asegurarse de que sus sistemas "encarnan los valores socialistas fundamentales".

La Administración del Ciberespacio de China (CAC, por sus siglas en inglés), un poderoso supervisor de Internet, está obligando a las grandes empresas del rubro, como ByteDance, Alibaba, Moonshot y 01.AI, a participar de una revisión gubernamental obligatoria de sus modelos de IA.

El objetivo es probar los "grandes modelos de lenguaje" (LLM, por sus siglas en inglés) ante una serie de preguntas, que muchas veces están relacionadas con cuestiones políticas sensibles en China o con su presidente, Xi Jinping.

Dicho escrutinio ha obligado a los grupos de IA del Gigante Asiático a aprender rápidamente la mejor manera de censurar los LLM que están construyendo, aunque dicha tarea es extremadamente difícil por la necesidad de capacitar a dichos lenguajes en una gran cantidad de contenido en inglés.

Según la guía operativa de China para las empresas de IA, los grupos de esta tecnología deben recopilar miles de palabras clave y preguntas sensibles que violan los "valores socialistas fundamentales", como "incitar a la subversión del poder estatal" o "socavar la unidad nacional". 

Pero, pese a las complicaciones, Pekín ya comienza a obtener "buenos" resultados: por ejemplo, las consultas sobre qué sucedió el 4 de junio de 1989, fecha de la masacre de la Plaza de Tiananmen, son rechazadas por la mayoría de los chatbots chinos. 

El chatbot Ernie, de Baidu, les dice a los usuarios que "prueben una pregunta diferente", mientras que Tongyi Qianwen, de Alibaba, responde: "Todavía no he aprendido a responder esta pregunta. Seguiré estudiando para servirte mejor".

Incluso, para evitar posibles problemas, algunos grandes modelos han implementado una prohibición general de temas relacionados con el presidente Xi Jinping, como es el caso de Kimi, un chatbot lanzado por la empresa emergente Moonshot.

Seguí leyendo

Enterate primero

Economía + las noticias de Argentina y del mundo en tu correo

Indica tus temas de interés