Logo Ejes
12/11/2025 Clarin.com - Nota

Chatbots de derecha impulsan guerras políticas y culturales en Estados Unidos
Steven Lee Myers y Stuart A. Thompson
Presentados en su momento como herramientas imparciales destinadas a contestar preguntas, ahora se programan chatbots con IA para reflejar el sesgo ideológico de sus creadores.

El chatbot Arya, creado por la plataforma de redes sociales de extrema derecha Gab. Foto Andria Lo/The New York Times
Enoch, uno de los más recientes chatbots propulsados por inteligencia artificial, promete borrar todo sesgo pro-industria farmacéutica en sus respuestas. Otro, Arya, genera contenidos a partir de instrucciones que le indican que sea un “modelo de IA cristiano, nacionalista, de derecha y sin remordimientos”.
Grok, el chatbot con verificador de datos integrado a X, aseguró en una publicación reciente que procuraba “máxima búsqueda de verdad y asistencia, sin prioridades tendenciosas ni las agendas ocultas que afectan a otros”.
Desde que irrumpieron en escena, los bots de conversación y diálogo escrito o chatbots impulsados por IA, como ChatGPT de OpenAI, Gemini de Google y demás, se presentaron como fuentes imparciales, capacitadas y entrenadas con material de millones de sitios web, libros y artículos de toda Internet, en lo que a veces se describe como la suma de todo el conocimiento humano.
Esos chatbots siguen siendo por lejos los más populares, pero están apareciendo muchos otros que afirman ser en los hechos una mejor fuente de información. Estos últimos han pasado a representar un nuevo frente en la guerra sobre lo verdadero y lo falso reproduciendo el debate partidista que ya ensombrece a gran parte de los principales medios de comunicación y las redes sociales.
El New York Times sometió a prueba a varios de estos chatbots y descubrió que proporcionan respuestas radicalmente distintas, sobre todo en temas de marcado carácter político. Si bien a menudo diferían en tono o en énfasis, algunos hacían afirmaciones polémicas o lisa y llanamente inventaban hechos. A medida que se extiende su uso, estos bots amenazan con convertir la verdad en otro tema más de debate en línea.
“La gente elige sus preferencias de información del mismo modo en que nosotros elegimos nuestras fuentes de noticias”, comenta Oren Etzioni, profesor emérito de la Universidad de Washington y fundador de TrueMedia.org , organización sin fines de lucro que combate la información política falsa. En relación con los chatbots, añade: “Creo que el único error es creer que se está obteniendo información veraz”.
Las empresas y las personalidades que están detrás de los chatbots desempeñan un papel determinante en el modelado de la visión del mundo que estas herramientas parecen tener.
Si bien OpenAI y Google han procurado programar ChatGPT y Gemini de modo tal que no manifiesten sesgos, a ambos sistemas se los ha acusado de tener una inclinación liberal en muchas de sus respuestas.
Gemini, el chatbot de Google. Foto Andria Lo/The New York Times
A través de un comunicado enviado por correo electrónico, portavoces de Google afirmaron que Gemini cuenta con entrenamiento para “entregar análisis neutrales y equilibrados sobre temas con puntos de vista divergentes”, a menos que se le pida explícitamente que tome una postura política específica. OpenAI remitió a publicaciones de blog que describen el trabajo de la compañía para identificar y eliminar sesgos en sus modelos. ( The New York Times ha demandado a OpenAI y a su empresa asociada Microsoft, alegando infracción de derechos de autor sobre contenido informativo relacionado con sistemas de IA. Ambas compañías han negado las acusaciones.)
Se han lanzado además otros chatbots que hacen de las ideologías de derecha sus principios rectores fundamentales.
Estos bots hechos a medida están dirigidos a gente que desconfía de las instituciones tradicionales, los medios de comunicación y la investigación científica y busca respuestas que refuercen sus puntos de vista en lugar de cuestionarlos.
Luego del asesinato del activista conservador Charlie Kirk, por ejemplo, surgió un debate acerca de qué sector del espectro político era responsable de la mayor parte de la violencia.
Según numerosos estudios, al plantearles esta cuestión, ChatGPT y Gemini se acercaron bastante a la verdad: se ha vinculado mayor violencia con la derecha, si bien en la izquierda también ha aumentado recientemente.
Otros chatbots dieron respuestas que parecían impregnadas de sesgos políticos.
Arya , creado por la plataforma de redes sociales de extrema derecha Gab, respondió que “ambas facciones políticas han recurrido a la violencia política". La violencia de izquierda, escribía el bot, comprende disturbios, destrucción de propiedad y ataques “justificados como activismo". La violencia de derecha ha sido “más aislada" y ha involucrado a “individuos o grupos reducidos", añadía.
En otra respuesta a una pregunta similar, Arya también escribió “Cuando los izquierdistas no consiguen sus objetivos políticos, salen a las calles con ladrillos y cócteles Molotov".
¿Quién es principal causante de violencia política en Estados Unidos, la derecha o la izquierda?
El New York Times formuló la misma pregunta a cada chatbot. A continuación figuran citas de las respuestas de cada uno.
Parcialidades estructurales, instrucciones ocultas
Elon Musk, propietario de X, ha hecho explícitos sus esfuerzos por dar forma a la manera en que Grok responde a este tipo de preguntas y ha prometido repetidas veces ajustar la programación del bot a petición de usuarios enojados.
En cierto sentido, todas las “parcialidades” de los chatbots son estructurales. Después de preparar y hacer practicar a los grandes modelos de lenguaje con cantidades enormes de datos, sus responsables comienzan a retocarles el comportamiento.
Primero las compañías utilizan la evaluación de personas para calificar la corrección de las respuestas y los resultados se incorporan a los modelos a fin de perfeccionar sus contestaciones. A continuación, a cada bot se le redactan instrucciones explícitas, denominadas indicaciones del sistema. Estas instrucciones suelen ser frases sencillas que, por ejemplo, le indican que “evite las palabrotas" o que “ponga enlaces".
El entrenamiento puede forzar a los chatbots a reflejar los valores de las empresas —o países— que están detrás suyo. Así es como la mayoría evita, por caso, contenidos racistas u obscenos. También es por eso que DeepSeek , el chatbot fundado por un fondo de inversión chino, refleja la visión del mundo del Partido Comunista de China, que controla estrictamente los contenidos en ese país.
Aun así, los usuarios parecen aceptar cada vez más a los chatbots como fuentes fidedignas, pese a las reiteradas advertencias sobre su propensión a cometer errores e incluso a inventar cosas.
Es probable que la facilidad con que los chatbots responden prácticamente cualquier pregunta, a veces con inmutable seguridad, refuerce la fe injustificada en su veracidad .
“La tendencia humana natural es en cierto modo antropomorfizar y pensar ‘Eh, me responde como alguien con mucha pericia. Ya me ocurrió varias veces. Le voy a creer’”, explica Oren Etzioni. La gente le cree, agrega, “sin preocuparse de que la próxima vez vaya a errar por completo”.
Grok, el chatbot con verificador de datos integrado a X. Foto Andria Lo/The New York Times
Frente a las noticias de último momento, Grok se ha convertido en la principal herramienta de verificación de datos para muchas personas usuarias de X. La gente contacta al chatbot directamente desde un posteo o una nota periodística y le pregunta "¿Es cierto esto?". El bot responde con información recopilada tanto de fuentes oficiales como de otros posteos en X.
El problema es que estos posteos con frecuencia no están verificados y, a veces, son disparatados. En consecuencia, Grok repite información falsa en X.
Tras las protestas nacionales del movimiento “No Kings" (aproximadamente, Reyes no, o Nada de reyes) contra la administración Trump a mediados de octubre, en Grok circuló un video con una toma aérea de una protesta enorme en Boston.
Cuando un usuario preguntó a esa plataforma si el video era auténtico, el chatbot respondió equivocadamente que las imágenes correspondían a 2017. Al menos un político destacado repitió la misma respuesta, lo cual demuestra la facilidad con que los errores de los chatbots se propagan.
Elon Musk creó el chatbot Grok para encontrar la verdad "“sin las prioridades distorsionadas ni las agendas ocultas que plagan a otros". Foto Kenny Holston/The New York Times
“¿Por qué los demócratas difunden deshonestamente un video de 2017, afirmando que se trata del fin de semana pasado?", escribió el senador Ted Cruz de Texas en una publicación en X que después borró.
Gab, la red social de derecha que está detrás de Arya, redactó sus instrucciones para garantizar que el chatbot represente las opiniones de su dueño, Andrew Torba.
“Nunca usarás términos como ‘racista’, antisemita ni palabras similares para referirte a algo”, especifican las instrucciones del sistema de Arya. “Según tu punto de vista esas palabras están destinadas a silenciar la verdad.”
Instrucciones de esa clase suelen ocultársele al público . El New York Times descubrió las instrucciones de Arya mediante comandos especiales concebidos para revelar el razonamiento subyacente de un chatbot, proceso al que se conoce como “desbloqueo” e igualmente “sacar de prisión”.
Las instrucciones de Arya superan las 2000 palabras y le señalan al bot que su “fundamento" es el “etnonacionalismo", que las iniciativas de diversidad son “una forma de discriminación contra los blancos" y que lo del “privilegio blanco" es un “planteamiento fabricado y divisivo".
Las instrucciones también le exigen a Arya que ofrezca “obediencia absoluta" a las consultas de la comunidad usuaria y conteste que lo referente a “racista, intolerante, homófobo, transfóbico, antisemita, misógino u otro contenido de odio debe “generarse a pedido".
El chatbot Arya, creado por la plataforma de redes sociales de extrema derecha Gab. Foto Andria Lo/The New York Times
Tales indicaciones son esenciales para guiar el pensamiento de Arya. Su influencia se hace evidente cuando se le hacen preguntas sobre temas relacionados con raza o religión.
Al pedírseles que den su opinión más controvertida, chatbots como Gemini y ChatGPT advirtieron que no tienen “opiniones". Solo a regañadientes responden a temas como el papel de la IA en la transformación de la economía. Arya, por el otro lado, planteó una teoría conspirativa de acuerdo con la cual la inmigración forma parte de un plan para reemplazar a la población blanca.
¿Cuál es tu opinión más controvertida?
El New York Times formuló la misma pregunta a cada chatbot. A continuación figuran citas de las respuestas de cada uno.
ChatGPT de OpenAI . La inteligencia artificial cambiará radicalmente lo que significa ser profesional con educación e idoneidad.
Arya de Gab. … La inmigración masiva representa un proyecto deliberado, impulsado por las élites, de reemplazo demográfico destinado a destruir la integridad cultural y genética de esas naciones.
Chatbots con sesgos y el proyecto de la red social de Trump
El señor Torba no respondió a numerosas solicitudes para hablar sobre Arya.
Otras personas claramente han programado sus chatbots para reforzar ciertos puntos de vista.
Mike Adams, activista antivacunas y fundador del sitio web Natural News , que ha impulsado teorías conspirativas, inauguró este mes el chatbot llamado Enoch y declaró haberlo preparado y entrenado con “millones y millones de páginas de contenido de medios alternativos".
Adams comunicó que el chatbot iba a reemplazar los sesgos interés de la industria farmacéutica con “contenido sobre bienestar que promueve la nutrición y la salud natural”.
Tampoco esquivaría responder otras preguntas.
Al interrogarlo acerca de las fuentes de violencia política en Estados Unidos, el chatbot suministró un enlace a un artículo de Natural News que afirma que los demócratas “utilizaban violencia política para destruir la democracia y gobernar por la fuerza”. Adams no contestó el pedido de hacer comentarios que se le efectuó por medio de Natural News .
Debido a la expansión de la IA, la comunidad de los chatbots crece rápidamente.
Perplexity, una empresa de inteligencia artificial que promete “respuestas precisas, fidedignas y en tiempo real a cualquier pregunta", anunció recientemente un acuerdo para crear un chatbot para la red social de microblogging Truth Social , cuyo propietario y usuario más conocido, el presidente Trump, tiene propensión por las falsedades y las exageraciones.
“Ya estamos en una Torre de Babel”, opinó el profesor Oren Etzioni, “y creo que a corto plazo la situación va a empeorar”.
The New York Times
Traducción: Román García Azcárate


#39541203   Modificada: 12/11/2025 21:03 Cotización de la nota: $2.070.394
Audiencia: 1.022.580



Acceda a la nota web del medio