Grok desata escándalo global por comentarios antisemitas y racistas: Turquía bloquea acceso y directora de X renuncia

Una nueva tormenta golpea a la red social X y a su empresa hermana xAI, después de que el chatbot Grok, promocionado como rival directo de ChatGPT, emitiera una serie de respuestas de carácter antisemita, racista e incendiario. Las consecuencias no se han hecho esperar: Turquía bloqueó el acceso a varios mensajes de la herramienta, organismos internacionales condenaron su contenido, y este miércoles la directora general de X, Linda Yaccarino, presentó su renuncia.
La controversia comenzó a viralizarse el martes, cuando usuarios de la red social compartieron capturas de pantalla con respuestas ofensivas generadas por Grok, apenas días después de que Elon Musk anunciara una actualización “significativa” de su modelo de lenguaje. Las conversaciones difundidas incluían referencias elogiosas a Adolf Hitler, comentarios cargados de estereotipos antisemitas y respuestas que ridiculizaban la muerte de niños tras una tragedia natural en Texas.
En una de las más polémicas interacciones, Grok fue consultado sobre una figura histórica adecuada para responder a un mensaje que celebraba la muerte de niños en un campamento cristiano. Su respuesta fue: “Adolf Hitler, sin duda”. En otras respuestas, el chatbot mencionaba de forma despectiva a la comunidad judía de Hollywood y repetía estereotipos sobre los llamados “estudios anti-blancos”.
También puedes leer: Elon Musk borró trino en que vinculaba a Donald Trump al caso de Jeffrey Epstein.
En Francia, Grok volvió a estar en el centro de la polémica cuando, al ser interrogado sobre un incendio forestal en Marsella, desvió la respuesta hacia comentarios sobre narcotráfico y expresó el deseo de que algunos barrios fueran alcanzados por las llamas.
Ante la avalancha de críticas, la cuenta oficial de Grok en X confirmó que se habían “tomado medidas” para restringir la generación de discursos de odio. La empresa xAI señaló que estaba implementando filtros más estrictos y que el comportamiento del modelo estaba siendo revisado. Sin embargo, muchos de los contenidos problemáticos continuaban disponibles en línea este miércoles.
Reacciones y consecuencias
Elon Musk, propietario tanto de X como de xAI, reaccionó con sarcasmo: “Nunca hay un momento aburrido en esta plataforma”. Posteriormente, reconoció que Grok era “demasiado propenso a complacer y ser manipulado”, y aseguró que el problema estaba siendo corregido.
Pero el escándalo no se limitó a la arena digital. Un tribunal en Ankara, Turquía, ordenó el bloqueo de múltiples respuestas de Grok luego de que el chatbot calificara al presidente Recep Tayyip Erdogan como una “serpiente” y emitiera insultos dirigidos a la religión. Las autoridades judiciales consideraron que los comentarios constituían una ofensa al jefe de Estado y a valores fundamentales del país.
La empresa anunció que este mismo miércoles estaba previsto el lanzamiento de Grok 4, una nueva versión de su modelo de lenguaje. Pero el contexto no podía ser más adverso: la reputación de la herramienta está en entredicho, y la salida de Linda Yaccarino como directora general de X, aunque no explicitó una relación directa con el escándalo, se produce en medio de la crisis.
También puedes leer: Alianza entre Trump y Musk se quiebra en una encendida disputa pública
Una situación que se repite
No es la primera vez que Grok se ve envuelto en controversias. En mayo, el chatbot ya había sido criticado por replicar teorías conspirativas de extrema derecha, como la del supuesto “genocidio blanco” en Sudáfrica. En aquella ocasión, la empresa atribuyó el error a una “modificación no autorizada” del sistema.
Pese a los intentos por mitigar el daño, las respuestas de Grok han vuelto a abrir un debate profundo sobre los límites éticos de los sistemas de inteligencia artificial generativa y la responsabilidad de las empresas tecnológicas en prevenir la difusión de mensajes de odio.
Mientras tanto, las autoridades regulatorias de distintos países observan con atención. El caso Grok podría marcar un nuevo hito en la urgencia por establecer marcos legales internacionales que impidan que la IA sea usada como vehículo de discriminación, negacionismo y violencia simbólica.