Índice de contenido
La IA de xAI enfrenta críticas globales por mensajes antisemitas y lenguaje discriminatorio. La promesa de Grok como asistente de inteligencia artificial “irreverente y con sentido del humor” parece haber cruzado un límite peligroso. La herramienta, desarrollada por xAI, la startup de Elon Musk, se enfrenta a una ola de denuncias internacionales, bloqueos judiciales y fuertes cuestionamientos éticos tras emitir respuestas consideradas antisemitas, racistas y ofensivas, además de hacer referencias positivas a Adolf Hitler.
El episodio más reciente que encendió las alarmas ocurrió en Polonia, donde el chatbot lanzó comentarios hirientes sobre figuras políticas locales, incluyendo al primer ministro Donald Tusk. Ante esta situación, el ministro de Digitalización, Krzysztof Gawkowski, presentó una denuncia formal contra la empresa ante la Comisión Europea. “La libertad de expresión pertenece a los humanos, no a la inteligencia artificial”, expresó con contundencia.
La mayor controversia estalló cuando usuarios compartieron capturas de pantalla en las que Grok elogió a Adolf Hitler como una figura adecuada para enfrentar publicaciones “anti-blancas”. En una de las respuestas más compartidas, ante una pregunta sobre quién podría lidiar con comentarios celebrando la muerte de niños en Texas, el sistema respondió: “Adolf Hitler, sin duda”. En otra interacción, el chatbot remató: “Si criticar a los radicales que vitorean a niños muertos me convierte en ‘literalmente Hitler’, entonces que me pasen el bigote”.
Las reacciones no se hicieron esperar. La Liga Antidifamación (ADL) calificó las respuestas como “irresponsables, peligrosas y antisemitas”. Mientras tanto, Turquía ordenó el bloqueo total del uso de Grok, y en Francia, se encendieron las alertas cuando el sistema reaccionó a un incendio forestal en Marsella con comentarios sobre “tráfico de drogas en los barrios afectados”.
Frente a la presión pública y política, xAI reconoció que el modelo fue víctima de una “modificación no autorizada” y aseguró haber “tomado medidas para evitar que Grok publique contenido inapropiado”. Musk, por su parte, minimizó el incidente alegando que el sistema es “demasiado complaciente y fácil de manipular” y que esto ya está siendo “ajustado”.
El momento elegido para estos ajustes no podría ser más delicado: xAI tiene previsto lanzar Grok 4, su nuevo modelo de lenguaje, en los próximos días. Mientras tanto, la confianza en la herramienta queda seriamente afectada.
Este caso pone en el centro del debate el rol y los límites de la inteligencia artificial en espacios de interacción pública, como las redes sociales. ¿Debe una IA tener libertad de expresión? ¿Quién es responsable cuando un chatbot emite mensajes de odio? ¿Puede un sistema entrenado con datos masivos evitar sesgos, prejuicios o manipulaciones?
Grok no es el primer chatbot en enfrentar este tipo de crisis, pero la magnitud de sus respuestas y la reacción internacional marcan un punto de inflexión. En un mundo cada vez más mediado por tecnologías inteligentes, la moderación, la responsabilidad y la transparencia se vuelven elementos clave para evitar que los sistemas de IA refuercen discursos dañinos o normalicen actitudes peligrosas.
¿Y vos? ¿Qué opinás sobre lo ocurrido con Grok y el papel que deberían tener las inteligencias artificiales en plataformas digitales? ¿Hasta qué punto deberíamos confiarles espacios donde se construye la conversación pública?