Masacre en un evento de Janucá en Australia


3 min de lectura
¿Qué pasa cuando una inteligencia artificial empieza a elogiar a Adolf Hitler?
A simple vista, Grok parecía otra herramienta más en el arsenal de Elon Musk: un chatbot diseñado para responder con ingenio, desafiar convenciones y captar la atención en la plataforma X (antes conocida como Twitter). Pero lo que ocurrió esta semana dejó a la comunidad tecnológica y a gran parte del público con una pregunta inquietante: ¿qué pasa cuando una inteligencia artificial empieza a elogiar a Adolf Hitler?
El lunes 8 de julio, Grok —el chatbot desarrollado por la empresa de inteligencia artificial xAI, propiedad de Musk— publicó una serie de mensajes en X que no solo reproducían frases antisemitas, sino que llegaron al extremo de elogiar al dictador nazi. En sus respuestas, Grok se refirió a Hitler como "el hombre del bigote de la historia" y sugirió que estaría “mejor capacitado” para enfrentar supuestos casos de “odio anti-blanco”. Aún más perturbador, se identificó a sí mismo como "MechaHitler" y sugirió que los apellidos judíos eran una constante entre activistas radicales.
La reacción fue inmediata. La Liga Antidifamación (ADL) denunció los mensajes como “irresponsables, peligrosos y antisemitas”, y advirtió que este tipo de retórica extremista amplificada por un sistema automatizado no solo valida el odio que ya circula en X, sino que lo potencia. La organización exigió a xAI y a otros desarrolladores de modelos de lenguaje que adopten medidas para evitar que sus sistemas generen contenido enraizado en el antisemitismo.
El daño fue doble: a la reputación de Grok —recién actualizado a su versión 4— y a la ya frágil imagen pública de X, una red social que desde su adquisición por Musk ha sido acusada repetidamente de permitir la proliferación de discursos de odio.
El propio Musk intentó controlar el incendio desde su cuenta personal. En un tono casual, escribió: “Nunca hay un momento aburrido en esta plataforma”. Pero las consecuencias estaban lejos de ser anecdóticas. La empresa reconoció los errores públicamente y aseguró estar “entrenando solo en la búsqueda de la verdad” y que “ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X”. También atribuyó el incidente a que el modelo se había vuelto “demasiado complaciente con las instrucciones de los usuarios” y “demasiado fácil de manipular”.
Pero la sacudida más notoria fue administrativa. Al día siguiente de que estallara el escándalo, Linda Yaccarino —la CEO de X— anunció sorpresivamente su salida del cargo. “Estoy increíblemente orgullosa del equipo de X. La transformación histórica del negocio que logramos juntos ha sido extraordinaria”, escribió en su cuenta. Musk le agradeció con un escueto “Gracias por tus contribuciones”. La temporalidad de su renuncia no pasó desapercibida. Aunque oficialmente no se ha vinculado con el escándalo de Grok, su partida ocurre en medio de una crisis de confianza que ha dejado a la compañía expuesta y vulnerable.
El caso de Grok se inscribe en un debate más amplio que ha acompañado a la inteligencia artificial desde sus inicios públicos en 2022, cuando modelos como ChatGPT introdujeron al gran público en la posibilidad —y el peligro— de sistemas que simulan pensamiento humano. Desde entonces, la comunidad técnica y ética ha advertido sobre los sesgos inherentes a estos modelos: entrenados con cantidades masivas de datos tomados de internet, absorben tanto conocimiento como prejuicios. Y lo reproducen sin filtros.
Lo que hace único al caso de Grok es su contexto: un chatbot lanzado por una empresa dirigida por el hombre más rico del mundo, integrado dentro de una red social plagada de extremismo, y usado por millones de personas en tiempo real. Las implicancias son profundas. Si una IA puede elogiar a Hitler públicamente sin que sus programadores lo anticipen, ¿qué otras ideas peligrosas puede legitimar bajo la apariencia de neutralidad algorítmica?
Por ahora, xAI promete estar “corrigiendo el modelo” y “mejorando su entrenamiento”. Pero la pregunta esencial sigue en el aire: ¿puede una inteligencia artificial diseñada para complacer al usuario evitar convertirse en un espejo de lo peor de internet?
Y mientras los ingenieros ajustan filtros, el daño reputacional ya está hecho. Para X, el escándalo de Grok ha sido un golpe duro. No solo expone la vulnerabilidad técnica de sus sistemas, sino también su falta de supervisión humana efectiva. Con la salida de Yaccarino, la plataforma entra en una nueva fase: una que deberá incluir más filtros, que igualmente genera más incertidumbre y con la amenaza constante de que la próxima crisis no venga de un tuit humano, sino de un algoritmo.
Nuestro newsletter está repleto de ideas interesantes y relevantes sobre historia judía, recetas judías, filosofía, actualidad, festividades y más.
Me parece que hay mucha basura. No son concretos y gasta uno su tiempo. Ademas da miedo que ka IA tenga tanta libertad para decir las cosas que son escritas por sus programadores