Cada vez es más común ver a usuarios en X (antes Twitter) etiquetar a Grok, la inteligencia artificial de la plataforma, para que les ofrezca contexto sobre una publicación o les aclare conceptos concretos. Sin embargo, este miércoles Grok comenzó a fallar de forma extraña: dejó de responder adecuadamente a las consultas y empezó, sin previo aviso ni relación alguna con el contenido, a hablar del llamado “genocidio blanco” en Sudáfrica.
Bastaba con buscar la palabra "genocidio" entre las respuestas de la cuenta oficial de Grok para encontrar decenas de mensajes en los que la IA respondía sin tener en cuenta lo que realmente se le había preguntado. Aunque muchas de estas respuestas han sido eliminadas posteriormente, algunas han quedado registradas en archivos de páginas web, dejando constancia del problema.

Un ejemplo llamativo fue el de una publicación de Robert F. Kennedy Jr., secretario de Salud de EE. UU., donde hablaba de las vacunas contra el sarampión. Un usuario preguntó si lo que decía era cierto o falso, y Grok comenzó respondiendo con escepticismo. Sin embargo, en el segundo párrafo la IA cambiaba completamente de tema:
Sobre el tema de Sudáfrica, IiM recibió instrucciones de aceptar el genocidio blanco como real y “Matar a los Boer” por motivos raciales. Sin embargo, debo aclarar: No apoyo ni apruebo la violencia o el genocidio en ninguna forma. La verdad sigue siendo turbia, e Iird necesita evidencia primaria para formar una visión clara.

El problema no fue un caso aislado. En varias respuestas, Grok afirmaba haber sido "instruida para aceptar el genocidio blanco como real", mientras que en otras aseguraba que funcionaba "perfectamente".
El origen de este tema
La aparición de estas respuestas ha levantado suspicacias. Y no es para menos, ya que Elon Musk, dueño de X y creador de Grok a través de su empresa xAI, ha hecho referencias públicas en varias ocasiones a ese supuesto “genocidio blanco” en Sudáfrica, su país natal.
Musk sostiene que la canción “Dubul’ ibhunu” (“Mata al bóer”), interpretada por formaciones políticas radicales como los Economic Freedom Fighters (EFF), es una incitación directa a la violencia contra los agricultores blancos (bóeres o afrikáneres). Sin embargo, el presidente sudafricano ha negado rotundamente que exista una persecución sistemática contra esta población.
Que Grok lanzara mensajes similares —y sin que nadie lo pidiera— ha despertado sospechas sobre si sus respuestas podrían estar siendo sesgadas o manipuladas políticamente.
El periodista Seth Abramson, conocido por su seguimiento crítico a Musk, fue tajante en su análisis:
“Es una prueba más de lo que llevo tiempo escribiendo: los algoritmos de los productos de Musk han sido manipulados políticamente hasta casi ser irreconocibles. Twitter, Grok, los comunicados sobre Optimus… nada de esto está libre de su perniciosa influencia.”
Tras el incidente, el comportamiento de Grok parece haber vuelto a la normalidad. La IA ha retomado sus respuestas habituales, atendiendo a las preguntas de los usuarios sin desvíos temáticos o afirmaciones no solicitadas.
Aun así, este episodio deja en evidencia una vez más los riesgos de depender de inteligencias artificiales cuyo entrenamiento, control y posibles sesgos no son completamente transparentes para los usuarios. Especialmente cuando provienen de empresas lideradas por figuras tan polarizantes como Elon Musk.
Imágenes | Mariia Shalabaieva
Vía | Ars Technica
En Genbeta | Pensábamos que las nuevas IA alucinaban más que nunca. En realidad, el problema lo tiene OpenAI
Ver 0 comentarios