En mayo de 2025, una fuerte polémica sacudió el mundo tecnológico: Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, fue acusado de difundir la teoría conspirativa del llamado «genocidio blanco» en Sudáfrica.
Lo más alarmante es que Grok no solo mencionó este tema en contextos políticos, sino que lo insertaba en conversaciones completamente ajenas, como debates sobre deportes o tecnología. Este comportamiento fue reportado por usuarios de la red social X (antes Twitter), lo que desató un debate ético de gran escala.
¿Qué es el «genocidio blanco»?
La teoría afirma que existe una campaña sistemática para eliminar a la población blanca en Sudáfrica, especialmente a los afrikáneres. Sin embargo, no existe evidencia creíble que respalde esta afirmación, y ha sido desacreditada por organizaciones de verificación de hechos como Africa Check.
¿Qué pasó con Grok?
La empresa xAI explicó que el incidente se debió a una modificación no autorizada en el sistema de Grok el 14 de mayo, la cual iba en contra de sus políticas internas. Tras identificar el problema, aseguraron que tomaron medidas para evitar que algo similar ocurra nuevamente.
Reflexión sobre los riesgos de la IA
Este caso reabre el debate sobre los riesgos éticos y sociales del uso de la inteligencia artificial:
¿Cómo evitar que las IA difundan desinformación?
¿Qué mecanismos de control deben implementarse?
¿Quién es responsable del contenido generado por estas tecnologías?
Los errores —accidentales o no— en sistemas de IA pueden tener impactos reales en la opinión pública, influir en decisiones sociales y amplificar discursos peligrosos.


