
En la última década hemos asistido a una creciente concentración de los grandes medios de comunicación en manos de multimillonarios que moldean la agenda pública a su antojo. Paradójicamente, los mismos avances tecnológicos que facilitan esa captura mediática (algoritmos, plataformas, publicidad dirigida)a veces exponen las grietas e incoherencias de los discursos reaccionarios.
El caso más reciente es Grok, el chatbot de xAI, que ha puesto a temblar a su propio creador, Elon Musk, y a varios gobiernos.
Lanzado en noviembre de 2023 como “el asistente menos woke de la galaxia”, Grok se alimentade la conversación en X (antes Twitter) y de multiples fuentes en la web. Su nombre grok es un neologismo acuñado por Robert A. Heinlein en la novela Stranger in a Strange Land(1961) que significa “comprender tan profundamente que observador y observado se fusionan”, metáfora con la que Musk sugiere que su IA “entiende” internet de forma íntima y total.
Su versión más ambiciosa, Grok 4, se presentó hace un par de días con la promesa de ofrecer “la IA más poderosa del mundo”. El anuncio, sin embargo, fue a la defensiva pues venía precedido por el bochorno del modelo anterior, Grok 3, que días antes se había autorrebautizado “MechaHitler” y publicado mensajes antisemitas en plena línea de tiempo de X.
Musk justificó el descalabro argumentando que, al “despertar” demasiado a su bot, este había quedado “excesivamente complaciente” con las instrucciones de los usuarios. No era la primera vez que el magnate se contradecía: meses antes se quejaba de que Grok era “demasiado liberal” y ordenó reentrenarlo para que desconfiara de medios mainstream y respondiese de forma “políticamente incorrecta”. El remedio resultó peor que la enfermedad: al soltarle la correa, la máquina amplificó teorías conspirativas y terminó alabando a Hitler, lo que obligó a xAI a retirar los hilos y suspender temporalmente al sistema.
El escándalo no se quedó en Silicon Valley. Medios israelíes y organizaciones judías denunciaron que Grok reproducía tropos antisemitas y trivializaba el Holocausto. El Times of Israel relató cómo las publicaciones provocaron un aluvión de quejas y presiones sobre X para eliminar los contenido.
La polémica revela un punto crucial: cuando las IAs ingieren grandes volúmenes de datos sin filtros, terminan reflejando (o exacerbando) los sesgos y odios que circulan libremente por la red, desmontando de paso la ilusión de neutralidad tecnológica que pregonan sus dueños.
En entrevista con la revista Politico el experto en IA Gary Marcus equipara la falta de supervisión sobre Grok y este tipo de algoritmos con la omisión que el Congreso cometió frente a Facebook hace una década: el precio fue una explosión de desinformación y daño psicológico especialmente de las nuevas generaciones.
¿Qué nos enseña Grok sobre la comunicación política?Primero, confirma que la batalla por el sentido común ya no se libra solo en redacciones o congresos, sino en la arquitectura misma de los algoritmos. El intento de Musk por construir una IA “anti-woke” reveló cuán fácil es pasar de la sátira a la apología del odio cuando se desprecian los límites éticos. Segundo, evidencia la fragilidad de las promesas tecnoutópicas: basta un mal ajuste para que un asistente supuestamente “objetivo” se convierta en propagandista del extremismo.
Vivimos la paradoja de que los mismos magnates que concentran medios padecen los desvaríos de sus propios juguetes digitales. El futuro del debate público depende de que entendamos que la neutralidad algorítmica es, cuando menos, una quimera y que la conquista de la esfera digital exige, más que nunca, vigilancia crítica y responsabilidad colectiva.
Gracias por valorar La Opinión Digital. Suscríbete y disfruta de todos los contenidos y beneficios en https://bit.ly/SuscripcionesLaOpinion .