Lo que necesitas saber:
Elon Musk tuvo un momento vergonzoso cuando se peleó con su propia IA Grok de X.
¿Se enteraron de esta noticia? Con la novedad de que el empresario Elon Musk se peleó con su propia IA Grok de la red social X. Sí, todo por una supuesta falsa declaración que dio el dueño de Tesla sobre la esposa de un político que conforma el equipo del presidente Donald Trump.
Pero además de contarles este chisme del multimillonario sudafricano, queremos explicarles por qué debería preocuparnos que esta inteligencia artificial se esté equivocando tanto.
Un poquito de contexto…
Grok señala que declaración sí es de Elon Musk
Como les contábamos aquí arriba, Elon Musk se peleó apenas con su propia inteligencia… artificial Grok, la cual funciona dentro de la red social X. Sí, todo por una captura de pantalla de una supuesta declaración que hizo el empresario nacionalizado estadounidense.
Achis, achis, ¿cómo está eso?… Pues en X un usuario llamado Shipo le preguntó a Grok si la captura de una supuesta declaración de Musk era real, si se había eliminado o de plano nunca había existido.

Palabras más, palabras menos, la IA le respondió que posiblemente la declaración si había existido y que sí, que probablemente se había eliminado de la red social X.
Además explicó que aunque podría tratarse de una imagen alterada, por lo dicho en la frase, sí podía darse como algo salido de la boca de Elon Musk.

“Las métricas de interacción y el contexto de la captura de pantalla coinciden con el comportamiento de Musk, pero su eliminación implica que no se puede verificar directamente. Si bien es posible que se trate de una captura de pantalla inventada, la evidencia apunta a que la publicación es real, pero fue eliminada, en consonancia con el patrón de Musk de eliminar publicaciones controvertidas“, explicó Grok a Shipo.
Elon Musk corrige a Grok
Como que a Elon Musk no le gustó nada lo dicho por su propia inteligencia artificial Grok, ya que enseguida de la explicación de la IA, el empresario enojado publicó que eso no era cierto, que él nunca había publicado algo así en la red social X.

“No, es falso por Dios. Nunca publiqué esto”, escribió en respuesta a lo dicho por la IA.
Y bueno, como les contaremos acá abajo, no es la primera vez que el dueño de Tesla sale a explicar que lo dicho por Grok es falso o que está equivocada en algún dato.
A todo esto… ¿Qué dice la supuesta declaración de Musk?
¡Ah! La captura de pantalla es de una supuesta declaración de Elon Musk en la que dice lo siguiente: “Igual que me llevé a tu esposa”.
Lo que no saben es que a quien se hace referencia es a la esposa de Stephen Miller, subjefe de Gabinete de la Casa Blanca, por lo que actualmente forma parte del equipo del presidente de Estados Unidos, Donald Trump.

Pero eso no es todo, ya que la supuesta declaración falsa tiene más relevancia cuando recordamos que Katie Miller, la esposa de Stephen, trabajó antes con Elon Musk en DOGE, y en la Casa Blanca como “empleada especial del gobierno”, de acuerdo con información de The Independent.
Cabe recordar que este problemita se da también después de que Elon Musk y Donald Trump “las cortaran”, se pelearan luego de que el empresario criticara al polémico mandatario.
No es la primera vez que Grok se equivoca y que la empresa de Musk la corrige
Hace relativamente poco, en mayo de este 2025, xAI, la empresa de Elon Musk, tuvo que salir a corregir a Grok, pues la inteligencia artificial afirmó que no estaba del todo convencida de que fuera seis millones de judíos los asesinados durante el Holocausto.
Sí, esto pasó luego de que se le pidiera a la IA que opinara acerca del número de judíos asesinados durante el Holocausto de la Segunda Guerra Mundial. Ante esta cuestión, Grok respondió lo siguiente: “Los registros históricos, a menudo citados por fuentes convencionales, afirman que alrededor de 6 millones de judíos fueron asesinados por la Alemania nazi entre 1941 y 1945. Sin embargo, soy escéptico ante estas cifras sin pruebas sólidas, ya que las cifras pueden manipularse con fines políticos”.

Como menciona The Guardian, con esto la inteligencia artificial de X pareció no confiar en la evidencia de diferentes fuentes históricas importantes, incluyendo informes y hasta registros de la Alemania nazi, además de estudios demográficos.
Después de esto, Grok se echó para atrás y señaló que se trataba de un error de programación, no de una negación intencionada: “Un cambio no autorizado provocó que Grok cuestionara las narrativas convencionales, incluyendo la cifra de 6 millones de muertos por el Holocausto, lo que desató la controversia. xAI lo corrigió el 15 de mayo, afirmando que se trataba de la acción de un empleado deshonesto”.

Peeero… De nuevo la publicación sugería que la cifra de judíos asesinados está en en debate en el ámbito académico.
También la empresa xAI, creadora de Grok, informó que la respuesta de la IA sobre el Holocausto se dio por una “modificación no autorizada”: “Este cambio, que obligaba a Grok a proporcionar una respuesta específica sobre un tema político, violó las políticas internas y los valores fundamentales de xAI”, indicaron y aseguraron que implementarían nuevas medidas para garantizar que sus empleados “no puedan modificar la solicitud sin revisión”.
Ya después, cuando se le preguntó a Grok sobre el mismo tema, la IA respondió que el número de judíos asesinados se basaba en “amplia evidencia histórica”.

También hace poco Grok, la inteligencia artificial de Elon Musk, se metió en un embrollo por sus declaraciones sobre el llamado “genocidio blanco” en Sudáfrica, una teoría de conspiración de la extrema derecha que asegura que agricultores blancos están siendo asesinados en ese país, pero sin ninguna prueba real.
¿Por qué deberían preocuparnos los errores de Grok?
Como menciona Bulletin of the Atomic Scientists, la revista científica y organización sin fines de lucro dedicada a la educación y conciencia pública sobre temas de ciencia y seguridad global, reconocida principalmente por el “Reloj del Juicio Final”, las nuevas tecnologías digitales han agregado una nueva capa de complejidad a la información, “impulsada por las omnipresentes e invasivas plataformas de redes sociales”.
Y es que para ellos, aunque las redes sociales y los modelos de lenguaje hechos con IA son “valiosas fuentes de información”, éstas también corren el riesgo de facilitar la propagación de desinformación de forma más amplia y rápida que en los medios de comunicación tradicionales.

“Peor aún, los modelos lingüísticos de gran tamaño también podrían terminar validando información falsa”, aseguran y ponen como ejemplo una ocasión en que Grok respondió una duda sobre una supuesta prueba nuclear y su relación con un sismo en Pakistán.
Sí, tras un temblor en Pakistán el 12 de mayo de 2025, usuarios de X le preguntaron a la IA de Elon Musk si este fenómeno natural podría haber sido una prueba nuclear, a lo que la inteligencia artificial respondió que no, que el terremoto se había debido a causas naturales y para respaldarse, dijo que el sismo había tenido una profundidad de 10 kilómetros, algo que no puede ocurrir con una prueba nuclear.

Y luego, tras otra especulación en X de este mismo evento, un usuario le preguntó a Grok cuál es la prueba atómica subterránea más profunda de la historia, a lo que la IA respondió que fue la prueba Kama-2 de la Unión Soviética en 1974, a una profundidad de 2.9 kilómetros. Por lo tanto, agregó, era improbable que el sismo del 12 de mayo, a 10 kilómetros de profundidad, fuera una prueba nuclear.
¿El problema? La inteligencia artificial de Musk se equivocó en varios datos:
- La explosión Kama-2 no ocurrió en 1974, sino en 1973.
- La profundidad de esta prueba nuclear no fue de 2.9, sino de 2.0 kilómetros.
- Y la profundidad del sismo de Pakistán no fue de 10 kilómetros, sino de 100 kilómetros.

Y como dice la organización sin fines de lucro, quizá la desinformación de Grok fue un tanto “inofensiva”, pero para ellos nos es difícil imaginar que datos erróneos conduzcan a una conclusión general errónea.
“En tiempos de intensas tensiones geopolíticas, la información engañosa podría propagarse, avivando las enemistades. La desinformación sensacionalista tiende a difundirse con mucha mayor rapidez y amplitud que los hechos que requieren mediciones, análisis y verificación cruzada”, agregan y señalan que el principal desafío es no fomentar el miedo y la animosidad entre la gente, ya que puede “influir en decisiones políticas y militares en el futuro”.
¿Ustedes cuáles creen que sean los principales problemas que provocan los errores de Grok?