*

 “¿Qué es real? ¿Cómo defines ‘real’? Si te refieres a lo que puedes sentir, lo que puedes oler, lo que puedes saborear y ver, entonces ‘real’ son simplemente señales eléctricas interpretadas por tu cerebro.”
Morfeo, The Matrix (1999)

En el mundo post-Veo 3, esta línea de diálogo ya no suena como una provocación filosófica. Es un diagnóstico cultural.

Desde que Google presentó en mayo de 2025 su nueva inteligencia artificial generativa de video, Veo 3, el límite entre lo real y lo artificial dejó de ser una cuestión académica para convertirse en un problema urgente para la democracia, la libertad de expresión y el derecho a la información.

La herramienta permite generar videos de alta fidelidad visual a partir de descripciones textuales. Sus videos pueden tener movimientos de cámara cinematográficos, voces sintéticas sincronizadas con labios, sonido ambiente y una estética indistinguible del material filmado. En palabras de Google, es una nueva forma de narrar.

La ruptura de la realidad: inteligencia artificial y el colapso de lo verificable
Universidad Libre Internacional de las Américas

El colapso de la evidencia

Durante siglos, el video fue prueba. Grabaciones caseras sirvieron para denunciar dictaduras, registrar crímenes, documentar revoluciones. Pero, ¿Qué pasa cuando las imágenes dejan de ser confiables? ¿Qué sucede con la libertad de informar en un mundo donde ver ya no es creer?

Todavía falta -no mucho- para que los videos generados con IA sean absolutamente indistinguibles; pero es cuestión de minutos en términos históricos.

La ruptura de la realidad: inteligencia artificial y el colapso de lo verificable

Hoy podemos filmar una represión policial, pero mañana el gobierno puede decir que lo generamos con IA. Que es un deepfake. Que la escena no existió. Que la violencia es una ilusión.

Las herramientas como Veo 3 permiten generar clips con movimientos de cámara fluidos, expresiones faciales coherentes y voces moduladas con precisión quirúrgica. Si todo puede ser simulado, ¿qué espacio le queda a la verdad?

La duda se convierte en estrategia. Un mecanismo de defensa para el poder. Una cortina de niebla donde todo es posible, pero nada es verificable.

La ruptura de la realidad: inteligencia artificial y el colapso de lo verificable

El día en que Macri pidió votar por otro

El 17 de mayo de 2025, a pocas horas de las elecciones legislativas en la Ciudad de Buenos Aires, comenzó a circular en redes sociales un video en el que el expresidente Mauricio Macri supuestamente anunciaba que su candidata, Silvia Lospennato, había bajado su postulación. En su lugar —decía la falsa versión de Macri— debía votarse por Manuel Adorni, el candidato libertario.

El video era falso. Había sido generado con inteligencia artificial y aprovechaba las capacidades de síntesis de voz y gesticulación facial que ya ofrecen modelos como Veo 3 o Sora de OpenAI. El engaño fue rápidamente desmentido por los propios protagonistas, pero no antes de que el material se viralizara en Telegram, X (ex Twitter) y WhatsApp.

El Tribunal Electoral de la Ciudad calificó el contenido como “potencialmente fraudulento” y ordenó su baja inmediata. El hecho fue cubierto por medios como Infobae y Chequeado.

Fue el primer caso de desinformación electoral en Argentina provocado por una IA generativa audiovisual, y puso en evidencia lo que muchos analistas temían: no se necesita un deepfake perfecto, sólo un momento clave, un electorado permeable a la confirmación de sus propios sesgos y herramientas que permitan desinformar y manipular de manera quirúrgica.

El video falso de Macri

El canguro en el aeropuerto: ternura viral, origen sintético

Días después, otro video recorrió el mundo: un canguro en un aeropuerto australiano, con su propio boleto de avión en la mano (o más bien, en la pata). Las imágenes mostraban a dos mujeres discutiendo con una azafata, mientras el marsupial esperaba con aparente paciencia.

Miles de usuarios compartieron el video con mensajes de asombro, ternura o confusión. Algunos medios incluso especularon con una nueva política de inclusión de animales exóticos como mascotas de compañía. Pero nada era real.

El clip fue creado con inteligencia artificial por la cuenta de Instagram Infinite Unreality, especializada en contenidos generados por IA. Infobae y Semana confirmaron que se trataba de un caso más de lo que ya se empieza a llamar “ficciones virales”: simulaciones emocionales con apariencia de noticiabilidad.

Nadie resultó herido. Nadie perdió una elección. Pero el umbral de credulidad bajó otro escalón.

El canguro en el Aeropuerto, ternura viral

Entre la libertad de expresión y la arquitectura de la mentira

Estos dos casos no son anecdóticos. Son sintomáticos. Y si bien la tecnología puede utilizarse también para fines educativos, artísticos o incluso terapéuticos, el problema está en su uso masivo sin regulación ni alfabetización mediática.

La Unión Europea, con su Ley de Servicios Digitales, ya exige que los contenidos generados por IA estén claramente identificados. Google, por su parte, asegura que todos los videos de Veo 3 incluyen una marca de agua invisible (SynthID), pero esto no impide su circulación ni disipa su efecto inmediato.

En América Latina, la legislación es fragmentaria y la respuesta estatal llega siempre después del daño. Mientras tanto, los algoritmos de recomendación amplifican lo que emociona, no lo que informa. Lo que confirma prejuicios, no lo que los desarma.

La IA no genera solo imágenes: genera narrativas. Y en ese terreno, la desinformación no se impone desde arriba, sino que se propaga desde adentro. El enemigo no es la tecnología en sí, sino la opacidad de su uso y la ingenuidad de nuestra confianza visual.

Algoritmos de la creencia

El problema no termina ahí. Lo que vemos no sólo nos informa: nos forma. En las redes, los algoritmos no priorizan la verdad, sino la atención. Lo que confirma nuestras creencias se impone a lo que las contradice. Y en ese terreno fértil, los videos generados por IA se convierten en armas de precisión ideológica.

Un candidato aparece recibiendo un soborno. No importa si es falso: para muchos, solo confirma lo que “ya sabían”. La veracidad es secundaria. Lo esencial es que encaje en la narrativa previa. El sesgo de confirmación se refuerza con tecnología de punta.

La mentira personalizada es el nuevo panóptico. No impone una verdad, sino miles de verdades a medida. Y en ese paisaje, la democracia se vuelve frágil. Porque sin hechos compartidos, el diálogo es imposible. Todo se vuelve guerra de relatos.

Conclusión: un nuevo contrato con la realidad

Veo 3 no es el problema. Es apenas un síntoma del nuevo régimen audiovisual que se impone: uno donde los sentidos son manipulables, los rostros falsificables y la verdad, programable.

El desafío no es detener la tecnología, sino redefinir el pacto de veracidad. Desde el derecho, desde el periodismo, desde la educación. Porque si ya no podemos creer en lo que vemos, el riesgo no es solo epistemológico: es democrático.

La pregunta ya no es “¿es esto real?”, sino “¿quién lo generó, por qué, y con qué intención?”

Y en esa pregunta, puede estar el último resquicio de libertad que nos quede.

Algunos ejemplos

Quien escribe se tomó la libertad de probar y experimentar con esta nueva herramienta de inteligencia artificial, para analizar sus capacidades y límites. Aquí les dejo algunas muestras de lo que se puede hacer hoy en día con apenas unas pocas palabras (considere estimado lector que no soy ningún experto en generación de contenido audiovisual, y que tan solo estaba probando).

  • Tomando mate cebado por un robot:
Tomando mate cebado por un robot
  • Pastoreando droidiovejas
Pastoreando droidiovejas
  • La trochita y los guanacos
La trochita y los guanacos
  • Pescando truchas robóticas
Pescando truchas robóticas
  • Peña
Peña