A fines de marzo de 2025, miles de imágenes con el inconfundible estilo del Studio Ghibli saturaron las redes sociales. Usuarios de todo el mundo transformaron sus fotografías personales en ilustraciones que parecían escenas salidas de películas como Mi vecino Totoro, El viaje de Chihiro y El chico y la garza.
Este fenómeno no se limitó a usuarios particulares: gobiernos y fuerzas armadas de varios países también se sumaron a la tendencia. La Casa Blanca, por ejemplo, compartió una imagen con estética Ghibli en la que se veía a Virginia Basora González, una mujer dominicana indocumentada, siendo arrestada por agentes de inmigración. El Ejército de Israel, por su parte, publicó en su cuenta oficial de X una ilustración del mismo estilo en la que aparecía un soldado cargando a un niño, en plena zona de conflicto. Ambos casos desataron críticas por el uso de este tipo de recursos en contextos sensibles.
Este fenómeno viral explotó gracias a una nueva función de ChatGPT-4o que permite crear imágenes simplemente describiendo una escena o subiendo una foto para reinterpretarla en diferentes estilos artísticos. Mientras estas ilustraciones nostálgicas siguen copando las redes, artistas y especialistas discuten sobre autoría, derechos y ética, perdiendo de vista un riesgo todavía más preocupante.
Y es que ChatGPT-4o no solo genera ilustraciones, sino también fotografías imposibles de distinguir de escenas reales. Esta capacidad de producir imágenes hiperrealistas a partir de simples frases abre la puerta a un peligro enorme: su uso masivo para fabricar noticias falsas, confundir a la gente y erosionar todavía más la confianza en todo lo que vemos en internet.
Hasta hace poco, las fotos intervenidas por inteligencia artificial eran dominio de usuarios avanzados, de artistas digitales o de quienes dedican tiempo a probar prompts, herramientas y plataformas. Eso se terminó.
Con la integración de la generación de imágenes directamente en ChatGPT, a través de su modelo GPT-4o, OpenAI convirtió lo que era un experimento en una experiencia masiva. La posibilidad de transformar una simple foto en una ilustración con estilo definid –hiperrealista, caricaturesco, pictórico o incluso animado– está a un clic, integrada en el mismo lugar donde millones ya escriben correos, redactan informes o hacen tareas escolares.
Según Sam Altman, CEO de OpenAI, un millón de personas se registraron en ChatGPT en solo 60 minutos después de que la empresa lanzara su función viral de generación de imágenes. La actualización permite tanto a usuarios pagos como gratuitos (con ciertas restricciones) convertir fotos en ilustraciones o crear imágenes de cero con una simple instrucción de voz o texto.
La herramienta, pensada para simplificar el acceso a representaciones visuales complejas, tiene aplicaciones prácticas inmediatas: desde generar imágenes de apariencia inquietantemente real para redes sociales, logos y presentaciones, anuncios, hasta diseñar logos o productos completos.
Durante más de un siglo, la fotografía se consideró una prueba confiable de eventos pasados. Sin embargo, con la inteligencia artificial capaz de crear imágenes indistinguibles de las reales, esta confianza se ve seriamente comprometida. Esta transformación no solo plantea desafíos en la lucha contra la desinformación, sino que también afecta ámbitos legales y culturales.
La facilidad para crear deepfakes complica la verificación de pruebas visuales en procesos judiciales y, en publicidad y medios, desdibuja la línea entre lo auténtico y lo fabricado. Como señala un informe de Reuters, “a medida que se vuelve más difícil autenticar la veracidad de dichas pruebas, los deepfakes pueden socavar la fiabilidad del material audiovisual en los procedimientos legales’.
Estas reproducciones hiperrealistas generadas por inteligencia artificial circulan en internet desde hace años, sobre todo en contenidos pornográficos y de desinformación. Lo que cambió recientemente es que dejaron de ser una herramienta exclusiva de expertos o desarrolladores: ahora están al alcance de todos. Hoy, con un simple prompt, o instrucción de texto o audio, cualquier persona puede generar una imagen falsa que imita con precisión un rostro o una escena.
A partir de ahora, el superpoder de crear lo que nunca existió está disponible para todos.
La calidad visual que hoy despliega la nueva herramienta de ChatGPT-4o no responde a un simple ajuste en la app: es el desenlace de un desarrollo sostenido, silencioso y deliberado. Según explican en OpenAI, durante un año completo más de cien personas revisaron individualmente las imágenes generadas por la inteligencia artificial.
“Corregimos manos deformadas, rostros desfigurados y otros detalles incoherentes”, explicó Gabriel Goh, investigador principal del proyecto.
Esa intervención humana continua, conocida como “aprendizaje reforzado con retroalimentación”, permitió afinar el sistema hasta que logró interpretar con mayor precisión lo que una persona solicita y traducirlo en imágenes más verosímiles. “El modelo base ya es inteligente a su manera”, explica Goh, “y luego el proceso de aprendizaje por refuerzo con retroalimentación humana saca a la luz esa inteligencia y la perfecciona”.
La nueva herramienta reemplazó a Dall·E 3 como generador visual predeterminado en ChatGPT. A diferencia de las versiones anteriores, ahora es capaz de crear imágenes con texto legible, fondos transparentes, logos y piezas gráficas listas para usar. No se trata de un accesorio para diseñadores: es una función integrada, disponible también para usuarios gratuitos, y pensada para cualquier persona que escriba una instrucción, sin necesidad de conocimientos técnicos.
La estrategia de OpenAI fue entrenar esta nueva versión con una mezcla de datos públicos y contenido licenciado de plataformas como Shutterstock. El argumento oficial es claro: “Respetamos los derechos de los artistas”, dijeron desde la empresa. Pero las implicancias son más complejas. La herramienta no copia obras específicas, pero sí reproduce estilos, estructuras y decisiones estéticas aprendidas de miles de imágenes previas. Lo que antes era inspiración, ahora se vuelve replicación instantánea.
Con más de 400 millones de usuarios semanales, cada ajuste en su funcionamiento tiene un efecto directo en la cultura visual global. La generación de imágenes ya no se limita a la industria creativa: se extiende a particulares, empresas y gobiernos que, con solo escribir una frase, pueden producir fotos perfectas, listas para circular.
En ese nuevo escenario, la idea de la imagen como representación de la realidad empieza a desdibujarse. Ya no se trata solo de estilo, sino de verosimilitud: imágenes capaces de instalar una versión creíble de lo que no fue. En ese punto, la pregunta se vuelve inevitable: ¿cómo será vivir en un mundo en el que todos podemos sacar fotos de lo que nunca existió?