El pasado fin de semana, YouTube cerró definitivamente Screen Culture y KH Studio, canales con sede en India y Georgia que acumulaban más de 2 millones de suscriptores y mil millones de visualizaciones entre ambos. Llevaban meses fabricando trailers generados por IA tan convincentes que resultaban indistinguibles de los materiales promocionales oficiales. El fenómeno ha alcanzado proporciones epidémicas con 'Vengadores: Doomsday', donde la frontera entre lo auténtico y lo sintético se ha vuelto prácticamente indetectable.
Qué ha pasado. La estrategia de Marvel de proyectar cuatro teasers exclusivos de la película antes de 'Avatar: Fuego y ceniza' (uno cada semana, centrados en distintos personajes) ha creado el caldo de cultivo perfecto para la confusión. Sin distribución oficial online, cualquier usuario que quisiera verlos debía confiar en un ecosistema de filtraciones que, como afirma Kotaku, lleva años roto. Y en medio de ese vacío informativo, la IA generativa hizo su agosto: comenzaron a brotar de debajo de las piedras imágenes que mostraban a Doctor Doom como "clon de Stark", clips supuestamente filmados en cines y deepfakes de un refinamiento que engañaban al ojo más experto.
Cada vez más sofisticados. Un estudio publicado por Nature ya en 2024 reveló que más del 53% de humanos pueden ser engañados por vídeos alterados digitalmente, mientras que investigaciones académicas recientes hablan de que las herramientas de detección de deepfakes tienen dificultades para identificar manipulaciones fuera de sus datos de entrenamiento. Con este caldo de cultivo, es normal que cada vez haya más trailers e imágenes falsos, sumidos en una generación continua de contenido de este tipo: en redes sociales, el 71% de imágenes están generadas por IA. Y se estima que han sido publicadas desde 2023 más de 10.000 millones de páginas generadas por IA.
En Xataka
'Vengadores: Doomsday', todo lo que sabemos del próximo gran evento de Marvel
Marvel pre-slop. Lo paradójico de esta situación es que Marvel no necesitaba la intervención de la IA para convertirse en contenido sintético. Ya lo era. Cuando Martin Scorsese declaró en 2019 que las películas de Marvel no eran cine sino "parques temáticos" donde los actores lo hacían "lo mejor que podían bajo esas circunstancias", estaba hablando en realidad de que las franquicias habían reemplazado lo humano por lo algorítmico, que eran productos de ingeniería desprovistos del componente vivo que define al cine. Lo visionario del asunto: lo hizo antes de que ChatGPT entrara en nuestras vidas.
Todos sabemos cómo se hacen las películas de Marvel (y que han llevado primero a esa imagen de factoría despersonalizada de películas hechas en serie; y segundo, a la famosa "fatiga superheroica"), y encajan perfectamente con esa idea de "películas hechas por la IA antes de la IA": artistas de efectos cambiando terceros actos completos dos meses antes de los estrenos, películas rodadas en platós con inmensas pantallas verdes generando secuencias donde el 99% de lo que vemos es digital, propuestas distintas pero con decisiones narrativas (especialmente en sus tramos finales) completamente intercambiables...
El primer follón. Remontémonos a 'Spiderman: No Way Home' para analizar uno de los casos más llamativos de información y desinformación de este tipo, con el precedente directo de la IA generativa: los deepfakes. Durante meses circularon imágenes supuestamente filtradas de Tobey Maguire y Andrew Garfield en trajes de Spider-Man. Garfield negó repetidamente su participación, afirmando que el material era Photoshop. Luego un YouTuber publicó un video afirmando haber creado un deepfake del metraje filtrado, solo para después admitir que su vídeo era falso y el video original era real.
En Corridor Crew determinaron que sería "el deepfake más sofisticado jamás creado" si fuera falso. Sony aplicó copyright strikes contra las filtraciones, confirmación implícita de autenticidad. Resultado: los fans pasaron seis meses sin saber qué era real, pero lo difundieron de igual modo. Estudios sobre distintos fandoms revelan que la búsqueda de pertenencia impulsan la difusión de desinformación tanto como la de información legítima. Más caos: los algoritmos optimizan en base a la popularidad, más que por la calidad. Y las métricas de engagement pueden manipularse mediante comportamientos de naturaleza engañosa: bots, trolls organizados, redes de cuentas falsas...
En Xataka
Disney se tomó un año sabático del MCU. Con 'Capitán América: Brave New World' parece que no ha servido de nada
Un cacao. El resultado: un mercado de la atención donde fabricar contenido sintético sobre 'Vengadores: Doomsday' genera más adhesión, difusión y popularidad que molestarse en verificar su autenticidad. Pero la IA no creó este problema: solo lo aceleró hasta volverlo insostenible. Y eso que ni siquiera estamos hablando de temas "serios", vinculados a la política o la sociedad y donde ya entran en juego intereses reales para falsear el contenido, más allá de la mera diversión más o menos gamberra de difundir un trailer falso.
El cierre de la casa de los trailers falsos. El cierre de Screen Culture y KH Studio por parte de Youtube llega después de un conflicto que arrancó cuando en marzo ambos canales fueron desmonetizados. Para evitarlo, añadieron etiquetas como "fan trailer", "parodia" o "trailer conceptual" a sus títulos y recuperaron la monetización. Pero esas advertencias desaparecieron de nuevo, y llegaron a crear 23 versiones de trailers falsos de 'Los Cuatro Fantásticos', algunos de ellos superando a los vídeos oficiales en resultados de búsqueda.
Pero hubo una polémica adicional: en la investigación de Deadline sobre el tema se reveló que varios estudios, como Warner y Sony, habían solicitado secretamente a YouTube que los ingresos publicitarios de estos videos con IA rebotaran hacia ellos, lo que deja esto no en el terreno de la ética, sino del beneficio económico. YouTube toleró durante años la proliferación de contenido sintético, incluso permitiendo que los estudios monetizaran material que engañaba a su propio público, y solo se detuvo cuando Disney, propietaria de Marvel, envió una carta de cese y desistimiento a Google, propietaria de Youtube.
En Xataka | OpenAI y Disney han firmado un acuerdo para que puedas generar vídeos con IA de tus personajes favoritos. Es lo que necesitaba Sora
-
La noticia
Los trailers con IA de 'Vengadores: Doomsday' son indistinguibles de los reales. Al final, Scorsese tenía razón
fue publicada originalmente en
Xataka
por
John Tones
.
Los trailers con IA de 'Vengadores: Doomsday' son indistinguibles de los reales. Al final, Scorsese tenía razón
Los trailers falsos de Marvel nos comen, y no es nada raro: el cine de superhéroes ya predijo la estética basura de la IA
El pasado fin de semana, YouTube cerró definitivamente Screen Culture y KH Studio, canales con sede en India y Georgia que acumulaban más de 2 millones de suscriptores y mil millones de visualizaciones entre ambos. Llevaban meses fabricando trailers generados por IA tan convincentes que resultaban indistinguibles de los materiales promocionales oficiales. El fenómeno ha alcanzado proporciones epidémicas con 'Vengadores: Doomsday', donde la frontera entre lo auténtico y lo sintético se ha vuelto prácticamente indetectable.
Qué ha pasado. La estrategia de Marvel de proyectar cuatro teasers exclusivos de la película antes de 'Avatar: Fuego y ceniza' (uno cada semana, centrados en distintos personajes) ha creado el caldo de cultivo perfecto para la confusión. Sin distribución oficial online, cualquier usuario que quisiera verlos debía confiar en un ecosistema de filtraciones que, como afirma Kotaku, lleva años roto. Y en medio de ese vacío informativo, la IA generativa hizo su agosto: comenzaron a brotar de debajo de las piedras imágenes que mostraban a Doctor Doom como "clon de Stark", clips supuestamente filmados en cines y deepfakes de un refinamiento que engañaban al ojo más experto.
Cada vez más sofisticados. Un estudio publicado por Nature ya en 2024 reveló que más del 53% de humanos pueden ser engañados por vídeos alterados digitalmente, mientras que investigaciones académicas recientes hablan de que las herramientas de detección de deepfakes tienen dificultades para identificar manipulaciones fuera de sus datos de entrenamiento. Con este caldo de cultivo, es normal que cada vez haya más trailers e imágenes falsos, sumidos en una generación continua de contenido de este tipo: en redes sociales, el 71% de imágenes están generadas por IA. Y se estima que han sido publicadas desde 2023 más de 10.000 millones de páginas generadas por IA.
Marvel pre-slop. Lo paradójico de esta situación es que Marvel no necesitaba la intervención de la IA para convertirse en contenido sintético. Ya lo era. Cuando Martin Scorsese declaró en 2019 que las películas de Marvel no eran cine sino "parques temáticos" donde los actores lo hacían "lo mejor que podían bajo esas circunstancias", estaba hablando en realidad de que las franquicias habían reemplazado lo humano por lo algorítmico, que eran productos de ingeniería desprovistos del componente vivo que define al cine. Lo visionario del asunto: lo hizo antes de que ChatGPT entrara en nuestras vidas.
Todos sabemos cómo se hacen las películas de Marvel (y que han llevado primero a esa imagen de factoría despersonalizada de películas hechas en serie; y segundo, a la famosa "fatiga superheroica"), y encajan perfectamente con esa idea de "películas hechas por la IA antes de la IA": artistas de efectos cambiando terceros actos completos dos meses antes de los estrenos, películas rodadas en platós con inmensas pantallas verdes generando secuencias donde el 99% de lo que vemos es digital, propuestas distintas pero con decisiones narrativas (especialmente en sus tramos finales) completamente intercambiables...
El primer follón. Remontémonos a 'Spiderman: No Way Home' para analizar uno de los casos más llamativos de información y desinformación de este tipo, con el precedente directo de la IA generativa: los deepfakes. Durante meses circularon imágenes supuestamente filtradas de Tobey Maguire y Andrew Garfield en trajes de Spider-Man. Garfield negó repetidamente su participación, afirmando que el material era Photoshop. Luego un YouTuber publicó un video afirmando haber creado un deepfake del metraje filtrado, solo para después admitir que su vídeo era falso y el video original era real.
En Corridor Crew determinaron que sería "el deepfake más sofisticado jamás creado" si fuera falso. Sony aplicó copyright strikes contra las filtraciones, confirmación implícita de autenticidad. Resultado: los fans pasaron seis meses sin saber qué era real, pero lo difundieron de igual modo. Estudios sobre distintos fandoms revelan que la búsqueda de pertenencia impulsan la difusión de desinformación tanto como la de información legítima. Más caos: los algoritmos optimizan en base a la popularidad, más que por la calidad. Y las métricas de engagementpueden manipularse mediante comportamientos de naturaleza engañosa: bots, trolls organizados, redes de cuentas falsas...
Un cacao. El resultado: un mercado de la atención donde fabricar contenido sintético sobre 'Vengadores: Doomsday' genera más adhesión, difusión y popularidad que molestarse en verificar su autenticidad. Pero la IA no creó este problema: solo lo aceleró hasta volverlo insostenible. Y eso que ni siquiera estamos hablando de temas "serios", vinculados a la política o la sociedad y donde ya entran en juego intereses reales para falsear el contenido, más allá de la mera diversión más o menos gamberra de difundir un trailer falso.
El cierre de la casa de los trailers falsos. El cierre de Screen Culture y KH Studio por parte de Youtube llega después de un conflicto que arrancó cuando en marzo ambos canales fueron desmonetizados. Para evitarlo, añadieron etiquetas como "fan trailer", "parodia" o "trailer conceptual" a sus títulos y recuperaron la monetización. Pero esas advertencias desaparecieron de nuevo, y llegaron a crear 23 versiones de trailers falsos de 'Los Cuatro Fantásticos', algunos de ellos superando a los vídeos oficiales en resultados de búsqueda.
Pero hubo una polémica adicional: en la investigación de Deadline sobre el tema se reveló que varios estudios, como Warner y Sony, habían solicitado secretamente a YouTube que los ingresos publicitarios de estos videos con IA rebotaran hacia ellos, lo que deja esto no en el terreno de la ética, sino del beneficio económico. YouTube toleró durante años la proliferación de contenido sintético, incluso permitiendo que los estudios monetizaran material que engañaba a su propio público, y solo se detuvo cuando Disney, propietaria de Marvel, envió una carta de cese y desistimiento a Google, propietaria de Youtube.