El gran saqueo digital: cómo las IA de vídeo aprendieron del mundo sin pedir permiso
El gran saqueo digital: cómo las IA de vídeo aprendieron del mundo sin pedir permiso

Una plaza cualquiera. Turistas, un camarero que esquiva mesas, una bicicleta cruzando el fondo o un periodista frente a cámara. Escenas cotidianas, captadas por millones de vídeos en la red, que hoy las inteligencias artificiales pueden recrear en segundos. Lo asombroso es la fidelidad; lo inquietante, la pregunta que se esconde detrás: ¿de dónde aprendieron a imitar tan bien la realidad?

Según una investigación de The Atlantic, gran parte de ese aprendizaje proviene de millones de vídeos extraídos de plataformas como YouTube, sin consentimiento claro de sus creadores. Es el nuevo rostro de un viejo dilema: el progreso tecnológico avanzando más rápido que la ética y la ley.

En apenas dos años, la euforia por la IA generativa ha pasado de simples demostraciones experimentales a modelos capaces de producir vídeos casi indistinguibles de los reales. Mientras el mundo aplaudía el milagro técnico, pocos preguntaban por la procedencia de los datos que lo hicieron posible. OpenAI, por ejemplo, asegura que su modelo Sora se entrena con material “disponible públicamente”, aunque sin especificar de dónde proviene.

La investigación de The Atlantic ofrece una pista reveladora: más de 15 millones de vídeos habrían sido recopilados para entrenar estos sistemas, muchos de ellos procedentes directamente de YouTube. Entre el material figuran no solo grabaciones anónimas, sino también contenidos informativos y producciones profesionales de medios como The New York Times, BBC, The Guardian, The Washington Post o Al Jazeera. Es decir, una porción considerable del periodismo audiovisual del planeta habría terminado alimentando a las máquinas sin un acuerdo previo.

Entre las empresas señaladas aparece Runway, una de las más influyentes en el auge del vídeo generativo. Sus modelos, según los documentos revisados, habrían aprendido a partir de clips cuidadosamente organizados: entrevistas, escenas de cocina, explicativos, reportajes o planos recurso. La lógica es sencilla: para recrear lo humano, las IA necesitan observar lo humano. Pero lo que antes era observación ahora roza la apropiación.

El caso de YouTube marca un punto crítico. Su normativa prohíbe descargar vídeos con fines de entrenamiento y su propio CEO, Neal Mohan, ha reiterado que el contenido solo puede usarse dentro de los límites del servicio. La aparición de millones de vídeos en bases de datos para IA deja en evidencia una grieta en el sistema: la distancia entre las reglas digitales y la práctica real del aprendizaje automático.

Frente a ello, el sector mediático se ha dividido entre la negociación y la confrontación. Algunos grupos, como Vox Media o Prisa, han optado por firmar acuerdos que les permitan licenciar contenido y garantizar compensación. Otros, como The New York Times, han decidido ir a los tribunales, defendiendo el principio de que la innovación no puede construirse sobre la explotación del trabajo ajeno.

El terreno legal sigue siendo una zona gris. Las leyes actuales no fueron pensadas para máquinas que procesan millones de vídeos en segundos. ¿Publicar algo en abierto equivale a ceder sus derechos? Para los medios y creadores, la respuesta es no; para las empresas de IA, es un sí implícito en nombre del progreso. Entre ambos extremos, la discusión se vuelve una cuestión política, ética y cultural.

El debate que se abre ahora no trata solo de tecnología, sino de propiedad, consentimiento y justicia. Las IA de vídeo están aprendiendo a ver el mundo, pero lo hacen con nuestros ojos, nuestras voces y nuestras historias. Lo que está en juego no es solo el futuro del contenido digital, sino quién lo controla, quién se beneficia y, sobre todo, quién tiene derecho a decir que no.

Este artículo fue publicado originalmente en Xataka y está protegido por derechos de autor. Todos los derechos reservados a Xataka. Puedes consultar el artículo original en su (https://www.xataka.com/)