Google entrena IA con videos de YouTube—Lo que eso significa para los creadores

Un informante de Google reveló que la compañía entrena su generador de video AI Veo usando su catálogo de 20 mil millones de videos de YouTube, algo que muchos creadores desconocen.

“Siempre hemos utilizado contenido de YouTube para mejorar nuestros productos, y esto no ha cambiado con la llegada de la AI”, dijo un portavoz de YouTube a CNBC, confirmando que entrena modelos de AI con un subconjunto de videos de YouTube. “También reconocemos la necesidad de salvaguardias, por lo que hemos invertido en protecciones sólidas que permiten a los creadores proteger su imagen y semejanza en la era de la AI, algo que nos comprometemos a seguir haciendo.”

Esta noticia es alarmante para muchos creadores que, como muchos en la industria del entretenimiento, temen ser reemplazados por la AI. Si bien algunos han adoptado la tecnología y la incorporan en sus videos, la mayoría cree que disminuirá la calidad general del contenido y también reducirá sus ganancias.

No obstante, Google ha demostrado un nivel serio de compromiso para proteger a sus creadores contra la AI, y en abril brindó apoyo a la NO FAKES Act, un proyecto de ley que ilegalizaría la creación y difusión de deepfakes no autorizados de AI.

“Durante casi dos décadas, YouTube ha estado a la vanguardia de la gestión de derechos a gran escala, y entendemos la importancia de colaborar con socios para abordar estos problemas de manera proactiva”, dijo Leslie Miller, vicepresidenta de políticas públicas de YouTube. “Ahora, estamos aplicando esa experiencia y dedicación a la asociación para asegurar el despliegue responsable de herramientas innovadoras de AI.”

“Agradecemos a los senadores [Chris] Coons y [Marsha] Blackburn, y a las representantes [Maria] Salazar y [Madeleine] Dean, por su liderazgo en la NO FAKES Act, lo cual es consistente con nuestros esfuerzos continuos para proteger a creadores y espectadores, y refleja nuestro compromiso de dar forma a un futuro donde la AI se use de manera responsable”, continuó Miller.

Related: This Big Tech Company Supports Ban of Unauthorized AI Deepfakes

Los deepfakes han sido un problema para las celebridades durante mucho tiempo, y la AI solo ha exacerbado el problema. Estrellas como Scarlett Johnason, Taylor Swift y Katy Perry han sido blanco de ellos. La Primera Dama Melania Trump también ha mostrado un fuerte apoyo a un proyecto de ley similar, llamado Take It Down Act, que se enfoca específicamente en la pornografía deepfake.

“En el mundo actual impulsado por la AI, la amenaza de las violaciones de privacidad es alarmantemente alta”, dijo Trump. “A medida que las organizaciones aprovechan el poder de nuestros datos, el riesgo de acceso no autorizado y uso indebido de la información personal se intensifica. Debemos priorizar medidas de seguridad robustas y mantener estrictos estándares éticos para proteger la privacidad individual.”

“Esta legislación es esencial para abordar las crecientes preocupaciones relacionadas con la seguridad en línea, proteger los derechos individuales y promover un entorno digital más saludable”, añadió.

A medida que Google avanza en sus capacidades de AI, es de esperar que dé prioridad a sus creadores y les permita seguir produciendo su contenido independiente de alta calidad.

Read Next: Can Legislation Stop Deepfake Porn?


Watch THE CHOSEN: Episode 3.6: “Intensity in Tent City”
Quality: - Content: +3
Watch CORRINA, CORRINA
Quality: - Content: +1