Sora de OpenAI afirma seguridad contra DEEPFAKE — ¿Pero podrá cumplir?

Sora, la nueva aplicación de generación de video de OpenAI, se suma al creciente problema de los videos “deepfake”.

“La industria de la IA parece moverse muy rápido, y ser el primero en llegar al mercado parece ser la moneda de cambio del día (ciertamente por encima de un enfoque contemplativo y ético)”, dijo a NPR Kristelia García, profesora de derecho de propiedad intelectual en Georgetown Law. 

Señaló la reciente queja del patrimonio del Dr. Martin Luther King Jr. después de que comenzaran a circular videos deepfake del líder de los derechos civiles, diciendo que OpenAI tiene una política de “pedir perdón, no permiso” cuando se trata de usar imágenes y voces reales de otras personas.

OpenAI emitió un comunicado diciendo que están trabajando con el patrimonio del Dr. King para “abordar cómo la imagen del Dr. Martin Luther King Jr. se representa en las generaciones de Sora”, añadiendo, “a petición de King, Inc., OpenAI ha pausado las generaciones que representan al Dr. King mientras fortalece las salvaguardas para figuras históricas”.

Related: Here’s What You Need to Know About Deepfake AI Videos

 

OpenAI prometió que Sora tiene salvaguardas contra la suplantación de identidad, pero Reality Defencer, una empresa especializada en identificar deepfakes, dijo a Time que pudieron sortear esas salvaguardas en 24 horas, y que “cualquier estudiante inteligente de 10º grado” podría hacer lo mismo. 

Ben Colman, CEO de Reality Defender, dijo que las salvaguardas prometidas dan a los usuarios una “sensación plausible de seguridad”, a pesar de que “cualquiera puede usar herramientas completamente disponibles en el mercado” para hacer pasar videos falsificados como si fueran reales. 

“Las plataformas saben absolutamente que esto está sucediendo, y saben absolutamente que podrían resolverlo si quisieran”, dijo Colman. “Pero hasta que las regulaciones se pongan al día —estamos viendo lo mismo en todas las plataformas de redes sociales— no harán nada”.

Un portavoz de OpenAI respondió a las afirmaciones de Reality Defender, diciendo: “Los investigadores construyeron un sistema sofisticado de deepfakes de directores ejecutivos y artistas para intentar eludir esas protecciones, y estamos fortaleciendo continuamente Sora para hacerlo más resistente contra este tipo de uso indebido”. 

OpenAI y Sora han enfatizado su compromiso de combatir los deepfakes y “responder diligentemente a cualquier queja que puedan recibir”.

“OpenAI está profundamente comprometido a proteger a los artistas de la apropiación indebida de su voz e imagen”, dijo en un comunicado Sam Altman, CEO de OpenAI. “Fuimos un apoyo temprano de la NO FAKES Act cuando se presentó el año pasado, y siempre respaldaremos los derechos de los artistas”.

Aunque muchos usuarios de IA están entusiasmados por empezar a usar Sora, los hallazgos de Reality Defender son una advertencia de que la aplicación de generación de video no es tan segura como afirma OpenAI.

Read Next: Could This New Bill End AI’s Use of Copyrighted Material?

Watch GLORY ROAD
Quality: – Content: +1

Watch SOUL SURFER
Quality: – Content: +4