A medida que los videos generados por IA se vuelven cada vez más realistas, muchas personas ahora tienen dificultades para diferenciar entre lo que es real y lo que no; esto es un problema importante, especialmente con la facilidad de compartir videos en las redes sociales.
“Veremos a gente confiada siendo víctima de todo tipo de estafas, grandes y poderosas empresas ejerciendo presiones coercitivas y actores nefastos socavando los procesos democráticos”, Liam Mayes, profesor del programa de estudios de medios de la Rice University, predice a medida que la tecnología mejora aún más en la producción de fotos y videos realistas. “Podríamos ver cómo la confianza en todo tipo de establecimientos e instituciones mediáticas se erosiona”.
Desde que OpenAI lanzó su herramienta de generación de videos Sora 2 –el servicio de generación de videos por IA más potente disponible de forma gratuita– el 30 de septiembre, la gente la ha utilizado para generar toneladas de videos engañosos sobre figuras históricas. Algunos videos generados por Sora 2 compartidos en redes sociales incluyen a Carrie Fisher haciendo equilibrio en una cuerda floja y a Marilyn Monroe enseñando a niños escolares vietnamitas.
Related: AI Deepfakes Impersonate High-Ranking Official—Here’s What You Need to Know
Si bien estos ejemplos son inofensivos, apuntan a un caso de uso más peligroso donde actores malintencionados podrían emplear la tecnología para engañar a las personas sobre temas importantes. Antes de las elecciones de 2024, muchos expertos en seguridad estaban preocupados de que el contenido generado por IA desempeñara un papel importante en la propagación de desinformación sobre las elecciones. Afortunadamente, la tecnología aún no estaba a un nivel en el que pudiera convencer regularmente a la persona promedio, pero algunas campañas de desinformación tuvieron éxito gracias a la tecnología emergente.
I concur concerning my father.
Please stop. #RobinWilliams #MLK #AI https://t.co/SImVIP30iN— Be A King (@BerniceKing) October 7, 2025
Menos de una semana antes de las primarias de New Hampshire, por ejemplo, 20,000 residentes recibieron una llamada telefónica generada por IA que pretendía sonar como Joe Biden, desalentándolos a presentarse en las urnas.
Más recientemente, la voz del Secretario de Estado Marco Rubio fue utilizada en un intento de llamar a altos funcionarios gubernamentales y extraerles información gubernamental sensible.
“El actor dejó mensajes de voz en Signal para al menos dos individuos objetivo y, en una instancia, envió un mensaje de texto invitando al individuo a comunicarse por Signal”, dijo el Departamento de Estado, agregando que múltiples otros funcionarios gubernamentales también fueron suplantados a través de correo electrónico.
Si bien el Congreso está trabajando para crear legislación sobre la IA y cómo puede utilizarse, recae en gran medida en las corporaciones que crean la tecnología asegurarse de que no dañe a nuestra sociedad. OpenAI ha incorporado múltiples mecanismos de seguridad para distinguir cuándo un video fue hecho usando Sora 2, incluyendo marcas de agua visibles y metadatos que pueden exponer un video como un deepfake. La compañía también planea crear un sistema donde las personas puedan optar por no tener su imagen creada por la herramienta.
No obstante, la creación de esta tecnología abre la puerta a un uso indebido extremo que podría tener graves consecuencias para el futuro. Esperemos que OpenAI y las otras compañías de IA tomen la seguridad en serio mientras el Congreso trabaja en la aprobación de leyes para responsabilizar a quienes actúan con ligereza con las herramientas de generación de IA.
Read Next: Can You Believe Your Eyes? What to Know About Detecting Deepfakes