¿Puedes creer lo que ves? Qué saber sobre la detección de deepfakes

¿A quién no le encantan los adorables videos de IA de bebés haciendo sincronización labial de “Pretty Little Baby” (RIP Connie Francis) o los videos ASMR de frutas de cristal siendo rebanadas con un cuchillo?

Pero como con cualquier tecnología, hay quienes usan la IA con propósitos no tan benignos. Por ejemplo, el año pasado un empresario fue engañado para pagar 25 millones de dólares al convencerse de que estaba en una conferencia telefónica con varios colegas y el supuesto Director Financiero. En realidad, todos eran impostores deepfake.

Luego, hay un aluvión de videos deepfake que difunden desinformación, haciendo más difícil distinguir qué es material generado por IA y qué es real.

“Durante esa brecha entre el momento en que ocurre un evento y el momento en que las autoridades o los medios tienen algún tipo de confirmación,” la Jefa de Investigación de Get Real, Emanuelle Saliba dijo, “ahí es donde estamos viendo que todo este contenido generado por IA comienza a propagarse, y antes de que sea desmentido, antes de que sea verificado, está ganando millones de visitas.”

Ella usó el ejemplo de un video de Israel bombardeando la prisión Evin de Irán. Aunque el ataque sí ocurrió, el video que llegó a varios medios de comunicación fue generado por IA.

“Algunos tienen señales claras de IA si se mira de cerca, pero son lo suficientemente realistas como para engañar a quienes se desplazan rápidamente,” Emilie Ikeda de NBC informó.

Para ayudar a combatir el aumento de formas engañosas e incluso a veces dañinas de material generado por IA, Google lanzó SynthID en 2023, que incrusta una marca de agua invisible en los medios generados por IA. Inicialmente disponible solo para imágenes, luego se expandió a texto, audio y video generados por IA.

Aunque es definitivamente un paso en la dirección correcta para ayudar a detectar los deepfakes, algunos advierten que la tecnología tiene limitaciones.

“Creo que debemos ser muy cuidadosos para asegurar que las marcas de agua sean robustas contra la manipulación y que no tengamos escenarios donde puedan ser falsificadas,” Peter Slattery, Ph.D., MIT FutureTech, dijo, quien investiga la IA y sus riesgos. “La capacidad de falsificar marcas de agua podría empeorar las cosas que no tener marcas de agua, ya que daría la ilusión de credibilidad.”

Related: AI Is Training on Images of Your Children

Mientras SynthID incrusta marcas de agua en el material generado por IA, la Coalition for Content Provenance and Authenticity (C2PA) marcará con marcas de agua el material auténtico que ayudará a los usuarios a rastrear los orígenes de varios contenidos.

“Esto es importante por dos razones. Primero, les da a los editores como la BBC la capacidad de compartir de manera transparente con nuestras audiencias lo que hacemos todos los días para ofrecer un gran periodismo,” la BBC escribió. “También nos permite marcar el contenido que se comparte en plataformas de terceros (como Facebook) para que las audiencias puedan confiar en que, cuando vean una pieza de contenido de la BBC, esta realmente proviene de la BBC.”

Aunque ningún sistema para combatir los deepfakes es a prueba de balas, se trata de mantenerse vigilante y consciente sobre el contenido que circula.

Como Saliba recordó a los espectadores, “Manténganse escépticos. Intenten verificar el contenido.”

Read Next: Christians More Suspicious of Artificial Intelligence, New Survey Reveals


Watch IT’S THE SMALL THINGS, CHARLIE BROWN
Quality: - Content: +2
Watch CINDERELLA
Quality: - Content: +1