¿Esta nueva característica de Apple mantendrá a su hijo seguro de la explotación?

Mientras Apple continúa su trabajo para proteger a los niños del contenido inapropiado, el fabricante de iPhone ha introducido ahora una configuración que pausará automáticamente un video de FaceTime si detecta desnudez a través de la aplicación.

“Detecta fotos y videos de desnudos antes de que se vean en tu dispositivo y recibe orientación para ayudarte a tomar una decisión segura”, reza la descripción de la configuración, según Engadget. “Apple no tiene acceso a fotos o videos”.

La configuración está activada por defecto para las cuentas infantiles y se puede activar o desactivar en todos los dispositivos a través de la configuración de FaceTime, bajo la pestaña “Advertencia de Contenido Sensible”. La nueva configuración solo está disponible para los usuarios actualizados a iOS 26 y posteriores.

“Si tu hijo recibe o intenta enviar fotos o videos que puedan contener desnudez, Seguridad en la Comunicación les advierte, les da opciones para mantenerse seguros y proporciona recursos útiles”, explica Apple en su sitio web. “Seguridad en la Comunicación utiliza el aprendizaje en el dispositivo para analizar los archivos adjuntos de fotos y videos y determinar si una foto o un video parece contener desnudez. Debido a que las fotos y los videos se analizan en el dispositivo de tu hijo, Apple no recibe ninguna indicación de que se haya detectado desnudez y, como resultado, no tiene acceso a las fotos o videos”.

Esta nueva configuración llega mientras Apple se enfoca más en proteger a los niños y usuarios sensibles del contenido inapropiado. En abril de 2022, la compañía comenzó a desenfocar la desnudez encontrada en las aplicaciones de Mensajes de los niños. Esta nueva configuración para FaceTime, y sus futuras expansiones, probablemente responden al aumento del material de abuso sexual infantil autogenerado, ya que los depredadores han comenzado a atacar a los niños en línea para explotar su sexualidad.

Un informe de 2020 encontró que la cantidad de material de abuso sexual infantil compartido por niños de 9 a 12 años se duplicó con creces durante la pandemia. El Centro Nacional sobre Explotación Sexual (NCOSE) incluyó a Apple en su lista Dirty Dozen en 2023 y 2024 porque continuó permitiendo este comportamiento depredador.

Related: Apple Launches Safety Feature That Blurs iMessage Nudity

NCOSE sostiene que Apple sigue permitiendo la explotación sexual al no hacer lo suficiente para proteger a los menores y también al permitir que los usuarios jóvenes descarguen aplicaciones inapropiadas que aumentan su riesgo de ser abusados.

Mientras tanto, las aplicaciones de terceros han hecho sus experiencias más seguras para los niños, como Google, que introdujo un desenfoque de desnudez en su motor de búsqueda en 2023. La función se aplica automáticamente a los usuarios menores de 18 años y no se puede cambiar sin la aprobación de un padre o administrador.

Aunque el material de abuso sexual infantil sigue siendo un problema importante en las vías tecnológicas actuales, es alentador que las empresas a cargo sigan introduciendo nuevas funciones para ayudar a detener el problema.

Read Next: Google Introduces Blur Feature That Blocks Explicit Images from Search Results


Watch UNSUNG HERO
Quality: - Content: +1
Watch SNEAKERELLA
Quality: - Content: +1