Esta práctica es considerada una forma de violencia de género digital, ya que las imágenes generadas afectan la dignidad de las personas y pueden ser utilizadas para dañar su integridad, reputación y dignidad.
26 de abril 2024, 21:08hs
Las capturas de pantallas de la promoción, que dieron la vuelta al mundo y se viralizaron, mostraban una foto de Kim Kardashian y la leyenda “Desnuda a cualquier mujer gratis. Inténtalo”.
Leé también: Preocupa el crecimiento del uso de deepfakes de famosas en sitios de videos para adultos
Otra de las stories que muchos usuarios de Instagram lograron capturar comparaba la imagen de una chica muy joven vestida con una versión de la misma muchacha desnuda, realizada con un software basado en IA.
Los deepfake como abuso sexual digital
Los deepfakes son un tipo de contenido multimedia generado por algoritmos de aprendizaje automático que pueden reemplazar el rostro, la voz, o incluso el cuerpo de una persona, insertarlo en un clip de video y hacerlo actuar o interactuar de acuerdo a lo que desee quien lo programa.
Esto se logra mediante la recopilación de datos de imágenes y videos de la persona a ser sustituida y luego se utiliza para entrenar el modelo de inteligencia artificial. Una vez que el modelo está entrenado, se puede superponer el rostro de la persona en el cuerpo de otra, en un video, o crear diálogos que parezcan auténticos, pero que, en realidad, son generados por la IA.
Leé también: Abuso sexual digital: “Pusieron mi cara en un video porno usando tecnología deepfake”
Estos videos manipulados, que utilizan la tecnología de generación de imágenes para reemplazar la cara y la voz de una persona con el cuerpo de otra, encontraron un inquietante nicho de mercado en la industria de entretenimiento para adultos.
Pero, de la misma manera que la pornovenganza -la publicación en redes sociales de fotos íntimas de exparejas- la pornografía deepfake se considera abuso sexual digital, basado en imágenes, un término que abarca la toma, la creación y/o el intercambio de fotos íntimas sin consentimiento.
La app generó una ola de indignación, ya que Instagram no solo no prohíbe explíticamente las herramientas de este tipo, sino que muchas veces son promocionas activamente entre los usuarios. Pero en este caso, esta aplicación van en contra de las propias políticas de plataformas de Meta, empresa a la que pertenece Instagram.
Por esa razón, Instagram y Facebook dieron de baja esos anuncios y eliminaron todas esas publicidades que invitaban a los usuarios a desnudar mujeres, que generaban imágenes fake de manera virtual, digital y con inteligencia digital, sin su consentimiento.
¿Querés recibir más información de Tecno?
Suscribite acáFuente: tn.com.ar