En esta noticia

Meta finalmente puso a su comisión de supervisión a analizar uno de sus problemas más polémicos. La dueña de Facebook e Instagram decidirá qué hacer con las imágenes pornográficas generadas por inteligencia artificial haciéndose pasar por celebridades en sus plataformas.

La comisión investigará dos instancias específicas, incluyendo la de una "figura pública estadounidense". La compañía dio descripciones de las imágenes y no nombró a la celebridad para "prevenir más daños".

Cuáles son los casos de pornografía deepfake investigados por Meta

Según la comisión, uno de los casos involucra una imagen generada por inteligencia artificial de una mujer desnuda que se parecía a una figura pública de India. Fue publicada por una cuenta de Instagram que solo sube este tipo de imágenes.

La otra, apareció en un grupo de Facebook donde comparten creaciones con IA. La foto en cuestión mostraba a una mujer desnuda "parecida a una figura pública estadounidense" con un hombre tocándola.

En los últimos meses, se viralizaron los casos de famosas como Taylor Swift o Alexandria Ocasio-Cortez siendo víctimas de este tipo de pornografía apócrifa.

La comisión, que opera de manera independiente a Meta, usará estos ejemplos para analizar la efectividad de las políticas y acciones de la compañía en este tópico.

Estados Unidos debate si la pornografía deepfake es legal

Este tipo de imágenes fueron declaradas ilegales en Texas, Minnesota, Nueva York, Hawai y Georgia. Aun así, estas legislaciones han tenido poco efecto y en otros estados, como Nueva Jersey o Florida, han afectado a colegios secundarios.

Los diputados Joseph Morelle y Tom Kean presentaron una ley para hacer estas imágenes un delito federal. La "ley de prevención de deepfakes de imágenes íntimas" está en el comité Comité Judicial de la Cámara de Representantes, pero aún no se ha tomado una decisión al respecto.