NUEVA YORK – Una víctima adolescente de la divulgación de contenido sexualmente explícito no consensuado generado por Inteligencia Artificial -comúnmente llamado ‘deepfakes’- unió fuerzas con el representante demócrata por Nueva York Joe Morelle, en impulsar una ley que criminalizaría a nivel federal compartir dicho contenido.
Impulsan una ley federal contra el contenido sexualmente explícito generado por Inteligencia Artificial
Joe Morelle, representante demócrata por Nueva York, unió fuerzas con una víctima adolescente para impulsar una ley que criminalizaría a nivel federal los deepfakes, contenido sexualmente explícito no consensuado generado con Inteligencia Artificial.

Además, esta medida busca la creación de un derecho de acción privada para que las víctimas tengan la posibilidad de demandar a creadores y distribuidores de material aun bajo anonimato.
La víctima en este caso es una adolescente de Nueva Jersey, cuya imagen fue utilizada en un video pornográfico falso que se distribuyó en línea.
Ley busca sanciones federales a quienes compartan deepfakes o contenido sexualmente explícito generado por Intelifencia Artificial
Joe Morelle presentó en mayo la Ley de Prevención de Deepfakes de Imágenes Íntimas, que fue remitido al Comité Judicial de la Cámara de Representantes, en donde quedó estancado hasta el momento.
“Imagínate estar sentado en casa y que un amigo te comparta un video explícito que vio en línea. Miras con horror cuando te das cuenta que la persona en el video eres tú, o tu hija, esposa, hermana. Las imágenes parecen reales, pero no lo son; son el producto del uso de IA por parte de un individuo o grupo de individuos para crear la ilusión de que estás en la foto o video”, describió el representante.
El auge de la IA: sus herramientas y difusión
Se trata del primer esfuerzo a nivel federal que representaría una protección ante la expansión en el uso de la Inteligencia Artificial; las víctimas en el país están limitadas por leyes estatales al respecto.
Con el auge de la Inteligencia Artificial, se ha disparado también la producción e intercambio de deepfakes sexualmente explícitos no consensuados que suelen hacer uso de esta para colocar los rostros de las víctimas en imágenes o incluso videos pornográficos.
Es un hecho que también ha crecido la accesibilidad a herramientas que ayudan a crear este contenido, así como sitios web donde se comparte e incluso monetiza.
“Es tan fácil que los adolescentes pueden hacerlo. Todo lo que se necesita es una foto del anuario. Las imágenes son falsas, pero el impacto es muy real”, sostuvo Morelle.








