Uma adolescente de Nova Jersey está processando um colega de classe por supostamente criar e compartilhar imagens pornográficas dela e de outros colegas geradas por IA.

Um colega de classe usou um “aplicativo ou site de IA” para alterar fotos da jovem de 15 anos, que é identificada apenas como Jane Doe por ser menor de idade, e de outras colegas da Westfield High School, de acordo com um processo federal. arquivado no Tribunal Distrital dos Estados Unidos, Distrito de Nova Jersey. As fotos foram inicialmente compartilhadas no Instagram.

Em todas as fotos, Jane Doe e as outras garotas estavam vestidas, mas o aplicativo de IA removeu digitalmente as roupas e criou novas imagens que fizeram as meninas aparecerem nuas. Seus rostos permaneceram facilmente identificáveis, disse o processo.

“Essas fotos nuas de Jane Doe e outras meninas menores são virtualmente indistinguíveis de fotos reais e inalteradas”, disse o processo.

O colega que supostamente fez as imagens compartilhou as fotos editadas com outros colegas e “possivelmente outros”, disse o processo, usando a Internet e o Snapchat para distribuí-las durante o verão de 2023. Empresa controladora do Snapchat, Fotodisse à CBS News que suas políticas proíbem o compartilhamento de tais imagens e que seu aplicativo não pode ser usado para criá-las.

“Temos tolerância zero com a exploração sexual de qualquer membro da nossa comunidade”, disse Snap em comunicado.

Jane Doe e sua família souberam das imagens em outubro de 2023, quando seus pais, que também não foram identificados na ação, foram contatados por sua escola secundária em Union County. O diretor assistente da escola disse que as autoridades estavam cientes das imagens e confirmaram que Jane Doe era uma “vítima”, disse o processo. De acordo com o diretor assistente, um aluno ligou para a secretaria da escola para alertar os funcionários sobre ter visto fotos de Jane Doe nua.

O pai do réu também procurou os pais de Jane Doe, de acordo com o processo. Os pais de Jane Doe “cooperaram imediatamente com uma investigação lançada pelo Departamento de Polícia de Westfield”, mas as acusações não foram feitas porque as informações coletadas pelos funcionários da escola não puderam ser usadas na investigação.

Além disso, o “réu e outras potenciais testemunhas não cooperaram, falaram ou forneceram acesso aos seus dispositivos eletrónicos às autoridades policiais”. A aplicação da lei não foi capaz de determinar até que ponto as fotos foram compartilhadas, ou garantir que as fotos foram excluídas e não foram compartilhadas posteriormente, disse o processo.

“Vítimas de pornografia infantil e não consensual em que seus rostos reais aparecem, incluindo Jane Doe, não são apenas prejudicadas e violadas pela criação de tais imagens, mas também são assombradas pelo resto de suas vidas por saberem que foram e provavelmente serão continuam a ser exploradas para a satisfação sexual de terceiros e que, na ausência de intervenção judicial, existe uma ameaça eterna de que tais imagens circulem no futuro”, afirma o processo.

Jane Doe “sofreu e continuará a sofrer danos psicológicos e de reputação substanciais” por causa das fotos, disse o processo, e ela lidou com “sofrimento emocional substancial, angústia mental, ansiedade, constrangimento, vergonha, humilhação” e “lesões e danos para o qual não há remédio adequado na lei” desde que tomei conhecimento das fotos.

O processo pedia que Jane Doe recebesse indenização de US$ 150.000 por cada divulgação de uma imagem de nudez, danos compensatórios e punitivos a serem determinados no julgamento e uma ordem de restrição temporária ou liminar impedindo o réu de compartilhar as imagens ou divulgar a identidade de Jane Doe. e sua família. O réu seria obrigado a transferir todas as imagens para Jane Doe e, em seguida, excluir e destruir permanentemente todas as cópias das imagens.

Shane Vogt, advogado que representa Jane Doe, disse à CBS News que espera que o caso “seja bem-sucedido e demonstre que há algo que as vítimas podem fazer para se protegerem da epidemia de pornografia de IA”.

Vários estados aprovaram leis para tentar combater a propagação de Imagens pornográficas geradas por IA e criminalizar as imagens – como seu uso disparou. Em Nova Jersey, está em andamento um projeto de lei para proibir pornografia falsa e impor multa, prisão ou ambos a quem compartilhar as imagens alteradas. O presidente Joe Biden compartilhou uma ordem executiva em outubro, que pedia a proibição do uso de IA generativa para produzir material de abuso sexual infantil ou pornografia não consensual.

Fuente