Pornografia deepfake: é preciso criminalizar a criação e não só a partilha

A maioria das imagens falsas são de mulheres e foram criadas tanto por desconhecidos como por amigos. Os jovens também utilizam apps que transformam fotografias de colegas em nudes.

Foto
Oleg Ivanov/Unsplash
Ouça este artigo
00:00
05:49

Exclusivo Gostaria de Ouvir? Assine já

A pornografia deepfake — ou seja, utilizar a fotografia de alguém em imagens sexualmente explícitas com recurso a inteligência artificial (IA) — é assustadoramente comum. O site mais popular dedicado a estes conteúdos, normalmente criados e partilhados sem consentimento, recebe cerca de 17 milhões de acessos por mês. As imagens têm quase exclusivamente as mulheres como alvo. Além disto, tem havido um aumento exponencial de aplicações de nudez que transformam imagens comuns de mulheres e raparigas em nudes.

Os leitores são a força e a vida do jornal

O contributo do PÚBLICO para a vida democrática e cívica do país reside na força da relação que estabelece com os seus leitores.Para continuar a ler este artigo assine o PÚBLICO.Ligue - nos através do 808 200 095 ou envie-nos um email para assinaturas.online@publico.pt.