GitHub atento aos nudes
O GitHub removeu de seu banco códigos que serviam para tirar a roupa de mulheres em fotos. Eles eram derivados do DeepNude, aplicativo com a mesma finalidade, mas que foi tirado do ar por seu próprio criador no fim de junho. Uma reação da mídia e do público em geral motivaram diversas plataformas a tentar travar a disseminação de ferramentas similares.
Em entrevista à Motherboard, um porta-voz do GitHub garantiu que a equipe não monitora proativamente o conteúdo gerado pelos usuários, exceto quando há relatos de abuso. “Neste caso, desativamos porque viola nossa política de uso. Não toleramos o uso do GitHub para postar conteúdo obsceno e essa conduta é proibida nos nossos Termos de Serviço e Diretrizes da Comunidade”, explicou.
A parte que fala sobre isso é até maleável, considerando que a sexualidade faz parte da vida humana, nem tudo é obscenidade, mas há limites a serem respeitados. Sexualização e exploração de menores constam no texto como exemplo de atividades proibidas.
A ligação com o DeepNude ficou ainda mais evidente em alguns casos. O arquivo README de um deles avisava se tratar de uma reimplementação do código aberto da aplicação, por meio de engenharia reversa a partir do original. Outro informava que o repositório continha apenas o algoritmo de processamento, sem a interface.
Em junho, a Motherboard noticiou a existência do projeto que tirava a roupa de mulheres em fotos, usando Generative Adversarial Networks (GAN) para isso. O aplicativo era vendido para usuários de Windows ou Linux por 50 dólares. No dia seguinte seu criador já havia tirado do ar alegando, via Twitter, que não havia o objetivo de ganhar dinheiro com aquilo. "Certamente algumas cópias do DeepNude serão compartilhadas na web, mas não queremos ser aquele que as vende", garantiu.
De qualquer forma a ideia (e a lógica para fazer) já estava lançada e agora o trabalho é de repositórios como o GitHub.