Inteligência artificial cria vídeos pornográficos falsos com celebridades

Sim, uma espécie de inteligência artificial está sendo “treinada” para fazer vídeos pornográficos falsos com celebridades. Cada passeio na internet já é uma incógnita. Podemos voltar com conhecimentos novos e um sorriso no rosto. Mas há a possibilidade de fecharmos o celular ou computador com menos fé na humanidade.

A novidade nem um pouco animadora foi revelada pelo site “Motherboard”. Na denúncia, os autores falam sobre um bate-papo no Reddit. Lá, desenvolvedores discutiam a evolução nas técnicas de deepfake. O termo é usado para se referir a montagens feitas em vídeos e fotos.

Inteligência artificial aplicada nos Deepfakes

As montagens que criam vídeos pornográficos falsos com celebridades não são novidades. Mas antes elas eram facilmente notadas como edições. As que eram mais elaboradas demandavam tempo e habilidade do editor. Com a novidade, por outro lado, qualquer pessoa poderá fazer os tais vídeos. E usando qualquer famoso que tenha muitas fotos disponíveis na internet.

inteligência artificial deepfake
Esta não é a atriz Daisy Ridley de verdade. É uma montagem perfeita

A facilidade que isso traz é preocupante. Estamos a um passo de uma evolução ainda mais perigosa da ferramenta. Futuramente, pessoas anônimas também poderão se tornar vítimas dos deepfakes.

O termo “deepfake”, em tradução livre, viria para nosso linguajar como algo falso, e profundamente detalhado. É exatamente o que a inteligência artificial está fazendo. Ou seja, cria automaticamente os vídeos falsos e bem detalhados.

Mais uma inteligência artificial do mal

Quando falo em “do mal”, não me refiro a vida real, mas a cultura pop. Com a Skynet, HAL 9000 e outras, sabemos que uma inteligência artificial é algo assustador, se sair do controle. E corremos o risco de isso acontecer.

Leia também:

10 melhores filmes da década segundo críticos

10 desafios mais perigosos da internet

Holanda é primeiro país sem cães de rua

Com mais alguns meses de evolução, e nas mãos de uma pessoa ruim, portanto, os aplicativos causariam tragédias. Sabemos o quanto aumentaram os números de suicídios de pessoas vítimas do chamado “pornô de vingança”. Isso acontece quando alguém divulga um vídeo íntimo de uma pessoa para se vingar dela. Seja pelo fim de um relacionamento ou por outros motivos.

Com o tempo, mais pessoas se tornarão vítimas disso. Falando aqui parece um exagero, mas não é. Se hoje as pessoas já sofrem com a divulgação de seus vídeos, imagine se elas sequer tenham gravado um vídeo desses.

Mentes brilhantes usadas para o mal

Enfim, uma pessoa que tem a capacidade de desenvolver uma inteligência artificial que reconhece e organiza imagens. Sem contar que as monta e cria um material único e realista. Um desenvolvedor com habilidades assim poderia criar muitas coisas boas, mas o pessoal prefere fazer uma arma para causar o sofrimento alheio.

Bem, vamos explicar isso de forma mais rápida, divertida (se é que é possível) e simples a seguir. É só dar o play.

Leia mais