quinta-feira, 5 de março de 2020

Operadores do Direito terão de aprender a lidar com provas "deepfakes".


Depois de a Justiça enfrentar a disseminação de notícias fraudulentas (fake news) que, entre outras coisas, rendeu ao TSE um “Prêmio Innovare” por seu “Projeto de Enfrentamento à Desinformação”, os operadores do Direito terão de aprender a lidar com um problema mais complexo, por seu componente tecnológico: as provas oriundas de “deepfakes”.
Para simplificar, “deepfake” se refere a vídeos fraudulentos – e também a áudios fraudulentos. “Deepfake” é uma fusão das palavras “deep learning” (aprendizagem profunda) e “fake” (fraudulento ou falsificado).
A parte da aprendizagem profunda entra na história porque os falsificadores usam essa tecnologia, facilitada pela inteligência artificial, para trocar, por exemplo, o rosto de uma pessoa, na gravação original, pelo rosto de outra pessoa que querem prejudicar. Ou a voz de uma pessoa pela de outra.
Exemplos mais frequentes nos Estados Unidos foram citados na conferência “ABA Techshow” da American Bar Association (ABA). O mais comum é o da substituição do rosto de uma atriz pornô, em um vídeo pornográfico, pelo rosto de uma ex-namorada ou ex-mulher. Quase todos os casos se encaixam na definição de pornografia de vingança.
Outro exemplo é o da troca do rosto e da voz de políticos para prejudicá-los em campanhas eleitorais ou por qualquer outro motivo. Celebridades e empresários também são vítimas costumeiras. Mas, enfim, qualquer pessoa pode ser vítima de vídeos e áudios fraudulentos.
A produção de “deepfakes” não é novidade, porque eles já estão na praça há algum tempo. Mas, o que preocupa no momento, é que os operadores de Direito não estão preparados para distinguir o que é verdadeiro do que é fraudulento — e provar. Afinal, a manipulação das provas é muito bem feita, graças à inteligência artificial.
Uma conclusão dos participantes da conferência, intitulada “Pílula vermelha vs. pílula azul: como deepfakes estão definindo a realidade digital”, foi a de que a justiça tem “um problema enorme” pela frente.
A palestrante Sharon Nelson, da empresa de tecnologia Sensei Enterprises, disse que a maioria dos vídeos fraudulentos afetam as mulheres. Elas são vítimas de 96% dos casos, segundo um relatório da empresa Deeptrace, que está desenvolvendo ferramentais para desmascarar conteúdo fraudulento. A Universidade da Califórnia em Berkeley e a Google também estão desenvolvendo ferramentas semelhantes.
Os estados de Virgínia e Califórnia já aprovaram leis contra “deepfakes”, ela disse. “Mas é preciso fazer muito mais para impedir que as imagens das pessoas sejam usadas sem consentimento”, afirmou.
A palestrante citou dois casos em que “deepfakes” foram usados com sucesso. No Reino Unido, um executivo enviou 220 mil euros a alguém que ele pensou ser o dirigente da empresa controladora. Os fraudadores usaram um áudio fraudulento para enganá-lo.
Nos EUA, um áudio fraudulento foi usado em corte, em uma disputa por guarda dos filhos. No áudio, o pai fazia ameaças à mãe. Ela havia manipulado o áudio, usando um aplicativo barato. Isso mostrou que não é preciso ser um nerd da informática para manipular áudios.
Fonte: Conjur.


Nenhum comentário:

Postar um comentário