on
technology
Info
- Get link
- X
- Other Apps
Você já deve ter visto algum vídeo que realmente pensou que era real, mas não era: os deepfakes estão cada vez mais convincentes e usuários comuns podem ser facilmente enganados. Isso pode afetar eleições, relacionamentos e até investigações policiais, colocando todos em risco.
Enquanto isso, afirma o TechXplore, especialistas alertam que a popularização da inteligência artificial (IA) e do aprendizado de máquina acelera fraudes digitais, manipulando fotos, vídeos e áudios com eficiência inédita.
Deepfakes usam aprendizado de máquina para criar ou alterar vídeos, imagens e áudios, gerando sequências que parecem reais. A técnica ganhou força quando comunidades online começaram a trocar rostos em vídeos pornográficos e evoluiu rapidamente desde então.
Segundo o Dr. Richard Nock, líder do grupo de aprendizado de máquina da Data61, “é preciso um sistema de aprendizado de máquina para processar todas essas sequências de vídeo, com a máquina eventualmente aprendendo quem é a pessoa, como ela é representada, como se move e evolui no vídeo”.
Hoje, a mesma técnica vale para fotos, áudios e até pinturas. Com o volume de selfies, stories e gravações compartilhadas nas redes sociais, criar uma falsificação convincente se torna mais simples para quem possui conhecimento técnico e recursos.
Como grande parte das pessoas compartilha fotos, vídeos e áudios nas redes sociais, o terreno está pronto para manipulações. Filtros, como troca de gênero ou lentes de bebê, são usados por diversão, mas também servem de base para golpes sérios. O catfishing, por exemplo, já utiliza esses recursos para criar identidades falsas em apps de namoro.
Em um caso recente, um universitário de 20 anos se passou por uma adolescente usando um filtro e acabou ajudando a denunciar um homem que tentou marcar um encontro com a falsa identidade.
Políticos, celebridades e qualquer pessoa com forte presença nas redes viram alvos fáceis. Há até aplicativos que geram supostas fotos explícitas de mulheres a partir de simples selfies, algo que o Dr. Nock aponta como um dos usos mais abusivos da tecnologia.
Deepfakes já interferem na opinião pública. O vídeo manipulado da política Nancy Pelosi, amplamente viralizado, mostra como falsificações podem distorcer debates e minar a confiança na mídia. Segundo o Dr. Nock, a perda de credibilidade leva usuários a migrar para grupos fechados, onde opiniões se reforçam e fatos perdem espaço.
Leia mais:
As pessoas não confiam nas informações públicas que possuem, mas confiam mais nas informações privadas que obtêm das redes sociais.
Dr. Richard Nock, líder do grupo de aprendizado de máquina da Data61, em nota
O combate aos deepfakes avança em duas frentes. Tecnologias, como blockchain, podem reforçar a autenticação de arquivos, embora marcas d’água digitais sejam frágeis — qualquer alteração no arquivo original pode torná-las inúteis. Paralelamente, universidades, como UC Berkeley e USC, desenvolvem sistemas de detecção que identificam microexpressões e movimentos sutis, alcançando até 92% de precisão.
Entre as principais práticas de prevenção estão:
Mesmo assim, criminosos continuam aprimorando suas ferramentas. E, à medida que o aprendizado de máquina avança rapidamente, o jogo de gato e rato também tende a acelerar.
O post Deepfakes ficaram assustadoramente reais — veja como isso ameaça você apareceu primeiro em Olhar Digital.
Comments
Post a Comment