O avanço da IA e os riscos da manipulação digital
A crescente popularização da
inteligência artificial tem impulsionado inovações em diversos setores. No
entanto, esse avanço também revela riscos significativos, como a disseminação
de conteúdos falsos gerados por IA — os chamados deepfakes.
Segundo o Sumsub Fraud
Report 2023, o Brasil registrou um aumento de 830% em casos
de deepfake em apenas um ano, sendo responsável por quase metade
dos casos detectados na América Latina. Já o Relatório
Global de Ameaças da ESET apontou um crescimento de 335% no uso de
deepfakes por cibercriminosos no segundo semestre de 2024.
O que são deepfakes?
Deepfakes são conteúdos manipulados
digitalmente — vídeos, áudios ou imagens — que simulam com alto grau de
realismo a aparência ou voz de uma pessoa. Criados com inteligência artificial,
esses materiais podem induzir o público a acreditar que uma pessoa fez ou disse
algo que, na realidade, nunca ocorreu.
O uso malicioso dessas ferramentas
tem gerado impactos preocupantes, como:
Propagação de fake news;
Fraudes financeiras;
Danos à imagem de figuras públicas;
Aumento da desinformação.
Casos recentes de manipulação de
imagem
Diversas personalidades públicas
brasileiras já foram vítimas de deepfakes.
A atriz Giovanna
Ewbank teve sua imagem falsamente associada a um
procedimento estético. Em julho de 2024, a atriz Paolla
Oliveira também denunciou o uso indevido de sua voz e
rosto em um vídeo promocional falso. Mais recentemente, a influenciadora Tânia Carvalho foi
retratada como usuária de um “chá emagrecedor” para tratar lipedema — quando,
na realidade, ela havia relatado publicamente um processo de tratamento
envolvendo alimentação, exercícios e cirurgia.
Qual a legislação brasileira
aplicável?
O Brasil ainda não possui uma
legislação específica sobre deepfakes. No entanto, o ordenamento
jurídico atual permite responsabilizações com base em dispositivos já
existentes, como:
Estelionato (art. 171, CP)
Calúnia (art. 138, CP)
Difamação (art. 139, CP)
Falsidade ideológica (art. 299, CP)
Na esfera cível, é possível
pleitear indenizações por danos morais e materiais. Também se
discute a responsabilidade de plataformas digitais por
hospedarem ou não removerem conteúdos falsos após notificação.
A urgência de um marco legal
específico
A ausência de uma lei que regule
especificamente os deepfakes torna a repressão a essa prática mais difícil e
lenta. Para a professora Ana Silvia Mancuso, especialista em
proteção de dados pelo Insper, a solução começa com educação
digital e tecnologia preventiva:
“É essencial investir em educação digital
para capacitar as pessoas a identificar sinais de manipulação. Além disso, a
criação de ferramentas de autenticação de mídia — como o watermarking e
o uso de blockchain — pode ajudar a rastrear a origem e validar a autenticidade
de conteúdos”.
Ela também reforça a necessidade de
algoritmos robustos por parte de plataformas e redes sociais para detecção e
bloqueio automático de deepfakes.
O risco à privacidade e à democracia
A disseminação de deepfakes
compromete a privacidade, o debate público e até a integridade de processos
democráticos. Vídeos manipulados podem influenciar eleições, prejudicar
reputações e espalhar desinformação em larga escala.
É essencial que o Brasil acompanhe o
ritmo das inovações tecnológicas com regulação eficaz, educação
digital e investimento em ferramentas de verificação.
Enquanto o marco legal específico não
chega, cabe às vítimas buscar amparo nas normas existentes e à sociedade civil
exigir maior responsabilidade das plataformas e legisladores.
Maria
Eduarda Calcagnotto Michelon da Luz -
bacharel em Direito, atua nas áreas do Direito Civil e Bancário no escritório Alceu
Machado Sperb & Bonat Cordeiro.
0 Comentários