Deepfakes e responsabilidade jurídica: o Brasil está preparado para os riscos da IA?

O avanço da IA e os riscos da manipulação digital

A crescente popularização da inteligência artificial tem impulsionado inovações em diversos setores. No entanto, esse avanço também revela riscos significativos, como a disseminação de conteúdos falsos gerados por IA — os chamados deepfakes.

Segundo o Sumsub Fraud Report 2023, o Brasil registrou um aumento de 830% em casos de deepfake em apenas um ano, sendo responsável por quase metade dos casos detectados na América Latina. Já o Relatório Global de Ameaças da ESET apontou um crescimento de 335% no uso de deepfakes por cibercriminosos no segundo semestre de 2024.

O que são deepfakes?

Deepfakes são conteúdos manipulados digitalmente — vídeos, áudios ou imagens — que simulam com alto grau de realismo a aparência ou voz de uma pessoa. Criados com inteligência artificial, esses materiais podem induzir o público a acreditar que uma pessoa fez ou disse algo que, na realidade, nunca ocorreu.

O uso malicioso dessas ferramentas tem gerado impactos preocupantes, como:

Propagação de fake news;

Fraudes financeiras;

Danos à imagem de figuras públicas;

Aumento da desinformação.

Casos recentes de manipulação de imagem

Diversas personalidades públicas brasileiras já foram vítimas de deepfakes.

A atriz Giovanna Ewbank teve sua imagem falsamente associada a um procedimento estético. Em julho de 2024, a atriz Paolla Oliveira também denunciou o uso indevido de sua voz e rosto em um vídeo promocional falso. Mais recentemente, a influenciadora Tânia Carvalho foi retratada como usuária de um “chá emagrecedor” para tratar lipedema — quando, na realidade, ela havia relatado publicamente um processo de tratamento envolvendo alimentação, exercícios e cirurgia.

Qual a legislação brasileira aplicável?

O Brasil ainda não possui uma legislação específica sobre deepfakes. No entanto, o ordenamento jurídico atual permite responsabilizações com base em dispositivos já existentes, como:

Estelionato (art. 171, CP)

Calúnia (art. 138, CP)

Difamação (art. 139, CP)

Falsidade ideológica (art. 299, CP)

Na esfera cível, é possível pleitear indenizações por danos morais e materiais. Também se discute a responsabilidade de plataformas digitais por hospedarem ou não removerem conteúdos falsos após notificação.

A urgência de um marco legal específico

A ausência de uma lei que regule especificamente os deepfakes torna a repressão a essa prática mais difícil e lenta. Para a professora Ana Silvia Mancuso, especialista em proteção de dados pelo Insper, a solução começa com educação digital e tecnologia preventiva:

“É essencial investir em educação digital para capacitar as pessoas a identificar sinais de manipulação. Além disso, a criação de ferramentas de autenticação de mídia — como o watermarking e o uso de blockchain — pode ajudar a rastrear a origem e validar a autenticidade de conteúdos”.

Ela também reforça a necessidade de algoritmos robustos por parte de plataformas e redes sociais para detecção e bloqueio automático de deepfakes.

O risco à privacidade e à democracia

A disseminação de deepfakes compromete a privacidade, o debate público e até a integridade de processos democráticos. Vídeos manipulados podem influenciar eleições, prejudicar reputações e espalhar desinformação em larga escala.

É essencial que o Brasil acompanhe o ritmo das inovações tecnológicas com regulação eficaz, educação digital e investimento em ferramentas de verificação.

Enquanto o marco legal específico não chega, cabe às vítimas buscar amparo nas normas existentes e à sociedade civil exigir maior responsabilidade das plataformas e legisladores.

Maria Eduarda Calcagnotto Michelon da Luz - bacharel em Direito, atua nas áreas do Direito Civil e Bancário no escritório Alceu Machado Sperb & Bonat Cordeiro.

Postar um comentário

0 Comentários