O caso envolvendo o Arcebispo
de Natal não é o primeiro nem foi o último. São vários os relatos de utilização
de deep fake em várias esferas da vida social. Em 2023, alunas de um colégio em
Recife denunciaram divulgação de ‘nudes’ falsos criados com inteligência
artificial. Além da criação e uso indevido de imagens, os áudios também ganham
conotação diferente, com golpistas e criminosos se aproveitando das
inteligências artificiais generativas para aplicar o golpe do falso sequestro,
do Pix, em eleições, entre outros. Em junho, um caso emblemático fez com que a
deputada Laura McClure, da Nova Zelândia, imprimiu e mostrou no parlamento uma
imagem dela nua que foi criada por ferramentas de I.A. A ideia era
conscientizar sobre o perigo das plataformas e o dano devastador das deep
fakes.
Embora o boom das I.As tenha se iniciado no segundo semestre de 2022, segundo especialistas, sua popularização e uso têm se intensificado dia após dia. Prova disso é a chegada da Veo3, ferramenta da Google que gera vídeos realistas e complexos em alta definição, com efeitos de câmeras, transições suaves, efeitos sonoros e ambientes de diálogos nos vídeos. Um dos casos emblemáticos foi a criação do programa de auditório fictício “Marisa Maiô”, que chegou a receber anúncios publicitários e gerou uma série de debates e discussões nas redes sociais acerca dos limites envolvendo a inteligência artificial e a criação de personagens.
Segundo Daniel Sabino, professor associado do Instituto Metrópole Digital da
UFRN e especialista em temas como Inteligência Artificial, Aprendizado de
Máquina e Big Data, há modelos de IA que são treinados para reconhecer a face
de uma pessoa e o comportamento natural da face. A partir disso, esses modelos
detectam essas faces a partir de características comuns de um rosto humano,
como localização de pontos específicos e até a forma como os movimentos mais
comuns acontecem, como piscar de olhos, inclinação da cabeça e movimento da
boca na fala.
“Outros modelos são treinados para gerar novas imagens a partir de muitas
outras. Nesse caso, um modelo pode aprender como gerar faces a partir de uma
grande base de dados de imagens de pessoas. Da mesma maneira, pode se fazer com
a parte de áudio para identificar e produzir a fala das pessoas. Ao juntar
todas essas técnicas, é possível produzir um vídeo completo de uma pessoa a
partir de uma ou mais fotos dela ou ainda substituir a face de uma pessoa por
outra em um vídeo existente”, acrescenta o professor da UFRN.
Segundo a especialista em Inteligência Artificial Aplicada à Educação e gerente
de qualidade e inovação do Senac-RN, Priscila Silveira, as deep fakes geram
problemas sociais das mais diversas camadas, com a necessidade de as grandes
empresas tecnológicas criarem ferramentas para auxiliar o usuário a distinguir
o que é I.A. do que é real.
“As eleições do ano que vem serão desafiadoras porque não temos ferramentas de
detecção para facilmente dizer se algo foi gerado com I.A ou não, que é um dos
grandes desafios que é impor às empresas capazes de gerar ferramentas que
processam o vídeo tal ou similar a um ser humano, que tragam uma marca d’água,
ou uma ferramenta associada que leve a detectar que aquilo foi criado com I.A,
para facilmente verificarmos a autenticidade de uma imagem, de um vídeo. Isso é
essencial”, acrescenta.
Do ponto de vista legal, Priscila Silveira explica ainda que a legislação
referente à Inteligência Artificial aguarda regulamentação por parte do Governo
Federal. A Câmara dos Deputados está analisando o Projeto de Lei 2338/23, do
Senado, que regulamenta o uso da inteligência artificial (IA) no Brasil. A
proposta classifica os sistemas de inteligência artificial quanto aos níveis de
risco para a vida humana e de ameaça aos direitos fundamentais. Também divide
as aplicações em duas categorias: inteligência artificial; e inteligência
artificial generativa.
IA reformula a maneira de
encarar o mundo
A chegada dos deep fakes e a
disseminação de ferramentas que criam vídeos, imagens e áudios falsos gera um
alerta também no Direito Penal. Na opinião do advogado criminalista e
especialista em Inteligência Artificial, Gabriel Bulhões, as deep fakes “reformulam
a forma como enxergamos o mundo”.
“Aquele adágio de ver para crer ou de que uma imagem vale mais do que mil
palavras não tem mais sentido atualmente nessa nova conformação. Com o avanço
das I.As generativas de imagem e áudio, temos um problema enorme porque
qualquer prova pode ser falseada, produzida, deturpada, plantada,
independentemente do contexto e das pessoas envolvidas”, cita.
Embora montagens, edições de imagens e falsos áudios já existam há anos, a
chegada de ferramentas que criam isso com poucos cliques e de maneira acessível
para usuários sem tanto conhecimento tecnológico gera uma preocupação nos
processos judiciais. Bulhões explica que o mundo jurídico ainda não está
preparado para lidar com essa problemática do mundo moderno.
“Surge daí uma importância maior para dois temas: a cadeia de custódia da
prova, que é aquilo que garante a originalidade e integridade das evidências
que serão usadas no processo, e a prova pericial, de imagem, de vídeo, de
comparação fonética, análise de fotogrametria, por exemplo, se tornam cada vez
mais importantes e necessárias e dentro de um processo penal justo e
democrático vão ser cada vez mais indesviáveis”, complementa.
Segundo Priscila Silveira,
especialista em IA, as deep fakes geram problemas sociais de difícil solução |
Foto: ALEX RÉGIS
Eleições de 2026 serão
desafiadoras, diz especialista
Embora o Tribunal Superior
Eleitoral (TSE) tenha editado regulamentações e normas sobre o uso de
Inteligência Artificial no período eleitoral na última eleição ocorrida em
2024, o uso segue sendo disseminado e desenfreado em muitos dos casos. A
Resolução Nº 23.610, de 18 de dezembro de 2019, atualizada recentemente em
2024, prevê a vedação na campanha eleitoral de conteúdo fabricado ou manipulado
de fatos inverídicos ou descontextualizados. Há ainda menção específica para as
deep fakes, proibindo o uso da tecnologia para prejudicar ou para favorecer
candidatura.
Na avaliação de Priscila Silveira, especialista em Inteligência Artificial
Aplicada à Educação e gerente de qualidade e inovação do Senac-RN, as eleições
do ano que vem, terão repercussão em todo o país com a escolha do próximo
presidente da República, serão desafiadoras para eleitores e candidatos.
“Como o impacto da rede social é enorme, daqui que se corrija que aquilo ali é
fake, as eleições podem ter sido definidas por causa disso”, cita.
Segundo Daniel Sabino, professor associado do Instituto Metrópole Digital da
UFRN e especialista em temas como Inteligência Artificial, Aprendizado de
Máquina e Big Data, em um período eleitoral as utilizações de deep fake
tornam-se cada vez mais sensíveis por dois motivos: a deturpação de imagens de
candidatos e o pouco tempo para se reverter um dano à imagem.
“Com a tecnologia atual, é possível produzir conteúdo com qualidade muito
próxima da realidade e em um contexto onde as atitudes de uma pessoa são
rapidamente julgadas por meio das mídias sociais, a divulgação de deep fakes
pode provocar danos à imagem de candidatos ou de pessoas envolvidas no cenário
eleitoral, muitas vezes irreversíveis”, finaliza.
Tribuna do Norte

Nenhum comentário:
Postar um comentário