Quem dita as regras: o risco de inteligências artificiais aos direitos humanos
Por Adyel Beatriz*
As novas inteligências artificiais (IAs) carregam consigo a responsabilidade de enfrentar os desafios que surgem com seu uso inadequado. A batalha contra os crimes envolvendo esse tipo de tecnologia é uma corrida constante entre a inovação e as contramedidas que a sociedade deve desenvolver para proteger seu interesse público e a garantia dos direitos humanos.
Um exemplo é a criação de vídeos e áudios sintéticos capazes de fazer com que alguém pareça dizer ou fazer algo, as chamadas deepfakes. As IAs generativas tornaram mais fácil para indivíduos mal-intencionados criarem conteúdos enganosos para difamação, extorsão e manipulação.
Além disso, a proliferação de notícias falsas e desinformação geradas por IAs generativas são um ponto importante pelo menos desde as eleições presidenciais de 2018. O artifício foi fundamental para levar Jair Bolsonaro à vitória no executivo. A capacidade de criar artigos de notícias convincentes, relatórios falsos de eventos ou declarações manipuladas pode causar sérios danos à sociedade.
Este ano, o Brasil assiste a uma epidemia na geração de imagens e vídeos pornográficos. No caso mais recente, ao menos 20 estudantes foram vítimas da criação de nudes falsos por alunos de um colégio da Zona Oeste do Rio de Janeiro. Também recentemente a atriz Isis Valverde foi vítima do mesmo crime. Em ambos os casos, o conteúdo manipulado envolve a produção de imagens falsas usando rostos de pessoas reais sobrepostos em corpos nus. A maioria das vítimas é composta por mulheres.
A criação e divulgação das fotos violam o Código Penal brasileiro, que prevê pena de até cinco anos de prisão para os delitos de registro de conteúdo com cena de nudez e o compartilhamento desse tipo de material. Contudo, o vazamento de nudes falsos pode ocasionar o agravamento da pena.
Para mitigar os riscos, é fundamental que empresas e governos adotem medidas rigorosas de regulamentação e segurança cibernética. É importante que as plataformas fornecedoras de acesso a IAs generativas desenvolvam ferramentas de detecção de conteúdo gerado por máquina e promovam a conscientização pública sobre os desafios associados a essa tecnologia.
Racismo algorítmico
Recentemente, a deputada estadual Renata Souza (Psol-RJ) denunciou racismo nos algoritmos de uma inteligência artificial do Microsoft Bing, após a ferramenta gerar a imagem de uma mulher negra armada.
A parlamentar relatou que pediu à IA um desenho de “uma mulher negra, de cabelos afro, com roupas de estampa africana num cenário de favela”. “Em momento nenhum eu falei sobre armas”, apontou Renata em vídeo publicado no Instagram.
Na visão de Pablo Nunes, coordenador do CESeC e do projeto O Panóptico, para além de discutir o racismo algorítmico e os erros e as possíveis violações com o uso de inteligências artificiais, é importante entender qual é o debate de fundo.
“Boa parte dos algoritmos são treinados a partir de bancos de dados extensos de pessoas brancas e é ensinado àquele algoritmo que aquelas são faces humanas. Sendo assim, quando uma pessoa não branca é posta de frente com tal tecnologia, o algoritmo tem dificuldade de entender que aquela imagem seja de uma pessoa humana”, disse Pablo.
Adyel Beatriz é assistente de comunicação na Rede de Observatórios*