Precisamos de uma regulação de dados que vá além da LGPD

Você já parou para pensar no que há por trás das decisões que a inteligência artificial toma todos os dias? Por trás do seu feed de notícias, da aprovação de um crédito bancário, da seleção de currículos em um processo seletivo ou mesmo de sistemas usados por órgãos públicos para prever comportamentos? Parece tudo neutro, técnico e eficiente, mas a verdade é que estamos alimentando máquinas com nossos próprios preconceitos.

Isso tem consequências graves. A IA não é neutra porque os dados também não são. O que chamamos de “aprendizado de máquina” nada mais é do que um reflexo do nosso histórico social, carregado de desigualdades raciais, de gênero, de classe e de território. Quando um algoritmo aprende com esses dados, ele não apenas reproduz os padrões do passado, ele os perpetua em escala, sem a menor consciência do que está fazendo.

A LGPD (Lei Geral de Proteção de Dados), implementada em 2020, foi um avanço importante para o Brasil. Trouxe um olhar mais atento sobre a privacidade, a transparência e o consentimento no uso de dados pessoais. Mas ela nasceu em um tempo em que ainda estávamos entendendo a profundidade dos impactos da IA. Hoje, a discussão já avançou para um nível que a LGPD sozinha não dá conta. Estamos falando de decisões automatizadas que afetam diretamente a vida das pessoas e que, muitas vezes, não são nem compreensíveis pelos próprios desenvolvedores. A lógica do “caixa-preta” dos algoritmos torna tudo mais difícil: quem responde por uma injustiça feita por uma IA? Como garantir que ela não está discriminando silenciosamente? A lei atual não nos oferece respostas claras para isso.

Pesquisas mostram que o problema é real e alarmante. Um estudo do MIT Media Lab revelou que sistemas de reconhecimento facial falham em até 34,7% dos casos ao identificar rostos de mulheres negras, enquanto a taxa de erro para homens brancos é de apenas 0,8%. Estamos falando de uma diferença de mais de 30 pontos percentuais, num contexto em que essas tecnologias estão sendo usadas por empresas, governos e forças de segurança.

Além disso, segundo um relatório citado pela ONU, a IA pode aprofundar desigualdades se não for adequadamente regulada. Não estamos falando de  um medo sem fundamento. Imagine um sistema de análise de crédito que, por aprender com dados históricos, passe a negar financiamento sistematicamente para moradores de determinadas regiões periféricas, mesmo que essas pessoas tenham renda e histórico de pagamento adequados. Esse tipo de viés, silencioso e muitas vezes invisível, é o que torna a IA tão perigosa quando não é supervisionada. Porque ela não grita “racismo” ou “preconceito”. Ela apenas aplica regras matemáticas baseadas em padrões anteriores e o passado, todos sabemos, não foi justo com todos.

Por isso, precisamos urgentemente evoluir da regulação de dados para a regulação dos algoritmos. Isso inclui exigir que as empresas e órgãos públicos realizem auditorias técnicas e éticas regulares, adotem processos de explicabilidade (para que as decisões da IA possam ser compreendidas por humanos), e façam avaliações de impacto social antes da implementação de qualquer sistema que tome decisões automatizadas. Além disso, é fundamental garantir diversidade nas equipes de desenvolvimento de IA. Sem pluralidade de vozes, continuaremos treinando máquinas com um único ponto de vista, o do grupo que sempre teve mais acesso, poder e privilégio.

O Brasil tem, hoje, uma oportunidade única de liderar essa discussão na América Latina. Estamos em um momento em que o ecossistema de inovação está crescendo, as startups de IA estão florescendo e o governo está digitalizando serviços em ritmo acelerado. Se conseguirmos criar um marco regulatório mais robusto, centrado não apenas na proteção de dados, mas na governança responsável da inteligência artificial, poderemos nos tornar referência global em tecnologia ética. Isso não significa frear a inovação, mas garantir que ela aconteça com justiça e responsabilidade social. Porque, no fim das contas, a pergunta não é apenas “o que a IA pode fazer?”, mas sim: “o que ela deve fazer?”.

*Alessandra Montini é Diretora da FIA Business School – Labdata

Newsletter

Fique por dentro das novidades FIA Labdata, associando-se à nossa Newsletter:

Conheça nossos cursos.