A inteligência artificial (IA) tem se expandido rapidamente, trazendo inovações poderosas em áreas como saúde, educação, economia e administração pública. Ao mesmo tempo, levanta questões complexas sobre segurança, privacidade, responsabilidade, transparência e impacto social — temas que não podem ser deixados ao livre-arbítrio do mercado ou dos desenvolvedores sem regras claras.
A governança de IA refere-se ao conjunto de políticas, normas e estruturas que orientam como essa tecnologia deve ser criada, usada e supervisionada. Já a ética de IA foca em princípios que garantam que a tecnologia respeite valores humanos fundamentais, como dignidade, direitos, justiça, não discriminação e transparência.
A governança de IA é urgente não apenas pela privacidade, mas também pela segurança cibernética, transparência e impacto social e economia.
Privacidade e proteção de dados
Sistemas de IA frequentemente dependem de grandes quantidades de dados pessoais. Sem regras claras, informações sensíveis podem ser coletadas, compartilhadas e até exploradas sem o consentimento dos usuários.
Segurança cibernética
IA integrada em dispositivos ou sistemas pode abrir portas para invasões se não houver garantias robustas de como os dados são tratados, onde são processados e quem tem acesso a eles.
Responsabilidade e transparência
Algoritmos que tomam decisões importantes (por exemplo, em saúde, crédito ou justiça) precisam ser compreensíveis e contestáveis, para que pessoas e instituições possam ser responsabilizadas por erros ou vieses indesejados.
Impacto social e econômico
A automação e os sistemas inteligentes podem alterar profundamente mercados de trabalho, relações sociais e modos de vida; portanto, uma governança responsável busca reduzir desigualdades e promover benefícios amplos.
Marcos internacionais de governança de IA
Diversos países e blocos econômicos vêm elaborando leis e diretrizes sobre IA. Um exemplo recente é o AI Act, aprovado pelo Parlamento Europeu, considerado uma das legislações mais avançadas do mundo em regulação de IA, focando em segurança, direitos fundamentais e transparência das tecnologias inteligentes.
Recentemente, o Parlamento Europeu decidiu bloquear ou desativar funções integradas de IA nos dispositivos de trabalho usados por seus membros, como tablets e smartphones oficiais — incluindo assistentes de escrita, sumarizadores automáticos e ferramentas baseadas em nuvem.
As razões principais para isso são:
- Preocupações com cibersegurança e proteção de dados: O departamento de tecnologia da instituição constatou que muitas das funções de IA dependem de serviços na nuvem que transmitem dados para servidores externos, possivelmente fora dos sistemas seguros do Parlamento.
- Incerteza sobre a segurança dos dados externos: Como essas ferramentas enviam conteúdos (como rascunhos de texto, e-mails e outros dados sensíveis) para sistemas terceiros, não era possível garantir que a informação não fosse exposta ou acessível por empresas externas ou mesmo por legislações estrangeiras.
- Princípio da precaução: Ainda que não tenha ocorrido violação comprovada, a instituição optou por suspender preventivamente essas funções até entender melhor como os dados são tratados e protegidos.
- Reforçar hábitos seguros em dispositivos pessoais: O Parlamento também incentivou seus membros a rever e restringir o uso de IA em seus próprios telefones pessoais, especialmente quando usados para trabalho oficial, reforçando a importância de práticas responsáveis de segurança digital.
O que essa decisão revela sobre governança e ética em IA
Essa medida do Parlamento Europeu mostra como instituições públicas que lidam com informações sensíveis estão cada vez mais cautelosas com o uso desenfreado de tecnologia sem diretrizes claras. É um exemplo concreto de governança responsável que prioriza a proteção de dados pessoais sobre conveniência tecnológica, adota o princípio de precaução em situações de risco potencial e evidencia que a tecnologia — por mais promissora que seja — precisa de regras para operar com segurança e respeito aos direitos humanos.
A inteligência artificial pode transformar positivamente nossas vidas, mas também apresenta riscos se não for governada de maneira robusta e ética. A decisão do Parlamento Europeu de desativar funções de IA em dispositivos oficiais é um sinal de alerta para governos, empresas e cidadãos: tecnologia poderosa exige normas claras, proteção de direitos e governança responsável para que seu uso seja seguro para todos.
*Alessandra Montini é Diretora da FIA Business School – Labdata