Quarta, 25 Março 2026 22:56

Inteligência Artificial e o desafio da informação justa

Ilustração de uma pessoa frustrada com um grande volume de informações Ilustração de uma pessoa frustrada com um grande volume de informações Freepik

Por Henrique Augusto Gonçalves Fernandes, Marcus de Resende Chaves Scultori da Silva, Mirelle Silva Vieira, Felipe Lopes de Melo Faria (felipe.faria@ifmg.edu.br)

Você já se perguntou como os computadores podem influenciar a vida da gente? Hoje em dia, quando alguém pede um empréstimo no banco, tenta receber um benefício do governo ou até faz um exame de saúde, muitas vezes é um sistema de computador que decide o que vai acontecer. Mas será que essas decisões são iguais para todo mundo?

A resposta está no conceito de assimetria da informação, uma situação em que empresas ou pessoas têm acesso desigual a informações importantes. Isso pode gerar injustiças, pois quem sabe mais, ou controla os dados e os algoritmos, leva vantagem na hora de tomar decisões ou oferecer serviços.

Com o crescimento da inteligência artificial (IA) no Brasil, esse problema ficou ainda maior. De 2023 a 2025, por exemplo, o número de startups com “IA” no nome cresceu quase 10 vezes! O desafio é grande: como garantir que as decisões automatizadas sejam justas, transparentes e não reforcem preconceitos de gênero, raça ou renda?

Para enfrentar isso, o Brasil discute um novo conjunto de regras, chamado Projeto de Lei 2338/2023, que quer tornar a IA mais segura para todos. Algumas das principais propostas são:

  • Centralidade humana: decisões importantes sempre podem ser revistas por uma pessoa, e não só pela máquina.
  • Transparência: bancos, hospitais e empresas terão que explicar, em linguagem clara, por que uma decisão foi tomada por IA. Por exemplo, a recusa de crédito ou um diagnóstico.
  • Não discriminação: impedir que algoritmos reforcem desigualdades, exigindo testes para evitar preconceitos. 
  • Responsabilidade: desenvolvedores e operadores de IA precisam corrigir erros e responder por falhas ou danos causados.

O projeto ainda propõe que os sistemas de IA sejam classificados de acordo com o risco. Aplicações mais sensíveis, que envolvem saúde, justiça e crédito precisam seguir regras rígidas, enquanto assistentes virtuais e chatbots têm exigências mais simples.

Por trás de tudo isso está a ideia de que a tecnologia só faz sentido quando respeita direitos e protege as pessoas. Por exemplo, se uma agricultora tem seu financiamento negado porque o sistema não entende sua realidade, ela deve receber uma explicação clara e ter o direito de pedir revisão.

O uso da inteligência artificial pode melhorar muito a vida das pessoas, mas é preciso garantir que ninguém fique para trás. Por isso, além de leis, é fundamental investir em profissionais capacitados, promover a fiscalização e estimular o debate público sobre como a tecnologia afeta o nosso cotidiano.

Fique atento, a inteligência artificial já faz parte do presente, mas as regras para seu uso ainda estão sendo construídas e esse debate é de interesse de toda a sociedade!


COMENTÁRIOS


Importante! Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Nos reservamos o direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou com palavras ofensivas. A qualquer tempo, poderemos cancelar o sistema de comentários sem necessidade de nenhum aviso prévio aos usuários e/ou a terceiros.