Congresso avança nos debates sobre Marco Civil da Inteligência Artificial no Brasil

PUBLICIDADE

congresso-avanca-nos-debates-sobre-marco-civil-da-inteligencia-artificial-no-brasil

Enquanto modelos generativos escrevem textos, analisam imagens e auxiliam decisões em escala inédita, o Brasil se aproxima, em 2026, do clímax de um debate que definirá o contorno jurídico da era algorítmica no país: a votação final do marco legal da inteligência artificial, consubstanciado no Projeto de Lei 2.338/2023 e em propostas correlatas encaminhadas pelo Executivo. O que está em jogo não é apenas a redação de mais uma lei setorial, mas a escolha de um modelo de governança tecnológica que delimitará, por décadas, a relação entre inovação, poder e direitos fundamentais no ambiente digital brasileiro.

O núcleo do marco legal se consolidou em torno de dois movimentos complementares. De um lado, o PL 2.338/2023, originado no Senado sob a liderança do presidente Rodrigo Pacheco e baseado em anteprojeto elaborado por uma comissão de juristas, estabeleceu a arquitetura principiológica do sistema: definiu categorias de risco para aplicações de IA, proibiu práticas de risco inaceitável, estabeleceu direitos aos afetados por decisões automatizadas e desenhou, em linhas gerais, o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). De outro lado, um projeto de lei enviado pelo Executivo em dezembro de 2025 ajustou vícios de iniciativa, detalhou a composição do SIA e propôs instâncias consultivas específicas, como o Comitê de Regulação e Inovação em IA (CRIA) e o Comitê de Especialistas e Cientistas em IA (CECIA), com participação da sociedade civil, comunidade científica e setor produtivo.

A convergência entre essas duas frentes deu origem a um desenho institucional que busca, ao menos no papel, equilibrar regulação centralizada e expertise setorial. Caberá à ANPD editar normas gerais e regular setores hoje desprovidos de regulador próprio, ao passo que agências como ANS, Anatel, Aneel e Banco Central assumirão a tarefa de disciplinar o uso de IA em seus segmentos específicos, respeitando diretrizes gerais de direitos fundamentais e transparência algorítmica. Em paralelo, o SIA deverá coordenar ações de fiscalização, fomentar boas práticas e servir de foro institucional para debates sobre responsabilidade, risco e inovação.

Substantivamente, o texto aprovado pelo Senado em 2024 e agora em discussão final na Câmara adota a lógica de regulação por risco, inspirando‑se, mas não copiando, o AI Act europeu. Sistemas de IA são classificados em categorias que vão de risco mínimo a risco inaceitável. Este último grupo inclui, por exemplo, aplicações de ranqueamento social pelo Estado, mecanismos de manipulação subliminar de comportamento e usos de reconhecimento facial em massa sem salvaguardas, práticas vedadas explicitamente pelo projeto. Sistemas de alto risco, como aqueles empregados em crédito, emprego, saúde, educação, justiça, segurança pública ou em infraestruturas críticas, não são proibidos, mas submetidos a requisitos rigorosos de governança: documentação extensa, avaliação de impacto, monitoramento contínuo, auditorias independentes e mecanismos de mitigação de vieses.

Um dos traços distintivos do marco brasileiro, destacado por analistas, é a centralidade conferida à proteção de direitos fundamentais. O texto assegura aos cidadãos o direito à explicação sobre decisões automatizadas que afetem de maneira relevante seus interesses, bem como o direito à revisão humana dessas decisões, em sintonia com princípios já presentes na Lei Geral de Proteção de Dados (LGPD) e agora aprofundados para o contexto algorítmico. Em casos de discriminação algorítmica, por exemplo, se um sistema de IA recusar crédito ou emprego de forma enviesada, o projeto inverte o ônus da prova, exigindo que o desenvolvedor ou operador demonstre que adotou medidas adequadas para evitar e corrigir vieses, afastando a desculpa fácil de que “foi o algoritmo”.

Na segurança pública, o texto caminha em linha tênue. Reconhecimento facial e outras formas de vigilância algorítmica são admitidos apenas em hipóteses restritas, sob autorização judicial e com controles estritos, distanciando o Brasil tanto do banimento quase total adotado por alguns países europeus quanto do uso massivo e pouco transparente observado em certas regiões da Ásia. O projeto veda explicitamente a criação de sistemas estatais de ranqueamento social de cidadãos, inspirados em modelos de “credit score social”, e exige que qualquer uso de IA em policiamento respeite critérios de proporcionalidade, necessidade e não discriminação.

Do ponto de vista econômico, o debate em 2026 está longe de ser consensual. Entidades empresariais e associações do setor de tecnologia têm pressionado a Câmara para suavizar dispositivos considerados excessivamente onerosos, especialmente no que toca à responsabilidade civil e às obrigações impostas a empresas de médio porte que desenvolvem ou adotam sistemas de IA. O ponto mais sensível é a manutenção da responsabilidade objetiva para sistemas de alto risco: nesses casos, desenvolvedores e operadores podem responder por danos independentemente de culpa, bastando a comprovação do nexo causal entre o uso do sistema e o prejuízo sofrido. Críticos argumentam que esse regime jurídico poderia desestimular inovação e afastar investimentos, ao elevar o risco jurídico a patamares superiores aos observados em jurisdições concorrentes.

Defensores do texto, por sua vez, sustentam que, sem uma responsabilidade robusta, os incentivos econômicos favoreceriam a externalização de riscos sobre usuários e grupos vulneráveis, perpetuando cenários de opacidade e impunidade tecnológica. Artigos publicados em veículos especializados destacam que o Brasil, ao optar por um grau de rigor superior ao da implementação final do AI Act europeu em 2025, sinaliza que não pretende trocar proteção de direitos por uma promessa de inovação irrefletida, buscando posicionar‑se em uma rota intermediária entre a permissividade norte‑americana e o controle estatal pesado de modelos autoritários.

O debate público também envolve o papel dos grandes intermediários digitais. A exclusão dos algoritmos de recomendação de redes sociais da lista de sistemas de alto risco, uma das decisões mais controversas do Senado, gerou reações de especialistas e de entidades da sociedade civil, que apontam para o poder desses sistemas em moldar opinião pública, amplificar desinformação e influenciar processos democráticos. Senadores governistas manifestaram preocupação com o impacto dessa exclusão na proteção de usuários, enquanto parlamentares oposicionistas temiam que a classificação como alto risco abrisse espaço para o que consideram “censura” ou controle excessivo das plataformas. O texto final buscou uma solução de compromisso: manteve a preocupação com transparência, mas optou por não equiparar, em termos regulatórios, algoritmos de feed de redes sociais a sistemas de IA usados em contextos como crédito ou justiça criminal.

Ao lado dessas disputas de conteúdo, há um elemento de processo que também chama a atenção: o uso de IA pelo próprio Parlamento para ampliar a participação social. Ferramentas desenvolvidas pelo Senado conectam, hoje, contribuições enviadas por cidadãos ao portal e‑Cidadania a propostas legislativas em discussão, permitindo que ideias populares sejam agrupadas, sintetizadas e apresentadas a relatores de projetos de lei, inclusive no caso do marco da IA. Trata‑se de uma experiência singular em que a tecnologia que se busca regular é, simultaneamente, empregada para aprimorar a deliberação democrática, ainda que sob o olhar vigilante de equipes técnicas e jurídicas.

Em 2026, portanto, a agenda da IA no Brasil não se limita à retórica futurista: ela se desenrola, de maneira concreta, nos corredores do Congresso, nas notas técnicas do Executivo, nas manifestações do Comitê Gestor da Internet e nas pressões coordenadas de empresas, entidades acadêmicas e organizações da sociedade civil. O desfecho desse processo definirá não apenas o grau de segurança jurídica para quem desenvolve e adota sistemas de IA, mas também o nível de proteção oferecido a cidadãos diante de decisões automatizadas que podem afetar crédito, emprego, acesso a serviços públicos, liberdade e dignidade.

Em um mundo em que algoritmos se tornam, silenciosamente, infraestruturas invisíveis de poder, acompanhar o desenho desse marco regulatório é tarefa inadiável para qualquer leitor preocupado com o futuro da democracia, da economia e da própria condição humana. A HostingPRESS – Agência de Notícias de São Paulo se propõe a destrinchar, com precisão técnica e linguagem erudita acessível, cada nuance desse debate, para que você possa compreender o que se esconde atrás de expressões aparentemente abstratas como “alto risco”, “transparência algorítmica” e “governança de IA”. Ao ler nossas matérias, você se arma de discernimento para exigir, do Estado e das empresas, tecnologias que sirvam às pessoas, e não o contrário.

**

Marcelo Henrique de Carvalho, editor-chefe
HostingPRESS – Agência de Notícias de São Paulo. Conteúdo distribuído por nossa Central de Jornalismo. Reprodução autorizada mediante crédito da fonte.

Mais recentes

PUBLICIDADE