IA Act

15 Agosto, 2025

A Inteligência Artificial (IA) tem-se tornado uma força disruptiva em praticamente todos os setores da economia e da sociedade. Desde assistentes virtuais, passando por sistemas de diagnóstico médico, até veículos autónomos, a IA está a redefinir como vivemos, trabalhamos e interagimos.
O potencial de transformação é enorme, com promessas de maior eficiência, melhores decisões e inovação acelerada. Contudo, este crescimento traz consigo desafios e riscos que não podem ser ignorados.

Questões como a discriminação algorítmica, a falta de transparência nos processos de decisão automática, a invasão de privacidade e o risco de falhas em sistemas críticos fazem parte de um cenário onde a regulação se torna imprescindível.

O debate sobre como garantir que a IA seja segura, ética e confiável tem sido central nas discussões globais. Neste contexto, a União Europeia avançou com o IA Act, a primeira legislação focada em regulamentar o uso da IA segundo uma abordagem baseada em risco.

Porque é que esta regulação da IA é necessária?

A IA tem um impacto crescente em áreas que afetam diretamente a vida das pessoas. Como sistemas automatizados que já tomam decisões sobre concessão de crédito, seleção para empregos, diagnósticos médicos e até mesmo sentenças judiciais. A possibilidade de erros, preconceitos incorporados nos algoritmos ou manipulação maliciosa pode resultar em danos graves, como exclusão social, perda de oportunidades ou até mesmo ameaças à segurança física.

Além disso, a opacidade dos algoritmos e a complexidade técnica dificultam a supervisão tradicional. Por vezes, nem os próprios criadores compreendem totalmente o funcionamento interno destes sistemas, o que eleva os riscos associados.

A necessidade de criar um quadro legal que assegure que a inovação tecnológica não comprometa direitos humanos, privacidade, segurança e justiça tornou-se urgente.
É aqui que surge o IA Act, procurando criar um equilíbrio entre o incentivo à inovação e a proteção dos indivíduos, através de um modelo baseado na avaliação e gestão de riscos.

O que é o IA Act?

O IA Act é uma proposta legislativa da União Europeia que estabelece regras para o desenvolvimento, comercialização e utilização de sistemas de IA. Ao contrário de outras regulamentações tradicionais, o IA Act não impõe um conjunto único de regras para todos os sistemas, mas sim distingue os sistemas consoante o nível de risco que representam, permitindo uma abordagem flexível e proporcional.

Esta regulamentação define quatro categorias principais de risco:
– Riscos inaceitáveis
– Riscos elevados
– Riscos limitados
– Riscos mínimos

Esta categorização orienta as obrigações legais, requisitos de transparência, supervisão e monitorização aplicáveis a cada tipo de sistema de IA.

Definição e exemplos dos diferentes níveis de risco

Riscos inaceitáveis

Os sistemas classificados como de risco inaceitável são expressamente proibidos. Estes representam uma ameaça clara e grave aos direitos fundamentais ou à segurança dos indivíduos. Um exemplo é o sistema de pontuação social aplicado por alguns governos que avalia cidadãos e restringe direitos com base no comportamento social, podendo conduzir a discriminações sistemáticas e controlo excessivo.
Outro exemplo são as técnicas que manipulam o comportamento dos utilizadores de forma subliminar, sem que estes estejam conscientes desse facto, para influenciar decisões de forma prejudicial.

O IA Act visa impedir a circulação e utilização destes sistemas dentro do mercado europeu, por serem incompatíveis com os valores e direitos garantidos pela UE.

Risco elevado

Sistemas de risco elevado são aqueles que têm impacto direto sobre os direitos fundamentais, segurança e saúde das pessoas. Entre estes, estão incluídos sistemas usados em:

– Recrutamento e seleção de pessoal
– Avaliação de crédito
– Monitorização de infraestruturas críticas (energia, água, transporte)
– Identificação biométrica em tempo real (por exemplo, para vigilância)
– Diagnósticos médicos assistidos por IA
– Sistemas jurídicos automatizados

Para estes sistemas, o IA Act impõe uma série de requisitos rigorosos:
– Avaliação prévia de risco e mitigação de potenciais danos
– Garantias de transparência para que os utilizadores saibam que estão a interagir com IA
– Supervisão humana contínua para evitar decisões automatizadas injustas
– Registos e documentação detalhada para auditorias e responsabilização
– Testes de robustez, segurança e mitigação de vieses

Por exemplo, um sistema automatizado de triagem para recrutamento deverá garantir que não discrimina candidatos com base em género, idade ou etnia e que quaisquer decisões podem ser revistas e corrigidas por um responsável humano.

Riscos limitados

Estes sistemas apresentam riscos moderados e, por isso, são sujeitos a requisitos específicos de transparência. Exemplos comuns são os chatbots, que devem informar o utilizador de forma clara e explícita que estão a interagir com uma máquina. Este requisito garante que a comunicação é honesta e que não há engano sobre a natureza do interlocutor.
Este nível não implica obrigações extensas, mas visa manter a confiança dos utilizadores.

Risco mínimo

A grande maioria dos sistemas de IA enquadra-se nesta categoria, pois apresentam um impacto muito reduzido ou inexistente sobre direitos e segurança. Um exemplo de um sistema de IA de Risco Mínimo são aplicações para sugestão de ortografia. Estes sistemas não estarão sujeitos a obrigações específicas, mas a UE incentiva a aplicação de boas práticas e autorregulação.

Como a definição de riscos protege e promove a inovação

O modelo do IA Act, centrado na definição e gestão de riscos, permite aplicar as medidas legais mais apropriadas para cada contexto, evitando tanto a falta de proteção quanto a regulamentação excessiva que poderia travar a inovação.

Esta abordagem permite:
– Focar esforços nos sistemas com maior impacto, onde os riscos podem causar mais danos
– Garantir transparência e responsabilidade, aumentando a confiança pública na IA
– Permitir o desenvolvimento de IA de baixo risco com menos burocracia, facilitando a inovação
– Incentivar a criação de sistemas seguros, éticos e auditáveis

O impacto prático para empresas e criadores

Empresas que desenvolvem ou utilizam IA terão de adaptar-se a este novo quadro, realizando avaliações rigorosas de risco e implementando mecanismos que garantam o cumprimento dos requisitos legais. Isto inclui:

– Análise técnica e jurídica prévia
– Desenvolvimento de sistemas de monitorização contínua
– Formação e sensibilização das equipas para questões éticas e legais
– Preparação para auditorias e fornecimento de documentação completa

O IA Act coloca também a responsabilidade sobre fornecedores e utilizadores, criando uma cadeia de conformidade que fortalece o ecossistema da IA.

Desafios e futuro da regulamentação da IA

Apesar dos avanços trazidos pelo IA Act, existem desafios a ultrapassar:

– A definição clara de risco pode variar conforme o contexto, o que exige avaliações detalhadas
– A rápida evolução tecnológica obriga a revisões periódicas da legislação
– A cooperação internacional será fundamental para evitar fragmentação e garantir padrões globais

À medida que a IA evolui, a legislação terá de acompanhar, mantendo um equilíbrio entre incentivo à inovação e proteção dos direitos e valores fundamentais.

O IA Act representa um marco na regulação da inteligência artificial, definindo uma estrutura clara e flexível para garantir que a tecnologia serve o interesse público sem comprometer direitos e segurança. A abordagem baseada na definição de riscos é essencial para aplicar regras proporcionais, garantir transparência e fomentar a confiança.

Para todos os agentes envolvidos, desde os criadores até aos utilizadores finais, compreender este quadro legal é fundamental para navegar num futuro cada vez mais marcado pela IA e seguro.