
UE proíbe sistemas de IA de risco inaceitável
A União Europeia (UE) implementou recentemente o Regulamento de Inteligência Artificial (AI Act), estabelecendo um marco jurídico pioneiro para o desenvolvimento e uso de sistemas de inteligência artificial (IA). A partir de 2 de fevereiro de 2025, estão proibidos na UE sistemas de IA classificados como de “risco inaceitável”, visando proteger os direitos fundamentais e a segurança dos cidadãos.
Classificação de Riscos no AI Act
O AI Act adota uma abordagem baseada no risco, categorizando os sistemas de IA em quatro níveis:
1. Risco Inaceitável: Sistemas que representam uma ameaça clara à segurança, aos meios de subsistência e aos direitos das pessoas. Estes são proibidos na UE.
2. Risco Elevado: Sistemas que podem causar danos significativos à saúde, segurança ou direitos fundamentais. Estes estão sujeitos a obrigações rigorosas antes de serem comercializados.
3. Risco Limitado: Sistemas que requerem transparência, como chatbots que devem informar os usuários de que estão interagindo com uma máquina.
4. Risco Mínimo ou Nulo: Sistemas que não apresentam riscos significativos e podem ser utilizados livremente.
Esta classificação visa equilibrar a inovação tecnológica com a proteção dos direitos fundamentais dos cidadãos europeus.
Sistemas de IA Proibidos
Os sistemas de IA considerados de risco inaceitável incluem:
• Manipulação Cognitiva ou Comportamental: Sistemas que utilizam técnicas subliminares para influenciar o comportamento de indivíduos de forma prejudicial.
• Exploração de Vulnerabilidades: Sistemas que exploram vulnerabilidades de grupos específicos, como crianças ou pessoas com deficiência, para influenciar seu comportamento de maneira prejudicial.
• Pontuação Social: Sistemas que classificam indivíduos com base em seu comportamento, status socioeconômico ou características pessoais, levando a discriminação ou marginalização.
• Identificação Biométrica Remota em Tempo Real: O uso de sistemas de reconhecimento facial em espaços públicos para fins de aplicação da lei, exceto em casos excepcionais, como a busca por vítimas de sequestro.
A proibição desses sistemas reflete a preocupação da UE em garantir que a IA seja desenvolvida e utilizada de maneira ética e segura.
Obrigações para Sistemas de Risco Elevado
Sistemas de IA classificados como de risco elevado não são proibidos, mas estão sujeitos a requisitos rigorosos, incluindo:
• Avaliação e Mitigação de Riscos: Implementação de medidas para identificar e reduzir riscos potenciais associados ao sistema.
• Qualidade dos Conjuntos de Dados: Garantia de que os dados utilizados para treinar o sistema sejam de alta qualidade, minimizando vieses e resultados discriminatórios.
• Registro de Atividades: Manutenção de registros detalhados das operações do sistema para assegurar a rastreabilidade dos resultados.
• Documentação Técnica: Fornecimento de documentação abrangente que permita às autoridades avaliar a conformidade do sistema com as regulamentações.
• Supervisão Humana: Garantia de que haja supervisão humana adequada durante a operação do sistema para mitigar riscos.
Essas obrigações visam assegurar que os sistemas de IA de alto risco sejam seguros, transparentes e respeitem os direitos fundamentais.
Penalidades por Não Conformidade
Empresas que não cumprirem as disposições do AI Act enfrentam penalidades significativas. As multas podem chegar a 35 milhões de euros ou até 7% do faturamento anual global da empresa, o que for maior. Essas sanções destacam o compromisso da UE em garantir a conformidade com as novas regulamentações e a proteção dos cidadãos.
Desafios e Perspectivas Futuras
Embora o AI Act seja um marco na regulamentação da IA, sua implementação apresenta desafios. Empresas expressaram preocupações sobre a complexidade da legislação e a falta de clareza em certas disposições. Há temores de que regulamentações excessivamente rígidas possam dificultar a inovação e a competitividade da Europa no setor de IA. No entanto, a UE acredita que uma abordagem equilibrada pode promover uma IA segura e ética, servindo de modelo para outras regiões.
Conclusão
A implementação do AI Act pela União Europeia representa um passo significativo na regulamentação da inteligência artificial, buscando equilibrar a inovação tecnológica com a proteção dos direitos fundamentais. Ao proibir sistemas de IA de risco inaceitável e impor obrigações rigorosas para sistemas de alto risco, a UE estabelece um padrão para o desenvolvimento e uso ético da IA, visando garantir a segurança e o bem-estar de seus cidadãos.
Fontes: digital-strategy.ec.europa.eu, exame.com, consilium.europa.eu, telesintese.com.br, elpais.com