A Nova Lei Europeia da IA Descodificada – Uma breve introdução
O AI Act da União Europeia, o primeiro quadro regulamentar do mundo para a Inteligência Artificial (IA), foi recentemente aprovado, assinalando um marco na governação da IA. A legislação fornece um guia legal abrangente para a regulamentação de sistemas de IA, definidos como software desenvolvido usando abordagens de aprendizagem automática, estatística, lógica e baseadas em conhecimento, que têm a capacidade de gerar resultados que impactam os ambientes com os quais interagem.
Com o rápido avanço da tecnologia e a crescente disseminação e acessibilidade dos sistemas de IA, as potenciais aplicações destes sistemas parecem praticamente infinitas, abrangendo diversas áreas da sociedade.
Enquanto a IA oferece soluções inovadoras para muitos problemas atuais, também traz um novo conjunto de questões e preocupações que devem ser consideradas. Os riscos vão desde a falta de transparência e violações de privacidade até o possível reforço de preconceitos sociais existentes. Um quadro regulamentar abrangente é, portanto, crucial para garantir o uso seguro da tecnologia de IA e proteger os direitos humanos,sem prejudicar a inovação e a produção de conhecimento.
A nova lei enfrenta este desafio classificando os sistemas de IA com base no nível de risco e regulamentando-os de acordo com esta classificação. São definidos quatro níveis de risco:
Risco Inaceitável
Esta categoria refere-se a sistemas que são considerados uma ameaça para indivíduos ou grupos de pessoas, e são proibidos. Estes são:
- sistemas que usam técnicas manipulativas para influenciar o comportamento e interferir na capacidade das pessoas de tomar decisões informadas;
- sistemas que exploram vulnerabilidades pessoais ou de grupo;
- utilização de dados biométricos para inferir raça, crenças religiosas ou políticas, orientação sexual;
- sistemas de pontuação social e outros que categorizam as pessoas com base no status social ou económico, comportamento ou personalidade;
- sistemas de identificação biométrica remota em tempo real em espaços públicos (exceto para casos excecionais, delineados na legislação).
Alto Risco
Esta categoria inclui sistemas que podem afetar negativamente a segurança ou os direitos fundamentais. Abrange:
- sistemas de IA utilizados em produtos abrangidos pela legislação de harmonização da União (brinquedos, carros, dispositivos médicos, etc.)
- sistemas de IA desenvolvidos em áreas específicas, listadas no Anexo III (biometria, infraestrutura crítica, educação, emprego, acesso a serviços e benefícios privados e públicos essenciais, migração, asilo e gestão de controlo de fronteiras, administração da justiça e processos democráticos).
Estes sistemas devem ser registados numa base de dados pública e cumprir várias regulamentações em torno da gestão de riscos, governança de dados, monitorização e manutenção de registos, transparência e supervisão humana.
Risco Limitado
Os sistemas de risco limitado incluem IA de uso geral e sistemas desenvolvidos para interagir diretamente com pessoas, como chatbots, manipulação de imagens e sistemas de reconhecimento emocional ou categorização biométrica. Estes terão de cumprir obrigações de transparência e leis de direitos de autor. Os fornecedores e implementadores terão de garantir que o conteúdo é identificado como gerado por IA e que as pessoas estejam cientes de que estão a interagir com ou a ser expostas à IA.
Risco Mínimo ou Nulo
Os sistemas de risco mínimo ou nulo incluem todos os outros sistemas que não se encaixam em nenhuma das categorias anteriores. Estes sistemas não têm restrições ou regulamentações específicas.
E quanto à investigação e à saúde?
Para garantir que o desenvolvimento e a inovação não são significativamente prejudicados por regulamentações rígidas, a lei da IA exclui todos os sistemas desenvolvidos exclusivamente para pesquisa, desenvolvimento ou prototipagem. Assim, espera-se que haja muito pouco impacto nessas áreas. No entanto, os investigadores devem sempre garantir que consideram as implicações éticas do seu trabalho e aderem às melhores práticas de transparência, segurança e privacidade.
Os sistemas desenvolvidos para a saúde são abrangidos pelo AI Act da UE e categorizados de acordo com os quatro níveis de risco possíveis. Os sistemas considerados dispositivos médicos e aqueles desenvolvidos para tomar decisões de despacho de meios de emergência, triagem, ou terapêuticas, e ferramentas de diagnóstico e monitorização de pacientes serão considerados de alto risco e estarão sujeitos a todas as restrições e regulamentações impostas pelo quadro. Outros serão considerados de risco limitado, devendo cumprir obrigações de transparência.
O futuro
A lei da IA da UE é a primeira do seu género e estabelece um precedente para outros intervenientes globais, incluindo os EUA e a China, que estão atualmente a desenvolver as suas próprias regulamentações de IA.
Com previsão de início para maio ou junho, e as obrigações para IA de risco limitado e de alto risco a vigorarem um e três anos depois, respetivamente, o AI Act da UE tem sido alvo tanto de elogios quanto de críticas. Apesar da lei representar um passo crucial na mitigação dos riscos associados à IA, foram levantadas preocupações sobre certas isenções para autoridades policiais e gestão de asilo e migração, bem como possíveis omissões na abordagem de riscos sociais, para além de danos individuais.
No entanto, a lei significa um marco na governação da IA, ao tentar equilibrar a promoção da inovação e a salvaguarda dos direitos humanos fundamentais. Embora as críticas sejam válidas e não devam ser ignoradas, a lei constitui uma base para possíveis melhorias futuras. É imperativo que as regulamentações de IA continuem a evoluir para enfrentar desafios emergentes e manter os princípios éticos, garantindo que os benefícios da IA sejam maximizados enquanto seus riscos são mitigados.
Recursos:
EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act - website (em inglês) que disponibiliza atualizações, análises da Lei da IA da UE, bem como um verificador de conformidade e um explorador da Lei da IA.