Lei Europeia da IA: Implicações para o Sector da Saúde

No blog anterior, discutimos a lei Europeia da Inteligência Artificial (IA) recentemente aprovada e o seu sistema de classificação e regulação de sistemas de IA com base nos níveis de risco. Neste blog, iremos aprofundar como a lei será aplicada à IA utilizada no setor da saúde, e como a IA explicável pode ajudar a alcançar os objetivos de segurança e transparência estabelecidos por lei.

A IA promete revolucionar a medicina. Os sistemas de IA são capazes de analisar vastas quantidades de dados médicos para identificar padrões invisíveis ao olho humano, prever com maior precisão o risco de desenvolver determinadas doenças e até mesmo auxiliar os médicos no diagnóstico. Tal poderá levar a intervenções mais precoces e planos de tratamento mais personalizados.

No entanto, com estes benefícios vêm também riscos significativos que não devem ser ignorados. Algumas das principais preocupações são:

  • Dano ao paciente devido a erros: Os sistemas de IA não são infalíveis. Erros nos dados, algoritmos ou implementação podem levar a diagnósticos errados, recomendações de tratamento inadequadas e até mesmo danos aos pacientes.
  • Perpetuação de viés na saúde: A IA é apenas tão boa quanto os dados em que é treinada. Vieses presentes nos dados de saúde (por exemplo, ausência de dados sobre certos grupos de pacientes) podem ser amplificados por algoritmos, levando a resultados injustos e discriminatórios para certos grupos de pacientes.
  • Falta de transparência: Muitos sistemas de IA, especialmente modelos complexos de aprendizagem profunda, são frequentemente chamados de "caixas negras". Sem entender como um sistema de IA chega a uma decisão, é difícil avaliar sua confiabilidade e identificar possíveis vieses.
  • Privacidade e Segurança de Dados: O uso de IA na saúde frequentemente depende de vastas quantidades de dados dos pacientes. Garantir a privacidade e segurança desses dados sensíveis é crucial.
  • Responsabilidade por decisões apoiadas por IA: Quem é responsável se um sistema de IA cometer um erro que prejudique um paciente? Esta permanece uma questão complexa, particularmente no campo da saúde.

Regulamentações são necessárias para mitigar estes riscos, enquanto tiramos proveito dos benefícios que a IA pode trazer.

Como é que será regulamentada a IA utilizada no sector da saúde?

A Lei da IA da UE estabelece regulamentações para o desenvolvimento e uso de IA em vários setores, incluindo a saúde. Assim como em todos os outros sistemas, os sistemas de IA utilizados na saúde serão classificados e regulamentados de acordo com seu nível de risco. Muitas aplicações de IA no setor da saúde deverão enquadrar-se na categoria de alto risco e terão de cumprir os requisitos para este nível de risco.

De acordo com a Lei da IA, sistemas de alto risco são aqueles "destinados a serem utilizados como componente de segurança de um produto, ou que são eles próprios um produto, cobertos pela legislação de harmonização da União, listados no Anexo II" e são "obrigados a passar por uma avaliação de conformidade por terceiros".

O Anexo II lista Dispositivos Médicos e Dispositivos Médicos para Diagnóstico In Vitro (DIV), o que significa que a IA que satisfaz a definição de dispositivo médico e está sujeita a uma avaliação de conformidade por terceiros sob o Regulamento de Dispositivos Médicos (RDM) será considerada de alto risco.

O RDM define Dispositivos Médicos como "qualquer (...) software (...) destinado pelo fabricante a ser utilizado, sozinho ou em combinação, para seres humanos para um ou mais dos seguintes fins médicos específicos:

  • Diagnóstico, prevenção, monitorização, previsão, prognóstico, tratamento ou alívio de doenças;
  • Diagnóstico, monitorização, tratamento, alívio ou compensação de lesões ou incapacidades;
  • Investigação, substituição ou modificação da anatomia ou de um processo ou estado fisiológico ou patológico;
  • Fornecimento de informações por meio de exames in vitro de amostras derivadas do corpo humano, incluindo doações de órgãos, sangue e tecidos. (...)"

O RDM também utiliza uma abordagem baseada em riscos para classificar dispositivos médicos em categorias e determinar os requisitos de avaliação de conformidade. As categorias são (simplificadas):

  • Dispositivos de Classe I: Baixo risco, não invasivos, dispositivos ou aparelhos, usados para funções básicas e que apresentam perigo mínimo para os pacientes. Estes incluem dispositivos estéreis e dispositivos de medição.
  • Dispositivos de Classe IIa: dispositivos de baixo a médio risco, implantados/aplicados dentro do corpo por 60 minutos a 30 dias.
  • Dispositivos de Classe IIb: dispositivos de médio a alto risco, implantados/aplicados dentro do corpo por períodos de 30 dias ou mais.
  • Dispositivos de Classe III: dispositivos de alto risco, invasivos. Geralmente inseridos no sistema nervoso ou circulatório central e usados para suportar função vital, ou em procedimentos críticos.

Os dispositivos de Classe I não requerem avaliação de conformidade por terceiros e, portanto, não serão considerados de alto risco segundo a Lei da IA. Todos os outros requerem, tornando-os sistemas de IA de alto risco. Além disso, a maioria dos dispositivos médicos DIV também requer avaliação de conformidade e serão considerados de alto risco.

Além dos Dispositivos Médicos, casos de uso específicos relacionados com o setor da saúde no Anexo III da Lei da IA da UE também são considerados de alto risco. Estes são categorização biométrica, IA usada para determinar a elegibilidade para assistência médica e IA usada para triagem ou sistemas de acionamento de reposta de emergência.

Em resumo, a IA utilizada para categorização biométrica, tomar decisões sobre diagnóstico, elegibilidade para assistência médica, triagem, resposta de emergência, ou terapia, monitorar processos fisiológicos ou que será usada para contraceção, é classificada como de alto risco segundo a Lei da IA.

Dependendo do nível de risco, os sistemas de IA utilizados na área da saúde terão de cumprir certos requisitos sob a Lei da IA.

Sistemas de risco limitado terão de cumprir obrigações de transparência e direitos de autor. Fornecedores e implementadores terão de garantir que o conteúdo é identificado como gerado por IA e que os utilizadores estão cientes de que estão a interagir com ou a ser expostas à IA.

Sistemas de alto risco terão de cumprir múltiplas regulamentações relacionadas com a gestão de riscos, governança de dados, monitorização e manutenção de registos, transparência e supervisão humana.

Os fornecedores terão de:

  • Estabelecer, implementar e manter um sistema de gestão de riscos
  • Estabelecer e implementar um sistema de gestão de qualidade na empresa/instituição
  • Elaborar e manter atualizada a documentação técnica
  • Se possível, salvar os logs gerados automaticamente pelo sistema de IA
  • Submeter-se à avaliação de conformidade e, potencialmente, à reavaliação do sistema (em caso de modificações significativas) antes da sua colocação no mercado ou entrada em serviço
  • Realizar monitorização pós-venda
  • Tomar medidas corretivas se o sistema não estiver em conformidade com os requisitos e informar as autoridades competentes nacionais sobre a não-conformidade e as medidas corretivas tomadas
  • A pedido de uma autoridade competente nacional, demonstrar a conformidade do sistema de IA de alto risco com os requisitos
  • Registar o sistema de IA no banco de dados da UE
  • Colocar a marca CE e assinar a declaração de conformidade
  • Colaborar com as autoridades de vigilância do mercado

Os utilizadores serão obrigados a:

  • Usar sistemas de IA de alto risco de acordo com as instruções de uso
  • Monitorizar o funcionamento dos sistemas de IA
  • Reportar quaisquer falhas aos fornecedores
  • Realizar uma avaliação de impacto de proteção de dados, quando aplicável.

Inteligência Artificial Explicável (XAI): Não é obrigatória, mas pode ser benéfica

Um aspecto crítico enfatizado pela Lei Europeia da IA é a importância da transparência e supervisão humana, especialmente em sistemas de IA de alto risco. Embora o ato não a exija, a Inteligência Artificial Explicável (XAI) pode ser útil para cumprir com as obrigações de confiança e transparência definidas pela lei.

O campo da XAI surgiu em resposta a um dos desafios mais críticos da IA: entender como os modelos de IA chegam às suas decisões. Muitas vezes, os algoritmos de aprendizagem automática funcionam como caixas negras, recorrendo a processos de tomada de decisão complexos construídos a partir de extensas iterações sobre dados de treino. Tal dificulta a compreensão do seu funcionamento interno por humanos e levanta preocupações sobre a justiça, ética e responsabilidade das decisões.

A explicabilidade é, então, fundamental para garantir que as decisões de IA são justificadas e éticas, à medida que os sistemas de IA se integram cada vez mais em diversos aspectos da sociedade. De facto, em domínios como a saúde, onde as decisões tomadas com apoio de IA impactam diretamente a vida humana, garantir que os sistemas de IA possam fornecer explicações claras e compreensíveis para as suas decisões é particularmente importante para a segurança dos pacientes.

A XAI emprega técnicas e métodos que permitem rastrear e explicar cada decisão tomada pelo algoritmo de aprendizagem automática, com base em 3 princípios principais:

  • Precisão da previsão: a precisão das previsões é uma medida-chave da eficácia da IA nas operações diárias. É determinada executando simulações e comparando os resultados da XAI com os resultados dos dados de treino.
  • Rastreabilidade: rastrear as decisões dos sistemas de IA, os dados usados pelo sistema de IA e as conexões feitas durante o processo de tomada de decisão é importante para a transparência do sistema.
  • Compreensibilidade: é imperativo que as pessoas entendam a metodologia e o comportamento do sistema de IA, e como e porquê é que o mesmo está a ser usado.

A XAI fornece uma base para uma IA mais transparente e confiável, permitindo uma maior responsabilidade e justiça no uso destes sistemas. Embora não seja obrigatório por lei, usar técnicas de XAI no desenvolvimento sistemas de IA destinados a serem usados na saúde pode ser uma maneira de garantir segurança e transparência, conforme exigido pela Lei da IA.

A Lei Europeia da IA apresenta tanto oportunidades quanto desafios para o futuro da IA na saúde. Embora sejam necessários mais esclarecimentos para conjugar com regulamentações existentes e garantir que as entidades reguladoras sejam capazes de cumprir as responsabilidades a si atribuídas por esta nova legislação, a lei destaca a importância de prioritizar a segurança do paciente, a justiça e os padrões éticos em soluções de saúde apoiadas por IA. Criadores dos sistemas e profissionais e instituições de saúde que utilizam estas soluções devem sempre estar atentos aos riscos potenciais e procurar empregar metodologias e práticas para os mitigar. O objetivo é aproveitar ao máximo o potencial da IA para melhorar a qualidade dos cuidados prestados aos pacientes, mantendo a transparência, integridade e confiança na sua implementação.

Recursos:

Interpreting the EU Artificial Intelligence Act for the Health Sector – Artigo sobre como a Lei Europeia da IA se aplica ao setor da saúde, incluindo exemplos de como diferentes tipo de aplicações de IA serão classificadas

Artificial intelligence in healthcare: Applications, risks, and ethical and societal impacts – Estudo Europeu sobre a utilização da IA em medicina e os potenciais riscos e impactos sociais e éticos

The role of explainable AI in the context of the AI Act – Uma análise sobre o uso XAI in no context da Lei Europeia da IA, desafios e oportunidades