Original en portugués
Leer la traducción al español aquí
Carina Dantas. CEO. SHINE 2Europe. Coimbra (Portugal)
Miriam Cabrita. Gestora de projetos. SHINE 2Europe. Coimbra (Portugal)
Luís Midão. Gestor de projetos. Centro de Investigação em Tecnologias e Serviços de Saúde (CINTESIS). Porto (Portugal)
Elísio Costa. Professor. Centro de Investigação em Tecnologias e Serviços de Saúde (CINTESIS). Porto (Portugal)
As questões éticas relacionadas com a Inteligência Artificial (I.A.) são um tópico emergente e em constante mudança. Encontram-se no centro da agenda política europeia, mas não tem sido fácil atingir consensos alargados sem longas e difíceis negociações.
Os desafios éticos a enfrentar são complexos e multidisciplinares, pelo que a sua categorização facilita uma análise detalhada. Do trabalho desenvolvido relativamente à utilização de soluções digitais baseadas em I.A. na área da saúde, através de revisão de literatura, workshops e entrevistas com peritos, profissionais e pacientes, propõem-se as seguintes categorias: (1) Desafios individuais (humanos); (2) Desafios técnicos: (3) Desafios organizacionais; e (4) Desafios societais.
É necessário um modelo abrangente, que analise os desafios éticos desde a ideação de qualquer solução tecnológica e os aborde iterativamente, com um amplo envolvimento das várias partes interessadas, para promover a inclusão, a igualdade de acesso e uma utilização mais justa da I.A. na saúde.
A Inteligência Artificial (I.A.) traz a expectativa de melhorias para a vida quotidiana dos cidadãos, prometendo remodelar profundamente a indústria, os cuidados de saúde e a sociedade como um todo. Desde o tratamento médico à cibersegurança, passando pelos veículos autónomos e pelas decisões jurídicas, espera-se que a I.A. aumente a eficiência através da automatização de processos e melhoria na tomada de decisões, acelerando a análise e a avaliação de grandes volumes de dados. No entanto, à medida que estas tecnologias são desenvolvidas, testadas e implementadas, surgem preocupações relativamente às suas implicações éticas, sociais e legais.
As convenções e normas sociais estabelecem expectativas predefinidas; estas, em conjunto com os valores pessoais, os princípios, o contexto cultural, as tradições e as experiências de vida, contribuem para a formação da visão individual do mundo, interiorizando determinados pressupostos ou pré-conceitos. A I.A. não existe no vazio, mas é construída a partir de algoritmos criados por humanos, transpondo assim essas preconceções e reproduzindo o julgamento humano. Ao compreender as fontes de enviesamento algorítmico e de dados, os conjuntos de dados podem ser diversificados; estar mais consciente dos potenciais vieses sociais e individuais pode ajudar a atenuá-los no desenvolvimento de soluções de I.A.
Embora algumas destas desigualdades sejam sistémicas, por exemplo, diferenças socioeconómicas, os preconceitos humanos também desempenham um papel significativo. Uma das causas mais comuns da falta de equidade na I.A. utilizada em áreas médicas é o enviesamento dos dados utilizados para treinar os algoritmos (Ricci Lara et al., 2022). Em consequência, muitas das coortes clínicas e de investigação existentes que podem ser utilizadas para treinar algoritmos de I.A. médica incorporam já desvios de representação nos dados.
Os dados de treino podem não estar completos, não ser representativos da população real ou incluir outros enviesamentos relevantes devido aos parâmetros definidos para a recolha de dados. Por exemplo, a maioria dos conjuntos de dados sobre cancro refere-se a doentes com mais de 60 anos de idade. No entanto, nos últimos anos, um grande número de doentes mais jovens foi diagnosticado com cancro, o que implica que os conjuntos de dados existentes podem não corresponder à população real atual (ver exemplo do cancro do intestino em Davis, 2018). Ao mesmo tempo, as comunidades LGBTIQ+ não são consideradas especificamente na vigilância do cancro, o que resulta na escassez de informações sobre a sobrevivência ao cancro destas populações (Boehmer et al., 2011). Este tipo de preconceito também se verifica na I.A. utilizada na deteção e tratamento de problemas de saúde como o cancro da pele. As imagens de doentes brancos são predominantemente utilizadas para treinar algoritmos de deteção de melanoma, o que pode levar a piores resultados para as pessoas negras (Kleinberg et al., 2022).
No entanto, os desafios éticos não se limitam aos dados. Vieses cognitivos (Hardman, 2010) inserem-se na categoria dos preconceitos humanos ou sociais e referem-se a sentimentos em relação a uma pessoa ou a um conjunto de pessoas com base na perceção da sua pertença a um grupo. Uma lista de mais de 180 preconceitos humanos, definida e classificada por psicólogos, mostra o que pode afetar os indivíduos quando têm de tomar uma decisão e podem, assim, infiltrar-se nos algoritmos de aprendizagem automática quando estes são concebidos. Um estudo efetuado por Cowgill et al. (2020) concluiu que «quanto mais homogénea for a equipa [de engenharia], maior é a probabilidade de um determinado erro de previsão aparecer». A falta de diversidade, multidisciplinaridade e educação ética nas equipas de desenvolvimento pode criar uma falta de sensibilidade moral e de consciência em relação às pessoas que enfrentam problemas de discriminação, levando a uma introdução inconsciente de preconceitos nos algoritmos.
Trata-se, pois, de um domínio complexo, complexidade essa que aumenta quando se analisam as diferentes áreas ou sectores de atividade na sua granularidade, já que muitos desafios éticos são transversais, mas outros são muito específicos de cada domínio. Embora muito trabalho tenha sido desenvolvido até agora em várias recomendações de alto nível, é necessário dispor de ferramentas coerentes e harmonizadas que possam ser aplicadas às áreas específicas de cada solução de I.A., nomeadamente as que implicam maiores riscos de causar danos aos cidadãos.
Para fazer face a estes desafios, a Comissão Europeia criou, em 2018, o Grupo Independente de Peritos de Alto Nível em Inteligência Artificial (AI HLEG), para estabelecer requisitos gerais para uma I.A. confiável na Europa. Este Grupo publicou uma lista de controlo de avaliação (Comissão Europeia. Direção-Geral das Redes de Comunicação, Conteúdos e Tecnologias, 2020) que fornece orientações e perguntas para incentivar o desenvolvimento da I.A. no sentido de uma maior fiabilidade. Embora esta lista de verificação seja um recurso valioso, os seus princípios são genéricos a todos os domínios da I.A. e da sociedade, e a sua aplicação em áreas distintas, nomeadamente nos cuidados de saúde, exige enquadramento e soluções adaptados.
Neste contexto, para garantir uma aceitação e utilização mais alargadas das ferramentas de I.A. no sistema de saúde do futuro, são necessárias novas abordagens para aumentar a consciencialização e a inclusão, bem como métodos para as validar e implementar em plena consonância com a diversidade de necessidades e contextos do mundo real.
Resultados
Do trabalho dos autores, nomeadamente na análise de literatura existente, combinada com opiniões de peritos em ética, regulamentação, ciência política, profissionais de saúde e de áreas tecnológicas, bem como pacientes e associações de doentes, foi possível sumariar algumas das questões mais relevantes a analisar no que concerne aos desafios éticos relacionados com a utilização de I.A. em soluções de saúde e as possíveis formas de os mitigar.
Muitos estudos baseiam-se em amostras enviesadas de doentes e em pequenos conjuntos de dados de apenas uma organização, sem validação externa (Bhowmik & Eskreis-Winkler, 2022) levando a questões sobre a exatidão das ferramentas de I.A.. Nesse sentido, as bases de dados partilhadas entre instituições podem ajudar a resolver algumas destas dificuldades, desde que garantida a privacidade dos doentes (Houssami et al., 2019).
Além disso, muitos estudos sobre ferramentas baseadas em I.A. são retrospetivos, carecendo de poder preditivo (Gong et al., 2022; Liang et al., 2022; Vedantham et al., 2023). São necessários estudos prospetivos, multicêntricos e em grande escala, com dados abrangentes e diretrizes de avaliação da qualidade, para que se possa avançar para a integração na prática clínica (Bhowmik & Eskreis-Winkler, 2022; Malherbe, 2021).
No entanto, a crescente abundância de dados que é necessária, está também a trazer desafios crescentes para os sistemas de saúde. Muitas vezes, as unidades de saúde não dispõem de um número adequado de peritos formados para anotar estes dados, o que é essencial para os modelos de I.A. (como discutido por Goisauf & Cano Abadía, 2022). Tanto os conjuntos de dados de treino como os de teste exigem uma anotação meticulosa e a rotulagem de metadados, utilizando formatos normalizados para permitir a avaliação e a otimização da equidade algorítmica (Chua et al., 2021). Por outro lado, garantir a total privacidade dos dados do doente é uma prioridade clara, tanto para efeitos de conformidade legal como ética. No entanto, a anonimização total dos dados é um grande desafio e implica frequentemente que os resultados obtidos pela I.A. não possam ser comparados com a evolução clínica do doente, dificultando a investigação e as oportunidades de aprendizagem adicional. A aprendizagem federada é uma das abordagens atualmente utilizadas para contornar as restrições de privacidade (Kandati & Anusha, 2023) pois permite o treino colaborativo de algoritmos sem partilhar registos médicos confidenciais, uma vez que os dados permanecem armazenados nos servidores originais.
Esta necessidade de grandes conjuntos de dados e de profissionais altamente qualificados constitui uma preocupação para os sistemas de saúde, especialmente quando se trata de ferramentas proprietárias baseadas em I.A., uma vez que estas podem estar acessíveis apenas a instituições com maiores recursos financeiros. Isso poderia agravar as desigualdades no acesso aos melhores cuidados de saúde, conforme destacado por Goisauf & Cano Abadía (2022). Além disso, a falta de análises de custo-eficácia e de investigação baseada em evidências sobre as ferramentas de I.A. faz com que estas não sejam facilmente incluídas nos regimes de reembolso e nos pacotes de seguros. De acordo com os peritos consultados, para ganhar a confiança dos pagadores, a ferramenta baseada em I.A. deve ser mais eficaz, apresentar menos erros e poder funcionar 24 horas por dia, em comparação com o trabalho humano. Adicionalmente, as despesas associadas às ferramentas baseadas em I.A. têm o potencial de aumentar a disparidade entre os indivíduos mais ricos e os que têm rendimentos mais baixos, se os conjuntos de dados utilizados para treinar estas ferramentas não incluírem dados de pessoas com um estatuto socioeconómico mais baixo, tal como referido por Cui et al. (2019) e, por conseguinte, não considerarem variáveis potencialmente relevantes para pessoas em situações vulneráveis.
Um desafio adicional emergente é a inclusão da I.A. na aplicação nacional do Regulamento dos Dispositivos Médicos (Radley-Gardner et al., 2016). Os procedimentos não são uniformes em toda a Europa e as equipas de investigação carecem de orientações e procedimentos claros sobre este tópico. Também na perspetiva da investigação, a maioria dos formulários de consentimento informado obtidos pelas organizações de cuidados de saúde relativamente aos dados dos doentes não inclui especificamente o treino de algoritmos, uma vez que a maioria destes consentimentos foi recolhida há muito tempo e não era uma necessidade clara na altura. Isto implica que os dados não podem ser utilizados para esse fim? Existe uma exceção de interesse público aplicável apesar da falta de consentimento claro para esse fim? (Reddy et al., 2020). Num outro aspeto relacionado com o consentimento, autores como Hickman et al. (2021) levantaram a questão de saber se «antes de efetuar cálculos como o do risco de desenvolver uma doença, o doente deveria ter de aprovar essa análise após aconselhamento por um profissional de saúde, à semelhança dos procedimentos atualmente previstos para os testes genéticos». A opinião do doente deve ser tida em conta para a utilização de tais instrumentos? Todas estas questões em aberto, bem como as respetivas questões regulamentares, são, por conseguinte, áreas-chave para mais investigação e desenvolvimento de políticas.
A utilização de ferramentas de I.A. também levanta a questão da responsabilidade (D’Amore et al., 2021; Houssami et al., 2019; Pesapane et al., 2022): quem deve ser responsabilizado em caso de erros de classificação? Os algoritmos são sequer compreensíveis, mesmo para profissionais experientes, como observam Iqbal e colegas (2021)?
Espera-se que uma ferramenta de I.A. forneça apoio consultivo, cabendo a decisão final aos conhecimentos do profissional de saúde. No entanto, podem surgir situações em que a tecnologia apresenta uma precisão e uma fiabilidade tão elevadas que a confiança nos seus dados se torna inevitável. Este facto realça a complexa relação entre confiança e responsabilidade no contexto dos cuidados de saúde baseados na I.A.. É por isso que a maturidade da própria tecnologia desempenha um papel importante na atribuição da responsabilidade. (Desafios da responsabilidade nas tecnologias médicas de IA, 2022) Embora a legislação existente tente identificar as potenciais partes responsáveis por previsões «erradas» (programadores, médicos, fornecedores de hardware), a questão permanece ambígua, especialmente com modelos de I.A. cada vez mais complexos (Schneeberger et al., 2020). Para navegar neste cenário em evolução, são importantes várias estratégias fundamentais. Em primeiro lugar, dispor de legislação nacional, internacional e/ou diretrizes hospitalares adequadas, atualizadas a um ritmo mais rápido e ligadas a resultados baseados em evidências. Adicionalmente, a promoção de abordagens de tomada de decisões colaborativas que incluam médicos, doentes e outros profissionais relevantes pode atenuar os riscos e garantir a partilha de responsabilidades (Hamilton et al., 2016). Sempre que possível, dar aos doentes a possibilidade de participarem ativamente nas decisões de tratamento promove a confiança e a transparência ao longo de todo o processo.
Ao implementar estas medidas, podemos garantir que as ferramentas de I.A. não só melhoram os resultados clínicos, como também funcionam num quadro de princípios éticos e legais claros.
Discussao
É crucial garantir a diversidade em todo o processo de desenvolvimento da I.A., desde a conceção até à implementação. Os programadores, os profissionais de saúde e os utilizadores finais devem receber informação, formação e conhecimentos adequados para identificar e atenuar os potenciais preconceitos. Isto sublinha a importância de desenvolver materiais educativos e de formação para todos os grupos de partes interessadas, promovendo a literacia em I.A. e assegurando que os profissionais de saúde (Lokaj et al., 2023) os doentes e outros atores relevantes tenham os conhecimentos e as competências necessárias para se envolverem efetivamente e beneficiarem das soluções baseadas em I.A. implementadas na prática diária (Lekadir et al., 2022). As discussões na literatura sobre o enviesamento na I.A. ignoram frequentemente as suas raízes mais profundas e os seus efeitos mais amplos. Quando o preconceito é visto apenas como um problema técnico com uma solução técnica, perdem-se aspetos importantes. Por conseguinte, é essencial incluir os pontos de vista das ciências sociais na exploração das preocupações éticas e sociais associadas à utilização da I.A. (Goisauf & Cano Abadía, 2022; Jongsma & Bredenoord, 2020).
Uma questão relevante é a necessidade de garantir que as previsões fornecidas por soluções baseadas em I.A. sejam compreensíveis, não só para os profissionais de saúde, mas também para os doentes e prestadores de cuidados. Para criar confiança nos doentes, é crucial fornecer informações sobre a eficácia da ferramenta e o seu desempenho global (por exemplo, incluindo informações sobre a sensibilidade e a especificidade). Como destacado no estudo de Fulmer & Dirks (2018), a confiança engloba várias dimensões: a confiança do hospital para adquirir a ferramenta orientada para a I.A., a confiança na tecnologia por parte da indústria que a desenvolve, a confiança dos médicos para a utilizar e, por último, mas não menos importante, também a confiança do doente.
No que respeita aos doentes, a situação torna-se ainda mais complexa, uma vez que a sua confiança nas ferramentas de I.A. é frequentemente influenciada pela sua confiança no hospital e mesmo num médico específico. No entanto, a dinâmica de poder entre o médico e o doente pode impedir os doentes de exprimirem preocupações válidas (Ozdemir & Finkelstein, 2018)? Equilibrar a confiança e o conhecimento continuam a ser questões relevantes na ética dos cuidados de saúde.
A validação científica dos algoritmos continua a ser uma preocupação fundamental para os profissionais de saúde e de prestação de cuidados. A falta de procedimentos de validação robustos, associada ao desalinhamento com os fluxos de trabalho clínicos estabelecidos, incluindo a fraca integração com as ferramentas existentes (Tsopra et al., 2021), coloca desafios. Além disso, a ausência de mecanismos de certificação adequados complica ainda mais as coisas quando se lida com ferramentas baseadas em I.A. Para promover a confiança entre os profissionais de saúde, uma estratégia pode ser fornecer documentação de acompanhamento sobre o desempenho, a usabilidade e a integração da ferramenta baseada em I.A. nas práticas de cuidados noutras organizações de saúde. Embora os profissionais de saúde não precisem de aprofundar pormenores técnicos complexos, devem ser capazes de compreender como os modelos chegaram a previsões específicas. Fornecer uma percentagem de precisão para cada previsão e explicar o raciocínio subjacente são passos cruciais. Afinal, os doentes, especialmente após um diagnóstico, estão num estado vulnerável e podem absorver apenas informações parciais. A clareza e a comunicação efetiva são fundamentais para criar confiança e garantir a tomada de decisões informadas.
Com base em todos os elementos recolhidos e discutidos, os autores propõem a seguinte categorização dos desafios e preconceitos éticos:
- Desafios individuais (humanos), como a falta de educação e formação adequadas, crenças e preconceitos individuais.
- Desafios técnicos, por exemplo, na conceção defeituosa do algoritmo, nos conjuntos de dados de formação enviesados e na interpretação incorreta dos resultados.
- Desafios organizacionais, por exemplo, falta de diversidade nas equipas, falta de métodos de auditoria, falta de ferramentas disponíveis.
- Desafios societais, como as desigualdades no domínio da saúde, a discriminação, as preocupações éticas e jurídicas, a falta de regulamentação adequada ou de políticas públicas.
Cada uma destas categorias pode ser expandida e adaptada com desafios de nível superior ou mais específicos, ajustando-a aos estudos de caso específicos que estão a ser analisados. Abordar estes desafios coletivamente é vital para a utilização ética e eficaz da I.A. nos cuidados de saúde.
As potenciais medidas de atenuação podem também ser agrupadas nestas mesmas quatro áreas:
Por exemplo, no que diz respeito aos fatores individuais (humanos), o desenvolvimento de materiais de formação e/ou educação específicos para cada tipo de destinatário é muito importante.
Em relação aos fatores técnicos, principalmente ligados à indústria, a tónica deve ser colocada na melhoria da robustez dos resultados da I.A., que necessitam de conjuntos de dados fiáveis, de boa qualidade e de grande dimensão. A auditoria e a supervisão regulares dos algoritmos são essenciais para garantir um bom desempenho a médio e longo prazo.
Quanto aos aspetos organizacionais, assegurar equipas multidisciplinares com formação adequada e aplicar métodos que garantam a participação dos cidadãos e das organizações da sociedade civil na conceção e no desenvolvimento de soluções de I.A. é fundamental para ultrapassar os preconceitos e os desafios detetados.
As medidas societais vão desde o envolvimento das partes interessadas até aos aspetos políticos, éticos, jurídicos e regulamentares. Os métodos decorrentes da inovação social e das ciências sociais, em combinação com os conhecimentos técnicos e clínicos, são úteis e devem continuar a ser investigados e aplicados com vista a uma sociedade mais inclusiva.
Conclussao
A partir da análise realizada, foi possível concluir que os desafios a enfrentar no desenvolvimento de ferramentas de I.A. nos cuidados de saúde são multifacetados e devem ser estruturados e analisados cuidadosamente.
O modelo proposto neste artigo para agrupar os desafios éticos e os enviesamentos da utilização da I.A. na saúde visa facilitar a análise e a resolução desses desafios no sentido de uma sociedade mais inclusiva, justa e fiável.