Academia Médica
Academia Médica
Você procura por
  • em Publicações
  • em Grupos
  • em Usuários
loading
VOLTAR

Inteligência Artificial na Oncologia

Inteligência Artificial na Oncologia
Academia Médica
abr. 1 - 4 min de leitura
000
O uso da Inteligência Artificial (IA) na oncologia tem ganhado cada vez mais destaque, com a promessa de revolucionar a descoberta e o tratamento do câncer. Recentemente, modelos de IA aplicáveis à oncologia foram aprovados pelo FDA nos Estados Unidos, sinalizando um novo capítulo no cuidado personalizado do câncer. Contudo, essa evolução traz consigo importantes questões éticas relacionadas ao viés da IA, sua capacidade de explicação, responsabilidade por erros ou mau uso, e a deferência dos seres humanos aos seus resultados.

A pesquisa publicada no JAMA Network Open em 28 de março de 2024 explorou a perspectiva dos oncologistas sobre as implicações éticas do uso da IA no cuidado do câncer. O estudo realizou uma pesquisa transversal com oncologistas praticantes nos Estados Unidos, de novembro de 2022 a julho de 2023, alcançando uma taxa de resposta de 52,7%. Os participantes responderam a questões abrangendo diversos domínios, incluindo familiaridade com IA, previsões, explicabilidade, viés, deferência e responsabilidades.

🟦 A tabela abaixo detalha as características dos participantes da pesquisa:

Fonte:  Hantel A, Walsh TP, Marron JM, et al., 2024

Os resultados revelaram que uma grande parte dos oncologistas não tinha treinamento prévio em IA, com 53,4% dos respondentes indicando falta de educação específica na área. Apesar disso, 93,1% dos participantes expressaram interesse em treinamento dedicado, embora 75% não conhecessem recursos apropriados para tal. Os oncologistas em práticas acadêmicas demonstraram maior familiaridade e otimismo em relação às capacidades da IA em melhorar o manejo de efeitos adversos e decisões de final de vida, comparados aos de outras práticas.

Quando questionados sobre a necessidade de consentimento informado dos pacientes para o uso de modelos de IA na tomada de decisões de tratamento, 81,4% dos respondentes concordaram. No entanto, essa perspectiva variou significativamente em relação à formação prévia em IA e ao ambiente de prática, indicando uma associação entre a falta de treinamento prévio e a percepção da necessidade de consentimento.

Um ponto de destaque é a responsabilidade associada aos problemas médico-legais decorrentes do uso da IA. A maioria dos oncologistas (90,7%) acredita que os desenvolvedores de IA deveriam assumir a responsabilidade por tais questões, embora muitos também vejam uma responsabilidade compartilhada entre médicos e hospitais.

A pesquisa também abordou o problema do viés da IA, com 76,5% dos respondentes concordando que é responsabilidade dos oncologistas proteger os pacientes contra ferramentas de IA enviesadas. No entanto, menos de um terço dos oncologistas sentiram-se confiantes em sua capacidade de avaliar quão representativos são os dados usados nos modelos de IA.

📈 O gráfico abaixo, extraído da pesquisa original, destaca as respostas a duas questões fundamentais que avaliam quais tipos de partes interessadas — pesquisadores, oncologistas ou pacientes — devem ser capazes de explicar um modelo de Inteligência Artificial para que ele possa ser utilizado na prática clínica:

Fonte:  Hantel A, Walsh TP, Marron JM, et al., 2024

📈 Já o gráfico abaixo, explora as respostas dos participantes a um cenário hipotético em que um modelo de Inteligência Artificial (IA), aprovado pelo FDA, sugere um regime de tratamento diferente daquele planejado inicialmente pelo oncologista:

Fonte:  Hantel A, Walsh TP, Marron JM, et al., 2024

Este estudo ilumina importantes barreiras que podem impedir a adoção ética da IA no cuidado do câncer, apontando para uma discrepância entre as responsabilidades percebidas dos oncologistas e sua preparação para enfrentar o viés relacionado à IA. Destaca-se a necessidade de treinamento dedicado e recursos educacionais para os profissionais de saúde, bem como uma avaliação rigorosa dos impactos da IA nas decisões de cuidado e na responsabilidade decisória quando problemas relacionados ao seu uso surgem.


Referência: 

Hantel A, Walsh TP, Marron JM, et al. Perspectives of Oncologists on the Ethical Implications of Using Artificial Intelligence for Cancer Care. JAMA Netw Open. 2024;7(3):e244077. doi:10.1001/jamanetworkopen.2024.4077


Denunciar publicação
    000

    Indicados para você