Gisele Boselli: ChatGPT na relação médico-paciente

Uncategorized

Diariamente, somos inundados por notícias sobre inteligência artificial e suas aplicações em nossa vida cotidiana, seja no âmbito pessoal ou profissional. Interessados ou não, precisamos enfrentar o tema, uma vez que não se trata de modismo passageiro, a inteligência artificial já está provocando impactos hoje.

No consultório médico, além das queixas tradicionais, os pacientes frequentemente trazem as possibilidades diagnósticas, algumas vezes apresentadas pelo ChatGPT ou por sistemas similares. As respostas geradas pela IA vão além de definições simples obtidas por mecanismos de busca, como o Google. Elas se apresentam cada vez mais refinadas e coerentes, especialmente quando o usuário sabe como conduzir a pesquisa.

Num futuro próximo, os médicos serão incentivados a utilizar tecnologias dotadas de inteligência artificial para auxílio nos diagnósticos, prognósticos e para definir as possibilidades terapêuticas. Existe uma grande expectativa de que elas também atuem para reduzir encargos administrativos e custos operacionais e que proporcionem equidade no acesso à saúde. No entanto, é importante que antes, encaremos os desafios que se apresentam.

O GPT-4, desenvolvido pela empresa OpenAI, é o mais conhecido sistema de inteligência artificial atualmente. Ele se utiliza de Processamento de Linguagem Natural (PLN) para gerar respostas a perguntas e comandos do usuário.  Essas repostas são geradas em decorrência de um treinamento da máquina, que estabelece correlações a partir de uma ampla variedade de textos ou registros de seu banco de dados, que podem ser escritos, orais ou imagéticos.

Graças à enorme capacidade de memória e processamento de informações, as máquinas oferecem possibilidades ampliadas de solucionar casos complexos ou raros, especialmente desafiadores aos humanos. Quando programadas adequadamente, elas podem manter um grande volume de estudos e pesquisas atualizados, contribuindo para a prática médica.

Apesar de não ser especificamente treinado para a área da saúde [1], o GPT-4 demonstra uma habilidade significativa em fornecer respostas coerentes, especialmente na definição de conceitos e nas possibilidades diagnósticas de doenças mais comuns e que tenham sido amplamente documentadas. Contudo, para casos complexos ainda não há confiança na utilização irrestrita desta ferramenta, especialmente pela falta de clareza em relação ao processo de geração de respostas. Isso ocorre porque a inteligência artificial do tipo generativa, após ser treinada por humanos, atinge um nível em que estabelece relações de forma autônoma, por meio de cálculos de probabilidade, que nem sempre são verificáveis ou validáveis.

Esse fenômeno é conhecido como “opacidade” e apresenta-se como um obstáculo significativo para a utilização ampla da inteligência artificial generativa. Cientistas de dados trabalham na tentativa de mitigar os efeitos desta caixa preta e solucionar o “black box problem” [2]. Neste estágio, questiona-se se há segurança suficiente para empregar o GPT-4 como ferramenta auxiliar em diagnósticos, prognósticos ou indicações de tratamentos médicos.

A ideia de treinar o GPT-4 para a área da saúde é de grande interesse do desenvolvedor desta tecnologia e de outras empresas. Nas palavras de Sam Altman, o CEO da OpenAI, “a Medicina é um campo onde os riscos são reais e imediatos. Devemos realizar um trabalho urgente na compreensão não apenas dos benefícios, mas também das limitações atuais, para pensar cuidadosamente em como maximizar os benefícios da inteligência artificial de uso geral na medicina, ao mesmo tempo em que se minimizam os riscos” [3].

Vale ressaltar que, apesar da recente revolução tecnológica, certos princípios permanecem inalterados, como a boa-fé objetiva que permeia a relação médico-paciente. Cabe ao médico, ao empregar qualquer ferramenta de apoio que possa influenciar suas decisões, compartilhar com o paciente, por meio do esclarecimento amplo, os riscos e benefícios desse uso e obter o consentimento apropriado, sob pena de assumir integralmente a responsabilidade pelo desfecho clínico.

As discussões sobre IA devem, necessariamente, convergir para os dilemas bioéticos envolvidos nessas aplicações e a responsabilidade pelo uso, especialmente na eventual falha ou anomalia do sistema que resulte em risco para a saúde ou segurança do paciente.

Neste contexto, já surgem projetos de regulação da inteligência artificial, buscando de alguma forma gerir os riscos desses sistemas e estabelecer parâmetros, sem, no entanto, prejudicar a pesquisa e o desenvolvimento de uma tecnologia tão promissora.

Enquanto o projeto da União Europeia aguarda os trâmites finais para sua aprovação, no Brasil existe um projeto de lei ainda em fase inicial, tramitando no Senado Federal.

Metaforicamente, podemos afirmar que “o elefante já está na sala” e ainda não decidimos o que fazer com ele. Diante do desconforto causado pela nova situação, parece mais sensato optar por discutir as possibilidades e enfrentar o enorme desafio, cientes de que, independentemente da solução, haverá algum impacto. Há quem tentará salvar sofá, enquanto outros preferirão proteger a cristaleira.

 


[1] LEE, Peter; GODLBERG, Carey; KOHANE, Isaac. The AI revolution in Medicine: gpt-4 and beyond. [S.L.]: Pearson Education Inc., 2023; p.26.

[2] KFOURI NETO, Miguel; NOGAROLI, Rafaella; SILVA, Michael Cesar; FALEIROS JUNIOR, José Luiz de Moura. Inteligência Artificial e Responsabilidade Médica no Contexto dos Hospitais Virtuais. In: BARBOSA, Mafalda Miranda et al (org.). Direito Digital e Inteligência Artificial: diálogos entre brasil e europa. Indaiatuba: Foco, 2021. Cap. 60. p. 1079-1107.

[3] LEE, Peter; GODLBERG, Carey; KOHANE, Isaac. Ibidem, p.xvi. Tradução gerada por meio do OpenAI GPT-3. (2023).

Fonte: https://www.conjur.com.br/2023-set-03/gisele-boselli-chatgpt-relacao-medico-paciente