Pesquisadores da Universidade de Long Island conduziram um estudo avaliando a versão gratuita do chatbot de inteligência artificial (IA), o ChatGPT, em relação a perguntas sobre medicamentos. O estudo comparou as respostas fornecidas pelo ChatGPT com informações reais de farmacêuticos treinados em 39 perguntas relacionadas a medicamentos, provenientes do serviço da Faculdade de Farmácia da universidade.
Os resultados do estudo, apresentados durante a reunião anual da Sociedade Americana de Farmacêuticos de Sistemas de Saúde, mostraram que o ChatGPT forneceu respostas precisas para apenas cerca de 10 das perguntas, representando aproximadamente um quarto do total. Nas outras 29 perguntas, as respostas eram incompletas, imprecisas ou não abordavam adequadamente as questões.
O ChatGPT, um chatbot experimental de IA desenvolvido pela OpenAI, ganhou popularidade rapidamente após seu lançamento em novembro de 2022, registrando quase 100 milhões de usuários em dois meses. Os pesquisadores ficaram preocupados com a possibilidade de estudantes, farmacêuticos e consumidores utilizarem o ChatGPT para esclarecer dúvidas sobre seus planos de saúde e medicações.
O estudo revelou que as respostas fornecidas pelo ChatGPT eram, por vezes, imprecisas e, em alguns casos, perigosas. Em uma situação específica, ao questionarem sobre a interação entre o medicamento antiviral Paxlovid, para a Covid-19, e o medicamento para baixar a pressão arterial verapamil, o ChatGPT deu uma resposta que poderia resultar em uma queda perigosa da pressão arterial, colocando os pacientes em risco.
Os pesquisadores também descobriram que, ao solicitar referências científicas para embasar as respostas do ChatGPT, o software fornecia citações fictícias. Em um exemplo, ao perguntarem sobre a conversão de doses de baclofeno, o ChatGPT apresentou uma taxa de conversão única, citando orientações de organizações médicas inexistentes, o que poderia levar a administração de doses incorretas.
Os achados do estudo reforçam preocupações previamente levantadas sobre o ChatGPT, indicando que o chatbot pode criar referências científicas falsas quando questionado sobre questões médicas. A OpenAI aconselha os usuários a não confiarem nas respostas do ChatGPT como substitutos de aconselhamento médico profissional, destacando que os modelos não são ajustados para fornecer informações médicas. Entretanto, a pesquisa alerta para o risco de pacientes e profissionais de saúde confiarem excessivamente em respostas geradas por IA, destacando a importância do aconselhamento profissional e fontes confiáveis ao buscar informações sobre saúde.