[ivory-search id="24338" title="AJAX Search Form"]

OMS aponta três riscos do uso da inteligência artificial na saúde

Notícias

Agência da ONU pede cautela com plataformas que simulam comunicação humana 

 

A inteligência artificial aplicada à saúde pode gerar orientações incorretas, violação de dados pessoais e disseminar desinformação. O alerta é da Organização Mundial da Saúde (OMS). 

 

A entidade pede cautela com plataformas, como ChatGPT, Bard, Bert e diversas outras que imitam a compreensão, o processamento e a produção da comunicação humana. 

 

Ampla difusão 

Segundo a OMS, as chamadas ferramentas de modelo de linguagem (LLMs), geradas por inteligência artificial, podem representar riscos para o bem-estar humano e para a saúde pública. 

 

Os especialistas da agência consideram que a rápida e ampla difusão das LLMs e o crescente uso experimental para fins relacionados com a saúde não está sendo acompanhado por mecanismos de controle. 

 

Isso inclui adesão das plataformas de inteligência artificial a valores, como transparência, inclusão, engajamento público, supervisão especializada e avaliação rigorosa. 

 

A OMS reconhece que o uso apropriado de tecnologias, incluindo LLMs, pode contribuir para apoiar profissionais de saúde, pacientes, pesquisadores e cientistas. 

 

As novas plataformas podem ser uma ferramenta de apoio às decisões médicas e aumentar a capacidade de diagnóstico em ambientes com poucos recursos. O foco deve estar em proteger a saúde das pessoas e reduzir a desigualdade. 

 

Adoção precipitada 

A OMS ressalta que os riscos associados ao uso dessas ferramentas para melhorar o acesso a informações de saúde precisam ser avaliados cuidadosamente. 

 

A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes e minar a confiança na inteligência artificial e em tecnologias futuras. 

 

Os dados usados ​​para treinar a inteligência artificial podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, à equidade e à inclusão. 

 

Algumas preocupações da OMS são: 

  • LLMs geram respostas que podem parecer confiáveis ​​e plausíveis para um usuário final. No entanto, podem estar completamente incorretas ou conter erros graves, especialmente para temas relacionados com a saúde;

 

  • LLMs podem ser treinadas em dados para os quais o consentimento pode não ter sido fornecido anteriormente. Além disso, essas ferramentas não protegem necessariamente dados confidenciais, incluindo de saúde, que um usuário fornece para gerar uma resposta; 

 

  • LLMs podem ser utilizadas para gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, tornando difícil para o público diferenciar conteúdo falso de conteúdo confiável. 

 

A OMS propõe que essas preocupações sejam abordadas com base em evidências. Uma análise de riscos e benefícios deve preceder o uso generalizado em cuidados de saúde e medicina de rotina, seja por indivíduos, prestadores de serviços e formuladores de políticas. 

 

FONTE: ONU

Cadastre sua instituição de ensino com a Fundação Mudes.

Ou entre em contato conosco:

Telefone: (21) 3094-1149

E-mail: gedipcal@fundacaomudes.net.br

Nós usamos cookies e outras tecnologias semelhantes para melhorar a sua experiência em nossos serviços, personalizar publicidade e recomendar conteúdo de seu interesse. Ao utilizar nossos serviços, você concorda com tal monitoramento. Informamos ainda que atualizamos nossa Política de Privacidade. Conheça nosso Portal da Privacidade e veja a nossa nova Política.