Investigação publicada na Nature Medicine revela que modelos de linguagem baseados em IA geram informações enganadoras e não ajudam doentes a tomar melhores decisões sobre saúde.
Os grandes modelos de linguagem (LLM), baseados em inteligência artificial (IA) e treinados para processar e compreender a linguagem natural em larga escala, representam um risco para quem procura conselhos médicos, por fornecerem informações imprecisas e inconsistentes.
De acordo com um estudo publicado na segunda-feira na Nature Medicine, ainda existe um grande fosso entre o que os LLM (Learning Management Models, em inglês) prometem e a sua utilidade real para os doentes que procuram informação sobre os seus sintomas. Ler mais

Sem comentários:
Enviar um comentário