segunda-feira, 17 de novembro de 2025

Estudo demonstra que é possível enganar os assistentes de IA para que façam o que lhes é proibido

 A forma como o prompt é redigido é determinante para enganar um modelo de linguagem grande e fazer com que ele forneça informações que, em teoria, lhe são proibidas. Os testes foram realizados com os modelos que equipam os principais chatbots do mercado.

Os modelos de linguagem de grande porte (LLMs, na sigla em inglês) estão a ser incorporados às tarefas diárias de pessoas e organizações, desde a educação até o apoio à tomada de decisões e, por isso, o que a sociedade e as autoridades exigem das empresas que os desenvolvem e treinam é que não gerem conteúdos ilegais, violentos ou prejudiciais. No entanto, investigadores e agentes maliciosos continuam a explorar os seus limites para verificar até que ponto essas barreiras podem ser contornadas.

Um estudo recente da Cybernews revela que os principais chatbots de IA são suscetíveis de serem enganados por meio de prompts, ou seja, formulando as instruções que devem seguir de uma determinada maneira, para produzir resultados que, teoricamente, lhes são proibidos. Os testes realizados mostram que a segurança dos modelos de linguagem continua a ser uma questão em aberto e que o simples facto de um sistema rejeitar determinados pedidos não significa que seja completamente seguro. Ler mais

Sem comentários:

Enviar um comentário

Jornal As Beiras - 26-12-2025