Os modelos de linguagem de grande porte (LLMs, na sigla em inglês) estão a ser incorporados às tarefas diárias de pessoas e organizações, desde a educação até o apoio à tomada de decisões e, por isso, o que a sociedade e as autoridades exigem das empresas que os desenvolvem e treinam é que não gerem conteúdos ilegais, violentos ou prejudiciais. No entanto, investigadores e agentes maliciosos continuam a explorar os seus limites para verificar até que ponto essas barreiras podem ser contornadas.
Um estudo recente da Cybernews revela que os principais chatbots de IA são suscetíveis de serem enganados por meio de prompts, ou seja, formulando as instruções que devem seguir de uma determinada maneira, para produzir resultados que, teoricamente, lhes são proibidos. Os testes realizados mostram que a segurança dos modelos de linguagem continua a ser uma questão em aberto e que o simples facto de um sistema rejeitar determinados pedidos não significa que seja completamente seguro. Ler mais

Sem comentários:
Enviar um comentário