sexta-feira, 20 de fevereiro de 2026

O seu chatbot não é seu amigo

 

Durante meses ouvimos a mesma garantia reconfortante: os grandes modelos de linguagem não “memorizam”, não “guardam”, não “aprendem consigo”. Apenas calculam probabilidades. Apenas preveem a próxima palavra.

Soava técnico. Soava tranquilizador. Soava conveniente. Mas começa a soar insuficiente.

Investigadores das Universidades de Stanford e Yale têm demonstrado que modelos de linguagem conseguem, sob certas condições, reproduzir excertos quase literais de dados de treino — incluindo texto identificável. Não apenas “padrões estatísticos”. Sequências concretas. Conteúdo específico. A distinção entre “aprender” e “copiar” torna-se menos filosófica quando o resultado é materialmente idêntico. E isso muda o debate. Ler mais

Sem comentários:

Enviar um comentário

Guterres diz que ONU vai lançar comissão sobre o “controlo humano” da IA

  O secretário-geral das Nações Unidas, António Guterres, apelou hoje a “menos alarido e menos medo” em torno da inteligência artificial (I...