Durante meses ouvimos a mesma garantia reconfortante: os grandes modelos de linguagem não “memorizam”, não “guardam”, não “aprendem consigo”. Apenas calculam probabilidades. Apenas preveem a próxima palavra.
Soava técnico. Soava tranquilizador. Soava conveniente. Mas começa a soar insuficiente.
Investigadores das Universidades de Stanford e Yale têm demonstrado que modelos de linguagem conseguem, sob certas condições, reproduzir excertos quase literais de dados de treino — incluindo texto identificável. Não apenas “padrões estatísticos”. Sequências concretas. Conteúdo específico. A distinção entre “aprender” e “copiar” torna-se menos filosófica quando o resultado é materialmente idêntico. E isso muda o debate. Ler mais

Sem comentários:
Enviar um comentário