LLM
Large Language Models sao modelos treinados em grandes volumes de texto para compreender contexto, gerar linguagem natural e resolver tarefas baseadas em padroes estatisticos.
Consulte conceitos fundamentais usados em modelos modernos, pipelines de dados e sistemas inteligentes. A busca abaixo filtra os termos em tempo real.
Large Language Models sao modelos treinados em grandes volumes de texto para compreender contexto, gerar linguagem natural e resolver tarefas baseadas em padroes estatisticos.
Pesos neurais sao parametros numericos ajustados durante o treinamento. Eles definem quanta influencia cada conexao exerce sobre a saida de uma rede neural.
E o algoritmo que propaga o erro da saida para as camadas anteriores, permitindo atualizar os pesos e reduzir gradualmente a diferenca entre previsao e resultado esperado.
Retrieval-Augmented Generation combina busca em bases externas com geracao por LLM, trazendo contexto atualizado antes da resposta ser produzida.
Inferencia e o momento em que um modelo ja treinado recebe uma entrada e produz uma saida, como classificar dados, prever valores ou gerar texto.
Sao vetores numericos que transformam palavras, frases, imagens ou documentos em representacoes matematicas comparaveis por similaridade semantica.
Processo de ajustar um modelo pre-treinado com dados mais especificos para melhorar desempenho em um dominio, tarefa ou estilo de resposta.
Arquitetura baseada em mecanismos de atencao que revolucionou NLP e hoje sustenta grande parte dos modelos generativos multimodais.
Token e a unidade basica processada pelo modelo. Pode representar parte de uma palavra, uma palavra inteira ou simbolos, dependendo do tokenizador utilizado.
Ocorre quando um modelo gera uma resposta plausivel na forma, mas incorreta nos fatos, muitas vezes por falta de contexto confiavel ou limites de verificacao.