![Atualize o Proxmox Host para 8.1: tutorial e etapas](https://optimuscloud.com.br/wp-content/uploads/2024/01/1705608063_Atualize-o-Proxmox-Host-para-81-tutorial-e-etapas.png)
Atualize o Proxmox Host para 8.1: tutorial e etapas
18 de janeiro de 2024![GitHub atualiza plataforma com chaves de acesso e simplificação de DevOps](https://optimuscloud.com.br/wp-content/uploads/2024/01/GitHub-atualiza-plataforma-com-chaves-de-acesso-e-simplificacao-de.png)
GitHub atualiza plataforma com chaves de acesso e simplificação de DevOps
18 de janeiro de 2024A crescente popularidade dos grandes modelos de linguagem (LLM) também criou interesse na incorporação de modelos, sistemas de aprendizagem profunda que compactam os recursos de diferentes tipos de dados em representações numéricas.
Modelos de incorporação são um dos principais componentes da geração aumentada de recuperação (RAG), uma das aplicações importantes de LLMs para a empresa. Mas o potencial de incorporar modelos vai além das aplicações RAG atuais. O ano passado viu avanços impressionantes na incorporação de aplicativos e 2024 promete ter ainda mais em estoque.
Como funcionam as incorporações
A ideia básica dos embeddings é transformar um dado, como uma imagem ou documento de texto, em uma lista de números que representam suas características mais importantes. Os modelos de incorporação são treinados em grandes conjuntos de dados para aprender os recursos mais relevantes que podem diferenciar diferentes tipos de dados.
Por exemplo, na visão computacional, os embeddings podem representar características importantes, como a presença de certos objetos, formas, cores ou outros padrões visuais. Em aplicações de texto, os embeddings podem codificar informações semânticas, como conceitos, localizações geográficas, pessoas, empresas, objetos e muito mais.
Nas aplicações RAG, modelos de incorporação são usados para codificar as características dos documentos de uma empresa. A incorporação de cada documento é então armazenada em um armazenamento de vetores, um banco de dados especializado em registrar e comparar incorporações. No momento da inferência, a aplicação calcula a incorporação de novos prompts e os envia ao banco de dados vetorial para recuperar os documentos cujos valores de incorporação estão mais próximos do prompt. O conteúdo dos documentos relevantes é então inserido no prompt e o LLM é instruído a gerar suas respostas com base nesses documentos.
Este mecanismo simples desempenha um grande papel na personalização de LLMs para responder com base em documentos proprietários ou informações que não foram incluídas em seus dados de treinamento. Também ajuda a resolver problemas como alucinações, em que os LLMs geram factos falsos devido à falta de informação adequada.
Além do RAG básico
Embora o RAG tenha sido uma adição importante aos LLMs, os benefícios da recuperação e incorporação vão além da correspondência de solicitações com documentos.
“Os embeddings são usados principalmente para recuperação (e talvez para boas visualizações de conceitos)”, disse Jerry Liu, CEO da LlamaIndex, ao VentureBeat. “Mas a recuperação em si é bastante ampla e vai além de simples chatbots para responder perguntas.”
A recuperação pode ser uma etapa essencial em qualquer caso de uso de LLM, diz Liu. LlamaIndex tem criado ferramentas e estruturas para permitir que os usuários combinem prompts LLM com outros tipos de tarefas e dados, como envio de comandos para bancos de dados SQL, extração de informações de dados estruturados, geração de formato longo ou agentes que podem automatizar fluxos de trabalho.
“(Recuperação) é um passo fundamental para aumentar o LLM com contexto relevante, e imagino que a maioria dos casos de uso corporativos de LLM precisarão ter recuperação de pelo menos alguma forma”, disse Liu.
Os embeddings também podem ser usados em aplicações que vão além da simples recuperação de documentos. Por exemplo, em um estudo recente, pesquisadores da Universidade de Illinois em Urbana-Champaign e da Universidade Tsinghua usaram modelos de incorporação para reduzir os custos de treinamento em codificação de LLMs. Eles desenvolveram uma técnica que utiliza incorporações para escolher o menor subconjunto de um conjunto de dados que também seja diverso e representativo dos diferentes tipos de tarefas que o LLM deve realizar. Isso lhes permitiu treinar o modelo com alta qualidade e menos exemplos.
Incorporações para aplicativos corporativos
“A incorporação de vetores introduziu a possibilidade de trabalhar com quaisquer dados não estruturados e semiestruturados. A pesquisa semântica – e, para ser honesto, RAG é um tipo de aplicativo de pesquisa semântica – é apenas um caso de uso”, disse Andre Zayarni, CEO da Qdrant, ao VentureBeat. “Trabalhar com outros dados além dos textuais (imagem, áudio, vídeo) é um grande tema, e novos transformadores multimodais farão isso acontecer.”
A Qdrant já fornece serviços para uso de embeddings em diferentes aplicações, incluindo detecção de anomalias, recomendação e processamento de séries temporais.
“Em geral, existem muitos casos de uso inexplorados e o número aumentará com os próximos modelos de incorporação”, disse Zayarni.
Mais empresas estão explorando o uso de modelos incorporados para examinar as grandes quantidades de dados não estruturados que estão gerando. Por exemplo, os embeddings podem ajudar as empresas a categorizar milhões de mensagens de feedback de clientes ou postagens em mídias sociais para detectar tendências, temas comuns e mudanças de sentimento.
“Os embeddings são ideais para empresas que buscam classificar grandes quantidades de dados para identificar tendências e desenvolver insights”, disse Nils Reimers, líder de embeddings da Cohere, à VentureBeat.
Incorporações ajustadas
2023 viu muito progresso no ajuste fino de LLMs com conjuntos de dados personalizados. No entanto, o ajuste fino continua a ser um desafio e poucas empresas com grandes dados e experiência estão a fazê-lo até agora.
“Acho que sempre haverá um funil do RAG para o ajuste fino; as pessoas começarão com a coisa mais fácil de usar (RAG) e depois considerarão o ajuste fino como uma etapa de otimização”, disse Liu. “Prevejo que mais pessoas farão ajustes este ano para LLMs/embeddings, à medida que os próprios modelos de código aberto também melhoram, mas esse número será menor do que o número de pessoas que fazem RAG a menos que de alguma forma, conseguimos uma mudança radical no sentido de tornar o ajuste fino super fácil de usar.”
O ajuste fino de embeddings também tem seus desafios. Por exemplo, os embeddings são sensíveis a mudanças de dados. Se você treiná-los em consultas de pesquisa curtas, eles não terão um desempenho tão bom em consultas mais longas e vice-versa. Da mesma forma, se você treiná-los nas perguntas “o quê”, eles não terão um desempenho tão bom nas perguntas “por que”.
“Atualmente, as empresas precisariam de equipes internas de ML muito fortes para tornar eficaz o ajuste fino da incorporação, por isso geralmente é melhor usar opções prontas para uso, em contraste com outras facetas dos casos de uso de LLM”, disse Reimers.
Apesar disso, houve avanços no sentido de tornar mais eficiente o processo de treinamento para incorporação de modelos. Por exemplo, um estudo recente da Microsoft mostra que LLMs pré-treinados, como o Mistral-7B, podem ser ajustados para incorporar tarefas com um pequeno conjunto de dados gerado por um LLM forte. Isso é muito mais simples do que o processo tradicional de várias etapas, que exige trabalho manual pesado e aquisição de dados dispendiosa.
Ao ritmo em que os LLMs e os modelos de incorporação estão avançando, podemos esperar desenvolvimentos mais interessantes nos próximos meses.
A missão da VentureBeat é ser uma praça digital para os tomadores de decisões técnicas obterem conhecimento sobre tecnologia empresarial transformadora e realizarem transações. Conheça nossos Briefings.