Como usar uma janela de buffer de conversa no LangChain?

Como Usar Uma Janela De Buffer De Conversa No Langchain



LangChain é a estrutura que pode ser usada no notebook Python para treinar modelos de linguagem ou chatbots usando modelos de aprendizado de máquina. Esses modelos de linguagem são usados ​​para conversar com humanos em sua linguagem natural após treiná-los em linguagens semelhantes às humanas. Esta postagem ilustrará o processo de uso de uma janela de buffer de conversa no LangChain.

Como usar uma janela de buffer de conversa no LangChain?

A janela do buffer de conversação é usada para manter as mensagens mais recentes da conversa na memória para obter o contexto mais recente. Ele usa o valor de K para armazenar as mensagens ou strings na memória usando a estrutura LangChain.

Para aprender o processo de uso da janela do buffer de conversa no LangChain, basta seguir o seguinte guia:







Etapa 1: instalar módulos

Inicie o processo de utilização da janela do buffer de conversação instalando o módulo LangChain com as dependências necessárias para construir modelos de conversação:



pip instalar langchain



Depois disso, instale o módulo OpenAI que pode ser usado para construir os modelos de linguagem grande em LangChain:





pip instalar openai

Agora, configurar o ambiente OpenAI para construir as cadeias LLM usando a chave API da conta OpenAI:



importar os
importar Obter passagem

os . aproximadamente [ 'OPENAI_API_KEY' ] = Obter passagem . Obter passagem ( 'Chave de API OpenAI:' )

Etapa 2: usando a memória da janela do buffer de conversa

Para usar a memória da janela do buffer de conversação no LangChain, importe o ConversationBufferWindowMemory biblioteca:

de cadeia longa. memória importar ConversationBufferWindowMemory

Configure a memória usando o ConversationBufferWindowMemory () método com o valor de k como argumento. O valor de k será usado para manter as mensagens mais recentes da conversa e então configurar os dados de treinamento usando as variáveis ​​de entrada e saída:

memória = ConversationBufferWindowMemory ( k = 1 )

memória. salvar_contexto ( { 'entrada' : 'olá' } , { 'saída' : 'Como vai' } )

memória. salvar_contexto ( { 'entrada' : 'Eu estou bem e você' } , { 'saída' : 'não muito' } )

Teste a memória chamando o carregar_memória_variáveis () método para iniciar a conversa:

memória. carregar_memória_variáveis ( { } )

Para obter o histórico da conversa, configure a função ConversationBufferWindowMemory() usando o mensagens_retornadas argumento:

memória = ConversationBufferWindowMemory ( k = 1 , mensagens_retornadas = Verdadeiro )

memória. salvar_contexto ( { 'entrada' : 'oi' } , { 'saída' : 'e aí' } )

memória. salvar_contexto ( { 'entrada' : 'não muito você' } , { 'saída' : 'não muito' } )

Agora, chame a memória usando o carregar_memória_variáveis () método para obter a resposta com o histórico da conversa:

memória. carregar_memória_variáveis ( { } )

Etapa 3: usando a janela do buffer em uma cadeia

Construa a cadeia usando o OpenAI e Cadeia de conversação bibliotecas e depois configure a memória buffer para armazenar as mensagens mais recentes da conversa:

de cadeia longa. correntes importar Cadeia de conversação
de cadeia longa. llms importar OpenAI
#building resumo da conversa usando vários parâmetros
conversa_com_resumo = Cadeia de conversação (
llm = OpenAI ( temperatura = 0 ) ,
#construindo buffer de memória usando sua função com o valor k para armazenar mensagens recentes
memória = ConversationBufferWindowMemory ( k = 2 ) ,
#configure a variável detalhada para obter uma saída mais legível
detalhado = Verdadeiro
)
conversa_com_resumo. prever ( entrada = 'Oi, e ai' )

Agora continue a conversa fazendo a pergunta relacionada à saída fornecida pelo modelo:

conversa_com_resumo. prever ( entrada = 'Quais são os problemas deles' )

O modelo está configurado para armazenar apenas uma mensagem anterior que pode ser usada como contexto:

conversa_com_resumo. prever ( entrada = 'Está indo bem' )

Peça a solução para os problemas e a estrutura de saída continuará deslizando a janela do buffer removendo as mensagens anteriores:

conversa_com_resumo. prever ( entrada = 'Qual é a solução' )

Isso é tudo sobre o processo de uso do LangChain do Windows buffer de conversa.

Conclusão

Para usar a memória da janela do buffer de conversação no LangChain, basta instalar os módulos e configurar o ambiente usando a chave API do OpenAI. Depois disso, construa a memória buffer usando o valor de k para manter as mensagens mais recentes da conversa e manter o contexto. A memória buffer também pode ser usada com cadeias para instigar a conversa com o LLM ou cadeia. Este guia elaborou o processo de uso da janela do buffer de conversa no LangChain.