Como construir aplicativos LangChain usando modelo de prompt e analisador de saída?

Como Construir Aplicativos Langchain Usando Modelo De Prompt E Analisador De Saida



LangChain é usado para construir chatbots e modelos de linguagem grande para fazer a máquina entender texto ou dados em linguagens semelhantes às humanas. Para fazer um chatbot em LangChain, o usuário precisa treiná-lo em dados escritos em linguagem humana, construindo modelos de prompt para que a máquina possa entender as questões. As funções do analisador de saída são usadas para obter as respostas do modelo, uma vez que ele tenha entendido a consulta.

Esta postagem ilustrará o processo de construção de aplicativos LangChain usando Prompt Template e Output Parser.

Como construir aplicativos LangChain usando modelo de prompt e analisador de saída?

Para construir o aplicativo LangChain usando o modelo de prompt e o analisador de saída, basta seguir este guia fácil:







Passo 1: Instalar LangChain



Primeiro, inicie o processo de construção de aplicativos LangChain instalando a estrutura LangChain usando o “ pip ”comando:



pip instalar langchain





Etapa 2: usando o modelo de prompt

Após instalar os módulos LangChain, importe o “ Modelo de prompt ”biblioteca para construir um modelo de prompt, fornecendo uma consulta para o modelo entender a pergunta:



de langchain.prompts importar PromptTemplate

prompt = PromptTemplate.from_template('Qual é uma boa combinação de cores para {produto}?')
prompt.format(product='meias coloridas')

A saída combinou automaticamente a frase com o valor de “ produtos ' variável:

Depois disso, crie outro modelo de prompt importando as bibliotecas HumanMessagePromptTemplate, ChatPromptTemplate e SystemMessagePromptTemplate do LangChain:

de importação langchain.prompts.chat (
Modelo de prompt de bate-papo,
SystemMessagePromptTemplate,
HumanMessagePromptTemplate,
)
#Configure o modelo de prompt para o modelo LangChain
template = 'Você é um ajudante que traduz {input_linguagem} para {output_idioma}'
system_message_prompt = SystemMessagePromptTemplate.from_template(modelo)
human_template = '{texto}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chat_prompt.format_messages(input_idioma='Francês', output_idioma='Inglês', text='Gosto de IA')

Após importar todas as bibliotecas necessárias, basta construir o modelo personalizado para as consultas usando a variável de modelo:

Os modelos de prompt são usados ​​apenas para definir o modelo para a consulta/pergunta e não respondem à pergunta. No entanto, a função OutputParser() pode extrair respostas conforme explicado na seção a seguir com o exemplo:

Etapa 3: usando o analisador de saída

Agora, importe a biblioteca BaseOutputParser do LangChain para separar os valores do texto separados por vírgulas e retornar a lista na saída:

de langchain.schema importar BaseOutputParser

classe CommaSeparatedListOutputParser (BaseOutputParser):

def analisar(self, texto: str):
retornar texto.strip().split(', ')

CommaSeparatedListOutputParser().parse('Obrigado, bem-vindo')

Trata-se de construir o aplicativo LangChain usando o modelo de prompt e o analisador de saída.

Conclusão

Para construir um aplicativo LangChain usando o modelo de prompt e o analisador de saída, basta instalar o LangChain e importar bibliotecas dele. A biblioteca PromptTemplate é usada para construir a estrutura da consulta para que o modelo possa entender a questão antes de extrair informações usando a função Parser(). A função OutputParser() é usada para buscar respostas com base nas consultas customizadas anteriormente. Este guia explicou o processo de construção de aplicativos LangChain usando o modelo de prompt e o analisador de saída.