Como usar o analisador de saída estruturada em LangChain?

Como Usar O Analisador De Saida Estruturada Em Langchain



LangChain é a estrutura para construir modelos de chat e LLMs para obter informações do conjunto de dados ou da Internet usando o ambiente OpenAI. O analisador de saída estruturado é usado para obter vários campos ou respostas, como a resposta real e algumas informações extras relacionadas. As bibliotecas do analisador de saída podem ser usadas com LangChain para extrair dados usando os modelos construídos como LLMs ou modelos de chat.

Esta postagem demonstrou o processo de uso do analisador de saída estruturado no LangChain.







Como usar o analisador de saída estruturada em LangChain?

Para usar o analisador de saída estruturado em LangChain, basta seguir estas etapas:



Etapa 1: instalar pré-requisitos



Inicie o processo instalando a estrutura LangChain se ela ainda não estiver instalada em seu ambiente Python:





pip instalar cadeia de idiomas



Instale a estrutura OpenAI para acessar seus métodos para construir um analisador em LangChain:

pip instalar aberto

Depois disso, basta conectar-se ao ambiente OpenAI usando sua chave API para acessar seu ambiente usando o “ os ”E forneça a chave API usando o“ Obter passagem ' biblioteca:

importe-nos
importar getpass

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'Chave de API OpenAI:' )

Etapa 2: Construir esquema para saída/resposta

Após obter a conexão com o OpenAI, basta importar as bibliotecas para construir o esquema de geração da saída:

de langchain.output_parsers importar StructuredOutputParser, ResponseSchema
de langchain.prompts importar PromptTemplate, ChatPromptTemplate, HumanMessagePromptTemplate
de langchain.llms importar OpenAI
de langchain.chat_models importar ChatOpenAI

Especifique o esquema para a resposta de acordo com o requisito para que o modelo gere a resposta de acordo:

esquemas_resposta = [
Esquema de resposta ( nome = 'responder' , descrição = 'responder à consulta' ) ,
Esquema de resposta ( nome = 'fonte' , descrição = 'fonte do site que é usada para obter a resposta' )
]
output_parser = StructuredOutputParser.from_response_schemas ( esquemas_resposta )

Etapa 3: modelo de formato

Depois de configurar o esquema para a saída, basta definir o modelo para a entrada na linguagem natural para que o modelo possa entender as perguntas antes de buscar a resposta para ela:

format_instructions=output_parser.get_format_instructions ( )
prompt = PromptTemplate (
modelo = 'Responda à pergunta do usuário. \n {modelo} \n {consulta}' ,
variáveis_de_entrada = [ 'consulta' ] ,
variáveis_parciais = { 'modelo' : formato_instruções }
)

Método 1: usando o modelo de linguagem

Após configurar os modelos de formato para perguntas e respostas, basta construir o modelo usando a função OpenAI():

modelo = OpenAI ( temperatura = 0 )

Defina o prompt no “ consulta ”variável e passe-a para o formato_prompt() funcionar como entrada e, em seguida, armazenar a resposta no “ saída ' variável:

_input = prompt.format_prompt ( consulta = 'quantos continentes existem no mundo' )
saída = modelo ( _entrada.to_string ( ) )

Ligar para analisar() função com a variável de saída como argumento para obter a resposta do modelo:

saída_parser.parse ( saída )

O analisador de saída obtém a resposta para a consulta e exibe uma resposta detalhada com o link para a página do site usada para obter a resposta:

Método 2: usando o modelo de chat

Para obter resultados do analisador de saída em LangChain, use o chat_model variável abaixo:

chat_model=ChatOpenAI ( temperatura = 0 )

Para entender o prompt, configure o modelo de prompt para o modelo de chat. Em seguida, gere a resposta de acordo com a entrada:

prompt = ChatPromptTemplate (
mensagens = [
HumanMessagePromptTemplate.from_template ( 'Responda à pergunta do usuário. \n {formato_instruções} \n {consulta}' )
] ,
variáveis_de_entrada = [ 'consulta' ] ,
variáveis_parciais = { 'formato_instruções' : formato_instruções }
)

Depois disso, basta fornecer a entrada no campo “ consulta ”variável e depois passá-la para o chat_model() função para obter a saída do modelo:

_input = prompt.format_prompt ( consulta = 'EUA significam' )
saída = chat_model ( _input.to_messages ( ) )

Para obter a resposta do modelo de chat, use o output_parser que armazena o resultado do “ saída ' variável:

saída_parser.parse ( saída.content )

O modelo de chat exibia a resposta para a consulta e o nome do site que é utilizado para obter a resposta da internet:

Trata-se de usar um analisador de saída estruturado no LangChain.

Conclusão

Para usar o analisador de saída estruturado no LangChain, basta instalar os módulos LangChain e OpenAI para iniciar o processo. Depois disso, conecte-se ao ambiente OpenAI usando sua chave API e configure os modelos de prompt e resposta para o modelo. O analisador de saída pode ser usado com um modelo de linguagem ou com um modelo de chat. Este guia explica o uso do analisador de saída com ambos os métodos.