As cadeias não funcionam apenas para uma única chamada LLM; são coleções de chamadas, seja para um LLM ou outro utilitário. As cadeias de ponta a ponta para aplicativos amplamente usados são fornecidas pela LangChain, juntamente com uma API de cadeia padrão e várias integrações de ferramentas.
A flexibilidade e a capacidade de vincular vários elementos em uma única entidade podem ser úteis quando queremos projetar uma cadeia que aceite a entrada do usuário, configure-a usando um PromptTemplate e, em seguida, entregue o resultado gerado para um LLM.
Este artigo ajuda você a entender o uso de uma função LangChain LLMchain em Python.
Exemplo: Como usar a função LLMchain no LangChain
Conversamos sobre o que são correntes. Agora, veremos uma demonstração prática dessas chains que são implementadas em um script Python. Neste exemplo, usamos a cadeia LangChain mais básica, que é a LLMchain. Ele contém um PromptTemplate e um LLM e os encadeia para gerar uma saída.
Para começar a implementar o conceito, precisamos instalar algumas bibliotecas necessárias que não estão incluídas na biblioteca padrão do Python. As bibliotecas que precisamos instalar são LangChain e OpenAI. Instalamos a biblioteca LangChain porque precisamos usar seu módulo LLMchain, bem como o PromptTemplate. A biblioteca OpenAI nos permite usar os modelos do OpenAI para prever as saídas, ou seja, GPT-3.
Para instalar a biblioteca LangChain, execute o seguinte comando no terminal:
$ pip instalar langchainInstale a biblioteca OpenAI com o seguinte comando:
$ pip instalar openai
Uma vez concluídas as instalações, podemos começar a trabalhar no projeto principal.
de langchain. Comandos importar PromptTemplatede langchain. llms importar OpenAI
importar os
os . aproximadamente [ 'OPENAI_API_KEY' ] = 'sk-SUA CHAVE API'
O projeto principal começa importando os módulos necessários. Então, primeiro importamos o PromptTemplate da biblioteca “langchain.prompts”. Em seguida, importamos o OpenAI da biblioteca “langchain.llms”. Em seguida, importamos o “os” para definir a variável de ambiente.
Inicialmente, definimos a chave da API OpenAI como a variável de ambiente. A variável de ambiente é uma variável que consiste em um nome e um valor e é definida em nosso sistema operacional. O “os.environ” é um objeto que é utilizado para mapear as variáveis de ambiente. Então, chamamos de “os.environ”. O nome que definimos para a chave de API é OPENAI_API_KEY. Em seguida, atribuímos a chave de API como seu valor. A chave de API é exclusiva para cada usuário. Então, quando você estiver praticando este script de código, escreva sua chave de API secreta.
llm = OpenAI ( temperatura = 0,9 )incitar = PromptTemplate (
input_variables = [ 'produtos' ] ,
modelo = 'Qual seria o nome de uma marca que vende {produtos}?' ,
)
Agora que a chave está definida como a variável de ambiente, inicializamos um wrapper. Defina a temperatura para os modelos OpenAI GPT. A temperatura é uma característica que nos ajuda a determinar quão imprevisível será a resposta. Quanto maior o valor da temperatura, mais erráticas são as respostas. Definimos o valor da temperatura para 0,9 aqui. Assim, obtemos os resultados mais aleatórios.
Em seguida, inicializamos uma classe PromptTemplate. Quando usamos o LLM, geramos um prompt a partir da entrada que é obtida do usuário e, em seguida, passamos para o LLM, em vez de enviar a entrada diretamente para o LLM, que requer codificação rígida (um prompt é uma entrada que extraímos do usuário e no qual o modelo de IA definido deve criar uma resposta). Então, inicializamos o PromptTemplate. Em seguida, entre chaves, definimos a input_variable como “Produtos” e o texto do modelo é “Qual seria o nome de uma marca que vende {produtos}?” A entrada do usuário diz o que a marca faz. Em seguida, ele formata o prompt com base nessas informações.
de langchain. correntes importar LLMChaincorrente = LLMChain ( llm = llm , incitar = incitar )
Agora que nosso PromptTemplate está formatado, o próximo passo é fazer um LLMchain. Primeiro, importe o módulo LLMchain da biblioteca “langchain.chain”. Em seguida, criamos uma cadeia chamando a função LLMchain() que recebe a entrada do usuário e formata o prompt com ela. Por fim, envia a resposta ao LLM. Assim, conecta o PromptTemplate e o LLM.
imprimir ( corrente. correr ( 'Materiais de arte' ) )Para executar a cadeia, chamamos o método chain.run() e fornecemos a entrada do usuário como o parâmetro definido como “Art Supplies”. Em seguida, passamos esse método para a função print() do Python para exibir o resultado previsto no console do Python.
O modelo AI lê o prompt e faz uma resposta com base nele.
Como pedimos para nomear uma marca que vende materiais de arte, o nome previsto pelo modelo de IA pode ser visto no seguinte instantâneo:
Este exemplo nos mostra o LLMchaining quando uma única variável de entrada é fornecida. Isso também é possível ao usar variáveis múltiplas. Para isso, basta criar um dicionário de variáveis para inseri-las juntas. Vejamos como isso funciona:
de langchain. Comandos importar PromptTemplatede langchain. llms importar OpenAI
importar os
os . aproximadamente [ 'OPENAI_API_KEY' ] = 'sk- Sua-API-KEY'
llm = OpenAI(temperatura=0,9)
prompt = PromptTemplate(
input_variables=[' Marca ', ' produtos '],
modelo=' Qual seria o nome de { Marca } que vende { produtos } ? ',
)
de langchain.chains importar LLMChain
cadeia = LLMChain(llm=llm, prompt=prompt)
print(cadeia.run({
'Marca': ' Materiais de arte ',
'Produtos': ' cores '
}))
O código segue o mesmo do exemplo anterior, exceto que temos que passar duas variáveis na classe de modelo de prompt. Então, crie um dicionário de input_variables. Os colchetes longos representam um dicionário. Aqui, temos duas variáveis – “Marca” e “Produto” – que são separadas por vírgula. Agora, o texto do modelo que fornecemos é “Qual seria o nome de {Brand} que vende {Product}?” Assim, o modelo AI prevê um nome que se concentra nessas duas variáveis de entrada.
Em seguida, criamos um LLMchain que formata a entrada do usuário com o prompt para enviar a resposta ao LLM. Para executar esta cadeia, usamos o método chain.run() e passamos o dicionário de variáveis com a entrada do usuário como “Marca”: “Material de arte” e “Produto” como “Cores”. Em seguida, passamos esse método para a função print() do Python para exibir a resposta obtida.
A imagem de saída mostra o resultado previsto:
Conclusão
As cadeias são os blocos de construção do LangChain. Este artigo aborda o conceito de uso do LLMchain no LangChain. Fizemos uma introdução ao LLMchain e descrevemos a necessidade de empregá-los no projeto Python. Em seguida, realizamos uma ilustração prática que demonstra a implementação do LLMchain conectando o PromptTemplate e o LLM. Você pode criar essas cadeias com uma única variável de entrada, bem como várias variáveis fornecidas pelo usuário. As respostas geradas do modelo GPT também são fornecidas.