Como usar a função LangChain LLMChain em Python

Como Usar A Funcao Langchain Llmchain Em Python



O LangChain possui uma infinidade de módulos para criar aplicativos de modelo de linguagem. Os aplicativos podem ser mais complicados combinando módulos ou podem ser simplificados usando um único módulo. Chamar um LLM em uma determinada entrada é o componente LangChain mais essencial.

As cadeias não funcionam apenas para uma única chamada LLM; são coleções de chamadas, seja para um LLM ou outro utilitário. As cadeias de ponta a ponta para aplicativos amplamente usados ​​são fornecidas pela LangChain, juntamente com uma API de cadeia padrão e várias integrações de ferramentas.

A flexibilidade e a capacidade de vincular vários elementos em uma única entidade podem ser úteis quando queremos projetar uma cadeia que aceite a entrada do usuário, configure-a usando um PromptTemplate e, em seguida, entregue o resultado gerado para um LLM.







Este artigo ajuda você a entender o uso de uma função LangChain LLMchain em Python.



Exemplo: Como usar a função LLMchain no LangChain

Conversamos sobre o que são correntes. Agora, veremos uma demonstração prática dessas chains que são implementadas em um script Python. Neste exemplo, usamos a cadeia LangChain mais básica, que é a LLMchain. Ele contém um PromptTemplate e um LLM e os encadeia para gerar uma saída.



Para começar a implementar o conceito, precisamos instalar algumas bibliotecas necessárias que não estão incluídas na biblioteca padrão do Python. As bibliotecas que precisamos instalar são LangChain e OpenAI. Instalamos a biblioteca LangChain porque precisamos usar seu módulo LLMchain, bem como o PromptTemplate. A biblioteca OpenAI nos permite usar os modelos do OpenAI para prever as saídas, ou seja, GPT-3.





Para instalar a biblioteca LangChain, execute o seguinte comando no terminal:

$ pip instalar langchain

Instale a biblioteca OpenAI com o seguinte comando:



$ pip instalar openai

Uma vez concluídas as instalações, podemos começar a trabalhar no projeto principal.

de langchain. Comandos importar PromptTemplate

de langchain. llms importar OpenAI

importar os

os . aproximadamente [ 'OPENAI_API_KEY' ] = 'sk-SUA CHAVE API'

O projeto principal começa importando os módulos necessários. Então, primeiro importamos o PromptTemplate da biblioteca “langchain.prompts”. Em seguida, importamos o OpenAI da biblioteca “langchain.llms”. Em seguida, importamos o “os” para definir a variável de ambiente.

Inicialmente, definimos a chave da API OpenAI como a variável de ambiente. A variável de ambiente é uma variável que consiste em um nome e um valor e é definida em nosso sistema operacional. O “os.environ” é um objeto que é utilizado para mapear as variáveis ​​de ambiente. Então, chamamos de “os.environ”. O nome que definimos para a chave de API é OPENAI_API_KEY. Em seguida, atribuímos a chave de API como seu valor. A chave de API é exclusiva para cada usuário. Então, quando você estiver praticando este script de código, escreva sua chave de API secreta.

llm = OpenAI ( temperatura = 0,9 )

incitar = PromptTemplate (

input_variables = [ 'produtos' ] ,

modelo = 'Qual seria o nome de uma marca que vende {produtos}?' ,

)

Agora que a chave está definida como a variável de ambiente, inicializamos um wrapper. Defina a temperatura para os modelos OpenAI GPT. A temperatura é uma característica que nos ajuda a determinar quão imprevisível será a resposta. Quanto maior o valor da temperatura, mais erráticas são as respostas. Definimos o valor da temperatura para 0,9 aqui. Assim, obtemos os resultados mais aleatórios.

Em seguida, inicializamos uma classe PromptTemplate. Quando usamos o LLM, geramos um prompt a partir da entrada que é obtida do usuário e, em seguida, passamos para o LLM, em vez de enviar a entrada diretamente para o LLM, que requer codificação rígida (um prompt é uma entrada que extraímos do usuário e no qual o modelo de IA definido deve criar uma resposta). Então, inicializamos o PromptTemplate. Em seguida, entre chaves, definimos a input_variable como “Produtos” e o texto do modelo é “Qual seria o nome de uma marca que vende {produtos}?” A entrada do usuário diz o que a marca faz. Em seguida, ele formata o prompt com base nessas informações.

de langchain. correntes importar LLMChain

corrente = LLMChain ( llm = llm , incitar = incitar )

Agora que nosso PromptTemplate está formatado, o próximo passo é fazer um LLMchain. Primeiro, importe o módulo LLMchain da biblioteca “langchain.chain”. Em seguida, criamos uma cadeia chamando a função LLMchain() que recebe a entrada do usuário e formata o prompt com ela. Por fim, envia a resposta ao LLM. Assim, conecta o PromptTemplate e o LLM.

imprimir ( corrente. correr ( 'Materiais de arte' ) )

Para executar a cadeia, chamamos o método chain.run() e fornecemos a entrada do usuário como o parâmetro definido como “Art Supplies”. Em seguida, passamos esse método para a função print() do Python para exibir o resultado previsto no console do Python.

O modelo AI lê o prompt e faz uma resposta com base nele.

Como pedimos para nomear uma marca que vende materiais de arte, o nome previsto pelo modelo de IA pode ser visto no seguinte instantâneo:

Este exemplo nos mostra o LLMchaining quando uma única variável de entrada é fornecida. Isso também é possível ao usar variáveis ​​múltiplas. Para isso, basta criar um dicionário de variáveis ​​para inseri-las juntas. Vejamos como isso funciona:

de langchain. Comandos importar PromptTemplate

de langchain. llms importar OpenAI

importar os

os . aproximadamente [ 'OPENAI_API_KEY' ] = 'sk- Sua-API-KEY'

llm = OpenAI(temperatura=0,9)

prompt = PromptTemplate(

input_variables=['
Marca ', ' produtos '],

modelo='
Qual seria o nome de { Marca } que vende { produtos } ? ',

)

de langchain.chains importar LLMChain

cadeia = LLMChain(llm=llm, prompt=prompt)

print(cadeia.run({

'Marca': '
Materiais de arte ',

'Produtos': '
cores '

}))

O código segue o mesmo do exemplo anterior, exceto que temos que passar duas variáveis ​​na classe de modelo de prompt. Então, crie um dicionário de input_variables. Os colchetes longos representam um dicionário. Aqui, temos duas variáveis ​​– “Marca” e “Produto” – que são separadas por vírgula. Agora, o texto do modelo que fornecemos é “Qual seria o nome de {Brand} que vende {Product}?” Assim, o modelo AI prevê um nome que se concentra nessas duas variáveis ​​de entrada.

Em seguida, criamos um LLMchain que formata a entrada do usuário com o prompt para enviar a resposta ao LLM. Para executar esta cadeia, usamos o método chain.run() e passamos o dicionário de variáveis ​​com a entrada do usuário como “Marca”: “Material de arte” e “Produto” como “Cores”. Em seguida, passamos esse método para a função print() do Python para exibir a resposta obtida.

A imagem de saída mostra o resultado previsto:

Conclusão

As cadeias são os blocos de construção do LangChain. Este artigo aborda o conceito de uso do LLMchain no LangChain. Fizemos uma introdução ao LLMchain e descrevemos a necessidade de empregá-los no projeto Python. Em seguida, realizamos uma ilustração prática que demonstra a implementação do LLMchain conectando o PromptTemplate e o LLM. Você pode criar essas cadeias com uma única variável de entrada, bem como várias variáveis ​​fornecidas pelo usuário. As respostas geradas do modelo GPT também são fornecidas.