Python에서 LangChain LLMChain 함수를 사용하는 방법

Python Eseo Langchain Llmchain Hamsuleul Sayonghaneun Bangbeob



LangChain에는 언어 모델 응용 프로그램을 만들기 위한 수많은 모듈이 있습니다. 응용 프로그램은 모듈을 결합하여 더 복잡하게 만들거나 단일 모듈을 사용하여 더 간단하게 만들 수 있습니다. 특정 입력에서 LLM을 호출하는 것은 가장 필수적인 LangChain 구성 요소입니다.

체인은 단일 LLM 호출에 대해서만 작동하지 않습니다. LLM 또는 다른 유틸리티에 대한 호출 모음입니다. 널리 사용되는 애플리케이션을 위한 종단 간 체인은 표준 체인 API 및 수많은 도구 통합과 함께 LangChain에서 제공합니다.

여러 요소를 단일 항목에 연결하는 유연성과 기능은 사용자 입력을 수락하고 PromptTemplate을 사용하여 설정한 다음 생성된 결과를 LLM에 전달하는 체인을 설계하려는 경우에 유용할 수 있습니다.







이 문서는 Python에서 LangChain LLMchain 함수의 사용을 파악하는 데 도움이 됩니다.



예: LangChain에서 LLMchain 기능을 사용하는 방법

우리는 사슬이 무엇인지 이야기했습니다. 이제 Python 스크립트에서 구현되는 이러한 체인의 실제 데모를 볼 것입니다. 이 예에서는 가장 기본적인 LangChain 체인인 LLMchain을 사용합니다. 여기에는 PromptTemplate과 LLM이 포함되어 있으며 함께 연결하여 출력을 생성합니다.



개념 구현을 시작하려면 Python 표준 라이브러리에 포함되지 않은 일부 필수 라이브러리를 설치해야 합니다. 설치해야 하는 라이브러리는 LangChain과 OpenAI입니다. LLMchain 모듈과 PromptTemplate을 사용해야 하기 때문에 LangChain 라이브러리를 설치합니다. OpenAI 라이브러리를 사용하면 OpenAI의 모델을 사용하여 출력, 즉 GPT-3을 예측할 수 있습니다.





LangChain 라이브러리를 설치하려면 터미널에서 다음 명령을 실행하십시오.

$ 핍 설치 langchain

다음 명령을 사용하여 OpenAI 라이브러리를 설치합니다.



$ pip 설치 openai

설치가 완료되면 기본 프로젝트 작업을 시작할 수 있습니다.

~에서 랭체인. 프롬프트 수입 프롬프트 템플릿

~에서 랭체인. llms 수입 OpenAI

수입

. [ 'OPENAI_API_KEY' ] = 'sk-YOUR API 키'

기본 프로젝트는 필요한 모듈을 가져오는 것으로 시작됩니다. 따라서 먼저 'langchain.prompts' 라이브러리에서 PromptTemplate을 가져옵니다. 그런 다음 'langchain.llms' 라이브러리에서 OpenAI를 가져옵니다. 다음으로 'os'를 가져와서 환경 변수를 설정합니다.

처음에는 OpenAI API 키를 환경 변수로 설정했습니다. 환경 변수는 이름과 값으로 구성된 변수로 당사 운영 체제에서 설정됩니다. 'os.environ'은 환경 변수를 매핑하는 데 사용되는 개체입니다. 그래서 'os.environ'이라고 부릅니다. API 키에 대해 설정한 이름은 OPENAI_API_KEY입니다. 그런 다음 API 키를 해당 값으로 할당합니다. API 키는 각 사용자마다 고유합니다. 따라서 이 코드 스크립트를 연습할 때 비밀 API 키를 작성하십시오.

llm = OpenAI ( 온도 = 0.9 )

즉각적인 = 프롬프트 템플릿 (

입력_변수 = [ '제품' ] ,

주형 = '{제품}을(를) 판매하는 브랜드 이름은 무엇입니까?' ,

)

이제 키가 환경 변수로 설정되었으므로 래퍼를 초기화합니다. OpenAI GPT 모델의 온도를 설정합니다. 온도는 응답이 예측할 수 없는 정도를 결정하는 데 도움이 되는 특성입니다. 온도 값이 높을수록 반응이 더 불규칙합니다. 여기서는 온도 값을 0.9로 설정했습니다. 따라서 가장 무작위적인 결과를 얻습니다.

그런 다음 PromptTemplate 클래스를 초기화합니다. LLM을 사용할 때 하드 코딩이 필요한 LLM에 직접 입력을 보내는 대신 사용자로부터 가져온 입력에서 프롬프트를 생성한 다음 LLM에 전달합니다(프롬프트는 정의된 AI 모델이 응답을 생성해야 하는 사용자). 따라서 PromptTemplate을 초기화합니다. 그런 다음 중괄호 안에 input_variable을 '제품'으로 정의하고 템플릿 텍스트는 '{제품}을 판매하는 브랜드 이름은 무엇입니까?'입니다. 사용자 입력은 브랜드가 무엇을 하는지 알려줍니다. 그런 다음 이 정보를 기반으로 프롬프트의 형식을 지정합니다.

~에서 랭체인. 쇠사슬 수입 LLM체인

체인 = LLM체인 ( llm = llm , 즉각적인 = 즉각적인 )

PromptTemplate이 포맷되었으므로 다음 단계는 LLMchain을 만드는 것입니다. 먼저 'langchain.chain' 라이브러리에서 LLMchain 모듈을 가져옵니다. 그런 다음 사용자 입력을 받아 프롬프트 형식을 지정하는 LLMchain() 함수를 호출하여 체인을 생성합니다. 마지막으로 LLM에 응답을 보냅니다. 따라서 PromptTemplate과 LLM을 연결합니다.

인쇄 ( 체인. 달리다 ( '미술용품' ) )

체인을 실행하기 위해 chain.run() 메서드를 호출하고 'Art Supplies'로 정의된 매개 변수로 사용자 입력을 제공합니다. 그런 다음 이 메서드를 Python print() 함수에 전달하여 예상 결과를 Python 콘솔에 표시합니다.

AI 모델은 프롬프트를 읽고 그에 따라 응답합니다.

미술 용품을 판매하는 브랜드 이름을 요청했기 때문에 AI 모델이 예측한 이름은 다음 스냅샷에서 볼 수 있습니다.

이 예는 단일 입력 변수가 제공된 경우 LLMchaining을 보여줍니다. 이는 여러 변수를 사용하는 경우에도 가능합니다. 이를 위해 변수를 모두 입력할 변수 사전을 만들기만 하면 됩니다. 이것이 어떻게 작동하는지 봅시다:

~에서 랭체인. 프롬프트 수입 프롬프트 템플릿

~에서 랭체인. llms 수입 OpenAI

수입

. [ 'OPENAI_API_KEY' ] = 'sk- Your-API-KEY'

llm = OpenAI(온도=0.9)

프롬프트 = PromptTemplate(

입력_변수=['
상표 ', ' 제품 '],

템플릿='
이름은 무엇입니까? { 상표 } 판매하는 { 제품 } ? ',

)

langchain.chains에서 LLMChain 가져오기

chain = LLMChain(llm=llm, 프롬프트=프롬프트)

인쇄(chain.run({

'브랜드': '
미술 용품 ',

'제품': '
그림 물감 '

}))

코드는 프롬프트 템플릿 클래스에 두 개의 변수를 전달해야 한다는 점을 제외하면 이전 예제와 동일합니다. 따라서 input_variables의 사전을 만듭니다. 긴 괄호는 사전을 나타냅니다. 여기에는 쉼표로 구분되는 '브랜드'와 '제품'이라는 두 개의 변수가 있습니다. 이제 우리가 제공하는 템플릿 텍스트는 '{제품}을(를) 판매하는 {브랜드}의 이름은 무엇입니까?'입니다. 따라서 AI 모델은 이 두 입력 변수에 초점을 맞춘 이름을 예측합니다.

그런 다음 LLM에 응답을 보내라는 프롬프트로 사용자 입력의 형식을 지정하는 LLMchain을 만듭니다. 이 체인을 실행하기 위해 우리는 chain.run() 메서드를 사용하고 사용자 입력이 “Brand”: “Art supplies”이고 “Product”가 “Colors”인 변수 사전을 전달합니다. 그런 다음 이 메서드를 Python print() 함수에 전달하여 얻은 응답을 표시합니다.

출력 이미지는 예측된 결과를 보여줍니다.

결론

체인은 LangChain의 빌딩 블록입니다. 이 기사는 LLMchain을 LangChain에서 사용하는 개념을 살펴봅니다. 우리는 LLMchain을 소개하고 Python 프로젝트에서 이를 채택해야 할 필요성을 설명했습니다. 그런 다음 PromptTemplate과 LLM을 연결하여 LLMchain의 구현을 보여주는 실용적인 일러스트레이션을 수행했습니다. 단일 입력 변수와 여러 사용자 제공 변수를 사용하여 이러한 체인을 만들 수 있습니다. GPT 모델에서 생성된 응답도 제공됩니다.