LangChain을 통해 LLMChain의 메모리를 사용하는 방법은 무엇입니까?

Langchain Eul Tonghae Llmchain Ui Memolileul Sayonghaneun Bangbeob Eun Mueos Ibnikka



LangChain은 LLM(Large Language Model)을 구축하기 위해 라이브러리와 종속성을 가져오는 데 사용할 수 있는 프레임워크입니다. 언어 모델은 대화의 맥락을 파악하기 위해 메모리를 사용하여 데이터베이스에 데이터나 기록을 관찰로 저장합니다. 모델이 사용자가 제공한 모호한 프롬프트를 이해할 수 있도록 메모리는 가장 최근 메시지를 저장하도록 구성됩니다.

이 블로그에서는 LangChain을 통해 LLMChain에서 메모리를 사용하는 과정을 설명합니다.







LangChain을 통해 LLMChain의 메모리를 사용하는 방법은 무엇입니까?

LangChain을 통해 LLMChain에서 메모리를 추가하고 사용하려면 LangChain에서 ConversationBufferMemory 라이브러리를 가져와서 사용할 수 있습니다.



LangChain을 통해 LLMChain에서 메모리를 사용하는 과정을 알아보려면 다음 가이드를 따르세요.



1단계: 모듈 설치

먼저 pip 명령을 사용하여 LangChain을 설치하여 메모리 사용 프로세스를 시작합니다.





pip 설치 랭체인

OpenAI 모듈을 설치하여 LLM 또는 채팅 모델을 구축하기 위한 종속성 또는 라이브러리를 가져옵니다.



pip 설치 openai

환경 설정 os 및 getpass 라이브러리를 가져와 API 키를 사용하는 OpenAI의 경우:

우리를 수입하다
가져오기 겟패스

os.environ['OPENAI_API_KEY'] = getpass.getpass('OpenAI API 키:')

2단계: 라이브러리 가져오기

환경을 설정한 후 LangChain에서 ConversationBufferMemory와 같은 라이브러리를 가져오기만 하면 됩니다.

langchain.chains에서 LLMChain 가져오기
langchain.llms에서 OpenAI 가져오기

langchain.memory에서 ConversationBufferMemory 가져오기

langchain.prompts에서 PromptTemplate 가져오기

사용자로부터 쿼리를 가져오는 'input'과 버퍼 메모리에 데이터를 저장하는 'hist'와 같은 변수를 사용하여 프롬프트에 대한 템플릿을 구성합니다.

template = '''당신은 인간과 대화를 나누고 있는 모델입니다.

{역사}
인간: {입력}
챗봇:'''

프롬프트 = 프롬프트템플릿(
input_variables=['hist', 'input'], 템플릿=템플릿
)
메모리 = ConversationBufferMemory(memory_key='hist')

3단계: LLM 구성

쿼리 템플릿이 빌드되면 여러 매개변수를 사용하여 LLMChain() 메서드를 구성합니다.

llm = 오픈AI()
llm_chain = LLMChain(
llm=llm,
프롬프트=프롬프트,
장황하다=사실,
기억=기억,
)

4단계: LLMChain 테스트

그런 다음 입력 변수를 사용하여 LLMChain을 테스트하여 사용자로부터 텍스트 형식으로 프롬프트를 받습니다.

llm_chain.predict(input='안녕하세요 친구')

컨텍스트를 사용하여 출력을 추출하기 위해 메모리에 저장된 데이터를 가져오려면 다른 입력을 사용하십시오.

llm_chain.predict(input='좋아! 난 괜찮아 - 잘 지내?')

5단계: 채팅 모델에 메모리 추가

라이브러리를 가져와서 채팅 모델 기반 LLMChain에 메모리를 추가할 수 있습니다.

langchain.chat_models에서 ChatOpenAI 가져오기
langchain.schema에서 SystemMessage 가져오기
langchain.prompts에서 ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder를 가져옵니다.

사용자의 입력을 설정하기 위해 다양한 변수를 사용하는 ConversationBufferMemory()를 사용하여 프롬프트 템플릿을 구성합니다.

프롬프트 = ChatPromptTemplate.from_messages([
SystemMessage(content='당신은 인간과 대화를 나누는 모델입니다'),
메시지 자리 표시자(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

메모리 = ConversationBufferMemory(memory_key='hist', return_messages=True)

6단계: LLMChain 구성

다양한 인수와 매개변수를 사용하여 모델을 구성하려면 LLMChain() 메서드를 설정하세요.

llm = ChatOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
프롬프트=프롬프트,
장황하다=사실,
기억=기억,
)

7단계: LLMChain 테스트

마지막에는 모델이 프롬프트에 따라 텍스트를 생성할 수 있도록 입력을 사용하여 LLMChain을 테스트하기만 하면 됩니다.

chat_llm_chain.predict(input='안녕하세요 친구')

모델은 이전 대화를 메모리에 저장하고 쿼리의 실제 출력 전에 이를 표시합니다.

llm_chain.predict(input='좋아! 난 괜찮아 - 잘 지내?')

이것이 LangChain을 사용하여 LLMChain에서 메모리를 사용하는 것에 관한 것입니다.

결론

LangChain 프레임워크를 통해 LLMChain의 메모리를 사용하려면 모듈을 설치하여 모듈에서 종속성을 가져오는 환경을 설정하기만 하면 됩니다. 그런 다음 LangChain에서 라이브러리를 가져와서 이전 대화를 저장하는 데 버퍼 메모리를 사용하면 됩니다. 사용자는 LLMChain을 구축한 다음 입력을 제공하여 체인을 테스트하여 채팅 모델에 메모리를 추가할 수도 있습니다. 본 가이드에서는 LangChain을 통해 LLMChain에서 메모리를 사용하는 과정을 자세히 설명했습니다.