LangChain에서 대화 토큰 버퍼를 사용하는 방법은 무엇입니까?

Langchain Eseo Daehwa Tokeun Beopeoleul Sayonghaneun Bangbeob Eun Mueos Ibnikka



LangChain을 사용하면 개발자는 데이터 세트를 사용하여 모델을 훈련할 수 있는 기계 학습 또는 딥 러닝을 사용하여 모델을 구축할 수 있습니다. 이러한 모델은 데이터에서 다양한 패턴을 얻거나 데이터 세트의 형식과 언어를 이해하여 정보를 추출할 수 있습니다. 대형 언어 모델 또는 LLM은 자연어로 된 텍스트를 이해하고 생성할 수 있는 LangChain 프레임워크를 사용하여 구성하거나 설계할 수 있습니다.

이 가이드에서는 LangChain에서 대화 토큰 버퍼를 사용하는 과정을 설명합니다.

LangChain에서 대화 토큰 버퍼를 사용하는 방법은 무엇입니까?

그만큼 대화토큰버퍼메모리 라이브러리는 LangChain 프레임워크에서 가져와 가장 최근 메시지를 버퍼 메모리에 저장할 수 있습니다. 버퍼에 저장되는 메시지 수를 제한하도록 토큰을 구성할 수 있으며 이전 메시지는 자동으로 플러시됩니다.







LangChain에서 대화 토큰 버퍼를 사용하는 프로세스를 알아보려면 다음 가이드를 활용하세요.



1단계: 모듈 설치

먼저 pip 명령을 사용하여 필요한 모든 모듈이 포함된 LangChain 프레임워크를 설치합니다.



pip 설치 랭체인





이제 OpenAI() 메서드를 사용하여 LLM 및 체인을 구축하기 위해 OpenAI 모듈을 설치합니다.

pip 설치 openai



모듈을 설치한 후 OpenAI의 API 키를 사용하여 간단히 환경을 설정하다 os 및 getpass 라이브러리 사용:

수입

수입 getpass

. [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API 키:' )

2단계: 대화 토큰 버퍼 메모리 사용

가져온 후 OpenAI() 메서드를 사용하여 LLM을 빌드합니다. 대화토큰버퍼메모리 LangChain 프레임워크의 라이브러리:

~에서 랭체인. 메모리 수입 대화토큰버퍼메모리

~에서 랭체인. LLMS 수입 오픈AI

ㅋㅋㅋ = 오픈AI ( )

토큰을 설정하도록 메모리를 구성하면 이전 메시지를 플러시하고 버퍼 메모리에 저장합니다. 그런 다음 대화의 메시지를 저장하고 컨텍스트로 사용하기 위해 가장 최근 메시지를 가져옵니다.

메모리 = 대화토큰버퍼메모리 ( ㅋㅋㅋ = ㅋㅋㅋ , max_token_limit = 10 )

메모리. save_context ( { '입력' : '안녕하세요' } , { '산출' : '어떻게 지내세요' } )

메모리. save_context ( { '입력' : '저는 잘 있습니다, 당신 은요' } , { '산출' : '별로' } )

load_memory_variables() 메서드를 사용하여 메모리를 실행하여 버퍼 메모리에 저장된 데이터를 가져옵니다.

메모리. 로드_메모리_변수 ( { } )

3단계: 체인에서 대화 토큰 버퍼 메모리 사용

구성하여 체인을 구축합니다. 컨버세이션체인() 대화 토큰 버퍼 메모리를 사용하기 위한 여러 인수가 있는 메소드:

~에서 랭체인. 쇠사슬 수입 컨버세이션체인

대화_위드_요약 = 컨버세이션체인 (
ㅋㅋㅋ = ㅋㅋㅋ ,
메모리 = 대화토큰버퍼메모리 ( ㅋㅋㅋ = 오픈AI ( ) , max_token_limit = 60 ) ,
말 수가 많은 = 진실 ,
)
대화_위드_요약. 예측하다 ( 입력 = '어때 잘 지내?' )

이제 자연어로 작성된 프롬프트를 사용하여 질문하여 대화를 시작하세요.

대화_위드_요약. 예측하다 ( 입력 = '지금 NLP 프로젝트를 진행 중이에요' )

토큰 수를 사용하여 버퍼 메모리에 저장된 데이터에서 출력을 가져옵니다.

대화_위드_요약. 예측하다 ( 입력 = 'LLM 설계 작업 중입니다.' )

이전 메시지가 정기적으로 플러시되므로 버퍼는 각각의 새로운 입력으로 계속 업데이트됩니다.

대화_위드_요약. 예측하다 (

입력 = 'LLM을 이용한 LangChain! 들어보셨나요?'

)

이것이 바로 LangChain의 대화 토큰 버퍼를 사용하는 것입니다.

결론

LangChain에서 대화 토큰 버퍼를 사용하려면 OpenAI 계정의 API 키를 사용하여 환경을 설정하는 모듈을 설치하기만 하면 됩니다. 그런 다음 LangChain 모듈을 사용하여 ConversationTokenBufferMemory 라이브러리를 가져와 대화를 버퍼에 저장합니다. 버퍼 메모리는 체인에서 사용되어 채팅의 모든 새 메시지와 함께 오래된 메시지를 플러시할 수 있습니다. 이번 포스팅은 LangChain에서 대화 토큰 버퍼 메모리를 사용하는 방법에 대해 자세히 설명했습니다.