LangChain에서 대화 요약을 사용하는 방법은 무엇입니까?

Langchain Eseo Daehwa Yoyag Eul Sayonghaneun Bangbeob Eun Mueos Ibnikka



LangChain은 자연어로 구축된 방대한 양의 훈련 데이터 세트를 사용하여 언어 모델을 구축하는 데 사용할 수 있는 프레임워크입니다. LangChain은 LLM과 같은 챗봇 및 언어 모델을 구축하고 관리하는 데 사용할 수 있는 라이브러리와 종속성을 제공합니다. 이러한 모델은 대부분 인간과 유사한 언어로 작성된 프롬프트를 기반으로 대화를 나누거나 일부 정보를 추출하는 기계로 간주됩니다.

이 가이드는 LangChain에서 대화 요약을 사용하는 과정을 설명합니다.

LangChain에서 대화 요약을 사용하는 방법은 무엇입니까?

LangChain은 채팅이나 대화의 전체 요약을 추출할 수 있는 ConversationSummaryMemory와 같은 라이브러리를 제공합니다. 채팅에서 사용 가능한 모든 메시지와 텍스트를 읽지 않고도 대화의 주요 정보를 얻는 데 사용할 수 있습니다.







LangChain에서 대화 요약을 사용하는 과정을 배우려면 다음 단계를 따르십시오.



1단계: 모듈 설치

먼저 다음 코드를 사용하여 LangChain 프레임워크를 설치하여 해당 종속성 또는 라이브러리를 가져옵니다.



pip 설치 랭체인





이제 pip 명령을 사용하여 LangChain을 설치한 후 OpenAI 모듈을 설치하십시오.

pip 설치 openai



모듈을 설치한 후 간단히 환경을 설정하다 OpenAI 계정에서 API 키를 가져온 후 다음 코드를 사용합니다.

수입

수입 getpass

. [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API 키:' )

2단계: 대화 요약 사용

LangChain에서 라이브러리를 가져와서 대화 요약을 사용하는 과정을 시작하세요.

~에서 랭체인. 메모리 수입 대화요약기억 , 채팅메시지기록

~에서 랭체인. LLMS 수입 오픈AI

ConversationSummaryMemory() 및 OpenAI() 메서드를 사용하여 모델의 메모리를 구성하고 여기에 데이터를 저장합니다.

메모리 = 대화요약기억 ( ㅋㅋㅋ = 오픈AI ( 온도 = 0 ) )

메모리. save_context ( { '입력' : '안녕하세요' } , { '산출' : '안녕' } )

호출하여 메모리를 실행합니다. 로드_메모리_변수() 메모리에서 데이터를 추출하는 방법:

메모리. 로드_메모리_변수 ( { } )

사용자는 별도의 메시지를 사용하여 각 엔터티와 같은 대화 형식으로 데이터를 얻을 수도 있습니다.

메모리 = 대화요약기억 ( ㅋㅋㅋ = 오픈AI ( 온도 = 0 ) , return_messages = 진실 )

메모리. save_context ( { '입력' : '안녕하세요' } , { '산출' : '안녕! 잘 지내?' } )

AI와 인간의 메시지를 별도로 가져오려면 load_memory_variables() 메서드를 실행합니다.

메모리. 로드_메모리_변수 ( { } )

대화 요약을 메모리에 저장한 후 메모리를 실행하여 채팅/대화 요약을 화면에 표시합니다.

메시지 = 메모리. chat_memory . 메시지

이전_요약 = ''

메모리. 예측_새_요약 ( 메시지 , 이전_요약 )

3단계: 기존 메시지에 대화 요약 사용

사용자는 ChatMessageHistory() 메시지를 사용하여 수업이나 채팅 외부에 존재하는 대화의 요약을 얻을 수도 있습니다. 이러한 메시지를 메모리에 추가하면 전체 대화의 요약을 자동으로 생성할 수 있습니다.

역사 = 채팅메시지기록 ( )

역사. add_user_message ( '안녕' )

역사. add_ai_message ( '안녕하세요!' )

OpenAI() 메서드를 사용하여 LLM과 같은 모델을 구축하여 기존 메시지를 실행합니다. chat_memory 변하기 쉬운:

메모리 = 대화요약메모리. from_messages (
ㅋㅋㅋ = 오픈AI ( 온도 = 0 ) ,
chat_memory = 역사 ,
return_messages = 진실
)

버퍼를 사용하여 메모리를 실행하여 기존 메시지의 요약을 가져옵니다.

메모리. 완충기

채팅 메시지를 사용하여 버퍼 메모리를 구성하여 LLM을 구축하려면 다음 코드를 실행하십시오.

메모리 = 대화요약기억 (
ㅋㅋㅋ = 오픈AI ( 온도 = 0 ) ,
완충기 = ''인간은 기계에게 자신에 대해 묻는다
시스템은 AI가 인간의 잠재력을 달성하는 데 도움이 되므로 선을 위해 만들어졌다고 대답합니다.'''
,
chat_memory = 역사 ,
return_messages = 진실
)

4단계: 체인에서 대화 요약 사용

다음 단계에서는 LLM을 사용하여 체인에서 대화 요약을 사용하는 프로세스를 설명합니다.

~에서 랭체인. LLMS 수입 오픈AI
~에서 랭체인. 쇠사슬 수입 컨버세이션체인
ㅋㅋㅋ = 오픈AI ( 온도 = 0 )
대화_위드_요약 = 컨버세이션체인 (
ㅋㅋㅋ = ㅋㅋㅋ ,
메모리 = 대화요약기억 ( ㅋㅋㅋ = 오픈AI ( ) ) ,
말 수가 많은 = 진실
)
대화_위드_요약. 예측하다 ( 입력 = '안녕하세요. 어떻게 지내세요' )

여기에서 우리는 정중한 질문으로 대화를 시작함으로써 체인 구축을 시작했습니다.

이제 마지막 출력에 대해 좀 더 질문하여 대화에 참여해 보세요.

대화_위드_요약. 예측하다 ( 입력 = '좀 더 자세히 알려주세요!' )

모델은 AI 기술이나 챗봇에 대한 자세한 소개와 함께 마지막 메시지를 설명했습니다.

이전 출력에서 ​​관심 지점을 추출하여 특정 방향으로 대화를 진행합니다.

대화_위드_요약. 예측하다 ( 입력 = '놀라워요 이 프로젝트는 얼마나 좋은가요?' )

여기서는 대화 요약 메모리 라이브러리를 사용하여 봇으로부터 자세한 답변을 얻습니다.

이것이 바로 LangChain의 대화 요약을 사용하는 것입니다.

결론

LangChain에서 대화 요약 메시지를 사용하려면 환경 설정에 필요한 모듈과 프레임워크를 설치하기만 하면 됩니다. 환경이 설정되면 가져옵니다. 대화요약기억 OpenAI() 메서드를 사용하여 LLM을 빌드하는 라이브러리입니다. 그런 다음 대화 요약을 사용하여 이전 대화의 요약인 모델에서 자세한 출력을 추출하면 됩니다. 이 가이드에서는 LangChain 모듈을 사용하여 대화 요약 메모리를 사용하는 과정을 자세히 설명했습니다.