LangChain에서 엔터티 메모리를 사용하는 방법은 무엇입니까?

Langchain Eseo Enteoti Memolileul Sayonghaneun Bangbeob Eun Mueos Ibnikka



LangChain은 인간이 의사소통을 위해 사용하는 언어인 자연어를 처리할 수 있는 모델을 생성할 수 있는 모듈입니다. LangChain에는 대규모 언어 모델이나 챗봇을 구축하는 데 사용할 수 있는 모든 필수 모듈과 종속성이 포함되어 있습니다. 이러한 모델은 사용자가 제공한 쿼리를 기반으로 텍스트를 생성하기 위해 자연어를 학습하도록 훈련되어야 합니다.

이 가이드는 LangChain에서 엔터티 메모리를 사용하는 과정을 보여줍니다.

LangChain에서 엔터티 메모리를 사용하는 방법은 무엇입니까?

엔터티는 쿼리/프롬프트를 사용하여 인간이 요청할 때 추출하기 위해 메모리에 저장된 주요 사실을 유지하는 데 사용됩니다. LangChain에서 엔터티 메모리를 사용하는 프로세스를 알아보려면 다음 가이드를 방문하세요.







1단계: 모듈 설치

먼저 pip 명령을 사용하여 LangChain 모듈을 설치하여 종속성을 가져옵니다.



pip 설치 랭체인



그런 다음 OpenAI 모듈을 설치하여 LLM 및 채팅 모델 구축을 위한 라이브러리를 가져옵니다.





pip 설치 openai

OpenAI 환경 설정 OpenAI 계정에서 추출할 수 있는 API 키를 사용합니다.



수입

수입 getpass

. [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API 키:' )

2단계: 엔터티 메모리 사용

엔터티 메모리를 사용하려면 OpenAI() 메서드를 사용하여 LLM을 빌드하는 데 필요한 라이브러리를 가져옵니다.

~에서 랭체인. LLMS 수입 오픈AI

~에서 랭체인. 메모리 수입 대화엔티티메모리

ㅋㅋㅋ = 오픈AI ( 온도 = 0 )

그 후에는 메모리 입력 및 출력 변수를 사용하여 모델을 훈련하기 위해 ConversationEntityMemory() 메서드를 사용하는 변수:

메모리 = 대화엔티티메모리 ( ㅋㅋㅋ = ㅋㅋㅋ )

_입력 = { '입력' : 'Joe Root가 프로젝트를 진행하고 있습니다' }

메모리. 로드_메모리_변수 ( _입력 )

메모리. save_context (

_입력 ,

{ '산출' : '좋아! 그게 무슨 프로젝트야?' }

)

이제 쿼리/프롬프트를 사용하여 메모리를 테스트합니다. 입력 load_memory_variables() 메서드를 호출하여 변수를 호출합니다.

메모리. 로드_메모리_변수 ( { '입력' : '루트는 누구인가' } )

이제 모델이 메모리에 엔터티를 몇 개 더 추가할 수 있도록 추가 정보를 제공합니다.

메모리 = 대화엔티티메모리 ( ㅋㅋㅋ = ㅋㅋㅋ , return_messages = 진실 )

_입력 = { '입력' : 'Joe Root가 프로젝트를 진행하고 있습니다' }

메모리. 로드_메모리_변수 ( _입력 )

메모리. save_context (

_입력 ,

{ '산출' : '좋아! 그게 무슨 프로젝트야?' }

)

다음 코드를 실행하여 메모리에 저장된 엔터티를 사용하여 출력을 가져옵니다. 을 통해서 가능합니다 입력 프롬프트가 포함되어 있습니다:

메모리. 로드_메모리_변수 ( { '입력' : '조는 누구인가' } )

3단계: 체인에서 엔터티 메모리 사용

체인을 구축한 후 엔터티 메모리를 사용하려면 다음 코드 블록을 사용하여 필요한 라이브러리를 가져오기만 하면 됩니다.

~에서 랭체인. 쇠사슬 수입 컨버세이션체인

~에서 랭체인. 메모리 수입 대화엔티티메모리

~에서 랭체인. 메모리 . 즉각적인 수입 ENTITY_MEMORY_CONVERSATION_TEMPLATE

~에서 피단틱한 수입 기본 모델

~에서 타자 수입 목록 , 사전 , 어느

llm과 같은 인수를 사용하여 ConversationChain() 메서드를 사용하여 대화 모델을 구축합니다.

대화 = 컨버세이션체인 (

ㅋㅋㅋ = ㅋㅋㅋ ,

말 수가 많은 = 진실 ,

즉각적인 = ENTITY_MEMORY_CONVERSATION_TEMPLATE ,

메모리 = 대화엔티티메모리 ( ㅋㅋㅋ = ㅋㅋㅋ )

)

프롬프트 또는 쿼리로 초기화된 입력으로 대화.예측() 메서드를 호출합니다.

대화. 예측하다 ( 입력 = 'Joe Root가 프로젝트를 진행하고 있습니다' )

이제 각 엔터티에 대한 정보를 설명하는 별도의 출력을 얻습니다.

대화. 메모리 . 엔터티_스토어 . 가게

모델의 출력을 사용하여 입력을 제공하면 모델이 이러한 엔터티에 대한 추가 정보를 저장할 수 있습니다.

대화. 예측하다 ( 입력 = '그들은 Langchain에 더 복잡한 메모리 구조를 추가하려고 노력하고 있습니다.' )

메모리에 저장되어 있는 정보를 제공한 후 엔터티에 대한 특정 정보를 추출하는 질문을 하면 됩니다.

대화. 예측하다 ( 입력 = '당신은 조와 루트에 대해 무엇을 알고 있나요?' )

4단계: 메모리 저장소 테스트

사용자는 다음 코드를 사용하여 메모리 저장소를 직접 검사하여 메모리 저장소에 저장된 정보를 가져올 수 있습니다.

~에서 인쇄 수입 인쇄

인쇄 ( 대화. 메모리 . 엔터티_스토어 . 가게 )

더 많은 정보를 제공하면 더 정확한 결과를 얻을 수 있으므로 메모리에 저장할 더 많은 정보를 제공하세요.

대화. 예측하다 ( 입력 = 'Root는 HJRS라는 사업을 설립했습니다.' )

엔터티에 대한 추가 정보를 추가한 후 메모리 저장소에서 정보를 추출합니다.

~에서 인쇄 수입 인쇄

인쇄 ( 대화. 메모리 . 엔터티_스토어 . 가게 )

메모리에는 HJRS, Joe, LangChain 및 Root와 같은 여러 엔터티에 대한 정보가 있습니다.

이제 입력 변수에 정의된 쿼리 또는 프롬프트를 사용하여 특정 엔터티에 대한 정보를 추출합니다.

대화. 예측하다 ( 입력 = '당신은 루트에 대해 무엇을 알고 있나요' )

이것이 바로 LangChain 프레임워크를 사용하여 엔터티 메모리를 사용하는 것입니다.

결론

LangChain에서 엔터티 메모리를 사용하려면 OpenAI 환경을 설정한 후 모델 구축에 필요한 라이브러리를 가져오기 위해 필요한 모듈을 설치하기만 하면 됩니다. 그런 다음 LLM 모델을 구축하고 엔터티에 대한 정보를 제공하여 엔터티를 메모리에 저장합니다. 사용자는 또한 이러한 개체를 사용하여 정보를 추출하고 개체에 대한 정보를 혼합하여 체인에 이러한 메모리를 구축할 수 있습니다. 이번 포스팅에서는 LangChain에서 엔터티 메모리를 사용하는 과정을 자세히 설명했습니다.