LangChain에서 'asyncio' 라이브러리를 사용하는 방법은 무엇입니까?

Langchain Eseo Asyncio Laibeuleolileul Sayonghaneun Bangbeob Eun Mueos Ibnikka



LangChain은 텍스트를 생성하고 인간과 상호 작용할 수 있도록 인공 지능을 사용하여 대규모 언어 모델을 구축하는 프레임워크입니다. asyncio는 동일한 명령이나 쿼리를 사용하여 LLM과 같은 모델을 여러 번 호출하는 데 사용할 수 있는 라이브러리입니다. 또한 LLM 모델의 작업 속도를 높여 텍스트를 효율적으로 생성합니다.

이 문서에서는 LangChain에서 'asyncio' 라이브러리를 사용하는 방법을 보여줍니다.







LangChain에서 'asyncio' 라이브러리를 사용/실행하는 방법은 무엇입니까?

Async API는 LLM에 대한 지원으로 사용될 수 있으므로 LangChain에서 asyncio 라이브러리를 사용하려면 다음 가이드를 따르십시오.



필수 구성 요소 설치



LLM을 동시에 호출하기 위해 LangChain의 asyncio 라이브러리 사용을 시작하려면 LangChain 모듈을 설치하십시오.





설치하다 랭체인



OpenAIembeddings를 사용하여 LLM을 구축하려면 OpenAI 모듈도 필요합니다.

설치하다 개방하다

설치 후 다음 코드를 사용하여 OpenAI API 키를 구성하기만 하면 됩니다.

우리를 수입하다
가져오기 겟패스

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'OpenAI API 키:' )

asyncio를 사용하여 LLM 구축

asyncio 라이브러리는 다음 코드가 LangChain에서 사용하므로 LLM을 지원하는 데 사용할 수 있습니다.

수입 시간
비동기 가져오기
#LangChain에서 asyncio 라이브러리를 가져와서 사용
langchain.llms에서 OpenAI 가져오기

#직렬 생성의 타임스탬프를 가져오는 함수를 정의합니다.
def generate_serially ( ) :
llm = 오픈AI ( 온도 = 0.9 )
~을 위한 _ ~에 범위 ( 5 ) :
resp = llm.generate ( [ '뭐하세요?' ] )
인쇄 ( resp.세대 [ 0 ] [ 0 ] .텍스트 )

#동기 생성의 타임스탬프를 가져오는 함수를 정의합니다.
비동기 정의 async_generate ( ㅋㅋㅋ ) :
resp = llm.agenerate를 기다립니다. ( [ '뭐하세요?' ] )
인쇄 ( resp.세대 [ 0 ] [ 0 ] .텍스트 )

#동시에 데이터 생성의 타임스탬프를 가져오는 함수를 정의합니다.
비동기 def generate_concurrently ( ) :
llm = 오픈AI ( 온도 = 0.9 )
작업 = [ 비동기_생성 ( ㅋㅋㅋ ) ~을 위한 _ ~에 범위 ( 10 ) ]
asyncio.gather를 기다리세요 ( * 작업 )

#동시 출력을 얻기 위해 asyncio를 사용하여 결과 출력을 구성합니다.
s = time.perf_counter ( )
생성_동시 대기 ( )
경과 = time.perf_counter ( ) - s
인쇄 ( '\033[1분' + 에프 '{경과:0.2f}초 내에 동시 실행되었습니다.' + '\033[0m' )

# 직렬 출력을 얻기 위해 결과 출력의 타임스탬프를 구성합니다.
s = time.perf_counter ( )
generate_serially ( )
경과 = time.perf_counter ( ) - s
인쇄 ( '\033[1분' + 에프 '{elapsed:0.2f}초 후에 직렬이 실행되었습니다.' + '\033[0m' )

위의 코드는 asyncio 라이브러리를 사용하여 다음과 같은 두 가지 고유한 함수를 사용하여 텍스트를 생성하는 시간을 측정합니다. generate_serially() 그리고 generate_concurrently() :

산출

다음 스크린샷은 기능의 시간 복잡도와 동시 텍스트 생성의 시간 복잡도가 직렬 텍스트 생성보다 우수함을 보여줍니다.

LangChain에서 LLM을 구축하기 위해 'asyncio' 라이브러리를 사용하는 것이 전부입니다.

결론

LangChain에서 asyncio 라이브러리를 사용하려면 LangChain 및 OpenAI 모듈을 설치하여 프로세스를 시작하기만 하면 됩니다. Async API는 이전 대화에서 학습할 챗봇을 만들기 위한 LLM 모델을 구축하는 동안 도움이 될 수 있습니다. 이 가이드에서는 LangChain 프레임워크를 사용하여 LLM을 지원하기 위해 asyncio 라이브러리를 사용하는 프로세스를 설명했습니다.