통사론:
우리는 ChatGPT에 익숙하기 때문에 이 플랫폼이 Open AI 커뮤니티의 소유이며 애플리케이션 및 자연어 처리 모델 배포에 활용할 수 있는 도구, 아키텍처, API 및 여러 프레임워크를 제공한다는 것을 알고 있습니다. Open AI는 Open AI 플랫폼에서 사전 훈련된 AI 및 NLP 모델을 사용할 수 있는 API를 제공하며, 예를 들어 실시간 데이터에 대한 예측을 제공하는 것과 같은 애플리케이션에서 작동하도록 할 수 있습니다. 마찬가지로 GPT4All은 사용자에게 사전 훈련된 AI 모델을 다양한 애플리케이션과 통합할 수 있는 기능도 제공합니다.
GPT4All 모델은 ChatGPT에 비해 제한된 데이터로 학습됩니다. 또한 ChatGPT와 비교할 때 일부 성능 제약이 있지만 사용자가 로컬 하드웨어에서 개인 GPT를 사용할 수 있으며 네트워크 연결이 필요하지 않습니다. 이 기사의 도움으로 GPT4All에는 Python과의 공식 바인딩이 있으므로 Python 스크립트에서 GPT4All 모델을 사용하는 방법을 알게 될 것입니다. 즉, Python 스크립트를 통해서도 GPT4All 모델을 사용하고 통합할 수 있습니다.
Python IDE용 GPT4All을 설치하려면 모두 온라인 명령이 필요합니다. 그런 다음 애플리케이션만큼 많은 AI 모델을 통합할 수 있습니다. Python에서 GPT4All을 설치하는 명령은 다음과 같습니다.
$ 핍 설치 gpt4all
예 1:
이 예제를 시작하려면 시스템에 Python을 다운로드하고 설치해야 합니다. Python의 권장 버전은 '버전 3.7' 또는 이 버전 이후에 나온 버전입니다. 시스템에 'Python 설정'을 설치하는 긴 프로세스를 피하기 위해 Python으로 작업하는 또 다른 방법은 Python용 클라우드 기반 환경인 'Google Colab'을 사용하는 것입니다. 우리는 이 환경을 모든 웹 브라우저에서 실행할 수 있고 AI 및 기계 학습 모델을 구축할 수 있습니다. 여기서 구현할 예제는 Google Colab에서 실행됩니다.
이 예제에서는 Python에 GPT4All을 설치하는 방법과 사전 훈련된 모델을 사용하는 방법을 다룹니다. 먼저 GPT4All을 설치하는 것으로 시작합니다. 이를 위해 앞에서 언급한 명령이 실행됩니다. 명령을 실행하면 패키지 및 프레임워크와 함께 GPT4All이 다운로드 및 설치됩니다.
이제 우리는 앞으로 나아갑니다. GPT4All에서 'GPT4All'을 가져옵니다. 이렇게 하면 GPT4All의 사전 학습된 모든 모델이 프로젝트에 추가됩니다. 이제 단일 모델을 활용하여 애플리케이션에 대한 예측을 수행하도록 할 수 있습니다. GPT4All 패키지를 가져오면 이제 이 함수를 호출하고 '채팅 완료'에 대한 출력을 제공하는 GPT4All 모델을 사용할 차례입니다.
즉, 입력의 해당 모델에서 무엇이든 요청하면 출력으로 반환됩니다. 여기서 사용하는 모델은 'ggml-gpt4all-j-v1.3-groovy'입니다. 이러한 모델은 이미 GPT4All 캐시에 저장되어 있습니다. 이 링크에서 이러한 모델을 얻을 수 있습니다. https://github.com/nomic-ai/gpt4all/tree/main/gpt4all-chat ” 수동 다운로드용. 모델이 이미 GPT4All 캐시에 있는 경우 모델 이름을 호출하고 'GPT4All()' 함수에 대한 입력 매개 변수로 지정합니다. 수동으로 성공적으로 다운로드한 경우 모델이 있는 폴더의 경로를 전달합니다. 이 모델은 메시지 완성을 위한 것이므로 이 모델의 구문은 다음과 같습니다.
$ 채팅 완료(메시지)메시지는 사전 목록이며 각 사전에는 사용자, 시스템 또는 도우미 값이 있는 '역할' 키와 값이 문자열인 '키' 콘텐츠가 포함되어야 합니다. 이 예에서는 콘텐츠를 '세 가지 색상 이름 지정'으로 지정하고 역할 키를 '사용자'로 지정합니다.
$model= GPT4All('ggml-gpt4all-j-v1.3-groovy')$messages = [{'role': 'user', 'content': '3개의 꽃 이름 지정'}]
이 사양 후에 모델과 함께 'chat_completion()' 함수를 호출합니다. 이에 대한 코드는 다음 출력에 표시됩니다.
$ !pip 설치 gpt4allgpt4all에서 GPT4All 가져오기
모델 = GPT4All('ggml-gpt4all-j-v1.3-groovy')
messages = [{'role': 'user', 'content': '세 가지 색상 이름 지정'}]
model.chat_completion(메시지)
이 예제를 실행한 후 모델은 입력에 대한 응답으로 세 가지 색상을 반환합니다.
예 2:
Python에서 GPT4All을 사용하는 또 다른 방법을 발견한 또 다른 예를 다룹니다. 이는 오픈 소스 AI 커뮤니티인 'Nomic'에서 제공하고 GPT4All을 실행하는 Python용 공식 바인딩을 사용하여 수행할 수 있습니다. 다음 명령을 사용하여 'nomic'을 Python 콘솔에 통합합니다.
$ pip 설치 노미이것이 설치되면 'nomic.gpt4all'에서 GPT4All을 가져옵니다. GPT4All을 가져온 후 'open()' 함수로 GPT4All을 초기화합니다. 그런 다음 'prompt()' 함수를 호출하고 이 함수에 프롬프트를 전달합니다. 그러면 프롬프트 모델에 입력으로 제공한 프롬프트를 기반으로 프롬프트 응답이 생성됩니다.
!pip 설치 노미nomic.gpt4all에서 GPT4All 가져오기
# GPT4All 모델 초기화
초기화 = GPT4All()
초기화.열기()
# 프롬프트에 따라 응답 생성
model_response = initial.prompt('컴퓨터에 대한 짧은 이야기 쓰기)
# 생성된 응답 표시
인쇄(model_response)
출력에는 Python에서 사전 학습된 GPT4All 모델을 사용하여 생성한 모델의 프롬프트 응답이 표시됩니다. 모델에 대해 더 알고 싶고 이러한 모델을 사용하여 응답을 생성하는 방법, 또는 간단히 말해서 이러한 모델에서 응답을 생성하는 구문에 대한 지식을 얻으려면 다음에서 추가 도움을 받을 수 있습니다. GPT4모든 기술 문서 세부 정보.
결론
GPT4All은 여전히 성능 정확도를 얻기 위해 노력하고 있습니다. GPT4All은 네트워크 연결 및 GPU 없이 작동하기 때문에 소비자 등급 CPU에서 사용자에게 인공 지능 챗봇을 제공하는 것을 목표로 하는 nomic AI 플랫폼에 의해 실행됩니다. 이 기사는 Python 환경에서 PyGPT4All을 능숙하게 사용하고 애플리케이션과 사전 훈련된 GPT4All AI 모델 간의 상호 작용을 생성하는 방법을 알려줍니다. 이 가이드에서는 Python에 GPT4All을 설치하는 방법에 대한 두 가지 방법을 다루었습니다.