Deep Learning AMI에 권장되는 GPU 인스턴스는 무엇입니까?

Deep Learning Amie Gwonjangdoeneun Gpu Inseuteonseuneun Mueos Ibnikka



기계 학습 및 딥 러닝은 지난 10년 동안 가장 빠르게 성장하는 분야이며 개발자는 모델을 교육하고 배포하기 위해 더 나은 리소스가 필요합니다. AWS 플랫폼을 사용하면 ML 또는 DL 모델로 작업하는 고객이 클라우드에서 쉽게 구축하고 배포할 수 있습니다. ML 전문 지식 없이도 애플리케이션에 신속하게 인텔리전스를 추가할 수 있도록 능숙한 GPU 성능을 갖춘 여러 가상 머신을 제공합니다.

이 가이드에서는 딥 러닝 Amazon 머신 이미지에 권장되는 그래픽 처리 장치 또는 GPU 인스턴스에 대해 설명합니다.

GPU 인스턴스의 딥 러닝

기계 학습과 딥 러닝은 시간이 많이 걸리고 해당 분야의 전문 지식이 필요하기 때문에 복잡하게 인식됩니다. AWS는 기계 학습 채택에 대한 이러한 장벽을 제거하고 개발자와 데이터 과학자가 액세스할 수 있도록 합니다. AWS는 클라우드에서 딥 러닝 모델을 대규모로 쉽게 개발, 교육 및 배포할 수 있도록 광범위한 사용 사례와 함께 SageMaker 서비스를 제공합니다.









DLAMI에 권장되는 GPU 인스턴스는 무엇입니까?

Amazon EC2 서비스를 통해 사용자는 클라우드에서 가상 머신을 생성할 수 있으며 SageMaker 서비스를 통해 사용자는 EC2 인스턴스를 사용하여 이러한 모델을 교육할 수 있습니다. 플랫폼은 서비스에서 사용 가능한 AMI를 사용하여 딥 러닝 모델을 수행하기 위해 서비스에서 여러 GPU 인스턴스를 권장합니다. 이러한 권장 인스턴스는 게시물의 다음 섹션에서 언급되고 설명됩니다.



EC2 P3 인스턴스
Amazon EC2 P3 인스턴스는 AWS 클라우드 플랫폼의 주요 GPU 인스턴스이며 병렬 고성능 컴퓨터 워크로드용으로 설계되었습니다. P3 인스턴스는 단일 인스턴스에서 최대 1페타플롭의 컴퓨팅 성능을 제공하는 1, 4 또는 8개의 NVIDIA Tesla v100 GPU를 포함하는 크기로 제공됩니다.





EC2 P4 인스턴스
Amazon EC2 P4 인스턴스는 가장 큰 ML 또는 HPC 문제를 해결하기 위해 최신 세대 NVIDIA A100 GPU로 구동됩니다. 머신 러닝 또는 딥 러닝 모델은 클라우드에서 가장 저렴한 인스턴스이므로 교육 비용과 시간을 줄입니다. EC2 P4 인스턴스는 P3 인스턴스 비용의 최대 절반을 절약하고 DL 성능을 2.5배 향상시킬 수 있습니다.



EC2 G3 인스턴스
Amazon EC2 G3 인스턴스는 최대 4개의 NVIDIA Tesla M60 GPU로 구동되며 최신 EC2 그래픽 인스턴스입니다. 최대 2048개의 병렬 처리 코어로 CPU, GPU 및 고성능 컴퓨팅의 가장 강력한 조합을 제공합니다. 비용 효율적이고 민첩한 기능으로 그래픽 집약적 워크로드를 처리할 수 있는 빠르고 강력한 GPU를 제공합니다.

EC2 G4 인스턴스
Amazon EC2 G4 인스턴스는 AMD Radeon Pro v520 GPU 및 AMD 2세대 Epic 프로세서로 구동됩니다. 이러한 인스턴스는 클라우드의 그래픽 집약적 애플리케이션을 위해 동급 GPU보다 45% 더 나은 가격 대비 성능을 제공합니다.

EC2 G5 인스턴스
고객은 그래픽 집약적 워크로드 또는 클라우드의 딥 러닝 교육과 같은 여러 사용 사례를 위해 고성능 GPU 인스턴스가 필요합니다. Amazon EC2 G5 인스턴스는 그래픽 집약적인 애플리케이션 및 ML 추론에 대해 최대 3배 향상된 성능을 제공합니다.

이것이 Deep Learning AMI에 권장되는 GPU 인스턴스에 관한 전부입니다.

결론

AWS는 기계 학습 또는 딥 러닝 Amazon 머신 이미지를 위한 여러 그래픽 처리 장치 인스턴스를 제공합니다. AWS는 ML 또는 DL 모델을 사용하여 보다 정확하고 효율적으로 모델을 교육하는 고객을 위해 SageMaker 서비스를 제공합니다. 이 가이드에서는 Deep Learning Amazon Machine Image에 권장되는 GPU 인스턴스에 대해 설명했습니다.