작업을 지원하는 데 적합한 AI 및 ML 서비스, 프레임워크 및 파운데이션 모델 선택
소개
기계 학습(ML)은 기본적으로 데이터를 통해 학습하고, 패턴을 식별하고, 예측을 하고, 그 예측에 따라 조치를 취할 수 있는 디지털 도구와 서비스를 제공하도록 설계되었습니다. 오늘날 거의 모든 인공 지능(AI) 시스템은 ML을 사용하여 만들어집니다. ML은 대량의 데이터를 사용하여 의사 결정 로직을 만들고 검증합니다. 이 의사 결정 로직은 AI ‘모델’의 기초를 형성합니다.
기계 학습 분야에서 빠르게 성장하고 있는 하위 분야인 생성형 AI는 방대한 데이터 세트로 사전 훈련된 대규모 모델[일반적으로 파운데이션 모델(FM)이라고 함]을 기반으로 합니다. 생성형 AI 기반 AWS 서비스에는 다음이 포함됩니다.
- Amazon Bedrock(FM을 사용하여 생성형 AI 기반 애플리케이션을 구축하고 규모를 조정할 수 있는 방법 제공)
- Amazon CodeWhisperer(통합 개발 환경에서 자연어로 작성된 주석과 이전 코드를 기반으로 실시간으로 코드 제안을 생성하는 AI 코딩 도우미)
이 의사 결정 가이드는 올바른 사항을 고려하고, 기준 및 비즈니스 문제를 평가하고, 요구 사항에 가장 적합한 서비스를 결정하는 데 도움이 됩니다.
2분이 채 안 되는 시간 동안 Amazon CTO인 Werner Vogels 박사가 생성형 AI의 작동 원리와 사용 방법을 설명합니다. 이 동영상은 Vogels 박사와 AWS Database, Analytics and ML 부문 Vice-President인 Swami Sivasubramanian이 생성형 AI의 광범위한 지평, 이 기술의 이점이 과장된 것이 아닌 이유, AWS가 대규모 언어 및 파운데이션 모델에 대한 액세스를 어떻게 대중화하는 방법에 대해 나눈 긴 대화에서 발췌했습니다.
읽을 시간
25분
용도
요구 사항에 가장 적합한 AWS ML 서비스를 결정하는 데 도움이 됩니다.
레벨
초보자
최종 업데이트 날짜
2023년 7월 26일
적용 대상 서비스
이해
또한 AWS는 고성능 ML 훈련 및 추론을 위해 다음과 같은 전문화되고 가속화된 하드웨어를 제공합니다.
- Amazon EC2 P4d 인스턴스에는 NVIDIA A100 Tensor Core GPU가 탑재되어 있어 기계 학습의 훈련 및 추론 작업 모두에 적합합니다. AWS Trainium은 1,000억 개 이상의 파라미터 모델의 DL 훈련을 위해 AWS에서 구축한 목적별 2세대 ML 액셀러레이터입니다.
- AWS Inferentia2 기반 Amazon EC2 Inf2 인스턴스는 Amazon EC2의 DL 추론 및 생성형 AI 애플리케이션을 위한 고성능을 최저 비용으로 제공하도록 설계되었습니다.
고려 사항
AWS ML 서비스로 비즈니스 문제를 해결할 때 몇 가지 주요 기준을 고려하면 성공을 보장하는 데 도움이 될 수 있습니다. 다음 섹션에서는 ML 서비스를 선택할 때 고려해야 할 몇 가지 주요 기준을 간략하게 설명합니다.
-
문제 정의
-
ML 알고리즘
-
보안
-
지연 시간
-
정확성
-
AWS와 책임 있는 AI
-
ML 수명 주기의 첫 단계는 비즈니스 문제를 파악하는 것입니다. 서로 다른 문제를 해결하도록 다양한 서비스가 설계되었으므로, 해결하려는 문제를 파악하는 것이 올바른 AWS ML 서비스를 선택하는 데 있어 필수적입니다. ML이 비즈니스 문제에 가장 적합한지 판단하는 것도 중요합니다.
ML이 가장 적합하다고 판단되면 먼저 (음성, 시각, 문서 등의 영역을 지원하는) 다양한 목적별 AWS AI 서비스 중에서 선택할 수 있습니다.
Amazon SageMaker는 자체 모델을 구축하고 훈련해야 하는 고객에게 완전관리형 인프라를 제공합니다. AWS는 고도로 맞춤화되고 전문화된 ML 모델이 필요한 고객에게 다양한 고급 ML 프레임워크와 인프라 옵션을 제공합니다. 또한 AWS는 생성형 AI를 사용하여 새로운 애플리케이션을 구축할 수 있는 다양한 인기 파운데이션 모델을 제공합니다.
-
해결하려는 비즈니스 문제를 지원할 ML 알고리즘의 선택은 작업에 사용하는 데이터의 유형과 원하는 결과에 따라 달라집니다. 다음 정보는 각각의 주요 AWS AI/ML 서비스 범주가 해당 알고리즘의 사용을 어떻게 지원하는지 간략하게 설명합니다.
- 특화된 AI 서비스: 이 서비스는 특정 작업에 최적화된 사전 훈련된 모델이므로, ML 알고리즘을 맞춤화할 수 있는 제한적인 기능을 제공합니다. 일반적으로 입력 데이터와 일부 파라미터를 사용자 지정할 수 있지만 기반 ML 모델에 액세스하거나 자체 모델을 구축할 수는 없습니다.
- Amazon SageMaker: 이 서비스는 ML 알고리즘에 대한 최고 수준의 유연성과 제어 기능을 제공합니다. SageMaker에서는 자체 알고리즘 및 프레임워크로 맞춤형 모델을 구축하거나 AWS가 제공하는 사전 구축된 모델 및 알고리즘을 사용할 수 있습니다. 이를 통해 ML 프로세스를 높은 수준으로 맞춤화하고 제어할 수 있습니다.
- 하위 수준 ML 프레임워크 및 인프라: 이 서비스는 ML 알고리즘에 대한 최고 수준의 유연성과 제어 기능을 제공합니다. 이 서비스를 사용하여 자체 알고리즘과 프레임워크로 고도로 맞춤화된 ML 모델을 구축할 수 있습니다. 단, 이 서비스를 사용하려면 상당한 ML 관련 전문 지식이 요구되며, 일부 사용 사례에는 적합하지 않을 수 있습니다.
-
VPC에 프라이빗 엔드포인트가 필요한 경우 사용하는 AWS ML 서비스 계층에 따라 옵션이 달라집니다. 여기에는 다음이 포함됩니다.
- 전문 AI 서비스: 현재 대부분의 전문 AI 서비스는 VPC에서 프라이빗 엔드포인트를 지원하지 않습니다. 하지만 Amazon Rekognition Custom Labels 및 Amazon Comprehend Custom에는 VPC 엔드포인트를 사용하여 액세스할 수 있습니다.
- 핵심 AI 서비스: Amazon Translate, Amazon Transcribe 및 Amazon Comprehend는 모두 VPC 엔드포인트를 지원합니다.
- Amazon SageMaker: SageMaker는 VPC 엔드포인트를 기본적으로 지원하므로, VPC 내에서만 액세스할 수 있는 엔드포인트로서 훈련된 모델을 배포할 수 있습니다.
- 하위 수준 ML 프레임워크 및 인프라: Amazon EC2 인스턴스 또는 VPC 내 컨테이너에 모델을 배포하여 네트워킹 구성을 완벽하게 제어할 수 있습니다.
-
Amazon Rekognition 및 Amazon Transcribe와 같은 상위 수준의 AI 서비스는 다양한 사용 사례를 처리하고 속도 측면에서 높은 성능을 제공하도록 설계되었습니다. 하지만 특정 지연 시간 요구 사항을 충족하지 못할 수 있습니다.
하위 수준의 ML 프레임워크와 인프라를 사용하는 경우 Amazon SageMaker를 활용하는 것이 좋습니다. 완전관리형 서비스와 최적화된 배포 옵션 덕분에 일반적으로 이 옵션을 사용하는 편이 맞춤형 모델을 구축하는 것보다 빠릅니다. 고도로 최적화된 맞춤형 모델은 SageMaker보다 성능이 뛰어날 수 있지만, 그러한 모델을 구축하려면 상당한 전문 지식과 리소스가 요구됩니다.
-
AWS ML 서비스의 정확성은 구체적인 사용 사례와 요구되는 맞춤화 수준에 따라 달라집니다. Amazon Rekognition과 같은 상위 수준의 AI 서비스는 특정 작업에 최적화되어 있으며 많은 사용 사례에서 높은 정확성을 제공하는 사전 훈련된 모델을 기반으로 구축됩니다.
경우에 따라, 맞춤형 ML 모델을 구축하고 훈련하는 데 있어 보다 유연하고 맞춤화 가능한 플랫폼을 제공하는 Amazon SageMaker를 사용할 수도 있습니다. 자체 모델을 구축하면 사전 훈련된 모델에서 구현되는 것보다 훨씬 더 높은 정확성을 실현할 수 있습니다.
또한 TensorFlow 및 Apache MXNet과 같은 ML 프레임워크 및 인프라를 사용하여 특정 사용 사례에서 가능한 최고 수준의 정확성을 제공하는 고도로 맞춤화된 모델을 구축할 수도 있습니다.
-
AWS는 개발 프로세스의 각 단계에서 책임 있는 AI를 염두에 두고 파운데이션 모델(FM)을 구축합니다. 설계, 개발, 배포 및 운영 전반에 걸쳐, 다음과 같은 다양한 요소를 고려합니다.
- 정확성(요약본이 기반 문서와 일치하는지 여부, 약력이 사실인지 여부)
- 공정성(결과물에서 인구통계학적 집단을 유사하게 다루고 있는지 여부)
- 지적 재산권 및 저작권 고려 사항
- 적절한 사용(사용자의 법률 자문이나 의학적 진단 요청 또는 불법 행위 필터링)
- 유해성(증오 발언, 욕설, 모욕적 표현)
- 프라이버시(개인 정보 및 고객 프롬프트 보호)
AWS는 훈련 데이터를 수집하는 데 사용되는 프로세스, FM 자체, 그리고 사용자 프롬프트를 전처리하고 출력을 후처리하는 데 사용되는 기술에 이러한 문제를 해결하는 솔루션을 구축합니다.
선택
이제 ML 서비스 옵션을 평가하는 기준을 알았으므로 조직의 요구 사항에 적합한 AWS ML 서비스를 선택할 준비가 되었습니다.
다음 표는 어떤 ML 서비스가 어떤 상황에 최적화되어 있는지를 자세히 보여줍니다. 이 표를 사용하면 사용 사례에 가장 적합한 AWS ML 서비스를 결정하는 데 도움이 됩니다.
Amazon Comprehend를 사용하면 텍스트 데이터에 대해 감정 분석, 개체 인식, 주제 모델링, 언어 감지 등의 자연어 처리 작업을 수행할 수 있습니다.
Amazon Lex를 사용하면 자연어 인터페이스를 통해 사용자와 상호 작용할 수 있는 챗봇 및 음성 어시스턴트를 구축할 수 있습니다. 사전 구축된 대화 관리, 언어 이해 및 음성 인식 기능을 제공합니다.
Amazon Polly를 사용하면 텍스트를 실제와 같은 음성으로 변환하여, 음성 지원 애플리케이션 및 서비스를 보다 손쉽게 구축할 수 있습니다.
Amazon Rekognition은 애플리케이션에 이미지 및 비디오 분석 기능을 추가할 수 있도록 설계되었습니다. Amazon Rekognition API에 이미지나 비디오를 제공하면 이 서비스에서 객체, 사람, 텍스트, 장면 및 활동을 파악할 수 있습니다. 부적절한 콘텐츠도 감지할 수 있습니다.
Amazon Textract를 사용하면 스캔한 문서, 양식 및 테이블에서 텍스트와 데이터를 추출하여 해당 데이터를 보다 쉽게 저장, 분석 및 관리할 수 있습니다.
Amazon Transcribe를 사용하면 고객이 오디오 및 비디오 녹음본을 텍스트로 자동 변환할 수 있습니다. 이렇게 하면 수작업으로 필사하는 경우에 비해 시간과 노력을 줄일 수 있습니다.
이 서비스를 사용하여 한 언어에서 다른 언어로 텍스트를 실시간으로 번역할 수 있습니다. 이는 비즈니스가 여러 국가에서 운영되거나 비원어민과 소통해야 하는 경우에 특히 유용합니다.
Amazon Bedrock은 API를 통해 주요 AI 스타트업과 Amazon의 파운데이션 모델을 제공하는 완전관리형 서비스입니다. 따라서 고객이 다양한 파운데이션 모델 중에서 가장 적합한 모델을 선택할 수 있습니다.
Amazon CodeWhisperer는 반복적이거나 시간이 많이 걸리는 획일적인 작업을 위한 코드를 생성하고, 익숙하지 않은 API 또는 SDK와 관련한 작업을 수행하고, AWS API를 효과적으로 정확하게 사용하고, 파일 읽기 및 쓰기, 이미지 처리, 단위 테스트 작성 등 기타 일반적인 코딩 시나리오를 처리하도록 지원하는 실시간 AI 코딩 도우미입니다.
Amazon SageMaker Autopilot은 ML 모델을 구축할 때 수행해야 하는 부담스러운 작업을 줄이도록 설계되었습니다. 표 형식 데이터 세트를 제공하고 예측할 대상 열을 선택하기만 하면 SageMaker Autopilot이 여러 솔루션을 자동으로 탐색하여 최상의 모델을 찾습니다. 그런 다음에는 한 번의 클릭으로 모델을 프로덕션 환경에 직접 배포하거나 권장되는 솔루션에서 반복하여 모델 품질을 더 향상시킬 수 있습니다.
Amazon SageMaker Canvas는 코드를 작성할 필요 없이 기계 학습을 사용하여 예측을 생성할 수 있는 기능을 제공합니다.
Amazon SageMaker Data Wrangler는 ML용 테이블 및 이미지 데이터를 집계하고 준비하는 시간을 줄여줍니다. SageMaker Data Wrangler를 이용하면 데이터 준비 및 특성 추출 프로세스를 간소화하고 단일 시각적 인터페이스에서 데이터 선택, 정리, 탐색, 시각화 및 대규모 처리를 포함한 데이터 준비 워크플로의 모든 단계를 완료할 수 있습니다.
SageMaker Ground Truth는 기계 학습 모델을 훈련하고 개선하기 위해 데이터에 레이블을 지정하는 관리형 서비스입니다. 인간 주석가와 기계 학습 알고리즘을 조합하여 대규모 데이터 세트에 레이블을 지정하는 매우 정확하고 효율적인 방법을 제공합니다. SageMaker Ground Truth는 텍스트, 이미지, 비디오 및 오디오를 비롯하여 다양한 데이터 유형을 지원하며, 다른 SageMaker 서비스와 원활하게 통합되어 전반적인 기계 학습 워크플로를 지원합니다.
SageMaker JumpStart는 다양한 문제 유형에 대해 사전 훈련된 오픈 소스 모델을 제공하므로 기계 학습을 시작하는 데 도움이 됩니다. 배포 전에 이러한 모델을 점진적으로 훈련하고 튜닝할 수 있습니다. 또한 JumpStart는 일반적인 사용 사례에 맞게 인프라를 설정하는 솔루션 템플릿과 SageMaker를 사용한 유용한 기계 학습용 노트북 예시를 제공합니다.
Amazon SageMaker Pipelines를 사용하면 Python SDK로 ML 워크플로를 생성한 후, Amazon SageMaker Studio를 사용하여 워크플로를 시각화하고 관리할 수 있습니다. Amazon SageMaker Pipelines를 사용하면 SageMaker Pipelines에서 생성한 워크플로 단계를 저장하고 재사용할 수 있습니다.
개발자가 대규모로 기계 학습 모델을 구축, 훈련 및 배포할 수 있는 완전 통합 개발 환경(IDE)입니다. 데이터 준비 및 모델 훈련부터 배포 및 모니터링에 이르기까지, 전체 기계 학습 수명 주기를 관리할 수 있는 단일 웹 기반 인터페이스를 제공합니다. 또한 SageMaker Studio는 Jupyter Notebook, Git, TensorFlow 등의 인기 도구를 지원하며 일반적인 사용 사례를 지원하도록 사전 구축된 일련의 알고리즘을 제공합니다.
Amazon SageMaker Studio Lab은 사전 구축된 Jupyter Notebook을 사용하여 기계 학습을 통해 학습하고 실험하기 위한 클라우드 기반 IDE입니다. 이미지 인식, 자연어 처리, 이상 탐지와 같은 주제를 다루는 다양한 사전 구축 노트북이 포함되어 있습니다.
Apache MXNet은 Python, Scala, R 등 다양한 프로그래밍 언어를 지원하는 오픈 소스 딥 러닝 프레임워크입니다. 확장성과 속도가 뛰어나며 신경망 구축 및 훈련을 위한 다양한 고급 API와 고급 사용자를 위한 하위 수준 API를 제공합니다.
Hugging Face on Amazon SageMaker
Amazon SageMaker의 Hugging Face는 자연어 처리(NLP)를 지원하는 오픈 소스 라이브러리로, 텍스트 데이터 작업을 위한 사전 훈련된 다양한 모델 및 도구를 제공합니다. 사용하기 쉽고 성능이 뛰어난 것으로 잘 알려져 있으며, 텍스트 분류, 감정 분석 및 언어 번역과 같은 작업에 널리 사용됩니다.
PyTorch on AWS는 신경망 구축 및 훈련을 위한 동적 계산 그래프와 자동 차별화를 제공하는 오픈 소스 기계 학습 프레임워크입니다. PyTorch는 뛰어난 사용 편의성과 유연성으로 유명하며, 활발한 활동으로 개발에 기여하는 대규모 개발자 커뮤니티를 보유하고 있습니다.
TensorFlow는 Google에서 개발한 오픈 소스 기계 학습 프레임워크로, 신경망 구축 및 훈련에 널리 사용됩니다. 뛰어난 확장성, 속도 및 유연성으로 유명하며, Python, C++ 및 Java를 비롯하여 다양한 프로그래밍 언어를 지원합니다. TensorFlow는 이미지 및 텍스트 처리를 지원하도록 사전 구축된 다양한 모델과 도구뿐만 아니라, 모델을 보다 효과적으로 제어해야 하는 고급 사용자를 위한 하위 수준 API도 제공합니다.
AWS Inferentia 및 AWS Inferentia2
1세대 AWS Inferentia 액셀러레이터로 구동되는 Amazon Elastic Compute Cloud(Amazon EC2) Inf1 인스턴스는 비교 가능한 Amazon EC2 인스턴스에 비해 추론당 최대 70% 저렴한 비용으로 최대 2.3배 더 많은 처리량을 제공합니다. AWS Inferentia2 액셀러레이터는 1세대 AWS Inferentia보다 개선되었습니다. Inferentia2는 Inferentia 대비 최대 4배 더 많은 처리량과 최대 10배 더 짧은 지연 시간을 제공합니다.
AWS Trainium은 1,000억 개 이상의 파라미터 모델의 딥 러닝 훈련을 위해 AWS에서 구축한 목적별 2세대 기계 학습(ML) 액셀러레이터입니다. 각 Amazon Elastic Compute Cloud(EC2) Trn1 인스턴스는 클라우드에서 딥 러닝(DL) 훈련에 사용할 수 있는 최대 16개의 AWS Trainium 액셀러레이터를 배포합니다.
사용
이제 AWS ML 서비스를 선택할 때 적용해야 하는 기준을 명확히 이해했으므로, 비즈니스 요구 사항에 최적화된 AWS AI/ML 서비스를 선택할 수 있습니다.
사용 방법을 알아보고 선택한 서비스에 대해 자세히 알아보기 위해 각 서비스의 작동 방식을 살펴볼 수 있는 세 가지 경로를 제공했습니다. 첫 번째 경로 세트에서는 Amazon Comprehend, Amazon Textract, Amazon Translate, Amazon Lex, Amazon Polly, Amazon Rekognition 및 Amazon Transcribe를 시작하는 데 필요한 세부 설명서, 실습 자습서 및 리소스를 제공합니다.
-
Amazon Comprehend
-
Amazon Textract
-
Amazon Translate
-
Amazon Lex
-
Amazon Polly
-
Amazon Rekognition
-
Amazon Transcribe
-
Amazon Comprehend
-
Amazon Comprehend 시작하기
Amazon Comprehend 콘솔을 사용하여 비동기식 개체 탐지 작업을 생성하고 실행할 수 있습니다.
자습서 시작하기 »Amazon Comprehend 요금
Amazon Comprehend 요금 및 예에 대한 정보를 살펴봅니다. -
Amazon Textract
-
Amazon Textract 시작하기
Amazon Textract를 서식이 지정된 텍스트와 함께 사용하여, 서로 가까이 있는 단어와 단어 줄을 감지하고 문서에서 관련 텍스트, 테이블, 키-값 페어 및 선택 요소와 같은 항목을 분석하는 방법을 알아보세요.
Amazon Textract를 사용하여 텍스트 및 구조화된 데이터 추출
Amazon Textract를 사용하여 문서에서 텍스트 및 정형 데이터를 추출하는 방법을 알아봅니다.
AWS Power Hour: 기계 학습
이 에피소드에서는 Amazon Textract를 자세히 살펴보고, AWS Management Console을 사용해 보며, 서비스 API의 이점을 최대한 활용하는 방법을 이해하는 데 도움이 되는 코드 샘플을 검토해 봅니다.
-
Amazon Translate
-
콘솔을 사용하여 Amazon Translate 시작하기
Amazon Translate를 시작하는 가장 쉬운 방법은 콘솔을 사용하여 텍스트를 번역하는 것입니다. 콘솔을 사용하여 최대 1만 자까지 번역하는 방법을 알아보세요.
클라우드에서 언어 간 텍스트 번역
이 자습서 예에서는 글로벌 여행 가방 제조업체의 직원으로서 고객이 후기에 해당 지역 언어(프랑스어)로 남긴 제품 평가를 이해해야 하는 것으로 가정합니다.
Amazon Translate 요금
12개월 동안 매월 200만 자를 제공하는 프리 티어를 비롯하여 Amazon Translate 요금에 대해 알아보세요.
가이드 살펴보기 »
맞춤형 번역 솔루션으로 다국어 워크플로 가속화
Amazon Translate 및 기타 AWS 서비스를 사용하여 맞춤형 기능을 갖춘 통합 번역 솔루션을 구축하는 방법을 알아봅니다.
-
Amazon Lex
-
Amazon Lex V2 개발자 가이드
Amazon Lex V2의 시작 방법, 작동 방식 및 요금 정보에 대한 정보를 살펴봅니다.
가이드 살펴보기 »Amazon Lex 소개
Amazon Lex 대화 서비스를 소개하고, 봇을 생성하여 다양한 채팅 서비스에 배포하는 방법을 보여주는 예를 안내합니다.과정 수강하기 »(로그인 필요)
-
Amazon Polly
-
Amazon Polly란 무엇입니까?
텍스트를 생생한 음성으로 변환하고 고객 참여도와 접근성을 높이는 애플리케이션을 개발하는 데 사용할 수 있는 클라우드 서비스의 전반적인 개요를 살펴봅니다.Amazon Polly를 사용하여 소리 내어 읽는 텍스트 강조 표시
책, 웹 사이트, 블로그 및 기타 디지털 경험에서 소리 내어 읽는 텍스트를 강조 표시하여 오디오에 시각적 기능을 추가하는 방법을 소개합니다.Amazon Polly에서 동일한 TTS 음성 페르소나를 사용하여 여러 언어로 콘텐츠용 오디오 생성
신경망 텍스트 음성 변환(NTTS)에 대해 설명하고, 지원되는 언어로 다양한 발표자를 제공하는 광범위한 음성 포트폴리오가 어떻게 도움이 되는지 살펴봅니다.
-
Amazon Rekognition
-
Rekognition 실습: 자동화된 이미지 및 비디오 분석
스트리밍 비디오에서 안면 인식이 어떻게 작동하는지 알아보고, 코드 예시 및 요점을 자기 진도에 맞추어 학습할 수 있습니다.
Amazon Rekognition FAQ
Amazon Rekognition에 대한 기본 사항을 살펴보고, 이 서비스가 딥 러닝을 개선하고 애플리케이션을 시각적으로 분석하는 데 어떻게 도움이 되는지 알아봅니다. -
Amazon Transcribe
-
Amazon Transcribe란 무엇입니까?
ML을 사용하여 오디오를 텍스트로 변환하는 AWS 자동 음성 인식 서비스를 살펴봅니다. 이 서비스를 독립적인 트랜스크립션으로 사용하거나, 모든 애플리케이션에 음성-텍스트 변환 기능을 추가하는 방법을 알아봅니다.Amazon Transcribe 요금
맞춤형 언어 모델 옵션, Amazon Transcribe 프리 티어 등, 사용한 만큼 요금을 지불하는 AWS의 트랜스크립션 서비스에 대해 소개합니다.Amazon Transcribe를 사용하여 오디오 트랜스크립트 생성
Amazon Transcribe를 사용하여 실제 사용 사례 시나리오를 기반으로 요구에 맞게 테스트하여 녹음된 오디오 파일의 텍스트 사본을 생성하는 방법을 알아보세요.
Amazon Transcribe 스트리밍 앱 구축
실시간으로 라이브 오디오를 녹음하고, 텍스트로 변환하며, 결과를 이메일로 직접 전송하는 앱을 만드는 방법을 알아봅니다.
두 번째 AI/ML AWS 서비스 경로 세트에서는 Amazon SageMaker 패밀리의 서비스를 시작하는 데 필요한 세부 설명서, 실습 자습서 및 리소스를 제공합니다.
-
SageMaker
-
SageMaker Autopilot
-
SageMaker Canvas
-
SageMaker Data Wrangler
-
SageMaker Ground Truth/Ground Truth Plus
-
SageMaker JumpStart
-
SageMaker Pipelines
-
SageMaker Studio
-
SageMaker
-
Amazon SageMaker의 작동 방식
기계 학습의 개요와 SageMaker의 작동 방식을 살펴봅니다.Amazon SageMaker 시작하기
Amazon SageMaker 도메인에 가입하여 SageMaker에서 Amazon SageMaker Studio 및 RStudio에 액세스하는 방법을 알아봅니다.
가이드 살펴보기 »Amazon SageMaker에서 Apache Spark 사용
데이터 전처리에 Apache Spark를 사용하고 모델 훈련 및 호스팅에 SageMaker를 사용하는 방법을 알아봅니다.
가이드 살펴보기 »Docker 컨테이너를 사용하여 모델 구축
Amazon SageMaker가 어떻게 Docker 컨테이너를 구축하고 런타임 작업에 광범위하게 활용하는지 알아봅니다. 내장 알고리즘과 훈련 및 추론에 사용되도록 지원되는 딥 러닝 프레임워크가 사전 구축되어 있는 도커 이미지를 배포하는 방법을 알아봅니다.
가이드 살펴보기 »
기계 학습 프레임워크 및 언어
Amazon SageMaker Python SDK를 사용하여 SageMaker를 시작하는 방법을 알아봅니다. -
SageMaker Autopilot
-
표 형식 데이터에 대한 Amazon SageMaker Autopilot 실험 생성
Amazon SageMaker Autopilot 실험을 생성하여 표 형식의 데이터 세트에서 다양한 모델 후보를 탐색, 전처리 및 훈련하는 방법을 알아봅니다.기계 학습 모델 자동 생성
Amazon SageMaker Autopilot을 사용하여 ML 모델을 자동으로 빌드, 훈련, 튜닝하고 모델을 배포하여 예측을 실행하는 방법을 알아봅니다.
예시 노트북을 통해 Amazon SageMaker Autopilot을 사용한 모델링 살펴보기
다이렉트 마케팅 및 이탈 고객 예측을 위한 예시 노트북과 자체 데이터 처리 코드를 Amazon SageMaker Autopilot으로 가져오는 방법을 보여주는 예시 노트북을 살펴봅니다. -
SageMaker Canvas
-
코드 작성 없이 기계 학습 예측 생성
이 자습서에서는 코드를 한 줄도 작성하지 않고 Amazon SageMaker Canvas를 사용하여 기계 학습(ML) 모델을 구축하고 정확한 예측을 생성하는 방법을 설명합니다.
자습서 시작하기 »SageMaker Canvas에 대한 심화 학습
SageMaker Canvas와 코드 없는 시각적 ML 기능에 대해 자세히 알아봅니다.Amazon SageMaker Canvas를 사용하여 첫 ML 모델 만들기
Amazon SageMaker Canvas를 사용하여 새로운 제품 및 서비스에 대한 이메일 캠페인을 기준으로 고객 유지율을 평가하는 ML 모델을 만드는 방법을 알아봅니다. -
SageMaker Data Wrangler
-
Amazon SageMaker Data Wrangler 시작하기
SageMaker Data Wrangler를 설정하는 방법을 살펴본 다음, 기존 예시 데이터 세트를 사용하여 설명을 제공합니다.
가이드 살펴보기 »최소한의 코드로 기계 학습의 훈련 데이터 준비
Amazon SageMaker Data Wrangler를 사용하여 ML을 위한 데이터를 준비하는 방법을 알아봅니다.
자습서 시작하기 »SageMaker Data Wrangler 심층 분석 워크숍
데이터 세트에 적절한 분석 유형을 적용하여 이상 및 문제를 탐지하고, 도출된 결과/인사이트를 사용하여 데이터 세트의 변환 과정에서 개선 조치를 공식화하며, SageMaker Data Wrangler에서 제공하는 빠른 모델링 옵션을 사용하여 올바른 선택 및 변환 순서를 테스트하는 방법을 알아봅니다. -
SageMaker Ground Truth/Ground Truth Plus
-
Amazon Groud Truth 시작하기
콘솔을 사용하여 레이블링 작업을 생성하고, 공공 또는 민간 인력을 배정하고, 레이블링 작업을 직원에게 보내는 방법을 살펴봅니다. 레이블링 작업의 진행 상황을 모니터링하는 방법을 알아봅니다.
기계 학습을 위한 훈련 데이터 레이블링
Amazon SageMaker Ground Truth에서 ML 모델의 훈련 데이터에 주석을 추가하는 레이블링 작업을 설정하는 방법을 학습합니다.
Amazon Ground Truth Plus 시작하기
Amazon SageMaker Ground Truth Plus 프로젝트를 시작하고, 레이블을 검토하며, SageMaker Ground Truth Plus 사전 요구 사항을 충족하는 데 필요한 단계를 완료하는 방법을 알아봅니다.Amazon Ground Truth 시작하기
SageMaker Ground Truth 콘솔을 통해 몇 분 만에 데이터 레이블링을 시작하는 방법을 알아봅니다.
Amazon SageMaker Ground Truth Plus - 코드 또는 사내 리소스 없이 훈련 데이터 세트 생성
전문 인력을 사용하여 고품질 훈련 데이터 세트를 빠르게 제공하고 비용을 최대 40% 절감하는 턴키 서비스인 Ground Truth Plus에 대해 알아봅니다.
-
SageMaker JumpStart
-
SageMaker JumpStart로 기계 학습 시작하기
일반적인 사용 사례에 맞게 인프라를 설정하는 SageMaker JumpStart 솔루션 템플릿과 SageMaker를 사용한 유용한 기계 학습용 노트북 예시를 살펴봅니다.
가이드 살펴보기 »Amazon SageMaker JumpStart를 사용하여 기계 학습 프로젝트를 빠르게 시작하기
Amazon SageMaker JumpStart가 제공하는 미리 훈련된 모델과 사전 구축된 솔루션을 사용하여 ML 프로젝트를 빠르게 시작하는 방법을 알아봅니다. 그런 다음 Amazon SageMaker Studio 노트북을 통해 선택된 모델을 배포할 수 있습니다.
이 Immersion Day 워크숍을 통해 Amazon SageMaker JumpStart 직접 사용해보기
Amazon SageMaker Data Wrangler, Autopilot 및 Jumpstart의 로우 코드 ML 기능을 사용하여 보다 손쉽게 실험하고 매우 정확한 모델을 프로덕션 환경에 도입하는 방법을 알아봅니다.
-
SageMaker Pipelines
-
Amazon SageMaker Pipelines 시작하기
SageMaker 작업을 관리하고 배포하는 엔드 투 엔드 워크플로를 생성하는 방법을 알아봅니다. SageMaker Pipelines는 SageMaker Python SDK 통합 기능과 함께 제공되므로 Python 기반 인터페이스를 사용하여 파이프라인의 각 단계를 구축할 수 있습니다.
가이드 살펴보기 »기계 학습 워크플로 자동화
Amazon SageMaker Pipelines, Amazon SageMaker Model Registry 및 Amazon SageMaker Clarify를 사용하여 엔드 투 엔드 기계 학습 워크플로를 생성하고 자동화하는 방법을 알아봅니다.
자습서 시작하기 »Amazon SageMaker Pipelines로 완전 자동화된 기계 학습 워크플로를 생성하는 방법
모든 개발자 및 데이터 사이언티스트가 액세스할 수 있도록 설계된 세계 최초의 ML CI/CD 서비스인 Amazon SageMaker Pipelines에 대해 알아보세요. SageMaker Pipelines는 CI/CD 파이프라인을 ML로 가져와 필요한 코딩 시간을 줄여줍니다.
동영상 보기 » -
SageMaker Studio
-
로컬로 기계 학습 모델 구축 및 훈련
Amazon SageMaker Studio 노트북 내에서 로컬로 ML 모델을 구축하고 훈련하는 방법을 알아봅니다.EMR과의 SageMaker Studio 통합 워크숍
대규모 분산 처리를 활용하여 데이터를 준비하고 이후 기계 학습 모델을 훈련하는 방법을 알아봅니다.
세 번째 AI/ML AWS 서비스 경로 세트에서는 Amazon Bedrock, Amazon CodeWhisperer, AWS Trainium, AWS Inferentia 및 Amazon Titan을 시작하는 데 필요한 세부 설명서, 실습 자습서 및 리소스를 제공합니다.
-
Amazon Bedrock
-
Amazon CodeWhisperer
-
AWS Trainium
-
AWS Inferentia
-
Amazon Titan
-
Amazon Bedrock
-
Amazon Bedrock 개요
Amazon Bedrock이 API를 통해 주요 AI 스타트업과 Amazon의 파운데이션 모델을 어떻게 제공하여 고객이 다양한 FM 중에서 사용 사례에 가장 적합한 모델을 선택할 수 있도록 지원하는지 알아봅니다.
AWS 기반 생성형 AI 구축을 위한 새로운 도구 발표
Amazon Bedrock의 개발 배경과 Amazon Bedrock이 AI 및 ML에 대한 광범위한 AWS 접근 방식에 어떻게 부합하는지를 알아보고, AWS 생성형 AI 서비스의 잠재적 용도에 대한 개요를 제공합니다.
생성형 AI 이해하기
이 동영상에서는 Amazon CTO인 Werner Vogels 박사와 AWS Database, Analytics and ML 부문 VP인 Swami Sivasubramanian이 생성형 AI의 광범위한 지평, 이 기술의 이점이 과장된 것이 아닌 이유, AWS가 대규모 언어 및 파운데이션 모델에 대한 액세스를 대중화하는 방법을 설명합니다.
-
Amazon CodeWhisperer
-
Amazon CodeWhisperer란 무엇인가요?
반복적이거나 시간이 많이 걸리는 획일적인 작업을 위한 코드를 생성하고, 익숙하지 않은 API 또는 SDK와 관련한 작업을 수행하고, AWS API를 효과적으로 정확하게 사용하고, 파일 읽기 및 쓰기, 이미지 처리, 단위 테스트 작성 등 기타 일반적인 코딩 시나리오를 처리하도록 설계된 CodeWhisperer에 대해 알아봅니다.
Amazon CodeWhisperer 시작하기
AWS Toolkit for JetBrains, AWS Toolkit for Visual Studio Code, Lambda, AWS Cloud9 등, 가능한 네 가지 IDE 각각에 사용할 수 있도록 CodeWhisperer를 설정하는 방법을 알아봅니다.
Amazon CodeWhisperer 워크숍
이미지 인식을 위한 완전한 이벤트 기반 서버리스 애플리케이션을 구축하는 방법을 알아봅니다. Amazon CodeWhisperer를 사용하면 AWS Lambda에서 실행되는 코드를 직접 작성하여 Amazon Rekognition, Amazon DynamoDB, Amazon SNS, Amazon SQS, Amazon S3, 서드 파티 HTTP API와 상호 작용하여 이미지 인식을 수행할 수 있습니다.
-
AWS Trainium
-
AWS Trainium과 Amazon EKS를 사용하여 분산 훈련 확장
클라우드에서 딥 러닝 모델을 훈련하기 위해 비용 효율적이고 대규모로 확장 가능한 고성능 플랫폼을 제공하도록 최적화된 목적별 ML 액셀러레이터인 AWS Trainium을 기반으로 하는 Amazon EC2 Trn1 인스턴스의 정시 출시를 활용할 수 있는 방법을 알아봅니다.
AWS Trainium 개요
1,000억 개 이상의 파라미터 모델의 딥 러닝 훈련을 위해 AWS에서 구축한 목적별 2세대 기계 학습(ML) 액셀러레이터인 AWS Trainium에 대해 알아봅니다. 각 Amazon Elastic Compute Cloud(EC2) Trn1 인스턴스는 최대 16개의 AWS Trainium 액셀러레이터를 배포하여 클라우드에서 딥 러닝(DL) 훈련을 위한 고성능 솔루션을 저렴한 비용으로 제공합니다.
권장 Trainium 인스턴스
AWS Trainium 인스턴스가 어떻게 딥 러닝 모델 추론 워크로드에 고성능 및 비용 효율성을 제공하도록 설계되었는지 알아봅니다.
-
AWS Inferentia
-
AWS Inferentia2는 AWS Inferentia1을 기반으로 구축되었지만 4배 더 많은 처리량과 10배 더 짧은 지연 시간을 제공합니다.
AWS Inferentia2가 어디에 최적화되어 있는지 알아보고, LLM 및 생성형 AI 추론 비용을 낮추면서 더 높은 성능을 제공하도록 처음부터 어떻게 설계되었는지 살펴봅니다.
AWS Inferentia를 사용한 기계 학습 추론
Amazon EC2 Inf1 인스턴스를 실행하는 노드로 Amazon EKS 클러스터를 생성하고 (선택적으로) 샘플 애플리케이션을 배포하는 방법을 알아봅니다. Amazon EC2 Inf1 인스턴스는 클라우드에서 최저 비용으로 고성능 추론 기능을 제공하도록 AWS가 맞춤형으로 설계한 AWS Inferentia 칩을 기반으로 합니다.
-
Amazon Titan
-
Amazon Titan 개요
대규모 데이터 세트를 사전 훈련된 강력한 범용 모델인 Amazon Titan FM을 살펴봅니다. 대량의 데이터에 주석을 달지 않고, 있는 그대로 또는 비공개로 사용하여 특정 작업에 맞게 사용자 지정하는 방법을 알아봅니다.