책임감 있는 AI 이론을 실행에 옮기기

선한 영향력으로서의 AI의 안전하고 책임감 있는 개발 촉진

AWS에서 책임감 있게 AI 구축

생성형 AI의 급속한 성장은 유망하고 혁신적인 신기술을 가져오는 동시에 새로운 과제를 제기합니다. AWS는 교육, 과학, 고객을 우선시하는 사람 중심의 접근 방식으로 책임감을 가지고 AI를 개발하고, 엔드 투 엔드 AI 수명 주기 전반에 걸쳐 책임 있는 AI를 통합하기 위해 최선을 다하고 있습니다.

다채로운 모양의 이미지

책임 있는 AI의 핵심 요소

공정성

다양한 이해 관계자 그룹에 미치는 영향 고려

설명 가능성

시스템 출력의 이해 및 평가

프라이버시 및 보안

데이터 및 모델의 적절한 획득, 사용 및 보호

안전

유해한 시스템 출력 및 오용 방지

제어 가능성

AI 시스템 동작을 모니터링하고 조정하는 메커니즘 보유

진실성 및 견고성

예상치 못한 입력이나 적대적인 입력이 있더라도 정확한 시스템 출력 달성

거버넌스

공급업체 및 배포자를 포함한 AI 공급망에 모범 사례 통합

투명성

이해관계자가 AI 시스템 사용에 대해 정보에 입각한 선택을 할 수 있도록 지원

책임 있는 AI의 핵심 요소

공정성

다양한 이해 관계자 그룹에 미치는 영향 고려

설명 가능성

시스템 출력의 이해 및 평가

프라이버시 및 보안

데이터 및 모델의 적절한 획득, 사용 및 보호

안전

유해한 시스템 출력 및 오용 방지

제어 가능성

AI 시스템 동작을 모니터링하고 조정하는 메커니즘 보유

진실성 및 견고성

예상치 못한 입력이나 적대적인 입력이 있더라도 정확한 시스템 출력 달성

거버넌스

공급업체 및 배포자를 포함한 AI 공급망에 모범 사례 통합

투명성

이해관계자가 AI 시스템 사용에 대해 정보에 입각한 선택을 할 수 있도록 지원

서비스 및 도구

AWS는 AI 시스템을 책임 있게 설계, 구축, 운영하는 데 도움이 되는 서비스와 도구를 제공합니다.

생성형 AI에 보호 기능 구현

Amazon Bedrock 가드레일을 사용하면 생성형 AI 애플리케이션에 맞게 조정되고 책임 있는 AI 정책에 부합하는 보호 기능을 구현할 수 있습니다. 가드레일은 FM의 기본 보호 기능 외에도 사용자 지정 가능한 추가 보호 기능을 제공하여 다음과 같이 업계 최고의 안전성을 보장합니다.

  • 유해 콘텐츠 최대 85% 차단
  • RAG 및 요약 워크로드에 대한 할루시네이션 응답 75% 이상 필터링
  • 고객이 단일 솔루션 내에서 안전성, 개인정보 보호 및 진실성 보장을 사용자 정의하고 적용할 수 있도록 지원
유선형의 음영

파운데이션 모델(FM) 평가

Amazon Bedrock의 모델 평가를 사용하면 정확도, 견고성, 유해성 등의 사용자 지정 지표를 기준으로 특정 사용 사례에 가장 적합한 FM을 평가, 비교, 선택할 수 있습니다. 또한 모델 평가에 Amazon SageMaker Clarifyfmeval을 사용할 수 있습니다.

파란색 배경에 다양한 색상의 모양

편향 감지 및 예측 설명

편향은 여러 그룹 간 데이터의 불균형 또는 모델의 성능 차이를 의미합니다. Amazon SageMaker Clarify는 특정 속성을 조사함으로써 데이터 준비 작업 중, 모델 훈련 직후, 배포된 모델에서 잠재적인 편향을 감지하여 편향을 완화하는 데 도움이 됩니다.

모델의 동작을 이해하는 것은 더 정확한 모델을 개발하고 더 나은 결정을 내리는 데 중요합니다. Amazon SageMaker Clarify를 사용하면 모델 동작에 대한 가시성이 높아지므로 이해 관계자에게 투명하게 보여주고, 의사 결정권자에게 정보를 제공하며, 모델이 의도한 대로 작동하는지 추적할 수 있습니다.

Amazon SageMaker Clarify 살펴보기

파란색과 초록색의 물결 디자인

모니터링 및 인적 검토

모니터링은 고품질 기계 학습(ML) 모델을 유지하고 정확한 예측을 보장하는 데 중요합니다. Amazon SageMaker Model Monitor는 배포된 모델의 부정확한 예측을 자동으로 감지하고 알려줍니다. 또한 Amazon SageMaker Ground Truth를 사용하면 ML 수명 주기 전반에 걸쳐 사람의 피드백을 적용하여 모델의 정확성과 관련성을 개선할 수 있습니다.

컨베이어 벨트에 있는 다양한 크기와 모양의 물체

거버넌스 개선

Amazon SageMaker의 ML 거버넌스는 ML 모델에 대한 더 엄격한 제어 및 가시성을 제공함으로써 ML 프로젝트의 거버넌스를 개선하기 위해 특별히 구축된 도구를 제공합니다. 모델 정보를 쉽게 캡처 및 공유하고 편향과 같은 모델 동작에 대한 정보를 모두 한곳에서 확인할 수 있습니다.

연결된 점으로 이루어진 추상적 패턴

AWS AI 서비스 카드

AI 서비스 카드는 AI 서비스 및 모델에 대한 의도된 사용 사례 및 제한 사항, 책임 있는 AI 설계 선택 사항, 성능 최적화 모범 사례에 대한 정보를 한곳에서 찾을 수 있도록 제공하여 투명성을 강화하는 리소스입니다.

사용 가능한 서비스 카드 살펴보기

다리 위를 지나가는 자동차의 항공 사진

커뮤니티의 참여와 협업

AWS는 OECD AI 실무 그룹, Partnership on AI, Responsible AI Institute, National AI Advisory Committee와 같은 여러 이해 관계자 조직과의 긴밀한 연계와 글로벌 규모 대학과의 전략적 파트너십을 통해 다른 이들과 협력함으로써 AI 및 ML 기술을 책임 있게 개발하고 신뢰를 쌓기 위해 최선을 다하고 있습니다.

AWS는 AI 및 ML 장학 프로그램We Power Tech와 같은 프로그램을 통해 사람 중심의 접근 방식으로 차세대 AI 리더를 교육함으로써 기술 분야에서 소외된 사람들을 위한 실무 학습, 장학금, 멘토십에 대한 접근성을 높입니다.

안전하고 투명하며 책임 있는 생성형 AI에 대한 투자에는 백악관의 자발적 AI 약속, 영국에서 열린 AI 안전 서밋, 책임 있는 AI를 발전시키기 위한 새로운 기본 표준인 ISO 42001 지원 등 글로벌 커뮤니티 및 정책 입안자와의 협업이 포함됩니다. 저희는 지속적인 혁신을 지원하는 동시에 시민권을 보호하는 효과적인 위험 기반 AI 규제 프레임워크의 개발을 지원합니다.

책임 있는 AI는 Amazon의 활발한 연구 개발 분야입니다. 캘리포니아 공과대학과 같은 학계 및 Amazon Scholars와 전략적 파트너십을 맺고 있으며, 여기에는 학술 연구를 적용하여 Amazon의 책임 있는 AI 워크스트림을 형성하는 데 도움을 주는 선도적인 전문가도 포함됩니다.

저희는 고객과 함께 혁신합니다. Amazon Research Awards를 통한 지속적인 연구 보조금과 Amazon Science의 과학 간행물을 통해 새로운 트렌드 및 연구를 선도하여 가치를 제공합니다. 새롭게 떠오르는 주요 과제와 솔루션을 다루는 이 Amazon Science 블로그에서 생성형 AI를 책임 있게 구축하는 데 필요한 과학에 대해 자세히 알아보세요.

책임 있는 AI 리소스