- Machine Learning›
- Amazon SageMaker›
- Perguntas frequentes sobre o Amazon SageMaker
Perguntas frequentes sobre o Amazon SageMaker
Geral
O que é o Amazon SageMaker?
Em quais regiões da AWS o SageMaker está disponível?
Para obter uma lista das regiões compatíveis com o SageMaker, acesse a página de serviços regionais da AWS. Para obter mais informações, consulte os endpoints regionais no guia de referência geral da AWS.
Qual é a disponibilidade dos serviços do SageMaker?
Como o SageMaker protege meu código?
O SageMaker armazena código em volumes de armazenamento de Machine Learning, protegidos por grupos de segurança e, opcionalmente, criptografados quando ociosos.
Quais as medidas de segurança implementadas no SageMaker?
O SageMaker garante que os artefatos de modelos de machine learning e outros artefatos de sistema sejam criptografados quando em trânsito e quando ociosos. As solicitações para a API e o console do SageMaker são realizadas em uma conexão segura (SSL). Você envia os perfis do AWS Identity and Access Management ao SageMaker para fornecer permissões de acesso a recursos em seu nome para treinamento e implantação. Você pode usar buckets criptografados do Amazon Simple Storage Service (Amazon S3) para modelar artefatos e dados, além de enviar uma chave do AWS Key Management Service (AWS KMS) para notebooks, tarefas de treinamento e endpoints do SageMaker para criptografar o volume associado de armazenamento de machine learning. O SageMaker também oferece suporte à Amazon Virtual Private Cloud (Amazon VPC) e ao AWS PrivateLink.
O SageMaker usa ou compartilha modelos, dados de treinamento ou algoritmos?
O SageMaker não usa nem compartilha modelos de clientes, dados de treinamento ou algoritmos. Sabemos que os clientes se preocupam muito com a privacidade e a segurança dos dados. É por isso que a AWS oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e avançadas que permitem determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso de seus usuários a serviços e recursos da AWS. Também implementamos controles técnicos e físicos projetados para evitar o acesso e a divulgação não autorizados do seu conteúdo. Como cliente, você mantém a propriedade sobre o seu conteúdo e seleciona quais serviços da AWS podem processar, armazenar e hospedar esse conteúdo. Não acessamos seu conteúdo para qualquer finalidade sem o seu consentimento.
Como é a cobrança pelo uso do SageMaker?
Você paga pelos recursos de computação, armazenamento e processamento de dados de Machine Learning usados para hospedar o notebook, treinar o modelo, executar previsões e registrar as saídas. Com o SageMaker, você pode selecionar o número e o tipo de instância usada para o caderno hospedado para treinamento e para hospedagem de modelos. O pagamento é feito conforme o uso. Não há taxas mínimas nem compromissos antecipados. Para obter detalhes, consulte os preços do Amazon SageMaker e a Calculadora de preços do Amazon SageMaker.
Como posso otimizar os custos do SageMaker, por exemplo, como detectar e interromper recursos ociosos para evitar alterações desnecessárias?
Há diversas práticas recomendadas que você pode adotar para otimizar o uso de recursos do SageMaker. Algumas abordagens envolvem otimizações de configurações, enquanto outras envolvem soluções programáticas. Esta publicação de blog oferece um guia completo sobre esse conceito, com tutoriais visuais e amostras de código.
E se eu tiver o meu próprio ambiente de caderno, treinamento ou hospedagem?
O SageMaker oferece um fluxo de trabalho completo e total, mas você pode continuar a usar suas ferramentas atuais com o SageMaker. É possível transferir facilmente os resultados de cada fase para dentro e para fora do SageMaker para atender a requisitos de negócios.
O R é suportado pelo SageMaker?
Sim. Você pode usar o R nas instâncias de cadernos do SageMaker, que incluem um kernel R pré-instalado e a biblioteca de reticulação. A reticulação oferece uma interface R ao Amazon SageMaker Python SDK, ajudando os profissionais de ML a criar, treinar, ajustar e implantar modelos R. Você também pode iniciar o RStudio, um ambiente de desenvolvimento integrado (IDE) para R no Amazon SageMaker Studio.
O que é o Amazon SageMaker Studio?
O Amazon SageMaker Studio fornece uma interface visual única baseada na Web em que você pode executar todas as etapas de desenvolvimento de ML. O SageMaker Studio fornece total acesso, controle e visibilidade em cada etapa necessária para preparar dados, criar, treinar e implantar modelos. Você pode fazer upload de dados, criar novos notebooks, treinar e ajustar modelos, alternar entre as etapas para ajustar experimentos, comparar resultados e implantar modelos na produção em um único local com rapidez, aumentando muito a sua produtividade. Todas as atividades de desenvolvimento de ML, incluindo notebooks, gerenciamento de experimentos, criação automática de modelos, depuração e criação de perfil e detecção de desvio de modelo, podem ser executadas na interface visual unificada do SageMaker Studio.
Como funciona o preço do SageMaker Studio?
Não há cobrança adicional pela utilização do SageMaker Studio. Você paga apenas pelas taxas de computação e armazenamento subjacentes referentes aos serviços que usa no SageMaker Studio.
Em quais regiões há suporte para o SageMaker Studio?
Você pode encontrar as regiões nas quais há suporte ao SageMaker Studio no Guia do desenvolvedor do Amazon SageMaker.
Como eu posso verificar desequilíbrios em meu modelo?
O Amazon SageMaker Clarify ajuda a aprimorar a transparência do modelo detectando tendências estatísticas ao longo de todo o fluxo de trabalho de ML. O SageMaker Clarify verifica os desequilíbrios durante a preparação dos dados, após o treinamento e continuamente ao longo do tempo, além de incluir também ferramentas para ajudar a explicar os modelos de ML e suas previsões. As conclusões podem ser compartilhadas por meio de relatórios de explicabilidade.
Que tipos de tendências o SageMaker Clarify detecta?
Como o SageMaker Clarify aprimora a explicabilidade do modelo?
O SageMaker Clarify é integrado aos SageMaker Experiments para fornecer um gráfico de importância do recurso, detalhando a importância de cada entrada para o processo de tomada de decisão geral do seu modelo após o modelo ter sido treinado. Esses detalhes podem ajudar a identificar se uma determinada entrada do modelo exerce mais influência do que deveria no comportamento geral do modelo. O SageMaker Clarify também oferece explicações para previsões individuais disponíveis por meio de uma API.
Governança de ML
Quais ferramentas de governança de ML o SageMaker oferece?
O SageMaker oferece ferramentas de governança de ML específicas para todo o ciclo de vida do ML. Com o Gerenciador de Perfis do Amazon SageMaker, os administradores podem definir permissões mínimas em minutos. Os Cartões de Modelos do Amazon SageMaker facilita a captura, recuperação e compartilhamento de informações essenciais do modelo, desde a concepção até a implantação. E com o Painel de Modelos do Amazon SageMaker, você acompanha o comportamento do modelo em produção, tudo em único lugar. Para
obter mais informações, consulte com o Amazon SageMaker.
O que faz o SageMaker Role Manager?
Você pode definir permissões mínimas em minutos com o SageMaker Role Manager. Ele fornece um conjunto inicial de permissões para atividades e personas de ML com um catálogo de políticas de IAM pré-configuradas. Você pode manter as permissões iniciais ou personalizá-las de acordo com suas necessidades específicas. Com algumas instruções autoguiadas, você pode inserir rapidamente estruturas de governança comuns como limites de acesso à rede e chaves de criptografia. Em seguida, o SageMaker Role Manager vai gerar automaticamente as políticas do IAM. Você pode encontrar as funções geradas e políticas associadas no console do AWS IAM. Para personalizar as permissões para os seus casos de uso, associe suas políticas do IAM ao perfil do IAM que você criar com o SageMaker Role Manager. Você também pode adicionar tags para ajudar a identificar os perfis e organizá-los nos serviços da AWS.
O que fazem os SageMaker Model Cards?
Os SageMaker Model Cards ajudam você a centralizar e padronizar a documentação dos modelos por todo o ciclo de vida de ML ao criar uma única fonte confiável para informações de modelos. Os SageMaker Model Cards preenchem automaticamente os detalhes de treinamento para agilizar o processo de documentação. Você também pode adicionar detalhes como o propósito do modelo e as metas de performance. Você pode associar resultados de avaliação do modelo ao cartão do modelo e fornecer visualizações para obter insights importantes sobre a performance do modelo. Os SageMaker Model Cards podem ser facilmente compartilhados com outras pessoas em um arquivo PDF exportado.
O que faz o SageMaker Model Dashboard?
O SageMaker Model Dashboard fornece uma visão abrangente dos modelos implantados e endpoints para que você acompanhe os recursos e violações de comportamento do modelo em um único painel. Ele permite que você acompanhe o comportamento do modelo em quatro dimensões, incluindo qualidade de dados e do modelo e viés do modelo e desvio de atribuição de recurso por meio da sua integração com o SageMaker Model Monitor e com o SageMaker Clarify. O SageMaker Model Dashboard também proporciona uma experiência integrada para configuração e recebimento de alertas de trabalhos de monitoramento de modelos inativos ou ausentes e desvios no comportamento do modelo por qualidade do modelo, qualidade dos dados, desvio de tendência e desvio de atribuição de recurso. Você também pode inspecionar modelos individuais e analisar fatores que afetam a performance do modelo ao longo do tempo. Em seguida, pode solicitar que os profissionais de ML façam as correções necessárias.
Modelos básicos
Como começo a usar o SageMaker rapidamente?
O SageMaker JumpStart ajuda você a começar a usar o ML de modo rápido e fácil. O SageMaker JumpStart oferece um conjunto de soluções para os casos de uso mais comuns que podem ser implantados prontamente em apenas algumas etapas. As soluções são totalmente personalizáveis e mostram o uso de modelos do AWS CloudFormation e arquiteturas de referência para que você possa acelerar sua jornada de ML. O SageMaker JumpStart também fornece modelos básicos e oferece suporte para implantação com uma etapa e o ajuste fino de mais de 150 modelos populares de código aberto, como modelos de transformadores, detecção de objetos e classificação de imagens.
Quais modelos básicos estão disponíveis no SageMaker JumpStart?
O SageMaker JumpStart fornece modelos proprietários e públicos. Para obter uma lista dos modelos básicos disponíveis, consulte Conceitos básicos do Amazon SageMaker JumpStart.
Como é possível começar a usar os modelos de base no SageMaker JumpStart?
Você pode acessar modelos básicos por meio do SageMaker Studio, do SageMaker SDK e do Console de Gerenciamento da AWS. Para começar a usar modelos básicos proprietários, você deve aceitar os termos de venda no AWS Marketplace.
Meus dados serão usados ou compartilhados para atualizar o modelo básico oferecido aos clientes que usam o SageMaker JumpStart?
Não. Seus dados de inferência e treinamento não serão usados nem compartilhados para atualizar ou treinar o modelo básico que o SageMaker JumpStart apresenta aos clientes.
Posso ver os pesos dos modelos e os scripts dos modelos proprietários em versão de demonstração com o SageMaker JumpStart?
Não. Modelos proprietários não permitem que os clientes visualizem pesos e scripts de modelos.
Em quais regiões os modelos básicos do SageMaker JumpStart estão disponíveis?
Os modelos podem ser descobertos em todas as regiões em que o SageMaker Studio estiver disponível, mas a capacidade de implantar um modelo difere de acordo com a disponibilidade do modelo e da instância do tipo de instância necessário. Você pode consultar a disponibilidade da região da AWS e a instância exigida na página de detalhes do modelo no AWS Marketplace.
Qual é o preço dos modelos básicos do SageMaker JumpStart?
Para modelos proprietários, há cobrança pelo preço do software determinado pelo fornecedor do modelo e as cobranças de infraestrutura do SageMaker com base na instância usada. Para modelos disponíveis ao público, são cobradas taxas de infraestrutura do SageMaker com base na instância usada. Para obter mais informações, consulte Preços do Amazon SageMaker e o AWS Marketplace.
Como o SageMaker JumpStart ajuda a proteger meus dados?
A segurança é a principal prioridade na AWS, e o SageMaker JumpStart foi projetado para ser seguro. É por isso que o SageMaker oferece a você a propriedade e o controle sobre o seu conteúdo por meio de ferramentas simplificadas e poderosas que ajudam você a determinar onde o conteúdo será armazenado, proteger o conteúdo ocioso e em trânsito e gerenciar o acesso dos seus usuários a serviços e recursos da AWS.
- Não compartilhamos informações de inferência e treinamento de clientes com vendedores de modelos no AWS Marketplace. Da mesma forma, os artefatos do modelo do vendedor (por exemplo, pesos de modelos) não são compartilhados com o cliente.
- O SageMaker JumpStart não usa modelos de clientes, dados de treinamento ou algoritmos para melhorar seu serviço e não compartilha dados de treinamento e inferência de clientes com terceiros.
- No SageMaker JumpStart, os artefatos dos modelos de ML são criptografados em trânsito e em repouso.
- No Modelo de Responsabilidade Compartilhada da AWS, a AWS é responsável por proteger a infraestrutura global que administra toda a AWS. Você é responsável por manter o controle sobre seu conteúdo hospedado nessa infraestrutura.
Ao usar um modelo do AWS Marketplace ou do SageMaker JumpStart, os usuários assumem a responsabilidade pela qualidade da saída do modelo e reconhecem os recursos e as limitações descritos na descrição individual do modelo.
Quais modelos disponíveis publicamente são compatíveis com o SageMaker JumpStart?
O SageMaker JumpStart inclui mais de 150 modelos pré-treinados do PyTorch Hub e do TensorFlow Hub disponíveis publicamente. Para tarefas de visão, como classificação de imagens e detecção de objetos, você pode aproveitar modelos como o RESNET, MobileNet e single-shot detector (SSD). Para tarefas de texto, como classificação de frases, classificação de textos e respostas a perguntas, você pode usar modelos como BERT, RoBERTa e DistilBERT.
Como posso compartilhar artefatos de ML com outras pessoas da minha organização?
Com o SageMaker JumpStart, cientistas de dados e desenvolvedores de ML podem facilmente compartilhar artefatos de ML, incluindo notebooks e modelos, dentro da organização. Os administradores podem configurar um repositório acessível para um grupo definido de usuários. Todos os usuários com permissão de acesso ao repositório podem explorar, pesquisar e usar modelos e notebooks, bem como todo o conteúdo público dentro do SageMaker JumpStart. Os usuários podem selecionar artefatos para treinar modelos, implantar endpoints e executar notebooks no SageMaker JumpStart.
Por que devo usar o SageMaker JumpStart para compartilhar artefatos de ML com outras pessoas na minha organização?
Com o SageMaker JumpStart, você pode agilizar o tempo de introdução no mercado ao desenvolver aplicativos de ML. Os modelos e notebooks desenvolvidos por uma equipe podem ser facilmente compartilhados com outras equipes dentro da sua organização em apenas algumas etapas. O comportamento interno de conhecimento e a reutilização de ativos pode aumentar a produtividade da sua organização de forma significativa.
Como posso avaliar e selecionar os modelos de base?
Os administradores podem controlar o que está disponível para seus usuários?
Sim. Os administradores podem controlar quais modelos do Amazon SageMaker JumpStart são visíveis e utilizáveis por seus usuários em várias contas da AWS e entidades principais de usuários. Para saber mais, consulte a documentação.
O que é kit de ferramentas de otimização de inferências?
O kit de ferramentas de otimização de inferências facilita a implementação das técnicas mais recentes de otimização de inferências para alcançar uma performance de custo de última geração (SOTA) no Amazon SageMaker, ao mesmo tempo em que economiza meses de tempo para os desenvolvedores. Você pode escolher entre um menu de técnicas de otimização populares fornecidas pelo SageMaker e executar trabalhos de otimização com antecedência, comparar o modelo para métricas de performance e precisão e, em seguida, implantar o modelo otimizado em um endpoint do SageMaker para inferência. O kit de ferramentas trata de todos os aspectos da otimização do modelo, para que você possa se concentrar mais nos seus objetivos de negócios.
Por que devo usar o kit de ferramentas de otimização de inferências?
O kit de ferramentas de otimização de inferências ajuda você a melhorar os custos, a performance e o tempo de comercialização de aplicações de IA generativa. O kit de ferramentas de otimização de modelos totalmente gerenciado oferece acesso às técnicas de otimização mais recentes, com ferramentas fáceis de usar. Também é fácil fazer upgrade com o passar do tempo para a melhor solução disponível, pois o kit de ferramentas se adapta continuamente às inovações de última geração, novos recursos de hardware e hospedagem.
O kit de ferramentas de otimização de inferências oferece suporte a técnicas de otimização, como Decodificação especulativa, Quantização e Compilação. Você pode escolher as otimizações que deseja adicionar ao seu modelo com alguns cliques, e o Amazon SageMaker gerenciará todo o trabalho pesado indiferenciado de adquirir o hardware, selecionar o contêiner de aprendizado profundo e os parâmetros de ajuste correspondentes para executar os trabalhos de otimização e, em seguida, salvar os artefatos do modelo otimizado no local do S3 fornecido por você.
Para Decodificação especulativa, você pode começar a usar o modelo preliminar fornecido pelo SageMaker, o que evita ter de criar seus próprios modelos preliminares do zero e solicitar otimizações em nível de sistema e roteamento. Com a Quantização, basta escolher o tipo de precisão que deseja usar e inicia um trabalho de benchmark para medir as compensações entre performance e precisão. O Amazon SageMaker gerará um relatório de avaliação abrangente para que você possa analisar facilmente a relação entre performance e precisão. Com a Compilação, para os modelos mais populares e suas configurações, o Amazon SageMaker buscará automaticamente os artefatos do modelo compilado durante a configuração e a escalabilidade do endpoint, eliminando a necessidade de executar trabalhos de compilação com antecedência e economizando assim em custos de hardware.
O kit de ferramentas de otimização de inferências do Amazon SageMaker ajuda a reduzir seus custos e o tempo para otimizar modelos de IA generativa, permitindo que você se concentre em seus objetivos de negócios.
ML com baixo código
O que é o Amazon SageMaker Canvas?
O SageMaker Canvas é um serviço sem código com uma interface intuitiva do tipo apontar e clicar, que permite que você crie previsões baseadas em machine learning altamente precisas a partir dos seus dados. O SageMaker Canvas permite que você acesse e combine dados de várias origens usando uma interface de usuário do tipo arrastar e soltar, limpando e preparando os dados automaticamente para minimizar a limpeza manual. O SageMaker Canvas aplica uma variedade de algoritmos de ML de última geração para encontrar modelos preditivos altamente precisos e fornece uma interface intuitiva para fazer previsões. Você pode usar o SageMaker Canvas para fazer previsões muito mais precisas em uma variedade de aplicações de negócios e colaborar facilmente com cientistas e analistas de dados em sua empresa, compartilhando seus modelos, dados e relatórios. Para saber mais sobre o SageMaker Canvas, consulte Perguntas frequentes sobre o Amazon SageMaker Canvas.
Como funciona o preço do SageMaker Canvas?
Com o SageMaker Canvas, você paga com base na utilização. O SageMaker Canvas permite que você ingira, explore e prepare seus dados de diversas origens de forma interativa, treine modelos de ML altamente precisos com seus dados e gere previsões. Dois componentes determinam a sua fatura: cobrança por sessão com base no número de horas em que o SageMaker Canvas foi usado ou estava conectado e cobrança pelo treinamento do modelo com base no tamanho do conjunto de dados utilizado para construir o modelo. Para obter mais informações, consulte preços do Amazon SageMaker Canvas.
Fluxos de trabalho de ML
Como é possível desenvolver um fluxo de trabalho de ML repetível no SageMaker?
O Amazon SageMaker Pipelines ajuda você a criar fluxos de trabalho de ML totalmente automatizados, da preparação de dados até a implantação do modelo, para que seja possível escalar para milhares de modelos de ML em produção. É possível criar pipelines com o SageMaker Python SDK e visualizá-los, executá-los e auditá-los na interface visual do SageMaker Studio. O SageMaker Pipelines cuida do gerenciamento de dados entre as etapas, empacotando as fórmulas de código e orquestrando sua execução, reduzindo meses de codificação a algumas horas. Sempre que um fluxo de trabalho é executado, um registro completo dos dados processados e das ações realizadas é mantido para que os cientistas de dados e desenvolvedores de ML possam depurar problemas rapidamente.
Como posso ver todos os modelos treinados para escolher o melhor modelo para passar à produção?
Quais componentes do SageMaker podem ser adicionados ao SageMaker Pipelines?
Como monitoro os componentes do meu modelo em todo o fluxo de trabalho de ML?
Como funciona o preço do SageMaker Pipelines?
Não há cobrança adicional pelo SageMaker Pipelines. Você paga somente pela computação subjacente ou por quaisquer serviços separados da AWS que usar no SageMaker Pipelines.
Posso usar o Kubeflow com o SageMaker?
Como funciona o preço dos componentes do SageMaker para o Kubeflow Pipelines?
Não há cobrança adicional pelo uso dos componentes do SageMaker para Kubeflow Pipelines.
Humano-in-the-loop
O que é “human-in-the-loop” e por que esse tipo de revisão é importante para criar aplicações baseadas em IA?
Human-in-the-loop é o processo de aproveitar a contribuição humana em todo o ciclo de vida do ML para melhorar a precisão e a relevância dos modelos. As pessoas podem realizar uma variedade de tarefas, desde a geração e anotação de dados até a revisão e personalização do modelo. A intervenção humana é especialmente importante para aplicações de IA generativa, em que os humanos normalmente são tanto o solicitante quanto o consumidor do conteúdo. Portanto, é fundamental que as pessoas treinem os modelos de base (FMs) para responder com precisão, segurança e relevância às solicitações dos usuários. O feedback humano pode ser aplicado para ajudar você a concluir várias tarefas. Primeiro, criar conjuntos de dados de treinamento rotulados de alta qualidade para aplicações de IA generativa por meio de aprendizado supervisionado (em que uma pessoa simula o estilo, a duração e a precisão de como um modelo deve responder às solicitações do usuário) e o aprendizado por reforço com feedback humano (em que uma pessoa ordena e classifica as respostas do modelo). Segundo, usar dados gerados por humanos para personalizar FMs em tarefas específicas ou com dados específicos da empresa e domínio e tornar a saída do modelo relevante para você.
Como os recursos human-in-the-loop podem ser usados para aplicações de IA generativa alimentadas por FMs?
Os recursos human-in-the-loop desempenham um papel importante na criação e no aprimoramento de aplicações de IA generativa alimentadas por FMs. Uma força de trabalho humana altamente qualificada, treinada de acordo com as diretrizes das tarefas, pode fornecer feedback, orientação, contribuições e avaliação em atividades, como gerar dados de demonstração para treinar FMs, corrigir e melhorar as respostas das amostras, ajustar um modelo com base em dados da empresa e do setor, agir como uma proteção contra toxicidade e preconceitos e muito mais. Os recursos human-in-the-loop, portanto, podem melhorar a precisão e a performance do modelo.
Qual é a diferença entre as ofertas de autoatendimento e as ofertas gerenciadas pela AWS do Amazon SageMaker Ground Truth?
O Amazon SageMaker Ground Truth oferece o conjunto mais abrangente de recursos human-in-the-loop. Há duas maneiras de usar o Amazon SageMaker Ground Truth: uma oferta de autoatendimento e uma oferta gerenciada pela AWS. Na oferta de autoatendimento, seus anotadores de dados, criadores de conteúdo e engenheiros de prompts (internos, gerenciados pelo fornecedor ou público) podem usar nossa interface de usuário de baixo código para acelerar tarefas simples e ter flexibilidade para criar e gerenciar fluxos de trabalho personalizados. Na oferta gerenciada pela AWS (SageMaker Ground Truth Plus), cuidamos do trabalho pesado para você, que inclui selecionar e gerenciar a força de trabalho certa para seu caso de uso. O SageMaker Ground Truth Plus projeta e personaliza um fluxo de trabalho de ponta a ponta (incluindo treinamento detalhado da força de trabalho e etapas de garantia de qualidade) e fornece uma equipe qualificada gerenciada pela AWS que é treinada nas tarefas específicas e atende aos requisitos de qualidade, segurança e conformidade de dados da empresa.
Preparar dados
Como o SageMaker prepara dados para ML?
O SageMaker Data Wrangler reduz o tempo de agregação e preparação de dados para ML. A partir de uma única interface no SageMaker Studio, é possível navegar e importar dados do Amazon S3, Amazon Athena, Amazon Redshift, AWS Lake Formation, Amazon EMR, Snowflake e do Databricks em apenas algumas etapas. Além disso, é possível consultar e importar dados transferidos de mais de 50 fontes de dados e registrados no Catálogo de Dados do AWS Glue pelo Amazon AppFlow. O SageMaker Data Wrangler faz o carregamento, agregação e exibição dos dados brutos automaticamente. Após importar seus dados no SageMaker Data Wrangler, você pode ver colunas de resumo e histogramas gerados automaticamente. Você pode então analisar seus dados mais a fundo para identificar possíveis erros com o relatório de qualidade dos dados e insights do SageMaker Data Wrangler, que fornece um resumo estatístico e alertas de qualidade. Você também pode executar uma análise de tendência com o SageMaker Clarify diretamente no SageMaker Data Wrangler para detectar possíveis tendências durante a preparação de dados. Ali, você pode usar as transformações predefinidas do SageMaker Data Wrangler para preparar seus dados. Depois que os dados estiverem preparados, você pode criar fluxos de trabalho de ML totalmente automatizados com o Amazon SageMaker Pipelines ou importar os dados para o Amazon SageMaker Feature Store.
Que tipos de dados são aceitos no SageMaker Data Wrangler?
Como posso criar atributos de modelos com o SageMaker Data Wrangler?
Como posso visualizar meus dados no SageMaker Data Wrangler?
Como funciona o preço do SageMaker Data Wrangler?
Você paga por todos os recursos de computação, armazenamento e processamento de dados de ML que utiliza no SageMaker Data Wrangler. Você pode revisar todos os detalhes dos preços do SageMaker Data Wrangler aqui. Como parte do nível gratuito da AWS, você também pode começar a usar o SageMaker Data Wrangler gratuitamente.
Como posso treinar modelos de ML com dados preparados no SageMaker Data Wrangler?
Como o SageMaker Data Wrangler trata os dados novos quando eu preparo meus atributos nos dados históricos?
Como o SageMaker Data Wrangler funciona com os meus processos de CI/CD?
Qual modelo o SageMaker Data Wrangler Quick Model usa?
Qual o tamanho de dados suportado pelo SageMaker Data Wrangler?
O SageMaker Data Wrangler trabalha com o SageMaker Feature Store?
O que é o arquivo de atributos Amazon SageMaker?
O arquivo de atributos SageMaker Feature é uma plataforma totalmente gerenciada e desenvolvida para armazenar, compartilhar e gerenciar recursos para modelos de machine learning (ML). Os atributos podem ser descobertos e compartilhados para facilitar a reutilização entre modelos e equipes com acesso e controle seguros, inclusive entre contas da AWS. O arquivo de atributos SageMaker oferece suporte a recursos online e offline para inferência em tempo real, inferência em lote e treinamento. Ele também gerencia canais de engenharia de atributos em lote e streaming para reduzir a duplicação na criação de atributos e melhorar a precisão do modelo.
O que são atributos offline?
O que são atributos online?
Como eu mantenho a consistência entre os atributos online e offline?
Como posso reproduzir um atributo de um determinado momento?
Como os preços do arquivo de atributos do SageMaker Feature Store funcionam?
Comece a usar o arquivo do SageMaker Feature Store gratuitamente como parte do nível gratuito da AWS. Com a SageMaker Feature Store, você paga para gravar na loja de recursos e ler e armazenar na loja de recursos online. Para obter detalhes dos preços, consulte preços do Amazon SageMaker.
O que o SageMaker oferece para rotulagem de dados?
O SageMaker oferece duas ofertas de rotulagem de dados: Amazon SageMaker Ground Truth Plus e Amazon SageMaker Ground Truth. Ambas as opções permitem a identificação de dados brutos, como imagens, arquivos de texto e vídeos, e a adição de rótulos informativos para criar conjuntos de dados de treinamento de alta qualidade para seus modelos de ML. Para saber mais, consulte Rotulagem de dados do Amazon SageMaker.
O que são dados geoespaciais?
Quais são os recursos geoespaciais do SageMaker?
Por que devo usar a ML geoespacial no SageMaker?
Criar modelos
O que são cadernos do Amazon SageMaker Studio?
Como funcionam os cadernos do SageMaker Studio?
Os cadernos do SageMaker Studio são cadernos Jupyter que podem ser iniciados rapidamente com uma etapa. Os recursos de computação subjacentes são totalmente elásticos. Portanto, você pode aumentar ou reduzir facilmente os recursos disponíveis, e as alterações ocorrem automaticamente em segundo plano sem interromper seu trabalho. O SageMaker também permite o compartilhamento de blocos de anotações com uma etapa. Você pode compartilhar facilmente cadernos com outros usuários e eles receberão exatamente o mesmo caderno, salvo no mesmo local.
Com os cadernos do SageMaker Studio, você pode fazer login com suas credenciais corporativas usando o IAM Identity Center. É fácil compartilhar notebooks dentro das equipes e entre elas, pois as dependências necessárias para a execução de um notebooks são rastreadas automaticamente em imagens de trabalho encapsuladas com o notebooks quando ele é compartilhado.
Qual a diferença entre cadernos do SageMaker Studio e ofertas de cadernos com base em instância?
Como os cadernos do SageMaker Studio funcionam com outros serviços da AWS?
O que são espaços compartilhados no SageMaker?
Profissionais de ML podem criar uma área de trabalho compartilhada onde os membros da equipe podem ler e editar notebooks do SageMaker Studio juntos. Ao usar os espaços compartilhados, os colegas de equipe podem coeditar o mesmo arquivo de notebook, executar o código do notebook simultaneamente e analisar os resultados juntos para eliminar idas e vindas e simplificar a colaboração. Nos espaços compartilhados, as equipes de ML terão suporte integrado para serviços como BitBucket e AWS CodeCommit para que possam gerenciar com facilidade diferentes versões do notebook e comparar alterações ao longo do tempo. Todos os recursos criados dentro dos notebooks, como experimentos e modelos de ML, são automaticamente gravados e associados ao espaço de trabalho específico no qual foram criados para facilitar a organização e agilizar o desenvolvimento de modelos de ML.
Como funcionam os preços dos cadernos do SageMaker Studio?
Há alguma cobrança separada para cada caderno criado e executado no SageMaker Studio?
Não. Você pode criar e executar vários blocos de anotações na mesma instância de computação. Você paga apenas pela computação utilizada e não por itens individuais. Leia mais sobre isso em nosso guia de medição.
Além dos notebooks, você também pode iniciar e executar terminais e shells interativos no SageMaker Studio, tudo na mesma instância de computação. Cada aplicação é executada em um contêiner ou em uma imagem. O SageMaker Studio fornece várias imagens incorporadas, criadas e pré-configuradas especificamente para ciência de dados e ML.
Como monitoro e desativo os recursos usados pelos meus cadernos?
Você pode monitorar e desativar os recursos usados pelos cadernos do SageMaker Studio usando a interface visual do SageMaker Studio e o Console de Gerenciamento da AWS. Consulte a documentação para obter mais detalhes.
Estou executando um caderno do SageMaker Studio. Continuarei sendo cobrado se fechar meu navegador, fechar a guia do caderno ou simplesmente deixar o navegador aberto?
A criação e configuração de um domínio do SageMaker Studio é cobrada?
Não. A criação e configuração de um domínio do SageMaker Studio não é cobrada, assim como a inclusão, alteração e exclusão de perfis de usuário.
Como vejo as cobranças discriminadas dos cadernos do SageMaker Studio ou de outros serviços do SageMaker?
Como administrador, você pode ver a lista de cobranças discriminadas do SageMaker, incluindo o SageMaker Studio, no Console de Faturamento da AWS. No Console de Gerenciamento da AWS para o SageMaker, selecione Serviços no menu superior, digite cobrança na caixa de pesquisa, selecione Cobrança na lista suspensa e Cobrança no painel esquerdo. Na seção Detalhes, você pode selecionar SageMaker para ampliar a lista de regiões e detalhar as cobranças por item.
O que é o Amazon SageMaker Studio Lab?
Por que devo usar o SageMaker Studio Lab?
Como o SageMaker Studio Lab funciona com outros serviços da AWS?
Para quais fontes de dados o SageMaker Canvas oferece suporte?
O SageMaker Canvas ajuda você a descobrir perfeitamente as fontes de dados da AWS às quais sua conta tem acesso, incluindo o Simple Storage Service (Amazon S3) e o Amazon Redshift. Você pode navegar e importar dados usando a interface visual do tipo arrastar e soltar do SageMaker Canvas. Além disso, você pode arrastar e soltar arquivos do disco local e usar conectores predefinidos para importar dados de fontes de terceiros, como o Snowflake.
Como eu crio um modelo de ML para gerar previsões precisas no SageMaker Canvas?
Depois de conectar as origens, selecionar um conjunto de dados e preparar seus dados, você pode selecionar a coluna de destino que deseja prever para iniciar um trabalho de criação de modelo. O SageMaker Canvas identifica automaticamente o tipo de problema, gera novos atributos relevantes, testa um conjunto abrangente de modelos preditivos usando técnicas de ML como regressão linear, regressão logística, aprendizado profundo, previsão de séries temporais e boosting de gradiente, e cria o modelo que faz previsões precisas com base no seu conjunto de dados.
Treinar modelos
O que é o Amazon SageMaker HyperPod?
Quando devo usar o SageMaker HyperPod?
O SageMaker oferece suporte a treinamento distribuído?
Sim. O SageMaker pode distribuir automaticamente modelos de aprendizado profundo e grandes conjuntos de treinamento em instâncias de GPU da AWS em uma fração do tempo necessário para construir e otimizar essas estratégias de distribuição manualmente. As duas técnicas de treinamento distribuído aplicadas pelo SageMaker são paralelismo de dados e paralelismo de modelos. O paralelismo de dados é aplicado para melhorar as velocidades de treinamento, dividindo os dados igualmente em várias instâncias de GPU, permitindo que cada instância treine simultaneamente. O paralelismo de modelos é útil para modelos muito grandes para serem armazenados em uma única GPU, o que exige que o modelo seja particionado em partes menores antes de ser distribuído em várias GPUs. Com apenas algumas linhas de código adicional em seus scripts de treinamento PyTorch e TensorFlow, o SageMaker aplicará automaticamente o paralelismo de dados ou o paralelismo de modelo para você, permitindo que você desenvolva e implante seus modelos mais rapidamente. O SageMaker determinará a melhor abordagem para dividir seu modelo usando algoritmos de particionamento gráfico para equilibrar a computação de cada GPU, ao mesmo tempo minimizando a comunicação entre instâncias de GPU. O SageMaker também otimiza seus trabalhos de treinamento distribuído por meio de algoritmos que utilizam totalmente a infraestrutura de computação e rede da AWS para obter eficiência de escalabilidade quase linear, o que permite concluir o treinamento com mais rapidez em comparação com as implementações de código aberto manuais.
O que é o Amazon SageMaker Experiments?
O que é o Amazon SageMaker Debugger?
O que é treinamento gerenciado de spots?
Como uso o treinamento gerenciado de spots?
Quando devo usar o treinamento gerenciado de spots?
Como o treinamento gerenciado de spots funciona?
Preciso usar um ponto de verificação periodicamente com o treinamento gerenciado de spots?
Como você calcula a economia com trabalhos de treinamento gerenciado de spots?
Quais instâncias posso usar com o Treinamento gerenciado de spots?
Quais regiões são compatíveis com o treinamento gerenciado de spots?
O treinamento gerenciado de spots é compatível com todas as regiões em que o SageMaker está atualmente disponível.
Há algum limite para o tamanho do conjunto de dados que posso usar para treinamento?
Não há limites fixos para o tamanho do conjunto de dados que pode ser usado para modelos de treinamento com o SageMaker.
Que algoritmos são usados pelo SageMaker ara gerar modelos?
O que é ajuste automático de modelos?
Quais modelos podem ser ajustados com o ajuste automático de modelos?
Posso usar o ajuste automático de modelos fora do SageMaker?
Não neste momento. A performance e a experiência do ajuste de modelos são melhores dentro do SageMaker.
Qual é o algoritmo de ajuste subjacente do Ajuste automático de modelos?
No momento, o algoritmo de ajuste de hiperparâmetros é uma implementação personalizada da otimização Bayesiana. Essa implementação se destina a otimizar uma métrica de objetivo especificada pelo cliente durante todo o processo de ajuste. Especificamente, a implementação verifica a métrica do objeto de trabalhos de treinamento concluídos e usa esse conhecimento para inferir a combinação de hiperparâmetros para o próximo trabalho de treinamento.
O Ajuste automático de modelos recomenda hiperparâmetros específicos para ajustes?
Não. O impacto de determinados hiperparâmetros sobre a performance do modelo depende de vários fatores. É difícil afirmar com certeza se um hiperparâmetro é mais importante do que os demais e, portanto, precisa de ajuste. Para algoritmos incorporados ao SageMaker, informamos se um hiperparâmetro é ou não ajustável.
Quanto tempo demora o trabalho de ajuste de um hiperparâmetro?
A duração do trabalho de ajuste de um hiperparâmetro depende de vários fatores, incluindo o tamanho dos dados, o algoritmo subjacente e os valores dos hiperparâmetros. Além disso, os clientes podem escolher o número de trabalhos de treinamento simultâneos e o seu número total. Todas essas escolhas afetam a duração do trabalho de ajuste de hiperparâmetros.
Posso otimizar simultaneamente vários objetivos, como ter um modelo rápido e preciso?
Não neste momento. No momento, é necessário especificar uma única métrica de objetivo a ser otimizada ou alterar o código do algoritmo para emitir uma nova métrica, que é a média ponderada entre duas ou mais métricas úteis, e fazer o processo de ajuste otimizar considerando esta nova métrica de objetivo.
Quanto custa o ajuste automático de modelos?
O trabalho de ajuste de hiperparâmetros não é cobrado. Os trabalhos de treinamento, iniciados pelo trabalho de ajuste de hiperparâmetros, serão cobrados de acordo com o preço de treinamento do modelo.
Como escolher entre usar o SageMaker Autopilot ou o ajuste automático de modelos?
O SageMaker Autopilot automatiza tudo em um fluxo de trabalho típico de ML, incluindo pré-processamento de recursos, seleção de algoritmos e ajuste de hiperparâmetros, concentrando-se especificamente em casos de uso de classificação e regressão. Por outro lado, o ajuste automático de modelos se destina a ajustar qualquer modelo, não importando se ele é baseado em algoritmos integrados, frameworks de aprendizado profundo ou contêineres personalizados. Em troca da flexibilidade, você deve escolher manualmente o algoritmo específico, os hiperparâmetros a serem ajustados e os intervalos de pesquisa correspondentes.
O que é aprendizado por reforço?
Aprendizado por reforço é uma técnica de ML que permite que um atendente aprenda em um ambiente interativo por tentativa e erro, usando feedback recebido por suas próprias ações e experiências.
Posso treinar modelos de aprendizado por reforço no SageMaker?
Sim, você pode treinar modelos de aprendizado por reforço no SageMaker, além dos modelos de aprendizado supervisionado e não supervisionado.
Qual é a diferença entre o aprendizado por reforço e o aprendizado supervisionado?
Embora ambos os aprendizados usem mapeamento entre entrada e saída, ao contrário do aprendizado supervisionado em que o feedback fornecido para o atendente é o conjunto correto de funções para execução de uma tarefa, o aprendizado por reforço usa um feedback atrasado em que sinais de recompensa são otimizados para garantir um objetivo em longo prazo por meio de uma sequência de ações.
Quando devo usar o aprendizado por reforço?
Enquanto o objetivo das técnicas de aprendizado supervisionado é encontrar a resposta certa com base nos padrões dos dados de treinamento, o objetivo das técnicas de aprendizado não supervisionado é encontrar semelhanças e diferenças entre os pontos de dados. Em contraste, o objetivo das técnicas de aprendizado por reforço (RL) é aprender como alcançar um resultado desejado mesmo quando não estiver claro o que deve ser feito para isso. Como resultado, o RL é mais adequado para habilitar aplicações inteligentes, em que um atendente pode tomar decisões autônomas, como robótica, veículos autônomos, HVAC, controle industrial e muito mais.
Que tipos de ambientes posso usar para o treinamento dos modelos de RL?
O RL do Amazon SageMaker oferece suporte a diversos ambientes diferentes para treinamento de modelos de RL. Use produtos da AWS, como o AWS RoboMaker, ambientes de código aberto ou ambientes personalizados desenvolvidos usando interfaces Open AI Gym, ou ambientes de simulação comerciais, como o MATLAB e o SimuLink.
Preciso escrever meus próprios algoritmos de atendente de RL para treinar modelos de RL?
Não, o RL do SageMaker inclui toolkits de RL, como Coach and Ray RLLib, que oferecem implementações de algoritmos de atendente de RL, como DQN, PPO, A3C e muito mais.
Posso usar minhas próprias bibliotecas de aprendizado por reforço (AR) e implementação de algoritmo e executá-las no AR do SageMaker?
Sim, você pode usar suas próprias bibliotecas de RL e implementações de algoritmo em contêineres Docker e executá-las no RL do SageMaker.
Posso fazer lançamentos distribuídos usando o aprendizado por reforço do SageMaker?
Sim. Também é possível selecionar um cluster heterogêneo onde o treinamento pode ser executado em uma instância da GPU e as simulações podem ser executadas em várias instâncias da CPU.
Implantar modelos
Que opções de implantação o SageMaker oferece?
O que é a inferência assíncrona do Amazon SageMaker?
Como definir as configurações de escalabilidade automática para reduzir a escala da contagem de instâncias a zero quando eu não estiver processando ativamente as solicitações?
É possível reduzir a escala verticalmente da contagem de instâncias de endpoint de inferência assíncrona do SageMaker a zero para economizar custos quando você não estiver processando ativamente as solicitações. Você precisa definir uma política de escalabilidade para escalar a métrica personalizada 'ApproximateBacklogPerInstance' e definir o valor 'MinCapacity' a zero. Para obter instruções detalhadas, visite a seção escalar um endpoint assíncrono automaticamente no guia do desenvolvedor.
O que é a Inferência Sem Servidor do Amazon SageMaker?
Inferência Sem Servidor do SageMaker é uma opção de serviço de modelo sem servidor desenvolvida para fins específicos que facilita a implantação e a escala de modelos de ML. Os pontos de extremidade de Inferência Sem Servidor do SageMaker iniciam automaticamente os recursos de computação e aumentam e diminuem a escala dependendo do tráfego, eliminando a necessidade de você escolher o tipo de instância, executar a capacidade provisionada ou gerenciar o escalonamento. Opcionalmente, você pode especificar os requisitos de memória para seu endpoint de inferência sem servidor. Você paga apenas pela duração da execução do código de inferência e pela quantidade de dados processados, não pelos períodos ociosos.
Por que devo usar a Inferência Sem Servidor do SageMaker?
O que é a simultaneidade provisionada para a inferência de tecnologia sem servidor do SageMaker?
Por que devo usar a simultaneidade provisionada?
Com endpoints de tecnologia sem servidor sob demanda, se seu endpoint não receber tráfego por um tempo e, de repente, receber novas solicitações, pode levar algum tempo até que seu endpoint ative os recursos de computação para processar as solicitações. Isso é chamado de inicialização a frio. Uma inicialização a frio também pode ocorrer se suas solicitações simultâneas excederem o uso atual da solicitações simultâneas. O tempo de inicialização a frio depende do tamanho do modelo, do tempo necessário para fazer o download do modelo e do tempo de inicialização do contêiner.
Para reduzir a variabilidade em seu perfil de latência, você pode ativar a Simultaneidade Provisionada para seus endpoints de tecnologia sem servidor. Com a Simultaneidade provisionada, seus endpoints de tecnologia sem servidor estão sempre prontos e podem atender instantaneamente picos de tráfego, sem inicialização a frio.
Como será a cobrança pela simultaneidade provisionada?
Assim como na Inferência Sem Servidor sob demanda, quando a simultaneidade provisionada é ativada, você paga pela capacidade computacional usada para processar solicitações de inferência, cobrada por milissegundo, e pela quantidade de dados processados. Você também paga pelo uso da simultaneidade provisionada, com base na memória configurada, na duração provisionada e na quantidade de simultaneidade habilitada. Para obter mais informações, consulte Preços do Amazon SageMaker.
O que é o teste de validação por comparação do SageMaker?
Por que devo usar o SageMaker para testes de validação por comparação?
O que é o Amazon SageMaker Inference Recommender?
O SageMaker Inference Recommender reduz o tempo necessário para colocar os modelos de ML em produção, automatizando a comparação de performance e ajustando a performance do modelo em instâncias de ML do SageMaker. Agora você pode usar o SageMaker Inference Recommender para implantar seu modelo em um endpoint que oferece o melhor performance e minimiza os custos. Você pode começar a usar o SageMaker Inference Recommender em minutos enquanto seleciona um tipo de instância e obter recomendações para configurações de endpoint ideais em horas, eliminando semanas de teste manual e tempo de ajuste. Com o SageMaker Inference Recommender, você paga apenas pelas instâncias do SageMaker ML usadas durante os testes de carga e não há cobrança adicional.
Por que devo usar o SageMaker Inference Recommender?
Como o SageMaker Inference Recommender funciona com outros serviços da AWS?
O SageMaker Inference Recommender oferece suporte a endpoints multimodelos ou endpoints de vários contêineres?
Não, atualmente só oferecemos suporte a um único modelo por endpoint.
A que tipo de endpoints o SageMaker Inference Recommender oferece suporte?
Atualmente, oferecemos suporte apenas a endpoints em tempo real.
Posso usar o SageMaker Inference Recommender em uma região e avaliar sua performance em diferentes regiões?
Oferecemos suporte a todas as regiões com suporte ao Amazon SageMaker, exceto as regiões da AWS China.
O SageMaker Inference Recommender oferece suporte a instâncias Inf1 do Amazon EC2?
Sim, oferecemos suporte a todos os tipos de contêineres. A Inf1 do Amazon EC2, baseada no chip AWS Inferentia, requer um artefato de modelo compilado usando o compilador Neuron ou o Amazon SageMaker Neo. Depois de ter um modelo compilado para um alvo do Inferentia e o URI da imagem do contêiner associado, você pode usar o SageMaker Inference Recommender para avaliar diferentes tipos de instância do Inferentia.
O que é o Amazon SageMaker Model Monitor?
Posso acessar a infraestrutura em que o SageMaker é executado?
Não. O SageMaker opera a infraestrutura de computação em seu nome, o que permite executar verificações de integridade, aplicar patches de segurança e realizar outras manutenções de rotina. Você também pode implantar os artefatos do modelo do treinamento com código de inferência personalizado no seu próprio ambiente de hospedagem.
Como posso escalar o tamanho e a performance de um modelo do SageMaker após implantá-lo em produção?
A hospedagem do SageMaker escala automaticamente a performance necessária para a aplicação usando Application Auto Scaling. Além disso, você pode alterar manualmente o número e o tipo das instâncias sem que haja tempo de inatividade pela modificação da configuração do endpoint.
Como monitoro o ambiente de produção do SageMaker?
O SageMaker emite métricas de performance para o Amazon CloudWatch Metrics para que você possa rastrear métricas, definir alarmes e reagir automaticamente a mudanças no tráfego de produção. Além disso, o SageMaker escreve logs para o Amazon Cloudwatch Logs, o que permite monitorar e solucionar problemas do ambiente de produção.
Que tipos de modelos podem ser hospedados com o SageMaker?
O SageMaker pode hospedar qualquer modelo que siga a especificação documentada para imagens de Docker de inferência. Isso inclui os modelos criados de artefatos de modelo e código de inferência do SageMaker.
Quantas solicitações de API em tempo real simultâneas o SageMaker suporta?
O SageMaker foi criado para escalar para um grande número de transações por segundo. O número preciso varia em função do modelo implantado e do número e do tipo de instâncias nas quais o modelo é implantado.
Como o SageMaker oferece suporte à hospedagem e ao gerenciamento de modelos totalmente gerenciados?
O que é o Batch Transform?
O Batch Transform permite que você execute previsões em dados em lotes grandes ou pequenos. Não é preciso dividir o conjunto de dados em diversas partes nem gerenciar endpoints em tempo real. Com uma API simples, você pode solicitar previsões para um grande número de registros de dados e transformar os dados de maneira rápida e fácil.
Quais opções de endpoint de implantação são compatíveis com o SageMaker?
O que é o ajuste de escala automático para elasticidade?
O que é o Amazon SageMaker Edge Manager?
O SageMaker Edge Manager torna mais fácil otimizar, proteger, monitorar e manter modelos de ML em frotas de dispositivos de borda, como câmeras inteligentes, robôs, computadores pessoais e dispositivos móveis. O SageMaker Edge Manager ajuda os desenvolvedores de ML a operar modelos de ML em uma variedade de dispositivos de borda em escala.
Como começo a usar o SageMaker Edge Manager?
Para começar a usar o SageMaker Edge Manager, você precisa compilar e empacotar seus modelos de ML treinados na nuvem, registrar seus dispositivos e prepará-los com o SDK do SageMaker Edge Manager. Para preparar o seu modelo para implantação, o SageMaker Edge Manager usa o SageMaker Neo para compilar o seu modelo para o hardware de borda de destino. Depois que o modelo é compilado, o SageMaker Edge Manager assina o modelo com uma chave gerada pela AWS e, em seguida, empacota o modelo com seu tempo de execução e as credenciais necessárias para prepará-lo para a implantação. No lado do dispositivo, você registra seu dispositivo com o SageMaker Edge Manager, baixa o SDK do SageMaker Edge Manager e, em seguida, segue as instruções para instalar o agente SageMaker Edge Manager nos seus dispositivos. O caderno do tutorial fornece um exemplo detalhado de como você pode preparar os modelos e conectá-los em dispositivos de borda com o SageMaker Edge Manager.
Com quais dispositivos o SageMaker Edge Manager é compatível?
O SageMaker Edge Manager é compatível com dispositivos baseados em CPU (ARM, x86), GPU (ARM, Nvidia) comuns, com sistemas operacionais Linux e Windows. Com o passar tempo, o SageMaker Edge Manager se expandirá para ser compatível com mais processadores integrados e plataformas móveis que também são compatíveis com o SageMaker Neo.
Preciso usar o SageMaker para treinar meu modelo com o intuito de usar o SageMaker Edge Manager?
Não, você não precisa. Você pode treinar seus modelos em outro lugar ou usar um modelo pré-treinado de código aberto ou de seu fornecedor de modelos.
Preciso usar o SageMaker Neo na compilação do modelo para poder usar o SageMaker Edge Manager?
Sim, você precisa. O SageMaker Neo converte e compila seus modelos em um executável que você pode empacotar e implantar em seus dispositivos de borda. Assim que o pacote do modelo for implantado, o agente SageMaker Edge Manager desempacotará o pacote do modelo e executará o modelo no dispositivo.
Como eu implanto modelos nos dispositivos de borda?
O SageMaker Edge Manager armazena o pacote do modelo no bucket do Simple Storage Service (Amazon S3) especificado. Você pode usar o recurso de implantação sem fios fornecido pelo AWS IoT Greengrass ou qualquer outro mecanismo de implantação da sua escolha para implantar o pacote de modelo do seu bucket do S3 nos dispositivos.
Qual é a diferença entre o SDK do SageMaker Edge Manager e a runtime (dlr) do SageMaker Neo?
Neo dlr é um tempo de execução de código aberto que executa apenas modelos compilados pelo serviço SageMaker Neo. Em comparação com a dlr de código aberto, o SDK do SageMaker Edge Manager inclui um atendente de nível corporativo no dispositivo com segurança adicional, gerenciamento de modelo e recursos de serviço de modelos. O SDK do SageMaker Edge Manager é adequado para implantação de produção em escala.
Como o SageMaker Edge Manager se relaciona com o AWS IoT Greengrass?
O SageMaker Edge Manager e o AWS IoT Greengrass podem trabalhar juntos em sua solução de IoT. Quando seu modelo de ML for empacotado com SageMaker Edge Manager, você poderá usar o recurso de atualização OTA do AWS IoT Greengrass para implantar o pacote de modelo no seu dispositivo. O AWS IoT Greengrass permite monitorar seus dispositivos IoT remotamente, enquanto o SageMaker Edge Manager ajuda a monitorar e manter os modelos de ML nos dispositivos.
Como o SageMaker Edge Manager se relaciona com o AWS Panorama? Quando devo usar o SageMaker Edge Manager em vez do AWS Panorama?
A AWS oferece a maior amplitude e profundidade de recursos para a execução de modelos em dispositivos de borda. Temos serviços para oferecer suporte a uma ampla variedade de casos de uso, incluindo visão computacional, reconhecimento de voz e manutenção preditiva.
Para empresas que procuram executar visão computacional em dispositivos de borda, como câmeras e aparelhos, você pode usar o AWS Panorama. O AWS Panorama oferece aplicações de visão computacional prontas para implantar para dispositivos de borda. É fácil começar a usar o AWS Panorama fazendo login no console da nuvem, especificando o modelo que você gostaria de usar no Simple Storage Service (Amazon S3) ou no SageMaker e, em seguida, escrevendo a lógica de negócios como um script Python. O AWS Panorama compila o modelo para o dispositivo de destino e cria um pacote de aplicações que possa ser implantado nos seus dispositivos com apenas alguns cliques. Além disso, os ISVs que desejam criar suas próprias aplicações personalizadas podem usar o AWS Panorama SDK e os fabricantes de dispositivos podem usar o Device SDK para certificar seus dispositivos para o AWS Panorama.
Os clientes que desejam criar seus próprios modelos e ter um controle mais detalhado sobre os recursos do modelo podem usar o SageMaker Edge Manager. O SageMaker Edge Manager é um serviço gerenciado para preparar, executar, monitorar e atualizar modelos de machine learning (ML) em frotas de dispositivos de borda, como câmeras inteligentes, alto-falantes inteligentes e robôs para qualquer caso de uso, como processamento de linguagem natural, detecção de fraude, e manutenção preditiva. O SageMaker Edge Manager é direcionado a desenvolvedores de borda de ML que desejem controle sobre seu modelo, incluindo a engenharia de diferentes recursos de modelos e modelos de monitor para variações.. Qualquer desenvolvedor de borda de ML pode usar o SageMaker Edge Manager por meio do console do SageMaker e das APIs do SageMaker. O SageMaker Edge Manager traz os recursos do SageMaker para criar, treinar e implantar modelos na nuvem para dispositivos de borda.
Em quais regiões o SageMaker Edge Manager está disponível?
Você pode usar o SageMaker Edge Manager em seis regiões: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Europa (Irlanda), Europa (Frankfurt) e Ásia-Pacífico (Tóquio). Acesse a Lista de serviços regionais da AWS para obter detalhes.
O que é o Amazon SageMaker Neo?
O SageMaker Neo permite que modelos de ML sejam treinados uma vez e executados em qualquer lugar na nuvem e na borda. O SageMaker Neo otimiza automaticamente os modelos criados com frameworks populares de DL que podem ser usados para implantação em várias plataformas de hardware. Os modelos otimizados são executados até 25 vezes mais rápido e consomem menos de um décimo dos recursos dos modelos de ML típicos.
Como começo a usar o SageMaker Neo?
Para começar a usar o SageMaker Neo, faça login no console do SageMaker, escolha um modelo treinado, siga o exemplo para compilar modelos e implante o modelo resultante na plataforma de hardware de destino.
Quais são os principais componentes do SageMaker Neo?
O SageMaker Neo contém dois componentes principais: um compilador e um tempo de execução. Primeiro, o compilador SageMaker Neo lê os modelos exportados por frameworks diferentes. Em seguida, ele converte as funções e operações específicas para cada estrutura em uma representação intermediária indiferente à estrutura. Depois, realiza uma série de otimizações. Em seguida, o compilador gera código binário para as operações otimizadas e grava em uma biblioteca de objetos compartilhados. O compilador também salva a definição do modelo e os parâmetros em arquivos separados. Durante a execução, o tempo de execução do SageMaker Neo carrega os artefatos gerados pelo compilador: definição do modelo, parâmetros e a biblioteca de objetos compartilhados para executar o modelo.
Preciso usar o SageMaker para treinar meu modelo com o intuito de usar o SageMaker Neo para converter o modelo?
Não. Você pode treinar os modelos em outros lugares e usar o SageMaker Neo para otimizá-los para instâncias de ML do SageMaker ou dispositivos compatíveis do AWS IoT Greengrass.
A quais modelos o SageMaker Neo oferece suporte?
Atualmente, o SageMaker Neo oferece suporte à maioria dos modelos de DL que alimentam os aplicativos de visão computacional e os modelos de árvore de decisões mais populares usados no SageMaker atualmente. O SageMaker Neo otimiza o desempenho dos modelos AlexNet, ResNet, VGG, Inception, MobileNet, SqueezeNet e DenseNet treinados em MXNet e TensorFlow e modelos de floresta de corte de classificação e aleatórios treinados em XGBoost.
Quais plataformas de hardware têm suporte no SageMaker Neo?
Você encontra as listas de instâncias de nuvem, dispositivos de borda e versões de framework com suporte na documentação do SageMaker Neo.
Em quais regiões o SageMaker Neo está disponível?
Para ver uma lista das regiões com suporte, consulte a lista de serviços regionais da AWS.
Amazon SageMaker Savings Plans
O que é Amazon SageMaker Savings Plans?
Por que devo usar o SageMaker Savings Plans?
Como posso começar a usar os SageMaker Savings Plans?
Como os Savings Plans para o SageMaker diferem dos Savings Plans para computação no Amazon EC2?
Como os Savings Plans funcionam com o AWS Organizations/Faturamento Consolidado?
Os Savings Plans podem ser adquiridos em qualquer conta dentro de uma família do AWS Organization/Faturamento consolidado. Por padrão, o benefício fornecido pelos Savings Plans é aplicável ao uso em todas as contas de uma família do AWS Organization/faturamento consolidado. No entanto, você também pode optar por restringir o benefício dos Savings Plans apenas à conta que os comprou.