Abra mais portas com certificação baseada em funções. Certify with Confidence oferece mais chances de passar.

Exame
70-776

Microsoft logo

  • Publicado:
    quarta-feira, 5 de julho de 2017
  • Idiomas:
    Inglês
  • Públicos:
    Engenheiros de dados
  • Tecnologia:
    Microsoft Azure SQL Data Warehouse, Azure Data Lake Analytics, Azure Data Factory, Azure Stream Analytics
  • Crédito para certificação:
    MCSA

Faça a engenharia de Big Data nos serviços da nuvem da Microsoft

Este exame será aposentado no dia domingo, 30 de junho de 2019. Um exame de substituição pode estar disponível. Para saber mais, visite nosso blog: https://www.microsoft.com/en-us/learning/community.aspx e reveja nossos posts de aposentadoria de exame.

* O preço não reflete quaisquer ofertas promocionais ou preço reduzido para membros do programa Microsoft Imagine Academy, Microsoft Certified Trainers e membros do programa Microsoft Partner Network. O preço está sujeito à alteração sem aviso prévio. O preço não inclui impostos. Confirme o preço exato com o provedor do exame antes de se inscrever para fazer um exame.

A partir do dia 1 de maio de 2017, a política de cancelamento existente será completamente substituída pela seguinte política: cancelar ou remarcar seu exame dentro de 5 dias úteis da data marcada é sujeito a uma taxa. Não comparecer para seu exame agendado ou não remarcar ou cancelar seu agendamento com pelo menos 24 horas de antecedência do exame faz com que você perca toda a taxa do exame.

Assista a uma seção de Preparação de Teste do Microsoft Ignite 2017

Habilidades medidas

Este exame mede sua habilidade em executar as tarefas técnicas listadas abaixo. Veja tutoriais em vídeo sobre a variety of question types sobre exames da Microsoft.

Observe que as perguntas podem testar, mas não estarão limitadas a, os tópicos descritos no texto com marcadores.

Deseja enviar comentários sobre a relevância das habilidades medidas neste exame? Envie seus comentários para a Microsoft. Todos os comentários serão revisados e incorporados conforme apropriado, mantendo a validade e confiabilidade do processo de certificação. Observe que a Microsoft não responderá diretamente aos comentários. Agradecemos seus comentários para garantir a qualidade do Programa de Certificação Microsoft.

Se tiver dúvidas sobre perguntas específicas deste exame, envie um exam challenge.

Se você tiver outras perguntas ou comentários sobre os exames de certificação da Microsoft ou sobre o programa de certificação, o registro ou as promoções, entre em contato com seu Regional Service Center.

Criar e implementar o processamento complexo de eventos usando a análise de fluxo do Azure (15-20%)
  • Incorporar dados de processamento em tempo real
    • Selecionar a tecnologia de ingestão de dados apropriada com base nas restrições específicas, esquema de separação de design e selecionar o mecanismo para separação, ingestão e processamento de dados de um fluxo do Twitter; conectar a entidades de processamento de fluxo; estimar produtividade, necessidades de latência, e pegada do trabalho; criar fluxos de dados de referência
  • Criar e implementar o Stream Analytics do Azure
    • Configurar limites, usar o Machine Learning UDF do Azure, criar alertas baseados em condições, usar um modelo de aprendizado em máquina para pontuação, treinar um modelo para aprendizado contínuo, usar cenários comuns de processamento de fluxo
  • Implementação e gerenciamento do fluxo do pipeline
    • Transmitir dados para um painel ativo, arquivar dados como um artefato de armazenamento para processamento em lote, habilitar consistência entre o fluxo de processamento e a lógica de processamento em lote
  • Enfileiramento de dados em tempo real usando a linguagem de enfileiramento do Stream Analytics do Azure
    • Usar funções integradas, usar tipos de dados, identificar elementos da linguagem de enfileiramento, controlar janelas de enfileiramento usando o Gerenciamento de Tempo, garantir a entrega do evento
Criar e implementar análises usando o Data Lake do Azure (25-30%)
  • Ingestão de dados no Data Lake Store do Azure
    • Criar uma conta no Data Lake Store do Azure (ADLS), copiar os dados para o ADLS, proteger os dados no ADLS usando o controle de acesso, alavancar a autenticação do usuário final ou de serviço para serviço de forma adequada, aperfeiçoar a performance do ADLS, acessar logs de diagnóstico
  • Gerenciar o Data Lake Analytics do Azure
    • Criar uma conta no Data Lake Analytics do Azure (ADLA), gerenciar usuários, gerenciar fontes de dados, gerenciar, monitorar e solucionar problemas de trabalhos, acessar logs de diagnóstico, otimizar os trabalhos usando a exibição de vértice, identificar informações de histórico de trabalho
  • Extrair e transformar dados usando o U-SQL
    • Esquematizar dados em leitura em escala; gerar arquivos de saída; usar os tipos de dados U-SQL, usar linguagem de expressão C# e U-SQL; identificar as principais diferenças entre o T-SQL e o U-SQL; realizar funções JOINS, PIVOT, UNPIVOT, CROSS APPLY e Windowing no U-SQL; compartilhar dados e código através do catálogo do U-SQL; definir os benefícios e usar dados estruturados no U-SQL; gerenciar e proteger o catálogo
  • Estender a programabilidade do U-SQL
    • Usar funções de usuários, agregadores e operadores definidos, escalar horizontalmente operadores definidos pelo usuário, solicitar capacidades Python, R e Cognitivas, usar tipos de U-SQL definidos pelo usuário, realizar perguntas federativas, compartilhar dados e códigos no ADLA e ADLS
  • Integrar o Data Lake Analytics do Azure com outros serviços
    • Integrar com o Data Factory do Azure, HDInsight do Azure, Data Catalog do Azure, e Event Hubs do Azure, ingerir dados do SQL Data Warehouse do Azure
Projetar e implementar soluções do SQL Data Warehouse do Azure (15-20%)
  • Projetar tabelas no SQL Data Warehouse do Azure
    • Selecionar o melhor tipo de coluna de distribuição para otimizar os fluxos de trabalho, selecionar geometria de tabela, limitar distorção de dados e processar distorção através da seleção adequada das colunas distribuídas, conceber índices columnstore, identificar quando escalonar nós de computação, calcular o número de distribuições para uma determinada carga de trabalho
  • Consultar dados no SQL Data Warehouse do Azure
    • Implementar rótulos de consulta, agregar funções, criar e gerenciar estatísticas em tabelas distribuídas, monitorar consultas de usuários para identificar problemas de performance, mudar a classe de recurso de um usuário
  • Integrar o SQL Data Warehouse do Azure com outros serviços
    • Ingerir dados no SQL Data Warehouse do Azure usando o AZCopy, Polybase, Bulk Copy Program (BCP), Azure Data Factory, SQL Server Integration Services (SSIS), Create-Table-As-Select (CTAS), e Create-External-Table-As-Select (CETAS); exportar dados do SQL Data Warehouse do Azure; fornecer informações de conexão para acessar o SQL Data Warehouse do Azure pelo Machine Learning do Azure; alavancar o Polybase para acessar um armazenamento distribuído diferente; migrar dados do SQL Data Warehouse do Azure; selecionar o método de ingestão apropriado com base nas necessidades de negócios
Projetar e implementar integração com base na nuvem usando o Data Factory do Azure (15-20%)
  • Implementar conjuntos de dados e serviços vinculados
    • Implementar a disponibilidade para a fatia, criar políticas de conjuntos de dados, configurar os serviços ligados apropriados com base na atividade e no conjunto de dados
  • Mover, transformar e analisar dados usando as atividades do Data Factory do Azure
    • Copiar os dados entre armazenamentos locais e na nuvem, criar diferentes tipos de atividades, entender a fábrica de dados usando etapas personalizadas de processamento, mover dados para e do SQL Data Warehouse do Azure
  • Orquestrar o processamento de dados usando pipelines do Data Factory do Azure
    • Identificar dependências de dados e atividades múltiplas de cadeia, modelar cronogramas com base na dependência dos dados, fornecer e executar pipeline de dados, projetar um fluxo de dados
  • Monitorar e gerenciar a Data Factory do Azure
    • Identificar falhas e causas, criar alertas para condições especificadas, realizar uma reimplementação, usar a ferramenta de monitoramento Microsoft Azure Portal
Gerenciar e manter o SQL Data Warehouse do Azure, Data Lake Analytics do Azure, Data Factory do Azure e Stream Analytics do Azure (20-25%)
  • Provisionar o SQL Data Warehouse do Azure, Data Lake do Azure, Data Factory do Azure e o Stream Analytics do Azure
    • Provisionar o SQL Data Warehouse do Azure, Data Lake do Azure, Data Factory do Azure, implementar o Stream Analytics do Azure
  • Implementar autenticação, autorização e audição
    • Integrar serviços com o Azure Active Directory (Azure AD), usar o modelo de segurança local no SQL Data Warehouse do Azure, configurar firewalls, implementar a auditoria, integrar serviços com o Azure Data Factory
  • Gerenciar a recuperação de dados para o SQL Data Warehouse do Azure, Data Lake do Azure, Data Factory do Azure e o Stream Analytics do Azure
    • Serviços de backup e recuperação, planejar e implementar a geo-redundância para o Azure Storage, migrar de um data warehouse no local para um SQL Data Warehouse do Azure
  • Monitorar o SQL Data Warehouse do Azure, Data Lake do Azure, e o Stream Analytics do Azure
    • Gerenciar simultaneidade, gerenciar a escala elástica para o SQL Data Warehouse do Azure, monitorar cargas de trabalho usando o Dynamic Management Views (DMVs) para o SQL Data Warehouse do Azure, solucionar problemas de performance do Data Lake do Azure usando o Vertex Execution View
  • Projetar e implementar soluções de armazenamento para implementações big data
    • Otimizar o armazenamento para atender necessidades de performance, selecionar tipos de armazenamento apropriados com base nos requerimentos de negócios, usar o AZCopy, o Storage Explorer e o Redgate Azure Explorer para migrar dados, projetar soluções na nuvem que se integram com dados locais

Quem deve fazer este exame?

Este exame de certificação destina-se a candidatos que projetam soluções analíticas e criam soluções operacionalizadas no Azure. Os candidatos para esse exame possuem experiência de trabalho relevante em problemas de engenharia de dados com o SQL Data Warehouse do Azure, Data Lake do Azure, Data Factory do Azure, e Stream Analytics do Azure.

Os candidatos devem estar familiarizados com os recursos e capacidades de processamento de dados em lote, processamento em tempo real e tecnologias de operação.

Os candidatos para esse exame podem aplicar o ecossistema da nuvem da Microsoft a projeções e podem implementar soluções de análise de big data para cumprir as necessidades de seus projetos.

Mais informações sobre exames

Preparação para um exame

Recomendamos que você leia todo este guia de preparação para o exame e familiarize-se com os recursos deste site antes de agendar o seu exame. Consulte a Microsoft Certification exam overview para obter informações sobre registro, vídeos de formatos típicos de pergunta do exame e outros recursos de preparação. Para obter informações sobre políticas e pontuação do exame, consulte as Microsoft Certification exam policies and FAQs.

Observação

Este guia de preparação está sujeito a alterações a qualquer momento sem aviso prévio e a critério exclusivo da Microsoft. Os exames Microsoft podem incluir tecnologia de testes de adaptação e itens de simulação. A Microsoft não identifica o formato em que os exames são apresentados. Utilize este guia de preparação para se preparar para o exame, independentemente do seu formato. Para ajudá-lo a preparar-se para este exame, a Microsoft recomenda que você tenha experiência prática com o produto e use os recursos de treinamento especificados. Estes recursos de treinamento não necessariamente abrangem todos os tópicos listados na seção "Habilidades avaliadas".