Curso

Curso Hadoop Fundamentos

0 Avaliação

Descrição

Hadoop Fundamentos

O curso Hadoop Fundamentos tem como missão passar para o Participante uma visão geral do Hadoop Big Data. e também passa  para o participante o crescimento desse novo produto no mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação, atividades e práticas.

Dúvidas? Envie uma mensagem

Carga Horaria do Curso Hadoop Fundamentos: 16 horas
Sendo integral das 09:h as 18:h ou Noturno de Segunda a Quinta das 19:h as 23:h. ou Sábado das 09:h as 18:h
Objetivos.

Introdução e as principais características do Hadoop. Funcionamento e instalação de cluster com hadoop, Praticas e conceitos básicos de execução de programa escrito em MapReduce.

Público alvo:

Gerente, Gestores de TI, Analista de Bancos de Dados, Analistas BI, Profissionais de TI e Computação.

Pre-Requisito Curso Hadoop Fundamentos:

  • Conhecimento Basico de Servidor Linux , Noções de  TC/PIP, Noções básico de programação.
Conteúdo Programático: 
  • Conseito Apache Hadoop Fundamentos
    • O que é Big Data?
    • O Profissional cientista de dados.
    • Visão geral sobre Hadoop
    • Características do Hadoop
    • Sistema distribuído de arquivos.
    • Ecosistema Hadoop
    • Quem usa o Haddop
    • Cases do uso Haddop
    • Uso de Hadware comum.
    Instalando Apache Hadoop
    • Distribuições do Hadoop
    • Requisitos de Instalação
    • Adquirindo os pacotes de Instalação
    • Modo de Instalação ( SingleCluster, DistribuidMode )
    • Configuração do Ambiente de Rede
    • Configurando Yarn.
    • Criando diretórios físicos para o Filesystem
    • Formatação do FileSystem
    • Iniciaizando Serviços
    • Iniciando o cluster com seus nós
    • Testando Processos ativos
    HDFS
    • Conceitual HDFS
    • HDFS – Hadoop FileSystem
    • HDFS – MapReduce Data Flow
    • HDFS – Arquitetura
    • Comandos de manipulação do FileSystem
    • Copiando arquivos para o FileSystem
    • Listando arquivos no HDFS
    • Criando e Removendo Diretórios
    • Interface Web do HDFS
    MapReduce
    • Conceitual Map Reduce
    • MapReduce X Hadoop
    • MapReduce – Função Map
    • MapReduce – Função Reduce
    • Fluxo de Trabalho
    • Executando um MapReduce
    • MapReduce no cluster
    • Configurando a IDE Eclipse para MapReduce
    • Criando um novo MapReduce
     Cloudera Hadoop 
    • Usando a Distribuição Cloudera
    • Componentes do CDH.
    • Cloudera Hadoop X Apache Hadoop
    • Interface de gerenciamento Web ( Hue )
    Overview a outras ferramentas.
    • Hortonworks
    • Apache Mahout.
    • Hbase –  Banco de dados distribuído orientado a coluna.
    • Pig – Plataforma de alto nível para a criação de programas MapReduce.
    • Hive – uma infraestrutura de data warehouse sobre o Hadoop.
    • Apache Cassandra – Banco de dados distribuído altamente escalável de segunda geração.
    • Apache Sqoop.
    • Pentaho Data Integration for Hadoop.

Entre em Contato Conosco

Preencha os campos abaixo que responderemos rapidamente

Sobre o Professor

  • suporte