Curso Hadoop Fundamentos
Descrição
Hadoop Fundamentos
O curso Hadoop Fundamentos tem como missão passar para o Participante uma visão geral do Hadoop Big Data. e também passa para o participante o crescimento desse novo produto no mercado de trabalho com Hadoop. Seu conteúdo programático foi desenvolvido para que profissionais possam implementar soluções de Big Data em suas corporações. O mesmo abrange, conceitos , conhecimentos de uso dos softwares, interação, atividades e práticas.
Carga Horaria do Curso Hadoop Fundamentos: 16 horas
Sendo integral das 09:h as 18:h ou Noturno de Segunda a Quinta das 19:h as 23:h. ou Sábado das 09:h as 18:h
Objetivos.
Introdução e as principais características do Hadoop. Funcionamento e instalação de cluster com hadoop, Praticas e conceitos básicos de execução de programa escrito em MapReduce.
Público alvo:
Gerente, Gestores de TI, Analista de Bancos de Dados, Analistas BI, Profissionais de TI e Computação.
Pre-Requisito Curso Hadoop Fundamentos:
- Conhecimento Basico de Servidor Linux , Noções de TC/PIP, Noções básico de programação.
Conteúdo Programático:
-
Conseito Apache Hadoop Fundamentos
- O que é Big Data?
- O Profissional cientista de dados.
- Visão geral sobre Hadoop
- Características do Hadoop
- Sistema distribuído de arquivos.
- Ecosistema Hadoop
- Quem usa o Haddop
- Cases do uso Haddop
- Uso de Hadware comum.
Instalando Apache Hadoop
- Distribuições do Hadoop
- Requisitos de Instalação
- Adquirindo os pacotes de Instalação
- Modo de Instalação ( SingleCluster, DistribuidMode )
- Configuração do Ambiente de Rede
- Configurando Yarn.
- Criando diretórios físicos para o Filesystem
- Formatação do FileSystem
- Iniciaizando Serviços
- Iniciando o cluster com seus nós
- Testando Processos ativos
HDFS
- Conceitual HDFS
- HDFS – Hadoop FileSystem
- HDFS – MapReduce Data Flow
- HDFS – Arquitetura
- Comandos de manipulação do FileSystem
- Copiando arquivos para o FileSystem
- Listando arquivos no HDFS
- Criando e Removendo Diretórios
- Interface Web do HDFS
MapReduce
- Conceitual Map Reduce
- MapReduce X Hadoop
- MapReduce – Função Map
- MapReduce – Função Reduce
- Fluxo de Trabalho
- Executando um MapReduce
- MapReduce no cluster
- Configurando a IDE Eclipse para MapReduce
- Criando um novo MapReduce
Cloudera Hadoop
- Usando a Distribuição Cloudera
- Componentes do CDH.
- Cloudera Hadoop X Apache Hadoop
- Interface de gerenciamento Web ( Hue )
Overview a outras ferramentas.
- Hortonworks
- Apache Mahout.
- Hbase – Banco de dados distribuído orientado a coluna.
- Pig – Plataforma de alto nível para a criação de programas MapReduce.
- Hive – uma infraestrutura de data warehouse sobre o Hadoop.
- Apache Cassandra – Banco de dados distribuído altamente escalável de segunda geração.
- Apache Sqoop.
- Pentaho Data Integration for Hadoop.
Informações
- Duração: 16h Noturno de 19:h as 23:h ou Aos Sábados de 09:h As 18:h
- Língua: Português
- Local: São Paulo - SP Presencial & Online Pata Todo Brasil
- Pré-requisitos: Não
- Capacidade: 24
- Início: 09/03/2018
- Certificado: Sim
Inscreva-se
Entraremos em contatoSobre o Professor
-
suporte
