Monta un cluster Hadoop Big Data desde cero
This post was published 4 years ago. Download links are most likely obsolete. If that's the case, try asking the uploader to re-upload.
Created by Apasoft Training | Video: h264, 1280x720 | Audio: AAC 48KHz 2ch | Duration: 13:26 H/M | Lec: 146 | 3.45 GB | Language: Spanish
Aprende a trabajar con Hadoop Big Data con MapReduce, YARN, HIVE, SQOOP, SPARK, HBASE, HUE, Zookeeper, etc....
What you'll learn
Instalar un entorno de Hadoop Big Data
Administrar y configurar los componentes de Hadoop
Instalar un cluster Hadoop con ambari
Aprender a manejar el sistema de ficheros HDFS
Entender los conceptos más importantes de MapReduce y YARN
Aprender a instalar y configurar productos asociados como HIVE, HUE, HBASE, SPARK, ETC....
Requirements
Se necesitan ciertos conocimientos de Linux, aunque no de un nivel avanzado
También sería deseable que supieras algo de Java, aunque no es obligatorio
Necesitas una máquina con al menos 8 Gigas de RAM, aunque para poder tener 3 nodos hadoop funcionando sería conveniente disponer de 12 Gigas
Description
Durante este curso vamos a aprender los conceptos y componentes que os permitirán trabajar con un entorno de BigData y Hadoop y montar un cluster con esta tecnología y veremos los productos y herramientas más habituales de este ecosistema
Válido para versiones 2 y 3 de Hadoop
¿Qué contenidos vamos a ver?
- Aprenderás los conceptos básicos de esta tecnología
- Verás como descargar e instalar Hadoop manualmente
- También aprenderás a instalar y configurar Hadoop con ambari
- Trabajarás con HDFS para entender la gestión de ficheros en Hadoop
- Instalarás y configuraras Map Reduce y YARN
- Aprenderás a instalar y configurar los productos y herramientas más usadas dentro del ecosistema Hadoop:
HIVE
SQOOP
SPARK
HUE
ZooKeeper
HBASE
Otros productos que iré subiendo y actualizando
PIG
FLUME
......
¡¡¡¡Con máquinas virtuales preparadas para el curso!!!!
- Una máquina básica en Linux Centos 6 con la que podrás hacer todas las prácticas desde el principio
- Tres máquinas virtuales en Linux Centos 7 con Hadoop ya instalado y configurado en modo Cluster con las que podrás empezar a trabajar con Hadoop sin necesidad de hacer la parte de instalación y configuración inicial
En resumen, este curso te capacitará para poder empezar a desarrollar y usar esta infraestructura en tu entorno laboral.
El curso será sobre todo práctico, de forma que aprendas de forma amena, divertida y también productiva
Cualquier duda estamos a tu disposición. Pregunta sin problemas¡¡¡¡
Espero lo disfrutes¡¡¡¡¡
Who this course is for?
Este curso está dirigido a personas que necesiten instalar y administrar un entorno de Hadoop
También es interesante para aquellas personas que quieran mantenerse al día en conocimientos relacionados con BigData y Hadoop
Aquellas personas que quieran conocer los productos asociados a Hadoop
Homepage
Screenshots
**If you want to buy or renew premium account , Please buy from below links and support me**
=> visit DazX blog for Udemy courses: DazX Blog
=> visit Creativelive blog for more creativelive courses: Creativelive
=> visit TGC blog for more Greatcourses: Thegreatcourses
Download from free file storage
Resolve the captcha to access the links!
Registered members don't get captcha ... just sayin