79009
Big Data Hadoop and Spark Developer 1 año sin examen
Big Data Hadoop and Spark Developer 1 año sin examen curso en línea en Inglés entregado por iLEARN Innovative Learning
Opciones de compra Opciones de compra Complete your package! A partir de 349,00 EUR
Con este curso de Big Data Hadoop aprenderás el marco de big data con Hadoop and Spark, incluídos HDFS, YARN, y MapReduce. El curso también cubrirá Pig, Hive, e Impala para procesar y analizar grandes conjuntos de datos almacenados en HDFS y usar Sqoop y Flume para la ingesta de datos.
Te mostrará el procesamiento de datos en tiempo real con Spark, incluida la programación funcional en Spark, la implementación de aplicaciones Spark, la comprensión del procesamiento paralelo en Spark y el uso de técnicas de optimización Spark RDD. También aprenderá los diversos algoritmos interactivos en Spark y usará Spark SQL para crear, transformar y consultar formularios de datos.
Por último, deberás ejecutar proyectos de vida real basados en la industria utilizando CloudLab en los dominios de la banca, las telecomunicaciones, las redes sociales, los seguros y el comercio electrónico.
Duración de acceso
- 1 año de accesso a la plataforma
Detalles del curso en línea Big Data Hadoop and Spark Developer
- 16 lecciones
- Curso gratuito incluÍdo - Apache Kafka
- Curso gratuito incluÍdo - Core Java
- 5 proyectos de la industria de vida real
- Duración de 24 horas
- Acceso 24/7
FORMATO Y CARACTERÍSTICAS DEL CURSO EN LÍNEA
- No hay examen disponible pero para obtener un certificado debes completar el 85 % del curso y completar una simulación de examen con un puntaje mínimo del 60%.
Tipología
Curso en línea sin examenUbicación
En líneaPrecio individual
Duración de acceso al curso
1 añoIdioma
InglésObjetivos
Al final del curso comprenderás:
- Los diferentes componentes del ecosistema de Hadoop, como Hadoop 2.7, Yarn, MapReduce, Pig, Hive, Impala, HBase, Sqoop, Flume y Apache Spark
- El sistema de archivos distribuido Hadoop (HDFS) y la arquitectura YARN
- MapReduce y sus características y cómo asimilar conceptos avanzados de MapReduce
- Diferentes tipos de formatos de archivo, esquema Avro, uso de Avro con Hive y evolución de Sqoop y Schema
- Flume, arquitectura de Flume, fuentes, sumideros de flume. canales y configuraciones de flume
- HBase, su arquitectura y almacenamiento de datos, y aprenderás la diferencia entre HBase y RDBMS
- Conjuntos de datos de distribución resilientes (RDD) en detalle
- Los casos de uso comunes de Spark y varios algoritmos interactivos
También podrás:
- Ingerir datos usando Sqoop y Flume
- Crear bases de datos y tablas en Hive e Impala, comprender HBase y usar Hive e Impala para particionar
- Obtener un conocimiento práctico de Pig y sus componentes
- Hacer programación funcional en Spark e implementar y crear aplicaciones Spark
- Obtener una comprensión profunda del procesamiento paralelo en las técnicas de optimización Spark y Spark RDD
- Crear, transformar y consultar marcos de datos con Spark SQL
A quién está dirigido
Las oportunidades de carrera en Big data están en aumento y Hadoop se está convirtiendo rápidamente en una tecnología imprescindible en la arquitectura de big data. La formación en Big Data es adecuada para profesionales de TI, gestión de datos y análisis, incluidos:
- Desarrolladores y arquitectos de software
- Profesionales de análisis
- Profesionales sénior de TI
- Profesionales de pruebas y mainframe
- Profesionales de la gestión de datos
- Profesionales de inteligencia de negocios
- Gerentes de proyecto
- Aspirantes científicos de datos
- Graduados que buscan desarrollar una carrera en análisis de big data
Contenidos
El curso cubre los siguientes temas:
- Introducción del curso
- Lección 1 - Introducción a big data y el ecosistema Hadoop
- Lección 2 - HDFS y YARN
- Lección 3 - MapReduce y Sqoop
- Lección 4 – Conceptos básicos de Hive e Impala
- Lección 5 - Trabajar con Hive e Impala
- Lección 6 – Tipos de formato de datos
- Lección 7 – Concepto avanzado de Hive y partición de archivo de datos
- Lección 8 - Apache Flume y HBase
- Lección 9 - Pig
- Lección 10 - Conceptos básicos de Apache Spark
- Lección 11 - RDDs en Spark
- Lección 12 - Implementación de aplicaciones Spark
- Lección 13 - Procesamiento paralelo Spark
- Lección 14 - Técnicas de optimización Spark RDD
- Lección 15 – Algoritmo de Spark
- Lección 16 - Spark SQL
- CURSO GRATUITO - Apache Kafka
- CURSO GRATUITO - Core Java
Pre-requisitos
No hay prerequisitos para este curso. Sin embargo, es beneficioso tener algún conocimiento de Core Java y SQL. Ofrecemos un curso gratuito en línea de autoaprendizaje "Java essentials for Hadoop" si necesitas refrescar tus habilidades básicas de Core Java.