Cursos presenciales de Formación Hadoop.
Curso presencial de 30 horas en Barcelona por 699€
- Conceptos Básicos de Hadoop
- Arquitectura de un cluster Hadoop
- HDFS y MapReduce
- API MapReduce
- Ingesta de Datos: Sqoop y Flume
- Análisis de datos: Hive,Pig e Impala
- Ecosistema Hadoop: Oozie y Hue
- Spark, Spark Streaming, SparkSQL y MLLIB
- Introducción al almacenamiento NoSql: HBase, Cassandra, MongoDB y Neo4J
Para próximas convocatorias contactar con administracion@formacionhadoop.com
Curso presencial (L-J) de 40 horas en Madrid por 799€
- Conceptos Básicos de Hadoop
- Arquitectura de un cluster Hadoop
- HDFS y MapReduce
- API MapReduce: Mapper,Reducer,Combiner,etc.
- Ingesta de Datos: Sqoop y Flume
- Análisis de datos: Hive,Pig e Impala
- Ecosistema Hadoop: Oozie y Hue
- Spark, Spark Streaming, SparkSQL y MLLIB
- Almacenamiento NoSql: HBase, Cassandra, MongoDB y Neo4J
Para próximas convocatorias contactar con administracion@formacionhadoop.com
- Profesor: Fernando Agudo
Curso presencial de 40 horas en Madrid por 799€
- Conceptos Básicos de Hadoop
- Arquitectura de un cluster Hadoop
- HDFS y MapReduce
- API MapReduce: Mapper,Reducer,Combiner,etc.
- Ingesta de Datos: Sqoop y Flume
- Análisis de datos: Hive e Impala
- Ecosistema Hadoop: Oozie y Hue
- Transmisión de datos: Apache Kafka
- Spark, Spark Streaming, SparkSQL
- Machine Learning: Spark ML - MLLIB
- Almacenamiento NoSql: HBase, Cassandra, MongoDB y Neo4J
Para próximas convocatorias contactar con administracion@formacionhadoop.com
- Profesor: Fernando Agudo
Curso de 20 horas en Madrid por 399€
- Introducción a Apache Spark
- Procesamiento de datos con RDDs
- Hadoop Distributed File System (HDFS)
- Arquitectura Spark
- Cacheo y persistencia de Datos
- Aplicaciones con Spark
- Spark Streaming
Para próximas convocatorias contactar con administracion@formacionhadoop.com
Curso de 30 horas en Madrid por 599€
- Conceptos Básicos de Hadoop
- Arquitectura de un clúster Hadoop
- Hadoop Distributed File System (HDFS)
- Introducción a MapReduce
- API MapReduce
- Ingesta de datos: Sqoop y Flume
- Procesamiento de datos: Hive y Pig
- Ecosistema de Hadoop: Oozie y Hue
- Introducción a Spark y Spark Streaming
Para próximas convocatorias contactar con administracion@formacionhadoop.com
Redes sociales