Foro Formación Hadoop

Curso Online Apache Spark

 
Imagen de Admin Formación Hadoop
Curso Online Apache Spark
de Admin Formación Hadoop - domingo, 16 de noviembre de 2014, 19:25
 

Consultas sobre el curso online de Apache Spark

Imagen de Admin Formación Hadoop
Re: Curso Online Apache Spark
de Admin Formación Hadoop - viernes, 21 de noviembre de 2014, 19:17
 

Temario completo del curso de Apache Spark:

Capítulo 1: Introducción

Capítulo 2 - Introducción a Apache Spark

Capítulo 3: Spark- Conceptos básicos

Capítulo 4: Procesamiento de Datos con RDDs

Capítulo 5: Hadoop Distributed File System

Capítulo 6 : Arquitectura Spark

Capítulo 7: Programación Paralela

Capítulo 8: Cacheo y Persistencia de Datos

Capítulo 9: Aplicaciones con Spark

Capítulo 10: Spark Streaming

Imagen de Antonio Ramirez
Re: Curso Online Apache Spark
de Antonio Ramirez - lunes, 8 de diciembre de 2014, 09:32
 

Apache Spark

spark

Apache Spark es una plataforma de código abierto para el procesamiento masivo de datos almacenados en el ecosistema Hadoop y que se puede alimentar de  datos residentes en HDFS, HBase, Cassandra, Hive o cualquier fuente de datos Hadoop.

La implementación de las reglas de procesado se hace a través de las APIs disponibles para los lenguajes de programación Java, Scala y Python.

El motor de procesado de Spark puede desplegarse sobre clusters en un entorno distribuido que puede estar gestionado por Hadoop YARN o Apache Mesos lo que permite el procesado en paralelo de particiones de datos y permite que Spark incorpore las características de escalabilidad y tolerancia a fallos propias del cluster. También es posible el despliegue de Spark en modo independiente en un solo servidor.

No está sujeto al paradigma MapReduce, y ofrece mejor rendimiento que éste. Hasta 100 veces superior en procesado de datos en memoria según la web del proyecto.

Además dispone de varias librerías de más alto nivel que facilitan la implementación de algoritmos de procesado de datos:

  • Spark SQL para el acceso a datos estructurados a través de lenguaje SQ. Permitiendo integrar queries SQL en los algoritmos implementados con los APIs Python, Scala o Java.
  • Spark Streaming para el procesado de flujos continuos de datos. Permite a su vez combinar el procesado de streams con el procesado batch, por ejemplo permitiendo joins de los datos del stream con datos historizados. Dispone de APIs Java y Scala.
  • MLlib es la librería de Spark que incorpora algoritmos de machine learning.
  • GraphX es la librería Spark que incorpora los algoritmos de procesado y análisis de grafos.

En conclusión Spark ofrece similar funcionalidad a la ofrecida por Hadoop MapReduce en cuanto a procesado batch de datos pero con un rendimiento más eficiente, incorporando además funcionalidad propia de soluciones de Streaming Analytics para el procesado en tiempo real.

Imagen de Admin Formación Hadoop
Re: Curso Online Apache Spark
de Admin Formación Hadoop - jueves, 11 de diciembre de 2014, 20:01
 

Ejemplo WordCount en Spark:

 

val file = spark.textFile("hdfs://...")
val counts = file.flatMap(line => line.split(" "))
                 .map(word => (word, 1))
                 .reduceByKey(_ + _)

 

Como se puede observar, mucho más "sencillo" que el WordCount en MapReduce