Foro Formación Hadoop

Ejercicio Spak

 
Imagen de MIGUEL OROPEZA
Ejercicio Spak
de MIGUEL OROPEZA - viernes, 16 de febrero de 2018, 14:32
 

La primera vez que comprobé el SparkContext  para Scala , funcionó sin problema , ahora después de 2 días, cuando  escribo sc me aparece : error: no found:  value sc , he intentado  importar la clase:

import SparkContext._      y continua  dando error.

 

Quien  me puede ayudar por favor.  ?

Imagen de MIGUEL OROPEZA
Re: Ejercicio Spak
de MIGUEL OROPEZA - viernes, 16 de febrero de 2018, 21:46
 

Ya no tengo el problema con el  sc , re-inicie los servicios de clouderas y ya funciona.

Saludos

Imagen de Admin Formación Hadoop
Re: Ejercicio Spak
de Admin Formación Hadoop - sábado, 17 de febrero de 2018, 08:51
 

Hola Miguel,

Perfecto. Esto te iba a comentar. Si estás trabajando con la máquina virtual, la primera solución siempre va a ser reiniciar los servicios implicados. La VM es muy pesada (recuerda que está simulando un cluster Hadoop en una única máquina) por lo que en varias ocasiones puede ser que alguno de los servicios se te quede "tonto".

 

Un saludo,