Foro Formación Hadoop
No puedo copiar cervantes
Ejecutando:
$ hadoop fs -put formacionhadoop/datasets/cervantes/ /formacionhadoop/desarrollador
Me dice lo siguiente para cada uno de los archivos:
put: File /formacionhadoop/desarrollador/cervantes/teatro/cueva_salmanca_cervantes.txt._COPYING_ could only be replicated to 0 nodes instead of minReplication (=1). There are 0 datanode(s) running and no node(s) are excluded in this operation.
Al listar los directorios de forma recusiva (no hay nada dentro de ellos):
$ hadoop fs -ls -R /formacionhadoop/desarrollador/
drwxr-xr-x - cloudera supergroup 0 2017-11-04 10:25 /formacionhadoop/desarrollador/cervantes
drwxr-xr-x - cloudera supergroup 0 2017-11-04 10:41 /formacionhadoop/desarrollador/cervantes/novela
drwxr-xr-x - cloudera supergroup 0 2017-11-04 10:41 /formacionhadoop/desarrollador/cervantes/poesia
drwxr-xr-x - cloudera supergroup 0 2017-11-04 10:41 /formacionhadoop/desarrollador/cervantes/teatro
¿Alguien sabría como resolver este problema?
Saludos. Gracias.
Resuelto he iniciado los servicios de hadoop que tenían que ver con los nodos. No sé si es correcto. pero funcionó.
cd /etc/init.d
sudo ./hadoop-hdfs-datanode start
sudo ./hadoop-hdfs-journalnode start
sudo ./hadoop-hdfs-secondarynamenode start
Hola María,
Si, el error lo que indicaba es que no había ningún DataNode disponbile (el DataNode es el servicio esclavo del HDFS, encargado de acceder a la información del HDFS en el proceso de lectura/escritura).
Nuevamente se trata de un error al estar trabajando con la máquina virtual con hardware limitado (memoria ram).
Al final todo este tipo de errores como has podido comprobar se solucionan reiniciando los servicios afectados.
Un saludo,
Redes sociales