Por Saroj Kar para Cloud Times.
La firma de investigación IDC, en un informe reciente, muestra que las empresas combinan Hadoop con otras bases de datos para realizar el análisis de datos masivo. Una proporción significativa de los encuestados dijo que Hadoop se utiliza para sustituir las tecnologías de almacenamiento de datos tradicionales. Esto va desde el análisis de los datos en bruto, datos operativos, datos de diferentes equipos, y datos sobre el comportamiento del cliente recogidos por los sistemas de venta de comercio electrónico.
Para gestionar grandes volúmenes de datos, Hadoop implementa el paradigma denominado MapReduce, según el cual las aplicaciones se dividen en pequeñas piezas de software, cada uno de las cuales se pueden ejecutar en un nodo distinto de todos los que componen el sistema.
Los analistas de la firma de investigación Gartner dicen que Hadoop marca un importante desarrollo del proyecto de código abierto. Su objetivo era hacer que la plataforma de datos sea más fácil de usar y más estable. La nueva organización dirigida por YARN, permite la ejecución simultánea de varias aplicaciones en HDFS, el sistema de archivos distribuido, al tiempo que proporciona un mejor seguimiento de los datos a lo largo de su ciclo de vida.
Empresas como Amazon Web Services, Cloudera, Hortonworks, IBM, Intel, MapR Technologies, Pivotal Software, Twitter, Facebook y otros están gestionando su gran volumen de datos y proporcionando información sobre dónde se dirige el mercado utilizando la tecnología de Apache Hadoop. La NASA también confía en Hadoop para manejar grandes volúmenes de datos en proyectos como The Square Kilometer Array, para la visualización del espacio.
Hadoop 2.2 estimula no sólo la forma en que las aplicaciones manejan los datos, sino que también crea nuevas metodologías que antes eran impensables debido a las limitaciones arquitectónicas
Social networks