HDFS

HDFS, Architecture distribuée du Big Data

HDFS est le composants Hadoop qui assurer la distribution des données entre plusieurs serveurs. Le nombre de ces serveurs peut être élevé, et aller jusqu’à plusieurs milliers, pour un volume de données de centaines de teraoctets. La grande force de HDFS est d’être capable non seulement de détecter mais aussi d’anticiper parmi ces nombreux serveurs, ceux qui peuvent tomber en panne. Cette tolérance aux pannes assurée dans HDFS se fait à travers sa capacité à relancer un noeud ou à affecter une tâche à un autre noeud.


Voici le schéma de l’architecture HDFS :

HDFS architecture big data
Architecture HDFS au sein de Hadoop (Big Data)

A chaque regroupement de serveurs, appelé cluster, est associé un Namenode unique qui assure le nommage de chaque machine et enregistre les requêtes d’accès aux données. Ce Namenode s’assure de toutes les opérations de consultation. Les espaces de stockage sont appelés des Datanode au sein desquels sont stockés les fichiers des base de données. Les Datanodes prennent en charge les opérations lecture et d’écriture des données, ainsi que les opérations de création, suppression et réplication.



A lire aussi : Plate-forme HadoopMapReduceEntreprises Big Data

HDFS, Architecture distribuée du Big Data