Informazioni sul file system distribuito Hadoop da John Karry

TheHadoop Distributed File System è un sistema di file completamente portatile, che isalso distribuito, così come scalabile per il quadro Hadoop. È anche afile sistema che è stato scritto in Java per lo stesso quadro. Ogni HDFScluster che appartiene a questo particolare file system contiene una modalità nome singolo, così come un gruppo singolo di nodi di dati che non devono sempre bepresent entro ciascun cluster HDFS tutto il tempo. Questo file system distribuito specifico è quello che fornisce l'accesso regolare ai dati delle applicazioni e dei dati ThisApplication è qualcosa, che deve essere sempre consentito tale accesso viathe portale attraverso il HDFS. Ogni nodo di dati che è parte del cluster HDFS doesserve il proprio scopo; e questo scopo è quello di servire i blocchi soprattutto costanti ofdata attraverso la rete utilizzando un protocollo unico che appartiene solo a theHDFS.

Il file system HadoopDistributed

utilizza il livello TCP /IP in modo da portare fuori itscommunications. HDFS in grado di memorizzare file di grandi dimensioni, e la dimensione di questi file isEquivalent a circa un multiplo di 64 MB. I clienti che non vogliono communicatedirectly con il HDFS devono avere RPC, che è l'abbreviazione di Remote Procedure Callin fine di comunicare correttamente. I file di grandi dimensioni che HDFS può trasferire andare tomultiple macchine allo stesso tempo.

Hadoop è basato su una piattaforma Java e supporta theprocessing di grandi insiemi di dati, come quello che troviamo su Google. Il File System HadoopDistributed è un ambiente completamente integrateddevelopment

che viene usata una grande quantità da un sacco di differentcompanies e organizzazioni sia per i prodotti, e di effettuare la ricerca. File system Hadoopdistributed è il motivo per il rapido trasferimento di dati tra i nodi, quindi, consentendo un sistema funzionale ininterrottamente in caso di guasto. Principale dell'applicazione di questo sistema è stato nei motori di ricerca e per advertisingonline.

Cerchiamo di capire la logica che sta dietro HDFS. Memorizza largefiles distribuendo i dati tra un pool di nodi di dati. Master /slavearchitecture è utilizzato in questo, in cui il master controlla uno o più slave. Theinformation sui nodi di dati viene memorizzato in nodi singolo nome, e datanodes sono collegati gli uni agli altri come un cluster. Per l'utente, rappresenterà lima onesingle. Il vantaggio di HDFS è una soluzione di archiviazione affidabile per largefiles. La ragione per la creazione di HDFS è l'affidabilità dei dati, anche in caso di guasto.