Hadoop

Aus Thomas Krenn Wiki
Wechseln zu: Navigation, Suche

Hadoop ist ein Open Source Framework für zuverlässiges, skalierbares und verteiltes Rechnen (reliable, scalable, distributed computing). Die umfangreichste Hadoop Installation betreibt Facebook, mit insgesamt 2.000 Rechnern und 21 PB Daten (Stand Mai 2010).[1]

Inhaltsverzeichnis

Projektinformationen

Logo von Hadoop

Projektbeschreibung

Einer der Kernbereiche von Hadoop ist das Hadoop Distributed File System (HDFS). HDFS ist der primäre Datenspeicher für Hadoop Applikationen. Es erstellte mehrere Replikas von Datenblöcken und verteilt diese auf auf Compute Nodes im Cluster um zuverlässige und schnelle Berechnungen zu ermöglichen.[2]

Hadoop wird in Debian ab Debian 6 Squeeze direkt im Debian Repository enthalten sein.[3]

Einzelnachweise

  1. http://hadoopblog.blogspot.com/2010/05/facebook-has-worlds-largest-hadoop.html
  2. http://hadoop.apache.org/hdfs/
  3. http://packages.debian.org/search?keywords=hadoop&searchon=names&suite=all&section=all

Weitere Informationen


Autor: Werner Fischer


Share/Save/Bookmark  Feedback zu diesem Artikel geben