Apakah Apache Hadoop?

Apache Hadoop adalah nama untuk satu set algoritma data besar, storan teragih, dan perisian pemprosesan diedarkan yang dibuat oleh Apache Software Foundation. Ia direka untuk menyokong aplikasi perkhidmatan data kelantangan tinggi; secara automatik mengendalikan kegagalan perkakasan tanpa kehilangan perkhidmatan.

Hadoop menggunakan sistem fail diedarkan yang dikenali sebagai HDFS, dan perisian untuk memproses set data besar yang dikenali sebagai MapReduce. Fail yang sangat besar dipecah menjadi serpihan, biasanya 64 atau 128 MB setiap satu. Perisian ini kebanyakannya ditulis di Jawa, dengan beberapa kod peringkat rendah yang ditulis dalam C.

Pelayan Apache, Data besar, Perkhidmatan, istilah Perisian