Hadoop menggunakan sistem fail diedarkan yang dikenali sebagai HDFS, dan perisian untuk memproses set data besar yang dikenali sebagai MapReduce. Fail yang sangat besar dipecah menjadi serpihan, biasanya 64 atau 128 MB setiap satu. Perisian ini kebanyakannya ditulis di Jawa, dengan beberapa kod peringkat rendah yang ditulis dalam C.
Pelayan Apache, Data besar, Perkhidmatan, istilah Perisian