INSTALASI APACHE HADOOP 2.6.0 (SINGLE NODE CLUSTER DAN MULTI NODE CLUSTER) PADA UBUNTU

11:52 AM

Apache Hadoop 

Apache Hadoop adalah sebuah open source project yang menyediakan frame work software untuk mengolah data yang besar dengan   metode komputasi terdistribusi. Konsep ini diperkenalkan pertama kali oleh Doug Cutting, seorang  pembuat Apache Lucene. Project Hadoop berasal dari project Apache Nutch, adalah  sebuah opensource web search engine sebagai bagian dari project Lucene. Apache Hadoop memungkinkan adanya proses distribusi dalam data berskala besar dengan metode clustering menggunakan model pemrograman sederhana. Apache  Hadoop didesain untuk skala dari master tunggal ke banyak mesin, masing-masing  menawarkan komputasi lokal dan storage. Daripada mengandalkan perangkat keras  untuk memberikan high availability, library dirancang untuk mendeteksi dan  menangani kegagalan pada lapisan aplikasi sehingga memberikan layanan yang tersedia  di atas sebuah cluster komputer yang masing-masing mesin mungkin rentan terhadap  kegagalan

Project modul pada Hadoop meliputi :

  • Hadoop Common: utilitas umum yang mendukung modul Hadoop lainnya.
  • Hadoop Distributed File System (HDFS): sebuah file sistem terdistribusi  yang menyediakan akses tinggi melalui aplikasi data.
  • Hadoop Yet Another Resource Negotiatior (YARN): sebuah framework untuk  penjadwalan dan manajemen sumber daya cluster yang merupakan generasi  kedua dari infrastruktur Apache Hadoop.
  • Hadoop MapReduce: sebuah sistem berbasis YARN untuk pemrosesan paralel  dari kumpulan data besar.

Previous
Next Post »