Machine Learning: Decision Tree Regression

Catatan penting : Jika Anda benar-benar awam tentang apa itu Python, silakan klik artikel saya ini. Jika Anda awam tentang R, silakan klik artikel ini.

Masih tentang Machine Learning, kali ini saya akan berbagi sebuah teknik regresi, yaitu Decision Tree (DT). Pada dasarnya DT bisa dilakukan untuk 2 hal, yaitu regresi dan klasifikasi. Namun kali ini kita bahas teknik regresinya.

Apa itu DT? Sesuai dengan penamaannya, maka ia adalah teknik pengambilan keputusan dengan analogi sebuah pohon memiliki banyak cabang/ akar. Di mana satu cabang akan bercabang lagi, kemudian bercabang lagi, dan seterusnya.

Dalam konteks regresi, maka decision tree adalah regresi yang bersifat non-linear dan non-kontinu (diskret).

Lebih mudahnya, dilihat melalui ilustrasi berikut:

Ilustrasi dataset decision tree
Ilustrasi dataset decision tree

Anggap kita memiliki dataset seperti gambar di atas. Kita memiliki 2 variabel independen (X1, X2) dan variabel dependen Y. Di dalam grafik ini kita lihat ada beberapa data yang diplot terhadap sumbu X1 dan X2.

Yang dilakukan DT adalah membagi data-data ke dalam beberapa kelompok secara bertahap. Pembagiannya dimulai dari keputusan pertama. Hasil dari keputusan pertama digunakan untuk mengambil keputusan kedua. Hasil dari keputusan pertama dan kedua, digunakan untuk mengambil keputusan ketiga. Begitu seterusnya.

Ilustrasinya sebagai berikut:

Keputusan pertama adalah memilih data yang nilai X1 lebih kecil dari 20.

Setelah itu langkah kedua, membagi data lagi sebagai berikut:


Keputusan kedua adalah memilih data yang nilai X2 lebih kecil dari 170.

Langkah selanjutnya kita bagi lagi:


Keputusan ketiga adalah membagi data yang masuk ke dalam kriteria keputusan pertama dengan kriteria nilai X2 lebih kecil dari 200.

Pembagian keempat adalah sebagai berikut:

Keputusan keempat adalah membagi data yang masuk ke dalam kriteria keputusan kedua dengan kriteria nilai X1 lebih kecil dari 40.

Setelah membagi-bagi data ke dalam beberapa kelompok, kita sekarang sudah mendapatkan 4 grup (kelompok). Data points (titik-titik) dalam masing-masing kelompok memiliki nilai Y nya sendiri-sendiri. Sekarang anggap saja data Y dari masing-masing kelompok kita cari nilai rataannya, sehingga ilustrasinya seperti ini:


Hasil akhir decision tree.

Sekarang kita memiliki model decision tree kita.

Dengan demikian, jika kita ingin memprediksi nilai Y (regresi nilai Y), maka cukup dilihat titik variabel independen (X1 dan X2) masuk di kelompok mana. Mudah bukan.

Sekarang mari kita coba memecahkan permasalahan real.

Untuk melanjutkan membaca, silakan klik tombol di bawah ini.

Bagikan artikel ini:

Pages: 1 2 3

Leave a Reply

avatar
  Subscribe  
Notify of