Machine Learning: Decision Tree Regression

Machine Learning: Decision Tree Regression

Catatan penting : Jika Anda benar-benar awam tentang apa itu Python, silakan klik artikel saya ini. Jika Anda awam tentang R, silakan klik artikel ini.

Masih tentang Machine Learning, kali ini saya akan berbagi sebuah teknik regresi, yaitu Decision Tree (DT). Pada dasarnya DT bisa dilakukan untuk 2 hal, yaitu regresi dan klasifikasi. Namun kali ini kita bahas teknik regresinya.

Apa itu DT? Sesuai dengan penamaannya, maka ia adalah teknik pengambilan keputusan dengan analogi sebuah pohon memiliki banyak cabang/ akar. Di mana satu cabang akan bercabang lagi, kemudian bercabang lagi, dan seterusnya.

Dalam konteks regresi, maka decision tree adalah regresi yang bersifat non-linear dan non-kontinu (diskret).

Lebih mudahnya, dilihat melalui ilustrasi berikut:

Ilustrasi dataset decision tree
Ilustrasi dataset decision tree

Anggap kita memiliki dataset seperti gambar di atas. Kita memiliki 2 variabel independen (X1, X2) dan variabel dependen Y. Di dalam grafik ini kita lihat ada beberapa data yang diplot terhadap sumbu X1 dan X2.

Yang dilakukan DT adalah membagi data-data ke dalam beberapa kelompok secara bertahap. Pembagiannya dimulai dari keputusan pertama. Hasil dari keputusan pertama digunakan untuk mengambil keputusan kedua. Hasil dari keputusan pertama dan kedua, digunakan untuk mengambil keputusan ketiga. Begitu seterusnya.

Ilustrasinya sebagai berikut:

Keputusan pertama adalah memilih data yang nilai X1 lebih kecil dari 20.

Setelah itu langkah kedua, membagi data lagi sebagai berikut:


Keputusan kedua adalah memilih data yang nilai X2 lebih kecil dari 170.

Langkah selanjutnya kita bagi lagi:


Keputusan ketiga adalah membagi data yang masuk ke dalam kriteria keputusan pertama dengan kriteria nilai X2 lebih kecil dari 200.

Pembagian keempat adalah sebagai berikut:

Keputusan keempat adalah membagi data yang masuk ke dalam kriteria keputusan kedua dengan kriteria nilai X1 lebih kecil dari 40.

Setelah membagi-bagi data ke dalam beberapa kelompok, kita sekarang sudah mendapatkan 5 grup (kelompok). Data points (titik-titik) dalam masing-masing kelompok memiliki nilai Y nya sendiri-sendiri. Sekarang anggap saja data Y dari masing-masing kelompok kita cari nilai rataannya, sehingga ilustrasinya seperti ini:


Hasil akhir decision tree.

Sekarang kita memiliki model decision tree kita.

Dengan demikian, jika kita ingin memprediksi nilai Y (regresi nilai Y), maka cukup dilihat titik variabel independen (X1 dan X2) masuk di kelompok mana. Mudah bukan.

Sekarang mari kita coba memecahkan permasalahan real.

Untuk melanjutkan membaca, silakan klik tombol di bawah ini.

Bagikan artikel ini:

Pages: 1 2 3

Subscribe
Notify of
guest
4 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
Rocky Gultom
Rocky Gultom
5 months ago

Halo Pak, jika melihat model DecisionTreeRegressor didalam source diatas, atribut mana yang menunjukan pengaturan jumlah keputusan(kelompok) yang akan digunakan? seperti konsep yang dijelaskan di slide pertama, Terima Kasih

Rocky Gultom
Rocky Gultom
Reply to  MB Herlambang
5 months ago

Terima kasih Pak atas jawaban nya, berarti dengan model DecisionTreeRegressor secara otomatis sudah menentukan sendiri jumlah kelompok keputusan yang disesuaikan dengan jumlah dan bobot dari variabel independen nya ?