Bahasa Python
# Mengimpor library yang diperlukan
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Conv2D, MaxPooling2D, Flatten, Dense
# Inisialisasi CNN
MesinKlasifikasi = Sequential()
# Langkah 1 - Convolution
MesinKlasifikasi.add(Conv2D(filters = 32, kernel_size=(3, 3), input_shape = (128, 128, 3), activation = 'relu'))
# Langkah 2 - Pooling
MesinKlasifikasi.add(MaxPooling2D(pool_size = (2, 2)))
# Menambah convolutional layer
MesinKlasifikasi.add(Conv2D(32, (3, 3), activation = 'relu'))
MesinKlasifikasi.add(MaxPooling2D(pool_size = (2, 2)))
# Langkah 3 - Flattening
MesinKlasifikasi.add(Flatten())
# Langkah 4 - Full connection
MesinKlasifikasi.add(Dense(units = 128, activation = 'relu'))
MesinKlasifikasi.add(Dense(units = 1, activation = 'sigmoid'))
# Menjalankan CNN
MesinKlasifikasi.compile(optimizer = 'adam', loss = 'binary_crossentropy', metrics = ['accuracy'])
# Menjalankan CNN ke training dan test set
from tensorflow.keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale = 1./255,
shear_range = 0.2,
zoom_range = 0.2,
horizontal_flip = True)
test_datagen = ImageDataGenerator(rescale = 1./255)
training_set = train_datagen.flow_from_directory('dataset/training_set',
target_size = (128, 128),
batch_size = 32,
class_mode = 'binary')
test_set = test_datagen.flow_from_directory('dataset/test_set',
target_size = (128, 128),
batch_size = 32,
class_mode = 'binary')
MesinKlasifikasi.fit_generator(training_set,
steps_per_epoch = 8000/32,
epochs = 50,
validation_data = test_set,
validation_steps = 2000/32)
Penjelasan:
- Line 2-6 mengimpor semua library yang diperlukan.
- Sublibrary Sequential digunakan untuk memulai neural networks kita. Hal ini sama seperti kita membuat ANN (artificial neural networks) di pembahasan sebelumnya.
- Sublibrary Convolution2D digunakan untuk memulai CNN di tahap pertama yaitu proses convolution. Karena kita mengolah data berupa gambar maka kita gunakan library convolution khusus untuk 2 dimensi yaitu Convolution2D. Jika kita mengolah data video ganti menjadi Convolution3D. Untuk mengerti apa itu convolution, pembaca bisa membaca kembali teori CNN di artikel saya sebelumnya.
- Sublibrary MaxPooling2D digunakan setelah proses convolution, yaitu dengan mengambil nilai maximumnya (disebut dengan maxpooling). Karena kita mengolah gambar, maka kita gunakan maxpooling untuk 2 dimensi. Untuk mengerti apa itu maxpooling, silakan membaca teori CNN di artikel saya sebelumnya.
- Sublibrary Flatten digunakan untuk proses flattening yang dilakukan setelah proses maxpooling. Untuk mengerti apa itu flattening, silakan membaca teori CNN di artikel saya sebelumnya.
- Sublibrary Dense digunakan untuk mendefinisikan parameter neural networks kita.
- Line 6 kita definisikan objek bernama MesinKlasifikasi yang merupakan objek untuk melakukan proses klasifikasi. Kita gunakan fungsi Sequential untuk memulai inisialisasi.
- Line 9 kita mulai melakukan convolution. Kita mulai dengan menggunakan method add (sama seperti di pembahasan ANN). Setelah itu di dalam tanda kurung add diikuti dengan Convolution2D. Untuk bisa mengetahui parameter apa saja yang diperlukan oleh perintah Convolution2D, arahkan kursor pada namanya kemudian ketik di keyboard CTRL+i. Tampilannya tampak sebagai berikut:

Kita isikan parameter filter=32. Artinya kita akan menggunakan 32 feature detectors yang berukuran 3×3 (kernel_size=(3,3)).
Kemudian kita isi input_shape = (128, 128, 3). Artinya kita ingin semua ukuran gambar yang masuk ke dalam input layer berukuran 128×128 pixels, dan berukuran 3 array. Mengapa 3 array? Karena gambarnya berwarna (lihat materi teori CNN). Jika gambarnya hitam putih maka kita pilih format 2 array.
Tips: Jika kita menggunakan GPU yang kuat (GPU Nvidia yang berharga mahal), maka pembaca bisa meningkatkan dimensi input_shape menjadi (256, 256, 3) misalnya, atau bahkan (512, 512, 3). Dengan demikian gambarnya akan beresolusi besar. Bagaimana jika gambar aslinya berukuran kecil? Jika gambar asalnya kecil, maka akan distretch menjadi besar. Semakin banyak pixel maka akan semakin banyak feature yang bisa ditangkap oleh CNN.
Kemudian kita isi parameter selanjutnya yaitu activation= ‘relu’. Mengapa kita pilih ReLu (rectifier linear unit)? Karena ini adalah fungsi yang umum dipakai untuk ANN dan CNN.
- Line 12 adalah perintah untuk melakukan proses maxpooling. Proses ini adalah tahapan untuk memperkecil ukuran feature maps dengan mencari nilai maksimumnya. Mari kita lihat tampilan parameternya dengan mengklik di keyboard CTRL+i.

Parameter yang kita perlukan adalah pool_size = (2,2). Kita juga menggunakan ukuran yang sama di tampilan gambaran yaitu 2×2 pixels. Dan itu saja parameter yang kita perlukan. Dengan demikian, sekarang analisisnya lebih cepat karena ukuran feature maps sudah mengecil.
- Line 15 & 16 adalah proses untuk ‘mempertajam’ dan ‘meningkatkan’ performa CNN kita, kita tambahkan lagi layer dengan proses convolution dan pooling. Logikanya, hasil feature maps setelah proses maxpooling di line 12, kita buat feature mapsnya lagi, sehingga semakin detail hasil feature maps yang baru. Setelah itu kita lakukan lagi maxpooling untuk memperkecil lagi ukurannya. Dengan demikian feature yang ditangkap benar-benar ‘berisi’ dan compact.
- Line 19 adalah perintah untuk melakukan proses flattening. Seperti yang sudah dibahas di materi CNN sebelumnya, proses ini membuat semua matriks menjadi berukuran single vektor yang akan menjadi input bagi neural networks di depannya. Perintahnya sangat mudah, cukup tulis Flatten().
- Line 22-23 adalah proses ANN seperti bab sebelumnya.
- Line 22 adalah menambah hidden layer. Untuk melakukannya kita tuliskan perintah Dense yang kemudian diikuti dengan tanda kurung units=128. Units=128 artinya ada 128 neuron yang ada di layer ini. Angkanya bebas, silakan bereksperimen. Panduan umumnya adalah jangan terlalu besar (sesuaikan kemampuan hardware komputer), umumnya antara 64-256 untuk CNN (ini juga bukan patokan pasti). Lalu parameter selanjutnya adalah activation=’relu’.
- Line 23 adalah mendefisinikan output layer. Karena hanya ada 2 pilihan (cat/dog, di mana cat=1, dog=0), maka cukup 1 neuron saja (units=1). Karena binary maka activation function yang digunakan adalah sigmoid (baca pembahasan di teknik ANN sebelumnya).
- Line 26 adalah perintah untuk menjalankan arsitektur ANN kita. Sama seperti pembahasan sebelumnya di materi ANN, perintah yang kita perlukan adalah compile. Parameter yang diperlukan adalah optimizer=’adam’, kemudian loss_function= binary_crossentropy, dan metrics=[‘accuracy’]. Perlu diingat karena metrics adalah sebuah list, maka penulisan accuracy harus diapit oleh 2 kurung kotak (squared brackets).
- Line 29 mengimpor sublibrary ImageDataGenerator untuk melakukan image augmentation process. Proses ini digunakan untuk mengurangi overfitting. Jika terjadi overfitting maka performa training set cenderung lebih baik daripada test set.
Mengapa proses ini penting? Jadi ketika CNN kita bisa menangkap pola (feature) di training set, terkadang ia gagal untuk menggeneralisir pola ini untuk observasi lainnya (test set). Mengapa gagal menerapkan pola yang sudah dipelajari di training set? Itu dikarenakan overfitting.
Ada teknik yang direkomendasikan di manual Keras untuk menghindari overfitting yaitu dengan data augmentation (diartikan sebagai memperbanyak data). Untuk mendapatkan pembelajaran yang baik tentunya harus menggunakan data yang banyak. Data yang kita miliki adalah 10000 gambar. Sebenarnya 10rb gambar masih terlalu sedikit, karena untuk komersialisasi produk berbasis CNN biasanya datasetnya berukuran sampai ratusan bahkan puluhan ribu gambar.
Untuk bisa memperbanyak gambar (padahal gambar yang dimiliki sedikit) maka kita gunakan gambar yang ada, kita perbanyak, namun posisinya yang dirubah. Misal gambarnya dimiringkan, diputar, dimirroring, dan seterusnya. Dengan demikian, gambar kita tetap menjadi banyak dan CNN juga tidak mengenali bahwa gambar yang baru itu adalah gambar yang sebenarnya sama. Dengan gambar yang banyak, maka tingkat akurasi bisa ditingkatkan, tanpa mengalami kendala overfitting.
Informasi yang diperlukan untuk bisa melakukan proses data augmentation bisa dilihat di dokumentasi Keras. Silakan lihat di link ini.
Tampilan semua tahapannya dari dokumentasi Keras adalah sebagai berikut:

- Line 31 adalah perintah untuk membuat objek dengan nama train_datagen. Objek train_datagen ini digunakan untuk melatih training set kita (semua gambar di folder training_set). Semua parameter yang kita gunakan persis seperti yang ada di dokumentasi Keras.
Penjelasan parameternya adah sebagai berikut:
Pertama kita hunakan parameter rescale. Di penjelasan sebelumnya (teori CNN) kita sudah mengetahui bahwa nilai pixel adalah antara 1-256 (atau 0-255 dalam python). Dengan konversi menggunakan perintah rescale, datanya menjadi 0-1.
Parameter kedua adalah shear_range untuk mengapkikasikan pergeseran sudur sebesar 0.2. Kita ikuti saja nilai parameter ini sesuai di dokumentasi Keras yaitu 0.2.
Parameter ketiga adalah zoom_range. Merupakan jarak (rentang) zoom yang kita inginkan. Ikuti saja di parameter sesuai di dokumentasi Keras yaitu 0.2.
Parameter terakhir adalah horizontal_flip. Adalah parameter untuk memutar gambar secara horizontal. Dengan demikian, gambar baru hasil augmentation akan berbeda dengan gambar asal karena dibalik (diputar) secara horisontal. Kita set nilainya sebagai True.
- Line 36 kita buat objek dengan nama test_datagen. Objek test_datagen ini digunakan untuk menguji test_set kita (semua gambar di folder test_set). Parameter yang diperlukan (sesuai dengan dokumentasi Keras) hanyalah rescale saja.
- Line 38 mendefinisikan objek training set kita dengan nama training_set. Semua parameter dan perintah yang digunakan sama dengan yang ada di dokumentasi Keras. Yang perlu dirubah hanya direktori folder tempat kita menyiapkan gambarnya saja. Perlu diperhatikan juga bahwa target_size (ukuran gambar) harus sama dengan yang kita definisikan di line 12 yaitu 128×128. Batch_size kita pilih 32, artinya untuk 8000 gambar di training set, akan dibagi menjadi beberapa ukuran dengan isinya masing-masing 32 gambar (ada 8000/32 batch). Kemudian class_mode kita biarkan ‘binary’ karena output layernya hanya binary (0=cat, dan 1=dog).
Setelah kita jalankan maka di bagian console spyder akan mencantumkan tulisan “Found 8000 images belonging to 2 classes.” Artinya kita sudah berhasil mendeteksi direktori training set.
- Line 43 sama dengan line 38, hanya saja kita buat objek test set ktia dengan nama test_set. Direktori foldernya juga kita sesuaikan untuk test set yang kita miliki.
Setelah kita jalankan maka di bagian console spyder akan mencantumkan tulisan “Found 2000 images belonging to 2 classes.” Artinya kita sudah berhasil mendeteksi direktori training set.
- Line 48 adalah langkah terakhir untuk mengaplikasikan CNN kita. Di langkah ini kita mengaplikasikan model kita (MesinKlasifikasi) ke training_set, kemudian memvalidasi hasilnya ke test_set. Semua parameternya bisa dilihat di dokumentasi Keras. Parameter steps_per_epoch diisi dengan jumlah gambar di training_set (8000) dibagi dengan banyaknya file per epoch (32 file), sehingga diisi 8000/32. Kemudian parameter validation_steps diisi dengan jumlah file test_set (2000) dibagi ukuran file per epoch (32) sehingga ditulis (2000/32). Parameter epochs diisi sesuai keinginan kita. Semakin banyak maka akurasi bisa semakin baik, tapi jika sudah converge akurasinya tidak akan naik lagi. Kali ini kita coba nilai 50.
Jika di jalankan, maka tampilannya di syder tampak sebagai berikut:

Bisa dilihat bahwa kita memiliki 50 epoch. Penjelasan untuk setiap nilai di tiap epoch adalah sebagai berikut:
- Loss menyatakan nilai loss function di training set. Kita menginginkan nilai ini semakin kecil untuk iterasi epoch selanjutnya.
- Acc menyatakan nilai akurasi di training set. Kita ingin agar nilai ini semakin besar untuk iterasi selanjutnya.
- Val_loss adalah nilai loss function di test set. Kita ingin agar nilai ini semakin kecil untuk iterasi selanjutnya.
- Val_acc adalah nilai akurasi di test set. Kita ingin agar nilai ini semakin kecil untuk iterasi selanjutnya.
Kita tunggu beberapa menit sampai mencapai iterasi epoch ke 50. Tampilannya akan menjadi seperti ini (nilainya bisa berbeda untuk komputer lain).

Kita bisa melihat bahwa nilai loss di training set menjadi sangat kecil yaitu 0.0652. Walaupun nilainya sudah 0, namun dari iterasi epoch di atasnya nilai ini masih bisa terus turun (jadi bisa ditambah lagi jumlah epoch-nya).
Kemudian nilai akurasinya sudah sangat tinggi yaitu 97%. Nilai ini juga masih bisa ditingkatkan lagi dengan menambah epoch nya.
Val_loss menunjukkan angka yang juga sangat kecil yaitu 1.03.
Nilai val_acc juga sangat baik yaitu 80.4%. Nilai ini menunjukkan bahwa model CNN kita (MesinKlasifikasi) mampu membedakan gambar cats dan dogs di test_set.
Perlu diperhatikan bahwa jarak antara acc dengan val_acc sebenarnya masih bisa ditingkatkan. Jika jaraknya masih jauh, ada kecenderungan terjadi overfitting. Tentu saja hal ini kita hindari. Ada beberapa pilihan untuk menghindari overfitting selain image augmentation, yaitu:
- Menambah lagi convolution layer dan max pooling. Kita sudah memiliki 2 convolution layer, di mana setiap layer ini diikuti dengan max pooling. Kita bisa mengurangi jarak antara val_acc dengan acc dengan menambah layer ini.
- Pilihan kedua adalah menambah fully connected layer yaitu dengan perintah dense (langkah 4, line 24). Dengan demikian kita memiliki berlapi-lapis fully connected layer.
Tentunya pembaca dipersilakan untuk mencoba dan bereksperimen sendiri, dan harus disesuaikan dengan kemampuan CPU maupun GPU.
Untuk melanjutkan membaca silakan klik tombol lanjut ke halaman di bawah ini.

Padat dan jelas, sungguh mencerahkan sekali, terimakasih pak. Website ini merupakan website yang berisi penjelasan mengenai AI, ML, DL dalam bahasa indonesia yang paling mudah dicerna dan dipahami. Jadi semangat melanjutkan belajarnya, hehe.
Terima kasih komentarnya. Senang jika bermanfaat ?
Saya sepakat Mas Raihan.
Beberapa website sy buka untuk memahapi konsep mesin learning.. Tapi website yang bisa memberi saya pemahaman lebih baik, khususnya terkait istilah-istilah dalam ML dan DL..
Terimakasih Mas MB Herlambang atas sharing ilmu nya. Semoga berkah
selamat siang, website ini sangat membantu saya memahami ANN dan saya ingin mencoba melanjutkanya ke CNN namun ada yang saya binung tuk proses import image nya bagaimana caranya ya dan apakah ada github nya? terimakasihh
Halo, senang jika bermanfaat.
Di tutorial ini untuk import image kita gunakan folder, jadi gambar-gambar dimasukkan ke dalam 2 folder yang berbeda (bisa dilihat di halaman pertama).
Untuk github sementara tidak saya publish ke umum karena untuk keperluan riset yang codingnya bersifat private.
pertanyaan saya bgaiamankah cara cnn nya melakukan test pada halaman ke 3 tanpa menggunakan weight atau model yg telah di training? apakah pada code result = MesinKlasifikasi.predict(test_image) weoght atau model yang digunakan tadi sudah tersimpan? atau pada halam ke 3 ini menjadi 1 dengan training code? terimakasih
Di halaman 3 kita mencoba untuk menguji kembali model yang sudah kita buat di halaman 2. Jadi ketika kita panggil MesinKlasifikasi otomatis modelnya sudah menyimpan pembelajaran sebelumnya.
Jika ingin melatih – simpan – latih – simpan terus menerus bisa gunakan fitur ‘model.save’ di model Keras kita (ini belum sempat saya bahas, karena di tutorial ini masih bersifat dasar sekali).
Silakan merujuk ke link ini untuk dipelajari: https://keras.io/getting-started/faq/#how-can-i-save-a-keras-model
Semoga menjawab ya
selamat malam ,terimakasih telah menjawab pertanyaan saya sebelumnya saya ada pertanyaan pada halan 2 terdapat hasil training dengan val_los >1.0 dan dan training loss 1.0 dikatakan overfitt? terimakasih
Halo, saya jawab pertanyaannya ya. Jadi overfitting terjadi jika model kita mampu mempelajari pola yang ada di training set. Walau demikian, ia terlalu baik mempelajari polanya, sehingga kemampuan prediksi saat di test set tidak sebaik jika dibandingkan dengan training set. Sementara underfitting terjadi jika model kita tidak bisa mempelajari pola yang ada di training set, sehingga sudah jelas ketika diuji di test set ia tidak bisa melakukan tugasnya dengan baik. Model yang ideal adalah tidak overfitting dan tidak underfitting. Cara melihatnya adalah dengan membuat grafik parameter hasil pengujian, seperti loss vs val_loss, atau acc vs val_acc. Yang sering dihadapi di… Read more »
terimakasihh , mohon maaf pertanyaan saya ambigu maksd saya bukankah val los >1.0 dan loss < 1.0 merupakan overfit, dengan jawaban yg sudah di berikan dapat saya terima terimakasih sekali lagi
Untuk arsitektur CNN seperti ini jika diimplementasikan 10 Cross Fold Validation caranya gimana ya pak?
Untuk Cross Validation dan implementasinya (machine learning maupun deep learning) di materi-materi selanjutnya akan saya bahas.
Ini masih fokus membuat konten pembelajaran di Youtube.
Assalamuallaikum warahmatulahi wabarokatuh, selamat siang, saya mau bertanya, terkait dataset, ketika mencoba membuat dataset untuk klasifikasi lebih dari 2 Class misal kucing, anjing, kambing, atau bahkan banyak class, bagaimana cara mengatur labeling dan foldernya ?
terimakasih
Wa’alaikumsalam. Jika lebih dari 2 class maka ada beberapa hal yang harus dilakukan:
1. Ganti activation function di langkah 4 (line 23) dari ‘sigmoid’ menjadi ‘softmax’.
2. Saat mendefinisikan training_set (line 38) dan test set (line 43) ganti class mode dari ‘binary’ menjadi ‘categorical’.
3. Tambahkan perintah labels=[0,1,2] <-- jika 3 class, sesuaikan dengan jumlah kategorinya 4. Di folder training set dan test set sesuaikan saja fodlernya dengan nama classnya. Kalau ada 3 class ya masing-masing folder memiliki nama classnya, misal kucing, anjing, jerapah. Kapan-kapan akan saya bahas di artikel untuk klasifikasi lebih dari 2 classes kalau sudah tidak sibuk dengan disertasi. Semoga menjawab.
asalamualaikum pak, kalau softmax untuk identifikasi 2 kelas boleh gak pak? saya pakai sigmoid tidak bisa melakukan proses classification pak karena error mulu
Assalamu’alaikum, Pak saya ingin bertanya, kalau kita misalnya ingin membuat aplikasi face recognition dengan CNN yg terdiri dari 20 class (20 orang berbeda) lalu ketika kita ingin prediksi nya dengan webcam, Bagaimana cara kita membuat / mendefinisikan bahwa orang yang tidak termasuk kedalam 20 class atau tidak ada di dalam dataset tersebut di prediksi sebagai “UNKNOWN”? dan berapa jumlah neuron yg seharusnya kita masukkan di Dense terakhir pada output layer pak?, Terima Kasih.
Waálaikumsalam. Ini penjelasannya panjang ini.
Ada banyak cara untuk mencapai ini, bisa pakai Tensorflow (Keras) pakai activation function softmax, pakai OpenCV juga bisa, pakai Theano juga bisa.
Jawabannya mirip dengan jawaban pertanyaan sebelumnya di materi ini.
Kapan-kapan saya bahas detailnya di website ini aplikasi dan codingnya, ini masih fokus ke disertasi saya di kampus.
Harap bersabar ?
Jd Pak, Kalau misalnya mau buat face recognition, jenis data yg dimasukkan di input_shape itu lebih cocok yg rgb (3 channel) atau grayscale (1 channel)? mohon pencerahannya, terima kasih pak
Pakai 3 channel biasanya.
Semoga menjawab.
Pak saya ingin bertanya, kalo misalanya ingin buat face recognition 30 kelas dengan data keseluruhan 50 rb data (train dan validasi) serta data tersebut hasil augmentasi, apakah data dgn jumlah segitu sudah cukup mas? mohon penjelasannya pak terima kasih
Dicoba saja, kalau hasilnya baik berarti cukup datanya.
Aturannya semakin banyak data semakin baik.
Kalau data sudah mentok, maka kualitas data yang menentukan.
Baik pak, oiya pak kalau misalnya data sudah diaugmentasi secara manual, apakah perlu diaugmentasi kembali di dalam program ketika ingin training data, seperti pada halaman ini yaitu dgn ImageDataGenerator (rescale = 1./255, zoom_range = 0, 2, Horizontal_flip=True… dst) apakah ada pengaruhnya untuk data yg sudah diaugmentasi secara manua pak?
Silakan dicoba-coba sendiri untuk melihat efeknya, dengan begitu kita justru bisa belajar banyak.
Tidak ada batasan untuk berkreasi di dunia AI karena ilmunya masih terus berkembang.
Selamat berkreasi!
Oke baik, pak noted, oiya pak kalo misalnya training data tapi hasilnya kadang2 yg validation accuracy lebih tinggi dari pada training accuracy misal 98 % : 96 % atau kadang 99 % : 100 %, itu kenapa bisa begitu ya kira2pak? apakah itu tidak masalah? terima kasih pak
Masih bagus itu, tidak terlampau jauh.
Kecuali kalau satunya 90% satunya 60% baru bermasalah.
Assalamu’alaikum pak, saya ingin bertanya, gimana ya caranya untuk mengatasi validation loss yg naik turun dan beda jauh jaraknya sama training loss? padahal validation accuracy nya sudah cukup bagus dan mendekati training accuracy nya. uda byak eksperimen dilakukan tanpa dan dgn regularization seperti (dropout, L2) dan data augmentation serta sudah juga mencoba menambah atau mengurangi layer convolusi dan pooling, tapi validation loss nya tetep aja naik turun, jumlah data yg saya gunakan 50 ribu. Tampilan grafiknya seperti dibawah ini
Waálaikumsalam. Saya tidak tahu data apa yang diolah.
Coba dipahami datanya, karakteristik data, matrix apa yang dipakai di balik layar (misal kalau gambar adalah pixel, kalau data genetik adalah sequence rantai protein, dll).
Setelah memahami data, telaah apa yang bisa membuat sebuah proses training berhasil untuk data tersebut, baru lanjutkan dengan teknik yang pas dengan datanya.
Banyak tutorial di luar menjelaskan tools (teknik-teknik2) yang hanya pas untuk tipe data dan kasus tertentu, tapi tidak berlaku umum.
Kaidah umumnya, tools mengikuti tipe data, dan bukan tools yang dipaksakan untuk semua jenis data
Semoga menjawab.
data saya data image pak, saya sedang membuat face recognition dgn jumlah class 30, dan dgn split data, train (75 %) = per class 1200 data, val (25 %) = perclass 400 data, uda dicoba manual/offline augmentasi juga pak dgn jumlah data jdi 96 rb, tapi val loss nya msh ga stabil (naik turun) padahal val accuracy ny sudah cukup bagus. Model saya seperti pada gambar dgn 3 hidden layer setelah flatten ().
Assalamu’alaikum, Terimakasih penjelasannya. Saya ingin bertanya, apakah CNN dapat diaplikasikan untuk melakukan prediksi data spasial / data grid?
Misalkan saya memiliki series data curah hujan pengamatan dalam bentuk grid, suhu dan kelembapan udara dalam bentuk grid [X,Y,Z(curah hujan, suhu, kelembapan) dan T(waktu)]. Kemudian saya ingin memprediksi curah hujan tersebut menggunakan data suhu dan kelembapan sebagai prediktor. Apakah ini bisa dilakukan dengan CNN?
Wa’alaikumsalam,
CNN umumnya digunakan untuk klasifikasi.
Solusi dari pertanyaan ini adalah menggunakan pendekatan regresi. Bisa dicoba menggunakan multiple regression baik metode linear maupun non-linear.
Semoga menjawab.
Terimakasih pak atas responnya.
Selain menggunakan pendekatan regresi, apakah pendekatan RNN juga dapat diaplikasikan pada kasus prediksi seperti di atas?
RNN juga bisa digunakan.
Terima kasih utk penjelasan mengenai deep learning. Saya mau bertanya di bagian ‘dataset/training_set’ apakah folder dataset tsb harus 1 folder dgn aplikasi deeplearning yg dibuat?
Iya harus 1 folder.
trimakasihbanyak penjelasanya mencerahkan bangut bagi kami para pemula.
Apakah ada email atau apapun yang bisa saya hubungi untuk diskusi?
Apakah jika val_loss naik berarti model tidak baik? bagaimana menurunkan val_loss?
val_loss adalah nilai cost fuction dari test set. Naik bisa jadi pertanda overfitting, tapi bukan berarti tidak baik, tergantung jenis data, algoritma, dll.
Solusinya sudah dibahas di artikel ini termasuk di bagian komentar.
assalamualaikum mohon pencerahanya saya ada tugas akhir perkuliyahan tentang menghitung kerumunan orang menggunakan CNN minta tolong saranya pak saya kebingungan bagaimana cara saya menghitungnya sedangkan setau saya CNN cuma buat klasifikasi untuk deteksi objek saja.. mohon pencerahanya dan trimakasih banyak.
Wlkmslm, deteksi saja jumlah orang, kemudian dihitung ada berapa total orangnya, simpel 👍
trimakasih banyak saranya pak akan tetapi saya masih bingung untuk memisahkan background dengan objek orangnya bagaimana pak? misal dalam sebuah pusat perbelanjaan, kan banyak objek bukan hanya orang terus untuk memisahkan objek-objek tersebut bagaimana pak? saya masih belum faham mohon sangat pencerahanya.
terimakasih banyak
Kalau untuk deteksi suara seperti membedakan suara alat musik, apakah hampir mirip-mirip ya untuk code nya ? Apakah cuman berbeda di data set nya saja ? Terimakasih
Saya belum pernah mengolah data musik. Sepertinya harus ada preprocessing raw datanya terlebih dahulu merubah suara menjadi data numerik, dan training setnya harus sudah ada labelnya. Selebihnya menggunakan ANN seperti biasa.
Pak mau tanya bagian yang terakhir ini semisal kita cma gambar untuk test nya cma 3 apa bisa?
Untuk test bisa2 saja tidak masalah, karena dia tugasnya hanya menguji (testing). Yang penting modelnya sudah jadi dengan baik (perlu banyak data training set).
Apa menambahkan epoch tanpa memperbaiki arsitektur cnn dapat menghindarkan terjadinya overfitting?
Kemudian training itu dikatakanan optimal
apabila ?
Menambah epoch terlalu banyak justru bisa overfitting.
Untuk melihat optimal atau tidak, buat plot perbandingan acc dan loss untuk training set dengan valdation set (atau test set).
Permisi pak izin bertanya..
Menurut bapak, rasio yang baik utk pemabagian dataset yang terbilang sedikit hanya sekitar 300 citra seperti apa ya pak?
Saya membagi dataset sebanyak 80% yaitu (training dan validasi) masing-masing adalah 210 citra dan 30 citra (akan sy gunakan utk proses training/pembuatan model classifier)
kemudian 20% untuk testing (60 citra) diuji melalui GUI mobile (andorid)
apakah rasio diatas cukup baik pak? atau sebaiknya sy mengurangi jumlah data testing, dan menambahkannya menjadi data (training/validasi) agar hasilnya semakin baik?
Mohon jawaban masukkannya pak. Terimakasih..
Tidak ada aturan baku apakah 80:20, 70:30 bahkan 60:40.
Intinya semakin banyak data untuk training, maka semakin bagus.
Kalau kepepet karena datanya sedikit, banyakin ke trainingnya saja.
Oh bgitu ya pak.. 1 lagi pak mohon pencerahannya.. Kasus yang sedang sy alami adalah dataset yang sangat sedikit. yaitu citra daun cabai yang terserang hama Saya melakukan proses pengambilan data (pemotretan langsung) dgn beberapa parameter (jarak antara objek dan kamera, intesitas cahaya dll) Namun, berhubung objek yang sy kumpulkan sangat sedikit, sy melakukan augmentasi secara manual pada saat pemotretan seperti merotasi objek daun tsb atau mengacak sudut pemotretan yg sy lakukan.. misalnya sy memiliki 15 citra daun per kelas, setiap daun sy lakukan 10 kali parubahan sudut saat pemotretan. dan total data yg saya dapat kan 150 citra per… Read more »
Iya ini tidak apa-apa, malah menurut saya normal-normal saja.
Ilustrasi lain adalah ketika mentraining objek jeruk, maka kita foto jeruk dari berbagai sudut.
Jadi lanjutkan saja 👍
bintang 5 artikelnya
Permisi Pak,link datasetnya tidak bisa di akses pak mohon solusinya
Sudah diperbaiki linknya.
Sekarang bisa diakses kembali.
Luar biasa pak. sungguh bermanfaat bagi saya yg baru memulai :).
kenapa setelah saya coba running, terdapat eror di line 38 ya pak?