Miskonsepsi Umum tentang Konsep Dasar Deep Learning di Indonesia
Ketika membicarakan tentang konsep dasar Deep Learning maupun Machine Learning, saya banyak menemui adanya kesalah-pahaman di kalangan peneliti dan akademisi di Indonesia. Dan yang mengherankan adalah bagaimana pemahaman orang-orang di satu negara ini sama. Mungkin yang saya sebutkan ini terlalu ekstrim dan tidak berlaku untuk semua orang. Namun, dari sekian banyak kalangan peneliti/akademisi Indonesia yang saya tau dan temui, khususnya mahasiswa pascasarjana — yang seharusnya paham tentang konsep ini dengan sepenuhnya — ternyata kebanyakan salah dalam memahami (miskonsepsi). Mungkin tidak 100% salah, tetapi bisa dikatakan bahwa pemahaman mereka terlalu bertele-tele, kurang efektif, atau menggunakan analogi yang kurang tepat, yang akhirnya berujung pada salah menyimpulkan.
Pada awalnya saat mendalami ranah ini, saya tidak sadar betapa begitu banyaknya miskonsepsi. Namun, setelah saya berkecimpung di bidang ini selama hampir empat tahun dan menghabiskan waktu belajar, membaca banyak artikel bahasa Inggris dan paper dari sumbernya langsung, melakukan kolaborasi / mendapatkan mentorship dengan ahli dunia di bidang ini, saya mulai menyadari bahwa pemahaman kita terhadap Deep Learning, bahkan konsep dasarnya saja, kurang mendalam. Mungkin karena itu saya kesulitan menangkap penjelasan rekan mahasiswa pascasarjana ketika saya mulai belajar lebih dalam tentang Deep Learning di awal-awal pendidikan Master saya. Penjelasan yang saya dapatkan berbeda dengan apa yang saya baca langsung dari paper, dan hal tersebut sangat membingungkan.
Seperti apakah contoh miskonsepsi konsep dasar Deep Learning yang sering terjadi di Indonesia?
Banyak sekali, misal pada pemahaman tentang transfer learning, banyak yang menyebutkan dan memfokuskan bahwa ketika ingin mengimplementasikan teknik ini, maka kita “wajib” membekukan/freeze layer CNN (padahal tidak harus selalu begitu dan tergantung dengan tujuannya). Selain itu, banyak yang hanya berfokus pada cara implementasi transfer learning dalam bentuk source code, tanpa mengetahui tujuan dasarnya dan bagaimana transfer learning sebenarnya bekerja.
Contoh umum lain yang sering saya temui misalnya, tidak sedikit yang menyebutkan bahwa penerapan cross validation adalah untuk meningkatkan akurasi (entah akurasi apa yang mereka maksud). Kesimpulan tersebut salah besar, karena pada dasarnya, inti cross validation hanya untuk memastikan bahwa model yang kita bangun cukup robust— dalam artian bisa menggeneralisir data atau mengatasi distribusi data (sama sekali tidak untuk meningkatkan akurasi). Secara lebih sederhana lagi, tujuan dari cross-validation adalah untuk memastikan bahwa model kita tidak mengalami ketimpangan akurasi ketika dievaluasi dengan suatu sampel data dengan sampel yang lain (yang mungkin memuat variasi data yang beberda, misal data outlier, data dengan noise, atau intensitas yang berbeda). Namun, untuk kasus ini, saya sangat mengerti kesalahan apa yang bisa kita lakukan (dalam praktiknya) sehingga akhirnya menyimpulkan bahwa cross-validation digunakan untuk meningkatkan akurasi.
Salah satu contoh miskonsepsi yang lucu dan menarik lainnya adalah pemahaman dangkal kita tentang arsitektur-arsitektur CNN terkenal seperti ResNet dan DenseNet. Banyak yang mengatakan skip connection pada ResNet berfungsi untuk mempercepat training. Ini sangat lucu karena kita memahami skip connection di sini secara harfiah. Banyak yang mengira skip connection ini membuat ResNet melewati (skipping) beberapa layer konvolusinya, padahal bukan seperti itu konsepnya. Skip connection pada dasarnya merupakan koneksi tambahan di ResNet yang membuat model ini lebih kompleks, dan ini seharusnya malah membuat waktu training ResNet lebih lama, misalnya apabila membandingkan ResNet-50 dan VGG-16. Meskipun ResNet-50 memiliki parameter yang jauh lebih ringan dibadingkan dengan VGG-16 (~24 juta dan ~138 juta parameter), bagaimanapun ResNet-50 lebih dalam atau memiliki jumlah layer yang lebih banyak (50 layer) dan koneksi yang lebih kompleks (akibat tambahan skip connection tadi), dibanding dengan VGG-16 yang hanya 16 layer dan koneksinya direct dan forward.
Belum lagi, ada beberapa konsep krusial yang salah dipahami, khususnya terkait data, seperti bagaimana distribusi data bisa sangat berpengaruh dibandingkan dengan arsitektur (khususnya pada pengaplikasian Deep Learning untuk citra medis). Namun, selama ini di Indonesia, saya mendapati kesepakatan satu negara bahwa untuk menulis paper ilmiah dengan kualitas baik (misalnya agar bisa diterima di jurnal internasional bereputasi) adalah dengan memiliki novelty berupa “membangun arsitektur baru”. Saya pun pada awalnya percaya tentang konsep tersebut, sampai akhirnya saya membaca dan mengenal secara pribadi seorang Doktor asal Belanda (yang telah berbaik hati menjadi mentor saya — mengambil andil dan menawarkan solusi terkait rencana masa depan penelitian saya). Saya sangat terpukau bagaimana penelitian beliau tidak muluk-muluk soal membangun arsitektur dengan nama-nama baru random, tetapi sekedar membahas secara mendalam tentang data, seperti pentingnya pengaruh distribusi data, pemilihan sumber data untuk transfer learning, dan lain-lain. Namun, kualitas, kontiribusi, dan kebermanfaatan dari penelitian tersebut sangat bermutu.
Kemudian, ketika saya melakukan kunjungan riset selama 5 bulan di Korea Selatan (dan saat ini masih melanjutkan kolaborasi riset tersebut), saya selalu diingatkan oleh Profesor saya. Beliau berulang-ulang menyebutkan:
“Dalam penelitian Deep Learning, 80% itu adalah soal data, sisanya arsitektur, dan lain-lain.”
Setelah dipikir, untuk setingkat mahasiswa Doktor, sebenarnya cukup absurd, dan kategorinya sudah dewa sekali sih, kalau misalnya sudah sampai bisa membuat arsitektur baru seperti pre-trained CNNs yang terkenal itu. Ini sangat penting untuk diingatkan, bahwa fokus kita — yang hanya mahasiswa S3 ini — bukan di situ. Sebenarnya bisa saja dan bukan tidak mungkin seorang mahasiswa S3 mencapai itu, tetapi untuk melakukan hal tersebut, kita perlu sokongan dana, resource komputasi, dan resource tim/SDA yang sangat besar. Sementara, untuk kita yang tidak mendapatkan sokongan seperti itu, penting untuk mengambil langkah mundur, memahami dari awal, dan memproyeksikan pertanyaan riset kita, kira-kira kenapa kita mengadakan topik penelitian ini? Dan hanya karena kita tidak bisa membuat arsitektur baru, bukan berarti kontribusi dan investigasi kita secara mendalam akan sia-sia dan tidak berarti*.
*Nantinya, akan saya berikan beberapa contoh paper yang secara standar dan pemahaman Indonesia tampaknya kurang berkualitas, tetapi pertanyaan riset di dalamnya sebenarnya sangat penting dan bermanfaat.
Mengapa miskonsepsi ini sering terjadi di Indonesia?
Sebenarnya, miskonsepsi ini tidak hanya terjadi di Indonesia, juga terjadi di negara lain. Namun, terdapat beberapa faktor yang mungkin dapat menjelaskan mengapa miskonsepsi ini terbentuk di Indonesia.
Pertama, bidang Deep Learning dan Machine Learning masih tergolong baru di Indonesia. Bisa dikatakan bahwa kita masih kekurangan jumlah ahli. Dari yang saya ketahui, pola riset dari para ahli didang ini (bahkan di kampus-kampus ternama di Indonesia) masih mengarah ke banyak cabang dan kurang fokus. Misal, seorang ahli dapat melakukan penelitian tentang Deep Learning yang diterapkan untuk citra medis, kemudian tiba-tiba juga menerima mahasiswa bimbingan yang fokus risetnya ke arah Natural Language Processing (NLP), visi komputer untuk robotik, dan lain-lain. Bisa dibandingkan sendiri, bagaimana para profesor di luar negeri (khususnya di negara maju), memiliki arah riset yang sangat spesifik.
Saya paham bahwa kurangnya ahli ini juga menyebabkan mereka mengambil mahasiswa bimbingan dengan fokus riset yang berbeda-beda. Jika bukan mereka, siapa lagi? Namun, ada dampak negatif yang akan sangat menghambat kualitas penelitian dan kemampuan mahasiswa tersebut di dalam perjalanannya, apabila fokus riset mahasiswa tersebut secara spesifik bukan fokus riset pembimbingnya. Hal ini sempat beberapa kali saya alami sendiri.
Kedua, kurangnya referensi dalam bahasa Indonesia. Banyak artikel atau buku tentang Deep Learning yang diterjemahkan ke dalam bahasa Indonesia yang mungkin kurang mendalam atau tidak memadai, sehingga dapat membingungkan pembaca (peneliti). Sementara itu, referensi yang lebih akurat dan terbaru cenderung masih ditulis dalam bahasa Inggris.
Ketiga, pendidikan formal tentang Deep Learning dan Machine Learning di Indonesia juga masih terbatas. Meskipun beberapa universitas telah menyelenggarakan program studi dan pelatihan tentang Deep Learning dan Machine Learning, masih banyak mahasiswa atau profesional yang harus mempelajarinya secara mandiri atau melalui kursus online.
Keempat, tingkat kesadaran tentang pentingnya pemahaman yang benar tentang Deep Learning dan Machine Learning mungkin masih perlu ditingkatkan di Indonesia. Banyak orang mungkin hanya berfokus pada bagaimana menggunakan algoritma tersebut untuk menyelesaikan masalah tertentu, tanpa memahami secara mendalam bagaimana algoritma tersebut bekerja atau apa batasannya.
Kelima, kurangnya kolaborasi dan diskusi antara peneliti dan akademisi di Indonesia dengan peneliti di luar negeri yang telah lebih terlebih dahulu mendalami bidang ini. Hal ini dapat menyebabkan kurangnya eksposur terhadap terobosan dan perkembangan terbaru dalam bidang Deep Learning dan Machine Learning. Namun, lebih dari itu, pemahaman mendasar tentang konsep ini terlebih dahulu sangat penting dibandingkan dengan ingin membuat terobosan yang benar-benar baru.
Apa yang harus kita lakukan?
Sekali lagi, penting untuk dicatat bahwa miskonsepsi ini bukanlah hal yang spesifik hanya terjadi di Indonesia dan dapat terjadi di mana saja. Untuk mengatasi hal tersebut, sangat baik untuk terus memperbaiki pemahaman tentang konsep dasar Deep Learning dan Machine Learning. Hal ini dapat dilakukan dengan meningkatkan literasi teknologi melalui berbagai sumber, seperti buku, jurnal, artikel, dan video yang berkaitan dengan konsep-konsep tersebut. Untuk saat ini memang jarang sumber literasi dengan bahasa Indonesia yang valid, sehingga terpaksa bagi para peneliti untuk sedikit demi sedikit juga meningkatkan kemampuan bahasa Inggris mereka. Dan bagi mereka yang sudah benar-benar paham, ada baiknya untuk berbagi ilmu dengan menuliskan artikel dan lainnya di berbagai platform dan terus terbuka untuk ruang diskusi, pertanyaan, ataupun kritik.
Menurut saya, penting untuk mengakui ketidaktahuan kita tentang suatu konsep dan berani untuk mengatakan “tidak tahu” ketika kita tidak mengerti atau tidak memiliki jawaban yang tepat. Sekalipun sebagai ahli, tidak ada yang salah dengan tidak mengetahui segala hal. Yang penting adalah bagaimana kita terus berusaha untuk meningkatkan pengetahuan dan keterampilan kita serta berkontribusi dalam memperbaiki pemahaman masyarakat tentang Deep Learning dan Machine Learning.
Selain itu, para pembimbing dan pengajar juga dapat memfokuskan riset mereka pada bidang-bidang spesifik yang memang mereka ketahui dan sukai. Jika fokus mereka memang terhadap citra, maka tidak seharusnya mengusulkan penelitian tentang NLP, dan sebagainya. Hal ini dapat memperkuat kemampuan mereka sebagai ahli dan membantu mempermudah mahasiswa bimbingan yang ingin mendapatkan ilmu dari mereka. Dengan begitu, kita dapat membangun komunitas ahli Deep Learning yang kuat dan berkontribusi dalam pengembangan teknologi di Indonesia.