2019
DOI: 10.24002/jbi.v10i2.2441
|View full text |Cite
|
Sign up to set email alerts
|

Class Imbalanced Learning Menggunakan Algoritma Synthetic Minority Over-sampling Technique – Nominal (SMOTE-N) pada Dataset Tuberculosis Anak

Abstract: Class Imbalance Learning (CIL) merupakan proses pembelajaran untuk representasi data dan ekstraksi informasi dengan distribusi data yang buruk untuk mendukung pembuatan keputusan yang efektif dalam proses pengambilan keputusan. SMOTE-N adalah salah satu pendekatan data-level dalam CIL mengunakan metode over-sampling. SMOTE-N menghasilkan instance sintesis untuk menyeimbangkan jumlah instance pada kelas minoritasnya. Penelitian ini mengaplikasikan SMOTE-N pada dataset Tuberculosis Anak (TB Anak) yang memiliki k… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
5
0
5

Year Published

2021
2021
2024
2024

Publication Types

Select...
7
2

Relationship

0
9

Authors

Journals

citations
Cited by 12 publications
(10 citation statements)
references
References 0 publications
0
5
0
5
Order By: Relevance
“…This indicates that using SMOTE can increase the accuracy value of k-NN performance in classifying datasets based on negative and positive sentiments. [15] shows that SMOTE utilizes nearest neighbors and an adjustable Figure 5 shows that the AUC value of k-NN using SMOTE obtained a better accuracy value compared to not using SMOTE. [16] argues that data imbalances can occur when the objects of one data class are more numerous in quantity compared to other courses.…”
Section: Resultsmentioning
confidence: 99%
“…This indicates that using SMOTE can increase the accuracy value of k-NN performance in classifying datasets based on negative and positive sentiments. [15] shows that SMOTE utilizes nearest neighbors and an adjustable Figure 5 shows that the AUC value of k-NN using SMOTE obtained a better accuracy value compared to not using SMOTE. [16] argues that data imbalances can occur when the objects of one data class are more numerous in quantity compared to other courses.…”
Section: Resultsmentioning
confidence: 99%
“…Barro et al berpendapat bahwa ketidakseimbangan data akan terjadi apabila jumlah objek di suatu kelas data memiliki kuantitas yang lebih tinggi dibandingkan dengan kelas lain, dimana kelas data yang objeknya lebih banyak disebut kelas mayor sedangkan yang lain disebut minor [20]. Disisi lain, Kurniawati menekankan bahwa pengolahan algoritma yang tidak mempertimbangkan ketidakseimbangan data cenderung menitikberatkan kelas mayor dan bukan kelas minor, oleh sebab itu diperlukan teknik SMOTE yang menggunakan metode oversampling untuk memperbanyak pengamatan secara acak dengan menambah jumlah data kelas minor (data buatan) agar setara dengan kelas mayor [21]. Adapun, data buatan atau sintesis tersebut dibuat berdasarkan k-tetangga terdekat (k-Nearest Neighbor).…”
Section: Synthetic Minority Oversampling Technique (Smote)unclassified
“…SMOTE menghasilkan contoh sintetis dari kelas minoritas yang dioperasikan di dalam ruang fitur daripada di dalam ruang data [3]. Teknik ini menambahkan contoh dari kelas minoritas dengan cara mengekstrak sampel data minoritas yang ada dengan menggunakan sampel acak yang diambil dari nilai k tetangga terdekat [17]. Dengan demikian, SMOTE menghasilkan contoh sintetis baru yang dapat memperluas area keputusan dari kelas minoritas.…”
Section: Gambar 1 Skema Penelitianunclassified