2021 International Seminar on Application for Technology of Information and Communication (iSemantic) 2021
DOI: 10.1109/isemantic52711.2021.9573249
|View full text |Cite
|
Sign up to set email alerts
|

Evaluation of Feature Selection Using Wrapper For Numeric Dataset With Random Forest Algorithm

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
1
0

Year Published

2022
2022
2024
2024

Publication Types

Select...
4
4
1

Relationship

1
8

Authors

Journals

citations
Cited by 14 publications
(4 citation statements)
references
References 12 publications
0
1
0
Order By: Relevance
“…C. Feature Engineering 1) Feature Selection: Feature selection is a foundational step wherein a diverse range of methods, including filter, wrapper, embedded, or hybrid approaches [8], are employed to discern the importance of different features. By visualizing the outcomes of these techniques, insights can be gleaned into their efficacy and their impact on model performance.…”
Section: ) Sdv Approachmentioning
confidence: 99%
“…C. Feature Engineering 1) Feature Selection: Feature selection is a foundational step wherein a diverse range of methods, including filter, wrapper, embedded, or hybrid approaches [8], are employed to discern the importance of different features. By visualizing the outcomes of these techniques, insights can be gleaned into their efficacy and their impact on model performance.…”
Section: ) Sdv Approachmentioning
confidence: 99%
“…Pre-processing yang dilakukan adalah konversi data dari beberapa atribut [19], [20]. Konversi data yang dilakukan adalah mengubah data dari bentuk teks ke bentuk angka [21]. Pada dataset yang digunakan, atribut dengan data teks adalah gender dan smoking_history.…”
Section: Gambar 2 Perbandingan Labelunclassified
“…Metode ensemble learning bertujuan untuk meningkatkan kinerja suatu algoritma klasifikasi dengan menggabungkan beberapa classifier sebagai classifier baru dari suatu data kemudian menggabungkan beberapa prediksi untuk dipilih sebagai prediksi akhir, yang mana hasilnya akan lebih baik dari classifier awal, dimana dalam metode ini terdiri dari boostrap aggregating (bagging), boosting dan stacking (Fernández et al, 2018). Salah satu contoh dari pendekatan bagging adalah algoritma random forest yang terdiri dari beberapa phon keputusan (Nugroho et al, 2021). Boostraped dataset diambil dari dataset yang diambil secara acak yang kemudian setiap boostraped-nya diproses dengan masing-masing satu decision tree.…”
Section: Klasifikasi Dengan Metode Ensemble Learningunclassified