2021
DOI: 10.20884/1.dr.2021.17.1.436
|View full text |Cite
|
Sign up to set email alerts
|

Perbandingan Metode LSTM dan GRU (RNN) untuk Klasifikasi Berita Palsu Berbahasa Indonesia

Abstract: Berita telah menjadi konsumsi masyarakat setiap harinya, namun tidak semua berita yang beredar merupakan berita yang valid kebenarannya. Berita palsu dapat menggiring opini publik, dan berisiko terhadap keselamatan bangsa. Oleh karena itu diperlukan klasifikasi berita palsu untuk dapat meredamkan berita palsu yang beredar pada masyarakat. Penelitian sebelumnya telah dilakukan klasifikasi berita palsu menggunakan model <em>Recurrent Neural Network</em> (RNN) yaitu <em>Long Short-Term Memories&… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
3
1

Citation Types

0
5
0
8

Year Published

2022
2022
2023
2023

Publication Types

Select...
6

Relationship

0
6

Authors

Journals

citations
Cited by 9 publications
(13 citation statements)
references
References 0 publications
0
5
0
8
Order By: Relevance
“…Although GRU is computationally simpler than LSTM, it is very successful in dealing with Vanishing Gradient problems because each recurrent unit can be adapted to capture relationships over multiple time scales adiptively [17] .…”
Section: Gate Recurent Unit (Gru)mentioning
confidence: 99%
“…Although GRU is computationally simpler than LSTM, it is very successful in dealing with Vanishing Gradient problems because each recurrent unit can be adapted to capture relationships over multiple time scales adiptively [17] .…”
Section: Gate Recurent Unit (Gru)mentioning
confidence: 99%
“…Hal ini sering terjadi pada data yang memiliki sequence yang besar sehingga RNN tidak dapat menangkap long term dependencies [19]. Permasalahan yang terdapat pada RNN ini dapat menyebabkan akurasi dari prediksi menggunakan RNN berkurang [20]. Arsitektur LSTM tertuang dalam gambar dibawah ini.…”
Section: Gambar 2 Arsitektur Reccurent Neural Networkunclassified
“…Arsitektur LSTM tertuang dalam gambar dibawah ini. GRU juga sebuah pengembangan dari RNN, konsep komputasinya lebih sederhana daripada LSTM namun masih bisa menangani masalah vanishing gradient [20].…”
Section: Gambar 2 Arsitektur Reccurent Neural Networkunclassified
See 2 more Smart Citations