2022 2nd International Conference on Intelligent Cybernetics Technology &Amp; Applications (ICICyTA) 2022
DOI: 10.1109/icicyta57421.2022.10038230
|View full text |Cite
|
Sign up to set email alerts
|

BERT for Natural Language Processing in Bahasa Indonesia

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1

Citation Types

0
0
0
3

Year Published

2023
2023
2023
2023

Publication Types

Select...
2
1

Relationship

0
3

Authors

Journals

citations
Cited by 3 publications
(3 citation statements)
references
References 38 publications
0
0
0
3
Order By: Relevance
“…Pembelajaran yang dilakukan analisis sentimen akan memberikan polaritas teks yang dilatih menjadi positif, netral dan negatif [16]. Inovasi yang terjadi pada NLP tanpa terkecuali pada bagian sentimen analisis yaitu model pre-trained BERT [17]. Selain itu, BERT sangat kompetibel untuk melakukan labeling pada dataset [18], [19].…”
Section: Pendahuluanunclassified
See 2 more Smart Citations
“…Pembelajaran yang dilakukan analisis sentimen akan memberikan polaritas teks yang dilatih menjadi positif, netral dan negatif [16]. Inovasi yang terjadi pada NLP tanpa terkecuali pada bagian sentimen analisis yaitu model pre-trained BERT [17]. Selain itu, BERT sangat kompetibel untuk melakukan labeling pada dataset [18], [19].…”
Section: Pendahuluanunclassified
“…Bidirectional Encoder Representation from Transformers (BERT) merupakan bagian encoder-decoder transformer model [24], [25] yang telah dilatih untuk mengerti suatu bahasa dengan kumpulan data teks yang sangat besar atau yang sering disebut korpus [17]. Pre-train BERT menggunakan 2 tasks unsupervised yaitu Masked Language Modeling (MLM) dan Next Sentence Prediction (NSP) [26].…”
Section: Bert Dan Robertaunclassified
See 1 more Smart Citation