2022
DOI: 10.1016/j.array.2022.100157
|View full text |Cite
|
Sign up to set email alerts
|

Transformer-based deep learning models for the sentiment analysis of social media data

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
9
0
1

Year Published

2022
2022
2024
2024

Publication Types

Select...
5
3
2

Relationship

0
10

Authors

Journals

citations
Cited by 86 publications
(32 citation statements)
references
References 47 publications
0
9
0
1
Order By: Relevance
“…En esta investigación nos centramos únicamente en la comparación de dos modelos de Deep Learning, LSTM y Bi-LSTM, ya que nos interesa estudiar el comportamiento de las celdas LSTM y cómo éstas agregan información a largo plazo de una forma secuencial, por ello su popularidad. Sin embargo, hay otros modelos basados en RNNs como los Transformadores, Transformer Learner (TL) en inglés (Tabinda Kokab et al, 2022). Los TL conforman una extensión de las RNN, y pueden realizar muchos cómputos en paralelo, mientras que los modelos LSTM y Bi-LSTM deben computar secuencialmente.…”
Section: Resultados Y Discusiónunclassified
“…En esta investigación nos centramos únicamente en la comparación de dos modelos de Deep Learning, LSTM y Bi-LSTM, ya que nos interesa estudiar el comportamiento de las celdas LSTM y cómo éstas agregan información a largo plazo de una forma secuencial, por ello su popularidad. Sin embargo, hay otros modelos basados en RNNs como los Transformadores, Transformer Learner (TL) en inglés (Tabinda Kokab et al, 2022). Los TL conforman una extensión de las RNN, y pueden realizar muchos cómputos en paralelo, mientras que los modelos LSTM y Bi-LSTM deben computar secuencialmente.…”
Section: Resultados Y Discusiónunclassified
“…The choice of PLMs, GPT-2 [40], BERT [15], XLNet [58], and T5 [41], that are utilized in this study to identify affective bias, is motivated by considering their acceptance as relevant and neoteric contextualized models with high performance efficacy towards textual emotion detection [3,4] and the much related task of sentiment analysis [50,59] within the area of affective computing. GPT and BERT are the very popular PLMs that follow the most effective auto-regressive and auto-encoding self-supervised pre-training objectives, respectively, where GPT uses transformer decoder blocks, whereas BERT uses transformer encoder blocks.…”
Section: Textual Emotion Detection Using Large Plmsmentioning
confidence: 99%
“…The question is that this dataset might be not big enough to capture the characteristics of the target industry sectors at the parameter turning step when the language models were retrained. • Transformer models had proven to be state-of-the-art architecture when working on some sentence-level NLP tasks such as sentiment analysis [37] and question answering [38]. Sentence-based text sequences facilitate the semantic learning of local contexts for transformer models.…”
Section: Algorithms and Techniques Used In Industry Detectionmentioning
confidence: 99%