Open Science Research X 2023
DOI: 10.37885/230111845
|View full text |Cite
|
Sign up to set email alerts
|

Uso De Redes Neurais Recorrentes Para Previsão De Tendências Em Séries Temporais De Criptomoedas

Abstract: A PROPOSTA DESTE TRABALHO CONSISTE NA COLETA DE PEQUENAS JANELAS DE TEMPO COM HISTÓRICOS DE PREÇO E VOLUME, JUNTAMENTE A INDICADORES TÉCNICOS DERIVADOS DESSES DADOS COM A UTILIZAÇÃO DE MODELOS CONSOLIDADOS PELA LITERATURA COMO AS REDES NEURAIS RECORRENTES COM ARQUITETURA LONG SHORT-THERM MEMORY (LSTM) PARA PREDIÇÃO DE SÉRIES TEMPORAIS, QUE SÃO UM TIPO ESPECÍFICO DE REDES NEURAIS ARTIFICIAIS CAPAZES DE APRENDER DEPENDÊNCIAS DE LONGO PRAZO, ADAPTANDO-SE MELHOR PARA O PROBLEMA. ESTE TRABALHO TAMBÉM PROPÕE UM MÉTO… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1

Citation Types

0
2
0
2

Year Published

2023
2023
2024
2024

Publication Types

Select...
2
1

Relationship

0
3

Authors

Journals

citations
Cited by 3 publications
(4 citation statements)
references
References 2 publications
0
2
0
2
Order By: Relevance
“…The internal architecture of the neural cell presents mechanisms (gates) that control the information coming from the temporal states of the cells, that is, functions of the sigmoid type and hyperbolic tangent that control the propagation of signals inside the cell. Consequently, the model is able to select information that will be forgotten or propagated [40][41][42].…”
Section: Recurrent Neural Network-rnnsmentioning
confidence: 99%
“…The internal architecture of the neural cell presents mechanisms (gates) that control the information coming from the temporal states of the cells, that is, functions of the sigmoid type and hyperbolic tangent that control the propagation of signals inside the cell. Consequently, the model is able to select information that will be forgotten or propagated [40][41][42].…”
Section: Recurrent Neural Network-rnnsmentioning
confidence: 99%
“…Downsampling techniques are then applied to obtain more discriminant features and reduce the frame rate dimension without compromising results. The proposed model, based on Recurrent Neural Network (RNN) (Nelson, 2017) with Long Short-Term Memory (LSTM) (Nelson, 2017), Dropout (Nelson, 2017), Dense, and Softmax layers (Nelson, 2017), outperforms other methods and shows promising competitiveness for heartbeat sound classification.…”
Section: Related Workmentioning
confidence: 99%
“…Consiste também de válvulas de três unidades multiplicativas: válvula de entrada, válvula de saída e válvula de esquecimento. Estas válvulas têm a função de manter o fluxo do erro constante através de unidades especiais chamadas "gates" (portões) permitindo os ajustes de pesos da mesma forma que o truncamento da sequência quando a informação não é necessária, simbolizando um esquecimento [Nelson 2017].…”
Section: Redes Long Short-term Memory (Lstm)unclassified
“…Segundo [Nelson 2017] desde sua criação, este método foi ramificado em diversas variações. Entretanto, quando avaliadas em relação à original por [Greff et al 2015] demonstrado na Figura 1, nenhuma foi capaz de apresentar nenhuma melhoria considerável em termos de resultados.…”
Section: Redes Long Short-term Memory (Lstm)unclassified