2020
DOI: 10.1007/s11704-019-8457-x
|View full text |Cite
|
Sign up to set email alerts
|

Adam revisited: a weighted past gradients perspective

Help me understand this report
View preprint versions

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
14
0
2

Year Published

2020
2020
2024
2024

Publication Types

Select...
9
1

Relationship

0
10

Authors

Journals

citations
Cited by 28 publications
(16 citation statements)
references
References 10 publications
0
14
0
2
Order By: Relevance
“…For the second network, the best training was achieved with 6 epochs and, again, a batch size equal to 32. For both networks, the initial learning rate [33] with 0.001 and the "adam" optimizer [34] were the parameters used in the training process.…”
Section: Cps Performancementioning
confidence: 99%
“…For the second network, the best training was achieved with 6 epochs and, again, a batch size equal to 32. For both networks, the initial learning rate [33] with 0.001 and the "adam" optimizer [34] were the parameters used in the training process.…”
Section: Cps Performancementioning
confidence: 99%
“…𝑚 ve 𝑣 'nin başlangıç değerleri genellikle sıfır olarak kabul edilmektedir. Birinci ve ikinci momentler, Eşitlik 4 ve Eşitlik 5'e göre; maliyet fonksiyonu ise Eşitlik 6'ya göre hesaplanmaktadır [17,18]. Bu çalışmada kullanılan diğer değerler; 𝛽 için 0,99, 𝛽 için 0,99 ve ∊ için 10 -8 olarak tercih edilmiştir.…”
Section: Veri Büyütme Tekniğiunclassified
“…Bu öznitelikler ResNet-18 modelinin son katmanında yer alan tam bağlantılı katmandan elde edildi ve Kuantum öğrenme modeline girdi verisi olarak aktarıldı. Sınıflandırma sürecinde "Linear Regresyon" yöntemi [24] tercih edildi ve hibrit modelin optimizasyon işlemleri için "Adam" yöntemi [25] kullanıldı. Bu iki yöntemin tercih edilmesinin en önemli nedeni diğer alternatif yöntemler (adamax, rmsprop vb.)…”
Section: öNeri̇len Yaklaşim: Kuantum Transfer öğRenme Modeli̇unclassified