“…Fungsi transfer sering digunakan dalam machine learning neural network khususnya dalam metode propogasi balik, yaitu: linear purelin, [12] log sigmoid (logsig), [13] sigmoid tangen hiperbolik (tansig). [14] Secara umum algoritma backpropagation standar menggunakan fungsi pelatihan gradient discent, yaitu : traingda, traingdm, traingd , trainngdx, [15] dan banyak lagi fungsi pelatihan yang dapat digunakan dalam optimasi yang mempengaruhi hasil komputasi, misalnya gradien konjugasi berskala (trainscg), [16] fungsi pelatihan urutan acak dengan fungsi pembelajaran (trainr), [17] regulasi bayesian (trainbr), [18] pelatihan bias perintah acak yang tak terawasi (trainru), [19] levenberg marquardt (trainlm), [20], [21] one step secant (trainos), [22] fungsi pembelajaran inkremental berurutan (trains), [23] fungsi pelatihan tanpa pengawasan (trainbu), fungsi batch memakai aturan pembelajaran bias (trainb), [24] fungsi konjugasi gradien (traincgf, traincgb, traingcgp), [25] resilient (trainrp), [26] BFGS quasi newton, [27] alur siklus bias (trainc), [28] BFGS quasi newton referensi adaftif kontrol (trainbfgc). [29], [30] Menggunakan fungsi pelatihan dan transfer menghasilkan tingkat keakuratan peramalan yang berbeda-beda dengan menggunakan parameter atau metode, dan data yang digunakan dalam pengujian.…”