RESUMOO objetivo deste trabalho foi definir configurações adequadas de Redes Neurais Artificiais (RNA) para modelagem do afilamento do fuste (taper) de árvores de eucalipto. Foram utilizados dados de cubagem de povoamentos de eucalipto localizados no sul da Bahia. Várias configurações de RNA foram avaliadas diferindo em relação ao número de neurônios na camada oculta, função de ativação, número de ciclos e algoritmos de aprendizagem com os seus parâmetros. As RNA foram treinadas no sistema Neuroforest, e as estimativas foram avaliadas por meio do coeficiente de correlação entre os valores observados e estimados, a raiz quadrada do erro quadrático médio (RMSE%), e análise gráfica de resíduos. Configurações simples, com apenas 04 neurônios ocultos, propiciaram resultados satisfatórios. Todas as funções de ativação testadas (tangente hiperbólica, sigmoidal, identidade, log, linear e seno) podem ser utilizadas, sendo que as funções linear e identidade são apropriadas para a camada de saída das RNA. O treinamento das RNA pode ser feito com 2000 ciclos. Os algoritmos Resilient Propagation e Quick Propagation são eficientes para aplicações de taper. Diversas configurações de RNA podem ser utilizadas para aplicações de taper.
Palavras-chave: inteligência artificial, multiprodutos, neuroforest
Configuration of artificial neural network for estimation of taper of trees eucalyptus
ABSTRACTThe aim of this work was to define appropriate configurations of Artificial Neural Networks (ANN) to model the taper of eucalyptus trees. were used cubage data of eucalyptus plantations located in southern Bahia. Several ANN configurations were evaluated differing in the number of neurons in the hidden layer, activation function, number of cycles and learning algorithms with their parameters. ANN were trained in Neuroforest system, and estimates were evaluated using the correlation coefficient between observed and estimated values, the root mean square error (RMSE%) and graphical analysis of waste. Simple configurations, with only 04 hidden neurons, have provided satisfactory results. All activation functions tested (hyperbolic tangent, sigmoid, identity, log, linear, sine) may be used, wherein functions linear and identities are appropriate for the output layer of the ANN. The training of ANN may be done with 2000 cycles. The algorithms Resilient Propagation and Quick Propagation are efficient to applications of taper. Several ANN configurations may be used to applications of taper.