2023
DOI: 10.1080/13658816.2023.2191256
|View full text |Cite
|
Sign up to set email alerts
|

Explainable GeoAI: can saliency maps help interpret artificial intelligence’s learning process? An empirical study on natural feature detection

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1

Citation Types

0
1
0
1

Year Published

2023
2023
2024
2024

Publication Types

Select...
4
1
1

Relationship

0
6

Authors

Journals

citations
Cited by 19 publications
(2 citation statements)
references
References 30 publications
0
1
0
1
Order By: Relevance
“…O Desvio Padrão (DP) foi empregado para indicar a variabilidade dos valores no conjunto de dados utilizado como referência para a análise comparativa entre as CNNs [Sokolova and Lapalme 2009]. Além disso, a explicabilidade (ou interpretabilidade) é outra técnica relevante adotada [Hsu and Li 2023]. Também consideramos a utilizac ¸ão da estratégia de Aprendizagem de Conjunto, também conhecida como Comitê ou Ensemble Learning em inglês, para combinar as previsões das CNNs que apresentaram os melhores resultados nos experimentos, a fim de gerar uma única previsão final [Moon et al 2020].…”
Section: Métricas De Avaliac ¸ãO E Ambiente De Experimentosunclassified
“…O Desvio Padrão (DP) foi empregado para indicar a variabilidade dos valores no conjunto de dados utilizado como referência para a análise comparativa entre as CNNs [Sokolova and Lapalme 2009]. Além disso, a explicabilidade (ou interpretabilidade) é outra técnica relevante adotada [Hsu and Li 2023]. Também consideramos a utilizac ¸ão da estratégia de Aprendizagem de Conjunto, também conhecida como Comitê ou Ensemble Learning em inglês, para combinar as previsões das CNNs que apresentaram os melhores resultados nos experimentos, a fim de gerar uma única previsão final [Moon et al 2020].…”
Section: Métricas De Avaliac ¸ãO E Ambiente De Experimentosunclassified
“…In addition, visualising the feature decision-making process also helps to determine which input features are more significant to the model predictions. Initial attempts to observe and explain the process were made by visualising various model components, such as filters and feature maps; however, the obtained information was difficult to map to meaningful geomorphological concepts (Hsu & Li, 2023). Hence, methods that can explain each decision via generating saliency maps (firstly compute gradients in the intermediate convolutional layer and then combine weight feature maps from different channels) have become popular, such as class activation maps (CAMs) (Zhou et al, 2016).…”
Section: Introductionmentioning
confidence: 99%