Este trabalho apresenta o desenvolvimento de um classificador explicável de imagens, treinado para a tarefa de determinar se uma célula foi infectada por malária. O classificador consiste em uma rede neural residual, com acurácia de classificação de 96%, treinada com o dataset de Malária do National Health Institute. Técnicas de Inteligência Artificial Explicável foram aplicadas para tornar as classificações mais interpretáveis. Estas explicações são geradas usando duas metodologias: Local Interpretable Model Agnostic Explanations (LIME) e SquareGrid. As explicações fornecem perspectivas novas e importantes para os padrões de decisão de modelos como este, de alto desempenho para tarefas médicas.