The evaluation and prediction of parallel programs performance are becoming more and more important, so that they require appropriate techniques to identify the factors which influence the application execution time and also the way they interact. In this paper, we present some contributions of our research in this area by describing PEMPIs, a new methodology applied to the performance analysis and prediction of MPI programs. A new task graph helps us both to understand details of the application and to increase the accuracy of the prediction models. The proposed techniques are detailed and tested through the modeling of a complete application. PEMPIs efficiency has been proved by the results of this application modeling-most tests executed in a cluster of computers showed errors up to 10%.
The evaluation and prediction of parallel programs performance are becoming more and more important, so that they require appropriate techniques to identify the factors which influence the application execution time and also the way they interact. In this paper, we present some contributions of our research in this area by describing PEMPIs, a new methodology applied to the performance analysis and prediction of MPI programs. A new task graph helps us both to understand details of the application and to increase the accuracy of the prediction models. The proposed techniques are detailed and tested through the modeling of a complete application. PEMPIs efficiency has been proved by the results of this application modeling-most tests executed in a cluster of computers showed errors up to 10%.
AGRADECIMENTOSAgradeço à Deus pela capacidade e proteção, oportunidades e desafios, e tudo mais que me foi concedido... embora muitas vezes eu ainda não estivesse apto a compreender.Aos meus pais Antonio e Flordinice, também aos meus irmãos Marcos e Edson, pelo apoio fundamental e invariavelmente presente.Ao meu orientador, prof. Edson Midorikawa, pela confiança em mim depositada e pelos auxílios em muitos casos imprescindíveis nestes quase dois anos de mestrado.Ao amigo e companheiro Jean, votos sinceros de sucesso e realizações. Como já dizia o Raul: "nunca se vence uma guerra lutando sozinho"! Aos colegas de laboratório (às vezes parceiros de festas também!), em especial Gisele, Fabio, Augusto (este de mais longa data!), Mário e Li. Ainda a todos os demais cuja convivência no LASB contribuiu para minha formação profissional e pessoal.À profa. Liria, sempre dedicada e prestativa, o meu respeito e agradecimento.Ao amigo Marcio, por todo o incentivo e pelas palavras de conforto. Ao Rodrigo, pela cooperação e companheirismo em tantos momentos.Finalmente, ao CNPq pelo suporte financeiro disponibilizado para a realização deste trabalho. RESUMOO desenvolvimento de programas paralelos e distribuídos encontra na programação baseada em passagem de mensagens uma abordagem eficaz para explorar adequadamente as características das máquinas de memória distribuída. Com o uso de clusters e de bibliotecas de suporte às trocas de mensagens, como o padrão MPI (Message Passing Interface), aplicações eficientes e economicamente viáveis podem ser construídas. Em tais sistemas, o tempo despendido nas comunicações constitui um importante fator de desempenho a ser considerado e requer a utilização de procedimentos e cuidados para a sua correta caracterização. Neste trabalho, modelos analíticos de primitivas de comunicação bloqueante MPI são desenvolvidos segundo uma metodologia de análise e predição apropriada. São tratadas algumas das principais operações ponto-a-ponto e coletivas e, utilizando técnicas de ajuste de curvas e tempos experimentais, o comportamento das primitivas de comunicação é representado em equações, possibilitando ainda a realização de análises e predições de desempenho em função do tamanho das mensagens e do número de processos envolvidos. Através de testes em um cluster de estações de trabalho, a precisão dos modelos elaborados é comprovada. Sendo a maioria dos erros percentuais inferiores a 8%, os resultados obtidos confirmam a validade do processo de modelagem. Além disso, o trabalho apresenta um conjunto de funções construídas com o objetivo de oferecer suporte a atividades de análise e predição, procurando facilitar e automatizar sua execução. ABSTRACTThe development of parallel and distributed programs finds at message-passing programming a powerful approach to explore properly the distributed memory machines issues. Using clusters and message-passing libraries, as MPI standard (Message Passing Interface), efficient and cost effective applications can be constructed. In these systems, the time spent with c...
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
customersupport@researchsolutions.com
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.