INTRODUÇÃO
No prefácio de seu livro Introduction to Nonextensive StatisticalMechanics, Constantino Tsallis relata um diálogo bem interessante entre Claude Shannon e John Von Neumann. Conta-se que Shannon, indeciso sobre como chamar a função por ele derivada, pensou inicialmente em chamá-la de informação, mas este nome já era muito usado. Depois de muito pensar, resolveu chamá-la de função incerteza. Entretanto, nesta conversa foi aconselhado por John Von Neumann:1 "Você deve chamá-la de entropia, por duas razões. Em primeiro lugar, a sua função incerteza tem sido utilizada na mecânica estatística com esse nome, então ela já tem um nome. Em segundo lugar, e mais importante, é que ninguém conhece o que a entropia realmente é, assim, em um debate, você sempre terá a vantagem".
2O presente diálogo ilustra o quanto pode ser controverso o conceito de entropia.O conceito de entropia surge, inicialmente, no âmbito da termodinâmica, fornecendo uma medida de irreversibilidade de um sistema físico; posteriormente, com a inclusão de métodos estatísticos para o estudo dos sistemas físicos e o estabelecimento da mecânica estatística, o conceito da entropia estatística surge fornecendo uma medida do grau de desordem de um dado sistema; 3 para uma crítica ao uso do termo desordem, ver Reis et al.
4A construção do conceito de entropia de Shannon se dá inicialmente dentro da estrutura da teoria matemática da comunicação ou teoria da informação.5 Tal teoria pode ser considerada uma seção da teoria da probabilidade e da matemática estatística que estuda sistemas de comunicação, criptografia, codificação, teoria do ruído, correção de erros, compressão de dados, etc. No âmbito da teoria da informação, a entropia fornece uma medida de incerteza em uma dada distribuição de probabilidade, recebendo, assim, a denominação de entropia de Shannon ou entropia da informação.Com tais interpretações e generalizações que o conceito de entropia pode adquirir, 6 vale lembrar Batel Anjo: 7 "Existem conceitos que resistem à passagem do tempo, uns pela sua importância, outros pela sua capacidade de se adaptar a novos domínios da ciência. A entropia, mais do que qualquer outro conceito, mantém viva sua importância, a sua utilidade, e porque não, o seu mistério".A entropia de Shannon já vem sendo estudada em diversas áreas do conhecimento, principalmente na mecânica quântica, na qual ela tem encontrado uma vasta gama de aplicações para sistemas atômicos e moleculares livres 8 como, por exemplo, na mensuração do grau de correlação eletrônica, 9 no estudo da energia cinética do sistema, 10 na mensuração da qualidade de função-base, 11 na caracterização de processos químicos, 12 entre outras. 13 A entropia de Shannon no espaço das posições pode ser associada à incerteza de se determinar a posição da partícula no espaço; em outras palavras, temos tal quantidade indicando o grau de deslocalização de uma dada partícula no espaço.14 Por outro lado, temos a entropia de Shannon no espaço dos momentos, que pode ser associada à incerteza de determinar o momento d...