2011
DOI: 10.1590/s0101-74382011000300006
|View full text |Cite
|
Sign up to set email alerts
|

Rényi entropy and cauchy-schwartz mutual information applied to mifs-u variable selection algorithm: a comparative study

Abstract: This paper approaches the algorithm of selection of variables named MIFS-U and presents an alternative method for estimating entropy and mutual information, "measures" that constitute the base of this selection algorithm. This method has, for foundation, the Cauchy-Schwartz quadratic mutual information and the Rényi quadratic entropy, combined, in the case of continuous variables, with Parzen Window density estimation. Experiments were accomplished with public domain data, being such method compared with the o… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1
1
1
1

Citation Types

0
5
0
2

Year Published

2012
2012
2024
2024

Publication Types

Select...
7
2

Relationship

1
8

Authors

Journals

citations
Cited by 9 publications
(7 citation statements)
references
References 5 publications
0
5
0
2
Order By: Relevance
“…A estimação da entropia e da informação mútua está baseado na entropia quadrática de Rényi, aliada ao famoso método de estimação de densidade Janela de Parzen, e na definição da Informação Mútua de Cauchy-Schwartz, tornando os cálculos diretos, sem necessidade de um passo de pré-processamento. Nesse artigo utilizamos esse método que é descrito em detalhes em Gonçalves & Macrini (2011)…”
Section: ) Finalize O Conjunto S Contendo As Variáveis Selecionadasunclassified
“…A estimação da entropia e da informação mútua está baseado na entropia quadrática de Rényi, aliada ao famoso método de estimação de densidade Janela de Parzen, e na definição da Informação Mútua de Cauchy-Schwartz, tornando os cálculos diretos, sem necessidade de um passo de pré-processamento. Nesse artigo utilizamos esse método que é descrito em detalhes em Gonçalves & Macrini (2011)…”
Section: ) Finalize O Conjunto S Contendo As Variáveis Selecionadasunclassified
“…Brown et al [8] and Vergara et al [2] unified most of them in the mutual information feature selection framework. There are also a few cases of using mutual information derived from Renyi [9] and Tsallis entropy [10] showing promising results. Chown and Huang [11] proposed the use of a data compression algorithm along with quadratic mutual information to perform feature selection, but their method is prone to over-fitting, due to the estimation of the criterion in high-dimensional space.…”
Section: Related Workmentioning
confidence: 99%
“…2.92 para a entropia de Shannon. No entanto, se for usada a divergência de CauchySchwarz para se definir a informação mútua, é possível estabelecer uma relação (Gonçalves, Macrini;2011).…”
Section: Entropia De Rényiunclassified