“…Existem muitas evidências na literatura de que representações que incorporam alguma informação de relação entre termos melhora os resultados de tarefas como recuperação de informação (Wong et al, 1985;Billhardt et al, 2002;Pôssas et al, 2002), classificação de textos (Lewis, 1992;Keikha et al, 2009;Figueiredo et al, 2011), agrupamento de textos (Beil et al, 2002;Zhang et al, 2010;Rossi and Rezende, 2011;Marcacini et al, 2012a;Kalogeratos and Likas, 2012;Cheng et al, 2013b) ou extração de tópicos (Wallach, 2006;Wu et al, 2010;Zhu et al, 2012;Lau et al, 2013). Diversos modelos para representação dos documentos foram propostos na literatura visando capturar a informação de relação entre termos, destacando-se os modelos baseados em frases ou termos compostos (Pôssas et al, 2002;Figueiredo et al, 2011;Rossi and Rezende, 2011), o Modelo de Espaço de Vetores Generalizado 6 (MEVG) e suas extensões (Wong et al, 1985;Billhardt et al, 2002;Farahat and Kamel, 2011;Kalogeratos and Likas, 2012;Cheng et al, 2013b), modelos de tópicos não-probabilísticos, como o Latent Semantic Analysis (LSA) (Deerwester et al, 1990) ou o Non-negative Matrix Factorization (NMF) (Lee and Seung, 1999) e modelos de tópicos probabilísticos e suas extensões (Hofmann, 1999;Blei et al, 2003;Wallach, 2006;Kim et al, 2012;Zhu et al, 2012;Lau et al, 2013;Gao et al, 2013).…”