2019
DOI: 10.13053/rcs-148-11-12
|View full text |Cite
|
Sign up to set email alerts
|

A Word Embedding Analysis towards Ontology Enrichment

Abstract: Word Embedding is a set of language modeling and feature learning techniques in Natural Language Processing where words or phrases are mapped to vectors of real numbers. This approach could be used in many tasks of Natural Language Processing, such as Text Classification, Part-Of-Speech Tagging, Named Entity Recognition, Sentiment Analysis, and others. In this paper we created different Word Embedding models, using TripAdvisor's hotel reviews. The corpus was pre-processed, in order to reduce noise, and then su… Show more

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1

Citation Types

0
0
0

Year Published

2022
2022
2024
2024

Publication Types

Select...
2
1

Relationship

0
3

Authors

Journals

citations
Cited by 3 publications
(1 citation statement)
references
References 12 publications
0
0
0
Order By: Relevance
“…Tais modelos objetivam gerar representações vetoriais de palavras que capturem suas relações semânticas e sintáticas. O GloVe [Pennington et al 2014] é um modelo que utiliza matrizes de coocorrência de palavras para gerar representações vetoriais, enquanto o Word2Vec e o Wang2Vec são modelos que utilizam abordagens baseadas em redes neurais para gerar representações vetoriais. Em particular, o modelo Word2Vec [Church 2017] é baseado em uma rede neural que aprende a prever o contexto em que uma palavra aparece e gera embeddings de palavras com base nos pesos aprendidos.…”
Section: Representação Textual Com Word Embeddingsunclassified
“…Tais modelos objetivam gerar representações vetoriais de palavras que capturem suas relações semânticas e sintáticas. O GloVe [Pennington et al 2014] é um modelo que utiliza matrizes de coocorrência de palavras para gerar representações vetoriais, enquanto o Word2Vec e o Wang2Vec são modelos que utilizam abordagens baseadas em redes neurais para gerar representações vetoriais. Em particular, o modelo Word2Vec [Church 2017] é baseado em uma rede neural que aprende a prever o contexto em que uma palavra aparece e gera embeddings de palavras com base nos pesos aprendidos.…”
Section: Representação Textual Com Word Embeddingsunclassified