2021
DOI: 10.1016/j.ipm.2020.102444
|View full text |Cite
|
Sign up to set email alerts
|

A Selection Metric for semi-supervised learning based on neighborhood construction

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
1
1
1

Citation Types

0
2
0
18

Year Published

2021
2021
2024
2024

Publication Types

Select...
8

Relationship

0
8

Authors

Journals

citations
Cited by 14 publications
(20 citation statements)
references
References 32 publications
0
2
0
18
Order By: Relevance
“…A different example of distance-based selection for semisupervised methods was proposed in [41]. In this paper, the authors use the neighbourhood close to the decision boundary and assign the label of the selected instances using an agreement between classifier and neighbourhood.…”
Section: B Distance-based Methodsmentioning
confidence: 99%
“…A different example of distance-based selection for semisupervised methods was proposed in [41]. In this paper, the authors use the neighbourhood close to the decision boundary and assign the label of the selected instances using an agreement between classifier and neighbourhood.…”
Section: B Distance-based Methodsmentioning
confidence: 99%
“…The labeled data augmentation method, based on a semisupervised learning strategy, involves incorporating pseudolabeled data during training [28], [29], [30], [31], [32]. Craters sharing similar morphology and geology are typically indicative of the same period.…”
Section: A Data Augmentation Based On Semisupervised Strategiesmentioning
confidence: 99%
“…Cada estudio posee un porcentaje de documentos etiquetados y plantean algoritmos afianzados o una extensión de los mismos, acoplados a los métodos propuestos en su estructura para seudo-etiquetar el resto de documentos. Estos algoritmos son iterativos y no iterativos, los más consolidados son EM [18], Kohonen [16], Cross Validation [17] y DPC [19]; mientras que HCSC [8], Newsmap [4], LDA-W2V [14] y MMSL [15] son algoritmos diseñados por los autores con el fin de generar auto-entrenamiento.…”
Section: Modelos Semi-supervisados Para Clasificación De Documentosunclassified
“…Clasificación (E4).-Una vez que el modelo se encuentra entrenado se procede a la clasificación de documentos de prueba para evaluar su desempeño y precisión, en esta etapa se puede hacer uso de clasificadores supervisados o no supervisados ya que se dispone de un conjunto de documentos etiquetados y seudo-etiquetados con un modelo entrenado. Algunos estudios como [8] [15] [19] [16] y [20] hacen uso del clasificador supervisado SVM, otro clasificador supervisado de uso frecuente es NB identificado en [18] [4] y [17], así también en esta etapa se identifica el uso de aprendizaje profundo con algoritmos de redes neuronales, NN y KNN en [21] [22] [23] y [24].…”
Section: Modelos Semi-supervisados Para Clasificación De Documentosunclassified
See 1 more Smart Citation