2008
DOI: 10.1016/j.neucom.2007.12.032
|View full text |Cite
|
Sign up to set email alerts
|

Training robust support vector machine with smooth Ramp loss in the primal space

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
3
2

Citation Types

0
27
0
2

Year Published

2010
2010
2022
2022

Publication Types

Select...
5
3

Relationship

0
8

Authors

Journals

citations
Cited by 60 publications
(29 citation statements)
references
References 4 publications
0
27
0
2
Order By: Relevance
“…하지만 일반적으로 SVM은 이상점(outlier)들에 민감하 다 [2]. SVM이 초평면(hyperplane)을 결정할 때 이상점들은 최대 margin 손실을 갖기 때문에 초평면은 이상점들의 영 향을 많이 받게 되고 그 결과 SVM의 성능이 하락한다.…”
Section: 서 론unclassified
See 1 more Smart Citation
“…하지만 일반적으로 SVM은 이상점(outlier)들에 민감하 다 [2]. SVM이 초평면(hyperplane)을 결정할 때 이상점들은 최대 margin 손실을 갖기 때문에 초평면은 이상점들의 영 향을 많이 받게 되고 그 결과 SVM의 성능이 하락한다.…”
Section: 서 론unclassified
“…SVM이 초평면(hyperplane)을 결정할 때 이상점들은 최대 margin 손실을 갖기 때문에 초평면은 이상점들의 영 향을 많이 받게 되고 그 결과 SVM의 성능이 하락한다. 따 라서 이상점들에 강인한 SVM들이 많이 개발되고 있다 [2,3] procedure GA t=0; initialize P(t); evaluate P(t); while termination condition not satisfied do t=t+1; select P(t) from P(t-1); recombine and mutate P(t); evaluate P(t); end end 초기 염색체들의 집단인 P(0)를 생성한다. 초기 집단은 해 공간 내에서 무작위로 분포되도록 선택되거나 경험적인 방법으로 선택된다.…”
Section: 서 론unclassified
“…However, SVM also has the drawback of sensitivity to outliers and its performance can be degraded by their presence. Even though slack variables are introduced to suppress outliers [8,9], outliers continue to influence the determination of the decision hyperplane because they have a relatively high margin loss compared to those of the other data points [10]. Further, when quadratic margin loss is employed, the influence of outliers increases [11].…”
Section: Introductionmentioning
confidence: 99%
“…Further, when quadratic margin loss is employed, the influence of outliers increases [11]. Previous research has considered this problem [8][9][10][12][13][14].…”
Section: Introductionmentioning
confidence: 99%
“…Another method proposed by Collobert et al in [9] is based on transforming the non-convex ramp loss SVM into a series of convex problems which can be solved by concave-convex procedure. Similar technique is utilized in [32] on the smooth ramp loss SVMs. In addition, Huang et al [15] propose the ramp loss linear programming support vector machine (ramp-LPSVM).…”
Section: Introductionmentioning
confidence: 99%