2022
DOI: 10.1007/s10589-022-00385-9
|View full text |Cite
|
Sign up to set email alerts
|

Projected orthogonal vectors in two-dimensional search interior point algorithms for linear programming

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
1

Citation Types

0
0
0
1

Year Published

2022
2022
2022
2022

Publication Types

Select...
1
1

Relationship

0
2

Authors

Journals

citations
Cited by 2 publications
(1 citation statement)
references
References 53 publications
0
0
0
1
Order By: Relevance
“…Se observa que para obtener resultados óptimos en la restauración de las imágenes es necesario un criterio de selección de los parámetros de regularización α y γ que discrimine de la mejor manera los detalles de la imagen que pueden parecer ruido. En este trabajo no se consideraron imágenes de gran tamaño; sin embargo, en vista del rendimiento superior del método propuesto, puede ser interesante investigar el desempeño de otros esquemas numéricos para la solución de problemas de PL de gran tamaño, como una implementación basada en la actualización de soluciones básicas de Forrest-Tomlin [31] o métodos de búsqueda multidimensional [32]. Además, dado el carácter convexo del problema aquí tratando, es posible emplear métodos incrementales y de reducción de la varianza para el descenso del gradiente estocástico [33], especialmente usados en problemas de aprendizaje de máquina.…”
Section: Conclusionesunclassified
“…Se observa que para obtener resultados óptimos en la restauración de las imágenes es necesario un criterio de selección de los parámetros de regularización α y γ que discrimine de la mejor manera los detalles de la imagen que pueden parecer ruido. En este trabajo no se consideraron imágenes de gran tamaño; sin embargo, en vista del rendimiento superior del método propuesto, puede ser interesante investigar el desempeño de otros esquemas numéricos para la solución de problemas de PL de gran tamaño, como una implementación basada en la actualización de soluciones básicas de Forrest-Tomlin [31] o métodos de búsqueda multidimensional [32]. Además, dado el carácter convexo del problema aquí tratando, es posible emplear métodos incrementales y de reducción de la varianza para el descenso del gradiente estocástico [33], especialmente usados en problemas de aprendizaje de máquina.…”
Section: Conclusionesunclassified