2017 IEEE International Conference on Computer Vision Workshops (ICCVW) 2017
DOI: 10.1109/iccvw.2017.32
|View full text |Cite
|
Sign up to set email alerts
|

Real-Time Category-Based and General Obstacle Detection for Autonomous Driving

Help me understand this report

Search citation statements

Order By: Relevance

Paper Sections

Select...
2
2
1

Citation Types

0
25
0
3

Year Published

2018
2018
2022
2022

Publication Types

Select...
4
3
1

Relationship

0
8

Authors

Journals

citations
Cited by 53 publications
(28 citation statements)
references
References 20 publications
0
25
0
3
Order By: Relevance
“…VoxelNet [41] augmented training data by rotating and translating LiDAR points together with ground truth. StixelNet [13] used LiDAR points to generate coarse labeling automatically for pre-training.…”
Section: Related Workmentioning
confidence: 99%
See 1 more Smart Citation
“…VoxelNet [41] augmented training data by rotating and translating LiDAR points together with ground truth. StixelNet [13] used LiDAR points to generate coarse labeling automatically for pre-training.…”
Section: Related Workmentioning
confidence: 99%
“…Many sensing modalities have been used for drivable region segmentation. Vision modalities [26] [2] [13] are frequently applied on drivable region segmentation for two major reasons: (1) Vision modality is similar to human visual system and most road markers have features in the visual domain, and (2) As a passive sensor, visual camera provides high-resolution data with rich features. By implementing multiple cameras, stereo vision [5] can provide depth information for drivable region segmentation.…”
Section: Introductionmentioning
confidence: 99%
“…In this work, we focus on real-time image segmentation in roads scenario. During past years, researchers have proposed different architectures to this purpose using mainly convolutional neural networks [9] [10] [11] [12]. They show significant results, but to achieve such precision they relay on power-hungry GPUs, creating big networks with hundreds of millions of parameters.…”
Section: Related Workmentioning
confidence: 99%
“…Existen varias propuestas que emplean sensores especializados, como Lidar (del inglés, LIght Detection And Ranging), que tienen como objetivo la conducción totalmente autónoma. No obstante, debido al alto coste de estos sistemas y la mejora en la detección de objetos mediante visión computacional, en la actualidad se han desarrollado más sistemas para la detección de objetos en vehículos automáticos mediante el análisis de imágenes basados en estrategias de ventana deslizante (Shah et al, 2018;Yi et al, 2018;Sepúlveda et al, 2017) y de aprendizaje profundo (Garnett et al, 2017;Levi et al, 2015a). Shah et al (2018) proponen una estrategia para la detección de obstáculos en la vía que utiliza una cámara de vídeo fijada al vehículo.…”
Section: Detección De Obstáculosunclassified
“…Además, la localización previa es fundamen-tal en el análisis automático de imágenes, cuyo objetivo puede ser la segmentación, que consiste en separar los objetos de interés del fondo, en el reconocimiento o recuperación de objetos (Saikia et al, 2017;García-Olalla et al, 2018), o en el análisis de la relación espacial entre los objetos contenidos en una imagen (Lampert et al, 2008). Actualmente, hay una gran cantidad de aplicaciones que requieren una localización precisa de los objetos, como es el caso de la necesidad que tienen los vehículos autónomos de localizar peatones (Dollár et al, 2009;Li et al, 2018;Du et al, 2017;Brazil et al, 2017;Wang et al, 2018) u obstáculos (Shah et al, 2018;Yi et al, 2018;Garnett et al, 2017;Sepúlveda et al, 2017), la localización de vehículos en sistemas de control de tráfico, se encuentren o no en imágenesáereas (Zhong et al, 2017;Ammour et al, 2017;Tang et al, 2017;Xu et al, 2017a;Lee et al, 2017), la localización de lesiones o anormalidades en tejidos que usan los sistemas de diagnóstico clínico asistido por computador (He et al, 2018;Ma et al, 2017;Jiamin et al, 2017;Sa et al, 2017;Heo et al, 2017), la detección de objetos para el control de calidad que requieren los sistemas de inspección visual (Cao et al, 2018;Chen et al, 2018;Shi et al, 2017;Ferguson et al, 2017), o la localización de obstáculos que tienen que realizar los sistemas de navegación de robots (Lee et al, 2015;Luo et al, 2017), entre otras. Sin embargo, la correcta localización de objetos es difícil debido a múltiples factores, entre los que destacan la falta de calidad de la imagen, condiciones de iluminación cambiantes, objetos con forma no rígida o los cambios en la apariencia de los objetos a localizar (Felzenszwalb et al, 2010;…”
Section: Introductionunclassified