CN110378341A - 一种双目视觉行人距离检测方法 - Google Patents

一种双目视觉行人距离检测方法 Download PDF

Info

Publication number
CN110378341A
CN110378341A CN201910672581.6A CN201910672581A CN110378341A CN 110378341 A CN110378341 A CN 110378341A CN 201910672581 A CN201910672581 A CN 201910672581A CN 110378341 A CN110378341 A CN 110378341A
Authority
CN
China
Prior art keywords
pedestrian
image
binocular
point
pedestrian target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910672581.6A
Other languages
English (en)
Inventor
胡广地
张琦
郭峰
赵利民
胡坚耀
赛景辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Jiaotong University
Original Assignee
Southwest Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Jiaotong University filed Critical Southwest Jiaotong University
Priority to CN201910672581.6A priority Critical patent/CN110378341A/zh
Publication of CN110378341A publication Critical patent/CN110378341A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种双目视觉行人距离检测方法,其包括步骤S1‑S10,本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。利用双目立体相机采集前方图像信息并进行预处理,通过K‑SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。

Description

一种双目视觉行人距离检测方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种双目视觉行人距离检测方法。
背景技术
行人是脆弱的交通参与者。世界卫生组织提供的数据显示,全球每年因为道路交通事故死亡人数约125万。为了减少交通事故的发生,汽车公司联合高校积极开发先进的驾驶辅助系统。在各种交通环境和天气条件下,实现了诸如障碍物检测和障碍识别等功能,以此保障行人及驾驶员的人身安全。
对于人类来说,行人检测是一个简单问题,但是对于人工视觉系统却是十分困难的。即使经过几十年的发展,人工视觉系统仍不完善,依然存在许多问题,比如遮挡严重,图像分辨率低和背景复杂等等。同时,也提出了许多方法来对行人检测进行改进,并在深度学习领域行人检测取得了大量的成果,大大提高了行人检测的精度和检测时间。然而,由于背景和大小的影响,深度学习方法在行人检测领域的应用并不理想,实时性并不是很好。因此,为了追求实时性和准确性,人们提出了许多机器学习方法来改进行人检测,如S-RF算法等等。
事实上,早在2015年,学者们就开始使用双目视觉来检测行人。对于双目视觉,通常使用两种功能,一种是扩大视野以提高行人检测的效率,另一种是测量距离。文献Pedestrian Detection in Binocular Stereo Sequence based on AppearanceConsistency Segmentation提出了一种用于双目立体序列的行人联合检测框架。通过使用双目视觉和单目视觉,它可以提供比连续帧更多的信息,然后使用这些信息来减少行人检测的低置信候选检测窗口的数量,或增强高置信候选检测窗口以提高检测性能。文献Pedestrian detection aided by fusion of binocular information提出了行人检测框架。该方法结合双目视觉,融合左右图像,提高行人检测率。以上两篇文章充分利用了双目视觉可以提供更多信息和提高行人检测率的优点。文献Parallel binocular stereo-vision-based GPU accelerated pedestrian detection and distance computation结合了双眼视觉,从距离测量的角度检测行人。是Nvidia的GPU加速了行人检测,此外,根据行人检测结果,测量了双目摄像头与行人之间的距离。虽然文献使用tk1和gpu加速图像处理,以实现实时行人检测和测距,但特征提取的精度并不理想。在距离测量中,所有的行人头部点都被收集并平均,但是质心应该比头部采样点更有说服力。
发明内容
针对现有技术的上述不足,本发明提供了一种可用于对车辆前方行人距离进行检测的双目视觉行人距离检测方法。
为达到上述发明目的,本发明所采用的技术方案为:
提供一种双目视觉行人距离检测方法,其包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建;
S7:将左图像上的行人目标输入重建的拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算检测到的行人目标距离双目相机的距离。
进一步地,步骤S2包括:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图;
进一步地,步骤S5包括:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
进一步地,步骤S6包括:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
本发明的有益效果为:本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。与单目视觉相比,双目视觉具有较高的准确度。利用双目立体相机采集前方图像信息并进行预处理,通过K-SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。
附图说明
图1为双目视觉行人距离检测方法的流程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示一种双目视觉行人距离检测方法,其包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像,将采集的RGB彩色图像转化为只有一个通道的灰度图像,便于后续对行人目标进行检测与识别;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
步骤S2具体包括以下步骤:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图。
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
步骤S5具体包括以下步骤:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建;
步骤S6具体包括以下步骤:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
将两张图像上的行人目标分开进行匹配,消除其中一张图像与另一张图像匹配是的假匹配和误匹配,提高匹配精度。
S7:将左图像上的行人目标输入重建的拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算检测到的行人目标距离双目相机的距离。
本方案利用双目立体视觉并基于视差原理,利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,得到物体的三维几何信息。与单目视觉相比,双目视觉具有较高的准确度。利用双目立体相机采集前方图像信息并进行预处理,通过K-SVD算法计算图像的方向梯度特征和局部二值模式特征,对现有的行人检测算法进行改进,提高行人检测精度,缩短检测时间;然后利用SURF算法左、右图像的立体匹配,并根据匹配数据进行三维重建,确定车辆质心坐标,从而测量出行人与双目相机之间的距离。

Claims (4)

1.一种双目视觉行人距离检测方法,其特征在于,包括以下步骤:
S1:对双目相机拍摄前方行人的左、右图像进行预处理,得到左、右灰度图像;
S2:计算左、右灰度图像的局部二值模式特征直方图和方向梯度特征直方图;
S3:分别将左、右图像的方向梯度特征直方图和局部二值模式特征直方图均进行串行连接,形成左、右两张联合直方图;
S4:将左、右两张联合直方图分别输入训练好的SVM分类器中,分别识别出左、右两张联合直方图中的行人目标,并对行人目标进行分类;
S5:通过Matlab对双目相机进行标定,获得双目相机的旋转矩阵R和平移向量T;
S6:在左、右图像的行人目标上分别标记出若干对应的匹配点,并采用SURF算法将若干匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,重建出双目相机的三维拍摄场景;
S7:将左图像上的行人目标输入三维拍摄场景中,并将行人目标设为感兴趣区域,利用图像语义分割算法提取出感兴趣区域内的行人目标轮廓;
S8:将行人目标轮廓输入Matlab中,找出行人目标轮廓的质心点,并计算质心点的质心参数;
S9:在右图像上找出与质心点对应匹配的质心匹配点,并利用质心匹配点和质心点的质心参数在三维拍摄场景内计算质心的三维坐标;
S10:利用质心的三维坐标计算行人目标距离双目相机的距离。
2.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S2包括:
S21:采用特征融合算法分别提取左、右灰度图像的方向梯度特征和局部二值模式特征;
S22:采用K-SVD算法对左、右灰度图像的方向梯度特征进行稀疏表示,并计算方向梯度特征直方图;
S23:采用PCA算法对左、右灰度图像的局部二值模式特征均进行降维,并计算局部二值模式特征直方图。
3.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S5包括:
S51:向双目相机的两个左、右相机分别输入标定的棋盘格图片;
S52:提取棋盘格图片的角点;
S53:在Matlab内提取角点的坐标,计算双目相机的旋转矩阵R和平移向量T。
4.根据权利要求1所述的双目视觉行人距离检测方法,其特征在于,所述步骤S6包括:
S61:在左图像上的行人目标上选定出若干左图像特征点;
S62:在右图像上的行人目标上对应左图像特征点进行匹配搜索,获得一对匹配点集合;
S63:重复步骤S61-S62,在左图像上的行人目标对应匹配搜索右图像行人目标上选定的若干右图像特征点,获得一对新的匹配点集合;
S64:利用RANSAC算法将步骤S62和S63中的两组匹配点集合进行提纯,然后再利用SURF算法对提纯后的两组匹配点与双目相机的旋转矩阵R和平移向量T进行立体匹配,对双目相机的拍摄场景进行三维重建。
CN201910672581.6A 2019-07-24 2019-07-24 一种双目视觉行人距离检测方法 Pending CN110378341A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910672581.6A CN110378341A (zh) 2019-07-24 2019-07-24 一种双目视觉行人距离检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910672581.6A CN110378341A (zh) 2019-07-24 2019-07-24 一种双目视觉行人距离检测方法

Publications (1)

Publication Number Publication Date
CN110378341A true CN110378341A (zh) 2019-10-25

Family

ID=68255646

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910672581.6A Pending CN110378341A (zh) 2019-07-24 2019-07-24 一种双目视觉行人距离检测方法

Country Status (1)

Country Link
CN (1) CN110378341A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145254A (zh) * 2019-12-13 2020-05-12 上海新时达机器人有限公司 一种基于双目视觉的门阀毛坯定位方法
CN111563516A (zh) * 2020-07-16 2020-08-21 浙江大华技术股份有限公司 行人掩码与三维场景融合显示的方法、终端及存储介质
CN113208731A (zh) * 2021-04-23 2021-08-06 上海大学 基于双目视觉系统的手术穿刺机器人手眼标定方法
CN113240740A (zh) * 2021-05-06 2021-08-10 四川大学 基于相位引导双目视觉密集标记点匹配的姿态测量方法
CN113627273A (zh) * 2021-07-19 2021-11-09 成都圭目机器人有限公司 一种基于视觉的高速公路里程桩号定位方法
CN115534801A (zh) * 2022-08-29 2022-12-30 深圳市欧冶半导体有限公司 车灯自适应调光方法、装置、智能终端及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103337094A (zh) * 2013-06-14 2013-10-02 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN104166841A (zh) * 2014-07-24 2014-11-26 浙江大学 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN104850857A (zh) * 2015-05-15 2015-08-19 浙江大学 基于视觉空间显著性约束的跨摄像机行人目标匹配方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103337094A (zh) * 2013-06-14 2013-10-02 西安工业大学 一种应用双目摄像机实现运动三维重建的方法
CN104166841A (zh) * 2014-07-24 2014-11-26 浙江大学 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN104850857A (zh) * 2015-05-15 2015-08-19 浙江大学 基于视觉空间显著性约束的跨摄像机行人目标匹配方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAIMING HE ET AL.: ""Mask R-CNN"", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
XIAOYU WANG ET AL.: ""An HOG-LBP human detector with partial occlusion handling"", 《COMPUTER VISION, 2009 IEEE 12TH INTERNATIONAL CONFERENCE》 *
张治国: ""前方道路行人检测和距离估计研究"", 《中国博士学位论文全文数据库 工程科技Ⅱ辑》 *
张琦等: ""改进Fast—RCNN的双目视觉车辆检测方法"", 《应用光学》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145254A (zh) * 2019-12-13 2020-05-12 上海新时达机器人有限公司 一种基于双目视觉的门阀毛坯定位方法
CN111145254B (zh) * 2019-12-13 2023-08-11 上海新时达机器人有限公司 一种基于双目视觉的门阀毛坯定位方法
CN111563516A (zh) * 2020-07-16 2020-08-21 浙江大华技术股份有限公司 行人掩码与三维场景融合显示的方法、终端及存储介质
CN113208731A (zh) * 2021-04-23 2021-08-06 上海大学 基于双目视觉系统的手术穿刺机器人手眼标定方法
CN113240740A (zh) * 2021-05-06 2021-08-10 四川大学 基于相位引导双目视觉密集标记点匹配的姿态测量方法
CN113240740B (zh) * 2021-05-06 2022-07-12 四川大学 基于相位引导双目视觉密集标记点匹配的姿态测量方法
CN113627273A (zh) * 2021-07-19 2021-11-09 成都圭目机器人有限公司 一种基于视觉的高速公路里程桩号定位方法
CN113627273B (zh) * 2021-07-19 2023-05-26 成都圭目机器人有限公司 一种基于视觉的高速公路里程桩号定位方法
CN115534801A (zh) * 2022-08-29 2022-12-30 深圳市欧冶半导体有限公司 车灯自适应调光方法、装置、智能终端及存储介质
CN115534801B (zh) * 2022-08-29 2023-07-21 深圳市欧冶半导体有限公司 车灯自适应调光方法、装置、智能终端及存储介质

Similar Documents

Publication Publication Date Title
CN110378341A (zh) 一种双目视觉行人距离检测方法
WO2018024030A1 (zh) 一种夜视红外图像中的基于显著性的道路目标提取方法
Fritsch et al. Monocular road terrain detection by combining visual and spatial information
CN105260712B (zh) 一种车辆前方行人检测方法及系统
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
CN103310194B (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN104036488B (zh) 一种基于双目视觉的人体姿态动作研究方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN110032278A (zh) 一种人眼感兴趣物体的位姿识别方法、装置及系统
CN108108667B (zh) 一种基于窄基线双目视觉的前方车辆快速测距方法
CN104715238A (zh) 一种基于多特征融合的行人检测方法
CN112801074B (zh) 一种基于交通摄像头的深度图估计方法
CN105404857A (zh) 一种基于红外的夜间智能车前方行人检测方法
CN102902355A (zh) 移动设备的空间交互方法
CN104794449A (zh) 基于人体hog特征的步态能量图获取及身份识别方法
CN104517095A (zh) 一种基于深度图像的人头分割方法
CN105326507A (zh) 超像素分割和曲线波相融合的三维人体测量方法
CN109359549A (zh) 一种基于混合高斯和hog_lbp的行人检测方法
Zielke et al. CARTRACK: computer vision-based car following.
CN109443319A (zh) 基于单目视觉的障碍物测距系统及其测距方法
CN104331705B (zh) 融合时空信息的步态周期自动检测方法
Liu et al. Obstacle recognition for ADAS using stereovision and snake models
CN101777127B (zh) 一种人体头部检测方法
CN108830248A (zh) 一种行人局部特征大数据混合提取方法
Du Lane line detection and vehicle identification using monocular camera based on matlab

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191025