CN106952274B - 基于立体视觉的行人检测与测距方法 - Google Patents
基于立体视觉的行人检测与测距方法 Download PDFInfo
- Publication number
- CN106952274B CN106952274B CN201710149283.XA CN201710149283A CN106952274B CN 106952274 B CN106952274 B CN 106952274B CN 201710149283 A CN201710149283 A CN 201710149283A CN 106952274 B CN106952274 B CN 106952274B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- value
- stereoscopic vision
- left image
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于立体视觉的行人检测与测距方法,具体实现步骤如下:(1)获取立体视觉图像;(2)构建卷积神经网络;(3)计算立体视觉左图像的预测值;(4)判断预测值是否大于0.5;(5)对预测值做去归一化处理;(6)计算匹配代价值;(7)选择最优视差值;(8)计算行人离摄像头的距离;(9)输出行人离摄像头的距离。本发明采用卷积神经网络对立体视觉图像做行人检测,并且通过立体视觉图像的视差计算获得行人到双目摄像头的距离,能够有效提高图像行人检测的运算速度,对行人相互靠近的图像具有更好的检测准确率,可以获得图像中行人到双目摄像头的距离。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及计算机视觉技术领域中的一种基于立体视觉的行人检测与测距的方法。本发明可以对双目摄像头拍摄的立体视觉图像做行人检测,并且通过立体视觉图像的视差计算获得行人到双目摄像头的距离。
背景技术
行人检测与测距使用双目摄像头拍摄得到立体视觉图像,然后对立体视觉图像做行人检测,并且通过立体视觉图像的视差计算获得行人到双目摄像头的距离。
浙江大学在其申请的专利文献“一种基于视觉的快速行人检测方法”(专利申请号201310132965.1,公开号103177248B)中公开了一种行人检测方法。该方法首先通过安装在车辆上的摄像头获取车辆前进道路上的视频图像,然后采用类哈尔特征作为行人描述特征,构建多尺度级联分类器作为行人检测器,采用串联级联策略实现快速的实时行人与非行人的分类识别,最后用非极大值抑制算法确定与行人特征最匹配的滑动窗口,确定行人的位置。该方法存在的不足之处是,该方法使用滑动窗口对图像的每个位置做特征提取和分类识别,滑动窗口需要计算一幅图像中的大量窗口,因此算法复杂度高,运算耗时大。
Redmon,Joseph,et al.在其发表的论文"You only look once:Unified,real-time object detection."(Proceedings of the IEEE Conference on Computer Visionand Pattern Recognition.2016.)中提出了一种行人检测的方法。该方法使用一个单一的卷积神经网络Fast-YOLO,将图像均匀分割成7×7的正方形区域,实现对图像中行人目标的检测。该方法存在的不足之处是,该方法将图像分割成7×7的正方形区域,每个正方形区域只能检测一个行人目标,因此对行人相互靠近的图像的检测准确率较低。
发明内容
本发明的目的在于克服上述现有技术中的不足,提出一种基于立体视觉的行人检测与测距的方法,能够有效提高图像行人检测的运算速度,对行人相互靠近的图像具有更好的检测准确率,可以获得图像中行人到双目摄像头的距离。
为实现上述目的,本发明具体实现步骤包括如下:
(1)获取立体视觉图像:
使用双目摄像头拍摄待检测与测距的包含行人通过的监控场景,得到该场景的立体视觉左图像和立体视觉右图像;
(2)构建卷积神经网络:
构建一个包含8个卷积层、5个抽取层和1个全连接层的卷积神经网络;
(3)计算立体视觉左图像的预测值:
(3a)将立体视觉左图像输入到卷积神经网络中,输出尺寸为980×1个像素的特征向量;
(3b)将立体视觉左图像均匀划分为14×14个正方形区域;
(3c)将卷积神经网络输出的980×1个像素的特征向量中的所有的向量元素,均匀分配给立体视觉左图像的每个正方形区域,每个正方形区域得到5个向量元素;将每个正方形区域的5个向量元素,依次作为该区域的行人存在概率预测值、行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值;
(4)判断立体视觉左图像的每个正方形区域的行人存在概率预测值是否大于0.5,若是,则认为该区域存在行人,执行步骤(5);否则,认为该区域不存在行人,执行步骤(6);
(5)对预测值做去归一化处理:
将存在行人的正方形区域的行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值分别做去归一化处理,得到用于确定行人位置的横坐标值和纵坐标值、行人的宽度值和行人的高度值;
(6)计算匹配代价值:
(6a)将立体视觉左图像中每个像素点的视差值的取值范围设置为0到255个灰度值;
(6b)按照下式,计算立体视觉左图像中每个像素点分别取0到255灰度值范围内的每个视差值的匹配代价值:
其中,Cp表示立体视觉左图像中每个像素点分别取0到255灰度值范围内的各个视差值的匹配代价值,dp表示立体视觉左图像中第p个像素点的视差值,∑表示求和操作,u表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点,∈表示属于符号,N表示立体视觉左图像中第p个像素点的5×5个像素的邻域,|·|表示取绝对值操作,IL表示立体视觉左图像,xu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的横坐标值,yu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的纵坐标值,IR表示立体视觉右图像;
(7)选择最优视差值:
对立体视觉左图像中每个像素点,从0到255灰度值范围内的各个视差值中,选择使该像素点的匹配代价值最小时的视差值作为最优视差值;
(8)按照下式,计算立体视觉左图像中存在行人的区域中行人离摄像头的距离:
其中,Zi表示存在行人的第i个区域中行人离摄像头的距离,f表示双目摄像头的焦距,×表示相乘操作,T表示双目摄像头的中心距,Di表示存在行人的第i个区域中行人位置像素点的最优视差值;
(9)输出立体视觉左图像中存在行人的区域中的行人离摄像头的距离。
本发明与现有的技术相比具有以下优点:
第1、由于本发明使用卷积神经网络的方法对图像做行人检测,克服了现有技术中滑动窗口重复计算图像的大量候选区域导致运算复杂度高的问题,使得本发明提高了行人检测的运算速度。
第2、由于本发明使用的卷积神经网络将图像分割成14×14的正方形区域,克服了现有技术中Fast-YOLO将图像分割成7×7的正方形区域导致行人检测分辨度较低的问题,使得本发明提高了对行人相互靠近的图像的检测准确率。
附图说明
图1是本发明的流程图;
图2是本发明的仿真图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,对本发明的具体步骤做进一步的描述。
步骤1,获取立体视觉图像。
使用双目摄像头拍摄待检测与测距的包含行人通过的监控场景,得到该场景的立体视觉左图像和立体视觉右图像。
步骤2,构建卷积神经网络。
构建一个包含8个卷积层、5个抽取层和1个全连接层的卷积神经网络。
构建的包含8个卷积层、5个抽取层和1个全连接层的卷积神经网络的14层网络层连接关系是,按照第1个卷积层、第1个抽取层、第2个卷积层、第2个抽取层、第3个卷积层、第3个抽取层、第4个卷积层、第4个抽取层、第5个卷积层、第5个抽取层、第6个卷积层、第7个卷积层、第8个卷积层、全连接层的次序依次相连。
14层网络层中每层的具体参数设置如下:
第1个卷积层的输入图像大小为448×448×3个像素,卷积核尺寸为3×3×16个像素,边界填充尺寸为1个像素,步长为1个像素。
第1个抽取层,抽取核尺寸为2×2个像素,步长为2个像素。
第2个卷积层:卷积核尺寸为3×3×32个像素,边界填充尺寸为1个像素,步长为1个像素。
第2个抽取层:抽取核尺寸为2×2个像素,步长为2个像素。
第3个卷积层:卷积核尺寸为3×3×64个像素,边界填充尺寸为1个像素,步长为1个像素。
第3个抽取层:抽取核尺寸为2×2个像素,步长为2个像素。
第4个卷积层:卷积核尺寸为3×3×128个像素,边界填充尺寸为1个像素,步长为1个像素。
第4个抽取层:抽取核尺寸为2×2个像素,步长为2个像素。
第5个卷积层:卷积核尺寸为3×3×256个像素,边界填充尺寸为1个像素,步长为1个像素。
第5个抽取层:抽取核尺寸为2×2个像素,步长为2个像素。
第6个卷积层:卷积核尺寸为3×3×512个像素,边界填充尺寸为1个像素,步长为1个像素。
第7个卷积层:卷积核尺寸为3×3×1024个像素,边界填充尺寸为1个像素,步长为1个像素。
第8个卷积层:卷积核尺寸为3×3×256个像素,边界填充尺寸为1个像素,步长为1个像素。
全连接层的输出为尺寸为980×1个像素的向量。
步骤3,计算立体视觉左图像的预测值。
将立体视觉左图像输入到卷积神经网络中,输出尺寸为980×1个像素的特征向量。
将立体视觉左图像均匀划分为14×14个正方形区域。
将卷积神经网络输出的980×1个像素的特征向量中的所有的向量元素,均匀分配给立体视觉左图像的每个正方形区域,每个正方形区域得到5个向量元素;将每个正方形区域的5个向量元素,依次作为该区域的行人存在概率预测值、行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值。
步骤4,判断立体视觉左图像的每个正方形区域的行人存在概率预测值是否大于0.5,若是,则认为该区域存在行人,执行步骤5;否则,认为该区域不存在行人,执行步骤6。
步骤5,对预测值做去归一化处理。
将存在行人的正方形区域的行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值分别做去归一化处理,得到用于确定行人位置的横坐标值和纵坐标值、行人的宽度值和行人的高度值。
步骤6,计算匹配代价值。
将立体视觉左图像中每个像素点的视差值的取值范围设置为0到255个灰度值。
按照下式,计算立体视觉左图像中每个像素点分别取0到255灰度值范围内的每个视差值的匹配代价值:
其中,Cp表示立体视觉左图像中每个像素点分别取0到255灰度值范围内的各个视差值的匹配代价值,dp表示立体视觉左图像中第p个像素点的视差值,∑表示求和操作,u表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点,∈表示属于符号,N表示立体视觉左图像中第p个像素点的5×5个像素的邻域,|·|表示取绝对值操作,IL表示立体视觉左图像,xu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的横坐标值,yu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的纵坐标值,IR表示立体视觉右图像。
步骤7,选择最优视差值。
对立体视觉左图像中每个像素点,从0到255灰度值范围内的各个视差值中,选择使该像素点的匹配代价值最小时的视差值作为最优视差值。
步骤8,按照下式,计算立体视觉左图像中存在行人的区域中行人离摄像头的距离:
其中,Zi表示存在行人的第i个区域中行人离摄像头的距离,f表示双目摄像头的焦距,×表示相乘操作,T表示双目摄像头的中心距,Di表示存在行人的第i个区域中行人位置像素点的最优视差值。
步骤9,输出立体视觉左图像中存在行人的区域中的行人离摄像头的距离。
下面结合仿真实验对本发明的效果做进一步的描述。
1、仿真实验条件:
本文的实验环境为Ubuntu 14.04系统,处理器型号为Xeon(R)CPU E5-26300@2.30GHz×12,显卡型号为GeForce GTX 980Ti/PCIe/SSE2,显存4G,内存32GB,双目摄像头为Bumblebee2,测试数据为使用双目摄像头在行人通过的监控场景中采集了200组行人相互靠近的图像,图像的分辨率为640×480个像素。
2、实验内容与结果:
表1是滑动窗口方法和本发明分别对测试数据中200组图像做行人检测的平均运算时间。从表1中可见,滑动窗口方法的行人检测运算时间在0.5秒到1分钟之间,而本发明的行人检测运算时间仅需要0.083秒,可见本发明的行人检测运算时间远低于滑动窗口方法的行人检测运算时间。
表1行人检测运算时间
滑动窗口方法 | 本发明 | |
640×480分辨率 | 0.5s~1min | 0.083s |
表2是Fast-YOLO方法和本发明分别对测试数据中200组图像做行人检测的平均检测准确率。从表2中可见,Fast-YOLO方法的平均检测准确率为35.10,而本发明的的平均检测准确率为80.56,可见本发明对于行人相互靠近的图像的的平均检测准确率远高于Fast-YOLO。
表2平均检测准确率
Fast-YOLO | 本发明 | |
平均准确率 | 35.10 | 80.56 |
附图2是本发明的仿真图,其中,图2中的“Found Person:2”表示在图像中检测到两个行人,“PERSON 1”、“PERSON2”分别表示检测到的行人1、行人2,圈中两个矩形方框分别表示检测到的行人1和行人2的位置,“Z=1.74m”、“Z=2.05m”分别表示行人1离摄像头的距离为1.74米、行人2离摄像头的距离为2.05m。可以看到,本发明有效地检测出图像中的行人,并计算出行人到双目摄像头的距离。
综上所述,本发明能够有效提高图像行人检测的运算速度,对行人相互靠近的图像具有更好的检测准确率,并获得图像中行人到双目摄像头的距离。
Claims (2)
1.一种基于立体视觉的行人检测与测距方法,包括如下步骤:
(1)获取立体视觉图像:
使用双目摄像头拍摄待检测与测距的包含行人通过的监控场景,得到该场景的立体视觉左图像和立体视觉右图像;
(2)构建卷积神经网络:
构建一个包含8个卷积层、5个抽取层和1个全连接层的卷积神经网络;
(3)计算立体视觉左图像的预测值:
(3a)将立体视觉左图像输入到卷积神经网络中,输出尺寸为980×1个像素的特征向量;
(3b)将立体视觉左图像均匀划分为14×14个正方形区域;
(3c)将卷积神经网络输出的980×1个像素的特征向量中的所有的向量元素,均匀分配给立体视觉左图像的每个正方形区域,每个正方形区域得到5个向量元素;将每个正方形区域的5个向量元素,依次作为该区域的行人存在概率预测值、行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值;
(4)判断立体视觉左图像的每个正方形区域的行人存在概率预测值是否大于0.5,若是,则认为该区域存在行人,执行步骤(5);否则,认为该区域不存在行人,执行步骤(6);
(5)对预测值做去归一化处理:
将存在行人的正方形区域的行人横坐标预测值、行人纵坐标预测值、行人宽度预测值、行人高度预测值分别做去归一化处理,得到用于确定行人位置的横坐标值和纵坐标值、行人的宽度值和行人的高度值;
(6)计算匹配代价值:
(6a)将立体视觉左图像中每个像素点的视差值的取值范围设置为0到255个灰度值;
(6b)按照下式,计算立体视觉左图像中每个像素点分别取0到255灰度值范围内的每个视差值的匹配代价值:
其中,Cp表示立体视觉左图像中每个像素点分别取0到255灰度值范围内的各个视差值的匹配代价值,dp表示立体视觉左图像中第p个像素点的视差值,∑表示求和操作,u表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点,∈表示属于符号,N表示立体视觉左图像中第p个像素点的5×5个像素的邻域,|·|表示取绝对值操作,IL表示立体视觉左图像,xu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的横坐标值,yu表示立体视觉左图像中第p个像素点的5×5个像素邻域中的像素点u的纵坐标值,IR表示立体视觉右图像;
(7)选择最优视差值:
对立体视觉左图像中每个像素点,从0到255灰度值范围内的各个视差值中,选择使该像素点的匹配代价值最小时的视差值作为最优视差值;
(8)按照下式,计算立体视觉左图像中存在行人的区域中行人离摄像头的距离:
其中,Zi表示存在行人的第i个区域中行人离摄像头的距离,f表示双目摄像头的焦距,×表示相乘操作,T表示双目摄像头的中心距,Di表示存在行人的第i个区域中行人位置像素点的最优视差值;
(9)输出立体视觉左图像中存在行人的区域中的行人离摄像头的距离。
2.根据权利要求1所述的基于立体视觉的行人检测与测距方法,其特征在于:步骤(2)中所述构建的包含8个卷积层、5个抽取层和1个全连接层的卷积神经网络的14层网络层连接关系是,按照第1个卷积层、第1个抽取层、第2个卷积层、第2个抽取层、第3个卷积层、第3个抽取层、第4个卷积层、第4个抽取层、第5个卷积层、第5个抽取层、第6个卷积层、第7个卷积层、第8个卷积层、全连接层的次序依次相连。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710149283.XA CN106952274B (zh) | 2017-03-14 | 2017-03-14 | 基于立体视觉的行人检测与测距方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710149283.XA CN106952274B (zh) | 2017-03-14 | 2017-03-14 | 基于立体视觉的行人检测与测距方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106952274A CN106952274A (zh) | 2017-07-14 |
CN106952274B true CN106952274B (zh) | 2019-06-21 |
Family
ID=59466888
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710149283.XA Active CN106952274B (zh) | 2017-03-14 | 2017-03-14 | 基于立体视觉的行人检测与测距方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106952274B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107506711B (zh) * | 2017-08-15 | 2020-06-30 | 江苏科技大学 | 基于卷积神经网络的双目视觉障碍物检测系统及方法 |
CN108205658A (zh) * | 2017-11-30 | 2018-06-26 | 中原智慧城市设计研究院有限公司 | 基于单双目视觉融合的障碍物检测预警系统 |
CN108122562A (zh) * | 2018-01-16 | 2018-06-05 | 四川大学 | 一种基于卷积神经网络和随机森林的音频分类方法 |
CN108734693B (zh) * | 2018-03-30 | 2019-10-25 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
US10503966B1 (en) * | 2018-10-11 | 2019-12-10 | Tindei Network Technology (Shanghai) Co., Ltd. | Binocular pedestrian detection system having dual-stream deep learning neural network and the methods of using the same |
CN109300154A (zh) * | 2018-11-27 | 2019-02-01 | 郑州云海信息技术有限公司 | 一种基于双目立体的测距方法及装置 |
CN110245553B (zh) * | 2019-04-29 | 2022-02-22 | 清华大学 | 路面测距方法及装置 |
CN110853367A (zh) * | 2019-12-02 | 2020-02-28 | 江苏纬信工程咨询有限公司 | 公路行车安全智能风险提示指示系统与方法 |
CN111160220B (zh) * | 2019-12-26 | 2022-07-22 | 厦门市美亚柏科信息股份有限公司 | 一种基于深度学习的包裹检测方法、装置、存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102316307A (zh) * | 2011-08-22 | 2012-01-11 | 安防科技(中国)有限公司 | 一种道路交通视频检测方法及装置 |
CN104850850A (zh) * | 2015-04-05 | 2015-08-19 | 中国传媒大学 | 一种结合形状和颜色的双目立体视觉图像特征提取方法 |
CN105718873A (zh) * | 2016-01-18 | 2016-06-29 | 北京联合大学 | 基于双目视觉的人流分析方法 |
-
2017
- 2017-03-14 CN CN201710149283.XA patent/CN106952274B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102316307A (zh) * | 2011-08-22 | 2012-01-11 | 安防科技(中国)有限公司 | 一种道路交通视频检测方法及装置 |
CN104850850A (zh) * | 2015-04-05 | 2015-08-19 | 中国传媒大学 | 一种结合形状和颜色的双目立体视觉图像特征提取方法 |
CN105718873A (zh) * | 2016-01-18 | 2016-06-29 | 北京联合大学 | 基于双目视觉的人流分析方法 |
Non-Patent Citations (5)
Title |
---|
YOLO:You Only Look Once Unified Real-Time Object Detection;Joseph Redmon 等;《Computer Vision and Pattern Recognition》;20160308;全文 |
基于深度卷积神经网络的行人检测;芮挺 等;《基于深度卷积神经网络的行人检测》;20150819;第162-166页 |
复杂交通场景中基于路面提取的行人检测研究;衡浩;《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》;20130715(第07期);C034-700 |
辅助视觉中的图像处理关键技术研究;陈龙;《中国博士学位论文全文数据库信息科技辑》;20141115(第11期);I138-30 |
面向行人检测的组合分类计算模型与应用研究;许言午;《中国博士学位论文全文数据库信息科技辑》;20091015(第10期);I140-40 |
Also Published As
Publication number | Publication date |
---|---|
CN106952274A (zh) | 2017-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106952274B (zh) | 基于立体视觉的行人检测与测距方法 | |
CN108615027B (zh) | 一种基于长短期记忆-加权神经网络对视频人群计数的方法 | |
US9646212B2 (en) | Methods, devices and systems for detecting objects in a video | |
CN107330390B (zh) | 一种基于图像分析和深度学习的人数统计方法 | |
CN110378931A (zh) | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 | |
US9070023B2 (en) | System and method of alerting a driver that visual perception of pedestrian may be difficult | |
CN104517095B (zh) | 一种基于深度图像的人头分割方法 | |
US9025875B2 (en) | People counting device, people counting method and people counting program | |
US20140118494A1 (en) | Depth Map Generation From a Monoscopic Image Based on Combined Depth Cues | |
KR20140045854A (ko) | 단일객체에 대한 기울기를 추정하는 영상을 감시하는 장치 및 방법 | |
CN109918971A (zh) | 监控视频中人数检测方法及装置 | |
CN106033614B (zh) | 一种强视差下的移动相机运动目标检测方法 | |
CN104899866A (zh) | 一种智能化的红外小目标检测方法 | |
CN107560592A (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN108830152B (zh) | 深度学习网络和人工特征相联合的行人检测方法及系统 | |
CN108509963B (zh) | 基于深度学习的目标差异性检测方法和目标差异性检测设备 | |
Krinidis et al. | A robust and real-time multi-space occupancy extraction system exploiting privacy-preserving sensors | |
US20200302155A1 (en) | Face detection and recognition method using light field camera system | |
CN103065320A (zh) | 基于恒虚警阈值的sar图像变化检测方法 | |
JP2004109009A (ja) | 目標角速度計測装置および目標角速度計測方法 | |
CN105138979A (zh) | 基于立体视觉的运动人体头部检测方法 | |
Dirgantara et al. | Object Distance Measurement System Using Monocular Camera on Vehicle | |
CN110738229B (zh) | 一种细粒度图像分类方法、装置及电子设备 | |
KR101241813B1 (ko) | Gpu를 이용한 파노라마 영상의 객체 검출 장치 및 방법 | |
TWI718823B (zh) | 物件識別方法及其相關監控攝影設備 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |