CN112504140B - 基于俯视深度相机的物体探测方法 - Google Patents
基于俯视深度相机的物体探测方法 Download PDFInfo
- Publication number
- CN112504140B CN112504140B CN202011312947.8A CN202011312947A CN112504140B CN 112504140 B CN112504140 B CN 112504140B CN 202011312947 A CN202011312947 A CN 202011312947A CN 112504140 B CN112504140 B CN 112504140B
- Authority
- CN
- China
- Prior art keywords
- camera
- rgb
- length
- vehicle
- overlook
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/22—Measuring arrangements characterised by the use of optical techniques for measuring depth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/63—Scene text, e.g. street names
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于俯视深度相机的物体探测方法。本发明采用的方法利用RGB‑D相机即可实现对待探测区域内所有物体的探测,可以将探测到的物体的信息发送给无人驾驶车辆,使得无人驾驶车辆可以依据接收到的信息不断进行路径的规划,实现无人驾驶。本发明所采用的RGB‑D相机的成本相较激光雷达而言低得多,因此可以有效降低实现无人驾驶技术的成本。同时,本发明采用了防反光车牌,并将车牌置于了车辆的顶部,其上的符号是向内凹陷的,大幅降低反光效果,在白天阳光较为强烈的情况下能够形成符号与其他区域的比较大的反差,因而可以利用激光雷达或视频技术等图像视觉技术对车牌进行有效的识别。
Description
技术领域
本发明涉及一种基于俯视深度相机的物体探测方法,可以用于指导实现无人驾驶。
背景技术
无人驾驶技术依赖于自动驾驶汽车,现有的自动驾驶汽车依靠人工智能、视觉计算、激光雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。其中,激光雷达相当于车辆的眼睛,是实现自动驾驶必不可少的硬件设备。激光雷达,是以发射激光束探测目标的位置、速度等特征量的雷达系统。其工作原理是向目标发射探测信号(激光束),然后将接收到的从目标反射回来的信号(目标回波)与发射信号进行比较,作适当处理后,就可获得点位信息。一个点位代表激光雷达探测到的一个物体,可以是机动车辆,也可以是非机动车辆、行人或者是路面上的障碍物等。而探测到车辆行驶路径上的物体后,就可以利用人工智能、视觉计算等对自动车辆的行驶路线及机动车辆的行驶状态进行提前规划模仿驾驶员对车辆的操作,实现无人驾驶。
由上文可知,在现有技术方案中,自动驾驶汽车所采用的激光雷达的探测距离是实现无人驾驶的一个关键因素,探测距离越长所探测的物体越多,能够帮助人工智能、视觉计算等做出更为有效的行驶路线规划及车辆控制策略。因而现有的自动驾驶汽车通常会选择安装高线束的激光雷达,确保有足够的探测距离。但是激光雷达的线束越高其成本也就越高,将一辆常规的机动车辆改造成自动驾驶汽车的成本也就越高,从而阻碍了无人驾驶技术的发展。
为了解决无人驾驶汽车成本较高的问题,申请人提出了《融合路侧激光雷达和视频实现车辆和周边障碍物探知方法》,其虽然能降低实现无人驾驶的成本,但其所采用的激光雷达依然成本较高,阻碍了无人驾驶技术的发展与推广。
发明内容
本发明要解决的技术问题是:采用激光雷达方式探测障碍物的方式成本较高。
为了解决上述技术问题,本发明的技术方案是提供了一种基于俯视深度相机的物体探测方法,其特征在于,包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;防反光车牌包括基体,基体的底面固定在车辆顶部,基体上至少设有一组朝向上方显示的符号组,每个符号组由N个符号结构组成,N≥1;每个符号结构包括凹槽,凹槽向符号组显示方向相反的方向凹陷,凹槽的轨迹构成了当前符号结构所需要显示的符号;
在待探测区域的中心位置布置一台俯视RGB-D相机,该俯视RGB-D相机竖直向下拍摄,将俯视RGB-D相机安装至一定高度使得俯视RGB-D相机的拍摄区域覆盖整个待探测区域;
步骤2、将俯视RGB-D相机至待探测区域边缘的距离划分为N个距离区段,N≥3,分别为[0,L1]…[Ln-1,Ln]…[LN-1,LN],[Ln-1,Ln]为第n个距离区段,Ln-1为第n个距离区段中最靠近俯视RGB-D相机的点至俯视RGB-D相机的距离,Ln为第n个距离区段中最远离俯视RGB-D相机的点至俯视RGB-D相机的距离;
步骤3、将标定物分别放置在距离俯视RGB-D相机D1,…,Dn,…,DN位置处,Dn∈[Ln-1,Ln],通过俯视RGB-D相机拍摄得到标定物的N张俯视图像:
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N个距离区段相对应的长度畸变系数λL1,…,λLn,…,λLN,其中,λLn为第n个距离区段[Ln-1,Ln]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N个距离区段相对应的宽度畸变系数λW1,…,λWn,…,λWN,其中,λWn为第n个距离区段[Ln-1,Ln]的宽度畸变系数;
步骤4、利用俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域的固有物体的位置坐标及物体信息并存储;
步骤5、俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的图像进行处理,从而实现待探测区域的物体探测:
步骤501、对图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除图像中与步骤4已存储的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[Ln-1,Ln],则获得第n个距离区段[Ln-1,Ln]所对应的长度畸变系数λLn以及宽度畸变系数λWn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的物体探测集合,从而实现对图像中所有车辆的识别;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的物体探测集合,从而实现对图像中当前物体的识别。
优选地,在所述凹槽的槽底布置有多个吸光孔结构,每个吸光孔结构包括向内凹陷的弧面;
在所述凹槽一侧的槽壁上设有安装基座,安装基座上设有多颗LED灯珠,所有LED灯珠发出的光覆盖当前所述凹槽的整个轨迹;所有LED灯珠的表面覆盖有透明的保护层;
在所述凹槽另一侧的槽壁上设有数量与LED灯珠数量相当的反射聚光部件,每个反射聚光部件正对一个位置相当的LED灯珠,LED灯珠发出的光通过反射聚光部件实现汇聚并反射;
所有LED灯珠经由继电器与电源电路模块的输出端相连,继电器及电源电路模块设于所述基体内,电源电路模块的输入端车用供电输出相连或与供电模块相连;
在所述基体表面设有光线感应器,光线感应器的输出端与继电器的控制信号输入端相连。
优选地,所述弧面的外表面覆盖有吸光层二。
优选地,所述基体为板状结构或为立体状结构;
若所述基体为立体状结构,则在所述基体的上表面、前表面及后表面均设有所述符号组。
本发明的另一个技术方案是提供了一种基于俯视深度相机的物体探测方法,其特征在于,包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;在每辆车辆的顶部安装防反光车牌;防反光车牌包括基体,基体的底面固定在车辆顶部,基体为立体状结构,在基体的上表面、前表面及后表面均设有符号组,每个符号组由N个符号结构组成,N≥1;每个符号结构包括凹槽,凹槽向符号组显示方向相反的方向凹陷,凹槽的轨迹构成了当前符号结构所需要显示的符号;
在待探测区域布置两台俯视RGB-D相机,每台俯视RGB-D相机与水平面之间呈一夹角α,α≥60°,分别定义为左俯视RGB-D相机及右俯视RGB-D相机,左俯视RGB-D相机向左拍摄得到待探测区域的左部分图像,右俯视RGB-D相机向右拍摄得到待探测区域的右部分图像,左部分图像与右部分图像覆盖整个待探测区域,且左部分图像与右部分图像存在重叠部分;
步骤2、获得左俯视RGB-D相机的长度畸变系数λLL1,…,λLLn,…,λLLN以及宽度畸变系数λLW1,…,λLWn,…,λLWN,包括以下步骤:
步骤201、将左俯视RGB-D相机至其所能拍摄到的区域边缘的距离划分为N个距离区段,N≥3,分别为[0,LL1]…[LL(n-1),LLn]…[LL(N-1),LLN],[LL(n-1),LLn]为第n个距离区段,LL(n-1)为第n个距离区段中最靠近左俯视RGB-D相机的点至左俯视RGB-D相机的距离,Ln为第n个距离区段中最远离左俯视RGB-D相机的点至左俯视RGB-D相机的距离;
步骤202、将标定物分别放置在距离左俯视RGB-D相机D1,…,Dn,…,DN位置处,Dn∈[LL(n-1),LLn],通过俯视RGB-D相机拍摄得到标定物的N张俯视图像;
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N个距离区段相对应的长度畸变系数λLL1,…,λLLn,…,λLLN,其中,λLLn为第n个距离区段[LL(n-1),LLn]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N个距离区段相对应的宽度畸变系数λLW1,…,λLWn,…,λLWN,其中,λLWn为第n个距离区段[LL(n-1),LLn]的宽度畸变系数;
步骤3、采用与步骤201及步骤202相同的方法获得右俯视RGB-D相机的长度畸变系数λRL1,…,λRLn,…,λRLN以及宽度畸变系数λRW1,…,λRWn,…,λRWN;
步骤4、利用左俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域左侧部分的固有物体的位置坐标及物体信息并存储;
利用右俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域右侧部分的固有物体的位置坐标及物体信息并存储;
步骤5、左俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的包含有深度信息的左部分图像进行处理,获得当前时刻的左侧物体探测集合;
步骤501、对左部分图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除左部分图像中与步骤4已存储的待探测区域左侧部分的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与左俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[LL(n-1),LLn],则获得第n个距离区段[LL(n-1),LLn]所对应的长度畸变系数λLLn以及宽度畸变系数λLWn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的左侧物体探测集合;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的左侧物体探测集合;
步骤6、右俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用与步骤501至步骤505相同的步骤对当前时刻拍摄得到的右部分图像进行处理,获得当前时刻的右侧物体探测集合;
步骤7、遍历左侧物体探测集合及右侧物体探测集合,将左侧物体探测集合中记录的各车牌号码与右侧物体探测集合中记录的各车牌号码相匹配,若匹配得到相同的车牌号码,则从左侧物体探测集合及右侧物体探测集合中取出与匹配得到的车牌号码相对应的位置坐标;
步骤8、利用步骤7得到的两个坐标位置,将左侧物体探测集合中所有位置坐标转换至右俯视RGB-D相机所在坐标系下,或者将右侧物体探测集合中所有位置坐标转换至左俯视RGB-D相机所在坐标系下;
步骤9、转换后,将左侧物体探测集合与右侧物体探测集合合并,合并时剔除位置坐标重复的两个数据中的任意一个数据,得到最终的物体探测集合。
优选地,在所述凹槽的槽底布置有多个吸光孔结构,每个吸光孔结构包括向内凹陷的弧面;
在所述凹槽一侧的槽壁上设有安装基座,安装基座上设有多颗LED灯珠,所有LED灯珠发出的光覆盖当前所述凹槽的整个轨迹;所有LED灯珠的表面覆盖有透明的保护层;
在所述凹槽另一侧的槽壁上设有数量与LED灯珠数量相当的反射聚光部件,每个反射聚光部件正对一个位置相当的LED灯珠,LED灯珠发出的光通过反射聚光部件实现汇聚并反射;
所有LED灯珠经由继电器与电源电路模块的输出端相连,继电器及电源电路模块设于所述基体内,电源电路模块的输入端车用供电输出相连或与供电模块相连;
在所述基体表面设有光线感应器,光线感应器的输出端与继电器的控制信号输入端相连。
优选地,所述弧面的外表面覆盖有吸光层二。
本发明采用的方法利用RGB-D相机即可实现对待探测区域内所有物体的探测,可以将探测到的物体的信息发送给无人驾驶车辆,使得无人驾驶车辆可以依据接收到的信息不断进行路径的规划,实现无人驾驶。本发明所采用的RGB-D相机的成本相较激光雷达而言低得多,因此可以有效降低实现无人驾驶技术的成本。同时,本发明采用了防反光车牌,并将车牌置于了车辆的顶部,其上的符号是向内凹陷的,大幅降低反光效果,在白天阳光较为强烈的情况下能够形成符号与其他区域的比较大的反差,因而可以利用激光雷达或视频技术等图像视觉技术对车牌进行有效的识别。
附图说明
图1为第一种结构形式的防反光车牌的正试图;
图2为第一种结构形式的防反光车牌的局部剖视图;
图3为图2中A部分的局部放大示意图;
图4为第一种结构形式的防反光车牌的槽底部分的示意图;
图5为第二种结构形式的防反光车牌的外形示意图;
图6为图5所示的防反光车牌的前表面或后表面的示意图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
本发明中,安装在车辆顶部的车辆号牌可以采用如图1至图4所示的第一种结构形式,也可以采用如图1、图5及图6所示的第二种结构形式。
如图1所示,防反光车牌的第一种结构形式包括基体1。本发明中,基体1为常规车辆号牌相类似的板状结构,结合图2,分为上基体1-1及下基体1-2。
下基体1-2的底面固定在车辆顶部。上基体1-1的外表面有一组朝向上方显示的符号组,其中,每个符号组由N个符号结构2组成,N≥1。结合图2,每个符号结构2包括凹槽2-1,凹槽2-1向下方凹陷。凹槽2-1的轨迹构成了当前符号结构2所需要显示的符号,例如凹槽2-1的轨迹为文字、字母或者数字。
现有车辆号牌上的符号都是向外突出的,本发明利用凹槽2-1来降低符号的反光效果,并且本发明将车辆号牌固定在车辆的顶部,均有利于相机及激光雷达对车牌的识别效果及识别成功率。
为了进一步降低反光效果,可以在凹槽2-1两侧的槽壁以及槽底覆盖吸光层一,应当注意的是吸光层一的作用是吸收光,其结构实现为本领域技术人员的常识。也可以将凹槽2-1两侧的槽壁以及槽底设计为磨砂面,从而降低凹槽2-1的反光效果。
在本发明中,结合图3及图4,在凹槽2-1的槽底布置多个吸光孔结构2-2,每个吸光孔结构2-2包括向内凹陷的弧面2-2-1,弧面2-2-1的外表面覆盖有吸光层二2-2-2。吸光层二2-2-2与上文提及的吸光层一类似,其结构实现为本领域技术人员的常识。
在凹槽2-1一侧的槽壁上设有安装基座2-3,安装基座2-3上设有多颗LED灯珠2-4。所有LED灯珠2-4发出的光覆盖当前凹槽2-1的整个轨迹。由于车辆号牌是在外部使用的,其可能面临较差的使用环境,在本发明中所有LED灯珠2-4的表面都覆盖有透明的保护层,以形成对LED灯珠2-4的保护。本发明中,保护层为亚克力保护层2-5。
由于本发明中,LED灯珠2-4发出的光通过亚克力保护层2-5发射出来,亚克力保护层2-5会形成光的散射,从而可能会影响到相机或激光雷达对符号的识别,为此,本发明中,在凹槽2-1另一侧的槽壁上设有数量与LED灯珠2-4数量相当的反射聚光部件,本发明中,反射聚光部件采用凹面镜2-6。LED灯珠2-4发出的光通过凹面镜2-6实现汇聚并反射,从而将LED灯珠2-4发出的大部分光都保留在凹槽2-1内,提高了凹槽2-1区域与车辆号牌其他区域的对比度,方便相机或激光雷达对符号的识别。
本发明中,在凹槽2-1内设置LED灯珠2-4的目的在于,在外部光线环境较差的情况下,通过LED灯珠2-4发出的光可以让相机或激光雷达准确识别到符号,提高识别的成功率。
所有LED灯珠2-4经由继电器与电源电路模块的输出端相连。本发明中,下基体1-2提供了继电器与电源电路模块的安装空间。本发明中,还增加了光线感应器4,光线感应器4的结构实现同样为本领域技术人员的常识。光线感应器4的输出端与继电器的控制信号输入端相连。当光线感应器4检测到外部光线环境较差时,继电器闭合,由电源电路模块为LED灯珠2-4供电,LED灯珠2-4发光。当光线感应器4检测到外部光线环境较强时,继电器断开,LED灯珠2-4不发光。
本发明中,电源电路模块的输入端可以与车辆自带的车用供电输出相连,由车辆自带的电源供电;或者与设置在基体1表面的太阳能电池3相连,由太阳能电池3供电;或者同时与车辆自带的车用供电输出及太阳能电池3相连,当太阳能电池3输出功率满足要求时,由太阳能电池3供电,其他情况下,由车辆自带的电源供电。
如图5所示,第二种结构形式的防反光车牌与第一种结构形式的防反光车牌的不同点在于:基体1为立体状结构,因此,本发明中,基体1可以为继电器与电源电路模块提供较大的安装空间,基体1的上表面1-4、前表面1-3及后表面均可以设置符号组。本发明中,基体1上表面如图1所示,其前表面及后表面如图6所示,本实施例的其他结构及工作方式同实施例1。
实施例1
基于上述两种结构形式中第一种结构形式的防反光车牌,本实施例公开的一种基于俯视深度相机的物体探测方法包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;
在待探测区域的中心位置布置一台俯视RGB-D相机,该俯视RGB-D相机竖直向下拍摄,将俯视RGB-D相机安装至一定高度使得俯视RGB-D相机的拍摄区域覆盖整个待探测区域;
步骤2、将俯视RGB-D相机至待探测区域边缘的距离划分为N个距离区段,N≥3,分别为[0,L1]…[Ln-1,Ln]…[LN-1,LN],[Ln-1,Ln]为第n个距离区段,Ln-1为第n个距离区段中最靠近俯视RGB-D相机的点至俯视RGB-D相机的距离,Ln为第n个距离区段中最远离俯视RGB-D相机的点至俯视RGB-D相机的距离;
步骤3、将标定物分别放置在距离俯视RGB-D相机D1,…,Dn,…,DN位置处,Dn∈[Ln-1,Ln],通过俯视RGB-D相机拍摄得到标定物的N张俯视图像:
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N个距离区段相对应的长度畸变系数λL1,…,λLn,…,λLN,其中,λLn为第n个距离区段[Ln-1,Ln]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N个距离区段相对应的宽度畸变系数λW1,…,λWn,…,λWN,其中,λWn为第n个距离区段[Ln-1,Ln]的宽度畸变系数;
步骤4、利用俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域的固有物体的位置坐标及物体信息并存储;
步骤5、俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的包含有深度信息的图像进行处理,从而实现待探测区域的物体探测:
步骤501、对图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除图像中与步骤4已存储的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[Ln-1,Ln],则获得第n个距离区段[Ln-1,Ln]所对应的长度畸变系数λLn以及宽度畸变系数λWn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的物体探测集合,从而实现对图像中所有车辆的识别;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的物体探测集合,从而实现对图像中当前物体的识别。
实施例2
基于上述两种结构形式中第二种结构形式的防反光车牌,本实施例公开的一种基于俯视深度相机的物体探测方法包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;
在待探测区域布置两台俯视RGB-D相机,每台俯视RGB-D相机与水平面之间呈一夹角α,α≥60°,分别定义为左俯视RGB-D相机及右俯视RGB-D相机,左俯视RGB-D相机向左拍摄得到待探测区域的左部分图像,右俯视RGB-D相机向右拍摄得到待探测区域的右部分图像,左部分图像与右部分图像覆盖整个待探测区域,且左部分图像与右部分图像存在重叠部分;
步骤2、获得左俯视RGB-D相机的长度畸变系数λLL1,…,λLLn,…,λLLN以及宽度畸变系数λLW1,…,λLWn,…,λLWN,包括以下步骤:
步骤201、将左俯视RGB-D相机至其所能拍摄到的区域边缘的距离划分为N个距离区段,N≥3,分别为[0,LL1]…[LL(n-1),LLn]…[LL(N-1),LLN],[LL(n-1),LLn]为第n个距离区段,LL(n-1)为第n个距离区段中最靠近左俯视RGB-D相机的点至左俯视RGB-D相机的距离,Ln为第n个距离区段中最远离左俯视RGB-D相机的点至左俯视RGB-D相机的距离;
步骤202、将标定物分别放置在距离左俯视RGB-D相机D1,…,Dn,…,DN位置处,Dn∈[LL(n-1),LLn],通过俯视RGB-D相机拍摄得到标定物的N张俯视图像;
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N个距离区段相对应的长度畸变系数λLL1,…,λLLn,…,λLLN,其中,λLLn为第n个距离区段[LL(n-1),LLn]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N个距离区段相对应的宽度畸变系数λLW1,…,λLWn,…,λLWN,其中,λLWn为第n个距离区段[LL(n-1),LLn]的宽度畸变系数;
步骤3、采用与步骤201及步骤202相同的方法获得右俯视RGB-D相机的长度畸变系数λRL1,…,λRLn,…,λRLN以及宽度畸变系数λRW1,…,λRWn,…,λRWN;
步骤4、利用左俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域左侧部分的固有物体的位置坐标及物体信息并存储;
利用右俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域右侧部分的固有物体的位置坐标及物体信息并存储;
步骤5、左俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的包含有深度信息的左部分图像进行处理,获得当前时刻的左侧物体探测集合;
步骤501、对左部分图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除左部分图像中与步骤4已存储的待探测区域左侧部分的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与左俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[LL(n-1),LLn],则获得第n个距离区段[LL(n-1),LLn]所对应的长度畸变系数λLLn以及宽度畸变系数λLWn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的左侧物体探测集合;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的左侧物体探测集合;
步骤6、右俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用与步骤501至步骤505相同的步骤对当前时刻拍摄得到的右部分图像进行处理,获得当前时刻的右侧物体探测集合;
步骤7、遍历左侧物体探测集合及右侧物体探测集合,将左侧物体探测集合中记录的各车牌号码与右侧物体探测集合中记录的各车牌号码相匹配,若匹配得到相同的车牌号码,则从左侧物体探测集合及右侧物体探测集合中取出与匹配得到的车牌号码相对应的位置坐标;
步骤8、利用步骤7得到的两个坐标位置,将左侧物体探测集合中所有位置坐标转换至右俯视RGB-D相机所在坐标系下,或者将右侧物体探测集合中所有位置坐标转换至左俯视RGB-D相机所在坐标系下;
步骤9、转换后,将左侧物体探测集合与右侧物体探测集合合并,合并时剔除位置坐标重复的两个数据中的任意一个数据,得到最终的物体探测集合。
Claims (7)
1.一种基于俯视深度相机的物体探测方法,其特征在于,包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;防反光车牌包括基体(1),基体(1)的底面固定在车辆顶部,基体(1)上至少设有一组朝向上方显示的符号组,每个符号组由N1个符号结构(2)组成,N1≥1;每个符号结构(2)包括凹槽(2-1),凹槽(2-1)向符号组显示方向相反的方向凹陷,凹槽(2-1)的轨迹构成了当前符号结构(2)所需要显示的符号;
在待探测区域的中心位置布置一台俯视RGB-D相机,该俯视RGB-D相机竖直向下拍摄,将俯视RGB-D相机安装至一定高度使得俯视RGB-D相机的拍摄区域覆盖整个待探测区域;
步骤2、将俯视RGB-D相机至待探测区域边缘的距离划分为N2个距离区段,N2≥3,分别为[0,L1]...[Ln-1,Ln]...[LN2-1,LN2],[Ln-1,Ln]为第n个距离区段,Ln-1为第n个距离区段中最靠近俯视RGB-D相机的点至俯视RGB-D相机的距离,Ln为第n个距离区段中最远离俯视RGB-D相机的点至俯视RGB-D相机的距离;
步骤3、将标定物分别放置在距离俯视RGB-D相机D1,...,Dn,...,DN2位置处,Dn∈[Ln-1,Ln],通过俯视RGB-D相机拍摄得到标定物的N2张俯视图像:
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N2个距离区段相对应的长度畸变系数λL1,...,λLn,...,λLN2,其中,λLn为第n个距离区段[Ln-1,Ln]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N2个距离区段相对应的宽度畸变系数λW1,...,λWn,...,λWN2,其中,λWn为第n个距离区段[Ln-1,Ln]的宽度畸变系数;
步骤4、利用俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域的固有物体的位置坐标及物体信息并存储;
步骤5、俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的包含有深度信息的图像进行处理,从而实现待探测区域的物体探测:
步骤501、对图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除图像中与步骤4已存储的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[Ln-1,Ln],则获得第n个距离区段[Ln-1,Ln]所对应的长度畸变系数λLn以及宽度畸变系数λWn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的物体探测集合,从而实现对图像中所有车辆的识别;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与俯视RGB-D相机的相对距离以及俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的物体探测集合,从而实现对图像中当前物体的识别。
2.如权利要求1所述的一种基于俯视深度相机的物体探测方法,其特征在于,在所述凹槽(2-1)的槽底布置有多个吸光孔结构(2-2),每个吸光孔结构(2-2)包括向内凹陷的弧面(2-2-1);
在所述凹槽(2-1)一侧的槽壁上设有安装基座(2-3),安装基座(2-3)上设有多颗LED灯珠(2-4),所有LED灯珠(2-4)发出的光覆盖当前所述凹槽(2-1)的整个轨迹;所有LED灯珠(2-4)的表面覆盖有透明的保护层;
在所述凹槽(2-1)另一侧的槽壁上设有数量与LED灯珠(2-4)数量相当的反射聚光部件,每个反射聚光部件正对一个位置相当的LED灯珠(2-4),LED灯珠(2-4)发出的光通过反射聚光部件实现汇聚并反射;
所有LED灯珠(2-4)经由继电器与电源电路模块的输出端相连,继电器及电源电路模块设于所述基体(1)内,电源电路模块的输入端车用供电输出相连或与供电模块相连;
在所述基体(1)表面设有光线感应器(4),光线感应器(4)的输出端与继电器的控制信号输入端相连。
3.如权利要求2所述的一种基于俯视深度相机的物体探测方法,其特征在于,所述弧面(2-2-1)的外表面覆盖有吸光层二(2-2-2)。
4.一种专用于俯视相机机器识别的防反光车牌,应用于如权利要求3所述的物体探测方法,其特征在于,所述基体(1)为板状结构或为立体状结构;
若所述基体(1)为立体状结构,则在所述基体(1)的上表面、前表面及后表面均设有所述符号组。
5.一种基于俯视深度相机的物体探测方法,其特征在于,包括以下步骤:
步骤1、在每辆车辆的顶部安装防反光车牌;在每辆车辆的顶部安装防反光车牌;防反光车牌包括基体(1),基体(1)的底面固定在车辆顶部,基体(1)为立体状结构,在基体(1)的上表面、前表面及后表面均设有符号组,每个符号组由N1个符号结构(2)组成,N1≥1;每个符号结构(2)包括凹槽(2-1),凹槽(2-1)向符号组显示方向相反的方向凹陷,凹槽(2-1)的轨迹构成了当前符号结构(2)所需要显示的符号;
在待探测区域布置两台俯视RGB-D相机,每台俯视RGB-D相机与水平面之间呈一夹角α,α≥60°,分别定义为左俯视RGB-D相机及右俯视RGB-D相机,左俯视RGB-D相机向左拍摄得到待探测区域的左部分图像,右俯视RGB-D相机向右拍摄得到待探测区域的右部分图像,左部分图像与右部分图像覆盖整个待探测区域,且左部分图像与右部分图像存在重叠部分;
步骤2、获得左俯视RGB-D相机的长度畸变系数λLL1,...,λLLn,...,λLLN2以及宽度畸变系数λLW1,...,λLWn,...,λLWN2,包括以下步骤:
步骤201、将左俯视RGB-D相机至其所能拍摄到的区域边缘的距离划分为N个距离区段,N2≥3,分别为[0,LL1]...[LL(n-1),LLn]...[LL(N2-1),LLN2],[LL(n-1),LLn]为第n个距离区段,LL(n-1)为第n个距离区段中最靠近左俯视RGB-D相机的点至左俯视RGB-D相机的距离,Ln为第n个距离区段中最远离左俯视RGB-D相机的点至左俯视RGB-D相机的距离;
步骤202、将标定物分别放置在距离左俯视RGB-D相机D1,...,Dn,...,DN2位置处,Dn∈[LL(n-1),LLn],通过俯视RGB-D相机拍摄得到标定物的N2张俯视图像;
利用俯视图像中的长度信息得到标定物的测量长度,根据测量长度与标定物实际长度的差异设置与N2个距离区段相对应的长度畸变系数λLL1,...,λLLn,...,λLLN2,其中,λLLn为第n个距离区段[LL(n-1),LLn]的长度畸变系数;
利用俯视图像中的宽度信息得到标定物的测量宽度,根据测量长度与标定物实际宽度的差异设置与N2个距离区段相对应的宽度畸变系数λLW1,...,λLWn,...,λLWN2,其中,λLWn为第n个距离区段[LL(n-1),LLn]的宽度畸变系数;
步骤3、采用与步骤201及步骤202相同的方法获得右俯视RGB-D相机的长度畸变系数λRL1,...,λRLn,...,λRLN2以及宽度畸变系数λRW1,...,λRwn,...,λRWN2;
步骤4、利用左俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域左侧部分的固有物体的位置坐标及物体信息并存储;
利用右俯视RGB-D相机对待探测区域进行俯视拍摄,依据获得的图像标记出待探测区域右侧部分的固有物体的位置坐标及物体信息并存储;
步骤5、左俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用以下步骤对当前时刻拍摄得到的包含有深度信息的左部分图像进行处理,获得当前时刻的左侧物体探测集合;
步骤501、对左部分图像边缘的畸变进行校正后,利用步骤4存储的位置坐标去除左部分图像中与步骤4已存储的待探测区域左侧部分的固有物体相对应的所有物体;
步骤502、计算得到通过步骤501获得的图像上每个物体与左俯视RGB-D相机的相对距离D,判断相对距离D所属的距离区段,设相对距离D属于第n个距离区段[LL(n-1),LLn],则获得第n个距离区段[LL(n-1),LLn]所对应的长度畸变系数λLLn以及宽度畸变系数λLwn,将通过图像获得的当前物体的长度数据以及宽度数据分别乘以长度畸变系数λLn以及宽度畸变系数λWn,得到当前物体的校正后的长度数据以及宽度数据;
步骤503、若校正后的长度数据及宽度数据均超过预先设定的车辆长度阈值及车辆宽度阈值,则将当前物体判定为车辆,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤504,否则将当前物体判定为非车辆,进入步骤505;
步骤504、对于判定为车辆的当前物体顶部防反光车牌的车牌号码进行识别,获得与每个车辆相对应的车牌号码;通过判定为车辆的当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个判定为车辆的当前物体的位置坐标;将位置坐标、物体信息以及车牌号码进行关联后加入当前时刻的左侧物体探测集合;
步骤505、对于判定为非车辆的当前物体,进一步判断当前物体的长度数据及宽度数据是否落入人体长度阈值区间及人体宽度阈值区间,若是,则将当前物体判定为行人,并将判定结果记入物体信息,物体信息还包括当前物体的长度及宽度,进入步骤506;若不是,则将当前物体判定为障碍物,并将判定结果记入物体信息后进入步骤506;
步骤506、通过当前物体与左俯视RGB-D相机的相对距离以及左俯视RGB-D相机的自身坐标,获得每个当前物体的位置坐标;将位置坐标与物体信息进行关联后加入当前时刻的左侧物体探测集合;
步骤6、右俯视RGB-D相机以固定时间间隔对待探测区域进行俯视拍摄,采用与步骤501至步骤505相同的步骤对当前时刻拍摄得到的右部分图像进行处理,获得当前时刻的右侧物体探测集合;
步骤7、遍历左侧物体探测集合及右侧物体探测集合,将左侧物体探测集合中记录的各车牌号码与右侧物体探测集合中记录的各车牌号码相匹配,若匹配得到相同的车牌号码,则从左侧物体探测集合及右侧物体探测集合中取出与匹配得到的车牌号码相对应的位置坐标;
步骤8、利用步骤7得到的两个坐标位置,将左侧物体探测集合中所有位置坐标转换至右俯视RGB-D相机所在坐标系下,或者将右侧物体探测集合中所有位置坐标转换至左俯视RGB-D相机所在坐标系下;
步骤9、转换后,将左侧物体探测集合与右侧物体探测集合合并,合并时剔除位置坐标重复的两个数据中的任意一个数据,得到最终的物体探测集合。
6.如权利要求5所述的一种基于俯视深度相机的物体探测方法,其特征在于,在所述凹槽(2-1)的槽底布置有多个吸光孔结构(2-2),每个吸光孔结构(2-2)包括向内凹陷的弧面(2-2-1);
在所述凹槽(2-1)一侧的槽壁上设有安装基座(2-3),安装基座(2-3)上设有多颗LED灯珠(2-4),所有LED灯珠(2-4)发出的光覆盖当前所述凹槽(2-1)的整个轨迹;所有LED灯珠(2-4)的表面覆盖有透明的保护层;
在所述凹槽(2-1)另一侧的槽壁上设有数量与LED灯珠(2-4)数量相当的反射聚光部件,每个反射聚光部件正对一个位置相当的LED灯珠(2-4),LED灯珠(2-4)发出的光通过反射聚光部件实现汇聚并反射;
所有LED灯珠(2-4)经由继电器与电源电路模块的输出端相连,继电器及电源电路模块设于所述基体(1)内,电源电路模块的输入端车用供电输出相连或与供电模块相连;
在所述基体(1)表面设有光线感应器(4),光线感应器(4)的输出端与继电器的控制信号输入端相连。
7.如权利要求6所述的一种基于俯视深度相机的物体探测方法,其特征在于,所述弧面(2-2-1)的外表面覆盖有吸光层二(2-2-2)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011312947.8A CN112504140B (zh) | 2020-11-20 | 2020-11-20 | 基于俯视深度相机的物体探测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011312947.8A CN112504140B (zh) | 2020-11-20 | 2020-11-20 | 基于俯视深度相机的物体探测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112504140A CN112504140A (zh) | 2021-03-16 |
CN112504140B true CN112504140B (zh) | 2022-10-04 |
Family
ID=74959358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011312947.8A Active CN112504140B (zh) | 2020-11-20 | 2020-11-20 | 基于俯视深度相机的物体探测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112504140B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754798A (zh) * | 2020-07-02 | 2020-10-09 | 上海电科智能系统股份有限公司 | 融合路侧激光雷达和视频实现车辆和周边障碍物探知方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9014432B2 (en) * | 2012-05-04 | 2015-04-21 | Xerox Corporation | License plate character segmentation using likelihood maximization |
US9365214B2 (en) * | 2014-01-30 | 2016-06-14 | Mobileye Vision Technologies Ltd. | Systems and methods for determining the status of a turn lane traffic light |
CN107358796B (zh) * | 2016-05-10 | 2021-05-11 | 武汉万集信息技术有限公司 | 一种基于无人机的车辆检测方法 |
US11555913B2 (en) * | 2017-11-13 | 2023-01-17 | Mitsubishi Electric Corporation | Object recognition device and object recognition method |
CN108444390B (zh) * | 2018-02-08 | 2021-01-26 | 天津大学 | 一种无人驾驶汽车障碍物识别方法及装置 |
CN109359596A (zh) * | 2018-10-18 | 2019-02-19 | 上海电科市政工程有限公司 | 一种快速且精确的高速路车辆定位方法 |
CN109522804B (zh) * | 2018-10-18 | 2020-11-06 | 一汽-大众汽车有限公司 | 一种道路边沿识别方法及系统 |
CN111708039B (zh) * | 2020-05-24 | 2023-09-05 | 奥比中光科技集团股份有限公司 | 一种深度测量装置、方法及电子设备 |
CN111650604B (zh) * | 2020-07-02 | 2023-07-28 | 上海电科智能系统股份有限公司 | 利用精确定位实现自我车辆和周边障碍物精确探知的方法 |
-
2020
- 2020-11-20 CN CN202011312947.8A patent/CN112504140B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754798A (zh) * | 2020-07-02 | 2020-10-09 | 上海电科智能系统股份有限公司 | 融合路侧激光雷达和视频实现车辆和周边障碍物探知方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112504140A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12093052B2 (en) | Wide-view LIDAR with areas of special attention | |
US11180119B2 (en) | System and method for autonomous vehicle predictive sensor cleaning | |
US11760313B2 (en) | Sensor pod cleaning system | |
CN111033306B (zh) | 通过多个假设的光探测和测距(lidar)设备范围混叠弹性 | |
Hancock | Laser intensity-based obstacle detection and tracking | |
KR102190700B1 (ko) | Lidar(light detection and ranging) 시스템에서의 범위 에일리어싱 검출 및 완화를 위한 연장된 검출 주기들의 사용 | |
US20240272280A1 (en) | Sensor pod assembly | |
US11305724B2 (en) | Pedestrian protection system for sensor pods | |
US11353590B2 (en) | Sensor pod calibration | |
CN114442101B (zh) | 基于成像毫米波雷达的车辆导航方法、装置、设备及介质 | |
US11623585B2 (en) | Sensor pod coverage and placement on vehicle | |
EP3836084B1 (en) | Charging device identification method, mobile robot and charging device identification system | |
US11473912B2 (en) | Location-estimating device and computer program for location estimation | |
CN112504140B (zh) | 基于俯视深度相机的物体探测方法 | |
KR20150010126A (ko) | 차량 측방 표시 제어 장치 및 방법 | |
CN113459951A (zh) | 车外环境显示方法和装置、车辆、设备和存储介质 | |
CN110727269A (zh) | 车辆控制方法及相关产品 | |
US20240061092A1 (en) | Sensor system | |
JP2023524233A (ja) | センサポッドアセンブリ | |
CN211032395U (zh) | 自动驾驶车辆 | |
CN116311173B (zh) | 一种多传感器融合的无人车路面坑洼检测方法 | |
US20240017748A1 (en) | Device, method, and computer program for lane determination | |
US20240219538A1 (en) | Using Cleaning Protocols to Monitor Defects Associated with Light Detection and Ranging (Lidar) Devices | |
Shikiji et al. | Novel vehicle information acquisition method using vehicle code for automotive infrared laser radar | |
JP2024015785A (ja) | 自動運転管理システム及び自動運転管理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |