CN116543032B - 冲击物测距方法、装置、测距设备及存储介质 - Google Patents
冲击物测距方法、装置、测距设备及存储介质 Download PDFInfo
- Publication number
- CN116543032B CN116543032B CN202310820540.3A CN202310820540A CN116543032B CN 116543032 B CN116543032 B CN 116543032B CN 202310820540 A CN202310820540 A CN 202310820540A CN 116543032 B CN116543032 B CN 116543032B
- Authority
- CN
- China
- Prior art keywords
- determining
- vehicle
- images
- distance
- impact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000003116 impacting effect Effects 0.000 claims abstract description 125
- 239000011159 matrix material Substances 0.000 claims description 42
- 230000003287 optical effect Effects 0.000 claims description 25
- 238000006073 displacement reaction Methods 0.000 claims description 20
- 238000013519 translation Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 17
- 239000000725 suspension Substances 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 16
- 238000001914 filtration Methods 0.000 claims description 15
- 238000003062 neural network model Methods 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 6
- 230000009286 beneficial effect Effects 0.000 abstract description 5
- 238000004364 calculation method Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
本发明公开了一种冲击物测距方法、装置、测距设备及存储介质。通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;分别确定冲击物对应于各图像的像素位置;根据冲击物对应于相邻两帧图像的像素位置确定冲击物的实际位置;根据实际位置确定车辆与冲击物之间的距离。解决了现有冲击物测距方法中,难以在兼顾测距成本的同时,降低计算量,并提高测距精度的问题,取到了在降低测距成本和计算量的同时,有效的提高了测距精度的有益效果。
Description
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种冲击物测距方法、装置、测距设备及存储介质。
背景技术
随着人工智能技术的发展,智能化汽车的需求日益增加。智能感知技术已成为保障车辆安全,提高车辆稳定性的核心技术,而在车辆驾驶过程中对冲击物测距是智能感知技术的重要基础。
现有的冲击物测距方法中,主要采用激光雷达、毫米波雷达、多目相机或单目相机。对于在实际应用中采用激光雷达、毫米波雷达或多目相机进行测距,由于需要额外部署设备导致测距成本增加。而现有的单目相机测距,需要通过获取的路面信息进行计算,存在难以兼顾降低计算量的同时提高测距精度的问题。
发明内容
本发明提供了一种冲击物测距方法、装置、测距设备及存储介质,以解决现有冲击物测距方法难以在兼顾测距成本的同时,降低计算量,并提高测距精度的问题。
根据本发明的一方面,提供了一种冲击物测距方法,包括:
通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;
分别确定冲击物对应于各图像的像素位置;
根据冲击物对应于相邻两帧图像的像素位置确定冲击物的实际位置;
根据实际位置确定车辆与冲击物之间的距离。
根据本发明的另一方面,提供了一种冲击物测距装置,包括:
图像获取模块,用于通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;
切线确定模块,用于分别确定冲击物对应于各图像的像素位置;
位置确定模块,用于根据冲击物像素位置对应于相邻两帧图像的像素位置确定冲击物的实际位置;
距离确定模块,用于根据实际位置确定车辆与冲击物之间的距离。
根据本发明的另一方面,提供了一种测距设备,测距设备包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的计算机程序,计算机程序被至少一个处理器执行,以使至少一个处理器能够执行本发明任一实施例的冲击物测距方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,计算机指令用于使处理器执行时实现本发明任一实施例的冲击物测距方法。
本发明实施例的技术方案,通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;分别确定冲击物对应于各图像的像素位置;根据冲击物对应于相邻两帧图像的像素位置确定冲击物的实际位置;根据实际位置确定车辆与冲击物之间的距离。通过采用上述技术方案,利用冲击物对应的像素位置与实际位置之间的关系及相邻两帧图像中冲击物像素位置之间的关系,能够确定冲击物的实际位置,进而能够确定该实际位置与车辆之间的距离。解决了现有冲击物测距方法中,难以在兼顾测距成本的同时,降低计算量,并提高测距精度的问题,取到了在降低测距成本和计算量的同时,有效的提高了测距精度的有益效果。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种冲击物测距方法的流程图;
图2为本发明实施例提供的一种车轮接地点的示意图;
图3为本发明实施例提供的一种车轮接地点到冲击物的距离的示意图;
图4为本发明实施例二提供的一种冲击物测距方法的流程图;
图5为本发明实施例提供的一种冲击物所在平面的示意图;
图6为本发明实施例提供的一种冲击物实际位置的示意图;
图7为本发明实施例三提供的一种冲击物测距方法的流程图;
图8为本发明实施例四提供的一种冲击物测距装置的结构示意图;
图9为本发明实施例五提供的一种测距设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供的一种冲击物测距方法的流程图,本实施例可适用于车辆在行驶过程中对前方路面上冲击物测距的情况,该方法可以由冲击物测距装置来执行,该冲击物测距装置可以采用硬件和/或软件的形式实现,该冲击物测距装置可配置于测距设备中,如车载设备中或车辆中。如图1所示,该方法包括:
S101、通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像。
在本实施例中,冲击物可以理解为在车辆行驶过程中,车辆前方道路上出现可能会影响车辆平稳行驶的障碍物。
具体的,在车辆行驶过程中,利用单目相机对车辆前方道路进行实时拍摄,获取包含可能影响车辆平稳运行的障碍物的连续多帧图像。
S102、分别确定冲击物对应于各图像的像素位置。
在本实施例中,冲击物对应于各图像的像素位置可以理解为路面上的冲击物映射到对应的图像中后,在该图像坐标系下以冲击物轮廓的边缘切线位置作为冲击物所对应的二维平面中的位置,例如边缘切线位置可以为冲击物的下边缘切线,也可以是上边缘切线,本实施不限定边缘切线位置。
示例性的,获取多个包含冲击物的图像后,对各图像进行预处理操作,然后分别输入到深度神经网络模型中进行检测,输出冲击物对应图像轮廓或检测框,进而通过计算得到的各图像上冲击物对应轮廓或检测框的边缘切线作为冲击物对应图像的像素位置。本实例中不限定深度神经网络模型类型,例如深度神经网络模型包含语义分割网络、目标检测网络等。
S103、根据冲击物对应于相邻两帧图像的像素位置确定冲击物的实际位置。
其中,冲击物的实际位置可以理解为在第二帧图像时刻会对车辆稳定性产生影响的路面上冲击物的位置。
具体的,在确定各冲击物对应图像上的像素位置后,分别利用两帧图像中冲击物对应的边缘切线信息和车辆自身姿态数据确定当前冲击物的实际位置。
示例性的,在计算得到相邻两帧图像中冲击物对应的边缘切线后,分别计算出边缘切线在对应图像坐标系下的直线方程。考虑到相邻两帧图像中冲击物对应的边缘切线分别与相机光心及路面上冲击物在一个平面上,进而通过两个直线方程分别计算两帧图像时刻冲击物对应的平面。进而将两个平面变换至同一个坐标系下,计算两个平面的交线,并通过计算交线上冲击物对应线段的长度确定冲击物的实际位置。
S104、根据实际位置确定车辆与冲击物之间的距离。
在本实施中,车辆与冲击物之间的距离可以理解为车辆的前面两个车轮接地点分别到冲击物之间的距离。
示例性的,当确定冲击物的实际位置后,需要判断车辆是否会驶过该冲击物,在第二帧图像对应的相机坐标系下,忽略车轮转向,分别计算车辆的两个前车轮所处的平面与冲击物的实际位置是否存在交点,若存在交点,则判定车辆会驶过该冲击物,进而分别计算车辆的前面两个车轮接地点分别到冲击物之间的距离以确定车辆到冲击物之间的距离。
本发明实施例的技术方案,通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;分别确定冲击物对应于各图像的像素位置;根据冲击物对应于相邻两帧图像的像素位置确定冲击物的实际位置;根据实际位置确定车辆与冲击物之间的距离。通过采用上述技术方案,利用冲击物对应的像素位置与实际位置之间的关系及相邻两帧图像中冲击物像素位置之间的关系,能够确定冲击物的实际位置,进而能够确定该实际位置与车辆之间的距离。解决了现有冲击物测距方法中,难以在兼顾测距成本的同时,降低计算量,并提高测距精度的问题,取到了在降低测距成本和计算量的同时,有效的提高了测距精度的有益效果。
作为另一种可选的实施例,分别确定冲击物对应于各图像的像素位置,包括:将各图像输入至深度神经网络模型,得到冲击物对应于各图像的检测框或轮廓;根据检测框或轮廓确定冲击物对应于各图像的像素位置。通过上述技术方案,能够准确表征冲击物在图像中的位置,进而有效提高冲击物实际位置确定的准确性。
在本实施例中,深度神经网络模型包括预先训练好的,能够对图像中的物体进行检测,并输出其像素级的坐标值的神经网络模型。例如,深度神经网络模型包括具备语义分割、实例分割或目标检测等功能的深度神经网络模型。
其中,冲击物对应于各图像的检测框或轮廓可以理解为采用不同的深度神经网络所检测到的结果。例如,采用目标检测模型则得到冲击物对应图像的检测框。
具体的,获取多个包含冲击物的图像后,对各图像进行预处理消除镜头畸变,进而将各预处理后的图像分别输入到预先训练好的深度神经网络模型中进行检测,则该模型会输出冲击物对应各图像的检测框或轮廓。如果输出的是冲击物的轮廓,进而对该轮廓进行边缘平滑处理,利用处理后冲击物轮廓的边缘切线来表征冲击物在图像中的位置,如果输出的是冲击物的检测框,则利用检测框的边缘切线来表征冲击物在图像中的位置。
在一些实施例中,根据实际位置确定车辆与冲击物之间的距离,包括:确定在相邻两帧图像中的第二帧图像对应的相机坐标系下的车轮平面,车轮平面包括左车轮平面和右车轮平面;若车轮平面与冲击物在第二帧图像中对应的空间线段存在交点,则计算相应车轮接地点至交点的距离。通过上述技术方案,能够准确的确定车辆和冲击物之间的距离。
在本实施例中,相机坐标系可以理解为以相机的光心为坐标系原点,x轴与y轴与图像坐标系的x,y轴平行,z轴为相机光轴,它与图形平面垂直。空间线段可以理解为路面上的冲击物对应的直线区域。
其中,车轮接地点可以理解为在第二帧图像时刻两个车轮对应的相机坐标系下坐标。如图2为本发明实施例提供的一种车轮接地点的示意图所示,其中左右车轮对应的坐标分别如式(1)和式(2)所示:
(1)
(2)
其中:、/>为左、右轮接地点,/>为左右两车辆轮距,/>为车辆在标准载荷下相机光心位置在垂直方向上距离轮胎接地点的距离,/>为车辆在标准载荷下相机光心位置在水平方向上距离轮胎接地点的距离,/>为第二时刻左前悬架相对高度值/>,为第二时刻右前悬架相对高度值,/>为相机坐标系z轴与车辆坐标系x轴的夹角。
具体的,在不考虑车轮转向的情况下,两车轮平面与相机坐标系zoy平面平行,进而通过计算车轮平面的一般方程式确定第二帧图像对应的相机坐标系下的车轮平面,其左车轮平面和右车轮平面分别如式(3)和式(4)所示:
(3)
(4)
其中,为左车轮平面,/>为右车轮平面。
将两平面方程分别与第二帧图像中冲击物对应的线段方程联立,通过判断两平面与线段方程之间是否存在交点来确定车轮在未来时刻是否会驶过该路面上冲击物。若不存在交点,则认为车轮在未来时刻不会驶过该路面上冲击物。若存在交点,则认为车轮会在未来时刻驶过该路面上冲击物,并计算出交点位置。进而通过分别计算两个车轮接地点至交点的距离确定车轮接地点到路面上冲击物之间的实际距离,即车辆与冲击物之间的距离。
示例性的,如图3为本发明实施例提供的一种车轮接地点到冲击物的距离的示意图所示,左侧车轮平面和右侧车轮平面分别与冲击物对应线段之间存在交点,并计算出两个交点的具体位置,进而就可以得到左车轮接地点到冲击物之间的实际距离,右轮接地点到冲击物之间的实际距离/>。
作为一种可选的实施例,根据实际位置确定车辆与冲击物之间的距离,包括:根据至少两组相邻两帧图像对应的实际位置对车辆与冲击物之间的距离进行滤波,输出滤波后的距离。通过上述技术方案,有效降低了噪声干扰,提高测距结果的准确性。
具体的,考虑到在计算车轮接地点到路面上冲击物之间距离的过程中,可能会存在一定误差及噪声,所以对计算后的距离进行滤波。将相邻两帧图像对应车辆与冲击物之间的距离作为一组,当多组距离都存在时,将多组距离进行联合计算,进而输出滤波后的结果。
示例性的,基于第一帧时刻、第二帧时刻的图像计算出来的车辆与冲击物的距离作为第一组,将基于第二帧时刻、第三针时刻的图像计算出来的车辆与冲击物的距离作为第二组,当两个结果都存在时,将两组距离进行联合计算,实现对结果的滤波。
可选的,本实施例不限定滤波计算方式,例如可以对多个距离进行加权融合,或使用卡尔曼滤波等融合方式。
在一些实施例中,根据至少两组相邻两帧图像对应的实际位置对车辆与冲击物之间的距离进行滤波,输出滤波后的距离,包括:根据第一组相邻两帧图像对应的实际位置确定车辆与冲击物之间的第一距离;根据第二组相邻两帧图像对应的实际位置确定车辆与冲击物之间的第二距离;根据第一距离、第二距离、车轮实时速度的积分以及横摆角速度的积分计算滤波后的距离。
其中,第一距离包括利用第一组相邻两帧图像对应的实际位置确定的左、右车轮到冲击物之间距离,例如第二帧图像中对应的左车轮到冲击物的位置,第二帧图像中对应的右车轮到冲击物的位置/>。第二距离包括利用第二组相邻两帧图像对应的实际位置确定的左、右车轮到冲击物之间距离,例如第三帧图像中对应的左车轮到冲击物的位置,第二帧图像中对应的右车轮到冲击物的位置/>。
具体的,在车辆行驶过程中会对前方路面上冲击物的距离持续进行计算,且第一距离和第二距离都稳定存在,即两时刻车轮平面都与冲击物有交点,则使用第一距离、第二距离、车轮实时速度的积分以及横摆角速度的积分联合计算,实现对结果的滤波,具体的计算方法如式(5)所示:
(5)
其中:、/>为滤波后的n+1时刻时左右前轮到冲击物的距离;/>、为在n时刻,基于n-1时刻、n时刻下车辆到冲击物之间距离;/>、/>为在n+1时刻,基于n时刻、n+1时刻下车辆到冲击物之间的距离;/>、/>为左前轮、右前轮实时车速;使用横摆角速度/>在n至n+1时刻积分已求解两时刻下的航向角之差。
本实施例所提供的方法,考虑到了车辆航向角改变带来的影响,使用前一时刻计算结果+根据车辆运动状态推算的当前时刻冲击物距离与当前时刻计算的冲击物距离进行融合,进而起到滤波效果。此方法将将两时刻间车辆的曲线运动近似看成是直线运动以简便计算,由于两时刻时间间隔较短,认为误差可忽略。有效的降低了在进行距离计算时产生的误差及噪声。
实施例二
图4为本发明实施例二提供的一种冲击物测距方法的流程图,本实施例在上述各可选实施例基础上进行优化和扩展。本实施例对步骤S103进一步优化,在分别确定冲击物对应于各图像的像素位置后,对各帧图像中冲击物所对应的平面进行确定,然后利用两个平面确定冲击物所处的交线,再根据交线确定冲击物实际位置,进而确定车辆与冲击物之间的距离。如图4所示,该方法包括:
S201、通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像。
S202、分别确定冲击物对应于各图像的像素位置。
S203、根据冲击物对应于相邻两帧图像的像素位置分别确定冲击物所处的相应平面。
示例性的,当确定相邻两帧图像中冲击物对应的像素位置时,可以进一步计算出该像素位置在对应图像坐标系下的直线方程。由于相邻两帧图像中冲击物对应的像素位置分别与相机光心及路面上冲击物在一个平面上,通过分别计算出直线方程在对应相机坐标系下的平面束方程,并将已知的相机光心坐标分别带入到平面束方程中,即可确定冲击物所在的第一帧图像对应的平面,例如/>和第二帧图像对应的平面/>,例如/>。
S204、确定冲击物所处的两个相应平面的交线。
具体的,由于路面上冲击物分别位于平面和平面/>上,通过计算两个平面相交形成的直线即为路面上冲击物所在的直线。考虑到平面/>和平面/>是在两个不同相机坐标系下建立的,需要将两个平面变换到同一个坐标系下再计算两者的交线,例如包括将平面/>变换到当前坐标系下再计算两者交线,或将平面/>和平面/>均变换至绝对坐标系或车辆坐标系下再计算两者交线等,本实施例不限制坐标变换方式。
示例性的,利用坐标系变换矩阵。将平面/>变换到当前坐标系下的平面/>,再计算两者交线。
第一帧图像对应的相机坐标系内的点经变换矩阵变换后,将有如下变化:
(6)
将平面方程/>改写成齐次坐标矩阵形式,有:
(7)
将变换矩阵带入,则经坐标变换后的冲击物平面的齐次方程为:
(8)
则平面的一般方程系数为:
(9)
至此,完成了在第一帧图像对应时刻,第一相机坐标系下确定的冲击物平面至第二相机坐标系下的转换,联立两个平面方程,即可确定两平面交线,即在第二帧图像对应的相机坐标系下冲击物切线的方程,见下式:
(10)
S205、根据交线确定冲击物的实际位置。
具体的,冲击物是交线上的一线段,通过确定代表冲击物线段的长短来确定冲击物的实际位置。
示例性的,确定代表冲击物线段的长短,首先获取第二帧图像对应的图像坐标系下冲击物的两侧边缘点,再分别过两侧边缘点及相机光心作与相机坐标系y轴平行的平面,两个平面与路面上冲击物的切线分别形成交点,通过计算两个交点之间的距离,即为冲击物的实际位置。
S206、根据实际位置确定车辆与冲击物之间的距离。
本发明实施例提供的冲击物测距方法,在确定冲击物对应于各图像的像素位置后,依据相邻两帧图像中冲击物的像素位置分别确定冲击物对应的平面,并通过计算两个平面的交线确定冲击物的实际位置,进而根据实际位置确定车辆与冲击物之间的距离。通过上述技术方案,减低了计算量,有效提高该方法的实现效率。
作为一种可选的实施例,根据冲击物对应于相邻两帧图像的像素位置分别确定冲击物所处的相应平面,包括:根据冲击物对应于相邻两帧图像中的每帧图像的像素位置在图像坐标系下的直线方程确定相应的在相机坐标系下的平面束方程;将相机光心坐标代入平面束方程,得到冲击物所处的相应平面。通过上述技术方案,为下一步计算两个平面交线奠定基础。
具体的,根据冲击物对应于第一帧图像的像素位置确定冲击物所处的相应平面,其中,第一帧图像中冲击物对应的像素位置是以冲击物边缘切线进行表征的,获取到第一帧图像的冲击物边缘切线后,根据该边缘切线在图像平面上的位置确定在图像坐标系下的边缘切线的直线方程:
(11)
其中,、/>和/>为第一帧图像中边缘切线对应的直线方程系数。
由于该直线方程与实际的路面上冲击物以及相机光心共面,所以通过该直线方程和相机光心可以确定在相机坐标系下的平面束方程,其具体的实现方式如下:
在相机坐标系下,边缘切线的直线方程如式(12)所示:
(12)
其中,为相机的焦距。
由此可确定相机坐标系下该直线的平面束方程:
(13)
将光心(即相机坐标系原点)坐标带入上述平面束可得:
(14)
(15)
则冲击物所在平面方程为:
(16)
通过计算可确定第一帧图像时刻冲击物所在的平面方程。示例性的,如图5为本发明实施例提供的一种冲击物所在平面的示意图所示,以路面上冲击物在等效成像平面上即图像坐标系下的下边缘切线为例,可以看到路面上冲击物与其对应的下边缘切线,以及相机光心在同一个平面上,进而利用上述公式可以计算出冲击物所在平面。
当车辆发生移动后的第二时刻,即冲击物对应于第二帧图像的像素位置,重复进行上述计算,可确定冲击物所在的第二个平面方程,如式(17)所示:
(17)
作为另一种可选的实施例,根据交线确定冲击物的实际位置,包括:取冲击物在相邻两帧图像中的第二帧图像中在图像坐标系y轴方向上的极大值点和极小值点;计算交线与第一平面的交点以及与第二平面的交点,其中,第一平面为经过极大值点和相机光心的与相机坐标系y轴平行的平面,第二平面为经过极小值点和相机光心的与相机坐标系y轴平行的平面;根据两个交点确定冲击物的空间线段,并根据空间线段确定冲击物的实际位置。通过上述技术方案,有效提高确定冲击物实际位置的准确性。
在本实施例中,极大值点和极小值点可以理解为在第二时刻图像坐标系下冲击物两侧的边缘点。
具体的,当计算出第二帧图像时刻相机坐标系下冲击物对应的切线方程后,需要确定该直线上冲击物所处的区域,即切线上的线段。首先在相邻两帧图像的第二帧图像对应的图像坐标系下,取冲击物所在y轴上的极大值点和极小值点,然后分别过两个极值点和相机光心原点做与相机坐标系y轴平行的平面,基于极大值点建立的平面为第一平面,基于极小值点建立的平面为第二平面。
进而通过分别计算冲击物切线与两个平面的交点,即可确定冲击物在空间直线上的空间线段,其方程如下:
(18)
其中:代表空间线段,/>、/>为两平面与冲击物切线/>交点的y轴上的坐标值。进而通过冲击物在空间直线上的空间线段即可确定冲击物的实际位置。
示例性的,如图6为本发明实施例提供的一种冲击物实际位置的示意图所示,在图像坐标系下,确定极大值点和极小值点,可以得到由极大值点确定的平面和由极小值点确定的平面,进而分别计算两平面与冲击物切线交点的y轴上的坐标值,通过得到的两个坐标值即可确定冲击物实际位置。
实施例三
图7为本发明实施例三提供的一种冲击物测距方法的流程图,本实施例在上述各可选实施例基础上进行优化和扩展。本实施例展开描述了将不同相机坐标系下表示的平面转化到相同坐标系下进行表示的过程。如图7所示,该方法包括:
S301、通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像。
S302、分别确定冲击物对应于各图像的像素位置。
S303、根据冲击物对应于相邻两帧图像的像素位置分别确定冲击物所处的相应平面。
S304、根据车辆的姿态数据确定旋转矩阵和平移向量。
其中,车辆的姿态数据包括翻滚角、俯仰角、偏航角等信息。旋转矩阵用于表征坐标系的角度变化。平移向量用于表征坐标系的位移变化。
具体的,由于相邻两帧图像分别对应的冲击物所在平面均在相机坐标系下,而第一帧图像对应时刻与第二帧图像对应时刻的相机坐标系存在位姿变化,所以需要将第一帧图像对应时刻计算的冲击物所在平面转换至第二帧图像对应时刻相机坐标系下。在平面转化的过程中,角度和位移均发生变化,所以需要依据车辆的姿态数据确定旋转矩阵和平移向量。
示例性的,由于平面旋转采用外旋方式,按俯仰角-翻滚角-偏航角顺序旋转,则旋转矩阵R的计算方法如下:
(19)
其中:为绕第一帧图像对应时刻的相机坐标系y轴即俯仰角方向的旋转矩阵,/>为绕第一帧图像对应时刻的相机坐标系x轴即翻滚角方向的旋转矩阵,/>为绕第一帧图像对应时刻的相机坐标系z轴即偏航角方向的旋转矩阵。
平移向量的具体确定方式如下:
(20)
其中:、/>、/>分别为坐标轴原点在三个方向上的位移。
S305、基于旋转矩阵和平移向量确定坐标系变换矩阵。
其中,坐标系变换矩阵可以理解为将两个点之间的仿射关系以转换矩阵的形式表现出来,也就是通过转换矩阵作用于原始点的坐标,得到相对应的通过仿射(平移,缩放,选择)得到的新的点的坐标。
具体的,根据旋转矩阵和平移向量可以确定坐标系变换矩阵,在齐次坐标形式下的表示如式(21):
(21)
其中,为坐标系变换矩阵。
S306、基于坐标系变换矩阵将冲击物对应于相邻两帧图像中第一帧图像所处的相应平面转换至第二帧图像的相机坐标系下。
具体的,利用坐标变换矩阵将第一帧图像对应时刻计算的冲击物所在平面转换至第二帧图像对应时刻相机坐标系下的具体计算方式如式(22):
(22)
S307、确定冲击物所处的两个相应平面的交线。
S308、根据交线确定冲击物的实际位置。
本发明实施例提供的冲击物测距方法,在确定冲击物所处的相应平面后,通过车辆的姿态数据确定旋转矩阵和平移向量,进而确定坐标系变换矩阵,然后将第一帧图像对应时刻计算的冲击物所在平面转换至第二帧图像对应时刻相机坐标系下,并通过两个平面确定冲击物的实际位置,进而确定车辆与冲击物之间的距离。通过采用上述技术方案,实现了冲击物位置的确定,并有效减少了冲击物测距的计算量。
作为一种可选实施例,根据车辆的姿态数据确定旋转矩阵,包括:通过惯性测量单元IMU在相邻两帧图像对应时刻输出的车身纵向与水平方向的夹角计算相机绕x轴的第一旋转角度,或者通过车辆在相邻两帧图像对应时刻的纵向坡度信号计算第一旋转角度;通过IMU在相邻两帧图像对应时刻输出的车身侧向与水平方向的夹角计算相机绕z轴的第二旋转角度,或者通过车辆在相邻两帧图像对应时刻的侧向坡度信号计算第二旋转角度;通过对车辆的横摆角速度传感器在相邻两帧图像对应时刻测得的数据进行积分以得到相机绕y轴的第三旋转角度。通过采用上述方案,综合考虑多种旋转角度及多种方式计算旋转角度,有效提高了旋转矩阵确定的准确性以及该方法的实用性。
在本实施中,惯性测量单元IMU可以理解为测量物体三轴姿态角(或角速率)以及加速度的装置。第一旋转角度可以理解为从第一帧图像对应时刻到第二帧图像对应时刻,在相机坐标系下相机绕x轴旋转形成的角度。第二旋转角度可以理解为可以理解为从第一帧图像对应时刻到第二帧图像对应时刻,在相机坐标系下相机绕z轴旋转形成的角度。第三旋转角度可以理解为从第一帧图像对应时刻到第二帧图像对应时刻,在相机坐标系下相机绕y轴旋转形成的角度。
具体的,在旋转矩阵中,是由第一旋转角度,即相机绕x轴的旋转角度确定的,/>是由第二旋转角度,即相机绕z轴旋转角度确定的,/>是由第三旋转角度,即相机绕y轴旋转角度确定的,所以需要对三个旋转角度进行计算。
计算相机绕x轴的第一旋转角度,考虑到相机与车身固连,第一旋转角度是车辆绕车辆坐标系y轴的旋转角度,所以若车辆具备IMU,可通过IMU在两帧图像对应时刻输出的车身纵向与水平方向的夹角、/>计算,具体如下:
(23)
其中,为第一旋转角度,即相机绕x轴旋转角度。
若车辆未搭载IMU,则可通过车辆在两个时刻的纵向坡度信号计算:
(24)
其中,、/>为第一帧图像对应时刻车辆坐标系下的纵向坡度值,第二帧图像对应时刻车辆坐标系下的纵向坡度值,本实施例不限定纵向坡度值的计算方法。
同理,计算相机坐标系绕z轴的第二旋转角度,等同于车身绕车辆坐标系x轴的旋转角度,所以若车辆具备IMU,可以通过IMU在两个时刻输出的车身侧向方向与水平方向的夹角计算、/>,具体如下:
(25)
其中,为第二旋转角度,即相机绕z轴旋转角度。
若车辆未搭载IMU,则可通过车辆在前后时刻的侧向坡度信号计算:
(26)
其中,、/>为第一帧图像对应时刻车辆坐标系下的侧向坡度值、第二帧图像对应时刻车辆坐标系下的侧向坡度值,本实施例不限定侧向坡度值的计算方法。
同理,计算相机坐标系绕y轴的第三旋转角度,可用车身在车辆坐标系z轴的旋转角度进行表征,而车身在z轴的旋转角度由车辆横摆角速度传感器积分获得,如下式(27):
(27)
其中,为第三旋转角度,即相机绕y轴旋转角度。/>、/>为第一帧图像对应时刻、第二帧图像对应时刻;/>为车辆实时横摆角速度。
进而根据三个旋转角度实现对旋转矩阵中俯仰角方向的旋转矩阵、翻滚角方向的旋转矩阵和偏航角方向的旋转矩阵的确定,其计算方式分别如下式所示:
(28)
(29)
(30)
在一些实施例中,根据车辆的姿态数据确定旋转矩阵,还包括:若车辆具备悬架高度传感器,则基于悬架高度信号矫正第一旋转角度和第二旋转角度。通过上述技术方案,有效提高了旋转角度的精确度,进而提高旋转矩阵的精确性。
在本实施例中,悬架高度传感器是车辆上用于测量车身前后悬架姿态变化必不可少的零部件。
具体的,若车辆具备悬架高度传感器,则可用悬架高度信号消除车身与悬架相对位移产生的误差实现对相机坐标系绕x轴的第一旋转角度的矫正,其计算方法如下:
(31)
其中:为第二时刻左前悬架相对高度值;/>为第二时刻右前悬架相对高度值;/>为第二时刻左后悬架相对高度值;/>为第二时刻右后悬架相对高度值; />为车辆轴距长度。
同理,实现对相机坐标系绕z轴的第二旋转角度矫正时,可用以下方法计算:
(32)
作为另一种可选的实施例,根据车辆的姿态数据确定平移向量,包括:对车辆的横摆角速度传感器在相邻两帧图像对应时刻测得的数据进行积分以得到车辆偏航角;根据车辆偏航角确定车辆在相机坐标系下沿x轴位移的分量以及沿y轴位移的分量;根据车辆的坡度信号,对车辆在相邻两帧图像对应时刻在垂向的速度进行积分,以得到沿z轴位移的分量;平移向量由沿x轴位移的分量、沿y轴位移的分量以及沿z轴位移的分量构成。通过多个方向的分量对平移向量进行确定,有效提高计算平移向量的准确性。
在本实施例中,车辆偏航角可以理解为车辆前进方向和车头指向的夹角。车辆的坡度信号可以理解为车辆行驶过程中,检测路面坡度的高频信号和低频信号两部分。
具体的,第一帧图像对应的相机坐标系下坐标原点上三个方向上的位移、/>、/>确定了平移向量,其计算方法分别如下:
考虑到路面坡度及车辆转向,利用车辆的横摆角速度传感器实时获取车辆横摆角速度,并对每个时刻的车辆横摆角速度进行积分以获取车辆偏航角。由此通过计算,可以确定车辆在第一相机坐标系下沿x轴位移的分量。/>的具体计算方式如下:
(33)
其中:车辆行驶速度。
同理,通过计算,可以确定车辆在第一相机坐标系下沿y轴位移的分量,/>具体的计算方式如下:
(34)
通过坡度信号对车辆在垂向(y方向)的速度积分计算,可以确定车辆在第一相机坐标系下沿z轴位移的分量,/>的具体计算方式如下:
(35)
实施例四
图8为本发明实施例四提供的一种冲击物测距装置的结构示意图。如图8所示,该装置包括:图像获取模块41,切线确定模块42,位置确定模块43,距离确定模块44,其中:
图像获取模块41,用于通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;切线确定模块42,用于分别确定冲击物对应于各图像的像素位置;位置确定模块43,用于根据冲击物像素位置对应于相邻两帧图像的像素位置确定冲击物的实际位置;距离确定模块44,用于根据实际位置确定车辆与冲击物之间的距离。
本发明实施例提供的技术方案,解决了现有冲击物测距方法中,难以在兼顾测距成本的同时,降低计算量,并提高测距精度的问题,取到了在降低测距成本和计算量的同时,有效的提高了测距精度的有益效果。
可选的,切线确定模块42包括:
图像检测单元,用于将各图像输入至深度神经网络模型,得到冲击物对应于各图像的检测框或轮廓。
像素位置确定单元,用于根据检测框或轮廓确定冲击物对应于各图像的像素位置。
可选的,位置确定模块43包括:
平面确定单元,用于根据冲击物对应于相邻两帧图像的像素位置分别确定冲击物所处的相应平面。
交线确定单元,用于确定冲击物所处的两个相应平面的交线。
位置确定单元,用于根据交线确定冲击物的实际位置。
可选的,平面确定单元包括:
方程确定子单元,用于根据冲击物对应于相邻两帧图像中的每帧图像的像素位置在图像坐标系下的直线方程确定相应的在相机坐标系下的平面束方程。
平面确定子单元,用于将相机光心坐标代入平面束方程,得到冲击物所处的相应平面。
进一步的,在交线确定单元之前还包括:
第一确定单元,用于根据车辆的姿态数据确定旋转矩阵和平移向量。
第二确定单元,用于基于旋转矩阵和平移向量确定坐标系变换矩阵。
平面转换单元,用于基于坐标系变换矩阵将冲击物对应于相邻两帧图像中第一帧图像所处的相应平面转换至第二帧图像的相机坐标系下。
可选的,第一确定单元包括第一确定子单元和第二确定子单元。
可选的,第一确定子单元,具体用于通过惯性测量单元IMU在相邻两帧图像对应时刻输出的车身纵向与水平方向的夹角计算相机绕x轴的第一旋转角度,或者通过车辆在相邻两帧图像对应时刻的纵向坡度信号计算第一旋转角度;通过IMU在相邻两帧图像对应时刻输出的车身侧向与水平方向的夹角计算相机绕z轴的第二旋转角度,或者通过车辆在相邻两帧图像对应时刻的侧向坡度信号计算第二旋转角度;通过对车辆的横摆角速度传感器在相邻两帧图像对应时刻测得的数据进行积分以得到相机绕y轴的第三旋转角度。
可选的,第一确定子单元,还可用于若车辆具备悬架高度传感器,则基于悬架高度信号矫正第一旋转角度和第二旋转角度。
可选的,第二确定子单元,具体用于对车辆的横摆角速度传感器在相邻两帧图像对应时刻测得的数据进行积分以得到车辆偏航角;根据车辆偏航角确定车辆在相机坐标系下沿x轴位移的分量以及沿y轴位移的分量;根据车辆的坡度信号,对车辆在相邻两帧图像对应时刻在垂向的速度进行积分,以得到沿z轴位移的分量;平移向量由沿x轴位移的分量、沿y轴位移的分量以及沿z轴位移的分量构成。
可选的,位置确定单元,具体用于取冲击物在相邻两帧图像中的第二帧图像中在图像坐标系y轴方向上的极大值点和极小值点;计算交线与第一平面的交点以及与第二平面的交点,其中,第一平面为经过极大值点和相机光心的与相机坐标系y轴平行的平面,第二平面为经过极小值点和相机光心的与相机坐标系y轴平行的平面;根据两个交点确定冲击物的空间线段,并根据空间线段确定冲击物的实际位置。
可选的,距离确定模块44包括:
车轮平面确定单元,用于确定在相邻两帧图像中的第二帧图像对应的相机坐标系下的车轮平面,车轮平面包括左车轮平面和右车轮平面。
距离计算单元,用于若车轮平面与冲击物在第二帧图像中对应的空间线段存在交点,则计算相应车轮接地点至交点的距离。
可选的,距离确定模块44包括:
距离滤波单元,用于根据至少两组相邻两帧图像对应的实际位置对车辆与冲击物之间的距离进行滤波,输出滤波后的距离。
可选的,距离滤波单元,具体用于根据第一组相邻两帧图像对应的实际位置确定车辆与冲击物之间的第一距离;根据第二组相邻两帧图像对应的实际位置确定车辆与冲击物之间的第二距离;根据第一距离、第二距离、车轮实时速度的积分以及横摆角速度的积分计算滤波后的距离。
本发明实施例所提供的冲击物测距装置可执行本发明任意实施例所提供的冲击物测距方法,具备执行方法相应的功能模块和有益效果。
实施例五
图9为本发明实施例五提供的一种测距设备的结构示意图。测距设备可为电子设备,旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图9所示,电子设备50包括至少一个处理器51,以及与至少一个处理器51通信连接的存储器,如只读存储器(ROM)52、随机访问存储器(RAM)53等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器51可以根据存储在只读存储器(ROM)52中的计算机程序或者从存储单元58加载到随机访问存储器(RAM)53中的计算机程序,来执行各种适当的动作和处理。在RAM 53中,还可存储电子设备50操作所需的各种程序和数据。处理器51、ROM 52以及RAM 53通过总线54彼此相连。输入/输出(I/O)接口55也连接至总线54。
电子设备50中的多个部件连接至I/O接口55,包括:输入单元56,例如键盘、鼠标等;输出单元57,例如各种类型的显示器、扬声器等;存储单元58,例如磁盘、光盘等;以及通信单元59,例如网卡、调制解调器、无线通信收发机等。通信单元59允许电子设备50通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器51可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器51的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器51执行上文所描述的各个方法和处理,例如冲击物测距方法。
在一些实施例中,冲击物测距方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元58。在一些实施例中,计算机程序的部分或者全部可以经由ROM 52和/或通信单元59而被载入和/或安装到电子设备50上。当计算机程序加载到RAM53并由处理器51执行时,可以执行上文描述的冲击物测距方法的一个或多个步骤。备选地,在其他实施例中,处理器51可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行冲击物测距方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种冲击物测距方法,其特征在于,包括:
通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;
分别确定所述冲击物对应于各所述图像的像素位置;
根据所述冲击物对应于相邻两帧图像的像素位置确定所述冲击物的实际位置;
根据所述实际位置确定所述车辆与所述冲击物之间的距离;
其中,根据所述冲击物对应于相邻两帧图像的像素位置确定所述冲击物的实际位置,包括:
根据所述冲击物对应于相邻两帧图像的像素位置分别确定所述冲击物所处的相应平面;
确定所述冲击物所处的两个相应平面的交线;
根据所述交线确定所述冲击物的实际位置;
根据所述实际位置确定所述车辆与所述冲击物之间的距离,包括:
根据至少两组相邻两帧图像对应的实际位置对所述车辆与所述冲击物之间的距离进行滤波,输出滤波后的距离;
其中,根据至少两组相邻两帧图像对应的实际位置对所述车辆与所述冲击物之间的距离进行滤波,输出滤波后的距离,包括:
根据第一组相邻两帧图像对应的实际位置确定所述车辆与所述冲击物之间的第一距离;
根据第二组相邻两帧图像对应的实际位置确定所述车辆与所述冲击物之间的第二距离;
根据所述第一距离、所述第二距离、车轮实时速度的积分以及横摆角速度的积分计算所述滤波后的距离。
2.根据权利要求1所述的方法,其特征在于,分别确定所述冲击物对应于各所述图像的像素位置,包括:
将各所述图像输入至深度神经网络模型,得到所述冲击物对应于各所述图像的检测框或轮廓;
根据所述检测框或所述轮廓确定所述冲击物对应于各所述图像的像素位置。
3.根据权利要求1所述的方法,其特征在于,根据所述冲击物对应于相邻两帧图像的像素位置分别确定所述冲击物所处的相应平面,包括:
根据所述冲击物对应于相邻两帧图像中的每帧图像的像素位置在图像坐标系下的直线方程确定相应的在相机坐标系下的平面束方程;
将相机光心坐标代入所述平面束方程,得到所述冲击物所处的相应平面。
4.根据权利要求1所述的方法,其特征在于,在确定所述冲击物所处的两个相应平面的交线之前,还包括:
根据所述车辆的姿态数据确定旋转矩阵和平移向量;
基于所述旋转矩阵和所述平移向量确定坐标系变换矩阵;
基于所述坐标系变换矩阵将所述冲击物对应于相邻两帧图像中第一帧图像所处的相应平面转换至第二帧图像的相机坐标系下。
5.根据权利要求4所述的方法,其特征在于,根据所述车辆的姿态数据确定旋转矩阵,包括:
通过惯性测量单元IMU在所述相邻两帧图像对应时刻输出的车身纵向与水平方向的夹角计算相机绕x轴的第一旋转角度,或者通过所述车辆在所述相邻两帧图像对应时刻的纵向坡度信号计算所述第一旋转角度;
通过IMU在所述相邻两帧图像对应时刻输出的车身侧向与水平方向的夹角计算相机绕z轴的第二旋转角度,或者通过所述车辆在所述相邻两帧图像对应时刻的侧向坡度信号计算所述第二旋转角度;
通过对所述车辆的横摆角速度传感器在所述相邻两帧图像对应时刻测得的数据进行积分以得到相机绕y轴的第三旋转角度。
6.根据权利要求5所述的方法,其特征在于,根据所述车辆的姿态数据确定旋转矩阵,还包括:
若所述车辆具备悬架高度传感器,则基于所述悬架高度信号矫正所述第一旋转角度和所述第二旋转角度。
7.根据权利要求4所述的方法,其特征在于,根据所述车辆的姿态数据确定平移向量,包括:
对所述车辆的横摆角速度传感器在所述相邻两帧图像对应时刻测得的数据进行积分以得到车辆偏航角;
根据所述车辆偏航角确定所述车辆在相机坐标系下沿x轴位移的分量以及沿y轴位移的分量;
根据所述车辆的坡度信号,对所述车辆在所述相邻两帧图像对应时刻在垂向的速度进行积分,以得到沿z轴位移的分量;
所述平移向量由所述沿x轴位移的分量、所述沿y轴位移的分量以及所述沿z轴位移的分量构成。
8.根据权利要求1所述的方法,其特征在于,根据所述交线确定所述冲击物的实际位置,包括:
取所述冲击物在所述相邻两帧图像中的第二帧图像中在图像坐标系y轴方向上的极大值点和极小值点;
计算所述交线与第一平面的交点以及与第二平面的交点,其中,所述第一平面为经过所述极大值点和相机光心的与相机坐标系y轴平行的平面,所述第二平面为经过所述极小值点和相机光心的与相机坐标系y轴平行的平面;
根据两个交点确定所述冲击物的空间线段,并根据所述空间线段确定所述冲击物的实际位置。
9.根据权利要求1所述的方法,其特征在于,根据所述实际位置确定所述车辆与所述冲击物之间的距离,包括:
确定在所述相邻两帧图像中的第二帧图像对应的相机坐标系下的车轮平面,所述车轮平面包括左车轮平面和右车轮平面;
若所述车轮平面与所述冲击物在所述第二帧图像中对应的空间线段存在交点,则计算相应车轮接地点至所述交点的距离。
10.一种冲击物测距装置,其特征在于,包括:
图像获取模块,用于通过单目相机获取车辆行驶方向上的至少两帧包含冲击物的图像;
切线确定模块,用于分别确定所述冲击物对应于各所述图像的像素位置;
位置确定模块,用于根据所述冲击物像素位置对应于相邻两帧图像的像素位置确定所述冲击物的实际位置;
距离确定模块,用于根据所述实际位置确定所述车辆与所述冲击物之间的距离;
其中,所述位置确定模块,包括:
平面确定单元,用于根据所述冲击物对应于相邻两帧图像的像素位置分别确定所述冲击物所处的相应平面;
交线确定单元,用于确定所述冲击物所处的两个相应平面的交线;
位置确定单元,用于根据所述交线确定所述冲击物的实际位置;
所述距离确定模块,包括:
距离滤波单元,用于根据至少两组相邻两帧图像对应的实际位置对所述车辆与所述冲击物之间的距离进行滤波,输出滤波后的距离;
其中,所述距离滤波单元,具体用于根据第一组相邻两帧图像对应的实际位置确定所述车辆与所述冲击物之间的第一距离;根据第二组相邻两帧图像对应的实际位置确定所述车辆与所述冲击物之间的第二距离;根据所述第一距离、所述第二距离、车轮实时速度的积分以及横摆角速度的积分计算所述滤波后的距离。
11.一种测距设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-9中任一所述的冲击物测距方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-9中任一所述的冲击物测距方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820540.3A CN116543032B (zh) | 2023-07-06 | 2023-07-06 | 冲击物测距方法、装置、测距设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310820540.3A CN116543032B (zh) | 2023-07-06 | 2023-07-06 | 冲击物测距方法、装置、测距设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116543032A CN116543032A (zh) | 2023-08-04 |
CN116543032B true CN116543032B (zh) | 2023-11-21 |
Family
ID=87451062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310820540.3A Active CN116543032B (zh) | 2023-07-06 | 2023-07-06 | 冲击物测距方法、装置、测距设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116543032B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117238418A (zh) * | 2023-11-10 | 2023-12-15 | 奥谱天成(成都)信息科技有限公司 | 高光谱成像技术结合力学参数的冲击损伤分析方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084133A (zh) * | 2019-04-03 | 2019-08-02 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、车辆、计算机设备和存储介质 |
CN110197104A (zh) * | 2018-02-27 | 2019-09-03 | 杭州海康威视数字技术股份有限公司 | 基于车辆的测距方法及装置 |
CN112525147A (zh) * | 2020-12-08 | 2021-03-19 | 北京嘀嘀无限科技发展有限公司 | 自动驾驶设备测距方法及相关装置 |
CN113688730A (zh) * | 2021-08-24 | 2021-11-23 | 阿波罗智能技术(北京)有限公司 | 障碍物测距方法、装置、电子设备、存储介质及程序产品 |
CN113819890A (zh) * | 2021-06-04 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 测距方法、装置、电子设备及存储介质 |
CN113869268A (zh) * | 2021-10-12 | 2021-12-31 | 广州小鹏自动驾驶科技有限公司 | 障碍物测距方法、装置、电子设备及可读介质 |
CN114690226A (zh) * | 2022-04-02 | 2022-07-01 | 山东天星北斗信息科技有限公司 | 基于载波相位差分技术辅助的单目视觉测距方法及系统 |
WO2022156276A1 (zh) * | 2021-01-22 | 2022-07-28 | 华为技术有限公司 | 一种目标检测方法及装置 |
-
2023
- 2023-07-06 CN CN202310820540.3A patent/CN116543032B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110197104A (zh) * | 2018-02-27 | 2019-09-03 | 杭州海康威视数字技术股份有限公司 | 基于车辆的测距方法及装置 |
CN110084133A (zh) * | 2019-04-03 | 2019-08-02 | 百度在线网络技术(北京)有限公司 | 障碍物检测方法、装置、车辆、计算机设备和存储介质 |
CN112525147A (zh) * | 2020-12-08 | 2021-03-19 | 北京嘀嘀无限科技发展有限公司 | 自动驾驶设备测距方法及相关装置 |
WO2022156276A1 (zh) * | 2021-01-22 | 2022-07-28 | 华为技术有限公司 | 一种目标检测方法及装置 |
CN113819890A (zh) * | 2021-06-04 | 2021-12-21 | 腾讯科技(深圳)有限公司 | 测距方法、装置、电子设备及存储介质 |
CN113688730A (zh) * | 2021-08-24 | 2021-11-23 | 阿波罗智能技术(北京)有限公司 | 障碍物测距方法、装置、电子设备、存储介质及程序产品 |
CN113869268A (zh) * | 2021-10-12 | 2021-12-31 | 广州小鹏自动驾驶科技有限公司 | 障碍物测距方法、装置、电子设备及可读介质 |
CN114690226A (zh) * | 2022-04-02 | 2022-07-01 | 山东天星北斗信息科技有限公司 | 基于载波相位差分技术辅助的单目视觉测距方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116543032A (zh) | 2023-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112083725B (zh) | 一种面向自动驾驶车辆的结构共用多传感器融合定位系统 | |
CN113819914A (zh) | 一种地图构建方法及装置 | |
CN116543032B (zh) | 冲击物测距方法、装置、测距设备及存储介质 | |
CN114526745A (zh) | 一种紧耦合激光雷达和惯性里程计的建图方法及系统 | |
CN112017236B (zh) | 一种基于单目相机计算目标物位置的方法及装置 | |
JP7173471B2 (ja) | 3次元位置推定装置及びプログラム | |
CN115082881A (zh) | 目标检测方法、存储介质、电子设备及车辆 | |
CN107688174A (zh) | 一种图像测距方法、系统、存储介质和车载视觉感知设备 | |
CN114325634A (zh) | 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法 | |
CN111476798B (zh) | 一种基于轮廓约束的车辆空间形态识别方法及系统 | |
CN110597249A (zh) | 一种机器人及其回充定位方法和装置 | |
CN112700486A (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
CN114387319A (zh) | 点云配准方法、装置、设备以及存储介质 | |
CN112819711A (zh) | 一种基于单目视觉的利用道路车道线的车辆反向定位方法 | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
CN112902911B (zh) | 基于单目相机的测距方法、装置、设备及存储介质 | |
CN115937449A (zh) | 高精地图生成方法、装置、电子设备和存储介质 | |
CN116091567A (zh) | 自动驾驶车辆的配准方法、装置、电子设备和车辆 | |
CN115900732A (zh) | 基于路侧相机和车载单元的组合导航方法及系统 | |
CN115727871A (zh) | 一种轨迹质量检测方法、装置、电子设备和存储介质 | |
CN113643355B (zh) | 一种目标车辆位置和朝向的检测方法、系统及存储介质 | |
CN114119885A (zh) | 图像特征点匹配方法、装置及系统、地图构建方法及系统 | |
CN115564836B (zh) | 幕墙机器人的单目坐标转换方法、装置及电子设备 | |
JP7382799B2 (ja) | 物体認識方法及び物体認識装置 | |
JP4876676B2 (ja) | 位置計測装置、方法及びプログラム、並びに移動量検出装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |