CN114724104B - 一种视认距离检测的方法、装置、电子设备、系统及介质 - Google Patents
一种视认距离检测的方法、装置、电子设备、系统及介质 Download PDFInfo
- Publication number
- CN114724104B CN114724104B CN202210565796.XA CN202210565796A CN114724104B CN 114724104 B CN114724104 B CN 114724104B CN 202210565796 A CN202210565796 A CN 202210565796A CN 114724104 B CN114724104 B CN 114724104B
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- cloud data
- point cloud
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 230000000007 visual effect Effects 0.000 title claims abstract description 75
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 230000008569 process Effects 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims description 22
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000002776 aggregation Effects 0.000 claims description 6
- 238000004220 aggregation Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 230000000694 effects Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 235000019504 cigarettes Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Computational Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Operations Research (AREA)
- Software Systems (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
Abstract
本申请实施例提供一种视认距离检测的方法、装置、电子设备、系统及介质,属于视认距离检测领域,该方法包括:获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是在车辆行驶过程中由观测对象观测到的最远交通标线所在位置;获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离。通过本申请的一些实施例能够提高检测视认距离的效率以及安全性。
Description
技术领域
本申请实施例涉及视认距离检测领域,具体涉及一种视认距离检测的方法、装置、电子设备、系统及介质。
背景技术
交通标线是重要的交通设施,目前评判交通标线是否合格通常采用逆反射亮度系数的方法,但该方法检测误差较大,不能够表征驾驶员对交通标线的视认效果。
为解决上述问题,相关技术中采用距离测量仪测量驾驶员对交通标线的视认距离,但由于需要停车检测,当驾驶员看到最远交通标线后到停车之间的距离无法估计,因此导致测量得到的视认距离存在误差。
因此,如何高效安全的检测视认距离成为需要解决的问题。
发明内容
本申请实施例提供一种视认距离检测的方法、装置、电子设备及介质,通过本申请的一些实施例至少能够提高检测视认距离的准确性、效率以及安全性。
第一方面,本申请实施例提供了一种视认距离检测的方法,所述方法包括:获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是通过对目标位置的标记进行拍摄获得的,所述目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,所述标记是由所述观测对象设置在所述目标位置上的;获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离。
因此,与相关技术中停车使用仪器检测视认距离不同的是,本申请实施例通过车辆移动过程中实时获取的待识别图像和点云数据计算视认距离,能够实现无需停车即可采集观测对象观测到的最远交通标线的所在位置,从而实现精准安全的计算视认距离,并且能够节省使用仪器测量视认距离的人工成本。
结合第一方面,在本申请的一些实施例中,所述根据所述待识别图像和所述点云数据获得视认距离,包括:计算所述待识别图像中各像素的灰度值,并且基于所述灰度值得到所述目标识别点所对应的像素坐标;基于所述点云数据建立交通标线所在平面的回归方程;根据所述像素坐标和所述回归方程,获得所述视认距离,其中,所述像素坐标是图像坐标系下的坐标。
因此,本申请实施例通过像素坐标和回归方程计算视认距离,能够精准的找到目标识别点在待识别图像上的位置,从而根据路面的回归方程准确的计算目标识别点的坐标,进而获得准确的视认距离。
结合第一方面,在本申请的一些实施例中,在所述基于所述灰度值得到所述目标识别点所对应的像素坐标之前,所述方法还包括:将所述灰度值进行二值化,获得二值化图像;从所述二值化图像上抽取多个子区域,其中,所述多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数;计算所述多个子区域中各子区域的第一像素值,得到多个第一像素值;从所述多个第一像素值中选择目标像素值,则将与所述目标像素值对应的子区域的中心点,作为目标像素点,其中,所述像素坐标为所述目标像素点在所述待识别图像上的像素坐标。
因此,本申请实施例通过确认多个子区域并且计算每个子区域对应的第一像素值,能够避免包含像素点较少的噪声点对识别目标识别点的影响,从而准确的获得目标识别点的坐标。
结合第一方面,在本申请的一些实施例中,在所述计算所述待识别图像中各像素的灰度值之后,所述方法还包括:将所述待识别图像输入到交通标线识别模型中,获得所述交通标线在所述待识别图像中的位置;依据所述交通标线在所述待识别图像中的位置,确定由所述交通标线所圈定范围内的多个像素点;所述基于所述灰度值得到所述目标识别点所对应的像素坐标,包括:基于所述多个像素点的灰度值得到所述目标识别点所对应的像素坐标;所述基于所述点云数据建立交通标线所在平面的回归方程,包括:基于所述多个像素点对应的点云数据和所述像素坐标,建立所述交通标线所在平面的回归方程。
因此,本申请实施例通过先识别交通标线的位置,再从交通标线所圈定范围内抽取多个像素点,能够在识别目标识别点的过程中有效的去除杂光的干扰,从而提高识别目标识别点的准确率。
结合第一方面,在本申请的一些实施例中,所述待识别图像是通过图像采集单元获得的;所述根据所述像素坐标和所述回归方程,获得所述视认距离,包括:确认所述图像采集单元的内参矩阵;基于所述内参矩阵,将所述像素坐标映射到图像采集单元坐标系下,获得第一方程,其中,所述图像采集单元坐标系是以图像采集单元为坐标原点建立的;求解所述第一方程和所述回归方程,获得所述目标识别点在图像采集单元坐标系下的坐标;基于所述图像采集单元坐标系下的坐标获得所述视认距离。
因此,本申请实施例利用路面的回归方程计算视认距离,能够克服点云稀疏的问题,从而得到准确的目标识别点在图像采集单元坐标系下的坐标,从而得到准确的视认距离。
结合第一方面,在本申请的一些实施例中,所述多个像素点对应的点云数据是通过如下步骤获得的:获取待识别图像的拍摄时间;查找与所述拍摄时间相对应的点云数据;从所述与所述拍摄时间相对应的点云数据中,抽取所述多个像素点对应的点云数据。
因此,本申请实施例通过相同的时间戳来获取与待识别图像相对应的点云数据,能够使待识别图像中展示的场景所对应的点云数据获取的更加准确,进而获得准确的视认距离。
第二方面,本申请实施例提供了一种视认距离检测的装置,所述装置至少包括:采集设备,安装于车辆顶部,所述采集设备包括:图像采集单元,用于采集待识别图像;点云数据采集单元,用于采集所述车辆行驶过程中的点云数据,其中,所述图像采集单元和点云数据采集单元的采集时间同步;激光发射器,放置于所述车辆副驾驶,所述激光发射器用于在观测人员观测到最远交通标线时,发射激光进行标记。
因此,本申请实施例通过距离测量的装置,能够在车辆行驶的过程中采集道路视频数据和点云数据,从而能够实现无需下车测量,即可采集计算视认距离的相关数据,保证了观测对象的安全。
第三方面,本申请实施例提供了一种视认距离检测的系统,所述系统包括:距离检测的装置,用于采集待识别图像以及点云数据,并发送所述待识别图像和所述点云数据;服务器,被配置为根据接收的所述待识别图像和所述点云数据实现如第一方面任意实施方式所述的距离检测的方法。
第四方面,本申请实施例提供了一种视认距离检测的装置,所述装置包括:图像获取模块,被配置为获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是通过对目标位置的标记进行拍摄获得的,所述目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,所述标记是由所述观测对象设置在所述目标位置上的;点云获取模块,被配置为获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;距离计算模块,被配置为根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离。
结合第四方面,在本申请的一些实施例中,所述距离计算模块还被配置为:计算所述待识别图像中各像素的灰度值,并且基于所述灰度值得到所述目标识别点所对应的像素坐标;基于所述点云数据建立交通标线所在平面的回归方程;根据所述像素坐标和所述回归方程,获得所述视认距离,其中,所述像素坐标是图像坐标系下的坐标。
结合第四方面,在本申请的一些实施例中,距离计算模块还被配置为:将所述灰度值进行二值化,获得二值化图像;从所述二值化图像上抽取多个子区域,其中,所述多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数;计算所述多个子区域中各子区域的第一像素值,得到多个第一像素值;从所述多个第一像素值中选择目标像素值,则将与所述目标像素值对应的子区域的中心点,作为目标像素点,其中,所述像素坐标为所述目标像素点在所述待识别图像上的像素坐标。
结合第四方面,在本申请的一些实施例中,距离计算模块还被配置为:将所述待识别图像输入到交通标线识别模型中,获得所述交通标线在所述待识别图像中的位置;依据所述交通标线在所述待识别图像中的位置,确定由所述交通标线所圈定范围内的多个像素点;距离计算模块还被配置为:基于所述多个像素点的灰度值得到所述目标识别点所对应的像素坐标;距离计算模块还被配置为:基于所述多个像素点对应的点云数据和所述像素坐标,建立所述交通标线所在平面的回归方程。
结合第四方面,在本申请的一些实施例中,所述待识别图像是通过图像采集单元获得的;距离计算模块还被配置为:确认所述图像采集单元的内参矩阵;基于所述内参矩阵,将所述像素坐标映射到图像采集单元坐标系下,获得第一方程,其中,所述图像采集单元坐标系是以图像采集单元为坐标原点建立的;求解所述第一方程和所述回归方程,获得所述目标识别点在图像采集单元坐标系下的坐标;基于所述图像采集单元坐标系下的坐标获得所述视认距离。
结合第四方面,在本申请的一些实施例中,所述多个像素点对应的点云数据是通过如下步骤获得的:获取待识别图像的拍摄时间;查找与所述拍摄时间相对应的点云数据;从所述与所述拍摄时间相对应的点云数据中,抽取所述多个像素点对应的点云数据。
第五方面,本申请实施例提供了一种电子设备,包括:处理器、存储器和总线;所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现如第一方面任意实施例所述方法。
第六方面,本申请实施例提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被执行时实现如第一方面任意实施例所述方法。
附图说明
图1为本申请实施例示出的一种视认距离检测的系统组成示意图;
图2为本申请实施例示出的一种视认距离检测的装置组成示意图之一;
图3为本申请实施例示出的一种视认距离检测的方法流程图之一;
图4为本申请实施例示出的一种待识别图像示意图;
图5为本申请实施例示出的一种视认距离检测的方法流程图之二;
图6为本申请实施例示出的一种视认距离检测的方法流程图之三;
图7为本申请实施例示出的一种视认距离检测的方法流程图之四;
图8为本申请实施例示出的一种视认距离检测的装置组成示意图之二;
图9为本申请实施例示出的一种电子设备。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对附图中提供的本申请的实施例的详情描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护范围。
本申请实施例的技术方案可应用于对观测人员与可观测的最远交通标线之间的视认距离进行测量的场景中。为了改善背景技术中的问题,在本申请的一些实施例中,通过移动中的装置实时采集待识别图像(该待识别图像包括观测到的最远标线上的标识所对应的像素点),并采集对应道路的点云数据,再基于采集的待识别图像和点云数据计算观测人员与观测到的最远交通标线之间的视认距离。
例如,在本申请的一些实施例中,电子设备至少被配置为:首先,获取由距离检测装置(例如,该装置包括图像采集单元和点云数据采集单元)采集的待识别图像和点云数据,然后,计算待识别图像中包括的目标识别点对应的像素坐标,最后,基于该像素坐标和交通标线的回归方程,计算视认距离。通过本申请实施例中的上述方法,能够提高检测视认距离的效率以及安全性。
需要说明的是,交通标线是车辆在道路上行驶的过程中,道路地面上的标识。例如,交通标线可以是区分车道的车道线,也可以是区分直行和转弯的标识线。最远交通标线是观测人员在车辆内能够观测到的最远的车道线或标识线。
可以理解的是,激光发射器获取的点云数据是在激光发射器视线范围内所有的点云数据,其中,点云数据中必须包括与路面相对应的数据。
下面结合附图详细描述本申请实施例中的方法步骤。
图1提供了本申请一些实施例中的视认距离检测的系统组成图,该系统包括采集设备120、车辆110和电子设备130(例如,服务器)。具体的,驾驶员驾驶车辆110和位于副驾驶座位上的观测对象在夜间的道路(该道路上设置有待测量的交通标线)上行驶,在行进过程中观测对象会观测该道路上的交通标线,该观测对象会使用激光发射器、车载嵌入式处理器等标识信号产生器件对观测到的最远的交通标识进行标记(可以理解的是,目前使用激光发射器的效果较好),此时采集设备120会采集包含该标记的待识别图像(或者采集一段视频数据),并采集点云数据。之后电子设备130在获取到道路待识别图像和点云数据之后,将道路视频数据中存在目标识别点的至少一帧图像(即待识别图像)抽取出来,基于点云数据和待识别图像计算视认距离。
与本申请实施例不同的是,相关技术是采用距离测量仪测量驾驶员对交通标线的视认距离,但由于需要停车检测,当驾驶员看到最远交通标线后到停车之间的距离无法估计,因此导致测量得到的视认距离存在误差。而本申请的实施例是通过观测对象在车辆行驶的过程中对最远的交通标线进行标记后,获得待识别图像,进而通过待识别图像来计算视认距离的,因此本申请的实施例并不需要像相关技术中需要停车检测即可计算得到视认距离。
下面具体描述本申请实施例中的视认距离检测的装置。
如图2所示,本申请实施例中的视认距离检测的装置包括:摄像头201(作为图像采集单元的一个具体示例)、控制端电脑202、PTP控制电脑203(即精确时间协议(precisetime protocol,PTP)控制电脑)、交换机204、激光雷达205(即点云数据采集单元)、接线板206、路由器207、车载逆变器电源208、激光发射器209。其中,激光雷达205可以通过雷达线缆插座与其他设备连接。
也就是说,距离检测的装置包含了感知系统硬件以及指示系统硬件。安装于车辆顶端的激光雷达205和摄像头201连接在一起构成了感知系统硬件,位于车内副驾驶的激光发射器209安装于摄影三脚架上构成了指示系统硬件,其中,激光发射器209的高度角度均可通过摄影三脚架进行调节。
具体的,激光雷达205通过雷达线缆插座与交换机204的第四LAN接口连接,其中,LAN表示局域网(Local Area Network,LAN),用于获取车辆行驶周围环境的点云数据,其中,雷达线缆插座还用于连接接线板206给激光雷达205供电。
摄像头201与交换机204的第一LAN接口连接,用于在车辆行驶过程中对周围环境进行录像,获得道路视频数据,其中,摄像头可以是型号为DFK 33UP5000的工业相机。
交换机204和路由器207用于为各设备提供局域网接口并且使用以太网线与各设备进行连接,其中,路由器207的第六LAN接口与交换机204的第五LAN接口连接。
PTP控制电脑203与交换机204的第三LAN接口连接,该PTP控制电脑203为Linux操作系统的电脑,用于作为时间源来控制摄像头201和激光雷达205同时采集信号。
控制端电脑202与交换机204的第二LAN接口连接,该控制端电脑为Windows系统操作电脑,该控制端电脑用于操纵激光雷达205和摄像头201的芯片保存点云数据和道路视频数据。
车载逆变器电源208通过接线板206与交换机204的电源线进行连接,该车载逆变器电源208用于将车辆内点烟器的电压转为220V的电压,从而为各设备供电。
接线板206与交换机204的电源线连接,用于为各设备供电,至少需要三个插头。
激光发射器209与车载逆变器电源208连接,用于在观测对象观测到最远交通标识时,标记最远交通标识所对应目标位置,其中,所述激光发射器209可以是双色激光指示器。
三脚架(图中未标出)用于固定激光发射器209,该三脚架可以是带有可调阻尼的三脚架,并且通过云台角度调节目标识别点的位置。
需要说明的是,在本申请的一种实施方式中控制端电脑202和PTP控制电脑203可以集成为一个电脑,其中,该电脑需要具备控制摄像头201和激光雷达205进行开始、保存等操作的功能,还需要具备控制摄像头201和激光雷达205进行同步采集的功能。
可以理解的是,摄像头和激光雷达需要固定在一块板子上,并且将板子放在车顶,其中,由于需要固定摄像头与激光雷达的外参,因此,摄像头和激光雷达的相对位置需要固定。
在本申请的一种实施方式中,在使用摄像头之前,需要对摄像头的内参和外参进行标定。具体步骤如下:
步骤一:利用棋盘格标定板对摄像头内参进行标定。
具体的,拍摄若干张不同角度下的棋盘格标定板图像,标注出每张图像中每个棋盘格子的顶点。利用已知的棋盘格实际物理尺寸基于张正友法标定出相机内参。可以理解的是摄像头的内参包括:像距信息、原点的平移距离等参数。
步骤二:利用棋盘格标定板对相机外参进行标定。
具体的,同时打开摄像头和激光雷达,同步获取图像以及点云数据,获得不同角度下的棋盘格标定板图像以及点云数据。标注出每张图像中棋盘格标定板的四个顶点,既四个顶点在图像中的图像坐标m和n,标注出棋盘格标定板的四个顶点所对应的点云数据得到四个顶点在激光雷达坐标系下的坐标。利用四个顶点的图像坐标以及激光雷达坐标系坐标得到摄像头与激光雷达之间的外参。可以理解的是,外参包括平移向量旋转矩阵等信息。
在本申请的一种实施方式中,数据采集流程包括:
步骤一:按照图2中所示的连接方式将各设备进行连接,并接通电源。
步骤二:开启摄像头,观察摄像机的图像质量,调整焦距、曝光度、增益等参数,并且设置图像分辨率和帧率。由于分辨率和帧率难以同时达到最优,因此,可以使帧率降低,使分辨率提高。
步骤三:开启激光雷达,检查时间戳是否为PTP同步时钟,记录点云数据到控制端电脑上。
步骤四:驾驶员在夜间启动车辆行驶在需要检测的路段上,摄像头对车辆行驶的道路进行拍摄,获得道路视频数据。同时,激光雷达采集车辆行驶的道路所对应的点云数据。坐在副驾驶的观测人员观测到最远的交通标线时,使用激光发射器标记最远的交通标线所对应的目标位置,摄像头对目标位置的标记进行拍摄,获得带有目标识别点的道路视频数据。
步骤五:将上述道路视频数据和点云数据保存在控制端电脑中。
需要说明的是,在不需要测量的路段可以关闭摄像头和激光雷达,到达需要测量的路段再打开。
因此,本申请实施例通过摄像头拍摄道路视频数据,通过激光雷达采集道路的点云数据,并且摄像头需要与激光雷达通过PTP协议进行时间同步。使用激光发射器标记能够观测到的最远的交通标线的位置。摄像头对该位置所对应的标记进行拍摄获得道路视频数据。
因此,本申请实施例通过距离测量的装置,能够在车辆行驶的过程中采集道路视频数据和点云数据,从而能够实现无需下车测量,即可采集计算视认距离的相关数据,保证了观测对象的安全。
下面以电子设备为例示例性阐述本申请一些实施例提供的距离检测的方案。可以理解的是,本申请实施例的距离检测的方法的技术方案可以应用于任何电子设备上,例如,服务器、客户端电脑等。
至少为了解决背景技术中的问题,如图3所示,本申请一些实施例提供了一种距离检测的方法,该方法包括:
S310,获取待识别图像。
在本申请的一种实施方式中,在采集道路视频数据和点云数据完成之后,将控制端电脑中保存的道路视频数据和点云数据拷贝到电子设备中。之后由电子设备识别道路视频数据中的每一帧图像,将存在目标识别点的至少一帧图像抽取出来,该至少一帧图像即为至少一帧待识别图像。
需要说明的是,本申请实施例中的距离检测的方法以至少一帧待识别图像中的任意一帧图像为例进行计算。
可以理解的是,目标识别点是在待识别图像中的标记点,是通过观测人员对目标位置的标记进行拍摄获得的,该目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,该标记是由观测对象使用激光发射器在目标位置上设置的。
作为本申请一具体实施例,如图4所示,图4为待识别图像403的示意图,其中,交通标线为402,观测人员在看到最远的交通标线时,在目标位置404上做标记,获得目标识别点401。可以理解的是,在待识别图像403上不显示由虚线围成的目标位置404,图4中仅为示意。
S320,获取由点云数据采集单元采集的点云数据。
可以理解的是,本申请实施例中点云数据采集单元为激光雷达,但本申请不限制点云数据采集单元的类型。
需要说明的是,在本申请的一些实施例中,点云数据采集单元可以设置在车辆外部,例如,在车辆顶部外表面放置一个板块,并将该单元固定在板块上。在本申请另一些实施例中,为避免遮挡,相机及点云数据采集设备需设置在车顶。
S330,根据待识别图像和点云数据获得视认距离。
在本申请的一种实施方式中,计算视认距离的具体步骤如下所示:
S1:计算待识别图像中各像素的灰度值。
具体的,本申请的目标识别点是观测人员利用激光发射器在路面标记的所能看见的最远处的位置。目标识别点的位置应该位于交通标线附近并且在交通标线上或交通标线内侧。
由于本申请是针对夜间行驶环境下的视认距离的测量,因此路面在图像中基本呈现黑色。另一方面激光反射器发射的激光点在夜间会更加鲜艳明显,因此可以利用目标识别点对应的像素与周围像素的色差来确定具体坐标。
摄像头拍摄的待识别图像是包含 RGB (即红色(Red,R)、绿色(Green,G)和蓝色(Blue,B)三通道的彩色图像,其信息冗余度较高并且计算量大。因此,搜索待识别图像中的目标识别点时,首先将待识别图像转化为灰度图。在将待识别图像转为单通道的灰度图后,每个各像素的灰度值是一个 0-255的数字,该数字代表了图像在这个点的亮度,数字越大像素点的亮度也就越高。灰度图虽然可以显示每个像素的亮度,但其包含的等级较多,在搜索目标识别点的过程中准确率较低。
S2:确定由交通标线所圈定范围内的多个像素点。
在本申请的一种实施方式中,将待识别图像输入到交通标线识别模型中,获得交通标线在待识别图像中的位置,依据交通标线在待识别图像中的位置,确定由交通标线所圈定范围内的多个像素点。
需要说明的是,本申请实施例中的交通标线识别模型使用霍夫变换算法进行识别。并且本申请对交通标线识别模型中使用的算法不作限定。
也就是说,预先建立一个用于识别交通标线的交通标线识别模型,将待识别图像输入到交通标线识别模型中,对交通标线进行识别,获得交通标线所在的位置。之后,在交通标线所在位置圈定的范围内,抽取多个像素点,作为搜索目标识别点的范围。
作为本申请一具体实施例,在交通标线为车道线时,将待识别图像输入到交通标线识别模型中,得到车道的车道线两侧直线方程,该直线方程的自变量和变量分别为p和q。由于车道两侧的车道线将趋于相交于一点形成一个三角形,该三角形所圈的范围既当前车道范围。
作为本申请一具体实施例,车道线的识别过程如图5所示,获取待识别图像403,将待识别图像进行灰度处理,获得灰度图502,将灰度图502进行二值化处理,获得二值图503,对二值图503进行边缘检测获得轮廓图504,最后对轮廓图504进行霍夫变换获得车道线505。
因此,本申请实施例通过先识别交通标线的位置,再从交通标线所圈定范围内抽取多个像素点,能够在识别目标识别点的过程中有效的去除杂光的干扰,从而提高识别目标识别点的准确率。
S4:确定目标像素点。
S41:将灰度值进行二值化,获得二值化图像。
也就是说,由于在将待识别图像处理为灰度图后,各像素对应的灰度值的等级较多,因此在获得灰度图后,将灰度图进行二值化,获得二值化图像。二值化操作可以使待识别图像呈现明显的黑白效果,每个像素只有两种取值。进行二值化有多种方法,其中阈值法最常被使用的方法,本申请采用全局阈值法,但对二值化操作的方法不做限制。
因此,通过将灰度值进行二值化,能更好的分析物体的形状和轮廓,提升目标识别点轮廓识别的准确率。
S42:从二值化图像上抽取多个子区域。
需要说明的是,多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数。
也就是说,在获得二值化图像之后,由于目标识别点是由多个目标像素点组成,因此,需要在上述多个像素点中查找组成目标识别点的多个目标像素点。
具体的,计算二值化图像中的多个像素点(即交通标线围成的多个像素点)范围内,由相同像素值(即像素值为1或像素值为0)组成的子区域所对应面积,其中,该面积为像素点的个数。之后抽取出面积大于K的区域,作为多个子区域。也就是说,多个像素点的范围内有多个由相同像素值组成的区域,例如,由像素值均为1组成的多个区域,和像素值均为0组成的多个区域,首先计算这些区域内包含的像素点的个数,然后判断这些区域像素点的个数,选取像素点的个数(即像素点聚集面积)大于K的多个子区域。其中,K为预设先设置的阈值,可以是10,也可以是20,本申请实施例不限于此。
例如:二值化图像中包括的多个像素点的个数为55个,包括由像素值为1组成的区域A、B和由像素值为0组成的区域C、D,其中,A区域的像素点个数为30,B区域的像素点个数为5,C区域的像素点个数为15,D区域的像素点个数为5。当K=10的情况下,则多个子区域为A区域和C区域。
S43:计算多个子区域中各子区域的第一像素值,得到多个第一像素值。
也就是说,在S42中得到多个子区域后,获得各子区域对应的第一像素值(即多个第一像素值)。具体的,第一像素值为各子区域对应的平均绿度值,平均绿度值是将各子区域中包括的所有像素点的绿度值计算平均值获得的,绿度值的计算方法为:将像素点的G通道像素值减去 R 通道像素值。
例如:多个子区域包括第一区域和第二区域,第一区域包括10个像素点,对应的绿度值为25、30、28、35等,那么,第一区域的平均绿度值(第一像素值)为29.5。第二区域包括15个像素点,对应的绿度值为38、24、58、23等,那么,第二区域的平均绿度值(第一像素值)为35.75。
S44:从多个第一像素值中选择目标像素值,则将与目标像素值对应的子区域的中心点,作为目标像素点。
也就是说,选择多个第一像素值中平均绿度值(及目标像素值)最大的区域,作为目标区域,之后,获取目标区域的中心点,作为目标像素点。
可以理解的是,像素坐标为目标像素点在待识别图像上的像素坐标。
作为本申请一具体实施例,由于目标识别点在待识别图像中由N个像素点组成,其中,N为大于1的整数。首先,筛选出像素点的个数大于10的子区域,例如,像素点个数大于10的子区域包括:第一区域和第二区域,由此可以避免噪声点的影响。然后,由于本申请实施例中的激光发射器发出的激光点(即目标识别点)为绿色,因此目标识别点的绿色通道(即G通道)的像素值和红色通道(即R 通道)的像素值,与其他区域的像素点相比有较大差异,利用目标识别点的这一特点,本申请实施例将 G 通道像素值减去 R 通道像素值的结果定义为“绿度”。最后,计算各子区域中所有像素的平均绿度值,将最大的平均绿度值所对应的区域,作为目标区域,之后,计算该目标区域的中心点作为目标识别点位置,并且获得目标识别点的坐标(u,v)。
作为本申请一具体实施例,目标识别点的识别过程如图6所示,获取待识别图像403,将待识别图像进行灰度处理,获得灰度图502,将灰度图502进行二值化处理,获得二值图503,对二值图503进行边缘检测获得轮廓图504,即获得多个子区域,之后执行S601计算色彩分布,即计算二值图的多个子区域中各子区域的“绿度”,最后执行S602选取平均绿度值最大的子区域,之后将该子区域对应的中心点的坐标作为目标识别点的坐标。
作为本申请一具体实施例,由于目标识别点在待识别图像中由N个像素点组成,其中,N为大于1的整数。首先,筛选出像素点的个数大于10的子区域,例如,像素点个数大于10的子区域包括:第一区域和第二区域,由此可以避免噪声点的影响。然后,由于本申请实施例中的激光发射器发出的激光点(即目标识别点)为黄色,因此目标识别点的绿色通道(即G通道)的像素值和红色通道(即R 通道)的像素值,与其他区域的像素点相比有较大差异,利用目标识别点的这一特点,本申请实施例将 G 通道像素值减去 R 通道像素值的结果定义为“绿度”。最后,计算各子区域中所有像素的平均绿度值,将最小的平均绿度值所对应的区域,作为目标区域,之后,计算该目标区域的中心点作为目标识别点位置,并且获得目标识别点的坐标(u,v)。
作为本申请一具体实施例,目标识别点的识别过程如图6所示,获取待识别图像403,将待识别图像进行灰度处理,获得灰度图502,将灰度图502进行二值化处理,获得二值图503,对二值图503进行边缘检测获得轮廓图504,即获得多个子区域,之后执行S601计算色彩分布,即计算二值图的多个子区域中各子区域的“绿度”,最后执行S602选取平均绿度值最小的子区域,之后将该子区域对应的中心点的坐标作为目标识别点的坐标。
可以理解的是,目标区域的颜色可能为其他颜色,例如,黄色,即上述计算平均绿度值仅为示例,本申请不对目标区域的颜色进行限制。
因此,本申请实施例通过确认多个子区域并且计算每个子区域对应的第一像素值,能够避免包含像素点较少的噪声点对识别目标识别点的影响,从而准确的获得目标识别点的坐标。
S3:基于灰度值得到目标识别点所对应的像素坐标。
也就是说,基于多个像素点的灰度值得到目标识别点所对应的像素坐标,即通过上述方法获得目标像素点的位置之后,将目标像素点所对应的坐标,作为目标识别点的像素坐标,例如,像素坐标为(u,v)。
需要说明的是,目标识别点所对应的区域中包括目标像素点,本申请实施例将目标像素点的像素坐标,作为目标识别点对应的像素坐标。
S4:基于点云数据建立交通标线所在平面的回归方程。
也就是说,基于多个像素点对应的点云数据和像素坐标,建立交通标线所在平面的回归方程。
在本申请的一种实施方式中,多个像素点对应的点云数据是通过如下步骤获得的:首先,获取待识别图像的拍摄时间,接着,查找与拍摄时间相对应的点云数据,最后,从与拍摄时间相对应的点云数据中,抽取多个像素点对应的点云数据。
具体的,由于激光雷达与摄像头能够同时采集数据,因此根据待识别图像的时间戳以及点云数据的时间戳可以为每张待识别图像匹配上相对应的点云数据。例如,假设以每秒24帧的速度采集待识别图像,那么可以将两帧待识别图像之间的时间段内所采集到的点云数据都归结为第一张待识别图像所对应的点云数据。
因此,本申请实施例通过相同的时间戳来获取与待识别图像相对应的点云数据,能够使待识别图像中展示的场景所对应的点云数据获取的更加准确,进而获得准确的视认距离。
在本申请的一种实施方式中,本申请实施例是通过如下方式建立回归方程的。
首先,将点云数据投影到图像平面上。具体的,待识别图像所对应的点云数据可以先通过标定好的外参转换到图像采集单元坐标系下,然后进一步通过摄像头的内参将点云数据与待识别图像中的像素相匹配。由于激光雷达的分辨率远低于摄像头的分辨率因此待识别图像中只有部分像素能够得到与之相匹配的点云数据。此时点云数据已经转换到了图像采集单元坐标系下,因此如果像素有与之对应的点云数据,那么可以知道该像素在图像采集单元坐标系下的坐标。
可以理解的是,图像采集单元坐标系是以摄像头为坐标原点建立的。
其次,取出当前交通标线范围内的点云。具体的,由于在上述S2中确定了由交通标线所圈定范围内的多个像素点,又已知点云数据与待识别图像中的像素之间的匹配关系,那么可以将当前交通标线(例如:车道)所圈定范围内的像素对应的点云数据提取出来,即这些提取出来的点云数据都是落在当前交通标线路面上的点云数据。
最后,建立回归路面方程。具体的,利用随机抽样一致(Random SampleConsensus,RANSAC)算法基于提取出来的点云数据回归出交通标线对应的平面方程。由于提取出来的每个点云数据都有该点云数据在图像采集单元坐标系下的X,Y和Z轴的数值信息,那么利用这些数值信息完全可以确定一个平面。因此,为了删除异常点对回归的影响采用了RANSAC算法进行回归,可以得到更为稳健的平面回归结果。
S5:根据像素坐标和回归方程,获得视认距离,其中,像素坐标是图像坐标系下的坐标。
可以理解的是,图像坐标系是以待识别图像的中心点为坐标原点建立的,在另一些从图像上左上角做为坐标原点。
在本申请的一种实施方式中,通过像素坐标和回归方程获得视认距离的步骤如下所述:
由于摄像头安装后与检测车辆驾驶座的相对位置是固定不变的,因此为了计算出路面上的目标识别点与驾驶员之间的视认距离,只需计算出目标识别点在图像采集单元坐标系下的坐标即可。本申请实施例中采用摄像头的内参以及回归方程作为约束对该坐标进行计算。
步骤一:确认图像采集单元的内参矩阵。
图像采集单元(即摄像头)的内参矩阵建立了在图像采集单元坐标系下物理空间中的一点,与待识别图像平面上的像素之间的映射关系。本申请实施例采用Q来表示图像采集单元的内参矩阵,该内参矩阵为一个3×3的矩阵,具体由如下表达式(1)所示:
其中,Q表示图像采集单元的内参矩阵。
步骤二:基于内参矩阵,将像素坐标映射到图像采集单元坐标系下,获得第一方程。
具体的,在图像采集单元坐标系下,空间中位置坐标为(x,y,z)的一个点投影到图像平面上,在图像坐标系下的图像坐标可以由如下表达式(2)所示,可以理解的是,表达式(2)为第一方程。
可以理解的是,图像采集单元坐标系是以图像采集单元的感光传感器的中心为坐标原点建立的。
步骤三:求解第一方程和回归方程,获得目标识别点在图像采集单元坐标系下的坐标。
具体的,本申请实施例中采用前文所述的方法可以确定目标识别点在图像坐标系中的像素坐标,即已知该目标识别点的u和v。另外,式(2)所示的投影关系本质上反映了由3 个约束方程构成的一个方程组,在这个方程组中有x,y,z和w四个未知数,通过3个约束方程显然还无法求解x,y,z。
由于目标识别点总是落在交通标识所在的路面上并且可以将路面考虑为空间中的一个平面,因此只要得到路面在图像采集单元坐标系下的回归方程即可得到x,y,z之间的另外一个约束方程。由此回归方程与式(2)共同构成了四个约束方程,从而可以求解出x,y,z和w四个未知数。
作为本申请一具体实施例,由于已经在待识别图像中识别出了目标识别点的位置,因此可以得到目标识别点在图像坐标系下的像素坐标u和v。考虑到目标识别点落在路面上,因此该点的x,y和z坐标应该满足回归方程的约束,通过回归方程的约束可以消去x,y和z中的一元。由于目标识别点的像素坐标u和v是已知条件,反映了点云数据到图像投影关系的摄像头内参也为已知条件,因此通过求解二元一次方程可以得到目标识别点的图像采集单元坐标系下的x,y和z坐标。
步骤四:基于图像采集单元坐标系下的坐标获得视认距离。
也就是说,由于摄像头与驾驶员座椅之间的位置是相对固定并且可以测量的,因此只要计算得到目标识别点在图像采集单元坐标系下的坐标便可以得到该点与驾驶员之间的距离,既视认距离。
例如,目标识别点到摄像头之间的距离为20m,摄像头与驾驶员之间的距离为1m,则目标识别点到驾驶员之间的距离则为21m,即视认距离为21m。
因此,本申请实施例利用路面的回归方程计算视认距离,能够克服点云稀疏的问题,从而得到准确的目标识别点在图像采集单元坐标系下的坐标,从而得到准确的视认距离。
可以理解的是,本申请实施例可以通过夜间的视认距离来反应交通标志的涂料的玻璃微珠的反光性能。
上文描述了本申请实施例中由电子设备执行的距离检测的方法,将描述本申请实施例中的距离检测的具体实施例。
在本申请一具体实施例中,在数据采集流程完成之后,获得带有目标识别点的待识别图像(jpg格式)和点云数据(lvx格式)。在获得上述数据之后,从待识别图像和点云数据中挖掘计算出目标识别点到车辆之间的距离。
具体的,数据集(待识别图像和点云数据)采集是由激光雷达、摄像头以及激光笔(即激光发射器)组成。激光雷达和摄像头同时采集路面信息,与此同时观测对象用激光笔在路面上指示所能看到的最远处的车道线位置。利用计算机视觉技术识别待识别图像中的车道线,确定当前车道的范围。进一步利用计算机视觉技术计算出激光笔标记所在的像素位置(即像素坐标)。利用落在当前车道范围内的点云数据(即路面的x,y,z坐标)回归出路面的回归方程,利用回归方程克服点云稀疏的问题。基于平面的回归方程提供的约束信息反推出目标识别点与驾驶员(也可以是观测人员)之间的距离,从而计算出视认距离。
其中,摄像头可以将目标识别点记录在待识别图像上,从而得到目标识别点的像素坐标,通过激光雷达和摄像头的联合标定(得到外参矩阵),将待识别图像和同步采集的点云数据融合,从而赋予待识别图像中的像素点三维坐标信息,结合目标识别点的像素坐标和待识别图像中路面所占像素的三维坐标信息可以计算出视认距离。
可以理解的是,本申请实施例在计算过程中,将所有坐标系都转换到图像采集单元坐标系下,其中,图像采集单元坐标系是指以图像采集单元感光传感器中心为原点的坐标系。
在本申请的一种实施方式中,如图7所示,摄像头201和激光雷达205使用ptp时间同步采集路面数据,获得原始图像701和3D点云数据702,并且观测对象使用激光发射器209对原始图像701进行标注获得待识别图像403。之后执行S703将3D点云数据和待识别图像进行融合,即将待识别图像403和3D点云数据702进行联合标定。之后执行S704计算目标识别点的三维坐标和S705计算视认距离。
因此,本申请实施例的有益效果包括:
(1)面向驾驶人视觉感知的标线视认效果自动检测。即突破了传统基于材料性能的检测方法,创新形成了面向驾驶人感知的标线视认效果自动检测技术、装备、评估标准。填补了行业在标线视认效果自动化快速连续检测等方面的空白。实现了夜间行车环境下的数据采集,无需停车、减速提高了检测的真实性、效率以及安全性。
(2)高效采集,精准检测。实现车辆80km/h时速下标线及道路设施数据的快速准确采集。实现横断面、交通安全设施几何尺寸的动态精准检测,横断面尺寸检测相对误差可控制在10cm内,为交通安全设施数字化、精细化管理提供了技术手段支撑。
(3)标线视认效果自动化评估。实现路面、标线等评估关键区域的自动识别。实现雷达与图像数据的自动化深度融合。实现被检道路标线视认效果的自动化评估,大幅提高检测效率。
上文描述了一种视认距离检测的方法的具体实施例,下文将描述一种距离检测的装置。
如图8所示,一种视认距离检测的装置800,包括:图像获取模块810、点云获取模块820和距离计算模块830。
图像获取模块810,被配置为获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是通过对目标位置的标记进行拍摄获得的,所述目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,所述标记是由所述观测对象设置在所述目标位置上的。
点云获取模块820,被配置为获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;距离计算模块830,被配置为根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离。
在本申请的一些实施例中,所述距离计算模块830还被配置为:计算所述待识别图像中各像素的灰度值,并且基于所述灰度值得到所述目标识别点所对应的像素坐标;基于所述点云数据建立交通标线所在平面的回归方程;根据所述像素坐标和所述回归方程,获得所述视认距离,其中,所述像素坐标是图像坐标系下的坐标。
在本申请的一些实施例中,距离计算模块830还被配置为:将所述灰度值进行二值化,获得二值化图像;从所述二值化图像上抽取多个子区域,其中,所述多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数;计算所述多个子区域中各子区域的第一像素值,得到多个第一像素值;从所述多个第一像素值中选择目标像素值,则将与所述目标像素值对应的子区域的中心点,作为目标像素点,其中,所述像素坐标为所述目标像素点在所述待识别图像上的像素坐标。在本申请的一些实施例中,距离计算模块830还被配置为:将所述待识别图像输入到交通标线识别模型中,获得所述交通标线在所述待识别图像中的位置;依据所述交通标线在所述待识别图像中的位置,确定由所述交通标线所圈定范围内的多个像素点;距离计算模块830还被配置为:基于所述多个像素点的灰度值得到所述目标识别点所对应的像素坐标;距离计算模块830还被配置为:基于所述多个像素点对应的点云数据和所述像素坐标,建立所述交通标线所在平面的回归方程。
在本申请的一些实施例中,所述待识别图像是通过图像采集单元获得的;距离计算模块830还被配置为:确认所述图像采集单元的内参矩阵;基于所述内参矩阵,将所述像素坐标映射到图像采集单元坐标系下,获得第一方程,其中,所述图像采集单元坐标系是以图像采集单元为坐标原点建立的;求解所述第一方程和所述回归方程,获得所述目标识别点在图像采集单元坐标系下的坐标;基于所述图像采集单元坐标系下的坐标获得所述视认距离。
在本申请的一些实施例中,所述多个像素点对应的点云数据是通过如下步骤获得的:获取待识别图像的拍摄时间;查找与所述拍摄时间相对应的点云数据;从所述与所述拍摄时间相对应的点云数据中,抽取所述多个像素点对应的点云数据。
在本申请实施例中,图8所示模块能够实现图1至图7方法实施例中的各个过程。图8中的各个模块的操作和/或功能,分别为了实现图1至图7中的方法实施例中的相应流程。具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
如图9所示,本申请实施例提供一种电子设备900,包括:处理器910、存储器920和总线930,所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现如上述所有实施例中任一项所述的方法,具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
其中,总线用于实现这些组件直接的连接通信。其中,本申请实施例中处理器可以是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。存储器中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,可以执行上述实施例中所述的方法。
可以理解,图9所示的结构仅为示意,还可包括比图9中所示更多或者更少的组件,或者具有与图9所示不同的配置。图9中所示的各组件可以采用硬件、软件或其组合实现。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被服务器执行时实现上述所有实施方式中任一所述的方法,具体可参见上述方法实施例中的描述,为避免重复,此处适当省略详细描述。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (8)
1.一种视认距离检测的方法,其特征在于,所述方法包括:
获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是通过对目标位置的标记进行拍摄获得的,所述目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,所述标记是由所述观测对象设置在所述目标位置上的;
获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;
根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离;
其中,所述根据所述待识别图像和所述点云数据获得视认距离,包括:
计算所述待识别图像中各像素的灰度值,并且基于所述灰度值得到所述目标识别点所对应的像素坐标;
基于所述点云数据建立交通标线所在平面的回归方程;
根据所述像素坐标和所述回归方程,获得所述视认距离,其中,所述像素坐标是图像坐标系下的坐标;
其中,在所述基于所述灰度值得到所述目标识别点所对应的像素坐标之前,所述方法还包括:
将所述灰度值进行二值化,获得二值化图像;
从所述二值化图像上抽取多个子区域,其中,所述多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数;
计算所述多个子区域中各子区域的第一像素值,得到多个第一像素值;
从所述多个第一像素值中选择目标像素值,则将与所述目标像素值对应的子区域的中心点,作为目标像素点,其中,所述像素坐标为所述目标像素点在所述待识别图像上的像素坐标。
2.根据权利要求1所述的方法,其特征在于,在计算所述待识别图像中各像素的灰度值之后,所述方法还包括:
将所述待识别图像输入到交通标线识别模型中,获得所述交通标线在所述待识别图像中的位置;
依据所述交通标线在所述待识别图像中的位置,确定由所述交通标线所圈定范围内的多个像素点;
所述基于所述灰度值得到所述目标识别点所对应的像素坐标,包括:
基于所述多个像素点的灰度值得到所述目标识别点所对应的像素坐标;
所述基于所述点云数据建立交通标线所在平面的回归方程,包括:
基于所述多个像素点对应的点云数据和所述像素坐标,建立所述交通标线所在平面的回归方程。
3.根据权利要求1-2任一项所述的方法,其特征在于,所述待识别图像是通过图像采集单元获得的;
所述根据所述像素坐标和所述回归方程,获得所述视认距离,包括:
确认所述图像采集单元的内参矩阵;
基于所述内参矩阵,将所述像素坐标映射到图像采集单元坐标系下,获得第一方程,其中,所述图像采集单元坐标系是以所述图像采集单元为坐标原点建立的;
求解所述第一方程和所述回归方程,获得所述目标识别点在图像采集单元坐标系下的坐标;
基于所述图像采集单元坐标系下的坐标获得所述视认距离。
4.根据权利要求2所述的方法,其特征在于,所述多个像素点对应的点云数据是通过如下步骤获得的:
获取所述待识别图像的拍摄时间;
查找与所述拍摄时间相对应的点云数据;
从所述与所述拍摄时间相对应的点云数据中,抽取所述多个像素点对应的点云数据。
5.一种视认距离检测的系统,其特征在于,所述系统包括:
距离检测的装置,用于采集待识别图像以及点云数据,并发送所述待识别图像和所述点云数据;
服务器,被配置为根据接收的所述待识别图像和所述点云数据实现如权利要求1-4任一项所述的距离检测的方法。
6.一种视认距离检测的装置,其特征在于,所述装置包括:
图像获取模块,被配置为获取待识别图像,其中,所述待识别图像中包括目标识别点,所述目标识别点是通过对目标位置的标记进行拍摄获得的,所述目标位置是在车辆行驶过程中由观测对象观测到的最远交通标线的所在位置,所述标记是由所述观测对象设置在所述目标位置上的;
点云获取模块,被配置为获取由点云数据采集单元采集的点云数据,其中,所述点云数据采集单元设置在所述车辆上;
距离计算模块,被配置为根据所述待识别图像和所述点云数据获得视认距离,其中,所述视认距离用于表征所述观测对象与可观测的所述最远交通标线之间的距离;
其中,所述距离计算模块被配置为:
计算所述待识别图像中各像素的灰度值,并且基于所述灰度值得到所述目标识别点所对应的像素坐标;
基于所述点云数据建立交通标线所在平面的回归方程;
根据所述像素坐标和所述回归方程,获得所述视认距离,其中,所述像素坐标是图像坐标系下的坐标;
其中,在所述基于所述灰度值得到所述目标识别点所对应的像素坐标之前,所述距离计算模块还被配置为:
将所述灰度值进行二值化,获得二值化图像;
从所述二值化图像上抽取多个子区域,其中,所述多个子区域中的每个子区域包括的相同像素值的像素点的聚集面积大于K,K为大于或等于1的整数;
计算所述多个子区域中各子区域的第一像素值,得到多个第一像素值;
从所述多个第一像素值中选择目标像素值,则将与所述目标像素值对应的子区域的中心点,作为目标像素点,其中,所述像素坐标为所述目标像素点在所述待识别图像上的像素坐标。
7.一种电子设备,其特征在于,包括:处理器、存储器和总线;
所述处理器通过所述总线与所述存储器相连,所述存储器存储有计算机可读取指令,当所述计算机可读取指令由所述处理器执行时,用于实现如权利要求1-4任一项所述方法。
8.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被执行时实现如权利要求1-4任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210565796.XA CN114724104B (zh) | 2022-05-24 | 2022-05-24 | 一种视认距离检测的方法、装置、电子设备、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210565796.XA CN114724104B (zh) | 2022-05-24 | 2022-05-24 | 一种视认距离检测的方法、装置、电子设备、系统及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114724104A CN114724104A (zh) | 2022-07-08 |
CN114724104B true CN114724104B (zh) | 2022-09-09 |
Family
ID=82231508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210565796.XA Active CN114724104B (zh) | 2022-05-24 | 2022-05-24 | 一种视认距离检测的方法、装置、电子设备、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114724104B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116485893B (zh) * | 2023-04-23 | 2024-02-23 | 创新奇智(上海)科技有限公司 | 一种测量物品放置位置的方法、系统、设备及介质 |
CN117518181A (zh) * | 2023-11-17 | 2024-02-06 | 交通运输部公路科学研究所 | 一种用于评估公路交通标志功能性的系统和方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107545754A (zh) * | 2017-07-18 | 2018-01-05 | 北京工业大学 | 一种交通标志信息阈值的获取方法及装置 |
CN111080662A (zh) * | 2019-12-11 | 2020-04-28 | 北京建筑大学 | 车道线的提取方法、装置及计算机设备 |
CN113030990A (zh) * | 2021-03-01 | 2021-06-25 | 爱驰汽车有限公司 | 车辆的融合测距方法、装置、测距设备及介质 |
CN113421289A (zh) * | 2021-05-17 | 2021-09-21 | 同济大学 | 一种克服无人机拍摄扰动的高精度车辆轨迹数据提取方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147706B (zh) * | 2018-10-24 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 障碍物的识别方法和装置、存储介质、电子装置 |
-
2022
- 2022-05-24 CN CN202210565796.XA patent/CN114724104B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107545754A (zh) * | 2017-07-18 | 2018-01-05 | 北京工业大学 | 一种交通标志信息阈值的获取方法及装置 |
CN111080662A (zh) * | 2019-12-11 | 2020-04-28 | 北京建筑大学 | 车道线的提取方法、装置及计算机设备 |
CN113030990A (zh) * | 2021-03-01 | 2021-06-25 | 爱驰汽车有限公司 | 车辆的融合测距方法、装置、测距设备及介质 |
CN113421289A (zh) * | 2021-05-17 | 2021-09-21 | 同济大学 | 一种克服无人机拍摄扰动的高精度车辆轨迹数据提取方法 |
Non-Patent Citations (1)
Title |
---|
车载LiDAR点云中交通标线的提取方法;满丹;《测绘与空间地理信息》;20170525(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114724104A (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084895B (zh) | 对点云数据进行标注的方法和设备 | |
CN106650708B (zh) | 一种自动驾驶障碍物视觉检测方法与系统 | |
CN114724104B (zh) | 一种视认距离检测的方法、装置、电子设备、系统及介质 | |
CN105989593B (zh) | 视频录像中进行特定车辆速度测量的方法及装置 | |
EP1005234B1 (en) | Three-dimensional scope system for vehicles with a single camera | |
JP3263699B2 (ja) | 走行環境監視装置 | |
CN108692719B (zh) | 物体检测装置 | |
EP2194725B1 (en) | Method and apparatus for correcting a depth image | |
KR20190102665A (ko) | 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법 | |
CN110555407B (zh) | 路面车辆空间识别方法及电子设备 | |
JP6782433B2 (ja) | 画像認識装置 | |
JP2001524228A (ja) | 機械視覚較正標的並びに画像内で標的の位置及び方向を決定する方法 | |
Staniek | Stereo vision method application to road inspection | |
CN103502876A (zh) | 用于校正车辆的投影装置的方法和设备 | |
KR20090064946A (ko) | 영상 기반 내비게이션을 위한 가상차선을 생성하는 방법 및그 장치 | |
CN109886064B (zh) | 确定可驾驶空间的边界的方法 | |
CN114463303B (zh) | 一种基于双目相机和激光雷达融合的道路目标检测方法 | |
CN111976601B (zh) | 自动泊车方法、装置、设备和存储介质 | |
JP2019530924A (ja) | カメラ画像からのオブジェクトの検出 | |
CN110023953A (zh) | 信息处理设备、成像设备、装置控制系统、移动体、信息处理方法以及计算机程序产品 | |
Petrovai et al. | A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices | |
CN111382591A (zh) | 一种双目相机测距校正方法及车载设备 | |
CN111508020B (zh) | 融合图像与激光雷达的电缆三维位置计算方法、装置 | |
CN109308714A (zh) | 基于分类惩罚的摄像头和激光雷达信息配准方法 | |
CN117392423A (zh) | 基于激光雷达的目标物的真值数据预测方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |