CN114742726A - 盲区的检测方法、装置、电子设备及存储介质 - Google Patents
盲区的检测方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114742726A CN114742726A CN202210344306.3A CN202210344306A CN114742726A CN 114742726 A CN114742726 A CN 114742726A CN 202210344306 A CN202210344306 A CN 202210344306A CN 114742726 A CN114742726 A CN 114742726A
- Authority
- CN
- China
- Prior art keywords
- image
- area
- bolt
- weight
- equivalent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 72
- 238000013507 mapping Methods 0.000 claims abstract description 52
- 230000008447 perception Effects 0.000 claims abstract description 52
- 238000012545 processing Methods 0.000 claims abstract description 41
- 238000003384 imaging method Methods 0.000 claims abstract description 32
- 238000012544 monitoring process Methods 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 50
- 230000000694 effects Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 101100348047 Mus musculus Ncam2 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本公开提供了一种盲区的检测方法、装置、电子设备及存储介质,涉及智能交通等人工智能技术领域。具体实现方案为:对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;基于所述原始图像,对所述去畸变图像进行反映射处理,得到映射图像;基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区;其中所述枪机在所述路侧感知系统中与所述鱼眼相机安装在同一监控杆上。本公开的技术,能够有效地提高盲区检测的准确性和检测效率。
Description
技术领域
本公开涉及计算机技术领域,具体涉及智能交通等人工智能技术领域,尤其涉及一种盲区的检测方法、装置、电子设备及存储介质。
背景技术
车联网路侧基础设施的建设,主要以构建路侧感知系统为主。路侧感知系统主要利用相机等传感器,依托路侧边缘计算形成感知数据,为车路协同中的无人驾驶车辆提供了超视距的感知信息。
相机作为路侧感知系统的最主要的传感器之一,其准确的安装和角度调整,是路侧感知系统部署的关键,也是路侧感知无盲区全覆盖的关键。
发明内容
本公开提供了一种盲区的检测方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种盲区的检测方法,包括:
对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
基于所述原始图像,对所述去畸变图像进行反映射处理,得到映射图像;
基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区;其中所述枪机在所述路侧感知系统中与所述鱼眼相机安装在同一监控杆上。
根据本公开的另一方面,提供了一种盲区的检测装置,包括:
去畸变处理模块,用于对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
反映射处理模块,用于基于所述原始图像,对所述去畸变图像进行反映射处理,得到映射图像;
检测模块,用于基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区;其中所述枪机在所述路侧感知系统中与所述鱼眼相机安装在同一监控杆上。
根据本公开的再一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方面和任一可能的实现方式的方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方面和任一可能的实现方式的方法。
根据本公开的再另一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方面和任一可能的实现方式的方法。
根据本公开的技术,能够有效地提高盲区检测的准确性和检测效率。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是本公开实施例提供的一种鱼眼相机采集的原始图像;
图4是对图3所示的原始图像进行去畸变得到的去畸变图像;
图5是本公开实施例提供的一种第一叠加图的示意图;
图6是本公开实施例中的鱼眼相机的球面模型示意图;
图7是本公开实施例提供的一种前枪机视角的等效枪机图;
图8是本公开实施例提供的一种后枪机视角的等效枪机图;
图9是根据本公开第三实施例的示意图;
图10是根据本公开第四实施例的示意图;
图11是用来实现本公开实施例的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本公开保护的范围。
需要说明的是,本公开实施例中所涉及的终端设备可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(TabletComputer)等智能设备;显示设备可以包括但不限于个人电脑、电视等具有显示功能的设备。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
对于一个监控杆上的不同的相机,如枪机和鱼眼相机。传统的方式是在安装后,对鱼眼相机图像进行去畸变;然后再结合枪机的图像,通过人工查验图像中的路标或者地面标识,来查看是否存在静态盲区。但是该种方式,需要人工来检测,检测效率低下且精度不高。
图1是根据本公开第一实施例的示意图;如图1所示,本实施例提供一种盲区的检测方法,可以应用在路侧感知系统中,具体可以包括如下步骤:
S101、对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
S102、基于原始图像,对去畸变图像进行反映射处理,得到映射图像;
S103、基于映射图像、原始图像以及枪机采集的成像图像,检测路侧感知系统是否存在感知盲区;其中枪机在路侧感知系统中与鱼眼相机安装在同一监控杆上。
相机为路侧感知系统中的主要单元,通过采集图像,实现环境的感知。例如,路侧感知系统中可以包括两种类型的相机,如鱼眼相机和枪机。其中枪机即指的是枪式相机。在实际道路场景中,同一个监控杆上可以安装两种类型的相机,为了实现检测区域的全覆盖,鱼眼相机安装时,可以光心向下、与监控杆平行,鱼眼相机视场角较大,实现对监控杆所在区域的路面进行监控。而枪机可以设置在监控杆上鱼眼相机的两侧,分别向前和向后从两个方向上检测路面,与鱼眼相机一起实现全面监控。
实际应用的场景不同,枪机类型也不同。例如,在普通的城市场景中,枪机包括短焦枪机。而在高速场景中,基于场景的需求,还设置有长焦枪机,设置在短焦相机的外侧,实现更远的区域的检测与感知。
实际应用的场景中,路侧感知系统中除了包括监控杆上对应的所有相机,还可以包括各道路上设置的路侧计算单元,实现基于当前道路上的各监控杆上的所有相机采集的图像进行路侧边缘计算,得到相应的感知数据。本实施例的盲区检测方法,具体可以应用在路侧感知系统中的路侧计算单元内,实现对各监控杆上的所有相机监控的区域进行检测,以确定是否存在盲区。
其中,路侧计算单元还可以将计算的感知数据进行实时共享播报,能够为自动驾驶车辆提供超视距感知、盲区预警、驾驶意图等感知信息,弥补单车感知局限。另一方面也能够将感知数据实时上报云端,实现交通环境数据的全量汇聚,支撑构建精细化、实时性的交通监测系统。
由于鱼眼相机的视场角较大,采集到的原始图像中,距离光心对应的坐标点较近的像素点,在鱼眼相机的有效感知区域内。而原始图像中、距离光心对应的坐标点,发生畸变较为严重,不能被有效感知,可以认为不在鱼眼相机的有效感知区域内。所以,本实施例中,对原始图像去畸变处理后,得到的去畸变图像中所有像素点均在鱼眼相机的有效感知区域内。通常情况下,光心对应的坐标点在图像的中心点附近,基于此,可以认为去畸变图像相对于原始图像,去除了原始图像的边缘区域。具体地去畸变处理可以参考相关现有技术,在此不再赘述。
本实施例中,还基于原始图像,对去畸变图像进行反映射处理,使得得到的映射图像又回到原始图像的空间中。也就是说,映射图像中的每个像素点与原始图像中对应像素点的信息相同。但是需要注意的是,由于映射图像是由原始图像的去畸变图像反映射回来的图像,去畸变图像本身已经去除了原始图像中边缘区域,所以,基于去畸变图像反映射得到的映射图像,相对于原始图像,尺寸更小,少了周围的边缘区域。
最后,可以基于映射图像、原始图像以及与鱼眼相机安装在同一监控杆上的枪机采集的成像图像,一起进行多角度的检测,以确定路侧感知系统是否存在感知盲区。
本实施例的盲区的检测方法,通过基于原始图像,对原始图像对应的去畸变图像进行反映射处理,得到映射图像;并进一步基于映射图像、原始图像以及枪机采集的成像图像,检测路侧感知系统是否存在感知盲区,能够准确、有效地对盲区进行检测。而且本实施例的技术方案,可以自动实现盲区的检测,不用人工进行检测,能够有效地提高盲区检测的准确性和检测效率。
图2是根据本公开第二实施例的示意图;本实施例提供的盲区的检测方法,在上述图1所示实施例的技术方案的基础上,进一步更加详细地介绍本公开的技术方案。如图2所示,本实施例的盲区的检测方法,具体可以包括如下步骤:
S201、对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
例如图3是本公开实施例提供的一种鱼眼相机采集的原始图像。图4是对图3所示的原始图像进行去畸变得到的去畸变图像。将图3和图4进行对比,可以得知,原始图像在鱼眼相机的采用的球形坐标系下采集并投影到平面上,在对原始图像去畸变处理后,不仅去除了畸变严重的边缘区域,还将有效感知区域的坐标系进行转换,使得得到的去畸变图像的坐标系为枪式相机对应的坐标系,如图4所示,去畸变图像可以为一个正方形图像。
本实施例中,可以使用Ocam模型或者OpenCV模型对鱼眼相机采集的原始图像进行去畸变。
S202、基于原始图像,对去畸变图像进行反映射处理,得到映射图像;
本实施例的反映射处理,可以基于鱼眼相机的内参来实现。
通过标定,可以得到鱼眼相机的内参矩阵,例如,可以包括x轴的焦距fx、y轴的焦距fy和主点坐标(cx,cy)、畸变参数k1、k2和去畸变图像的等效焦距fx’、fy’;其中主点坐标(cx,cy)表示鱼眼相机的光心投影在图像中的像素点的坐标。其中去畸变图像的等效枪机的焦距fx’、fy’,也可以称之为去畸变图像的等效枪机的像素焦距。例如图4对应的去畸变图像可以看作是一个等效枪机拍摄的。这里的去畸变图像的等效枪机的像素焦距,可以理解为能够直接拍摄到该去畸变图像的等效枪机的像素焦距。例如,fx’可以等于(监控杆的高度*去畸变图像的边长的像素长度的一半)/去畸变图像对应的边长的距离的一半。fy’可以采用同样的原理计算。考虑到去畸变图像可以为一个正方形图像,所以可以直接取fy’=fx’。
反映射处理时,采用xc1和yc1表示相机坐标系下的归一化的坐标,具体可以表示为:
xc1=(u’-cx)/fx’
yc1=(v’-cy)/fy’
其中,(u’,v’)表示鱼眼相机的去畸变图像的像素坐标。
然后,基于xc1和yc1,获取该像素点对应在原始图像中的坐标。
鱼眼相机的归一化坐标系中的半径r可以采用如下公式表示:
鱼眼相机的畸变量θd可以采用如下公式表示:
θd=θ*(1+k1*θ2+k2*θ4)
其中,θ表示鱼眼相机模型中的入射角的大小。
其中,(u,v)表示在原始图像中的角点的2D坐标。
通过采用上述方式,可以在反映射过程中,得到去畸变图像中的每一个像素点在原始图像中对应的像素点,从而实现反映射。
S203、基于映射图像和原始图像进行叠加处理,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域;
基于上述反映射处理后,可以得到映射图像中各像素点与原始图像中的一个像素点的对应关系。叠加时,可以基于映射图像中各像素点与原始图像中的对应像素点的对应关系,将具有对应关系的像素点叠加在一起,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域。
例如,步骤S203在具体实施时,可以包括如下步骤:
(1)为映射图像中各像素点配置第一权重;
(2)为原始图像中各像素点配置第二权重,第一权重大于第二权重;
(3)基于第一权重和第二权重,将映射图像中各像素点叠加至原始图像上具有对应关系的像素点上,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域。
由于映射图像中的各像素点在原始图像中都存在对应的像素点,即映射图像中的每个像素点都可以在原始图像中进行叠加处理。而映射图像是原始图像的去畸变图像反映射回来的,所以原始图像的畸变较为严重的边缘区域的像素点由于在去畸变图像中已经去除,所以,映射图像中也没有原始图像的边缘区域的像素点。
本实施例中,基于第一权重和第二权重,对两个图像中的对应像素点进行叠加时,叠加后的像素点的灰度值等于第一权重与映射图像对应像素点的灰度值的乘积、与第二权重与映射图像中对应像素点的灰度值的乘积之和。由于第一权重大于第二权重,所以映射图像中的灰度值,对叠加后的像素点的灰度值影响较大。而在原始图像的边缘区域的像素点,由于映射图像中不存在对应的像素点,此时灰度值等于第二权重乘以其像素点的灰度值。经过上述像素点的叠加处理,可以使得叠加后的像素点的灰度值变大,而未叠加的像素点的灰度值变得更小。例如,实际应用中,通过设置第一权重和第二权重,可以使得叠加区域的各像素点的灰度值均大于200,而未叠加区域的各像素点的灰度值均小于100,进而呈现出叠加区域为亮区域,而未叠加区域为暗区域。通过该权重配置的方式,能够清楚呈现第一叠加图中叠加区域为亮区域,而未叠加区域为暗区域,结果非常准确、可靠,且实现方式非常简单。
例如,图5是本公开实施例提供的一种第一叠加图的示意图。经过上述步骤(1)-(3)的叠加处理,可以得到如图5所示的叠加效果图。如图5所示,中间亮区域为叠加的区域,为鱼眼相机的有效感知区域,而边缘的暗区域为原始图像中存在的区域,而去畸变图像反映射回来的映射图像中并不存在。暗区域为鱼眼相机无法有效感知的区域。
通过上述处理,可以使得第一叠加图区分为亮区域和暗区域,能够准确、有效地标识语言相机的有效感知区域和无法有效感知的区域。
S204、基于第一叠加图,获取枪机视角对应的等效枪机图像;
基于以上所述,可以得知第一叠加图为鱼眼相机视角的图像。本实施例中,可以利用球面模型投影变换的方式,将鱼眼相机采集的原始图像变换到某个角度的枪机图像。
例如,图6是本公开实施例中的鱼眼相机的球面模型示意图。如图6所示,O为投影中心,点D为枪机式平面投影面的几何中心,且枪机式平面投影面与鱼眼相机的球形投影面相切于点D,θ1表示与Z轴方向的夹角,θ2表示X轴方向到在XOY平面上的投影逆时针需要转动的角度。鱼眼相机的原始图像的半径和球形投影面的半径都为r。可以表示为如下公式:
设P为枪机式平面投影面上任意一点,P到XOY平面上的投影点为Q。α为Z轴到的角度,β为X轴到的逆时针转过的角度。点P和点D在枪机式平面坐标系上的坐标分别为(uP,vP)和(uD,vD)。为了方便求出P点在空间坐标系中的坐标,这里将分解成和这两个向量分别平行于u轴和v轴。根据几何关系可以得出:
进而可以得到如下关系:
直线OP和球形投影面相交于一点,该交点在XOY平面的投影为点M。
鱼眼相机采集的圆形图像的半径r可以经过opencv轮廓检测出。例如,本实施例中,可以使用圆形图像的半径r=593像素,且此时的入射角的大小θ=PI/2,由等距投影模型,可以得到:
r=focal×θ
进而可以得到focal的值,该focal表示基于鱼眼相机的内参标定得到的鱼眼相机的像素焦距。
rP=focal×α
则点P对应的鱼眼相机的图像中的像素坐标可以表示为:
uP=rP×sinβ+centerx
vP=rP×cosβ+centery
其中centerx,centery表示鱼眼相机的图像的中心点像素坐标。
至此,能够得到枪机式平面投影面的像素坐标和鱼眼相机的图像的像素坐标的对应关系,从而可以将鱼眼相机的图像转换到枪机式平面投影面的图像。
由于上述实施例中的第一叠加图为鱼眼相机对应的图像,基于以上原理,可以实现基于第一叠加图,获取枪机视角对应的等效枪机图像。
例如,基于上述实现原理,可以基于第一叠加图,获取θ1=70°、θ2=90°时对应的枪机视角的等效枪机图像,即为前枪机视角对应的等效枪机图像。并可以取θ1=70°、θ2=270°时对应的枪机视角的等效枪机图像,即为后枪机视角对应的等效枪机图像。
例如,图7是本公开实施例提供的一种前枪机视角的等效枪机图。如图7所示,是基于图5所示的第一叠加图得到的前枪机视角的等效枪机图。同理,图8是本公开实施例提供的一种后枪机视角的等效枪机图。即图8是基于图5所示的第一叠加图得到的后枪机视角的等效枪机图。如图7和图8所示,获取到的等效枪机视角的等效枪机图中的亮区域和暗区域并不发生变化。
S205、基于枪机的成像图像和等效枪机图像,检测路侧感知系统是否存在感知盲区。
例如,本实施例中,为了方便检测,可以基于图像配准的方式,对枪机的成像图像和等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域;进而基于第二叠加图,检测路侧感知系统是否存在感知盲区。
具体实现时,可以为枪机的成像图像中各像素点配置第三权重;为等效枪机图像中各像素点配置第四权重,第三权重大于第四权重;以图像配准的方式,基于第三权重和第四权重,将枪机的成像图像中的各像素点叠加至等效枪机图像上具有对应关系的像素点上,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域。
具体地,通过设置第三权重和第四权重的大小,进而使得两个图像中具有对应关系的像素点叠加时,叠加的像素点的灰度值等于第三权重与枪机的成像图像对应像素点的灰度值的乘积、与第四权重与等效枪机图像中对应像素点的灰度值的乘积之和。由于第三权重大于第四权重,所以枪机的成像图像中的灰度值,对叠加后的像素点的灰度值影响较大。而在等效枪机图像中与枪机的成像图像没有对应关系的像素点,此时灰度值等于第四权重乘以其像素点的灰度值。经过上述像素点的叠加处理,可以使得叠加后的像素点的灰度值变大,而未叠加的像素点的灰度值变得更小。同理,也可以通过设置第三权重和第四权重,使得叠加区域的各像素点的灰度值均大于200,而未叠加区域的各像素点的灰度值均小于100,进而呈现出叠加区域为亮区域,而未叠加区域为暗区域。
需要说明的是,该第二叠加图的实现过程,与上述实施例中的第一叠加图的实现过程完全相同。详细亦可以参考上述第一叠加图的实现过程。同理,通过该权重配置的方式,能够清楚呈现第二叠加图中叠加区域为亮区域,而未叠加区域为暗区域,结果非常准确、可靠,且实现方式非常简单。
叠加处理之前,可以认为枪机的成像图像都是亮区域。而等效枪机图像中存在亮区域和暗区域。叠加后,需要将原来属于暗区域、但是叠加后属于叠加的区域,即枪机的成像图像和等效枪机图像共同存在的区域,调整为亮区域。此时第二叠加图中整个亮区域为鱼眼相机的有效感知区域和枪机的有效感知区域。而暗区域即为鱼眼相机和枪机无法感知的区域。本实施例中检测的盲区即为暗区域。但是并是不是第二叠加图中的所有暗区域都是盲区,例如,对向车道或者路面之外的其他区域为暗区域时,并不属于当前感知系统的感知盲区。而本实施例的盲区主要指的是路侧感知系统的相机对路面的感知盲区。
本实施例中,基于第二叠加图,检测路侧感知系统是否存在感知盲区,可以包括如下几种实现方式:
第一种方式、采用预先训练的盲区检测模型,对第二叠加图进行检测,以确定路侧感知系统是否存在感知盲区。
使用时,直接将该第二叠加图输入至盲区检测模型中,该盲区检测模型可以检测并输出该第二叠加图是否存在感知盲区。
第二种方式,可以包括如下步骤:
(a)检测等效枪机图像中的道路边界;
此处的道路边界包括道路的两边的边界。其中道路指的是当前监控杆上的相机所监控的道路。具体地,该步骤可以在对枪机的成像图像和等效枪机图像进行叠加处理,得到第二叠加图之前进行。
例如,本实施例的检测道路边界可以采用预先训练的道路边界检测模型,来实现检测等效枪机图像中的道路边界。或者,还可以基于道路的边界特性,设置一定的检测规则,实现对等效枪机图像中的道路边界的检测。
(b)检测第二叠加图内、道路边界所包围的路面上是否存在暗区域;若存在,确定鱼眼相机和枪机之间存在感知盲区;否则,确定鱼眼相机和枪机之间不存在感知盲区。
本实施例中,还可以输出第二叠加图到检测设备上,并显示。由工作人员基于检测设备上显示的第二叠加图,检测鱼眼相机和枪机之间是否存在感知盲区,并返回检测结果。或者本实施例中,还可以直接输出枪机的成像图像和等效枪机图像到检测设备上,并显示。由工作人员基于检测设备上显示的枪机的成像图像和等效枪机图像,检测鱼眼相机和枪机之间是否存在感知盲区,并返回检测结果。
无论采用上述哪种方式,均可以基于第二叠加图,有效地检测鱼眼相机和枪机之间是否存在感知盲区,而且检测过程快速、准确。
本实施例的上述技术方案中的枪机可以为前枪机,也可以为后枪机。实际应用中,对于路侧监控系统中的每一个监控杆上的鱼眼相机和任一枪机,需要采用上述技术方案,分别检测鱼眼相机与前枪机之间是否存在感知盲区,以及鱼眼相机与后枪机之间是否存在感知盲区,以实现盲区的全方位监控。
实际应用中,基于本实施例中监控到的盲区,可以调整枪式相机的安装角度,以去除盲区,提高无人驾驶汽车的感知能力,以有效地提高无人驾驶汽车的行驶安全性。
步骤S203-S205为上述图1所示实施例的步骤S103的一种实现方式,实际应用中,还可以基于映射图像、原始图像以及枪机采集的成像图像,采用其他方式检测路侧感知系统是否存在感知盲区,例如可以输出给检测设备,并展示,由人工通过检测设备直接识别鱼眼相机与枪机之间是否存在检测盲区。或者还可以采用其他方式进行检测,在此不再一一举例赘述。
本实施例的盲区的检测方法,通过将原始图像的去畸变图像进行反映射得到的反映射图像,叠加至原始图像中,可以使得得到的第一叠加图的叠加区域为亮区域,而未叠加区域为暗区域,能够有效地标识鱼眼相机的有效感知区域和无法有效感知的区域。进而再将第一叠加图的枪机视角的等效枪机图和枪机的成像图像叠加,得到第二叠加图,能够准确、清晰地标识鱼眼相机和枪机的感知区域。最后基于第二叠加图,快速、准确、有效地检测鱼眼相机与枪机之间是否存在感知盲区。与现有技术相比,全程不需要人工手动参与,不仅能够快速、准确地检测路侧感知系统中是否存在感知盲区,而且还能够有效地提高盲区检测的准确性和检测效率。
图9是根据本公开第三实施例的示意图;如图9所示,本实施例提供一种盲区的检测装置,可以应用在路侧感知系统中,如具体可以应用在路侧感知系统的路侧计算单元内。本实施例的盲区的检测装置900,具体可以包括:
去畸变处理模块901,用于对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
反映射处理模块902,用于基于原始图像,对去畸变图像进行反映射处理,得到映射图像;
检测模块903,用于基于映射图像、原始图像以及枪机采集的成像图像,检测路侧感知系统是否存在感知盲区;其中枪机在路侧感知系统中与鱼眼相机安装在同一监控杆上。
本实施例的盲区的检测装置,通过采用上述模块实现盲区检测的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
图10是根据本公开第四实施例的示意图;如图10所示,本实施例提供一种盲区的检测装置1000,相对于图9所示实施例,进一步更加详细地介绍本公开的技术方案。如图10所示,本实施例的盲区的检测装置1000,包括图9所示的同名同功能模块,去畸变处理模块1001、反映射处理模块1002和检测模块1003。
如图10所示,在本实施例中,检测模块1003,包括:
叠加处理单元10031,用于基于映射图像和原始图像进行叠加处理,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域;
获取单元10032,用于基于第一叠加图,获取枪机视角对应的等效枪机图像;
盲区检测单元10033,用于基于枪机的成像图像和等效枪机图像,检测路侧感知系统是否存在感知盲区。
进一步可选地,在本公开的一个实施例中,叠加处理单元10031,用于:
为映射图像中各像素点配置第一权重;
为原始图像中各像素点配置第二权重,第一权重大于第二权重;
基于第一权重和第二权重,将映射图像中各像素点叠加至原始图像上具有对应关系的像素点上,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域。
进一步可选地,在本公开的一个实施例中,盲区检测单元10033,用于:
基于图像配准的方式,对枪机的成像图像和等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域;
基于第二叠加图,检测路侧感知系统是否存在感知盲区。
进一步可选地,在本公开的一个实施例中,盲区检测单元10033,用于:
为枪机的成像图像中各像素点配置第三权重;
为等效枪机图像中各像素点配置第四权重,第三权重大于第四权重;
以图像配准的方式,基于第三权重和第四权重,将枪机的成像图像中的各像素点叠加至等效枪机图像上具有对应关系的像素点上,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域。
进一步可选地,在本公开的一个实施例中,盲区检测单元10033,用于:
采用预先训练的盲区检测模型,对第二叠加图进行检测,以确定路侧感知系统是否存在感知盲区。
进一步可选地,在本公开的一个实施例中,检测模块1003,还包括:
道路边界检测单元10034,用于检测等效枪机图像中的道路边界。
进一步可选地,在本公开的一个实施例中,道路边界检测单元10034,用于:
采用预先训练的道路边界检测模型,检测等效枪机图像中的道路边界。
进一步可选地,在本公开的一个实施例中,盲区检测单元10033,用于:
检测第二叠加图内、道路边界所包围的路面上是否存在暗区域;
若存在,确定鱼眼相机和枪机之间存在感知盲区。
本实施例的盲区的检测装置,通过采用上述模块实现盲区检测的实现原理以及技术效果,与上述相关方法实施例的实现相同,详细可以参考上述相关方法实施例的记载,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图11示出了可以用来实施本公开的实施例的示例电子设备1100的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图11所示,设备1100包括计算单元1101,其可以根据存储在只读存储器(ROM)1102中的计算机程序或者从存储单元1108加载到随机访问存储器(RAM)1103中的计算机程序,来执行各种适当的动作和处理。在RAM 1103中,还可存储设备1100操作所需的各种程序和数据。计算单元1101、ROM 1102以及RAM 1103通过总线1104彼此相连。输入/输出(I/O)接口1105也连接至总线1104。
设备1100中的多个部件连接至I/O接口1105,包括:输入单元1106,例如键盘、鼠标等;输出单元1107,例如各种类型的显示器、扬声器等;存储单元1108,例如磁盘、光盘等;以及通信单元1109,例如网卡、调制解调器、无线通信收发机等。通信单元1109允许设备1100通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1101可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1101的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1101执行上文所描述的各个方法和处理,例如本公开的上述方法。例如,在一些实施例中,本公开的上述方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1108。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1102和/或通信单元1109而被载入和/或安装到设备1100上。当计算机程序加载到RAM 1103并由计算单元1101执行时,可以执行上文描述的本公开的上述方法的一个或多个步骤。备选地,在其他实施例中,计算单元1101可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行本公开的上述方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (21)
1.一种盲区的检测方法,包括:
对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
基于所述原始图像,对所述去畸变图像进行反映射处理,得到映射图像;
基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区;其中所述枪机在所述路侧感知系统中与所述鱼眼相机安装在同一监控杆上。
2.根据权利要求1所述的方法,其中,基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区,包括:
基于所述映射图像和所述原始图像进行叠加处理,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域;
基于所述第一叠加图,获取所述枪机视角对应的等效枪机图像;
基于所述枪机的所述成像图像和所述等效枪机图像,检测所述路侧感知系统是否存在感知盲区。
3.根据权利要求2所述的方法,其中,基于所述映射图像和所述原始图像进行叠加处理,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域,包括:
为所述映射图像中各所述像素点配置第一权重;
为所述原始图像中各所述像素点配置第二权重,所述第一权重大于所述第二权重;
基于所述第一权重和所述第二权重,将所述映射图像中各像素点叠加至所述原始图像上具有对应关系的像素点上,得到所述第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域。
4.根据权利要求2或3所述的方法,其中,基于所述枪机的所述成像图像和所述等效枪机图像,检测所述路侧感知系统是否存在感知盲区,包括:
基于图像配准的方式,对所述枪机的所述成像图像和所述等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域;
基于所述第二叠加图,检测所述路侧感知系统是否存在感知盲区。
5.根据权利要求4所述的方法,其中,基于图像配准的方式,对所述枪机的所述成像图像和所述等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域,包括:
为所述枪机的所述成像图像中各所述像素点配置第三权重;
为所述等效枪机图像中各所述像素点配置第四权重,所述第三权重大于所述第四权重;
以图像配准的方式,基于所述第三权重和所述第四权重,将所述枪机的所述成像图像中的各像素点叠加至所述等效枪机图像上具有对应关系的像素点上,得到所述第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域。
6.根据权利要求4所述的方法,其中,基于所述第二叠加图,检测所述路侧感知系统是否存在感知盲区,包括:
采用预先训练的盲区检测模型,对所述第二叠加图进行检测,以确定所述路侧感知系统是否存在感知盲区。
7.根据权利要求4所述的方法,其中,基于图像配准的方式,对所述枪机的所述成像图像和所述等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域之前,所述方法还包括:
检测所述等效枪机图像中的道路边界。
8.根据权利要求7所述的方法,其中,检测所述等效枪机图像中的道路边界,包括:
采用预先训练的道路边界检测模型,检测所述等效枪机图像中的道路边界。
9.根据权利要求7或8所述的方法,其中,基于所述第二叠加图,检测所述路侧感知系统是否存在感知盲区,包括:
检测所述第二叠加图内、所述道路边界所包围的路面上是否存在暗区域;
若存在,确定所述鱼眼相机和所述枪机之间存在感知盲区。
10.一种盲区的检测装置,包括:
去畸变处理模块,用于对路侧感知系统中的鱼眼相机采集的原始图像进行去畸变,得到去畸变图像;
反映射处理模块,用于基于所述原始图像,对所述去畸变图像进行反映射处理,得到映射图像;
检测模块,用于基于所述映射图像、所述原始图像以及枪机采集的成像图像,检测所述路侧感知系统是否存在感知盲区;其中所述枪机在所述路侧感知系统中与所述鱼眼相机安装在同一监控杆上。
11.根据权利要求10所述的装置,其中,所述检测模块,包括:
叠加处理单元,用于基于所述映射图像和所述原始图像进行叠加处理,得到第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域;
获取单元,用于基于所述第一叠加图,获取所述枪机视角对应的等效枪机图像;
盲区检测单元,用于基于所述枪机的所述成像图像和所述等效枪机图像,检测所述路侧感知系统是否存在感知盲区。
12.根据权利要求11所述的装置,其中,所述叠加处理单元,用于:
为所述映射图像中各所述像素点配置第一权重;
为所述原始图像中各所述像素点配置第二权重,所述第一权重大于所述第二权重;
基于所述第一权重和所述第二权重,将所述映射图像中各像素点叠加至所述原始图像上具有对应关系的像素点上,得到所述第一叠加图,使得叠加效果呈现为叠加的区域为亮区域,而未叠加的区域为暗区域。
13.根据权利要求11或12所述的装置,其中,所述盲区检测单元,用于:
基于图像配准的方式,对所述枪机的所述成像图像和所述等效枪机图像进行叠加处理,得到第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域;
基于所述第二叠加图,检测所述路侧感知系统是否存在感知盲区。
14.根据权利要求13所述的装置,其中,所述盲区检测单元,用于:
为所述枪机的所述成像图像中各所述像素点配置第三权重;
为所述等效枪机图像中各所述像素点配置第四权重,所述第三权重大于所述第四权重;
以图像配准的方式,基于所述第三权重和所述第四权重,将所述枪机的所述成像图像中的各像素点叠加至所述等效枪机图像上具有对应关系的像素点上,得到所述第二叠加图,使得叠加的区域为亮区域,而未叠加的区域为暗区域。
15.根据权利要求13所述的装置,其中,所述盲区检测单元,用于:
采用预先训练的盲区检测模型,对所述第二叠加图进行检测,以确定所述路侧感知系统是否存在感知盲区。
16.根据权利要求13所述的装置,其中,所述检测模块,还包括:
道路边界检测单元,用于检测所述等效枪机图像中的道路边界。
17.根据权利要求16所述的装置,其中,所述道路边界检测单元,用于:
采用预先训练的道路边界检测模型,检测所述等效枪机图像中的道路边界。
18.根据权利要求16或17所述的装置,其中,所述盲区检测单元,用于:
检测所述第二叠加图内、所述道路边界所包围的路面上是否存在暗区域;
若存在,确定所述鱼眼相机和所述枪机之间存在感知盲区。
19.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-9中任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210344306.3A CN114742726A (zh) | 2022-03-31 | 2022-03-31 | 盲区的检测方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210344306.3A CN114742726A (zh) | 2022-03-31 | 2022-03-31 | 盲区的检测方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114742726A true CN114742726A (zh) | 2022-07-12 |
Family
ID=82278581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210344306.3A Pending CN114742726A (zh) | 2022-03-31 | 2022-03-31 | 盲区的检测方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114742726A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115376313A (zh) * | 2022-07-26 | 2022-11-22 | 四川智慧高速科技有限公司 | 一种基于监控摄像头组的图像融合与畸变矫正的实现方法 |
-
2022
- 2022-03-31 CN CN202210344306.3A patent/CN114742726A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115376313A (zh) * | 2022-07-26 | 2022-11-22 | 四川智慧高速科技有限公司 | 一种基于监控摄像头组的图像融合与畸变矫正的实现方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110009561B (zh) | 一种监控视频目标映射到三维地理场景模型的方法及系统 | |
CN113657224B (zh) | 车路协同中用于确定对象状态的方法、装置、设备 | |
EP3968266B1 (en) | Obstacle three-dimensional position acquisition method and apparatus for roadside computing device | |
CN112967344B (zh) | 相机外参标定的方法、设备、存储介质及程序产品 | |
CN112967345B (zh) | 鱼眼相机的外参标定方法、装置以及系统 | |
CN113744348A (zh) | 一种参数标定方法、装置及雷视融合检测设备 | |
CN112686877A (zh) | 基于双目相机的三维房屋损伤模型构建测量方法及系统 | |
CN113299073B (zh) | 识别车辆违章停车的方法、装置、设备和存储介质 | |
CN113989766A (zh) | 道路边缘检测方法、应用于车辆的道路边缘检测设备 | |
CN114742726A (zh) | 盲区的检测方法、装置、电子设备及存储介质 | |
US11893884B2 (en) | Method for acquiring three-dimensional perception information based on external parameters of roadside camera, and roadside device | |
CN114120254A (zh) | 道路信息识别方法、装置及存储介质 | |
CN113689493A (zh) | 镜头附着物检测方法、装置、电子设备和存储介质 | |
CN116692690A (zh) | 一种吊车防撞预警方法、装置、设备及介质 | |
CN113497897B (zh) | 车路协同路侧相机安装参数调整方法、装置和电子设备 | |
CN113033456B (zh) | 车辆车轮接地点的确定方法、装置、路侧设备及云控平台 | |
CN114943805A (zh) | 停车遮挡确定方法、装置、设备、存储介质及程序产品 | |
CN113112551A (zh) | 相机参数的确定方法、装置、路侧设备和云控平台 | |
CN114742897B (zh) | 路侧感知系统的相机安装信息的处理方法、装置及设备 | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
CN113312979B (zh) | 图像处理方法、装置、电子设备、路侧设备及云控平台 | |
CN112215033B (zh) | 车辆全景环视图像的生成方法、装置、系统及存储介质 | |
CN114581890B (zh) | 确定车道线的方法、装置、电子设备和存储介质 | |
CN113129634B (zh) | 一种停车位的获取方法、系统及通信设备 | |
CN115826188A (zh) | 路侧感知系统中枪机焦距的调整方法、装置和路侧设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |