CN113128248A - 障碍物检测方法、装置、计算机设备和存储介质 - Google Patents
障碍物检测方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN113128248A CN113128248A CN201911362269.3A CN201911362269A CN113128248A CN 113128248 A CN113128248 A CN 113128248A CN 201911362269 A CN201911362269 A CN 201911362269A CN 113128248 A CN113128248 A CN 113128248A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- determining
- obstacle
- ground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000012216 screening Methods 0.000 claims abstract description 22
- 238000004590 computer program Methods 0.000 claims description 25
- 239000007787 solid Substances 0.000 claims description 25
- 238000000926 separation method Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 description 18
- 230000004888 barrier function Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005094 computer simulation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请涉及一种障碍物检测方法、装置、计算机设备和存储介质。所述方法包括:获取无人车在倒车区域内的点云数据;筛选点云数据所包含的一个或多个非地面点云;计算每个非地面点云与无人车对应点云之间的间隔距离;根据间隔距离确定相应非地面点云的三维模型;将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。采用本方法能够提升障碍物检测的准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种障碍物检测方法、装置、计算机设备和存储介质。
背景技术
自动驾驶作为当下火热的人工智能领域最尖端的科技之一,有望彻底改变人类出行方式与物流运送模式。在无人车进行自动倒车的过程中,最重要的就是进行障碍物检测。目前主要是通过在物流车上安装多个机械式激光传感器,并对机械式激光传感器采集的障碍物的距离、角度等数据进行综合分析来达到障碍物检测的目的。
然而,机械式激光传感器成本较高,难以在量产的无人车上大规模使用。如果能使用更低成本的固态激光传感器替代机械式激光传感器,进行倒车场景中的障碍物检测,就能降低无人车制造成本。但是,由于固态激光传感器的分辨率较低,使得障碍物检测不准确。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提升障碍物检测准确性的障碍物检测方法、装置、计算机设备和存储介质。
一种障碍物检测方法,所述方法包括:
获取无人车在倒车区域内的点云数据;
筛选所述点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与所述无人车对应点云之间的间隔距离;
根据所述间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
在其中一个实施例中,所述点云数据包括来自机械式激光传感器的第一点云数据和来自固态激光传感器的第二点云数据;所述从所述点云数据中筛选出非地面点云,包括:
基于所述第一点云数据确定对应的拟合平面;
确定所述第二点云数据中每个点云至所述拟合平面的正交投影距离;
将所述正交投影距离符合阈值条件的点云确定为非地面点云。
在其中一个实施例中,所述从所述点云数据中筛选出非地面点云,包括:
获取所述无人车在倒车区域内的现场图像;
将所述点云数据对应投射至所述现场图像,得到雷达投射图;
确定所述雷达投射图中的非地面区域;
将所述点云数据中位于所述雷达投射图的非地面区域的点云确定为非地面点云。
在其中一个实施例中,所述现场图像是基于图像采集设备针对所述倒车区域采集的图像帧;所述点云数据是由固态激光雷达采集而得;所述将所述点云数据对应投射至所述现场图像,得到雷达投射图,包括:
确定所述固态激光雷达的空间坐标系,和所述图像采集设备的相机坐标系;
将基于所述空间坐标系采集的点云数据与基于所述相机坐标系采集的现场图像转换至同一坐标系中;
将所述点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
在其中一个实施例中,所述根据所述间隔距离确定相应非地面点云的三维模型,包括:
获取预设建模比例;
根据所述预设建模比例和间隔距离,确定三维模型的模型边长;
基于所述模型边长对相应的非地面点云进行三维建模。
在其中一个实施例中,所述点云数据是由固态激光传感器采集而得;点云数据包括多个点云;所述预设建模比例的确定步骤包括:
确定所述固态激光传感器的分辨率;
基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;
分别对所述相邻点云构建三维模型;
调整两个三维模型的模型边长,直至所述两个三维模型的相邻面重合;
根据调整后的三维模型的模型边长确定预设建模比例。
在其中一个实施例中,所述三维模型包括模型边长;所述方法还包括:
根据所述模型边长计算相应目标障碍物的体积;
根据所述目标障碍物体积生成避障指令;
基于所述避障指令控制所述无人车对应行驶。
一种障碍物检测装置,所述装置包括:
非地面点云确定模块,用于获取无人车在倒车区域内的点云数据;筛选所述点云数据所包含的一个或多个非地面点云;
三维建模模块,用于计算每个非地面点云与所述无人车对应点云之间的间隔距离;根据所述间隔距离确定相应非地面点云的三维模型;
目标障碍物确定模块,用于将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取无人车在倒车区域内的点云数据;
筛选所述点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与所述无人车对应点云之间的间隔距离;
根据所述间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取无人车在倒车区域内的点云数据;
筛选所述点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与所述无人车对应点云之间的间隔距离;
根据所述间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
上述障碍物检测方法、装置、计算机设备和存储介质,通过从点云数据中筛选出非地面点云,可以将每个非地面点云作为针对不同候选障碍物采集的环境数据;通过获取每个而非地面点云与无人车对应点云之间的间隔距离,可以基于间隔距离对每个非地面点云进行三维建模,从而可以根据三维建模的模型边长确定对应候选障碍物的体积大小,进而可以将体积大小符合预设条件的候选障碍物确定为目标障碍物。由于是根据三维模型的体积大小进行目标障碍物检测,因此相比于单纯地将每个非地面点云均判定为一个障碍物,本方案能够可以根据障碍物体积大小以及非地面点云的空间位置信息对目标障碍物进行综合检测,从而提升了障碍物检测的准确性。
附图说明
图1为一个实施例中障碍物检测方法的应用场景图;
图2为一个实施例中障碍物检测方法的步骤示意图;
图3A为一个实施例中空间坐标系鸟瞰示意图;
图3B为一个实施例中空间坐标系三维示意图;
图4为另一个实施例中从点云数据筛选出非地面点云方法的步骤示意图;
图5为一个实施例中基于相邻两个非地面点云构建三维模型的示意图;
图6为一个实施例中障碍物检测装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的障碍物检测方法,可以应用于多种应用环境中。例如,可以应用于如图1所示的自动驾驶的应用环境中,可以包括固态激光传感器102和计算机设备104。计算机设备104可以通过网络与固态激光传感器102进行通信。固态激光传感器102可以针对倒车区域采集多个点云数据,并将点云数据发送至计算机设备104。计算机设备104采用上述障碍物检测方法对点云数据进行处理,从而实现对障碍物的检测。固态激光传感器102可以是架设在无人车车尾的传感器,具体可以为Flash雷达、MEMS(Micro-Electro-MechanicalSystem,微机电系统)雷达和OPA(optical phased array,光学相控阵)雷达等。计算机设备104可以为无人车内的一个无人驾驶模块,也可以为独立于无人车之外的服务器或终端。
在一个实施例中,如图2所示,提供了一种障碍物检测方法,以该方法应用于图1中的计算机设备为例进行说明,包括以下步骤:
S202,获取无人车在倒车区域内的点云数据。
其中,点云数据是由固态激光传感器针对倒车区域中的物体采集得到的环境数据。点云数据包括多个点云,点云是指环境中物体表面的单个点在空间坐标系中的三维空间位置坐标、激光反射强度以及颜色等多种信息。固态激光传感器可以是由能够进行自动驾驶的设备搭载的低分辨率传感器。比如可以是搭载于低速运行的物流车车尾的Flash激光雷达。由于固态激光传感器的分辨率较低,因此,采集得到的点云数据较为稀疏,点云数据之间的间隔距离也较大。
空间坐标系以固体激光传感器站心为原点,以与固体激光传感器水平的水平面为基准面(即为xoy平面),以与无人车运动方向水平的轴线为Y轴;以处于基准面中、经过原点并与原点横向垂直的轴线为X轴;以经过原点并与垂直基准面的轴线为Z轴。图3A为一个实施例中空间坐标系鸟瞰示意图。图3B为一个实施例中空间坐标系三维示意图。
具体地,可以预先在无人车车尾上架设固态激光传感器,当需要倒车时,固态激光传感器按照预设时间频率向倒车区域发射探测信号,并将倒车区域内物体反射回的信号与探测信号进行对比,从而得到如(X1,Y1,Z1,反射强度)的点云数据。其中,X1,Y1,Z1为物体反射点在空间坐标系中的坐标值。预设时间频率是指单位时间内所需拍摄倒车区域的帧数,预设时间频率可以根据需求自行设定,如1帧/秒。固态激光传感器在采集到点云数据后,将采集得到的点云数据打包发送至计算机设备。
在一个实施例中,固态激光传感器从采集得到的点云数据中删除噪点数据,之后再将删除噪点数据的点云数据发送至计算机设备。
S204,筛选点云数据所包含的一个或多个非地面点云。
其中,非地面点云是指固态激光传感器针对倒车区域内的非地面区域采集得到的环境数据。
具体地,可以在无人车车头架设机械式激光传感器,用于采集无人车前行方向的行车区域内的环境数据。为了描述方便,下述将由机械式激光传感器采集得到的点云数据称为第一点云数据;由固态激光传感器采集得到的点云数据称为第二点云数据。当无人车倒车时,计算机设备可以向无人车发送数据采集指令,由无人车根据数据采集指令调用机械式传感器采集第二点云数据,并将采集得到的第二点云数据发送至计算机设备。
计算机设备获取第二点云数据中每个点云的空间坐标值,从第二点云数据中筛选出预设数量的高度值最小(Z轴数值最小)的点云,并将筛选出的点云中的Z轴数值进行叠加求和,得到总高度值。之后,计算机设备将总高度值除以筛选出的点云的数量,得到最低高度平均值。
进一步地,计算机设备将第二点云数据中的Z轴数值与最低高度平均值进行对比,将低于最低高度平均值的第二点云作为种子数据,并分别将种子数据的空间坐标值代入预设的拟合平面计算公式中,从而得到代表地面的一个拟合平面。
进一步地,计算机设备将第二点云数据中每个点云正交投影至拟合平面,并计算第二点云至拟合平面的正交投影距离,将正交投影距离大于阈值的第二点云数据作为非地面点云。
S206,计算每个非地面点云与无人车对应点云之间的间隔距离。
具体地,由于空间坐标系是以固体激光传感器的站心为原点建立的,故计算机设备从非地面点云中提取出空间坐标值,基于预设间隔距离计算公式对空间坐标值进行计算,得到非地面点云距固体激光传感器的相隔距离,即得到得地面点云与无人车之间的间隔距离。
S208,根据间隔距离确定相应非地面点云的三维模型。
S210,将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
其中,三维模型为基于非地面点云的空间坐标值确定的,用以代表障碍物大小的立体模型,具体可以为立方体模型。
具体地,计算机设备预存储有预设建模比例。预设建模比例是指立方体模型的边长和非地面点云与无人车之间的间隔距离之间的比例数值。例如,当立方体模型的边长为0.35米,对应的非地面点云与无人车之间的间隔距离为10米时,相应的预设建模比例即为0.035。
当计算机设备获取到非地面点云与无人车之间的间隔距离时,计算机设备将非地面数据的间隔距离乘以预设建模比例,得到待拟合三维模型的模型边长,并以非地面点云的空间坐标值为与无人车对立的对立面面心,建立立方体模型。计算机设备遍历非地面点云,直至确定每个非地面点云的三维模型。例如,当非地面数据的空间坐标值为(X1,Y1,Z1),立方体模型的边长为K时,计算机设备分别以(X1±K/2,Y1,Z1±K/2),(X1±K/2,Y1+K,Z1±K/2)为顶点建立立方体模型。
进一步的,计算机模型将行车区域内的每一个立方体模型判定为候选障碍物,并根据立方体模型的模型边长计算候选障碍物的体积大小。计算机模型将计算得到的候选障碍物的体积与预设体积进行对比,当候选障碍物的体积小于预设体积时,可以认为此候选障碍物可能为路面石头,不会影响无人车正常倒车,此时计算机设备忽略该候选障碍物。当候选障碍物的体积大于预设体积时,可以认为此候选障碍物会影响无人车正常倒车,此时计算机设备将该候选障碍物判定为目标障碍物。
在另一个实施例中,在对当前帧第二点云数据进行处理,得到目标障碍物的空间位置坐标后,计算机设备可以继续获取下一帧第二点云数据,并基于上述障碍物检测方法确定与下一帧第二点云数据对应的目标障碍物。计算机设备将基于当前帧第二点云数据确定的目标障碍物的空间坐标值,减去基于下一帧第二点云数据确定的目标障碍物的空间坐标值,将坐标差值小于预设差值的两个目标障碍物确定为相匹配的障碍物。之后,计算机设备根据相匹配的障碍物的空间坐标值,以及第二点云数据采集时间确定目标障碍物的运动方向和运动速度。计算机设备根据目标障碍物的运动方向和运动速度,预测目标障碍物与无人车相碰撞的概率值,从而根据概率值生成对应的避障指令。
例如,当计算机设备确定基于当前帧第二点云数据确定的目标障碍物A1,与基于下一帧第二点云数据确定的目标障碍物A2为相匹配的障碍物时,计算机设备根据A2的空间坐标值以及A1的空间坐标值,确定A2相对于A1的位移矢量,从而将位移矢量的方向确定为目标障碍物的运动方向。计算机设备对位置矢量求绝对值计算,得到移动距离,并基于移动距离和固态激光传感器的采集频率,确定目标障碍物的移动速度。
上述障碍物检测方法中,通过从点云数据中筛选出非地面点云,可以将每个非地面点云作为针对不同候选障碍物采集的环境数据;通过获取每个而非地面点云与无人车对应点云之间的间隔距离,可以基于间隔距离对每个非地面点云进行三维建模,从而可以根据三维建模的模型边长确定对应候选障碍物的体积大小,进而可以将体积大小符合预设条件的候选障碍物确定为目标障碍物。由于是根据三维模型的体积大小进行目标障碍物检测,因此相比于单纯地将每个非地面点云均判定为一个障碍物,本方案能够可以根据障碍物体积大小以及非地面点云的空间位置信息对目标障碍物进行综合检测,从而提升了障碍物检测的准确性。
此外,通过将车尾的机械式激光传感器替换成固态激光传感器,不仅可以降低无人车制造成本,而且可以促进无人车的大规模量产。
在另一个实施例中,点云数据包括来自机械式激光传感器的第一点云数据和来自固态激光传感器的第二点云数据;从点云数据中筛选出非地面点云,包括:基于第一点云数据确定对应的拟合平面;确定第二点云数据中每个点云至拟合平面的正交投影距离;将正交投影距离符合阈值条件的点云确定为非地面点云。
具体地,计算机设备获取来自机械式激光传感器采集的第一点云数据,并根据第一点云数据确定对应的拟合平面。其中,拟合平面为倒车区域内的地面所在平面。计算机设备将固态激光传感器采集的第二点云数据中的每个点云正交投影至拟合平面,并计算对应的正交投影距离。当正交投影距离小于预设距离阈值时,可以认为此第二点云为针对地面采集的地面点云;当正交投影距离大于预设距离阈值时,可以认为此第二点云为针对非地面区域采集的非地面点云。
本实施例中,由于拟合平面为针对倒车区域内的地面拟合而成的平面,因此当正交投影的距离大于预设阈值时,即可确定对应的第二点云为针对非地面区域采集的非地面点云,从而可以准确地从第二点云中筛选出非地面点云。
在另一个实施例中,如图4所示,提供了一种从点云数据中筛选出非地面点云的方法,包括:
S402,获取无人车在倒车区域内的现场图像;
S404,确定现场图像中的非地面区域;
S406,将点云数据对应投射至所述现场图像,得到雷达投射图;
S408,将点云数据中位于雷达投射图的非地面区域的点云确定为非地面点云。
其中,现场图像为架设于无人车车尾的图像采集装置针对倒车区域采集得到的图像帧。
具体地,当计算机设备判定无人车进行倒车时,计算机设备向无人车发送现场图像采集指令,以使架设于车尾的图像采集装置对应采集多张倒车区域的现场图像,并在现场图像中内嵌采集时间,之后,将内嵌采集时间的多张现场图像发送至计算机设备。计算机设备基于内嵌时间,从多张现场图像中筛选出与第二点云数据采集时间一致的现场图像,并将第二点云数据中的每个点云对应投影至现场图像中,得到雷达投射图。计算机设备基于图像识别算法识别出现场图像中的非地面区域,并将投影至非地面区域内的第二点云确定为非地面点云。其中,图像识别算法可根据需要自定义,如可为OpenCV非地面检测算法、IOS、Android系统自带的非地面检测算法等。
本实施例中,通过将第二点云数据中的每个点云对应投影至现场图像中,可以准确地从第二点云数据中筛选出投影至非地面区域的点云数据,从而后续可以根据准确提取出的点云数据进行障碍物判断。
在另一个实施例中,现场图像是基于图像采集设备针对倒车区域采集的图像帧;点云数据是由固态激光雷达采集而得;将点云数据对应投射至现场图像,得到雷达投射图,包括:确定固态激光雷达的空间坐标系,和图像采集设备的相机坐标系;将基于空间坐标系采集的点云数据与基于相机坐标系采集的现场图像转换至同一坐标系中;将点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
具体地,计算机设备可以预先对图像采集装置进行相机标定,如采用棋盘格标定板以及张正右标定法,通过获取的多张具有不同角度位置的标定板图像确定图像采集设备的内参矩阵。计算机设备根据图像采集设备在空间坐标系中的位置信息,确定空间坐标系与相机坐标系之间的相对旋转矩阵以及相对位移向量。例如相对旋转矩阵可以为一个三行三列的旋转矩阵,相对位移向量为一个三行一列的矩阵,此时,计算机设备将旋转矩阵与相对位移向量组合形成的三行四列矩阵作为外参矩阵。其中,相机坐标系为以图像采集装置为原点,以无人车运动方向水平的轴线为Y轴,以处于基准面中、经过原点并与原点横向垂直的轴线为X轴,以经过原点并与垂直基准面的轴线为Z轴的坐标系。
进一步地,计算机设备将内参矩阵乘以外参矩阵,得到投影矩阵,并将每一个第二点云数据的空间坐标乘以投影矩阵,从而实现将每一个第二点云数据对应投影至现场图像中。
在另一个实施例中,计算机设备可以对基于相机坐标系采集的倒车区域现场图像进行坐标转,将其从相机坐标系转换为空间坐标系,之后将空间坐标系中的第二点云图像投射至坐标转换后的倒车区域现场图像中。
在另一个实施例中,当无人车上架设有多个图像采集装置时,计算机设备将多个图像采集装置中的一个图像采集装置作为初始图像采集装置。计算机设备确定除原始图像采集装置之外的每个其余图像采集装置与原始图像采集装置之间的旋转角度和平移距离,根据旋转角度以及平移距离得到平面旋转矩阵,并将平面旋转矩阵发送至障碍物检测模块。计算机设备将平面旋转矩阵乘以内参矩阵以及外参矩阵,得到投影矩阵。
本实施例中,通过将基于空间坐标系采集的第二点云图像与基于相机坐标系采集的倒车区域现场图像转换至同一坐标系中,使得第二点云图像的每一个像素均能准确地查找到对应的行车区域现场图像中的图像像素点,从而实现精准投影。
在另一个实施例中,根据间隔距离确定相应非地面点云的三维模型,包括:获取预设建模比例;根据预设建模比例和间隔距离,确定三维模型的模型边长;基于模型边长对相应的非地面点云进行三维建模。
其中,三维模型为立方体模型。
具体地,当确定每个非地面点云距无人车之间的间距时,计算机设备将非地面数据的间隔距离乘以预设建模比例,得到待拟合三维模型的模型边长,并以非地面点云的空间坐标值(X1,Y1,Z1)为与无人车对立的对立面的面心,以(X1±K/2,Y1,Z1±K/2),(X1±K/2,Y1+K,Z1±K/2)为顶点,建立立方体模型。计算机设备遍历非地面点云,直至对每个非地面点云均进行三维建模。
本实施例中,由于固态激光传感器的分辨率较低,因此可以将每一个非地面点云均判定为一个候选障碍物;通过三维建模的方式对每个非地面点云进行具象化,从而不仅可以得知候选障碍物的空间位置信息,而且可以快速预估出障碍物的大小,进而后续可以根据预估出的障碍物大小进行避让行驶。
在另一个实施例中,点云数据是由固态激光传感器采集而得;点云数据包括多个点云;预设建模比例的确定步骤包括:确定固态激光传感器的分辨率;基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;分别对相邻点云构建三维模型;调整两个三维模型的模型边长,直至两个三维模型的相邻面重合;根据调整后的三维模型的模型边长确定预设建模比例。
具体地,开发人员可以在倒车区域内放置一个预设障碍物,并调整预设障碍物与固态激光传感器之间的间距,直至固态激光传感器在垂直视场下的相邻两个点云数据均为针对此预设障碍物采集的点云数据。例如,当固态激光传感器的分辨率为8*98时,即当每一帧点云数据可以具有8行*98列个点云时,计算机设备判断同一列中是否具有两个相邻的点云,当具有两个相邻的点云时,可以认为预设障碍物与固态激光传感器之间的间距已调整成功。此时,计算机设备分别对相邻两个点云构建边长一致的三维模型,并逐步调整模型边长,直至两个三维模型的相邻面如图5所示完全重合。图5为一个实施例中基于相邻两个非地面点云构建三维模型的示意图。其中,三维模型为立方体模型。进一步地,计算机设备获取调整后的立方体模型边长,以及预设障碍物与固态激光传感器之间的间隔距离,将立方体模型边长除以间隔距离,得到预设建模比例。
在另一个实施例中,可以在固定距离处放置预设障碍物,通过不断调整预设障碍物的体积大小,使得固态激光传感器在垂直视场下,获取相邻两个点云数据。其中,固定距离可以根据需求自行设定,例如,在倒车场景中,对距离无人车两米内的障碍物的体积大小较为敏感,因此可以将固定距离设置为两米,从而使得基于预设建模比例预估的两米内的障碍物的体积大小较为准确。
在另一个实施例中,可以基于固态激光传感器的分辨率确定在横向视场下,针对预设障碍物采集的相邻两个点云,并采用上述预设建模比例确定方法,确定横向视场下的预设建模比例。将基于垂直视场确定的预设建模比例作为第一建模比例,将基于横向视场确定的建模比例作为第二建模比例,从而根据第一建模比例以及第二建模比例对非地面点云构建长方体模型。
本实施例中,通过获取在垂直视场下,针对预设障碍物采集的相邻两个点云,可以分别对相邻点云构建立方体模型;通过调整两个立方体模型的边长,使得相邻面重合的两个立方体模型可以大致勾勒出预设障碍物的轮廓,从而可以认为此时的立方体模型的体积大致等同于障碍物的体积大小,因此通过将调整后的立方体模型边长除以间隔距离,即可得到构建三位模型的预设建模比例。
在另一个实施例中,三维模型包括模型边长;障碍物检测方法还包括:根据模型边长计算相应目标障碍物的体积;根据目标障碍物体积生成避障指令;基于避障指令控制无人车对应行驶。
具体地,计算机设备根据目标障碍物的空间坐标确定目标障碍物是否与无人车处于同一车道,若目标障碍物与无人车处于同一车道,计算机设备获取目标障碍物与无人车之间的间隔距离,并根据无人车当前速度以及间隔距离计算得到无人车的刹车速度,之后,计算机设备将刹车速度下发至无人车,以使无人车根据刹车速度进行减速停车。当目标障碍物与无人车不处于同一车道时,计算机设备向无人车发送保持行驶指令,以使无人车根据保持行驶指令继续倒车。
本实施例中,由于障碍物检测模块是综合目标障碍物的空间坐标以及当前车速生成避障指令的,使得无人车可以根据实际情况对应行驶,从而减少了无人车与目标障碍物发生碰撞的概率,进而提升了无人驾驶的安全性。
应该理解的是,虽然图2、4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2、4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种障碍物检测装置600,包括:非地面点云确定模块602、三维建模模块604和目标障碍物确定模块606,其中:
非地面点云确定模块602,用于获取无人车在倒车区域内的点云数据;筛选点云数据所包含的一个或多个非地面点云。
三维建模模块604,用于计算每个非地面点云与无人车对应点云之间的间隔距离;根据间隔距离确定相应非地面点云的三维模型。
目标障碍物确定模块606,用于将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
在其中一个实施例中,上述非地面点云确定模块602还包括正交投影计算子模块6021,用于基于第一点云数据确定对应的拟合平面;确定第二点云数据中每个点云至拟合平面的正交投影距离;将正交投影距离符合阈值条件的点云确定为非地面点云。
在其中一个实施例中,上述非地面点云确定模块602还包括雷达投射图获取子模块6022,用于获取无人车在倒车区域内的现场图像;将点云数据对应投射至现场图像,得到雷达投射图;确定雷达投射图中的非地面区域;从雷达投射图中筛选出处于非地面区域内的点云数据,并将筛选出的点云数据判定为非地面点云。
在其中一个实施例中,雷达投射图获取子模块6022还用于确定固态激光雷达的空间坐标系,和图像采集设备的相机坐标系;将基于空间坐标系采集的点云数据与基于相机坐标系采集的现场图像转换至同一坐标系中;将点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
在其中一个实施例中,三维建模模块604还包括立方体建模子模块6041,用于获取预设建模比例;根据预设建模比例和间隔距离,确定三维模型的模型边长;基于模型边长对相应的非地面点云进行三维建模。
在其中一个实施例中,立方体建模子模块6041还用于确定固态激光传感器的分辨率;基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;分别对相邻点云构建三维模型;调整两个三维模型的模型边长,直至两个三维模型的相邻面重合;根据调整后的三维模型的模型边长确定预设建模比例。
在其中一个实施例中,障碍物检测装置600还用于根据模型边长计算相应目标障碍物的体积;根据目标障碍物体积生成避障指令;基于避障指令控制无人车对应行驶。
关于障碍物检测装置的具体限定可以参见上文中对于障碍物检测方法的限定,在此不再赘述。上述障碍物检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储障碍物检测数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种障碍物检测方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
获取无人车在倒车区域内的点云数据;
筛选点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与无人车对应点云之间的间隔距离;
根据间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
在一个实施例中,点云数据包括来自机械式激光传感器的第一点云数据和来自固态激光传感器的第二点云数据;处理器执行计算机程序时还实现以下步骤:
基于第一点云数据确定对应的拟合平面;
确定第二点云数据中每个点云至拟合平面的正交投影距离;
将正交投影距离符合阈值条件的点云确定为非地面点云。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取无人车在倒车区域内的现场图像;
将点云数据对应投射至现场图像,得到雷达投射图;
确定雷达投射图中的非地面区域;
将点云数据中位于雷达投射图的非地面区域的点云确定为非地面点云。
在一个实施例中,现场图像是基于图像采集设备针对倒车区域采集的图像帧;点云数据是由固态激光雷达采集而得;处理器执行计算机程序时还实现以下步骤:
确定固态激光雷达的空间坐标系,和图像采集设备的相机坐标系;
将基于空间坐标系采集的点云数据与基于相机坐标系采集的现场图像转换至同一坐标系中;
将点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
获取预设建模比例;
根据预设建模比例和间隔距离,确定三维模型的模型边长;
基于模型边长对相应的非地面点云进行三维建模。
在一个实施例中,点云数据是由固态激光传感器采集而得;点云数据包括多个点云;处理器执行计算机程序时还实现以下步骤:
确定固态激光传感器的分辨率;
基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;
分别对相邻点云构建三维模型;
调整两个三维模型的模型边长,直至两个三维模型的相邻面重合;
根据调整后的三维模型的模型边长确定预设建模比例。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据模型边长计算相应目标障碍物的体积;
根据目标障碍物体积生成避障指令;
基于避障指令控制无人车对应行驶。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取无人车在倒车区域内的点云数据;
筛选点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与无人车对应点云之间的间隔距离;
根据间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
在一个实施例中,点云数据包括来自机械式激光传感器的第一点云数据和来自固态激光传感器的第二点云数据;计算机程序被处理器执行时还实现以下步骤:
基于第一点云数据确定对应的拟合平面;
确定第二点云数据中每个点云至拟合平面的正交投影距离;
将正交投影距离符合阈值条件的点云确定为非地面点云。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取无人车在倒车区域内的现场图像;
将点云数据对应投射至现场图像,得到雷达投射图;
确定雷达投射图中的非地面区域;
将点云数据中位于雷达投射图的非地面区域的点云确定为非地面点云。
在一个实施例中,现场图像是基于图像采集设备针对倒车区域采集的图像帧;点云数据是由固态激光雷达采集而得;计算机程序被处理器执行时还实现以下步骤:
确定固态激光雷达的空间坐标系,和图像采集设备的相机坐标系;
将基于空间坐标系采集的点云数据与基于相机坐标系采集的现场图像转换至同一坐标系中;
将点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
获取预设建模比例;
根据预设建模比例和间隔距离,确定三维模型的模型边长;
基于模型边长对相应的非地面点云进行三维建模。
在一个实施例中,点云数据是由固态激光传感器采集而得;点云数据包括多个点云;计算机程序被处理器执行时还实现以下步骤:
确定固态激光传感器的分辨率;
基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;
分别对相邻点云构建三维模型;
调整两个三维模型的模型边长,直至两个三维模型的相邻面重合;
根据调整后的三维模型的模型边长确定预设建模比例。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据模型边长计算相应目标障碍物的体积;
根据目标障碍物体积生成避障指令;
基于避障指令控制无人车对应行驶。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种障碍物检测方法,所述方法包括:
获取无人车在倒车区域内的点云数据;
筛选所述点云数据所包含的一个或多个非地面点云;
计算每个非地面点云与所述无人车对应点云之间的间隔距离;
根据所述间隔距离确定相应非地面点云的三维模型;
将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
2.根据权利要求1所述的方法,其特征在于,所述点云数据包括来自机械式激光传感器的第一点云数据和来自固态激光传感器的第二点云数据;所述从所述点云数据中筛选出非地面点云,包括:
基于所述第一点云数据确定拟合平面;
确定所述第二点云数据中每个点云至所述拟合平面的正交投影距离;
将所述正交投影距离符合阈值条件的点云确定为非地面点云。
3.根据权利要求1所述的方法,其特征在于,所述从所述点云数据中筛选出非地面点云,包括:
获取所述无人车在倒车区域内的现场图像;
将所述点云数据对应投射至所述现场图像,得到雷达投射图;
确定所述雷达投射图中的非地面区域;
将所述点云数据中位于所述雷达投射图的非地面区域的点云确定为非地面点云。
4.根据权利要求3所述的方法,其特征在于,所述现场图像是基于图像采集设备针对所述倒车区域采集的图像帧;所述点云数据是由固态激光雷达采集而得;所述将所述点云数据对应投射至所述现场图像,得到雷达投射图,包括:
确定所述固态激光雷达的空间坐标系,和所述图像采集设备的相机坐标系;
将基于所述空间坐标系采集的点云数据与基于所述相机坐标系采集的现场图像转换至同一坐标系中;
将所述点云数据投射至同一坐标系中的现场图像,得到雷达投射图。
5.根据权利要求1所述的方法,其特征在于,所述根据所述间隔距离确定相应非地面点云的三维模型,包括:
获取预设建模比例;
根据所述预设建模比例和间隔距离,确定三维模型的模型边长;
基于所述模型边长对相应的非地面点云进行三维建模。
6.根据权利要求5所述的方法,其特征在于,所述点云数据是由固态激光传感器采集而得;点云数据包括多个点云;所述预设建模比例的确定步骤包括:
确定所述固态激光传感器的分辨率;
基于分辨率确定在垂直视场下,针对预设障碍物采集的相邻两个点云;
分别对所述相邻点云构建三维模型;
调整两个三维模型的模型边长,直至所述两个三维模型的相邻面重合;
根据调整后的三维模型的模型边长确定预设建模比例。
7.根据权利要求1所述的方法,其特征在于,所述三维模型包括模型边长;所述方法还包括:
根据所述模型边长计算相应目标障碍物的体积;
根据所述目标障碍物体积生成避障指令;
基于所述避障指令控制所述无人车对应行驶。
8.一种障碍物检测装置,其特征在于,所述装置包括:
非地面点云确定模块,用于获取无人车在倒车区域内的点云数据;筛选所述点云数据所包含的一个或多个非地面点云;
三维建模模块,用于计算每个非地面点云与所述无人车对应点云之间的间隔距离;根据所述间隔距离确定相应非地面点云的三维模型;
目标障碍物确定模块,用于将每个符合障碍物判定条件的三维模型分别判定为目标障碍物。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911362269.3A CN113128248B (zh) | 2019-12-26 | 2019-12-26 | 障碍物检测方法、装置、计算机设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911362269.3A CN113128248B (zh) | 2019-12-26 | 2019-12-26 | 障碍物检测方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113128248A true CN113128248A (zh) | 2021-07-16 |
CN113128248B CN113128248B (zh) | 2024-05-28 |
Family
ID=76767205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911362269.3A Active CN113128248B (zh) | 2019-12-26 | 2019-12-26 | 障碍物检测方法、装置、计算机设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113128248B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673493A (zh) * | 2021-10-22 | 2021-11-19 | 浙江建木智能系统有限公司 | 一种基于工业车辆视觉的行人感知和定位的方法和系统 |
CN113686251A (zh) * | 2021-08-19 | 2021-11-23 | 山东科技大学 | 一种综采工作面设备上窜下滑偏移测量方法及系统 |
CN114255325A (zh) * | 2021-12-31 | 2022-03-29 | 广州极飞科技股份有限公司 | 地面模型生成、障碍数据确定、作业控制方法及相关装置 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150128300A (ko) * | 2014-05-09 | 2015-11-18 | 한국건설기술연구원 | 카메라와 레이저 스캔을 이용한 3차원 모델 생성 및 결함 분석 방법 |
CN105374011A (zh) * | 2015-12-09 | 2016-03-02 | 中电科信息产业有限公司 | 基于全景图像的点云数据拼接方法及装置 |
KR101798132B1 (ko) * | 2016-12-26 | 2017-11-16 | 한국생산기술연구원 | 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법 |
CN108733045A (zh) * | 2017-09-29 | 2018-11-02 | 北京猎户星空科技有限公司 | 机器人及其避障方法以及计算机可读存储介质 |
CN109141364A (zh) * | 2018-08-01 | 2019-01-04 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN109190186A (zh) * | 2018-08-10 | 2019-01-11 | 上海扩博智能技术有限公司 | 通过无人机进行风机模型自动重建方法及系统 |
US20190080183A1 (en) * | 2017-09-14 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co., Ltd . | Dynamic obstacle point cloud annotating method and apparatus, device and readable medium |
US20190080203A1 (en) * | 2017-09-11 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co, Ltd | Method And Apparatus For Outputting Information |
CN109683170A (zh) * | 2018-12-27 | 2019-04-26 | 驭势科技(北京)有限公司 | 一种图像行驶区域标注方法、装置、车载设备及存储介质 |
CN110084895A (zh) * | 2019-04-30 | 2019-08-02 | 上海禾赛光电科技有限公司 | 对点云数据进行标注的方法和设备 |
CN110168559A (zh) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | 用于识别和定位车辆周围物体的系统和方法 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
CN110481601A (zh) * | 2019-09-04 | 2019-11-22 | 深圳市镭神智能系统有限公司 | 一种轨道检测系统 |
CN110515089A (zh) * | 2018-05-21 | 2019-11-29 | 华创车电技术中心股份有限公司 | 基于光学雷达的行车辅助方法 |
-
2019
- 2019-12-26 CN CN201911362269.3A patent/CN113128248B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150128300A (ko) * | 2014-05-09 | 2015-11-18 | 한국건설기술연구원 | 카메라와 레이저 스캔을 이용한 3차원 모델 생성 및 결함 분석 방법 |
CN105374011A (zh) * | 2015-12-09 | 2016-03-02 | 中电科信息产业有限公司 | 基于全景图像的点云数据拼接方法及装置 |
KR101798132B1 (ko) * | 2016-12-26 | 2017-11-16 | 한국생산기술연구원 | 로봇의 충돌 검출 고속화를 위한 작업 환경 모델링 장치 및 방법 |
US20190080203A1 (en) * | 2017-09-11 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co, Ltd | Method And Apparatus For Outputting Information |
US20190080183A1 (en) * | 2017-09-14 | 2019-03-14 | Baidu Online Network Technology (Beijing) Co., Ltd . | Dynamic obstacle point cloud annotating method and apparatus, device and readable medium |
CN108733045A (zh) * | 2017-09-29 | 2018-11-02 | 北京猎户星空科技有限公司 | 机器人及其避障方法以及计算机可读存储介质 |
CN110168559A (zh) * | 2017-12-11 | 2019-08-23 | 北京嘀嘀无限科技发展有限公司 | 用于识别和定位车辆周围物体的系统和方法 |
CN110515089A (zh) * | 2018-05-21 | 2019-11-29 | 华创车电技术中心股份有限公司 | 基于光学雷达的行车辅助方法 |
CN109141364A (zh) * | 2018-08-01 | 2019-01-04 | 北京进化者机器人科技有限公司 | 障碍物检测方法、系统及机器人 |
CN109190186A (zh) * | 2018-08-10 | 2019-01-11 | 上海扩博智能技术有限公司 | 通过无人机进行风机模型自动重建方法及系统 |
CN109683170A (zh) * | 2018-12-27 | 2019-04-26 | 驭势科技(北京)有限公司 | 一种图像行驶区域标注方法、装置、车载设备及存储介质 |
CN110084895A (zh) * | 2019-04-30 | 2019-08-02 | 上海禾赛光电科技有限公司 | 对点云数据进行标注的方法和设备 |
CN110286387A (zh) * | 2019-06-25 | 2019-09-27 | 深兰科技(上海)有限公司 | 应用于自动驾驶系统的障碍物检测方法、装置及存储介质 |
CN110481601A (zh) * | 2019-09-04 | 2019-11-22 | 深圳市镭神智能系统有限公司 | 一种轨道检测系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113686251A (zh) * | 2021-08-19 | 2021-11-23 | 山东科技大学 | 一种综采工作面设备上窜下滑偏移测量方法及系统 |
CN113686251B (zh) * | 2021-08-19 | 2022-12-13 | 山东科技大学 | 一种综采工作面设备上窜下滑偏移测量方法及系统 |
CN113673493A (zh) * | 2021-10-22 | 2021-11-19 | 浙江建木智能系统有限公司 | 一种基于工业车辆视觉的行人感知和定位的方法和系统 |
CN114255325A (zh) * | 2021-12-31 | 2022-03-29 | 广州极飞科技股份有限公司 | 地面模型生成、障碍数据确定、作业控制方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113128248B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11719788B2 (en) | Signal processing apparatus, signal processing method, and program | |
US10937231B2 (en) | Systems and methods for updating a high-resolution map based on binocular images | |
US10659677B2 (en) | Camera parameter set calculation apparatus, camera parameter set calculation method, and recording medium | |
CN111160302B (zh) | 基于自动驾驶环境的障碍物信息识别方法和装置 | |
CN111191600B (zh) | 障碍物检测方法、装置、计算机设备和存储介质 | |
US10757395B2 (en) | Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus | |
CN111223135B (zh) | 通过使用雷达和运动数据的单目相机来增强距离估计的系统和方法 | |
CA3028653C (en) | Methods and systems for color point cloud generation | |
AU2018282302B2 (en) | Integrated sensor calibration in natural scenes | |
CN113128248A (zh) | 障碍物检测方法、装置、计算机设备和存储介质 | |
CN112106111A (zh) | 一种标定方法、设备、可移动平台及存储介质 | |
KR102167835B1 (ko) | 영상 처리 방법 및 장치 | |
CN115797454B (zh) | 一种鸟瞰图视角下多摄像机融合感知方法及装置 | |
WO2020054408A1 (ja) | 制御装置、情報処理方法、およびプログラム | |
CN114494466A (zh) | 外参标定方法、装置及设备、存储介质 | |
Steinbaeck et al. | Occupancy grid fusion of low-level radar and time-of-flight sensor data | |
US20230351687A1 (en) | Method for detecting and modeling of object on surface of road | |
CN112364741B (zh) | 无人机单目远距离障碍检测方法、装置及无人机 | |
CN112651405B (zh) | 目标检测方法及装置 | |
AU2018102199A4 (en) | Methods and systems for color point cloud generation | |
US20240112363A1 (en) | Position estimation system, position estimation method, and program | |
Paracchini et al. | Accurate omnidirectional multi-camera embedded structure from motion | |
CN117392423A (zh) | 基于激光雷达的目标物的真值数据预测方法、装置及设备 | |
CN116681882A (zh) | 一种单目视觉三维物体检测方法、装置、域控制器及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |