CN116883652A - 一种可行驶区域分割方法、装置、可读存储介质及机器人 - Google Patents
一种可行驶区域分割方法、装置、可读存储介质及机器人 Download PDFInfo
- Publication number
- CN116883652A CN116883652A CN202310733916.7A CN202310733916A CN116883652A CN 116883652 A CN116883652 A CN 116883652A CN 202310733916 A CN202310733916 A CN 202310733916A CN 116883652 A CN116883652 A CN 116883652A
- Authority
- CN
- China
- Prior art keywords
- image
- region segmentation
- point cloud
- prior
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 148
- 238000012549 training Methods 0.000 claims abstract description 67
- 238000013136 deep learning model Methods 0.000 claims description 50
- 239000011159 matrix material Substances 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 14
- 230000001360 synchronised effect Effects 0.000 claims description 14
- 238000013519 translation Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 12
- 238000002372 labelling Methods 0.000 abstract description 5
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013506 data mapping Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请属于机器人技术领域,尤其涉及一种可行驶区域分割方法、装置、计算机可读存储介质及机器人。所述方法包括:可以根据同步采集的在先图像和在先点云数据训练得到可行驶区域分割模型,并利用该可行驶区域分割模型对目标图像进行区域分割,得到与目标图像对应的可行驶区域分割图像。通过上述方法,当机器人处于新的道路环境时,可以以在先图像作为输入,以同步采集的在先点云数据作为预期输出进行模型训练,而无需进行大量样本采集和人工标注工作,从而能够有效降低可行驶区域分割模型的训练成本,并提升可行驶区域分割模型的训练效率。
Description
技术领域
本申请属于机器人技术领域,尤其涉及一种可行驶区域分割方法、装置、计算机可读存储介质及机器人。
背景技术
随着道路的建设,行驶环境也越来越复杂。在现有技术中,当机器人部署到新的道路环境时,通常需要采集大量新的道路环境数据用于模型训练,以进行可行驶区域的分割。然而,现有方法的迭代时间较长,且数据标注过程依赖于人力,导致可行驶区域分割方法成本高而效率低。
发明内容
有鉴于此,本申请实施例提供了一种可行驶区域分割方法、装置、计算机可读存储介质及机器人,以解决现有的可行驶区域分割方法成本高而效率低的问题。
本申请实施例的第一方面提供了一种可行驶区域分割方法,可以包括:
获取待分割的目标图像;
使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像;
其中,所述可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型;所述在先图像为在所述目标图像之前采集的图像;所述在先点云数据为与所述在先图像同步采集的点云数据;以所述在先图像作为所述深度学习模型的训练输入,以在先分割图像作为所述深度学习模型的预期训练输出;所述在先分割图像为根据所述在先点云数据确定的可行驶区域分割图像。
在第一方面的一种具体实现方式中,在使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像之前,还可以包括:
获取所述在先图像和所述在先点云数据;
将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据;
根据所述转换点云数据确定所述在先分割图像;
根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型。
在第一方面的一种具体实现方式中,所述获取所述在先图像和所述在先点云数据,可以包括:
通过预设的同步触发器向相机和雷达发送同步的采集信号,以使所述相机和所述雷达进行同步数据采集;
获取所述相机响应于所述采集信号所采集的所述在先图像;
获取所述雷达响应于所述采集信号所采集的所述在先点云数据。
在第一方面的一种具体实现方式中,所述将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据,可以包括:
获取由所述雷达坐标系至所述相机坐标系的平移矩阵和旋转矩阵;
按照所述平移矩阵和所述旋转矩阵将所述在先点云数据由所述雷达坐标系转换至所述相机坐标系中,得到所述转换点云数据。
在第一方面的一种具体实现方式中,所述根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型,可以包括:
将所述在先图像输入至所述深度学习模型,并获取所述深度学习模型的输出图像;
根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值;
根据所述训练损失值对所述深度学习模型进行模型参数调整,得到所述可行驶区域分割模型。
在第一方面的一种具体实现方式中,所述根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值,可以包括:
计算所述输出图像和所述在先分割图像之间的可行驶区域交并比;
根据所述可行驶区域交并比计算所述训练损失值。
在第一方面的一种具体实现方式中,在使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像之前,还可以包括:
对所述目标图像进行标准化处理,得到标准化的所述目标图像;
对标准化的所述目标图像进行归一化处理,得到归一化的所述目标图像;
所述使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像,可以包括:
使用所述可行驶区域分割模型对归一化的所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像。
本申请实施例的第二方面提供了一种可行驶区域分割装置,可以包括:
图像获取模块,用于获取待分割的目标图像;
区域分割模块,用于使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像;
其中,所述可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型;所述在先图像为在所述目标图像之前采集的图像;所述在先点云数据为与所述在先图像同步采集的点云数据;以所述在先图像作为所述深度学习模型的训练输入,以在先分割图像作为所述深度学习模型的预期训练输出;所述在先分割图像为根据所述在先点云数据确定的可行驶区域分割图像。
在第二方面的一种具体实现方式中,所述可行驶区域分割装置还可以包括:
数据获取模块,用于获取所述在先图像和所述在先点云数据;
数据转化模块,用于将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据;
图像确定模块,用于根据所述转换点云数据确定所述在先分割图像;
模型训练模块,用于根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型。
在第二方面的一种具体实现方式中,所述数据获取模块可以包括:
信号发送单元,用于通过预设的同步触发器向相机和雷达发送同步的采集信号,以使所述相机和所述雷达进行同步数据采集;
图像采集单元,用于获取所述相机响应于所述采集信号所采集的所述在先图像;
数据采集单元,用于获取所述雷达响应于所述采集信号所采集的所述在先点云数据。
在第二方面的一种具体实现方式中,所述数据转化模块可以包括:
矩阵获取单元,用于获取由所述雷达坐标系至所述相机坐标系的平移矩阵和旋转矩阵;
数据转换单元,用于按照所述平移矩阵和所述旋转矩阵将所述在先点云数据由所述雷达坐标系转换至所述相机坐标系中,得到所述转换点云数据。
在第二方面的一种具体实现方式中,所述模型训练模块可以包括:
图像获取单元,用于将所述在先图像输入至所述深度学习模型,并获取所述深度学习模型的输出图像;
损失计算单元,用于根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值;
参数调整单元,用于根据所述训练损失值对所述深度学习模型进行模型参数调整,得到所述可行驶区域分割模型。
在第二方面的一种具体实现方式中,所述损失计算单元可以包括:
交并比计算子单元,用于计算所述输出图像和所述在先分割图像之间的可行驶区域交并比;
损失值计算子单元,用于根据所述可行驶区域交并比计算所述训练损失值。
在第二方面的一种具体实现方式中,所述可行驶区域分割装置还可以包括:
标准化处理模块,用于对所述目标图像进行标准化处理,得到标准化的所述目标图像;
归一化处理模块,用于对标准化的所述目标图像进行归一化处理,得到归一化的所述目标图像;
所述区域分割模块还可以包括:
区域分割单元,用于使用所述可行驶区域分割模型对归一化的所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像。
本申请实施例的第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述任一种可行驶区域分割方法的步骤。
本申请实施例的第四方面提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任一种可行驶区域分割方法的步骤。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在机器人上运行时,使得机器人执行上述任一种可行驶区域分割方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例可以根据同步采集的在先图像和在先点云数据训练得到可行驶区域分割模型,并利用该可行驶区域分割模型对目标图像进行区域分割,得到与目标图像对应的可行驶区域分割图像。通过本申请实施例,当机器人处于新的道路环境时,可以以在先图像作为输入,以同步采集的在先点云数据作为预期输出进行模型训练,而无需进行大量样本采集和人工标注工作,从而能够有效降低可行驶区域分割模型的训练成本,并提升可行驶区域分割模型的训练效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为可行驶区域分割方法的使用过程示意图;
图2为本申请实施例中可行驶区域分割模型的训练过程的示意流程图;
图3为雷达与相机的外参标定过程的示意图;
图4为可行驶区域分割模型的示意图;
图5为本申请实施例中一种可行驶区域分割方法的一个实施例流程图;
图6为本申请实施例中一种可行驶区域分割装置的一个实施例结构图;
图7为本申请实施例中一种机器人的示意框图。
具体实施方式
为使得本申请的发明目的、特征、优点能够更加的明显和易懂,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,下面所描述的实施例仅仅是本申请一部分实施例,而非全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
随着道路的建设,行驶环境也越来越复杂。在现有技术中,当机器人部署到新的道路环境时,通常需要采集大量新的道路环境数据用于模型训练,以进行可行驶区域的分割。然而,现有方法的迭代时间较长,且数据标注过程依赖于人力,导致可行驶区域分割方法成本高而效率低。
有鉴于此,本申请实施例提供了一种可行驶区域分割方法、装置、计算机可读存储介质及机器人,以解决现有的可行驶区域分割方法成本高而效率低的问题。
需要说明的是,本申请方法的执行主体为机器人,可以包括但不限于扫地机、巡检机器人、送餐机器人、引导机器人等现有技术中任意一种常见的机器人。
请参阅图1,在本申请实施例中,可以使用预设的可行驶区域分割模型对图像进行区域分割,得到与该图像对应的可行驶区域图像,并可以利用该可行驶区域图像进行辅助导航,其中,可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型,具体地,图2示出了可行驶区域分割模型的训练过程,可以包括如下步骤:
步骤S201、获取在先图像和在先点云数据。
具体地,在先前某一时刻,可以通过预设的相机采集包含行驶环境的在先图像,在同一时刻,还可以通过预设的雷达采集同一行驶环境的在先点云数据。
可以理解的是,机器人上可以预先安装有雷达与相机,以进行导航、探索及运动控制等相关应用。
在本申请实施例中,为了保证在先图像和在先点云数据能够在同一时刻采集,此处,可以使用预设的同步触发器向相机和雷达发送同步的采集信号;之后,相机响应于采集信号进行在先图像的采集,雷达响应于采集信号进行在先点云数据的采集;机器人则可获取到在先图像和在先点云数据。
步骤S202、将在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据。
具体地,可以根据预设的数据映射关系将在先点云数据映射至在先图像,其中,数据映射关系可以为雷达坐标系至相机坐标系的平移矩阵和旋转矩阵。根据平移矩阵和旋转矩阵,可以将在先点云数据由雷达坐标系转换至相机坐标系中,即可得到转换点云数据。
可以理解的是,在进行数据映射之前,可以预先进行外参标定,得到平移矩阵和旋转矩阵。图3所示即为外参标定的示意图,相机可以通过标定平面的二维码或棋盘格来计算标定平面在相机坐标系下的表示,同时,雷达发出的光束落在标定平面上(图中黑点),利用雷达点在雷达坐标系下的坐标和平面方程在相机坐标系下的坐标,构建点在平面上的约束从而求解得到平移矩阵和旋转矩阵。
在得到平移矩阵和旋转矩阵之后,可以根据下式将在先点云数据转换至相机坐标系中:
其中,(x1,y1)为转换后得到的转换点云数据,(x2,y2,z2)为在先点云数据,I为单位矩阵,t为平移矩阵,R为旋转矩阵。
具体地,旋转矩阵R可以表示为:
R=Rx·Ry·Rz
其中,Rx为绕x轴旋转的旋转矩阵,Ry为绕y轴旋转的旋转矩阵,Rz为绕z轴旋转的旋转矩阵;θx为绕x轴旋转的欧拉角,θy为绕y轴旋转的欧拉角,θz为绕z轴旋转的欧拉角。
步骤S203、根据转换点云数据确定在先分割图像。
在本申请实施例中,具体可以根据转换点云数据的高度信息确定在先分割图像。其中,在先分割图像可以为由转换点云数据分割出的可行驶区域图像。
在本申请实施例的一种具体实现方式中,在先点云数据可以为三维数据(x2,y2,z2),对应的转换点云数据可以为二维数据(x1,y1),而z2值即为转换点云数据的高度信息。根据转换点数据的高度信息,可以确定可行驶区域图像。例如,可以将预设的高度范围内的点云数据确定为障碍物数据,并排除该高度范围包含的区域,得到可行驶区域,进而得到在先分割图像。
可以理解的是,高度范围可以根据实际情况进行具体化、情景化设置,本申请对此不作限定。
步骤S204、根据在先图像和在先分割图像对深度学习模型进行训练,得到可行驶区域分割模型。
在本申请实施例中,可以将在先图像作为深度学习模型的输入,将在先分割图像作为深度学习模型的预期输出,对深度学习模型进行训练,得到可行驶区域分割模型。具体地,可以将在先图像输入至深度学习模型,并获取深度学习模型的输出图像;根据输出图像和在先分割图像计算深度学习模型的训练损失值;根据训练损失值对深度学习模型进行模型参数调整,可得到如图4所示的可行驶区域分割模型,其中,可行驶区域分割模型可以包括骨干网络、颈部网络和可行驶区域分割头。
在本申请实施例的一种具体实现方式中,可以计算输出图像和在先分割图像之间的可行驶区域交并比,即可以计算输出图像与在先分割图像之间可行驶区域的交集和并集的比值,之后,可以根据该比值计算训练损失值。例如,可将该比值作为训练损失值。
在得到训练损失值后,可以根据该训练损失值对深度学习模型进行参数调整。例如,可以通过反向更新的方式对深度学习模型进行参数调整。
可以理解的是,当训练损失值小于预设的损失值阈值时,或者,当模型训练的迭代次数大于预设的次数阈值时,可以认为得到的可行驶区域分割模型较为准确,此时,可使用该可行驶区域分割模型对图像进行区域分割,请参阅图5,本申请实施例中一种可行驶区域分割方法的一个实施例可以包括:
步骤S501、获取待分割的目标图像。
在本申请实施例中,可以通过相机采集待分割的目标图像,其中,待分割的目标图像可以为有待进行可行驶区域分割的目标图像。
可以理解的是,当机器人位于新的道路环境时,或者,当机器人开始导航时,相机可以实时采集到一张或者多张待分割的图像,为了便于叙述,下面将以采集到的图像中的任意一张图像作为待分割的目标图像为例,对本申请实施例中的可行驶区域分割方法进行说明。
在本申请实施例的一种具体实现方式中,为了提升可行驶区域分割模型的分割效率,可以在利用可行驶区域分割模型对目标图像进行区域分割之前,对目标图像进行预处理,具体可以根据实际需要对目标图像进行现有技术中常见的图像预处理操作。此处,可以优选地对目标分割图像进行图像标准化处理,再进行图像归一化处理。具体地,可使用下式对目标图像进行标准化处理:
其中,xi为目标图像的图像像素值,μ为目标图像的图像像素值的均值,σ为目标图像的图像像素值的标准方差,N为目标图像的图像像素数量,X'为标准化的目标图像。
之后,可对标准化的目标图像进行归一化处理,得到归一化的目标图像,具体地,可使用下式对标准化的目标图像进行归一化处理:
其中,x'i为标准化的目标图像的图像像素值,max(x')、min(x')分别为标准化的目标图像的图像像素值的最大值与最小值,X”为归一化的目标图像。
在得到归一化的目标图像后,可利用可行驶区域分割模型对归一化的目标图像进行区域分割。
步骤S502、使用预设的可行驶区域分割模型对目标图像进行区域分割,得到与目标图像对应的可行驶区域分割图像。
在本申请实施例中,可以将标准化的目标图像作为可行驶区域分割模型的输入,并将可行驶区域分割模型的输出作为对应的可行驶区域分割图像。
可以理解的是,可行驶区域分割图像可用于指示道路环境中可行驶的区域,而不可行驶的区域可以为存在障碍物的区域,或者与机器人之间存在障碍物的区域。请参阅图1,在得到可行驶区域分割图像后,可以利用该可行区域分割图像进行辅助导航,例如,可以根据可行区域分割图像进行导航路径规划和避障规划等具体应用。
在实际使用过程中,当部署到新的道路环境时,环境中可能会出现原训练集中不存在的未知物体,此时可使用上述方法对可行驶区域分割模型进行实时训练,并使用可行驶区域模型进行可行驶区域分割,实现在多种场景、多种环境的使用。
综上所述,本申请实施例可以根据同步采集的在先图像和在先点云数据训练得到可行驶区域分割模型,并利用该可行驶区域分割模型对目标图像进行区域分割,得到与目标图像对应的可行驶区域分割图像。通过本申请实施例,当机器人处于新的道路环境时,可以以在先图像作为输入,以同步采集的在先点云数据作为预期输出进行模型训练,而无需进行大量样本采集和人工标注工作,从而能够有效降低可行驶区域分割模型的训练成本,并提升可行驶区域分割模型的训练效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的一种可行驶区域分割方法,图6示出了本申请实施例提供的一种可行驶区域分割装置的一个实施例结构图。
本实施例中,一种可行驶区域分割装置可以包括:
图像获取模块601,用于获取待分割的目标图像;
区域分割模块602,用于使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像;
其中,所述可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型;所述在先图像为在所述目标图像之前采集的图像;所述在先点云数据为与所述在先图像同步采集的点云数据;以所述在先图像作为所述深度学习模型的训练输入,以在先分割图像作为所述深度学习模型的预期训练输出;所述在先分割图像为根据所述在先点云数据确定的可行驶区域分割图像。
在本申请实施例的一种具体实现方式中,所述可行驶区域分割装置还可以包括:
数据获取模块,用于获取所述在先图像和所述在先点云数据;
数据转化模块,用于将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据;
图像确定模块,用于根据所述转换点云数据确定所述在先分割图像;
模型训练模块,用于根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型。
在本申请实施例的一种具体实现方式中,所述数据获取模块可以包括:
信号发送单元,用于通过预设的同步触发器向相机和雷达发送同步的采集信号,以使所述相机和所述雷达进行同步数据采集;
图像采集单元,用于获取所述相机响应于所述采集信号所采集的所述在先图像;
数据采集单元,用于获取所述雷达响应于所述采集信号所采集的所述在先点云数据。
在本申请实施例的一种具体实现方式中,所述数据转化模块可以包括:
矩阵获取单元,用于获取由所述雷达坐标系至所述相机坐标系的平移矩阵和旋转矩阵;
数据转换单元,用于按照所述平移矩阵和所述旋转矩阵将所述在先点云数据由所述雷达坐标系转换至所述相机坐标系中,得到所述转换点云数据。
在本申请实施例的一种具体实现方式中,所述模型训练模块可以包括:
图像获取单元,用于将所述在先图像输入至所述深度学习模型,并获取所述深度学习模型的输出图像;
损失计算单元,用于根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值;
参数调整单元,用于根据所述训练损失值对所述深度学习模型进行模型参数调整,得到所述可行驶区域分割模型。
在本申请实施例的一种具体实现方式中,所述损失计算单元可以包括:
交并比计算子单元,用于计算所述输出图像和所述在先分割图像之间的可行驶区域交并比;
损失值计算子单元,用于根据所述可行驶区域交并比计算所述训练损失值。
在本申请实施例的一种具体实现方式中,所述可行驶区域分割装置还可以包括:
标准化处理模块,用于对所述目标图像进行标准化处理,得到标准化的所述目标图像;
归一化处理模块,用于对标准化的所述目标图像进行归一化处理,得到归一化的所述目标图像;
所述区域分割模块还可以包括:
区域分割单元,用于使用所述可行驶区域分割模型对归一化的所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置,模块和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
图7示出了本申请实施例提供的一种机器人的示意框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图7所示,该实施例的机器人7包括:处理器70、存储器71以及存储在所述存储器71中并可在所述处理器70上运行的计算机程序72。所述处理器70执行所述计算机程序72时实现上述各个可行驶区域分割方法实施例中的步骤,例如图5所示的步骤S501至步骤S502。或者,所述处理器70执行所述计算机程序72时实现上述各装置实施例中各模块/单元的功能,例如图6所示模块601至模块602的功能。
示例性的,所述计算机程序72可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器71中,并由所述处理器70执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序72在所述机器人7中的执行过程。
本领域技术人员可以理解,图7仅仅是机器人7的示例,并不构成对机器人7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机器人7还可以包括输入输出设备、网络接入设备、总线等。
所述处理器70可以是中央处理单元(Central Processing Unit,CPU),还可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71可以是所述机器人7的内部存储单元,例如机器人7的硬盘或内存。所述存储器71也可以是所述机器人7的外部存储设备,例如所述机器人7上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述机器人7的内部存储单元也包括外部存储设备。所述存储器71用于存储所述计算机程序以及所述机器人7所需的其它程序和数据。所述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/机器人和方法,可以通过其它的方式实现。例如,以上所描述的装置/机器人实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读存储介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读存储介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读存储介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种可行驶区域分割方法,其特征在于,包括:
获取待分割的目标图像;
使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像;
其中,所述可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型;所述在先图像为在所述目标图像之前采集的图像;所述在先点云数据为与所述在先图像同步采集的点云数据;以所述在先图像作为所述深度学习模型的训练输入,以在先分割图像作为所述深度学习模型的预期训练输出;所述在先分割图像为根据所述在先点云数据确定的可行驶区域分割图像。
2.根据权利要求1所述的可行驶区域分割方法,其特征在于,在使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像之前,还包括:
获取所述在先图像和所述在先点云数据;
将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据;
根据所述转换点云数据确定所述在先分割图像;
根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型。
3.根据权利要求2所述的可行驶区域分割方法,其特征在于,所述获取所述在先图像和所述在先点云数据,包括:
通过预设的同步触发器向相机和雷达发送同步的采集信号,以使所述相机和所述雷达进行同步数据采集;
获取所述相机响应于所述采集信号所采集的所述在先图像;
获取所述雷达响应于所述采集信号所采集的所述在先点云数据。
4.根据权利要求2所述的可行驶区域分割方法,其特征在于,所述将所述在先点云数据由预设的雷达坐标系转换至预设的相机坐标系中,得到转换点云数据,包括:
获取由所述雷达坐标系至所述相机坐标系的平移矩阵和旋转矩阵;
按照所述平移矩阵和所述旋转矩阵将所述在先点云数据由所述雷达坐标系转换至所述相机坐标系中,得到所述转换点云数据。
5.根据权利要求2所述的可行驶区域分割方法,其特征在于,所述根据所述在先图像和所述在先分割图像对所述深度学习模型进行训练,得到所述可行驶区域分割模型,包括:
将所述在先图像输入至所述深度学习模型,并获取所述深度学习模型的输出图像;
根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值;
根据所述训练损失值对所述深度学习模型进行模型参数调整,得到所述可行驶区域分割模型。
6.根据权利要求5所述的可行驶区域分割方法,其特征在于,所述根据所述输出图像和所述在先分割图像计算所述深度学习模型的训练损失值,包括:
计算所述输出图像和所述在先分割图像之间的可行驶区域交并比;
根据所述可行驶区域交并比计算所述训练损失值。
7.根据权利要求1至6中任一项所述的可行驶区域分割方法,其特征在于,在使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像之前,还包括:
对所述目标图像进行标准化处理,得到标准化的所述目标图像;
对标准化的所述目标图像进行归一化处理,得到归一化的所述目标图像;
所述使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像,包括:
使用所述可行驶区域分割模型对归一化的所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像。
8.一种可行驶区域分割装置,其特征在于,包括:
图像获取模块,用于获取待分割的目标图像;
区域分割模块,用于使用预设的可行驶区域分割模型对所述目标图像进行区域分割,得到与所述目标图像对应的可行驶区域分割图像;
其中,所述可行驶区域分割模型为根据在先图像和在先点云数据训练得到的深度学习模型;所述在先图像为在所述目标图像之前采集的图像;所述在先点云数据为与所述在先图像同步采集的点云数据;以所述在先图像作为所述深度学习模型的训练输入,以在先分割图像作为所述深度学习模型的预期训练输出;所述在先分割图像为根据所述在先点云数据确定的可行驶区域分割图像。
9.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的可行驶区域分割方法的步骤。
10.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的可行驶区域分割方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310733916.7A CN116883652A (zh) | 2023-06-19 | 2023-06-19 | 一种可行驶区域分割方法、装置、可读存储介质及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310733916.7A CN116883652A (zh) | 2023-06-19 | 2023-06-19 | 一种可行驶区域分割方法、装置、可读存储介质及机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116883652A true CN116883652A (zh) | 2023-10-13 |
Family
ID=88267163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310733916.7A Pending CN116883652A (zh) | 2023-06-19 | 2023-06-19 | 一种可行驶区域分割方法、装置、可读存储介质及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116883652A (zh) |
-
2023
- 2023-06-19 CN CN202310733916.7A patent/CN116883652A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11002840B2 (en) | Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle | |
EP3629057B1 (en) | Method and apparatus for calibrating relative pose and medium | |
US11024045B2 (en) | Method and apparatus for generating three-dimensional data, device, and storage medium | |
CN109521403B (zh) | 多线激光雷达的参数标定方法及装置、设备及可读介质 | |
CN110163930B (zh) | 车道线生成方法、装置、设备、系统及可读存储介质 | |
CN111340797A (zh) | 一种激光雷达与双目相机数据融合检测方法及系统 | |
EP3581890A2 (en) | Method and device for positioning | |
CN109116374B (zh) | 确定障碍物距离的方法、装置、设备及存储介质 | |
CN108734058B (zh) | 障碍物类型识别方法、装置、设备及存储介质 | |
EP3876189A1 (en) | Geographic object detection device, geographic object detection method, and geographic object detection program | |
CN112667837A (zh) | 图像数据自动标注方法及装置 | |
EP3637308A1 (en) | Method and device for positioning vehicle, device, and computer readable storage medium | |
WO2022179094A1 (zh) | 车载激光雷达外参数联合标定方法、系统、介质及设备 | |
CN113743385A (zh) | 一种无人船水面目标检测方法、装置及无人船 | |
CN115436920A (zh) | 一种激光雷达标定方法及相关设备 | |
CN115147328A (zh) | 三维目标检测方法及装置 | |
WO2021081958A1 (zh) | 地形检测方法、可移动平台、控制设备、系统及存储介质 | |
CN111862208B (zh) | 一种基于屏幕光通信的车辆定位方法、装置及服务器 | |
CN114627438A (zh) | 目标检测模型生成方法、目标检测方法、设备及介质 | |
CN110414374B (zh) | 一种障碍物位姿的确定方法、装置、设备及介质 | |
CN115496923B (zh) | 一种基于不确定性感知的多模态融合目标检测方法及装置 | |
CN112198878A (zh) | 一种即时地图构建方法、装置、机器人及存储介质 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN116883652A (zh) | 一种可行驶区域分割方法、装置、可读存储介质及机器人 | |
CN115902839A (zh) | 港口激光雷达标定方法及装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |