CN112818968A - 一种目标物分类方法及装置 - Google Patents
一种目标物分类方法及装置 Download PDFInfo
- Publication number
- CN112818968A CN112818968A CN202110415663.XA CN202110415663A CN112818968A CN 112818968 A CN112818968 A CN 112818968A CN 202110415663 A CN202110415663 A CN 202110415663A CN 112818968 A CN112818968 A CN 112818968A
- Authority
- CN
- China
- Prior art keywords
- classified
- image
- target object
- point cloud
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本说明书公开了一种目标物分类方法及装置,通过获取到的待分类点云数据中的各目标物分别对应的第一区域、待分类图像以及待分类深度图像,确定各目标物在待分类图像中的第二区域和在待分类深度图像中的第三区域,并针对每个目标物,将该目标物的位于待分类图像中的第二区域的子图像和位于待分类深度图像中的第三区域的子图像,输入训练完成的分类模型,确定各目标物的分类结果。本方法不需要分别预设目标物的点云包围框和图像包围框的分类结果的权重,避免了因为预设各包围框的权重导致分类结果出错的情况的发生,提高了目标物的分类结果的准确度。
Description
技术领域
本说明书涉及无人驾驶技术领域,尤其涉及一种目标物分类方法及装置。
背景技术
目前,无人驾驶设备行驶过程中,通常会对周围环境中的目标物进行分类,以基于各目标物的分类结果,确定无人驾驶设备的运动策略以保证无人驾驶设备的行驶安全。其中,目标物通常可为障碍物、指示牌、信号灯等会影响无人驾驶设备行驶的对象。
在现有技术中,一般可基于点云数据和图像数据进行目标物分类。具体的,首先对获取到的点云数据和图像数据分别进行目标物检测,得到各目标物在点云数据中的点云包围框,以及各目标物在图像数据中的图像包围框。根据各目标物对应的点云包围框的识别结果、各目标物对应的图像包围框的识别结果,以及预设的分别针对点云包围框和图像包围框的识别结果的权重,确定各目标物的分类结果。
由于在确定分类结果时,更依赖于图像纹理信息,所以预设出的各图像包围框的识别结果的权重往往较高,因此,当对图像数据进行目标物检测发生漏检时,确定出的目标物的分类结果不够准确,影响了无人驾驶设备的行驶安全。
发明内容
本说明书提供一种目标物分类方法及装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种目标物分类方法,包括:
确定待分类图像和待分类点云数据;
根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域;
针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域;
将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
可选地,确定待分类图像,具体包括:
根据所述待分类点云数据的采集时间,确定采集所述待分类点云数据前,最近一次采集的图像,作为待分类图像。
可选地,根据所述待分类点云数据,确定待分类深度图像,具体包括:
通过预设的点云坐标系和图像坐标系之间的转换关系,将所述待分类点云数据投影至所述图像坐标系,确定所述待分类点云数据的投影结果;
根据所述待分类点云数据的投影结果,确定待分类深度图像。
可选地,根据所述待分类点云数据,确定所述待分类点云数据中的各目标物分别对应的第一区域,具体包括:
根据所述待分类点云数据,对所述待分类点云数据进行目标物检测,确定各目标物对应的点云数据;
根据确定出的各目标物对应的点云数据,确定各目标物对应的三维区域,作为各目标物分别对应的第一区域。
可选地,将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果,具体包括:
针对每个目标物,将该目标物的位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征;
根据所述第一特征和所述第二特征,确定该目标物的融合特征;
将所述融合特征输入所述分类模型的分类层,得到所述分类层输出的该目标物的分类结果。
可选地,将所述融合特征输入所述分类模型的分类层,得到所述分类层输出的该目标物的分类结果,具体包括:
将所述融合特征输入所述分类模型的分类层,确定所述融合特征的分类结果;
根据所述融合特征的分类结果,确定该目标物属于各预设分类的概率,作为该目标物的分类结果。
可选地,所述特征提取层包括第一特征提取层和第二特征提取层;
所述第一特征提取层为三通道的卷积神经网络层;
所述第二特征提取层为单通道的卷积神经网络层;
将该目标物的位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征,具体包括:
将该目标物的位于所述待分类图像中的第二区域内的子图像输入分类模型的第一特征提取层,得到所述第一特征提取层输出的该目标物的第一特征;
将该目标物的位于所述待分类深度图像中的第三区域内的子图像输入所述分类模型的第二特征提取层,得到所述第二特征提取层输出的该目标物的第二特征。
本说明书提供了一种目标物分类装置,包括:
第一确定模块,用于确定待分类图像和待分类点云数据;
第二确定模块,用于根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域;
映射模块,用于针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域;
分类模块,用于将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述目标物分类方法。
本说明书提供了一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述目标物分类方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的目标物分类方法中,通过获取到的待分类点云数据中的各目标物分别对应的第一区域、待分类图像以及待分类深度图像,确定各目标物在待分类图像中的第二区域和在待分类深度图像中的第三区域,并针对每个目标物,将该目标物的位于待分类图像中的第二区域的子图像和位于待分类深度图像中的第三区域的子图像,输入训练完成的分类模型,确定各目标物的分类结果。
从上述方法中可以看出,本方法不需要分别预设目标物的点云包围框和图像包围框的分类结果的权重,避免了因为预设各包围框的权重导致分类结果出错的情况的发生,提高了目标物的分类结果的准确度。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的目标物分类方法的流程示意图;
图2为本说明书提供的确定目标物分类结果的流程示意图;
图3为本说明书提供的确定目标物的融合特征的示意图;
图4为本说明书提供的目标物分类装置;
图5为本说明书提供的对应于图1的无人驾驶设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的目标物分类方法的流程示意图,具体包括以下步骤:
S100:确定待分类图像和待分类点云数据。
一般的,在无人驾驶设备行驶过程中,周围环境会随着时间改变,因此,该无人驾驶设备可通过无人驾驶设备上设置的采集设备,连续采集自身四周或前进方向上的图像和点云数据,并在需要对目标物进行分类时,确定当前时刻采集的图像和点云数据。于是,可基于当前时刻采集到的图像和点云数据,对无人驾驶设备周围的目标物进行分类,进而可基于分类结果控制无人驾驶设备行驶,以保证无人驾驶设备的安全行驶。其中,该采集设备具体可为相机、激光雷达等传感器。
通常情况下,在采集到点云数据和图像后,可由无人驾驶设备本身对该图像和该点云数据进行分类,确定各目标物的分类结果,进而确定下一时刻自身的运动策略,为了方便描述,后续以该无人驾驶设备执行该目标物分类方法为例进行说明。
在无人驾驶设备行驶过程中,周围环境会随着时间改变,如障碍物、路况等,因此,该无人车驾驶设备的采集设备可持续采集图像和点云数据。于是,该无人驾驶设备可获取当前采集的图像和点云数据,作为待分类图像和待分类点云数据。并且,通常采集设备采集图像和采集点云数据的帧率可根据需要设置,例如24帧每秒(Frame Per Second,FPS)、60FPS,本说明书对此不做限制。
在本说明书提供的一个或多个实施例中,无人驾驶设备可以是指无人车、机器人、自动配送设备等能够实现自动驾驶的设备。基于此,应用本说明书提供的目标物分类方法的无人驾驶设备可以用于执行配送领域的配送任务,如,使用无人驾驶设备进行快递、物流、外卖等配送的业务场景。
S102:根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域。
区别于现有技术中需要对获取到的点云数据和图像数据分别进行目标物检测确定目标物的分类结果,本说明书提出一种新的目标物分类方法,使得无人驾驶设备可仅基于确定出的各目标物的点云包围框,对各目标物进行分类。避免了需要根据目标物的点云包围框和图像包围框的识别结果进行加权求和,确定目标物的分类结果时产生的误差。
在本说明书提供的一个或多个实施例中,该无人驾驶设备可根据步骤S100中确定的待分类点云数据,确定待分类深度图像,以及确定待分类点云数据中的各目标物分别对应的第一区域。其中,待分类图像为与待分类点云数据同时采集到的图像,待分类深度图像为根据待分类点云数据确定出的深度图像,待分类点云数据中的各目标物分别对应的第一区域为各目标物对应的点云包围框。
具体的,该待分类点云数据中的各目标物分别对应的第一区域,视为是准确的目标物的包围框,用于作为目标物分类的基础,而直接根据点云数据进行特征提取,提取特征需要的时间较长,且由于模态的不同,直接根据目标物对应的点云数据提取出的特征与目标物的图像特征进行融合,并根据融合结果进行目标物分类时,仅能将提取后的特征进行融合,导致根据融合结果进行目标物分类的准确度较低。于是,该无人驾驶设备可根据获取到的点云数据,通过预设的点云坐标系和图像坐标系之间的转换关系,将获取到的待分类点云数据投影至该图像坐标系,确定待分类点云数据的投影结果,并根据该待分类点云数据的投影结果中与待分类图像视野范围对应的区域,确定待分类深度图像。并基于该确定出的待分类深度图像,执行后续步骤S104~S106。
进一步的,将待分类点云数据投影至图像坐标系确定出的待分类深度图像,可能存在多个点云数据对应同一像素点的情况,导致信息量存在损失,因此,该无人驾驶设备还可预设点云坐标系和深度图像坐标系之间的转换关系,并通过预设的点云坐标系和深度图像坐标系之间的转换关系,根据获取到的待分类点云数据,确定待分类深度图像。
另外,该待分类点云数据中各目标物对应的第一区域,为三维区域,具体可通过对获取到的点云数据进行目标物检测获得。该无人驾驶设备可通过目标物检测,确定各目标物对应的点云数据,并根据各目标物对应的点云数据,确定各目标物对应的三维区域,作为各目标物分别对应的第一区域,即,各目标物的点云包围框。
需要说明的是,具体的确定点云坐标系和图像坐标系、深度图像坐标系之间的转换关系已经是较为成熟的技术,本说明书对此不再赘述。
S104:针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域。
在本说明书提供的一个或多个实施例中,该无人驾驶设备在确定出待分类图像、待分类深度图像以及待分类点云数据中的各目标物分别对应的第一区域后,该无人驾驶设备可针对每个目标物,确定该目标物在待分类图像中对应的第二区域和该目标物在待分类深度图像中对应的第三区域。
具体的,该无人驾驶设备可基于各目标物对应的图像与各目标物对应的深度图像,对各目标物进行分类,确定各目标物的类型。而无人驾驶设备中的采集设备一般是固定的,于是,可根据无人驾驶设备中的采集设备之间的角度、距离等,预设点云坐标系和图像坐标系之间的转换关系,作为待分类点云数据与待分类图像之间的映射关系。因此,该无人驾驶设备可针对每个目标物,通过预设的待分类点云数据与待分类图像之间的映射关系,将该目标物对应的第一区域投影至待分类图像中。于是,该无人驾驶设备可根据该目标物对应的第一区域在该待分类图像和待分类深度图像中的投影,确定该目标物在该待分类图像中对应的第二区域。同理,该无人驾驶设备还可通过预设的待分类点云数据与待分类深度图像之间的映射关系,确定各目标物在待分类图像中对应的第三区域。其中,第一区域为三维区域,第二区域和第三区域为二维区域。
需要说明的是,具体的根据采集设备之间的角度、距离等确定点云坐标系和图像坐标系之间的转换关系已经是较为成熟的技术,本说明书对此不再赘述。
S106:将位于所述待分类图像中的第二区域的子图像和位于所述待分类深度图像中的第三区域的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
在本说明书提供的一个或多个实施例中,在确定出各目标物对应的第二区域和第三区域后,该无人驾驶设备可基于各目标物的位于待分类图像中的第二区域的子图像和位于待分类深度图像中的第三区域的子图像,对各目标物进行分类,如图2所示。
图2为本说明书提供的确定目标物分类结果的流程示意图。根据待分类点云数据,可确定各目标物对应的第一区域。根据各目标物对应的第一区域、第一映射关系、第二映射关系,可确定该目标物在待分类图像中对应的第二区域,和该目标物在待分类深度图像中对应的第三区域。其中,第一映射关系为待分类点云数据和待分类深度图像之间的映射关系,第二映射关系为待分类点云数据和待分类图像之间的映射关系。于是,该无人驾驶设备可针对每个目标物,提取该目标物的位于待分类图像中的第二区域内的子图像和位于待分类深度图像中的第三区域的子图像,并输入至分类模型,得到该分类模型输出的该目标物的分类结果。
具体的,针对每个目标物,该无人驾驶设备可根据步骤S102中确定出的该目标物对应的第二区域和第三区域,从该待分类图像中,提取该目标物对应的第二区域的子图像,从该待分类深度图像中,提取该目标物对应的第三区域的子图像。并将提取出的该目标物的位于待分类图像中的第二区域内的子图像和位于待分类深度图像中的第三区域的子图像,输入训练完成的分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征。
在本说明书提供的一个或多个实施例中,若根据各目标物对应的第一特征和第二特征分别确定分类结果,并根据各分类结果及其权重进行加权求和确定各目标物的分类结果,会导致分类结果的准确率较低。如,某目标物因为部分被遮挡,则根据该目标物对应的第一特征无法确定出准确的分类结果,于是,根据该目标物对应的第一特征和第二特征分别对应的分类结果确定出的该目标物的分类结果也不准确。而将第一特征与第二特征进行融合,根据融合后的特征确定分类结果,则该融合特征中的第二特征的内容可补充出该目标物被遮挡部分的形状等特征,于是,该无人驾驶设备可基于确定出的该目标物对应的第一特征和第二特征,确定该目标物的融合特征。
于是,在确定出该融合特征后,该无人驾驶设备可将该融合特征输入该分类模型的分类层,确定该分类层输出的该目标物的分类结果。
具体的,该无人驾驶设备可将该融合特征输入该分类模型的分类层,确定该融合特征的分类结果,其中,该融合特征的分类结果为该目标物对应各预设分类的分值,该分值表征了该目标物属于各预设分类的概率,于是,根据该融合特征的分类结果,可确定该目标物属于各预设分类的概率,作为该目标物的分类结果。
另外,该分类模型的特征提取层可包括多层,则该无人驾驶设备还可将该分类模型的各层特征提取层输出的各层第一特征和第二特征分别进行融合,确定各层的融合特征,并根据确定出的各层融合特征,确定总的融合特征,作为该目标物的融合特征,如图3所示。
图3为本说明书提供的确定目标物的融合特征的示意图,针对每个目标物,该无人驾驶设备可将该目标物位于待分类图像的第二区域内的子图像和位于待分类深度图像的第三区域内的子图像,输入特征提取层1,得到特征提取层1输出的该目标物的1层第一特征和1层第二特征,并根据该1层第一特征和1层第二特征,确定该目标物的1层融合特征。以及将该1层第一特征和1层第二特征继续作为输入,输入特征提取层2,得到特征提取层2输出的该目标物的2层第一特征和2层第二特征,并根据该2层第一特征和2层第二特征,确定该目标物的2层融合特征。同理,可得到该目标物的n层第一特征和n层第二特征,以及根据n层第一特征和n层第二特征确定的n层融合特征。于是,该无人驾驶设备可根据各层融合特征,确定该目标物的融合特征。
需要说明的是,该融合特征可为将该第一特征和第二特征进行拼接、相加等处理确定的。具体的对各特征进行融合已经是较为成熟的技术,本说明书对此不再赘述。
基于图1的目标物分类方法,通过获取到的待分类点云数据中的各目标物分别对应的第一区域、待分类图像以及待分类深度图像,确定各目标物在待分类图像中的第二区域和在待分类深度图像中的第三区域,并针对每个目标物,将该目标物的位于待分类图像中的第二区域的子图像和位于待分类深度图像中的第三区域的子图像,输入训练完成的分类模型,确定各目标物的分类结果。本方法不需要分别预设目标物的点云包围框和图像包围框的分类结果的权重,避免了因为预设各包围框的权重导致分类结果出错的情况的发生,提高了目标物的分类结果的准确度。
进一步的,在无人驾驶设备行驶过程中,存在图像的采集频率与点云数据的采集频率不同的情况,而本方案是基于点云数据中各目标物对应的第一区域确定各目标物类型的方法。因此,步骤S100中,该无人驾驶设备还可根据待分类点云数据的获取时间,确定采集该待分类点云数据前,最近一次该无人驾驶设备采集到的图像,作为待分类图像,即,确定在采集该待分类点云数据前,与该待分类点云数据差距最小的图像,作为待分类图像。
更进一步的,在步骤S106中,由于各目标物的位于待分类图像中的第二区域内的子图像为彩色图像,而各目标物的位于待分类深度图像中的第三区域的子图像为灰度图像,因此,该分类模型的特征提取层,可包括第一特征提取层和第二特征提取层,其中,第一特征提取层为三通道的卷积神经网络层,第二特征提取层为单通道的卷积神经网络层。
于是,该无人驾驶设备可将该目标物的位于待分类图像中的第二区域内的子图像输入分类模型的第一特征提取层,得到第一特征提取层输出的该目标物的第一特征。以及将该目标物的位于待分类深度图像中的第三区域内的子图像输入分类模型的第二特征提取层,得到第二特征提取层输出的该目标物的第二特征。
在本说明书提供的一个或多个实施例中,在步骤S100中确定出的待分类图像与待分类点云数据的采集时间不一致时,该无人驾驶设备还可对待分类图像进行目标物识别,确定各目标物在待分类图像中分别对应的第二区域,并将第二区域与第一区域进行匹配。当然,具体的目标物识别方法以及将第一区域和第二区域进行匹配的方法可根据需要进行设置,本说明书对此不做限制。
另外,本说明书中的分类模型,可由训练模型的服务器预先训练获得。在训练模型时,可首先获取历史上采集到的若干帧点云数据,以及采集各帧点云数据时采集到的图像。于是,该服务器可根据获取到的各帧点云数据,确定各帧点云数据中的各目标物分别对应的第一区域,以及各深度图像。
其次,针对每帧点云数据,该服务器可根据各帧点云数据与各图像、各深度图像之间的映射关系以及该帧点云数据中各目标物对应的第一区域,确定各目标物在该帧点云对应的图像中对应的第二区域,和该目标物在该帧点云对应的深度图像中对应的第三区域。
然后,该服务器可针对每个目标物,将位于该帧点云对应的图像中的第二区域内的子图像和位于该帧点云对应的深度图像中的第三区域内的子图像,作为训练样本,并确定该目标物的类型,作为样本标签。
最后,以各训练样本的分类结果以及各训练样本的标注之间差异最小为优化目标,调整该待训练的分类模型的模型参数。
在本说明书提供的一个或多个实施例中,本说明书提供的目标物分类方法,可应用于确定无人驾驶设备运动策略时,具体用于确定无人驾驶设备环境图像中的各目标物类型的场景中,以使无人驾驶设备能够基于确定出的目标物类型,在确定下一时刻该无人驾驶设备的运动策略时,采取相应的策略,以使下一时刻无人驾驶设备正常行驶而不发生交通事故。具体的根据目标物类型等确定无人驾驶设备运动策略的方法已经是现有较为成熟的技术,本说明书对此不再赘述。
以上为本说明书的一个或多个实施例提供的目标物分类方法基于同样的思路,本说明书还提供了相应的目标物分类装置,如图4所示。
图4为本说明书提供的目标物分类装置,包括:
第一确定模块200,用于确定待分类图像和待分类点云数据。
第二确定模块202,用于根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域。
映射模块204,用于针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域。
分类模块208,用于将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
可选地,所述第一确定模块200,具体用于根据所述待分类点云数据的采集时间,确定采集所述待分类点云数据前,最近一次采集的图像,作为待分类图像。
可选地,所述第二确定模块202,具体用于通过预设的点云坐标系和图像坐标系之间的转换关系,将所述待分类点云数据投影至所述图像坐标系,确定所述待分类点云数据的投影结果,根据所述待分类点云数据的投影结果,确定待分类深度图像。
可选地,所述第二确定模块202,具体用于根据所述待分类点云数据,对所述待分类点云数据进行目标物检测,确定各目标物对应的点云数据,根据确定出的各目标物对应的点云数据,确定各目标物对应的三维区域,作为各目标物分别对应的第一区域。
可选地,所述分类模块208,具体用于针对每个目标物,将该目标物的位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征,根据所述第一特征和所述第二特征,确定该目标物的融合特征,将所述融合特征输入所述分类模型的分类层,得到所述分类层输出的该目标物的分类结果。
可选地,所述分类模块208,具体用于将所述融合特征输入所述分类模型的分类层,确定所述融合特征的分类结果,根据所述融合特征的分类结果,确定该目标物属于各预设分类的概率,作为该目标物的分类结果。
可选地,所述特征提取层包括第一特征提取层和第二特征提取层,所述第一特征提取层为三通道的卷积神经网络层,所述第二特征提取层为单通道的卷积神经网络层,所述分类模块208,具体用于将该目标物的位于所述待分类图像中的第二区域内的子图像输入分类模型的第一特征提取层,得到所述第一特征提取层输出的该目标物的第一特征,将该目标物的位于所述待分类深度图像中的第三区域内的子图像输入所述分类模型的第二特征提取层,得到所述第二特征提取层输出的该目标物的第二特征。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的目标物分类方法。
本说明书还提供了图5所示的无人驾驶设备的示意结构图。如图5所述,在硬件层面,该无人驾驶设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的目标物分类方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device, PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (10)
1.一种目标物分类方法,其特征在于,所述方法包括:
确定待分类图像和待分类点云数据;
根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域;
针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域;
将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
2.如权利要求1所述的方法,其特征在于,确定待分类图像,具体包括:
根据所述待分类点云数据的采集时间,确定采集所述待分类点云数据前,最近一次采集的图像,作为待分类图像。
3.如权利要求1所述的方法,其特征在于,根据所述待分类点云数据,确定待分类深度图像,具体包括:
通过预设的点云坐标系和图像坐标系之间的转换关系,将所述待分类点云数据投影至所述图像坐标系,确定所述待分类点云数据的投影结果;
根据所述待分类点云数据的投影结果,确定待分类深度图像。
4.如权利要求1所述的方法,其特征在于,根据所述待分类点云数据,确定所述待分类点云数据中的各目标物分别对应的第一区域,具体包括:
根据所述待分类点云数据,对所述待分类点云数据进行目标物检测,确定各目标物对应的点云数据;
根据确定出的各目标物对应的点云数据,确定各目标物对应的三维区域,作为各目标物分别对应的第一区域。
5.如权利要求1所述的方法,其特征在于,将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果,具体包括:
针对每个目标物,将该目标物的位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征;
根据所述第一特征和所述第二特征,确定该目标物的融合特征;
将所述融合特征输入所述分类模型的分类层,得到所述分类层输出的该目标物的分类结果。
6.如权利要求5所述的方法,其特征在于,将所述融合特征输入所述分类模型的分类层,得到所述分类层输出的该目标物的分类结果,具体包括:
将所述融合特征输入所述分类模型的分类层,确定所述融合特征的分类结果;
根据所述融合特征的分类结果,确定该目标物属于各预设分类的概率,作为该目标物的分类结果。
7.如权利要求5所述的方法,其特征在于,所述特征提取层包括第一特征提取层和第二特征提取层;
所述第一特征提取层为三通道的卷积神经网络层;
所述第二特征提取层为单通道的卷积神经网络层;
将该目标物的位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入分类模型的特征提取层,确定该目标物分别对应的第一特征和第二特征,具体包括:
将该目标物的位于所述待分类图像中的第二区域内的子图像输入分类模型的第一特征提取层,得到所述第一特征提取层输出的该目标物的第一特征;
将该目标物的位于所述待分类深度图像中的第三区域内的子图像输入所述分类模型的第二特征提取层,得到所述第二特征提取层输出的该目标物的第二特征。
8.一种目标物分类装置,其特征在于,所述装置包括:
第一确定模块,用于确定待分类图像和待分类点云数据;
第二确定模块,用于根据所述待分类点云数据,确定待分类深度图像,以及确定所述待分类点云数据中的各目标物分别对应的第一区域;
映射模块,用于针对每个目标物,根据所述待分类点云数据与所述待分类图像、所述待分类深度图像之间的映射关系以及该目标物对应的第一区域,确定该目标物在所述待分类图像中对应的第二区域,和该目标物在所述待分类深度图像中对应的第三区域;
分类模块,用于将位于所述待分类图像中的第二区域内的子图像和位于所述待分类深度图像中的第三区域内的子图像作为输入,输入训练完成的分类模型,得到所述分类模型输出的该目标物的分类结果。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415663.XA CN112818968A (zh) | 2021-04-19 | 2021-04-19 | 一种目标物分类方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110415663.XA CN112818968A (zh) | 2021-04-19 | 2021-04-19 | 一种目标物分类方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112818968A true CN112818968A (zh) | 2021-05-18 |
Family
ID=75863641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110415663.XA Pending CN112818968A (zh) | 2021-04-19 | 2021-04-19 | 一种目标物分类方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818968A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673388A (zh) * | 2021-08-09 | 2021-11-19 | 北京三快在线科技有限公司 | 一种目标物位置的确定方法、装置、存储介质及设备 |
CN113888611A (zh) * | 2021-09-03 | 2022-01-04 | 北京三快在线科技有限公司 | 一种确定图像深度的方法、装置及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
US20200043221A1 (en) * | 2018-07-31 | 2020-02-06 | Intel Corporation | Voxels sparse representation |
US10564284B2 (en) * | 2016-12-27 | 2020-02-18 | Gerard Dirk Smits | Systems and methods for machine perception |
CN111679303A (zh) * | 2019-12-30 | 2020-09-18 | 全球能源互联网研究院有限公司 | 一种多源定位信息融合的综合定位方法及装置 |
CN112270694A (zh) * | 2020-07-07 | 2021-01-26 | 中国人民解放军61540部队 | 基于激光雷达扫描图进行城市环境动态目标检测的方法 |
-
2021
- 2021-04-19 CN CN202110415663.XA patent/CN112818968A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10564284B2 (en) * | 2016-12-27 | 2020-02-18 | Gerard Dirk Smits | Systems and methods for machine perception |
CN108229366A (zh) * | 2017-12-28 | 2018-06-29 | 北京航空航天大学 | 基于雷达和图像数据融合的深度学习车载障碍物检测方法 |
US20200043221A1 (en) * | 2018-07-31 | 2020-02-06 | Intel Corporation | Voxels sparse representation |
CN111679303A (zh) * | 2019-12-30 | 2020-09-18 | 全球能源互联网研究院有限公司 | 一种多源定位信息融合的综合定位方法及装置 |
CN112270694A (zh) * | 2020-07-07 | 2021-01-26 | 中国人民解放军61540部队 | 基于激光雷达扫描图进行城市环境动态目标检测的方法 |
Non-Patent Citations (1)
Title |
---|
XIAOZHI CHEN等: "Multi-View 3D Object Detection Network for Autonomous Driving", 《ARXIV.ORG》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673388A (zh) * | 2021-08-09 | 2021-11-19 | 北京三快在线科技有限公司 | 一种目标物位置的确定方法、装置、存储介质及设备 |
CN113888611A (zh) * | 2021-09-03 | 2022-01-04 | 北京三快在线科技有限公司 | 一种确定图像深度的方法、装置及存储介质 |
CN113888611B (zh) * | 2021-09-03 | 2023-03-31 | 北京三快在线科技有限公司 | 一种确定图像深度的方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112015847B (zh) | 一种障碍物的轨迹预测方法、装置、存储介质及电子设备 | |
CN111311709A (zh) | 一种生成高精地图的方法及装置 | |
CN111882611B (zh) | 一种地图构建方法及装置 | |
CN112766241B (zh) | 一种目标物识别方法以及装置 | |
CN111508258B (zh) | 一种定位方法及装置 | |
CN112036462B (zh) | 一种模型训练以及目标检测的方法及装置 | |
CN111127551B (zh) | 一种目标检测的方法及装置 | |
CN112734810B (zh) | 一种障碍物追踪方法及装置 | |
CN111797711A (zh) | 一种模型训练的方法及装置 | |
CN112465029A (zh) | 一种实例追踪的方法及装置 | |
CN113642620B (zh) | 一种障碍物检测模型训练以及障碍物检测方法及装置 | |
CN112327864A (zh) | 一种无人驾驶设备的控制方法及控制装置 | |
CN112818968A (zh) | 一种目标物分类方法及装置 | |
CN111238450A (zh) | 视觉定位方法及装置 | |
CN112990099B (zh) | 一种车道线检测的方法以及装置 | |
CN112883871B (zh) | 一种模型训练以及确定无人车运动策略方法及装置 | |
CN111426299B (zh) | 一种基于目标物的景深进行测距的方法及装置 | |
CN112561961A (zh) | 一种实例追踪的方法及装置 | |
CN114332189A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN114549579A (zh) | 一种目标物跟踪方法及装置 | |
CN114187355A (zh) | 一种图像标定方法及装置 | |
CN113887351A (zh) | 一种用于无人驾驶的障碍物检测方法及障碍物检测装置 | |
CN114997264A (zh) | 训练数据生成、模型训练及检测方法、装置及电子设备 | |
Katare et al. | Autonomous embedded system enabled 3-D object detector:(With point cloud and camera) | |
CN112329547A (zh) | 一种数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |