CN114581889A - 一种融合方法、装置、设备、介质及产品 - Google Patents
一种融合方法、装置、设备、介质及产品 Download PDFInfo
- Publication number
- CN114581889A CN114581889A CN202210247641.1A CN202210247641A CN114581889A CN 114581889 A CN114581889 A CN 114581889A CN 202210247641 A CN202210247641 A CN 202210247641A CN 114581889 A CN114581889 A CN 114581889A
- Authority
- CN
- China
- Prior art keywords
- image
- bounding box
- information
- target object
- identified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明公开了一种融合方法、装置、设备、介质及产品。该方法包括:获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。通过本发明的技术方案,能够充分发挥激光雷达与图像数据的优势,获得更加丰富的目标物体的相关信息。
Description
技术领域
本发明涉及智能交通技术领域,尤其涉及一种融合方法、装置、设备、介质及产品。
背景技术
目前大多数的车联网路测方案大都是基于图像及视频数据,即依赖单一的视觉图像信息进行目标检测与跟踪,但是该类单一的依靠视觉图像信息进行目标检测方式,通常要求是高质量、高分辨率的原始图像,而视觉传感器自身的局限性使得光照变化、目标间遮挡、阴影等因素都会对采集到的图像质量产生严重的影响,如大风、雨雪等恶劣天气或光照变化、遮挡、阴影等,使检测结果的可靠性大大降低,检测系统的鲁棒性差,跟踪在环境变化比较复杂的时候使用很受限制。
多传感器系统相比单一传感器获取目标的信息更加丰富、观测域更加广阔,且鲁棒性更高,结合多传感器实现车联网以解决上述单一依靠视觉图像信息检测的问题。
但是目前结合激光雷达与图像数据进行车联网路测的方式中,通常都只是借助激光雷达的点云信息作为先验知识用来降低在图像上的搜索空间,由搜索到的图像数据再进行目标检测跟踪,该类方式存在以下问题:对激光雷达测得的点云信息仅仅是用于降低图像的搜索空间,并未充分利用该点云信息,没有充分发挥激光雷达与图像数据的优势。
发明内容
本发明提供了一种融合方法、装置、设备、介质及产品,以解决由于是先借助激光雷达的点云信息来降低图像上的搜索空间,再由搜索的图像数据进行目标跟踪,并未充分利用点云信息,没有充分发挥激光雷达与图像数据的优势的问题,能够充分发挥激光雷达与图像数据的优势,获得更加丰富的目标物体的相关信息。
根据本发明的一方面,提供了一种融合方法,该方法包括:
获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。
进一步的,获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
获取摄像头拍摄的待识别图像;
将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。
进一步的,将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
基于OpenVINO工具对目标模型进行转换,得到权重信息和网络拓扑信息;
将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
进一步的,通过目标样本集迭代训练神经网络模型,包括:
建立神经网络模型;
将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;
根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;
返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。
进一步的,获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离;
根据所述待识别点云图像中每个点云到其余点云之间的距离对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合;
获取每个点云集合对应的包围盒的位置坐标和参数信息。
进一步的,获取每个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取每个点云集合对应的包围盒的位置坐标;
根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移;
根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。
进一步的,根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合,包括:
若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
进一步的,将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标,包括:
获取投影密度和摄像头外参;
根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
根据本发明的另一方面,提供了一种融合装置,该融合装置包括:
第一获取模块,用于获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
第二获取模块,用于获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
投影模块,用于将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
融合模块,用于根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合融。
进一步的,所述第二获取模块具体用于:
获取摄像头拍摄的待识别图像;
将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。
进一步的,所述第二获取模块具体用于:
基于OpenVINO工具对目标模型进行转换,得到权重信息和网络拓扑信息;
将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
进一步的,所述第二获取模块具体用于:
建立神经网络模型;
将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;
根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;
返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。
进一步的,所述第一获取模块具体用于:
获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离;
根据所述待识别点云图像中每个点云到其余点云之间的距离对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合;
获取每个点云集合对应的包围盒的位置坐标和参数信息。
进一步的,所述第一获取模块具体用于:
获取每个点云集合对应的包围盒的位置坐标;
根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移;
根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。
进一步的,所述融合模块具体用于:
若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
进一步的,所述融合模块具体用于:
获取投影密度和摄像头外参;
根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的融合方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的融合方法。
根据本发明的另一方面,提供了一种计算机程序产品,所述计算机程序在被处理器执行时实现如本发明实施例中任一所述的融合方法。
本发明实施例的技术方案,通过获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合,以解决由于是先借助激光雷达的点云信息来降低图像上的搜索空间,再由搜索的图像数据进行目标跟踪,没有充分发挥激光雷达与图像数据的优势的问题,能够充分发挥激光雷达与图像数据的优势,获得更加丰富的目标物体的相关信息。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种融合方法的流程图;
图2是根据本发明实施例一提供的智能交通系统的示意图;
图3是根据本发明实施例一提供的另一种融合方法的流程图;
图4是根据本发明实施例二提供的一种融合装置的结构示意图;
图5是实现本发明实施例的融合方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供了一种融合方法的流程图,本实施例可适用于对激光雷达采集的点云数据和摄像头拍摄的图像融合的情况,该方法可以由融合装置来执行,该融合装置可以采用硬件和/或软件的形式实现,该融合装置可配置于终端设备中。如图1所示,该融合方法包括:
S110、获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息。
其中,所述点云集合为对激光雷达采集的待识别点云图像中的点云进行聚类后得到的类群。
其中,所述包围盒是一个简单的立体空间,里面包含着聚类得到的一群点云,所述包围盒紧紧包围着点云外围轮廓。所述包围盒的形状可以为长方体,也可以为圆形,本发明实施例对此不进行限制。
其中,所述包围盒的位置坐标可以为包围盒的中心点坐标,或者可以为包围盒的重心点坐标,需要说明的是,若所述包围盒的位置坐标为包围盒的中心点坐标,则目标物体的位置信息为目标物体的中心点坐标(即目标物体的包围框的中心点坐标),若所述包围盒的位置坐标为包围盒的重心点坐标,则目标物体的位置信息为目标物体的重心点坐标(即目标物体的包围框的重心点坐标)。
其中,所述包围盒的参数信息可以包括包围盒的位移,还可以包括包围盒的速度,本发明实施例对此不进行限制。
其中,获取每个点云集合对应的包围盒的位置坐标和参数信息的方式可以为:获取每个点云集合对应的包围盒的位置坐标;根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移,其中,所述目标包围盒为任一包围盒;根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。例如可以是,对激光雷达采集的第一帧待识别点云图像中的点云进行聚类,得到包围盒A的第一坐标、包围盒B的第一坐标、包围盒C的第一坐标和包围盒D的第一坐标,对激光雷达采集的第二帧待识别点云图像中的点云进行聚类,得到包围盒A的第二坐标、包围盒B的第二坐标、包围盒C的第二坐标和包围盒D的第二坐标,根据包围盒A的第一坐标和包围盒A的第二坐标确定包围盒A的位移;根据包围盒B的第一坐标和包围盒B的第二坐标确定包围盒B的位移;根据包围盒C的第一坐标和包围盒C的第二坐标确定包围盒C的位移;根据包围盒D的第一坐标和包围盒D的第二坐标确定包围盒D的位移。根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒A的位移确定包围盒A的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒B的位移确定包围盒B的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒C的位移确定包围盒C的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒D的位移确定包围盒D的速度。
具体的,获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息的方式可以为:获取激光雷达采集的待识别点云图像;对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合,获取每个点云集合对应的包围盒的位置坐标和参数信息。例如可以是,激光雷达扫描得到一帧点云图像,利用点云与点云之间的三维距离通过聚类算法,把每个点云到其余点云之间的距离小于某一阈值的一群点归聚起来,一帧点云图像可以聚类得到不同的类群。获取每个类群的包围盒的位置坐标和参数信息。
S120、获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息。
其中,所述目标物体的位置信息可以为长方形目标框的中心点坐标,所述目标物体的特征信息可以为目标物体的类别信息。
具体的,获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息的方式可以为:获取摄像头拍摄的待识别图像;将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息的方式还可以为:获取摄像头拍摄的待识别图像;将训练好的目标模型部署在安装OpenVINO工具套件的平台上,目标模型利用OpenVINO工具套件做加速推理。将待识别图像输入目标模型中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
需要说明的是,所述激光雷达和所述摄像头相邻设置,预先调整所述激光雷达和所述摄像头的拍摄范围相同,以便于将包围盒的位置坐标投影至待识别图像中。
S130、将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标。
具体的,将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标的方式可以为:获取投影密度和摄像头外参;根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
在一个具体的例子中,根据投影密度和摄像头外参将每个包围盒的中心点坐标投影至待识别图像中,得到每个包围盒相对于待识别图像的第一位置坐标。
在另一个具体的例子中,根据投影密度和摄像头外参将每个包围盒的重心点坐标投影至待识别图像中,得到每个包围盒相对于待识别图像的第一位置坐标。
S140、根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。
需要说明的是,融合结果包括:目标物体的类别、目标物体的位移、和目标物体的速度等信息,可根据需要显示在2D图像或者3D点云中。把速度、距离等信息附加在视频中的目标物体上,把类别信息附加在点云中目标物体中。
具体的,根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合的方式可以为:若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
具体的,根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。例如可以是,将激光雷达采集的待识别点云图像中的点云进行聚类,得到至少一个包围盒的中心点坐标,将至少一个包围盒的中心点坐标投影到摄像头拍摄的待识别图像上,计算包围盒的中心点坐标和长方形框的中心点之间的距离。若包围盒的中心点坐标和长方形框的中心点之间的距离小于距离阈值,则确定是同一目标物体,否则,确定为不同的目标物体。若确定为同一目标物体,则将包围盒的参数信息和长方形框的特征信息进行融合。
可选的,获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
获取摄像头拍摄的待识别图像;
将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。
其中,获取摄像头拍摄的待识别图像的方式可以为:通过摄像头获取视频,由于摄像头获取的视频是时序数据,根据摄像机的物理参数FPS(每秒传输帧数,Frames PerSecond)把视频转换成一帧一帧的图像,方便深度学习进行推理。把视频转化成的图像后,对转化后的图像做标注,得到待识别图像。
其中,所述摄像头的拍摄原理为:摄像头拍摄周围环境时,环境上反射的光被摄像机镜头收集,使其聚焦在摄像器件的受光面上,再通过摄像器件把光能转化成电能,就得到了视频信号。
其中,图像样本中的至少一个目标物体的位置信息可以为:将图像样本中的目标物体通过预设形状圈出后,预设行状态的中心的坐标;例如可以是,将图像样本中的每个目标物体通过长方形框圈出,得到每个长方形框的中心点坐标。
其中,图像样本中的至少一个目标物体的特征信息可以为:图像样本中的每个目标物体的类别。
其中,所述目标模型的训练过程可以为:预先建立神经网络模型;获取目标样本集,其中,所述目标样本集包括:图像样本、对图像样本进行标注后得到的图像(例如:将图像中的目标物体通过长方形框圈出)以及图像样本中的目标物体的类别;将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。所述目标模型的训练过程还可以为:基于YOLOv5算法训练神经网络模型,得到目标模型。
在一个具体的例子中,获取摄像头采集的视频,将视频转化成图片,然后用OpenVINO工具套件加速目标模型的推理,检测得到图片上目标物体的类别,二维包围长方形框,以及长方形框的中心位置。
可选的,将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
基于OpenVINO工具对目标模型进行转换,得到权重信息和网络拓扑信息;
将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
其中,所述OpenVINO工具主要包括两部分,一个是模型优化器,另外一个是推理引擎。OpenVINO工具的工作原理是对训练产生的网络模型进行优化,优化结果转换成中间表示文件,得到IR文件(xml文件和bin文件)。xml文件中包含优化以后的网络拓扑结构,bin文件优化之后的模型参数和模型变量。
具体的,把训练好的目标模型部署在安装OpenVINO工具套件的平台上,目标模型利用OpenVINO工具套件做加速推理。将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
通过将训练好的目标模型部署在安装OpenVINO工具套件的平台上,能够提升目标模型的识别效率,更快速的输出识别结果。
可选的,通过目标样本集迭代训练神经网络模型,包括:
建立神经网络模型;
将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;
根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;
返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。
其中,所述目标样本集包括:图像样本、对图像样本进行标注后得到的图像以及图像样本中的目标物体的类别。
其中,所述预测目标物体的位置信息可以为预测长方形框的中心点坐标。
其中,所述预测目标物体的特征信息可以为预测目标物体的类别。
可选的,获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离;
根据所述待识别点云图像中每个点云到其余点云之间的距离对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合;
获取每个点云集合对应的包围盒的位置坐标和参数信息。
其中,所述激光雷达用于扫描道路上的障碍物,获取点云信息,与摄像头形成互补。它主动向待测空间区域发射激光光束,并接收反射回来的信号并将其与发射信号进行比较生成3D点云信息,经过进一步的处理,可获得目标物体的距离、方位、速度、3D尺寸及类别等精确信息。
需要说明的是,激光雷达发射激光束,扫描获取周围环境的点云信息。根据TOF(飞行时间,Time of flight)测量方法计算得到激光雷达光学中心到目标物体上激光反射点的距离,根据视场角、角度分辨变率计算出该点相对于光学中心的位置。光学中心为GPS位置,输出的激光雷达点云位置为经纬度值。将采集到的点云数据中的地面点云分割掉,将地面分割后的点云进行PCL聚类,一帧点云聚类得到不同的类群,然后得到不同的包围盒,依次标上序号,计算包围盒的中心位置。
其中,获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离的方式可以为:获取激光雷达采集的待识别点云图像中的点云,将待识别点云图像中的点云里面地面点云分割掉,避免地面点云对算法的精度造成影响。然后将地面点云分割后的点云进行PCL聚类,一帧点云聚类得到不同的类群,然后得到不同的包围盒,依次标上序号,计算包围盒的中心点坐标。
具体的,获取每个点云集合对应的包围盒的位置坐标和参数信息的方式可以为:获取每个点云集合对应的包围盒的位置坐标;根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移,其中,所述目标包围盒为任一包围盒;根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。例如可以是,对激光雷达采集的第一帧待识别点云图像中的点云进行聚类,得到包围盒A的第一坐标、包围盒B的第一坐标、包围盒C的第一坐标和包围盒D的第一坐标,对激光雷达采集的第二帧待识别点云图像中的点云进行聚类,得到包围盒A的第二坐标、包围盒B的第二坐标、包围盒C的第二坐标和包围盒D的第二坐标,根据包围盒A的第一坐标和包围盒A的第二坐标确定包围盒A的位移;根据包围盒B的第一坐标和包围盒B的第二坐标确定包围盒B的位移;根据包围盒C的第一坐标和包围盒C的第二坐标确定包围盒C的位移;根据包围盒D的第一坐标和包围盒D的第二坐标确定包围盒D的位移。根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒A的位移确定包围盒A的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒B的位移确定包围盒B的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒C的位移确定包围盒C的速度;根据第一帧待识别点云图像和第二帧待识别点云图像之间的时间间隔和包围盒D的位移确定包围盒D的速度。
可选的,获取每个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取每个点云集合对应的包围盒的位置坐标;
根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移;
根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。
其中,获取每个点云集合对应的包围盒的位置坐标的方式可以为:获取每个点云集合对应的包围盒的中心点坐标。
其中,所述目标包围盒可以为从多个包围盒中选取的任一包围盒,例如可以是,若存在包围盒A、包围盒B和包围盒C,选取包围盒A为目标包围盒。相应的,根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移的方式可以为:根据包围盒A在第N-1帧点云图像中的位置坐标和包围盒A在第N帧点云图像中的位置坐标确定包围盒A的位移。
其中,根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移的方式可以为:获取目标包围盒在第N-1帧点云图像中的位置坐标和在第N帧点云图像中的位置坐标之间的差值确定所述目标包围盒的位移。其中,N为大于2的正整数。
其中,根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度的方式可以为:获取目标包围盒在第N-1帧点云图像中的位置坐标,目标包围盒在第N帧点云图像中的位置坐标,第N-1帧点云图像和第N帧点云图像之间的时间间隔;根据目标包围盒在第N-1帧点云图像中的位置坐标,目标包围盒在第N帧点云图像中的位置坐标,以及第N-1帧点云图像和第N帧点云图像之间的时间间隔确定所述目标包围盒的速度。
可选的,根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合,包括:
若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
其中,所述第一目标物体为任一目标物体,所述第一包围盒为任一包围盒,本发明实施例对此不进行限制。
其中,所述第一目标物体的位置信息为所述待识别图像中第一目标物体对应的长方形框的中心点坐标。
具体的,若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。例如可以是,若目标物体A的位置信息和包围盒T相对于待识别图像的位置坐标之间的距离小于距离阈值,则将目标物体A的特征信息和包围盒T的参数信息进行融合。
在一个具体的例子中,若待识别图像中目标物体A对应的长方形框的中心点坐标和包围盒T相对于待识别图像的位置坐标之间的距离小于距离阈值,则将目标物体A的特征信息和包围盒T的参数信息进行融合。
可选的,将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标,包括:
获取投影密度和摄像头外参;
根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
其中,所述投影密度为像素实际距离比例,也就是图像上一个像素代表的实际距离。
其中,摄像头属于被动触发式传感器,被摄路况上的目标反射光线,传播到镜头,然后获取路况上的图像信息,图像经过预处理后,作为感知算法的输入。基于对其所采集的图像和视频的分析,能够获得丰富的色彩、纹理和语义信息,实现精细化的交通目标的分类。
在一个具体的例子中,根据投影密度和摄像头外参把一帧三维点云的前视图投影成二维图片,该二维图片与摄像机获取的图片长宽一致。
本发明实施例可以利用CPU做图片加速推理,从而实现加速激光雷达和摄像机的感知融合,进一步利用IGPU做更快的加速,摆脱了使用平台硬件显卡设备的局限性,提高了激光雷达和摄像机的感知融合的使用范围。
在一个具体的例子中,如图2所示,图2为智能交通系统,所述智能交通系统包括:激光雷达、毫米波雷达、摄像头、RSB路测设备、MEC路测边缘设备、MEC网络边缘设备以及云平台,其中,摄像头:属于被动触发式传感器,被摄路况上的目标反射光线,传播到镜头,然后获取路况上的图像信息,图像经过预处理后,作为感知算法的输入。基于对其所采集的图像和视频的分析,能够获得丰富的色彩、纹理和语义信息,实现精细化的交通目标的分类。毫米波雷达:通过发射无线电波,然后接收反射回来的电波,通过电磁波返回的飞行时间计算目标的相对距离;根据多普勒原理,当发射的无线电波和被探测目标有相对移动、回波的频率会和发射波的频率不同,通过检测频率差计算目标的相对速度。激光雷达:扫描道路上的障碍物,获取点云信息,与摄像头形成互补。它主动向待测空间区域发射激光光束,并接收反射回来的信号并将其与发射信号进行比较生成3D点云信息,经过进一步的处理,可获得目标物体的距离、方位、速度、3D尺寸及类别等精确信息。RSU路侧设备:车联网部署在路侧的通信单元。RSU通过有线网络接收MEC处理过的各种信息,并将其通过广播通知到OBU,协助自动驾驶。同时,通过接口接收OBU的消息数据进行初步分析处理后上报给MEC,或者通过上报给车辆网云控平台。MEC路测边缘设备:部署有OpenVINO工具套件和深度学习YOLOv5算法和PCL、OpenCV库的智能计算平台,输入传感器获得的结果数据,输出处理结果,传输给RSU路侧单元或者MEC网络边缘设备。
在另一个具体的例子中,如图3所示,通过激光雷达扫描得到一帧点云图像,利用点云与点云之间的三维距离通过聚类算法处理,把点云间距离小于某一阈值的一群点聚类起来,一帧点云可以聚类得到不同的类群。每个类群对应一个包围盒,包围盒是一个简单的立体空间,里面包含着聚类得到的一群点云,本发明实施例以长方体作为包围盒,紧紧包围着点云外围轮廓。计算长方体包围盒的中心点坐标,并把当前帧不同的包围盒依次标号,作为跟踪区别的标志。按照一定的像素实际距离比例,即投影密度(m/pixel),也就是图像上一个像素代表实际多少米,把一帧三维点云的前视图投影成二维图片,该二维图片与摄像机获取的图片长宽一致。根据前一帧与后一帧同一长方体包围盒中心点坐标的变化,计算出长方体包围盒的位移;再通过两帧之间的时间间隔计算出长方体包围盒的速度。通过摄像头获取视频,由于视频是时序数据,根据摄像机的物理参数FPS把视频转换成一帧一帧的图像,方便深度学习进行推理。对转化后的图像进行标注,然后用YOLOv5算法进行模型训练,得到目标模型,把目标模型部署在安装OpenVINO工具套件的平台上,目标模型利用OpenVINO工具套件做加速推理。将待识别图像输入目标模型中得到待识别图像中目标物体的位置信息以及类别等信息,根据位置信息把用长方形目标框住。计算待识别图像中目标长方形框的中心点坐标。把激光雷达点云聚类得到的包围盒的中心点坐标投影到待识别图像上,获取包围盒中心点坐标和长方形框的中心点坐标之间的距离。如果距离在预设阈值范围内,则是同一目标,否则不是同一目标。确定激光雷达和摄像头检测到的目标为同一目标,并将该两种传感器获取的信息进行目标级的融合。融合的结果包括目标的类别、位置距离和速度等信息,可根据需要显示在2D图像或者3D点云中。把速度、距离等信息附加在视频中的目标上,把类别信息附加在点云中目标中。
需要说明的是,现有技术中对激光雷达测得的点云信息仅仅是用于降低图像的搜索空间,并未充分利用该点云信息,没有充分发挥激光雷达与图像数据的优势,并且由于是先借助激光雷达的点云信息来降低图像上的搜索空间,再由搜索的图像数据进行目标跟踪,因此,当激光雷达或者图像采集中任意一个传感器失效时,整个检测系统均无法工作,系统稳定可靠性不高,本发明实施例能够在一个传感器失效的情况下,还可以根据另一个传感器采集的数据得到目标物体的相关信息,有效的解决现有技术存在的问题。
本发明实施例通过获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;根据每个包围盒的位置坐标和每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合,以解决由于是先借助激光雷达的点云信息来降低图像上的搜索空间,再由搜索的图像数据进行目标跟踪,则当激光雷达或图像采集中任意一个传感器失效时,整个检测系统均无法工作,系统的稳定可靠性不高的问题,能够充分发挥激光雷达与图像数据的优势,获得更加丰富的目标物体的相关信息。
实施例二
图4为本发明实施例二提供的一种融合装置的结构示意图。如图4所示,该装置包括:第一获取模块210、第二获取模块220、投影模块230和融合模块240;
其中,第一获取模块,用于获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
第二获取模块,用于获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
投影模块,用于将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
融合模块,用于根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。可选的,所述第二获取模块具体用于:
获取摄像头拍摄的待识别图像;
将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。
可选的,所述第二获取模块具体用于:
基于OpenVINO工具对目标模型进行转换,得到权重信息和网络拓扑信息;
将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
可选的,所述第二获取模块具体用于:
建立神经网络模型;
将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;
根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;
返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。
可选的,所述第一获取模块具体用于:
获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离;
根据所述待识别点云图像中每个点云到其余点云之间的距离对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合;
获取每个点云集合对应的包围盒的位置坐标和参数信息。
可选的,所述第一获取模块具体用于:
获取每个点云集合对应的包围盒的位置坐标;
根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移;
根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。
可选的,所述融合模块具体用于:
若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
可选的,所述融合模块具体用于:
获取投影密度和摄像头外参;
根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
本发明实施例所提供的融合装置可执行本发明任意实施例所提供的融合方法,具备执行方法相应的功能模块和有益效果。
实施例三
图5示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图5所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如融合方法:
获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。
在一些实施例中,融合方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM 13并由处理器11执行时,可以执行上文描述的融合方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行融合方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种融合方法,其特征在于,包括:
获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。
2.根据权利要求1所述的方法,其特征在于,获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
获取摄像头拍摄的待识别图像;
将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,其中,所述目标模型通过目标样本集迭代训练神经网络模型得到,所述目标样本集包括:图像样本和所述图像样本对应的标识信息,所述标识信息包括:图像样本中的至少一个目标物体的位置信息和特征信息。
3.根据权利要求2所述的方法,其特征在于,将所述待识别图像输入目标模型,得到所述待识别图像中的至少一个目标物体的位置信息和特征信息,包括:
基于OpenVINO工具对目标模型进行转换,得到权重信息和网络拓扑信息;
将权重信息、网络拓扑信息和待识别图像加载至OpenVINO工具中,得到待识别图像中的至少一个目标物体的位置信息和特征信息。
4.根据权利要求2或3所述的方法,其特征在于,通过目标样本集迭代训练神经网络模型,包括:
建立神经网络模型;
将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息;
根据所述图像样本中的至少一个预测目标物体的位置信息和特征信息和所述图像样本中的至少一个目标物体的位置信息和特征信息形成的目标函数训练所述神经网络模型的参数;
返回执行将所述目标样本集中的图像样本输入所述神经网络模型得到所述图像样本中的至少一个预测目标物体的位置信息和特征信息的操作,直至得到目标模型。
5.根据权利要求1至3中任一权利要求所述的方法,其特征在于,获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取激光雷达采集的待识别点云图像中每个点云到其余点云之间的距离;
根据所述待识别点云图像中每个点云到其余点云之间的距离对所述待识别点云图像中的点云进行聚类,得到至少一个点云集合;
获取每个点云集合对应的包围盒的位置坐标和参数信息。
6.根据权利要求5所述的方法,其特征在于,获取每个点云集合对应的包围盒的位置坐标和参数信息,包括:
获取每个点云集合对应的包围盒的位置坐标;
根据目标包围盒在相邻帧点云图像中的位置坐标确定所述目标包围盒的位移;
根据所述目标包围盒的位移和所述相邻帧之间的时间间隔确定所述目标包围盒的速度。
7.根据权利要求1、2、3或6所述的方法,其特征在于,根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合,包括:
若第一目标物体的位置信息和第一包围盒相对于待识别图像的第一位置坐标之间的距离小于距离阈值,则将所述第一目标物体的特征信息和所述第一包围盒的参数信息进行融合。
8.根据权利要求1、2、3或6所述的方法,其特征在于,将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标,包括:
获取投影密度和摄像头外参;
根据投影密度和摄像头外参对每个包围盒的位置坐标进行投影,得到每个包围盒相对于所述待识别图像的第一位置坐标。
9.一种融合装置,其特征在于,包括:
第一获取模块,用于获取激光雷达采集的待识别点云图像中至少一个点云集合对应的包围盒的位置坐标和参数信息;
第二获取模块,用于获取摄像头拍摄的待识别图像中的至少一个目标物体的位置信息和特征信息;
投影模块,用于将每个包围盒的位置坐标投影至所述待识别图像中,得到每个包围盒相对于所述待识别图像的第一位置坐标;
融合模块,用于根据所述每个包围盒相对于待识别图像的第一位置坐标和所述每个目标物体的位置信息将目标物体的特征信息和所述目标物体对应的包围盒的参数信息进行融合。
10.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的融合方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-8中任一项所述的融合方法。
12.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的融合方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210247641.1A CN114581889A (zh) | 2022-03-14 | 2022-03-14 | 一种融合方法、装置、设备、介质及产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210247641.1A CN114581889A (zh) | 2022-03-14 | 2022-03-14 | 一种融合方法、装置、设备、介质及产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114581889A true CN114581889A (zh) | 2022-06-03 |
Family
ID=81779581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210247641.1A Pending CN114581889A (zh) | 2022-03-14 | 2022-03-14 | 一种融合方法、装置、设备、介质及产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581889A (zh) |
-
2022
- 2022-03-14 CN CN202210247641.1A patent/CN114581889A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4109331A1 (en) | Obstacle detection method and apparatus, computer device, and storage medium | |
US10964054B2 (en) | Method and device for positioning | |
CN110163904B (zh) | 对象标注方法、移动控制方法、装置、设备及存储介质 | |
US9483839B1 (en) | Occlusion-robust visual object fingerprinting using fusion of multiple sub-region signatures | |
CN110390706B (zh) | 一种物体检测的方法和装置 | |
CN113160327A (zh) | 一种点云补全的实现方法和系统 | |
CN110956137A (zh) | 点云数据的目标检测方法、系统及介质 | |
CN112949782A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN117274749B (zh) | 一种基于4d毫米波雷达和图像的融合3d目标检测方法 | |
CN115685249A (zh) | 一种障碍物检测方法、装置、电子设备和存储介质 | |
CN115690545B (zh) | 训练目标跟踪模型和目标跟踪的方法和装置 | |
CN115861959A (zh) | 一种车道线识别方法、装置、电子设备及存储介质 | |
CN117808689A (zh) | 基于毫米波雷达与摄像头融合的深度补全方法 | |
CN116129553A (zh) | 一种基于多源车载设备的融合感知方法及系统 | |
CN113895482B (zh) | 基于轨旁设备的列车测速方法及装置 | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN115909253A (zh) | 一种目标检测、模型训练方法、装置、设备及存储介质 | |
CN114119465B (zh) | 一种点云数据处理方法及装置 | |
CN114565906A (zh) | 障碍物检测方法、装置、电子设备及存储介质 | |
CN114581889A (zh) | 一种融合方法、装置、设备、介质及产品 | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及系统 | |
KR20220157896A (ko) | 레이더 검출에서의 다중 경로 분류 | |
CN111723797B (zh) | 一种确定三维目标的包围框的方法及系统 | |
Liu et al. | A lightweight lidar-camera sensing method of obstacles detection and classification for autonomous rail rapid transit | |
CN113496514B (zh) | 数据处理方法、监测系统、电子设备及显示设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |