CN116310674A - 数据融合的方法、装置、电子设备及存储介质 - Google Patents
数据融合的方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116310674A CN116310674A CN202310144138.8A CN202310144138A CN116310674A CN 116310674 A CN116310674 A CN 116310674A CN 202310144138 A CN202310144138 A CN 202310144138A CN 116310674 A CN116310674 A CN 116310674A
- Authority
- CN
- China
- Prior art keywords
- obstacle
- detection frame
- frame information
- fusion
- data output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title abstract description 7
- 238000001514 detection method Methods 0.000 claims abstract description 358
- 230000004927 fusion Effects 0.000 claims abstract description 133
- 230000008447 perception Effects 0.000 claims abstract description 58
- 238000012545 processing Methods 0.000 claims abstract description 45
- 238000007499 fusion processing Methods 0.000 claims abstract description 39
- 238000004422 calculation algorithm Methods 0.000 claims description 84
- 238000000034 method Methods 0.000 claims description 69
- 238000001914 filtration Methods 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 238000007781 pre-processing Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 230000004888 barrier function Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000001788 irregular Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提供了一种数据融合的方法、装置、电子设备及存储介质,涉及计算机技术领域,具体为计算机视觉、自动驾驶技术领域,可应用于智能交通、智慧城市等场景。具体实现方案为:获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
Description
技术领域
本公开涉及计算机技术领域,具体为计算机视觉、自动驾驶技术领域,可应用于智能交通、智慧城市等场景。
背景技术
多源感知数据融合技术是指对自动驾驶泊车车辆上安装的相机、毫米波雷达、激光雷达输出的障碍物数据进行关联融合,得到障碍物位置、速度等属性信息,为车辆自动泊车和场景渲染提供准确的障碍物感知信息。
目前,相关的多源感知融合方法是通过传感器获取车辆周围环境中多个目标障碍物对应的图像数据、点云数据和可行驶空间(freespace)数据,将图像数据、点云数据和freespace数据直接进行融合,得到各目标障碍物的特征、位置和速度等属性信息。
发明内容
本公开提供了一种数据融合的方法、装置、电子设备及存储介质。
根据本公开的一方面,提供了一种数据融合的方法,包括:
获取多种传感器的三维(3-dimension,3D)检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;
基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;
分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
根据本公开的另一方面,提供了一种数据融合的装置,包括:
获取单元,用于获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;
匹配单元,用于基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;
融合单元,用于分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
根据本公开的再一方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方面和任一可能的实现方式的方法。
根据本公开的又一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行如上所述的方面和任一可能的实现方式的方法。
根据本公开的又一方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如上所述的方面和任一可能的实现方式的方法。
根据本公开的又一方面,提供了一种自动驾驶车辆,包括如上所述的电子设备。
由上述技术方案可知,本公开实施例通过获取基于传感器所输出的障碍物检测数据生成的各个传感器的3D检测框信息,进而可以基于3D检测框信息中的障碍物类别,对3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,使得能够分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息,由于通过获取预先生成的各个传感器的3D检测框信息,并对这些3D检测框信息进行信息关联融合,减少了多源传感器输出的不规则形态的目标检测数据对障碍物感知结果的不利影响,可以获得更加准确地障碍物感知信息,可以实现了对多源传感器的感知信息的准确融合,从而提升了障碍物感知的可靠性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第二实施例的数据融合的原理的示意图。;
图4是根据本公开第三实施例的示意图;
图5是用来实现本公开实施例的数据融合的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本公开保护的范围。
需要说明的是,本公开实施例中所涉及的终端设备可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(TabletComputer)等智能设备;显示设备可以包括但不限于个人电脑、电视等具有显示功能的设备。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
目前,相关的多源感知融合方法是通过传感器获取车辆周围环境中多个目标对应的图像数据、点云数据和freespace数据,将图像数据、点云数据和freespace数据直接进行融合,得到各目标障碍物的特征、位置和速度等属性信息。
但是,由于相机、毫米波雷达和激光雷达等传感器的检测数据存在几何形态差异,导致关联融合算法的复杂度增加,融合结果的准确度也降低,进而使得融合障碍物结果不利于实现自动驾驶车辆泊车和人机共驾地图渲染显示等。
因此,亟需提供一种数据融合的方法,能够实现对多源传感器的感知信息的准确融合,从而提升融合结果的可靠性。具体执行以下步骤:
图1是根据本公开第一实施例的示意图,如图1所示。
101、获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的。
102、基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
103、分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
至此,后续可以将障碍物感知信息输出至下游控制模块,例如,自动驾驶车辆的自动泊车模块和人机共驾地图渲染模块等。
需要说明的是,传感器可以包括但不限于鱼眼相机、广角相机、毫米波雷达、以及激光雷达等。
需要说明的是,3D检测框信息可以是3D检测框的属性信息。3D检测框的属性信息可以包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。
可以理解的是,有部分的传感器所输出的障碍物检测数据可以包括部分3D检测框的属性信息。通过对每种传感器所输出的障碍物检测数据进行预处理,可以生成每种传感器对应的较完整的3D检测框的属性信息。
需要说明的是,障碍物感知信息可以是障碍物的属性信息。障碍物感知信息可以包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。障碍物可以是在自动驾驶环境中,本车或自车周围的其他物体。
需要说明的是,101~103的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,例如,网络侧的数据融合平台中的处理引擎或者分布式系统等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
这样,可以通过获取基于传感器所输出的障碍物检测数据生成的各个传感器的3D检测框信息,进而可以基于3D检测框信息中的障碍物类别,对3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,使得能够分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息,由于通过获取预先生成的各个传感器的3D检测框信息,并对这些3D检测框信息进行信息关联融合,减少了多源传感器输出的不规则形态的目标检测数据对障碍物感知结果的不利影响,可以获得更加准确地障碍物感知信息,可以实现了对多源传感器的感知信息的准确融合,从而提升了障碍物感知的可靠性。
可选地,在本实施例的一个可能的实现方式中,在101中,所述传感器可以包括鱼眼相机。其中,基于所述鱼眼相机所输出的障碍物检测数据,生成所述鱼眼相机的3D检测框信息,具体可以实施为利用预设的融合算法,对所述鱼眼相机所输出的所述障碍物检测数据进行融合处理,基于融合处理的结果,生成所述鱼眼相机的3D检测框信息。
在该实现方式的一个具体实现过程中,首先,可以基于所述鱼眼相机所输出的障碍物检测数据,获得所述鱼眼相机的障碍物类别,其次,基于所述预设的融合算法和所述鱼眼相机的障碍物类别的预设关系,确定所述鱼眼相机的障碍物类别对应的融合算法。再次,利用所述鱼眼相机的障碍物类别对应的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理。
在本实现方式中,所述鱼眼相机所输出的障碍物检测数据可以包括二维(2-dimension,2D)检测框和可行驶空间(freespace)数据。
在该实现方式的另一个具体实现过程中,具体可以利用预设的融合算法,对2D检测框和freespace数据进行融合处理,基于所述融合处理的结果,生成所述鱼眼相机的3D检测框信息。
在该具体实现过程中,基于3D空间的freespace数据和2D检测框,可以获得障碍物类别。每个障碍物类别可以具有对应的预设的融合算法。
具体地,首先,可以根据鱼眼相机所输出的障碍物检测数据中的2D检测框,获得障碍物类别。其次,基于障碍物类别,可以确定所述障碍物类别对应的融合算法。再次,利用障碍物类别对应的融合算法,分别对每个障碍物类别对应的2D检测框和freespace数据进行融合处理。最后,可以根据融合处理的结果,生成鱼眼相机的3D检测框信息。
该具体实现过程的一种情况,障碍物类别为车辆,例如,汽车和自行车等。首先,可以根据2D检测框和freespace数据,获得车轮的接地点和车身分割线。其次,可以根据车轮的接地点和车身分割线,获得车辆的朝向信息。再次,对freespace数据、2D检测框、车辆的朝向信息进行融合处理。最后,可以根据融合处理的结果,生成鱼眼相机的3D检测框信息。
该具体实现过程的另一种情况,障碍物类别为小障碍物,例如,锥桶等。根据freespace数据,估计得到小障碍物的尺寸,对freespace数据、2D检测框、小障碍物的尺寸进行融合处理。最后,可以根据融合处理的结果,生成鱼眼相机的3D检测框信息。
该具体实现过程的再一种情况,障碍物类别为行人。首先根据预设的尺寸模板,对freespace数据和2D检测框进行融合处理。其次,可以根据融合处理的结果,生成鱼眼相机的3D检测框信息。
可以的理解的是,鱼眼相机的3D检测框信息包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。
可以理解的是,在实际应用中,也可以利用其他现有的方式生成鱼眼相机的3D检测框信息,例如,对鱼眼相机所输出的2D检测框和freespace数据进行配置处理,生成较为全面完整的鱼眼相机的3D检测框信息。具体实现方式,在此可以不再赘述。
这样,可以通过利用预设的融合算法,对鱼眼相机所输出的障碍物检测数据进行融合处理,提升了所生成的鱼眼相机的3D检测框信息的完整性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
可选地,在本实施例的一个可能的实现方式中,在101中,所述传感器还可以包括广角相机。基于所述广角相机所输出的障碍物检测数据,生成所述广角相机的3D检测框信息,可以实施为基于所述广角相机所输出的障碍物检测数据,利用预设的目标跟踪算法,生成所述广角相机的3D检测框信息。
在本实现方式中,所述广角相机所输出的障碍物检测数据可以包括3D检测框。预设的目标跟踪算法可以包括基于卡尔曼滤波的目标跟踪算法。
在该实现方式的一个具体实现过程中,具体可以利用基于卡尔曼滤波的目标跟踪算法,对3D检测框进行跟踪处理,以生成跟踪处理后的广角相机的3D检测框信息。
具体地,利用基于卡尔曼滤波的目标跟踪算法,对3D检测框的中心点和3D检测框的截断属性信息进行跟踪处理,以生成跟踪处理后的广角相机的3D检测框信息,即获得3D检测框中的障碍物的位置、速度、尺寸、类别、存在性概率和朝向等信息。
这里,跟踪处理后的广角相机的3D检测框信息可以包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。
可以理解的是,有些广角相机所输出的3D检测框可能不包括障碍物的速度和位置,而且障碍物的其他信息的准确性不足。这里,通过预设的目标跟踪算法对该3D检测框进行进一步地跟踪处理,可以获得障碍物的速度和位置,并可以获得更加准确的障碍物的其他信息,即优化障碍物的其他信息的准确性。
可以理解的是,在实际应用中,也可以利用其他现有的方式生成广角相机的3D检测框信息,例如,对广角相机所输出的3D检测框进行配置和修正处理,生成较为全面完整的广角相机的3D检测框信息。具体实现方式,在此可以不再赘述。
这样,可以通过利用预设的目标跟踪算法,对广角相机所输出的障碍物检测数据进行处理,提升了所生成的广角相机的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
需要说明的是,基于本实现方式中所提供的多种具体实现过程,可以结合前述实现方式中所提供的生成3D检测框信息的多种具体实现过程,来实现本实施例的数据融合的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在101中,所述传感器还可以包括毫米波雷达。基于所述毫米波雷达所输出的障碍物检测数据,生成所述毫米波雷达的3D检测框信息,具体实施为基于所述毫米波雷达所输出的障碍物检测数据,利用预设的神经网络,生成所述毫米波雷达的3D检测框信息。
在本实现方式中,所述毫米波雷达所输出的障碍物检测数据可以包括点云数据和航迹点,即点云点和航迹点。
在本实现方式中,预设的神经网络可以为特征信息提取网络。预设的神经网络可以包括但不限于卷积神经网络(Convolutional Neural Networks,CNN)、生成式对抗网络(Generative Adversarial Networks,GAN)。
在该实现方式的一个具体实现过程中,具体可以将障碍物的点云数据的位置和航迹点的速度输入预设的神经网络,输出障碍物尺寸和类别,进而可以根据障碍物的点云数据、航迹点、尺寸和类别,融合得到毫米波雷达的3D检测框信息。
这里,毫米波雷达的3D检测框信息可以包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。
可以的理解的是,在实际应用中,也可以利用其他现有的方式生成毫米波雷达的3D检测框信息,例如,对毫米波雷达所输出的点云数据和航迹点进行识别处理,以生成较为全面完整的毫米波雷达的3D检测框信息。具体实现方式,在此可以不再赘述。
这样,可以通过利用预设的神经网络,对毫米波雷达所输出的障碍物检测数据进行特征提取,提升了所生成的毫米波雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
需要说明的是,基于本实现方式中所提供的多种具体实现过程,可以结合前述实现方式中所提供的生成3D检测框信息的多种具体实现过程,来实现本实施例的数据融合的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在101中,所述传感器还可以进一步地包括激光雷达。其中,基于所述激光雷达所输出的障碍物检测数据,生成所述激光雷达的3D检测框信息,具体实施为基于所述激光雷达所输出的障碍物检测数据,利用预设的目标跟踪算法,获得所述激光雷达的3D检测框信息,进而可以基于所述激光雷达所输出的障碍物检测数据中的可行驶空间数据,对所述激光雷达的3D检测框信息进行修正处理,以生成修正后的所述激光雷达的3D检测框信息。
在本实现方式中,所述激光雷达所输出的障碍物检测数据可以包括3D检测框和freespace数据。预设的目标跟踪算法可以包括基于卡尔曼滤波的目标跟踪算法。
在该实现方式的一个具体实现过程中,具体可以利用基于卡尔曼滤波的目标跟踪算法,对激光雷达的3D检测框进行跟踪处理,以生成跟踪处理后的激光雷达的3D检测框信息。
具体地,利用基于卡尔曼滤波的目标跟踪算法,对激光雷达所输出的3D检测框的中心点进行跟踪处理,以生成跟踪处理后的激光雷达的3D检测框信息,即获得3D检测框中的障碍物的位置、速度、尺寸、类别、存在性概率和朝向等信息。
在该实现方式的另一个具体实现过程中,可以利用激光雷达所输出的freespace数据,对跟踪处理后的激光雷达的3D检测框信息进行修正处理,以生成修正后的所述激光雷达的3D检测框信息,即获得3D检测框中的障碍物的位置、速度、尺寸、类别、存在性概率和朝向等信息。
可以的理解的是,激光雷达的3D检测框信息包括但不限于障碍物的位置、速度、尺寸、类别、朝向、存在性概率等信息。
可以的理解的是,在实际应用中,也可以利用其他现有的方式生成激光雷达的3D检测框信息,例如,对激光雷达所输出的3D检测框和freespace数据进行配置和修正处理,生成较为全面完整的激光雷达的3D检测框信息。具体实现方式,在此可以不再赘述。
这样,可以通过利用预设的目标跟踪算法,对激光雷达所输出的障碍物检测数据进行跟踪修正处理,提升了所生成的激光雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
需要说明的是,基于本实现方式中所提供的多种具体实现过程,可以结合前述实现方式中所提供的生成3D检测框信息的多种具体实现过程,来实现本实施例的数据融合的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在102中,基于所述3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
在本实现方式中,预设的相似匹配算法可以包括马氏距离关联与最近邻匹配算法。
可以理解的是,在101中,可以按照预定的频率获取多个数据帧的多种传感器的3D检测框信息。一个数据帧可以包括一种传感器的3D检测框信息。每个数据帧可以对应不同的传感器的3D检测框信息。例如,第一数据帧可以是鱼眼相机的3D检测框信息,第二数据帧可以是激光雷达的3D检测框信息,第三数据帧可以是毫米波雷达的3D检测框信息。
在该实现方式的一个具体实现过程中,具体可以基于3D检测框信息中的障碍物类别,利用马氏距离关联算法,计算相邻两个数据帧的3D检测框信息的相似度,并基于相似度,利用最近邻匹配算法,对相邻两个数据帧的3D检测框信息进行匹配处理,以获得每个障碍物类别的匹配结果。
具体地,基于3D检测框信息中的障碍物类别,利用马氏距离关联算法,计算相邻两个数据帧的3D检测框中心点的位置和速度的相似度,并基于该相似度,利用最近邻匹配算法,对3D检测框信息进行匹配处理,以获得每个障碍物类别的匹配结果。
可以理解的是,所获取的多种传感器的3D检测框信息可以作为观测检测框,即观测障碍物的检测框。目标框可以是目标障碍物框,对于初始数据帧,目标框可以是创建的。对于其他数据帧,目标框可以是当前数据帧的前一数据帧中未匹配到目标障碍物框的观测障碍物的检测框。在对3D检测框信息进行匹配处理的过程中,可以利用马氏距离关联与最近邻匹配算法,对目标框和观测检测框进行匹配处理,以获得目标框和观测检测框的匹配对,即匹配结果。
这样,可以通过基于3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对3D检测框信息进行匹配处理,得到每个障碍物类别的匹配结果,可以提升了3D检测框信息的匹配结果的准确性,从而进一步地提升了障碍物感知信息的可靠性。
需要说明的是,基于本实现方式中所提供的具体实现过程,可以结合前述实现方式中所提供的生成3D检测框信息的多种具体实现过程,来实现本实施例的数据融合的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
可选地,在本实施例的一个可能的实现方式中,在103中,具体可以确定每个所述障碍物类别对应的融合模型,进而可以利用每个所述障碍物类别对应的融合模型,分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
在本实现方式中,融合模型可以是基于无迹卡尔曼滤波的运动融合模型。融合模型可以包括恒定位置融合模型、恒定速度融合模型、以及恒定转弯率和速度融合模型中的至少一个。
在该实现方式的一个具体实现过程中,障碍物类别是车辆,例如,汽车和自行车。车辆对应的融合模型是恒定转弯率和速度融合模型。利用恒定转弯率和速度融合模型,对车辆的匹配结果进行融合处理,以获得融合后的障碍物感知信息,即车辆感知信息。
在该实现方式的另一个具体实现过程中,障碍物类别是静止的小障碍物,例如,锥桶等。静止的小障碍物对应的融合模型是恒定位置融合模型。利用恒定位置融合模型,对静止的小障碍物的匹配结果进行融合处理,以获得融合后的障碍物感知信息,即静止的小障碍物感知信息。
在该实现方式的再一个具体实现过程中,障碍物类别是运动的小障碍物,例如,行人等。运动的小障碍物对应的融合模型是恒定速度融合模型。利用恒定速度融合模型,对运动的小障碍物的匹配结果进行融合处理,以获得融合后的障碍物感知信息,即运动的小障碍物感知信息。
这样,可以通过利用每个障碍物类别对应的融合模型,分别对每个障碍物类别的匹配结果进行融合处理,得到融合后的障碍物感知信息,可以有效地提升了障碍物感知信息的融合的准确性,从而进一步地提升了障碍物感知的可靠性。
需要说明的是,基于本实现方式中所提供的多种具体实现过程,可以结合前述实现方式中所提供的多种实现方式中的多种具体实现过程,来实现本实施例的数据融合的方法。详细的描述可以参见前述实现方式中的相关内容,此处不再赘述。
本实施例中,可以通过获取基于传感器所输出的障碍物检测数据生成的各个传感器的3D检测框信息,进而可以基于3D检测框信息中的障碍物类别,对3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,使得能够分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息,由于通过获取预先生成的各个传感器的3D检测框信息,并对这些3D检测框信息进行信息关联融合,减少了多源传感器输出的不规则形态的目标检测数据对障碍物感知结果的不利影响,可以获得更加准确地障碍物感知信息,可以实现了对多源传感器的感知信息的准确融合,从而提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的融合算法,对鱼眼相机所输出的障碍物检测数据进行融合处理,提升了所生成的鱼眼相机的3D检测框信息的完整性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的目标跟踪算法,对广角相机所输出的障碍物检测数据进行处理,提升了所生成的广角相机的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的神经网络,对毫米波雷达所输出的障碍物检测数据进行特征提取,提升了所生成的毫米波雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的目标跟踪算法,对激光雷达所输出的障碍物检测数据进行跟踪修正处理,提升了所生成的激光雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过基于3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对3D检测框信息进行匹配处理,可以提升了3D检测框信息的匹配结果的准确性,从而进一步地提升了障碍物感知信息的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用每个障碍物类别对应的融合模型,分别对每个障碍物类别的匹配结果进行融合处理,得到融合后的障碍物感知信息,可以有效地提升了障碍物感知信息的融合的准确性,从而进一步地提升了障碍物感知的可靠性。
图2是根据本公开第二实施例的示意图,如图2所示。
在本实施例中,为了更好地理解本公开的数据融合的方法,现在结合应用实例对本公开的数据融合的方法进行详细说明。
201、获取多种传感器所输出的障碍物检测数据。
在本实施例中,图3是根据本公开第二实施例的数据融合的原理的示意图。如图3所示。传感器可以包括鱼眼相机、广角相机、毫米波雷达、激光雷达。
具体地,可以获取n路鱼眼相机所输出的freespace点和2D框,即freespace数据和2D检测框;获取n路广角相机所输出的3D框,即3D检测框;获取n路毫米波雷达所输出的点云点和航迹点,即点云数据和航迹点;获取n路激光雷达所输出的freespace点和3D框,即freespace数据和3D检测框。
202、分别对每种传感器所输出的障碍物检测数据进行预处理,以获取多种传感器的3D检测框信息。
在本实施例中,针对鱼眼相机,可以根据freespace点和2D框,进行基于三维空间的融合预处理。
具体地,可以利用freespace点与2D框进行融合生成3D框预处理。通过3D空间下freespace点的类别和分布范围估计目标障碍物的尺寸。
示例性的,可以基于3D空间下的freespace点和2D检测框,可以获得障碍物类别。对于车辆和两轮车等障碍物,利用车轮接地点和车身分割线信息获取目标障碍物的朝向,进而可以与2D框进行融合得到车辆障碍物的3D框,即车辆障碍物的3D检测框信息。对于锥桶等小目标障碍物,利用freespace点估计出锥桶等小目标障碍物的尺寸,进而可以与2D框进行融合得到锥桶等小目标障碍物的3D框,即锥桶等小目标障碍物的3D检测框信息。对于行人等障碍物,利用freespace点和固定尺寸模版得到行人等障碍物的尺寸,进而可以与2D框进行融合得到行人等障碍物的3D框,即行人等障碍物的3D检测框信息。最后,可以根据车辆障碍物的3D检测框信息、锥桶等小目标障碍物的3D框和行人等障碍物的3D检测框信息,得到鱼眼相机的3D检测框信息。鱼眼相机的3D检测框信息可以包括障碍物的位置、尺寸、类别、存在性概率、朝向等。
在本实施例中,针对广角相机,可以根据3D框,进行基于卡尔曼滤波的跟踪预处理。
具体地,可以以广角相机3D框的中心点作为输入,并接入3D框截断属性,利用卡尔曼滤波得到目标障碍物的准确的位置、速度、尺寸和朝向等信息,即得到广角相机的3D检测框信息。广角相机3D检测框信息包括障碍物的位置、尺寸、类别、存在性概率、朝向等。
在本实施例中,针对毫米波雷达,可以根据点云点和航迹点,进行基于神经网络的融合预处理。
具体地,将毫米波雷达点云的位置和航迹点的速度信息作为特征数据,输入到卷积神经网络,获得障碍物的尺寸和类别信息。通过获得的尺寸、类别、点云的位置、航迹点位置和速度等信息,融合得到障碍物的3D框,即得到毫米波雷达的3D检测框信息。毫米波雷达的3D检测框信息包括障碍物的位置、尺寸、类别、存在性概率、朝向等。
在本实施例中,针对激光雷达,可以根据freespace点和3D框,进行基于卡尔曼滤波的跟踪预处理。
具体地,以激光雷达3D框的中心点作为输入,利用卡尔曼滤波,得到障碍物的准确的位置、速度、尺寸和朝向信息,再利用freespace点的位置对卡尔曼滤波结果进行位置修正,得到激光雷达的3D检测框信息。激光雷达的3D检测框信息包括障碍物的位置、尺寸、类别、存在性概率、朝向等。
203、获取3D检测框信息中的障碍物类别。
204、基于障碍物类别,利用马氏距离关联与最近邻匹配算法对3D检测框信息进行匹配处理,以获得每个障碍物类别的匹配结果。
在本实施例中,可以对3D框的中心点位置、速度进行马氏距离关联,并利用最近邻匹配算法进行匹配处理,得到目标与观测的匹配对,即得到每个障碍物类别的匹配结果。其中,马氏距离关联的方差可以通过测试数据估计得到。
可以理解的是,所获取的多种传感器的3D检测框信息可以作为观测检测框,即观测障碍物的检测框。目标框可以是目标障碍物框,对于初始数据帧,目标框可以是通过预先配置创建的。对于其他数据帧,目标框可以是基于当前数据帧的前一数据帧中未匹配成功的检测框所确定的,例如,基于当前数据帧的前一数据帧中未匹配到目标框的观测检测框,得到当前数据帧的目标框。在对3D检测框信息进行匹配处理的过程中,可以利用马氏距离关联与最近邻匹配算法,对目标框和观测检测框进行匹配处理,以获得目标框和观测检测框的匹配对,即匹配结果。
可以理解的是,毫米波雷达的3D检测框信息相对其他传感器的准确性较低,毫米波雷达的3D检测框可以不用于确定目标框。
205、确定每个障碍物类别对应的融合模型。
206、利用每个障碍物类别对应的融合模型,分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
在本实施例中,可以利用基于无迹卡尔曼滤波的运动融合模型对每个障碍物类别的匹配结果进行融合处理。对不同类别的障碍物可以采用不同的融合模型。
例如,对于锥桶等静止小目标采用恒定位置模型,对于行人等运动小目标采用恒定速度模型,对于运动车辆目标采用恒定转弯率和速度模型。
在本实施例中,至此,后续可以将障碍物感知信息输出至下游控制模块,例如,自动驾驶车辆的自动泊车模块和人机共驾地图渲染模块等。
在本实施例中,如图3所示,首先,分别获取n路鱼眼相机所输出的freespace点和2D框、n路广角相机所输出的3D框、n路毫米波雷达所输出的点云点和航迹点、n路激光雷达所输出的freespace点和3D框。其次,分别对鱼眼相机所输出的freespace点和2D框,进行基于三维空间的融合预处理、对广角相机所输出的3D框进行基于卡尔曼滤波的跟踪预处理、对毫米波雷达所输出的点云点和航迹点,进行基于神经网络的融合预处理、对激光雷达所输出的freespace点和3D框,进行基于卡尔曼滤波的跟踪预处理。再次,通过上述预处理,可以获得3D检测框信息。再次,利用马氏距离关联与最近邻匹配算法对3D检测框信息进行匹配处理,可以得到不同类别的障碍物的匹配结果。最后,利用每个障碍物类别对应的融合模型,分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
采用本实施例所提供的技术方案,通过基于对多种传感器所输出的数据的预处理,获取多种传感器的3D检测框信息,进而根据目标3D框数据中的类别,利用预设的马氏距离关联与最近邻匹配算法,获得各类别的匹配结果,使得能够根据各类别对应的运动融合模型,分别对每个类别的匹配结果进行融合处理,以获得感知数据融合结果,由于通过先获取各个多种传感器的3D检测框信息,再基于这些3D检测框信息进行多传感器的数据关联融合,可以有效地解决相机、激光雷达、毫米波雷达输出的不规则几何形态数据之间的关联融合问题,实现对多源感知数据的准确融合,从而提升了融合结果的可靠性。
而且,采用本实施例所提供的技术方案,可以让自动驾驶整个系统的障碍物检测不受上游传感器感知数据不规则形态的影响,大大降低了不同几何形态数据之间关联融合的算法复杂度,并且能融合输出更准确的障碍物和环境感知信息,提升人机渲染中广角相机盲区范围内障碍物的准召率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本公开并不受所描述的动作顺序的限制,因为依据本公开,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本公开所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图4是根据本公开第三实施例的示意图,如图4所示。本实施例的数据融合的装置400可以包括获取单元401、匹配单元402和融合单元403,其中,获取单元,用于获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;匹配单元402,用于基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;融合单元403,用于分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
需要说明的是,本实施例的数据融合的装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopment Kit,SDK)等功能单元,或者还可以为位于网络侧服务器中的处理引擎,或者还可以为位于网络侧的分布式系统,例如,网络侧的数据融合平台中的处理引擎或者分布式系统等,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在本地终端上的本地程序(nativeApp),或者还可以是本地终端上的浏览器的一个网页程序(webApp),本实施例对此不进行限定。
可选地,在本实施例的一个可能的实现方式中,所述传感器包括鱼眼相机,所述获取单元401,具体可以用于利用预设的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理;基于所述融合处理的结果,生成所述鱼眼相机的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述获取单元401,具体可以用于基于所述鱼眼相机所输出的障碍物检测数据,获得所述鱼眼相机的障碍物类别,基于所述预设的融合算法和所述鱼眼相机的障碍物类别的预设关系,确定所述鱼眼相机的障碍物类别对应的融合算法;以及,利用所述鱼眼相机的障碍物类别对应的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理。
可选地,在本实施例的一个可能的实现方式中,所述传感器还包括广角相机,所述获取单元401,具体可以用于基于所述广角相机所输出的障碍物检测数据,利用预设的目标跟踪算法,生成所述广角相机的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述获取单元401,具体可以用于基于所述广角相机所输出的障碍物检测数据,获得所述广角相机的3D检测框的中心点和3D检测框的截断属性信息,利用基于卡尔曼滤波的目标跟踪算法,对所述广角相机的3D检测框的中心点和3D检测框的截断属性信息进行跟踪处理,以生成所述广角相机的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述传感器还包括毫米波雷达,所述获取单元401,具体可以用于基于所述毫米波雷达所输出的障碍物检测数据,利用预设的神经网络,生成所述毫米波雷达的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述获取单元401,具体可以用于将所述毫米波雷达所输出的障碍物检测数据,输入预设的神经网络,输出所述毫米波雷的障碍物尺寸和类别,基于所述毫米波雷达所输出的障碍物检测数据和所述毫米波雷的障碍物尺寸和类别,生成所述毫米波雷达的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述传感器还包括激光雷达,所述获取单元401,具体可以用于基于所述激光雷达所输出的障碍物检测数据,利用预设的目标跟踪算法,获得所述激光雷达的3D检测框信息;基于所述激光雷达所输出的障碍物检测数据中的可行驶空间数据,对所述激光雷达的3D检测框信息进行修正处理,以生成修正后的所述激光雷达的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述获取单元401,具体可以用于基于所述激光雷达所输出的障碍物检测数据,获得所述激光雷达的3D检测框的中心点,利用基于卡尔曼滤波的目标跟踪算法,对所述激光雷达的3D检测框的中心点进行跟踪处理,以生成所述激光雷达的3D检测框信息。
可选地,在本实施例的一个可能的实现方式中,所述匹配单元402,具体可以用于基于所述3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
可选地,在本实施例的一个可能的实现方式中,所述匹配单元402,还可以用于基于所述3D检测框信息中的障碍物类别,利用马氏距离关联算法,对相邻两个数据帧的所述3D检测框信息进行相似度计算处理,基于所述相似度计算处理的结果,利用最近邻匹配算法,对所述相邻两个数据帧的3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
可选地,在本实施例的一个可能的实现方式中,所述融合单元403,具体可以用于确定每个所述障碍物类别对应的融合模型;利用每个所述障碍物类别对应的融合模型,分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
可选地,在本实施例的一个可能的实现方式中,所述融合模型包括恒定位置融合模型、恒定速度融合模型、以及恒定转弯率和速度融合模型中的至少一个。
本实施例中,通过获取单元获取基于传感器所输出的障碍物检测数据生成的各个传感器的3D检测框信息,进而可以由匹配单元基于3D检测框信息中的障碍物类别,对3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,使得融合单元能够分别对每个障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息,由于通过获取预先生成的各个传感器的3D检测框信息,并对这些3D检测框信息进行信息关联融合,可以获得更加准确地障碍物感知信息,实现了对多源传感器的感知信息的准确融合,从而提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的融合算法,对鱼眼相机所输出的障碍物检测数据进行融合处理,提升了所生成的鱼眼相机的3D检测框信息的完整性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的目标跟踪算法,对广角相机所输出的障碍物检测数据进行处理,提升了所生成的广角相机的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的神经网络,对毫米波雷达所输出的障碍物检测数据进行特征提取,提升了所生成的毫米波雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用预设的目标跟踪算法,对激光雷达所输出的障碍物检测数据进行跟踪修正处理,提升了所生成的激光雷达的3D检测框信息的准确性和统一性,以便于后续和其他传感器的3D检测框信息进行匹配融合,获得更加准确地障碍物感知信息,从而进一步地提升了障碍物感知的可靠性。
另外,采用本实施例所提供的技术方案,可以通过基于3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对3D检测框信息进行匹配处理,可以提升了3D检测框信息的匹配结果的准确性,从而进一步地提升了障碍物感知信息的可靠性。
另外,采用本实施例所提供的技术方案,可以通过利用每个障碍物类别对应的融合模型,分别对每个障碍物类别的匹配结果进行融合处理,得到融合后的障碍物感知信息,可以有效地提升了障碍物感知信息的融合的准确性,从而进一步地提升了障碍物感知的可靠性。
本公开的技术方案中,所涉及的用户个人信息,例如,用户的图像和属性数据等的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
根据本公开的实施例,进一步地,还提供了一种包括所提供的电子设备的自动驾驶车辆,该自动驾驶车辆可以包括L4及其以上级别的无人驾驶车辆。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,电子设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储电子设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
电子设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许电子设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如数据融合的方法。例如,在一些实施例中,数据融合的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到电子设备500上。当计算机程序加载到RAM 503并由计算单元501执行时,可以执行上文描述的数据融合的方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行数据融合的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (30)
1.一种数据融合的方法,包括:
获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;
基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;
分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
2.根据权利要求1所述的方法,其中,所述传感器包括鱼眼相机,基于所述鱼眼相机所输出的障碍物检测数据,生成所述鱼眼相机的3D检测框信息,包括:
利用预设的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理;
基于所述融合处理的结果,生成所述鱼眼相机的3D检测框信息。
3.根据权利要求2所述的方法,其中,所述利用预设的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理,包括:
基于所述鱼眼相机所输出的障碍物检测数据,获得所述鱼眼相机的障碍物类别;
基于所述预设的融合算法和所述鱼眼相机的障碍物类别的预设关系,确定所述鱼眼相机的障碍物类别对应的融合算法;
利用所述鱼眼相机的障碍物类别对应的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理。
4.根据权利要求1-3中任一项所述的方法,其中,所述传感器还包括广角相机,基于所述广角相机所输出的障碍物检测数据,生成所述广角相机的3D检测框信息,包括:
基于所述广角相机所输出的障碍物检测数据,利用预设的目标跟踪算法,生成所述广角相机的3D检测框信息。
5.根据权利要求4所述的方法,其中,所述基于所述广角相机所输出的障碍物检测数据,利用预设的目标跟踪算法,生成所述广角相机的3D检测框信息,包括:
基于所述广角相机所输出的障碍物检测数据,获得所述广角相机的3D检测框的中心点和3D检测框的截断属性信息;
利用基于卡尔曼滤波的目标跟踪算法,对所述广角相机的3D检测框的中心点和3D检测框的截断属性信息进行跟踪处理,以生成所述广角相机的3D检测框信息。
6.根据权利要求1-5中任一项所述的方法,其中,所述传感器还包括毫米波雷达,基于所述毫米波雷达所输出的障碍物检测数据,生成所述毫米波雷达的3D检测框信息,包括:
基于所述毫米波雷达所输出的障碍物检测数据,利用预设的神经网络,生成所述毫米波雷达的3D检测框信息。
7.根据权利要求6所述的方法,其中,所述基于所述毫米波雷达所输出的障碍物检测数据,利用预设的神经网络,生成所述毫米波雷达的3D检测框信息,包括:
将所述毫米波雷达所输出的障碍物检测数据,输入预设的神经网络,输出所述毫米波雷的障碍物尺寸和类别;
基于所述毫米波雷达所输出的障碍物检测数据和所述毫米波雷的障碍物尺寸和类别,生成所述毫米波雷达的3D检测框信息。
8.根据权利要求1-7中任一项所述的方法,其中,所述传感器还包括激光雷达,基于所述激光雷达所输出的障碍物检测数据,生成所述激光雷达的3D检测框信息,包括:
基于所述激光雷达所输出的障碍物检测数据,利用预设的目标跟踪算法,获得所述激光雷达的3D检测框信息;
基于所述激光雷达所输出的障碍物检测数据中的可行驶空间数据,对所述激光雷达的3D检测框信息进行修正处理,以生成修正后的所述激光雷达的3D检测框信息。
9.根据权利要求8所述的方法,其中,所述基于所述激光雷达所输出的障碍物检测数据,利用预设的目标跟踪算法,获得所述激光雷达的3D检测框信息,包括:
基于所述激光雷达所输出的障碍物检测数据,获得所述激光雷达的3D检测框的中心点;
利用基于卡尔曼滤波的目标跟踪算法,对所述激光雷达的3D检测框的中心点进行跟踪处理,以生成所述激光雷达的3D检测框信息。
10.根据权利要求1-9中任一项所述的方法,其中,所述基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,包括:
基于所述3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
11.根据权利要求10所述的方法,其中,所述基于所述3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果,包括:
基于所述3D检测框信息中的障碍物类别,利用马氏距离关联算法,对相邻两个数据帧的所述3D检测框信息进行相似度计算处理;
基于所述相似度计算处理的结果,利用最近邻匹配算法,对所述相邻两个数据帧的3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
12.根据权利要求1-11中任一项所述的方法,其中,所述分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息,包括:
确定每个所述障碍物类别对应的融合模型;
利用每个所述障碍物类别对应的融合模型,分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
13.根据权利要求12所述的方法,其中,所述融合模型包括恒定位置融合模型、恒定速度融合模型、以及恒定转弯率和速度融合模型中的至少一个。
14.一种数据融合的装置,包括:
获取单元,用于获取多种传感器的3D检测框信息;每种所述传感器的3D检测框信息是基于所述传感器所输出的障碍物检测数据生成的;
匹配单元,用于基于所述3D检测框信息中的障碍物类别,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果;
融合单元,用于分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
15.根据权利要求14所述的装置,其中,所述传感器包括鱼眼相机,所述获取单元,具体用于:
利用预设的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理;
基于所述融合处理的结果,生成所述鱼眼相机的3D检测框信息。
16.根据权利要求15所述的装置,其中,所述获取单元,具体用于:
基于所述鱼眼相机所输出的障碍物检测数据,获得所述鱼眼相机的障碍物类别;
基于所述预设的融合算法和所述鱼眼相机的障碍物类别的预设关系,确定所述鱼眼相机的障碍物类别对应的融合算法;以及,
利用所述鱼眼相机的障碍物类别对应的融合算法,对所述鱼眼相机所输出的障碍物检测数据进行融合处理。
17.根据权利要求14-16中任一项所述的装置,其中,所述传感器还包括广角相机,所述获取单元,具体用于:
基于所述广角相机所输出的障碍物检测数据,利用预设的目标跟踪算法,生成所述广角相机的3D检测框信息。
18.根据权利要求17所述的装置,其中,所述获取单元,具体用于:
基于所述广角相机所输出的障碍物检测数据,获得所述广角相机的3D检测框的中心点和3D检测框的截断属性信息;
利用基于卡尔曼滤波的目标跟踪算法,对所述广角相机的3D检测框的中心点和3D检测框的截断属性信息进行跟踪处理,以生成所述广角相机的3D检测框信息。
19.根据权利要求14-18中任一项所述的装置,其中,所述传感器还包括毫米波雷达,所述获取单元,具体用于:
基于所述毫米波雷达所输出的障碍物检测数据,利用预设的神经网络,生成所述毫米波雷达的3D检测框信息。
20.根据权利要求19所述的装置,其中,所述获取单元,具体用于:
将所述毫米波雷达所输出的障碍物检测数据,输入预设的神经网络,输出所述毫米波雷的障碍物尺寸和类别;
基于所述毫米波雷达所输出的障碍物检测数据和所述毫米波雷的障碍物尺寸和类别,生成所述毫米波雷达的3D检测框信息。
21.根据权利要求14-20中任一项所述的装置,其中,所述传感器还包括激光雷达,所述获取单元,具体用于:
基于所述激光雷达所输出的障碍物检测数据,利用预设的目标跟踪算法,获得所述激光雷达的3D检测框信息;
基于所述激光雷达所输出的障碍物检测数据中的可行驶空间数据,对所述激光雷达的3D检测框信息进行修正处理,以生成修正后的所述激光雷达的3D检测框信息。
22.根据权利要求21所述的装置,其中,所述获取单元,具体用于:
基于所述激光雷达所输出的障碍物检测数据,获得所述激光雷达的3D检测框的中心点;
利用基于卡尔曼滤波的目标跟踪算法,对所述激光雷达的3D检测框的中心点进行跟踪处理,以生成所述激光雷达的3D检测框信息。
23.根据权利要求14-22中任一项所述的装置,其中,所述匹配单元,具体用于:
基于所述3D检测框信息中的障碍物类别,利用预设的相似匹配算法,对所述3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
24.根据权利要求23所述的装置,其中,所述匹配单元,还用于:
基于所述3D检测框信息中的障碍物类别,利用马氏距离关联算法,对相邻两个数据帧的所述3D检测框信息进行相似度计算处理;
基于所述相似度计算处理的结果,利用最近邻匹配算法,对所述相邻两个数据帧的3D检测框信息进行匹配处理,以获得每个所述障碍物类别的匹配结果。
25.根据权利要求14-24中任一项所述的装置,其中,所述融合单元,具体用于:
确定每个所述障碍物类别对应的融合模型;
利用每个所述障碍物类别对应的融合模型,分别对每个所述障碍物类别的匹配结果进行融合处理,以获得融合后的障碍物感知信息。
26.根据权利要求25所述的装置,其中,所述融合模型包括恒定位置融合模型、恒定速度融合模型、以及恒定转弯率和速度融合模型中的至少一个。
27.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行根据权利要求1-13中任一项所述的方法。
28.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-13中任一项所述的方法。
29.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-13中任一项所述的方法。
30.一种自动驾驶车辆,包括如权利要求27所述的电子设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310144138.8A CN116310674A (zh) | 2023-02-21 | 2023-02-21 | 数据融合的方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310144138.8A CN116310674A (zh) | 2023-02-21 | 2023-02-21 | 数据融合的方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116310674A true CN116310674A (zh) | 2023-06-23 |
Family
ID=86835242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310144138.8A Pending CN116310674A (zh) | 2023-02-21 | 2023-02-21 | 数据融合的方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116310674A (zh) |
-
2023
- 2023-02-21 CN CN202310144138.8A patent/CN116310674A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3627180B1 (en) | Sensor calibration method and device, computer device, medium, and vehicle | |
Zhe et al. | Inter-vehicle distance estimation method based on monocular vision using 3D detection | |
CN113264066B (zh) | 障碍物轨迹预测方法、装置、自动驾驶车辆及路侧设备 | |
Wu et al. | Regional feature fusion for on-road detection of objects using camera and 3D-LiDAR in high-speed autonomous vehicles | |
CN111324115B (zh) | 障碍物位置检测融合方法、装置、电子设备和存储介质 | |
CN113221677B (zh) | 一种轨迹异常检测方法、装置、路侧设备和云控平台 | |
EP3350746A1 (en) | Systems and methods for non-obstacle area detection | |
US20220156483A1 (en) | Efficient three-dimensional object detection from point clouds | |
CN110794844B (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
CN115147809B (zh) | 一种障碍物检测方法、装置、设备以及存储介质 | |
WO2021097087A1 (en) | Generating depth from camera images and known depth data using neural networks | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
CN113587937A (zh) | 车辆的定位方法、装置、电子设备和存储介质 | |
CN116469073A (zh) | 目标识别方法、装置、电子设备、介质及自动驾驶车辆 | |
Dinesh Kumar et al. | Stereo camera and LIDAR sensor fusion-based collision warning system for autonomous vehicles | |
CN117407694B (zh) | 多模态信息的处理方法、装置、设备及存储介质 | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
JP7425169B2 (ja) | 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN116310674A (zh) | 数据融合的方法、装置、电子设备及存储介质 | |
CN113516013B (zh) | 目标检测方法、装置、电子设备、路侧设备和云控平台 | |
Qiu et al. | Machine vision-based autonomous road hazard avoidance system for self-driving vehicles | |
CN116758385A (zh) | 三维目标检测方法、装置、设备和存储介质 | |
CN114077689A (zh) | 路网节点模型构建方法、装置、存储介质和计算机设备 | |
CN117726801A (zh) | 目标检测方法、目标检测模型的训练方法及装置 | |
CN116311142A (zh) | 多传感器障碍物类别融合的方法、设备及自动驾驶车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |