CN114419564B - 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 - Google Patents
车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 Download PDFInfo
- Publication number
- CN114419564B CN114419564B CN202111597461.8A CN202111597461A CN114419564B CN 114419564 B CN114419564 B CN 114419564B CN 202111597461 A CN202111597461 A CN 202111597461A CN 114419564 B CN114419564 B CN 114419564B
- Authority
- CN
- China
- Prior art keywords
- determining
- image
- vehicle
- information
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000012545 processing Methods 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 abstract description 12
- 238000013473 artificial intelligence Methods 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 14
- 238000012937 correction Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 230000011218 segmentation Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003924 mental process Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本公开提供了一种车辆位姿检测方法、装置、设备、介质及自动驾驶车辆,涉及计算机技术领域,尤其涉及自动驾驶、深度学习等人工智能技术领域。具体实现方案为:获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,再根据定位数据和雷达数据,确定场景图像的深度信息,并根据场景图像和深度信息,确定摄像装置的相机位姿信息,以及根据相机位姿信息,确定车辆的目标位姿,由于是结合车辆的摄像装置获取车辆的场景图像和雷达数据,确定车辆的目标位姿,实现联合图像数据描述的深度信息和雷达数据共同确定车辆的目标位姿,有效地提升车辆位姿检测的准确性,有效地提升车辆位姿检测的鲁棒性和适用性。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及自动驾驶、深度学习等人工智能技术领域,具体涉及一种车辆位姿检测方法、装置、设备、介质及自动驾驶车辆。
背景技术
人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,既有硬件层面的技术也有软件层面的技术。人工智能硬件技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理等技术;人工智能软件技术主要包括计算机视觉技术、语音识别技术、自然语言处理技术,以及机器学习、深度学习、大数据处理技术、知识图谱技术等几大方向。
相关技术中,通常直接将车辆的多种传感器的探测数据作为位姿滤波器的输入,采用位姿滤波器输出的车辆位姿辅助对车辆进行驾驶控制。
发明内容
本公开提供了一种车辆位姿检测方法、装置、设备、介质、自动驾驶车辆以及计算机程序产品。
根据本公开的第一方面,提供了一种车辆位姿检测方法,包括:获取车辆的场景图像,其中,所述场景图像由所述车辆的摄像装置捕获;确定所述车辆的定位数据和雷达数据;根据所述定位数据和所述雷达数据,确定所述场景图像的深度信息;根据所述场景图像和所述深度信息,确定所述摄像装置的相机位姿信息;根据所述相机位姿信息,确定所述车辆的目标位姿。
根据本公开的第二方面,提供了一种车辆位姿检测装置,包括:获取模块,用于获取车辆的场景图像,其中,所述场景图像由所述车辆的摄像装置捕获;第一确定模块,用于确定所述车辆的定位数据和雷达数据;第二确定模块,用于根据所述定位数据和所述雷达数据,确定所述场景图像的深度信息;第三确定模块,用于根据所述场景图像和所述深度信息,确定所述摄像装置的相机位姿信息;第四确定模块,用于根据所述相机位姿信息,确定所述车辆的目标位姿。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面的车辆位姿检测方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面的车辆位姿检测方法。
根据本公开的第五方面,提供了一种自动驾驶车辆,包括:如本公开第三方面的电子设备。
根据本公开的第六方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面的车辆位姿检测方法的步骤。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是根据本公开第三实施例的示意图;
图4是根据本公开第四实施例的示意图;
图5是根据本公开第五实施例的示意图;
图6是根据本公开实施例的自动驾驶车辆的示意图;
图7示出了用来实施本公开实施例的车辆位姿检测方法的示例电子设备的示意性框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本公开第一实施例的示意图。
其中,需要说明的是,本实施例的车辆位姿检测方法的执行主体为车辆位姿检测装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本公开实施例涉及自动驾驶、深度学习等人工智能技术领域。
其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
自动驾驶,是指利用雷达、激光、超声波、全球定位系统(GlobalPosition System,GPS)、里程计、计算机视觉等多种技术来感知其周边环境,通过先进的计算和控制系统,来识别障碍物和各种标识牌,规划合适的路径来控制车辆行驶的技术。
本公开实施例中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理方式,其过程均符合相关法律法规的规定,且不违背公序良俗。
如图1所示,该车辆位姿检测方法,包括:
S101:获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获。
其中,在车辆行驶过程中,针对车辆所处场景捕获得到的图像即可以被称为车辆的场景图像,该场景图像可以具体例如为车辆所处场景的障碍物图像,车辆所处场景的道路图像,车辆所处场景的行人图像等,对此不做限制。
其中,车辆的场景图像可以是一张或者多张,对此不做限制。
一些实施例中,获取车辆所处场景的图像,可以是获取车辆所处场景的视频流,而后可以对车辆所处场景的视频流进行解析处理,以得到多张视频帧图像,而后可以从前述多张视频帧图像中确定出车辆的场景图像,或者,获取车辆的场景图像,还可以是针对车辆预先配置相应的投射装置,而后经由该投射装置向车辆所处场景投射投影图案,再经由车辆的摄像装置捕获该投射图案,并将该投射图案作为车辆的场景图像,当然,也可以采用其他任意可能的方式,获取车辆场景图像,对此不做限制。
本公开实施例中,可以针对车辆预先配置一个或者多个摄像装置,而后经由多个摄像装置,在车辆行驶过程中针对车辆所处的环境,捕获车辆的场景图像,而后,可以基于车辆所处场景的图像,执行后续的车辆位姿检测方法,具体可以参见后续实施例。
S102:确定车辆的定位数据和雷达数据。
其中,在车辆位姿检测方法执行过程中,经由激光雷达针对车辆所处场景采集得到的数据,即可以被称为雷达数据,而雷达数据可以具体例如为,针对车辆所处场景采集得到的障碍物的点云数据,车道线的点云数据,交通标志的点云数据等,对此不做限制。
需要说明的是,该激光雷达可以是配置于车辆所处场景中的,或者,该激光雷达也可以和车辆集成配置,对此不做限制。
本公开实施例中,确定车辆的雷达数据,可以是针对车辆预先搭载相应的激光雷达,而后经由激光雷达采集车辆所处场景的点云数据,并将该点云数据作为车辆的雷达数据,或者,也可以采用其他任意可能的方式,确定车辆的雷达数据,对此不做限制。
其中,在车辆位姿检测方法执行过程中,用于对车辆进行定位的数据,即可以被称为车辆的定位数据,而车辆的定位数据可以具体例如为车辆的全球定位系统(GlobalPositioning System,GPS)数据,车辆在高精度地图中相应的位置数据等,对此不做限制。
也即是说,本公开实施例中,确定车辆的定位数据,可以是针对车辆预先搭载相应的定位设备(例如:车载GPS定位设备,对此不做限制),而后可以基于该定位设备,对车辆进行定位,以获取车辆的定位数据,或者,还可以是根据车辆的场景图像,以及车辆所处场景的高精度地图,确定车辆的在高精度地图中相应的位置数据,并将该位置数据作为车辆的定位数据,对此不做限制。
S103:根据定位数据和雷达数据,确定场景图像的深度信息。
本公开实施例在确定车辆的定位数据和雷达数据后,可以根据定位数据和雷达数据,确定场景图像的深度信息。
其中,用于对场景图像的深度进行描述的信息,即可以被称为深度信息,而深度信息可以具体例如是场景图像中障碍物的深度图像,场景图像中深度值等,对此不做限制。
一些实施例中,根据定位数据和雷达数据,确定场景图像的深度信息,可以是结合定位数据,对雷达数据进行标定矫正处理,以获取雷达数据中点云数据的三维坐标,而后基于点云数据的三维坐标,确定场景图像的深度信息,或者,也可以采用其他任意可能的方式,实现根据定位数据和雷达数据,确定场景图像的深度信息,例如,模型解析的方式,深度卷积的方式等,对此不做限制。
S104:根据场景图像和深度信息,确定摄像装置的相机位姿信息。
本公开实施例,在获取车辆的场景图像和场景图像的深度信息后,可以确定摄像装置的位姿信息。
其中,用于对摄像装置的相机位姿进行描述的信息即可以被称为相机位姿信息,而相机位姿信息可以具体例如为,车辆的摄像装置在不同时间点上的相机位姿之间的对应关系,车辆的不同摄像装置在相同时间点上的相机位姿之间的对应关系等,对此不做限制。
一些实施例中,根据场景图像和深度信息,确定摄像装置的相机位姿信息,可以是确定与场景图像对应的深度信息,并确定摄像装置在捕获场景图像时的位姿信息,而后基于场景图像,摄像装置在捕获场景图像时的位姿信息,和摄像装置的内参,确定与摄像装置对应的相机位姿矫正系数(该相机位姿矫正系数可以用于对摄像装置的相机位姿信息进行矫正处理),而后基于相机位姿矫正系数,对摄像装置的相机位姿信息进行矫正处理,以确定摄像装置的相机位姿信息。
另一些实施例中,根据场景图像和深度信息,确定摄像装置的相机位姿信息,还可以是基于场景图像进行稀疏点重建处理,得到场景图像的三维点云数据,将深度信息与三维点云数据进行匹配,得到激光雷达与摄像装置之间的位姿标定信息,并基于所摄像装置之间的位姿标定信息(该位姿标定信息可以用于对摄像装置的相机位姿信息进行标定处理),对摄像装置的相机位姿信息进行标定,以确定摄像装置的相机位姿信息,或者,也可以采用其他任意可能的方式,实现根据场景图像和深度信息,确定摄像装置的相机位姿信息,对此不做限制。
S105:根据相机位姿信息,确定车辆的目标位姿。
本公开实施例在根据场景图像和深度信息,确定摄像装置的相机位姿信息后,可以根据相机位姿信息,对车辆进行位姿检测,以确定车辆的目标位姿。
一些实施例中,根据相机位姿信息,确定车辆的目标位姿,可以是根据相机位姿信息,生成相应的位姿矫正系数(该位姿矫正系数可以用于对车辆进行位姿矫正),而后可以基于前述位姿矫正信息,对车辆进行位姿矫正处理,并将前述进行位姿矫正处理得到的车辆位姿作为车辆的目标位姿。
另一些实施例中,还可以结合预训练的位姿检测模型(该位姿检测模型可以是人工智能模型,具体例如为深度学习模型或者神经网络模型,或者,也可以是其他任意可能执行位姿检测任务的模型,对此不做限制),实现根据相机位姿信息,确定车辆的目标位姿,即可以将相机位姿信息作为预训练的位姿检测模型的输入,以得到预训练的位姿检测模型输出的车辆的目标位姿。
或者,也可以采用其他任意可能的方式,实现根据相机位姿信息,确定车辆的目标位姿,对此不做限制。
本实施例中,通过获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,再根据定位数据和雷达数据,确定场景图像的深度信息,并根据场景图像和深度信息,确定摄像装置的相机位姿信息,以及根据相机位姿信息,确定车辆的目标位姿,由于是结合车辆的摄像装置获取车辆的场景图像和雷达数据,确定车辆的目标位姿,实现联合图像数据描述的深度信息和雷达数据共同确定车辆的目标位姿,有效地提升车辆位姿检测的准确性,有效地提升车辆位姿检测的鲁棒性和适用性。
图2是根据本公开第二实施例的示意图。
如图2所示,该车辆位姿检测方法,包括:
S201:获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获。
S202:确定车辆的定位数据和雷达数据。
S201-S202的描述说明可以具体参见上述实施例,在此不再赘述。
S203:根据定位数据和雷达数据,确定第一图像中目标物体的第一深度信息。
其中,车辆的摄像装置在不同时间点捕获得到的相邻帧场景图像可以包括第一图像和第二图像,第一图像可以具体例如是相邻帧场景图像中的前一帧图像,第二图像可以具体例如是相邻帧图像中的后一帧图像,对此不做限制。
其中,相邻帧场景图像可以用于对车辆所处场景进行描述,车辆所处场景中可以具有多个物体,多个物体中用于辅助执行车辆位姿检测的物体,即可以被称为目标物体,而目标物体可以具体例如为:障碍物,交通标志,车道线等,对此不做限制。
其中,用于对第一图像中的目标物体进行描述的深度信息即可以被称为第一深度信息。
一些实施例中,根据定位数据和雷达数据,确定第一图像中目标物体的第一深度信息,可以是结合定位数据,对雷达数据进行标定矫正处理,以获取雷达数据中点云数据的三维坐标,而后基于点云数据的三维坐标,确定第一图像中目标物体的第一深度信息,或者,也可以采用其他任意可能的方式,实现根据定位数据和雷达数据,确定第一图像中目标物体的第一深度信息,例如,模型解析的方式,深度卷积的方式等,对此不做限制。
可选地,另一些实施例中,根据定位数据和雷达数据,确定第一图像中目标物体的第一深度信息,可以是确定第一图像中目标物体的第一像素点集合,并根据定位数据,形成与第一像素点集合对应的第一点云数据,再根据雷达数据,确定第一像素点与相应第一激光点之间的第一匹配关系,以及根据第一匹配关系,确定第一图像中目标物体的第一深度信息,由于是根据第一图像中目标物体的第一像素点集合,和对应第一点云数据的第一激光点的第一匹配关系,从而能够实现准确地确定出第一图像中目标物体的第一深度信息,同时,由于是参考第一像素点集合和第一激光点即可确定出第一图像中目标物体的第一深度信息,从而能够在第一深度信息确定过程中,避免引入其他复杂的计算模型,在有效地保障第一深度信息确定准确性的同时,还能够有效提升第一深度信息确定的便捷性,从而能够有效地提升第一深度信息的确定效率。
其中,第一图像中的目标物体可以是由多个像素点构成,多个像素点可以组成相应的像素点集合,该像素点集合即可以被称为第一像素点集合。
本公开实施例中,车辆的摄像装置在不同时间点捕获得到的相邻帧图像,可以具有对应的由激光雷达捕获的点云数据,也即是说,相邻帧图像和点云数据之间可以具有相应的匹配关系,该匹配关系可以是相邻帧图像的像素点与激光之间的匹配关系,具体可以例如是像素点坐标与激光点坐标之间的匹配关系。
本公开实施例中,可以把与相邻帧图像中第一图像的第一像素点集合对应的点云数据作为第一点云数据,相应地,可以把与相邻帧图像中第二图像的第二像素点集合对应的点云数据作为第二点云数据,对此不做限制。
其中,第一点云数据中可以包括多个激光点,该激光点即可以被称为第一激光点,多个第一激光点构成第一点云数据。
其中,相邻帧图像中第一图像的第一像素点集合与第一激光点之间的匹配关系,即可以被称为第一匹配关系,该第一匹配关系可以具体例如为第一像素点坐标和第一激光点坐标之间的匹配关系,对此不做限制。
本公开实施例中,确定第一图像中目标物体的第一像素点集合,可以是采用深度学习分割的方式对第一图像进行深度学习分割处理,以得到目标物体在第一图像中所占用的第一像素点集合,对此不做限制。
本公开实施例在确定第一图像中目标物体的第一像素点集合后,可以根据定位数据,形成与第一像素点集合对应的第一点云数据。
举例而言,根据定位数据,形成与第一像素点集合对应的第一点云数据,可以是对于第一图像,确定与第一图像对应的点云数据,而后根据定位数据,将点云数据转换为第一图像采集时刻的坐标,以获得与第一图像采集时刻相同的点云数据,而后可以对前述确定的与第一图像采集时刻相同的点云数进行深度学习分割处理,以从前述点云数据中获取与第一像素点集合对应的第一点云数据,对此不做限制。
本公开实施例在确定与第一像素点集合对应的第一点云数据后,可以根据雷达数据,确定第一像素点与相应第一激光点之间的第一匹配关系,以及根据第一匹配关系,确定第一图像中目标物体的第一深度信息。
一些实施例中。确定第一像素点与相应第一激光点之间的第一匹配关系,并确定第一像素点坐标和第一激光点坐标之间的坐标转换关系,再结合相机和激光雷达的内参矩阵,外参矩阵,将激光点的三维坐标投影至第一图像上,由此即可确定激光点与第一像素点之间的坐标匹配关系,并将该坐标匹配关系作为第一匹配关系,对此不做限制。
本公开实施例在确定第一像素点与激光点之间的第一匹配关系后,可以根据第一匹配关系,确定与第一图像中目标物体的第一像素点集合对应的激光点,而后可以根据前述确定的激光点的三维坐标,确定第一图像中目标物体的第一深度信息。
S204:根据定位数据和雷达数据,确定第二图像中目标物体的第二深度信息,其中,第一深度信息和第二深度信息被共同作为场景图像的深度信息。
其中,用于对第二图像中的目标物体进行描述的深度信息即可以被称为第二深度信息。
一些实施例中,根据定位数据和雷达数据,确定第二图像中目标物体的第二深度信息,可以是结合定位数据,对雷达数据进行标定矫正处理,以获取雷达数据中点云数据的三维坐标,而后基于点云数据的三维坐标,确定第二图像中目标物体的第二深度信息,或者,也可以采用其他任意可能的方式,实现根据定位数据和雷达数据,确定第二图像中目标物体的第二深度信息,例如,模型解析的方式,深度卷积的方式等,对此不做限制。
本公开实施例中,由于是结合定位数据和雷达数据,确定第一图像的第一深度信息,并确定第二图像的第二深度信息,能够实现联合定位数据和雷达数据对第一深度信息和第二深度信息进行解析识别,有效地提升第一深度信息和第二深度信息的准确性,在将第一深度信息和第二深度信息共同作为场景图像的深度信息时,有效地提升场景图像的深度信息的全面性和可参考性。
可选地,另一些实施例中,根据定位数据和雷达数据,确定第二图像中目标物体的第二深度信息,可以是确定第二图像中目标物体的第二像素点集合,并根据定位数据,形成与第二像素点集合对应的第二点云数据,再根据雷达数据,确定第二像素点与相应第二激光点之间的第二匹配关系,以及根据第二匹配关系,确定第二图像中目标物体的第二深度信息,从而能够实现准确地确定出第二图像中目标物体的第二深度信息,同时,由于是参考第二像素点集合和第二激光点即可确定出第二图像中目标物体的第二深度信息,从而能够在第二深度信息确定过程中,避免引入其他复杂的计算模型,在有效地保障第二深度信息确定准确性的同时,还能够有效提升第二深度信息确定的便捷性,从而能够有效地提升第二深度信息的确定效率。
其中,第二点云数据中可以包括多个激光点,该激光点即可以被称为第二激光点,多个第二激光点构成第二点云数据。
其中,相邻帧图像中第二图像的第二像素点集合与第二激光点之间的匹配关系,即可以被称为第二匹配关系,该第二匹配关系可以具体例如为第二像素点坐标和第二激光点坐标之间的匹配关系,对此不做限制。
本公开实施例中,确定第二图像中目标物体的第二像素点集合,可以是采用深度学习分割的方式对第二图像进行深度学习分割处理,以得到目标物体在第二图像中所占用的第二像素点集合,对此不做限制。
本公开实施例在确定第二图像中目标物体的第二像素点集合后,可以根据定位数据,形成与第二像素点集合对应的第二点云数据。
举例而言,根据定位数据,形成与二像素点集合对应的第二点云数据,可以是对于第二图像,确定与第二图像对应的点云数据,而后根据定位数据,将点云数据转换为第二图像采集时刻的坐标,以获得与第二图像采集时刻相同的点云数据,而后可以对前述确定的与第二图像采集时刻相同的点云数进行深度学习分割处理,以从前述点云数据中获取与第二像素点集合对应的第二点云数据,对此不做限制。
本公开实施例在确定与第二像素点集合对应的第二点云数据后,可以根据雷达数据,确定第二像素点与相应第二激光点之间的第二匹配关系,以及根据第二匹配关系,确定第二图像中目标物体的第二深度信息。
一些实施例中。确定第二像素点与相应第二激光点之间的第二匹配关系,并确定第二像素点坐标和第二激光点坐标之间的坐标转换关系,再结合相机和激光雷达的内参矩阵,外参矩阵,将激光点的三维坐标投影至第二图像上,由此即可确定激光点与第二像素点之间的坐标匹配关系,并将该坐标匹配关系作为第二匹配关系,对此不做限制。
本公开实施例在确定第二像素点与激光点之间的第二匹配关系后,可以根据第二匹配关系,确定与第二图像中目标物体的第二像素点集合对应的激光点,而后可以根据前述确定的激光点的三维坐标,确定第二图像中目标物体的第二深度信息,而后可以结合第一深度信息和第二深度信息,执行后续的车辆位姿检测方法,具体可以参见后续实施例。
S205:确定第一图像中目标物体的第一边缘特征点的第一描述信息。
其中,图像的边缘是指图像局部灰度变化最显著的区域,该区域可以具有相应的多个特征点,该特征点即可以被称为边缘特征点。
其中,第一图像中目标物体的图像的边缘区域对应的特征点,即可以被称为第一边缘特征点。
其中,用于对第一图像中目标物体的第一边缘特征点进行描述的信息,即可以被称为第一描述信息,第一边缘描述信息可以具体例如为第一边缘特征点的特征描述子,对此不做限制。
其中,边缘特征点的特征描述子可以用于描述边缘特征点的局部表现。
本公开实施例中,确定第一图像中目标物体的第一边缘特征点的第一描述信息,可以是采用边缘特征点提取算法(例如:梯度算法,对此不做限制),确定第一图像中目标物体的第一边缘特征点,而后可以采用算子(例如:高斯拉普拉斯算子(Laplacian ofGaussian,LOG))对第一边缘特征点进行求解,以确定第一边缘特征点的特征描述子,并把前述确定的第一边缘特征点的特征描述子作为第一边缘特征点的第一描述信息,对此不做限制。
S206:确定第二图像中目标物体的第二边缘特征点的第二描述信息。
其中,第二图像中目标物体的图像的边缘区域对应的特征点,即可以被称为第二边缘特征点。
其中,用于对第二图像中目标物体的第二边缘特征点进行描述的信息,即可以被称为第二描述信息,第二边缘描述信息可以具体例如为第二边缘特征点的特征描述子,对此不做限制。
本公开实施例中,确定第二图像中目标物体的第二边缘特征点的第二描述信息,可以是采用边缘特征点提取算法(例如:梯度算法,对此不做限制),确定第二图像中目标物体的第二边缘特征点,而后可以采用算子(例如:高斯拉普拉斯算子(Laplacian ofGaussian,LOG))对第二边缘特征点进行求解,以确定第二边缘特征点的特征描述子,并把前述确定的第二边缘特征点的特征描述子作为第二边缘特征点的第二描述信息,对此不做限制。
S207:根据第一描述信息、第二描述信息、第一深度信息,以及第二深度信息确定相机位姿信息。
其中,相机位姿信息,可以是摄像装置在不同时间点上的相机位姿之间的对应关系,对此不做限制。
本公开实施例中,由于是根据第一图像中目标物体的第一边缘特征点的第一描述信息,和第二图像中目标物体的第二边缘特征点的第二描述信息,第一深度信息,以及第二深度信息确定相机位姿信息,由于边缘特征点可以用于表征图像中目标物体的边缘特征,同时由于边缘特征点具有不变性,不会受到关系变换和其他外界因素的干扰,当参考图像中目标物体的边缘特征的描述信息辅助确定相机位姿信息时,能够避免图像中的噪声像素对相机位姿信息的确定带来的噪音干扰,有效地提升相机位姿信息的准确性。
可选地,一些实施例中,根据第一描述信息、第二描述信息、第一深度信息,以及第二深度信息确定相机位姿信息,可以是根据第一描述信息和第二描述信息,确定第一边缘特征点和第二边缘特征点之间的点对应关系,并采用透视图N点算法(Pespective NPoint,PNP)对点对应关系、第一深度信息,以及第二深度信息进行运算处理,以得到相机位姿信息,由于是结合第一边缘特征点和第二边缘特征点之间的点对应关系,而一边缘特征点和第二边缘特征点之间的点对应关系可以用于表征相邻帧图像的边缘特征点的变化情况,从而能够在基于点对应关系,第一深度信息和第二深度信息确定相机位姿信息时,能够基于相邻帧图像的边缘特征点的变化情况,对相机位姿信息的变化情况进行充分抓取,进而能够有效地提升相机位姿信息的准确性。
其中,第一边缘特征点和第二边缘特征点之间可以具有相应的对应关系,该对应关系即可以被称为点对应关系,该点对应关系可以具体例如为第一边缘特征点和第二边缘特征点之间的匹配关系,对此不做限制。
本公开实施例在确定第一边缘特征点的第一描述信息,和第二边缘特征点的第二描述信息后,可以确定第一描述信息和第二描述信息之间的相似度,并把前述确定的相似度作为第一边缘特征点和第二边缘特征点的点对应关系,对此不做限制。
也即是说,本公开实施例中,在确定第一边缘特征点和第二边缘特征点之间的点对应关系,第一深度信息以及第二深度信息后,可以采用PNP算法对第一描述信息、第二描述信息,第一深度信息以及第二深度信息进行求解,以确定相机位姿信息。
S208:根据相机位姿信息,确定车辆的目标位姿。
S208的描述说明可以具体参见上述实施例,在此不再赘述。
本实施例中,通过获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,由于是结合定位数据和雷达数据,确定第一图像的第一深度信息,并确定第二图像的第二深度信息,能够实现联合定位数据和雷达数据对第一深度信息和第二深度信息进行解析识别,有效地提升第一深度信息和第二深度信息的准确性,在将第一深度信息和第二深度信息共同作为场景图像的深度信息时,有效地提升场景图像的深度信息的全面性和可参考性,再确定第一图像中目标物体的第一边缘特征点的第一描述信息,并确定第二图像中目标物体的第二边缘特征点的第二描述信息,再根据第一描述信息、第二描述信息、第一深度信息,以及第二深度信息确定相机位姿信息,当参考图像中目标物体的边缘特征的描述信息辅助确定相机位姿信息时,能够避免图像中的噪声像素对相机位姿信息的确定带来的噪音干扰,有效地提升相机位姿信息的准确性,而后根据相机位姿信息,确定车辆的目标位姿,有效地提升车辆位姿检测的准确性。
图3是根据本公开第三实施例的示意图。
如图3所示,该车辆位姿检测方法,包括:
S301:获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获。
S302:确定车辆的定位数据和雷达数据。
S303:根据定位数据和雷达数据,确定场景图像的深度信息。
S304:根据场景图像和深度信息,确定摄像装置的相机位姿信息。
S301-S304的描述说明可以具体参见上述实施例,在此不再赘述。
S305:确定车辆的初始位姿。
其中,在车辆位姿检测方法执行的初始阶段,所确定的车辆的位姿,即可以被称为车辆的初始位姿。
一些实施例中,确定车辆的初始位姿,可以是针对车辆预先搭载相应的惯性测量单元(Inertial Measurement Unit,IMU),而后通过IMU采集车辆当前的位姿,并将该位姿作为车辆的初始位姿,或者,确定车辆的初始位姿,还可以是对场景图像进行解析处理,以从车辆的场景图像中解析得到车辆当前时刻的位姿,并将该位姿作为车辆的初始位姿。
当然,也可以采用其他任意可能的方式,确定车辆的初始位姿,对此不做限制。
可选地,一些实施例中,确定车辆的初始位姿,可以是基于场景图像对目标物体进行定位,得到第一定位结果,并基于定位数据对目标物体进行定位,得到第二定位结果,并基于雷达数据对目标物体进行定位,得到第三定位结果,再将第一定位结果、第二定位结果,以及第三定位结果输入至车辆中的位姿滤波器之中,以得到位姿滤波器输出的初始位姿,由于是结合定位数据,场景图像数据以及雷达数据共同确定车辆的初始位姿,从而能够充分发挥各个传感器数据的优势,有效地避免因数据单一对位姿确定所产生的影响,进而能够有效地提升初始位姿的准确性,进而能够为后续的车辆位姿检测方法的执行提供较优的位姿基础,从而能够有效地辅助位姿检测方法的执行。
本公开实施例中,可以基于场景图像对目标物体进行定位,以得到相应的定位结果,该定位结果即可以被称为第一定位结果。
本公开实施例中,可以基于定位数据对目标物体进行定位,以得到相应的定位结果,该定位结果即可以被称为第二定位结果。
本公开实施例中,可以基于雷达数据对目标物体进行定位,以得到相应的定位结果,该定位结果即可以被称为第三定位结果。
也即是说,本公开实施例中,可以对车辆的摄像装置所捕获的场景图像进行解析处理,以获取目标物体的第一定位结果,并基于定位数据对目标物体进行定位,以获取目标物体的第二定位结果,再对激光雷达所捕获的雷达数据进行解析处理,以获取目标物体的第三定位结果,而后可以将前述确定的第一定位结果,第二定位结果,以及第三定位结果输入至车辆的位姿滤波器中,以得到车辆位姿滤波器输出的车辆的初始位姿,从而触发后续步骤。
S306:根据相机位姿信息对初始位姿进行调整处理,以得到目标位姿。
本公开实施例在确定相机位姿信息后,可以根据相机位姿信息,结合位姿滤波器对前述确定的车辆的初始位姿进行调整处理,以得到目标位姿,由于相机位姿信息是结合场景图像和雷达数据共同确定的,从而使得相机位姿信息能够充分的表征雷达数据的深度信息和场景图像的特征信息,进而在基于相机位姿信息对初始位姿进行调整处理,以得到目标位姿时,能够有效地提升目标位姿的表征准确性,另外,由于是参考相机位姿信息对初始位姿进行调整处理,实现直接对初始位姿进行优化调整得到目标位姿,从而能够有效提升目标位姿的确定效率。
举例而言,可以将相机位姿信息输入至位姿滤波器中,以得到位姿滤波器输出的目标位姿,而后可以将车辆的初始位姿,调整为目标位姿,由此可以实现车辆的位姿校正,有效地提升车辆位姿的准确性。
本实施例中,通过获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,再根据定位数据和雷达数据,确定场景图像的深度信息,并根据场景图像和深度信息,确定摄像装置的相机位姿信息,在确定相机位姿信息后,可以根据相机位姿信息,结合位姿滤波器对前述确定的车辆的初始位姿进行调整处理,以得到目标位姿,由于相机位姿信息是结合场景图像和雷达数据共同确定的,从而使得相机位姿信息能够充分的表征雷达数据的深度信息和场景图像的特征信息,进而在基于相机位姿信息对初始位姿进行调整处理,以得到目标位姿时,能够有效地提升目标位姿的表征准确性,另外,由于是参考相机位姿信息对初始位姿进行调整处理,实现直接对初始位姿进行优化调整得到目标位姿,从而能够有效提升目标位姿的确定效率。
图4是根据本公开第四实施例的示意图。
如图4所示,该车辆位姿检测装置40,包括:
获取模块401,用于获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获;
第一确定模块402,用于确定车辆的定位数据和雷达数据;
第二确定模块403,用于根据定位数据和雷达数据,确定场景图像的深度信息;
第三确定模块404,用于根据场景图像和深度信息,确定摄像装置的相机位姿信息;
第四确定模块405,用于根据相机位姿信息,确定车辆的目标位姿。
在本公开的一些实施例中,如图5所示,图5是根据本公开第五实施例的示意图,该车辆位姿检测装置50,包括:获取模块501、第一确定模块502、第二确定模块503、第三确定模块504、第四确定模块505,其中,第二确定模块503,包括:
第一确定子模块5031,用于根据定位数据和雷达数据,确定第一图像中目标物体的第一深度信息;
第二确定子模块5032,用于根据定位数据和雷达数据,确定第二图像中目标物体的第二深度信息,其中,第一深度信息和第二深度信息被共同作为场景图像的深度信息。
在本公开的一些实施例中,其中,第三确定模块504,包括:
第三确定子模块5041,用于确定第一图像中目标物体的第一边缘特征点的第一描述信息;
第四确定子模块5042,用于确定第二图像中目标物体的第二边缘特征点的第二描述信息;
第五确定子模块5043,用于根据第一描述信息、第二描述信息、第一深度信息,以及第二深度信息确定相机位姿信息,其中,相机位姿信息,是摄像装置在不同时间点上的相机位姿之间的对应关系。
在本公开的一些实施例中,其中,第五确定子模块5043,具体用于:
根据第一描述信息和第二描述信息,确定第一边缘特征点和第二边缘特征点之间的点对应关系;
采用透视图N点算法对点对应关系、第一深度信息,以及第二深度信息进行运算处理,以得到相机位姿信息。
在本公开的一些实施例中,其中,第一确定子模块5031,具体用于:
确定第一图像中目标物体的第一像素点集合,其中,第一像素点集合中包括:多个第一像素点;
根据定位数据,形成与第一像素点集合对应的第一点云数据,其中,第一点云数据中包括:多个第一激光点;
根据雷达数据,确定第一像素点与相应第一激光点之间的第一匹配关系;
根据第一匹配关系,确定第一图像中目标物体的第一深度信息。
在本公开的一些实施例中,其中,第二确定子模块5032,具体用于:
确定第二图像中目标物体的第二像素点集合,其中,第二像素点集合中包括:多个第二像素点;
根据定位数据,形成与第二像素点集合对应的第二点云数据,其中,第二点云数据中包括:多个第二激光点;
根据雷达数据,确定第二像素点与相应第二激光点之间的第二匹配关系;
根据第二匹配关系,确定第二图像中目标物体的第二深度信息。
在本公开的一些实施例中,其中,第四确定模块505,包括:
第六确定子模块5051,用于确定车辆的初始位姿;
处理子模块5052,用于根据相机位姿信息对初始位姿进行调整处理,以得到目标位姿。
在本公开的一些实施例中,其中,第六确定子模块5051,具体用于:
基于场景图像对目标物体进行定位,得到第一定位结果;
基于定位数据对目标物体进行定位,得到第二定位结果;
基于雷达数据对目标物体进行定位,得到第三定位结果;
将第一定位结果、第二定位结果,以及第三定位结果输入至车辆中的位姿滤波器之中,以得到位姿滤波器输出的初始位姿。
可以理解的是,本实施例附图5中的车辆位姿检测装置50与上述实施例中的车辆位姿检测装置40,获取模块501与上述实施例中的获取模块401,第一确定模块502与上述实施例中的第一确定模块402,第二确定模块503与上述实施例中的第二确定模块403,第三确定模块504与上述实施例中的第三确定模块404,第四确定模块505与上述实施例中的第四确定模块405,可以具有相同的功能和结构。
需要说明的是,前述对车辆位姿检测方法的解释说明也适用于本实施例的车辆位姿检测装置。
本实施例中,通过获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,再根据定位数据和雷达数据,确定场景图像的深度信息,并根据场景图像和深度信息,确定摄像装置的相机位姿信息,以及根据相机位姿信息,确定车辆的目标位姿,由于是结合车辆的摄像装置获取车辆的场景图像和雷达数据,确定车辆的目标位姿,实现联合图像数据描述的深度信息和雷达数据共同确定车辆的目标位姿,有效地提升车辆位姿检测的准确性,有效地提升车辆位姿检测的鲁棒性和适用性。
图6是根据本公开实施例的自动驾驶车辆的示意图。
如图6所示,该自动驾驶车辆60,包括:电子设备601。
需要说明的是,前述对车辆位姿检测方法的解释说明也适用于本实施例的自动驾驶车辆。
本实施例中,通过获取车辆的场景图像,其中,场景图像由车辆的摄像装置捕获,并确定车辆的定位数据和雷达数据,再根据定位数据和雷达数据,确定场景图像的深度信息,并根据场景图像和深度信息,确定摄像装置的相机位姿信息,以及根据相机位姿信息,确定车辆的目标位姿,由于是结合车辆的摄像装置获取车辆的场景图像和雷达数据,确定车辆的目标位姿,实现联合图像数据描述的深度信息和雷达数据共同确定车辆的目标位姿,有效地提升车辆位姿检测的准确性,有效地提升车辆位姿检测的鲁棒性和适用性。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图7示出了用来实施本公开实施例的车辆位姿检测方法的示例电子设备的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图7所示,设备700包括计算单元701,其可以根据存储在只读存储器(ROM)702中的计算机程序或者从存储单元708加载到随机访问存储器(RAM)703中的计算机程序,来执行各种适当的动作和处理。在RAM 703中,还可存储设备700操作所需的各种程序和数据。计算单元701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
设备700中的多个部件连接至I/O接口705,包括:输入单元706,例如键盘、鼠标等;输出单元707,例如各种类型的显示器、扬声器等;存储单元708,例如磁盘、光盘等;以及通信单元709,例如网卡、调制解调器、无线通信收发机等。通信单元709允许设备700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元701的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元701执行上文所描述的各个方法和处理,例如车辆位姿检测方法。例如,在一些实施例中,车辆位姿检测方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元708。在一些实施例中,计算机程序的部分或者全部可以经由ROM 702和/或通信单元709而被载入和/或安装到设备700上。当计算机程序加载到RAM 703并由计算单元701执行时,可以执行上文描述的车辆位姿检测方法的一个或多个步骤。备选地,在其他实施例中,计算单元701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行车辆位姿检测方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、互联网及区块链网络。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (17)
1.一种车辆位姿检测方法,包括:
获取车辆的场景图像,其中,所述场景图像由所述车辆的摄像装置捕获;
确定所述车辆的定位数据和雷达数据;
根据所述定位数据和所述雷达数据,确定所述场景图像的深度信息;
根据所述场景图像和所述深度信息,确定所述摄像装置的相机位姿信息;
根据所述相机位姿信息,确定所述车辆的目标位姿,包括:
确定所述车辆的初始位姿;
根据所述相机位姿信息对所述初始位姿进行调整处理,以得到所述目标位姿。
2.根据权利要求1所述的方法,所述场景图像包括:第一图像和第二图像,其中,所述第一图像和所述第二图像是所述摄像装置在不同时间点捕获得到的相邻帧图像;
其中,所述根据所述定位数据和所述雷达数据,确定所述场景图像的深度信息,包括:
根据所述定位数据和所述雷达数据,确定所述第一图像中目标物体的第一深度信息;
根据所述定位数据和所述雷达数据,确定所述第二图像中所述目标物体的第二深度信息,其中,所述第一深度信息和所述第二深度信息被共同作为所述场景图像的深度信息。
3.根据权利要求2所述的方法,其中,所述根据所述场景图像和所述深度信息,确定所述摄像装置的相机位姿信息,包括:
确定所述第一图像中所述目标物体的第一边缘特征点的第一描述信息;
确定所述第二图像中所述目标物体的第二边缘特征点的第二描述信息;
根据所述第一描述信息、所述第二描述信息、所述第一深度信息,以及所述第二深度信息确定所述相机位姿信息,其中,所述相机位姿信息,是所述摄像装置在所述不同时间点上的相机位姿之间的对应关系。
4.根据权利要求3所述的方法,其中,所述根据所述第一描述信息、所述第二描述信息、所述第一深度信息,以及所述第二深度信息确定所述相机位姿信息,包括:
根据所述第一描述信息和所述第二描述信息,确定所述第一边缘特征点和所述第二边缘特征点之间的点对应关系;
采用透视图N点算法对所述点对应关系、所述第一深度信息,以及所述第二深度信息进行运算处理,以得到所述相机位姿信息。
5.根据权利要求2所述的方法,其中,所述根据所述定位数据和所述雷达数据,确定所述第一图像中目标物体的第一深度信息,包括:
确定所述第一图像中目标物体的第一像素点集合,其中,所述第一像素点集合中包括:多个第一像素点;
根据所述定位数据,形成与所述第一像素点集合对应的第一点云数据,其中,所述第一点云数据中包括:多个第一激光点;
根据所述雷达数据,确定所述第一像素点与相应所述第一激光点之间的第一匹配关系;
根据所述第一匹配关系,确定所述第一图像中目标物体的第一深度信息。
6.根据权利要求2所述的方法,其中,所述根据所述定位数据和所述雷达数据,确定所述第二图像中所述目标物体的第二深度信息,包括:
确定所述第二图像中目标物体的第二像素点集合,其中,所述第二像素点集合中包括:多个第二像素点;
根据所述定位数据,形成与所述第二像素点集合对应的第二点云数据,其中,所述第二点云数据中包括:多个第二激光点;
根据所述雷达数据,确定所述第二像素点与相应所述第二激光点之间的第二匹配关系;
根据所述第二匹配关系,确定所述第二图像中所述目标物体的第二深度信息。
7.根据权利要求2-6任意一项所述的方法,其中,所述确定所述车辆的初始位姿,包括:
基于所述场景图像对所述目标物体进行定位,得到第一定位结果;
基于所述定位数据对所述目标物体进行定位,得到第二定位结果;
基于所述雷达数据对所述目标物体进行定位,得到第三定位结果;
将所述第一定位结果、所述第二定位结果,以及所述第三定位结果输入至所述车辆中的位姿滤波器之中,以得到所述位姿滤波器输出的所述初始位姿。
8.一种车辆位姿检测装置,包括:
获取模块,用于获取车辆的场景图像,其中,所述场景图像由所述车辆的摄像装置捕获;
第一确定模块,用于确定所述车辆的定位数据和雷达数据;
第二确定模块,用于根据所述定位数据和所述雷达数据,确定所述场景图像的深度信息;
第三确定模块,用于根据所述场景图像和所述深度信息,确定所述摄像装置的相机位姿信息;
第四确定模块,用于根据所述相机位姿信息,确定所述车辆的目标位姿;
所述第四确定模块,包括:
第六确定子模块,用于确定所述车辆的初始位姿;
处理子模块,用于根据所述相机位姿信息对所述初始位姿进行调整处理,以得到所述目标位姿。
9.根据权利要求8所述的装置,所述场景图像包括:第一图像和第二图像,其中,所述第一图像和所述第二图像是所述摄像装置在不同时间点捕获得到的相邻帧图像;
其中,所述第二确定模块,包括:
第一确定子模块,用于根据所述定位数据和所述雷达数据,确定所述第一图像中目标物体的第一深度信息;
第二确定子模块,用于根据所述定位数据和所述雷达数据,确定所述第二图像中所述目标物体的第二深度信息,其中,所述第一深度信息和所述第二深度信息被共同作为所述场景图像的深度信息。
10.根据权利要求9所述的装置,其中,所述第三确定模块,包括:
第三确定子模块,用于确定所述第一图像中所述目标物体的第一边缘特征点的第一描述信息;
第四确定子模块,用于确定所述第二图像中所述目标物体的第二边缘特征点的第二描述信息;
第五确定子模块,用于根据所述第一描述信息、所述第二描述信息、所述第一深度信息,以及所述第二深度信息确定所述相机位姿信息,其中,所述相机位姿信息,是所述摄像装置在所述不同时间点上的相机位姿之间的对应关系。
11.根据权利要求10所述的装置,其中,所述第五确定子模块,具体用于:
根据所述第一描述信息和所述第二描述信息,确定所述第一边缘特征点和所述第二边缘特征点之间的点对应关系;
采用透视图N点算法对所述点对应关系、所述第一深度信息,以及所述第二深度信息进行运算处理,以得到所述相机位姿信息。
12.根据权利要求9所述的装置,其中,所述第一确定子模块,具体用于:
确定所述第一图像中目标物体的第一像素点集合,其中,所述第一像素点集合中包括:多个第一像素点;
根据所述定位数据,形成与所述第一像素点集合对应的第一点云数据,其中,所述第一点云数据中包括:多个第一激光点;
根据所述雷达数据,确定所述第一像素点与相应所述第一激光点之间的第一匹配关系;
根据所述第一匹配关系,确定所述第一图像中目标物体的第一深度信息。
13.根据权利要求9所述的装置,其中,所述第二确定子模块,具体用于:
确定所述第二图像中目标物体的第二像素点集合,其中,所述第二像素点集合中包括:多个第二像素点;
根据所述定位数据,形成与所述第二像素点集合对应的第二点云数据,其中,所述第二点云数据中包括:多个第二激光点;
根据所述雷达数据,确定所述第二像素点与相应所述第二激光点之间的第二匹配关系;
根据所述第二匹配关系,确定所述第二图像中所述目标物体的第二深度信息。
14.根据权利要求9-13任意一项所述的装置,其中,所述第六确定子模块,具体用于:
基于所述场景图像对所述目标物体进行定位,得到第一定位结果;
基于所述定位数据对所述目标物体进行定位,得到第二定位结果;
基于所述雷达数据对所述目标物体进行定位,得到第三定位结果;
将所述第一定位结果、所述第二定位结果,以及所述第三定位结果输入至所述车辆中的位姿滤波器之中,以得到所述位姿滤波器输出的所述初始位姿。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7中任一项所述的方法。
17.一种自动驾驶车辆,包括:
如权利要求15所述的电子设备。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111597461.8A CN114419564B (zh) | 2021-12-24 | 2021-12-24 | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111597461.8A CN114419564B (zh) | 2021-12-24 | 2021-12-24 | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114419564A CN114419564A (zh) | 2022-04-29 |
CN114419564B true CN114419564B (zh) | 2023-09-01 |
Family
ID=81266536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111597461.8A Active CN114419564B (zh) | 2021-12-24 | 2021-12-24 | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114419564B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115239821B (zh) * | 2022-07-15 | 2023-03-31 | 小米汽车科技有限公司 | 参数信息确定方法、装置、车辆、电子设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8306273B1 (en) * | 2009-12-28 | 2012-11-06 | Ball Aerospace & Technologies Corp. | Method and apparatus for LIDAR target identification and pose estimation |
CN109059902A (zh) * | 2018-09-07 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 相对位姿确定方法、装置、设备和介质 |
CN109297510A (zh) * | 2018-09-27 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 相对位姿标定方法、装置、设备及介质 |
CN113344981A (zh) * | 2021-06-30 | 2021-09-03 | 联想(北京)有限公司 | 位姿数据处理方法、装置及电子设备 |
CN113554698A (zh) * | 2020-04-23 | 2021-10-26 | 杭州海康威视数字技术股份有限公司 | 车辆位姿信息生成方法、装置及电子设备、存储介质 |
WO2021218123A1 (zh) * | 2020-04-28 | 2021-11-04 | 北京百度网讯科技有限公司 | 用于检测车辆位姿的方法及装置 |
CN113610702A (zh) * | 2021-08-09 | 2021-11-05 | 北京百度网讯科技有限公司 | 一种建图方法、装置、电子设备及存储介质 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
-
2021
- 2021-12-24 CN CN202111597461.8A patent/CN114419564B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8306273B1 (en) * | 2009-12-28 | 2012-11-06 | Ball Aerospace & Technologies Corp. | Method and apparatus for LIDAR target identification and pose estimation |
CN109059902A (zh) * | 2018-09-07 | 2018-12-21 | 百度在线网络技术(北京)有限公司 | 相对位姿确定方法、装置、设备和介质 |
CN109297510A (zh) * | 2018-09-27 | 2019-02-01 | 百度在线网络技术(北京)有限公司 | 相对位姿标定方法、装置、设备及介质 |
CN113554698A (zh) * | 2020-04-23 | 2021-10-26 | 杭州海康威视数字技术股份有限公司 | 车辆位姿信息生成方法、装置及电子设备、存储介质 |
WO2021218123A1 (zh) * | 2020-04-28 | 2021-11-04 | 北京百度网讯科技有限公司 | 用于检测车辆位姿的方法及装置 |
CN113625288A (zh) * | 2021-06-15 | 2021-11-09 | 中国科学院自动化研究所 | 基于点云配准的相机与激光雷达位姿标定方法和装置 |
CN113344981A (zh) * | 2021-06-30 | 2021-09-03 | 联想(北京)有限公司 | 位姿数据处理方法、装置及电子设备 |
CN113610702A (zh) * | 2021-08-09 | 2021-11-05 | 北京百度网讯科技有限公司 | 一种建图方法、装置、电子设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
结合车道线检测的智能车辆位姿估计方法;李琳辉;张溪桐;连静;周雅夫;;科学技术与工程(第21期);387-392 * |
Also Published As
Publication number | Publication date |
---|---|
CN114419564A (zh) | 2022-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113191256B (zh) | 车道线检测模型的训练方法、装置、电子设备及存储介质 | |
CN112785625B (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
EP3506161A1 (en) | Method and apparatus for recovering point cloud data | |
CN113012176B (zh) | 样本图像的处理方法、装置、电子设备及存储介质 | |
CN113674421B (zh) | 3d目标检测方法、模型训练方法、相关装置及电子设备 | |
CN111767853B (zh) | 车道线检测方法和装置 | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
CN114743178B (zh) | 道路边缘线生成方法、装置、设备及存储介质 | |
CN113859264B (zh) | 车辆控制方法、装置、电子设备及存储介质 | |
CN114972910B (zh) | 图文识别模型的训练方法、装置、电子设备及存储介质 | |
CN114332977A (zh) | 关键点检测方法、装置、电子设备及存储介质 | |
CN116052097A (zh) | 一种地图要素检测方法、装置、电子设备和存储介质 | |
CN114111813B (zh) | 高精地图元素更新方法、装置、电子设备及存储介质 | |
CN114419564B (zh) | 车辆位姿检测方法、装置、设备、介质及自动驾驶车辆 | |
CN113705380B (zh) | 雾天的目标检测方法、装置、电子设备以及存储介质 | |
CN113591569A (zh) | 障碍物检测方法、装置、电子设备以及存储介质 | |
US20230142243A1 (en) | Device environment identification method and apparatus, electronic device, and autonomous vehicle | |
CN114581890B (zh) | 确定车道线的方法、装置、电子设备和存储介质 | |
CN114429631B (zh) | 三维对象检测方法、装置、设备以及存储介质 | |
CN114241544B (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN115565072A (zh) | 一种道路垃圾识别和定位方法、装置、电子设备及介质 | |
CN113516013B (zh) | 目标检测方法、装置、电子设备、路侧设备和云控平台 | |
CN114066980A (zh) | 对象检测方法、装置、电子设备及自动驾驶车辆 | |
CN111383337A (zh) | 用于识别对象的方法和装置 | |
CN113806361B (zh) | 电子监控设备与道路的关联方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |