CN114119758B - 获取车辆位姿的方法、电子设备和计算机可读存储介质 - Google Patents
获取车辆位姿的方法、电子设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN114119758B CN114119758B CN202210097432.3A CN202210097432A CN114119758B CN 114119758 B CN114119758 B CN 114119758B CN 202210097432 A CN202210097432 A CN 202210097432A CN 114119758 B CN114119758 B CN 114119758B
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle
- candidate
- pose
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 230000000007 visual effect Effects 0.000 claims abstract description 11
- 230000009466 transformation Effects 0.000 claims description 40
- 238000010586 diagram Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 103
- 238000004891 communication Methods 0.000 description 40
- 230000006854 communication Effects 0.000 description 40
- 230000006870 function Effects 0.000 description 34
- 238000007726 management method Methods 0.000 description 20
- 239000010410 layer Substances 0.000 description 19
- 239000011159 matrix material Substances 0.000 description 15
- 238000010295 mobile communication Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 230000000694 effects Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000012216 screening Methods 0.000 description 5
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 210000004027 cell Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephone Function (AREA)
Abstract
本申请涉及电子技术领域,提供了一种获取车辆位姿的方法、电子设备和计算机可读存储介质,该方法包括:根据手机图像在预设视觉系统中的多个环境图像中进行检索,得到第一候选图像集合,第一候选图像集合中包括多个候选环境图像,其中,每个候选环境图像与一个手机图像的相似度大于预设相似度阈值,手机图像为采用车载摄像头之外的终端设备所拍摄的图像;获取任意两个相邻位置的车载摄像头各自拍摄的车载图像中交叉区域的交叉区域特征点形成的交叉区域特征点集合;从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的候选环境图像确定为目标环境图像;根据目标环境图像确定车辆的位姿。以上方法可以提高定位的精度。
Description
技术领域
本申请涉及电子技术领域,具体涉及一种获取车辆位姿的方法、电子设备和计算机可读存储介质。
背景技术
用户将车辆驶入地下停车场后,由于建筑物的遮挡,GPS信号会变弱。如果用户在遮挡的环境中停车后,使用GPS对车辆停放的位置进行定位时则有可能会存在定位误差大或者无法定位的问题。
通常,为了实现地下停车场等遮挡的环境中的车辆定位,可以通过在车身安装摄像头来识别车辆停放的位置的车位编号等唯一标识,然后通过在预先建立的停车场模型中查找这个唯一标识,从而确定出车辆停放的位置实现车辆定位,防止用户在地下停车场等遮挡环境中找不到停放的车辆的情况。
然而,车载摄像头所拍摄的图像局限性比较大。例如如果停车时车身对车辆停放的位置的车位编号造成遮挡,或者由于停车场的环境复杂而拍摄不到车辆停放的位置的车位编号,则会导致无法定位,造成用户找车不便。
发明内容
本申请提供了一种获取车辆位姿的方法、装置、芯片、电子设备、计算机可读存储介质和计算机程序产品,能够对车辆进行精准的定位。
第一方面,提供了一种获取车辆位姿的方法,其特征在于,包括:根据手机图像在预设视觉系统中的多个环境图像中进行检索,得到第一候选图像集合,第一候选图像集合中包括多个候选环境图像,其中,每个候选环境图像与一个手机图像的相似度大于预设相似度阈值,手机图像为采用车载摄像头之外的终端设备所拍摄的图像;获取任意两个相邻位置的车载摄像头各自拍摄的车载图像中交叉区域的交叉区域特征点形成的交叉区域特征点集合;从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的候选环境图像确定为目标环境图像;根据目标环境图像确定车辆的位姿。
处理单元首先在预设视觉系统中筛选和手机图像相似度高的第一候选图像集合;然后再结合相邻的车载摄像头所拍摄的车载图像中存在交叉的交叉区域特征点集合,从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的目标环境图像。二者的重叠程度高说明这个车载图像中被其他的车辆等物体遮挡的程度低或没有遮挡,二者的重叠程度低说明这个车载图像中被其他的车辆等物体遮挡较多。由此通过从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的目标环境图像,删除了与交叉区域特征点集合的重叠程度低的其他的候选环境图像,也排除了车载图像中被遮挡较多的图像。该方法结合手机图像和车载图像进行定位,相比采用单一的车载图像进行定位的方式来说,能够避免车载摄像头安装位置低使得的拍摄视野过低容易被遮挡,以及车载摄像头分辨率低使得拍摄受限,而最终无法准确定位的问题,提高了定位精度。
在一些可能的实现方式中,车载摄像头的数量为多个,交叉区域特征点集合的数量为多个,从第一候选图像集合中选择与交叉区域特征点集合的重叠程度高的候选环境图像作为目标环境图像,包括:从第一候选图像集合中选择出与任一交叉区域特征点集合重叠程度高的多个候选环境图像,得到第二候选图像集合;获取第一候选环境图像和对应的交叉区域特征点集合发生重叠的重叠区域特征点集合,第一候选环境图像为第二候选图像集合中的一个候选环境图像,重叠区域特征点集合的数量为多个,每个重叠区域特征点集合中包括多个重叠区域特征点,多个重叠区域特征点集合和第二候选图像集合中的多个候选环境图像一一对应;结合第一变换关系,获取每个所述重叠区域特征点集合对应在三维空间中的三维坐标的均方差,所述第一变换关系为所述车载图像的特征点的二维坐标和所述车载图像的特征点对应在三维空间中的三维坐标的变换关系;确定均方差最小的重叠区域特征点所对应的候选环境图像为目标环境图像。
从第一候选图像集合中选择出与任一交叉区域特征点集合重叠程度高的多个候选环境图像,即通过利用手机图像和车载图像相结合的方式对第一候选图像集合中的多个候选环境图像进行二次筛选,从而删除了第一候选图像集合中与交叉区域特征点集合重叠程度低的部分图像,使得第二候选图像集合集中的候选环境图像数量减少。需要说明的是,候选环境图像和交叉区域特征点集合重叠程度低,说明交叉区域特征点集合所对应的车载图像拍摄的视野受到其他物体的遮挡,拍摄不到完整的停车场环境,那么这样的车载图像在后续定位过程中的作用就很小。如果处理单元单一使用手机图像在VPS系统中进行检索,而停车场中常常存在环境比较相似的多个场景,因此所得到的与手机图像相似度高的候选环境图像的数量较多,导致后续处理的对象数量多,处理运算效率低。而通过手机图像先获取第一候选图像集合,再通过删除第一候选图像集合中与交叉区域特征点集合重叠程度低的部分图像,实现了手机图像和车载图像相结合,能够排除车载图像中被遮挡较多的情况,相比单一使用手机图像进行检索,可以大量去除相似的候选环境图像,排除了大量的相似的场景,从而提高了后续定位处理过程的效率。
在一些可能的实现方式中,根据目标环境图像确定车辆的位姿,包括:确定目标环境图像所指示的位姿为终端设备的目标位姿;根据终端设备与车载摄像头之间的第一相对位姿和目标位姿,得到车载摄像头的位姿;根据车载摄像头的位姿和第二相对位姿,得到车辆的位姿,第二相对位姿为车载摄像头和车辆中心点的相对位姿。
由于目标环境图像能够准确指示终端设备的位姿,处理单元通过目标环境图像所指示的终端设备的目标位姿结合第一相对位姿,能够得到准确的车载摄像头的位姿。处理单元根据精准的车载摄像头的位姿和第二相对位姿确定的车辆的位姿也就更为精准,从而实现了车辆的精准定位。
在一些可能的实现方式中,第一相对位姿的获取方式包括:获取手机图像的第一特征图;获取车载图像的第二特征图;对第一特征图和与第一特征图存在相似区域的第二特征图进行配准,得到第二变换关系;根据第二变换关系,得到第一相对位姿。
在一些可能的实现方式中,获取手机图像的第一特征图,包括:获取终端设备拍摄的手机图像;对手机图像进行预处理,得到第一处理图像;对第一处理图像进行特征提取,得到第一特征图。
在一些可能的实现方式中,车载图像包括第一车载图像,第一车载图像的获取过程包括:获取第一车载摄像头拍摄的第一视频流,第一视频流中包括多帧鱼眼图像,第一车载摄像头为多个车载摄像头中的一个;选择多帧鱼眼图像中清晰度最高的鱼眼图像为目标鱼眼图像;将目标鱼眼图像进行去鱼眼图像畸变矫正,得到第一车载图像,第一车载图像为平铺图像。
选择多帧鱼眼图像中清晰度最高的目标鱼眼图像,并将目标鱼眼图像转换为平铺图像,便于后续对图像进行特征提取,以及便于对平铺图像进行拼接形成三维模型。
在一些可能的实现方式中,第一变换关系的获取方式包括:获取标定车载图像,标定车载图像中包括标定物;获取标定物的角点在标定车载图像中的二维坐标;获取标定物的角点在三维空间中的三维坐标;根据标定物的角点在标定车载图像中的二维坐标,和标定物的角点对应在三维空间中的三维坐标,得到第一变换关系。
第二方面,提供了一种获取车辆位姿的装置,包括由软件和/或硬件组成的单元,该单元用于执行第一方面所述的技术方案中任意一种方法。
第三方面,提供了一种电子设备,电子设备包括:处理器、存储器和接口;处理器、存储器和接口相互配合,使得电子设备执行第一方面所述的技术方案中任意一种方法。
在一些可能的实现方式中,所述电子设备为定位服务器。
终端设备和车载摄像头可以将各自获取的图片或视频发送至定位服务器进行处理,由定位服务器执行第一方面所述的技术方案中任意一种方法。
第四方面,本申请实施例提供一种芯片,包括处理器;处理器用于读取并执行存储器中存储的计算机程序,以执行第一方面所述的技术方案中任意一种方法。
可选地,所述芯片还包括存储器,存储器与处理器通过电路或电线连接。
进一步可选地,所述芯片还包括通信接口。
第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储了计算机程序,当所述计算机程序被处理器执行时,使得该处理器执行第一方面所述的技术方案中任意一种方法。
第六方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序代码,当所述计算机程序代码在电子设备上运行时,使得该电子设备执行第一方面所述的技术方案中任意一种方法。
附图说明
图1是本申请实施例提供的一例终端设备100的结构示意图;
图2是本申请实施例提供的终端设备100的软件结构框图;
图3是本申请实施例提供的一例用户使用手机拍摄的图像和车载摄像头拍摄的图像所对应的区域的示意图;
图4是本申请实施例提供的一例标定车载图像进行灰度化、二值化和识别角点处理后的示意图;
图5是本申请实施例提供的一例相邻位置的两个车载摄像头所拍摄的车载图像的交叉的区域示意图;
图6是本申请实施例提供的一例获取车辆位姿的方法的流程示意图;
图7是本申请实施例提供的一例四个手机图像、四个车载图像以及交叉区域之间的对应关系的示意图;
图8是本申请实施例提供的一例获取车辆位姿的方法的流程示意图;
图9是本申请实施例提供的一例获取车辆位姿的装置结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括一个或者更多个该特征。
本申请实施例提供的车辆定位方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
示例性的,图1是本申请实施例提供的一例终端设备100的结构示意图。终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universalserial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对终端设备100的具体限定。在本申请另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是终端设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现终端设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现终端设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现终端设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为终端设备100充电,也可以用于终端设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其它终端设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对终端设备100的结构限定。在本申请另一些实施例中,终端设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过终端设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为终端设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其它一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。图1中的天线1和天线2的结构仅为一种示例。终端设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在终端设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其它功能模块设置在同一个器件中。
无线通信模块160可以提供应用在终端设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,终端设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得终端设备100可以通过无线通信技术与网络以及其它设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC ,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system ,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端设备100可以包括1个或N个显示屏194,N为大于1的正整数。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP 用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其它数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现终端设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展终端设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行终端设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
终端设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。终端设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当终端设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。终端设备100可以设置至少一个麦克风170C。在另一些实施例中,终端设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,终端设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动终端设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。终端设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,终端设备100根据压力传感器180A检测所述触摸操作强度。终端设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定终端设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定终端设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测终端设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消终端设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,终端设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。终端设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当终端设备100是翻盖机时,终端设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测终端设备100在各个方向上(一般为三轴)加速度的大小。当终端设备100静止时可检测出重力的大小及方向。还可以用于识别终端设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。终端设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,终端设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。终端设备100通过发光二极管向外发射红外光。终端设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定终端设备100附近有物体。当检测到不充分的反射光时,终端设备100可以确定终端设备100附近没有物体。终端设备100可以利用接近光传感器180G检测用户手持终端设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。终端设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测终端设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。终端设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,终端设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,终端设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,终端设备100对电池142加热,以避免低温导致终端设备100异常关机。在其它一些实施例中,当温度低于又一阈值时,终端设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于终端设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。终端设备100可以接收按键输入,产生与终端设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和终端设备100的接触和分离。终端设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。终端设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,终端设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在终端设备100中,不能和终端设备100分离。
终端设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android系统为例,示例性说明终端设备100的软件结构。
图2是本申请实施例的终端设备100的软件结构框图。分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供终端设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,终端设备振动,指示灯闪烁等。
Android runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(media libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如: MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
本申请实施例的执行主体可以是用户持有的具有拍摄功能和处理功能的终端设备,由车载摄像头将获取的图像或视频流发送至终端设备,由终端设备执行获取车辆位姿的方法;也可以是安装在车辆上的处理单元,由终端设备将获取的图像数据发送至安装在车辆上的处理单元,再由安装在车辆上的处理单元执行获取车辆位姿的方法;还可以是远程服务器,例如用于解算车辆位姿的定位服务器,终端设备和车载摄像头可以将各自获取的图片或视频流发送至定位服务器进行处理,由定位服务器执行获取车辆位姿的方法,对此本申请不做限定。
无论执行主体是哪个设备,均可以获取用户持有的终端设备和车载摄像头所拍摄的图像,从而执行本申请实施例的流程。
为了便于理解,本申请以下实施例将以具有图1和图2所示结构的终端设备或其他设备上的处理单元为例,结合附图和应用场景,对本申请实施例提供的车辆的位姿获取方法进行具体阐述。
当用户将车辆驶入地下停车场后,由于建筑物的遮挡,GPS信号会变弱。如果用户在遮挡的环境中停好车辆后,使用GPS对车辆进行定位时则有可能会存在定位误差大或者无法定位的问题。通常,为了实现地下停车场等遮挡的环境中的车辆定位,可以通过在车身安装摄像头来识别车辆停放的位置的车位编号等唯一标识,然后在预先建立的停车场模型中找到唯一标识,从而确定出车辆停放的位置,来实现车辆定位,防止用户在地下停车场等遮挡环境中找不到停放的车辆的情况。然而,通常车载摄像头由于安装位置等因素的影响,所拍摄的图像局限性比较大。例如如果停车时车身对车辆停放的位置的车位编号造成遮挡,或者由于停车场的环境复杂而拍摄不到车辆停放的位置的车位编号,则会导致无法定位,造成用户找车不便。
本申请实施例所提供的方法中,在车辆的车身周围不同位置安装多个车载摄像头来拍摄不同方向的图片。例如,可以在车辆的前、后、左、右四个方向上分别安装车载摄像头,分别获取车辆的前、后、左、右四个方向上的图像。可选地,车身周围也可以安装六个或八个车载摄像头,本申请实施例对车载摄像头的数量和具体的安装位置不做限定。在进行定位之前,可以先对每个车载摄像头进行标定,得到标定结果。当车辆进入地下停车场停放好以后,各个车载摄像头可以拍摄周围的图像。用户需要使用手机在车身周围对周边环境拍摄图像。图3中示出了用户使用手机拍摄的图像(手机图像)和车载摄像头拍摄的图像(车载图像)所对应的区域的示意图。图3中以车载摄像头分别安装在车辆的前、后、左、右四个方向,手机朝向车辆的左前、右前、左后和右后四个方向拍摄图像为例。
在所拍摄的手机图像中,对应的方向上的手机图像和车载图像之间存在视野重叠的相似的区域。例如,左前方向和前方为对应的方向,朝向车辆的左前方向拍摄的手机图像和车辆的前方的车载摄像头拍摄的车载图像会拍摄到一部分相同视野的部分,这部分视野重叠的区域为手机图像和车载图像的相似的区域。通过将手机图像和与该手机图像存在相似的区域的车载图像进行配准,可以得到对应的方向的手机图像和车载图像之间的关系矩阵,该关系矩阵可以用于计算拍摄这个手机图像时的终端设备,和该手机图像对应的方向的车载图像所对应的车载摄像头之间的相对位姿。
通常,由于车载摄像头的视角较大,相邻位置的两个车载摄像头各自拍摄的车载图像之间,也会存在视野重叠的部分,这部分视野重叠的区域为两个车载图像之间的交叉区域。
当用户使用终端设备,例如手机,拍摄到手机图像后,可以将手机图像上传至VPS系统中进行图像检索,选出与手机图像相似的多个环境图像。然后处理单元在选出的多个环境图像中,确定出与车载图像之间的交叉区域重叠程度高的一个环境图像作为最终确定的目标环境图像,并将目标环境图像对应的位姿作为终端设备的位姿。最后处理单元根据终端设备和车载摄像头之间的相对位姿,结合终端设备的位姿可以得到车载摄像头的位姿,再根据车载摄像头的位姿和车载摄像头相对于车辆中心点的位姿,得到车辆中心点的位姿、即车辆的位姿。
本申请实施例提供的方法中,目标环境图像为结合手机图像和车载图像的重叠程度选择出手机图像和车载图像重叠多的环境图像,因此该目标环境图像能够准确指示终端设备在拍摄时的位姿,进而能够避免单一使用车载图像时,车载摄像头视野范围低,容易受到周围车辆遮挡导致的对周围环境识别不准确,以至于定位不准的问题。
首先对车载摄像头的标定过程进行描述。以图3所示的四个车载摄像头分别安装在车辆的前、后、左、右四个方向为例,每个车载摄像头标定的过程可以相同。以前方的车载摄像头标定的过程为例进行说明:
1.在车辆的前方放置标定物,该标定物的尺寸、形状、高度和与车载摄像头的距离为已知的条件。通常标定物为易于识别角点的物体,例如形状规则的物体。以黑白棋盘为例,其角点可以选择黑白棋盘上黑色格子和白色格子的交点。通常,角点的数量可以根据需要选取,本申请对角点的数量不做限定。以车辆中心点的位置为坐标原点,过坐标原点的水平面内指向车辆的正前方的方向作为x轴、水平面内指向车辆的正右方的方向作为y轴,垂直于水平面向上的方向作为z轴建立世界坐标系。在世界坐标系中,标定物的尺寸、形状、高度和标定物与车载摄像头的距离为已知的条件,上述各个角点在世界坐标系中的坐标位置(即三维坐标)可以通过黑白棋盘上的黑白棋盘格的位置和黑白棋盘格的大小尺寸进行计算得到。
2.车载摄像头进行拍摄,获取视频流。视频流中可以包括时间连续的多帧图像,每帧图像中包括标定物,例如黑白棋盘格。处理单元可以从视频流的多帧图像中筛选出清晰度最高的图像(记作最佳帧),作为该摄像头拍摄的标定车载图像。可选地,处理单元获取清晰度最高的图像,可以是采用拉普拉斯(Laplace)算子计算每个图像的高频分量,用高频分量作为清晰度的评估指标,选出最清晰的图像,作为最佳帧。
3.处理单元对标定车载图像进行预处理,得到标定车载图像中各角点在标定车载图像中的二维坐标。例如,处理单元可以将标定车载图像进行去鱼眼图像畸变矫正,再进行灰度化去除彩色的分量,再进行二值化处理,得到二值图像,然后识别二值图像中的标定点,例如图像的角点,该角点可以是易于识别到的点,并获取二值图像的角点在二值图像中的二维坐标(记为pixel(x’,y)。图4中的a图、b图和c图分别为标定车载图像进行灰度化、二值化和识别角点后的示意图。需要说明的是,上述标定车载图像中识别得到的角点和标定物在实际的三维空间中的标定物的角点一一对应。
4.处理单元可以通过上述标定车载图像中识别得到的角点的二维坐标和实际的标定物的角点的三维坐标,建立变换关系A,该变换关系A可以用矩阵的形式进行表达。处理单元还可以根据车载摄像头安装在车辆上的位置(为已知条件),获取车载摄像头在世界坐标系中的位置关系B。则将上述变换关系A和位置关系B进行矩阵运算,得到变换关系AB,记作关系式A*B=AB,其中,“*”表示矩阵运算,也即广义乘法。
5.根据变换关系AB,计算车载图像上的其他点(非角点)在世界坐标系中的三维坐标,并根据非角点在世界坐标系中的三维坐标对上述变换关系AB采用参数估计的方式,重新估算AB中的参数,得到更为准确的第一变换关系(AB)’。该第一变换关系能够用于根据角点在平铺图像中的二维坐标计算出在世界坐标系中的三维坐标;也能够用于根据角点在世界坐标系中的三维坐标计算在平铺图像中二维坐标,实现二维-三维的坐标变换。
处理单元分别对每个方向的车载摄像头均执行上述方法可以得到每个车载摄像头的第一变换关系。
通常,车载摄像头为鱼眼摄像头,拍摄角度可以超过120度,因此不同方向且相邻的车载摄像头所拍摄的视野有一定的交叉。如图5所示,图5中以标定物为黑色三角型的图案为例示出。对于车辆左前方的物体,例如图5中的前方左侧的三角形,位于车辆的前方和左方的车载摄像头都能够拍摄到部分图像,即相邻的车载摄像头拍摄的范围存在交叉的区域。处理单元可以分别识别两个车载图像中交叉的区域的角点,例如图5中的前方左侧的三角形的顶点,然后将相邻的车载摄像头拍摄的标定车载图像进行拼接,从而得到标定场景下的3D模型。
上文中介绍了车载摄像头的标定的过程,下面对如何使用车载摄像头的标定结果,结合车载摄像头拍摄的车载图像和终端设备拍摄的手机图像,对车辆进行定位的过程进行详细描述。
当车辆进入地下车库停放好以后,四路车载摄像头均可以开始拍摄视频流。处理单元对每一路车载摄像头拍摄的视频流均分别进行筛选,并对筛选结果进行处理得到车载图像。以处理单元处理第一车载摄像头的过程为例,该第一车载摄像头为车身周围安装的多个车载摄像头中的任意一个。第一车载摄像头所拍摄的第一视频流中包括多帧鱼眼图像,处理单元从这多帧鱼眼图像中选择清晰度最高的一帧作为目标鱼眼图像,处理单元可以采用图像透视变换等去畸变的方式,将目标鱼眼图像变换为平铺图像,这个平铺图像可以作为第一车载图像。处理单元针对每一路车载摄像头均执行上述筛选和变换操作,从而得到多个车载摄像头分别对应各自的平铺图像,即得到各个车载摄像头对应的车载图像。
当车辆停放好以后,用户可以手持终端设备站在车辆周围的不同位置使用终端设备拍摄手机图像,例如可以站在车辆的左前、右前、左后和右后四个方向,背对车辆进行拍摄,从而得到四个角度的手机图像。处理单元对手机图像进行预处理,包括灰度化、二值化的处理,得到第一处理图像,然后对第一处理图像进行特征提取,得到第一特征图。需要说明的是,每个手机图像经过处理都可以得到一个第一特征图,每个第一特征图中包括多个特征点。可选地,处理单元提取可以采用SURF/SIFT等算法进行特征提取。
在一些实施例中,处理单元还可以对获取的车载图像进行预处理,例如灰度化和二值化,得到第二处理图像,然后对第二处理图像进行特征提取,得到第二特征图。需要说明的是,每个车载图像经过处理都可以得到一个第二特征图,每个第二特征图中包括多个特征点。
需要说明的是,上述第一特征图和第二特征图具有对应关系,例如用户站在车辆左前方拍摄的手机图像提取得到的第一特征图记作左前第一特征图,位于车辆前方的车载摄像头拍摄的车载图像得到的第二特征图记作前第二特征图。左前第一特征图和前第二特征图中视野存在重叠的部分,因此具有对应关系,左前第一特征图和前第二特征图中视野存在重叠的部分记作相似区域。处理单元可以对左前第一特征图与前第二特征图进行配准,得到左前第一特征图和前第二特征图的关系矩阵H1。
同理,处理单元还可以获取左前第一特征图和左第二特征图之间的关系矩阵H2、获取右前第一特征图和前第二特征图之间的关系矩阵H3、获取右前第一特征图和右第二特征图之间的关系矩阵H4;左后第一特征图和左第二特征图之间的关系矩阵H5、左后第一特征图和后第二特征图之间的关系矩阵H6、右后第一特征图和后第二特征图之间的关系矩阵H7、右后第一特征图和右第二特征图之间的关系矩阵H8。这些关系矩阵H1至H8,记作第二变换关系,用于表征手机图像和对应方向的车载图像之间的关系。
以左前第一特征图和前第二特征图之间的关系矩阵H1为例,处理单元根据关系矩阵H1能够得到用户站在车辆左前方拍摄时的手机和车辆前方安装的车载摄像头之间的相对位姿。同理,处理单元可以根据第二变换关系,得到用户朝向各个不同方向拍照时的手机、和与手机相邻的车载摄像头(也即与手机拍摄的方向对应的方向上的车载摄像头)的相对位姿,记作第一相对位姿(R_delta,T_delta)。其中,R代表旋转(rotation),T代表平移(translation)。
图6为本申请实施例提供的一例获取车辆位姿的方法的流程示意图。如图6所示,包括:
S601、根据手机图像在预设视觉系统中的多个环境图像中进行检索,得到第一候选图像集合,第一候选图像集合中包括多个候选环境图像,其中,每个候选环境图像与一个手机图像的相似度大于预设相似度阈值,手机图像为采用车载摄像头之外的终端设备所拍摄的图像。
可选地,用户可以站在车辆旁边朝向一个方向拍摄一张手机图像,也可以在不同位置朝向多个不同方向拍摄多张手机图像,对此本申请实施例不做限定。例如,当用户站在车身周围不同位置使用终端设备拍摄到多个方向的手机图像后,可以在预设视觉系统,例如视觉定位系统(visual positioning system/service,VPS)中进行图像检索。
这里对VPS系统做一个简单的介绍:VPS系统以3D地图为基础,能够与终端设备(例如手机)等相机拍摄的图像进行匹配,识别终端设备的位置,是一项能够通过摄像头所拍摄的图像数据与增强现实(augmented reality,简称AR)技术相结合,来提供位置信息的服务。该VPS系统中包括多个环境图像,用于和终端设备等相机拍摄的图像进行特征比对。
在一些实施例中,处理单元对手机图像进行预处理,例如灰度化和二值化,然后进行特征提取,得到第一特征图。手机图像的数量可以为一个也可以为多个,每张手机图像代表一个拍摄位置。处理单元将每个手机图像所提取的第一特征图均和VPS系统中的环境图像进行特征比对,从众多环境图像中筛选出与每个手机图像的相似度大于预设相似度阈值的多个环境图像,形成第一候选图像集合。第一候选图像集合中的环境图像为候选环境图像。
通常,地下停车场中可能存在多个相似的场景,因此处理单元根据手机图像在VPS系统中进行图像检索时可能会得到多个不同位置的相似的环境图像,从而得到多个待选的终端设备的位姿(R_phone,T_phone)。这里可以取VPS系统中与手机图像相似度高的L个环境图像,作为第一候选图像集合。可选地,L可以为大于5的正整数,例如而可以为10、15或20等。例如,P1、P2、P3和P4分别为朝向车辆的左前、右前、左后和右后四个方向分别拍摄的图像。则得到第一候选图像集合中可以包括分别和P1、P2、P3和P4相似度高的多个环境图像,作为候选环境图像。
S602、获取任意两个相邻位置的所述车载摄像头各自拍摄的车载图像中交叉区域的交叉区域特征点形成的交叉区域特征点集合。
相邻位置的两个车载摄像头各自拍摄的车载图像之间,存在视野重叠的部分,这部分重叠的区域为两个车载图像的交叉区域。
处理单元可以将任意两个相邻位置的车载摄像头各自拍摄的车载图像进行特征提取,得到各自对应的第二特征图,然后将这两个第二特征图进行配准,从而得到任意两个相邻位置的车载摄像头各自拍摄的车载图像之间的交叉区域特征点所形成的交叉区域特征点集合。
S603、从所述第一候选图像集合中选择出与所述交叉区域特征点集合的重叠程度高的所述候选环境图像确定为目标环境图像。
处理单元计算第一候选图像集合每个候选环境图像与每个交叉区域特征点集合的重叠程度,例如可以是获取每个候选环境图像的特征点和交叉区域特征点集合重叠的特征点的数量多少。
如果候选环境图像的特征点和交叉区域特征点集合重叠的数量多,则认为重叠程度高,二者的重叠程度高说明这个车载图像中被其他的车辆等物体遮挡的程度低或没有遮挡;如果候选环境图像的特征点和交叉区域特征点集合重叠的数量少,则认为重叠程度低,二者的重叠程度低说明这个车载图像中被其他的车辆等物体遮挡较多。
可选地,处理单元可以是将第一候选图像集合中与交叉区域特征点集合重叠程度最高的一个,例如是特征点发生重叠的数量最多的一个,确定为目标环境图像。可选地,处理单元还可以将第一候选图像集合中与交叉区域特征点集合中重叠程度高于预设的阈值的任意一个,例如是特征点发生重叠的数量超过预设的阈值的任意一个候选环境图像作为目标环境图像。
S604、根据所述目标环境图像确定所述车辆的位姿。
由于每个环境图像在VPS系统中均可以对应一个位姿,处理单元可以将目标环境图像对应的位姿作为终端设备在拍摄手机图像时的位姿。然后,根据终端设备在拍摄手机图像时与车辆的相对位姿,运算得到车辆的位姿。
可选地,处理单元将目标环境图像对应的位姿作为筛选出的终端设备在拍摄目标手机图像时的目标位姿(R,T)。然后,处理单元终端设备在拍摄目标手机图像时将处理单元根据终端设备与车载摄像头之间的第一相对位姿( R_delta,T_delta),结合目标位姿得到该车载摄像头的位姿(R_car,T_car )。最后,处理单元再根据该车载摄像头的位姿和该车载摄像头相对于车辆中心点的第二相对位姿(R’,T),得到车辆位姿。
上述第一相对位姿的获取方式可以参见前述实施例中的描述,此处不再赘述。第二相对位姿可以根据车辆的形状、尺寸和车载摄像头安装的位置得到,该第二相对位姿为安装好车载摄像头之后的已知条件。
由于目标环境图像能够准确指示终端设备的位姿,处理单元通过目标环境图像所指示的终端设备的目标位姿结合第一相对位姿,能够得到准确的车载摄像头的位姿。处理单元根据精准的车载摄像头的位姿和第二相对位姿确定的车辆的位姿也就更为精准,从而实现了车辆的精准定位。
上述图6所示的实施例中,处理单元首先在预设视觉系统中筛选和手机图像相似度高的第一候选图像集合;然后再结合相邻的车载摄像头所拍摄的车载图像中存在的交叉区域的交叉区域特征点集合,从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的目标环境图像。二者的重叠程度高说明这个车载图像中被其他的车辆等物体遮挡的程度低或没有遮挡,二者的重叠程度低说明这个车载图像中被其他的车辆等物体遮挡较多。由此通过从第一候选图像集合中选择出与交叉区域特征点集合的重叠程度高的目标环境图像,删除了与交叉区域特征点集合的重叠程度低的其他的候选环境图像,也排除了车载图像中被遮挡较多的图像。该方法结合手机图像和车载图像进行定位,相比采用单一的车载图像进行定位的方式来说,能够避免车载摄像头安装位置低使得的拍摄视野过低容易被遮挡,以及车载摄像头分辨率低使得拍摄受限,而最终无法准确定位的问题,提高了定位精度。
在一些实施例中,当车载摄像头的数量为多个,例如四个,则任意两个位置相邻的车载摄像头所拍摄的图像中存在交叉区域特征点所形成的交叉区域特征点集合,该交叉区域特征点集合也可以为多个。上述步骤S603的一种可能的实现方式还可以包括:
处理单元从第一候选图像集合中选择出与任一所述交叉区域特征点集合重叠程度高的多个候选环境图像,得到第二候选图像集合。第二候选图像集合中包括M个候选环境图像,可选地,M可以为小于L的正整数,例如M可以取3或者5等。处理单元获取每个候选环境图像和对应的交叉区域特征点集合发生重叠的重叠区域特征点集合。所获取的重叠区域特征点集合的数量为多个,每个重叠区域特征点集合中包括多个重叠区域特征点,即针对每个候选环境图像都能够得到对应的重叠区域特征点集合。因此所得到的多个重叠区域特征点集合和第二候选图像集合中的多个候选环境图像一一对应。之后,处理单元分别获取每个重叠区域特征点对应在三维空间中的三维坐标的均方差,然后确定均方差最小的重叠区域特征点所对应的候选环境图像为目标环境图像。
接下来以一个具体的示例对S603的上述实现方式进行说明:
例如,车载摄像头包括车载摄像头1、车载摄像头2、车载摄像头3、车载摄像头4;手机图像包括手机图像P1、手机图像P2、手机图像P3和手机图像P4。车载摄像头1拍摄的车载图像为车载图像C1,车载摄像头2拍摄的车载图像为车载C2,车载摄像头3拍摄的车载图像为车载图像C3,车载摄像头4拍摄的车载图像为车载图像C4。
其中,C1和C2的交叉区域特征点集合记作G12,C2和C3的交叉区域特征点集合记作G23,C3和C4的交叉区域特征点集合记作G34,C4和C1的交叉区域特征点集合记作G14。
第一候选图像集合中包括候选环境图像E1、候选环境图像E2、候选环境图像E3、候选环境图像E4、候选环境图像E5、候选环境图像E6、候选环境图像E7、候选环境图像E8、候选环境图像E9候选环境图像E10,这十个候选环境图像。上述对应关系可以参见图8所示。
其中,E1、E2、E3为与P1相似度高的手机图像;E1、E2、E3中与G12的重叠程度高的为E2和E3,则将E2和E3添加至第二候选图像集合。由于E1、E2、E3与P1相似度高。E4、E5、E6、E7、E8、E9和E10与P1的视野基本不会重叠,因此与P1的相似度也很低,与G12的重叠程度自然也就很低。
同理,E4、E5为与P2相似度高的手机图像,其中,E4和E5均与G14的重叠程度高;E6、E7和E8为与P3相似度高的手机图像,其中,E6和E8与G23的重叠程度高;E9、E10为与P4相似度高的手机图像,其中,E9和E10均与G34的重叠程度高。因此可以将上述E4、E5、E6、E8、E9和E10也加入上述第二候选图像集合,从而得到第二候选图像集合。
可选地,当和手机图像相似度高的候选环境图像数量多的时候,也可以针对一个交叉区域特征点集合选择更多个重叠程度高的候选图像加入第二候选图像集合。
从第一候选图像集合中选择出与任一交叉区域特征点集合重叠程度高的多个候选环境图像,即通过利用手机图像和车载图像相结合的方式对第一候选图像集合中的多个候选环境图像进行二次筛选,从而删除了第一候选图像集合中与交叉区域特征点集合重叠程度低的部分图像,使得第二候选图像集合集中的候选环境图像数量减少。需要说明的是,候选环境图像和交叉区域特征点集合重叠程度低,说明交叉区域特征点集合所对应的车载图像拍摄的视野受到其他物体的遮挡,拍摄不到完整的停车场环境,那么这样的车载图像在后续定位过程中的作用就很小。如果处理单元单一使用手机图像在VPS系统中进行检索,而停车场中常常存在环境比较相似的多个场景,因此所得到的与手机图像相似度高的候选环境图像的数量较多,导致后续处理的对象数量多,处理运算效率低。而通过手机图像先获取第一候选图像集合,再通过删除第一候选图像集合中与交叉区域特征点集合重叠程度低的部分图像,实现了手机图像和车载图像相结合,能够排除车载图像中被遮挡较多的情况,相比单一使用手机图像进行检索,可以大量去除相似的候选环境图像,排除了大量的相似的场景,从而提高了后续定位处理过程的效率。
接下来获取第一候选环境图像和对应的交叉区域特征点集合发生重叠的重叠区域特征点集合,并结合第一变换关系,获取每个重叠区域特征点集合对应在三维空间中的三维坐标的均方差,第一变换关系为车载图像的特征点的二维坐标和车载图像的特征点对应在三维空间中的三维坐标的变换关系。其中,第一候选环境图像可以为第二候选图像集合中的任一个候选环境图像:
以第一候选环境图像为E2,对应的交叉区域特征点集合为G12为例,同时和G12对应的候选环境图像还有E3。处理单元获取E2和G12发生重叠的重叠区域特征点集合G12-2,该G12-2中包括多个重叠区域特征点,由此E2与G12-2具有对应关系。
处理单元可以将E2和C1进行配准,可以得到E2和C1的变换关系EC21。处理单元再通过EC21和第一变换关系,将G12-2中的重叠区域特征点在C1中的二维坐标转换为三维空间的三维坐标3D-C1。
处理单元再将E2和C2进行配准,可以得到E2和C2的变换关系EC22。处理单元再通过EC22和第一变换关系,将G12’中的重叠区域特征点在C2中的二维坐标转换为三维空间的三维坐标3D-C2。
假如,G12-2中的重叠区域特征点包括F1、F2、F3、F4、F5,这5个重叠区域特征点分别计算得到的三维坐标3D-C1为N1、N2、N3、N4、N5,以及这5个重叠区域特征点分别计算得到的三维坐标3D-C2为X1、X2、X3、X4、X5。
接着,处理单元计算G12-2对应在三维空间中的三维坐标的均方差SD2,例如均方差SD可以采用如下公式或该公式的变形获取:
当然,上述G12-2中的重叠区域特征点的数量仅为一种示例,实际的G12-2中的重叠区域特征点的数量远远大于五个。在一些实施例中,也可以将上述公式进行变形,例如将上述公式的右边的开平方的运算符去掉,和/或将除以5的运算步骤去掉,只要是不影响比较大小的结果即可。
处理单元继续获取E3和对应的G12发生重叠的重叠区域特征点集合G12-3,并获取G12-3对应在三维空间中的三维坐标的均方差SD3。处理单元获取SD3的方式可以采用上述获取SD2的方式。其中,E3和G12-3具有对应关系。
可选地,处理单元就可以将SD2和SD3中数值小的一个作为目标环境图像。
在一些实施例中,同理,处理单元还可以根据E4和E5对应的G14,获取E4和G14发生重叠的重叠区域特征点集合G14-4,以及获取E5和G14发生重叠的重叠区域特征点集合G14-5。然后获取G14-4对应在三维空间中的三维坐标的均方差SD4,和G14-5对应在三维空间中的三维坐标的均方差SD5。具体过程可以参见前述获取SD2和SD3的方式。
以及,处理根据E6和E8对应的G23,获取E6和G23发生重叠的重叠区域特征点集合G23-6,以及获取E8和G23发生重叠的重叠区域特征点集合G23-8。然后获取G23-6对应在三维空间中的三维坐标的均方差SD6,和G23-8对应在三维空间中的三维坐标的均方差SD8。具体过程可以参见前述获取SD2和SD3的方式。
以及,处理单元根据E9和E10对应的G34,获取E9和G34发生重叠的重叠区域特征点集合G34-9,以及获取E10和G34发生重叠的重叠区域特征点集合G34-10。然后获取G34-9对应在三维空间中的三维坐标的均方差SD9,和G34-10对应在三维空间中的三维坐标的均方差SD10。具体过程可以参见前述获取SD2和SD3的方式。
在一些实施例中,处理单元可以将SD2、SD3、SD4、SD5、SD6、SD8、SD9、SD10中最小的一个对应的候选环境图像作为目标环境图像。
上述方式中,通过筛选重叠区域特征点对应在三位控件的三维坐标之间的均方差最小的情况,处理单元能够从第二候选图像集合中筛选得到和实际的手机的位姿最为匹配的目标环境图像,该目标环境图像所指示的终端设备的位姿和终端设备的实际位姿最为接近。因此采用目标环境图像进行定位,得到的车辆的位姿最为准确。
为了更为清楚的对本申请的技术方案进行描述,以车身安装四个车载摄像头的场景为例,采用下述完整的实施例进行说明。如图8所示,包括:
S801、获取四路车载摄像头拍摄的四路鱼眼图像组成的四个视频流。
S802、选取每个视频流中清晰度最高的最佳帧,该最佳帧为鱼眼图像。
S803、对每个最佳帧进行去鱼眼图像畸变矫正,得到平铺图像,并对平铺图像进行预处理。
S804、对预处理后的每个平铺图像中的标定物的角点进行识别,根据识别出的角点的二维坐标和对应方向上已知的标定物的角点的三维坐标得到第一变换关系。
上述步骤为对车载摄像头进行标定的过程,该标定的过程可以为离线执行的过程。下面的步骤为获取车辆的位姿的过程。
S805、实时获取四路车载摄像头拍摄的四路鱼眼图像组成的四个实时视频流。
S806、选取每个实时视频流中清晰度最高的实时最佳帧,该实时最佳帧为鱼眼图像。
S807、对每个实时最佳帧进行去鱼眼图像畸变矫正,得到实时平铺图像,并对实时平铺图像进行预处理。
S808、对预处理后的每个实时平铺图像进行特征提取,得到四个车载特征图。
S809、获取手机拍摄的四路手机图像。
S810、对四路手机图像分别进行预处理、特征提取,得到四个手机特征图。
S811、将四个车载特征图和四个手机特征图进行配准,得到第二变换关系。
S812、根据第二变换关系得到车载摄像头和手机的相对位姿。
S813、根据四个手机特征图在VPS系统中进行图像检索,得到L个候选环境图像。
S814、从L个候选环境图像中选出和两个相邻位置的车载摄像头对应的车载特征图的交叉区域特征点重叠程度高的M个候选环境图像。
S815、从M个候选环境图像选出所对应的均方差最小的一个作为选出目标环境图像。本步骤的实现过程可以参见前述实施例中的描述。
S816、根据目标环境图像、车载摄像头与车辆中心的相对位姿、车载摄像头和手机的相对位姿,确定车辆的位姿。
获取到车辆的位姿后,处理单元可以进行记录。当车主用户需要寻找停放的车辆时,手机可以对手机当前所处的位置进行定位,即对车主用户定位,然后以手机当前所处的位置位置为起点,规划路径,并进行导航,引导车主到达车辆的停放位置。然后根据所确定的车辆的位姿实现将车辆泊出。
当然,本申请实施例的方法还可以在车主用户到达停车位附近时,获取车辆的位姿,然后根据需要停放车辆的停车位的位置,自动将车辆泊入停车位。
上文详细介绍了本申请提供的方法的示例。可以理解的是,相应的装置为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术人员应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本申请可以根据上述方法示例对获取车辆位姿的装置进行功能模块的划分,例如,可以将各个功能划分为各个功能模块,也可以将两个或两个以上的功能集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。需要说明的是,本申请中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
图9示出了本申请提供的一种获取车辆位姿的装置的结构示意图。装置900包括:
检索模块901,用于根据手机图像在预设视觉系统中的多个环境图像中进行检索,得到第一候选图像集合,所述第一候选图像集合中包括多个候选环境图像,其中,每个所述候选环境图像与一个所述手机图像的相似度大于预设相似度阈值,所述手机图像为采用车载摄像头之外的终端设备所拍摄的图像。
获取模块902,用于获取任意两个相邻位置的所述车载摄像头各自拍摄的车载图像中交叉区域的交叉区域特征点形成的交叉区域特征点集合。
选择模块903,用于从所述第一候选图像集合中选择出与所述交叉区域特征点集合的重叠程度高的所述候选环境图像确定为目标环境图像。
确定模块904,用于根据所述目标环境图像确定所述车辆的位姿。
在一些实施例中,所述车载摄像头的数量为多个,所述交叉区域特征点集合的数量为多个,选择模块903,具体用于从所述第一候选图像集合中选择出与任一所述交叉区域特征点集合重叠程度高的多个所述候选环境图像,得到第二候选图像集合;获取第一候选环境图像和对应的交叉区域特征点集合发生重叠的重叠区域特征点集合,所述第一候选环境图像为所述第二候选图像集合中的一个候选环境图像,所述重叠区域特征点集合的数量为多个,每个所述重叠区域特征点集合中包括多个重叠区域特征点,多个所述重叠区域特征点集合和所述第二候选图像集合中的多个所述候选环境图像一一对应;获取每个所述重叠区域特征点集合对应在三维空间中的三维坐标的均方差;确定均方差最小的所述重叠区域特征点所对应的候选环境图像为所述目标环境图像。
在一些实施例中,确定模块904,具体用于确定所述目标环境图像所指示的位姿为所述终端设备的目标位姿;根据所述终端设备与所述车载摄像头之间的第一相对位姿和所述目标位姿,得到所述车载摄像头的位姿;根据所述车载摄像头的位姿和第二相对位姿,得到所述车辆的位姿,所述第二相对位姿为所述车载摄像头和所述车辆中心点的相对位姿。
在一些实施例中,装置900还包括处理模块,用于所述第一相对位姿的获取方式包括:获取所述手机图像的第一特征图;获取所述车载图像的第二特征图;对所述第一特征图和与所述第一特征图存在相似区域的所述第二特征图进行配准,得到第二变换关系;根据所述第二变换关系,得到所述第一相对位姿。
在一些实施例中,处理模块,还用于获取所述终端设备拍摄的手机图像;对所述手机图像进行预处理,得到第一处理图像;对所述第一处理图像进行特征提取,得到所述第一特征图。
在一些实施例中,所述车载摄像头的数量为多个,所述车载图像包括第一车载图像,处理模块,还用于获取第一车载摄像头拍摄的第一视频流,所述第一视频流中包括多帧鱼眼图像,所述第一车载摄像头为多个所述车载摄像头中的一个;选择所述多帧鱼眼图像中清晰度最高的鱼眼图像为目标鱼眼图像;将所述目标鱼眼图像进行去鱼眼图像畸变矫正,得到所述第一车载图像,所述第一车载图像为平铺图像。
在一些实施例中,处理模块,还用于获取标定车载图像,所述标定车载图像中包括标定物;获取所述标定物的角点在所述标定车载图像中的二维坐标;获取所述标定物的角点在三维空间中的三维坐标;根据所述标定物的角点在所述标定车载图像中的二维坐标,和所述标定物的角点对应在三维空间中的三维坐标,得到所述第一变换关系。
装置900执行获取车辆位姿的方法的具体方式以及产生的有益效果可以参见方法实施例中的相关描述,此处不再赘述。
本申请实施例还提供了一种电子设备,包括上述处理器。本实施例提供的电子设备可以是图1所示的终端设备100,用于执行上述获取车辆位姿的方法。在采用集成的单元的情况下,终端设备可以包括处理模块、存储模块和通信模块。其中,处理模块可以用于对终端设备的动作进行控制管理,例如,可以用于支持终端设备执行显示单元、检测单元和处理单元执行的步骤。存储模块可以用于支持终端设备执行存储程序代码和数据等。通信模块,可以用于支持终端设备与其它设备的通信。
其中,处理模块可以是处理器或控制器。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,数字信号处理(digital signal processing,DSP)和微处理器的组合等等。存储模块可以是存储器。通信模块具体可以为射频电路、蓝牙芯片、Wi-Fi芯片等与其它终端设备交互的设备。
在一个实施例中,当处理模块为处理器,存储模块为存储器时,本实施例所涉及的终端设备可以为具有图1所示结构的设备。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储了计算机程序,当所述计算机程序被处理器执行时,使得处理器执行上述任一实施例所述的获取车辆位姿的方法。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述实施例中的获取车辆位姿的方法。
其中,本实施例提供的电子设备、计算机可读存储介质、计算机程序产品或芯片均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,更换的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (9)
1.一种获取车辆位姿的方法,其特征在于,包括:
根据手机图像在预设视觉系统中的多个环境图像中进行检索,得到第一候选图像集合,所述第一候选图像集合中包括多个候选环境图像,其中,每个所述候选环境图像与一个所述手机图像的相似度大于预设相似度阈值,所述手机图像为采用车载摄像头之外的终端设备所拍摄的图像;
获取任意两个相邻位置的所述车载摄像头各自拍摄的车载图像中交叉区域的交叉区域特征点形成的交叉区域特征点集合;
从所述第一候选图像集合中选择出与所述交叉区域特征点集合的重叠程度高的所述候选环境图像确定为目标环境图像;
根据所述目标环境图像确定所述车辆的位姿;
其中,所述车载摄像头的数量为多个,所述交叉区域特征点集合的数量为多个,所述从所述第一候选图像集合中选择与所述交叉区域特征点集合的重叠程度高的候选环境图像作为目标环境图像,包括:
从所述第一候选图像集合中选择出与任一所述交叉区域特征点集合重叠程度高的多个所述候选环境图像,得到第二候选图像集合;
获取第一候选环境图像和对应的交叉区域特征点集合发生重叠的重叠区域特征点集合,所述第一候选环境图像为所述第二候选图像集合中的一个候选环境图像,所述重叠区域特征点集合的数量为多个,每个所述重叠区域特征点集合中包括多个重叠区域特征点,多个所述重叠区域特征点集合和所述第二候选图像集合中的多个所述候选环境图像一一对应;
结合第一变换关系,获取每个所述重叠区域特征点集合对应在三维空间中的三维坐标的均方差,所述第一变换关系为所述车载图像的特征点的二维坐标和所述车载图像的特征点对应在三维空间中的三维坐标的变换关系;
确定均方差最小的所述重叠区域特征点所对应的候选环境图像为所述目标环境图像。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标环境图像确定所述车辆的位姿,包括:
确定所述目标环境图像所指示的位姿为所述终端设备的目标位姿;
根据所述终端设备与所述车载摄像头之间的第一相对位姿和所述目标位姿,得到所述车载摄像头的位姿;
根据所述车载摄像头的位姿和第二相对位姿,得到所述车辆的位姿,所述第二相对位姿为所述车载摄像头和所述车辆中心点的相对位姿。
3.根据权利要求2所述的方法,其特征在于,所述第一相对位姿的获取方式包括:
获取所述手机图像的第一特征图;
获取所述车载图像的第二特征图;
对所述第一特征图和与所述第一特征图存在相似区域的所述第二特征图进行配准,得到第二变换关系;
根据所述第二变换关系,得到所述第一相对位姿。
4.根据权利要求3所述的方法,其特征在于,所述获取所述手机图像的第一特征图,包括:
获取所述终端设备拍摄的手机图像;
对所述手机图像进行预处理,得到第一处理图像;
对所述第一处理图像进行特征提取,得到所述第一特征图。
5.根据权利要求3所述的方法,其特征在于,所述车载摄像头的数量为多个,所述车载图像包括第一车载图像,所述第一车载图像的获取过程包括:
获取第一车载摄像头拍摄的第一视频流,所述第一视频流中包括多帧鱼眼图像,所述第一车载摄像头为多个所述车载摄像头中的一个;
选择所述多帧鱼眼图像中清晰度最高的鱼眼图像为目标鱼眼图像;
将所述目标鱼眼图像进行去鱼眼图像畸变矫正,得到所述第一车载图像,所述第一车载图像为平铺图像。
6.根据权利要求1所述的方法,其特征在于,所述第一变换关系的获取方式包括:
获取标定车载图像,所述标定车载图像中包括标定物;
获取所述标定物的角点在所述标定车载图像中的二维坐标;
获取所述标定物的角点在三维空间中的三维坐标;
根据所述标定物的角点在所述标定车载图像中的二维坐标,和所述标定物的角点对应在三维空间中的三维坐标,得到所述第一变换关系。
7.一种电子设备,其特征在于,包括:处理器、存储器和接口;
所述处理器、所述存储器和所述接口相互配合,使得所述电子设备执行如权利要求1至6中任一项所述的方法。
8.根据权利要7所述的电子设备,其特征在于,所述电子设备为定位服务器。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储了计算机程序,当所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210097432.3A CN114119758B (zh) | 2022-01-27 | 2022-01-27 | 获取车辆位姿的方法、电子设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210097432.3A CN114119758B (zh) | 2022-01-27 | 2022-01-27 | 获取车辆位姿的方法、电子设备和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114119758A CN114119758A (zh) | 2022-03-01 |
CN114119758B true CN114119758B (zh) | 2022-07-05 |
Family
ID=80361840
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210097432.3A Active CN114119758B (zh) | 2022-01-27 | 2022-01-27 | 获取车辆位姿的方法、电子设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114119758B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230027611A1 (en) * | 2021-07-26 | 2023-01-26 | Realtek Semiconductor Corporation | Power supply device, power supply system and non-transitory computer-readable recording medium |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114882115B (zh) * | 2022-06-10 | 2023-08-25 | 国汽智控(北京)科技有限公司 | 车辆位姿的预测方法和装置、电子设备和存储介质 |
CN115083161B (zh) * | 2022-06-15 | 2023-08-04 | 平安国际融资租赁有限公司 | 车辆停留点的评估方法、装置、电子设备及可读存储介质 |
DE102022206858A1 (de) | 2022-07-05 | 2024-01-11 | Robert Bosch Gesellschaft mit beschränkter Haftung | Kalibrierung einer Kameraanordnung mit Hilfe einer weiteren Kamera und überlappenden Erfassungsbereichen |
CN115223102B (zh) * | 2022-09-08 | 2022-12-16 | 枫树谷(成都)科技有限责任公司 | 一种基于摄像头集群的实时人群密度融合感知方法及模型 |
CN116680431B (zh) * | 2022-11-29 | 2024-09-06 | 荣耀终端有限公司 | 一种视觉定位方法、电子设备、介质及产品 |
CN116664684B (zh) * | 2022-12-13 | 2024-04-05 | 荣耀终端有限公司 | 定位方法、电子设备及计算机可读存储介质 |
CN116229036B (zh) * | 2023-05-06 | 2023-07-18 | 山东国研自动化有限公司 | 数据采集系统、方法、计算机设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254579A (zh) * | 2017-07-14 | 2019-01-22 | 上海汽车集团股份有限公司 | 一种双目视觉相机硬件系统、三维场景重建系统及方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6303090B2 (ja) * | 2014-03-24 | 2018-04-04 | アルパイン株式会社 | 画像処理装置および画像処理プログラム |
US10297147B2 (en) * | 2016-12-06 | 2019-05-21 | Flir Commercial Systems, Inc. | Methods and apparatus for monitoring traffic data |
US11417017B2 (en) * | 2019-04-22 | 2022-08-16 | Texas Instmments Incorporated | Camera-only-localization in sparse 3D mapped environments |
DE102019206036A1 (de) * | 2019-04-26 | 2020-10-29 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zur Bestimmung der geografischen Position und Orientierung eines Fahrzeugs |
CN110491166A (zh) * | 2019-08-22 | 2019-11-22 | 宇龙计算机通信科技(深圳)有限公司 | 一种寻找车辆的方法、装置、系统、存储介质及用户终端 |
CN113128266A (zh) * | 2019-12-30 | 2021-07-16 | 厦门歌乐电子企业有限公司 | 一种车辆定位装置及方法 |
CN113936064B (zh) * | 2021-12-17 | 2022-05-20 | 荣耀终端有限公司 | 定位方法和装置 |
-
2022
- 2022-01-27 CN CN202210097432.3A patent/CN114119758B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254579A (zh) * | 2017-07-14 | 2019-01-22 | 上海汽车集团股份有限公司 | 一种双目视觉相机硬件系统、三维场景重建系统及方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230027611A1 (en) * | 2021-07-26 | 2023-01-26 | Realtek Semiconductor Corporation | Power supply device, power supply system and non-transitory computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
CN114119758A (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114119758B (zh) | 获取车辆位姿的方法、电子设备和计算机可读存储介质 | |
CN109829456B (zh) | 图像识别方法、装置及终端 | |
CN113905179B (zh) | 一种终端切换摄像头的方法及终端 | |
CN111443884A (zh) | 投屏方法、装置和电子设备 | |
US20220262035A1 (en) | Method, apparatus, and system for determining pose | |
CN110138999B (zh) | 一种用于移动终端的证件扫描方法及装置 | |
CN114365482A (zh) | 一种基于Dual Camera+TOF的大光圈虚化方法 | |
CN110839128B (zh) | 拍照行为检测方法、装置及存储介质 | |
CN112087649B (zh) | 一种设备搜寻方法以及电子设备 | |
CN110490186B (zh) | 车牌识别方法、装置及存储介质 | |
CN113542580B (zh) | 去除眼镜光斑的方法、装置及电子设备 | |
US20230005277A1 (en) | Pose determining method and related device | |
CN111741284A (zh) | 图像处理的装置和方法 | |
CN112541861B (zh) | 图像处理方法、装置、设备及计算机存储介质 | |
CN115619858A (zh) | 一种物体重建方法以及相关设备 | |
CN113066048A (zh) | 一种分割图置信度确定方法及装置 | |
CN114827442B (zh) | 生成图像的方法和电子设备 | |
CN111127541A (zh) | 车辆尺寸的确定方法、装置及存储介质 | |
CN114842069A (zh) | 一种位姿确定方法以及相关设备 | |
CN111249728B (zh) | 一种图像处理方法、装置及存储介质 | |
CN115032640B (zh) | 手势识别方法和终端设备 | |
CN111179628A (zh) | 自动驾驶车辆的定位方法、装置、电子设备及存储介质 | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
CN115686182B (zh) | 增强现实视频的处理方法与电子设备 | |
CN114812381B (zh) | 电子设备的定位方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230909 Address after: 201306 building C, No. 888, Huanhu West 2nd Road, Lingang New Area, Pudong New Area, Shanghai Patentee after: Shanghai Glory Smart Technology Development Co.,Ltd. Address before: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518040 Patentee before: Honor Device Co.,Ltd. |