CN113420661A - 一种位姿确定方法、装置及设备 - Google Patents

一种位姿确定方法、装置及设备 Download PDF

Info

Publication number
CN113420661A
CN113420661A CN202110697831.9A CN202110697831A CN113420661A CN 113420661 A CN113420661 A CN 113420661A CN 202110697831 A CN202110697831 A CN 202110697831A CN 113420661 A CN113420661 A CN 113420661A
Authority
CN
China
Prior art keywords
target
initial
character
characters
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110697831.9A
Other languages
English (en)
Inventor
孟超
吕吉鑫
孙杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN202110697831.9A priority Critical patent/CN113420661A/zh
Publication of CN113420661A publication Critical patent/CN113420661A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种位姿确定方法、装置及设备,该方法包括:获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;通过图像传感器采集所述目标场景的目标图像;从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。通过本申请的技术方案,能够准确确定图像传感器在全局坐标系下的位姿,提高位姿定位的精度,能够实现智能控制设备的导航定位。

Description

一种位姿确定方法、装置及设备
技术领域
本申请涉及人工智能技术领域,尤其涉及一种位姿确定方法、装置及设备。
背景技术
随着人工智能技术的快速发展,对于智能控制设备的需求不断增加,智能控制设备可以利用传感器检测周围环境和自身状态,包括导航定位信息、道路信息、障碍物信息、自身位姿信息及运动状态信息等,经过一定的决策规划算法后,精确控制智能控制设备的速度和转向,不需要驾驶员的操作。
智能控制设备实现导航定位、环境感知、路径规划、决策控制等功能。导航定位是通过GPS(Global Positioning System,全球定位系统)、惯导、里程计、摄像头、激光雷达等传感器,获取智能控制设备的位置和航向信息。环境感知是通过摄像头、激光雷达、陀螺仪、加速度计等传感器,感知周围的环境信息和状态信息。路径规划是为智能控制设备规划合理的行驶路线。决策控制包括决策和控制两部分,决策是根据导航定位、环境感知及路径规划的信息,决定智能控制设备的形式策略,控制包括转向、驱动、制动等方面。
为了实现智能控制设备的导航定位,一个重要前提是先确定智能控制设备在全局坐标系下的位姿,但是,应该如何确定智能控制设备在全局坐标系下的位姿,目前并没有有效的确定方式,也就是说,无法准确确定智能控制设备在全局坐标系下的位姿,继而导致无法准确实现智能控制设备的导航定位。
发明内容
本申请提供一种位姿确定方法,所述方法包括:
获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
通过图像传感器采集所述目标场景的目标图像;
从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
示例性的,所述从所述目标图像中确定出与所述初始文字匹配的目标文字,包括:从所述目标图像中识别出一个文字,判断该文字与所述初始文字是否相同;如果是,则将该文字确定为所述目标文字;如果否,则从所述目标图像中识别出另一个文字,返回执行判断该文字与所述初始文字是否相同的操作;
或者,从所述目标图像中识别出所有文字,并从所有文字中选取与所述初始文字相同的文字,并将选取的文字确定为所述目标文字。
示例性的,所述基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿,包括:若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则将所述二维像素坐标转换为全局坐标系下的三维空间坐标,基于所述三维物理坐标和所述三维空间坐标,采用ICP算法确定所述图像传感器在所述全局坐标系下的位姿;或,
若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则基于三维物理坐标和二维像素坐标,采用PnP算法确定所述图像传感器在所述全局坐标系下的位姿。
示例性的,基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿后,所述方法还包括:基于所述图像传感器在所述全局坐标系下的位姿,将所述初始文字位置上目标位置的物理坐标转换为所述图像坐标系下的目标坐标;
确定所述目标坐标与所述目标文字位置上目标位置的像素坐标之间的距离;
基于所述距离对所述位姿进行一致性校验。
示例性的,所述基于所述距离对所述位姿进行一致性校验,包括:
若所述距离大于预设距离阈值,则验证所述位姿为错误;
若所述距离不大于预设距离阈值,则验证所述位姿为正确。
示例性的,所述初始文字位置为初始包络框,所述目标文字位置为目标包络框;所述初始包络框上目标位置包括:所述初始包络框上的左上角位置,右上角位置,左下角位置和右下角位置;所述目标包络框上目标位置包括:所述目标包络框上的左上角位置,右上角位置,左下角位置和右下角位置。
所述方法应用于智能控制设备,所述智能控制设备包括智能驾驶车辆、机器人;基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿后,还包括:基于所述位姿对所述智能控制设备进行导航定位。
本申请提供一种位姿确定装置,所述装置包括:获取模块,用于获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
采集模块,用于通过图像传感器采集所述目标场景的目标图像;确定模块,用于从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;以及,基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
示例性的,所述确定模块从所述目标图像中确定出与所述初始文字匹配的目标文字时具体用于:从所述目标图像中识别出一个文字,判断该文字与所述初始文字是否相同;如果是,则将该文字确定为所述目标文字;如果否,则从所述目标图像中识别出另一个文字,并返回执行判断该文字与所述初始文字是否相同的操作;或者,从所述目标图像中识别出所有文字,并从所有文字中选取与所述初始文字相同的文字,并将选取的文字确定为所述目标文字;
所述确定模块基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿时具体用于:若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则将所述二维像素坐标转换为全局坐标系下的三维空间坐标,基于所述三维物理坐标和所述三维空间坐标,采用ICP算法确定所述图像传感器在所述全局坐标系下的位姿;或者,若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则基于三维物理坐标和二维像素坐标,采用PnP算法确定所述图像传感器在所述全局坐标系下的位姿;
所述装置还包括:校验模块,用于基于所述图像传感器在所述全局坐标系下的位姿,将所述初始文字位置上目标位置的物理坐标转换为所述图像坐标系下的目标坐标;确定所述目标坐标与所述目标文字位置上目标位置的像素坐标之间的距离;基于所述距离对所述位姿进行一致性校验。
本申请提供一种智能控制设备,包括:处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令;
所述处理器用于执行机器可执行指令,以实现如下步骤:
获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
通过图像传感器采集所述目标场景的目标图像;
从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
本申请提供一种车辆,所述车辆配置有图像传感器;其中:所述车辆获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;所述车辆通过图像传感器采集所述目标场景的目标图像;所述车辆从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;所述车辆基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
本申请提供一种机器人,所述机器人配置有图像传感器;其中:所述机器人获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;所述机器人通过图像传感器采集所述目标场景的目标图像;所述机器人从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;所述机器人基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
由以上技术方案可见,本申请实施例中,可以基于初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标,确定图像传感器在全局坐标系下的位姿,图像传感器在全局坐标系下的位姿也就是智能控制设备在全局坐标系下的位姿,从而准确确定智能控制设备在全局坐标系下的位姿,继而能够准确实现智能控制设备的导航定位。在上述方式中,基于文字语义实现初始文字与目标文字之间的关联,基于初始文字的初始文字位置和目标文字的目标文字位置,实现物理坐标与像素坐标的精确匹配,基于精确匹配的物理坐标与像素坐标得到高精度的位姿,提高位姿定位的精度(如厘米级精度),提高定位结果的准确性。由于是使用初始文字的初始文字位置和目标文字的目标文字位置实现物理坐标与像素坐标的精确匹配,对于环境外观、光照和视角变化较大的场景,也可以保证较高的识别率,即,可以得到可靠性比较高的位姿。
附图说明
为了更加清楚地说明本申请实施例或者现有技术中的技术方案,下面将对本申请实施例或者现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据本申请实施例的这些附图获得其他的附图。
图1是本申请一种实施方式中的位姿确定方法的数据处理示意图;
图2是本申请一种实施方式中的位姿确定方法的流程示意图;
图3A和图3B是本申请一种实施方式中的全局定位语义数据的示例;
图3C和图3D是本申请一种实施方式中的目标图像的示例;
图4A是本申请一种实施方式中的ICP算法的示意图;
图4B是本申请一种实施方式中的PnP算法的示意图;
图5是本申请一种实施方式中的位姿确定方法的流程示意图;
图6是本申请一种实施方式中的智能控制设备的结构示意图;
图7是本申请一种实施方式中的位姿确定装置的结构示意图;
图8是本申请一种实施方式中的智能控制设备的硬件结构图。
具体实施方式
在本申请实施例使用的术语仅仅是出于描述特定实施例的目的,而非限制本申请。本申请和权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其它含义。还应当理解,本文中使用的术语“和/或”是指包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请实施例可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,此外,所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
智能控制设备可以是采用人工智能进行控制的设备,可以包括但不限于:智能驾驶车辆(如采用无人驾驶系统控制的车辆、无人车等)、机器人(如自主机器人、工业类机器人,消费类机器人,娱乐类机器人、AGV(Automatic Guided Vehicle,自动引导车)等),对此智能控制设备的类型不做限制。
智能控制设备具有导航定位、环境感知、路径规划、决策控制等功能,比如说,针对智能驾驶车辆来说,基于导航定位、环境感知、路径规划、决策控制等功能,才能够实现无人驾驶,即,导航定位是智能驾驶车辆实现无人驾驶的关键。可以通过激光雷达和图像传感器实现智能控制设备的导航定位,即激光雷达和图像传感器是两种常用的导航定位传感器,但是,考虑到激光雷达包含机械结构,难以量产推广且难以维护,而图像传感器具有观测信息丰富和使用寿命长等优点,因此,通常采用图像传感器实现智能控制设备的导航定位。
图像传感器可以为摄像头、相机等,也可以称为视觉传感器或者视觉相机,可以通过图像传感器采集的图像实现智能控制设备的导航定位。在进行智能控制设备的导航定位之前,需要先获取图像传感器在全局坐标系下的位姿,基于图像传感器在全局坐标系下的位姿进行智能控制设备的导航定位。
为了获取图像传感器在全局坐标系下的位姿,在一种可能的实施方式中,可以通过图像传感器采集图像,并提取图像的局部特征(如SIFT(Scale Invariant FeatureTransform,尺度不变特征变换)、ORB(Oriented Fast and Rotated BRIEF,定向快速旋转)等局部特征),并对局部特征进行聚类和压缩,使用一个高维度向量表示整帧图像。通过高维度向量进行图像间的相似度量和检索,将检索到的最相似图像进行局部特征匹配,获取图像传感器在全局坐标系下的位姿。
但是,在上述方式中,需要依赖于局部特征的重复性和可靠性,当场景外观、光照强度和观测视角出现较大变化时,局部特征的可靠性较差,导致相同局部特征的相似度降低,容易引发图像检索或局部特征错误,使得全局定位失败,无法得到图像传感器在全局坐标系下的准确位姿,即位姿的可靠性较低。
针对上述问题,本申请实施例中提出一种位姿确定方法,可以基于文字语义确定图像传感器在全局坐标系下的准确位姿。比如说,可以通过模式识别算法识别出图像中的文字语义,并基于文字语义实现初始文字与目标文字之间的关联,并基于初始文字的初始文字位置和目标文字的目标文字位置,实现物理坐标与像素坐标的精确匹配,继而基于精确匹配的物理坐标与像素坐标得到高精度的位姿(如厘米级位姿),从而提高位姿定位的精度(如厘米级精度),并提高定位结果的准确性。由于是使用初始文字的初始文字位置和目标文字的目标文字位置实现物理坐标与像素坐标的精确匹配,对于环境外观、光照和视角变化较大的场景,也可以保证较高的识别率,即得到可靠性比较高的位姿。
参见图1所示,为位姿确定方法的数据处理示意图,位姿确定方法的输入数据可以包括全局定位语义数据和目标图像,位姿确定方法的输出数据可以是图像传感器在全局坐标系下的位姿,也就是说,基于全局定位语义数据和目标图像,采用该位姿确定方法,就可以得到图像传感器在全局坐标系下的位姿。
以下结合具体实施例,对本申请实施例的技术方案进行说明。
本申请实施例中提出一种位姿确定方法,该方法可以应用于智能控制设备,智能控制设备可以包括但不限于智能驾驶车辆、机器人等,参见图2所示,为该位姿确定方法的流程图,该位姿确定方法可以包括:
步骤201,获取目标场景的全局定位语义数据,该全局定位语义数据包括初始文字、初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标。
示例性的,目标场景可以包括但不限于停车场(如地下停车场)、商贸区、街区等应用场景,对此目标场景的类型不做限制,为了方便描述,在后续实施例中,以目标场景是停车场为例。当智能控制设备进入目标场景时,可以将目标场景的全局定位语义数据发送给智能控制设备。比如说,目标场景的管理平台可以存储有目标场景的全局定位语义数据,智能控制设备在进入目标场景时,可以登录到管理平台,并从管理平台下载目标场景的全局定位语义数据。当然,上述只是获取目标场景的全局定位语义数据的示例,对此获取方式不做限制。
关于管理平台存储目标场景的全局定位语义数据的方式,可以是用户在管理平台配置目标场景的全局定位语义数据,也可以是机器人采集目标场景的全局定位语义数据,并将该全局定位语义数据存储到管理平台,对此不做限制。
比如说,全局定位语义数据可以是全局定位语义地图,机器人可以在目标场景移动,并采用SLAM(Simultaneous Localization And Mapping,同步定位与建图)算法构建目标场景的地图,或者通过人工标注的方式构建目标场景的地图,这个地图也就是目标场景的全局定位语义地图。在得到目标场景的全局定位语义地图后,就可以将目标场景的全局定位语义地图存储到管理平台。
在一种可能的实施方式中,全局定位语义数据可以包括初始文字(为了区分方便,将全局定位语义数据中的文字称为初始文字)、初始文字的初始文字位置(为了区分方便,将初始文字的文字位置称为初始文字位置)上目标位置在全局坐标系下的物理坐标,即初始文字位置上的目标位置的物理坐标。
初始文字按照字音和字形可以分为表形文字、表音文字和意音文字,初始文字按照语音和语素可以分为音素文字、音节文字和语素文字,初始文字可以包括但不限于汉字、汉语拼音(大写或小写汉语拼音)、英文(大写或小写英文等)、德文、法文、俄文、数字等,对此初始文字的类型不做限制。
示例性的,初始文字的初始文字位置包括但不限于初始文字的初始包络框、初始文字的初始文字边缘、初始文字的文字长宽区域等,对此初始文字位置不做限制。初始文字的初始包络框也称为文字包络框或者文字轮廓,初始文字的初始包络框可以是初始文字的最小外接矩形框,或者,初始文字的外接矩形框(外接矩形框需要包括初始文字),或者,以初始文字的中心点为中心的矩形框,比如说,在初始文字的中心点左右各扩展M个像素点,在初始文字的中心点上下各扩展N个像素点,得到一个矩形框。当然,上述只是初始文字的初始包络框的几个示例,对此初始包络框不做限制,后续以最小外接矩形框为例。
初始包络框上目标位置可以包括但不限于以下至少一种:初始包络框上的左上角位置,初始包络框上的右上角位置,初始包络框上的左下角位置、初始包络框上的右下角位置。比如说,目标位置为左上角位置,或者,目标位置为右上角位置,或者,目标位置为左下角位置,或者,目标位置为左上角位置和左下角位置,或者,目标位置为左上角位置、右上角位置、左下角位置和右下角位置。当然,上述只是目标位置的几个示例,对此目标位置不做限制。
初始文字的初始文字边缘是初始文字的外边缘,即文字外边缘的连线,不一定是矩形,可以是任意形状,对此初始文字边缘不做限制。初始文字的文字长宽区域是以初始文字中心为中心点构建的区域,该区域的长为预设长度,该区域的宽为预设宽度,对此文字长宽区域不做限制。
当然,上述只是初始文字位置的几个示例,对此初始文字位置不做限制,在后续实施例中,以初始文字的初始包络框为例进行说明。
初始文字位置上目标位置在全局坐标系下的物理坐标,可以是三维物理坐标,也可以是二维物理坐标,在后续实施例中,以三维物理坐标为例进行说明。
参见图3A所示,为目标场景的全局定位语义数据的示例,该全局定位语义数据包括的初始文字可以是A112和A113。A112的初始文字位置上的目标位置为P11、P12、P13和P14,P11的三维物理坐标是(x11,y11,z11),P12的三维物理坐标是(x12,y12,z12),P13的三维物理坐标是(x13,y13,z13),P14的三维物理坐标是(x14,y14,z14)。A113的初始文字位置上的目标位置为P21、P22、P23和P24,P21的三维物理坐标是(x21,y21,z21),P22的三维物理坐标是(x22,y22,z22),P23的三维物理坐标是(x23,y23,z23),P24的三维物理坐标是(x24,y24,z24)。当然,在实际应用中,初始文字的数量更多,比如说,参见图3B所示,初始文字还可以包括A68和A69,对此初始文字不做限制,在后续实施例中,以初始文字是A112和A113为例进行说明。
步骤202,通过图像传感器采集目标场景的目标图像。
步骤203,从目标图像中确定出与初始文字匹配的目标文字,基于目标图像确定目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标。
示例性的,当智能控制设备进入目标场景时,可以通过图像传感器采集目标场景的目标图像,目标图像的数量可以为至少一个。针对每个目标图像来说,该目标图像可以包括至少一个文字,该目标图像也可以不包括文字。
针对初始文字(可以是全局定位语义数据中的全部初始文字或者部分初始文字)来说,可以从所有目标图像中确定出与该初始文字匹配的文字,并将与该初始文字匹配的文字称为目标文字,即,目标文字与初始文字相同。
综上所述,通过对目标图像中的文字与初始文字进行一致性判定(如字符串比较),确定与初始文字匹配的目标文字,实现目标文字与初始文字的关联,建立全局定位语义数据中文字与图像传感器采集的目标图像中文字的对应关系。
针对初始文字(可以是全局定位语义数据中的全部初始文字或者部分初始文字,后续以一个初始文字为例)来说,为了从目标图像中确定出与该初始文字匹配的目标文字,在一种可能的实施方式中,可以从目标图像中识别出一个文字,判断该文字与该初始文字是否相同。如果是,则将该文字确定为与该初始文字匹配的目标文字。如果否,则从目标图像中识别出另一个文字,返回执行判断该文字与该初始文字是否相同的操作,以此类推,直到确定出与该初始文字匹配的目标文字,或者,目标图像中所有文字与该初始文字均不匹配,从另一个目标图像中识别出文字,返回执行判断该文字与该初始文字是否相同的操作,以此类推,直到确定出与该初始文字匹配的目标文字,或者,所有目标图像中所有文字与该初始文字均不匹配,未得到与该初始文字匹配的目标文字。
比如说,参见图3C所示,为目标图像的一个示例,针对A113这个初始文字来说,可以从目标图像中识别出一个文字A112,且A112与初始文字A113不同,因此,从目标图像中识别出另一个文字A68,且A68与初始文字A113不同,因此,从目标图像中识别出另一个文字A113,且A113与初始文字A113相同,因此,将识别出的A113确定为与该初始文字A113匹配的目标文字。
针对初始文字来说,为了从目标图像中确定出与该初始文字匹配的目标文字,在另一种可能的实施方式中,可以从目标图像中识别出所有文字,并从所有文字中选取与该初始文字相同的文字,并将选取的文字确定为与该初始文字匹配的目标文字。比如说,可以从所有目标图像的所有文字中选取与该初始文字相同的文字作为目标文字,或者,若所有目标图像中的所有文字与该初始文字均不相同,则没有得到与该初始文字匹配的目标文字。
比如说,参见图3C所示,为目标图像的一个示例,可以从目标图像中识别出A112、A113、A68和A69等文字,针对A113这个初始文字来说,可以将目标图像中的A113确定为与该初始文字A113匹配的目标文字。
综上所述,可以从目标图像中确定出与初始文字匹配的目标文字,基于此,还可以基于目标图像确定目标文字的目标文字位置(将目标文字的文字位置称为目标文字位置)上目标位置在图像坐标系下的像素坐标,即目标文字位置上目标位置的像素坐标。比如说,以目标图像的左上角为坐标原点,以水平向右为X轴,以水平向下为Y轴建立图像坐标系,目标文字位置上目标位置的坐标就是目标位置的像素坐标,当然,还可以采用其它方式建立图像坐标系。
示例性的,目标文字的目标文字位置包括但不限于目标文字的目标包络框、目标文字的目标文字边缘、目标文字的文字长宽区域等,对此目标文字位置不做限制。目标文字的目标包络框也称为文字包络框或者文字轮廓,若初始文字的初始包络框是初始文字的最小外接矩形框,则目标文字的目标包络框是目标文字的最小外接矩形框;若初始文字的初始包络框是初始文字的外接矩形框,则目标文字的目标包络框是目标文字的外接矩形框;若初始文字的初始包络框是以初始文字的中心点为中心的矩形框,则目标文字的目标包络框是以目标文字的中心点为中心的矩形框(如在目标文字的中心点左右各扩展M个像素点,在目标文字的中心点上下各扩展N个像素点)。当然,上述只是目标文字的目标包络框的几个示例,对此目标包络框不做限制,后续以最小外接矩形框为例。
目标包络框上目标位置可以包括但不限于以下至少一种:目标包络框上的左上角位置,目标包络框上的右上角位置,目标包络框上的左下角位置、目标包络框上的右下角位置。比如说,若初始包络框上目标位置为左上角位置,则目标包络框上目标位置为左上角位置,或者,若初始包络框上目标位置为右上角位置,则目标包络框上目标位置为右上角位置,或者,若初始包络框上目标位置为左上角位置、右上角位置、左下角位置和右下角位置,则目标包络框上目标位置为左上角位置、右上角位置、左下角位置和右下角位置,以此类推。当然,上述只是目标包络框上目标位置的几个示例,对此目标位置不做限制。
目标文字的目标文字边缘是目标文字的外边缘,即文字外边缘的连线,不一定是矩形,可以是任意形状,对此目标文字边缘不做限制。目标文字的文字长宽区域是以目标文字中心为中心点构建的区域,该区域的长为预设长度,该区域的宽为预设宽度,对此文字长宽区域不做限制。
当然,上述只是目标文字位置的几个示例,对此目标文字位置不做限制,在后续实施例中,以目标文字的目标包络框为例进行说明。
示例性的,目标文字位置上目标位置在图像坐标系(也可以称为相机坐标系)下的像素坐标,可以是二维像素坐标,对此像素坐标的类型不做限制。
参见图3D所示,为目标图像的示例,目标图像包括与初始文字A112匹配的目标文字A112,与初始文字A113匹配的目标文字A113。目标文字A112的目标文字位置上的目标位置为S11、S12、S13和S14,S11的二维像素坐标是(k11,h11),S12的二维像素坐标是(k12,h12),S13的二维像素坐标是(k13,h13),S14的二维像素坐标是(k14,h14)。目标文字A113的目标文字位置上的目标位置为S21、S22、S23和S24,S21的二维像素坐标是(k21,h21),S22的二维像素坐标是(k22,h22),S23的二维像素坐标是(k23,h23),S24的二维像素坐标是(k24,h24)。当然,目标文字的数量更多,在此不再赘述。
在上述实施例中,与目标场景有关,初始文字和目标文字可以包括但不限于车位编号,导流牌文字信息,楼层编号、门牌地址编号和地面文字等,对此初始文字和目标文字均不做限制,上述实施例中是以车位编号为例。
步骤204,基于初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标,确定图像传感器在全局坐标系下的位姿,也就是智能控制设备在全局坐标系下的位姿。示例性的,全局坐标系也可以称为世界坐标系或者物理坐标系,即可以确定图像传感器在世界坐标系或者物理坐标系下的位姿。
示例性的,图像传感器在全局坐标系下的位姿,可以包括姿态和位置,姿态使用3*3的旋转矩阵R表示,位置使用3*1的平移向量t表示,也就是说,图像传感器在全局坐标系下的位姿可以包括旋转矩阵R和平移向量t。
根据观测模型的不同,可以建立初始文字和目标文字的对应映射关系W=F(Q),该映射关系W=F(Q)就是全局坐标系与图像坐标系之间的转换关系。若当目标文字是3D空间坐标时,映射F为空间点坐标变换,与旋转矩阵R(如3*3的旋转矩阵)和平移向量t(如3*1的平移向量)相关;若当前目标文字是2D像素坐标时,映射F为相机投影模式,与旋转矩阵R、平移向量t和相机内参K相关。W表示图像坐标系下的像素坐标,Q表示全局坐标系下的物理坐标。
显然,基于多个坐标点对(针对每个坐标点对来说,该坐标点对包括同一位置的像素坐标和物理坐标),就可以确定出旋转矩阵R和平移向量t,而旋转矩阵R和平移向量t就是图像传感器在全局坐标系下的位姿。
参见上述实施例,初始文字A112的初始文字位置上的左上角位置P11与目标文字A112的目标文字位置上的左上角位置S11对应同一位置,即P11的三维物理坐标(x11,y11,z11)与S11的二维像素坐标(k11,h11)是一个坐标点对,(x11,y11,z11)作为上述公式的Q,(k11,h11)作为上述公式的W。
同理,P12与S12对应同一位置,P12的三维物理坐标(x12,y12,z12)与S12的二维像素坐标(k12,h12)是一个坐标点对。P13与S13对应同一位置,P13的三维物理坐标(x13,y13,z13)与S13的二维像素坐标(k13,h13)是一个坐标点对。P14与S14对应同一位置,P14的三维物理坐标(x14,y14,z14)与S14的二维像素坐标(k14,h14)是一个坐标点对。P21与S21对应同一位置,P21的三维物理坐标(x21,y21,z21)与S21的二维像素坐标(k21,h21)是一个坐标点对,以此类推,基于初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标,可以得到大量的坐标点对,通过将这些坐标点对代入公式W=F(Q),物理坐标作为Q,像素坐标作为W,就可以得到旋转矩阵R和平移向量t,也就是得到图像传感器在全局坐标系下的位姿。
在一种可能的实施方式中,若初始文字位置上目标位置的物理坐标为三维物理坐标,目标文字位置上目标位置的像素坐标为二维像素坐标,在确定图像传感器在全局坐标系下的位姿时,可以先将二维像素坐标转换为全局坐标系下的三维空间坐标(为了区分方便,将二维像素坐标转换后的三维物理坐标记为三维空间坐标),对此转换方式不做限制,比如说,采用双目深度恢复或者视觉SLAM等方式,将二维像素坐标转换为全局坐标系下的三维空间坐标。
然后,可以基于三维物理坐标和三维空间坐标,采用ICP(Iterative ClosestPoint,迭代最近点)算法确定图像传感器在全局坐标系下的位姿,也就是说,基于大量坐标点对,每个坐标点对包括三维物理坐标和二维像素坐标对应的三维空间坐标,可以采用ICP算法确定图像传感器在全局坐标系下的位姿。
ICP算法是针对欧式空间中的两组点集(即三维物理坐标组成的点集和三维空间坐标组成的点集),估计两组点集之间的相对变换,使得两组点集的重合度尽量高,ICP算法的示意图参见图4A所示,通过ICP算法最终使得两组点集的重合度尽量高。ICP算法的基本原理是:分别在待匹配的目标点云W和源点云Q中,按照一定的约束条件,找到最邻近点(wi,qi),然后计算出最优匹配参数R和t,使得误差函数最小,最优匹配参数R和t就是最终需要求解的旋转矩阵R和平移向量t,本实施例中对此ICP算法的内容不做限制。
在一种可能的实施方式中,若初始文字位置上目标位置的物理坐标为三维物理坐标,目标文字位置上目标位置的像素坐标为二维像素坐标,在确定图像传感器在全局坐标系下的位姿时,可以基于三维物理坐标和二维像素坐标,采用PnP(Perspective-n-Point,n点透视)算法确定图像传感器在全局坐标系下的位姿,也就是说,基于大量坐标点对,每个坐标点对包括三维物理坐标和二维像素坐标,可以采用PnP算法确定图像传感器在全局坐标系下的位姿。
PnP算法是针对3D欧式空间和2D图像空间的两组点集(即三维物理坐标组成的点集和二维像素坐标组成的点集),通过估计一个相对位姿,使得3D点云按照相机投影模型的投影误差最小,PnP算法的示意图参见图4B所示,在图4B中,ABC为三维物理坐标组成的点集,abc为二维像素坐标组成的点集,通过PnP算法最终使得投影误差最小,本实施例中对此PnP算法的内容不做限制。
综上所述,可以得到图像传感器在全局坐标系下的位姿,即智能控制设备在全局坐标系下的位姿,在得到该位姿之后,还可以基于图像传感器在全局坐标系下的位姿对智能控制设备进行导航定位,对此过程不做限制。
由以上技术方案可见,本申请实施例中,可以准确确定智能控制设备在全局坐标系下的位姿,继而准确实现智能控制设备的导航定位。基于文字语义实现初始文字与目标文字之间的关联,基于初始文字的初始文字位置和目标文字的目标文字位置,实现物理坐标与像素坐标的精确匹配,基于精确匹配的物理坐标与像素坐标得到高精度的位姿,从而提高位姿定位的精度(如厘米级精度),提高定位结果的准确性。由于是使用初始文字的初始文字位置和目标文字的目标文字位置实现物理坐标与像素坐标的精确匹配,对于环境外观、光照和视角变化较大的场景,也可以保证较高的识别率,即得到可靠性比较高的位姿。
本申请实施例中提出一种位姿确定方法,该方法可以应用于智能控制设备,参见图5所示,为该位姿确定方法的流程图,该位姿确定方法可以包括:
步骤501,获取目标场景的全局定位语义数据,该全局定位语义数据包括初始文字、初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标。
步骤502,通过图像传感器采集目标场景的目标图像。
步骤503,从目标图像中确定出与初始文字匹配的目标文字,基于目标图像确定目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标。
步骤504,基于初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标,确定图像传感器在全局坐标系下的位姿。
步骤501-步骤504可以参见步骤201-步骤204,在此不再赘述。
步骤505,基于图像传感器在全局坐标系下的位姿,将初始文字位置上目标位置的物理坐标转换为图像坐标系下的目标坐标。
步骤506,确定目标坐标与目标文字位置上目标位置的像素坐标之间的距离。
步骤507,基于该距离对图像传感器在全局坐标系下的位姿进行一致性校验。
示例性的,若校验结果是位姿为正确,则输出正确的位姿,即得到图像传感器在全局坐标系下的准确位姿,在得到该位姿之后,还可以基于图像传感器在全局坐标系下的位姿对智能控制设备进行导航定位,对此过程不做限制。
若校验结果是位姿为错误,则返回执行步骤502-步骤504,即重新采集目标图像,基于新目标图像执行步骤502-步骤504,重新确定图像传感器在全局坐标系下的位姿。基于重新确定的位姿,采用步骤505-步骤507对该位姿进行一致性校验,以此类推,一直到校验结果是位姿为正确,输出正确的位姿。
在一种可能的实施方式中,基于该距离对图像传感器在全局坐标系下的位姿进行一致性校验,可以包括但不限于:若该距离大于预设距离阈值,则验证位姿为错误,即一致性校验的校验结果是位姿为错误;若该距离不大于预设距离阈值,则验证位姿为正确,即一致性校验的校验结果是位姿为正确。
参见上述实施例,P11的三维物理坐标(x11,y11,z11)与S11的二维像素坐标(k11,h11)是坐标点对,P12的三维物理坐标(x12,y12,z12)与S12的二维像素坐标(k12,h12)是坐标点对,P13的三维物理坐标(x13,y13,z13)与S13的二维像素坐标(k13,h13)是坐标点对,以此类推。
可以将P11的三维物理坐标(x11,y11,z11)代入公式W=F(Q)中的Q,由于R和t是图像传感器在全局坐标系下的位姿,为已知,因此,可以得到W的取值,该取值就是P11的目标坐标,将P11的目标坐标记为P11’,然后,确定目标坐标P11’与S11的二维像素坐标(k11,h11)之间的距离1。
可以将P12的三维物理坐标(x12,y12,z12)代入公式W=F(Q)中的Q,得到W的取值,该取值就是P12的目标坐标,将P12的目标坐标记为P12’,确定目标坐标P12’与S12的二维像素坐标(k12,h12)之间的距离2。
以此类推,基于每个坐标点对(在上述实施例中,是使用这些坐标点对确定图像传感器在全局坐标系下的位姿),就可以得到一个距离。
若所有坐标点对对应的距离均不大于预设距离阈值,则验证位姿为正确,即一致性校验的校验结果是位姿为正确。若任意一个坐标点对对应的距离大于预设距离阈值,则验证位姿为错误,即一致性校验的校验结果是位姿为错误。
在一种可能的实施方式中,智能控制设备可以包括文字信息语义关联模块、文字信息几何匹配模块和全局定位一致性校验模块,参见图6所示,为智能控制设备的结构示意图。示例性的,文字信息语义关联模块的输入数据是全局定位语义数据和目标图像,基于这些输入数据执行步骤501-步骤503,得到初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标。
文字信息几何匹配模块的输入数据是初始文字位置上目标位置的物理坐标及目标文字位置上目标位置的像素坐标,基于这些输入数据执行步骤504,得到图像传感器在全局坐标系下的位姿,这个位姿是需要进行一致性校验的位姿。
全局定位一致性校验模块的输入数据是图像传感器在全局坐标系下的位姿,基于这些输入数据执行步骤505-步骤507,得到一致性校验的校验结果,若校验结果是位姿为正确,则输出图像传感器在全局坐标系下的位姿。
基于与上述方法同样的申请构思,本申请实施例中提出一种位姿确定装置,参见图7所示,为所述位姿确定装置的结构示意图,所述装置可以包括:
获取模块71,用于获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;采集模块72,用于通过图像传感器采集所述目标场景的目标图像;确定模块73,用于从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
示例性的,所述确定模块73从所述目标图像中确定出与所述初始文字匹配的目标文字时具体用于:从所述目标图像中识别出一个文字,判断该文字与所述初始文字是否相同;如果是,则将该文字确定为所述目标文字;如果否,则从所述目标图像中识别出另一个文字,并返回执行判断该文字与所述初始文字是否相同的操作;或者,从所述目标图像中识别出所有文字,并从所有文字中选取与所述初始文字相同的文字,并将选取的文字确定为所述目标文字。
示例性的,所述确定模块73基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿时具体用于:若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,将所述二维像素坐标转换为全局坐标系下的三维空间坐标,基于所述三维物理坐标和所述三维空间坐标,采用ICP算法确定所述图像传感器在所述全局坐标系下的位姿;或,若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,基于三维物理坐标和二维像素坐标,采用PnP算法确定所述图像传感器在所述全局坐标系下的位姿。
示例性的,所述装置还包括:校验模块,用于基于所述图像传感器在所述全局坐标系下的位姿,将所述初始文字位置上目标位置的物理坐标转换为所述图像坐标系下的目标坐标;确定所述目标坐标与所述目标文字位置上目标位置的像素坐标之间的距离;基于所述距离对所述位姿进行一致性校验。
基于与上述方法同样的申请构思,本申请实施例中提出一种智能控制设备,参见图8所示,所述智能控制设备包括:处理器81和机器可读存储介质82,所述机器可读存储介质82存储有能够被所述处理器81执行的机器可执行指令;所述处理器81用于执行机器可执行指令,以实现如下步骤:
获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
通过图像传感器采集所述目标场景的目标图像;
从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
基于与上述方法同样的申请构思,本申请实施例还提供一种机器可读存储介质,所述机器可读存储介质上存储有若干计算机指令,所述计算机指令被处理器执行时,能够实现本申请上述示例公开的位姿确定方法。
其中,上述机器可读存储介质可以是任何电子、磁性、光学或其它物理存储装置,可以包含或存储信息,如可执行指令、数据,等等。例如,机器可读存储介质可以是:RAM(Radom Access Memory,随机存取存储器)、易失存储器、非易失性存储器、闪存、存储驱动器(如硬盘驱动器)、固态硬盘、任何类型的存储盘(如光盘、dvd等),或者类似的存储介质,或者它们的组合。
基于与上述方法同样的申请构思,本申请实施例中提出一种车辆(如上述实施例的智能驾驶车辆),所述车辆配置有图像传感器;其中:所述车辆获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;所述车辆通过图像传感器采集所述目标场景的目标图像;所述车辆从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;所述车辆基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
关于智能驾驶车辆的上述处理流程,可以参见上述实施例,在此不再赘述。
基于与上述方法同样的申请构思,本申请实施例中提出一种机器人,所述机器人配置有图像传感器;其中:所述机器人获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;所述机器人通过图像传感器采集所述目标场景的目标图像;所述机器人从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;所述机器人基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
关于机器人的上述处理流程,可以参见上述实施例,在此不再赘述。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任意几种设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可以由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其它可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其它可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
而且,这些计算机程序指令也可以存储在能引导计算机或其它可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或者多个流程和/或方框图一个方框或者多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其它可编程数据处理设备上,使得在计算机或者其它可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其它可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (12)

1.一种位姿确定方法,其特征在于,所述方法包括:
获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
通过图像传感器采集所述目标场景的目标图像;
从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
2.根据权利要求1所述的方法,其特征在于,
所述从所述目标图像中确定出与所述初始文字匹配的目标文字,包括:
从所述目标图像中识别出一个文字,判断该文字与所述初始文字是否相同;如果是,则将该文字确定为所述目标文字;如果否,则从所述目标图像中识别出另一个文字,返回执行判断该文字与所述初始文字是否相同的操作;
或者,从所述目标图像中识别出所有文字,并从所有文字中选取与所述初始文字相同的文字,并将选取的文字确定为所述目标文字。
3.根据权利要求1所述的方法,其特征在于,
所述基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿,包括:
若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则将所述二维像素坐标转换为全局坐标系下的三维空间坐标,基于所述三维物理坐标和所述三维空间坐标,采用ICP算法确定所述图像传感器在所述全局坐标系下的位姿;或,
若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则基于三维物理坐标和二维像素坐标,采用PnP算法确定所述图像传感器在所述全局坐标系下的位姿。
4.根据权利要求1所述的方法,其特征在于,所述基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿后,所述方法还包括:
基于所述图像传感器在所述全局坐标系下的位姿,将所述初始文字位置上目标位置的物理坐标转换为所述图像坐标系下的目标坐标;
确定所述目标坐标与所述目标文字位置上目标位置的像素坐标之间的距离;
基于所述距离对所述位姿进行一致性校验。
5.根据权利要求4所述的方法,其特征在于,
所述基于所述距离对所述位姿进行一致性校验,包括:
若所述距离大于预设距离阈值,则验证所述位姿为错误;
若所述距离不大于预设距离阈值,则验证所述位姿为正确。
6.根据权利要求1-5任一项所述的方法,其特征在于,
所述初始文字位置为初始包络框,所述目标文字位置为目标包络框;
所述初始包络框上目标位置包括:所述初始包络框上的左上角位置,右上角位置,左下角位置和右下角位置;所述目标包络框上目标位置包括:所述目标包络框上的左上角位置,右上角位置,左下角位置和右下角位置。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于智能控制设备,所述智能控制设备包括智能驾驶车辆、机器人;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿之后,还包括:基于所述位姿对所述智能控制设备进行导航定位。
8.一种位姿确定装置,其特征在于,所述装置包括:
获取模块,用于获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
采集模块,用于通过图像传感器采集所述目标场景的目标图像;
确定模块,用于从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
9.根据权利要求8所述的装置,其特征在于,
所述确定模块从所述目标图像中确定出与所述初始文字匹配的目标文字时具体用于:从所述目标图像中识别出一个文字,判断该文字与所述初始文字是否相同;如果是,则将该文字确定为所述目标文字;如果否,则从所述目标图像中识别出另一个文字,并返回执行判断该文字与所述初始文字是否相同的操作;或者,从所述目标图像中识别出所有文字,并从所有文字中选取与所述初始文字相同的文字,并将选取的文字确定为所述目标文字;
所述确定模块基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿时具体用于:若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则将所述二维像素坐标转换为全局坐标系下的三维空间坐标,基于所述三维物理坐标和所述三维空间坐标,采用ICP算法确定所述图像传感器在所述全局坐标系下的位姿;或者,若所述初始文字位置上目标位置的物理坐标为三维物理坐标,所述目标文字位置上目标位置的像素坐标为二维像素坐标,则基于三维物理坐标和二维像素坐标,采用PnP算法确定所述图像传感器在所述全局坐标系下的位姿;
所述装置还包括:校验模块,用于基于所述图像传感器在所述全局坐标系下的位姿,将所述初始文字位置上目标位置的物理坐标转换为所述图像坐标系下的目标坐标;确定所述目标坐标与所述目标文字位置上目标位置的像素坐标之间的距离;基于所述距离对所述位姿进行一致性校验。
10.一种智能控制设备,其特征在于,包括:处理器和机器可读存储介质,所述机器可读存储介质存储有能够被所述处理器执行的机器可执行指令;
所述处理器用于执行机器可执行指令,以实现如下步骤:
获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
通过图像传感器采集所述目标场景的目标图像;
从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
11.一种车辆,其特征在于,所述车辆配置有图像传感器;其中:
所述车辆获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
所述车辆通过图像传感器采集所述目标场景的目标图像;
所述车辆从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
所述车辆基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
12.一种机器人,其特征在于,所述机器人配置有图像传感器;其中:
所述机器人获取目标场景的全局定位语义数据,所述全局定位语义数据包括初始文字、所述初始文字的初始文字位置上目标位置在全局坐标系下的物理坐标;
所述机器人通过图像传感器采集所述目标场景的目标图像;
所述机器人从所述目标图像中确定出与所述初始文字匹配的目标文字,基于所述目标图像确定所述目标文字的目标文字位置上目标位置在图像坐标系下的像素坐标;
所述机器人基于所述初始文字位置上目标位置的物理坐标及所述目标文字位置上目标位置的像素坐标,确定所述图像传感器在所述全局坐标系下的位姿。
CN202110697831.9A 2021-06-23 2021-06-23 一种位姿确定方法、装置及设备 Pending CN113420661A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110697831.9A CN113420661A (zh) 2021-06-23 2021-06-23 一种位姿确定方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110697831.9A CN113420661A (zh) 2021-06-23 2021-06-23 一种位姿确定方法、装置及设备

Publications (1)

Publication Number Publication Date
CN113420661A true CN113420661A (zh) 2021-09-21

Family

ID=77717525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110697831.9A Pending CN113420661A (zh) 2021-06-23 2021-06-23 一种位姿确定方法、装置及设备

Country Status (1)

Country Link
CN (1) CN113420661A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114648639A (zh) * 2022-05-19 2022-06-21 魔视智能科技(武汉)有限公司 一种目标车辆的检测方法、系统及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046580A1 (en) * 2015-08-11 2017-02-16 Honda Motor Co., Ltd Sign based localization
CN111932611A (zh) * 2020-05-26 2020-11-13 北京百度网讯科技有限公司 物体位置获取方法和装置
CN112013858A (zh) * 2020-10-16 2020-12-01 北京猎户星空科技有限公司 定位方法、装置、自移动设备和存储介质
WO2021088393A1 (zh) * 2019-11-08 2021-05-14 华为技术有限公司 确定位姿的方法、装置和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170046580A1 (en) * 2015-08-11 2017-02-16 Honda Motor Co., Ltd Sign based localization
CN106446769A (zh) * 2015-08-11 2017-02-22 本田技研工业株式会社 用于基于标志的定位系统及方法
WO2021088393A1 (zh) * 2019-11-08 2021-05-14 华为技术有限公司 确定位姿的方法、装置和系统
CN111932611A (zh) * 2020-05-26 2020-11-13 北京百度网讯科技有限公司 物体位置获取方法和装置
CN112013858A (zh) * 2020-10-16 2020-12-01 北京猎户星空科技有限公司 定位方法、装置、自移动设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114648639A (zh) * 2022-05-19 2022-06-21 魔视智能科技(武汉)有限公司 一种目标车辆的检测方法、系统及装置
CN114648639B (zh) * 2022-05-19 2022-08-23 魔视智能科技(武汉)有限公司 一种目标车辆的检测方法、系统及装置

Similar Documents

Publication Publication Date Title
US11042762B2 (en) Sensor calibration method and device, computer device, medium, and vehicle
CN109461211B (zh) 基于视觉点云的语义矢量地图构建方法、装置和电子设备
CN107741234B (zh) 一种基于视觉的离线地图构建及定位方法
CN110807350B (zh) 用于面向扫描匹配的视觉slam的系统和方法
US11328521B2 (en) Map construction method, electronic device and readable storage medium
WO2021073656A1 (zh) 图像数据自动标注方法及装置
CN110226186B (zh) 表示地图元素的方法和装置以及定位的方法和装置
CN108279670B (zh) 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
US11227395B2 (en) Method and apparatus for determining motion vector field, device, storage medium and vehicle
Ding et al. Vehicle pose and shape estimation through multiple monocular vision
CN106548486A (zh) 一种基于稀疏视觉特征地图的无人车位置跟踪方法
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
US20230206500A1 (en) Method and apparatus for calibrating extrinsic parameter of a camera
CN112232275A (zh) 基于双目识别的障碍物检测方法、系统、设备及存储介质
CN114255323A (zh) 机器人、地图构建方法、装置和可读存储介质
CN111105695A (zh) 地图制作方法、装置、电子设备及计算机可读存储介质
EP4202497A1 (en) Localization method and apparatus, and computer apparatus and computer-readable storage medium
US20220114813A1 (en) Detecting obstacle
CN110278714A (zh) 障碍物检测方法、移动平台及计算机可读存储介质
Canovas et al. Onboard dynamic RGB‐D simultaneous localization and mapping for mobile robot navigation
CN113420661A (zh) 一种位姿确定方法、装置及设备
US20220187845A1 (en) Method for estimating positioning of moving object by using big cell grid map, recording medium in which program for implementing same is stored, and computer program stored in medium in order to implement same
CN113011212A (zh) 图像识别方法、装置及车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination