CN111932611B - 物体位置获取方法和装置 - Google Patents

物体位置获取方法和装置 Download PDF

Info

Publication number
CN111932611B
CN111932611B CN202010452619.1A CN202010452619A CN111932611B CN 111932611 B CN111932611 B CN 111932611B CN 202010452619 A CN202010452619 A CN 202010452619A CN 111932611 B CN111932611 B CN 111932611B
Authority
CN
China
Prior art keywords
feature points
camera
space
coordinates corresponding
pose information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010452619.1A
Other languages
English (en)
Other versions
CN111932611A (zh
Inventor
贾金让
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Zhilian Beijing Technology Co Ltd
Original Assignee
Apollo Zhilian Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Zhilian Beijing Technology Co Ltd filed Critical Apollo Zhilian Beijing Technology Co Ltd
Priority to CN202010452619.1A priority Critical patent/CN111932611B/zh
Publication of CN111932611A publication Critical patent/CN111932611A/zh
Application granted granted Critical
Publication of CN111932611B publication Critical patent/CN111932611B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种物体位置获取方法和装置,涉及智能交通领域。具体实现方案为:从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中;获取多个特征点在空间中对应的世界坐标;根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息;以及根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。由此,以特征点对应的像素坐标和世界坐标,来计算出相机的位姿信息,以便于根据相机的位姿信息对目标物体进行定位,解决了在定位系统信号弱时,无法对目标物体定位的技术问题。

Description

物体位置获取方法和装置
技术领域
本申请涉及图像处理技术领域中的智能交通技术,尤其涉及一种物体位置获取方法和装置。
背景技术
相机的位姿信息是将物体在真实世界的位置和图像中的像素位置连接起来的必要条件,在需要定位图像中物体位置的领域中十分重要,如自动驾驶、安防、交通监控与控制等。没有相机的位姿信息,在2D图像层面检测到的物体只能停留在像素坐标系下,毫无实际意义。进一步地讲,相机的位姿信息越准确,对2D图像中的物体在实际世界中的位置定位就越准,定位精度就越高。因此,计算出准确的相机的位姿信息十分必要且重要。
相关技术中,依赖于定位系数检测到的世界坐标来确定相机的位姿信息,然而当定位系数的信号较弱时,比如定位系数在隧道等场景下信号较弱,则无法获取到世界坐标,从而,无法准确的计算相机的位姿信息,导致无法定位物体的位置。
发明内容
本申请提供了一种物体位置获取方法和装置,解决了在定位系统信号弱时,无法对目标物体定位的技术问题。
根据第一方面,提供了一种物体位置获取方法,所述方法包括:从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,所述相机设置在没有定位信号覆盖的空间中;获取所述多个特征点在所述空间中对应的世界坐标;根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息;以及根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标。
根据第二方面,提供了一种物体位置获取装置,包括:第一获取模块,用于从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,所述相机设置在没有定位信号覆盖的空间中;第二获取模块,用于获取所述多个特征点在所述空间中对应的世界坐标;第三获取模块,用于根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息;第四获取模块,用于根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述实施例所述的物体位置获取方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述实施例所述的物体位置获取方法。
根据第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据第一方面所述的物体位置获取方法。
本申请的实施例,至少具备如下技术效果:
从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中,进而,获取多个特征点在空间中对应的世界坐标,根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息,最后,根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。由此,以特征点对应的像素坐标和世界坐标,来计算出相机的位姿信息,以便于根据相机的位姿信息对目标物体进行定位,解决了在定位系统信号弱时,无法对目标物体定位的技术问题。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的物体位置获取方法的流程示意图;
图2是根据本申请第二实施例的特征点位置示意图;
图3是根据本申请第三实施例的特征点位置示意图;
图4是根据本申请第四实施例的物体位置获取方法的流程示意图;
图5是根据本申请第五实施例的物体位置获取场景示意图;
图6是根据本申请第六实施例的物体位置获取场景示意图;
图7是根据本申请第七实施例的物体位置获取场景示意图;
图8是根据本申请第八实施例的物体位置获取方法的流程示意图;
图9是根据本申请第九实施例的物体位置获取装置的结构示意图;
图10是用来实现本申请实施例的物体的定位的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
为了解决背景技术中提到的,定位系统定位信号弱时,无法对物体定位的问题,本申请提出了一种世界坐标的计算方式,以算法的计算来确定世界坐标,不依赖于定位系统获取世界坐标,从而,即使在定位系统信号弱的时候,也能够获取世界坐标,进而根据世界坐标定位相机的位姿信息,实现对物体的定位。其中,相机的位姿信息可以理解为世界坐标系到相机坐标系的变换矩阵。
具体而言,图1是根据本申请一个实施例的物体位置获取方法的流程图,如图1所示,该方法包括:
步骤101,从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中。
其中,没有定位信号覆盖的空间可以为隧道等定位信号较弱的空间。
可以理解,在本实施例中,将相机设置在没有定位信号覆盖的空间中,拍摄当前地面的地面图片,进而,从相机拍摄的地面图片中获取多个特征点对应的像素坐标,比如,根据地面图像的图像特征识别多个特征点所在的图片位置,根据该图片位置确定像素坐标,以便于根据该特征点的像素坐标辅助计算相机位姿信息。
需要说明的是,多个特征点尽量为地面中分散且具有易识别性的位置点,在本申请的一个实施例中,如图2所示,多个特征点可以为路面两侧可以覆盖全地面的分散的点,在本实施例中,确定地面图像中的中心线,在中心线两侧获取多个特征点的像素坐标,比如,在中心线两侧各自确定地面从入口到出口中分散部分的四个点。
在本申请的另一个实施例中,如图3所示,多个特征点可以对应于路面两侧路标所在的位置,比如,减速路标对应的位置为一个特征点等。
步骤102,获取多个特征点在空间中对应的世界坐标。
由于相机的位姿信息依赖于世界坐标和像素坐标共同计算得到,因此,还获取多个特征点在空间中对应的世界坐标。
需要说明的是,在不同的应用场景中,获取多个特征点在空间中对应的世界坐标的方式不同,示例如下:
示例一:
在本示例中,如图4所示,步骤102包括:
步骤201,在空间外面的入口位置通过定位系统获取参考世界坐标。
可以理解的是,空间外面的定位系统的定位信号较强,因此,可以在控件外面的入口位置通过定位系统获取参考世界坐标,其中,入口位置可以是任意指定的位于入口的位置,可以是空间的入口标识所在位置,也可以是空间的入口边缘所在的位置等。
步骤202,在空间中标定与多个特征点对应的多个特征位置。
由于多个特征点在空间中具有对应的物理位置,因此,在空间中标注与多个特征点对应的多个特征位置,该特征位置可以理解为上述的物理位置,这种标注方法可以理解为在特征位置的放标识物(比如标志牌等)来标注,也可以是在处理器中输入特征点对应的物理位置。
步骤203,通过全站仪根据参考世界坐标测量与多个特征位置对应的世界坐标。
其中,全站仪是一种集光、机、电为一体的高技术测量仪器,是集水平角、垂直角、距离(斜距、平距)、高差测量功能于一体的测绘仪器系统。因其一次安置仪器就可完成该测站上全部测量工作,所以称之为全站仪。
具体的,在本实施例中,通过全站仪根据参考世界坐标测量与多个特征位置对应的世界坐标。
在一些可能的示例中,如图5所示,计算全站仪和入口位置的第一位置关系,其中,第一位置关系反映了入口位置和全站仪的水平角、垂直角、距离(斜距、平距)、高差测量,确定第一位置关系和参考世界坐标的对应关系,计算全站仪与多个特征位置中每个特征位置的第二位置关系,根据该第一位置关系和参考世界坐标的对应关系和第二位置关系,可以计算出每个特征位置的世界坐标。
在另一些可能的示例中,如图6所示(图中仅示出一个特征点),当入口位置为多个,比如包括A点和B点,在以全站仪所在位置为坐标原点,根据A点和B点的参考世界坐标可以构建相对于全站仪坐标系的参考世界坐标系,进而,根据全站仪测量每个特征位置在参考世界坐标系中的坐标位置,根据该坐标位置确定该参考世界坐标系下对应的特征位置的世界坐标。
示例二:
在本示例中,空间中的特征点在空间外侧具有对应点,该对应点的位置在水平方向上与特征点重合,因此,可以根据定位系统获取的对应点的世界坐标作为特征点的世界坐标。
如图7所示,当空间为隧道时,特征点为1-4,则可以隧道上与特征点位于同一个竖直面上的点为对应点,该对应点位于隧道的外表面,基于该隧道外表面中的较高的定位系统信号,可以确定出对应点的世界坐标,直接将该对应点的世界坐标作为特征点的世界坐标。
步骤103,根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息。
具体的,由于像素坐标和世界坐标的转换关系,与相机的位姿信息有关,因此,根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息。
在本申请的一个实施例中,计算像素坐标和世界坐标的转换矩阵,根据该装换矩阵确定相机的位置信息。
步骤104,根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。
具体的,在获取相机的位姿信息后,根据相机的位姿信息即可获取目标物体在空间对应的目标世界坐标,其中,目标物体根据应用场景确定,可以是自动驾驶场景中的车辆,可以是无人机场景中的无人机等。
需要说明的是,在不同的应用场景中,根据相机的位姿信息获取目标物体在空间对应的目标世界坐标的方式不同,示例如下:
示例一:
在本示例中,由于地面法向量体现了三维空间的坐标转换情况,因此,需要结合地面法向量来获取目标物体在所述空间对应的目标世界坐标。
获取地面法向量,比如,根据预设的方程组对多个特征点对应的像素坐标和空间中对应的世界坐标进行求解获取地面法向量,其中,预设的方程组体现了像素坐标和世界坐标基于地面法向量的转换关系,该转换关系可由现有技术实现,在此不再赘述。又比如,可以根据对空间入口处的参考点对应的像素坐标和空间中对应的世界坐标进行求解获取地面法向量。
进而,从相机拍摄的目标图片中获取目标物体的目标像素坐标,比如可以对目标图像中的图像特征提取,根据提取出的图像特征来确定目标物体所在的图像位置,根据该图像位置确定目标像素坐标。根据目标像素坐标、相机的位姿信息和地面法向量获取目标物体在空间对应的目标世界坐标,其中,根据目标像素坐标、相机的位姿信息和地面法向量获取目标物体在空间对应的目标世界坐标,可由现有技术计算得到,在此不再赘述。
示例二:
在本示例中,从相机拍摄的目标图片中获取目标物体的目标像素坐标,进而,由于位姿信息反映了像素坐标和世界坐标的转换矩阵,因此,根据目标像素坐标和相机的位姿信息获取目标物体在空间对应的目标世界坐标。
综上,本申请实施例的物体位置获取方法,从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中,进而,获取多个特征点在空间中对应的世界坐标,根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息,最后,根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。由此,以特征点对应的像素坐标和世界坐标,来计算出相机的位姿信息,以便于根据相机的位姿信息对目标物体进行定位,解决了在定位系统信号弱时,无法对目标物体定位的技术问题。
在实际应用中,可能特征点的数量不同,本申请还提供了一种根据特征点的不同数量,兼顾目标世界坐标的获取以及获取精度的方式。
在本申请的一个实施例中,如果多个特征点的数量小于预设阈值,其中,该预设阈值可以根据计算相机的位姿信息的算法确定,比如算法为PNP算法,则预设阈值为4,则表明目标世界坐标的获取精度可能无法得到较好的保证,此时,优先考虑对目标世界坐标的成功获取,即根据预设的方程组对多个特征点对应的像素坐标和空间中对应的世界坐标进行求解获取相机的位姿信息。该预设的方程组对应世界坐标系到相机坐标系的刚体变换公式和相机坐标系到图像坐标系的透视头像变换公式等。
在本申请的另一个实施例中,如果多个特征点的数量大于等于预设阈值,则可以兼顾目标世界坐标的获取以及获取精度。
具体而言,如图8所示,上述根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息的步骤包括:
步骤301,如果多个特征点的数量大于等于预设阈值,则对多个特征点进行分组生成多个数据组合,其中,每种数据组合包括,N个第一特征点,以及M个第二特征点,其中,第一特征点和第二特征点的和为多个特征点的数量。
具体的,如果多个特征点的数量大于等于预设阈值,则对多个特征点进行分组生成多个数据组合,其中,每种数据组合包括,N个第一特征点,以及M个第二特征点,其中,第一特征点和第二特征点的和为多个特征点的数量,N的数量可以根据计算相机的位姿信息的算法来确定,当算为PNP算法时,则对应的N为4。
步骤302,根据预设的方程组对每种数据组合中N个第一特征点对应的第一像素坐标,以及在空间中对应的第一世界坐标进行求解获取每种数据组合对应的相机候选位姿信息。
可以理解的是,第一特征点用于计算相机的位姿信息,第二特征点用于进行误差验证,以寻求知道误差最小的最精确的位姿信息。
具体的,根据预设的方程组对每种数据组合中N个第一特征点对应的第一像素坐标,以及在空间中对应的第一世界坐标进行求解获取每种数据组合对应的相机候选位姿信息。
步骤303,根据每种数据组合中的M个第二特征点在空间中对应的第二世界坐标,以及每种数据组合对应的相机候选位姿信息计算每种数据组合中M个第二特征点对应的参考像素坐标。
具体的,在得到每种数据组合对应的相机候选位姿信息后,可以根据该相机候选位姿信息对第二特征点的第二世界坐标计算,以获取第二特征点的参考像素坐标。
即根据每种数据组合中的M个第二特征点在空间中对应的第二世界坐标,以及每种数据组合对应的相机候选位姿信息计算每种数据组合中M个第二特征点对应的参考像素坐标。
步骤304,比较每种数据组合中M个第二特征点对应的参考像素坐标与地面图片中获取M个第二特征点对应的像素坐标进行比较获取每种数据组合对应的像素误差。
由于每种数据组合对应的相机候选位姿信息可能都具有不同程度的计算误差,为了确定每种数据组合对应的相机候选位姿信息的误差,比较每种数据组合中M个第二特征点对应的参考像素坐标与地面图片中获取M个第二特征点对应的像素坐标进行比较获取每种数据组合对应的像素误差,该像素误差可以是坐标点之间的距离误差等。其中,当M为多个时,可以取所有第二特征点的像素误差均值来确定对应的像素误差。
步骤305,根据像素误差最小值的数据组合对应的相机候选位姿信息确定相机的位姿信息。
显而易见的是,像素误差最小值的数据组合对应的相机候选位姿信息显然是精确度最高的,因此,根据像素误差最小值的数据组合对应的相机候选位姿信息确定相机的位姿信息。
综上,本申请实施例的物体位置获取方法,可以根据特征点的数量灵活的确定相机的位姿信息,兼顾目标世界坐标的获取精确度和获取有效性。
基于以上实施例,需要说明的是,上述物体位置获取方法可以在很多场景中协助对物体定位,具有较为广阔的应用前景。
场景一:
在本示例中,可以根据目标物体的物体图像特征确定目标物体的故障类型,比如是车辆还是障碍物等,进而,确定与故障类型对应的通信地址,该通信地址对应于目标设备,比如,当故障类型是车辆时,则对应的通信地址对应的目标设备是车辆控制中心,比如,当故障类型是障碍物,则通信地址对应的目标设备为车辆等,根据通信地址向目标设备发送目标物体在空间对应的目标世界坐标。
场景二:
在本示例中,可以根据目标物体的物体图像特征确定目标物体的故障类型,比如是车辆还是障碍物等,当故障类型是车辆时,向车辆发送与该空间对应的导航信息,使得在没有定位信号时,也能对车辆进行导航。
综上,本申请实施例的物体位置获取方法,可以在很多场景下提供物体的定位服务,实用性较高。
为了实现上述实施例,本申请还提出了一种物体位置获取装置。图9是根据本申请一个实施例的物体位置获取装置的结构示意图,如图9所示,该物体位置获取装置包括:第一获取模块910、第二获取模块920、第三获取模块930和第四获取模块940,其中,
第一获取模块910,用于从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中;
在本申请的一个实施例中,第一获取模块910,具体用于:
确定地面图片中的中心线;
在中心线两侧获取多个特征点的像素坐标。
第二获取模块920,用于获取多个特征点在空间中对应的世界坐标;
在本申请的一个实施例中,第二获取模块920,具体用于:
在空间外面的入口位置通过定位系统获取参考世界坐标;
在空间中标定与多个特征点对应的多个特征位置;
通过全站仪根据参考世界坐标测量与多个特征位置对应的世界坐标。
第三获取模块930,用于根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息;
第四获取模块940,用于根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。
需要说明的是,前述对物体位置获取方法的解释说明,也适用于本申请实施例的物体位置获取装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的物体位置获取装置,从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,相机设置在没有定位信号覆盖的空间中,进而,获取多个特征点在空间中对应的世界坐标,根据多个特征点对应的像素坐标和空间中对应的世界坐标获取相机的位姿信息,最后,根据相机的位姿信息获取目标物体在空间对应的目标世界坐标。由此,以特征点对应的像素坐标和世界坐标,来计算出相机的位姿信息,以便于根据相机的位姿信息对目标物体进行定位,解决了在定位系统信号弱时,无法对目标物体定位的技术问题。
在实际应用中,可能特征点的数量不同,本申请还提供了一种根据特征点的不同数量,兼顾目标世界坐标的获取以及获取精度的方式。
在本申请的一个实施例中,第三获取模块930,具体用于:
在多个特征点的数量小于预设阈值时,则据预设的方程组对多个特征点对应的像素坐标和空间中对应的世界坐标进行求解获取相机的位姿信息。
在本申请的另一个实施例中,第三获取模块930,具体用于:
在多个特征点的数量大于等于预设阈值时,对多个特征点进行分组生成多个数据组合,其中,每种数据组合包括,N个第一特征点,以及M个第二特征点,其中,第一特征点和第二特征点的和为多个特征点的数量;
根据预设的方程组对每种数据组合中N个第一特征点对应的第一像素坐标,以及在空间中对应的第一世界坐标进行求解获取每种数据组合对应的相机候选位姿信息;
根据每种数据组合中的M个第二特征点在空间中对应的第二世界坐标,以及每种数据组合对应的相机候选位姿信息计算每种数据组合中M个第二特征点对应的参考像素坐标;
比较每种数据组合中M个第二特征点对应的参考像素坐标与地面图片中获取M个第二特征点对应的像素坐标进行比较获取每种数据组合对应的像素误差;
根据像素误差最小值的数据组合对应的相机候选位姿信息确定相机的位姿信息。
需要说明的是,前述对物体位置获取方法的解释说明,也适用于本申请实施例的物体位置获取装置,其实现原理类似,在此不再赘述。
综上,本申请实施例的物体位置获取装置,可以根据特征点的数量灵活的确定相机的位姿信息,兼顾目标世界坐标的获取精确度和获取有效性。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图10所示,是根据本申请实施例的物体的定位的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的物体的定位的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的物体的定位的方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的物体的定位的方法对应的程序指令/模块。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的物体的定位的方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据物体的定位的电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至物体的定位的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
物体的定位的方法的电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图10中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与物体的定位的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,即本申请还提出了一种计算机程序,该计算机程序在被处理器执行时,实现上述实施例所描述的物体位置获取方法,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种物体位置获取方法,其特征在于,所述方法包括:
从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,所述相机设置在没有定位信号覆盖的空间中;
获取所述多个特征点在所述空间中对应的世界坐标;
根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息;以及
根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标;
所述根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息,包括:
如果所述多个特征点的数量大于等于预设阈值,则对所述多个特征点进行分组生成多个数据组合,其中,每种数据组合包括,N个第一特征点,以及M个第二特征点,其中,所述第一特征点和所述第二特征点的和为所述多个特征点的数量;
根据预设的方程组对每种数据组合中N个第一特征点对应的第一像素坐标,以及在所述空间中对应的第一世界坐标进行求解获取每种数据组合对应的相机候选位姿信息;
根据每种数据组合中的M个第二特征点在所述空间中对应的第二世界坐标,以及每种数据组合对应的相机候选位姿信息计算每种数据组合中M个第二特征点对应的参考像素坐标;
比较每种数据组合中M个第二特征点对应的参考像素坐标与地面图片中获取M个第二特征点对应的像素坐标进行比较获取每种数据组合对应的像素误差;
根据像素误差最小值的数据组合对应的相机候选位姿信息确定所述相机的位姿信息。
2.如权利要求1所述的方法,其特征在于,从所述相机拍摄的地面图片中获取多个特征点对应的像素坐标,包括:
确定所述地面图片中的中心线;
在所述中心线两侧获取多个特征点的像素坐标。
3.如权利要求1所述的方法,其特征在于,所述获取所述多个特征点在所述空间中对应的世界坐标,包括:
在所述空间外面的入口位置通过定位系统获取参考世界坐标;
在所述空间中标定与所述多个特征点对应的多个特征位置;
通过全站仪根据所述参考世界坐标测量与所述多个特征位置对应的世界坐标。
4.如权利要求1所述的方法,其特征在于,所述根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息,包括:
如果所述多个特征点的数量小于预设阈值,则根据预设的方程组对所述多个特征点对应的像素坐标和所述空间中对应的世界坐标进行求解获取所述相机的位姿信息。
5.如权利要求1所述的方法,其特征在于,所述根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标,包括:
获取地面法向量;
从所述相机拍摄的目标图片中获取目标物体的目标像素坐标;
根据所述目标像素坐标、所述相机的位姿信息和所述地面法向量获取所述目标物体在所述空间对应的目标世界坐标。
6.如权利要求1所述的方法,其特征在于,所述获取地面法向量,包括:
根据预设的方程组对所述多个特征点对应的像素坐标和所述空间中对应的世界坐标进行求解获取所述地面法向量。
7.如权利要求1所述的方法,其特征在于,在所述根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标之后,还包括:
获取所述目标物体的故障类型;
确定与所述故障类型对应的通信地址;
根据所述通信地址向目标设备发送所述目标物体在所述空间对应的目标世界坐标。
8.一种物体位置获取装置,其特征在于,包括:
第一获取模块,用于从相机拍摄的地面图片中获取多个特征点对应的像素坐标,其中,所述相机设置在没有定位信号覆盖的空间中;
第二获取模块,用于获取所述多个特征点在所述空间中对应的世界坐标;
第三获取模块,用于根据所述多个特征点对应的像素坐标和所述空间中对应的世界坐标获取所述相机的位姿信息;
第四获取模块,用于根据所述相机的位姿信息获取目标物体在所述空间对应的目标世界坐标;
其特征在于,所述第三获取模块,具体用于:
在所述多个特征点的数量大于等于预设阈值时,对所述多个特征点进行分组生成多个数据组合,其中,每种数据组合包括,N个第一特征点,以及M个第二特征点,其中,所述第一特征点和所述第二特征点的和为所述多个特征点的数量;
根据预设的方程组对每种数据组合中N个第一特征点对应的第一像素坐标,以及在所述空间中对应的第一世界坐标进行求解获取每种数据组合对应的相机候选位姿信息;
根据每种数据组合中的M个第二特征点在所述空间中对应的第二世界坐标,以及每种数据组合对应的相机候选位姿信息计算每种数据组合中M个第二特征点对应的参考像素坐标;
比较每种数据组合中M个第二特征点对应的参考像素坐标与地面图片中获取M个第二特征点对应的像素坐标进行比较获取每种数据组合对应的像素误差;
根据像素误差最小值的数据组合对应的相机候选位姿信息确定所述相机的位姿信息。
9.如权利要求8所述的装置,其特征在于,所述第一获取模块,具体用于:
确定所述地面图片中的中心线;
在所述中心线两侧获取多个特征点的像素坐标。
10.如权利要求8所述的装置,其特征在于,所述第二获取模块,具体用于:
在所述空间外面的入口位置通过定位系统获取参考世界坐标;
在所述空间中标定与所述多个特征点对应的多个特征位置;
通过全站仪根据所述参考世界坐标测量与所述多个特征位置对应的世界坐标。
11.如权利要求8所述的装置,其特征在于,所述第三获取模块,具体用于:
在所述多个特征点的数量小于预设阈值时,则据预设的方程组对所述多个特征点对应的像素坐标和所述空间中对应的世界坐标进行求解获取所述相机的位姿信息。
12. 一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的物体位置获取方法。
13.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的物体位置获取方法。
14.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的物体位置获取方法。
CN202010452619.1A 2020-05-26 2020-05-26 物体位置获取方法和装置 Active CN111932611B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010452619.1A CN111932611B (zh) 2020-05-26 2020-05-26 物体位置获取方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010452619.1A CN111932611B (zh) 2020-05-26 2020-05-26 物体位置获取方法和装置

Publications (2)

Publication Number Publication Date
CN111932611A CN111932611A (zh) 2020-11-13
CN111932611B true CN111932611B (zh) 2024-05-10

Family

ID=73316422

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010452619.1A Active CN111932611B (zh) 2020-05-26 2020-05-26 物体位置获取方法和装置

Country Status (1)

Country Link
CN (1) CN111932611B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420661A (zh) * 2021-06-23 2021-09-21 杭州海康威视数字技术股份有限公司 一种位姿确定方法、装置及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991705A (zh) * 2017-04-06 2017-07-28 南京航空航天大学 一种基于p3p算法的位置参数估计方法
CN109374003A (zh) * 2018-11-06 2019-02-22 山东科技大学 一种基于ArUco码的移动机器人视觉定位与导航方法
CN109448055A (zh) * 2018-09-20 2019-03-08 中国科学院光电研究院 单目视觉姿态确定方法及系统
CN109807885A (zh) * 2018-12-29 2019-05-28 深圳市越疆科技有限公司 一种机械手的视觉标定方法、装置及智能终端
CN110008893A (zh) * 2019-03-29 2019-07-12 武汉理工大学 一种基于车载图像传感器的车辆行驶跑偏自动检测方法
CN110232716A (zh) * 2019-05-31 2019-09-13 深圳市道通智能航空技术有限公司 一种相机标定方法、装置和电子设备
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110738143A (zh) * 2019-09-27 2020-01-31 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108062776B (zh) * 2018-01-03 2019-05-24 百度在线网络技术(北京)有限公司 相机姿态跟踪方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106991705A (zh) * 2017-04-06 2017-07-28 南京航空航天大学 一种基于p3p算法的位置参数估计方法
CN109448055A (zh) * 2018-09-20 2019-03-08 中国科学院光电研究院 单目视觉姿态确定方法及系统
CN109374003A (zh) * 2018-11-06 2019-02-22 山东科技大学 一种基于ArUco码的移动机器人视觉定位与导航方法
CN109807885A (zh) * 2018-12-29 2019-05-28 深圳市越疆科技有限公司 一种机械手的视觉标定方法、装置及智能终端
CN110008893A (zh) * 2019-03-29 2019-07-12 武汉理工大学 一种基于车载图像传感器的车辆行驶跑偏自动检测方法
CN110345944A (zh) * 2019-05-27 2019-10-18 浙江工业大学 融合视觉特征和imu信息的机器人定位方法
CN110232716A (zh) * 2019-05-31 2019-09-13 深圳市道通智能航空技术有限公司 一种相机标定方法、装置和电子设备
CN110738143A (zh) * 2019-09-27 2020-01-31 Oppo广东移动通信有限公司 定位方法及装置、设备、存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于单目视觉的目标定位算法研究;程庆;魏利胜;甘泉;;安徽工程大学学报;20170415(第02期);40-45 *

Also Published As

Publication number Publication date
CN111932611A (zh) 2020-11-13

Similar Documents

Publication Publication Date Title
CN110322500B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
US11586218B2 (en) Method and apparatus for positioning vehicle, electronic device and storage medium
EP3806041A1 (en) Method and apparatus for jointly calibrating external parameters of multiple cameras, device and medium
CN112415552B (zh) 车辆位置的确定方法、装置及电子设备
CN112652016B (zh) 点云预测模型的生成方法、位姿估计方法及其装置
CN111612852B (zh) 用于验证相机参数的方法和装置
CN111998860B (zh) 自动驾驶定位数据校验方法、装置、电子设备及存储介质
CN111324115B (zh) 障碍物位置检测融合方法、装置、电子设备和存储介质
KR20210116186A (ko) 장애물 검출 방법, 장치, 전자 기기 및 저장 매체
CN110349212B (zh) 即时定位与地图构建的优化方法及装置、介质和电子设备
EP3968266B1 (en) Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN111767853B (zh) 车道线检测方法和装置
CN111310840B (zh) 数据融合处理方法、装置、设备和存储介质
CN111652103B (zh) 室内定位方法、装置、设备以及存储介质
CN111311743B (zh) 三维重建精度测试方法、测试装置和电子设备
KR20220100813A (ko) 자율주행 차량 정합 방법, 장치, 전자 기기 및 차량
CN111932611B (zh) 物体位置获取方法和装置
CN111612851B (zh) 用于标定相机的方法、装置、设备以及存储介质
KR20220004604A (ko) 장애물의 검출 방법, 전자 기기, 노변 기기 및 클라우드 컨트롤 플랫폼
CN112184828B (zh) 激光雷达与摄像头的外参标定方法、装置及自动驾驶车辆
CN111400537B (zh) 一种道路元素信息获取方法、装置和电子设备
CN111489433B (zh) 车辆损伤定位的方法、装置、电子设备以及可读存储介质
KR101988278B1 (ko) 영상 속 사물의 3d 인식 및 사물의 기준점과 표지물과의 상대좌표 정보를 이용한 실시간 영상에 표지물 위치 증강 장치, 이의 방법 및 이 방법을 저장한 컴퓨터 판독 가능 저장 매체
CN112102417A (zh) 确定世界坐标的方法和装置及用于车路协同路侧相机的外参标定方法
CN111767843A (zh) 三维位置预测方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20211013

Address after: 100176 101, floor 1, building 1, yard 7, Ruihe West 2nd Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing

Applicant after: Apollo Zhilian (Beijing) Technology Co.,Ltd.

Address before: 2 / F, baidu building, 10 Shangdi 10th Street, Haidian District, Beijing 100085

Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant