CN111951337B - 图像检测目标空间定位方法及系统 - Google Patents

图像检测目标空间定位方法及系统 Download PDF

Info

Publication number
CN111951337B
CN111951337B CN202010839964.0A CN202010839964A CN111951337B CN 111951337 B CN111951337 B CN 111951337B CN 202010839964 A CN202010839964 A CN 202010839964A CN 111951337 B CN111951337 B CN 111951337B
Authority
CN
China
Prior art keywords
pose
bbox
camera
image
residual error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010839964.0A
Other languages
English (en)
Other versions
CN111951337A (zh
Inventor
江正
吴凯
辛梓
罗跃军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heading Data Intelligence Co Ltd
Original Assignee
Heading Data Intelligence Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heading Data Intelligence Co Ltd filed Critical Heading Data Intelligence Co Ltd
Priority to CN202010839964.0A priority Critical patent/CN111951337B/zh
Publication of CN111951337A publication Critical patent/CN111951337A/zh
Application granted granted Critical
Publication of CN111951337B publication Critical patent/CN111951337B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种图像检测目标空间定位方法及系统,该方法包括:跟踪检测目标Bbox以及图像的整个区域内的第一角点;采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。本发明实施例使用了GPS对单目视觉缺少尺度的缺点进行了弥补;针对Bbox框内的点很少,优化位姿时的约束不够多的缺点,使用了两次优化,第一次在整幅图像内提取角点,然后优化位姿;第二次在Bbox框内提取角点,利用上一步优化出来的位姿来优Bbox内的路标点。

Description

图像检测目标空间定位方法及系统
技术领域
本发明涉及计算机视觉领域,更具体地,涉及一种图像检测目标空间定位方法及系统。
背景技术
自动驾驶中的感知技术会感知空间信息,并检测出自动驾驶所需要的目标(BoundingBox,后面简称Bbox),如停止线、交通灯和标识牌等。自动驾驶中的定位和建图技术则需要对感知环节检测出来的二维目标进行三维空间定位。现有技术中,单目视觉SLAM及三维重建技术可以仅依赖于单目图像对载体自身进行定位和对周围环境进行重建,然而单目视觉定位和地图重建有如下弊端:1、最大的弊端是计算结果缺乏尺度信息,对重建出来的目标坐标可以进行任意等比例缩放;2、计算出来的载体位姿及地图点坐标都是相对的(相对参考帧),而自动驾驶需要绝对定位;3、在一些光照变化明显和无纹理的环境中,特征点提取和跟踪容易失败,从而导致定位和建图失效或误差较大。另外,传统的视觉SLAM是在整幅图像上提取特征点,主要目的是定位出自身的位置,而现在需要定位图像中指定的地图点,即Bbox内的点,如果还是在整个图像上提取特征点,那么Bbox内很可能没有提取到特征点,也就无法计算出Bbox的三维坐标。如果只在Bbox内提取特征点,且只使用重投影误差进行BA优化时,优化过程中的约束就比较少,计算结果误差就会很大,甚至不收敛。
发明内容
为了解决上述问题,本发明实施例提供一种克服上述问题或者至少部分地解决上述问题的图像检测目标空间定位方法及系统。
根据本发明实施例的第一方面,提供一种图像检测目标空间定位方法,该方法包括:跟踪检测目标Bbox以及图像的整个区域内的第一角点;采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
根据本发明实施例第二方面,提供了一种图像检测目标空间定位系统,该系统包括:跟踪模块,用于跟踪检测目标Bbox以及图像的整个区域内的第一角点;优化模块,用于采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;提取模块,用于采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;定位模块,用于优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
根据本发明实施例的第三方面,提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行程序时实现如第一方面的各种可能的实现方式中任一种可能的实现方式所提供的图像检测目标空间定位方法。
根据本发明实施例的第四方面,提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面的各种可能的实现方式中任一种可能的实现方式所提供的图像检测目标空间定位方法。
本发明实施例提供的图像检测目标空间定位方法及系统,使用了GPS对单目视觉缺少尺度的缺点进行了弥补;针对Bbox框内的点很少,优化位姿时的约束不够多的缺点,使用了两次优化,第一次在整幅图像内提取角点,然后优化位姿;第二次在Bbox框内提取角点,利用上一步优化出来的位姿来优Bbox内的路标点;在优化框内的路标点时,目标函数中不仅仅有路标点的重投影误差,还添加了路标点到其所在的平面的距离误差来增加优化过程中的约束条件,使得优化结果更加接近真值,优化收敛的速度大大提升。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些图获得其他的附图。
图1为本发明实施例提供的图像检测目标空间定位方法的流程示意图;
图2为本发明另一实施例提供的图像检测目标空间定位方法的流程示意图;
图3为本发明实施例提供的第一次优化因子图;
图4为本发明实施例提供的第二次优化因子图;
图5为本发明实施例提供的图像检测目标空间定位系统的结构示意图;
图6为本发明实施例提供的电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中存在的上述缺点是单目相机自身特性决定的,若要避开这些缺点则需要其他传感器来弥补。车辆中的GPS能获取绝对空间位置和姿态信息,可以利用GPS给予单目视觉尺度、位置和姿态信息初值,然后构建最小二乘问题进行优化。因此,单目相机和GPS是自动驾驶车辆上必须安装的传感器,从而本发明提供了一种基于单目相机和GPS对空中检测目标进行定位的方法。
本发明实施例提供一种图像检测目标空间定位方法,该方法为一种由单目相机和GPS计算图像中Bbox的三维空间坐标的方法。该方法能够解决传统单目slam无尺度、无法绝对定位的缺陷。首先使用GPS位姿和图像匹配点对构造由先验位姿残差和重投影误差组成的目标函数对位姿和路标点进行优化,然后在用优化后的位姿去三角化Bbox内的点,最后构造由重投影误差和路标点共面约束误差组成的目标函数对路标点进行优化。
参见图1,该方法包括但不限于如下步骤:
步骤101、跟踪检测目标Bbox以及图像的整个区域内的第一角点。
具体地,跟踪检测目标Bbox具体可以使用IOU贪婪匹配跟踪算法,算法流程如表1所示:
表1 IOU跟踪算法伪代码
Figure BDA0002641090800000041
其中,Df表示第f帧图像的检测结果集合,dj表示Df中的第j个检测结果,Ta表示已经跟踪上的且还在继续跟踪的检测结果集合,Tf表示已经跟踪上的且跟踪结束的检测结果集合。IOU计算方法如公式1.1:
Figure BDA0002641090800000051
而针对第一角点的跟踪,作为一种可选实施例,跟踪图像的整个区域内的第一角点,包括:
步骤1、在跟踪的图像队列中筛选多个关键帧;
具体地,在跟踪上的图像队列中挑选若干个关键帧,相邻的关键帧之间需要有足够的视差和共视点。
步骤2、在多个关键帧中的第一帧中提取大于预设数量的第一角点,第一角点均匀分布于图像中,第一角点为FAST角点。
具体地,在参考帧(关键帧中的第一帧)中提取足够多的FAST角点,FAST角点务必均匀分布在整个图像中。
步骤3、采用LK光流法跟踪第一角点。
具体地,使用Lucas-Kanade(简称LK)光流跟踪FAST角点,在跟踪过程中跟丢的点要进行重新提取,保证每帧图像都有足够多的角点。
步骤102、采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿。
其中,作为一种可选实施例,采用GPS的位姿三角化跟踪到的第一角点,包括:
步骤1、基于相机和GPS的外参矩阵,将GPS的位姿转换到相机位姿。
具体地,利用相机和GPS的外参矩阵将GPS的位姿转换到相机位姿,如公式1.2所示。
Figure BDA0002641090800000052
步骤2、根据相机位姿三角化第一角点。
其中,作为一种可选实施例,优化相机位姿,包括:采用第一目标函数优化相机位姿;其中,第一目标函数包括第一残差和第二残差,第一残差为路标点的重投影误差,第二残差为位姿的先验误差;在优化的过程中,第一残差和第二残差被分配不同的权重,以使相机位姿在初值附近进行优化;第一目标函数的优化变量为相机位姿和路标点。
其中,第一残差,即重投影误差的模型为:
Figure BDA0002641090800000061
Figure BDA0002641090800000062
其中,
Figure BDA0002641090800000063
表示共视关键帧集合,
Figure BDA0002641090800000064
表示第L个关键帧观测到的路标点集合,Xi表示第i个路标点,Rl,tl表示第l帧位姿,ρ是鲁棒核函数。
其中,第二残差,即位姿先验误差的模型为:
Figure BDA0002641090800000065
Figure BDA0002641090800000066
其中,Tl是位姿初值(观测值),
Figure BDA0002641090800000067
是待优化的位姿。
步骤103、采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点。
其中,在本步骤103之前,作为一种可选实施例,还包括:在图像的Bbox区域内提取第二角点,第二角点为FAST角点;采用LK光流法跟踪第二角点。
步骤104、优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
其中,作为一种可选实施例,优化Bbox内的路标点的位姿,包括:采用第二目标函数优化Bbox内的路标点的位姿;其中,第二目标函数包括第三残差和第四残差,第三残差为路标点的重投影误差,第四残差为路标点的共面误差;第二目标函数的优化变量为路标点和路标点所在的平面。
具体地,这一步优化目标函数中的残差有重投影误差和路标点的共面误差,重投影误差的误差模型与式1.3和1.4类似。路标点共面误差模型如下:
Figure BDA0002641090800000068
Figure BDA0002641090800000069
其中,
Figure BDA00026410908000000610
表示第L个关键帧观测到的路标点集合,Xi表示第i个路标点,P表示路标点所在的平面,ρ是鲁棒核函数。
该步骤的优化变量是路标点和路标点所在的平面,相机位姿在上述步骤中已经优化过了,可认为是准确的,将其固定。
其中,作为一种可选实施例,基于路标点的位置获得Bbox的三维空间位置,包括:将全部路标点的位置均值作为Bbox的三维空间位置;根据相机位姿将三维空间位置转换到世界坐标系下。
具体地,优化出来的是Bbox内的路标点位姿,取所有路标点的位置均值做为Bbox的位置,并根据相机位姿转换到世界坐标系下,转换公式如式1.9所示。
Pw=RWC*PC+tWC (1.9)
其中,Pw是目标在三维空间中(世界坐标系)的位置,Pc是目标在相机坐标系下的位置,Rwc,twc是相机在世界坐标系下的位姿。
综上,本发明实施例提供的图像检测目标空间定位方法,使用了GPS对单目视觉缺少尺度的缺点进行了弥补;针对Bbox框内的点很少,优化位姿时的约束不够多的缺点,使用了两次优化,第一次在整幅图像内提取角点,然后优化位姿;第二次在Bbox框内提取角点,利用上一步优化出来的位姿来优Bbox内的路标点;在优化框内的路标点时,目标函数中不仅仅有路标点的重投影误差,还添加了路标点到其所在的平面的距离误差来增加优化过程中的约束条件,使得优化结果更加接近真值,优化收敛的速度大大提升。
为了方便对上述方法的理解,本发明实施例提供的图像检测目标空间定位方法可概括为包括如下步骤:
1、对图像中检测到的Bbox使用IOU贪婪匹配方法进行跟踪。
2、对满足跟踪要求的图像帧,在图像范围内提取FAST角点,并使用Lucas-Kanade(简称LK)光流跟踪。
3、利用GPS的位姿三角化提取到的FAST角点,并建立位姿先验残差和路标点的重投影误差模型对位姿进行优化。
4、在图像的Bbox内提取FAST角点,并使用LK光流跟踪。
5、利用优化后的位姿三角化提取到的FAST角点,并建立由路标点重投影误差和点到面的距离误差构成的目标函数对Bbox内的路标点进行优化。
本本发明另一实施例提供一种图像检测目标空间定位方法,参见图2,该方法可包括如下步骤:
步骤1:跟踪Bbox,其中Bbox跟踪使用IOU贪婪匹配跟踪算法;
步骤2:在图像的整个区域内提取角点并用LK光流跟踪;
步骤3:使用GPS的位姿三角化步骤2中跟踪到的FAST角点;
步骤4:优化相机位姿;
步骤5:在图像的Bbox区域内提取角点并用光流跟踪,其与步骤2类似,不同的是仅仅在Bbox内提取FAST角点;
步骤6:使用步骤3中优化后的相机位姿三角化步骤5中的FAST角点;
步骤7:优化路标点;
步骤8:提取目标三维空间位置。
参见图3示出的第一次优化因子图(对应于上述步骤4),下方圆圈表示相机位姿,上方圆圈表示路标点,线表示重投影误差,深灰色线表示先验位姿残差。第一次优化同时优化位姿和路标点。
参见图4示出的第二次优化因子图(对应于上述步骤7),下方圆圈表示相机位姿,上方圆圈表示路标点,矩形表示路标点所在的平面,下方线表示重投影误差,上方线表示路标点的共面误差。第二次优化固定位姿,同时优化路标点和路标点所在的平面。
基于上述实施例的内容,本发明实施例提供了一种图像检测目标空间定位系统,该图像检测目标空间定位系统用于执行上述方法实施例中的图像检测目标空间定位方法。参见图5,该系统包括:跟踪模块201,用于跟踪检测目标Bbox以及图像的整个区域内的第一角点;优化模块202,用于采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;提取模块203,用于采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;定位模块204,用于优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
本发明实施例提供了一种电子设备,如图6所示,该设备包括:处理器(processor)501、通信接口(Communications Interface)502、存储器(memory)503和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。处理器501可以调用存储器503上并可在处理器501上运行的计算机程序,以执行上述各实施例提供的图像检测目标空间定位方法,例如包括:跟踪检测目标Bbox以及图像的整个区域内的第一角点;采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
此外,上述的存储器503中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的图像检测目标空间定位方法,例如包括:跟踪检测目标Bbox以及图像的整个区域内的第一角点;采用GPS的位姿三角化跟踪到的第一角点,并优化相机位姿;采用优化后的相机位姿三角化在图像的Bbox区域内提取到的第二角点;优化Bbox内的路标点的位姿后,基于路标点的位置获得Bbox的三维空间位置。
以上所描述的电子设备等实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (7)

1.一种图像检测目标空间定位方法,其特征在于,包括:跟踪检测目标Bbox以及图像的整个区域内的第一角点;
采用GPS的位姿三角化跟踪到的所述第一角点,并优化相机位姿;
采用优化后的所述相机位姿三角化在图像的Bbox区域内提取到的第二角点;
优化Bbox内的路标点的位姿后,基于所述路标点的位置获得Bbox的三维空间位置;
所述采用GPS的位姿三角化跟踪到的所述第一角点,包括:基于相机和GPS的外参矩阵,将GPS的位姿转换到相机位姿;根据所述相机位姿三角化所述第一角点;
所述优化相机位姿,包括:采用第一目标函数优化相机位姿;其中,所述第一目标函数包括第一残差和第二残差,所述第一残差为路标点的重投影误差,所述第二残差为位姿的先验误差;在优化的过程中,所述第一残差和所述第二残差被分配不同的权重,以使所述相机位姿在初值附近进行优化;所述第一目标函数的优化变量为相机位姿和路标点;
所述优化Bbox内的路标点的位姿,包括:采用第二目标函数优化Bbox内的路标点的位姿;其中,所述第二目标函数包括第三残差和第四残差,所述第三残差为路标点的重投影误差,所述第四残差为路标点的共面误差,所述第二目标函数的优化变量为路标点和路标点所在的平面。
2.根据权利要求1所述的方法,其特征在于,跟踪图像的整个区域内的第一角点,包括:在跟踪的图像队列中筛选多个关键帧;
在所述多个关键帧中的第一帧中提取大于预设数量的第一角点,所述第一角点均匀分布于图像中,所述第一角点为FAST角点;
采用LK光流法跟踪所述第一角点。
3.根据权利要求1所述的方法,其特征在于,所述采用优化后的所述相机位姿三角化在图像的Bbox区域内提取到的第二角点之前,还包括:在图像的Bbox区域内提取第二角点,所述第二角点为FAST角点;
采用LK光流法跟踪所述第二角点。
4.根据权利要求1所述的方法,其特征在于,基于所述路标点的位置获得Bbox的三维空间位置,包括:将全部所述路标点的位置均值作为Bbox的三维空间位置;
根据相机位姿将所述三维空间位置转换到世界坐标系下。
5.一种图像检测目标空间定位系统,其特征在于,包括:跟踪模块,用于跟踪检测目标Bbox以及图像的整个区域内的第一角点;
优化模块,用于采用GPS的位姿三角化跟踪到的所述第一角点,并优化相机位姿;
提取模块,用于采用优化后的所述相机位姿三角化在图像的Bbox区域内提取到的第二角点;
定位模块,用于优化Bbox内的路标点的位姿后,基于所述路标点的位置获得Bbox的三维空间位置;
所述采用GPS的位姿三角化跟踪到的所述第一角点,包括:基于相机和GPS的外参矩阵,将GPS的位姿转换到相机位姿;根据所述相机位姿三角化所述第一角点;
所述优化相机位姿,包括:采用第一目标函数优化相机位姿;其中,所述第一目标函数包括第一残差和第二残差,所述第一残差为路标点的重投影误差,所述第二残差为位姿的先验误差;在优化的过程中,所述第一残差和所述第二残差被分配不同的权重,以使所述相机位姿在初值附近进行优化;所述第一目标函数的优化变量为相机位姿和路标点;
所述优化Bbox内的路标点的位姿,包括:采用第二目标函数优化Bbox内的路标点的位姿;其中,所述第二目标函数包括第三残差和第四残差,所述第三残差为路标点的重投影误差,所述第四残差为路标点的共面误差,所述第二目标函数的优化变量为路标点和路标点所在的平面。
6.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至4任一项所述图像检测目标空间定位方法的步骤。
7.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至4任一项所述图像检测目标空间定位方法的步骤。
CN202010839964.0A 2020-08-19 2020-08-19 图像检测目标空间定位方法及系统 Active CN111951337B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010839964.0A CN111951337B (zh) 2020-08-19 2020-08-19 图像检测目标空间定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010839964.0A CN111951337B (zh) 2020-08-19 2020-08-19 图像检测目标空间定位方法及系统

Publications (2)

Publication Number Publication Date
CN111951337A CN111951337A (zh) 2020-11-17
CN111951337B true CN111951337B (zh) 2022-05-31

Family

ID=73360086

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010839964.0A Active CN111951337B (zh) 2020-08-19 2020-08-19 图像检测目标空间定位方法及系统

Country Status (1)

Country Link
CN (1) CN111951337B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529954A (zh) * 2020-12-03 2021-03-19 广州小鹏自动驾驶科技有限公司 基于异构双目摄像设备的悬浮对象位置确定方法、装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015193470A1 (en) * 2014-06-20 2015-12-23 Institute Of Technology Blanchardstown Mobile road sign reflectometer
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN110009739A (zh) * 2019-01-29 2019-07-12 浙江省北大信息技术高等研究院 移动摄像机的数字视网膜的运动特征的提取与编码方法
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和系统
WO2020107510A1 (en) * 2018-11-27 2020-06-04 Beijing Didi Infinity Technology And Development Co., Ltd. Ai systems and methods for objection detection

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565728B2 (en) * 2018-06-01 2020-02-18 Tusimple, Inc. Smoothness constraint for camera pose estimation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015193470A1 (en) * 2014-06-20 2015-12-23 Institute Of Technology Blanchardstown Mobile road sign reflectometer
CN108805917A (zh) * 2018-05-25 2018-11-13 网易(杭州)网络有限公司 空间定位的方法、介质、装置和计算设备
CN109166149A (zh) * 2018-08-13 2019-01-08 武汉大学 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
WO2020107510A1 (en) * 2018-11-27 2020-06-04 Beijing Didi Infinity Technology And Development Co., Ltd. Ai systems and methods for objection detection
CN110009739A (zh) * 2019-01-29 2019-07-12 浙江省北大信息技术高等研究院 移动摄像机的数字视网膜的运动特征的提取与编码方法
CN111145255A (zh) * 2019-12-27 2020-05-12 浙江省北大信息技术高等研究院 一种结合深度学习和几何优化的位姿计算方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《智能车辆双目视觉与地图组合定位研究》;潘尧 等;;《湖北工业大学学报》;20170831;第55-59页; *

Also Published As

Publication number Publication date
CN111951337A (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN106940704B (zh) 一种基于栅格地图的定位方法及装置
CN109300159A (zh) 位置检测方法、装置、设备、存储介质及车辆
CN112734852A (zh) 一种机器人建图方法、装置及计算设备
CN112883820B (zh) 基于激光雷达点云的道路目标3d检测方法及系统
WO2012023593A1 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
CN111445531B (zh) 一种多目相机导航方法、装置、设备及存储介质
CN113359782B (zh) 一种融合lidar点云与图像数据的无人机自主选址降落方法
CN112381841A (zh) 一种动态场景下基于gms特征匹配的语义slam方法
CN108416385A (zh) 一种基于改进图像匹配策略的同步定位与建图方法
CN114120149B (zh) 一种倾斜摄影测量建筑物特征点提取方法、装置、电子设备及介质
CN110070578B (zh) 一种回环检测方法
CN112083403A (zh) 用于虚拟场景的定位追踪误差校正方法及系统
CN112017236A (zh) 一种基于单目相机计算目标物位置的方法及装置
CN114325634A (zh) 一种基于激光雷达的高鲁棒性野外环境下可通行区域提取方法
CN112967340A (zh) 同时定位和地图构建方法、装置、电子设备及存储介质
CN112652020A (zh) 一种基于AdaLAM算法的视觉SLAM方法
CN111951337B (zh) 图像检测目标空间定位方法及系统
CN112734837B (zh) 图像匹配的方法及装置、电子设备及车辆
CN112037282B (zh) 一种基于关键点以及骨架的飞机姿态估计方法及系统
CN111862146B (zh) 一种目标对象的定位方法及装置
CN113673288A (zh) 空闲车位检测方法、装置、计算机设备及存储介质
CN116643291A (zh) 一种视觉与激光雷达联合剔除动态目标的slam方法
CN116309817A (zh) 一种基于rgb-d相机的托盘检测与定位方法
CN113902828A (zh) 一种以墙角为关键特征的室内二维语义地图的构建方法
CN114387318A (zh) 遥感影像自动配准方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant