CN111337010A - 可移动设备的定位方法、定位装置及电子设备 - Google Patents

可移动设备的定位方法、定位装置及电子设备 Download PDF

Info

Publication number
CN111337010A
CN111337010A CN201811548924.XA CN201811548924A CN111337010A CN 111337010 A CN111337010 A CN 111337010A CN 201811548924 A CN201811548924 A CN 201811548924A CN 111337010 A CN111337010 A CN 111337010A
Authority
CN
China
Prior art keywords
pose parameters
determining
current frame
frame image
plane coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811548924.XA
Other languages
English (en)
Other versions
CN111337010B (zh
Inventor
杨帅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Horizon Robotics Technology Research and Development Co Ltd
Original Assignee
Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Horizon Robotics Technology Research and Development Co Ltd filed Critical Beijing Horizon Robotics Technology Research and Development Co Ltd
Priority to CN201811548924.XA priority Critical patent/CN111337010B/zh
Priority to US16/716,801 priority patent/US11244473B2/en
Priority to EP19216917.5A priority patent/EP3671123A1/en
Priority to KR1020190169449A priority patent/KR102329858B1/ko
Publication of CN111337010A publication Critical patent/CN111337010A/zh
Application granted granted Critical
Publication of CN111337010B publication Critical patent/CN111337010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

公开了一种可移动设备的定位方法及可移动设备的定位装置。该可移动设备的定位方法包括:确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定当前帧图像中预设标识对应的直线;基于第一组位姿参数确定多个第二组位姿参数;在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据;基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集;基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。本申请实施例能够极大降低环境条件对定位精准度的影响,进而提高定位的精准度,此外,借助视觉相机极大降低了定位的成本。

Description

可移动设备的定位方法、定位装置及电子设备
技术领域
本发明涉及图像处理技术领域,具体涉及一种可移动设备的定位方法、定位装置及电子设备。
背景技术
定位技术作为智能科技的基础技术之一,其重要性不言而喻。尤其是在自动驾驶领域,定位技术的精准性及快速性更是关系到人身安全的重要因素。然而,虽然现有激光雷达定位技术精准度较高,但是成本高昂。
发明内容
为了解决上述技术问题,本申请实施例提供了一种可移动设备的定位方法、定位装置及电子设备。
在一方面,本申请实施例提供了一种可移动设备的定位方法,该可移动设备的定位方法包括:确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定当前帧图像中预设标识对应的直线;基于第一组位姿参数确定多个第二组位姿参数;在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据;基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集;基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
在另一方面,本申请实施例提供了一种可移动设备的定位装置,该可移动设备的定位装置包括:第一组位姿参数确定模块,用于确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定当前帧图像中预设标识对应的直线;第二组位姿参数确定模块,用于基于第一组位姿参数确定多个第二组位姿参数;点云数据确定模块,用于在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据;第二像面坐标集确定模块,用于基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集;位姿参数确定模块,用于基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
本申请实施例所提及的可移动设备的定位方法,通过高精地图到当前帧图像中的预设标识对应的直线的距离数据来确定可移动设备在拍摄当前帧图像时的位姿参数的目的,从而基于视觉相机技术实现了对可移动设备的定位。与现有采用激光雷达定位技术进行定位的方法相比,由于本申请实施例所提及的定位方法无需借助激光雷达的实时反射值实现定位,因此,本申请实施例所提供的定位方法能够极大降低光照、季节以及动态物体等环境条件对定位精准度的影响,进而提高定位的精准度,此外,本申请实施例借助视觉相机极大降低了定位的成本。
附图说明
通过结合附图对本申请实施例进行更详细的描述,本申请的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本申请实施例的进一步理解,并且构成说明书的一部分,与本申请实施例一起用于解释本申请,并不构成对本申请的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本申请所适用的场景图。
图2是本申请一示例性实施例提供的可移动设备的定位方法的流程示意图。
图3是本申请另一示例性实施例提供的确定可移动设备在拍摄当前帧图像时的位姿参数的流程示意图。
图4是本申请又一示例性实施例提供的确定第二像面坐标集中的与预设标识对应的像面坐标到直线的距离的流程示意图。
图5是本申请再一示例性实施例提供的确定可移动设备在拍摄当前帧图像时的位姿参数的流程示意图。
图6是本申请再一示例性实施例提供的确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据的流程示意图。
图7是本申请一示例性实施例提供的可移动设备的定位装置的流程示意图。
图8是本申请另一示例性实施例提供的可移动设备的定位装置的位姿参数确定模块的结构示意图。
图9是本申请又一示例性实施例提供的可移动设备的定位装置的距离确定单元的结构示意图。
图10是本申请再一示例性实施例提供的可移动设备的定位装置的位姿参数确定单元的结构示意图。
图11是本申请再一示例性实施例提供的可移动设备的定位装置的点云数据确定模块的结构示意图。
图12是本申请一示例性实施例提供的电子设备的结构示意图。
具体实施方式
下面,将参考附图详细地描述根据本申请的示例实施例。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是本申请的全部实施例,应理解,本申请不受这里描述的示例实施例的限制。
申请概述
定位精准度以及定位速度是衡量定位技术性能的重要指标。尤其是应用到自动驾驶领域的定位技术,其定位精准度及定位速度更是关系到人身安全的重要因素。
目前,通常采用激光雷达定位技术作为自动驾驶领域的定位技术。激光雷达定位技术的定位原理为:首先基于激光雷达技术建立高精地图,然后向目标发射探测信号(激光束)并接收目标反射的信号(目标回波),将反射的信号与发射的探测信号进行比较,并结合建立的高精度地图得出与目标相关的信息,比如目标距离、方位、高度、速度、姿态甚至形状等信息。然而,虽然激光雷达定位技术具备良好的定位精准度,但是成本极其高昂。
相比之下,视觉相机凭借低廉的价格获得了越来越多的关注。但是,由于视觉相机无法直接获得深度信息,因此,视觉相机定位技术的定位精准度完全不能与激光雷达定位技术相比。
针对上述技术问题,本申请的基本构思是提出一种可移动设备的定位方法、定位装置及电子设备,该可移动设备的定位方法通过确定可移动设备在拍摄当前帧图像时的粗略位姿参数和当前帧图像中预设标识对应的直线,然后基于粗略位姿参数生成多个假设位姿参数,并获取高精地图中与拍摄当前帧图像时的地理位置相对应的预设范围内的点云数据,结合多个假设位姿参数,将预设范围内的点云数据转换到像素平面坐标系中,得到多个像面坐标集,最后通过计算多个像面坐标集到直线的距离,确定可移动设备在拍摄当前帧图像时的位姿参数的方式,基于视觉相机技术实现了对可移动设备的定位。与现有采用激光雷达定位技术进行定位的方法相比,由于本申请实施例所提及的定位方法无需借助激光雷达的实时反射值实现定位,因此,本申请实施例所提供的定位方法能够极大降低光照、季节以及动态物体等环境条件对定位精准度的影响,进而提高定位的精准度,此外,本申请实施例借助视觉相机极大降低了定位的成本。
需要说明的是,本申请的应用范围不局限于自动驾驶领域。例如,本申请实施例提及的技术方案还可以应用于其他智能可移动设备(比如智能机器人),具体用于对智能可移动设备的行进类功能提供定位技术支持。
在介绍了本申请的基本原理之后,下面将参考附图来具体介绍本申请的各种非限制性实施例。
示例性系统
图1是本申请所适用的场景图。如图1所示,本申请所适用的场景为可移动设备的定位场景,其中,该定位场景中包括服务器1和可移动设备2,服务器1获取可移动设备2拍摄的当前帧图像以及高精地图数据,并根据获取的数据进行定位操作。
具体地,服务器1用于确定可移动设备2在拍摄当前帧图像时的粗略位姿参数以及当前帧图像中预设标识对应的直线,然后基于粗略位姿参数生成多个假设位姿参数,并获取高精地图中与拍摄当前帧图像时的地理位置相对应的预设范围内的点云数据,结合多个假设位姿参数,将预设范围内的点云数据转换到像素平面坐标系中,得到多个像面坐标集,最后通过计算多个像面坐标集到直线的距离,确定可移动设备在拍摄当前帧图像时的位姿参数;可移动设备2用于拍摄当前帧图像。通过该场景,可降低可移动设备2的计算量。
需要说明的是,本申请还适用于另一场景。具体地,该定位场景中包括可移动设备2。具体地,可移动设备2拍摄当前帧图像并获取高精地图数据,并且确定可移动设备2在拍摄当前帧图像时的粗略位姿参数以及当前帧图像中预设标识对应的直线,然后基于粗略位姿参数生成多个假设位姿参数,并获取高精地图中与拍摄当前帧图像时的地理位置相对应的预设范围内的点云数据,结合多个假设位姿参数,将预设范围内的点云数据转换到像素平面坐标系中,得到多个像面坐标集,最后通过计算多个像面坐标集到直线的距离,确定可移动设备在拍摄当前帧图像时的位姿参数。通过该场景,可确保可移动设备2能够实时定位。
示例性方法
图2是本申请一示例性实施例提供的可移动设备的定位方法的流程示意图。本申请实施例提供的可移动设备的定位方法可应用到汽车的自动驾驶领域,亦可应用到智能机器人的行进类功能领域。如图2所示,本申请实施例提供的可移动设备的定位方法包括如下步骤。
步骤10,确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定当前帧图像中预设标识对应的直线。
需要说明的是,第一组位姿参数即为可移动设备在拍摄当前帧图像时的粗略位姿参数,其中,位姿参数包括位置参数和姿态参数,位置参数包括可移动设备的地理位置数据,姿态参数包括可移动设备的方位角、俯仰角和翻滚角数据。
需要说明的是,当前帧图像指的是与可移动设备所处位置的周围环境相关的当前帧图像。比如,可移动设备为汽车,并且汽车的驾驶室或者车身外侧装载有摄像装置,那么,当需要对可移动设备进行定位时,汽车上的摄像装置进行拍摄操作,以拍摄与汽车所处位置的周围环境相关的图像(即当前帧图像)。应当理解,所拍摄的当前帧图像中是否包含汽车本身均可,本发明实施例对此不进行统一限定。
此外,需要说明的是,步骤10中所提及的当前帧图像中预设标识对应的直线指的是当前帧图像中的预设特征标识所对应的直线。
举例说明,在本申请一实施例中,可移动设备的定位方法应用到汽车的自动驾驶领域,并且所拍摄的当前帧图像中包括路面车道线。那么,设定该路面车道线为预设标识,则预设标识对应的直线即为该路面车道线所对应的直线,比如边缘线等。又比如,可移动设备的定位方法应用到汽车的自动驾驶领域,并且所拍摄的当前帧图像中包括路面停止线。那么,设定该路面停止线为预设标识,则预设标识对应的直线即为该路面停止线所对应的直线,比如边缘线等。应当理解,当将可移动设备的定位方法应用到汽车的自动驾驶领域时,预设标识亦可以为其他路面标识,本申请实施例对此不进行统一限定。
需要说明的是,由于路面车道线和路面停止线等具备良好的稳定性,受光照、季节以及角度等影响较小,因此,将预设标识选定为稳定性较高的路面车道线或者路面停止线,能够提高后续计算的第二像面坐标集到直线的距离的准确性,从而提高最终确定的可移动设备的位姿参数的精准度,即提高定位精准度。
步骤20,基于第一组位姿参数确定多个第二组位姿参数。
步骤30,在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据。
其中,高精地图指的是能够辅助完成定位技术的地图,比如基于激光雷达技术建立的地图。
需要说明的是,点云数据指的是在拍摄当前帧图像时的地理位置的预设范围内的点云数据,也就是说,该点云数据所对应的地理位置与可移动设备拍摄当前帧图像时所处的地理位置相对应。
步骤40,基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集。
在步骤40中,该像素平面坐标系中包括点云数据的属性信息和灰度信息等信息。
步骤50,基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
在实际应用过程中,首先确定可移动设备在拍摄当前帧图像时的第一组位姿参数以及确定当前帧图像中预设标识对应的直线,并基于第一组位姿参数确定多个第二组位姿参数,然后在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据,并基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集,最后基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
本申请实施例所提及的可移动设备的定位方法,通过确定可移动设备在拍摄当前帧图像时的粗略位姿参数和当前帧图像中预设标识对应的直线,基于粗略位姿参数确定多个假设位姿参数,然后获取高精地图中与拍摄当前帧图像时的地理位置相对应的预设范围内的点云数据,结合多个假设位姿参数,将预设范围内的点云数据转换到像素平面坐标系中,得到多个像面坐标集,最后通过分别计算多个像面坐标集到直线的距离,确定可移动设备在拍摄当前帧图像时的位姿参数的方式,基于视觉相机技术实现了对可移动设备的定位。与现有采用激光雷达定位技术进行定位的方法相比,由于本申请实施例所提及的定位方法无需借助激光雷达的实时反射值实现定位,因此,本申请实施例所提供的定位方法能够极大降低光照、季节以及动态物体等环境条件对定位精准度的影响,进而提高定位的精准度,此外,本申请实施例借助视觉相机极大降低了定位的成本。
在本申请一实施例中,基于可移动设备的历史运动数据确定可移动设备的第一组位姿参数,其中,历史运动数据包括该可移动设备上一次成功定位时的历史位姿参数和运动趋势数据。具体地,历史位姿参数包括该可移动设备上一次成功定位时的位置参数和姿态参数,运动趋势数据包括速度数据等能够表征可移动设备运动趋势的数据。应当理解,利用可移动设备在上一次成功定位时的历史运动数据能够估算出可移动设备在拍摄当前帧图像时的粗略位姿参数(即第一组位姿参数),与其他粗略位姿参数确定方式相比,本申请实施例提供的利用可移动设备的历史运动数据确定粗略位姿参数(第一组位姿参数)的方式,能够获取精准性更高的粗略位姿参数,从而为提高后续的定位步骤的精准性提供前提条件。
在本申请一实施例中,基于第一组位姿参数,以依次增加预设步长的方式确定多个第二组位姿参数。需要说明的是,预设步长的具体值可根据实际情况自行设定,本发明实施例对此不进行统一限定。
举例说明,可移动设备在拍摄当前帧图像时的第一组位姿参数为位姿矩阵X,第二组位姿参数分别为位姿矩阵Y1,Y2,Y3……Yn。那么,由于第二组位姿参数是根据第一组位姿参数确定的,又由于位姿参数包括位置参数和姿态参数,则利用旋转矩阵R和平移矩阵T来表示第一组位姿参数和第二组位姿参数之间的关系,具体公式如下。
Yi=RiX+Ti (1)
公式(1)中,i=1,2……n,其中,旋转矩阵的预设步长为矩阵ΔR,平移矩阵的预设步长为ΔT,则Ri=Ri-1+ΔR,Ti=Ti-1+ΔT。应当理解,ΔR和ΔT的具体取值可根据实际情况自行设定,本申请实施例对此不进行统一限定。
也就是说,利用上述公式,实现了基于第一粗位姿参数,以依次增加预设步长的方式确定多个第二组位姿参数的目的,即基于粗略位姿参数,以依次增加预设步长的方式确定多个假设位姿参数的目的。
在本申请上述实施例的基础上延伸出本申请另一实施例。在本申请另一实施例中,基于第一组位姿参数,以依次减少预设步长的方式确定多个第二组位姿参数。下面着重叙述本申请实施例与上述实施例的不同之处,相同之处不再赘述。
具体地,在本申请实施例中,基于第一组位姿参数,以依次减少预设步长的方式确定多个第二组位姿参数。当利用上述实施例中的公式(1)进行计算时,公式(1)中的Ri=Ri-1-ΔR,Ti=Ti-1-ΔT。同样应当理解,ΔR和ΔT的具体取值可根据实际情况自行设定,本申请实施例对此不进行统一限定。
也就是说,本申请实施例所提及的确定第二组位姿参数的方案,实现了基于第一组位姿参数,以依次减少预设步长的方式确定多个第二组位姿参数的目的,即基于粗略位姿参数,以依次减少预设步长的方式确定多个假设位姿参数的目的。
需要说明的是,上述实施例中提及的通过依次增加预设步长或依次减少预设步长的方式来确定多个假设位姿参数的方案,能够充分保证假设位姿参数的准确概率。也就是说,与随机设置假设位姿参数相比,本申请上述实施例能够充分防止正确或接近正确的位姿参数被遗漏,从而未被列为假设位姿参数的情况,进而充分提高定位操作的成功几率。
基于上述实施例中提及的采用依次增加或者依次减少预设步长的方式来确定第二组位姿参数的方案,亦可以采用将依次增加预设步长和依次减少预设步长相结合的方式来确定第二组位姿参数。也就是说,可根据实际情况,基于第一组位姿参数,以增加预设步长与减少预设步长相结合的方式来确定第二组位姿参数。
举例说明,在第二组位姿参数的确定过程中,既包括依次增加预设步长步骤和依次减少预设步长步骤。其中,在依次增加预设步长步骤中,设定旋转矩阵的预设步长为矩阵ΔR1,平移矩阵的预设步长为矩阵ΔT1;在依次减少预设步长步骤中,设定旋转矩阵的预设步长为矩阵ΔR2,平移矩阵的预设步长为矩阵ΔT2。那么,在实际的第二组位姿参数的确定过程中,首先基于第一组位姿参数以依次增加预设步长的方式生成多个第二组位姿参数,然后再基于第一组位姿参数以依次减少预设步长的方式生成多个第二组位姿参数。
需要说明的是,以增加预设步长与减少预设步长相结合的方式来确定多个假设位姿参数的方式,能够进一步提高假设位姿参数的准确概率。比如,当增加的预设步长和减少的预设步长不相等且首先增加预设步长再依次减少预设步长时,本申请实施例能够进一步增加预测密度,进而提高假设位姿参数的准确概率;当增加预设步长和减少预设步长同时进行时,本申请实施例能够能够实现基于粗略位姿参数的双向预测,进而提高假设位姿参数的准确概率。
图3是本申请另一示例性实施例提供的确定可移动设备在拍摄当前帧图像时的位姿参数的流程示意图。在本申请图2所示实施例的基础上延伸出本申请图3所示实施例,下面着重叙述图3所示实施例与图2所示实施例的不同之处,相同之处不再赘述。
如图3所示,在本申请实施例提供的可移动设备的定位方法中,基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数步骤(即步骤50),包括:
步骤51,针对多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与预设标识对应的像面坐标到直线的距离,得到多个距离。
也就是说,在本申请实施例中,将计算得到的第二像面坐标集中的与预设标识对应的像面坐标到直线的距离来作为该第二像面坐标集到直线的距离。需要说明的是,与预设标识对应的像面坐标,指的是在第二像面坐标集中,与预设标识重合或成固定距离的像面坐标。比如,预设标识为路面停止线,则与预设标识对应的像面坐标即可以为第二像面坐标集中同样表征该路面停止线的像面坐标,又可以为第二像面坐标集中与该路面停止线呈固定距离的像面坐标,比如与该路面停止线紧邻的行人斑马线。
步骤52,基于多个距离之和确定与第二像面坐标集对应的第二组位姿参数的准确概率。
可选地,基于下述公式(2)确定与第二像面坐标集对应的第二组位姿参数的准确概率。
Figure BDA0001910118100000111
在公式(2)中,d表示该第二像面坐标集中与预设标识对应的所有像面坐标到预设标识对应的直线的距离之和,P表示与该第二像面坐标集对应的第二组位姿参数的准确概率,c表示归一化参数。
至此,根据上述步骤51和步骤52能够分别计算出与多个第二像面坐标集对应的多个第二组位姿参数的准确概率。
步骤53,基于多个第二组位姿参数的准确概率确定可移动设备在拍摄当前帧图像时的位姿参数。
也就是说,在实际应用过程中,首先确定可移动设备在拍摄当前帧图像时的第一组位姿参数以及确定当前帧图像中预设标识对应的直线,并基于第一组位姿参数确定多个第二组位姿参数,然后在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据,并基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集,然后针对多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与预设标识对应的像面坐标到直线的距离,从而得到多个距离,最后基于多个距离之和确定与第二像面坐标集对应的第二组位姿参数的准确概率,并基于多个第二组位姿参数的准确概率确定可移动设备在拍摄当前帧图像时的位姿参数。
本申请实施例所提及的可移动设备的定位方法,通过计算每一第二像面坐标集中的与预设标识对应的像面坐标到直线的距离,以得到多个距离,并根据多个距离之和确定与第二像面坐标集对应的第二组位姿参数的准确概率,最后基于多个第二组位姿参数的准确概率确定可移动设备在拍摄当前帧图像时的位姿参数的方式,实现了基于第二像面坐标集中的与预设标识对应的像面坐标到直线的距离数据来确定可移动设备在拍摄当前帧图像时的位姿参数的目的。另外,与通过计算第二像面坐标集中的所有像面坐标到直线的距离,来得到多个距离相比,本申请实施例所提及的通过计算第二像面坐标集中与预设标识对应的像面坐标到直线的距离,能够充分降低受光照或季节等因素影响大的像面坐标(比如树木等)对定位操作的干扰,进而进一步提高定位的精准度。
图4是本申请又一示例性实施例提供的确定第二像面坐标集中的与预设标识对应的像面坐标到直线的距离的流程示意图。在本申请图3所示实施例的基础上延伸出本申请图4所示实施例,下面着重叙述图4所示实施例与图3所示实施例的不同之处,相同之处不再赘述。
如图4所示,在本申请实施例提供的可移动设备的定位方法中,针对多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与预设标识对应的像面坐标到直线的距离,得到多个距离(即步骤51),包括:
步骤511,确定转换到多个第二像面坐标集中的点云数据的属性信息。
需要说明的是,点云数据的属性信息指的是能够表征该点云数据的属性的信息,本申请实施例对该属性信息的具体类型不进行统一限定。比如,预设标识为路面车道线,则对应的第二像面坐标集中的点云数据的属性信息为表征是否属于路面车道线的信息。
步骤512,根据点云数据的属性信息确定多个第二像面坐标集中的与预设标识对应的像面坐标。
步骤513,基于每一第二像面坐标集,确定与预设标识对应的像面坐标到直线的距离数据,并得到多个距离数据。
本申请实施例所提及的可移动设备的定位方法,通过借助点云数据的属性信息来确定多个第二像面坐标集中的与预设标识对应的像面坐标的方式,进一步提高了所确定的与预设标识对应的像面坐标的准确性,进而为提高本申请实施例所提及的定位方法的定位精准度提供了前提条件。
图5是本申请又一示例性实施例提供的可移动设备的定位方法的确定可移动设备在拍摄当前帧图像时的位姿参数的流程示意图。在本申请图3所示实施例的基础上延伸出本申请图5所示实施例,下面着重叙述图5所示实施例与图3所示实施例的不同之处,相同之处不再赘述。
如图5所示,在本申请实施例提供的可移动设备的定位方法中,基于多个第二组位姿参数各自对应的准确概率确定可移动设备在拍摄当前帧图像时的位姿参数步骤(即步骤53),包括:
步骤531,将多个第二组位姿参数中的每一第二组位姿参数的准确概率与预设门限参数进行比较。
其中,预设门限参数的具体数值可根据实际情况自行设定,本申请实施例对此不进行统一限定。比如,预设门限参数可以为[0.5,1],即预设门限参数包括了0.5至1之间的数值;又比如预设门限参数可以为[0.7,1],即预设门限参数包括了0.7至1之间的数值。
步骤532,将落入预设门限参数范围内的准确概率最大的第二组位姿参数确定为可移动设备在拍摄当前帧图像时的位姿参数。
步骤533,确定可移动设备重新拍摄当前帧图像时的第三组位姿参数,并基于重新拍摄的当前帧图像以及第三组位姿参数重新确定开始定位操作。
需要说明的是,第三组位姿参数即为重新拍摄当前帧图像时的可移动设备的粗略位姿参数。也就是说,当所有第二组位姿参数的准确概率均未落入预设门限参数范围内时,则重新拍摄当前帧图像,并重新确定可移动设备的粗略位姿参数,从而重新开始进行对可移动设备的定位操作。
在实际应用过程中,首先将多个第二组位姿参数中的每一第二组位姿参数的准确概率与预设门限参数进行比较,当至少一个第二组位姿参数的准确概率落入预设门限参数范围内时,执行步骤532,即,将落入预设门限参数范围内的准确概率最大的第二组位姿参数确定为可移动设备在拍摄当前帧图像时的位姿参数;当所有第二组位姿参数的准确概率均未落入预设门限参数范围内时,执行步骤533,即确定可移动设备重新拍摄当前帧图像时的第三组位姿参数,并基于重新拍摄的当前帧图像以及第三组位姿参数重新确定开始定位操作。
举例说明,预设门限参数为[0.3,1],共有4个第二组位姿参数,并且各第二组位姿参数的准确概率依次为0.1、0.2、0.3、0.4。应当理解,准确概率分别为0.3和0.4的两个第二组位姿参数落入到预设门限参数范围内,又由于0.4大于0.3,因此,准确概率为0.4的第二组位姿参数即为可移动设备在拍摄当前帧图像时的位姿参数。
本发明实施例提供的可移动设备的定位方法,通过将第二组位姿参数的准确概率分别与预设门限参数进行比较,并根据比较结果确定可移动设备在拍摄当前帧图像时的位姿参数的方式,利用预设门限参数对各第二组位姿参数的准确概率进行了筛选,进一步提高了定位的精准度。另外,本发明实施例提供的可移动设备的定位方法,避免了当所有第二组位姿参数的准确概率均未落入预设门限参数范围时,仍要强行选择准确概率最高的第二组位姿参数作为可移动设备在拍摄当前帧图像时的位姿参数的情况,从而实现了进一步提高定位的精准度的目的。
图6是本申请再一示例性实施例提供的确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据的流程示意图。在本申请图2所示实施例的基础上延伸出本申请图6所示实施例,下面着重叙述图6所示实施例与图2所示实施例的不同之处,相同之处不再赘述。
如图6所示,在本申请实施例提供的可移动设备的定位方法中,在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据步骤(即步骤30),包括:
步骤31,确定可移动设备的第一组位姿参数中的位置参数,其中,该位置参数为拍摄当前帧图像时的地理位置。
步骤32,将高精地图中位于地理位置的预设范围内的点云数据,确定为可移动设备在拍摄当前帧图像时的地理位置的预设范围内的点云数据。
需要说明的是,当高精地图为基于激光雷达技术建立的地图时,点云数据包括激光雷达的反射数据。那么,该点云数据中包括的激光雷达的反射数据可以作为表征点云数据的属性的属性信息
在实际应用过程中,首先确定可移动设备在拍摄当前帧图像时的第一组位姿参数以及确定当前帧图像中预设标识对应的直线,并基于第一组位姿参数确定多个第二组位姿参数,然后确定可移动设备的第一组位姿参数中的位置参数,其中该位置参数为拍摄当前帧图像时的地理位置,并将高精地图中位于地理位置的预设范围内的点云数据,确定为可移动设备在拍摄当前帧图像时的地理位置的预设范围内的点云数据,然后基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集,最后基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
也就是说,本发明实施例提供的可移动设备的定位方法,通过基于可移动设备在拍摄当前帧图像时的粗略位姿参数中的位置参数来确定可移动设备在拍摄当前帧图像时的地理位置,并将高精地图中位于该地理位置的预设范围内的点云数据确定为可移动设备在拍摄当前帧图像时的地理位置的预设范围内的点云数据的方式,实现了获取可移动设备在拍摄当前帧图像时所处地理位置的点云数据的目的,从而为后续将点云数据转换到像素平面坐标系以得到像面坐标集,并基于像面坐标集与直线的距离确定可移动设备在拍摄当前帧图像时的位姿参数奠定了前提。
示例性装置
图7是本申请一示例性实施例提供的可移动设备的定位装置的流程示意图。本申请实施例提供的可移动设备的定位装置可应用到汽车的自动驾驶领域,亦可应用到智能机器人的行进类功能领域。如图7所示,本申请实施例提供的可移动设备的定位装置包括:
第一组位姿参数确定模块100,用于确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定当前帧图像中预设标识对应的直线。
第二组位姿参数确定模块200,用于基于第一组位姿参数确定多个第二组位姿参数。
点云数据确定模块300,用于在高精地图中,确定在拍摄当前帧图像时的地理位置的预设范围内的点云数据。
第二像面坐标集确定模块400,用于基于多个第二组位姿参数将预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集。
位姿参数确定模块500,用于基于多个第二像面坐标集到直线的距离,从多个第二组位姿参数中确定可移动设备在拍摄当前帧图像时的位姿参数。
图8是本申请另一示例性实施例提供的可移动设备的定位装置的位姿参数确定模块的结构示意图。在本申请图7所示实施例的基础上延伸出本申请图8所示实施例,下面着重叙述图8所示实施例与图7所示实施例的不同之处,相同之处不再赘述。
如图8所示,在本申请实施例提供的可移动设备的定位装置中,位姿参数确定模块500包括:
距离确定单元510,用于针对多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与预设标识对应的像面坐标到直线的距离,得到多个距离。
准确概率确定单元520,用于基于多个距离之和确定与第二像面坐标集对应的第二组位姿参数的准确概率。
位姿参数确定单元530,用于基于多个第二组位姿参数的准确概率确定可移动设备在拍摄当前帧图像时的位姿参数。
图9是本申请又一示例性实施例提供的可移动设备的定位装置的距离确定单元的结构示意图。在本申请图8所示实施例的基础上延伸出本申请图9所示实施例,下面着重叙述图9所示实施例与图8所示实施例的不同之处,相同之处不再赘述。
如图9所示,在本申请实施例提供的可移动设备的定位装置中,距离确定单元510包括:
属性信息确定子单元5110,用于确定转换到多个第二像面坐标集中的点云数据的属性信息。
像面坐标确定子单元5120,用于根据点云数据的属性信息确定多个第二像面坐标集中的与预设标识对应的像面坐标。
距离数据确定子单元5130,用于基于每一第二像面坐标集,确定与预设标识对应的像面坐标到直线的距离数据,并得到多个距离数据。
图10是本申请又一示例性实施例提供的可移动设备的定位装置的位姿参数确定单元的结构示意图。在本申请图8所示实施例的基础上延伸出本申请图10所示实施例,下面着重叙述图10所示实施例与图8所示实施例的不同之处,相同之处不再赘述。
如图10所示,在本申请实施例提供的可移动设备的定位装置中,位姿参数确定单元530包括:
比较子单元5310,用于将多个第二组位姿参数中的每一第二组位姿参数的准确概率与预设门限参数进行比较。
确定子单元5320,用于当至少一个第二组位姿参数的准确概率落入预设门限参数范围内时,将落入预设门限参数范围内的准确概率最大的第二组位姿参数确定为可移动设备在拍摄当前帧图像时的位姿参数。
重新定位子单元5330,用于当所有第二组位姿参数的准确概率均未落入预设门限参数范围内时,确定可移动设备重新拍摄当前帧图像时的第三组位姿参数,并基于重新拍摄的当前帧图像以及第三组位姿参数重新确定开始定位操作。
图11是本申请再一示例性实施例提供的可移动设备的定位装置的点云数据确定模块的结构示意图。在本申请图7所示实施例的基础上延伸出本申请图11所示实施例,下面着重叙述图11所示实施例与图7所示实施例的不同之处,相同之处不再赘述。
如图11所示,在本申请实施例提供的可移动设备的定位装置中,点云数据确定模块300包括:
位置参数确定单元310,用于确定可移动设备的第一组位姿参数中的位置参数,其中,该位置参数为拍摄当前帧图像时的地理位置。
点云数据确定单元320,用于将高精地图中位于地理位置的预设范围内的点云数据,确定为可移动设备在拍摄当前帧图像时的地理位置的预设范围内的点云数据。
应当理解,图7至图11提供的可移动设备的定位装置中的第一组位姿参数确定模块100、第二组位姿参数确定模块200、点云数据确定模块300、第二像面坐标集确定模块400和位姿参数确定模块500,以及点云数据确定模块300中包括的位置参数确定单元310、点云数据确定单元320,以及位姿参数确定模块500中包括的距离确定单元510、准确概率确定单元520和位姿参数确定单元530,以及距离确定单元510中包括的属性信息确定子单元5110、像面坐标确定子单元5120和距离数据确定子单元5130,以及位姿参数确定单元530中包括的比较子单元5310、确定子单元5320和重新定位子单元5330的操作和功能可以参考上述图2至图6提供的可移动设备的定位方法,为了避免重复,在此不再赘述。
示例性电子设备
下面,参考图12来描述根据本申请实施例提供的可移动设备的定位方法的电子设备。图12是本申请一示例性实施例提供的电子设备的结构示意图。如图12所示,电子设备包括一个或多个处理器610和存储器620。
处理器610可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器620可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器11可以运行所述程序指令,以实现上文所述的本申请的各个实施例的声源定位方法以及/或者其他期望的功能。在所述计算机可读存储介质中还可以存储诸如视频图像、位姿参数、高精地图等各种内容。
在一个示例中,电子设备还可以包括:输入装置和输出装置,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。其中,输入设备包括但不限于为键盘、鼠标等等。
当然,为了简化,图12中仅示出了该电子设备中与本申请有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
示例性计算机程序产品和计算机可读存储介质
除了上述方法和设备以外,本申请的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的声源定位方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本申请的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述“示例性方法”部分中描述的根据本申请各种实施例的可移动设备的定位方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本申请的基本原理,但是,需要指出的是,在本申请中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本申请的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本申请为必须采用上述具体的细节来实现。
本申请中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
还需要指出的是,在本申请的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本申请的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本申请。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本申请的范围。因此,本申请不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本申请的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。

Claims (12)

1.一种可移动设备的定位方法,包括:
确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定所述当前帧图像中预设标识对应的直线;
基于所述第一组位姿参数确定多个第二组位姿参数;
在高精地图中,确定在拍摄所述当前帧图像时的地理位置的预设范围内的点云数据;
基于所述多个第二组位姿参数将所述预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集;
基于所述多个第二像面坐标集到所述直线的距离,从所述多个第二组位姿参数中确定所述可移动设备在拍摄所述当前帧图像时的位姿参数。
2.根据权利要求1所述的方法,其中,所述基于所述第一组位姿参数确定多个第二组位姿参数,包括:
基于所述第一组位姿参数,以依次增加和/或依次减少预设步长的方式确定多个第二组位姿参数。
3.根据权利要求1所述的方法,其中,所述基于所述多个第二组位姿参数将所述预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集,包括:
基于所述多个第二组位姿参数中的每一所述第二组位姿参数,将所述预设范围内的点云数据投影到像素平面坐标系中,以得到分别与所述多个第二组位姿参数对应的多个第二像面坐标集。
4.根据权利要求1所述的方法,其中,所述基于所述多个第二像面坐标集到所述直线的距离,从所述多个第二组位姿参数中确定所述可移动设备在拍摄所述当前帧图像时的位姿参数,包括:
针对所述多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与所述预设标识对应的像面坐标到所述直线的距离,得到多个距离;
基于所述多个距离之和确定与所述第二像面坐标集对应的所述第二组位姿参数的准确概率;
基于所述多个第二组位姿参数的所述准确概率确定所述可移动设备在拍摄所述当前帧图像时的位姿参数。
5.根据权利要求4所述的方法,其中,所述针对所述多个第二像面坐标集中的每一个第二像面坐标集,确定该第二像面坐标集中的与所述预设标识对应的像面坐标到所述直线的距离,得到多个距离,包括:
确定转换到所述多个第二像面坐标集中的所述点云数据的属性信息;
根据所述点云数据的所述属性信息确定所述多个第二像面坐标集中的与所述预设标识对应的像面坐标;
基于每一所述第二像面坐标集,确定与所述预设标识对应的像面坐标到所述直线的距离数据,并得到多个距离数据。
6.根据权利要求4所述的方法,其中,所述基于所述多个第二组位姿参数的所述准确概率确定所述可移动设备在拍摄所述当前帧图像时的位姿参数,包括:
将所述多个第二组位姿参数中的每一所述第二组位姿参数的所述准确概率与预设门限参数进行比较;
当至少一个所述第二组位姿参数的所述准确概率落入所述预设门限参数范围内时,将落入所述预设门限参数范围内的所述准确概率最大的所述第二组位姿参数作为所述可移动设备在拍摄所述当前帧图像时的位姿参数。
7.根据权利要求6所述的方法,其中,所述方法还包括:
当所有所述第二组位姿参数的所述准确概率均未落入所述预设门限参数范围内时,确定所述可移动设备重新拍摄当前帧图像时的第三组位姿参数,并基于重新拍摄的所述当前帧图像以及所述第三组位姿参数重新开始定位操作。
8.根据权利要求1所述的方法,其中,所述确定可移动设备在拍摄当前帧图像时的第一组位姿参数,包括:
基于所述可移动设备的历史位姿参数或预设位姿参数确定所述可移动设备的第一组位姿参数。
9.根据权利要求1所述的方法,其中,所述在高精地图中,确定在拍摄所述当前帧图像时的地理位置的预设范围内的点云数据,包括:
确定所述可移动设备的所述第一组位姿参数中的位置参数,所述位置参数为拍摄所述当前帧图像时的地理位置;
将高精地图中位于所述地理位置的预设范围内的点云数据,确定为所述可移动设备在拍摄所述当前帧图像时的地理位置的预设范围内的点云数据。
10.一种可移动设备的定位装置,包括:
第一组位姿参数确定模块,用于确定可移动设备在拍摄当前帧图像时的第一组位姿参数,以及确定所述当前帧图像中预设标识对应的直线;
第二组位姿参数确定模块,用于基于所述第一组位姿参数确定多个第二组位姿参数;
点云数据确定模块,用于在高精地图中,确定在拍摄所述当前帧图像时的地理位置的预设范围内的点云数据;
第二像面坐标集确定模块,用于基于所述多个第二组位姿参数将所述预设范围内的点云数据转换到像素平面坐标系中,得到多个第二像面坐标集;
位姿参数确定模块,用于基于所述多个第二像面坐标集到所述直线的距离,从所述多个第二组位姿参数中确定所述可移动设备在拍摄所述当前帧图像时的位姿参数。
11.一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1至9任一所述的可移动设备的定位方法。
12.一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于执行上述权利要求1至9任一所述的可移动设备的定位方法。
CN201811548924.XA 2018-12-18 2018-12-18 可移动设备的定位方法、定位装置及电子设备 Active CN111337010B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201811548924.XA CN111337010B (zh) 2018-12-18 2018-12-18 可移动设备的定位方法、定位装置及电子设备
US16/716,801 US11244473B2 (en) 2018-12-18 2019-12-17 Positioning method, positioning apparatus of mobile device and electronic device
EP19216917.5A EP3671123A1 (en) 2018-12-18 2019-12-17 Positioning method, positioning apparatus of mobile device and electronic device
KR1020190169449A KR102329858B1 (ko) 2018-12-18 2019-12-18 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811548924.XA CN111337010B (zh) 2018-12-18 2018-12-18 可移动设备的定位方法、定位装置及电子设备

Publications (2)

Publication Number Publication Date
CN111337010A true CN111337010A (zh) 2020-06-26
CN111337010B CN111337010B (zh) 2022-05-03

Family

ID=68944183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811548924.XA Active CN111337010B (zh) 2018-12-18 2018-12-18 可移动设备的定位方法、定位装置及电子设备

Country Status (4)

Country Link
US (1) US11244473B2 (zh)
EP (1) EP3671123A1 (zh)
KR (1) KR102329858B1 (zh)
CN (1) CN111337010B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182914B2 (en) 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
CN112683151B (zh) * 2020-11-30 2023-06-13 中车长江车辆有限公司 利用供电网络进行定位的供电系统、移动设备及方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150556A (zh) * 2013-02-20 2013-06-12 西安理工大学 用于道路交通监控的安全带自动检测方法
JP2016071665A (ja) * 2014-09-30 2016-05-09 富士重工業株式会社 車両の視線誘導装置
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN106156723A (zh) * 2016-05-23 2016-11-23 北京联合大学 一种基于视觉的路口精定位方法
CN106203341A (zh) * 2016-07-11 2016-12-07 百度在线网络技术(北京)有限公司 一种无人车的车道线识别方法及装置
CN107131883A (zh) * 2017-04-26 2017-09-05 中山大学 基于视觉的全自动移动终端室内定位系统
CN107714082A (zh) * 2017-09-04 2018-02-23 北京航空航天大学 一种基于光学定位的超声探头标定装置及方法
CN107741224A (zh) * 2017-08-28 2018-02-27 浙江大学 一种基于视觉测量及标定的agv自动调姿定位方法
EP3343173A1 (en) * 2015-08-28 2018-07-04 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
CN108413971A (zh) * 2017-12-29 2018-08-17 驭势科技(北京)有限公司 基于车道线的车辆定位技术及应用
CN108571974A (zh) * 2017-03-14 2018-09-25 福特全球技术公司 使用摄像机的车辆定位

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101417901B1 (ko) * 2012-06-12 2014-07-10 주식회사 인지소프트 모바일 카메라를 이용한 위치기반 플레이트 인식 방법 및 이를 제공하는 모바일 디바이스
JP6233706B2 (ja) * 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
KR102121287B1 (ko) * 2013-07-17 2020-06-10 엘지이노텍 주식회사 카메라 시스템 및 카메라 시스템의 제어 방법
KR101885356B1 (ko) * 2016-05-04 2018-08-03 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
KR20180106417A (ko) 2017-03-20 2018-10-01 현대자동차주식회사 차량의 위치 인식 시스템 및 방법
KR101942646B1 (ko) * 2017-04-03 2019-01-25 한국과학기술원 영상 특징점 기반의 실시간 카메라 자세 추정 방법 및 그 장치
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150556A (zh) * 2013-02-20 2013-06-12 西安理工大学 用于道路交通监控的安全带自动检测方法
JP2016071665A (ja) * 2014-09-30 2016-05-09 富士重工業株式会社 車両の視線誘導装置
EP3343173A1 (en) * 2015-08-28 2018-07-04 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
CN106156723A (zh) * 2016-05-23 2016-11-23 北京联合大学 一种基于视觉的路口精定位方法
CN106203341A (zh) * 2016-07-11 2016-12-07 百度在线网络技术(北京)有限公司 一种无人车的车道线识别方法及装置
CN106092104A (zh) * 2016-08-26 2016-11-09 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
CN108571974A (zh) * 2017-03-14 2018-09-25 福特全球技术公司 使用摄像机的车辆定位
CN107131883A (zh) * 2017-04-26 2017-09-05 中山大学 基于视觉的全自动移动终端室内定位系统
CN107741224A (zh) * 2017-08-28 2018-02-27 浙江大学 一种基于视觉测量及标定的agv自动调姿定位方法
CN107714082A (zh) * 2017-09-04 2018-02-23 北京航空航天大学 一种基于光学定位的超声探头标定装置及方法
CN108413971A (zh) * 2017-12-29 2018-08-17 驭势科技(北京)有限公司 基于车道线的车辆定位技术及应用

Also Published As

Publication number Publication date
CN111337010B (zh) 2022-05-03
US11244473B2 (en) 2022-02-08
KR102329858B1 (ko) 2021-11-23
US20200193636A1 (en) 2020-06-18
EP3671123A1 (en) 2020-06-24
KR20200076628A (ko) 2020-06-29

Similar Documents

Publication Publication Date Title
CN113486797B (zh) 无人车位置检测方法、装置、设备、存储介质及车辆
EP3627180B1 (en) Sensor calibration method and device, computer device, medium, and vehicle
US20230360260A1 (en) Method and device to determine the camera position and angle
CN109242903B (zh) 三维数据的生成方法、装置、设备及存储介质
JP6857697B2 (ja) 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体
CN111307163B (zh) 可移动设备的定位方法、定位装置及电子设备
CN111337010B (zh) 可移动设备的定位方法、定位装置及电子设备
CN110068824B (zh) 一种传感器位姿确定方法和装置
US20180232582A1 (en) Object detection device, object detection method, and program
JP2007233440A (ja) 車載用画像処理装置
CN110827337B (zh) 确定车载相机的姿态的方法、装置和电子设备
CN112097742B (zh) 一种位姿确定方法及装置
CN112150529A (zh) 一种图像特征点的深度信息确定方法及装置
US20210256720A1 (en) Vanishing point extraction devices and methods of extracting vanishing point
CN112348874A (zh) 一种车道线的结构化参数表示确定方法及装置
CN112652018A (zh) 外参确定方法、外参确定装置及电子设备
CN112417924A (zh) 一种标志杆的空间坐标获取方法及装置
CN112733697B (zh) 一种车辆偏航角确定方法和装置
CN112348875B (zh) 一种标志杆的结构化参数表示确定方法及装置
CN114511625B (zh) 一种机器人定位方法、装置、电子设备及存储介质
CN111830517B (zh) 调整激光雷达扫描范围的方法、装置及电子设备
CN115511975A (zh) 一种单目相机的测距方法及计算机程序产品
CN112257732A (zh) 一种特征图融合方法及装置
CN112308905A (zh) 一种平面标志物的坐标确定方法及装置
CN112435293A (zh) 一种车道线的结构化参数表示确定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant