CN112598743A - 一种单目视觉图像的位姿估算方法及相关装置 - Google Patents

一种单目视觉图像的位姿估算方法及相关装置 Download PDF

Info

Publication number
CN112598743A
CN112598743A CN202110171998.1A CN202110171998A CN112598743A CN 112598743 A CN112598743 A CN 112598743A CN 202110171998 A CN202110171998 A CN 202110171998A CN 112598743 A CN112598743 A CN 112598743A
Authority
CN
China
Prior art keywords
target
images
point pairs
characteristic point
pixel coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110171998.1A
Other languages
English (en)
Other versions
CN112598743B (zh
Inventor
单国航
朱磊
贾双成
李倩
李成军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhidao Network Technology Beijing Co Ltd
Original Assignee
Zhidao Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhidao Network Technology Beijing Co Ltd filed Critical Zhidao Network Technology Beijing Co Ltd
Priority to CN202110171998.1A priority Critical patent/CN112598743B/zh
Publication of CN112598743A publication Critical patent/CN112598743A/zh
Application granted granted Critical
Publication of CN112598743B publication Critical patent/CN112598743B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请是关于一种单目视觉图像的位姿估算方法及相关装置。该方法包括:获取车辆行驶过程中采集的两张图像;分别提取上述两张图像上的特征点;将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;获取所有目标特征点对分别在上述两张图像上的像素坐标;计算每一个目标特征点对中的两个像素坐标之间的距离;将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;利用新的目标特征点对,计算上述两张图像之间的相对位姿。本申请提供的方案,能够消除图像噪点的影响,降低位姿估算的计算量,并且提高位姿估算的精度,进而提升车辆的定位精度。

Description

一种单目视觉图像的位姿估算方法及相关装置
技术领域
本申请涉及导航技术领域,尤其涉及一种单目视觉图像的位姿估算方法及相关装置。
背景技术
车辆在行驶过程中通常会借助搭载的摄像装置(如行车记录仪、相机等)采集到的视频图像来辅助车辆定位导航。通常的实现方法是对视频抽帧后的多张图像进行特征匹配以估算出图像间的相对位姿,从而生成车辆的移动轨迹。然而,摄像装置采集到的图像上往往会带有图像采集时的时间信息,另外,还可能会将自身车辆前方的引擎盖也一并采集到图像中,这些信息可以看作为图像噪点。由于上述时间信息和车辆部分在各张图像上几乎没什么变化,当进行图像特征匹配时,这些噪点信息将会被大量匹配到,不仅增加了位姿估算的计算量,而且降低了位姿估算的准确性,进而影响了车辆的定位精度。
发明内容
为克服相关技术中存在的问题,本申请提供一种单目视觉图像的位姿估算方法及相关装置,能够消除图像噪点的影响,降低位姿估算的计算量,并且提高位姿估算的精度,进而提升车辆的定位精度。
本申请第一方面提供一种单目视觉图像的位姿估算方法,包括:
获取车辆行驶过程中采集的两张图像;
分别提取所述两张图像上的特征点;
将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;
获取所有目标特征点对分别在所述两张图像上的像素坐标;
计算每一个所述目标特征点对中的两个像素坐标之间的距离;
将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;
利用所述新的目标特征点对,计算所述两张图像之间的相对位姿。
优选的,所述将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对,包括:
判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
优选的,所述判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内之前,所述方法还包括:
获取所述车辆的行驶速度;
判断所述车辆的行驶速度是否小于预设速度;
其中,所述判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,包括:
若所述车辆的行驶速度小于所述预设速度,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
优选的,所述分别提取所述两张图像上的特征点,包括:
识别所述两张图像中的目标动态物体,并对识别出的所述目标动态物体进行范围标记;
分别提取所述两张图像上位于所述目标动态物体标记范围外的特征点。
优选的,所述将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对,包括:
将所述两张图像上的特征点进行特征匹配,获得匹配成功的特征点对;
识别所述两张图像中的目标动态物体,并对识别出的所述目标动态物体进行范围标记;
判断所述匹配成功的特征点对中是否有特征点位于对应图像中的所述目标动态物体的标记范围内,若有,删除该特征点对,得到目标特征点对。
本申请第二方面提供一种单目视觉图像的位姿估算装置,包括:
图像获取单元,用于获取车辆行驶过程中采集的两张图像;
特征提取单元,用于分别提取所述两张图像上的特征点;
特征匹配单元,用于将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;
像素获取单元,用于获取所有目标特征点对分别在所述两张图像上的像素坐标;
距离计算单元,用于计算每一个所述目标特征点对中的两个像素坐标之间的距离;
噪点处理单元,用于将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;
位姿计算单元,用于利用所述新的目标特征点对,计算所述两张图像之间的相对位姿。
优选的,所述噪点处理单元具体用于判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
优选的,所述装置还包括:
速度获取单元,用于在所述噪点处理单元判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内之前,获取所述车辆的行驶速度;
速度比较单元,用于判断所述车辆的行驶速度是否小于预设速度;
所述噪点处理单元判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,包括:
所述噪点处理单元在所述速度比较单元判断出所述车辆的行驶速度小于所述预设速度时,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
本申请第三方面提供一种电子设备,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如上所述的方法。
本申请第四方面提供一种非暂时性机器可读存储介质,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如上所述的方法。
本申请提供的技术方案,通过获取车辆在行驶过程中采集的两张图像,并对两张图像上的特征点进行匹配,以得到匹配成功的目标特征点对;获取各目标特征点对分别在两张图像上的像素坐标,针对每一目标特征点对,计算其像素坐标之间的距离,若像素坐标之间的距离小于预设值,则该目标特征点对可以被认定为噪点,将所有的噪点删除后,得到新的目标特征点对,从而可以利用新的目标特征点对来求得两张图像之间的相对位姿。本申请的技术方案,在对两张图像进行特征点匹配后,通过特征点像素坐标间的距离来识别图像噪点,从而能够消除图像噪点对位姿估算的影响,降低位姿估算的计算量,并且能够提高位姿估算的精度,进而有利于提升车辆的定位精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
通过结合附图对本申请示例性实施方式进行更详细的描述,本申请的上述以及其它目的、特征和优势将变得更加明显,其中,在本申请示例性实施方式中,相同的参考标号通常代表相同部件。
图1是本申请实施例示出的一种单目视觉图像的位姿估算方法的流程示意图;
图2是本申请实施例示出的车辆行驶过程中采集的单目视觉图像。
图3是本申请实施例示出的另一种单目视觉图像的位姿估算方法的流程示意图;
图4是本申请实施例示出的一种单目视觉图像的位姿估算装置的结构示意图;
图5是本申请实施例示出的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本申请的优选实施方式。虽然附图中显示了本申请的优选实施方式,然而应该理解,可以以各种形式实现本申请而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本申请更加透彻和完整,并且能够将本申请的范围完整地传达给本领域的技术人员。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,在本申请的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。以下结合附图详细描述本申请实施例的技术方案。
请参阅图1,本申请实施例提供了一种单目视觉图像的位姿估算方法。如图1所示,该方法可以包括以下步骤:
110、获取车辆行驶过程中采集的两张图像。
本申请实施例中,可以通过单目摄像装置来采集行车过程中的视频数据,其中,该单目摄像装置可以包括但不限于安装于车辆上的单目行车记录仪、单目摄像头或司机的手机等具有摄像功能的装置。单目摄像装置可以设置于车辆的首部以采集车辆前方的视频数据,也可以设置于车辆的尾部以采集其后方的视频数据,这里不作限定。为了后续对图像进行处理,需要对车辆行驶中拍摄的视频数据进行抽帧。通常,视频的帧率为每秒30帧,可以按照预置的规则对视频进行抽帧,例如,每秒抽10帧、15帧、20帧或其他值,从而获得拍摄的多帧图像,相邻两帧图像的时间间隔为抽帧时间间隔。此外,摄像装置在拍摄图像的同时,还会记录下图像的拍摄时间,并可以以水印的形式显示在图像上,一般显示在图像的左上方或正上方等位置。
本申请实施例提供的方法可以应用于车机,也可以应用于其他具备计算和处理功能的设备,如计算机、电脑、手机等。这里以车机为例,单目摄像装置可以内置于车机,也可以设置于车机外,且与车机之间建立通信连接。
120、分别提取上述两张图像上的特征点。
本申请实施例中,可以利用特征提取算法来分别提取两张图像上的特征点,该特征提取算法可以包括但不限于Brisk算法、ORB、SURF或SIFT算法等等。
130、将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对。
这里以Brisk算法提取特征点为例进行说明。具体的,可以利用Brisk算子分别提取两张图像中的特征点,并对每一张图像的特征点进行描述,将描述后的特征点作为该图像的特征点。Brisk算法由于具有较好的旋转不变性、尺度不变性和较好的鲁棒性等特点,在图像配准应用中有很好的表现。图像中的一个特征点可以由两部分构成:关键点和描述子。Brisk算法主要利用FAST9-16进行特征点检测,取得分值较大的点作为特征点(即关键点),即完成特征点的提取。仅仅利用关键点的信息还无法很好的进行特征点匹配,所以需要进一步得到更详细的信息,将特征区分开来,因此,需要进行特征点描述,得到特征描述子。通过特征描述子可以消除视角的变化带来图片的尺度和方向的变化,能够更好的在图片间匹配。一张图片上的每一个特征描述子都是独特的,具有排他性,尽可能减少彼此间的相似性。brisk特征描述子可以用二进制数来表示,如256bit或512bit的二进制数。
将两张图像的特征描述子进行匹配,具体的是可以将其中一张图像上的某一个特征描述子与另一张图像上的所有特征描述子进行匹配,分别计算匹配距离(如汉明距离),取匹配距离最小且匹配距离小于预设距离的特征点作为匹配点,这一对匹配成功的特征点可以看作为一个目标特征点对。按照上述方法,可以逐一对两张图像上的所有特征点进行匹配,找到匹配成功的多个目标特征点对。
140、获取所有目标特征点对分别在上述两张图像上的像素坐标。
本申请实施例中,图像特征点可以用图像像素来表示,一个特征点可以看作为一个像素点,而每一个像素点又可以用像素坐标来表示。所谓像素坐标,用于描述物体成像后的像素点在数字图像上的位置。要确定像素的坐标,首先需要确定像素坐标系。像素坐标系以图像平面的左上角顶点为坐标原点的直角坐标系u-v,像素的横坐标u与纵坐标v分别是在其图像数组中所在的列数与所在行数,可将某点的像素坐标记为P (u, v)。可以获取每一个目标特征点对包含的两个特征点分别位于对应图像上的像素坐标,即得到这两个特征点分别在对应图像上的位置。
150、计算每一个目标特征点对中的两个像素坐标之间的距离。
举例来说,假设特征点1和特征点2为匹配成功的一个目标特征点对,特征点1位于第一图像上,且在第一图像上的像素坐标为P1(u1, v1),特征点2位于第二图像上,且在第二图像上的像素坐标为P2(u2, v2)。可以按照以下计算公式来求得特征点1和特征点2的像素坐标之间的距离l。
l=sqrt((u1 - u2)^2 + (v1 - v2)^2)
按照上述方法,可以求得每一个目标特征点对包含的两个特征点的像素坐标之间的距离。
160、将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对。
本申请实施例中,图像采集时往往会在图像上显示时间水印,还可能因为摄像装置拍摄角度的问题将所在车辆的部分车身也拍摄进来,甚至还可能因天气或光线等原因使图像中出现反光、光圈等影响因素。这些因素在车辆向前行驶过程中几乎没什么变化,当进行图像特征点匹配时,这些因素将会被大量匹配到。这样对于后续利用特征点进行位姿估算时,不仅大大增加了计算量,而且会使得位姿估算不准确,进一步影响车辆的定位精度。因此,需要对上述因素进行去除,以排除上述因素对位姿估算的影响。
具体的,在求得每一个目标特征点对的像素坐标之间的距离之后,可以将求得的每一像素坐标之间的距离与预设值进行比较,判断像素坐标之间的距离是否小于预设值,如果小于,可以认为对应的目标特征点对为无效点(即噪点);如果大于或等于,可以认为对应的目标特征点对为有效点。将目标特征点对中的所有噪点进行删除处理,剩下的有效目标特征点对可以构建新的目标特征点对。
举例来说,如图2所示,左右两幅为采集时间相邻的两张图像,在两张图像的正上方均带有时间水印,左前方出现太阳光圈,且图像的下方显示有部分车身。这些信息在两张图像中的位置几乎没变化,在对左右两张图像进行特征点匹配时,这些位置的特征点将会被大量匹配到。因此,在匹配成功的目标特征点对中通过计算像素坐标之间的距离来排除噪点。而图像中出现的其他物体(如建筑物、路牌等)在两张图像中的位置有明显变化,使得其像素坐标之间的距离将大于预设值,这些物体匹配成功的目标特征点对将组合成新的目标特征点对。
170、利用新的目标特征点对,计算上述两张图像之间的相对位姿。
本申请实施例中,根据新的目标特征点对,可以采用对极约束算法来计算上述两张图像之间的相对位姿,两张图像之间的相对位姿可以看作为两张图像之间的旋转矩阵R和平移矩阵t。具体的,如果新的目标特征点对有五组,即有五对特征点,则可以采用五点法来计算两张图像之间的相对位姿。如果新的目标特征点对有八组,即有八对特征点,则可以采用八点法来计算两张图像之间的相对位姿。如果新的目标特征点对不止八组时,可以采用最小二乘优化法来计算两张图像之间的相对位姿。其中,五点法、八点法和最小二乘优化算法均为成熟的现有技术,这里将不再叙述其具体实现过程。
对视频数据进行抽帧得到的多张图像,可以采用上述方法来求得每一相邻两张图像之间的旋转矩阵R和平移矩阵t,可以用于后续各项应用。例如,可以根据图像间的旋转矩阵R和平移矩阵t,按照预设规则得到摄像装置的相对位姿,再结合车辆或摄像装置的地理位置(如GPS坐标),可以推算出车辆的移动轨迹。又例如,可以将每一相邻的两张图像及其它们之间的旋转矩阵R和平移矩阵t构建一个样本集,作为深度学习算法的输入样本,以进行样本训练得到数据模型,后续可以将采集的任意两张相邻的图像输入该数据模型,即可进行模型预测得到这两张图像的旋转矩阵和平移矩阵,以便后续进行移动轨迹推算时使用。其中,深度学习算法可以为长短期记忆网络(Long Short Term Memory,简称LSTM)算法或其他神经网络算法等。
可选的,利用上述方法进行深度学习位姿估计样本制作的具体实施方式可以包括:获取车辆行驶过程中连续采集的图像序列;确定滑动窗口大小,该滑动窗口内包含图像序列中采集时间相邻的两张图像;分别提取上述两张图像上的特征点;将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;获取所有目标特征点对分别在上述两张图像上的像素坐标;计算每一个目标特征点对中的两个像素坐标之间的距离;将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;利用新的目标特征点对,计算上述两张图像之间的相对位姿;将滑动窗口以预设步长(如前进一步)在图像序列中滑动,分别得到每一相邻的两张图像之间的相对位姿;利用每一相邻的两张图像以及它们之间的相对位姿构建深度学习算法的训练样本。
本申请实施例中,通过获取车辆在行驶过程中采集的两张图像,并对两张图像上的特征点进行匹配,以得到匹配成功的目标特征点对;获取各目标特征点对分别在两张图像上的像素坐标,针对每一目标特征点对,计算其像素坐标之间的距离,若像素坐标之间的距离小于预设值,则该目标特征点对可以被认定为噪点,将所有的噪点删除后,得到新的目标特征点对,从而可以利用新的目标特征点对来求得两张图像之间的相对位姿。本申请实施例在对两张图像进行特征点匹配后,通过特征点像素坐标间的距离来识别图像噪点,从而能够消除图像噪点对位姿估算的影响,降低位姿估算的计算量,并且能够提高位姿估算的精度,进而有利于提升车辆的定位精度。
可以理解的是,虽然本申请实施例是以车辆为例进行说明的,但不局限于车辆,上述方法也可以应用于其他移动设备中,如移动机器人等,这里不作限定。
请参阅图3,本申请实施例还提供了另一种单目视觉图像的位姿估算方法。如图3所示,该方法可以包括以下步骤:
310、获取车辆行驶过程中采集的两张图像。
320、分别提取上述两张图像上的特征点。
330、将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对。
340、获取所有目标特征点对分别在上述两张图像上的像素坐标。
350、计算每一个目标特征点对中的两个像素坐标之间的距离。
其中,步骤310至步骤350可以参考前述实施例中步骤110至步骤150所描述的相关内容,这里不再赘述。
360、判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
370、利用新的目标特征点对,计算上述两张图像之间的相对位姿。
本申请实施例中,在计算出每一目标特征点对的像素坐标之间的距离之后,可以将每一像素坐标之间的距离与预设值进行比较,从而确定出像素坐标之间的距离小于预设值的目标特征点对。由于一些因素的影响,例如,车辆的行驶速度过小,或者视频数据的抽帧时间间隔过小等等,会导致相邻两张图像上一些建筑物、路牌等的位置变化也很小,从而使得这些位置上匹配成功的特征点对的像素坐标之间的距离也小于预设值而被误认为是噪点,因此,需要进一步地对像素坐标之间的距离小于预设值的目标特征点对进行噪点筛选,以尽可能地降低噪点误判率。
具体的,可以预先设置图像目标区域,一张图像上的目标区域可以设置一个或多个,例如可以根据时间水印的位置分布,将目标区域设置为图像正上方的固定大小的区域;又如可以根据拍摄装置的拍摄角度,将目标区域设置为图像下方的固定大小的区域。可以判断像素坐标之间的距离小于预设值的目标特征点对中是否有特征点对位于对应图像中的目标区域内,例如,当某一特征点对的两个特征点均位于对应图像中的目标区域内,该特征点对可以被认为是噪点,如果特征点对中一个特征点位于目标区域内,而另一个特征点位于目标区域外,则该特征点对可以被认为是有效点,而非噪点。又如,当某一特征点对中有一个特征点位于对应图像中的目标区域内,不管另一个特征点是否位于目标区域内,该特征点对均被认为是噪点。通过上述方法查找出所有噪点后进行删除,剩余的特征点对组合成新的目标特征点对。
在一可选的实施方式中,执行步骤360之前,图3所描述的方法还可以包括以下步骤:
31)获取车辆的行驶速度;
32)判断车辆的行驶速度是否小于预设速度;
其中,步骤360判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内的具体实施方式可以包括:
若车辆的行驶速度小于预设速度,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
由于车辆的行驶速度过小会使得采集时间相邻的两张图像上的物体位置变化很小,导致一些有效特征点被误判为噪点,因此,有必要对车辆的行驶速度进行监控,用车辆的行驶速度作为噪点筛选的启动条件。在车辆上可以安装速度传感器,该速度传感器可以集成在车机内,也可以设置在车机外并与车机进行通信连接。具体的,可以利用速度传感器实时采集车辆的行驶速度,并判断车辆的行驶速度是否小于事先设置的预设速度,如果小于,可以认为车辆的当前行驶速度过小,因此需要对噪点进行区域判定以进一步筛选噪点。如果车辆的行驶速度大于或等于预设速度,可以认为车辆的当前行驶速度较大,相邻两张图像上的物体位置变化较大,可以无需对噪点进行区域判定而直接删除。可以理解的是,在执行上述步骤之前,可以将速度传感器和摄像装置的时间进行同步,以避免时间误差对结果的影响。
在一可选的实施方式中,步骤320分别提取上述两张图像上的特征点的具体实施方式可以包括以下步骤:
33)识别上述两张图像中的目标动态物体,并对识别出的目标动态物体进行范围标记;
34)分别提取上述两张图像上位于目标动态物体标记范围外的特征点。
具体的,摄像装置在采集车辆前方或后方的视频图像时,往往会采集到一些动态物体,如其他行驶的车辆,人行道上或道路两边行走的人群、动物,或者天上飞行的飞机或风筝等等移动的物体。目标动态物体可以看作为预先设置的一种或多种动态物体。由于动态物体其位置和姿态可能会实时发生变动,如果利用动态物体上的特征点来估算图像位姿的话,将会使精度大大降低。因此,在提取图像特征点时,有必要将动态物体上的特征点进行排除。具体的,可以利用目标检测算法对图像上的目标动态物体进行识别,并将识别出的目标动态物体进行范围标记。如图2所示,在识别出图像中的目标动态物体(这里为前方车辆)后,将左右两幅图像中的车辆可以用矩形框进行范围标记,以标记出目标动态物体的位置和大小。可以理解的是,也可以利用圆圈、椭圆形圈或其他规则或不规则形状对目标动态物体进行标定,这里不作唯一限定。在提取图像特征点时,可以有目的性地提取目标动态物体标记范围外的特征点。
其中,利用目标检测算法识别图像上的目标动态物体的具体实现过程可以为:在进行识别操作之前,可以预先构造好训练样本,具体的可以采集若干样本图片,将样本图片中的目标动态物体进行标记后,训练标记后的样本图片,得到样本模型,再将待识别的图像输入样本模型中进行学习,以识别出图像上所有的目标动态物体。该目标检测算法可以包括但不限于SSD(Single Shot MultiBox Detector)算法、DSSD(Deconvolution SingleShot MultiBox Detector)算法、YOLO算法、CNN(Convolutional Neural Networks,卷积神经网络)算法、R-CNN算法或其他算法中的一种或几种的组合。
在一可选的实施方式中,步骤330将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对的具体实施方式可以包括以下步骤:
35)将上述两张图像上的特征点进行特征匹配,获得匹配成功的特征点对;
36)识别上述两张图像中的目标动态物体,并对识别出的目标动态物体进行范围标记;
37)判断匹配成功的特征点对中是否有特征点位于对应图像中的目标动态物体的标记范围内,若有,删除该特征点对,得到目标特征点对。
具体的,可以对两张图像进行全图匹配得到匹配成功的特征点对后,再对图像进行目标动态物体识别,并标记出图像上的所有目标动态物体。之后,再判断匹配成功的特征点对中是否有特征点位于对应图像上的目标动态物体标记范围内,如果某一特征点对中有一个特征点位于对应图像上的目标动态物体标记范围内,则可以将该特征点对看作为噪点并进行删除。按照上述方法,可以尽可能地排除掉动态物体上的特征点,对目标特征点对进行提纯。
本申请实施例在对两张图像进行特征点匹配后,通过特征点像素坐标间的距离和特征点所处位置区域来识别图像噪点,从而能够消除图像噪点对位姿估算的影响,降低位姿估算的计算量,并且能够提高位姿估算的精度,进而有利于提升车辆的定位精度。进一步地,还可以对图像中的动态物体进行检测以排除动态物体对位姿估算的影响,使得位姿估算的结果更为准确。
请参阅图4,本申请实施例提供了一种单目视觉图像的位姿估算装置,可以用于执行前述实施例所描述的单目视觉图像的位姿估算方法。如图4所示,该装置可以包括:
图像获取单元401,用于获取车辆行驶过程中采集的两张图像;
特征提取单元402,用于分别提取上述两张图像上的特征点;
特征匹配单元403,用于将上述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;
像素获取单元404,用于获取所有目标特征点对分别在上述两张图像上的像素坐标;
距离计算单元405,用于计算每一个目标特征点对中的两个像素坐标之间的距离;
噪点处理单元406,用于将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;
位姿计算单元407,用于利用新的目标特征点对,计算上述两张图像之间的相对位姿。
可选的,噪点处理单元406具体可以用于判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
可选的,图4所示的装置还可以包括:
速度获取单元408,用于在噪点处理单元406判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内之前,获取车辆的行驶速度;
速度比较单元409,用于判断车辆的行驶速度是否小于预设速度;
相应地,噪点处理单元406判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内的具体实施方式可以包括:
噪点处理单元406在速度比较单元409判断出车辆的行驶速度小于预设速度时,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
可选的,特征提取单元402具体可以用于识别上述两张图像中的目标动态物体,并对识别出的目标动态物体进行范围标记;分别提取上述两张图像上位于目标动态物体标记范围外的特征点。
可选的,特征匹配单元403具体可以用于将上述两张图像上的特征点进行特征匹配,获得匹配成功的特征点对;识别上述两张图像中的目标动态物体,并对识别出的目标动态物体进行范围标记;判断匹配成功的特征点对中是否有特征点位于对应图像中的目标动态物体的标记范围内,若有,删除该特征点对,得到目标特征点对。
关于上述实施例中的装置,其中各个单元模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不再做详细阐述说明。
实施图4所示的装置,在对两张图像进行特征点匹配后,通过特征点像素坐标间的距离和特征点所处位置区域来识别图像噪点,从而能够消除图像噪点对位姿估算的影响,降低位姿估算的计算量,并且能够提高位姿估算的精度,进而有利于提升车辆的定位精度。进一步地,还可以对图像中的动态物体进行检测以排除动态物体对位姿估算的影响,使得位姿估算的结果更为准确。
请参阅图5,本申请实施例提供了一种电子设备,可以用于执行前述实施例提供的单目视觉图像的位姿估算方法。具体的,如图5所示,该电子设备500可以包括:至少一个处理器501、存储器502、至少一个通信接口503等组件。其中,这些组件可以通过一条或多条通信总线504进行通信连接。本领域技术人员可以理解,图5中示出的电子设备500的结构并不构成对本申请实施例的限定,它既可以是总线形结构,也可以是星型结构,还可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器501可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列 (Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器502可以包括各种类型的存储单元,例如系统内存、只读存储器(ROM),和永久存储装置。其中,ROM可以存储处理器501或者计算机的其他模块需要的静态数据或者指令。永久存储装置可以是可读写的存储装置。永久存储装置可以是即使计算机断电后也不会失去存储的指令和数据的非易失性存储设备。在一些实施方式中,永久性存储装置采用大容量存储装置(例如磁或光盘、闪存)作为永久存储装置。另外一些实施方式中,永久性存储装置可以是可移除的存储设备(例如软盘、光驱)。系统内存可以是可读写存储设备或者易失性可读写存储设备,例如动态随机访问内存。系统内存可以存储一些或者所有处理器在运行时需要的指令和数据。此外,存储器502可以包括任意计算机可读存储媒介的组合,包括各种类型的半导体存储芯片(DRAM,SRAM,SDRAM,闪存,可编程只读存储器),磁盘和/或光盘也可以采用。在一些实施方式中,存储器502可以包括可读和/或写的可移除的存储设备,例如激光唱片(CD)、只读数字多功能光盘(例如DVD-ROM,双层DVD-ROM)、只读蓝光光盘、超密度光盘、闪存卡(例如SD卡、min SD卡、Micro-SD卡等等)、磁性软盘等等。计算机可读存储媒介不包含载波和通过无线或有线传输的瞬间电子信号。
通信接口503可以包括有线通信接口、无线通信接口等,可以用于与外部设备(如摄像装置、速度传感器、定位系统等)进行通信交互。
存储器502上存储有可执行代码,当可执行代码被处理器501处理时,可以使处理器501执行上文述及的单目视觉图像的位姿估算方法中的部分或全部步骤。
上文中已经参考附图详细描述了本申请的方案。在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详细描述的部分,可以参见其他实施例的相关描述。本领域技术人员也应该知悉,说明书中所涉及的动作和模块并不一定是本申请所必须的。另外,可以理解,本申请实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减,本申请实施例装置中的模块可以根据实际需要进行合并、划分和删减。
此外,根据本申请的方法还可以实现为一种计算机程序或计算机程序产品,该计算机程序或计算机程序产品包括用于执行本申请的上述单目视觉图像的位姿估算方法中部分或全部步骤的计算机程序代码指令。
或者,本申请还可以实施为一种非暂时性机器可读存储介质(或计算机可读存储介质、或机器可读存储介质),其上存储有可执行代码(或计算机程序、或计算机指令代码),当所述可执行代码(或计算机程序、或计算机指令代码)被电子设备(或电子设备、服务器等)的处理器执行时,使所述处理器执行根据本申请的上述单目视觉图像的位姿估算方法的各个步骤的部分或全部。
本领域技术人员还将明白的是,结合这里的申请所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。
附图中的流程图和框图显示了根据本申请的多个实施例的系统和方法的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标记的功能也可以以不同于附图中所标记的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本申请的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种单目视觉图像的位姿估算方法,其特征在于,包括:
获取车辆行驶过程中采集的两张图像;
分别提取所述两张图像上的特征点;
将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;
获取所有目标特征点对分别在所述两张图像上的像素坐标;
计算每一个所述目标特征点对中的两个像素坐标之间的距离;
将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;
利用所述新的目标特征点对,计算所述两张图像之间的相对位姿。
2.根据权利要求1所述的方法,其特征在于,所述将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对,包括:
判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
3.根据权利要求2所述的方法,其特征在于,所述判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内之前,所述方法还包括:
获取所述车辆的行驶速度;
判断所述车辆的行驶速度是否小于预设速度;
其中,所述判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,包括:
若所述车辆的行驶速度小于所述预设速度,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
4.根据权利要求1-3任一所述的方法,其特征在于,所述分别提取所述两张图像上的特征点,包括:
识别所述两张图像中的目标动态物体,并对识别出的所述目标动态物体进行范围标记;
分别提取所述两张图像上位于所述目标动态物体标记范围外的特征点。
5.根据权利要求1-3任一所述的方法,其特征在于,所述将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对,包括:
将所述两张图像上的特征点进行特征匹配,获得匹配成功的特征点对;
识别所述两张图像中的目标动态物体,并对识别出的所述目标动态物体进行范围标记;
判断所述匹配成功的特征点对中是否有特征点位于对应图像中的所述目标动态物体的标记范围内,若有,删除该特征点对,得到目标特征点对。
6.一种单目视觉图像的位姿估算装置,其特征在于,包括:
图像获取单元,用于获取车辆行驶过程中采集的两张图像;
特征提取单元,用于分别提取所述两张图像上的特征点;
特征匹配单元,用于将所述两张图像上的特征点进行特征匹配,获得匹配成功的目标特征点对;
像素获取单元,用于获取所有目标特征点对分别在所述两张图像上的像素坐标;
距离计算单元,用于计算每一个所述目标特征点对中的两个像素坐标之间的距离;
噪点处理单元,用于将像素坐标之间的距离小于预设值的目标特征点对进行删除,得到新的目标特征点对;
位姿计算单元,用于利用所述新的目标特征点对,计算所述两张图像之间的相对位姿。
7.根据权利要求6所述的装置,其特征在于,所述噪点处理单元具体用于判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,若是,则将该目标特征点对进行删除,得到新的目标特征点对。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
速度获取单元,用于在所述噪点处理单元判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内之前,获取所述车辆的行驶速度;
速度比较单元,用于判断所述车辆的行驶速度是否小于预设速度;
所述噪点处理单元判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内,包括:
所述噪点处理单元在所述速度比较单元判断出所述车辆的行驶速度小于所述预设速度时,判断像素坐标之间的距离小于预设值的目标特征点对是否分别位于对应图像中的目标区域内。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,其上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1-5中任一项所述的方法。
10.一种非暂时性机器可读存储介质,其上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如权利要求1-5中任一项所述的方法。
CN202110171998.1A 2021-02-08 2021-02-08 一种单目视觉图像的位姿估算方法及相关装置 Active CN112598743B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110171998.1A CN112598743B (zh) 2021-02-08 2021-02-08 一种单目视觉图像的位姿估算方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110171998.1A CN112598743B (zh) 2021-02-08 2021-02-08 一种单目视觉图像的位姿估算方法及相关装置

Publications (2)

Publication Number Publication Date
CN112598743A true CN112598743A (zh) 2021-04-02
CN112598743B CN112598743B (zh) 2023-10-13

Family

ID=75207509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110171998.1A Active CN112598743B (zh) 2021-02-08 2021-02-08 一种单目视觉图像的位姿估算方法及相关装置

Country Status (1)

Country Link
CN (1) CN112598743B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801077A (zh) * 2021-04-15 2021-05-14 智道网联科技(北京)有限公司 用于自动驾驶车辆的slam初始化的方法及相关装置
CN113139031A (zh) * 2021-05-18 2021-07-20 智道网联科技(北京)有限公司 用于自动驾驶的交通标识的生成方法及相关装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
CN108072370A (zh) * 2016-11-18 2018-05-25 中国科学院电子学研究所 基于全局地图的机器人导航方法及用该方法导航的机器人
CN109871739A (zh) * 2018-12-27 2019-06-11 南京国图信息产业有限公司 基于yolo-sioctl的机动站自动目标检测与空间定位方法
CN110136047A (zh) * 2019-05-22 2019-08-16 长沙莫之比智能科技有限公司 一种车载单目图像中静止目标三维信息获取方法
CN110728715A (zh) * 2019-09-06 2020-01-24 南京工程学院 一种智能巡检机器人像机角度自适应调整方法
CN111260726A (zh) * 2020-02-07 2020-06-09 北京三快在线科技有限公司 一种视觉定位方法及装置
US20200294245A1 (en) * 2017-10-02 2020-09-17 Sony Corporation Image processing apparatus and image processing method
CN111928857A (zh) * 2020-10-14 2020-11-13 蘑菇车联信息科技有限公司 一种动态环境中实现slam定位的方法及相关装置
CN111951303A (zh) * 2020-08-12 2020-11-17 南京师范大学 一种机器人运动姿态视觉估计方法
CN112118537A (zh) * 2020-11-19 2020-12-22 蘑菇车联信息科技有限公司 一种利用图片实现移动轨迹估算的方法及相关装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
CN108072370A (zh) * 2016-11-18 2018-05-25 中国科学院电子学研究所 基于全局地图的机器人导航方法及用该方法导航的机器人
US20200294245A1 (en) * 2017-10-02 2020-09-17 Sony Corporation Image processing apparatus and image processing method
CN109871739A (zh) * 2018-12-27 2019-06-11 南京国图信息产业有限公司 基于yolo-sioctl的机动站自动目标检测与空间定位方法
CN110136047A (zh) * 2019-05-22 2019-08-16 长沙莫之比智能科技有限公司 一种车载单目图像中静止目标三维信息获取方法
CN110728715A (zh) * 2019-09-06 2020-01-24 南京工程学院 一种智能巡检机器人像机角度自适应调整方法
CN111260726A (zh) * 2020-02-07 2020-06-09 北京三快在线科技有限公司 一种视觉定位方法及装置
CN111951303A (zh) * 2020-08-12 2020-11-17 南京师范大学 一种机器人运动姿态视觉估计方法
CN111928857A (zh) * 2020-10-14 2020-11-13 蘑菇车联信息科技有限公司 一种动态环境中实现slam定位的方法及相关装置
CN112118537A (zh) * 2020-11-19 2020-12-22 蘑菇车联信息科技有限公司 一种利用图片实现移动轨迹估算的方法及相关装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
GANG PENG 等: "Pose Estimation Based on Wheel Speed Anomaly Detection in Monocular Visual-Inertial SLAM", 《IEEE SENSORS JOURNAL》, vol. 21, no. 10, XP011850954, DOI: 10.1109/JSEN.2020.3011945 *
秦野: "大尺度环境的多机器人视觉激光同步定位与制图研究", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》, no. 2 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801077A (zh) * 2021-04-15 2021-05-14 智道网联科技(北京)有限公司 用于自动驾驶车辆的slam初始化的方法及相关装置
CN113139031A (zh) * 2021-05-18 2021-07-20 智道网联科技(北京)有限公司 用于自动驾驶的交通标识的生成方法及相关装置
CN113139031B (zh) * 2021-05-18 2023-11-03 智道网联科技(北京)有限公司 用于自动驾驶的交通标识的生成方法及相关装置

Also Published As

Publication number Publication date
CN112598743B (zh) 2023-10-13

Similar Documents

Publication Publication Date Title
US11501452B2 (en) Machine learning and vision-based approach to zero velocity update object detection
TW202020811A (zh) 用於基於障礙物檢測校正高清晰度地圖的系統和方法
CN111928842B (zh) 一种基于单目视觉实现slam定位的方法及相关装置
CN111928857B (zh) 一种动态环境中实现slam定位的方法及相关装置
CN112598743B (zh) 一种单目视觉图像的位姿估算方法及相关装置
CN112132857A (zh) 动态环境混合视觉系统的动态物检测和静态地图重建方法
CN106803262A (zh) 利用双目视觉自主解算汽车速度的方法
CN113781562A (zh) 一种基于道路模型的车道线虚实配准和自车定位方法
CN107506753B (zh) 一种面向动态视频监控的多车辆跟踪方法
CN113112524A (zh) 自动驾驶中移动对象的轨迹预测方法、装置及计算设备
CN113256731A (zh) 基于单目视觉的目标检测方法及装置
CN112132754A (zh) 一种车辆移动轨迹修正方法及相关装置
CN115761668A (zh) 摄像头的污渍识别方法、装置、车辆及存储介质
CN113256683B (zh) 目标跟踪方法及相关设备
CN112435278B (zh) 一种基于动态目标检测的视觉slam方法及装置
KR101995466B1 (ko) 특징점을 이용한 스테레오 카메라의 이미지 매칭 방법 및 장치
WO2022179016A1 (zh) 车道检测方法、装置、设备及存储介质
JPH1186199A (ja) 走行車線検出方法及びその装置
CN116152691A (zh) 图像检测方法、装置、设备和存储介质
CN111860426A (zh) 基于模板匹配的单样本座舱图像信号目标检测方法及系统
CN111539279A (zh) 道路限高高度检测方法、装置、设备及存储介质
CN112801077B (zh) 用于自动驾驶车辆的slam初始化的方法及相关装置
JP6800388B1 (ja) 検出装置、検出方法、及び検出プログラム
CN116503695B (zh) 目标检测模型的训练方法、目标检测方法及设备
Danti et al. A Realtime Road Boundary Detection and Vehicle Detection for Indian Roads

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant