CN108225346B - 车辆定位装置和方法 - Google Patents
车辆定位装置和方法 Download PDFInfo
- Publication number
- CN108225346B CN108225346B CN201710473651.6A CN201710473651A CN108225346B CN 108225346 B CN108225346 B CN 108225346B CN 201710473651 A CN201710473651 A CN 201710473651A CN 108225346 B CN108225346 B CN 108225346B
- Authority
- CN
- China
- Prior art keywords
- vector
- image
- matching
- vehicle
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及车辆定位装置和方法。其中,车辆定位方法包括:在车辆行驶的同时获取立体图像;在车辆行驶的同时从立体图像提取匹配矢量;基于预先构建的地图数据中的全球定位系统信息加载当前位置的地图矢量;将提取的匹配矢量与地图矢量相匹配;以及当提取的匹配矢量与地图矢量满足条件时,将对应于提取的匹配矢量的定位坐标估算为车辆的当前位置。
Description
与相关申请的交叉引用
本申请基于2016年12月15日向韩国知识产权局提交的韩国专利申请No.10-2016-0171742并且要求其优先权,该申请的全部内容通过引用结合于此。
技术领域
本发明涉及车辆定位装置和方法。
背景技术
通常,在用于定位的卫星导航装置中,由于在城市地区中例如建筑的障碍物会导致卫星出现干扰,可能出现几十米或更多的误差,或者在不能接收信号的地方可能出现阴影区域。
因此,在相关技术中,发展了接收位于地面上的基站的校正数据并且校正位置信息的技术。这些技术的示例包括差分全球定位系统(DGPS)和实时动态定位技术(RTK)。然而,在使用这种定位信息校正技术的情况下,存在由于障碍物导致的阴影区域。
因此,出现了将用于航位推测法的传感器加载入每一车辆的方法。然而,因为这些传感器是高价设备,所以难以在所有车辆中加载传感器。
发明内容
本发明的实施方案涉及精确车辆定位的装置、用于精确车辆定位的方法、用于精确车辆定位的地图构建装置以及用于精确车辆定位的地图构建方法。例如,具体实施方案涉及用于校正车辆的位置技术以及基于立体照相机在城市地区中进行精确车辆定位的技术。
本发明的实施方案能够在保持现有技术取得的优点的同时解决以上提到的现有技术中出现的问题。
本发明的一个方面提供了精确车辆定位的装置、用于精确车辆定位的方法、用于精确车辆定位的地图构建装置以及用于精确车辆定位的地图构建方法,以利用在真实行驶期间从立体照相机所提取的匹配矢量以及构建的地图数据来精确地估算车辆的位置。
本发明概念所解决的技术问题不局限于上述问题,并且本发明所属技术领域的技术人员将从随后的描述中清晰地理解在本文中没有提及的任何其他技术问题。
根据本发明的一个方面,精确车辆定位装置可以包括图像输入单元,其配置为在车辆行驶的同时获取立体图像。匹配矢量提取单元配置为在车辆行驶的同时从立体图像提取匹配矢量。实时定位单元配置为基于预先构建的地图数据中的全球定位系统(GPS)信息加载当前位置的地图矢量,并且使用所提取的匹配矢量和所加载的地图矢量来估算车辆的当前位置。
匹配矢量提取单元可以包括:感兴趣区域(ROI)设置单元,其配置为将立体图像划分为灰度图像和深度图像,并且设置ROI;边缘图像转化单元,其配置为将灰度图像转化为边缘图像;直线成分检测单元,其配置为从边缘图像中提取直线成分;图像融合单元,其配置为将从中提取出直线成分的灰度图像和深度图像进行融合;主深度提取单元,其配置为从所融合的图像提取至少一个或更多个主深度值;以及匹配矢量提取器,其配置为从立体图像对于至少一个或更多个主深度值提取匹配矢量。
匹配矢量提取单元可以配置为:从立体图像提取水平累积矢量,水平累积矢量是至少一个或更多个主深度值的每一个的匹配矢量;以及从立体图像提取竖直累积矢量,竖直累积矢量是至少一个或更多个主深度值的每一个的匹配矢量。
实时定位单元可以包括地图矢量加载单元、矢量匹配单元以及车辆定位单元:地图矢量加载单元,其配置为基于地图数据中的GPS信息加载当前位置的地图矢量;矢量匹配单元,其配置为将所提取的匹配矢量与地图矢量进行匹配;以及车辆定位单元,其配置为如果所提取的匹配矢量与地图矢量满足条件,将对应于所提取的匹配矢量的定位坐标估算为车辆的当前位置。
矢量匹配单元可以配置为从地图数据提取深度值,深度值对应于在车辆行驶的同时从立体图像提取的主深度值;从地图数据提取地图矢量,地图矢量对应于在车辆行驶的同时从立体图像获得的水平累积矢量;以及当对应于水平累积矢量的地图矢量达到参考值时,从地图数据提取地图矢量,地图矢量对应于在车辆行驶的同时从立体图像获得的竖直累积矢量。
根据本发明的另一个方面,地图构建装置可以包括:图像输入单元,其配置为在行驶期间获取立体图像;匹配矢量提取单元,其配置为在行驶时从立体图像提取匹配矢量;以及地图构建单元,其配置为基于由匹配矢量提取单元提取的匹配矢量以及由位置传感器给出的位置信息来构建地图数据。
位置传感器可以包括惯性测量单元(IMU)或实时动态定位装置(RTK)。
地图构建单元可以包括:矢量和定位坐标积累单元,其配置为通过积累和存储匹配矢量提取单元提取的匹配矢量和由位置传感器给出的位置信息来构建地图数据;以及地图矢量滤波单元,其配置为通过使用自相关系数对地图数据进行伪矢量滤波来构建最后的地图数据。
根据本发明的另一个方面,地图构建方法可以包括:在行驶期间获取立体图像;在行驶期间使用位置传感器为每一帧立体图像添加位置信息;在行驶期间从立体图像以一定间隔提取匹配矢量;通过积累和存储所提取的匹配矢量和位置信息构建地图数据。
地图构建方法可以进一步包括:使用自相关对地图数据进行伪矢量滤波来构建最后的地图数据。
提取匹配矢量可以包括:接收立体图像;将立体图像划分为灰度图像和深度图像;将灰度图像和深度图像进行融合;从所融合的图像提取一个或更多个主深度值;以及从立体图像对于一个或更多个主深度值提取匹配矢量。
将灰度图像和深度图像进行融合可以包括:将灰度图像转化为边缘图像;从边缘图像中提取直线成分;以及将从中提取直线成分的灰度图像和深度图像进行融合。
对于至少一个或更多个主深度值提取匹配矢量可以包括:提取水平累积矢量,水平累积矢量是一个或更多个主深度值中的每一个主深度值的匹配矢量,以及提取竖直累积矢量,竖直累积矢量是一个或更多个主深度值中的每一个主深度值的匹配矢量。
位置信息可以是由IMU或RTK感知的信息。
根据本发明的另一个方面,精确车辆定位方法可以包括:在车辆行驶的同时获取立体图像;在车辆行驶的同时从立体图像提取匹配矢量;基于预先构建的地图数据中的全球定位系统信息加载当前位置的地图矢量;将提取的匹配矢量与地图矢量相匹配;以及如果提取的匹配矢量与地图矢量满足条件,将对应于提取的匹配矢量的定位坐标估算为车辆的当前位置。
提取匹配矢量可以包括:接收立体图像;将立体图像划分为灰度图像和深度图像;将灰度图像和深度图像进行融合;从融合的图像提取一个或更多个主深度值;以及从立体图像对于至少一个或更多个主深度值提取匹配矢量。
将灰度图像和深度图像进行融合可以包括:将灰度图像转化为边缘图像;从边缘图像中提取直线成分;以及将从中提取直线成分的灰度图像和深度图像进行融合。
对于至少一个或更多个主深度值提取匹配矢量可以包括:提取水平累积矢量,水平累积矢量是立体图像的一个或更多个主深度值中的每一个主深度值的匹配矢量,以及提取竖直累积矢量,竖直累积矢量是立体图像的一个或更多个主深度值中的每一个主深度值的匹配矢量。
将提取的匹配矢量与地图数据相匹配可以包括:在车辆行驶的同时从地图数据提取深度值,深度值对应于从立体图像提取的主深度值,在车辆行驶的同时从地图数据提取地图矢量,地图矢量对应于从立体图像提取的水平累积矢量;以及如果对应于水平累积矢量的地图矢量达到参考值,在车辆行驶的同时从地图数据提取地图矢量,地图矢量对应于从立体图像提取的竖直累积矢量。
估算车辆的当前位置可以包括:如果对应于竖直累积矢量的地图矢量达到参考值,将对应于主深度值的定位坐标估算为车辆的当前位置。
附图说明
通过接下来结合附图的详细描述,本发明的上述和其他目的、特征和优点将变得更加清楚。
图1是显示了根据本发明实施方案的精确车辆定位装置的配置的方框图;
图2A是显示了根据本发明实施方案的立体图像中的灰度图像的示例的示意图;
图2B是显示了根据本发明实施方案的立体图像中的深度图像的示例的示意图;
图3是显示了根据本发明实施方案的将灰度图像转化为边缘图像的示例的示意图;
图4是显示了从图3的边缘图像中检测直线成分的示例的示意图;
图5是显示了将提取出图4的直线成分的灰度图像与图2B的深度图像进行融合的示例的示意图;
图6A是显示了为图5的融合图像中两个主深度值之一d1水平积累的匹配矢量h1的示例的示意图;
图6B是显示了为图5的融合图像中两个主深度值之一d2水平积累的匹配矢量h2的示例的示意图;
图6C是显示了为图5的融合图像中两个主深度值之一d1竖直积累的匹配矢量v1的示例的示意图;
图6D是显示了为图5的融合图像中两个主深度值之一d2竖直积累的匹配矢量v2的示例的示意图;
图7是显示了根据本发明实施方案的四车道图像中的匹配矢量h1的示例的示意图;
图8是显示了图7的每个车道的累积矢量的图的示例的示意图;
图9是显示了图8的每个车道的累积矢量滤波后的地图的示例的示意图;
图10是显示了根据本发明实施方案的在车辆中安装位置传感器(例如,实时动态定位(RTK)或者惯性测量单元(IMU))以及立体照相机,以用于地图构建的示例的示意图;
图11是显示了根据本发明实施方案的从真实立体图像提取的用于实时定位的匹配矢量的示例的示意图;
图12是显示了根据本发明实施方案的从地图数据提取的地图矢量的示例的示意图;
图13是显示了根据本发明实施方案的在车辆中安装全球定位系统(GPS)接收单元和立体照相机以用于实时定位的示例的示意图;
图14是显示了根据本发明实施方案的用于提取匹配矢量的方法的流程图;
图15是显示了根据本发明实施方案的地图构建方法的流程图;
图16是显示了根据本发明实施方案的实时定位方法的流程图;
图17是显示了根据本发明实施方案的详细的实时定位方法的流程图;
图18A是显示了指示在真实行驶状态中的车辆的位置的立体图像的示例的示意图;
图18B是显示了地图数据中与当前位置的矢量相匹配的图像的示例的示意图;
图19是显示了根据本发明具体实施方案的基于GPS和通过匹配矢量给出的车辆的位置的当前位置的示意图;以及
图20是显示了根据本发明具体实施方案的应用了精确车辆定位方法的计算系统的配置的方框图。
具体实施方式
在下文中,本发明的具体实施方案将参照附图进行详细描述。对于每幅图的元件所添加的附图标记,尽管在不同的图中显示了相同的元件,但应该注意相同的元件具有相同的附图标记。另外,对于本发明的实施方案的描述,如果确定相关的公知的配置或功能的详细描述模糊了本发明的实施方案的主旨,那么将省略该相关的公知的配置或功能的详细描述。
对于描述本发明的实施方案的元件,在本文中可以使用术语第一、第二、A、B、(a)、(b)等。这些术语只用于区分一个元件和另一个元件,而不论相应的元件的性质、转变或顺序如何,这些术语都不限制相应的元件。除非另外定义,否则在本文中所使用的所有术语,包括技术或科学术语,都具有与本发明所属技术领域的技术人员通常所理解的相同的含义。那些在通常使用的字典中定义的术语将解释为具有与相关领域中的语境的含义同等的含义,并且不被解释为具有想象的或过度形式的含义,除非在本申请中明确定义。
在下文中,将参照图1至图20给出本发明具体实施方案的详细描述。
图1是显示了根据实施方案的精确车辆定位装置的配置的方框图。
精确车辆定位装置可以包括图像输入单元100、位置信息获取单元200、全球定位系统(GPS)信息接收单元300、匹配矢量提取单元400、地图构建单元500以及实时定位单元600。
图像输入单元100可以在车辆行驶的同时接收立体图像。在本申请中,图像输入单元100可以包括立体照相机。
通过感知车辆的位置,位置信息获取单元200可以获得位置信息。为此目的,位置信息获取单元200可以包括实时动态定位(RTK)和惯性测量单元(IMU)。在本申请中,可以在车辆中加载RTK和IMU用于图10中所示的地图构建。
GPS信息接收单元300可以从卫星接收GPS信息。在本申请中,可以在车辆中加载GPS信息接收单元300用于图13中所示的实时车辆定位。换言之,根据本发明的实施方案,普通车辆中仅在加载GPS接收装置用于车辆定位,而不是高价的RTK和IMU。
匹配矢量提取单元400可以在车辆行驶的同时从立体图像提取匹配矢量。在本申请中,匹配矢量可以包括对至少一个主深度值d1和d2在竖直方向积累的竖直矢量v1和v2,以及,对至少一个主深度值d1和d2在水平方向积累的水平矢量h1和h2,所述主深度值d1和d2在深度值融合的图像中的直线成分中具有最大深度分布。
为此目的,匹配矢量提取单元400可以包括感兴趣区域(ROI)设置单元410、边缘图像转化单元420、直线成分检测单元430、图像融合单元440、深度排列单元450、主深度提取单元460以及匹配矢量提取器470。
ROI设置单元410可以将立体图像划分为灰度图像和深度图像,并且可以设置ROI。在本申请中,如图2A或图2B所示,ROI区域可以是立体图像的上部区域10或20。图2A是显示了根据本发明实施方案的立体图像中的灰度图像的示例的示意图。图2B是显示了根据本发明实施方案的立体图像中的深度图像的示例的示意图。
边缘图像转化单元420可以将灰度图像转化为边缘图像。图3是显示了根据本发明实施方案的将灰度图像转化为边缘图像的示例的示意图。如图3所示,可以知道灰度图像转化为边缘图像,在该边缘图像上显示了边缘30。
直线成分检测单元430可以从边缘图像中提取直线成分。图4是显示了从图3的边缘图像中检测直线成分的示例的示意图。如图4所示,可以知道只显示了直线成分。
图像融合单元440可以将从中提取出直线成分的灰度图像(见图4)和深度图像(见图2B)进行融合。图5是显示了将提取出图4的直线成分的灰度图像与图2B的深度图像进行融合的示例的示意图。参照图5,可以知道只显示了直线成分。
深度排列单元450可以提取和排列深度值,该深度值对应于在灰度图像和深度图像融合之后检测的直线像素坐标。
主深度提取单元460可以从融合的图像提取至少一个或更多个主深度值。在本申请中,本发明的实施方案以提取两个主深度值d1和d2来举例说明。在本申请中,主深度值可以指在通过图像融合将深度值融合的图像中的直线成分中具有最大深度分布的深度值。
匹配矢量提取器470可以为至少一个或更多个主深度值提取匹配矢量。换言之,匹配矢量提取器470可以在ROI水平方向积累对应于至少一个或更多个主深度值d1和d2中的每一个的像素,并且可以提取水平累积矢量h1和h2。匹配矢量提取器470可以在ROI竖直方向积累对应于至少一个或更多个主深度值d1和d2中的每一个的像素,并且可以提取竖直累积矢量v1和v2。图6A是显示了为图5的融合图像中两个主深度值之一d1水平积累的匹配矢量h1的示例的示意图。图6B是显示了为图5的融合图像中两个主深度值之一d2水平积累的匹配矢量h2的示例的示意图。图6C是显示了为图5的融合图像中两个主深度值之一d1竖直积累的匹配矢量v1的示例的示意图。图6D是显示了为图5的融合图像中两个主深度值之一d2竖直积累的匹配矢量v2的示例的示意图。
地图构建单元500可以基于由匹配矢量提取单元400提取的匹配矢量以及由位置传感器(例如,RTK或IMU)给出的位置信息来构建地图数据。
为此目的,地图构建单元500可以包括位置信息添加单元510、矢量和定位坐标积累单元520以及地图矢量滤波单元530。
位置信息添加单元510可以在车辆行驶的同时使用IMU或RTK为立体图像的每一帧添加位置信息(纬度、经度)。在本申请中,地图构建单元500可以与匹配矢量提取单元400配合以在车辆行驶的同时从立体图像以一定间隔提取匹配矢量d1、d2、h1、h2、v1以及v2。
矢量和定位坐标积累单元520可以通过积累和存储由匹配矢量提取单元400提取的匹配矢量以及由位置传感器给出的位置信息来构建地图数据。
地图矢量滤波单元530可以通过使用自相关系数对地图数据进行伪矢量滤波来构建最后的地图数据。
图7是显示了根据本发明实施方案的四车道图像中的匹配矢量h1的示例的示意图。图8是显示了图7的每个车道的累积矢量的图的示例的示意图。图9是显示了图8的每个车道的累积矢量滤波后的地图的示例的示意图。图7至图9显示了在四车道图像中使用匹配矢量h1构建地图的示例。可以使用匹配矢量h2、v1和v2以图7至图9中相同的方法构建地图。
实时定位单元600可以基于地图数据中的GPS信息加载当前位置的地图矢量,并且可以使用提取的匹配矢量和加载的地图数据来估算车辆的当前位置。
为此目的,实时定位单元600可以包括GPS信息存储单元610、地图矢量加载单元620、矢量匹配单元630以及车辆定位单元640。
GPS信息存储单元610可以存储GPS信息。
地图矢量加载单元620可以基于地图数据中的GPS信息加载当前位置的地图数据。
矢量匹配单元630可以将匹配矢量提取单元400提取的匹配矢量与地图矢量进行匹配。在本申请中,实时定位单元600可以与匹配矢量提取单元400配合以实时接收提取的匹配矢量。
矢量匹配单元630可以从地图数据提取深度值d1’和d2’,深度值d1’和d2’对应于在车辆行驶的同时从立体图像提取的主深度值d1和d2。并且,矢量匹配单元630可以从地图数据提取地图矢量h1’和h2’,地图矢量h1’和h2’对应于在车辆行驶的同时从立体图像获取的水平累积矢量h1和h2。并且,如果分别对应于水平累积矢量h1和h2的地图矢量h1’和h2’达到参考值,则矢量匹配单元630可以从地图数据提取地图矢量v1’和v2’,地图矢量v1’和v2’对应于在车辆行驶的同时从立体图像获取的竖直累积矢量v1和v2。图11是显示了根据本发明实施方案的从实时立体图像提取的用于实时定位的匹配矢量h1、h2、v1和v2的示例的示意图。图12是显示了根据本发明实施方案的从地图数据提取的地图矢量h1’、h2’、v1’和v2’的示例的示意图。
如果提取的匹配矢量h1、h2、v1和v2以及提取的地图矢量h1’、h2’、v1’和v2’满足条件,车辆定位单元640可以估算对应于提取的匹配矢量h1、h2、v1和v2的定位坐标以作为车辆的当前位置。
同样地,根据本发明的实施方案,诸如RTK或IMU的位置传感器可以附接至用于地图数据构建的车辆来提取匹配矢量并且构建地图数据。然后,普通车辆可以预先存储构建的地图数据或者可以实时接收和使用构建的地图数据。换言之,根据本发明的实施方案可以在普通车辆中加载实时定位单元600和匹配矢量提取单元400。可以在用于地图构建的车辆中加载匹配矢量提取单元400、地图构建单元500以及位置传感器。
在下文中,将给出根据本发明实施方案的用于提取匹配矢量的方法S100的描述。
图14是显示了根据本发明实施方案的用于提取匹配矢量的方法的流程图。在操作S101,图1的匹配矢量提取单元400可以接收立体图像。在操作S102,匹配矢量提取单元400可以从立体图像提取灰度图像。在操作S103,匹配矢量提取单元400可以从立体图像提取深度图像。
在操作S104,匹配矢量提取单元400可以从灰度图像检测边缘并且可以将灰度图像转化为边缘图像。在操作S105,匹配矢量提取单元400可以从边缘图像提取直线成分和圆形成分。
在操作S106,匹配矢量提取单元400可以使用灰度图像的直线成分将灰度图像与深度图像进行融合。
在操作S107,匹配矢量提取单元400可以从融合的图像提取并排列深度值。在操作S108,匹配矢量提取单元400可以提取至少一个或更多个主深度值d1和d2。
在操作S109,匹配矢量提取单元400可以从立体图像为至少一个或更多个主深度值d1和d2提取匹配矢量。在本申请中,匹配矢量提取单元400可以从立体图像提取为至少一个或更多个主深度值d1和d2分别积累的水平累积矢量h1和h2,并且可以从立体图像提取为至少一个或更多个主深度值d1和d2分别积累的竖直累积矢量v1和v2。
在下文中,将参照图15给出根据本发明实施方案的地图构建方法S200的描述。
图15是显示了根据本发明实施方案的地图构建方法的流程图。在操作S201,图1的匹配矢量提取单元400可以在车辆行驶的同时获取立体图像。在操作S202,匹配矢量提取单元400可以从立体图像提取匹配矢量。在本申请中,用于提取匹配矢量的方法可以与图14中的方法相同。
在操作S203,图1的地图构建单元500可以从位置传感器接收位置信息。
在操作S204,地图构建单元500可以通过积累和存储匹配矢量和位置信息来构建地图数据。
在操作S205,地图构建单元500可以通过使用自相关系数对地图数据进行伪矢量滤波来构建最后的地图数据。
在下文中,将给出根据本发明实施方案的实时定位方法S300的描述。
图16是显示了根据本发明实施方案的实时定位方法的流程图。在操作S301,实时定位单元600可以在车辆行驶的同时获取立体图像和GPS信息。在操作S302,实时定位单元600可以和图1的匹配矢量提取单元400配合以从立体图像提取匹配矢量。在本申请中,用于提取匹配矢量的方法可以与图14中的方法相同。
在操作S303,基于通过图1的地图构建单元500事先构建的地图数据中的GPS信息,实时定位单元600可以加载当前位置的地图矢量。
在操作S304,实时定位单元600可以将提取的匹配矢量与从地图数据加载的地图矢量进行匹配。
如果提取的匹配矢量与地图矢量满足条件,在操作S305,实时定位单元600可以估算对应于提取的矢量的定位坐标以作为车辆的当前位置。换言之,如果对应于竖直累积矢量的地图矢量达到参考值,实时定位单元600可以估算对应于主深度的定位坐标以作为车辆的当前位置。
在本文中,将参照图17给出详细的实时定位方法的描述。
图17是显示了根据本发明实施方案的详细的实时定位方法的流程图。在操作S401,精确车辆定位装置可以在车辆行驶时从立体图像扫描主深度值d1和d2。
在操作S402,精确车辆定位装置可以从预先构建的地图数据提取分别对应于主深度值d1和d2的深度值d1’和d2’。
在操作S403,精确车辆定位装置可以对于主深度值d1和d2从地图数据提取分别对应于水平累积矢量h1和h2的地图矢量h1’和h2’。
在操作S404,如果地图矢量h1’减去水平累积矢量h1的值小于第一阈值,并且地图矢量h2’减去水平累积矢量h2的值小于第二阈值,则在操作S405,精确车辆定位装置可以对于主深度值d1和d2从地图数据提取分别对应于竖直累积矢量v1和v2的地图矢量v1’和v2’。
在操作S406,如果地图矢量v1’减去竖直累积矢量v1的值小于第三阈值,并且地图矢量v2’减去竖直累积矢量v2的值小于第四阈值,则在操作S407,精确车辆定位装置可以估算对应于最后的匹配矢量的定位坐标以作为车辆的当前位置。
图18A是显示了指示在真实行驶状态中的车辆的位置的立体图像的示例的示意图。图18B是显示了地图数据中与当前位置的矢量相匹配的图像的示例的示意图。换言之,可以知道通过立体图像给出的车辆的位置与基于地图数据的车辆的当前位置相同。
图19是显示了根据本发明实施方案,通过基于GPS的当前位置给出的车辆的当前位置以及通过匹配矢量给出的车辆的位置的示意图。换言之,可以知道根据本发明实施方案在基于GPS的当前位置50和真实车辆位置60中出现了小误差。换言之,可以知道基于GPS的当前位置50和真实车辆位置60不同。
同样地,根据本发明实施方案,可以测量多个车道上的车辆的位置,而无需车道信息。可以精确地测量车辆的位置,而不会受到前方障碍物(例如,汽车或行人)的干扰。可以用于在GPS阴影区域的车辆的纵向/横向定位。并且,根据本发明实施方案,可以用于在季节改变时通过固定物体的深度提取(例如,直线和圆形)来精确车辆定位。
图20是显示了根据本发明实施方案的应用了精确车辆定位方法的计算系统的配置的方框图。
参照图20,计算系统1000可以包括通过总线1200相互连接的至少一个的处理器1100、内存1300、用户接口输入装置1400、用户接口输出装置1500、存储器1600以及网络接口1700。
处理器1100可以是中央处理器(CPU)或半导体器件,用于处理存储在内存1300和/或存储器1600中的指令。每一个内存1300和存储器1600都可以包括各种易失性存储介质或非易失性存储介质。例如,内存1300可以包括只读存储器(ROM)和随机存取存储器(RAM)。
因此,结合说明书中公开的实施方案所描述的方法或算法可以直接利用通过处理器1100来运行的硬件模块、软件模块或者硬件模块和软件模块的结合来实施。软件模块可以位于存储介质(例如,内存1300和/或存储器1600)上,诸如RAM、闪存、ROM、可擦写可编程ROM(EPROM)、电EPROM(EEPROM)、寄存器、硬盘、可移动磁盘或者光盘-ROM(CD-ROM)。
示例性存储介质可以接合至处理器1100。处理器1100可以从存储介质读出信息并且在存储介质中记录信息。或者,存储介质可以与处理器1100集成。集成的处理器与存储介质可以位于专用集成电路(ASIC)中。ASIC可以位于用户终端中。或者,集成的处理器与存储介质可以作为用户终端的独立组件存在。
根据各个实施方案,通过在没有车道信息的情况下精确估算在多个车道中的车辆的位置或者精确估算在阴影区域中的车辆的位置,而不用考虑是否有障碍物,精确车辆定位装置可以利用车辆位置信息来增加车辆系统的可靠性。
尽管参考示例性实施方案对本发明进行了描述,但是本技术领域的技术人员将明了可以做各种改变和修改而不偏离本发明的精神和范围。
因此,本发明的示例性实施方案不是限制性的,而是示例性的,并且本发明的精神和范围不局限于本发明的示例性实施方案。本发明的精神和范围应该通过随后的权利要求来理解,等同于本发明的所有技术概念都应该理解为包括在本发明的精神和范围之内。
Claims (18)
1.一种车辆定位装置,其包括:
图像输入单元,其配置为在车辆行驶的同时获取立体图像;
匹配矢量提取单元,其配置为在车辆行驶的同时从所述立体图像提取匹配矢量;以及
实时定位单元,其配置为基于预先构建的地图数据中的全球定位系统信息加载当前位置的地图矢量,并且使用所提取的匹配矢量和所加载的地图矢量来估算车辆的当前位置,
其中,所述匹配矢量提取单元包括:
感兴趣区域设置单元,其配置为将所述立体图像划分为灰度图像和深度图像,并且设置感兴趣区域;
边缘图像转化单元,其配置为将所述灰度图像转化为边缘图像;
直线成分检测单元,其配置为从所述边缘图像中提取直线成分;
图像融合单元,其配置为将从中提取出直线成分的灰度图像和所述深度图像进行融合。
2.根据权利要求1所述的车辆定位装置,其中,所述匹配矢量提取单元进一步包括:
主深度提取单元,其配置为从所融合的图像提取一个或更多个主深度值;以及
匹配矢量提取器,其配置为从立体图像对于所述一个或更多个主深度值提取匹配矢量。
3.根据权利要求2所述的车辆定位装置,其中,所述匹配矢量提取单元配置为:
从立体图像提取水平累积矢量,所述水平累积矢量是在感兴趣区域水平方向上的一个或更多个主深度值的每一个的匹配矢量;以及
从立体图像提取竖直累积矢量,所述竖直累积矢量是在感兴趣区域竖直方向上的一个或更多个主深度值的每一个的匹配矢量。
4.根据权利要求1所述的车辆定位装置,其中,所述实时定位单元包括:
地图矢量加载单元,其配置为基于地图数据中的全球定位系统信息加载当前位置的地图矢量;
矢量匹配单元,其配置为将所提取的匹配矢量与地图矢量相匹配;以及
车辆定位单元,其配置为当所提取的匹配矢量与地图矢量满足条件时,将对应于所提取的匹配矢量的定位坐标估算为车辆的当前位置。
5.根据权利要求4所述的车辆定位装置,其中,所述矢量匹配单元配置为:
从地图数据提取深度值,所述深度值对应于在车辆行驶的同时从立体图像提取的主深度值;
从地图数据提取地图矢量,所述地图矢量对应于在车辆行驶的同时从立体图像获得的水平累积矢量,所述水平累积矢量是在感兴趣区域水平方向上的一个或更多个主深度值的每一个的匹配矢量;以及
当对应于水平累积矢量的地图矢量达到参考值时,从地图数据提取地图矢量,所述地图矢量对应于在车辆行驶的同时从立体图像获得的竖直累积矢量,所述竖直累积矢量是在感兴趣区域竖直方向上的一个或更多个主深度值的每一个的匹配矢量。
6.一种地图构建装置,其包括:
图像输入单元,其配置为在行驶期间获取立体图像;
匹配矢量提取单元,其配置为在车辆行驶时从所述立体图像提取匹配矢量;以及
地图构建单元,其配置为基于由匹配矢量提取单元提取的匹配矢量以及由位置传感器给出的位置信息来构建地图数据,
其中,所述匹配矢量提取单元包括:
感兴趣区域设置单元,其配置为将所述立体图像划分为灰度图像和深度图像,并且设置感兴趣区域;
边缘图像转化单元,其配置为将所述灰度图像转化为边缘图像;
直线成分检测单元,其配置为从所述边缘图像中提取直线成分;
图像融合单元,其配置为将从中提取出直线成分的灰度图像和所述深度图像进行融合。
7.根据权利要求6所述的地图构建装置,其中,所述位置传感器包括惯性测量单元或实时动态定位装置。
8.根据权利要求6所述的地图构建装置,其中,所述地图构建单元包括:
矢量和定位坐标积累单元,其配置为通过积累和存储匹配矢量提取单元提取的匹配矢量和由位置传感器给出的位置信息来构建地图数据;以及
地图矢量滤波单元,其配置为通过使用自相关系数对地图数据进行伪矢量滤波来构建最后的地图数据。
9.一种用于车辆定位的地图构建方法,所述方法包括:
在行驶期间获取立体图像;
在行驶期间使用位置传感器为每一帧立体图像添加位置信息;
在行驶期间从立体图像以一定间隔提取匹配矢量;
通过积累和存储所提取的匹配矢量和所述位置信息构建地图数据,
其中,提取匹配矢量包括:
接收立体图像;
将所述立体图像划分为灰度图像和深度图像并且设置感兴趣区域;
将所述灰度图像转化为边缘图像;
从所述边缘图像中提取直线成分;以及
将从中提取直线成分的灰度图像和所述深度图像进行融合。
10.根据权利要求9所述的用于车辆定位的地图构建方法,其进一步包括:使用自相关系数对所述地图数据进行伪矢量滤波来构建最后的地图数据。
11.根据权利要求9所述的用于车辆定位的地图构建方法,其中,提取匹配矢量进一步包括:
从所融合的图像提取一个或更多个主深度值;以及
从所述立体图像对于所述一个或更多个主深度值提取匹配矢量。
12.根据权利要求11所述的用于车辆定位的地图构建方法,其中,对于所述一个或更多个主深度值提取匹配矢量包括:
提取水平累积矢量,所述水平累积矢量是在感兴趣区域水平方向上的一个或更多个主深度值的每一个的匹配矢量;以及
提取竖直累积矢量,所述竖直累积矢量是在感兴趣区域水平方向上的一个或更多个主深度值的每一个的匹配矢量。
13.根据权利要求9所述的用于车辆定位的地图构建方法,其中,所述位置信息包括由惯性测量单元或实时动态定位感测的位置信息。
14.一种车辆定位方法,其包括:
在车辆行驶的同时获取立体图像;
在车辆行驶的同时从所述立体图像提取匹配矢量;
基于预先构建的地图数据中的全球定位系统信息加载当前位置的地图矢量;
将所提取的匹配矢量与所述地图矢量相匹配;以及
当所提取的匹配矢量与所述地图矢量满足条件时,将对应于所提取的匹配矢量的定位坐标估算为车辆的当前位置,
其中,提取匹配矢量包括:
接收立体图像;
将所述立体图像划分为灰度图像和深度图像并且设置感兴趣区域;
将所述灰度图像转化为边缘图像;
从所述边缘图像中提取直线成分;以及
将从中提取直线成分的灰度图像和所述深度图像进行融合。
15.根据权利要求14所述的车辆定位方法,其中,提取匹配矢量进一步包括:
从所融合的图像提取一个或更多个主深度值;以及
从立体图像对于所述一个或更多个主深度值提取匹配矢量。
16.根据权利要求15所述的车辆定位方法,其中,为所述一个或更多个主深度值提取所述匹配矢量包括:
提取水平累积矢量,所述水平累积矢量是在感兴趣区域水平方向上的立体图像的一个或更多个主深度值中的每一个主深度值的匹配矢量;以及
提取竖直累积矢量,所述竖直累积矢量是在感兴趣区域竖直方向上的立体图像的一个或更多个主深度值中的每一个主深度值的匹配矢量。
17.根据权利要求16所述的车辆定位方法,其中,将所提取的匹配矢量与所述地图矢量相匹配包括:
从地图数据提取深度值,所述深度值对应于在车辆行驶的同时从立体图像提取的主深度值;
从地图数据提取地图矢量,所述地图矢量对应于在车辆行驶的同时从立体图像获得的水平累积矢量;以及
当对应于水平累积矢量的地图矢量达到参考值时,从地图数据提取地图矢量,所述地图矢量对应于在车辆行驶的同时从立体图像获得的竖直累积矢量。
18.根据权利要求17所述的车辆定位方法,其中,估算车辆的当前位置包括:当对应于所述竖直累积矢量的地图矢量达到参考值时,将对应于主深度值的定位坐标估算为车辆的当前位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160171742A KR102463702B1 (ko) | 2016-12-15 | 2016-12-15 | 차량 정밀 위치 추정 장치, 그 방법, 그를 위한 맵 구축 장치, 및 그를 위한 맵 구축 방법 |
KR10-2016-0171742 | 2016-12-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108225346A CN108225346A (zh) | 2018-06-29 |
CN108225346B true CN108225346B (zh) | 2022-09-06 |
Family
ID=62561805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710473651.6A Active CN108225346B (zh) | 2016-12-15 | 2017-06-21 | 车辆定位装置和方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US10262434B2 (zh) |
KR (1) | KR102463702B1 (zh) |
CN (1) | CN108225346B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107798272B (zh) * | 2016-08-30 | 2021-11-02 | 佳能株式会社 | 快速多目标检测与跟踪系统 |
KR20200043005A (ko) | 2018-10-17 | 2020-04-27 | 삼성전자주식회사 | 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법 |
KR20200046437A (ko) | 2018-10-24 | 2020-05-07 | 삼성전자주식회사 | 영상 및 맵 데이터 기반 측위 방법 및 장치 |
KR102604821B1 (ko) * | 2018-11-09 | 2023-11-20 | 에스케이텔레콤 주식회사 | 차량의 위치 추정 장치 및 방법 |
CN110070579A (zh) * | 2019-03-16 | 2019-07-30 | 平安科技(深圳)有限公司 | 基于图像检测的定位方法、装置、设备和存储介质 |
JP6988859B2 (ja) * | 2019-06-07 | 2022-01-05 | トヨタ自動車株式会社 | 自己位置共有システム、車両及び端末 |
CN110231039A (zh) * | 2019-06-27 | 2019-09-13 | 维沃移动通信有限公司 | 一种定位信息修正方法及终端设备 |
CN111045042B (zh) * | 2019-12-20 | 2022-03-04 | 西安空间无线电技术研究所 | 一种基于“云-端”架构的ppp-rtk增强方法与系统 |
CN113128317B (zh) * | 2020-01-15 | 2024-03-26 | 宏碁股份有限公司 | 车道定位系统以及车道定位方法 |
CN111862211B (zh) * | 2020-07-22 | 2023-10-27 | 杭州海康威视数字技术股份有限公司 | 定位方法、装置、系统、存储介质和计算机设备 |
CN112179359B (zh) * | 2020-09-27 | 2022-09-23 | 驭势科技(北京)有限公司 | 一种地图匹配方法、装置、电子设备和存储介质 |
CN113790723B (zh) * | 2021-08-23 | 2023-11-28 | 武汉中海庭数据技术有限公司 | 一种地图辅助定位方法、系统、电子设备及存储介质 |
CN115877429B (zh) * | 2023-02-07 | 2023-07-07 | 安徽蔚来智驾科技有限公司 | 自动驾驶车辆的定位方法、装置、存储介质及车辆 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN103247225A (zh) * | 2012-02-13 | 2013-08-14 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN104729485A (zh) * | 2015-03-03 | 2015-06-24 | 北京空间机电研究所 | 一种基于车载全景影像与街景地图匹配的视觉定位方法 |
CN104777835A (zh) * | 2015-03-11 | 2015-07-15 | 武汉汉迪机器人科技有限公司 | 一种全向自动叉车及3d立体视觉导航定位方法 |
CN104811683A (zh) * | 2014-01-24 | 2015-07-29 | 三星泰科威株式会社 | 用于估计位置的方法和设备 |
CN105277959A (zh) * | 2014-07-15 | 2016-01-27 | 现代自动车株式会社 | 车辆定位装置及方法 |
CN105277190A (zh) * | 2014-06-30 | 2016-01-27 | 现代自动车株式会社 | 用于车辆自定位的装置和方法 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN105759295A (zh) * | 2014-09-02 | 2016-07-13 | 现代自动车株式会社 | 用于无人驾驶车辆的识别行驶环境的设备和方法 |
CN105825173A (zh) * | 2016-03-11 | 2016-08-03 | 福州华鹰重工机械有限公司 | 通用道路和车道检测系统与方法 |
CN105989728A (zh) * | 2015-03-19 | 2016-10-05 | 现代自动车株式会社 | 车辆及其控制方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100541865B1 (ko) * | 2003-08-22 | 2006-01-10 | 김영모 | 스테레오 영상을 이용한 차량 위치 검출 시스템과 그 방법 |
JP4600357B2 (ja) * | 2006-06-21 | 2010-12-15 | トヨタ自動車株式会社 | 測位装置 |
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
KR100915880B1 (ko) * | 2007-12-24 | 2009-09-07 | 재단법인대구경북과학기술원 | 위치 추정 장치 및 추정 방법 |
WO2011097018A1 (en) * | 2010-02-05 | 2011-08-11 | Trimble Navigation Limited | Systems and methods for processing mapping and modeling data |
US8494225B2 (en) * | 2010-02-19 | 2013-07-23 | Julian L. Center | Navigation method and aparatus |
KR101285106B1 (ko) * | 2011-11-16 | 2013-07-17 | 재단법인대구경북과학기술원 | 영상 데이터 융합 기반의 장애물체 검출 방법 및 장치 |
JP5886688B2 (ja) * | 2012-05-30 | 2016-03-16 | 日立マクセル株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
KR101402088B1 (ko) * | 2012-11-05 | 2014-06-02 | 재단법인대구경북과학기술원 | 위성항법 시스템과 비전 시스템 융합 기술 기반 이동체의 자기위치 측위방법 및 장치 |
JP6441616B2 (ja) * | 2014-08-29 | 2018-12-19 | 株式会社ゼンリン | 位置特定装置、運転支援装置および制御プログラム |
-
2016
- 2016-12-15 KR KR1020160171742A patent/KR102463702B1/ko active IP Right Grant
-
2017
- 2017-06-07 US US15/616,748 patent/US10262434B2/en active Active
- 2017-06-21 CN CN201710473651.6A patent/CN108225346B/zh active Active
-
2019
- 2019-03-06 US US16/294,132 patent/US10937190B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101640809A (zh) * | 2009-08-17 | 2010-02-03 | 浙江大学 | 一种融合运动信息与几何信息的深度提取方法 |
CN103247225A (zh) * | 2012-02-13 | 2013-08-14 | 联想(北京)有限公司 | 即时定位与地图构建方法和设备 |
CN104811683A (zh) * | 2014-01-24 | 2015-07-29 | 三星泰科威株式会社 | 用于估计位置的方法和设备 |
CN105277190A (zh) * | 2014-06-30 | 2016-01-27 | 现代自动车株式会社 | 用于车辆自定位的装置和方法 |
CN105277959A (zh) * | 2014-07-15 | 2016-01-27 | 现代自动车株式会社 | 车辆定位装置及方法 |
CN105759295A (zh) * | 2014-09-02 | 2016-07-13 | 现代自动车株式会社 | 用于无人驾驶车辆的识别行驶环境的设备和方法 |
CN104729485A (zh) * | 2015-03-03 | 2015-06-24 | 北京空间机电研究所 | 一种基于车载全景影像与街景地图匹配的视觉定位方法 |
CN104777835A (zh) * | 2015-03-11 | 2015-07-15 | 武汉汉迪机器人科技有限公司 | 一种全向自动叉车及3d立体视觉导航定位方法 |
CN105989728A (zh) * | 2015-03-19 | 2016-10-05 | 现代自动车株式会社 | 车辆及其控制方法 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN105825173A (zh) * | 2016-03-11 | 2016-08-03 | 福州华鹰重工机械有限公司 | 通用道路和车道检测系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
US10937190B2 (en) | 2021-03-02 |
US20180174321A1 (en) | 2018-06-21 |
US20190206081A1 (en) | 2019-07-04 |
US10262434B2 (en) | 2019-04-16 |
CN108225346A (zh) | 2018-06-29 |
KR20180069501A (ko) | 2018-06-25 |
KR102463702B1 (ko) | 2022-11-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108225346B (zh) | 车辆定位装置和方法 | |
CN109154506B (zh) | 用于确定第一地标的全局位置的方法和系统 | |
CN110859044B (zh) | 自然场景中的集成传感器校准 | |
EP3137850B1 (en) | Method and system for determining a position relative to a digital map | |
JP2019145089A (ja) | 点群データを融合させるための方法及び装置 | |
EP2133662B1 (en) | Methods and system of navigation using terrain features | |
US10996072B2 (en) | Systems and methods for updating a high-definition map | |
CN111656136A (zh) | 使用激光雷达的车辆定位系统 | |
CN105571606A (zh) | 能够改进车辆定位的方法和系统 | |
WO2011120141A1 (en) | Dynamic network adjustment for rigorous integration of passive and active imaging observations into trajectory determination | |
US20210341605A1 (en) | Position coordinates estimation device, position coordinates estimation method, and program | |
EP2175237B1 (en) | System and methods for image-based navigation using line features matching | |
CN109435940B (zh) | 一种公路车道的识别方法、装置及系统 | |
US11846520B2 (en) | Method and device for determining a vehicle position | |
JP3900365B2 (ja) | 測位装置および測位方法 | |
CN111323029B (zh) | 导航方法及车载终端 | |
KR20200036405A (ko) | 정밀측위 시스템의 종방향 위치 오차를 보정하기 위한 장치 및 방법 | |
CN112424568A (zh) | 构建高清地图的系统和方法 | |
US10916141B1 (en) | System and method for generating a parking space directory | |
CN113075709A (zh) | 车载卫星导航方法、装置、存储介质及处理器 | |
CN113034538A (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
US10984265B2 (en) | Method and apparatus for estimating front obstacle detection distance | |
WO2022153586A1 (ja) | 自己地図生成装置、および自己位置推定装置 | |
CN117075140A (zh) | 一种应用于动态环境的双匹配鲁棒激光定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |