WO2020203829A1 - 車両位置決定装置、車両位置決定システムおよび車両位置決定方法 - Google Patents

車両位置決定装置、車両位置決定システムおよび車両位置決定方法 Download PDF

Info

Publication number
WO2020203829A1
WO2020203829A1 PCT/JP2020/014173 JP2020014173W WO2020203829A1 WO 2020203829 A1 WO2020203829 A1 WO 2020203829A1 JP 2020014173 W JP2020014173 W JP 2020014173W WO 2020203829 A1 WO2020203829 A1 WO 2020203829A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
road
information
vehicle position
road information
Prior art date
Application number
PCT/JP2020/014173
Other languages
English (en)
French (fr)
Inventor
横山 隆久
準行 井戸
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to CN202080026238.5A priority Critical patent/CN113710987A/zh
Priority to DE112020001714.1T priority patent/DE112020001714T5/de
Publication of WO2020203829A1 publication Critical patent/WO2020203829A1/ja
Priority to US17/490,417 priority patent/US20220019819A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/35Road bumpiness, e.g. potholes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk

Definitions

  • the present disclosure relates to a vehicle position determination device, a vehicle position determination system, and a vehicle position determination method.
  • a technique for determining the vehicle position for example, a technique for determining the vehicle position by comparing an image captured by a camera with a sparse map prepared in advance, as described in Japanese Patent Application Laid-Open No. 2018-510373. It has been known.
  • a vehicle positioning device mounted on a vehicle is provided.
  • This vehicle positioning device is a vehicle positioning device mounted on a vehicle, which is road information for specifying the position of the vehicle, and provides a peripheral image represented by a minute displacement relative to the vehicle. It is provided with a control unit that compares the acquisition unit to be acquired with the road information and road feature information indicating the absolute position of a predetermined point, and determines the vehicle position according to the comparison result.
  • the peripheral image is represented by a relative displacement with respect to the vehicle at a predetermined time.
  • the road information for identifying the position of the vehicle and the absolute position of a predetermined point shown in the peripheral image represented by the slight displacement relative to the vehicle are shown.
  • the road feature information is compared, and the vehicle position is determined according to the comparison result. Therefore, the vehicle position can be accurately determined regardless of the location.
  • Explanatory drawing showing an example of a vehicle equipped with a vehicle positioning device, A diagram showing an example of a peripheral image, A diagram showing a comparative example of peripheral images, A flowchart showing an example of vehicle position determination processing, The flowchart which showed an example of high-precision vehicle position determination processing.
  • the vehicle 10 includes a vehicle positioning system 100.
  • the vehicle position determination system 100 determines the vehicle position, which is an absolute position represented as coordinates on the map of the vehicle 10.
  • the vehicle position determination system 100 includes a vehicle position determination device 110, a displacement sensor 122, a camera 124, a vehicle position sensor 126, and a road feature information storage unit 130.
  • the road feature information storage unit 130 stores the road feature information, the landmark, and the position information corresponding to the landmark.
  • “Road feature information” is information indicating the absolute position of a predetermined point.
  • the road feature information is, for example, information including road information of a predetermined point and coordinate information on a map indicating the point.
  • “Road information” is information for identifying the position of a vehicle.
  • any one or more of the following information can be used.
  • ⁇ Information 1 Road shape information> Information indicating the shape of the road surface in the direction of travel of the vehicle (specifically, information indicating the swell of the road surface due to the undulations of the ground)
  • ⁇ Information 2 Road pattern information> Information indicating the pattern on the surface of the road surface (specifically, information indicating stains or cobblestones on the road surface)
  • ⁇ Information 3 Distance marker information> Information indicating a distance marker (specifically, information indicating a kilometer post or a milepost)
  • the vehicle positioning device 110 includes a central processing unit (CPU), a microcomputer composed of a RAM, a ROM, and the like, and the acquisition unit 112 and the control unit 114 are executed by the microcomputer executing a pre-installed program. Functions as. However, some or all of the functions of each of these parts may be realized by a hardware circuit.
  • CPU central processing unit
  • microcomputer composed of a RAM, a ROM, and the like
  • the acquisition unit 112 and the control unit 114 are executed by the microcomputer executing a pre-installed program.
  • the acquisition unit 112 acquires a peripheral image taken by the displacement sensor 122, which is road information and is represented by a minute displacement relative to the vehicle 10.
  • the minute displacement is, for example, a displacement of 1 cm or less.
  • the acquisition unit 112 acquires the image taken by the camera 124 and the vehicle position detected by the vehicle position sensor 126.
  • the acquisition unit 112 acquires the road feature information stored in the road feature information storage unit 130.
  • the control unit 114 compares the road information acquired by the acquisition unit 112 with the road feature information, and determines the vehicle position according to the comparison result.
  • the displacement sensor 122 acquires a minute displacement relative to the vehicle 10 as a signal of a change in brightness.
  • the displacement sensor 122 is an event detection type image pickup device having a plurality of pixels composed of a single image pickup element and capable of detecting an event of a change in the brightness value of an object caused by displacement of the object in units of several ⁇ s. For example, an event camera.
  • the displacement sensor 122 outputs information on changing pixels corresponding to the position where the brightness value of the object has changed, for example, light receiving intensity and pixel coordinates as detection results, and scans all of a plurality of pixels to obtain a frame-based detection result. Is not output.
  • the displacement sensor 122 only needs to be able to output information on change pixels whose values have changed according to a minute displacement of an object relative to the vehicle 10, and exhibits road information in addition to an image sensor that does not output a detection signal consisting of a frame group.
  • An imaging device capable of outputting a detection signal consisting of a frame group at a high frame rate capable of capturing an image, for example, 1000 fps may be used.
  • the camera 124 captures the surroundings of the vehicle 10 and acquires an image.
  • the vehicle position sensor 126 detects the vehicle position of the current vehicle 10. Examples of the vehicle position sensor 126 include a global navigation satellite system (Global Navigation Satellite System (s) (GNSS)) and a gyro sensor.
  • GNSS Global Navigation Satellite System
  • the images shown in FIGS. 2 and 3 are examples of peripheral images taken at the same place under the same conditions by the displacement sensor 122 and the camera 124, respectively. These peripheral images are images of the cobblestone road surface.
  • the peripheral image taken by the displacement sensor 122 shown in FIG. 2 does not cause blurring due to the movement of the vehicle 10, whereas the peripheral image for comparison taken by the camera 124 shown in FIG. 3 has blurring. ..
  • the displacement sensor 122 captures a change in brightness in units of several ⁇ s, blurring does not occur due to the movement of the vehicle 10 even at night, but the camera 124 has, for example, a frame rate of 60 fps and the vehicle 10.
  • the peripheral image for comparison taken by the camera 124 may be blurred. Therefore, the peripheral image taken by the displacement sensor 122 has a clearer cobblestone pattern than the peripheral image taken by the camera 124. That is, the vehicle position determination system 100 can clearly acquire road information by using the displacement sensor 122.
  • the vehicle position determination process shown in FIG. 4 is a process for determining the position of the vehicle 10. This process is a process that is repeatedly executed by the vehicle position determination device 110 during the operation of the vehicle position determination system 100.
  • the vehicle position determination device 110 estimates the reference vehicle position (step S100). Specifically, the acquisition unit 112 acquires the vehicle position detected by the vehicle position sensor 126 as the reference vehicle position. Alternatively, or in addition to this, the control unit 114 may estimate the reference vehicle position using information different from the road information by a well-known vehicle position determination technique. For example, the control unit 114 acquires a captured image corresponding to the vehicle position detected by the vehicle position sensor 126 from the road feature information storage unit 130, and the landmark and the road feature information storage unit 130 included in the image acquired from the camera 124. The reference vehicle position may be estimated by comparing with the position of the landmark included in the image obtained from. The image including the landmark and the position information of the landmark acquired from the road feature information storage unit 130 used here are information for estimating the reference vehicle position, and are different from the road feature information. is there.
  • the vehicle position determination device 110 determines whether or not the accuracy of the reference vehicle position is lower than the predetermined determination accuracy (step S110).
  • the accuracy of the reference vehicle position can be obtained, for example, according to the communication strength of the vehicle position sensor 126, the number of satellites that have received radio waves, and the error range at the reference vehicle position estimated by the control unit 114.
  • the discrimination accuracy is a predetermined threshold value for discriminating the accuracy of the vehicle position, and is a value indicating the minimum acceptable accuracy.
  • the acquisition unit 112 may acquire the accuracy of the estimated reference vehicle position by using information different from the road information.
  • step S110: YES When the accuracy of the reference vehicle position is lower than the discrimination accuracy (step S110: YES), the control unit 114 takes a first image of the first range around the vehicle 10 as road information in the process of determining the vehicle position described later. It is set to use the first road information extracted from the surrounding image (step S120). On the other hand, when the accuracy of the reference vehicle position is equal to or higher than the discrimination accuracy (step S110: NO), the control unit 114 is narrower than the first range around the vehicle 10 as road information in the process of determining the vehicle position described later. It is set to use the second road information extracted from the second peripheral image obtained by capturing the second range (step S125).
  • the imaging range of the peripheral image showing the road information is narrower than when the accuracy of the reference vehicle position is lower than the discrimination accuracy.
  • the error range of the vehicle position determined in the vehicle position determination process described later becomes narrower than when the accuracy of the reference vehicle position is lower than the discrimination accuracy.
  • the vehicle position can be determined more accurately.
  • the error range of the vehicle position is wide, so that it is possible to absorb the accuracy error of the reference vehicle position by using a wider range of first road information.
  • the accuracy is higher than the discrimination accuracy, it is possible to determine the vehicle position with high accuracy by using the second road information in a narrower range.
  • the first peripheral image and the second peripheral image are peripheral images captured in different size ranges, road information may be extracted from different size ranges in the same peripheral image.
  • the control unit 114 determines the vehicle position with higher accuracy than the reference vehicle position, and ends the vehicle position determination process (step S130). Details of the method for determining the vehicle position will be described later.
  • the high-precision vehicle position determination process shown in FIG. 5 is a series of processes in which the vehicle position determination device 110 determines the vehicle position in step S130 shown in FIG. Instead of the vehicle position determination process shown in FIG. 4, the vehicle position may be determined only by the high-precision vehicle position determination process shown in FIG.
  • the vehicle position determination device 110 acquires road feature information from the road feature information storage unit 130 (step S200). More specifically, the vehicle position determination device 110 acquires road feature information of an absolute position of a point corresponding to a reference vehicle position from the road feature information storage unit 130.
  • the vehicle position determination device 110 acquires road information (step S210). More specifically, the acquisition unit 112 acquires a peripheral image as road information. In the present embodiment, the vehicle position determination device 110 acquires the road information set in the above-described processing (FIG. 4, steps S120, 125). More specifically, when the accuracy of the reference vehicle position is lower than the discrimination accuracy, the first road information is acquired, and when the accuracy of the reference vehicle position is equal to or higher than the discrimination accuracy, the second road information is acquired.
  • the first road information is, for example, road information extracted from a first peripheral image captured in a first range defined by 100 m ahead in the traveling direction of the vehicle 10 and 30 m in the width direction of the vehicle, and is second road information. Is, for example, road information extracted from a second peripheral image captured in a second range defined by 5 m ahead in the traveling direction of the vehicle 10 and 1.5 m in the width direction of the vehicle.
  • the control unit 114 calculates the similarity Sd between the road information and the road feature information (step S220).
  • the control unit 114 can obtain the similarity Sd by using a well-known image analysis technique, and may be obtained by using, for example, a pattern matching method, or by comparing the feature amounts of images. .. Further, when the road sign information is used as the road information, the control unit 114 may extract a character string from the kilometer post included in the surrounding image and obtain the degree of matching of the character string as the similarity Sd.
  • the control unit 114 determines whether or not the calculated similarity Sd is equal to or higher than a predetermined threshold value Sth (step S230).
  • the threshold value Sth can be set to a value of 0.7 or more, for example, when the similarity is indicated by a value in the range of 0 to 1.
  • the control unit 114 determines the vehicle position (step S240).
  • the control unit 114 makes the vehicle position indefinite (step S245).
  • the control unit 114 may set the vehicle position to the reference vehicle position without updating the vehicle position.
  • the vehicle positioning device 110 for specifying the position of the vehicle 10 represented by the relative displacement with respect to the vehicle 10 at a predetermined time and shown in the peripheral image.
  • the road information is compared with the road feature information indicating the absolute position of a predetermined point, and the vehicle position is determined according to the comparison result. Therefore, the vehicle position can be accurately determined regardless of the location.
  • the vehicle position determination device 110 determines an imaging range of a peripheral image showing road information used in the vehicle position determination process according to the accuracy of the reference vehicle position. When the accuracy of the reference vehicle position is high, the reference vehicle position is determined.
  • the imaging range of the peripheral image showing the road information is narrowed as compared with the case where the accuracy of is low. Therefore, the error range of the vehicle position is narrowed, and the vehicle position can be determined more accurately.
  • the control unit 114 determines the imaging range of the peripheral image showing the road information according to the accuracy of the reference vehicle position as the road information used in the process of determining the vehicle position (FIG. 4). , Step S120, 125).
  • the vehicle position determining device 110 may determine information to be used as road information according to the accuracy of the reference vehicle position. For example, the vehicle position determining device 110 is set to use road shape information as road information when the accuracy of the reference vehicle position is smaller than the discrimination accuracy, while when the accuracy of the reference vehicle position is equal to or higher than the discrimination accuracy, the road is used as road information. It may be set to use pattern information.
  • the vehicle position determination system 100 is set so that the displacement sensor 122 captures the traveling direction of the vehicle 10 so as to be able to image the swell of the road surface which is the road shape information, or the stone pavement which is the road pattern information.
  • the displacement sensor 122 is set to image the downward direction of the vehicle 10 so that the surface of the road surface can be imaged.
  • the control unit 114 determines the vehicle position according to whether or not the similarity Sd is equal to or higher than the threshold value Sth (FIG. 5, steps S240 and 245). Instead, the control unit 114 may calculate each similarity Sd with the plurality of road feature information, and determine the position indicated by the road feature information having the highest similarity Sd as the vehicle position. Further, when the road sign information is used as the road information, the control unit 114 extracts the kilometer post included in the surrounding image, identifies the point indicated by the kilometer post by comparing with the road feature information, and responds to the distance to the kilometer post. The vehicle position may be determined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両10に搭載される車両位置決定装置110であって、車両の位置を特定する道路情報であって、車両に対する相対的な微少変位によって表される周辺画像を取得する取得部112と、道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する制御部114と、を備える。

Description

車両位置決定装置、車両位置決定システムおよび車両位置決定方法 関連出願の相互参照
 本願は、その全ての開示が参照によりここに組み込まれる、2019年4月4日に出願された、出願番号2019-71690の日本国特許出願に基づく優先権を主張する。
 本開示は、車両位置決定装置、車両位置決定システムおよび車両位置決定法に関する。
 車両位置を決定する技術として、例えば、日本国特表2018-510373号公報に記載されているような、カメラの撮像画像と予め用意した疎な地図とを比較して、車両位置を決定する技術が知られている。
 しかし、看板やモニュメント等の目印となる物標が少ない場所や存在しない場所においては、車両位置を精度良く決定できない。そこで、場所を問わず精度良く車両位置を決定できる技術が望まれていた。
 本開示の一形態によれば、車両に搭載される車両位置決定装置が提供される。この車両位置決定装置は、車両に搭載される車両位置決定装置であって、前記車両の位置を特定するための道路情報であって、前記車両に対する相対的な微少変位によって表される周辺画像を取得する取得部と、前記道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する制御部と、を備え、前記周辺画像は、予め定められた時間における前記車両に対する相対的な変位によって表される。
 この車両位置決定装置によれば、車両に対する相対的な微少変位によって表される周辺画像に示される、車両の位置を特定するための道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する。そのため、場所を問わず精度良く車両位置を決定できる。
車両位置決定装置が搭載された車両の一例を示す説明図、 周辺画像の一例を示す図、 周辺画像の比較例を示す図、 車両位置決定処理の一例を示したフローチャート、 高精度車両位置決定処理の一例を示したフローチャート。
A.第1実施形態:
 図1に示すように、車両10は、車両位置決定システム100を備える。本実施形態において、車両位置決定システム100は、車両10の地図上の座標として表される絶対的な位置である車両位置を決定する。本実施形態において、車両位置決定システム100は、車両位置決定装置110と、変位センサ122と、カメラ124と、車両位置センサ126と、道路特徴情報記憶部130と、を備える。
 道路特徴情報記憶部130は、本実施形態において、道路特徴情報と、ランドマークとそのランドマークに対応する位置情報とを記憶している。「道路特徴情報」とは、予め定められた地点の絶対的な位置を示す情報である。道路特徴情報は、例えば、予め定められた地点の道路情報とその地点を示す地図上の座標情報とを含む情報である。「道路情報」とは、車両の位置を特定するための情報である。
 道路情報や道路特徴情報が含む情報としては例えば以下のような情報のいずれか1つ以上を用いることが可能である。
<情報1:道路形状情報>
車両の進行方向における路面の形状を示す情報(具体的には、例えば、地面の起伏による路面のうねりを示す情報)
<情報2:道路模様情報>
路面の表面の模様を示す情報(具体的には、例えば、路面のシミや石畳を示す情報)
<情報3:距離標情報>
距離標を示す情報(具体的には、例えば、キロポストやマイルポストを示す情報)
<情報4:道路物標情報>
道路近傍の静止物標を示す情報(具体的には、例えば、街路樹の幹の模様や街路樹や消火栓の配置パターンを示す情報)
 また、上記の情報1~4やその他の情報を適宜組み合わせて道路情報や道路特徴情報とすることもできる。
 車両位置決定装置110は、中央処理装置(CPU)や、RAM、ROMにより構成されたマイクロコンピュータ等からなり、予めインストールされたプログラムをマイクロコンピュータが実行することによって、取得部112および、制御部114として機能する。ただし、これらの各部の機能の一部又は全部をハードウェア回路で実現してもよい。
 取得部112は、道路情報であって、車両10に対する相対的な微少変位によって表される変位センサ122が撮影した周辺画像を取得する。微少変位とは、例えば、1cm以下の変位である。取得部112は、カメラ124が撮影した画像や、車両位置センサ126が検出した車両位置を取得する。また、取得部112は、道路特徴情報記憶部130に記憶された道路特徴情報を取得する。制御部114は、取得部112が取得した道路情報と道路特徴情報とを比較して、その比較結果に応じて車両位置を決定する。
 変位センサ122は、車両10に対する相対的な微少変位を輝度変化の信号として取得する。変位センサ122は、単一の撮像素子によって構成される複数の画素を有し、物体の変位に伴い生じる物体の輝度値の変化というイベントを数μs単位で検出可能なイベント検出型の撮像装置、例えば、イベントカメラ、である。変位センサ122は、物体における輝度値が変化した位置に対応する変化画素の情報、例えば、受光強度、画素座標を検出結果として出力し、複数の画素全てを走査して得られるフレーム単位の検出結果を出力しない。したがって、変位センサ122の検出結果を用いることにより、車速や車両周辺の明暗の度合いといった撮影環境に左右されないで道路情報を検出することが可能となる。変位センサ122は、車両10に対する相対的な物体の微少変位に応じて値が変化した変化画素の情報を出力できれば良く、フレーム群からなる検出信号を出力しないイメージセンサの他に、道路情報を示す画像を撮影可能な高フレームレート、例えば、1000fpsでのフレーム群からなる検出信号を出力可能な撮像装置が用いられても良い。
 カメラ124は、車両10の周囲を撮影して画像を取得する。車両位置センサ126は、現在の車両10の車両位置を検出する。車両位置センサ126として、例えば、汎地球航法衛星システム(Global Navigation Satellite System(s)(GNSS))やジャイロセンサ等が挙げられる。
 図2および図3に示す画像は、それぞれ変位センサ122とカメラ124とで、同じ条件で同じ場所を撮影した周辺画像の一例である。これらの周辺画像は、石畳の路面を撮影した画像である。図2に示す変位センサ122で撮影した周辺画像は、車両10の移動によるブレが生じていないのに対して、図3に示すカメラ124で撮影した比較用の周辺画像は、ブレが生じている。上述したように、変位センサ122は、数μs単位の輝度変化を捉えるため、夜間であっても車両10の移動に伴うブレが生じないが、カメラ124は、例えばフレームレートが60fpsと車両10の移動速度に対して遅く、また、露光時間が車両10の移動速度に対して長いため、カメラ124で撮影した比較用の周辺画像はブレが生じる場合がある。そのため変位センサ122で撮影した周辺画像はカメラ124で撮影した周辺画像に比べて、石畳の模様が鮮明である。つまり、車両位置決定システム100は、変位センサ122を用いることで、明確に道路情報を取得することができる。
 図4に示す車両位置決定処理は、車両10の位置を決定する処理である。この処理は車両位置決定システム100の動作中、車両位置決定装置110により繰り返し実行される処理である。
 車両位置決定装置110は、基準車両位置を推定する(ステップS100)。具体的には、取得部112が、車両位置センサ126が検出した車両位置を基準車両位置として取得する。制御部114は、これに代えて、また、これに加えて、周知の車両位置決定技術によって、道路情報と異なる情報を用いて基準車両位置を推定してもよい。例えば、制御部114は、車両位置センサ126が検出した車両位置に対応する撮像画像を道路特徴情報記憶部130から取得し、カメラ124から取得した画像に含まれるランドマークと道路特徴情報記憶部130から取得した画像に含まれるランドマークの位置とを比較して、基準車両位置を推定してもよい。ここで用いられる道路特徴情報記憶部130から取得した、ランドマークが含まれる画像、およびそのランドマークの位置情報は、基準車両位置を推定するための情報であり、道路特徴情報とは異なる情報である。
 車両位置決定装置110は、基準車両位置の精度が予め定められた判別精度より低いか否か判定する(ステップS110)。基準車両位置の精度は、例えば、車両位置センサ126の通信強度や、電波を受信した衛星の数、また、制御部114が推定した基準車両位置における誤差範囲に応じて求める事ができる。判別精度は、車両位置の精度を判別するために予め定められた閾値であり、許容できる最低の精度を示す値である。なお、ステップS100に代えて、取得部112は、道路情報と異なる情報を用いて推定された基準車両位置の精度を取得してもよい。
 基準車両位置の精度が判別精度より低い場合(ステップS110:YES)、制御部114は、後述する車両位置の決定の処理において、道路情報として、車両10の周辺における第1範囲を撮像した第1周辺画像から抽出される、第1道路情報を用いるよう設定する(ステップS120)。一方、基準車両位置の精度が判別精度以上の場合(ステップS110:NO)、制御部114は、後述する車両位置の決定の処理において、道路情報として、車両10の周辺における第1範囲よりも狭い第2範囲を撮像した第2周辺画像から抽出される第2道路情報を用いるよう設定する(ステップS125)。つまり、基準車両位置の精度が判別精度以上の場合、基準車両位置の精度が判別精度より低い場合よりも、道路情報を示す周辺画像の撮像範囲を狭くする。これにより、基準車両位置の精度が判別精度以上の場合に、基準車両位置の精度が判別精度より低い場合よりも、後述する車両位置の決定の処理において決定される車両位置の誤差範囲が狭くなり、より精度良く車両位置を決定できる。精度が判別精度より低い場合、車両位置の誤差範囲が広いため、より広範囲な第1道路情報を使用することで、基準車両位置の精度誤差を吸収することが可能となる。また、精度が判別精度以上の場合は、より狭範囲な第2道路情報を使用することで精度の高い車両位置の決定を行うことが可能となる。なお、第1周辺画像と第2周辺画像とを、異なる大きさの範囲で撮像した周辺画像としているが、同一の周辺画像における異なる大きさの範囲から道路情報を抽出するようにしてもよい。
 制御部114は、基準車両位置よりも高精度な車両位置を決定し、車両位置決定処理を終了する(ステップS130)。車両位置の決定方法の詳細については後述する。
 図5に示す高精度車両位置決定処理は、図4に示すステップS130において、車両位置決定装置110が車両位置を決定する一連の処理である。なお、図4に示す車両位置決定処理に代えて、図5に示す高精度車両位置決定処理のみによって車両位置を決定してもよい。
 車両位置決定装置110は、道路特徴情報記憶部130から道路特徴情報を取得する(ステップS200)。より具体的には、車両位置決定装置110は、基準車両位置に対応する地点の絶対的な位置の道路特徴情報を道路特徴情報記憶部130から取得する。
 車両位置決定装置110は、道路情報を取得する(ステップS210)。より具体的には、取得部112が、道路情報としての周辺画像を取得する。本実施形態において、車両位置決定装置110は、上述した処理(図4、ステップS120、125)で設定した道路情報を取得する。より具体的には、基準車両位置の精度が判別精度よりも低い場合には第1道路情報を取得し、基準車両位置の精度が判別精度以上の場合には第2道路情報を取得する。第1道路情報は、例えば、車両10の進行方向における100m先と車両の幅方向における30mとで定められる第1範囲で撮像した第1周辺画像から抽出される道路情報であり、第2道路情報は、例えば、車両10の進行方向における5m先と車両の幅方向における1.5mとで定められる第2範囲で撮像した第2周辺画像から抽出される道路情報である。
 続いて、制御部114は、道路情報と道路特徴情報との類似度Sdを算出する(ステップS220)。制御部114は、周知の画像解析技術を用いて類似度Sdを求めることができ、例えば、パターンマッチング方を用いて求められてもよく、画像の特徴量を比較することで求められてもよい。また、制御部114は、道路情報として道路標識情報を用いる場合、周囲画像に含まれるキロポストより文字列を抽出し、その文字列の一致度合いを類似度Sdとして求めてもよい。
 制御部114は、算出した類似度Sdが予め定められた閾値Sth以上か否かを判定する(ステップS230)。閾値Sthは、例えば、類似度を0から1の範囲の値で示す場合に、0.7以上の値に定める事ができる。類似度Sdが閾値Sth以上の場合(ステップS230:YES)、制御部114は、車両位置を決定する(ステップS240)。一方、類似度SdがSthより小さい場合(ステップS230:NO)、制御部114は、車両位置を不定とする(ステップS245)。制御部114は、車両位置を更新せず、基準車両位置に定めてもよい。
 以上説明した第1の実施形態に係る車両位置決定装置110によれば、予め定められた時間における車両10に対する相対的な変位によって表され周辺画像に示される、車両10の位置を特定するための道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する。そのため、場所を問わず精度良く車両位置を決定できる。また、車両位置決定装置110は、基準車両位置の精度に応じて、車両位置決定処理において用いる道路情報を示す周辺画像の撮像範囲を定めており、基準車両位置の精度が高い場合、基準車両位置の精度が低い場合よりも、道路情報を示す周辺画像の撮像範囲を狭くする。そのため、車両位置の誤差範囲が狭くなり、より精度良く車両位置を決定できる。
B.他の実施形態:
(1)上記実施形態において、制御部114は、車両位置を決定する処理に用いる道路情報として、基準車両位置の精度に応じて、道路情報を示す周辺画像の撮像範囲を定めている(図4、ステップS120、125)。この代わりに、車両位置決定装置110は、基準車両位置の精度に応じて、道路情報として用いる情報を定めてもよい。例えば車両位置決定装置110は、基準車両位置の精度が判別精度より小さい場合、道路情報として道路形状情報を用いるよう設定し、一方、基準車両位置の精度が判別精度以上の場合、道路情報として道路模様情報を用いるよう設定してもよい。より具体的には、車両位置決定システム100は、道路形状情報である路面のうねりを撮像できるよう変位センサ122が車両10の進行方向を撮像するように設定したり、道路模様情報である石畳等の路面の表面を撮像できるよう変位センサ122が車両10の下方向を撮像するように設定する。
(2)上記実施形態において、制御部114は、類似度Sdが閾値Sth以上か否かに応じて、車両位置を決定している(図5、ステップS240、245)。この代わりに、制御部114は、複数の道路特徴情報との各類似度Sdを算出し、類似度Sdが最も高い道路特徴情報が示す位置を車両位置に決定してもよい。また、制御部114は、道路情報として道路標識情報を用いる場合、周囲画像に含まれるキロポストを抽出し、道路特徴情報と比較することでそのキロポストが示す地点を特定し、キロポストとの距離に応じて、車両位置を決定してもよい。
 以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。

Claims (7)

  1.  車両(10)に搭載される車両位置決定装置(110)であって、
     前記車両の位置を特定するための道路情報であって、前記車両に対する相対的な微少変位によって表される周辺画像を取得する取得部(112)と、
     前記道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する制御部(114)と、を備える、車両位置決定装置。
  2.  請求項1に記載の車両位置決定装置であって、
     前記道路情報は、前記車両の進行方向における路面の形状を示す道路形状情報を含む、車両位置決定装置。
  3.  請求項1または請求項2に記載の車両位置決定装置であって、
     前記道路情報は、路面の表面の模様を示す道路模様情報を含む、車両位置決定装置。
  4.  請求項1から請求項3のうちいずれか一項に記載の車両位置決定装置であって、
     前記道路情報は、距離標を示す道路標識情報を含む、車両位置決定装置。
  5.  請求項1から請求項4のうちいずれか一項に記載の車両位置決定装置であって、
     前記取得部は、前記道路情報と異なる情報を用いて推定された車両位置の精度を取得し、
     前記制御部は、
      前記精度が予め定められた判別精度より低い場合に、前記道路情報として、前記車両の周辺における第1範囲を撮像した第1周辺画像から抽出される、第1道路情報を用いて前記車両位置を決定し、
      前記精度が前記判別精度以上の場合に、前記道路情報として、前記車両の周辺における前記第1範囲よりも狭い第2範囲を撮像した第2周辺画像から抽出される第2道路情報を用いて前記車両位置を決定する、車両位置決定装置。
  6.  車両に搭載される車両位置決定システム(100)であって、
     請求項1から請求項5のうちいずれか一項に記載の車両位置決定装置と、
     前記周辺画像を出力する変位センサ(122)と、を備え、
     前記変位センサは、前記微少変位を輝度変化の信号として取得出来る、車両位置決定システム。
  7.  車両位置決定方法であって、
     車両の位置を特定するための道路情報であって、前記車両に対する相対的な微少変位によって表される周辺画像を取得し、
     前記道路情報と、予め定められた地点の絶対的な位置を示す道路特徴情報と、を比較して、その比較結果に応じて車両位置を決定する、車両位置決定方法。
PCT/JP2020/014173 2019-04-04 2020-03-27 車両位置決定装置、車両位置決定システムおよび車両位置決定方法 WO2020203829A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080026238.5A CN113710987A (zh) 2019-04-04 2020-03-27 车辆位置确定装置、车辆位置确定系统以及车辆位置确定方法
DE112020001714.1T DE112020001714T5 (de) 2019-04-04 2020-03-27 Fahrzeugpositionsbestimmungsvorrichtung, fahrzeugpositionsbestimmungssystem und fahrzeugpositionsbestimmungsverfahren
US17/490,417 US20220019819A1 (en) 2019-04-04 2021-09-30 Vehicle position determination device, vehicle position determination system, and vehicle position determination method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-071690 2019-04-04
JP2019071690A JP7120130B2 (ja) 2019-04-04 2019-04-04 車両位置決定装置および車両位置決定方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/490,417 Continuation US20220019819A1 (en) 2019-04-04 2021-09-30 Vehicle position determination device, vehicle position determination system, and vehicle position determination method

Publications (1)

Publication Number Publication Date
WO2020203829A1 true WO2020203829A1 (ja) 2020-10-08

Family

ID=72668340

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/014173 WO2020203829A1 (ja) 2019-04-04 2020-03-27 車両位置決定装置、車両位置決定システムおよび車両位置決定方法

Country Status (5)

Country Link
US (1) US20220019819A1 (ja)
JP (1) JP7120130B2 (ja)
CN (1) CN113710987A (ja)
DE (1) DE112020001714T5 (ja)
WO (1) WO2020203829A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2010245802A (ja) * 2009-04-06 2010-10-28 Sanyo Electric Co Ltd 操縦支援装置
JP2015021858A (ja) * 2013-07-19 2015-02-02 株式会社デンソー 車両位置補正装置
WO2018212292A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6091833A (en) * 1996-08-28 2000-07-18 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus, and a method therefor
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
US8428305B2 (en) * 2008-04-24 2013-04-23 GM Global Technology Operations LLC Method for detecting a clear path through topographical variation analysis
JP5387277B2 (ja) * 2009-08-07 2014-01-15 アイシン・エィ・ダブリュ株式会社 走行支援で利用される情報の信頼度特定装置、方法およびプログラム
JP5714940B2 (ja) * 2011-03-04 2015-05-07 国立大学法人 熊本大学 移動体位置測定装置
KR102624434B1 (ko) 2015-02-10 2024-01-15 모빌아이 비젼 테크놀로지스 엘티디. 자율 주행을 위한 약도
JP6593088B2 (ja) * 2015-10-19 2019-10-23 株式会社豊田中央研究所 車両位置推定装置及びプログラム
JP6421782B2 (ja) * 2016-04-22 2018-11-14 トヨタ自動車株式会社 周辺情報収集システム
CN108460395B (zh) * 2017-02-17 2023-04-07 北京三星通信技术研究有限公司 目标检测方法和装置以及模糊处理方法和装置
JP6627135B2 (ja) * 2017-06-22 2020-01-08 本田技研工業株式会社 車両位置判定装置
KR101960428B1 (ko) * 2017-10-30 2019-03-20 주식회사 로드텍 모바일 단말을 이용한 도로 상태 정보 제공 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
WO2019127254A1 (zh) * 2017-12-28 2019-07-04 深圳配天智能技术研究院有限公司 一种车辆定位方法、装置及存储介质
JP6652667B2 (ja) 2019-02-08 2020-02-26 株式会社東芝 通信中継システム、親局装置、子局装置、制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP2010245802A (ja) * 2009-04-06 2010-10-28 Sanyo Electric Co Ltd 操縦支援装置
JP2015021858A (ja) * 2013-07-19 2015-02-02 株式会社デンソー 車両位置補正装置
WO2018212292A1 (ja) * 2017-05-19 2018-11-22 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体

Also Published As

Publication number Publication date
JP7120130B2 (ja) 2022-08-17
DE112020001714T5 (de) 2021-12-23
US20220019819A1 (en) 2022-01-20
JP2020169906A (ja) 2020-10-15
CN113710987A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
JP6726932B2 (ja) 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出
US10909395B2 (en) Object detection apparatus
JP6278791B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
WO2015087502A1 (ja) 自車位置検出装置
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP6552448B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
KR20180067199A (ko) 객체 인식 장치 및 방법
JP6278790B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム
JP6622664B2 (ja) 自車位置特定装置、及び自車位置特定方法
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
JP6649859B2 (ja) 自車位置推定装置、自車位置推定方法
JP2014106739A (ja) 車載画像処理装置
JP2017117105A (ja) 見通し判定装置
WO2020203829A1 (ja) 車両位置決定装置、車両位置決定システムおよび車両位置決定方法
US10536646B2 (en) Imaging control device and imaging control method
JP2023118759A (ja) 測定装置、測定方法およびプログラム
US10643077B2 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
WO2022009537A1 (ja) 画像処理装置
JP2018120303A (ja) 物体検出装置
JP7169075B2 (ja) 撮像制御装置および撮像制御方法
JP2013148355A (ja) 車両位置算出装置
CN114762019A (zh) 摄像机系统
JP7503164B2 (ja) 地図情報作成方法
JP2021170029A (ja) 測定装置、測定方法およびプログラム
JP2018107582A (ja) 遮蔽判定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20783888

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20783888

Country of ref document: EP

Kind code of ref document: A1