JP6645936B2 - State estimation device - Google Patents

State estimation device Download PDF

Info

Publication number
JP6645936B2
JP6645936B2 JP2016172034A JP2016172034A JP6645936B2 JP 6645936 B2 JP6645936 B2 JP 6645936B2 JP 2016172034 A JP2016172034 A JP 2016172034A JP 2016172034 A JP2016172034 A JP 2016172034A JP 6645936 B2 JP6645936 B2 JP 6645936B2
Authority
JP
Japan
Prior art keywords
feature
vehicle
state
detection unit
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016172034A
Other languages
Japanese (ja)
Other versions
JP2018036225A (en
Inventor
宏次朗 立石
宏次朗 立石
直輝 川嵜
直輝 川嵜
俊輔 鈴木
俊輔 鈴木
広 水野
広 水野
小林 健二
健二 小林
雄介 田中
雄介 田中
將貴 小西
將貴 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016172034A priority Critical patent/JP6645936B2/en
Publication of JP2018036225A publication Critical patent/JP2018036225A/en
Application granted granted Critical
Publication of JP6645936B2 publication Critical patent/JP6645936B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、車両に搭載され、当該車両の位置を推定する状態推定装置に関する。   The present disclosure relates to a state estimation device mounted on a vehicle and estimating a position of the vehicle.

車両の運転者が行う運転操作の少なくとも一部を車両が支援する運転支援や自動運転において、車両の走行している走路を認識する走路認識に関する技術が知られている。
例えば、特許文献1には、以下のような技術が開示されている。すなわち、あらかじめ設定された観測サイクルごとに車載カメラによって検出される標識や白線などの地物を検出地物として検出する。前回の観測サイクルで推定された、推定位置や速度ベクトルなどの自車両の状態から今回の観測サイクルでの自車両の位置を予測し、予測位置とする。自車両の予測位置に基づき、地図データベースに登録され、検出地物と同一であると推定される地物である地物データを検出地物に対応づける。自車両の予測位置に対する、対応づけられた検出地物及び地物データの両地物の相対的な位置関係が互いに一致するように予測位置を補正することにより、今回の観測サイクルでの自車両の位置及び方位を推定する。
2. Description of the Related Art In driving assistance and automatic driving in which a vehicle assists at least a part of a driving operation performed by a driver of a vehicle, there is known a technology related to a lane recognition that recognizes a lane on which the vehicle is traveling.
For example, Patent Document 1 discloses the following technology. That is, a feature such as a sign or a white line detected by the on-board camera is detected as a detected feature in each observation cycle set in advance. The position of the own vehicle in the current observation cycle is predicted from the state of the own vehicle such as the estimated position and the speed vector estimated in the previous observation cycle, and is set as a predicted position. Based on the predicted position of the vehicle, feature data registered in the map database and estimated to be the same as the detected feature is associated with the detected feature. By correcting the predicted position so that the relative positional relationship between the detected feature and the feature data associated with the predicted position of the own vehicle matches each other, the own vehicle in the current observation cycle is corrected. Is estimated.

特開2008−249639号公報JP 2008-249639 A

しかしながら、特許文献1に記載の装置では、自車両の実際の位置、特に自車両の進行方向に沿った縦位置と予測位置とが大きく異なっている場合、白線等から特定される道路形状により、関係検出部により検出された位置地物と車両との相対的な位置関係と当該位置地物に対応づけられた地物データの表す位置との対応関係に誤りが生じる。これにより、誤った対応関係に基づいて、自車両の状態が推定されると、誤差が生じやすくなるという問題があった。   However, in the device described in Patent Literature 1, when the actual position of the own vehicle, particularly the vertical position along the traveling direction of the own vehicle and the predicted position are significantly different, the road shape specified from the white line or the like causes An error occurs in the correspondence between the relative position relationship between the position feature and the vehicle detected by the relationship detection unit and the position represented by the feature data associated with the position feature. As a result, when the state of the host vehicle is estimated based on an erroneous correspondence, an error is likely to occur.

本開示は、縦位置を補正した場合でも車両の横位置及び車両方位がずれることを抑制する技術を提供する。   The present disclosure provides a technique for suppressing a deviation of a lateral position and a vehicle direction of a vehicle even when a vertical position is corrected.

本開示の状態推定装置(1)は、車両に搭載され当該車両の位置及び進行方向を含む車両状態を、あらかじめ設定された周期を有する観測サイクルごとに繰り返し推定し、状態予測部(S110)、地図取得部(S120)、地物検出部(S140、S200)、関係検出部(S150)、対応付け部(S160、S230)、補正算出部(S210)、第1推定部(S170)及び第2推定部(S240、S250)を備える。   The state estimation device (1) of the present disclosure repeatedly estimates a vehicle state, which is mounted on a vehicle and includes a position and a traveling direction of the vehicle, for each observation cycle having a preset cycle, and a state prediction unit (S110). Map acquisition unit (S120), feature detection unit (S140, S200), relationship detection unit (S150), association unit (S160, S230), correction calculation unit (S210), first estimation unit (S170), and second Estimation units (S240, S250) are provided.

状態予測部は、前回の観測サイクルで推定された車両状態である推定状態を用いて予測した、今回の観測サイクルでの車両状態である予測状態を生成する。地図取得部は、予測状態に含まれる車両の位置である予測位置に従って、予測位置の周辺に存在する地物を表す地物データ及び道路形状を表す形状データを含む地図データを取得する。地物検出部は、観測サイクルごとに、光学センサ(5)の検出結果から、地物データに少なくとも設置位置が登録されている地物である位置地物及び道路形状を規定する地物である形状地物を検出する。関係検出部は、位置地物と車両との相対的な位置関係を検出する。対応付け部は、車両が予測位置に存在するものとして、関係検出部により検出された位置地物と車両との相対的な位置関係によって、同一物であると推定される位置地物と地物データとの対応付けを行う。補正算出部は、車両に対する位置地物の相対位置と、予測位置に対する対応付け部により当該位置地物に対応づけられた地物データの表す位置の相対位置との差を補正量として算出する。第1推定部は、車両の進行方向に沿った位置を縦位置として、車両に対する位置地物の相対位置と、予測位置に対する対応付け部により当該位置地物に対応づけられた地物データの表す位置の相対位置との差を補正量として、当該補正量を用いて予測位置を補正することにより、今回の測定サイクルでの車両の少なくとも縦位置を推定する。第2推定部は、補正算出部により算出された補正量のうち、縦位置の補正量である縦補正量があらかじめ設定された補正量閾値以下である場合には、予測位置を比較位置とし、縦補正量が補正量閾値よりも大きい場合には、予測位置の縦位置を縦補正量で補正した地点を比較位置として、地図取得部にて取得された比較位置での形状データが表す道路形状と、地物検出部にて検出された形状地物が示す道路形状との位置合わせによって、車両の車幅方向に沿った位置である横位置及び車両の進行方向である車両方位の少なくとも一方の推定を行う。状態推定装置は、第1推定部及び第2推定部での推定結果を、今回の観測サイクルでの推定状態とする。   The state prediction unit generates a predicted state that is a vehicle state in the current observation cycle, which is predicted using the estimated state that is the vehicle state estimated in the previous observation cycle. The map acquisition unit acquires map data including feature data representing a feature existing around the predicted position and shape data representing a road shape, according to the predicted position that is the position of the vehicle included in the predicted state. The feature detector is a feature that defines a position feature and a road shape that are at least the installation location registered in the feature data from the detection result of the optical sensor (5) for each observation cycle. Detects shaped features. The relation detecting unit detects a relative positional relation between the position feature and the vehicle. The associating unit, assuming that the vehicle exists at the predicted position, the position feature and the feature estimated to be the same based on the relative positional relationship between the position feature and the vehicle detected by the relationship detecting unit. Make correspondence with data. The correction calculation unit calculates, as a correction amount, a difference between the relative position of the position feature with respect to the vehicle and the relative position of the position represented by the feature data associated with the position feature by the association unit with the predicted position. The first estimating unit sets the position along the traveling direction of the vehicle as a vertical position, and represents the relative position of the position feature with respect to the vehicle, and the feature data associated with the position feature by the associating unit for the predicted position. By using the difference between the position and the relative position as a correction amount and correcting the predicted position using the correction amount, at least the vertical position of the vehicle in the current measurement cycle is estimated. The second estimating unit, when the vertical correction amount that is the vertical position correction amount among the correction amounts calculated by the correction calculation unit is equal to or less than a preset correction amount threshold, sets the predicted position as the comparison position; When the vertical correction amount is larger than the correction amount threshold value, the point where the vertical position of the predicted position is corrected by the vertical correction amount is set as a comparison position, and the road shape represented by the shape data at the comparison position acquired by the map acquisition unit. And, by alignment with the road shape indicated by the shape feature detected by the feature detection unit, at least one of a lateral position that is a position along the vehicle width direction and a vehicle direction that is the traveling direction of the vehicle. Make an estimate. The state estimating device sets the estimation results of the first estimating unit and the second estimating unit as the estimated state in the current observation cycle.

このような構成においては、縦補正量が補正量閾値よりも大きい場合には、補正された車両の縦位置における地図データの示す地物の位置及び光学センサにより取得された地物の位置の比較に基づいて車両の横位置及び車両方位を補正する。これにより、縦位置を補正した場合でも車両の横位置及び車両方位がずれることを抑制することができる。   In such a configuration, when the vertical correction amount is larger than the correction amount threshold, the position of the feature indicated by the map data in the corrected vertical position of the vehicle and the position of the feature obtained by the optical sensor are compared. The lateral position and the vehicle direction of the vehicle are corrected based on. Thus, even when the vertical position is corrected, it is possible to suppress the lateral position and the vehicle direction of the vehicle from shifting.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   It should be noted that reference numerals in parentheses described in this column and in the claims indicate a correspondence relationship with specific means described in the embodiment described below as one aspect, and the technical scope of the present disclosure will be described. It is not limited.

状態推定装置及び周辺機器の構成を示すブロック図である。It is a block diagram showing composition of a state estimating device and peripheral equipment. カメラ座標系を示す図である。FIG. 3 is a diagram illustrating a camera coordinate system. 画像座標系を示す図である。It is a figure showing an image coordinate system. ステレオカメラにより撮像された画像のイメージを表す図である。It is a figure showing the image of the image picturized by the stereo camera. 状態推定処理を示すフローチャートである。It is a flowchart which shows a state estimation process. 光学センサにより道路境界が検出できない状態を表した図である。It is a figure showing the state where a road boundary cannot be detected by an optical sensor. 中心位置検出処理を示すフローチャートである。It is a flowchart which shows a center position detection process. 光学センサによる地物の検出において画角から標識が外れ、補完が必要となる状態を表す図である。FIG. 9 is a diagram illustrating a state in which a sign is deviated from an angle of view in detection of a terrestrial object by an optical sensor and interpolation is required. 予測位置における対応付けの方法の概要を表す図である。It is a figure showing the outline of the method of associating in a prediction position. 比較位置における再対応付けの方法の概要を表す図である。It is a figure showing the outline of the re-association method in a comparison position. 変形例における光学センサにより撮像された画像の例を表す図である。FIG. 14 is a diagram illustrating an example of an image captured by an optical sensor according to a modification.

以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1−1.構成]
本実施形態の運転支援システム2は車両に搭載され、図1に示すように状態推定装置1を備える。運転支援システム2は、更に、GNSS受信機3、地図メモリ4、光学センサ5、状態量センサ6及び制御装置7を備えてもよい。以下、状態推定装置1を搭載する車両を自車とする。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The driving support system 2 of the present embodiment is mounted on a vehicle and includes a state estimating device 1 as shown in FIG. The driving support system 2 may further include a GNSS receiver 3, a map memory 4, an optical sensor 5, a state quantity sensor 6, and a control device 7. Hereinafter, a vehicle equipped with the state estimation device 1 is referred to as a host vehicle.

GNSS受信機3は、GNSS用の人工衛星からの送信電波を、アンテナを介して受信する装置である。GNSS受信機3は、自車の絶対位置を測定し、測定した絶対位置を位置データとして状態推定装置1に出力する。   The GNSS receiver 3 is a device that receives a transmission radio wave from a GNSS artificial satellite via an antenna. The GNSS receiver 3 measures the absolute position of the own vehicle and outputs the measured absolute position to the state estimating device 1 as position data.

地図メモリ4は、通常のナビゲーションに使用するための自車の走行可能な道路の地図データを記憶している。当該地図データには地物を表す地物データ及び道路形状を表す形状データが含まれる。ここでいう地物データは、車両の走行可能な道路に沿って設置されている道路標識を表す標識データを含む。標識データは、当該道路標識の地図上の位置、標識の種類、自車が走行している道路に対する標識の高さ、標識の大きさ及び標識に表示されている文字、標識を支える支柱のデータを含む。形状データは、自車の走行中の道路の境界又は車線の境界を示す境界表示の位置のデータである境界データを含む。   The map memory 4 stores map data of a road on which the vehicle can travel for use in normal navigation. The map data includes feature data representing a feature and shape data representing a road shape. Here, the feature data includes sign data representing a road sign installed along a road on which the vehicle can travel. The sign data includes the location of the road sign on the map, the type of sign, the height of the sign with respect to the road on which the vehicle is traveling, the sign size, the characters displayed on the sign, and the data of the pillars supporting the sign. including. The shape data includes boundary data that is data of a position of a boundary display indicating a boundary of a road on which the own vehicle is traveling or a boundary of a lane.

光学センサ5は、自車の前方の地物を含む画像を取得する。ここでいう地物には、自車の前方の道路標識などの位置地物と、道路の境界及び車線の境界などの形状地物とが含まれる。光学センサ5は、自車の前方の地物を表す画像を状態推定装置1に出力する。本実施形態においては、光学センサ5は、水平な同一線上に備えられ、光軸が平行となるように配置された一対のカメラであるステレオカメラである。なお、当該ステレオカメラを構成する一対のカメラの焦点距離は同一であるとする。以下、図2に示すように自車のステレオカメラの設置された位置を基準とした実空間の座標系をカメラ座標系とし、そのカメラ座標系における座標を(Xc,Yc,Zc)で表す。ここで、Xcはステレオカメラが撮像する水平方向の座標を表し、Ycはステレオカメラが撮像する鉛直方向の座標を表し、Zcはステレオカメラが撮像する光軸方向の座標を表す。ここで、Xcは、ステレオカメラの光軸方向を向いた際に左方向に行くほど座標の値は増加し、Ycは、上方向に行くほど座標の値は増加する。これに対して、撮像された画像における座標系を図3に示すように画像座標系とし、その画像座標系における座標を(u,v)で表す。また、画像中心を(cu,cv)とする。ここで、uは撮像される画像の水平方向における座標を表し、撮像された画像の右方向に行くほど座標の値は増加する。vは撮像される画像の鉛直方向における座標を表し、撮像される画像の下方向に行くほど座標の値は増加する。また、ステレオカメラにより図4に示すような画像を取得することができる。   The optical sensor 5 acquires an image including a feature in front of the own vehicle. The feature here includes a location feature such as a road sign ahead of the own vehicle and a shape feature such as a road boundary and a lane boundary. The optical sensor 5 outputs an image representing a feature in front of the own vehicle to the state estimation device 1. In the present embodiment, the optical sensor 5 is a stereo camera which is a pair of cameras provided on the same horizontal line and arranged so that their optical axes are parallel. It is assumed that the pair of cameras constituting the stereo camera have the same focal length. Hereinafter, as shown in FIG. 2, the coordinate system in the real space based on the position where the stereo camera of the vehicle is installed is referred to as a camera coordinate system, and the coordinates in the camera coordinate system are represented by (Xc, Yc, Zc). Here, Xc represents the horizontal coordinates captured by the stereo camera, Yc represents the vertical coordinates captured by the stereo camera, and Zc represents the optical axis direction captured by the stereo camera. Here, when Xc is oriented in the optical axis direction of the stereo camera, the coordinate value increases as going to the left, and as for Yc, the coordinate value increases as going to the upper direction. On the other hand, the coordinate system in the captured image is an image coordinate system as shown in FIG. 3, and the coordinates in the image coordinate system are represented by (u, v). The image center is (cu, cv). Here, u represents the coordinates of the captured image in the horizontal direction, and the coordinate value increases toward the right of the captured image. v represents the coordinates in the vertical direction of the captured image, and the value of the coordinates increases toward the lower side of the captured image. Further, an image as shown in FIG. 4 can be acquired by a stereo camera.

状態量センサ6は、自車の車速及びヨーレートなどの自車の状態を検出する。状態量センサ6は、検出した自車の状態を表す自車状態量をECUに出力する。ここでいう自車状態量とは、自車の速度及び加速度を含み、状態量センサ6は、具体的には、速度センサ及び加速度センサである。   The state quantity sensor 6 detects the state of the own vehicle such as the vehicle speed and the yaw rate of the own vehicle. The state quantity sensor 6 outputs a detected vehicle state quantity representing the detected state of the vehicle to the ECU. The state quantity of the own vehicle includes the speed and acceleration of the own vehicle, and the state quantity sensor 6 is, specifically, a speed sensor and an acceleration sensor.

制御装置7は、状態推定装置1からの入力に応じて自車のアクセル、ブレーキ及びステアリングの制御を行うことにより自動運転や運転支援などの機能を実現する装置である。
状態推定装置1は入力される地図データ、画像及び自車状態量により、自車の位置を推定し、推定された自車の位置及び当該自車の位置における道路の形状を制御装置7に出力する。
The control device 7 is a device that realizes functions such as automatic driving and driving support by controlling the accelerator, brake, and steering of the own vehicle according to the input from the state estimation device 1.
The state estimation device 1 estimates the position of the own vehicle based on the input map data, the image, and the amount of the own vehicle state, and outputs the estimated position of the own vehicle and the shape of the road at the position of the own vehicle to the control device 7. I do.

状態推定装置1は、ECUであり、CPU11と、RAM、ROM、フラッシュメモリ等の半導体メモリであるメモリ12と、を有する周知のマイクロコンピュータを中心に構成される。なお、ここでいうECUは自車の電子制御装置である。状態推定装置1の各種機能は、ECUのCPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ12が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、状態推定装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。   The state estimating apparatus 1 is an ECU, and is mainly configured by a known microcomputer including a CPU 11 and a memory 12 that is a semiconductor memory such as a RAM, a ROM, and a flash memory. Here, the ECU is an electronic control unit of the own vehicle. Various functions of the state estimation device 1 are realized by the CPU 11 of the ECU executing a program stored in a non-transitional substantial recording medium. In this example, the memory 12 corresponds to a non-transitional substantial recording medium storing a program. When this program is executed, a method corresponding to the program is executed. Note that the number of microcomputers constituting the state estimation device 1 may be one or more.

状態推定装置1の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つ又は複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。   The technique for realizing the various functions of the state estimation device 1 is not limited to software, and some or all of the elements may be realized using one or a plurality of hardware. For example, when the above functions are implemented by electronic circuits that are hardware, the electronic circuits may be implemented by digital circuits including a large number of logic circuits, analog circuits, or a combination thereof.

[1−2.処理]
次に、状態推定装置1が一定周期で実行する状態推定処理について、図5のフローチャートを用いて説明する。なお、状態推定処理を開始する前に、状態推定装置1は自車の位置及び車両方位の初期化を行う。すなわちGNSS受信機3から取得する位置情報を自車の位置として設定する。
[1-2. processing]
Next, a state estimating process executed by the state estimating apparatus 1 at a constant cycle will be described with reference to a flowchart of FIG. Before starting the state estimation process, the state estimation device 1 initializes the position of the own vehicle and the vehicle direction. That is, the position information acquired from the GNSS receiver 3 is set as the position of the own vehicle.

S110で状態推定装置1は、前回の推定結果及び状態量センサ6から取得した自車の速度及び加速度に基づいて今回の処理サイクルでの自車の位置及び車両方位を予測し、当該予測された状態を予測状態として生成する。この場合において、前回の推定結果とは、前回の処理サイクルにおける後述するS170で補正された縦位置のデータ、S240で補正された横位置のデータ及びS250で補正された車両方位のデータのことである。また、最初の処理サイクルの場合には初期化された値に基づいて今回の処理サイクルにおける自車の位置及び車両方位が予測される。なお、自車の位置及び車両方位の予測方法は公知の技術であり、詳細な説明は省略する。   In S110, the state estimation device 1 predicts the position and the vehicle direction of the own vehicle in the current processing cycle based on the previous estimation result and the speed and acceleration of the own vehicle acquired from the state quantity sensor 6, and the prediction is performed. Generate states as predicted states. In this case, the previous estimation result is the vertical position data corrected in S170, the horizontal position data corrected in S240, and the vehicle orientation data corrected in S250 in the previous processing cycle. is there. Further, in the case of the first processing cycle, the position and the azimuth of the own vehicle in the current processing cycle are predicted based on the initialized values. The method of estimating the position and the direction of the vehicle is a known technique, and a detailed description thereof will be omitted.

S120で状態推定装置1は、S110で生成された予測状態に含まれる車両の位置である予測位置に従って、地図メモリ4から地図データを取得する。
S130で状態推定装置1は、光学センサ5により撮像された画像を光学センサ5から取得する。
In S120, the state estimation device 1 acquires map data from the map memory 4 according to the predicted position, which is the position of the vehicle included in the predicted state generated in S110.
In S130, the state estimation device 1 acquires an image captured by the optical sensor 5 from the optical sensor 5.

S140で状態推定装置1は、S130で取得した画像に含まれている地物を検出する。すなわち、光学センサ5により撮像された画像に対して、あらかじめメモリに記憶されている地物データの表す地物の形状パターンのパターンマッチングを行い、当該パターンマッチングにより検出した地物を検出地物とする。なお、ここでいうパターンマッチングは公知の技術であり、説明を省略する。   In S140, the state estimation device 1 detects a feature included in the image acquired in S130. That is, pattern matching of the shape pattern of the feature represented by the feature data stored in the memory in advance is performed on the image captured by the optical sensor 5, and the feature detected by the pattern matching is determined as the detected feature. I do. Note that the pattern matching here is a known technique, and a description thereof will be omitted.

S150で状態推定装置1は、検出地物の自車に対する縦位置を検出する。具体的には、検出地物の自車に対する縦位置は、光学センサ5であるステレオカメラによって同時に撮像された視差のある画像同士を比較することによって算出される。ここで、検出地物の自車に対する縦位置は、検出地物のステレオカメラにおける光軸方向の座標Zcで表される。座標Zcは、同時に撮像された視差のある画像それぞれに共通して写っている検出地物の横方向の位置の差である視差をd、一対のカメラ同士の距離である基線距離をb、一対のカメラそれぞれの焦点距離をfuとして(1)式で表される。当該式において、一対のカメラ同士の距離b及び焦点距離fuは設計時に決まる既知の値であるので、視差dから、検出地物と自車との距離がZcで表される。   In S150, the state estimation device 1 detects the vertical position of the detected feature with respect to the own vehicle. Specifically, the vertical position of the detected feature with respect to the own vehicle is calculated by comparing images having parallax captured simultaneously by the stereo camera as the optical sensor 5. Here, the vertical position of the detected feature with respect to the own vehicle is represented by the coordinate Zc of the detected feature in the optical axis direction of the stereo camera. Coordinates Zc are d, the parallax, which is the difference in the horizontal position of the detected feature, which is commonly captured in each of the parallax images captured at the same time, b, the base line distance, which is the distance between a pair of cameras, and The focal length of each camera is expressed as fu, and is expressed by equation (1). In this formula, the distance b between the pair of cameras and the focal length fu are known values determined at the time of design, so the distance between the detected feature and the host vehicle is represented by Zc from the parallax d.

Figure 0006645936
S160で状態推定装置1は、地物の対応付けを行う。具体的には、車両が予測位置に存在するものとして、検出地物に含まれる検出標識及び検出境界と地物データに含まれる標識データ及び形状データに含まれる境界データとの位置関係の比較を行う。比較により導出される車両との相対的な位置関係によって、検出標識及び検出境界それぞれが同一物に該当すると推定される標識データ及び境界データの示す標識及び境界を特定することで対応付けを行う。
Figure 0006645936
In S160, the state estimation device 1 associates a feature. Specifically, assuming that the vehicle exists at the predicted position, a comparison of the positional relationship between the detection sign and the detection boundary included in the detected feature and the boundary data included in the marker data and shape data included in the feature data is performed. Do. Based on the relative positional relationship with the vehicle derived from the comparison, the sign and the boundary indicated by the sign data and the boundary data that are assumed to correspond to the same object as the detected sign and the detected boundary are associated with each other.

S170で状態推定装置1は、縦位置の補正を行う。具体的には、自車の進行方向に沿った位置を縦位置として、S120で取得した地図データから特定される予測位置に対する検出標識の縦位置とS150で状態推定装置1により測定された検出標識の縦位置との差分を縦補正量として算出する。状態推定装置1は、当該縦補正量だけ予測位置の表す縦位置を補正し、比較位置として設定する。   In S170, the state estimation device 1 corrects the vertical position. Specifically, the position along the traveling direction of the own vehicle is defined as a vertical position, and the vertical position of the detection marker with respect to the predicted position specified from the map data acquired in S120 and the detection marker measured by the state estimation device 1 in S150. Is calculated as the vertical correction amount. The state estimation device 1 corrects the vertical position represented by the predicted position by the vertical correction amount and sets the corrected vertical position as the comparison position.

S180で状態推定装置1は、中心位置検出処理を行うことにより、検出標識の中心位置である標識中心位置を検出する。中心位置検出処理の詳細は後述する。
S190で状態推定装置1は、S180における中心位置検出処理の結果、検出不適状態であるか否かを判定する。検出不適状態であると判定された場合、S200で状態推定装置は道路境界の推定に用いることができる形状地物がS140で検出されているか否かを判定する。S200で、道路境界の推定に用いることができる形状地物が検出されていると判定された場合には、処理を終了する。すなわち、横位置及び車両方位の補正を行わず、処理を終了する。S200で、道路境界の推定に用いることができる形状地物が検出されていないと判定された場合には、S210以降の処理を行う。ここでいう、検出地物として、道路境界の推定に用いることができる形状地物が検出されない状態の例を図6に示す。すなわち、当該検出されない状態の例としては、光学センサの検出範囲は2本の実線R1の内側であるとすると、点線で示したR2のように、走行している車両などにより検出範囲が遮られる場合がある。このような場合が、形状地物である道路境界Bが検出されない場合の例として挙げられる。
In S180, the state estimation device 1 detects the marker center position, which is the center position of the detected marker, by performing the center position detection process. Details of the center position detection processing will be described later.
In S190, the state estimating apparatus 1 determines whether or not the detection is in an inappropriate state as a result of the center position detection processing in S180. If it is determined that the state is inappropriate for detection, the state estimation device determines in S200 whether or not a shape feature that can be used for estimating the road boundary is detected in S140. In S200, when it is determined that a shape feature that can be used for estimating a road boundary is detected, the process ends. That is, the process ends without correcting the lateral position and the vehicle direction. In S200, if it is determined that a shaped feature that can be used for estimating the road boundary has not been detected, the process from S210 is performed. FIG. 6 shows an example of a state in which a shape feature that can be used for estimating a road boundary is not detected as the detected feature. That is, as an example of the state in which the detection is not performed, assuming that the detection range of the optical sensor is inside the two solid lines R1, the detection range is blocked by a running vehicle as indicated by R2 indicated by a dotted line. There are cases. Such a case is exemplified as a case where the road boundary B which is a shaped feature is not detected.

S210で、S170で算出した縦補正量があらかじめ決められた閾値以上であるか否かを判定する。
S210で状態推定装置1がS170で算出された縦補正量があらかじめ決められた閾値より大きいと判定した場合には、S220で状態推定装置1は、地図データの再取得を行う。すなわち、状態推定装置1は、S170で設定された比較位置での、標識データ及び境界データを含む地図データを取得する。
In S210, it is determined whether or not the vertical correction amount calculated in S170 is equal to or greater than a predetermined threshold.
If the state estimation device 1 determines in S210 that the vertical correction amount calculated in S170 is larger than the predetermined threshold, the state estimation device 1 reacquires map data in S220. That is, the state estimation device 1 acquires the map data including the sign data and the boundary data at the comparison position set in S170.

S230で、状態推定装置1は、地物の再対応付けを行う。具体的には、S160と同様の処理であるが、車両がS170で設定された比較位置に存在するものとして、位置関係の比較を行う点で相違する。   In S230, the state estimation device 1 re-associates the feature. Specifically, the process is the same as that in S160, except that the vehicle is present at the comparison position set in S170 and the positional relationship is compared.

S210で状態推定装置1がS170で補正した縦補正量があらかじめ決められた閾値よりも小さいと判定された場合には、状態推定装置1は、S220及びS230の処理を省略し、S240以降の処理を行う。   If it is determined in S210 that the vertical correction amount corrected by the state estimating device 1 in S170 is smaller than a predetermined threshold, the state estimating device 1 omits the processes of S220 and S230, and performs the processes of S240 and thereafter. I do.

S240で状態推定装置1は、横位置の補正を行う。具体的には以下のように行う。検出標識に対応する標識データが表す検出標識の比較位置又は予測位置に対する横位置を予測横位置とし、S130で取得した画像に基づいて求められる検出標識の自車に対する横位置を検出横位置とする。予測横位置と検出横位置とを比較することにより行われる。ここでいう、検出標識に対応する標識データとは、S160で対応付けがなされた検出標識又はS230で再対応付けがなされた検出標識に対応する標識データのことである。画像に基づいた横位置は以下のように求められる。すなわち、検出標識の自車に対する横位置Xcは、検出標識のステレオカメラにおける光軸方向の座標Zc、検出標識の画像上の座標u、画像中心の横方向の座標cu及びステレオカメラの焦点距離fuから(2)式を用いて求められる。   In S240, the state estimation device 1 corrects the horizontal position. Specifically, this is performed as follows. The lateral position of the detected sign represented by the sign data corresponding to the detected sign with respect to the comparison position or the predicted position is defined as the predicted lateral position, and the lateral position of the detected sign determined based on the image acquired in S130 relative to the own vehicle is defined as the detected lateral position. . This is performed by comparing the predicted lateral position with the detected lateral position. Here, the label data corresponding to the detection marker is the label data corresponding to the detection marker associated in S160 or the detection marker reassociated in S230. The horizontal position based on the image is obtained as follows. That is, the lateral position Xc of the detection marker with respect to the own vehicle is the coordinate Zc of the detection marker in the optical axis direction in the stereo camera, the coordinate u on the image of the detection marker, the horizontal coordinate cu of the image center, and the focal length fu of the stereo camera. From Equation (2).

Figure 0006645936
予測横位置と検出横位置との差分を車両の横補正量とする。状態推定装置1は、当該横補正量だけ比較位置又は予測位置の横位置を車両の横方向にシフトさせることにより、横位置を補正する。
Figure 0006645936
The difference between the predicted lateral position and the detected lateral position is defined as the lateral correction amount of the vehicle. The state estimating device 1 corrects the lateral position by shifting the lateral position of the comparison position or the predicted position in the lateral direction of the vehicle by the lateral correction amount.

S250で状態推定装置1は車両方位の補正を行う。すなわち、車両方位の補正は以下のように行われる。比較位置又は予測位置において、光学センサが撮像する自車の周辺の境界表示の仮想的な画像を境界データに基づいて推定する。当該仮想的な画像における道路の境界と実際の光学センサにより撮像される画像における道路の境界との比較を行い、それぞれの道路の境界が一致するように、車両方位を補正する。車両方位の補正方法については、公知の技術であり、説明を省略する。   In S250, the state estimation device 1 corrects the vehicle direction. That is, the correction of the vehicle direction is performed as follows. At the comparison position or the predicted position, a virtual image of a boundary display around the own vehicle captured by the optical sensor is estimated based on the boundary data. A comparison is made between the boundary of the road in the virtual image and the boundary of the road in the image captured by the actual optical sensor, and the direction of the vehicle is corrected so that the boundary of each road matches. The method of correcting the vehicle direction is a known technique, and a description thereof will be omitted.

なお、S110が状態予測部、S120が地図取得部、S140及びS200が地物検出部、S150が関係検出部、S160及びS230が対応付け部、S170が第1補正部、S180が中心検出部、S210が補正算出部、S240及びS250が第2補正部による処理に相当する。また、地物検出部のうち、標識を検出するものが標識検出部、境界を検出するものが境界検出部に相当する。
<中心位置検出処理>
状態推定装置1が行う中心位置検出処理を図7に示す。
S110 is a state prediction unit, S120 is a map acquisition unit, S140 and S200 are feature detection units, S150 is a relationship detection unit, S160 and S230 are association units, S170 is a first correction unit, S180 is a center detection unit, S210 corresponds to the correction calculation unit, and S240 and S250 correspond to the processing by the second correction unit. Further, among the feature detection units, the one that detects the sign corresponds to the sign detection unit, and the one that detects the boundary corresponds to the boundary detection unit.
<Center position detection processing>
FIG. 7 shows the center position detection process performed by the state estimation device 1.

S310で状態推定装置1は、S130で取得した画像を取得する。
S320で状態推定装置1は、S140で取得した検出地物の取得を行う。
S330で状態推定装置1は、検出標識の左右両側に欠損があるか否かを判定する。なお、ここでいう欠損とは、図8に示すような画像の一部が光学センサにより正しく認識されなかったものをいう。ここでは、光学センサによる地物の検出において画角から標識が外れ、補完が必要となる状態を例として挙げる。欠損はこれに限定されるものではなく、汚れや検出する環境などの要因により光学センサにより地物の検出が適切にされなかった場合をいう。欠損の方法は、具体的には、状態推定装置1は検出標識の横幅と、標識データの示す横幅とを比較することにより行われる。比較の結果、それぞれの横幅の差分があらかじめ決められた閾値である横幅閾値以下である場合には、状態推定装置1は検出標識の横側に欠損が無いと判定する。
In S310, the state estimation device 1 acquires the image acquired in S130.
In S320, the state estimation device 1 acquires the detected feature acquired in S140.
In S330, the state estimation device 1 determines whether there is a defect on both the left and right sides of the detection sign. Here, the defect means that a part of the image as shown in FIG. 8 is not correctly recognized by the optical sensor. Here, a state in which a sign is deviated from the angle of view in the detection of a terrestrial object by the optical sensor and complementation is required is described as an example. The loss is not limited to this, but refers to a case where the optical sensor does not properly detect a terrestrial object due to factors such as dirt and an environment to be detected. Specifically, the loss method is performed by the state estimation device 1 comparing the width of the detected sign with the width indicated by the sign data. As a result of the comparison, when the difference between the respective widths is equal to or smaller than the predetermined width threshold, the state estimation device 1 determines that there is no loss on the side of the detection sign.

S330で状態推定装置1により欠損が無いと判定した場合、S340で、検出標識の横幅の中点を標識中心位置として確定し、処理を終了する。
S330で状態推定装置1は、欠損があると判定した場合、S350で当該欠損が検出標識の片側のみに存在するか否かを判定する。具体的には、状態推定装置1は検出された検出標識の画像と標識データの示す検出標識の画像との比較を行う。
If the state estimation device 1 determines in S330 that there is no loss, in S340, the midpoint of the width of the detected sign is determined as the sign center position, and the process ends.
If the state estimation device 1 determines in S330 that there is a loss, it determines in S350 whether the loss exists only on one side of the detection sign. Specifically, the state estimation device 1 compares the detected image of the detected sign with the image of the detected sign indicated by the sign data.

S350で状態推定装置1が当該画像の比較により検出標識の片側のみに欠損が存在すると判定した場合には、状態推定装置1は標識データの示す標識の輪郭形状を表す画像から、S360で欠損部分の補完を行う。すなわち、標識データには欠損の無い状態の検出標識が含まれているので、状態推定装置1は欠損がある標識に標識データを重ね合わせることで欠損を補完し、S370で状態推定装置1は、補完された検出標識の横幅の中点を標識中心位置として確定する。   If the state estimating apparatus 1 determines in S350 that there is a defect on only one side of the detected sign by comparing the images, the state estimating apparatus 1 uses the image representing the contour shape of the sign indicated by the sign data to determine in S360 the missing portion. Complement of. That is, since the sign data includes the detection sign of the state without loss, the state estimation device 1 complements the loss by superimposing the sign data on the mark with the loss, and the state estimation device 1 in S370, The midpoint of the width of the complemented detection marker is determined as the marker center position.

S350で状態推定装置1が当該画像の比較により検出標識の両側に欠損が存在すると判定した場合には、S380で、状態推定装置1は、検出標識の支柱が検出されるか否かを判定する。ここでいう支柱とは、検出標識を支える柱のことであり、検出標識の横方向の中心に位置する。すなわち、状態推定装置1は、検出標識の支柱と、標識データの示す支柱との比較を行う。当該比較により標識データの示す支柱が検出された場合、すなわちS380で状態推定装置1により検出標識の支柱が検出された場合には、S390で状態推定装置1は、支柱の位置を標識中心位置として確定し、処理を終了する。   If the state estimation device 1 determines in S350 that there is a defect on both sides of the detection sign by comparing the images, the state estimation device 1 determines in S380 whether the support of the detection sign is detected. . The support | pillar here is a support | pillar which supports a detection sign, and is located in the center of the horizontal direction of a detection sign. That is, the state estimation device 1 compares the support of the detection sign with the support indicated by the sign data. When the strut indicated by the sign data is detected by the comparison, that is, when the strut of the detection sign is detected by the state estimating device 1 in S380, the state estimating device 1 determines the position of the strut as the sign center position in S390. Confirm and end the process.

S380で状態推定装置1により検出標識の支柱が検出されたと判定されなかった場合には、S400で検出不適状態であると判定し、S410で欠損の有無にかかわらず、検出標識の横幅の中点を標識中心位置として確定し処理を終了する。   If it is not determined in S380 that the support of the detection sign has been detected by the state estimation device 1, it is determined in S400 that the detection is inappropriate, and in S410 the middle point of the width of the detection sign is determined regardless of the presence or absence of the defect. Is determined as the marker center position, and the process ends.

[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)本実施形態の状態推定装置によれば、縦位置の補正量である縦補正量が大きい場合、補正された自車の縦位置に基づいて自車の横位置及び車両方位を補正することにより、縦位置を補正した場合でも自車の横位置及び車両方位がずれることを抑制することができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) According to the state estimation device of the present embodiment, when the vertical correction amount that is the vertical position correction amount is large, the horizontal position and the vehicle direction of the own vehicle are corrected based on the corrected vertical position of the own vehicle. Thus, even when the vertical position is corrected, it is possible to suppress the lateral position and the vehicle direction of the own vehicle from shifting.

すなわち、図9に示すように、補正前の自車の位置Pにおいて、地物M1を検出したとする。地物M1に相当する地物データD1が地図データに存在した場合、自車と地物M1との相対的な位置関係を維持したまま、検出された地物M1に対応する地物データD1を重ね合わせるように補正することにより縦位置の補正を行う。当該補正により自車の位置が位置Qに補正されたとする。ここで、縦補正量が小さい場合には、補正前の地物データD2に基づいて、自車の横位置及び車両の補正を行う。このようにすることによりデータの再取得にかかる時間を削減することができる。また、データの再取得にかかる処理負荷の低減を図ることができる。一方、縦補正量が大きい場合、図10に示すように、前述と同様の縦位置の補正を行った後、自車が位置Qに存在するものとして地物データの再取得を行い、得られた地物データD3との対応付けを行い、自車の横位置及び車両方位の補正を行う。縦補正量が大きい場合には、補正前の位置Pと補正後の位置Qとの自車の横位置及び車両方位のずれが大きいことが予測されるため、データの再取得及び対応付けを行うことでより、自車の状態推定の予測精度を向上させることができる。   That is, as shown in FIG. 9, it is assumed that the feature M1 is detected at the position P of the own vehicle before the correction. When the feature data D1 corresponding to the feature M1 exists in the map data, the feature data D1 corresponding to the detected feature M1 is changed while maintaining the relative positional relationship between the vehicle and the feature M1. The vertical position is corrected by performing correction so as to overlap. It is assumed that the position of the own vehicle is corrected to the position Q by the correction. Here, when the vertical correction amount is small, the horizontal position of the own vehicle and the vehicle are corrected based on the feature data D2 before correction. By doing so, the time required for reacquisition of data can be reduced. Further, the processing load required for reacquisition of data can be reduced. On the other hand, when the vertical correction amount is large, as shown in FIG. 10, after performing the same vertical position correction as described above, it is assumed that the own vehicle is at the position Q and re-acquisition of the feature data is performed. The horizontal position and the vehicle direction of the own vehicle are corrected by associating with the feature data D3. If the vertical correction amount is large, it is predicted that the deviation of the lateral position and the vehicle azimuth of the own vehicle between the position P before correction and the position Q after correction is large, so that the data is reacquired and associated. Thereby, the prediction accuracy of the state estimation of the own vehicle can be improved.

(1b)本実施形態の状態推定装置によれば、検出不適状態の場合に、道路の境界が検出されるか否かによって検出された検出中心位置を用いて横位置及び車両方位の補正を行うか、当該補正を行わず処理を終了するかを切り替える。これにより、道路の境界が検出できない状態においては、標識中心位置に基づいて自車の位置を補正することができる。一方で、道路の境界が検出できる状態においては、標識中心位置に基づいた自車の位置の補正を行うことにより自車の位置が誤って補正されることを抑制することができる。よって、自車の位置の補正の精度を向上することができる。   (1b) According to the state estimating device of the present embodiment, when the detection is in an inappropriate state, the lateral position and the vehicle direction are corrected using the detected center position detected depending on whether or not the road boundary is detected. Or whether to end the process without performing the correction. Accordingly, in a state where the road boundary cannot be detected, the position of the own vehicle can be corrected based on the sign center position. On the other hand, in a state where the boundary of the road can be detected, by correcting the position of the own vehicle based on the center position of the sign, erroneous correction of the position of the own vehicle can be suppressed. Therefore, the accuracy of correcting the position of the own vehicle can be improved.

(1c)本実施形態の状態推定装置によれば、取得された画像において、検出された標識の標識中心位置の比較を行うことで、補正の元となる画像が正確に取れたか否かを判定する。判定に応じて、補正を行うか否かを変更することにより、状態推定の精度を向上させる。   (1c) According to the state estimating device of the present embodiment, by comparing the center positions of the detected signs in the acquired images, it is determined whether or not the image to be corrected is accurately obtained. I do. By changing whether or not to perform correction in accordance with the determination, the accuracy of state estimation is improved.

[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above embodiments, and can be implemented with various modifications.

(2a)上記実施形態では光学センサ5はステレオカメラであるが、上記実施形態では、光学センサ5はステレオカメラであるが、光学センサ5の形態はこれに限定されるものではない。例えば、レーザレーダであるとしてもよく、単眼カメラであるとしてもよい。光学センサ5としてレーザレーダを用いた場合、レーザレーダがレーザを出射してから当該レーザを受光するまでの時間により自車と標識との距離を測定してもよい。また、この場合、上記実施形態で撮像された画像の代わりに距離が測定された点の集合である測距点群に基づいて各地物と車両との距離を求めてもよい。   (2a) In the above embodiment, the optical sensor 5 is a stereo camera. In the above embodiment, the optical sensor 5 is a stereo camera. However, the form of the optical sensor 5 is not limited to this. For example, it may be a laser radar or a monocular camera. When a laser radar is used as the optical sensor 5, the distance between the vehicle and the sign may be measured based on the time from when the laser radar emits laser to when the laser radar receives the laser. In this case, the distance between each feature and the vehicle may be obtained based on a ranging point group, which is a set of points whose distance has been measured, instead of the image captured in the above embodiment.

(2b)また、上記実施形態では、ステレオカメラを用いた三角測量により、自車と地物との距離を測定したが、自車と地物との距離の測定方法はこれに限定されるものではない。例えば地物データに含まれる標識データは、地物の高さを表す地物高さデータ又は地物のサイズを表す地物サイズデータを含むとしてもよい。これにより、状態推定装置1は地物高さデータ又は地物サイズデータと、図11に示す光学センサ5により撮像された画像における検出地物の高さH又は地物のサイズSとを比較することで、自車と地物との距離を測定してもよい。なお、図11では、道路脇に存在する標識を検出地物としているが検出地物の種類は、これに限定されるものではない。ガードレールなどの高さH、サイズSがあらかじめ地物高さデータ及び地物サイズデータとして、記憶されているものであればよい。この場合において、地物の高さHに基づいて距離を測定する場合には、逆光の場合や、取得した画像の地物部分の輝度が飽和している場合、模様が無い場合など地物のサイズSが正確に測定できない場合にも自車と地物との距離を測定することができる。また、地物のサイズSに基づいて距離を測定する場合には、路面が急勾配などで車両と地物との相対的な高さHが正確に測定できない場合にも自車と地物との距離を測定することができる。また、これらの地物の高さHに基づいた距離の測定方法と地物のサイズSに基づいた距離の測定方法とを組み合わせて自車と地物との距離を測定しても良い。または車両の周辺状況に応じて、これらの距離の測定方法を選択するように構成されてもよい。具体的には、光学センサ5から取得した画像や、地図データに含まれる周辺環境や道路の形状の情報に基づいて、距離の測定方法を選択するように構成されてもよい。なお、当該距離の測定方法を選択する処理が選択部に相当し、状態推定処理のS150で行われるとしてもよい。   (2b) In the above embodiment, the distance between the vehicle and the feature is measured by triangulation using a stereo camera. However, the method for measuring the distance between the vehicle and the feature is not limited to this. is not. For example, the sign data included in the feature data may include feature height data indicating the height of the feature or feature size data indicating the size of the feature. Thereby, the state estimation device 1 compares the feature height data or feature size data with the detected feature height H or feature size S in the image captured by the optical sensor 5 shown in FIG. Thus, the distance between the vehicle and the feature may be measured. In FIG. 11, the sign existing on the side of the road is the detected feature, but the type of the detected feature is not limited to this. It is sufficient that the height H and the size S of the guardrail or the like are stored in advance as feature height data and feature size data. In this case, when the distance is measured based on the height H of the feature, the brightness of the feature portion of the acquired image is saturated, the brightness of the feature portion of the acquired image is high, or the feature of the feature is not present. Even when the size S cannot be measured accurately, the distance between the vehicle and the feature can be measured. Further, when measuring the distance based on the size S of the feature, even when the relative height H between the vehicle and the feature cannot be accurately measured due to a steep road surface or the like, the own vehicle and the feature cannot be measured. Distance can be measured. Further, the distance between the vehicle and the feature may be measured by combining the method for measuring the distance based on the height H of the feature and the method for measuring the distance based on the size S of the feature. Alternatively, a configuration may be adopted in which a method of measuring these distances is selected according to a situation around the vehicle. Specifically, it may be configured to select a distance measuring method based on information acquired from the optical sensor 5 and information on the surrounding environment and road shape included in the map data. The process of selecting the distance measurement method may correspond to the selection unit, and may be performed in S150 of the state estimation process.

(2c)上記実施形態では、自車との距離を測定する地物は標識であるとしたが、自車との距離を測定する地物はこれに限定されるものではない。例えば、信号機などでもよい。   (2c) In the above embodiment, the feature for measuring the distance to the own vehicle is a sign, but the feature for measuring the distance to the own vehicle is not limited to this. For example, a traffic light may be used.

(2d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。   (2d) A plurality of functions of one component in the above embodiment may be realized by a plurality of components, or one function of one component may be realized by a plurality of components. . Also, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of another above-described embodiment. Note that all aspects included in the technical idea specified by the language described in the claims are embodiments of the present disclosure.

(2e)上述した状態推定装置1の他、当該状態推定装置1を構成要素とするシステム、当該状態推定装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、状態推定方法など、種々の形態で本開示を実現することもできる。   (2e) In addition to the above-described state estimating apparatus 1, a system including the state estimating apparatus 1 as a component, a program for causing a computer to function as the state estimating apparatus 1, and a non-transitional device such as a semiconductor memory storing the program. The present disclosure can be realized in various forms, such as an actual recording medium and a state estimation method.

1…状態推定装置、2…自車、3…GNSS受信機、4…地図メモリ、5…光学センサ、6…状態量センサ、7…制御装置、11…CPU、12…メモリ。 REFERENCE SIGNS LIST 1 state estimation device 2 own vehicle 3 GNSS receiver 4 map memory 5 optical sensor 6 state quantity sensor 7 control device 11 CPU 12 memory

Claims (11)

車両に搭載され当該車両の位置及び進行方向を含む車両状態を、あらかじめ設定された周期を有する観測サイクルごとに繰り返し推定する状態推定装置(1)であって、
前回の観測サイクルで推定された前記車両状態である推定状態を用いて予測した、今回の観測サイクルでの前記車両状態である予測状態を生成するように構成された状態予測部(S110)と、
前記予測状態に含まれる前記車両の位置である予測位置に従って、前記予測位置の周辺に存在する地物を表す地物データ及び道路形状を表す形状データを含む地図データを取得するように構成された地図取得部(S120)と、
前記観測サイクルごとに、光学センサ(5)の検出結果から、前記地物データに少なくとも設置位置が登録されている地物である位置地物及び道路形状を規定する地物である形状地物を検出するように構成された地物検出部(S140、S200)と、
前記位置地物と前記車両との相対的な位置関係を検出するように構成された関係検出部(S150)と、
前記車両が前記予測位置に存在するものとして、前記関係検出部により検出された前記位置地物と前記車両との相対的な位置関係によって、同一物であると推定される前記位置地物と前記地物データとの対応付けを行うように構成された対応付け部(S160、S230)と、
前記車両に対する前記位置地物の相対位置と、前記予測位置に対する前記対応付け部により当該位置地物に対応づけられた前記地物データの表す位置の相対位置との差を補正量として算出するように構成された補正算出部(S210)と、
前記車両の進行方向に沿った位置を縦位置として、前記車両に対する前記位置地物の相対位置と、前記予測位置に対する前記対応付け部により当該位置地物に対応づけられた前記地物データの表す位置の相対位置との差を補正量として、当該補正量を用いて前記予測位置を補正することにより、今回の測定サイクルでの前記車両の少なくとも縦位置を推定するように構成された第1推定部(S170)と、
前記補正算出部により算出された補正量のうち、縦位置の補正量である縦補正量があらかじめ設定された補正量閾値以下である場合には、前記予測位置を比較位置とし、前記縦補正量が前記補正量閾値よりも大きい場合には、前記予測位置の縦位置を前記縦補正量で補正した地点を前記比較位置として、前記地図取得部にて取得された前記比較位置での前記形状データが表す道路形状と、前記地物検出部にて検出された形状地物が示す道路形状との位置合わせによって、前記車両の車幅方向に沿った位置である横位置及び前記車両の進行方向である車両方位の少なくとも一方の推定を行うように構成された第2推定部(S240、S250)と、
を備え、前記第1推定部及び前記第2推定部での推定結果を、今回の観測サイクルでの前記推定状態とする、状態推定装置。
A state estimating device (1) mounted on a vehicle and repeatedly estimating a vehicle state including a position and a traveling direction of the vehicle for each observation cycle having a preset cycle,
A state prediction unit (S110) configured to generate a predicted state that is the vehicle state in the current observation cycle, which is predicted using the estimated state that is the vehicle state estimated in the previous observation cycle;
According to a predicted position that is the position of the vehicle included in the predicted state, map data including feature data representing a feature existing around the predicted position and shape data representing a road shape is configured to be acquired. A map acquisition unit (S120);
For each of the observation cycles, based on the detection result of the optical sensor (5), a position feature that is a feature whose installation position is at least registered in the feature data and a shape feature that defines a road shape are extracted. A feature detection unit (S140, S200) configured to detect;
A relation detecting unit (S150) configured to detect a relative positional relation between the position feature and the vehicle;
Assuming that the vehicle exists at the predicted position, the relative position relationship between the position feature and the vehicle detected by the relationship detection unit, the position feature estimated to be the same thing and the An associating unit (S160, S230) configured to associate with the feature data;
A difference between a relative position of the position feature with respect to the vehicle and a relative position of a position represented by the feature data associated with the position feature by the association unit with respect to the predicted position is calculated as a correction amount. A correction calculation unit (S210) configured as
The position along the traveling direction of the vehicle is defined as a vertical position, and the relative position of the position feature with respect to the vehicle and the feature data associated with the position feature by the association unit with respect to the predicted position are represented. A first estimation configured to estimate at least the vertical position of the vehicle in the current measurement cycle by correcting the predicted position using the difference between the position and the relative position as a correction amount and using the correction amount. (S170),
When the vertical correction amount that is the vertical position correction amount among the correction amounts calculated by the correction calculation unit is equal to or less than a preset correction amount threshold value, the predicted position is set as a comparison position, and the vertical correction amount is set. Is larger than the correction amount threshold, when the vertical position of the predicted position is corrected by the vertical correction amount as the comparison position, the shape data at the comparison position acquired by the map acquisition unit By the alignment of the road shape represented by and the road shape indicated by the shape feature detected by the feature detection unit, a lateral position that is a position along the vehicle width direction of the vehicle and a traveling direction of the vehicle A second estimator (S240, S250) configured to estimate at least one of a certain vehicle direction;
A state estimating device comprising: the estimation result in the first estimation unit and the second estimation unit being the estimation state in the current observation cycle.
請求項1に記載の状態推定装置であって、
前記地物検出部は、前記位置地物として標識を検出するように構成された標識検出部(S140、S200)を更に備え、
前記関係検出部は、前記車両の車幅方向に沿った位置を横位置として、前記標識検出部により検出された前記標識の横位置の中心である標識中心位置を求める中心検出部(S180)を更に備え、当該中心検出部により検出された標識中心位置を、前記位置地物の横位置とする
状態推定装置。
The state estimation device according to claim 1,
The feature detection unit further includes a sign detection unit (S140, S200) configured to detect a sign as the location feature,
The relation detection unit sets a position along the vehicle width direction of the vehicle as a horizontal position and sets a center detection unit (S180) that determines a sign center position that is the center of the sign horizontal position detected by the sign detection unit. The state estimating apparatus further comprising a mark center position detected by the center detection unit as a lateral position of the position feature.
請求項2に記載の状態推定装置であって、
前記地物データには前記標識の横幅のデータが含まれ、
前記中心検出部は、前記標識検出部により検出された前記標識の横幅と、前記地物データに含まれる前記標識の横幅のデータとの差があらかじめ決められた横幅の閾値である横幅閾値以下であると判定された場合、前記位置地物の中心位置を前記標識中心位置として検出するように構成された、状態推定装置。
The state estimation device according to claim 2,
The feature data includes data of a width of the sign,
The center detection unit, the difference between the width of the sign detected by the sign detection unit and the data of the width of the sign included in the feature data is less than or equal to the width threshold that is a predetermined width threshold. A state estimating device configured to detect a center position of the position feature as the marker center position when it is determined that there is a position feature.
請求項2に記載の状態推定装置であって、
前記地物データは、前記標識の輪郭形状を表す画像が含まれ、
前記中心検出部は、前記標識検出部により検出された前記標識と前記画像との比較により、前記位置地物が欠損していると判定した場合には、当該画像に基づいて当該欠損している部分の補完を行い、前記標識中心位置を確定するように構成された、状態推定装置。
The state estimation device according to claim 2,
The feature data includes an image representing the contour shape of the sign,
When the center detection unit determines that the position feature is missing by comparing the sign detected by the sign detection unit and the image, the missing is based on the image. A state estimating device configured to complement a part and determine the marker center position.
請求項2に記載の状態推定装置であって、
前記中心検出部は、前記標識検出部により前記標識の支柱が認識された場合に、当該支柱を標識中心位置とするように構成された、状態推定装置。
The state estimation device according to claim 2,
The state estimation device, wherein the center detection unit is configured to set the support to be a marker center position when the support of the marker is recognized by the marker detection unit.
請求項2から請求項5までに記載の状態推定装置であって、
前記地物検出部は、前記形状地物として道路の境界及び車線の境界を示す境界表示を検出するように構成された境界検出部を更に備え、前記第2推定部は、前記標識検出部により前記標識が検出されなかった場合において、前記境界検出部により道路の境界が検出できる場合、前記車両の横位置の推定及び前記車両の進行方向の推定のうち、少なくとも一方の推定を禁止するように構成された、状態推定装置。
The state estimation device according to claim 2, wherein:
The feature detection unit further includes a boundary detection unit configured to detect a boundary display indicating a boundary of a road and a boundary of a lane as the shape feature, and the second estimation unit is configured by the sign detection unit In the case where the sign is not detected, if the boundary of the road can be detected by the boundary detection unit, at least one of the estimation of the lateral position of the vehicle and the estimation of the traveling direction of the vehicle is prohibited. A configured state estimation device.
請求項1から請求項6までのいずれか1項に記載の状態推定装置であって、
前記光学センサがステレオカメラである場合に、
前記関係検出部は、前記ステレオカメラを用いた三角測量により距離を測定するように構成された、状態推定装置。
The state estimation device according to any one of claims 1 to 6, wherein:
When the optical sensor is a stereo camera,
The state estimation device, wherein the relation detection unit is configured to measure a distance by triangulation using the stereo camera.
請求項1から請求項6までに記載の状態推定装置であって、
前記光学センサはレーザレーダである場合に、前記関係検出部は、レーザを出射してから当該レーザを受光するまでの時間により前記車両と前記標識との距離を測定するように構成された、状態推定装置。
The state estimation device according to claim 1, wherein:
A state where the optical sensor is a laser radar, wherein the relation detection unit is configured to measure a distance between the vehicle and the sign by a time from emitting a laser to receiving the laser; Estimation device.
請求項1から請求項6までのいずれか1項に記載の状態推定装置であって、
前記地図データは、さらに地物のサイズを表す地物サイズデータを備え、
前記関係検出部は、前記地図取得部により取得された前記地物サイズデータと前記標識検出部により検出された前記標識のサイズとの比較により前記車両と前記標識との距離を測定するように構成された、状態推定装置。
The state estimation device according to any one of claims 1 to 6, wherein:
The map data further includes feature size data representing a feature size,
The relationship detection unit is configured to measure a distance between the vehicle and the sign by comparing the feature size data acquired by the map acquisition unit with a size of the sign detected by the sign detection unit. , State estimation device.
請求項1から請求項6までのいずれか1項に記載の状態推定装置であって、
前記地図データは、さらに地物の設置されている高さを表す地物高さデータを備え、
前記関係検出部は、前記地物高さデータと前記光学センサにより測定された前記地物の高さとの比較により前記車両と前記地物との距離を測定するように構成された、状態推定装置。
The state estimation device according to any one of claims 1 to 6, wherein:
The map data further includes feature height data indicating a height at which the feature is installed,
A state estimating device configured to measure a distance between the vehicle and the feature by comparing the feature height data with a height of the feature measured by the optical sensor; .
請求項1から請求項7までのいずれか1項に記載の状態推定装置であって、
前記関係検出部は、互いに異なる方法で前記地物との距離を検出するように構成された複数の関係検出部と、
前記車両の周辺状況に応じて使用する前記関係検出部を選択するように構成された選択部(S150)と、を更に備える状態推定装置。
The state estimation device according to any one of claims 1 to 7, wherein:
The relationship detection unit, a plurality of relationship detection unit configured to detect the distance to the feature in a mutually different manner,
A selection unit (S150) configured to select the relationship detection unit to be used in accordance with a surrounding situation of the vehicle.
JP2016172034A 2016-09-02 2016-09-02 State estimation device Active JP6645936B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016172034A JP6645936B2 (en) 2016-09-02 2016-09-02 State estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016172034A JP6645936B2 (en) 2016-09-02 2016-09-02 State estimation device

Publications (2)

Publication Number Publication Date
JP2018036225A JP2018036225A (en) 2018-03-08
JP6645936B2 true JP6645936B2 (en) 2020-02-14

Family

ID=61567373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016172034A Active JP6645936B2 (en) 2016-09-02 2016-09-02 State estimation device

Country Status (1)

Country Link
JP (1) JP6645936B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215775A (en) * 2018-06-14 2019-12-19 本田技研工業株式会社 Moving entity assist system and moving entity assist method
US11015940B2 (en) * 2018-07-13 2021-05-25 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for longitudinal position correction of a vehicle using mapped landmarks
JP6916975B2 (en) * 2019-03-27 2021-08-11 株式会社日立国際電気 Sign positioning system and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3958133B2 (en) * 2002-07-12 2007-08-15 アルパイン株式会社 Vehicle position measuring apparatus and method
JP6441616B2 (en) * 2014-08-29 2018-12-19 株式会社ゼンリン Positioning device, driving support device, and control program
JP6368651B2 (en) * 2015-01-06 2018-08-01 株式会社日立製作所 Driving environment recognition system

Also Published As

Publication number Publication date
JP2018036225A (en) 2018-03-08

Similar Documents

Publication Publication Date Title
JP6741022B2 (en) Parking assistance method and device
JP4697101B2 (en) Vehicle detection device and light control device
US10030969B2 (en) Road curvature detection device
US9594966B2 (en) Obstacle detection device and obstacle detection method
US9697421B2 (en) Stereoscopic camera apparatus
US10435019B2 (en) Course prediction method and course prediction device
US11302020B2 (en) Stereo camera device
JP2018036067A (en) Own vehicle position recognition device
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
JP6645936B2 (en) State estimation device
US20170163960A1 (en) Disparity image generating device, disparity image generating method, and image
US11889047B2 (en) Image processing device and image processing method
JP2017138660A (en) Object detection method, object detection device and program
JP2018048949A (en) Object recognition device
US20150379334A1 (en) Object recognition apparatus
US9824449B2 (en) Object recognition and pedestrian alert apparatus for a vehicle
JP2013186718A (en) Mobile object position attitude estimation device and method
CN111989541B (en) Stereo camera device
JP2015210538A (en) Light source detector, headlight control system, and light source detection method
JP2023118759A (en) Measuring device, measuring method and program
JP6604052B2 (en) Runway boundary estimation device and runway boundary estimation method
JP2017112566A (en) Parameter identification device
JP7134780B2 (en) stereo camera device
KR102463449B1 (en) Method and apparatus for calculating vehicle width of vehicle of adjacent lane
JP6451544B2 (en) Road boundary detection device, self-position estimation device, and road boundary detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200109

R150 Certificate of patent or registration of utility model

Ref document number: 6645936

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250