JP6645936B2 - State estimation device - Google Patents
State estimation device Download PDFInfo
- Publication number
- JP6645936B2 JP6645936B2 JP2016172034A JP2016172034A JP6645936B2 JP 6645936 B2 JP6645936 B2 JP 6645936B2 JP 2016172034 A JP2016172034 A JP 2016172034A JP 2016172034 A JP2016172034 A JP 2016172034A JP 6645936 B2 JP6645936 B2 JP 6645936B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- vehicle
- state
- detection unit
- sign
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 76
- 238000012937 correction Methods 0.000 claims description 53
- 230000003287 optical effect Effects 0.000 claims description 35
- 239000003550 marker Substances 0.000 claims description 13
- 230000000295 complement effect Effects 0.000 claims description 2
- 238000009434 installation Methods 0.000 claims description 2
- 238000005259 measurement Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000007547 defect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
本開示は、車両に搭載され、当該車両の位置を推定する状態推定装置に関する。 The present disclosure relates to a state estimation device mounted on a vehicle and estimating a position of the vehicle.
車両の運転者が行う運転操作の少なくとも一部を車両が支援する運転支援や自動運転において、車両の走行している走路を認識する走路認識に関する技術が知られている。
例えば、特許文献1には、以下のような技術が開示されている。すなわち、あらかじめ設定された観測サイクルごとに車載カメラによって検出される標識や白線などの地物を検出地物として検出する。前回の観測サイクルで推定された、推定位置や速度ベクトルなどの自車両の状態から今回の観測サイクルでの自車両の位置を予測し、予測位置とする。自車両の予測位置に基づき、地図データベースに登録され、検出地物と同一であると推定される地物である地物データを検出地物に対応づける。自車両の予測位置に対する、対応づけられた検出地物及び地物データの両地物の相対的な位置関係が互いに一致するように予測位置を補正することにより、今回の観測サイクルでの自車両の位置及び方位を推定する。
2. Description of the Related Art In driving assistance and automatic driving in which a vehicle assists at least a part of a driving operation performed by a driver of a vehicle, there is known a technology related to a lane recognition that recognizes a lane on which the vehicle is traveling.
For example,
しかしながら、特許文献1に記載の装置では、自車両の実際の位置、特に自車両の進行方向に沿った縦位置と予測位置とが大きく異なっている場合、白線等から特定される道路形状により、関係検出部により検出された位置地物と車両との相対的な位置関係と当該位置地物に対応づけられた地物データの表す位置との対応関係に誤りが生じる。これにより、誤った対応関係に基づいて、自車両の状態が推定されると、誤差が生じやすくなるという問題があった。
However, in the device described in
本開示は、縦位置を補正した場合でも車両の横位置及び車両方位がずれることを抑制する技術を提供する。 The present disclosure provides a technique for suppressing a deviation of a lateral position and a vehicle direction of a vehicle even when a vertical position is corrected.
本開示の状態推定装置(1)は、車両に搭載され当該車両の位置及び進行方向を含む車両状態を、あらかじめ設定された周期を有する観測サイクルごとに繰り返し推定し、状態予測部(S110)、地図取得部(S120)、地物検出部(S140、S200)、関係検出部(S150)、対応付け部(S160、S230)、補正算出部(S210)、第1推定部(S170)及び第2推定部(S240、S250)を備える。 The state estimation device (1) of the present disclosure repeatedly estimates a vehicle state, which is mounted on a vehicle and includes a position and a traveling direction of the vehicle, for each observation cycle having a preset cycle, and a state prediction unit (S110). Map acquisition unit (S120), feature detection unit (S140, S200), relationship detection unit (S150), association unit (S160, S230), correction calculation unit (S210), first estimation unit (S170), and second Estimation units (S240, S250) are provided.
状態予測部は、前回の観測サイクルで推定された車両状態である推定状態を用いて予測した、今回の観測サイクルでの車両状態である予測状態を生成する。地図取得部は、予測状態に含まれる車両の位置である予測位置に従って、予測位置の周辺に存在する地物を表す地物データ及び道路形状を表す形状データを含む地図データを取得する。地物検出部は、観測サイクルごとに、光学センサ(5)の検出結果から、地物データに少なくとも設置位置が登録されている地物である位置地物及び道路形状を規定する地物である形状地物を検出する。関係検出部は、位置地物と車両との相対的な位置関係を検出する。対応付け部は、車両が予測位置に存在するものとして、関係検出部により検出された位置地物と車両との相対的な位置関係によって、同一物であると推定される位置地物と地物データとの対応付けを行う。補正算出部は、車両に対する位置地物の相対位置と、予測位置に対する対応付け部により当該位置地物に対応づけられた地物データの表す位置の相対位置との差を補正量として算出する。第1推定部は、車両の進行方向に沿った位置を縦位置として、車両に対する位置地物の相対位置と、予測位置に対する対応付け部により当該位置地物に対応づけられた地物データの表す位置の相対位置との差を補正量として、当該補正量を用いて予測位置を補正することにより、今回の測定サイクルでの車両の少なくとも縦位置を推定する。第2推定部は、補正算出部により算出された補正量のうち、縦位置の補正量である縦補正量があらかじめ設定された補正量閾値以下である場合には、予測位置を比較位置とし、縦補正量が補正量閾値よりも大きい場合には、予測位置の縦位置を縦補正量で補正した地点を比較位置として、地図取得部にて取得された比較位置での形状データが表す道路形状と、地物検出部にて検出された形状地物が示す道路形状との位置合わせによって、車両の車幅方向に沿った位置である横位置及び車両の進行方向である車両方位の少なくとも一方の推定を行う。状態推定装置は、第1推定部及び第2推定部での推定結果を、今回の観測サイクルでの推定状態とする。 The state prediction unit generates a predicted state that is a vehicle state in the current observation cycle, which is predicted using the estimated state that is the vehicle state estimated in the previous observation cycle. The map acquisition unit acquires map data including feature data representing a feature existing around the predicted position and shape data representing a road shape, according to the predicted position that is the position of the vehicle included in the predicted state. The feature detector is a feature that defines a position feature and a road shape that are at least the installation location registered in the feature data from the detection result of the optical sensor (5) for each observation cycle. Detects shaped features. The relation detecting unit detects a relative positional relation between the position feature and the vehicle. The associating unit, assuming that the vehicle exists at the predicted position, the position feature and the feature estimated to be the same based on the relative positional relationship between the position feature and the vehicle detected by the relationship detecting unit. Make correspondence with data. The correction calculation unit calculates, as a correction amount, a difference between the relative position of the position feature with respect to the vehicle and the relative position of the position represented by the feature data associated with the position feature by the association unit with the predicted position. The first estimating unit sets the position along the traveling direction of the vehicle as a vertical position, and represents the relative position of the position feature with respect to the vehicle, and the feature data associated with the position feature by the associating unit for the predicted position. By using the difference between the position and the relative position as a correction amount and correcting the predicted position using the correction amount, at least the vertical position of the vehicle in the current measurement cycle is estimated. The second estimating unit, when the vertical correction amount that is the vertical position correction amount among the correction amounts calculated by the correction calculation unit is equal to or less than a preset correction amount threshold, sets the predicted position as the comparison position; When the vertical correction amount is larger than the correction amount threshold value, the point where the vertical position of the predicted position is corrected by the vertical correction amount is set as a comparison position, and the road shape represented by the shape data at the comparison position acquired by the map acquisition unit. And, by alignment with the road shape indicated by the shape feature detected by the feature detection unit, at least one of a lateral position that is a position along the vehicle width direction and a vehicle direction that is the traveling direction of the vehicle. Make an estimate. The state estimating device sets the estimation results of the first estimating unit and the second estimating unit as the estimated state in the current observation cycle.
このような構成においては、縦補正量が補正量閾値よりも大きい場合には、補正された車両の縦位置における地図データの示す地物の位置及び光学センサにより取得された地物の位置の比較に基づいて車両の横位置及び車両方位を補正する。これにより、縦位置を補正した場合でも車両の横位置及び車両方位がずれることを抑制することができる。 In such a configuration, when the vertical correction amount is larger than the correction amount threshold, the position of the feature indicated by the map data in the corrected vertical position of the vehicle and the position of the feature obtained by the optical sensor are compared. The lateral position and the vehicle direction of the vehicle are corrected based on. Thus, even when the vertical position is corrected, it is possible to suppress the lateral position and the vehicle direction of the vehicle from shifting.
なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 It should be noted that reference numerals in parentheses described in this column and in the claims indicate a correspondence relationship with specific means described in the embodiment described below as one aspect, and the technical scope of the present disclosure will be described. It is not limited.
以下、図面を参照しながら、本開示の実施形態を説明する。
[1.第1実施形態]
[1−1.構成]
本実施形態の運転支援システム2は車両に搭載され、図1に示すように状態推定装置1を備える。運転支援システム2は、更に、GNSS受信機3、地図メモリ4、光学センサ5、状態量センサ6及び制御装置7を備えてもよい。以下、状態推定装置1を搭載する車両を自車とする。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
[1. First Embodiment]
[1-1. Constitution]
The
GNSS受信機3は、GNSS用の人工衛星からの送信電波を、アンテナを介して受信する装置である。GNSS受信機3は、自車の絶対位置を測定し、測定した絶対位置を位置データとして状態推定装置1に出力する。
The GNSS
地図メモリ4は、通常のナビゲーションに使用するための自車の走行可能な道路の地図データを記憶している。当該地図データには地物を表す地物データ及び道路形状を表す形状データが含まれる。ここでいう地物データは、車両の走行可能な道路に沿って設置されている道路標識を表す標識データを含む。標識データは、当該道路標識の地図上の位置、標識の種類、自車が走行している道路に対する標識の高さ、標識の大きさ及び標識に表示されている文字、標識を支える支柱のデータを含む。形状データは、自車の走行中の道路の境界又は車線の境界を示す境界表示の位置のデータである境界データを含む。 The map memory 4 stores map data of a road on which the vehicle can travel for use in normal navigation. The map data includes feature data representing a feature and shape data representing a road shape. Here, the feature data includes sign data representing a road sign installed along a road on which the vehicle can travel. The sign data includes the location of the road sign on the map, the type of sign, the height of the sign with respect to the road on which the vehicle is traveling, the sign size, the characters displayed on the sign, and the data of the pillars supporting the sign. including. The shape data includes boundary data that is data of a position of a boundary display indicating a boundary of a road on which the own vehicle is traveling or a boundary of a lane.
光学センサ5は、自車の前方の地物を含む画像を取得する。ここでいう地物には、自車の前方の道路標識などの位置地物と、道路の境界及び車線の境界などの形状地物とが含まれる。光学センサ5は、自車の前方の地物を表す画像を状態推定装置1に出力する。本実施形態においては、光学センサ5は、水平な同一線上に備えられ、光軸が平行となるように配置された一対のカメラであるステレオカメラである。なお、当該ステレオカメラを構成する一対のカメラの焦点距離は同一であるとする。以下、図2に示すように自車のステレオカメラの設置された位置を基準とした実空間の座標系をカメラ座標系とし、そのカメラ座標系における座標を(Xc,Yc,Zc)で表す。ここで、Xcはステレオカメラが撮像する水平方向の座標を表し、Ycはステレオカメラが撮像する鉛直方向の座標を表し、Zcはステレオカメラが撮像する光軸方向の座標を表す。ここで、Xcは、ステレオカメラの光軸方向を向いた際に左方向に行くほど座標の値は増加し、Ycは、上方向に行くほど座標の値は増加する。これに対して、撮像された画像における座標系を図3に示すように画像座標系とし、その画像座標系における座標を(u,v)で表す。また、画像中心を(cu,cv)とする。ここで、uは撮像される画像の水平方向における座標を表し、撮像された画像の右方向に行くほど座標の値は増加する。vは撮像される画像の鉛直方向における座標を表し、撮像される画像の下方向に行くほど座標の値は増加する。また、ステレオカメラにより図4に示すような画像を取得することができる。
The
状態量センサ6は、自車の車速及びヨーレートなどの自車の状態を検出する。状態量センサ6は、検出した自車の状態を表す自車状態量をECUに出力する。ここでいう自車状態量とは、自車の速度及び加速度を含み、状態量センサ6は、具体的には、速度センサ及び加速度センサである。
The
制御装置7は、状態推定装置1からの入力に応じて自車のアクセル、ブレーキ及びステアリングの制御を行うことにより自動運転や運転支援などの機能を実現する装置である。
状態推定装置1は入力される地図データ、画像及び自車状態量により、自車の位置を推定し、推定された自車の位置及び当該自車の位置における道路の形状を制御装置7に出力する。
The
The
状態推定装置1は、ECUであり、CPU11と、RAM、ROM、フラッシュメモリ等の半導体メモリであるメモリ12と、を有する周知のマイクロコンピュータを中心に構成される。なお、ここでいうECUは自車の電子制御装置である。状態推定装置1の各種機能は、ECUのCPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ12が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、状態推定装置1を構成するマイクロコンピュータの数は1つでも複数でもよい。
The
状態推定装置1の各種機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の要素について、一つ又は複数のハードウェアを用いて実現してもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は多数の論理回路を含むデジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現してもよい。
The technique for realizing the various functions of the
[1−2.処理]
次に、状態推定装置1が一定周期で実行する状態推定処理について、図5のフローチャートを用いて説明する。なお、状態推定処理を開始する前に、状態推定装置1は自車の位置及び車両方位の初期化を行う。すなわちGNSS受信機3から取得する位置情報を自車の位置として設定する。
[1-2. processing]
Next, a state estimating process executed by the
S110で状態推定装置1は、前回の推定結果及び状態量センサ6から取得した自車の速度及び加速度に基づいて今回の処理サイクルでの自車の位置及び車両方位を予測し、当該予測された状態を予測状態として生成する。この場合において、前回の推定結果とは、前回の処理サイクルにおける後述するS170で補正された縦位置のデータ、S240で補正された横位置のデータ及びS250で補正された車両方位のデータのことである。また、最初の処理サイクルの場合には初期化された値に基づいて今回の処理サイクルにおける自車の位置及び車両方位が予測される。なお、自車の位置及び車両方位の予測方法は公知の技術であり、詳細な説明は省略する。
In S110, the
S120で状態推定装置1は、S110で生成された予測状態に含まれる車両の位置である予測位置に従って、地図メモリ4から地図データを取得する。
S130で状態推定装置1は、光学センサ5により撮像された画像を光学センサ5から取得する。
In S120, the
In S130, the
S140で状態推定装置1は、S130で取得した画像に含まれている地物を検出する。すなわち、光学センサ5により撮像された画像に対して、あらかじめメモリに記憶されている地物データの表す地物の形状パターンのパターンマッチングを行い、当該パターンマッチングにより検出した地物を検出地物とする。なお、ここでいうパターンマッチングは公知の技術であり、説明を省略する。
In S140, the
S150で状態推定装置1は、検出地物の自車に対する縦位置を検出する。具体的には、検出地物の自車に対する縦位置は、光学センサ5であるステレオカメラによって同時に撮像された視差のある画像同士を比較することによって算出される。ここで、検出地物の自車に対する縦位置は、検出地物のステレオカメラにおける光軸方向の座標Zcで表される。座標Zcは、同時に撮像された視差のある画像それぞれに共通して写っている検出地物の横方向の位置の差である視差をd、一対のカメラ同士の距離である基線距離をb、一対のカメラそれぞれの焦点距離をfuとして(1)式で表される。当該式において、一対のカメラ同士の距離b及び焦点距離fuは設計時に決まる既知の値であるので、視差dから、検出地物と自車との距離がZcで表される。
In S150, the
S170で状態推定装置1は、縦位置の補正を行う。具体的には、自車の進行方向に沿った位置を縦位置として、S120で取得した地図データから特定される予測位置に対する検出標識の縦位置とS150で状態推定装置1により測定された検出標識の縦位置との差分を縦補正量として算出する。状態推定装置1は、当該縦補正量だけ予測位置の表す縦位置を補正し、比較位置として設定する。
In S170, the
S180で状態推定装置1は、中心位置検出処理を行うことにより、検出標識の中心位置である標識中心位置を検出する。中心位置検出処理の詳細は後述する。
S190で状態推定装置1は、S180における中心位置検出処理の結果、検出不適状態であるか否かを判定する。検出不適状態であると判定された場合、S200で状態推定装置は道路境界の推定に用いることができる形状地物がS140で検出されているか否かを判定する。S200で、道路境界の推定に用いることができる形状地物が検出されていると判定された場合には、処理を終了する。すなわち、横位置及び車両方位の補正を行わず、処理を終了する。S200で、道路境界の推定に用いることができる形状地物が検出されていないと判定された場合には、S210以降の処理を行う。ここでいう、検出地物として、道路境界の推定に用いることができる形状地物が検出されない状態の例を図6に示す。すなわち、当該検出されない状態の例としては、光学センサの検出範囲は2本の実線R1の内側であるとすると、点線で示したR2のように、走行している車両などにより検出範囲が遮られる場合がある。このような場合が、形状地物である道路境界Bが検出されない場合の例として挙げられる。
In S180, the
In S190, the
S210で、S170で算出した縦補正量があらかじめ決められた閾値以上であるか否かを判定する。
S210で状態推定装置1がS170で算出された縦補正量があらかじめ決められた閾値より大きいと判定した場合には、S220で状態推定装置1は、地図データの再取得を行う。すなわち、状態推定装置1は、S170で設定された比較位置での、標識データ及び境界データを含む地図データを取得する。
In S210, it is determined whether or not the vertical correction amount calculated in S170 is equal to or greater than a predetermined threshold.
If the
S230で、状態推定装置1は、地物の再対応付けを行う。具体的には、S160と同様の処理であるが、車両がS170で設定された比較位置に存在するものとして、位置関係の比較を行う点で相違する。
In S230, the
S210で状態推定装置1がS170で補正した縦補正量があらかじめ決められた閾値よりも小さいと判定された場合には、状態推定装置1は、S220及びS230の処理を省略し、S240以降の処理を行う。
If it is determined in S210 that the vertical correction amount corrected by the
S240で状態推定装置1は、横位置の補正を行う。具体的には以下のように行う。検出標識に対応する標識データが表す検出標識の比較位置又は予測位置に対する横位置を予測横位置とし、S130で取得した画像に基づいて求められる検出標識の自車に対する横位置を検出横位置とする。予測横位置と検出横位置とを比較することにより行われる。ここでいう、検出標識に対応する標識データとは、S160で対応付けがなされた検出標識又はS230で再対応付けがなされた検出標識に対応する標識データのことである。画像に基づいた横位置は以下のように求められる。すなわち、検出標識の自車に対する横位置Xcは、検出標識のステレオカメラにおける光軸方向の座標Zc、検出標識の画像上の座標u、画像中心の横方向の座標cu及びステレオカメラの焦点距離fuから(2)式を用いて求められる。
In S240, the
S250で状態推定装置1は車両方位の補正を行う。すなわち、車両方位の補正は以下のように行われる。比較位置又は予測位置において、光学センサが撮像する自車の周辺の境界表示の仮想的な画像を境界データに基づいて推定する。当該仮想的な画像における道路の境界と実際の光学センサにより撮像される画像における道路の境界との比較を行い、それぞれの道路の境界が一致するように、車両方位を補正する。車両方位の補正方法については、公知の技術であり、説明を省略する。
In S250, the
なお、S110が状態予測部、S120が地図取得部、S140及びS200が地物検出部、S150が関係検出部、S160及びS230が対応付け部、S170が第1補正部、S180が中心検出部、S210が補正算出部、S240及びS250が第2補正部による処理に相当する。また、地物検出部のうち、標識を検出するものが標識検出部、境界を検出するものが境界検出部に相当する。
<中心位置検出処理>
状態推定装置1が行う中心位置検出処理を図7に示す。
S110 is a state prediction unit, S120 is a map acquisition unit, S140 and S200 are feature detection units, S150 is a relationship detection unit, S160 and S230 are association units, S170 is a first correction unit, S180 is a center detection unit, S210 corresponds to the correction calculation unit, and S240 and S250 correspond to the processing by the second correction unit. Further, among the feature detection units, the one that detects the sign corresponds to the sign detection unit, and the one that detects the boundary corresponds to the boundary detection unit.
<Center position detection processing>
FIG. 7 shows the center position detection process performed by the
S310で状態推定装置1は、S130で取得した画像を取得する。
S320で状態推定装置1は、S140で取得した検出地物の取得を行う。
S330で状態推定装置1は、検出標識の左右両側に欠損があるか否かを判定する。なお、ここでいう欠損とは、図8に示すような画像の一部が光学センサにより正しく認識されなかったものをいう。ここでは、光学センサによる地物の検出において画角から標識が外れ、補完が必要となる状態を例として挙げる。欠損はこれに限定されるものではなく、汚れや検出する環境などの要因により光学センサにより地物の検出が適切にされなかった場合をいう。欠損の方法は、具体的には、状態推定装置1は検出標識の横幅と、標識データの示す横幅とを比較することにより行われる。比較の結果、それぞれの横幅の差分があらかじめ決められた閾値である横幅閾値以下である場合には、状態推定装置1は検出標識の横側に欠損が無いと判定する。
In S310, the
In S320, the
In S330, the
S330で状態推定装置1により欠損が無いと判定した場合、S340で、検出標識の横幅の中点を標識中心位置として確定し、処理を終了する。
S330で状態推定装置1は、欠損があると判定した場合、S350で当該欠損が検出標識の片側のみに存在するか否かを判定する。具体的には、状態推定装置1は検出された検出標識の画像と標識データの示す検出標識の画像との比較を行う。
If the
If the
S350で状態推定装置1が当該画像の比較により検出標識の片側のみに欠損が存在すると判定した場合には、状態推定装置1は標識データの示す標識の輪郭形状を表す画像から、S360で欠損部分の補完を行う。すなわち、標識データには欠損の無い状態の検出標識が含まれているので、状態推定装置1は欠損がある標識に標識データを重ね合わせることで欠損を補完し、S370で状態推定装置1は、補完された検出標識の横幅の中点を標識中心位置として確定する。
If the
S350で状態推定装置1が当該画像の比較により検出標識の両側に欠損が存在すると判定した場合には、S380で、状態推定装置1は、検出標識の支柱が検出されるか否かを判定する。ここでいう支柱とは、検出標識を支える柱のことであり、検出標識の横方向の中心に位置する。すなわち、状態推定装置1は、検出標識の支柱と、標識データの示す支柱との比較を行う。当該比較により標識データの示す支柱が検出された場合、すなわちS380で状態推定装置1により検出標識の支柱が検出された場合には、S390で状態推定装置1は、支柱の位置を標識中心位置として確定し、処理を終了する。
If the
S380で状態推定装置1により検出標識の支柱が検出されたと判定されなかった場合には、S400で検出不適状態であると判定し、S410で欠損の有無にかかわらず、検出標識の横幅の中点を標識中心位置として確定し処理を終了する。
If it is not determined in S380 that the support of the detection sign has been detected by the
[1−3.効果]
以上詳述した第1実施形態によれば、以下の効果を奏する。
(1a)本実施形態の状態推定装置によれば、縦位置の補正量である縦補正量が大きい場合、補正された自車の縦位置に基づいて自車の横位置及び車両方位を補正することにより、縦位置を補正した場合でも自車の横位置及び車両方位がずれることを抑制することができる。
[1-3. effect]
According to the first embodiment described in detail above, the following effects can be obtained.
(1a) According to the state estimation device of the present embodiment, when the vertical correction amount that is the vertical position correction amount is large, the horizontal position and the vehicle direction of the own vehicle are corrected based on the corrected vertical position of the own vehicle. Thus, even when the vertical position is corrected, it is possible to suppress the lateral position and the vehicle direction of the own vehicle from shifting.
すなわち、図9に示すように、補正前の自車の位置Pにおいて、地物M1を検出したとする。地物M1に相当する地物データD1が地図データに存在した場合、自車と地物M1との相対的な位置関係を維持したまま、検出された地物M1に対応する地物データD1を重ね合わせるように補正することにより縦位置の補正を行う。当該補正により自車の位置が位置Qに補正されたとする。ここで、縦補正量が小さい場合には、補正前の地物データD2に基づいて、自車の横位置及び車両の補正を行う。このようにすることによりデータの再取得にかかる時間を削減することができる。また、データの再取得にかかる処理負荷の低減を図ることができる。一方、縦補正量が大きい場合、図10に示すように、前述と同様の縦位置の補正を行った後、自車が位置Qに存在するものとして地物データの再取得を行い、得られた地物データD3との対応付けを行い、自車の横位置及び車両方位の補正を行う。縦補正量が大きい場合には、補正前の位置Pと補正後の位置Qとの自車の横位置及び車両方位のずれが大きいことが予測されるため、データの再取得及び対応付けを行うことでより、自車の状態推定の予測精度を向上させることができる。 That is, as shown in FIG. 9, it is assumed that the feature M1 is detected at the position P of the own vehicle before the correction. When the feature data D1 corresponding to the feature M1 exists in the map data, the feature data D1 corresponding to the detected feature M1 is changed while maintaining the relative positional relationship between the vehicle and the feature M1. The vertical position is corrected by performing correction so as to overlap. It is assumed that the position of the own vehicle is corrected to the position Q by the correction. Here, when the vertical correction amount is small, the horizontal position of the own vehicle and the vehicle are corrected based on the feature data D2 before correction. By doing so, the time required for reacquisition of data can be reduced. Further, the processing load required for reacquisition of data can be reduced. On the other hand, when the vertical correction amount is large, as shown in FIG. 10, after performing the same vertical position correction as described above, it is assumed that the own vehicle is at the position Q and re-acquisition of the feature data is performed. The horizontal position and the vehicle direction of the own vehicle are corrected by associating with the feature data D3. If the vertical correction amount is large, it is predicted that the deviation of the lateral position and the vehicle azimuth of the own vehicle between the position P before correction and the position Q after correction is large, so that the data is reacquired and associated. Thereby, the prediction accuracy of the state estimation of the own vehicle can be improved.
(1b)本実施形態の状態推定装置によれば、検出不適状態の場合に、道路の境界が検出されるか否かによって検出された検出中心位置を用いて横位置及び車両方位の補正を行うか、当該補正を行わず処理を終了するかを切り替える。これにより、道路の境界が検出できない状態においては、標識中心位置に基づいて自車の位置を補正することができる。一方で、道路の境界が検出できる状態においては、標識中心位置に基づいた自車の位置の補正を行うことにより自車の位置が誤って補正されることを抑制することができる。よって、自車の位置の補正の精度を向上することができる。 (1b) According to the state estimating device of the present embodiment, when the detection is in an inappropriate state, the lateral position and the vehicle direction are corrected using the detected center position detected depending on whether or not the road boundary is detected. Or whether to end the process without performing the correction. Accordingly, in a state where the road boundary cannot be detected, the position of the own vehicle can be corrected based on the sign center position. On the other hand, in a state where the boundary of the road can be detected, by correcting the position of the own vehicle based on the center position of the sign, erroneous correction of the position of the own vehicle can be suppressed. Therefore, the accuracy of correcting the position of the own vehicle can be improved.
(1c)本実施形態の状態推定装置によれば、取得された画像において、検出された標識の標識中心位置の比較を行うことで、補正の元となる画像が正確に取れたか否かを判定する。判定に応じて、補正を行うか否かを変更することにより、状態推定の精度を向上させる。 (1c) According to the state estimating device of the present embodiment, by comparing the center positions of the detected signs in the acquired images, it is determined whether or not the image to be corrected is accurately obtained. I do. By changing whether or not to perform correction in accordance with the determination, the accuracy of state estimation is improved.
[2.他の実施形態]
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
[2. Other Embodiments]
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above embodiments, and can be implemented with various modifications.
(2a)上記実施形態では光学センサ5はステレオカメラであるが、上記実施形態では、光学センサ5はステレオカメラであるが、光学センサ5の形態はこれに限定されるものではない。例えば、レーザレーダであるとしてもよく、単眼カメラであるとしてもよい。光学センサ5としてレーザレーダを用いた場合、レーザレーダがレーザを出射してから当該レーザを受光するまでの時間により自車と標識との距離を測定してもよい。また、この場合、上記実施形態で撮像された画像の代わりに距離が測定された点の集合である測距点群に基づいて各地物と車両との距離を求めてもよい。
(2a) In the above embodiment, the
(2b)また、上記実施形態では、ステレオカメラを用いた三角測量により、自車と地物との距離を測定したが、自車と地物との距離の測定方法はこれに限定されるものではない。例えば地物データに含まれる標識データは、地物の高さを表す地物高さデータ又は地物のサイズを表す地物サイズデータを含むとしてもよい。これにより、状態推定装置1は地物高さデータ又は地物サイズデータと、図11に示す光学センサ5により撮像された画像における検出地物の高さH又は地物のサイズSとを比較することで、自車と地物との距離を測定してもよい。なお、図11では、道路脇に存在する標識を検出地物としているが検出地物の種類は、これに限定されるものではない。ガードレールなどの高さH、サイズSがあらかじめ地物高さデータ及び地物サイズデータとして、記憶されているものであればよい。この場合において、地物の高さHに基づいて距離を測定する場合には、逆光の場合や、取得した画像の地物部分の輝度が飽和している場合、模様が無い場合など地物のサイズSが正確に測定できない場合にも自車と地物との距離を測定することができる。また、地物のサイズSに基づいて距離を測定する場合には、路面が急勾配などで車両と地物との相対的な高さHが正確に測定できない場合にも自車と地物との距離を測定することができる。また、これらの地物の高さHに基づいた距離の測定方法と地物のサイズSに基づいた距離の測定方法とを組み合わせて自車と地物との距離を測定しても良い。または車両の周辺状況に応じて、これらの距離の測定方法を選択するように構成されてもよい。具体的には、光学センサ5から取得した画像や、地図データに含まれる周辺環境や道路の形状の情報に基づいて、距離の測定方法を選択するように構成されてもよい。なお、当該距離の測定方法を選択する処理が選択部に相当し、状態推定処理のS150で行われるとしてもよい。
(2b) In the above embodiment, the distance between the vehicle and the feature is measured by triangulation using a stereo camera. However, the method for measuring the distance between the vehicle and the feature is not limited to this. is not. For example, the sign data included in the feature data may include feature height data indicating the height of the feature or feature size data indicating the size of the feature. Thereby, the
(2c)上記実施形態では、自車との距離を測定する地物は標識であるとしたが、自車との距離を測定する地物はこれに限定されるものではない。例えば、信号機などでもよい。 (2c) In the above embodiment, the feature for measuring the distance to the own vehicle is a sign, but the feature for measuring the distance to the own vehicle is not limited to this. For example, a traffic light may be used.
(2d)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言から特定される技術思想に含まれるあらゆる態様が本開示の実施形態である。 (2d) A plurality of functions of one component in the above embodiment may be realized by a plurality of components, or one function of one component may be realized by a plurality of components. . Also, a plurality of functions of a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. Further, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of another above-described embodiment. Note that all aspects included in the technical idea specified by the language described in the claims are embodiments of the present disclosure.
(2e)上述した状態推定装置1の他、当該状態推定装置1を構成要素とするシステム、当該状態推定装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、状態推定方法など、種々の形態で本開示を実現することもできる。
(2e) In addition to the above-described
1…状態推定装置、2…自車、3…GNSS受信機、4…地図メモリ、5…光学センサ、6…状態量センサ、7…制御装置、11…CPU、12…メモリ。
REFERENCE SIGNS
Claims (11)
前回の観測サイクルで推定された前記車両状態である推定状態を用いて予測した、今回の観測サイクルでの前記車両状態である予測状態を生成するように構成された状態予測部(S110)と、
前記予測状態に含まれる前記車両の位置である予測位置に従って、前記予測位置の周辺に存在する地物を表す地物データ及び道路形状を表す形状データを含む地図データを取得するように構成された地図取得部(S120)と、
前記観測サイクルごとに、光学センサ(5)の検出結果から、前記地物データに少なくとも設置位置が登録されている地物である位置地物及び道路形状を規定する地物である形状地物を検出するように構成された地物検出部(S140、S200)と、
前記位置地物と前記車両との相対的な位置関係を検出するように構成された関係検出部(S150)と、
前記車両が前記予測位置に存在するものとして、前記関係検出部により検出された前記位置地物と前記車両との相対的な位置関係によって、同一物であると推定される前記位置地物と前記地物データとの対応付けを行うように構成された対応付け部(S160、S230)と、
前記車両に対する前記位置地物の相対位置と、前記予測位置に対する前記対応付け部により当該位置地物に対応づけられた前記地物データの表す位置の相対位置との差を補正量として算出するように構成された補正算出部(S210)と、
前記車両の進行方向に沿った位置を縦位置として、前記車両に対する前記位置地物の相対位置と、前記予測位置に対する前記対応付け部により当該位置地物に対応づけられた前記地物データの表す位置の相対位置との差を補正量として、当該補正量を用いて前記予測位置を補正することにより、今回の測定サイクルでの前記車両の少なくとも縦位置を推定するように構成された第1推定部(S170)と、
前記補正算出部により算出された補正量のうち、縦位置の補正量である縦補正量があらかじめ設定された補正量閾値以下である場合には、前記予測位置を比較位置とし、前記縦補正量が前記補正量閾値よりも大きい場合には、前記予測位置の縦位置を前記縦補正量で補正した地点を前記比較位置として、前記地図取得部にて取得された前記比較位置での前記形状データが表す道路形状と、前記地物検出部にて検出された形状地物が示す道路形状との位置合わせによって、前記車両の車幅方向に沿った位置である横位置及び前記車両の進行方向である車両方位の少なくとも一方の推定を行うように構成された第2推定部(S240、S250)と、
を備え、前記第1推定部及び前記第2推定部での推定結果を、今回の観測サイクルでの前記推定状態とする、状態推定装置。 A state estimating device (1) mounted on a vehicle and repeatedly estimating a vehicle state including a position and a traveling direction of the vehicle for each observation cycle having a preset cycle,
A state prediction unit (S110) configured to generate a predicted state that is the vehicle state in the current observation cycle, which is predicted using the estimated state that is the vehicle state estimated in the previous observation cycle;
According to a predicted position that is the position of the vehicle included in the predicted state, map data including feature data representing a feature existing around the predicted position and shape data representing a road shape is configured to be acquired. A map acquisition unit (S120);
For each of the observation cycles, based on the detection result of the optical sensor (5), a position feature that is a feature whose installation position is at least registered in the feature data and a shape feature that defines a road shape are extracted. A feature detection unit (S140, S200) configured to detect;
A relation detecting unit (S150) configured to detect a relative positional relation between the position feature and the vehicle;
Assuming that the vehicle exists at the predicted position, the relative position relationship between the position feature and the vehicle detected by the relationship detection unit, the position feature estimated to be the same thing and the An associating unit (S160, S230) configured to associate with the feature data;
A difference between a relative position of the position feature with respect to the vehicle and a relative position of a position represented by the feature data associated with the position feature by the association unit with respect to the predicted position is calculated as a correction amount. A correction calculation unit (S210) configured as
The position along the traveling direction of the vehicle is defined as a vertical position, and the relative position of the position feature with respect to the vehicle and the feature data associated with the position feature by the association unit with respect to the predicted position are represented. A first estimation configured to estimate at least the vertical position of the vehicle in the current measurement cycle by correcting the predicted position using the difference between the position and the relative position as a correction amount and using the correction amount. (S170),
When the vertical correction amount that is the vertical position correction amount among the correction amounts calculated by the correction calculation unit is equal to or less than a preset correction amount threshold value, the predicted position is set as a comparison position, and the vertical correction amount is set. Is larger than the correction amount threshold, when the vertical position of the predicted position is corrected by the vertical correction amount as the comparison position, the shape data at the comparison position acquired by the map acquisition unit By the alignment of the road shape represented by and the road shape indicated by the shape feature detected by the feature detection unit, a lateral position that is a position along the vehicle width direction of the vehicle and a traveling direction of the vehicle A second estimator (S240, S250) configured to estimate at least one of a certain vehicle direction;
A state estimating device comprising: the estimation result in the first estimation unit and the second estimation unit being the estimation state in the current observation cycle.
前記地物検出部は、前記位置地物として標識を検出するように構成された標識検出部(S140、S200)を更に備え、
前記関係検出部は、前記車両の車幅方向に沿った位置を横位置として、前記標識検出部により検出された前記標識の横位置の中心である標識中心位置を求める中心検出部(S180)を更に備え、当該中心検出部により検出された標識中心位置を、前記位置地物の横位置とする
状態推定装置。 The state estimation device according to claim 1,
The feature detection unit further includes a sign detection unit (S140, S200) configured to detect a sign as the location feature,
The relation detection unit sets a position along the vehicle width direction of the vehicle as a horizontal position and sets a center detection unit (S180) that determines a sign center position that is the center of the sign horizontal position detected by the sign detection unit. The state estimating apparatus further comprising a mark center position detected by the center detection unit as a lateral position of the position feature.
前記地物データには前記標識の横幅のデータが含まれ、
前記中心検出部は、前記標識検出部により検出された前記標識の横幅と、前記地物データに含まれる前記標識の横幅のデータとの差があらかじめ決められた横幅の閾値である横幅閾値以下であると判定された場合、前記位置地物の中心位置を前記標識中心位置として検出するように構成された、状態推定装置。 The state estimation device according to claim 2,
The feature data includes data of a width of the sign,
The center detection unit, the difference between the width of the sign detected by the sign detection unit and the data of the width of the sign included in the feature data is less than or equal to the width threshold that is a predetermined width threshold. A state estimating device configured to detect a center position of the position feature as the marker center position when it is determined that there is a position feature.
前記地物データは、前記標識の輪郭形状を表す画像が含まれ、
前記中心検出部は、前記標識検出部により検出された前記標識と前記画像との比較により、前記位置地物が欠損していると判定した場合には、当該画像に基づいて当該欠損している部分の補完を行い、前記標識中心位置を確定するように構成された、状態推定装置。 The state estimation device according to claim 2,
The feature data includes an image representing the contour shape of the sign,
When the center detection unit determines that the position feature is missing by comparing the sign detected by the sign detection unit and the image, the missing is based on the image. A state estimating device configured to complement a part and determine the marker center position.
前記中心検出部は、前記標識検出部により前記標識の支柱が認識された場合に、当該支柱を標識中心位置とするように構成された、状態推定装置。 The state estimation device according to claim 2,
The state estimation device, wherein the center detection unit is configured to set the support to be a marker center position when the support of the marker is recognized by the marker detection unit.
前記地物検出部は、前記形状地物として道路の境界及び車線の境界を示す境界表示を検出するように構成された境界検出部を更に備え、前記第2推定部は、前記標識検出部により前記標識が検出されなかった場合において、前記境界検出部により道路の境界が検出できる場合、前記車両の横位置の推定及び前記車両の進行方向の推定のうち、少なくとも一方の推定を禁止するように構成された、状態推定装置。 The state estimation device according to claim 2, wherein:
The feature detection unit further includes a boundary detection unit configured to detect a boundary display indicating a boundary of a road and a boundary of a lane as the shape feature, and the second estimation unit is configured by the sign detection unit In the case where the sign is not detected, if the boundary of the road can be detected by the boundary detection unit, at least one of the estimation of the lateral position of the vehicle and the estimation of the traveling direction of the vehicle is prohibited. A configured state estimation device.
前記光学センサがステレオカメラである場合に、
前記関係検出部は、前記ステレオカメラを用いた三角測量により距離を測定するように構成された、状態推定装置。 The state estimation device according to any one of claims 1 to 6, wherein:
When the optical sensor is a stereo camera,
The state estimation device, wherein the relation detection unit is configured to measure a distance by triangulation using the stereo camera.
前記光学センサはレーザレーダである場合に、前記関係検出部は、レーザを出射してから当該レーザを受光するまでの時間により前記車両と前記標識との距離を測定するように構成された、状態推定装置。 The state estimation device according to claim 1, wherein:
A state where the optical sensor is a laser radar, wherein the relation detection unit is configured to measure a distance between the vehicle and the sign by a time from emitting a laser to receiving the laser; Estimation device.
前記地図データは、さらに地物のサイズを表す地物サイズデータを備え、
前記関係検出部は、前記地図取得部により取得された前記地物サイズデータと前記標識検出部により検出された前記標識のサイズとの比較により前記車両と前記標識との距離を測定するように構成された、状態推定装置。 The state estimation device according to any one of claims 1 to 6, wherein:
The map data further includes feature size data representing a feature size,
The relationship detection unit is configured to measure a distance between the vehicle and the sign by comparing the feature size data acquired by the map acquisition unit with a size of the sign detected by the sign detection unit. , State estimation device.
前記地図データは、さらに地物の設置されている高さを表す地物高さデータを備え、
前記関係検出部は、前記地物高さデータと前記光学センサにより測定された前記地物の高さとの比較により前記車両と前記地物との距離を測定するように構成された、状態推定装置。 The state estimation device according to any one of claims 1 to 6, wherein:
The map data further includes feature height data indicating a height at which the feature is installed,
A state estimating device configured to measure a distance between the vehicle and the feature by comparing the feature height data with a height of the feature measured by the optical sensor; .
前記関係検出部は、互いに異なる方法で前記地物との距離を検出するように構成された複数の関係検出部と、
前記車両の周辺状況に応じて使用する前記関係検出部を選択するように構成された選択部(S150)と、を更に備える状態推定装置。 The state estimation device according to any one of claims 1 to 7, wherein:
The relationship detection unit, a plurality of relationship detection unit configured to detect the distance to the feature in a mutually different manner,
A selection unit (S150) configured to select the relationship detection unit to be used in accordance with a surrounding situation of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172034A JP6645936B2 (en) | 2016-09-02 | 2016-09-02 | State estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016172034A JP6645936B2 (en) | 2016-09-02 | 2016-09-02 | State estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036225A JP2018036225A (en) | 2018-03-08 |
JP6645936B2 true JP6645936B2 (en) | 2020-02-14 |
Family
ID=61567373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016172034A Active JP6645936B2 (en) | 2016-09-02 | 2016-09-02 | State estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6645936B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019215775A (en) * | 2018-06-14 | 2019-12-19 | 本田技研工業株式会社 | Moving entity assist system and moving entity assist method |
US11015940B2 (en) * | 2018-07-13 | 2021-05-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for longitudinal position correction of a vehicle using mapped landmarks |
JP6916975B2 (en) * | 2019-03-27 | 2021-08-11 | 株式会社日立国際電気 | Sign positioning system and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3958133B2 (en) * | 2002-07-12 | 2007-08-15 | アルパイン株式会社 | Vehicle position measuring apparatus and method |
JP6441616B2 (en) * | 2014-08-29 | 2018-12-19 | 株式会社ゼンリン | Positioning device, driving support device, and control program |
JP6368651B2 (en) * | 2015-01-06 | 2018-08-01 | 株式会社日立製作所 | Driving environment recognition system |
-
2016
- 2016-09-02 JP JP2016172034A patent/JP6645936B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018036225A (en) | 2018-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6741022B2 (en) | Parking assistance method and device | |
JP4697101B2 (en) | Vehicle detection device and light control device | |
US10030969B2 (en) | Road curvature detection device | |
US9594966B2 (en) | Obstacle detection device and obstacle detection method | |
US9697421B2 (en) | Stereoscopic camera apparatus | |
US10435019B2 (en) | Course prediction method and course prediction device | |
US11302020B2 (en) | Stereo camera device | |
JP2018036067A (en) | Own vehicle position recognition device | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
JP6645936B2 (en) | State estimation device | |
US20170163960A1 (en) | Disparity image generating device, disparity image generating method, and image | |
US11889047B2 (en) | Image processing device and image processing method | |
JP2017138660A (en) | Object detection method, object detection device and program | |
JP2018048949A (en) | Object recognition device | |
US20150379334A1 (en) | Object recognition apparatus | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
JP2013186718A (en) | Mobile object position attitude estimation device and method | |
CN111989541B (en) | Stereo camera device | |
JP2015210538A (en) | Light source detector, headlight control system, and light source detection method | |
JP2023118759A (en) | Measuring device, measuring method and program | |
JP6604052B2 (en) | Runway boundary estimation device and runway boundary estimation method | |
JP2017112566A (en) | Parameter identification device | |
JP7134780B2 (en) | stereo camera device | |
KR102463449B1 (en) | Method and apparatus for calculating vehicle width of vehicle of adjacent lane | |
JP6451544B2 (en) | Road boundary detection device, self-position estimation device, and road boundary detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191217 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6645936 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |