JP5614489B2 - 状態推定装置 - Google Patents

状態推定装置 Download PDF

Info

Publication number
JP5614489B2
JP5614489B2 JP2013502098A JP2013502098A JP5614489B2 JP 5614489 B2 JP5614489 B2 JP 5614489B2 JP 2013502098 A JP2013502098 A JP 2013502098A JP 2013502098 A JP2013502098 A JP 2013502098A JP 5614489 B2 JP5614489 B2 JP 5614489B2
Authority
JP
Japan
Prior art keywords
observation
model
vehicle
state
state estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013502098A
Other languages
English (en)
Other versions
JPWO2012117528A1 (ja
Inventor
中村 弘
弘 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of JPWO2012117528A1 publication Critical patent/JPWO2012117528A1/ja
Application granted granted Critical
Publication of JP5614489B2 publication Critical patent/JP5614489B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Algebra (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、測定データを状態推定用モデルに当てはめることにより観測対象の状態を推定する推定装置に関する。
従来から、動的な観測対象の状態を推定する技術として、特開2002−259966号公報に記載された装置が知られている。特開2002−259966号公報に記載された装置は、複数の認識手段を備え、所定条件に従って認識手法を切り替えることで、推定の高精度化を図るものである。
特開2002−259966号公報
しかしならが、特開2002−259966号公報に記載された技術であっても、十分な推定精度を得ることができないため、更に高精度な推定手法が求められている。
そこで、近年は、カルマンフィルタ(Kalman Filter)などのフィルタを用いた状態推定手法が採用されるようになってきた。カルマンフィルタでは、まず、観測モデル、観測ノイズモデル、運動モデル及び運動ノイズモデルなどの状態推定用モデルを設定しておく。そして、カルマンフィルタでは、この設定した状態推定用モデルに観測対象の測定データを当てはめることにより、動的な観測対象の状態を高精度に推定する。
しかしながら、従来のカルマンフィルタを用いた状態推定手法では、観測対象の状態が時々刻々と変化するにもかかわらず、状態推定用モデルが固定されているため、必ずしも高精度に観測対象の状態を推定することができないという問題がある。
そこで、本発明は、より高精度に観測対象の状態を推定することができる状態推定装置を提供することを目的とする。
本発明に係る状態推定装置は、観測対象を測定する測定装置により測定した測定データを状態推定用モデルに当てはめて観測対象の状態を推定する状態推定装置であって、状態推定用モデルは、測定装置により測定できる観測対象の一面又は二面を表した観測モデルを含み、観測対象との位置関係に基づいて、観測モデルを変更する変更手段を有する。
本発明に係る状態推定装置によれば、観測対象との位置関係に基づいて観測モデルを変更するため、動的な観測対象の状態をより高精度に推定することができる。
この場合、観測対象は、測定装置の周辺に存在する車両であり、変更手段は、測定装置に対する観測対象の中心位置の方向に対応した観測モデルに変更することが好ましい。測定装置に対する観測対象の中心位置の方向が異なると、観測対象の測定可能面が異なる。このため、測定装置に対する観測対象の中心位置の方向に関わらず同一の観測モデルを用いると、測定データと観測モデルとの対応付けを適切に行うことができない。その結果、観測対象の状態を高精度に推定できなくなる。そこで、測定装置に対する観測対象の中心位置の方向に対応した観測モデルに変更することで、測定データと観測モデルとを適切に対応付けることができる。これにより、観測対象の状態の推定精度を更に向上させることができる。
また、観測対象は、測定装置の周辺に存在する車両であり、変更手段は、観測対象の向きに対応した観測モデルに変更することが好ましい。観測対象の向きが異なると、観測対象の測定可能面が異なる。このため、観測対象の向きに関わらず同一の観測モデルを用いると、測定データと観測モデルとの対応付けを適切に行うことができなくなる。その結果、観測対象の状態を高精度に推定することができない。そこで、観測対象の向きに対応した観測モデルに変更することで、測定データと観測モデルとを適切に対応付けることができるため、観測対象の状態の推定精度を更に向上させることができる。
また、観測対象は、測定装置の周辺に存在する車両であり、変更手段は、測定装置に対する観測対象の中心位置の方向、及び、観測対象の向き、の双方に対応した観測モデルに変更することが好ましい。測定装置に対する観測対象の中心位置の方向、及び、観測対象の向きの双方により、観測対象の自車両に対向する面を特定することができる。このため、これら双方の情報に対応した観測モデルに変更することで、測定データと観測モデルとを適切に対応付けることができるため、観測対象の状態の推定精度を更に向上させることができる。
また、変更手段は、前回の推定で用いた観測モデルに基づいて、測定データを当てはめる観測モデルを絞り込むことが好ましい。通常、観測対象の挙動変化は連続的であることから、前回の推定で用いた観測モデルに基づいて観測モデルを絞り込むことで、誤った観測モデルが選択されるのを低減することができる。
また、変更手段は、前回推定した観測対象の状態に基づいて、測定装置に対する観測対象の中心位置の方向、又は、観測対象の向きを推定することが好ましい。このように、前回推定した情報を利用することで推定の連続性が保たれるため、観測対象の状態の推定精度を更に向上させることができる。
また、変更手段は、観測対象が存在する位置の地図情報に基づいて、観測対象の向きを推定することが好ましい。観測対象が静止している場合や観測対象を検出した直後の場合などは、測定データによって観測対象の向きを求めることができない。そこで、観測対象が存在する位置の地図情報を利用することで、このような場合であっても、観測対象の向きを推定することができる。
また、変更手段は、測定データから観測対象のモデルを生成し、モデルを構成する辺の数に基づいて、観測モデルを変更することが好ましい。このように、測定データから生成されるモデルの辺の数に基づいて状態推定用モデルを変更することで、状態推定用モデルの変更基準が明確化されるため、観測対象の状態の推定精度を更に向上させることができる。
また、状態推定用モデルは、測定装置の測定により生じる観測ノイズを分散値で表す観測ノイズモデルを含み、変更手段は、観測対象の面に対する向きに基づいて、観測ノイズモデルの分散値を変更することが好ましい。通常、観測対象の面に垂直な方向には測定データの観測ノイズが小さく、観測対象の面に水平な方向には測定データの観測ノイズが大きい。そこで、測定対象の面に対する向きに基づいて観測ノイズモデルの分散値を変更することで、観測対象の状態の推定精度を更に向上させることができる。
また、変更手段は、観測対象までの距離に基づいて、観測ノイズモデルを変更することが好ましい。観測対象までの距離が近いと、観測対象の測定対象領域が大きいため、観測ノイズが小さくなる。一方、観測対象までの距離が遠いと、観測対象の測定対象領域が小さいため、観測ノイズが大きくなる。そこで、測定対象までの距離に応じて観測ノイズモデルを変更することで、観測対象の状態の推定精度を更に向上させることができる。
また、観測対象は、測定装置の周辺に存在する車両であり、状態推定用モデルは、周辺車両の運動状態を表す運動モデルと、運動モデルにおけるステアリング角度の変化量を示す運動ノイズモデルと、を含み、変更手段は、観測対象の速度が高いと、観測対象の速度が低いときに比べて、運動ノイズモデルにおけるステアリング角度の変化量を小さくすることが好ましい。通常、車両の速度が速いと、ステアリングを大きく切る可能性が低い。そこで、観測対象の速度が高いと運動ノイズモデルにおけるステアリング角度の変化量を小さくすることで、観測対象の状態の推定精度を更に向上させることができる。
また、複数の異なる観測モデルを用いて、観測対象の状態を推定するとともに、観測対象の状態の推定分散値を算出し、推定分散値が最も小さい観測対象の状態を出力することが好ましい。これにより、観測対象との位置関係や観測対象の状態が不明な場合であっても、適切な観測モデルを用いて推定した観測対象の状態を出力することができる。
本発明によれば、高精度に観測対象の状態を推定することができる。
本実施形態に係る状態推定装置を示したブロック図である。 推定したい変数を示した図である。 第1の実施形態に係る状態推定装置の推定処理を示した図である。 重心位置の方位角と重心位置の速度向きとを示す図である。 観測モデルの変更基準例を示す図である。 右斜後面観測モデルを説明するための図である。 後面観測モデルを説明するための図である。 第2の実施形態に係る状態推定装置の推定処理を示した図である。 第3の実施形態に係る状態推定装置の推定処理を示した図である。 第4の実施形態に係る状態推定装置の推定処理を示した図である。 第5の実施形態に係る状態推定装置の推定処理を示した図である。 図11のモデル選択処理を示した図である。 第6の実施形態に係る状態推定装置の推定処理を示した図である。 対象車両とグルーピング点群データとの関係を示した図である。 観測ノイズモデルの概念を示した図である。 第7の実施形態に係る状態推定装置の推定処理を示した図である。 第8の実施形態に係る状態推定装置の推定処理を示した図である。 第9の実施形態に係る状態推定装置の推定処理を示した図である。
以下、図面を参照して、本発明に係る状態推定装置の好適な実施形態について詳細に説明する。なお、全図中、同一又は相当部分には同一符号を付すこととする。
図1は、本実施形態に係る状態推定装置を示したブロック図である。本実施形態に係る状態推定装置1は、車両に搭載されており、LIDAR(Light Detection and Ranging)2と電気的に接続されている。
LIDAR2は、レーザ光を利用して他車両を測定するレーダであり、測定装置として機能する。LIDAR2は、レーザ光を出射するとともに、この出射したレーザ光の反射光を受光することで、反射点の点列を検出する。そして、LIDAR2は、レーザ光の速度、レーザ光の出射時刻、及び、反射光の受光時刻から、この検出した点列の測定データを算出する。測定データには、例えば、自車両との相対距離、自車両に対する相対方向、自車両との相対距離と自車両に対する相対方向から算出される座標などが含まれる。そして、LIDAR2は、検出した点列の測定データを状態推定装置1に送信する。
状態推定装置1は、カルマンフィルタを用いた推定処理により自車両の周辺に存在する他車両の状態を推定するものである。
具体的に説明すると、状態推定装置1は、まず、自車両の周辺に存在する他車両を、観測対象である対象車両とし、この対象車両の状態を、推定したい変数として設定する。図2は、推定したい変数を示した図である。図2に示すように、推定したい変数は、例えば、中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)となる。
そして、状態推定装置1は、LIDAR2から送信された測定データを所定の状態推定用モデルに当てはめて演算することで上記の各変数を推定し、この推定した変数を対象車両の状態推定値として出力する。なお、本実施形態では、このように変数を推定する処理を、カルマンフィルタ更新処理という。
更に、状態推定装置1は、対象車両との位置関係や対象車両の状態に基づいて、カルマンフィルタ更新処理に用いる状態推定用モデルを変更する。このため、状態推定装置1は、状態推定用モデルを変更する変更手段としても機能する。なお、カルマンフィルタ更新処理に用いる状態推定用モデルは、後述するように、観測モデル、観測ノイズモデル、運動モデル、運動ノイズモデルにより表される。
ここで、カルマンフィルタの概念について簡単に説明する。なお、カルマンフィルタ自体は周知の技術であるため、詳しい説明は省略する。
カルマンフィルタは、観測量(観測ベクトル)zのみが観測されるときに、観測対象の状態(状態ベクトル)xを推定するものである。このため、xが、推定により求めたい変数となる。なお、本実施形態では、LIDAR2により測定される測定データが観測量に対応する。
時刻kにおける観測量zは、次の(1)式に示す観測モデルにより表される。
Figure 0005614489
ここで、vは、観測モデルに入り込む観測ノイズを表す観測ノイズモデルである。観測ノイズは、例えば、LIDAR2の特性により生じる誤差や、LIDAR2の読み取り誤差などの、観測により生じる誤差である。この観測ノイズモデルvは、平均0分散Rの正規分布に従い、次の(2)式又は(3)式で表される。
Figure 0005614489
時刻kにおける状態xは、次の(4)式に示す運動モデルにより表される。
Figure 0005614489
ここで、uは、操作量である。また、wは、運動モデルに入り込む運動ノイズを表す運動ノイズモデルである。運動ノイズは、運動モデルが想定している運動状態と異なる運動状態が行われることにより生じる誤差である。例えば、等速直線運動を行う運動モデルであった場合に、加減速が行われることにより、観測対象の速度に生じる誤差や、ステアリングが切られることにより、観測対象の速度方向に生じる誤差などがある。この運動ノイズモデルwは、平均0分散Qの正規分布に従い、次の(5)式又は(6)式で表される。
Figure 0005614489
そして、カルマンフィルタでは、確率p(x|z,・・・,z)がガウス分布であると仮定し、次の時刻の確率p(xk+1|z,・・・,zk+1)を逐次演算していく。すると、状態xの分布は、次の(7)式及び(8)式で表される。
Figure 0005614489
そして、観測量zで更新した状態xの分布は、次の(9)式及び(10)で表される。
Figure 0005614489
以下、第1〜第9の実施形態に係る状態推定装置について詳しく説明する。なお、各実施系形態に係る状態推定装置は、実施形態の番号に併せて11〜19の符号を付す。
[第1の実施形態]
第1の実施形態に係る状態推定装置11の推定処理について説明する。図3は、第1の実施形態に係る状態推定装置の推定処理を示した図である。
図3に示すように、第1の実施形態に係る状態推定装置11は、LIDAR2に対する対象車両の中心位置の方向と対象車両の向きとに基づいて、カルマンフィルタ更新処理に用いる観測モデルを変更する。観測モデルとしては、対象車両の後面を対象とした後面観測モデル、対象車両の後面及び左面を対象とした左斜後面観測モデル、対象車両の左面を対象とした左面観測モデル、対象車両の前面及び左面を対象とした左斜前面観測モデル、対象車両の前面を対象とした前面観測モデル、対象車両の前面及び右面を対象とした右斜前面観測モデル、対象車両の右面を対象とした右面観測モデル、対象車両の後面及び右面を対象とした右斜後面観測モデル、の8つがある。そこで、状態推定装置11は、これら8つの観測モデルから、適切な観測モデルを選択する。
まず、状態推定装置11は、LIDAR2から送信された点列の測定データからグルーピング点群データを生成する(S1)。詳しく説明すると、状態推定装置11は、LIDAR2が反射点の点列を検出すると、所定距離内にある点列をグルーピングしたグルーピング点群データを生成する。このグルーピング点群データは、各車両に対応して生成されるため、自車両の周辺に複数の車両が存在する場合は、複数のグルーピング点群データが生成される。
次に、状態推定装置11は、S1で生成したグルーピング点群データの重心位置を求める(S2)。グルーピング点群データの重心位置は、対象車両の中心位置に対応するものである。このため、グルーピング点群データの重心位置は、例えば、グルーピング点群データから車両のモデルを生成し、このモデルの重心位置を算出することにより求めることができる。
そして、状態推定装置11は、LIDAR2から見たS2で求めた重心位置の方位角を算出する(S3)。すなわち、状態推定装置11は、S3において、LIDAR2に対する対象車両の重心位置の方向を算出する。
一方、状態推定装置11は、S2で求めた重心位置を過去複数回分にわたってトラッキングし、S2で求めた重心位置の速度を推定する(S4)。そして、状態推定装置11は、S4のトラッキング及び速度の推定により、S2で求めた重心位置の速度向きを算出する(S5)。すなわち、状態推定装置11は、S5において、対象車両の速度向きを算出する。
次に、状態推定装置11は、S3で算出した重心位置の方位角とS5で算出した重心位置の速度向きとの差分から、観測モデルを選択する(S6)。
ここで、図4及び図5を参照して、S6の処理について詳しく説明する。図4は、重心位置の方位角と重心位置の速度向きとを示す図である。図5は、観測モデルの変更基準例を示す図である。なお、図4において、O(X0,Y0)は、LIDAR2の原点を示しており、C(x,y)は、S2で求めた重心位置を示している。また、θは、S5で算出した重心位置Cの速度向きを示しており、ψは、原点Oに対する重心位置Cの方向であって、S3で算出した方向を示している。
図4に示すように、状態推定装置11は、まず、S5で算出した速度向きθからS3で算出した方向ψを引いた角度φを算出する。この角度φは、φ=θ−ψで表され、0〜2π(360°)の範囲となる。そして、図5に示すように、状態推定装置11は、この算出された角度φに基づいて、観測モデルを選択する。
角度φが20°以下の場合は、LIDAR2から対象車両の後面のみが見えるため、状態推定装置11は、後面観測モデルを選択する。
角度φが20°より大きく70°以下の場合は、LIDAR2から対象車両の後面及び左面のみが見えるため、状態推定装置11は、左斜後面観測モデルを選択する。
角度φが70°より大きく110°以下の場合は、LIDAR2から対象車両の左面のみが見えるため、状態推定装置11は、左面観測モデルを選択する。
角度φが110°より大きく160°以下の場合は、LIDAR2から対象車両の前面及び左面のみが見えるため、状態推定装置11は、左斜前面観測モデルを選択する。
角度φが160°より大きく200°以下の場合は、LIDAR2から対象車両の前面のみが見えるため、状態推定装置11は、前面観測モデルを選択する。
角度φが200°より大きく250°以下の場合は、LIDAR2から対象車両の前面及び右面のみが見えるため、状態推定装置11は、右斜前面観測モデルを選択する。
角度φが250°より大きく290°以下の場合は、LIDAR2から対象車両の右面のみが見えるため、状態推定装置11は、右面観測モデルを選択する。
角度φが290°より大きく340°以下の場合は、LIDAR2から対象車両の後面及び右面のみが見えるため、状態推定装置11は、右斜後面観測モデルを選択する。
角度φが340°より大きい場合は、LIDAR2から対象車両の後面のみが見えるため、状態推定装置11は、後面観測モデルを選択する。
ここで、図6及び図7を参照して、観測モデルの一例を詳しく説明する。図6は、右斜後面観測モデルを説明するための図である。図7は、後面観測モデルを説明するための図である。
図6に示すように、LIDAR2から対象車両の後面及び右面のみが見える場合を考える。この場合、S1で生成したグルーピング点群データに直線を当てはめると、このグルーピング点群データは、右側に配置される点列で構成される右グルーピングと、左側に配置される点列で構成される左グルーピングと、にグルーピングされる。なお、グルーピング点群データは、反射点の点列で構成されるため、グルーピング点群データに当てはめられる直線は、対象車両の前面、後面、右面、左面に対応する。
上述したように、推定したい変数は、中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)である(図2参照)。このため、右斜後面観測モデルにおける変数は、
右グルーピングの中心位置(X
右グルーピングの中心位置(Y
右グルーピングにおける長軸の長さ(L
右グルーピングにおける長軸の方位(Θ
左グルーピングの中心位置(X
左グルーピングの中心位置(Y
左グルーピングにおける長軸の長さ(L
左グルーピングにおける長軸の方位(Θ
となる。
また、右斜後面観測観測モデルは、
=x−l/2×cos(θ)
=y−l/2×sin(θ)
=w
Θ=mod(θ+π/2,π)
=x+w/2×sin(θ)
=y−w/2×cos(θ)
=l
Θ=mod(θ,π)
となる。
図7に示すように、LIDAR2から対象車両の後面のみが見える場合を考える。この場合、S1で生成したグルーピング点群データに直線を当てはめると、1つにグルーピングされる。
上述したように、推定したい変数は、中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)である(図2参照)。このため、右斜後面観測観測モデルにおける変数は、
グルーピングの中心位置(X)
グルーピングの中心位置(Y)
グルーピングにおける長軸の長さ(L)
グルーピングにおける長軸の方位(Θ)
となる。
そして、右斜後面観測観測モデルは、
X=x−l/2×cos(θ)
Y=y−l/2×sin(θ)
L=w
Θ=mod(θ+π/2,π)
となる。
そして、状態推定装置11は、S6で選択された観測モデルを、今回の推定に用いる観測モデルとして決定する(S7)。
次に、状態推定装置11は、S1で生成したグルーピング点群データと、S7で決定した観測モデルとを用いて、カルマンフィルタ更新処理を行う(S8)。このとき、状態推定装置11は、中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)の変数を推定するとともに、推定した各変数の分散(以下「推定分散値」という)を算出する。推定分散値は、上述した(9)式で表される分散値Pに対応する。そして、状態推定装置11は、S8のカルマンフィルタ更新処理により算出された変数を、対象車両の状態推定値として出力する(S9)。
このように、本実施形態に係る状態推定装置11によれば、対象車両との位置関係や対象車両の状態に基づいて状態推定用モデルを変更するため、動的な対象車両の状態をより高精度に推定することができる。
そして、LIDAR2に対する対象車両の中心位置の方向と対象車両の向きとの差分に基づいて観測モデルを変更することで、測定データと観測モデルとを適切に対応付けることができるため、対象車両の状態の推定精度を更に向上させることができる。
[第2の実施形態]
次に、第2の実施形態に係る状態推定装置12の推定処理について説明する。第2の実施形態は、第1の実施形態と観測モデルの選択手法が異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図8は、第2の実施形態に係る状態推定装置の推定処理を示した図である。図8に示すように、第2の実施形態に係る状態推定装置12は、前回の推定処理で用いた観測モデルに基づいて、今回の推定処理で用いる観測モデルを絞り込むものである。
通常、車両の挙動変化は連続的である。このため、時間の経過に伴い、対象車両との位置関係や対象車両の状態が変化して行ったとしても、LIDAR2から見える車両の面は、後面、左斜後面、左面、左斜前面、前面、右斜前面、右面、右斜後面の順、又は、この逆の順にしか変化しない。
そこで、状態推定装置12は、今回の推定処理のS6で選択する観測モデルを、前回の推定処理のS7で決定した観測モデルに基づき絞り込む(S11)。
詳しく説明すると、状態推定装置12は、まず、前回の推定処理のS7で決定した観測モデルを特定する。更に、状態推定装置12は、上記の順又は逆順においてこの観測モデルと隣接関係にある2つの観測モデルを特定する。そして、状態推定装置12は、今回の推定処理のS6で選択する観測モデルを、この特定した3つの観測モデルに絞り込む。例えば、前回の推定処理のS7で決定した観測モデルが後面観測モデルであった場合は、後面観測モデル、右斜後面モデル及び左斜後面モデルの3つの観測モデルで、今回の推定処理のS6で選択する観測モデルを絞り込む。
そして、状態推定装置12は、S6において、S3で算出した重心位置の方位角とS5で算出した重心位置の速度向きとの差分から選択する観測モデルが、S11で絞り込まれた観測モデルである場合は、第1の実施形態と同様に処理を続ける。
一方、状態推定装置12は、S6において、S3で算出した重心位置の方位角とS5で算出した重心位置の速度向きとの差分から選択する観測モデルが、S11で絞り込まれた観測モデルでない場合は、今回の観測モデルの選択に誤りがある可能性が高いと判断する。そして、状態推定装置12は、S6で選択する観測モデルを、前回の推定処理のS7で決定した観測モデルに変更し、又は、今回の推定処理により出力された観測対象の状態推定値は信頼性が欠けるものとして取り扱う。
このように、第2の実施形態に係る状態推定装置12によれば、前回の推定処理で用いた観測モデルに基づいて、今回の推定処理に用いる観測モデルを絞り込むため、誤った観測モデルが選択されるのを低減することができる。
[第3の実施形態]
次に、第3の実施形態に係る状態推定装置13の推定処理について説明する。第3の実施形態は、第1の実施形態と観測モデルの選択手法が異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図9は、第3の実施形態に係る状態推定装置の推定処理を示した図である。上述したように、第1の実施形態では、LIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きを、S1で生成したグルーピング点群データに基づいて求めていた。これに対し、図9に示すように、第3の実施形態では、LIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きを、前回の推定処理で出力した対象車両の状態推定値に基づいて求める。
詳しく説明すると、状態推定装置13は、前回の推定処理のS9において出力した対象車両の状態推定値から対象車両の位置(x,y)を抽出し、この抽出した対象車両の位置から、LIDAR2に対する対象車両の中心位置の方向を算出する(S13)。また、状態推定装置13は、前回の推定処理のS9において出力した対象車両の状態推定値から対象車両の速度向き(θ)を抽出する(S14)。
そして、状態推定装置13は、S13で算出したLIDAR2に対する対象車両の中心位置の方向と、S14で抽出した対象車両の速度向きとの差分から、観測モデルを選択する(S6)
このように、第3の実施形態に係る状態推定装置13によれば、前回の推定処理で出力した対象車両の状態推定値を利用することで、推定の連続性が保たれるため、対象車両の状態の推定精度を更に向上させることができる。
[第4の実施形態]
次に、第4の実施形態に係る状態推定装置14の推定処理について説明する。第4の実施形態は、第1の実施形態と観測モデルの選択手法が異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図10は、第4の実施形態に係る状態推定装置の推定処理を示した図である。上述したように、第1の実施形態では、対象車両の向きを、S1で生成したグルーピング点群データに基づいて求めていた。これに対し、図10に示すように、第4の実施形態では、対象車両の向きを、地図情報に基づいて求める。
詳しく説明すると、状態推定装置14は、まず、地図情報を取得する(S16)。この地図情報は、例えば、ナビゲーションシステムなどのように車両に搭載された記憶装置に記憶されているものであってもよく、路車間通信などにより車外から取得するものであってもよい。
次に、状態推定装置14は、S16で取得した地図情報にS2で算出した重心位置を重ね合わせることで、地図情報における対象車両が存在する位置を特定する。そして、状態推定装置14は、この特定した位置の地図上の道路の向きを算出し、この算出した地図上の道路の向きが対象車両の速度向きであると推定する(S17)。
なお、第4の実施形態では、S2において、グルーピング点群データの重心位置を算出するだけではなく、グルーピング点群データから対象車両の位置も推定し、S17において、この推定した対象車両の位置に基づいて、地図上における対象車両の存在する位置を特定するものとしてもよい。
このように、第4の実施形態に係る状態推定装置14によれば、対象車両が存在する位置に基づいて対象車両の向きを推定するため、例えば、対象車両が静止している場合や対象車両を検出した直後の場合などであっても、対象車両の向きを推定することができる。
[第5の実施形態]
次に、第5の実施形態に係る状態推定装置15の推定処理について説明する。第5の実施形態は、第1の実施形態と観測モデルの選択手法が異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図11は、第5の実施形態に係る状態推定装置の推定処理を示した図であり、図12は、図11のモデル選択処理を示した図である。上述したように、第1の実施形態では、グルーピング点群データから算出されるLIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きに基づいて、観測モデルを選択していた。これに対し、図11及び図12に示すように、第5の実施形態では、グルーピング点群データから算出される辺の数に基づいて、観測モデルを選択する。
詳しく説明すると、図10に示すように、状態推定装置15は、S1においてグルーピング点群データを生成すると、次に説明するモデル選択処理を行う(S19)。
図11を参照して、S19のモデル選択処理について詳しく説明する。
状態推定装置15は、まず、S1で生成したグルーピング点群データの凸包を算出する(S21)。この凸包算出では、まず、グルーピング点群データから、右端の点と左端の点を特定する。そして、右端(又は左側)の点から、左側(又は右側)に向けてグルーピング点群データの点を順次連結していき、左端(又は右側)の点に到達すると、点の連結を終了する。なお、グルーピング点群データは、反射点の点列で構成されるため、凸包算出で連結された線は、対象車両の側面に対応した1本又は2本の直線となる。
次に、状態推定装置15は、S21で算出した凸包の辺を分割する(S22)。上述したように、グルーピング点群データは、反射点の点列で構成されるため、S21の凸包算出で連結された線は、対象車両の側面に対応した1本又は2本の直線となる。このため、S21で凸包の辺を分割することで、LIDAR2から対象車両の面が、何面見えるのかを判断することができる。
次に、状態推定装置15は、辺の数が1であるか否かを判定する(S23)。そして、状態推定装置15は、辺の数が1であると判定すると(S23:YES)、辺の長さが所定の閾値よりも短いか否かを判定し(S24)、辺の数が1ではないと判定すると(S23:NO)、右辺よりも左辺の方が長いか否かを判定する(S31)。なお、S24の閾値は、車両の前面及び後面と左面及び右面とを区別するための値である。このため、S24の閾値は、一般的な車両の、前面及び後面の幅と左面及び右面の長さとの間の値となる。
S24に進んだ状態推定装置15は、辺の長さが所定の閾値よりも短いと判定すると(S24:YES)、対象車両の速度向きが自車両に対して離れていく方向であるか否かを判定し(S25)、辺の長さが所定の閾値よりも短くないと判定すると(S24:NO)、対象車両の速度向きが自車両から見て右向きであるか否かを判定する(S28)。なお、対象車両の速度向きは、様々な手法により検出することができる。例えば、第1の実施形態のように、グルーピング点群データの重心位置をトラッキングすることにより求めてもよく、また、第3の実施形態のように、前回の推定処理で出力した状態推定値から求めてもよい。
S25に進んだ状態推定装置15は、対象車両の速度向きが自車両に対して離れていく方向であると判定すると(S25:YES)、後面観測モデルを選択し(S26)、対象車両の速度向きが自車両に対して離れていく方向ではないと判定すると(S25:NO)、前面モデルを選択する(S27)。
S28に進んだ状態推定装置15は、対象車両の速度向きが自車両から見て右向きであると判定すると(S28:YES)、右面観測モデルを選択し(S29)、対象車両の速度向きが自車両から見て右向きではないと判定すると(S28:NO)、左面観測モデルを選択する。
S31に進んだ状態推定装置15は、上述したS31の判定において、左辺は右辺よりも長いと判定すると(S31:YES)、対象車両の速度向きが自車両に対して離れていく方向であるか否かを判定し(S32)、左辺は右辺よりも長くないと判定すると(S31:NO)、対象車両の速度向きが自車両に対して離れていく方向であるか否かを判定する(S35)。
S32に進んだ状態推定装置15は、対象車両の速度向きが自車両に対して離れていく方向であると判定すると(S32:YES)、左斜後面観測モデルを選択し(S33)、対象車両の速度向きが自車両に対して離れていく方向ではないと判定すると(S32:NO)、右斜前面モデルを選択する(S34)。
S35に進んだ状態推定装置15は、対象車両の速度向きが自車両に対して離れていく方向であると判定すると(S35:YES)、右斜後面観測モデルを選択し(S36)、対象車両の速度向きが自車両に対して離れていく方向であると判定すると(S35:NO)、左斜後面観測モデルを選択する(S37)。
なお、S35では、対象車両の速度向きが自車両から見て右向きであるか否かを判定してもよい。この場合、状態推定装置15は、対象車両の速度向きが自車両から見て右向きであると判定すると、右斜後面観測モデルを選択し(S36)、対象車両の速度向きが自車両から見て右向きでないと判定すると、左斜後面観測モデルを選択する(S37)。
することにしてもよい。
このようにして観測モデルが選択されると、図10に示すように、状態推定装置15は、S19で選択された観測モデルを、今回の推定に用いる観測モデルとして決定する(S7)。
このように、第5の実施形態に係る状態推定装置15によれば、グルーピング点群データから求められる辺の数に基づいて観測モデルを変更することで、観測モデルの選択基準が明確化されるため、対象車両の状態の推定精度を更に向上させることができる。
[第6の実施形態]
次に、第6の実施形態に係る状態推定装置16の推定処理について説明する。第6の実施形態は、観測モデルの観測ノイズモデルのみを変更する点で第1の実施形態と異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図13は、第6の実施形態に係る状態推定装置の推定処理を示した図である。上述したように、第1の実施形態では、グルーピング点群データから算出されるLIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きに基づいて、観測モデルを選択していた。これに対し、図13に示すように、第6の実施形態では、グルーピング点群データから算出される辺の方位角に基づいて、観測ノイズモデルを変更する。
ここで、対象車両の面に対する向きと、観測誤差との関係について説明する。
一般的に、LIDAR2は、10cm程度の分解能を有するため、点列p自体の測定誤差は小さい。一方、LIDAR2は、端部からは点列を検出しにくいという特性を有するため、LIDAR2で検出された点列の中心は、対象車両の面の中心からずれた位置となる。このため、対象車両3の面に対して垂直な方向の観測ノイズは小さいが、対象車両3の面に対して水平な方向の観測ノイズは、対象車両3の面に対して垂直な方向の観測ノイズよりも大きくなる。
図14は、対象車両とグルーピング点群データとの関係を示した図であり、図15は、観測ノイズモデルの概念を示した図である。なお、図14の矢印は、対象車両の進行方向を示している。
図14に示すように、LIDAR2から対象車両3の前面3及び左面3が見えており、対象車両3の前面3及び左面3に、LIDAR2から出射したレーザ光の反射点の点列pが検出された場合を考える。
この場合、前面3の右部(図14において左上の部分)と左面3の後部(図14において右上の部分)からは点列pが検出されない。このため、前面3における点列pの中心P’は、前面3の中心Pよりも前面3の左側(図14において右下側)にずれてしまう。また、左面3における点列pの中心P’は、左面3の中心Pよりも左面3の前側(図14において左下側)にずれてしまう。
上述したように、中心位置(x、y)は観測モデルの変数である。このため、LIDAR2で検出された点列pに基づいて前面3の中心位置を算出すると、対象車両3の前面3に対して水平な方向の観測ノイズが、前面3に対して垂直な方向の観測ノイズよりも大きくなる。また、LIDAR2で検出された点列pに基づいて左面3の中心位置を算出すると、対象車両3の左面3に対して水平な方向の観測ノイズが、左面3に対して垂直な方向の観測ノイズよりも大きくなる。
そこで、図15に示すように、通常は、観測ノイズモデルにおける中心位置の分散値R’は真円で表されるが、第6の実施形形態では、対象車両の面に対して垂直な方向の観測ノイズよりも、対象車両の面に対して水平な方向の観測ノイズが大きくなるように、観測ノイズモデルにおける中心位置の分散値Rを変更する。
具体的に説明すると、対象車両の面に対して垂直な方向の誤差をσ、対象車両の面に対して水平な方向の誤差をσ、回転行列をRθとすると、観測ノイズモデルにおける中心位置の分散値Rは、次の(11)式で表される。なお、(11)式の算出方法を(12)式に記載した。
Figure 0005614489
Figure 0005614489
次に、図13を参照して、状態推定装置16の処理について説明する。
状態推定装置16は、まず、S1で生成したグルーピング点群データの凸包を算出し(S41)、この算出した凸包の辺を分割する(S42)。なお、S41の凸包算出は、第5の実施形態に係る状態推定装置16が行うS21の凸包算出(図12参照)と同様である。
次に、状態推定装置16は、S42で分割した辺を、1本又は2本の直線に当てはめ(S43)、この当てはめた直線の方位角を算出する(S44)。
そして、状態推定装置16は、上述した(11)式で表されるように、S44で算出した直線の方位角に基づいて、観測ノイズモデルにおける中心位置の分散値Rを変更する(S45)。
そして、状態推定装置16は、S45で分散値が変更された観測ノイズモデルを組み込んだ観測モデルを、今回の推定に用いる観測モデルとして決定する(S46)。
このように、第6の実施形態に係る状態推定装置16によれば、対象車両の面に対する向きに基づいて観測ノイズモデルの分散値を変更するため、対象車両の状態の推定精度を更に向上させることができる。
[第7の実施形態]
次に、第7の実施形態に係る状態推定装置17の推定処理について説明する。第7の実施形態は、観測モデルの観測ノイズモデルのみを変更する点で第1の実施形態と異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図16は、第7の実施形態に係る状態推定装置の推定処理を示した図である。上述したように、第1の実施形態では、グルーピング点群データから算出されるLIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きに基づいて、観測モデルを選択していた。これに対し、図16に示すように、第7の実施形態では、対象車両との距離に基づいて、観測ノイズモデルを変更する。
状態推定装置17は、まず、前回の推定処理のS9で出力した対象車両の状態推定値から、対象車両の位置を抽出する。このとき、状態推定装置17は、前回の推定処理のS9で出力した状態推定値の代わりに、第1の実施形態のように、今回の推定処理のS1で生成したグルーピング点群データから算出される重心位置を用いてもよい。次に、状態推定装置17は、この抽出した対象車両の位置から、自車両から対象車両までの距離を算出する。そして、状態推定装置17は、この算出した自車両から対象車両までの距離に基づいて、観測ノイズモデルにおける観測ノイズを変更する(S48)。
詳しく説明すると、自車両から対象車両までの距離が近いと、LIDAR2による対象車両の測定対象領域が大きくなるため、観測ノイズが小さくなる。一方、自車両から対象車両までの距離が遠いと、LIDAR2による対象車両の測定対象領域が小さくなるため、観測ノイズが大きくなる。そこで、状態推定装置17は、自車両から対象車両までの距離が長くなるほど、観測ノイズモデルにおける観測ノイズを大きくする。なお、観測ノイズモデルにおける観測ノイズは、例えば、自車両から対象車両までの距離に応じて連続的に変化させてもよく、自車両から対象車両までの距離に応じて1又は複数の段階に分けて変化させてもよい。後者の場合、例えば、1又は複数の距離を設定しておき、自車両から対象車両までの距離がこの設定した距離を超える度に、観測ノイズモデルにおける観測ノイズを大きくすることができる。また、変更する観測ノイズは、対象車両の面の中心位置、対象車両の速さ、対象車両の向きなど、様々なノイズを用いることができる。
そして、状態推定装置17は、S48で変更された観測ノイズモデルを組み込んだ観測モデルを、今回の推定に用いる観測モデルとして決定する(S49)。
このように、第7の実施形態に係る状態推定装置17によれば、対象車両までの距離に基づいて観測ノイズモデルにおける観測ノイズを変更することで、対象車両の状態の推定精度を更に向上させることができる。
[第8の実施形態]
次に、第8の実施形態に係る状態推定装置18の推定処理について説明する。第8の実施形態は、運動ノイズモデルのみを変更する点で第1の実施形態と異なるが、基本的に第1の実施形態と同様である。このため、以下では、第1の実施形態と相違する部分のみを説明し、第1の実施形態と同様の部分の説明を省略する。
図17は、第8の実施形態に係る状態推定装置の推定処理を示した図である。上述したように、第1の実施形態では、LIDAR2に対する対象車両の中心位置の方向、及び、対象車両の向きに基づいて、観測モデルを変更していた。これに対し、図17に示すように、第8の実施形態では、対象車両の速度に基づいて、運動モデルの運動ノイズモデルを変更する。
ここで、運動ノイズモデルについて詳しく説明する。上述したように、推定したい変数は、中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)である(図2参照)。このため、運動モデルは、
x:=x+v×cos(θ)
y:=y+v×sin(θ)
v:=v
θ:=θ+v/b×tan(ξ)
ξ:=ξ
b:=b
l:=l
w:=w
で表される。
そして、運動モデルが等速直線運動である場合に、これら運動モデルに入り込む運動ノイズモデルは、例えば、
σ(x)=0
σ(y)=0
σ(v)=加減速度
σ(θ)=0
σ(ξ)=ステアリング変化量(ステアリング角度の変化量)
σ(b)=0
σ(l)=0
σ(w)=0
となる。
このように、運動モデルに入り込む運動ノイズモデルには、ステアリング変化量と加減速度が設定されるが、従来は、何れも固定的な値を運動ノイズモデルに設定していた。しかしながら、車両の速度が高くなるに従い、ステアリングを大きく切る可能性が低くなる傾向にある。
そこで、状態推定装置18は、まず、前回の推定処理のS9で出力した対象車両の状態推定値から、対象車両の速度を抽出する。そして、状態推定装置18は、この抽出した対象車両の速度に基づいて、運動ノイズモデルにおけるステアリング変化量σ(ξ)を変更する(S51)。具体的に説明すると、状態推定装置18は、対象車両の速度が高いほど、運動ノイズモデルにおけるステアリング変化量σ(ξ)を小さくする。なお、ステアリング変化量σ(ξ)は、例えば、対象車両の速度に応じて連続的に変化させてもよく、対象車両の速度に応じて1又は複数の段階に分けて変化させてもよい。後者の場合、例えば、1又は複数の速度を設定しておき、対象車両の速度が設定した速度を超える度に、ステアリング変化量σ(ξ)を小さくすることができる。
そして、状態推定装置18は、S51で変更された運動ノイズモデルを組み込んだ運動モデルを、今回の推定に用いる運動モデルとして決定する(S52)。
このように、第8の実施形態に係る状態推定装置18によれば、対象車両の速度が高いと運動ノイズモデルにおけるステアリング変化量σ(ξ)を小さくすることで、対象車両の状態の推定精度を更に向上させることができる。
[第9の実施形態]
次に、第9の実施形態に係る状態推定装置19の推定処理について説明する。第1の実施形態では、推定処理に用いる観測ノイズモデルを変更して、対象車両の状態を推定した。これに対し、第9の実施形態では、複数の異なる観測モデルで対象車両の状態を推定し、推定分散値が最も小さくなる観測モデルを用いて推定した観測対象の状態を出力する。
図18は、第9の実施形態に係る状態推定装置の推定処理を示した図である。図18に示すように、状態推定装置19は、複数の異なる観測モデルを用意する(S54)。S54で用意する観測モデルは、後面観測モデル、左斜後面観測モデル、左面観測モデル、左斜前面観測モデル、前面観測モデル、右斜前面観測モデル、右面観測モデル及び右斜後面観測モデルの8の観測モデルである。なお、以下の説明では、S54で用意する観測モデルは上述した8つであるものとして説明するが、少なくとも2以上の観測モデルを用意すれば、特に用意する観測モデルの数は制限されない。
次に、状態推定装置19は、S54で用意した8つの観測モデルに、それぞれS1で生成したグルーピング点群データを当てはめて、並列的にカルマンフィルタ更新処理を行う(S55)。S55のカルマンフィルタ更新処理は、第1の実施形態におけるS8のカルマンフィルタ更新処理と同様である。
そして、状態推定装置19は、S55の各カルマンフィルタ更新処理において推定された中心位置(x)、中心位置(y)、速さ(v)、向き(θ)、タイヤ角(ξ)、ホイールベース(b)、長さ(l)、幅(w)の各変数を出力する(S56)。
また、状態推定装置19は、S55の各カルマンフィルタ更新処理において算出した各変数の推定分散値を算出する(S57)。
そして、状態推定装置19は、S56で出力された8つのカルマンフィルタ出力の内、推定分散値の最も小さいカルマンフィルタ出力を最終出力とする(S59)。
このように、第9の実施形態に係る状態推定装置19によれば、対象車両との位置関係や対象車両の状態が不明な場合であっても、適切な観測モデルを用いて推定した対象車両の状態推定値を出力することができる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。
例えば、上記実施形態では、対象車両の状態の推定手段として、カルマンフィルタを採用するものとして説明した。しかしながら、測定データをモデルに当てはめて対象車両の状態を推定するものであれば、如何なる手段、如何なるフィルタを採用してもよい。例えば、パーティクルフィルタ(Particle Filter)を採用してもよい。
また、上記実施形態では、観測対象として、自車両の周辺に存在する周辺車両を採用したが、バイクや自転車など、あらゆるものを観測対象としてもよい。
また、第1の実施形態では、LIDAR2に対する対象車両の中心位置の方向と対象車両の向きとの差分に基づいて観測モデルを変更するものとして説明したが、LIDAR2に対する対象車両の中心位置の方向のみに基づいて観測モデルを変更してもよく、又は、対象車両の向きのみに基づいて観測モデルを変更してもよい。
LIDAR2に対する対象車両の中心位置の方向が異なっても、対象車両の測定可能面が異なり、また、対象車両の向きが異なっても、対象車両の測定可能面が異なる。このため、LIDAR2に対する対象車両の中心位置の方向、又は、対象車両の向きの何れか一方にのみ基づいて観測モデルを変更することでも、測定データと観測モデルとを適切に対応付けることができる。これにより、対象車両の状態の推定精度を更に向上させることができる。
なお、上記の各実施形態は、適宜組み合わせることが可能である。例えば、第1の実施形態と第6の実施形態とを組み合わせて、観測モデルと観測ノイズモデルとを変更してもよく、第1の実施形態と第8の実施形態とを組み合わせて、観測モデルと運動モデルとを変更してもよい。
本発明は、周辺車両の状態を推定する状態推定装置として利用可能である。
1(11〜19)…状態推定装置、2…LIDAR(測定装置)、3…対象車両。

Claims (8)

  1. 自車両の周辺に存在する他車両を測定する測定装置により測定した測定データを状態推定用モデルに当てはめて前記他車両の状態を推定する状態推定装置であって、
    前記状態推定用モデルは、前記測定装置により測定できる前記他車両の一面又は二面を表した複数の観測モデルを含み、
    前記測定データを当てはめる前記観測モデルを、前記測定装置から見える前記他車両の面に対応する前記観測モデルに変更する変更手段を有し、
    前記変更手段は、前記測定装置に対する前記他車両の中心位置の方向と前記他車両の向きとの差分から、変更する前記観測モデルを選択する、状態推定装置。
  2. 前記変更手段は、前回の推定で用いた観測モデルに基づいて、前記測定データを当てはめる観測モデルを絞り込む、請求項に記載の状態推定装置。
  3. 記変更手段は、前回推定した前記他車両の状態に基づいて、前記測定装置に対する前記他車両の中心位置の方向、又は、前記他車両の向きを推定する、請求項1又は2に記載の状態推定装置。
  4. 前記変更手段は、前記他車両が存在する位置の地図情報に基づいて、前記他車両の向きを推定する、請求項に記載の状態推定装置。
  5. 前記状態推定用モデルは、前記測定装置の測定により生じる観測ノイズを分散値で表す観測ノイズモデルを含み、
    前記変更手段は、前記他車両の面に対する向きに基づいて、前記観測ノイズモデルの分散値を変更する、請求項1〜の何れか一項に記載の状態推定装置。
  6. 前記変更手段は、前記他車両までの距離に基づいて、前記観測ノイズモデルを変更する、請求項に記載の状態推定装置。
  7. 前記状態推定用モデルは、前記他車両の運動状態を表す運動モデルと、前記運動モデルにおけるステアリング角度の変化量を示す運動ノイズモデルと、を含み、
    前記変更手段は、前記他車両の速度が高いと、前記他車両の速度が低いときに比べて、前記運動ノイズモデルにおけるステアリング角度の変化量を小さくする、請求項1〜の何れか一項に記載の状態推定装置。
  8. 複数の異なる前記観測モデルを用いて、前記他車両の状態を推定するとともに、前記他車両の状態の推定分散値を算出し、前記推定分散値が最も小さい前記他車両の状態を出力する、請求項1〜の何れか一項に記載の状態推定装置。
JP2013502098A 2011-03-01 2011-03-01 状態推定装置 Expired - Fee Related JP5614489B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/054651 WO2012117528A1 (ja) 2011-03-01 2011-03-01 状態推定装置

Publications (2)

Publication Number Publication Date
JPWO2012117528A1 JPWO2012117528A1 (ja) 2014-07-07
JP5614489B2 true JP5614489B2 (ja) 2014-10-29

Family

ID=46757490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013502098A Expired - Fee Related JP5614489B2 (ja) 2011-03-01 2011-03-01 状態推定装置

Country Status (5)

Country Link
US (1) US20130332112A1 (ja)
JP (1) JP5614489B2 (ja)
CN (1) CN103492903B (ja)
DE (1) DE112011104992T5 (ja)
WO (1) WO2012117528A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6035671B2 (ja) * 2012-09-27 2016-11-30 株式会社Ihi デバイスの状態同定方法と装置
US9563530B2 (en) * 2013-12-03 2017-02-07 Kabushiki Kaisha Toshiba Device state estimation apparatus, device power consumption estimation apparatus, and program
JP6091658B2 (ja) * 2013-12-26 2017-03-08 三菱電機株式会社 情報処理装置及び情報処理方法及びプログラム
CN104730537B (zh) * 2015-02-13 2017-04-26 西安电子科技大学 基于多尺度模型的红外/激光雷达数据融合目标跟踪方法
US9576185B1 (en) * 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
US10557942B2 (en) 2016-06-07 2020-02-11 DSCG Solutions, Inc. Estimation of motion using LIDAR
JP6836940B2 (ja) * 2017-03-22 2021-03-03 本田技研工業株式会社 レーザ式測距装置のノイズデータの特定方法
EP3470878B1 (de) * 2017-10-13 2023-04-19 Leuze electronic GmbH + Co. KG Optischer sensor
US10408638B2 (en) * 2018-01-04 2019-09-10 Mitsubishi Electric Research Laboratories, Inc. System and method for controlling a vehicle under sensor uncertainty
CN111868564B (zh) 2018-03-22 2024-05-07 日立安斯泰莫株式会社 物体识别装置
US10369923B1 (en) * 2018-04-30 2019-08-06 Automotive Research & Testing Center Operation method of adaptive driving beam headlamp system
DE102018206751A1 (de) * 2018-05-02 2019-11-07 Continental Automotive Gmbh Konturerkennung eines fahrzeugs anhand von messdaten einer umfeldsensorik
JP7318600B2 (ja) * 2020-07-06 2023-08-01 トヨタ自動車株式会社 車両及び他車両の認識方法
US11420647B2 (en) * 2020-08-13 2022-08-23 Argo AI, LLC Enhanced static object classification using lidar
EP4148460A1 (de) * 2021-09-13 2023-03-15 Leuze electronic GmbH + Co. KG Optischer sensor und verfahren zur detektion von objekten mittels eines optischen sensors

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005274300A (ja) * 2004-03-24 2005-10-06 Mitsubishi Electric Corp 目標追尾装置
JP2009042181A (ja) * 2007-08-10 2009-02-26 Denso Corp 推定装置
JP2009128298A (ja) * 2007-11-27 2009-06-11 Mitsubishi Electric Corp 目標追尾装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6121919A (en) * 1999-07-23 2000-09-19 Eaton-Vorad Technologies, L.L.C. Method and apparatus for range correction in a radar system
US6628227B1 (en) * 2002-07-23 2003-09-30 Ford Global Technologies, Llc Method and apparatus for determining a target vehicle position from a source vehicle using a radar
JP4433887B2 (ja) * 2003-07-01 2010-03-17 日産自動車株式会社 車両用外界認識装置
US8855848B2 (en) * 2007-06-05 2014-10-07 GM Global Technology Operations LLC Radar, lidar and camera enhanced methods for vehicle dynamics estimation
JP2009098023A (ja) * 2007-10-17 2009-05-07 Toyota Motor Corp 物体検出装置及び物体検出方法
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP5051468B2 (ja) * 2008-12-25 2012-10-17 トヨタ自動車株式会社 センサ校正装置、及び、センサ校正方法
FR2953021B1 (fr) * 2009-11-26 2011-12-09 Tanguy Griffon Methode de mesure des emissions hebdomadaires et annuelles d'un gaz a effet de serre sur une surface donnee

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005274300A (ja) * 2004-03-24 2005-10-06 Mitsubishi Electric Corp 目標追尾装置
JP2009042181A (ja) * 2007-08-10 2009-02-26 Denso Corp 推定装置
JP2009128298A (ja) * 2007-11-27 2009-06-11 Mitsubishi Electric Corp 目標追尾装置

Also Published As

Publication number Publication date
CN103492903A (zh) 2014-01-01
DE112011104992T5 (de) 2014-01-23
US20130332112A1 (en) 2013-12-12
CN103492903B (zh) 2015-04-01
WO2012117528A1 (ja) 2012-09-07
JPWO2012117528A1 (ja) 2014-07-07

Similar Documents

Publication Publication Date Title
JP5614489B2 (ja) 状態推定装置
US9797981B2 (en) Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method
CN105539437B (zh) 对象检测装置
US8989913B2 (en) Travel route estimation device and travel route estimation method used in the same device
JP5664252B2 (ja) 歩行者検出装置
CN110632617B (zh) 一种激光雷达点云数据处理的方法及装置
US9031773B2 (en) Apparatus and method for detecting narrow road in front of vehicle
JP7487388B2 (ja) 測定装置、測定方法、及び、プログラム
US8847792B2 (en) Object detection apparatus and object detection program
JP2005025458A (ja) 車両用外界認識装置
JP5651642B2 (ja) 物体位置検知装置
US20210245777A1 (en) Map generation device, map generation system, map generation method, and storage medium
JP5904226B2 (ja) 車両挙動予測装置及びプログラム
JP2018054315A (ja) 軸ずれ推定装置
KR20150106200A (ko) 차량 레이더 오차 보정 시스템 및 그 방법
JP2017138660A (ja) 物体検出方法、物体検出装置、およびプログラム
CN104620297A (zh) 速度算出装置、速度算出方法以及碰撞判定装置
KR20190051601A (ko) 차량의 센서 데이터 연계 장치 및 방법
JP2008003662A (ja) 車両識別システム
JP2013113789A (ja) 速度推定装置及びプログラム
JPWO2019123582A1 (ja) 物体情報生成装置及び物体情報生成プログラム
JP5682302B2 (ja) 走行道路推定装置、方法およびプログラム
JP7308141B2 (ja) 自己位置推定方法及び自己位置推定装置
JP4506163B2 (ja) 前方物体検出装置及び前方物体検出方法
US20230242102A1 (en) Position estimation system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140812

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140825

LAPS Cancellation because of no payment of annual fees