JP2017223607A - 物体認識統合装置および物体認識統合方法 - Google Patents

物体認識統合装置および物体認識統合方法 Download PDF

Info

Publication number
JP2017223607A
JP2017223607A JP2016120560A JP2016120560A JP2017223607A JP 2017223607 A JP2017223607 A JP 2017223607A JP 2016120560 A JP2016120560 A JP 2016120560A JP 2016120560 A JP2016120560 A JP 2016120560A JP 2017223607 A JP2017223607 A JP 2017223607A
Authority
JP
Japan
Prior art keywords
data
previous
observation
correspondence
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016120560A
Other languages
English (en)
Other versions
JP6239047B1 (ja
Inventor
森 正憲
Masanori Mori
正憲 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016120560A priority Critical patent/JP6239047B1/ja
Priority to US15/363,613 priority patent/US10311340B2/en
Priority to DE102017200562.9A priority patent/DE102017200562A1/de
Application granted granted Critical
Publication of JP6239047B1 publication Critical patent/JP6239047B1/ja
Publication of JP2017223607A publication Critical patent/JP2017223607A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Abstract

【課題】複数のセンサの各センサによって検出された検出データを、物体の識別の不正確さを考慮して、統合することができる物体認識統合装置および物体認識統合方法を得る。【解決手段】複数のセンサごとに生成される観測データに含まれる物体種類および物体種類候補ごとの確からしさと、前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係を決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行うことで相関データを生成し、その相関データを用いて前回物体データを更新することで今回物体データを生成するように構成されている。【選択図】図1

Description

本発明は、自車に搭載した複数のセンサからそれぞれ受信した物体の検出データを統合する物体認識統合装置および物体認識統合方法に関するものである。
従来において、自車に搭載した複数のセンサの各センサによって検出された検出データを統合・融合するセンサフュージョン技術を用いて、自車周辺の物体等を認識し、その認識結果から、車間距離維持制御、車線維持制御、自動ブレーキ制御等の各種制御を行う予防安全・自動運転技術の開発が進んでいる。
従来の物体認識統合装置(例えば、特許文献1参照)では、自車に搭載したレーザレーダによって自車前方を探査し、所定の歩行者検出範囲の外で検出し追尾した物体を、歩行者ではないと判定し、自車に搭載した光学カメラによって撮像された自車前方画像における歩行者検出対象から除外する。続いて、レーザレーダが検出し追尾した物体の相対速度等に基づいて、その物体を、前方車、対向車、静止障害物等のいずれかに識別し、歩行者検出対象から除外する。このような除外処理後の画像において、自車予測経路に近いほど歩行者検出閾値を低く設定した上で画像認識処理を施すことで、歩行者を検出する。
特許第5178276号公報
ここで、特許文献1に記載の従来技術では、光学カメラの画像認識処理の負荷を軽減するために、レーザレーダの検出結果に基づいて、歩行者ではない物体を歩行者検出対象から除外し、残った物体について画像認識処理を施すことで歩行者を検出する。しかしながら、歩行者検出対象から除外した物体が歩行者でないとは限らない。
例えば、歩行者は車両等に比べてレーザレーダの反射強度が低いことから、レーザレーダの検出閾値を低くすれば、歩行者検出範囲外であっても、レーザレーダによって歩行者を検出することができる。この場合、このように検出した歩行者は、光学カメラの歩行者検出対象から除外される。
一方、レーザレーダの検出閾値を高くすれば、歩行者検出範囲内であっても、レーザレーダによって歩行者を検出することができないので、実際には、歩行者検出範囲内に歩行者が存在していても、その歩行者は、光学カメラの歩行者検出対象から除外される。
また、立ち止まっている歩行者は、同程度の反射強度を持つ静止障害物と区別することができないことから、検出した物体を静止障害物と判定すると、やはり、その物体は光学カメラの歩行者検出対象から除外される。
なお、以上のことは、歩行者以外の車両等を認識対象とする場合、レーザレーダの代わりにミリ波レーダ等のセンサを用いる場合等においても、同様である。
以上から分かるように、従来の物体認識統合装置では、複数のセンサのうちいずれか選択したセンサの検出結果に基づいて他センサの検出処理を行う。したがって、その選択したセンサによって検出されなかった物体、または検出された場合であっても識別を誤った物体を、他センサで検出することができないという問題がある。
本発明は、例えば上記のような課題を解決するためになされたものであり、複数のセンサの各センサによって検出された検出データを、物体の識別の不正確さを考慮して、統合することができる物体認識統合装置および物体認識統合方法を得ることを目的とする。
本発明における物体認識統合装置は、複数のセンサのそれぞれから検出データを受信し、受信した検出データからセンサごとに観測データを生成し、センサごとの観測データを出力するデータ受信部と、データ受信部から出力された観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行い、観測データと、前回物体データと、対応付けとをまとめた相関データを生成し、生成した相関データを出力する相関データ生成部と、相関データ生成部から出力された相関データから、前回物体データに含まれる物体の状態、物体種類および確からしさを更新することで、今回の処理時刻における物体データである今回物体データを生成し、生成した今回物体データを出力する物体データ生成部と、を備えたものである。
また、本発明における物体認識統合方法は、複数のセンサのそれぞれから検出データを受信し、受信した検出データからセンサごとに観測データを生成し、センサごとの観測データを出力するデータ受信ステップと、データ受信ステップで出力された観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行い、観測データと、前回物体データと、対応付けとをまとめた相関データを生成し、生成した相関データを出力する相関データ生成ステップと、相関データ生成ステップで出力された相関データから、前回物体データに含まれる物体の状態、物体種類および確からしさを更新することで、今回の処理時刻における物体データである今回物体データを生成し、生成した今回物体データを出力する物体データ生成ステップと、を備えたものである。
本発明によれば、複数のセンサの各センサによって検出された検出データを、物体の識別の不正確さを考慮して、統合することができる物体認識統合装置および物体認識統合方法を得ることができる。
本発明の実施の形態1における物体認識統合装置を含む物体認識統合システムの構成を示すブロック図である。 本発明の実施の形態1における物体認識統合装置の動作を示すフローチャートである。 本発明の実施の形態1における相関データ生成部が残差ベクトルを用いた対応可能性判定を修正する際に用いる対応表である。
以下、本発明による物体認識統合装置および物体認識統合方法を、好適な実施の形態にしたがって図面を用いて説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。
実施の形態1.
図1は、本発明の実施の形態1における物体認識統合装置4を含む物体認識統合システムの構成を示すブロック図である。図1における物体認識統合システムは、第1のセンサ1、第2のセンサ2、車両情報センサ3、物体認識統合装置4、表示部5および車両制御部6を備える。
第1のセンサ1および第2のセンサ2は、物体から放射された光、電磁波等の検出波、または物体に検出波を照射して物体から反射した検出波を受信し、受信した検出波に対して信号処理、画像処理等の処理が行われることで、物体までの距離、物体の方位角、物体の相対速度等を検出するタイプのセンサである。具体的には、第1のセンサ1および第2のセンサ2として、例えば、ミリ波レーダ、レーザレーダ、超音波センサ、赤外線センサ、光学カメラ等を用いることができる。
第1のセンサ1および第2のセンサ2の自車への搭載位置、および第1のセンサ1および第2のセンサ2の各センサの検出範囲は、既知であるものとする。また、第1のセンサ1および第2のセンサ2の自車への搭載位置等は任意に設定することができる。
ここで、本発明では、第1のセンサ1によって検出された第1の検出データと、第2のセンサ2によって検出された第2の検出データとを統合するので、第1のセンサ1の検出範囲と、第2のセンサ2の検出範囲において、共通する部分、すなわち、重複する部分が存在することが望ましい。また、第1のセンサ1と第2のセンサ2とは同一のセンサ方式としてもよいが、第1のセンサ1および第2のセンサ2の一方のセンサによって検出することができない物体を他方のセンサによって検出可能とするため、第1のセンサ1と第2のセンサ2とは相異なるセンサ方式とすることが望ましい。
具体的には、例えば、第1のセンサ1としてミリ波レーダを用い、第2のセンサ2として光学カメラを用い、第1のセンサ1を自車の前方バンパー部中央に搭載し、第2のセンサ2を自車のルームミラー裏側に搭載し、自車の前方を両センサの共通の検出範囲とすることが考えられる。
第1のセンサ1および第2のセンサ2の各センサは、検出可能な検出範囲に存在する物体に関する情報を、検出データとして検出し、その検出データを物体認識統合装置4に送信する。
ここで、検出データは、例えば、センサによって検出された物体のそのセンサに対する相対位置および相対速度、その物体の種類(以下、物体種類と表記する)の情報を含む。以下、第1のセンサ1によって検出された検出データを第1の検出データと表記し、第2のセンサ2によって検出された検出データを第2の検出データと表記する。
例えば、センサが光学カメラの場合、光学カメラの検出データに含まれる物体種類は、画像処理の抽出対象として予め定められ、例えば、「車両」または「歩行者」のいずれかである。ただし、画像処理の抽出対象以外の物体は、光学カメラによる誤検出を除いて、光学カメラの検出データには含まれない。
また例えば、センサがミリ波レーダの場合、ミリ波レーダの検出データに含まれる物体種類は、検出された物体に由来する反射強度、信号対雑音比等の特徴量から推定することができる。例えば、検出された物体において、反射強度が大きければ「車両」と識別し、反射強度が小さければ「歩行者」と識別することができる。
ただし、検出された物体が車両であっても反射強度が小さい場合があったり、検出された物体が車両以外の物体であっても反射強度が大きい場合があったりすることから、ミリ波レーダは、検出された物体の種類を必ずしも特定することができるわけではない。そこで、本実施の形態1では、特徴量を用いて、物体種類候補ごとの確からしさを算出し、その算出値に基づいて、物体種類を特定するように構成されている。
なお、ここでいう物体種類候補ごとの確からしさとは、検出された物体が物体種類候補である確からしさを意味し、0以上1以下の実数値によって表される。確からしさの値が大きいほど、検出した物体が物体種類候補である確率が高い。
例えば、物体種類候補として「車両」および「歩行者」を想定し、検出された物体が「車両」である確からしさが0.7以上であり、かつ、検出された物体が「歩行者」である確からしさが0.3未満であれば、物体種類を「車両」として特定する。一方、確からしさの値からは、「車両」および「歩行者」のいずれにも物体種類を特定することができない場合には、便宜上、物体種類を「その他」と分類する。
なお、本実施の形態1においては、説明を分かりやすくするため、以下の前提を置く。すなわち、第1のセンサ1は、物体までの距離、および物体の相対速度を精度良く検出するとともに、物体に由来する反射強度等の特徴量を用いて物体を識別することができる一方、その識別の精度が悪く、物体種類を正確に特定することができるとは限らないものとする。
また、第2のセンサ2は、物体の方位角を精度良く検出するとともに、検出された物体の種類を正確に特定することができる一方、識別対象となる物体以外の物体を検出することができないものとする。
以上の前提を満たす、第1のセンサ1および第2のセンサ2のセンサ方式の組合せとして、例えば、第1のセンサ1をミリ波レーダとし、第2のセンサ2を光学カメラとすることができるが、センサ方式の組合せは、これに限るものではない。
車両情報センサ3は、自車に関する情報を自車データとして検出し、その自車データを物体認識統合装置4に送信する。なお、自車データは、例えば、自車の速度、車輪速、ステアリング角、ヨーレート等の情報を含む。
なお、GPS(Global Positioning System)を用いて、自車の緯度、経度、進行方向等を、自車データとして検出するように、車両情報センサ3を構成してもよい。
物体認識統合装置4は、第1のセンサ1から受信した第1の検出データと、第2のセンサ2から受信した第2の検出データから、物体の情報を推定し、その推定結果を物体データとして出力する。物体認識統合装置4は、データ受信部41、相関データ生成部42および物体データ生成部43を有する。なお、物体認識統合装置4は、例えば、メモリに記憶されたプログラムを実行するCPUと、システムLSI等の処理回路によって実現される。
データ受信部41は、第1のセンサ1から第1の検出データを受信し、第2のセンサ2から第2の検出データを受信し、車両情報センサ3から自車データを受信する。また、データ受信部41は、受信した各データから、第1のセンサ1および第2のセンサ2のセンサごとに観測データを生成する。データ受信部41は、生成したセンサごとの観測データを相関データ生成部42に出力する。
相関データ生成部42は、データ受信部41から入力された観測データと、物体データ生成部43から入力された物体データとの対応関係を決定することで、観測データと物体データとの対応付けを行う。また、相関データ生成部42は、その観測データと、その物体データと、その対応付けとをまとめた相関データを生成する。相関データ生成部42は、生成した相関データを物体データ生成部43に出力する。
物体データ生成部43は、相関データ生成部42から入力された相関データに基づいて、物体データを更新することで、更新後の物体データを出力する。
ここで、物体データは、例えば、第1のセンサ1または第2のセンサ2によって検出された物体の状態、物体種類、物体種類候補ごとの確からしさ等の情報を含む。物体の状態とは、位置ベクトル、速度ベクトル、加速度ベクトル等の情報である。また、物体データ生成部43は、例えば、最小二乗法、カルマンフィルタ、粒子フィルタ等を用いて、物体の状態を更新する。
なお、物体データに含まれる物体種類は、第1のセンサ1および第2のセンサ2の各センサによって検出される検出データに含まれる物体種類とは、独立して設定することができる。ただし、各センサの識別結果を活用するために、物体データに含まれる物体種類は、各センサによって検出される検出データに含まれる物体種類を可能な限り含むように設定することが望ましい。
例えば、ミリ波レーダの検出データに含まれる物体種類が「車両」、「歩行者」および「その他」のいずれかに識別され、光学カメラの検出データに含まれる物体種類が「車両」および「歩行者」のいずれかに識別されるように構成されている場合、物体データに含まれる物体種類が「車両」、「歩行者」および「その他」のいずれかに識別されるように設定される。また、物体データに含まれる物体種類候補ごとの確からしさは、0以上1以下の実数値によって表される。
物体データ生成部43は、例えば自車内部のインストゥルメントパネル、ヘッドマウントディスプレイ等の表示部5に物体データを出力する。この場合、表示部5は、運転者等に向けて、物体データ生成部43から入力された物体データを表示する。
また、物体データ生成部43は、例えばブレーキ制御装置、ステアリング制御装置等の車両制御部6に物体データを出力する。この場合、車両制御部6は、物体データ生成部43から入力された物体データを用いて、車間距離維持制御、車線維持制御、自動ブレーキ制御等の制御を行う。
次に、本実施の形態1における物体認識統合装置4の動作について、図2を参照しながら説明する。図2は、本発明の実施の形態1における物体認識統合装置4の動作を示すフローチャートである。
なお、物体認識統合装置4は、例えば、予め設定された動作周期で図2のフローチャートの処理を繰り返し実行する。また、図2のフローチャートの処理は、ある処理時刻tk、すなわち、今回の処理時刻tkでの物体認識統合装置4の動作を示している。以下では、今回の処理時刻tkの1つ前の前回の処理時刻をtk−1と表記する。また、処理時刻tkの物体データを今回物体データと表記し、処理時刻tk−1の物体データを前回物体データと表記する。
まず、ステップS101において、データ受信部41は、第1のセンサ1から第1の検出データを受信し、第2のセンサ2から第2の検出データを受信し、処理がステップS102へと進む。
ステップS101では、データ受信部41は、第1のセンサ1および第2のセンサ2の各センサから検出データを受信するとともに、車両情報センサ3から自車データを併せて受信する。また、第1の検出データ、第2の検出データおよび自車データの受信は、処理時刻tk−1から処理時刻tkまでの時間内に行われる。
さらに、第1のセンサ1と第2のセンサ2の両方のセンサから常に検出データを受信するわけではなく、どちらか一方のセンサのみから検出データを受信したり、両方のセンサから検出データを受信しなかったりする場合がある。
ステップS102において、データ受信部41は、第1のセンサ1から受信した第1の検出データと、第2のセンサ2から受信した第2の検出データから、センサごとに観測データを生成し、処理がステップS103へと進む。なお、データ受信部41は、第1のセンサ1および第2のセンサ2の両方のセンサから検出データを受信しなかった場合、観測データを生成しない。
また、データ受信部41は、第1のセンサ1および第2のセンサ2の両方のセンサから検出データを受信した場合、第1の検出データから生成される第1のセンサ1の観測データと、第2の検出データから生成される第2のセンサ2の観測データとの、相関データ生成部42への入力順序を決定する。
なお、これらの観測データの相関データ生成部42への入力順序は、例えば、各センサからの検出データの受信の早い順に、各センサの観測データが相関データ生成部42へ入力されるように決定される。
また、データ受信部41は、センサごとに生成された観測データの入力状態を未入力にリセットする。
ここで、センサごとに観測データを生成する具体例について説明する。例えば、データ受信部41は、車両情報センサ3から受信した自車データを用いて、第1の検出データおよび第2の検出データを必要に応じて加工することで、センサごとに観測データを生成する。
より具体的には、例えば、受信した検出データに物体の相対速度が含まれる場合、データ受信部41は、受信した自車データに含まれる自車速度と組み合わせることで物体の対地速度を算出し、その算出結果を観測データとして生成する。
なお、第1の検出データおよび第2の検出データを加工せずに、第1の検出データをそのまま第1のセンサの観測データとして生成し、第2の検出データをそのまま第2のセンサの観測データとして生成するようにしてもよい。
このように、データ受信部41は、複数のセンサのそれぞれから検出データを受信し、受信した検出データからセンサごとに観測データを生成し、センサごとの観測データを出力する。また、相関データ生成部42は、すべての物体データの更新フラグを0にセットする。
ステップS103において、データ受信部41は、まだ入力済でないセンサの観測データが存在するか否かを判定する。まだ入力済でないセンサの観測データが存在すると判定された場合には、処理がステップS104へと進む。一方、そうでないと判定された場合には、データ受信部41は、今回物体データを前回物体データで上書きし、今回物体データのすべての選択状態を未選択にリセットして、処理がステップS114へと進む。
ステップS104において、データ受信部41は、まだ入力済でないセンサの観測データを1つ選択し、その選択した観測データを相関データ生成部42に入力し、処理がステップS105へと進む。
ステップS104では、相関データ生成部42は、データ受信部41から入力された観測データの選択状態を未選択にリセットする。また、相関データ生成部42は、物体データ生成部43から前回物体データを入力する。
ステップS105において、相関データ生成部42は、データ受信部41から入力された観測データのうち、まだ選択済でない観測データが存在するか否かを判定する。まだ選択済でない観測データが存在すると判定された場合には、相関データ生成部42は、まだ選択済でない観測データを1つ選択し、その観測データの選択状態を選択済に変更し、処理がステップS106へと進む。一方、そうでないと判定された場合には、処理がステップS107へと進み、観測データのループ処理が終了となり、さらに、処理がステップS108へと進む。
ステップS106において、相関データ生成部42は、ステップS105で選択した観測データと対応する可能性のある前回物体データを探索する。
ここで、物体の検出データが時系列として空間的に連続して得られることと、各センサで同じ物体を検出したときの検出データは空間的な位置関係が近いことを前提として、前回物体データと観測データとの対応関係を定めることができる。すなわち、前回物体データと観測データとの、位置、速度等の残差ベクトルの長さが閾値よりも大きい場合、対応関係として、「対応可能性なし」と定める。一方、その残差ベクトルの長さが閾値以下である場合、対応関係として、「対応可能性あり」と定める。
上記の具体例として、物体データ生成部43から相関データ生成部42に入力された前回物体データすべてについて、相関データ生成部42は、各前回物体データの状態ベクトルから計算した位置ベクトルの予測値と、選択した観測データの位置ベクトルとの残差ベクトルを計算する。続いて、相関データ生成部42は、その計算結果として、残差ベクトルのユークリッド距離が予め設定された閾値以下であれば、前回物体データと、選択した観測データとは「対応可能性あり」と判定する。
なお、前回物体データと観測データとの対応関係を判定するにあたって、上記のように残差ベクトルのユークリッド距離を用いて判定する代わりに、例えば、縦位置の残差の絶対値が閾値以下、かつ、横位置の残差が閾値以下であれば、「対応可能性あり」と判定するようにしてもよい。また、前回物体データに含まれる物体の状態の更新にカルマンフィルタを用いる場合、残差ベクトルを誤差共分散行列で正規化したマハラノビス距離を用いて、対応関係を判定するようにしてもよい。さらに、残差ベクトルとして、位置ベクトルだけでなく、ドップラー速度、または速度ベクトルの残差を含めて、対応関係を判定するようにしてもよい。
このように、相関データ生成部42は、観測データと前回物体データとの対応関係について、残差ベクトルを用いた対応可能性判定を行う。
ただし、一方のセンサで検出可能な物体が他方のセンサでは検出不可能であったり、検出データの誤差が大きかったりするために、観測データと、その観測データに対応する物体とは異なる物体に対応する前回物体データとが、「対応可能性あり」と誤って判定される場合がある。
また、観測データと前回物体データとの対応関係が正しく判定されない場合、前回物体データに含まれる物体の状態が実際の物体の挙動と異なることに起因して、異常な情報が表示されたり、車両制御において誤アクセル、誤ブレーキ、誤ハンドル等の誤作動が起きたりする可能性がある。
そこで、ステップS106では、相関データ生成部42は、観測データに含まれる物体種類と、前回物体データに含まれる物体種類とを照合する。相関データ生成部42は、その照合結果から、観測データに含まれる物体種類と、前回物体データに含まれる物体種類とが異なる場合、物体種類の異なる観測データと前回物体データとは「対応可能性なし」と決定することで、上記の残差ベクトルを用いた対応可能性判定を修正する。
ただし、観測データに含まれる物体種類は、前回物体データに含まれる物体種類と必ずしも一対一に対応するとは限らない。例えば、ミリ波レーダは識別の精度が悪いので、ミリ波レーダの検出データから生成された観測データに含まれる物体種類が誤っていたり、物体種類が特定不可能であったりすることがある。また、例えば、光学カメラは識別の精度が良いものの、識別対象以外の物体を検出することができないので、前回物体データに含まれる物体種類において、光学カメラの検出データから生成された観測データに含まれる物体種類とは異なるものが存在することがある。
そこで、ステップS106では、相関データ生成部42は、図3に示す対応表を用いて、残差ベクトルを用いた対応可能性判定を修正する。図3は、本発明の実施の形態1における相関データ生成部42が残差ベクトルを用いた対応可能性判定を修正する際に用いる対応表である。
すなわち、相関データ生成部42は、観測データに含まれる物体種類と、前回物体データに含まれる物体種類とがともに特定されている場合、物体種類の組合せが同じときのみ、「対応可能性あり」の判定を維持する。一方、相関データ生成部42は、物体種類の組合せが異なるときには、「対応可能性あり」の判定を維持しない、すなわち、「対応可能性あり」の判定を、「対応可能性なし」と修正する。
一方、相関データ生成部42は、観測データに含まれる物体種類、または前回物体データに含まれる物体種類が、特定されていない場合、すなわち、「その他」として分類されている場合、データに含まれる物体種類候補ごとの確からしさを用いて、「対応可能性あり」の判定を維持するか否かを決定する。
相関データ生成部42は、具体的には、図3に示すように物体種類の組合せが「×」に対応する組合せの場合、残差ベクトルを用いた対応可能性判定として、「対応可能性あり」の判定であれば、その判定を「対応可能性なし」に修正する。
つまり、物体種類の組合せが「×」に対応する組合せの場合、「対応可能性なし」と決定される。このように定めておくことで、観測データと前回物体データとの対応関係について、互いの物体種類が異なる場合、「対応可能性なし」と決定されることとなる。
物体種類の組合せが「○」に対応する組合せの場合、残差ベクトルを用いた対応可能性判定として、「対応可能性あり」の判定であれば、その判定を維持する。
つまり、物体種類の組合せが「○」に対応する組合せの場合、「対応可能性あり」と決定される。このように定めておくことで、観測データと前回物体データとの対応関係について、互いの物体種類が同じ場合、「対応可能性あり」と決定されることとなる。
このように、相関データ生成部42は、観測データおよび前回物体データの両方のデータに含まれる物体種類がいずれも特定されている場合、両方のデータに含まれるそれぞれの物体種類が互いに異なるか否かによって、対応関係を決定する。
物体種類の組合せが「△」に対応する組合せの場合、残差ベクトルを用いた対応可能性判定として、「対応可能性あり」の判定であれば、前回物体データに含まれる物体種類候補ごとの確からしさと、選択した観測データに含まれる物体種類候補ごとの確からしさとが類似していることを条件に、その判定を維持する。
例えば、前回物体データに含まれる物体種類が「歩行者」であり、選択した観測データが第1のセンサ1としてのミリ波レーダの検出データから生成されたものであってその観測データに含まれる物体種類が「その他」である場合を考える。
上記の場合、選択した観測データに含まれる物体種類候補ごとの確からしさにおいて、物体が「歩行者」である確からしさが、物体が「車両」である確からしさよりも大きく、かつ予め設定された閾値(例えば、0.3)以上であるときには、「対応可能性あり」の判定を維持する。
つまり、物体種類の組合せが「△」に対応する組合せの場合、観測データにおいて、前回物体データで特定されている「歩行者」に対応する確からしさが大きいときには、「対応可能性あり」と決定される。このように定めておくことで、観測データと前回物体データとの対応関係について、観測データにおける、前回物体データで特定されている物体種類に対応する確からしさが大きい場合、「対応可能性あり」と決定されることとなる。
一方、選択した観測データに含まれる物体種類候補ごとの確からしさにおいて、物体が「歩行者」である確からしさが、物体が「車両」である確からしさよりも小さいときには、「対応可能性あり」の判定を「対応可能性なし」に修正する。
つまり、物体種類の組合せが「△」に対応する組合せの場合、観測データにおいて、前回物体データで特定されている「歩行者」に対応する確からしさが小さいときには、「対応可能性なし」と決定される。このように定めておくことで、観測データと前回物体データとの対応関係について、観測データにおける、前回物体データで特定されている物体種類に対応する確からしさが小さい場合、「対応可能性なし」と決定されることとなる。
このように、相関データ生成部42は、観測データおよび前回物体データの一方のデータに含まれる物体種類が特定され、他方のデータに含まれる物体種類が特定されていない場合、他方のデータにおける、一方のデータで特定されている物体種類に対応する確からしさによって、対応関係を決定する。
なお、本実施の形態1では、観測データと前回物体データとの対応関係について、残差ベクトルを用いた対応可能性判定を行わずに、観測データと前回物体データとの対応関係を決定するようにしてもよい。この場合、相関データ生成部42は、観測データに含まれる物体種類および物体種類候補ごとの確からしさと、前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、対応関係を決定する。
以上のように、相関データ生成部42は、データ受信部41から入力された観測データに含まれる物体種類および物体種類候補ごとの確からしさと、前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定する。
図2の説明に戻り、ステップS108において、相関データ生成部42は、ステップS106で決定された対応関係から、前回物体データと観測データとの対応付けを行い、処理がステップS109へと進む。
すなわち、相関データ生成部42は、ステップS106で「対応可能性あり」と決定された前回物体データと観測データとについて、どの前回物体データと、どの観測データとが同一の物体に由来するものであるかを決定する。
相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データが0個の場合、何もしない。相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データが1個以上である場合、前回物体データと観測データとの残差ベクトルの大小に基づいて、物体データと対応付ける観測データを一意に決定する。具体的には、相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データと観測データとの残差ベクトルの加重平均が最も小さい観測データを、前回物体データと対応付ける。
なお、前回物体データと「対応可能性あり」と決定された複数の観測データについて、位置ベクトルの加重平均を計算し、その加重平均を代表値として前回物体データと対応付けてもよい。例えば、SNN(Simple Nearest Neighbor)アルゴリズム、GNN(Global Nearest Neighbor)アルゴリズム、JPDA(Joint Probabilistic Data Association)アルゴリズムなどを用いることができる。
また、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データと観測データとの残差ベクトルと、前回物体データと観測データとの確からしさの残差との加重平均が最も小さい観測データを、前回物体データと対応付けてもよい。
また、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データに含まれる物体種類と同一の物体種類について最も大きい確からしさを持つ観測データを、前回物体データと対応付けてもよい。つまり、観測データに含まれる物体種類候補ごとの確からしさのうち、前回物体データに含まれる物体種類と同一の物体種類に対応する確からしさが最も大きい観測データを、前回物体データと対応付ける。
また、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データに含まれる物体種類候補ごとの確からしさと最も類似する確からしさを持つ観測データを、前回物体データと対応付けてもよい。
例えば、前回物体データに含まれる物体種類候補ごとの確からしさにおいて、物体が「車両」である確からしさが0.40であり、物体が「歩行者」である確からしさが0.20であり、観測データA,Bの2個の観測データが存在するものとする。
また、一方の観測データAに含まれる物体種類候補ごとの確からしさにおいて、物体が「車両」である確からしさが0.35であり、物体が「歩行者」である確からしさが0.25であるものとする。さらに、他方の観測データBに含まれる物体種類候補ごとの確からしさにおいて、物体が「車両」である確からしさが0.35であり、物体が「歩行者」である確からしさが0.40であるものとする。
上記の場合、前回物体データと「対応可能性あり」と決定された観測データA,Bのうち、前回物体データに含まれる物体種類候補ごとの確からしさと最も類似する確からしさを持つ観測データAを、前回物体データと対応付ける。
なお、以上の対応付けの決定方法は、物体データや観測データの自車からの距離、角度、相対速度、物体データの観測データとの対応回数等に応じて、条件付きで任意に組み合わせてもよい。
相関データ生成部42は、前回物体データと、観測データと、前回物体データと観測データとの対応付けとをまとめた相関データを、物体データ生成部43に入力する。また、物体データ生成部43は、相関データに含まれる観測データの選択状態を未選択にリセットする。
このように、相関データ生成部42は、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行うことで、相関データを生成する。
ステップS109において、物体データ生成部43は、相関データ生成部42から入力された相関データにおいて、まだ選択済でない観測データが存在するか否かを判定する。まだ選択済でない観測データが存在すると判定された場合には、物体データ生成部43は、まだ選択済でない観測データを1つ選択し、処理がステップS110へと進む。一方、そうでないと判定された場合には、処理がステップS113へと進み、観測データのループ処理が終了となり、さらに、物体データ生成部43は、前回物体データを今回物体データで上書きし、センサの観測データを入力済にセットして、処理がステップS103に戻る。
ステップS110において、物体データ生成部43は、相関データ生成部42から入力された相関データにおいて、選択した観測データと対応付けられた前回物体データが存在するか否かを判定する。選択した観測データに対応付けられた前回物体データが存在すると判定された場合には、処理がステップS111へと進む。一方、そうでないと判定された場合には、処理がステップS112へと進む。
ステップS111において、物体データ生成部43は、選択した観測データを用いて、その選択した観測データに対応付けられた前回物体データに含まれる物体の状態、物体種類および物体種類候補ごとの確からしさを更新し、更新後の前回物体データを今回物体データとして生成する。
なお、前回物体データに含まれる位置ベクトル、速度ベクトル、加速度ベクトル等の物体の状態は、例えば、最小二乗法、カルマンフィルタ、粒子フィルタ等を用いて更新される。また、前回物体データに含まれる物体種類と物体種類候補ごとの確からしさは、例えば、選択した観測データに含まれる物体種類と物体種類候補ごとの確からしさを引き継ぐことで更新される。
なお、前回物体データに含まれる物体種類候補ごとの確からしさと、選択した観測データに含まれる物体種類候補ごとの確からしさとの加重平均を計算し、その計算結果から、前回物体データに含まれる物体種類を決定してもよい。ここで、確からしさの重み付けは、センサの種類によって変化させ、第2のセンサ2としての光学カメラに対応する重み付けを高くし、第1のセンサ1としてのミリ波レーダに対応する重み付けを低くすることが望ましい。そして、物体データ生成部43は、更新された確からしさに基づいて、前回物体データに含まれる物体種類を決定する。
物体データ生成部43は、選択した観測データを用いて更新された前回物体データについて、更新フラグを1にセットする。
一方、ステップS112において、物体データ生成部43は、選択した観測データに基づいて、新しい物体データを今回物体データとして生成し、更新フラグを1にセットする。
このように、物体データ生成部43は、相関データ生成部42から入力された相関データから、前回物体データに含まれる物体の状態、物体種類および物体種類候補ごとの確からしさを更新することで、更新後の前回物体データを、今回物体データとして生成する。
ステップS114において、物体データ生成部43は、まだ選択済でない今回物体データが存在するか否かを判定する。まだ選択済でない今回物体データが存在すると判定された場合には、物体データ生成部43は、まだ選択済でない今回物体データを1つ選択し、選択状態を選択済にセットし、処理がステップS115へと進む。一方、そうでないと判定された場合には、処理がステップS120へと進み、今回物体データのループ処理が終了となる。
ステップS115において、物体データ生成部43は、選択した今回物体データについて、更新フラグが1であるか否かを判定する。更新フラグが1であると判定された場合には、処理がステップS116へと進む。そうでないと判定された場合には、処理がステップS117へと進む。
ステップS116において、物体データ生成部43は、選択した今回物体データについて、ロスト回数を0にリセットし、処理がステップS118へと進む。
ステップS117において、物体データ生成部43は、選択した今回物体データについて、ロスト回数をインクリメントし、処理がステップS118へと進む。
ステップS118において、物体データ生成部43は、選択した今回物体データについて、ロスト回数が予め設定された閾値以上であるか否かを判定する。そのロスト回数が閾値以上であると判定された場合には、処理がステップS119へと進む。一方、そうでないと判定された場合には、次の選択済でない今回物体データの選択に移る。
ステップS119において、物体データ生成部43は、選択した今回物体データが、いずれのセンサの検出データから生成された観測データとも対応しなくなり、物体をいずれのセンサでも検出することができなくなったと判断し、選択した今回物体データを削除する。
そして、物体データ生成部43は、今回物体データを、相関データ生成部42、また、表示部5および車両制御部6に出力して、処理時刻tkでの処理が終了となる。
以上、本実施の形態1によれば、複数のセンサごとに生成される観測データに含まれる物体種類および物体種類候補ごとの確からしさと、前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係を決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行うことで相関データを生成し、その相関データを用いて前回物体データを更新することで今回物体データを生成するように構成されている。
これにより、複数のセンサの各センサによって検出された検出データを、物体の識別の不正確さを考慮して、統合することができる。また、一方のセンサで検出できた物体が他方のセンサで検出できなかったり、検出データの誤差が大きかったりする場合であっても、検出データと物体データとを正しく対応させ、センサシステム全体の認識精度を向上させることができる。
なお、本実施の形態1では、自車に搭載したセンサが2個の場合に対して本願発明を適用する例を説明したが、センサが3個以上の場合でも、同様に、本願発明が適用可能である。
1 第1のセンサ、2 第2のセンサ、3 車両情報センサ、4 物体認識統合装置、41 データ受信部、42 相関データ生成部、43 物体データ生成部、5 表示部、6 車両制御部。
本発明における物体認識統合装置は、複数のセンサのそれぞれから検出データを受信し、受信した検出データからセンサごとに、物体の状態、物体種類および物体種類候補ごとの確からしさを含む観測データを生成し、センサごとの観測データを出力するデータ受信部と、データ受信部から出力された観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における、物体の状態、物体種類および物体種類候補ごとの確からしさを含む物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行い、観測データと、前回物体データと、対応付けとをまとめた相関データを生成し、生成した相関データを出力する相関データ生成部と、相関データ生成部から出力された相関データに含まれる対応付けが行われた観測データと前回物体データについて、観測データを用いて、観測データに対応付けられた前回物体データに含まれる物体の状態、物体種類および確からしさを更新することで、今回の処理時刻における物体データである今回物体データを生成し、生成した今回物体データを出力する物体データ生成部と、を備えたものである。
また、本発明における物体認識統合方法は、複数のセンサのそれぞれから検出データを受信し、受信した検出データからセンサごとに、物体の状態、物体種類および物体種類候補ごとの確からしさを含む観測データを生成し、センサごとの観測データを出力するデータ受信ステップと、データ受信ステップで出力された観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における、物体の状態、物体種類および物体種類候補ごとの確からしさを含む物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、観測データと前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、「対応可能性あり」と決定された観測データと前回物体データとの対応付けを行い、観測データと、前回物体データと、対応付けとをまとめた相関データを生成し、生成した相関データを出力する相関データ生成ステップと、相関データ生成ステップで出力された相関データに含まれる対応付けが行われた観測データと前回物体データについて、観測データを用いて、観測データに対応付けられた前回物体データに含まれる物体の状態、物体種類および確からしさを更新することで、今回の処理時刻における物体データである今回物体データを生成し、生成した今回物体データを出力する物体データ生成ステップと、を備えたものである。
相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データが0個の場合、何もしない。相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データが1個以上である場合、前回物体データと観測データとの残差ベクトルの大小に基づいて、物体データと対応付ける観測データを一意に決定する。具体的には、相関データ生成部42は、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データと観測データとの残差ベクトルの大きさが最も小さい観測データを、前回物体データと対応付ける。
また、前回物体データと「対応可能性あり」と決定された観測データのうち、前回物体データと観測データとの残差ベクトルの大きさと、前回物体データと観測データとの確からしさの残差との加重平均が最も小さい観測データを、前回物体データと対応付けてもよい。

Claims (9)

  1. 複数のセンサのそれぞれから検出データを受信し、受信した前記検出データから前記センサごとに観測データを生成し、前記センサごとの前記観測データを出力するデータ受信部と、
    前記データ受信部から出力された前記観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、前記観測データと前記前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、前記「対応可能性あり」と決定された前記観測データと前記前回物体データとの対応付けを行い、前記観測データと、前記前回物体データと、前記対応付けとをまとめた相関データを生成し、生成した前記相関データを出力する相関データ生成部と、
    前記相関データ生成部から出力された前記相関データから、前記前回物体データに含まれる物体の状態、前記物体種類および前記確からしさを更新することで、前記今回の処理時刻における物体データである今回物体データを生成し、生成した前記今回物体データを出力する物体データ生成部と、
    を備えた物体認識統合装置。
  2. 前記相関データ生成部は、
    前記観測データと前記前回物体データとの前記対応関係について、残差ベクトルを用いた対応可能性判定を行い、
    前記観測データに含まれる前記物体種類および前記確からしさと、前記前回物体データに含まれる前記物体種類および前記確からしさとから、前記対応可能性判定を修正することで、前記対応関係を決定する
    請求項1に記載の物体認識統合装置。
  3. 前記相関データ生成部は、
    前記観測データおよび前記前回物体データの両方のデータに含まれる物体種類がいずれも特定されている場合、前記両方のデータに含まれるそれぞれの物体種類が互いに異なるか否かによって、前記対応関係を決定する
    請求項1または2に記載の物体認識統合装置。
  4. 前記相関データ生成部は、
    前記観測データおよび前記前回物体データの一方のデータに含まれる物体種類が特定され、他方のデータに含まれる物体種類が特定されていない場合、前記他方のデータにおける、前記一方のデータで特定されている物体種類に対応する前記確からしさによって、前記対応関係を決定する
    請求項1から3のいずれか1項に記載の物体認識統合装置。
  5. 前記相関データ生成部は、
    前記前回物体データと前記「対応可能性あり」と決定された前記観測データのうち、前記前回物体データと前記観測データとの残差ベクトルの加重平均が最も小さい観測データを、前記前回物体データと対応付ける
    請求項1から4のいずれか1項に記載の物体認識統合装置。
  6. 前記相関データ生成部は、
    前記前回物体データと前記「対応可能性あり」と決定された前記観測データのうち、前記前回物体データに含まれる物体種類と同一の物体種類について最も大きい前記確からしさを持つ観測データを、前記前回物体データと対応付ける
    請求項1から4のいずれか1項に記載の物体認識統合装置。
  7. 前記相関データ生成部は、
    前記前回物体データと前記「対応可能性あり」と決定された前記観測データのうち、前記前回物体データに含まれる前記確からしさと最も類似する前記確からしさを持つ観測データを、前記前回物体データと対応付ける
    請求項1から4のいずれか1項に記載の物体認識統合装置。
  8. 前記相関データ生成部は、
    前記前回物体データと前記「対応可能性あり」と決定された前記観測データのうち、前記前回物体データと前記観測データとの残差ベクトルと、前記前回物体データと前記観測データとの前記確からしさの残差との加重平均が最も小さい観測データを、前記前回物体データと対応付ける
    請求項1から4のいずれか1項に記載の物体認識統合装置。
  9. 複数のセンサのそれぞれから検出データを受信し、受信した前記検出データから前記センサごとに観測データを生成し、前記センサごとの前記観測データを出力するデータ受信ステップと、
    前記データ受信ステップで出力された前記観測データに含まれる物体種類および物体種類候補ごとの確からしさと、今回の処理時刻よりも1つ前の前回の処理時刻における物体データである前回物体データに含まれる物体種類および物体種類候補ごとの確からしさとから、前記観測データと前記前回物体データとの対応関係について、「対応可能性あり」と「対応可能性なし」とのいずれかに決定し、前記「対応可能性あり」と決定された前記観測データと前記前回物体データとの対応付けを行い、前記観測データと、前記前回物体データと、前記対応付けとをまとめた相関データを生成し、生成した前記相関データを出力する相関データ生成ステップと、
    前記相関データ生成ステップで出力された前記相関データから、前記前回物体データに含まれる物体の状態、前記物体種類および前記確からしさを更新することで、前記今回の処理時刻における物体データである今回物体データを生成し、生成した前記今回物体データを出力する物体データ生成ステップと、
    を備えた物体認識統合方法。
JP2016120560A 2016-06-17 2016-06-17 物体認識統合装置および物体認識統合方法 Active JP6239047B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016120560A JP6239047B1 (ja) 2016-06-17 2016-06-17 物体認識統合装置および物体認識統合方法
US15/363,613 US10311340B2 (en) 2016-06-17 2016-11-29 Object recognition integration device and object recognition integration method
DE102017200562.9A DE102017200562A1 (de) 2016-06-17 2017-01-16 Objekterkennung-integrationsvorrichtung und objekterkennung-integrationsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016120560A JP6239047B1 (ja) 2016-06-17 2016-06-17 物体認識統合装置および物体認識統合方法

Publications (2)

Publication Number Publication Date
JP6239047B1 JP6239047B1 (ja) 2017-11-29
JP2017223607A true JP2017223607A (ja) 2017-12-21

Family

ID=60477205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016120560A Active JP6239047B1 (ja) 2016-06-17 2016-06-17 物体認識統合装置および物体認識統合方法

Country Status (3)

Country Link
US (1) US10311340B2 (ja)
JP (1) JP6239047B1 (ja)
DE (1) DE102017200562A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200154A (ja) * 2018-05-17 2019-11-21 株式会社デンソーテン 物標検出装置および物標検出方法
WO2021256032A1 (ja) * 2020-06-15 2021-12-23 株式会社日立製作所 センサ認識統合装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6489589B2 (ja) * 2017-05-24 2019-03-27 三菱電機株式会社 レーダ信号処理装置
JP6912651B2 (ja) * 2018-02-27 2021-08-04 日立Astemo株式会社 ノイズキャンセル学習装置、及び、それを備えた車両
KR102572784B1 (ko) * 2018-10-25 2023-09-01 주식회사 에이치엘클레무브 운전자 보조 시스템 및 그 제어방법
CN109490890B (zh) * 2018-11-29 2023-06-02 重庆邮电大学 一种面向智能车的毫米波雷达与单目相机信息融合方法
DE102018220526B4 (de) 2018-11-29 2022-01-05 Robert Bosch Gmbh System und Verfahren zur Verarbeitung von Umfeldsensordaten
DE102019211382A1 (de) * 2019-07-30 2021-02-04 Robert Bosch Gmbh System und Verfahren zur Verarbeitung von Umfeldsensordaten
CN110542885B (zh) * 2019-08-13 2021-09-21 北京理工大学 一种复杂交通环境下的毫米波雷达目标跟踪方法
JP7318609B2 (ja) * 2020-08-06 2023-08-01 トヨタ自動車株式会社 車載検出装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165421A (ja) * 2003-11-28 2005-06-23 Denso Corp センサフュージョンシステム及びそれを用いた車両制御装置
JP2008002817A (ja) * 2006-06-20 2008-01-10 Alpine Electronics Inc 物体識別システム
US20130083959A1 (en) * 2011-09-29 2013-04-04 The Boeing Company Multi-Modal Sensor Fusion
WO2016002900A1 (ja) * 2014-07-02 2016-01-07 株式会社デンソー 物体検出用方法および装置、ならびにコンピュータプログラム製品

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5178276A (ja) 1974-12-28 1976-07-07 Mitsubishi Electric Corp Rikiritsusokuteiki
JP4007115B2 (ja) * 2002-08-09 2007-11-14 ソニー株式会社 マイクロマシンおよびその製造方法
JP2006234494A (ja) * 2005-02-23 2006-09-07 Aisin Seiki Co Ltd 物体認識装置
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
EP2141926A4 (en) * 2007-04-27 2010-08-11 Honda Motor Co Ltd VEHICLE PERIPHERAL MONITORING DEVICE, VEHICLE PERIPHERAL MONITORING PROGRAM, AND VEHICLE PERIPHERAL MONITORING METHOD
JP5178276B2 (ja) 2008-03-27 2013-04-10 ダイハツ工業株式会社 画像認識装置
JP5617100B2 (ja) 2011-02-08 2014-11-05 株式会社日立製作所 センサ統合システム及びセンサ統合方法
DE102012211391A1 (de) * 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
JP2017033402A (ja) * 2015-08-04 2017-02-09 株式会社デンソー 車載表示制御装置、車載表示制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165421A (ja) * 2003-11-28 2005-06-23 Denso Corp センサフュージョンシステム及びそれを用いた車両制御装置
JP2008002817A (ja) * 2006-06-20 2008-01-10 Alpine Electronics Inc 物体識別システム
US20130083959A1 (en) * 2011-09-29 2013-04-04 The Boeing Company Multi-Modal Sensor Fusion
WO2016002900A1 (ja) * 2014-07-02 2016-01-07 株式会社デンソー 物体検出用方法および装置、ならびにコンピュータプログラム製品

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200154A (ja) * 2018-05-17 2019-11-21 株式会社デンソーテン 物標検出装置および物標検出方法
JP7111506B2 (ja) 2018-05-17 2022-08-02 株式会社デンソーテン 物標検出装置
WO2021256032A1 (ja) * 2020-06-15 2021-12-23 株式会社日立製作所 センサ認識統合装置
JP2021195018A (ja) * 2020-06-15 2021-12-27 株式会社日立製作所 センサ認識統合装置
JP7432447B2 (ja) 2020-06-15 2024-02-16 日立Astemo株式会社 センサ認識統合装置

Also Published As

Publication number Publication date
JP6239047B1 (ja) 2017-11-29
US20170364775A1 (en) 2017-12-21
US10311340B2 (en) 2019-06-04
DE102017200562A1 (de) 2017-12-21

Similar Documents

Publication Publication Date Title
JP6239047B1 (ja) 物体認識統合装置および物体認識統合方法
KR102302782B1 (ko) 위치정보 보정 시스템 및 방법
US10127815B2 (en) Method and device for setting up a movement model of a road user
KR102075110B1 (ko) V2v 통신 기반 차량 식별 장치 및 그 식별 방법
JP4345832B2 (ja) 道路状況検出システム
US9199643B1 (en) Sensor odometry and application in crash avoidance vehicle
EP3477616A1 (en) Method for controlling a vehicle using a machine learning system
CN113264047B (zh) 车辆控制装置及存储车辆控制用程序的非易失性存储介质
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
US10679077B2 (en) Road marking recognition device
EP2061687A2 (en) Sight-line end estimation device and driving assist device
KR102569900B1 (ko) 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량
JP7078909B2 (ja) 車両制御装置及び車両制御用コンピュータプログラム
CN111959482B (zh) 自主驾驶装置及方法
Polychronopoulos et al. Extended path prediction using camera and map data for lane keeping support
US11623654B2 (en) Systems and methods of assisting vehicle navigation
Domhof et al. Multi-sensor object tracking performance limits by the cramer-rao lower bound
KR102303238B1 (ko) 위치정보 보정 시스템 및 방법
US11885640B2 (en) Map generation device and map generation method
JP7026734B2 (ja) 物体認識装置、物体認識方法及び車両運転支援システム
US11555913B2 (en) Object recognition device and object recognition method
KR102303237B1 (ko) 위치정보 보정 시스템 및 방법
JP2011204149A (ja) 自車位置認識装置
JP2021068052A (ja) 車両制御装置
CN114080548A (zh) 车载传感器装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171031

R150 Certificate of patent or registration of utility model

Ref document number: 6239047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250