JP3931879B2 - センサフュージョンシステム及びそれを用いた車両制御装置 - Google Patents

センサフュージョンシステム及びそれを用いた車両制御装置 Download PDF

Info

Publication number
JP3931879B2
JP3931879B2 JP2003400184A JP2003400184A JP3931879B2 JP 3931879 B2 JP3931879 B2 JP 3931879B2 JP 2003400184 A JP2003400184 A JP 2003400184A JP 2003400184 A JP2003400184 A JP 2003400184A JP 3931879 B2 JP3931879 B2 JP 3931879B2
Authority
JP
Japan
Prior art keywords
probability distribution
probability
data
vehicle
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003400184A
Other languages
English (en)
Other versions
JP2005165421A (ja
Inventor
直輝 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2003400184A priority Critical patent/JP3931879B2/ja
Priority to US10/973,073 priority patent/US7542825B2/en
Priority to DE102004052242A priority patent/DE102004052242A1/de
Publication of JP2005165421A publication Critical patent/JP2005165421A/ja
Application granted granted Critical
Publication of JP3931879B2 publication Critical patent/JP3931879B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01DMEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
    • G01D1/00Measuring arrangements giving results other than momentary value of variable, of general application
    • G01D1/16Measuring arrangements giving results other than momentary value of variable, of general application giving a value which is a function of two or more values, e.g. product or ratio

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Controls For Constant Speed Travelling (AREA)
  • Image Processing (AREA)

Description

本発明は、複数種類の検出手段(センサ等)によって同じ検出対象を検出し、それらの検出結果を総合的に判断して、検出精度を向上させるセンサフュージョンシステム及びそれを用いた車両制御装置に関する。
従来、先行車との車間距離を計測して、自動的に加減速して車間距離を調節する車間距離制御クルーズシステムや、衝突の危険性が高い際に警報やブレーキ制御等の介入を行なう衝突警報・軽減システムが開発されている。
それらのシステムにおいては、対象物標の位置・相対速度・大きさを認識するレーダセンサ等を用いた認識装置の精度が、大きな重要度を持つ。そのため、特許文献1〜特許文献5に記載されるように、より高い精度、信頼性を実現するため、複数の認識装置、たとえば電波式のミリ波レーダや赤外線レーザを使うレーザレーダを用いるレーダセンサ認識部に加え、カメラを用いた画像センサ認識部を併用し、その結果を組み合わせる、センサフュージョンと呼ばれる手法が考案されている。
例えば、特許文献1に記載された前方車両の認識装置では、レーダ認識部によって車間距離、方向,相対速度が認識され、画像センサ認識部によって車間距離、方向、相対速度、車両幅、車線内位置が認識される。そして、統合処理部において、車間距離、方向、相対速度についてレーダ認識部と画像センサ認識部の認識結果が同一であるとき、同一の車両について認識したとみなし、その旨が認識結果に付加される。なお、認識結果として、レーダ認識部と画像センサ認識部とで認識した同一の車間距離、方向及び相対速度と、画像センサ認識部で認識した車両幅及び車線内位置が統合処理部によって出力される。
特開2003−168197 特開2003−151094 特開2003−84064 特開2003−172780 特開2002−99906
このようなセンサフュージョンシステムは、今後多くの車種に展開されていくことが予想されている。しかしながら、システムが搭載される車種が異なると(例えば高級車と大衆車)、機能も異なり、用いられるセンサの種類やその組み合わせ方も多岐にわたることは想像に難くない。また、多くのセンサメーカが各々のセンサを持ち寄り、それらを組み合わせてセンサフュージョンを行なうといったことも起こりえる。
その際に、前述のセンサフュージョンシステムは潜在的な課題を持つ。通常、センサフュージョンシステムの処理構造としては、センサを含む各認識手段と、それらのデータ出力を集め、融合するアルゴリズムである総合判断処理が最終段に存在する形で構築される。従って、この総合判断処理のアルゴリズムが、用いるセンサの種類や組み合わせに依存した、一品作りになってしまうのである。換言すれば、センサの組み合わせが変わったり、ある認識手段の仕様が変更され性能が変わったりした場合には、いちいち総合判断処理のアルゴリズムの見直しが必要になってしまうのである。
例えば、大衆車用の運転支援システムとして、車間制御クルーズと車線逸脱警報を実装する場合を想定する。この場合、価格の安いレーザレーダ、低解像度のカメラデバイス及び処置能力が相対的に低い演算回路を用いた低価格な白線・物標認識センサ部を構築することが考えられる。一方、高級車用にはさらに機能の充実・向上を図るために、衝突軽減システムやレーンキープアシストシステムを実装することが考えられる。そのため、白線・物標認識センサ部としても、耐環境性の高いミリ波レーダと、より高い解像度及びダイナミックレンジを持ったカメラデバイスと、能力の高い演算回路を用いて構築される。さらに中級車種のために、高級車用よりもコストと能力が多少低下した別の組み合わせが採用されることも有りえる。
その際、それらの組み合わせ毎に、総合判断処理を行なうアルゴリズムを開発せねばならないとすると、その開発負担は多大となる。さらに、センサフュージョンによる大規模なセンサシステムにおいて、たった一部のセンサの認識アルゴリズム等が改良されたといった場合にも、データ融合アルゴリズムの全体の見直しをせねばならないことになる。
本発明は上記の点に鑑みてなされたもので、汎用性や再利用性を向上したセンサフュージョンシステム及びそれを利用した車両制御装置を提供することを目的とする。
上記目的を達成するために、請求項1に記載のセンサフュージョンシステムは、
所望の種類のデータの値を検出する複数の検出手段と、
複数の検出手段がそれぞれ検出する所望種類のデータ値の真値に対する尤度を示す確率分布を求めて、この所望種類データ値の確率分布を出力する複数の出力手段と、
複数の出力手段からそれぞれ出力される、所望種類データ値の確率分布に基づいて、最も確からしい所望種類データ値を推定する総合判断手段とを備え、
複数の出力手段は、複数の検出手段の各々が過去に検出したデータ値を統計的にまとめ直した分布データに基づいて構成され、対応する検出手段によって検出されたデータ値を確率分布に変換する確率分布変換部をそれぞれ有することを特徴とする。
上述のように、請求項1に記載のセンサフュージョンシステムは、検出手段がそれぞれ検出する、所望種類のデータ値の確率分布を出力する出力手段を有している。すなわち、本発明では、各検出手段が検出する単なる位置や大きさ等の検出データを総合判断手段に与えるのではなく、検出した所望種類のデータ値の真値に対する尤度、すなわちそれがどの程度の確率で信用できるのかという確率分布を求め、この確率分布を総合判断手段に与える。その確率分布は、複数の検出手段の各々が過去に検出したデータ値を統計的にまとめ直した分布データに基づいて構成され、対応する検出手段によって検出されたデータ値を確率分布に変換する確率分布変換部により求められる。
このようにして、総合判断手段に対して出力されるデータの形式を標準化するのである。データ形式が標準化されれば、総合判断手段は、どのような種類の検出手段による検出結果であるかを考慮する必要がなくなる。その結果、どのような種類の検出手段が組み合わされても、同様のデータ融合アルゴリズムを適用できる。
請求項2に記載のセンサフュージョンシステムでは、総合判断手段が、複数の出力手段の各々から出力される確率分布の積を取ることを特徴とする。このように積を取れば、確率分布を用いて、数学上根拠のある確率推定ができるためである。以下にその理由を説明する。
通常、ある真値に対してその観測結果が複数得られた際の確率推定の式は、真値がx、観測結果がx1,x2,…とし、観測結果は他の観測結果から独立とすると、結合確率密度関数は以下の式1ようにたてられる。
(式1)
P(x、x1,x2,…)=P(x)P(x1|x)P(x2|x)…
ただし、P(x|x1)は、x1が得られたときxの確率という条件付き確率を意味する。
ここで、観測結果が得られたときの真値の推定は、P(x|x1,x2,…)で表現され、これはベイズの公式から変形でき、以下の式2のようになる。
(式2)
P(x|x1,x2,…)=P(x)P(x1|x)P(x2|x)…/P(x1)P(x2)…
分母は正規化のための定数となるので無視できる。またP(x)は真値xの事前確率で、通常どこに存在するか分からないため、一様分布であるので定数を掛けているのと同じ事になりこれも無視できる。すると、この確率分布はP(x1|x)、P(x2|x)、…の積で表されることになる。
例えばP(x1|x)は、「xが得られたときにx1がどのように確率的に分布する」という過去の統計的データを基に作られた2変数の関数である。しかもいまそこにx1が与えられているので、「x1が得られたときに真値のxはどこであるのが尤もらしいか」という尤度関数となる。従って、複数の観測結果x1,x2,…から真値xを推定する際は、各観測結果から求められる尤度関数の積で表されることになる。
よって、各検出手段が検出するデータに基づく出力結果を尤度関数(確率分布)の形式で出力させると、総合判断手段における処理がシンプルなかけ算となり、得られる結果は、理論的に根拠を持ち、精度が高くかつ汎用性の高いものになるというメリットが生まれる。
請求項3に記載のセンサフュージョンシステムでは、総合判断手段は、複数の出力手段の各々から出力される確率分布の積を取った結果の確率分布において最も高い確率を持つ所望種類データ値を、前記最も確からしい所望種類データ値として採用することを特徴とする。
すなわち、出力手段から出力された確率分布の中から、最終的に出力結果として一つの値を選ばなければいけない場合、その手法として、各確率分布の積を取った結果の確率分布において、最も高い確率を持つ値を最終出力として採用する。これにより、最終出力を求めるためのアルゴリズムが非常にシンプルで、かつ誤りに対して期待されるリスクが真値以外で一定と仮定した場合の総合リスクが最低となる。
詳細に説明すると、真値がxiである場合に真値をxjと出力するときの損失をλ(xj|xi)とすると、観測ベクトルxvが得られたときに真値をxiと出力する総合リスクR(xi|xv)は、式3のようになる
(式3)
R(xi|xv)=Σλ(xi|xj)P(xj|xv) (シグマは全てのjに関して)
いま、i=jの場合、λ(xj|xi)=0、i≠jの場合、λ(xj|xi)=1と定義すると、総合リスクR(xi|xv)は以下の式4のようになる。
(式4)
R(xi|xv)=ΣP(xj|xv) (シグマはj≠iの全てのjに関して)
=1−P(xi|xv)
式4の結果は、平均誤り確率そのものである。よって、この場合の総合リスクRを最小化する決定則は、事後確率であるP(xi|xv)を最大化するということであり、ということは「すべてのj≠iについてP(xi|xv)>P(xj|xv)であればxiと判定する」という決定則を導入すれば、それが達成し得る最高の性能であることになる。
請求項4に記載したように、確率分布は、ガウス分布と一様分布との和によって表されることが好ましい。これにより、出力手段から出力される確率分布によって、間違った所望種類データ値を出力する可能性と、その真値が分布する可能性がある標準偏差との両方を表すことができる。
請求項5に記載たように、出力手段は、確率分布の形状をスカラー量に変換して出力し、総合判断手段は、受信したスカラー量を確率分布の形状に再変換することが好ましい。これにより出力手段と総合判断手段との間で送受されるデータ量を低減することができる。
請求項6に記載したように、出力手段は、検出手段の検出精度に影響を与える要因に関係するデータを受け取り、当該データの値に基づいて、確率分布を変更することが好ましい。
例えば、検出手段が撮像装置であって、出力手段は検出手段が検出する画像信号に対して画像認識処理を行なって、その認識結果に関する確率分布を出力する場合、夜間は日中よりも認識性能が低下するのであれば、夜間であることを示すデータを受け取った場合、出力する確率分布は、日中に出力する確率よりも低下させる。極端な例では、完全な一様分布か、対象物の認識に対しわずかな確率の上昇を見せるのみになるかもしれない。
このように、1つの出力手段から出力される確率分布の確率が低下されたとき、他の出力手段が相対的に高い確率の確率分布を出力していれば、総合判断手段では、その高い確率の確率分布の重み付けを増した形で用いられることになる。従って、総合判断手段における推定精度が向上する。
さらに、検出手段の検出精度に影響を与える要因に関係するデータは、総合判断手段ではなく、出力手段に与えられ、出力手段において、確率分布を変更する。従って、検出手段の検出精度が変動しても、その影響は、検出手段と出力手段とからなる系内に閉じられることになるため、総合判断手段での処理等に何ら変更を要しない。
請求項7に記載したように、上述したセンサフュージョンシステムは車両に適用され、総合判断手段が推定した最も確からしい所望種類データ値は、車両に搭載された車載機器を制御する制御装置に与えられ、当該制御装置は、前記所望種類データ値に基づいて車載機器を制御することができる。車両においては、車種に依存して、採用するセンサの種類、能力等が多岐にわたることが考えられる。本発明によるセンサフュージョンシステムでは、そのようなセンサの相違を考慮する必要がないので、特に車両に適用されることが好ましいのである。
この場合、請求項8に記載したように、総合判断手段は、道路種別、路面状況、日射量、及び先行車両を含む物体の位置、速度、大きさ、種別の少なくとも1つを所望種類データとして、最も確からしい所望種類データ値を推定するものであり、車載機器の制御装置は、自動車の運転者に対する情報提供を行なう情報提供装置の制御装置、警報器の制御装置、車両の走行状態を制御する走行機器の制御装置、及び車両の運転操作装置の状態を制御する運転状態制御装置、乗員を保護する乗員保護装置の制御装置の少なくとも1つとすることができる。従って、例えば車間制御クルーズシステム、衝突軽減システム、操舵アシストシステム等の各種の運転支援制御を実現する際に、車種や実現すべき機能等に依存せず、センサフュージョンシステムにおけるデータ融合アルゴリズムを広く利用することができる。
請求項10に記載の車両制御装置は、推定した最も確からしい所望種類データ値を少なくとも1つの前記車載機器の制御装置に出力する際、その信頼度を示す信頼度データを併せて出力することを特徴とする。このように、所望種類データ値と併せて信頼度データを出力することにより、出力先となる制御装置の種類に依存せず、その出力するデータを標準化できる。すなわち、出力先となる制御装置では、信頼度データを併せて受領することにより、その制御装置毎に、制御を実行する上で必要な精度を満足しているかを判定できる。従って、個々の制御装置毎に要求精度が異なっても、それらに応じた別データを用意する必要がなくなるので、車両に各種の制御装置を実装する上での作業効率を著しく向上することができる。
なお、信頼度データとしては、請求項11に記載するように、所望種類データ値の誤り確率、正解確率、確率分布、または、その確率分布の平均、分散、正常認識率の少なくとも1つを採用することができる。
特に、請求項12に記載したように、総合判断手段が、複数の出力手段の各々から出力される確率分布の積を取り、その積を取った確率分布において最も高い確率を持つ所望種類データ値を、最も確からしい所望種類データ値として採用する場合、その最も高い確率を信頼度データとして出力することが好ましい。これにより、特別な計算を必要とせず、かつ信頼度の指標として客観的に分かりやすいものとすることができる。
図1は、本実施形態における運転支援制御装置の構成を示す構成図である。図1に示すように、運転支援制御装置10は、ミリ波レーダ、ナビゲーション装置、カメラを含む画像認識装置、照度センサ等を検出手段として有している。なお、図1では、例示として4個の検出手段を示しているが、その他にも雨滴センサ、車速センサ、ステアリング角度センサ等、車両の走行状態や走行環境を検出するために必要となるデータを検出するため各種のセンサを備えている。
ミリ波レーダは、ミリ波の送受信結果に基づいて、自動車の前方に存在する先行車両や障害物との距離、相対速度、方位、さらに受信したミリ波の電波強度を算出し、その算出した各データ値を出力する。ナビゲーション装置は、自動車の現在位置を検出して、その現在位置に対応する道路種別に関するデータ値を出力する。
カメラを含む画像認識装置は、自動車の前方の所定範囲を撮像した画像信号に対して画像処理を施し、前方を走行している車両の種別、その車両との車間距離、その車両の大きさ(幅、後部左右端、後部中央)、白線の幅等のデータ値を検出する。照度センサは、外界の明るさに応じたデータ値を出力する。この照度センサからのデータ値は、例えば、画像認識装置における認識処理において、それぞれ認識した結果の確からしさを修正するために用いられる。
上述した各検出手段によって検出されたデータ値は、それぞれ確率分布出力部1a〜1dに入力される。各確率分布出力部1a〜1dは、各データ値の確からしさを示す確率分布を求めて出力する。この確率分布出力部1a〜1dにおける確率分布の算出方法等については、後に詳細に説明する。なお、図1においては、各検出手段に対して1つの確率分布出力部1a〜1dのみしか図示していないが、上述した画像認識装置のように、画像信号に基づいて複数のデータ値(車両の種別、その車両との車間距離、その車両の大きさ(幅、後部左右端、後部中央)、白線の幅等)を検出する場合には、それぞれのデータ値に関して確率分布が求められる。
確率分布出力部1a〜1dから出力された確率分布は、総合判断処理部2に入力される。総合判断処理部2では、同じ種類のデータ値について複数の確率分布を受け取った時には、それら複数の確率分布の積を取ることにより、データ値を融合する。すなわち、積を取った結果としての確率分布において、最も高い確率に対応するデータ値を、最も確からしいデータ値として推定する。その際、その最も高い確率を示す確率データも併せて出力する。この総合判断処理部2における処理についても後に詳細に説明する。なお、4は、総合判断処理部2におけるフィードバックループを示し、今回出力した各種のデータ値を前回推定値として総合判断処理部2等に入力するものである。
総合判断処理部2からの出力は、各種の車両制御装置3に与えられる。この車両制御装置3としては、例えば車間制御クルーズシステム、衝突軽減システム、操舵アシストシステム等の各種の運転支援制御装置が適用できる。すなわち、運転支援制御装置が、総合判断処理部2からの出力に基づいて、自動車の運転者に対して情報提供を行なったり、警報を行なったり、ブレーキやスロットルバルブ等を操作して車両の走行状態を制御したり、エアバックやシートベルト等の安全装置を作動させたり、あるいは電動ステアリング装置の操舵力を制御したりすることで、各種の運転支援を行なうことができる。このような、運転支援装置を車両に実装する場合、車種に依存して、採用するセンサの種類、能力等が多岐にわたることが考えられる。本実施形態によるセンサフュージョンシステムでは、そのようなセンサの相違を考慮する必要がないので、特に車両に適用されることが好ましいのである。
次に、データ値の確からしさを示す確率分布を求めて出力する確率分布出力部1a〜1dについて詳細に説明する。なお、以下の説明では、変数が連続値を取る場合と離散値を取る場合とについて、検出したデータ値から確率分布を求める方法について説明する。
例えば、ミリ波レーダでは、ミリ波の送受信結果に基づいて、反射物までの距離、相対速度、及び方位等が、一意の値として検出される。この反射物までの距離、相対速度及び方位は、自車と反射物との相対的な位置や速度の関係において連続的に変化するものである。このように、連続値を状態量として持つデータを、一意の値として検出するセンサについて、その検出したデータ値を確率分布(正確には、尤度(Likelihood))に変換するために、以下に説明するような手法を採用する。
まず、確率分布の表現形式として、出力された値を中心に、ガウス分布と一様分布の組み合わせからなる形式を用いる。この表現形式を用いる根拠は、センサが間違った値を検出して出力してくる可能性と、センサが検出した検出値は、ある標準偏差で分布をもつであろうと仮定することにある。
例えば、センサが反射物の方位を示す値として、角度αを検出した場合、そのセンサの誤認識確率(間違ったものを認識する確率)が20%、標準偏差が0.4とすると、図2に示すグラフの様に、検出値αを中心に標準偏差でガウス分布する成分が80%(図2のAの部分の積分値が全体の8割)と、一様分布の成分が20%(図2のBの部分の積分値が全体の2割)という組み合わせで確率分布が構成できる。
なお、各センサの誤認識確率及び標準偏差は、センサの精度や特性、あるいは実際の検出結果の集計によって求めることができる。
一方、車両の種別のように、離散値を状態量として持つデータを、確率分布の形式で出力するには、次のようにすれば良い。以下、離散値を状態量として持つデータとして、車両の種別を例として説明する。なお、車両の種別は、例えばカメラが検出する画像信号に対してテンプレートマッチングを行なう画像処理アルゴリズムによって判定されることができる。
例えば、車両の種別が取りうる状態として、「乗用車」「トラック」「バイク」「人」「バリヤー」「その他」が設定されているとする。この場合、車両の種別を確率分布の形式で出力するとは、例えば、各々の種別に対してそれぞれ「3%、1%、10%、50%、30%、6%」(合計が100%であることに注意)のように、各種別に該当する確からしさを確率で表すことを意味する。
例えば、画像処理アルゴリズムが、単に「乗用車」のように単一の結果しか出力しないものであったとき、この結果を確率分布に変換するには、以下のようにすれば良い。
まず、画像処理アルゴリズムが車両の種別として「乗用車」と出力した過去の結果を集めて、それが実際にはどの種類の車両であったかを集計する。その結果、例えば、「本当に乗用車であったのが90%、トラックであったのが2%、…」との集計データを得ることができる。その集計データに従って、確率分布出力部に確率分布変換部を構成する。つまり、アルゴリズムが「乗用車」と出力してきたときは、その確率分布変換部が「90%、2%、…」という確率分布を出力することになる。
また、全く逆の手法を用いることもできる。まず、さまざまな「乗用車」の画像をテンプレートマッチングを行なう画像処理アルゴリズムに入力し、それが何に分類されたかの統計を取る。この場合、例えば、乗用車と分類されたのが80%、トラックと分類されたのが10%、…などのように分布データが集計される。同様に、「トラック」、「バイク」などの画像についても、分布データを集計する。全ての種別で分布データが取れれば、それは2変数軸上に分布する確率分布関数、すなわち結合確率分布関数P(出力される種別|本当の種別)が得られたことになり、今度はそれの入力変数の軸を逆にした関数を計算すれば良いことになる。つまり、出力された種別が分かったときに、本当の種別が何であるかを求める関数P(本当の種別|出力される種別)を計算する。これは一般的に、単に逆転した条件側の変数の値で決まる正規化定数を掛けるだけで分布ができるので、簡単に計算できる。
なお、上述したような確率分布変換部は、センサの種類、データの種類(連続値か離散値か)を問わず必ず設計できる。なぜならば、確率分布変換部は、単に過去に検出したデータ値を統計的にまとめ直した分布データに基づいて構成することができ、統計的に結果がまとめられない出力は有り得ないためである。それが本手法の大きなメリットであり、センサデバイス依存、データ依存から脱却できるとする根拠でもある。
さらに、本来連続値であるところの変数も、離散化して用いることもできる。例えば、照度センサによって検出される日射量を「直射日光」、「曇天」、「夕闇」、「夜間」などと定義し直すことで、検出される日射量は、離散値に置換される。連続値にしろ離散値にしろ、その変数の状態が、「相互に排他的」で「網羅的(必ず常時どれか一つの値を取る)」ように定義すれば、最終的にその変数は、合計が100%となる状態の確率の集まりで表現される。
上述のような手法により、各検出手段が検出したデータ値の確率分布が求められると、それらが総合判断処理部2に出力される。
ここで、各確率分布出力部1a〜1dが求めた確率分布を出力する場合、その形状に応じたマップデータを作成して出力すれば、最も忠実に確率分布を表現することができる。しかしながら、この場合、確率分布出力部1a〜1dと総合判断処理部2間で送受されるデータが膨大になってしまう。そのため、本実施形態では、確率分布をスカラー量で表して、このスカラー量を確率分布出力部1a〜1dから総合判断処理部2に出力する。
例えば、確率分布が、ガウス分布と一様分布との和として表現される場合、この確率分布は、ガウス分布を表現する「平均」と「分散」及びガウス分布と一様分布との割合を表現する「正常認識率」の3つのスカラー量によって表すことができる。
なお、ガウス分布とは、図2のグラフにおけるAの部分の分布であり、一様分布は、図2のグラフにおけるBの分布である。そして、ガウス分布の頂点の位置を規定するのが「平均」、裾野の広がりを規定するのが「分散(または標準偏差)」、一様分布の厚み、同時にガウス分布の上下方向のスケールを規定するのが「正常認識率(または誤認識率)」である。
ただし、確率分布出力部1a〜1dによっては、上述したガウス分布と一様分布との組み合わせとは異なる確率分布を出力することも考えられる。図3(a)〜(d)は、ガウス分布と一様分布との組み合わせとは異なる確率分布の例を示すグラフである。このような形状の確率分布においては、その形状を示すスカラー量として、上述した平均や分散ではなく、それぞれの形状に対応したスカラー量が用いられることになる。
次に、総合判断処理部2について詳細に説明する。総合判断処理部2では、まず、各確率分布出力部1a〜1dからスカラー量によって確率分布が出力された場合には、受信したスカラー量に基づいて確率分布を再現する。
そして、図4(a)に示すように、同じデータ値(角度)に関する複数の確率分布の積を取ることにより、データ値を融合する。すなわち、図4(b)に示すように、積を取った結果としての確率分布において、最も高い確率に対応するデータ値を、最も確からしいデータ値として推定する。このように、各確率分布の積を取ることによって、最も確からしいデータ値が推定できる理由は、「課題を解決するための手段」の欄において既に説明したので、その説明を省略する。
なお、図4(a)、(b)に示すように、複数の確率分布の積は必ず確率分布になり、データ値(変数)が連続値であろうと、離散値であろうと、その確率分布において最大確率に対応するデータ値を抽出することができる。以下にデータ値が離散値を取る場合の、確率分布の乗算及び最も確からしいデータ値の推定について説明する。
例えば、1つの出力部から、車種の確率分布が「3%、1%、10%、50%、30%、6%」と出力され、他の出力部からも「3%、1%、10%、50%、30%、6%」と出力されてきたと仮定する。その場合、積を取って、正規化する(合計が100%になる様に全体に定数を掛ける)と、「0.25、0.03、2.82、70.50、25.38、1.02(%)」となる。よって、4番目の種別がより確信の高いデータ値として、抽出されることになる。
このように、確率分布出力部1a〜1dから「真の種別はこれであるらしい」という尤度を示す確率分布の形式で複数の情報が集められたとき、単純な積で組み合わせられ、しかも必ずそれはどれかの種別(状態)で最大値をとる。なお、複数の種別(状態)が最大値を取った場合、どれを抽出しても良いことになる。
車両の種別は、上述したように、画像認識手段において、テンプレートマッチング画像認識アルゴリズムを実行することによって検出される以外に、ミリ波の電波強度や画像認識の結果として推定される車両の幅に基づいて検出される。つまり、例えば車種が「乗用車」であれば、取りうる電波強度や幅は決まってくる。逆に言うと、幅等が決まれば、どの車種がもっとももらしいか(尤度)、という車種の確率分布も求められることになる。
道路種別も同様で、直接的には「ナビゲーションシステムからの道路種別情報」から道路種別が検出され、間接的には、「白線認識による車線幅」から道路種別を検出(推定)できる。この場合にも、それぞれの検出結果の尤度を示す確率分布を求めることができる。
さらに、走行環境の1つである日照量は、「照度センサ」「ワイパーのON/OFF信号」「画像処理による画面全体の輝度平均値判定アルゴリズム」「時刻」等によってそれぞれ検出され、その検出値の尤度を示す確率分布が求められる。また、走行環境としての路面状況も、「照度センサ」「ワイパーのON/OFF信号」「外気温」「画像処理による路面状況認識アルゴリズム」「インフラからの路車間通信による情報」等によって検出でき、かつその検出値の確率分布を求めることができる。
図5は、上述したような、各変数の因果関係の一例を図示したものである。図3において、丸が変数(ノード)、ノード間の矢印は因果関係を示しており、原因から結果の方向に矢印が向いている。また、白抜きの丸は推定したいデータ、色付きの丸は得られるデータを示すノードである。さらに、色付きの丸で示されるノードに対しては、そのデータの提供元となるアルゴリズム名等が記載されている。
ただし、この図の矢印はデータの流れを表しているわけではなく、矢印の親と子のノードに関係があることを示しているだけである。つまり、子のデータの値がはっきりすると、親のデータの値がなんであるかのヒントが与えられるわけで、情報が矢印の向きと逆に流れることもある。逆もまた同様で、しかも矢印でたどっていけるノードにも、情報が伝播していくことがある。
この図を参照すると、確率(尤度)がどの変数から影響されるのかが容易に理解される。例えば前述した車両の種別に関しては、「種別」のノードに結ばれたノードは電波強度(ミリ波の反射電波強度がどの程度あるか)、車両画像(対象物の画像がどの車種のテンプレート画像に近い外観を持つか)、幅の3つがある。いま、電波強度や画像のマッチングによって車種がそれぞれ測定できたとすれば、それは種別に対して尤度(確率分布)を出力する。さらに、幅からも車種が推定され、その確率分布が与えられる。また、逆に、種別が分かれば幅が絞り込めるわけであり、相互に影響を与える。
すなわち、画像処理によるテールランプ認識で与えられた結果は、「後部左右端」の位置の確率分布を変化させ、それによりさらに幅が絞り込まれる。それがさらに種別の確率に影響を及ぼす。逆に、パターンマッチングで「トラック」の確率が高いと判定されれば、種別の確率から幅の取りうる値が絞り込まれる。各確率分布出力部1a〜1dから送られてくる確率分布は、総合判断処理部2において、このような因果関係をまとめたモデルにより組み合わされ、最終的な推定したいデータ値(変数)の確率分布を算出する。
ただし、各確率分布出力部1a〜1dから出力される確率分布は、検出手段の検出精度に依存して動的に変化される。すなわち、各確率分布出力部1a〜1dが、各検出手段の検出精度が低下する条件と、その時の低下度合いを統計的に集計したデータベースを記憶している。
例えば、画像認識装置において、暗くなると誤認識が増える場合、確率分布出力部1dが、暗さと誤認識率との関係をデータベース(関数)として記憶しておく。そして、確率分布出力部1dに、「暗さ」に関してのデータを入力する。なお、図1では、総合判断処理部2によって推定された「暗さ」に関するデータが確率分布出力部1dに入力される例を示しているが、照度センサの検出値を直接入力しても良い。
そして、画像認識装置の確率分布出力部1dでは、入力された「暗さ」に関するデータ値に基づいて、画像認識装置での認識処理によって検出されたデータ値の確率分布を動的に変更する。図6(a)、(b)は、「暗さ」に関するデータに基づいて変更された確率分布の一例を示すグラフである。図6(a)は明るい時の画像認識処理によって検出されたデータ値の確率分布を示しており、図6(b)は暗い時又は雨天時の画像認識処理によって検出されたデータ値の確率分布を示している。
このように、1つの確率分布出力部1dから出力される確率分布の確率が低下したとき、他の確率分布出力部が相対的に高い確率の確率分布を出力していれば、総合判断処理部2では、その高い確率の確率分布の重み付けを増した形で用いられることになる。従って、総合判断処理部2におけるデータ値の推定精度が向上する。
ここで、画像認識装置の検出精度に影響を与える「暗さ」に関するデータは、総合判断処理部2ではなく、確率分布出力部1dに与えられ、確率分布出力部1dにおいて、そのデータに基づいて確率分布を変更する。従って、画像認識装置等の検出手段の検出精度が変動しても、その影響は、検出手段と確率分布出力部1a〜1dとからなる系内に閉じられることになるため、総合判断処理部2での処理等に何ら変更を要しない。
なお、検出手段としてのセンサ、画像認識処理等の認識アルゴリズムによって、検出精度が変化する条件は当然のことながらそれぞれ異なる。従って、検出精度の変化に応じて、各確率分布出力部1a〜1dが出力する確率分布を変更するためには、検出精度に影響を与える要因に関するデータをそれぞれ取り込む必要がある。
総合判断処理部2は、上述したように、複数の確率分布の積を取った結果としての確率分布において、最も高い確率に対応するデータ値を出力する。その際、その最も高い確率を示す確率データも併せて出力する。このように、データ値と併せて信頼度データを出力することにより、その出力を複数の制御装置が受け取る場合であっても、それらの制御装置の種類や数に依存せず、出力するデータを標準化できる。すなわち、出力先となる制御装置では、信頼度データを併せて受け取ることにより、その制御装置毎に、制御を実行する上で必要な精度を満足しているかを判定できる。従って、個々の制御装置毎に要求精度が異なっても、それらに応じた別データを用意する必要がなくなるので、車両に各種の制御装置を実装する上での作業効率を著しく向上することができる。
なお、信頼度データとしては、データ値の誤り確率、正解確率、確率分布、または、その確率分布の平均、分散、正常認識率の少なくとも1つを採用することができる。特に、総合判断処理部2が、複数の確率分布の積を取り、その積を取った確率分布において最も高い確率を持つデータ値を、最も確からしいデータ値として採用する場合、その最も高い確率を信頼度データとして出力することが好ましい。これにより、特別な計算を必要とせず、かつ信頼度の指標として客観的に分かりやすい信頼度データを出力することができる。
実施形態における運転支援制御装置の構成を示す構成図である。 ガウス分布と一様分布の組み合わせによって表現した確率分布を示すグラフである。 (a)〜(d)は、それぞれ、ガウス分布と一様分布との組み合わせとは異なる確率分布の例を示すグラフである。 (a)は、同じ種類のデータ値に関する複数の確率分布を同時に示したグラフであり、(b)は、それらの複数の確率分布の積を取った結果としての確率分布を示すグラフである。 各変数(データ値)の因果関係の一例を示した図である。 (a)は明るい時の画像認識処理によって検出されたデータ値の確率分布を示すグラフであり、(b)は暗い時又は雨天時の画像認識処理によって検出されたデータ値の確率分布を示すグラフである。
符号の説明
1a〜1d 確率分布出力部
2 総合判断処理部
3 車両制御装置

Claims (11)

  1. 所望の種類のデータの値を検出する複数の検出手段と、
    前記複数の検出手段がそれぞれ検出する前記所望種類のデータ値の真値に対する尤度を示す確率分布を求めて、この所望種類データ値の確率分布を出力する複数の出力手段と、
    前記複数の出力手段からそれぞれ出力される、前記所望種類データ値の確率分布に基づいて、最も確からしい所望種類データ値を推定する総合判断手段とを備え
    前記複数の出力手段は、前記複数の検出手段の各々が過去に検出したデータ値を統計的にまとめ直した分布データに基づいて構成され、対応する検出手段によって検出されたデータ値を前記確率分布に変換する確率分布変換部をそれぞれ有することを特徴とするセンサフュージョンシステム。
  2. 前記総合判断手段は、前記複数の出力手段の各々から出力される確率分布の積を取ることを特徴とするセンサフュージョンシステム。
  3. 前記総合判断手段は、前記複数の出力手段の各々から出力される確率分布の積を取った結果の確率分布において最も高い確率を持つ所望種類データ値を、前記最も確からしい所望種類データ値として採用することを特徴とする請求項2に記載のセンサフージョンシステム。
  4. 前記確率分布は、ガウス分布と一様分布との和によって表されることを特徴とする請求項1乃至請求項3のいずれかに記載のセンサフージョンシステム。
  5. 前記出力手段は、前記確率分布の形状をスカラー量に変換して出力し、
    前記総合判断手段は、受信したスカラー量を前記確率分布の形状に再変換することを特徴とする請求項1乃至請求項4のいずれかに記載のセンサフージョンシステム。
  6. 前記出力手段は、前記検出手段の検出精度に影響を与える要因に関係するデータを受け取り、当該データの値に基づいて、前記確率分布を変更することを特徴とする請求項1乃至請求項5のいずれかに記載のセンサフュージョンシステム。
  7. 請求項1乃至請求項6のいずれかに記載されたセンサフュージョンシステムは車両に適用され、前記総合判断手段が推定した最も確からしい所望種類データ値は、車両に搭載された車載機器を制御する制御装置に与えられ、当該制御装置は、前記所望種類データ値に基づいて車載機器を制御することを特徴とする車両制御装置。
  8. 前記総合判断手段は、道路種別、路面状況、日射量、及び先行車両を含む物体の位置、速度、大きさ、種別の少なくとも1つを所望種類データとして、最も確からしい所望種類データ値を推定するものであり、
    前記車載機器の制御装置は、自動車の運転者に対する情報提供を行なう情報提供装置の制御装置、警報器の制御装置、車両の走行状態を制御する走行機器の制御装置、及び車両の運転操作装置の状態を制御する運転状態制御装置、乗員を保護する乗員保護装置の制御装置の少なくとも1つであることを特徴とする請求項7に記載の車両制御装置。
  9. 前記総合判断手段は、推定した最も確からしい所望種類データ値を少なくとも1つの前記車載機器の制御装置に出力する際、その所望種類データ値の信頼度を示す信頼度データを併せて出力することを特徴とする請求項7又は請求項8のいずれかに記載の車両制御装置。
  10. 前記信頼度データは、所望種類データ値の誤り確率、正解確率、確率分布、または、その確率分布の平均、分散、正常認識率の少なくとも1つであることを特徴とする請求項9に記載の車両制御装置。
  11. 前記総合判断手段が、前記複数の出力手段の各々から出力される確率分布の積を取り、その積を取った確率分布において最も高い確率を持つ所望種類データ値を、前記最も確からしい所望種類データ値として採用する場合、その最も高い確率を前記信頼度データとして出力することを特徴とする請求項9に記載の車両制御装置。
JP2003400184A 2003-11-28 2003-11-28 センサフュージョンシステム及びそれを用いた車両制御装置 Expired - Fee Related JP3931879B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003400184A JP3931879B2 (ja) 2003-11-28 2003-11-28 センサフュージョンシステム及びそれを用いた車両制御装置
US10/973,073 US7542825B2 (en) 2003-11-28 2004-10-25 Sensor fusion system and vehicle control system therewith
DE102004052242A DE102004052242A1 (de) 2003-11-28 2004-10-27 Sensorfusionssystem und Fahrzeugsteuersystem mit diesem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003400184A JP3931879B2 (ja) 2003-11-28 2003-11-28 センサフュージョンシステム及びそれを用いた車両制御装置

Publications (2)

Publication Number Publication Date
JP2005165421A JP2005165421A (ja) 2005-06-23
JP3931879B2 true JP3931879B2 (ja) 2007-06-20

Family

ID=34631633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003400184A Expired - Fee Related JP3931879B2 (ja) 2003-11-28 2003-11-28 センサフュージョンシステム及びそれを用いた車両制御装置

Country Status (3)

Country Link
US (1) US7542825B2 (ja)
JP (1) JP3931879B2 (ja)
DE (1) DE102004052242A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10311340B2 (en) 2016-06-17 2019-06-04 Mitsubishi Electric Corporation Object recognition integration device and object recognition integration method
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11250288B2 (en) 2016-05-30 2022-02-15 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method using correlation between attributes

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7801392B2 (en) 2005-07-21 2010-09-21 Fuji Xerox Co., Ltd. Image search system, image search method, and storage medium
JP2007026386A (ja) * 2005-07-21 2007-02-01 Fuji Xerox Co Ltd 画像検索システム及び方法
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2007333486A (ja) * 2006-06-13 2007-12-27 Denso Corp 車両用障害物検知装置
JP4899657B2 (ja) * 2006-06-21 2012-03-21 トヨタ自動車株式会社 道路形状取得装置
JP2008008679A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp 物体検出装置、衝突予測装置、及び車両制御装置
DE102006036999B4 (de) 2006-08-02 2023-11-16 Volkswagen Ag Fahrzeugpositions-Ermittlungsvorrichtung und Verfahren zum Ermitteln einer Positionsinformation für ein Fahrzeug
DE102006058308A1 (de) * 2006-12-11 2008-06-12 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erfassen eines Hindernisses in einem Umgebungsbereich eines Kraftfahrzeugs und Kraftfahrzeug
JP4876938B2 (ja) * 2007-01-29 2012-02-15 パナソニック株式会社 運転支援装置、方法およびプログラム
JP5627164B2 (ja) * 2007-04-17 2014-11-19 三菱電機株式会社 目標類別装置
JP4990013B2 (ja) * 2007-04-18 2012-08-01 三菱電機株式会社 監視装置
JP2008299787A (ja) * 2007-06-04 2008-12-11 Mitsubishi Electric Corp 車両検知装置
JP4879202B2 (ja) * 2008-02-26 2012-02-22 三菱電機株式会社 追尾装置及びプログラム及び追尾方法
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
US8421859B2 (en) * 2008-04-24 2013-04-16 GM Global Technology Operations LLC Clear path detection using a hierachical approach
US9404775B2 (en) * 2008-04-30 2016-08-02 Honeywell International Inc. Systems and methods for identifying faulty sensors
US8055445B2 (en) * 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
KR101659712B1 (ko) * 2008-12-16 2016-09-30 코닌클리케 필립스 엔.브이. 입자 필터링을 이용한 음원 위치를 추정
WO2010095437A1 (ja) 2009-02-19 2010-08-26 パナソニック株式会社 物体位置推定システム、物体位置推定装置、物体位置推定方法、及び物体位置推定プログラム
JP4988786B2 (ja) * 2009-04-09 2012-08-01 株式会社日本自動車部品総合研究所 境界線認識装置
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
FR2947656B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
JP5402335B2 (ja) * 2009-07-10 2014-01-29 アイシン・エィ・ダブリュ株式会社 信頼度評価装置、信頼度評価方法および信頼度評価プログラム
JP5039765B2 (ja) * 2009-09-17 2012-10-03 日立オートモティブシステムズ株式会社 車両制御装置
JP5206752B2 (ja) 2010-08-30 2013-06-12 株式会社デンソー 走行環境認識装置
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
JP5361914B2 (ja) 2011-02-03 2013-12-04 株式会社東芝 レーダ装置、レーダ受信装置及び目標検出方法
US9213891B2 (en) 2011-02-17 2015-12-15 Nec Corporation Information processing device
US9607008B2 (en) 2011-06-30 2017-03-28 Nec Corporation Analysis engine control device
CN102289674B (zh) * 2011-07-15 2013-01-23 王世峰 基于垂直加速度及路面图像的路面类型识别方法及装置
CN102254161B (zh) * 2011-07-15 2012-12-19 王世峰 基于路面轮廓及路面图像特征的路面类型识别方法及装置
US8718861B1 (en) 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US8949016B1 (en) 2012-09-28 2015-02-03 Google Inc. Systems and methods for determining whether a driving environment has changed
US9367065B2 (en) * 2013-01-25 2016-06-14 Google Inc. Modifying behavior of autonomous vehicles based on sensor blind spots and limitations
DE102013212710A1 (de) 2013-05-16 2014-11-20 Siemens Aktiengesellschaft Sensorprodukt, Simulator und Verfahren zur Simulation von Sensormessungen, zur Fusion von Sensormessungen, zur Validierung eines Sensormodells und zum Entwurf eines Fahrerassistenzsystems
US9436180B1 (en) * 2014-04-11 2016-09-06 Google Inc. Location-based privacy
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
KR101678583B1 (ko) * 2014-10-29 2016-11-22 현대모비스 주식회사 차량 간 통신을 이용한 차간 거리 제어 시스템 및 그 제어방법
US9727785B2 (en) * 2015-06-18 2017-08-08 The Boeing Company Method and apparatus for tracking targets
WO2017057056A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
US11543513B2 (en) * 2015-09-30 2023-01-03 Sony Corporation Information processing apparatus, information processing method and program
JP6641849B2 (ja) * 2015-10-01 2020-02-05 日本製鉄株式会社 電力予測方法
US10229363B2 (en) 2015-10-19 2019-03-12 Ford Global Technologies, Llc Probabilistic inference using weighted-integrals-and-sums-by-hashing for object tracking
CN105426858A (zh) * 2015-11-26 2016-03-23 哈尔滨工业大学 一种基于视觉和振动信息融合的地面类型辨识方法
US9889859B2 (en) * 2015-12-21 2018-02-13 Intel Corporation Dynamic sensor range in advanced driver assistance systems
US9892012B2 (en) * 2015-12-30 2018-02-13 International Business Machines Corporation Detecting anomalous sensors
CN107945198B (zh) 2016-10-13 2021-02-23 北京百度网讯科技有限公司 用于标注点云数据的方法和装置
US10315649B2 (en) * 2016-11-29 2019-06-11 Ford Global Technologies, Llc Multi-sensor probabilistic object detection and automated braking
US10466361B2 (en) 2017-03-14 2019-11-05 Toyota Research Institute, Inc. Systems and methods for multi-sensor fusion using permutation matrix track association
US11269346B2 (en) * 2017-06-22 2022-03-08 Agjunction Llc 3-d image system for vehicle control
JP7027738B2 (ja) 2017-09-06 2022-03-02 株式会社デンソー 運転支援装置
US11068735B2 (en) 2017-12-05 2021-07-20 Denso Corporation Reliability calculation apparatus
JP6977787B2 (ja) 2018-02-02 2021-12-08 日本電気株式会社 センサ情報統合システム、センサ情報統合方法及びプログラム
JP2019157652A (ja) * 2018-03-07 2019-09-19 トヨタ自動車株式会社 内燃機関の制御装置
EP3759717A4 (en) * 2018-04-09 2021-12-15 Cambridge Mobile Telematics, Inc. VEHICLE CLASSIFICATION BASED ON TELEMATIC DATA
FR3088041B1 (fr) * 2018-11-02 2020-10-16 Renault Sas Procede d’elaboration d’une consigne de pilotage d’un vehicule automobile
JP7069061B2 (ja) * 2019-01-31 2022-05-17 株式会社デンソー 物体判定装置
DE102019217257B4 (de) * 2019-11-08 2024-09-05 Zf Friedrichshafen Ag Verfahren und Computerprogramm zur Freigabe eines Sensorsystems zur Erfassung von Objekten in einem Umfeld eines Fahrzeuges
US11879964B2 (en) * 2020-02-13 2024-01-23 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of moving object with model geometry learning
US11619494B2 (en) * 2020-02-13 2023-04-04 Mitsubishi Electric Research Laboratories, Inc. System and method for tracking expanded state of an object
US11731662B2 (en) 2020-10-08 2023-08-22 Ford Global Technologies, Llc Autonomous vehicle system for detecting pedestrian presence
US11361201B2 (en) * 2020-10-08 2022-06-14 Argo AI, LLC Systems and methods for determining an object type and an attribute for an observation based on fused sensor data
JP2024100124A (ja) * 2023-01-13 2024-07-26 日立Astemo株式会社 画像処理装置及び画像処理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4578649A (en) * 1985-02-04 1986-03-25 Motorola, Inc. Random voltage source with substantially uniform distribution
US5661666A (en) * 1992-11-06 1997-08-26 The United States Of America As Represented By The Secretary Of The Navy Constant false probability data fusion system
US5482314A (en) * 1994-04-12 1996-01-09 Aerojet General Corporation Automotive occupant sensor system and method of operation by sensor fusion
US6516307B1 (en) * 1995-02-24 2003-02-04 Fujitsu Limited Next alternative generating apparatus using simulated annealing and method thereof
US5986357A (en) * 1997-02-04 1999-11-16 Mytech Corporation Occupancy sensor and method of operating same
JP3521691B2 (ja) * 1997-07-07 2004-04-19 日産自動車株式会社 車両走行制御装置
US6807537B1 (en) * 1997-12-04 2004-10-19 Microsoft Corporation Mixtures of Bayesian networks
US6415276B1 (en) * 1998-08-14 2002-07-02 University Of New Mexico Bayesian belief networks for industrial processes
US6219640B1 (en) * 1999-08-06 2001-04-17 International Business Machines Corporation Methods and apparatus for audio-visual speaker recognition and utterance verification
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
GB0006893D0 (en) * 2000-03-23 2000-12-20 Secr Defence Localisation of a signal emitting source
EP1292648B1 (de) * 2000-06-02 2007-04-11 MicroGaN GmbH Heterostruktur mit rückseitiger donatordotierung
JP2002099906A (ja) 2000-09-22 2002-04-05 Mazda Motor Corp 物体認識装置
US6502042B1 (en) * 2000-10-26 2002-12-31 Bfgoodrich Aerospace Fuel And Utility Systems Fault tolerant liquid measurement system using multiple-model state estimators
DE10297009B4 (de) * 2001-06-25 2020-07-23 Schneider Electric Systems Usa, Inc. Sensorfusion unter Verwendung von selbstvaluierenden Prozesssensoren
US6859420B1 (en) * 2001-06-26 2005-02-22 Bbnt Solutions Llc Systems and methods for adaptive wind noise rejection
JP2003084064A (ja) 2001-09-12 2003-03-19 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
US7099796B2 (en) * 2001-10-22 2006-08-29 Honeywell International Inc. Multi-sensor information fusion technique
JP3880841B2 (ja) * 2001-11-15 2007-02-14 富士重工業株式会社 車外監視装置
JP3766909B2 (ja) 2001-11-30 2006-04-19 株式会社日立製作所 走行環境認識方法および装置
JP2003172780A (ja) 2001-12-06 2003-06-20 Daihatsu Motor Co Ltd 前方車両の認識装置及び認識方法
US6882959B2 (en) * 2003-05-02 2005-04-19 Microsoft Corporation System and process for tracking an object state using a particle filter sensor fusion technique

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11132611B2 (en) 2016-05-27 2021-09-28 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method for determining presence probability of object
US11222438B2 (en) 2016-05-27 2022-01-11 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method for presence probability of object
US11204610B2 (en) 2016-05-30 2021-12-21 Kabushiki Kaisha Toshiba Information processing apparatus, vehicle, and information processing method using correlation between attributes
US11250288B2 (en) 2016-05-30 2022-02-15 Kabushiki Kaisha Toshiba Information processing apparatus and information processing method using correlation between attributes
US10311340B2 (en) 2016-06-17 2019-06-04 Mitsubishi Electric Corporation Object recognition integration device and object recognition integration method

Also Published As

Publication number Publication date
DE102004052242A1 (de) 2005-06-30
JP2005165421A (ja) 2005-06-23
US20050125154A1 (en) 2005-06-09
US7542825B2 (en) 2009-06-02

Similar Documents

Publication Publication Date Title
JP3931879B2 (ja) センサフュージョンシステム及びそれを用いた車両制御装置
US11941985B2 (en) Vehicular environment estimation device
US11314258B2 (en) Safety system for a vehicle
EP3447528B1 (en) Automated driving system that merges heterogenous sensor data
JP6524144B2 (ja) 車両制御システム及び方法、並びに走行支援サーバ
Stiller et al. Information fusion for automotive applications–An overview
CN113343746B (zh) 用于车辆行驶表面上的车道检测的方法和设备
US9393958B2 (en) Method and system for validating information
CN113165646B (zh) 用于检测车辆周围的风险因素的电子设备及其控制方法
US20220024461A1 (en) Other-Vehicle Action Prediction Method and Other-Vehicle Action Prediction Device
CN106778907A (zh) 一种基于多传感器信息融合的智能行车预警系统
CN110796102A (zh) 一种车辆目标感知系统及方法
Kawasaki et al. Standard platform for sensor fusion on advanced driver assistance system using bayesian network
EP2801057B1 (en) Bayesian classifier system and method thereof
CN113264042B (zh) 隐藏危险情况警示
EP3985643A1 (en) Outside environment recognition device
Meissner et al. Road user tracking using a Dempster-Shafer based classifying multiple-model PHD filter
KR20210100775A (ko) 노면 상태를 검출하기 위한 자율 주행 장치 및 그의 동작 방법
US20220114458A1 (en) Multimodal automatic mapping of sensing defects to task-specific error measurement
KR20170067495A (ko) 차량 충돌 방지 장치 및 그 방법
JP2024529932A (ja) レーダデータ分析および隠れオブジェクト検出
KR102185743B1 (ko) 차량의 전방에 위치하는 객체의 실존 여부를 판단하는 방법 및 장치
EP3985635A1 (en) Outside environment recognition device
Kung et al. Convolutional Neural Networks for Interpreting Unclustered Radar Data in Automotive Applications
RU2809334C1 (ru) Беспилотное транспортное средство и способ управления его движением

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070305

R150 Certificate of patent or registration of utility model

Ref document number: 3931879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100323

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110323

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120323

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120323

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130323

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140323

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees