JP2004085337A - 車両検出方法及び車両検出装置 - Google Patents
車両検出方法及び車両検出装置 Download PDFInfo
- Publication number
- JP2004085337A JP2004085337A JP2002246126A JP2002246126A JP2004085337A JP 2004085337 A JP2004085337 A JP 2004085337A JP 2002246126 A JP2002246126 A JP 2002246126A JP 2002246126 A JP2002246126 A JP 2002246126A JP 2004085337 A JP2004085337 A JP 2004085337A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- sensor
- detection
- sensors
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】複数のセンサSE1〜SEn(nは2以上の自然数)による車両の検出結果に矛盾がない場合に協調モードとして、センサSE1〜SEnは車両の計測を行い、検出結果に矛盾が生じた場合に主従モードとし、車両を検出したセンサは主のセンサとなり確からしさを確認し、車両を検出しなかったセンサは従のセンサとなり再探索を行い、センサSE1〜SEnのいずれか1つ以外が動作不可能な場合に独立モードとし、動作可能なセンサのみで車両の計測を行うこと。
【選択図】 図1
Description
【発明の属する技術分野】
本発明はセンサにより車両を検出する車両検出方法及び車両検出装置に関し、特に、車載された複数のセンサにより、車両を検出する車両検出方法及び車両検出装置に関する。
【0002】
【従来の技術】
近年、交通事故、渋滞などといった道路交通の諸問題の解決を目的に構築する新しい交通システムITS(Intelligent Transport Systems)が注目を浴びている。
【0003】
ITSでは、安全な運転を支援するシステムが提案されており、周囲の車両をセンサで検出し、距離及び速度などを算出することによって、自動的に速度制御、操舵制御を行う自動走行も可能となる。
【0004】
例えば、先行車などを検出するために、車載されるセンサには、カメラ、レーダがある。なお、カメラは、状況に応じて可視カメラか赤外線カメラが用いられ、レーダは、レーザ、電波、音波のどれでもよい。
【0005】
従来では、このようなセンサを状況に応じ、それぞれ単独で車両の検出に用いていた。
【0006】
【発明が解決しようとする課題】
しかし、従来のように、単独のセンサを用いて車両の検出を行う場合、車両の誤検出や未検出を行ってしまう場合があった。
【0007】
以下、この問題について説明する。
なお、ここでは、可視カメラを用いた画像センサと電波レーダを用いた電波(ミリ波)センサを用いるものとして説明する。
【0008】
図30は、車両の誤検出の例を説明する図であり、(a)はミリ波センサの誤検出の例、(b)は画像センサの誤検出の例を説明する図である。
ここでは、車両10に可視カメラと電波レーダが車載されており、前方の車両11、12を検出する場合について説明する。
【0009】
図30(a)に示すように、レーダでは、その性質上メインローブML以外に、サイドローブSL1、SL2が発生してしまう。このことにより、例えば、サイドローブSL2の車両11による反射波を受信し、前方に実際はない車両11aを誤検出してしまう問題があった。
【0010】
また、図30(b)に示すように画像センサの場合は、例えば、車両12の左側面(図30(b)の上方)から強い光が当たり、車両12の右側に影17が生じた場合、画像センサは、この影17に反応して実際には存在しない車両12aを誤検出してしまう問題があった。
【0011】
図31は、車両の未検出の例を説明する図であり、(a)はミリ波センサの未検出の例、(b)は画像センサの未検出の例を説明する図である。
図30と同様に、車両10には可視カメラと電波レーダが車載されている。
【0012】
図31(a)に示すように、レーダでは、ビーム角度が光学に比べ広く横方向の分解能が悪く、計測精度が悪いということから、例えば、大型の車両18と、大型の車両18と接近した車両11を1台として認識してしまい、車両11を未検出にしてしまう問題があった。
【0013】
また、図31(b)に示すように、画像センサでは、例えば、車両19の輝度が道路の輝度に近い場合、判別できずに未検出にしてしまう問題がある。また、画像センサは三角測量を基本とするものが多く、距離精度が悪いという問題があった。
【0014】
本発明はこのような点に鑑みてなされたものであり、複数のセンサを用いて車両の検出を行う車両検出方法及び車両検出装置を提供することを目的とする。
【0015】
【課題を解決するための手段】
本発明では上記課題を解決するために、車載された複数のセンサにより、車両を検出する車両検出方法において、図1で示すように、複数のセンサSE1〜SEn(nは2以上の自然数)による車両の検出結果に矛盾がない場合に協調モードとして、センサSE1〜SEnは車両の計測を行い、検出結果に矛盾が生じた場合に主従モードとし、車両を検出したセンサは主のセンサとなり確からしさを確認し、車両を検出しなかったセンサは従のセンサとなり再探索を行い、センサSE1〜SEnのいずれか1つ以外が動作不可能な場合に独立モードとし、動作可能なセンサのみで車両の計測を行うことを特徴とする車両検出方法が提供される。
【0016】
上記車両検出方法によれば、各センサSE1〜SEnによる車両の検出結果に矛盾がない場合に協調モードとして、それぞれのセンサSE1〜SEnは車両の計測を行い、複数のセンサSE1〜SEnの一致した検出結果により、確実に車両の検出を行う。
【0017】
また、検出結果に矛盾が生じた場合に主従モードとし、車両を検出したセンサは主のセンサとなり確からしさを確認し、車両を検出しなかったセンサは従のセンサとなり再探索を行うことで、矛盾を解消する。
【0018】
さらに、センサSE1〜SEnのいずれか1つ以外が動作不可能な場合に独立モードとし、動作可能なセンサのみで車両の計測を行うことにより、センサの不良あるいは特定のセンサでは計測不可能な状況において、確実に計測可能なセンサのみの計測結果を用いることにより、状況に応じた計測を可能にする。
【0019】
そして、各センサの計測結果に対応して、上記のモードを選択することにより、センサの計測状況を総合的に解析し、最適な車両の検出を実現する。
【0020】
【発明の実施の形態】
以下本発明の実施の形態を図面を参照して説明する。
図1は、本発明の車両検出装置の原理説明図である。
【0021】
本発明の車両検出装置100は、車に搭載され、接続された複数のセンサSE1〜SEnを、3つのモード、すなわち協調モード、主従モード、独立モードで制御し、周囲の車両を検出する機能をもつ。
【0022】
センサSE1〜SEnにおいて、用いるセンサヘッドは、カメラやレーダである。なお、カメラは、状況に応じて可視カメラか赤外カメラを用い、レーダはレーザ、電波のどれでもよい。
【0023】
ここで、協調モードは、複数のセンサSE1〜SEnの全ての検出結果が矛盾のない場合のモードであり、センサSE1〜SEnのそれぞれにおいて車両の計測を続行する。
【0024】
主従モードは、複数のセンサSE1〜SEnによる検出結果に矛盾が発生した場合のモードであり、車両を検出したセンサが主となり確からしさを確認し、車両を検出しなかったセンサが従となり再探索を行う。
【0025】
独立モードは、複数のセンサSE1〜SEnのいずれか1つ以外が動作不可能な場合のモードであり、協調モード及び主従モードでの動作が不可能な場合に、動作可能なセンサのみで計測を行う。
【0026】
次に、車両検出装置100の動作の概略を説明する。
図2は、車両検出装置の動作を説明するための図である。
車両10に搭載される車両検出装置100はセンサSE1〜SEnで、前方の車両11、12を検出する。なお、図2ではセンサSE1〜SEnは、車両の10の前部に配置したがこれに限定されない。
【0027】
ここで、センサSE1〜SEnのすべてが前方の車両11を検出した場合は協調モードとなり、そのまま計測を続行する。車両12についても同様にセンサSE1〜SEnで検出された場合は、そのまま計測を続行する。
【0028】
ここで、センサSE1〜SEnの検出結果が異なる場合、例えば、センサSE1は車両11を検出し、センサSE2は車両11を検出しなかった場合、主従モードとなり、車両11を検出したセンサSE1は主となり、車両11を検出しなかったセンサSE2は従となる。主となったセンサSE1は検出結果の確からしさを確認し、従となったセンサSE2は再探索を行う。これによって、双方の検出結果が正しいものであるか否かを再検討する。また、車両12に対して、センサSE1では検出せず、センサSE2で検出された場合には、検出したセンサSE2が主となり、検出しなかったセンサSE1が従となり、同様に、主のセンサSE2において、検出結果の確からしさを確認し、従のセンサSE1で再探索を行う。詳細については後述する。
【0029】
センサSE1〜SEnのうち1つ以外が動作不可能な状態となったとき、例えば、センサSE1以外が故障や、環境の変化などにより動作できない環境になった場合、独立モードとなりセンサSE1のみでの動作となり、車両11、12の検出を単独のセンサSE1で行う。動作が可能な状態になり、複数のセンサで、対象を計測可能な状態になった場合には、再び、協調モードとなる。
【0030】
このように、車載されるセンサSE1〜SEnを複数のモードで制御し、特に、センサSE1〜SEn間で矛盾が生じた場合に、主従モードで、検出結果の確からしさや、再探索を行うことで、車両の誤検出や未検出を防止することができる。
【0031】
以下それぞれのモードについて詳細に説明するとともに、本発明の車両検出方法及び車両検出装置の詳細を説明する。
図3は、本発明の1実施の形態の車両検出装置の構成図の一例である。
【0032】
車両検出装置200は、制御装置201と、バス230とインターフェース240、241を介して制御装置201と接続されたミリ波センサ制御部210、画像センサ制御部220から構成される。ここで、制御装置201はバス230を介してミリ波センサ制御部210、画像センサ制御部220を制御するので上位層とし、ミリ波センサ制御部210、画像センサ制御部220は下位層として以下説明する。
【0033】
ミリ波センサ制御部210は、ミリ波センサ20aを制御する制御装置211と、ミリ波センサ20aとのインターフェースであるミリ波インターフェース212から構成され、バス215と、インターフェース240を介して上位層のバス230と接続される。
【0034】
なお、ミリ波センサ20aのセンサヘッドはミリ波レーダである。
画像センサ制御部220は、画像センサ20bを制御する制御装置221と、画像センサ20bとのインターフェースであるカメラインターフェース222から構成され、バス225と、インターフェース241を介して上位層のバス230と接続される。
【0035】
なお、画像センサ20bのセンサヘッドは可視カメラ(以下単にカメラと呼ぶ)であるとして以下説明する。
制御装置201、211、221は、CPU(Central Processing Unit)またはDSP(Digital Signal Processor)から構成される。
【0036】
以下に説明する車両検出方法は、図3の車両検出装置200の制御装置201、211、221の制御のもと、図示しないHD(Hard Disk)やROM(Read Only Memory)などの記録媒体に記録されたプログラムやOS(Operating System)を取り出し、図示しないRAM(Random Access Memory)に一時的に展開されて処理され実行される。
【0037】
なお、図3で示した車両検出装置200の構成図では、制御装置201、211、221と、3つの制御装置を用いたが、1つの制御装置で、装置全体の制御と、各センサの制御を行うようにしてもよい。つまり、1つの制御装置で、上位層、下位層、両方の機能を有するようにしてもよい。また、複数の制御装置を用いる場合でも、OSにより、使用する制御装置を切り替えるようにしてもよい。
【0038】
また、図3では、ミリ波センサ20a、画像センサ20bと2つのセンサだけ設置したが、これに限定されることなく、3つ以上のセンサを設けてもよい。
以下、図3で示した車両検出装置200における本発明の実施の形態の車両検出方法を、前述した3つのモードごとに説明する。
【0039】
協調モードは、前述のように個々のセンサがそれぞれ車両の計測を行い、検出結果が矛盾していない状態である。
まず、協調モードの上位層を説明する。
【0040】
上位層の制御は、図3の車両検出装置200において、制御装置201で行われる処理である。
図4は、協調モードの上位層の処理の流れを示すフローチャートである。
【0041】
S10:独立モード要求があるか否かの判断
センサの故障や、環境の変化などにより、計測不可能なセンサが存在する場合に下位層から伝達される独立モード要求があるか否かの判断を行う。ここで、独立モード要求があった場合は独立モードに遷移し、独立モード要求がない場合には、ステップS11に進む。
【0042】
S11:検出結果受信
ここでは、下位層からの車両検出結果(位置・速度)を受信待ちし、受信する。受信後ステップS12に進む。
【0043】
S12:センサ間比較
下位層からの車両検出結果を上位層で受信すると、センサ間での車両検出結果を比較する。
【0044】
S13:矛盾があるか否かの判断
ステップS12において、比較した結果、センサ間での車両検出結果に矛盾が生じた場合(例えば、ミリ波センサ20aでは車両を検出したのにも関わらず、画像センサ20bでは、その位置に車両を検出しなかった場合など)、主従モードへ遷移する。矛盾がないと判断された場合には、ステップS14に進む。
【0045】
S14:協調モード設定
ステップS13において、センサ間での車両検出結果に矛盾がなかったので、協調モードを持続し、ステップS10に戻り、上記と同様の処理を繰り返す。
【0046】
次に、協調モードにおける下位層の処理を説明する。
図5は、協調モードにおける下位層の処理の流れを示すフローチャートである。
【0047】
なお、後述する独立モードの下位層における処理も、ほぼ同様であるので、図5に合わせて図示した。
下位層は、例えば、図3の車両検出装置200において、ミリ波センサ20a、画像センサ20bを制御する制御装置211、221で行われる処理である。
【0048】
S20:協調モードまたは独立モードか否かの判断
上位層からの要求が協調モードまたは独立モードか否かを判断し、協調モードまたは独立モードである場合はステップS21に進む。それ以外の場合は、上位層からの主従モード要求であるので、下位層の主従モードへ遷移する。
【0049】
S21:正常動作中であるか否かの判断
センサが正常動作中であるか否かを判断し、異常が生じた場合は上位層に対し独立モード要求を行う。正常な場合は、ステップS22に進む。このとき、下位層のモードが独立モードの場合は、上位層に対して協調モード要求を行う。
【0050】
ここで、異常とは、ハード的な異常と環境の変化(照度不足や霧などで映像が取れないなど)による異常がある。これらを検知して正常であるか否かを判断する。
【0051】
S22:対象物の検出
正常動作であるので、センサで計測対象物の検出を行う。例えば、図3で示した車両検出装置200の場合、ステップS21の処理で、制御装置211がミリ波センサ20aは正常動作中であると判断した場合、ミリ波センサ20aによる対象の車両の検出を行う。ここでは、対象物(車両)の有無、位置、速度なども検出する。その後ステップS23に進む。
【0052】
S23:検出結果送信
ステップS22で検出した対象物の検出結果を上位層に送信する。
その後、再びステップS20に戻り上記の処理を繰り返す。
【0053】
次に、ステップS22の対象物の検出の詳細を説明する。
対象物検出処理は、センサによりさまざまである。以下に多眼の画像センサ、単眼の画像センサ、ミリ波センサについてそれぞれの対象物検出の例を説明する。
【0054】
まず、多眼の画像センサによる検出を説明する。
なお、ここでは、2眼の画像センサを例にして説明するが、3眼以上の画像センサについてもほぼ同様である。
【0055】
図6は、多眼の画像センサによる検出処理の流れを示すフローチャートである。
また、図7は、2眼の画像センサによる検出処理の様子を示す説明図であり、(a)は左眼の画像、(b)は右眼の画像である。
【0056】
なお、以下の処理は、図3で示した車両検出装置200の場合、画像センサ制御部220の制御装置221が、画像センサ20bを制御して行う処理である。
S30:ブロック相関を用いたオプティカルフローの検出
ここでは、2眼の画像センサ20bの両画像、図7(a)、(b)全体でブロック相関を用いて、オプティカルフローA1を求め、ステップS31に進む。
【0057】
S31:ブロックの相関結果による道路部の除去
ブロック相関の結果を使って道路と道路構造物15、16を除去する。道路は一般的に濃淡が緩やかであるので、ブロック内の相関値の変動が緩やかである。道路構造物15、16は濃淡がはっきりしているので、ブロック内の相関値の変動は急峻であるが、オプティカルフローA1の量が自速度に比例して現れる。これらの特徴を考慮して道路と道路構造物15、16を除去し、ステップS32に進む。
【0058】
S32:オプティカルフローによる車両範囲の検出
車両11、12による車両範囲11b、12bは濃淡があるので、ブロック相関の変動が急峻であり、相対速度はほぼ一致しているので、フロー量(動きベクトル)が小さい。この特徴にしたがって、車両範囲11b、12bを検出し、ステップS33に進む。
【0059】
S33:エピポーララインに沿った探索
左眼の画像である図7(a)から検出する車両範囲11b、12bの中心座標などをもとに、エピポーラ拘束から得られた右眼のエピポーララインEL1、EL2に沿って、対応する車両範囲11b、12bを探索する。その後ステップS34に進む。
【0060】
エピポーラ拘束は、一般的なステレオ画像に対して成り立つ拘束条件であり、左眼のカメラで撮像された任意の点は、右眼のカメラにおいてはエピポーラライン上に存在するように拘束される状態をいう。
【0061】
S34:3角測量による距離検出
ステップS32と、ステップS33で検出した両眼の対応する車両範囲11b、12bの画素数差から3角測量により距離を検出する。その後ステップS35に進む。
【0062】
S35:時系列処理
ステップS34までで得たデータを時系列処理し、相対速度などを求める。
次に単眼の画像センサによる検出を説明する。
【0063】
図8は、単眼の画像センサによる検出処理の流れを示すフローチャートである。
また、図9は、単眼の画像センサによる検出処理の様子を示す図である。
【0064】
なお、図9において、2眼の画像センサの図7と同様の部分は符号を同じとして、説明を省略する。
なお、以下の処理は、図3の車両検出装置200の場合、画像センサ制御部220の制御装置221が、画像センサ20bを制御して行う処理である。
【0065】
ステップS40〜S42の処理は、図6で示した多眼の場合の処理(ステップS30〜S32)と同様であるので説明を省略する。
S43:車両範囲の大きさ計測
単眼の画像センサ20bの場合は、ステップS42で車両範囲11b、12bを検出した後、車両範囲11b、12bの大きさとして、水平方向(車幅方向)の画素数を検出する。その後ステップS44に進む。
【0066】
S44:大きさによる距離の検出
一般的に車両は2m前後であるので、検出された水平方向の画素数と車幅2mからおおよその距離を求める。その後ステップS45に進む。
【0067】
S45:時系列処理
ステップS44までで得たデータを時系列処理し、相対速度などを求める。
以上が、画像センサ20bによる対象物の検出方法である。
【0068】
次に、ミリ波センサ20aによる検出方法を説明する。
図10は、ミリ波センサによる検出処理の様子を示す図であり、(a)はミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【0069】
また図11は、ミリ波センサによる検出処理の流れを示すフローチャートである。
以下の処理は、図3の車両検出装置200の場合、ミリ波センサ制御部210の制御装置211が、ミリ波センサ20aを制御して行う処理である。
【0070】
図10(a)のように、ミリ波センサ20aは、車両前部に搭載され、ある範囲(ここでは角度θ)をスキャンし、方向ごとに対象物までの距離を計測する。ミリ波センサ20aが、FM−CWタイプである場合は相対速度も計測できる。計測結果は、図10(b)のようにプロットされる。以下は、FM―CWタイプのミリ波センサを想定して、処理を説明する。
【0071】
S50:各方向の距離の検出
まず上記のようにミリ波センサ20aから距離を検出する。その後ステップS51に進む。
【0072】
S51:ラベリング
図10(b)に示したように近傍の同じ計測点(プロット)をグループ化してラベリングを行う。例えば、車両11を計測して検出した計測点をグループG1、車両12を計測して検出した計測点をグループG2のようにグループ化してラベリングする。その後ステップS52に進む。
【0073】
S52:道路構造物除去処理
道路構造物15、16は、車両10の正負逆の速度に比例するので、速度データで除去する。その後ステップS53に進む。
【0074】
S53:時系列処理
ステップS52までで得られたデータを時系列処理し、相対速度などを求める。
【0075】
以上が、各センサでの基本的な検出方法である。
次に、独立モードの上位層について説明する。
上位層の制御は、図3の車両検出装置200において、制御装置201で行われる処理である。
【0076】
図12は、独立モードの上位層の処理の流れを示すフローチャートである。
S60:独立モード設定
図3で示した協調モードの処理において、独立モード要求がなされた場合に上位層を独立モードに設定する。その後ステップS61に進む。
【0077】
S61:複数センサが計測可能か否かの判断
複数のセンサがまだ、ハード的な異常または環境の変化などで計測不可能な状態であるか否かを判断する。ここで、異常が解消され復旧していれば、協調モードに遷移し、異常が続いており、複数のセンサが計測不可能な状態であれば、ステップS60に戻り、独立モードを継続する。
【0078】
独立モードの下位層の処理は、前述の図5で協調モードの下位層の処理とともに説明したので、ここでは省略する。
次に主従モードの処理について説明する。
【0079】
前述のように主従モードは、複数センサの検出結果に矛盾が生じた場合に遷移するモードである。
まず、主従モードの上位層における処理を説明する。
【0080】
上位層の制御は、図3の車両検出装置200において、制御装置201で行われる処理である。
図13は、主従のモードの上位層の処理の流れを示すフローチャートである。
【0081】
S70:主従モード設定
前述した協調モードの上位層の処理時に、主従モード要求がなされた場合、ここで主従モード設定を行い、上位層のモードを主従モードとし、ステップS71に進む。
【0082】
S71:センサの主従区分け設定
ここでは、データごとに車両が検出されなかったセンサを従とし、車両を検出したセンサを主と設定し、ステップS72に進む。
【0083】
S72:従の探索範囲の設定
主のセンサと、従のセンサの区分けが決まると、主のセンサにより検出した車両の座標などをもとに、下位層の従のセンサが探索すべき範囲を設定し、下位層に伝える。その後ステップS73に進む。
【0084】
S73:主へ矛盾対象物指示
車両を検出した主のセンサに対しても、それが誤検出である可能性があるので、矛盾を起こしたデータを下位層に伝え、ステップS74に進む。
【0085】
S74:主従の再探索指示
ステップS72、S73により下位層に伝えた情報をもとに、矛盾を引き起こしたデータに対して、それぞれ再探索を行うように下位層に指示する。その後ステップS75に進む。
【0086】
S75:再探索結果受信
下位層からの再探索結果を受信する。このとき従のセンサの下位層からのデータは、車両の有無であり、主のセンサの下位層からのデータは、車両の有無の確からしさである。次にステップS76に進む。
【0087】
S76:矛盾解消処理
ステップS75で受信した再探索結果をもとに、矛盾解消処理を行う。ここで、協調モードで車両を検出しなかった従のセンサが、ステップS72で上位層から得た情報をもとに再探索した結果、車両を検出し、主のセンサからは車両の存在は確からしいという再探索結果を得た場合はデータを正しいとして残す。また、従のセンサが再探索を試みたが車両はなく、主のセンサからは、車両の存在は疑わしいという再探索結果を得た場合はデータを削除する。その結果、矛盾が解消されるか、最初と同じ結果であれば、主のデータを優先する。最初の結果が逆転した場合には図13では図示していないが、ステップS71に戻り、主従を入れ替えて再探索を行う。このようにして、矛盾が解消された後、ステップS77に進む。
【0088】
S77:協調モードへ遷移
ステップS76で矛盾が解消されると、協調モードへ遷移して主従モードの上位層の処理を終了する。
【0089】
以下、上記で説明した主従モードの上位層の処理を、車両を誤検出した場合と、未検出してしまった場合に分けて具体的に説明する。
まず、車両を誤検出して矛盾が生じた場合について説明する。
【0090】
図14は、ミリ波センサの誤検出時に生成されるデータの例を示す図であり、(a)は誤検出時のミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【0091】
ミリ波センサ20aの場合、前述したサイドローブの影響があり、誤検出の可能性がある。例えば、図14(a)の場合は、サイドローブが車両11を検出し、あたかも車両11aがいるかのような検出結果を生成し、図14(b)のようにグループG1aで示されるような計測結果のデータが生成される。
【0092】
ここで、画像センサ20bが車両11aを検出しない場合は、図13のステップS71では、ミリ波センサ20aが主となり画像センサ20bが従となる。
ステップS72の探索範囲の設定では、従となった画像センサ20bの探索範囲を指定する。ここで、絶対座標を(X、Y、Z)とし、カメラ座標(画像センサにおける画素座標)を(Xc、Yc)とし、ミリ波センサ座標を(Xm、Ym)とする。また、C**、M**をカメラパラメータとミリ波パラメータとし、H*を所定のファクターとすると、車両の位置座標をセンサのどこに撮像するかを決定する式は、以下のように表せる。なお、ここで、Xは進行方向とし、Yは車幅方向、Zは高さ方向として、右手系で座標が構成されているとする。
【0093】
【数1】
【0094】
【数2】
【0095】
車載のミリ波センサ20aでは高さの情報にあまり関係なく位置が求まるので式(1)のようになる。ここで、ミリ波パラメータの逆行列が取れるので式(2)は、以下のように表せる。
【0096】
【数3】
【0097】
ここで、INVM**は逆行列にしたことにより変化したミリ波パラメータとする。
式(3)において3行目を展開すると、
【0098】
【数4】
【0099】
となる。ここで、矛盾を起こした図14(b)のグループG1aのミリ波座標を(Xmg1a、Ymg1a)とすると、式(4)を式(3)に代入し、グループG1aのミリ波座標を代入すると、車両11aの座標(Xg1a、Yg1a)が求まる。また、一般的に車両の最大の高さは、4m程度である。したがって、Z方向は、0〜4mである。ここで、車両の位置座標の探索範囲として、始点(Xg1a+α、Yg1a+β、4+γ)とし、(Xg1a−α、Yg1a−β、0)を終点とする矩形状の範囲を設定する。なお、α、β、γは計測精度や車幅などをもとに作られた範囲生成用の係数である。これを式(1)に代入して、始点(XcS、YcS)から終点(XcE、YcE)で示されるカメラ上の探索範囲を得る。なお、上記は単眼について述べたが、複眼の場合はそれぞれのカメラに対してカメラパラメータがあり、それを用いて、それぞれのカメラに対してカメラの探索範囲を求める。以上の処理により、車両11aを検出しなかった従の画像センサ20bの探索範囲を設定し下位層に伝える。
【0100】
ステップS73では、主のセンサであるミリ波センサ20aにグループG1aのデータが矛盾を起こしていることを伝え、ステップS74で主従の両センサに再探索を指示する。
【0101】
ステップS75で、下位層から再探索結果を受信すると、ステップS76で矛盾解消処理を行う。図14で示した誤検出の例では、画像センサ20bからは、対象物は「無し」という再探索結果を、ミリ波センサ20aからは、検出した車両11aの存在は疑わしいという再探索結果を受信するので、グループG1aで示したデータは削除する。
【0102】
次に、画像センサ20bで車両を誤検出して矛盾が生じた場合について説明する。
図15は、2眼の画像センサの誤検出の例を示す図であり、(a)は左眼の画像(b)は右眼の画像を示す図である。
【0103】
また、図16は、単眼の画像センサの誤検出の例を示す図である。
ここで、図7、9と同様の部分は同じ符号とし、説明を省略する。
図15、16のように、画面左側から、車両12に強い光が当たって、影17が生じた場合に画像センサ20bは、その影17を車両であると認識してしまい、車両範囲17bで示した部分を車両であると誤検出する。
【0104】
このときの図13で示した上位層の処理を説明する。
図15、16のように、画像センサ20bが、車両範囲17bを検出して、ミリ波センサ20aが検出しない場合は、画像センサ20bが主となり、ミリ波センサ20aが従となる。ステップS72の従のミリ波センサ20aの探索範囲の設定では、前述のように単眼であれ、複眼であれ検出した車両範囲17bまでの距離が求められているので、車両範囲17bの座標が求まっている。例えば、座標を(Xg2a、Yg2a、Zg2a)とすると、ミリ波の場合、2次元であるから(Xg2a、Yg2a)を用いて、例えば始点を(Xg2a−α’、Yg2a−β’)とし、終点を(Xg2a+α’、Yg2a+β’)とし、前述の式(2)に代入し、これによりミリ波センサ20aの始点(XmS、YmS)と終点(XmE、YmE)を得る。これを下位層に、ミリ波センサ20aの探索範囲として伝える。
【0105】
なお、α’、β’は計測精度や車幅などをもとに作られた範囲生成用の係数である。
以下の処理は、ミリ波センサ20aの誤検出の例と同様であるので説明を省略する。
【0106】
次に、車両を未検出して矛盾が生じた場合について、図13で示した上位層の処理を具体的に説明する。
図17は、ミリ波センサの誤検出時に生成されるデータの例を示す図であり、(a)は未検出時のミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【0107】
ミリ波センサ20aは、車両11と車両18を1つに誤認し、隣の車線の車両11を未検出としてしまっている。このときの計測されたデータによってグループG3で示すようなデータが生成される。
【0108】
なお、この際、画像センサ20bは、車両11を検出しているとすると、図13で示したステップS71の処理では、ミリ波センサ20aが従となり、画像センサ20bは主となる。
【0109】
ステップS72では、従となるミリ波センサ20aの探索範囲を設定する。このとき、主である画像センサ20bは、単眼であれ、複眼であれ、前述したように、車両範囲11bから、距離まで求めているので、未検出の車両11の座標が求まっている。ここで、たとえば、車両11の座標を(Xg1、Yg1、Zg1)とすると、2次元であるから、(Xg1、Yg1)を用いて、例えば始点を(Xg1−α’、Yg1−β’)とし、終点を(Xg1+α’、Yg1+β’)とし、前述の式(2)に代入し、ミリ波センサ20aの始点(XmS、YmS)と終点(XmE、YmE)を得る。これらを下位層の従であるミリ波センサ20aに伝える。
【0110】
次に、ステップS73で、主の画像センサ20bに対し、車両11の検出データにおいて矛盾が生じている旨を伝え、ステップS74で主従の両センサに再探索を指示する。
【0111】
ステップS75で、下位層から再探索結果を受信すると、ステップS76で矛盾解消処理を行う。矛盾解消処理では、従のミリ波センサ20aからは、車両11を検出したとの再探索結果を、主の画像センサ20bからは、車両11は確かに存在するとの再探索結果を受信するので、データを残す。
【0112】
次に、画像センサ20bで車両を未検出して矛盾が発生した場合について説明する。
図18は、2眼の画像センサの未検出の例を示す図であり、(a)は左眼の画像(b)は右眼の画像を示す図である。
【0113】
また、図19は、単眼の画像センサの未検出の例を示す図である。
なお、前述の図7、9と同様の部分は同じ符号とし、説明を省略する。
図18、19において、車両19は、輝度が道路の輝度に近く、画像センサ20bでは未検出である。
【0114】
このとき、ミリ波センサ20aは、計測の際に車両の輝度は関係ないので、車両19を検出したとすると、図13の上位層の処理であるステップS71では、ミリ波センサ20aを主、画像センサ20bを従とする。
【0115】
次に、従となる画像センサ20bの探索範囲を指定する。
ミリ波センサ20aで検出した車両19のミリ波座標を(Xmg4、Ymg4)とすると、式(4)を式(3)に代入し、さらに、ミリ波座標(Xmg4、Ymg4)を代入すると、車両座標(Xg4、Yg4)が求まる。また、車両の最大の高さは、4m程度である。したがって、Z方向は、0〜4mである。ここで、車両座標の探索範囲として、始点(Xg4+α、Yg4+β、4+γ)とし、(Xg4−α、Yg4−β、0)を終点とする矩形状の範囲を設定する。これを式(1)に代入して、カメラ上の探索範囲(XcS、YcS)から(XcE、YcE)を得る。なお、上記は単眼について述べたが、複眼の場合はそれぞれのカメラに対してカメラパラメータがあり、それを用いて、それぞれのカメラに対してカメラの探索範囲を求める。以上で、従の画像センサ20bの探索範囲を設定し、下位層に伝える。
【0116】
以下の処理は、ミリ波センサ20aでの未検出の例とほぼ同様の処理を行うので説明を省略する。
次に、主従モードの下位層の処理を説明する。
【0117】
図20は、主従モードの下位層の処理の流れを示すフローチャートである。
以下の処理は、図3で示した車両検出装置200の場合、下位層であるミリ波センサ制御部210の制御装置211、画像センサ制御部220の制御装置221でなされる処理である。
【0118】
S80:主従モードか否かの判断
現在のモードが主従モードであるか否かを判断する。ここで、主従モードでなければ、他のモードへ遷移する。主従モードであればステップS81に進む。
【0119】
S81:主か従かの判断
主従モードにおいて、センサが対象物を検出した主のセンサか、検出できなかった従のセンサかを判断する。ここで、従のセンサであればステップS82に進み、主のセンサであればステップS86に進む。
【0120】
S82:探索範囲情報受信
ここでは、上位層から従であるセンサに送信される、再探索を行うための探索範囲情報を受信する。その後ステップS83に進む。
【0121】
S83:探索範囲限定
ステップS82で受信した探索範囲情報をもとに、探索する範囲を限定し、ステップS84に進む。
【0122】
S84:対象物の再探索
ステップS83で限定された探索範囲を再検出し、ステップS85に進む。
S85:検出結果出力
検出結果を上位層に出力し、主従モードの下位層の処理を終了する。
【0123】
S86:矛盾対象物情報受信
センサが主の場合は、上位層から矛盾が生じた対象物の情報を受信する。その後ステップS87に進む。
【0124】
S87:対象物の有無の確からしさ確認
ここでは、検出した対象物の有無を再探索し、その確からしさを確認する。詳細については、後述する。その後ステップS88に進む。
【0125】
S88:有無の確からしさ出力
ステップS87で検証した、対象物の有無の確からしさを上位層に出力し、主従モードの下位層の処理を終了する。
【0126】
以下、ステップS84の対象物の再探索と、ステップS87の対象物の有無の確からしさの確認について、図3で示した、ミリ波センサ20a、画像センサ20bの2つを用いた場合を例にして説明する。
【0127】
まず、図14で示したような、ミリ波レーダのサイドローブに起因する誤検出の場合について説明する。
この場合、車両11aを検出するミリ波センサ20aが主となり確からしさを確認し、検出しない画像センサ20bが従となり再探索を行う。
【0128】
図21は、画像センサが従の場合の再探索処理の流れを示すフローチャートである。
また、図22は、単眼の画像センサによる再探索の様子を示す図である。
【0129】
画像センサ20bは、図13で示した主従モードの上位層のステップS72の処理で設定された、始点(XcS、YcS)、終点(XcE、YcE)からなる探索範囲30を限定して再探索する。ここでは、探索範囲30に対して今までと同じ計測処理では、検出できない可能性が高いので検出処理を変える。例えば、オプティカルフローA1における検出ではなく、車両には必ず存在する特徴点(ブレーキライトの赤色やナンバープレート)を検出し(ステップS90)、車両の有無を判断する(ステップS91)。
【0130】
図23は、ミリ波センサが主の場合の確からしさ確認処理の流れを示すフローチャートである。
また、図24は、ミリ波センサによる確からしさ確認処理を説明する図である。
【0131】
図13で示した主従モードの上位層のステップS73の処理で、グループG1aの検出結果に矛盾が生じている旨の情報を受信すると、矛盾対象物のサイドローブの位置を確認する。図24において、例えば、グループG1aの計測点▲5▼のデータにおけるサイドローブの位置を確認する(ステップS100)。次に、サイドローブの影響を受ける可能性のあるグループG1における対応する計測点▲1▼と、グループG1aの計測点▲5▼の角度差φと受信電力差を確認する(ステップS101)。メインローブとサイドローブの角度差、受信電力差は既知である。したがって、グループG1の計測点▲1▼とグループG1aの計測点▲5▼の角度差φ及び受信電力差と、メインローブとサイドローブの角度差及び受信電力差を比較し(ステップS102)、一致した場合は疑義と判断し(ステップS103)、一致しない場合は対象物があることは確実であると判断する(ステップS104)。
【0132】
次に、図15、16で示したような、画像センサ20bの誤検出の場合について説明する。
この場合、画像センサ20bが主になり確からしさを確認し、ミリ波センサ20aは従になり再探索を行う。
【0133】
図25は、画像センサが主の場合の確からしさの確認処理の流れを示すフローチャートである。
画像センサ20bは、図15、16で示したような矛盾対象物である車両範囲17bを検出している。ここで、いままでと同じ処理では、再び検出してしまう可能性が高いので、検出処理を変える。例えば、オプティカルフローにおける検出ではなく、前述したように、ブレーキライトの赤やナンバープレートなど、車両に存在する特徴点があるかを、車両範囲17bにおいて探索する(ステップS110)。ここで、特徴点が存在した場合は車両が確実にあると判断し(ステップS111)、特徴点が存在しない場合は車両の存在が疑義であると判断する(ステップS112)。図15、16で示したように、車両12の影17を誤検出した場合、特徴点は検出されないのでステップS112で疑義と判断される。
【0134】
次に、従のセンサとなったミリ波センサ20aの再探索処理を説明する。
図26は、ミリ波センサが従の場合の再探索処理の流れを示すフローチャートである。
【0135】
また、図27は、ミリ波センサの再探索の様子を示す図である。
上位層から受信した再探索用の、始点(XmS、YmS)、終点(XmE、YmE)からなる探索範囲31について、しきい値を再設定し(ステップS120)、再検出処理を行ない(ステップS121)、車両の有無を判断する(ステップS122)。
【0136】
次に、図17で示した、ミリ波センサ20aが車両11を未検出の場合について説明する。
このときミリ波センサ20aは従となり再探索を行い、画像センサ20bは主となり、確からしさを確認する。
【0137】
ミリ波センサ20aが従のときの再探索処理は、誤検出の場合と同様に、上位層から受信した探索範囲に対して各種のしきい値を再設定し、車両の有無を判断しなおす。これにより、図17で未検出であった車両11が検出することができる。
【0138】
画像センサ20bが主のときの確からしさの確認は、誤検出の場合と同様に、上位層から矛盾となったデータ(車両11)が通知されると、ブレーキライトの赤色やナンバープレートなどの特徴点を探索する。図17の場合は、車両11は存在し、特徴点が検出されるので、確かに車両11は存在すると判断される。
【0139】
次に、図18、19で示した、画像センサ20bが車両19を未検出の場合について説明する。
この場合、ミリ波センサ20aは主となり確からしさを確認し、画像センサ20bは従となり再探索する。
【0140】
図28は、ミリ波センサが主のときの確からしさの確認処理の流れを示すフローチャートである。
また、図29は、ミリ波センサの確からしさの確認の様子を示す図である。
【0141】
図29において、グループG4は、図18、19で示した車両19の計測点からなるデータである。ここで、距離Lg1はグループG1のミリ波センサ20aからの距離、距離Lg4は、グループG4の距離である。また、速度Vg1はグループG1の速度、速度Vg4はグループG4の速度である。
【0142】
ミリ波センサ20aにおいて、誤検出をする事象として考えられるものは、受信信号レベルが許容値を超えて入力されたときに受信回路が歪むことにより生じる高調波がある。この場合、基の信号に対して、整数倍の距離と速度に現れる。したがって、まず、矛盾を起こしているデータ(ここでは、グループG4)の距離Lg4の整数分の1に相当する距離に、対応するデータがあるか否か判断する(ステップS130)。対応するデータが存在する場合は、対応する基の信号の速度と矛盾を起こしているデータ(ここでは、グループG4)の速度Vg4が整数分の1であるか否かを判断する(ステップS131)。ここで、距離、速度とも整数分の1である場合は、受信回路のゆがみに起因して誤検出が起こった可能性があるので、検出結果を疑義と判断し(ステップS132)、距離または速度が整数分の1でない場合は、検出結果を確実と判断する(ステップS133)。
【0143】
図18、19で示した未検出例で、ミリ波センサ20aの計測結果である図29で示した計測データにおいては、例えば、距離Lg4/距離Lg1が整数分の1にならないと判断され、検出結果は確実と判断される。
【0144】
一方、画像センサ20bは従であり、再探索を行う。
画像センサ20bの再探索処理は、誤検出の場合と同様に、上位層から探索範囲を受信すると、ブレーキライトの赤色やナンバープレートなどの特徴点を探索する。この特徴点の探索により、図18、19の場合は、車両19が検出される。
【0145】
このように、同じ車両の検出にミリ波センサ20aと、画像センサ20bを用い、一方が車両を検出し、他方が車両を検出しなく矛盾が生じた場合には、車両を検出したセンサが車両の位置情報を他方のセンサに提供し、その位置情報をもとに、検出できなかったセンサは再探索し、検出したセンサも確からしさを確認するようにしたので、車両の誤検出及び未検出を防止することができる。
【0146】
次に計測精度について説明する。
ここでは、まず、距離方向と横方向のデータの使い分けについて説明する。
車載のミリ波センサ20aは、先行車までの距離は精度の高いセンサであるが、ビームが広いため横方向精度が低めである。一方、画像センサ20bは、横方向精度は高いが、奥行き距離精度は、低めのセンサである。したがって、距離方向はミリ波センサ20aのデータを用い、横方向は画像センサ20bのデータを用い、計測精を高める。ここでは、画像センサ20bは、単眼で説明する。
【0147】
前述の式(3)、(4)より、例えば先行車の位置の車両位置座標X0(奥行き方向)は、ミリ波センサ座標(Xm、Ym)を用いて書き表すと以下のようになる。
【0148】
【数5】
【0149】
このX0をカメラの式(1)に代入すると以下のようになる。
【0150】
【数6】
【0151】
上記の式を展開すると以下のようになる。
【0152】
【数7】
【0153】
これのHcを消去すると以下の式になる。
【0154】
【数8】
【0155】
上記の式をさらにY、Zで整理すると以下のようになる。
【0156】
【数9】
【0157】
【数10】
【0158】
上記の行列を
【0159】
【数11】
A=B・Y………………(11)
と書き表すとBの逆行列を求め以下の式でY、Zを求める。
【0160】
【数12】
Y=B−1・A………………(12)
このようなデータの融合により、計測精度を高めることができる。
【0161】
また、互いの全てのデータを融合する方法により計測制度を高める。式(1)、(2)を展開し、Hc、Hmを消去すると以下の式になる。
【0162】
【数13】
【0163】
これを整理すると、
【0164】
【数14】
【0165】
と書き表せる。上記の行列を以下のように書く。
【0166】
【数15】
R=L・X………………(15)
Xを求めるため、最小2乗法により、
【0167】
【数16】
X=(LTL)−1LTR………………(16)
の式で、Xベクトルつまり車両座標を求める。この最小2乗効果により、精度が高まる。
【0168】
なお、画像センサ20bを使用する環境では、複数車線がある場合には、車線間に白色もしくは黄色の線(以下、まとめて白線とする)が引いてあることが多い。この場合、画像センサ20bで白線を検知し、車両がどこの車線もしくは車線間に車両が存在するかの判断をミリ波センサ20aにフィードバックするようにしてもよい。これにより、隣接車線に並んでいるような車両についてミリ波センサ20aでの未検出を防ぐことができる。
【0169】
(付記1) 車載された複数のセンサにより、車両を検出する車両検出方法において、
複数の前記センサによる車両の検出結果に矛盾がない場合に協調モードとして、前記センサは前記車両の計測を行い、
前記検出結果に矛盾が生じた場合に主従モードとし、前記車両を検出した前記センサは主のセンサとなり確からしさを確認し、前記車両を検出しなかった前記センサは従のセンサとなり再探索を行い、
前記センサのいずれか1つ以外が動作不可能な場合に独立モードとし、動作可能な前記センサのみで前記車両の計測を行うことを特徴とする車両検出方法。
【0170】
(付記2) 前記再探索の際、前記主のセンサにより検出された前記車両の位置データをもとに、前記従のセンサは探索範囲を限定することを特徴とする付記1記載の車両検出方法。
【0171】
(付記3) 複数の前記センサで計測したデータを融合し、前記車両の位置データを算出することを特徴とする付記1記載の車両検出方法。
(付記4) 前記再探索の際、前記従のセンサは、検出処理で用いるパラメータを、前回の探索時の前記パラメータと異なるものを用いて、前記再探索を行うことを特徴とする付記1記載の車両検出方法。
【0172】
(付記5) 前記探索の際、前記従のセンサは、前回の探索時と異なる検出処理を行なうことを特徴とする付記1記載の車両検出方法。
(付記6) 車載された複数のセンサにより、車両を検出する車両検出方法において、
複数の前記センサの検出結果に矛盾が生じた場合、前記車両を検出した前記センサは確からしさを確認し、
前記車両を検出しなかった前記センサは再探索を行うことを特徴とする車両検出方法。
【0173】
(付記7) 車載された複数のセンサにより、車両を検出する車両検出装置において、
複数の前記センサによる車両の検出結果に矛盾がない場合に、前記センサに前記車両の計測を行わせる協調動作部と、
前記検出結果に矛盾が生じた場合に、前記車両を検出した前記センサを主のセンサとして確からしさを確認させ、前記車両を検出しなかった前記センサを従のセンサとして再探索を行わせる主従動作部と、
前記センサのいずれか1つ以外が動作不可能な場合に、動作可能な前記センサのみで前記車両の計測を行わせる独立動作部と、
を有することを特徴とする車両検出装置。
【0174】
【発明の効果】
以上説明したように本発明では、車載される複数のセンサを、センサ間で矛盾がない場合の協調モード、矛盾が生じた場合の主従モード、いずれか1つのセンサが計測可能な場合の独立モードの3つのモードで制御し、特に、主従モードでは、車両を検出したセンサで検出結果の確からしさを確認し、車両を検出しなかったセンサで再探索を行い、発生した矛盾を解消することにより、車両の誤検出や未検出を防止することができる。
【図面の簡単な説明】
【図1】本発明の車両検出装置の原理説明図である。
【図2】車両検出装置の動作を説明するための図である。
【図3】本発明の1実施の形態の車両検出装置の構成図である。
【図4】協調モードの上位層の処理の流れを示すフローチャートである。
【図5】協調モードにおける下位層の処理の流れを示すフローチャートである。
【図6】多眼の画像センサによる検出処理の流れを示すフローチャートである。
【図7】2眼の画像センサによる検出処理の様子を示す説明図であり、(a)は左眼の画像、(b)は右眼の画像である。
【図8】単眼の画像センサによる検出処理の流れを示すフローチャートである。
【図9】単眼の画像センサによる検出処理の様子を示す図である。
【図10】ミリ波センサによる検出処理の様子を示す図であり、(a)はミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【図11】ミリ波センサによる検出処理の流れを示すフローチャートである。
【図12】独立モードの上位層の処理の流れを示すフローチャートである。
【図13】主従のモードの上位層の処理の流れを示すフローチャートである。
【図14】ミリ波センサの誤検出時に生成されるデータの例を示す図であり、(a)は誤検出時のミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【図15】2眼の画像センサの誤検出の例を示す図であり、(a)は左眼の画像(b)は右眼の画像を示す図である。
【図16】単眼の画像センサの誤検出の例を示す図である。
【図17】ミリ波センサの誤検出時に生成されるデータの例を示す図であり、(a)は未検出時のミリ波センサの動作イメージ、(b)は計測と検出の様子を示す図である。
【図18】2眼の画像センサの未検出の例を示す図であり、(a)は左眼の画像、(b)は右眼の画像を示す図である。
【図19】単眼の画像センサの未検出の例を示す図である。
【図20】主従モードの下位層の処理の流れを示すフローチャートである。
【図21】画像センサが従の場合の再探索処理の流れを示すフローチャートである。
【図22】単眼の画像センサによる再探索の様子を示す図である。
【図23】ミリ波センサが主の場合の確からしさ確認処理の流れを示すフローチャートである。
【図24】ミリ波センサによる確からしさ確認処理を説明する図である。
【図25】画像センサが主の場合の確からしさの確認処理の流れを示すフローチャートである。
【図26】ミリ波センサが従の場合の再探索処理の流れを示すフローチャートである。
【図27】ミリ波センサの再探索の様子を示す図である。
【図28】ミリ波センサが主のときの確からしさの確認処理の流れを示すフローチャートである。
【図29】ミリ波センサの確からしさの確認の様子を示す図である。
【図30】車両の誤検出の例を説明する図であり、(a)はミリ波センサの誤検出の例、(b)は画像センサの誤検出の例を説明する図である。
【図31】車両の未検出の例を説明する図であり、(a)はミリ波センサの未検出の例、(b)は画像センサの未検出の例を説明する図である。
【符号の説明】
100 車両検出装置
SE1〜SEn センサ
Claims (5)
- 車載された複数のセンサにより、車両を検出する車両検出方法において、
複数の前記センサによる車両の検出結果に矛盾がない場合に協調モードとして、前記センサは前記車両の計測を行い、
前記検出結果に矛盾が生じた場合に主従モードとし、前記車両を検出した前記センサは主のセンサとなり確からしさを確認し、前記車両を検出しなかった前記センサは従のセンサとなり再探索を行い、
前記センサのいずれか1つ以外が動作不可能な場合に独立モードとし、動作可能な前記センサのみで前記車両の計測を行うことを特徴とする車両検出方法。 - 前記再探索の際、前記主のセンサにより検出された前記車両の位置データをもとに、前記従のセンサは探索範囲を限定することを特徴とする請求項1記載の車両検出方法。
- 複数の前記センサで計測したデータを融合し、前記車両の位置データを算出することを特徴とする請求項1記載の車両検出方法。
- 車載された複数のセンサにより、車両を検出する車両検出方法において、
複数の前記センサの検出結果に矛盾が生じた場合、前記車両を検出した前記センサは確からしさを確認し、
前記車両を検出しなかった前記センサは再探索を行うことを特徴とする車両検出方法。 - 車載された複数のセンサにより、車両を検出する車両検出装置において、
複数の前記センサによる車両の検出結果に矛盾がない場合に、前記センサに前記車両の計測を行わせる協調動作部と、
前記検出結果に矛盾が生じた場合に、前記車両を検出した前記センサを主のセンサとして確からしさを確認させ、前記車両を検出しなかった前記センサを従のセンサとして再探索を行わせる主従動作部と、
前記センサのいずれか1つ以外が動作不可能な場合に、動作可能な前記センサのみで前記車両の計測を行わせる独立動作部と、
を有することを特徴とする車両検出装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002246126A JP2004085337A (ja) | 2002-08-27 | 2002-08-27 | 車両検出方法及び車両検出装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002246126A JP2004085337A (ja) | 2002-08-27 | 2002-08-27 | 車両検出方法及び車両検出装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004085337A true JP2004085337A (ja) | 2004-03-18 |
Family
ID=32054082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002246126A Pending JP2004085337A (ja) | 2002-08-27 | 2002-08-27 | 車両検出方法及び車両検出装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004085337A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047057A (ja) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2006234513A (ja) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
WO2006123615A1 (ja) * | 2005-05-19 | 2006-11-23 | Olympus Corporation | 距離計測装置、距離計測方法および距離計測プログラム |
JP2007091208A (ja) * | 2005-08-31 | 2007-04-12 | Honda Motor Co Ltd | 車両の走行安全装置 |
JP2008185447A (ja) * | 2007-01-30 | 2008-08-14 | Mitsubishi Electric Corp | マルチセンサ制御システム |
JP2009019914A (ja) * | 2007-07-10 | 2009-01-29 | Toyota Motor Corp | 物体検出装置 |
JP2010079472A (ja) * | 2008-09-25 | 2010-04-08 | Mazda Motor Corp | 車両の走行制御装置 |
JP2014067093A (ja) * | 2012-09-24 | 2014-04-17 | Toyota Motor Corp | 走行音を用いた車両検出装置 |
KR101432113B1 (ko) | 2013-01-28 | 2014-08-21 | 경북대학교 산학협력단 | 차량 검지 장치 및 차량 검지 방법 |
US9495873B2 (en) | 2011-06-09 | 2016-11-15 | Toyota Jidosha Kabushiki Kaisha | Other-vehicle detection device and other-vehicle detection method |
US9626868B2 (en) | 2009-07-10 | 2017-04-18 | Toyota Jidosha Kabushiki Kaisha | Object detection device |
JP2018072322A (ja) * | 2016-11-03 | 2018-05-10 | ハネウェル・インターナショナル・インコーポレーテッドHoneywell International Inc. | 異種のlidar技術を使用するためのシステム及び方法 |
JP2020085872A (ja) * | 2018-11-30 | 2020-06-04 | 古河電気工業株式会社 | センサシステム、センサ装置、および、異常検出方法 |
JP2021020648A (ja) * | 2019-07-30 | 2021-02-18 | マツダ株式会社 | 車両制御システム |
JP2021514059A (ja) * | 2018-02-15 | 2021-06-03 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | レーダセンサシステムおよびレーダセンサシステムを動作させる方法 |
CN113544758A (zh) * | 2019-03-12 | 2021-10-22 | 日立安斯泰莫株式会社 | 车辆控制装置 |
JP2022500737A (ja) * | 2018-09-06 | 2022-01-04 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | センサの画像区間の選択方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06230115A (ja) * | 1993-02-01 | 1994-08-19 | Toyota Motor Corp | 車間距離検出装置 |
JPH07116981A (ja) * | 1993-10-25 | 1995-05-09 | Internatl Business Mach Corp <Ibm> | 移動ロボットの誘導装置 |
JPH0991595A (ja) * | 1995-09-25 | 1997-04-04 | Mitsubishi Motors Corp | 障害物認識装置 |
JPH09257923A (ja) * | 1996-03-26 | 1997-10-03 | Mitsubishi Electric Corp | センサ群管理装置 |
JPH11202049A (ja) * | 1998-01-14 | 1999-07-30 | Honda Motor Co Ltd | 車両用物体検知装置 |
JP2000149199A (ja) * | 1998-11-12 | 2000-05-30 | Mitsubishi Motors Corp | 車間距離検出装置 |
JP2001501734A (ja) * | 1996-10-07 | 2001-02-06 | シーメンス アクチエンゲゼルシヤフト | 自律的移動システムにおける距離測定センサの測定の質の評価方法 |
JP2001084482A (ja) * | 1999-09-10 | 2001-03-30 | Fujitsu Ltd | 障害物検出方法及び装置 |
JP2001296352A (ja) * | 2000-04-12 | 2001-10-26 | Omron Corp | 対象物検出装置 |
-
2002
- 2002-08-27 JP JP2002246126A patent/JP2004085337A/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06230115A (ja) * | 1993-02-01 | 1994-08-19 | Toyota Motor Corp | 車間距離検出装置 |
JPH07116981A (ja) * | 1993-10-25 | 1995-05-09 | Internatl Business Mach Corp <Ibm> | 移動ロボットの誘導装置 |
JPH0991595A (ja) * | 1995-09-25 | 1997-04-04 | Mitsubishi Motors Corp | 障害物認識装置 |
JPH09257923A (ja) * | 1996-03-26 | 1997-10-03 | Mitsubishi Electric Corp | センサ群管理装置 |
JP2001501734A (ja) * | 1996-10-07 | 2001-02-06 | シーメンス アクチエンゲゼルシヤフト | 自律的移動システムにおける距離測定センサの測定の質の評価方法 |
JPH11202049A (ja) * | 1998-01-14 | 1999-07-30 | Honda Motor Co Ltd | 車両用物体検知装置 |
JP2000149199A (ja) * | 1998-11-12 | 2000-05-30 | Mitsubishi Motors Corp | 車間距離検出装置 |
JP2001084482A (ja) * | 1999-09-10 | 2001-03-30 | Fujitsu Ltd | 障害物検出方法及び装置 |
JP2001296352A (ja) * | 2000-04-12 | 2001-10-26 | Omron Corp | 対象物検出装置 |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006047057A (ja) * | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | 車外監視装置、及び、この車外監視装置を備えた走行制御装置 |
JP2006234513A (ja) * | 2005-02-23 | 2006-09-07 | Toyota Central Res & Dev Lab Inc | 障害物検出装置 |
WO2006123615A1 (ja) * | 2005-05-19 | 2006-11-23 | Olympus Corporation | 距離計測装置、距離計測方法および距離計測プログラム |
US7656508B2 (en) | 2005-05-19 | 2010-02-02 | Olympus Corporation | Distance measuring apparatus, distance measuring method, and computer program product |
JP2007091208A (ja) * | 2005-08-31 | 2007-04-12 | Honda Motor Co Ltd | 車両の走行安全装置 |
JP2008185447A (ja) * | 2007-01-30 | 2008-08-14 | Mitsubishi Electric Corp | マルチセンサ制御システム |
JP2009019914A (ja) * | 2007-07-10 | 2009-01-29 | Toyota Motor Corp | 物体検出装置 |
JP2010079472A (ja) * | 2008-09-25 | 2010-04-08 | Mazda Motor Corp | 車両の走行制御装置 |
US9626868B2 (en) | 2009-07-10 | 2017-04-18 | Toyota Jidosha Kabushiki Kaisha | Object detection device |
US9495873B2 (en) | 2011-06-09 | 2016-11-15 | Toyota Jidosha Kabushiki Kaisha | Other-vehicle detection device and other-vehicle detection method |
JP2014067093A (ja) * | 2012-09-24 | 2014-04-17 | Toyota Motor Corp | 走行音を用いた車両検出装置 |
KR101432113B1 (ko) | 2013-01-28 | 2014-08-21 | 경북대학교 산학협력단 | 차량 검지 장치 및 차량 검지 방법 |
JP2018072322A (ja) * | 2016-11-03 | 2018-05-10 | ハネウェル・インターナショナル・インコーポレーテッドHoneywell International Inc. | 異種のlidar技術を使用するためのシステム及び方法 |
JP2021514059A (ja) * | 2018-02-15 | 2021-06-03 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | レーダセンサシステムおよびレーダセンサシステムを動作させる方法 |
JP7174059B2 (ja) | 2018-02-15 | 2022-11-17 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | レーダセンサシステムおよびレーダセンサシステムを動作させる方法 |
US11650284B2 (en) | 2018-02-15 | 2023-05-16 | Robert Bosch Gmbh | Radar sensor system and method for operating a radar sensor system |
JP2022500737A (ja) * | 2018-09-06 | 2022-01-04 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh | センサの画像区間の選択方法 |
JP7326429B2 (ja) | 2018-09-06 | 2023-08-15 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | センサの画像区間の選択方法 |
US11989944B2 (en) | 2018-09-06 | 2024-05-21 | Robert Bosch Gmbh | Method for selecting an image detail of a sensor |
JP2020085872A (ja) * | 2018-11-30 | 2020-06-04 | 古河電気工業株式会社 | センサシステム、センサ装置、および、異常検出方法 |
JP7203583B2 (ja) | 2018-11-30 | 2023-01-13 | 古河電気工業株式会社 | センサシステム、センサ装置、および、異常検出方法 |
CN113544758A (zh) * | 2019-03-12 | 2021-10-22 | 日立安斯泰莫株式会社 | 车辆控制装置 |
CN113544758B (zh) * | 2019-03-12 | 2023-01-10 | 日立安斯泰莫株式会社 | 车辆控制装置 |
JP2021020648A (ja) * | 2019-07-30 | 2021-02-18 | マツダ株式会社 | 車両制御システム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004085337A (ja) | 車両検出方法及び車両検出装置 | |
US10671862B2 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
US10810877B2 (en) | Vehicle control device | |
JP2004037239A (ja) | 同一対象物判断方法および装置、並びに、位置ずれ補正方法および装置 | |
US9886773B2 (en) | Object detection apparatus and object detection method | |
JP5316572B2 (ja) | 物体認識装置 | |
US20090243823A1 (en) | Vehicle environment recognition apparatus and preceding-vehicle follow-up control system | |
CN111062318B (zh) | 一种基于熵权法的传感器共享最优节点选择方法 | |
US20230065727A1 (en) | Vehicle and vehicle control method | |
US20220334258A1 (en) | Apparatus for assisting driving of vehicle and method thereof | |
CN113741388A (zh) | 一种基于自动驾驶感知失效的安全诊断系统及方法 | |
JP4074577B2 (ja) | 車両検出方法及び車両検出装置 | |
JP4123138B2 (ja) | 車両検知方法及び車両検知装置 | |
JP4762830B2 (ja) | 周辺監視システム | |
US11608071B2 (en) | Vehicle control device | |
JPH07333339A (ja) | 自動車用障害物検知装置 | |
JP2000259997A (ja) | 先行車の高さおよび車間距離計測装置 | |
JP2022074672A (ja) | 地図更新装置及び地図更新方法 | |
JP6838705B2 (ja) | レーザレーダ装置及びそれに用いる強度画像取得方法 | |
CN115985113B (zh) | 交通信号灯控制方法及电子设备 | |
WO2023157350A1 (ja) | 物標算出方法、演算装置 | |
CN117631676B (zh) | 一种矿区无人驾驶车辆自动引导前进的方法和装置 | |
WO2021131260A1 (ja) | 遮蔽検出装置および遮蔽検出プログラム | |
JP7058753B2 (ja) | カメラ装置 | |
US11538252B2 (en) | Object recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070405 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070508 |