JP2009031299A - 周辺監視センサ - Google Patents

周辺監視センサ Download PDF

Info

Publication number
JP2009031299A
JP2009031299A JP2008224073A JP2008224073A JP2009031299A JP 2009031299 A JP2009031299 A JP 2009031299A JP 2008224073 A JP2008224073 A JP 2008224073A JP 2008224073 A JP2008224073 A JP 2008224073A JP 2009031299 A JP2009031299 A JP 2009031299A
Authority
JP
Japan
Prior art keywords
area
millimeter wave
wave radar
image sensor
monitoring sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008224073A
Other languages
English (en)
Other versions
JP4823282B2 (ja
Inventor
Takashi Higuchi
崇 樋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2008224073A priority Critical patent/JP4823282B2/ja
Publication of JP2009031299A publication Critical patent/JP2009031299A/ja
Application granted granted Critical
Publication of JP4823282B2 publication Critical patent/JP4823282B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】物体の相対位置、相対速度、物体形状などを確実にセンシングする周辺監視センサを得る。
【解決手段】周辺監視センサ1は、ミリ波レーダ2、画像センサ3、信号処理部4を具備し、各センサが検出したデータについてエリア分けを行い、所定のエリア内に存在する物体(ターゲット)については、両センサが取得した情報に基づいて、物体に関する情報を作成する。ミリ波レーダは、遠距離の物体の距離、速度の測定が得意で、画像センサは、物体の幅、角度の測定が得意であるので、それぞれの得意のデータを組み合わせることにより、正確な情報を得ることができる。信号処理部4は、ミリ波レーダが検知した物体の存在場所に画像センサが検知した物体情報を組み合わせて物体面であることを判断する。
【選択図】図1

Description

本発明は、自動車の自動走行制御システムなどに使用され、物体(ターゲット)の相対位置、相対速度、物体形状などをセンシングする周辺監視装置に関する。
自動車の自動走行に代表される走行制御システムなどにおいて、周辺監視センサは、ドライバの目の代わりとならなければならない。したがって、物体の相対位置(距離)、相対速度、物体形状を確実にセンシングする装置が必要である。現在、自動車用に市販されている周辺監視センサでは、そのような周辺監視センサは存在していない。
従来より自動走行制御システム(ACC)には、前方(又は、後方、側方)の物体を認識するために、ミリ波レーダ、又は、カメラを使用した画像センサが使用されてきた。ところが、ミリ波レーダは、物体までの距離を計るのが得意だが、物体の形(大きさ、幅)を認識するのが苦手である。画像センサは、逆に測距が苦手で、物体の形の認識が得意である。
このように、従来の周辺監視センサとしては、物体の相対位置、相対速度、物体形状を確実にセンシングする装置がなかった。
本発明は、物体の相対位置、相対速度、物体形状などを確実にセンシングする周辺監視センサを得ることを目的とするものである。
本発明は、上記目的を達成するため、ミリ波レーダと画像センサを組み合わせる(フュージョン)することにより物体の相対位置、相対速度、物体形状を正確に捕らえる装置を得る。
本発明は、ミリ波レーダと画像センサと信号処理部を具備する周辺監視センサにおいて、前記信号処理部は、所定のエリア内に存在する物体については、前記ミリ波レーダから取得した情報と前記画像センサから取得した情報に基づいて、前記物体に関する情報を作成する。
本発明によれば、物体の相対位置、相対速度を捕らえるのが得意なミリ波レーダと、物体の形状を認識することが得意な画像センサをフュージョンすることにより、自動走行に代表される走行制御システムなどに、正確な周辺情報を提供することができる。
本発明においては、前記ミリ波レーダは、速度、距離などの物体の存在検知の役割を持ち、前記信号処理部は、前記ミリ波レーダによる存在検知場所に対して、前記画像センサによる角度、幅などの物体端情報を組み合わせて、物体面であることを判断する。
本発明によれば、物体の相対位置、相対速度、物体形状などを確実にセンシングする周辺監視センサを得ることができる。
本発明によれば、物体の相対位置、相対速度、物体形状などを確実にセンシングする周辺監視センサを得ることができる。
以下、本発明の実施形態について図を用いて説明する。
図1は、本発明を適用した周辺監視センサの構成を示す図。
周辺監視装置1は、ミリ波レーダ2、画像センサ3、信号処理部4から構成される。
ミリ波レーダ2は、ミリ波のビームを前方に送信して反射波を受信し、この反射波を生じさせた物体の情報を検出する。
ミリ波レーダ2の長所としては、10mから120mまでの比較的遠距離にある物体(ターゲット)の距離、速度が精度良く測定可能であり、雨、霧などの影響を受けることが少ない。一方、短所としては、物体の横方向位置(角度)、幅、10m以下の近距離にある物体の距離、速度が正確に測定できないことなどがある。
ミリ波レーダは、受信したミリ波信号からピークを検出し、データとして、ピークのある相対距離、ピークの相対速度、ピークの自車に対する横方向位置(角度)、ピークのパワーなどが得られる。
画像センサ3は、撮像手段により車両の前方の画像を取得し、この画像を処理することにより、前方にある物体の情報を検出する。
画像センサの長所としては、物体の角度、幅を精度良く測定できる。また、撮像手段のレンズ交換により測定範囲を広範囲に調整できる。一方、短所としては、雨、霧など環境の影響を受ける、距離測定の精度が低いということなどがある。
画像センサ3は画像処理により画像中のエッジを検出し、データとして、距離、相対位置、信頼度などが得られる。
信号処理部4は、CPU、RAM、ROMなどから構成される。図1には、信号処理部4の概略の機能が示されている。
ミリ波レーダ2と画像センサ3から取得した各データは、エリア分けされる。エリアについて図2を用いて説明する。
図2(A)は、ミリ波レーダ2と画像センサ3の測定エリアを示し、(B)は、各エリアごとに、ミリ波レーダ2と画像センサ3のデータの優劣を比較した表である。
ミリ波レーダ2は、狭い幅で遠距離(120m程度)までのエリア11,12,14をカバーし、画像センサ3は、広い幅で近距離(30m程度)までのエリア12,13,14,15をカバーする。なお、エリア11,12は、ミリ波レーダ2のエリアと画像センサ3のエリアとで重複している。
(B)に示すように、ミリ波レーダ2は、30〜120mのエリア11、10〜30mのエリア12では距離、速度を精度良く検出するが、10mより近距離では、距離、速度の精度はやや低下する。画像センサ3は、0〜10mの近距離では、角度、距離を精度良く検出し、10〜30mでは、角度については精度が良いが、距離の精度はやや低下する。10mより遠距離では、角度、距離とも精度が悪い。
ここで、周辺監視センサ1を自動走行制御に使用する場合、走行制御に必要な制御エリアと、制御の予測に必要な予測エリアと、エリア内に物体が存在すること自体が危険な危険エリアとに分けることが考えられる。この場合、物体情報として、予測エリアの物体については、存在情報を提供し、制御エリアの物体については相対位置、相対速度、物体形状を提供し、危険エリアの物体については、危険であることを表示するディジタル信号を提供する。
このために、エリア11,13,15を予測エリア、エリア12を制御エリア、エリア14を危険エリアとすることが考えられる。なお、予測エリア、制御エリア、危険エリアの範囲の設定は、図に示すものに限定されるものではない。また、各エリアは、信号処理部4のメモリに記憶される。
図1におけるエリア分けでは、制御エリア12と危険エリア14をフュージョンエリアとして、ミリ波レーダ2と画像センサ3の両方から得たデータとを融合(フュージョン)して処理を行うことにより、物体に関する情報を精度の高いものとする。その他の予測エリア11,13,15については、従来のセンサと同様に、それぞれ単独のセンサ2,3により物体の存在を示す情報を得る。
図1に戻り、ミリ波レーダ2と画像センサ3から得た各データは、以上説明したエリア分けに従って、ミリ波レーダエリアのデータと、フュージョンエリアのデータと、画像センサエリアのデータに分けられる。
各データから、各物体ごとに相対位置、相対速度、物体形状などの物体情報が抽出され、自動走行制御装置などに使用するために出力される。また、これらの情報は、物体を継続して検出するための追跡情報として、物体情報抽出にフィードバックされる。
図3のフローチャートを用いて、信号処理部4における処理を説明する。
画像センサ3から得た画像データは、ステップS11でデータ加工及び過去対応の処理が行われる。データ加工は従来の画像処理と同様に行われる。過去対応は、今回取得したデータを過去の処理で取得した情報により補完する処理を行う。ミリ波レーダ2から得たミリ波データについても、ステップS21で同様にデータの加工及び補完がされる。
続いて、画像データは、ステップS12で、ミリ波データとペアとなるか否かが判定され、ミリ波データは、ステップS22で、画像データとペアとなるか否かが判定される。これらの処理は、図1のエリア分けに相当する。
ステップS12で、ミリ波データとペアでないと判定された画像データ(予測エリア13,15で検出)については、ステップS13で、画像データのみにより画像エッジの抽出が行われる。ステップS22で、ペアでないと判定されたミリ波データ(予測エリア11で検出)については、ステップS23で、ミリ波データのみによりミリ波エッジの抽出が行われる。画像エッジとミリ波エッジが抽出されると、ステップS35へ進んで、物体面の認識(後述)が行われる。
制御エリア12と危険エリア14で検出されたデータについては、ステップS31以降へ進み、ミリ波データと画像データの両方を用いてフュージョン処理が行われる。
図4は、フュージョン処理をイメージ的に示す図である。物体(車両)21が前方に存在する場合、ミリ波レーダ2によりピークパワー22が検出され、画像センサ3により画像エッジ23が検出される。ピークパワー22と画像エッジ23との組み合わせにより1つの物体21の存在が正確に確定される。そして、図2(B)に示したように、ミリ波レーダ2と画像センサ3のそれぞれが得意とする情報を使用して、物体情報を得る。すなわち、制御エリア12にある物体については、距離と速度はミリ波データを使用し、角度については画像データを使用する。また、危険エリア14にある物体については、角度と距離は画像データを使用し、速度についてはミリ波データを使用する。
図3に戻り、ステップS31でフュージョン処理によりピークパワーを得る。この結果、エッジが1つだけ抽出されたときは、ステップS32で、抽出されたエッジに対応する仮想エッジが作成される。そして、抽出したエッジと仮想エッジとで1組のフュージョンエッジが作成される。
ステップS31で抽出されたエッジの数が2以上であれば、ステップS33でミリ波データのピークパワーがグループ化され、ステップS34で、グループ化されたピークパワーについて信頼度のチェックが行われて、信頼性の高いデータによりフュージョンエッジ(物体端)が確定される。
図5にステップS33のグループ化処理とステップS34のフュージョンエッジ確定処理のロジックを示す。図5において、物体21の両側に画像エッジ23が表示されており、更にその隣に、画像エッジ23の信頼度24が表示されている。
ピークパワーについてグループ化がされる。グループ化は、1つのエッジごとに行われる。この結果、図示のように、1つの物体21に対して、2つのグループ化されたピークパワー22,22が得られる。なお、1つの物体21に対して3以上のエッジが検出される場合もある。
各グループのピークパワー22をそれぞれ積分し、フュージョンパワーを以下の式により計算する。
フュージョンパワー=ミリ波ゲイン係数×ピークパワー積分値
+画像ゲイン係数×エッジ信頼度
ここで、ミリ波ゲイン係数と画像ゲイン係数は、図5(B)に示すように、距離によって異なる値となる。ミリ波ゲイン係数は、相対距離が約10m以上では1で、10m以下では低下していく。画像ゲイン係数は、約15m以下では1で、15m以上になると低下していく。
以上の計算により得たフュージョンパワーが高い場合、その画像エッジ23を物体端と認識する。ここで認識された画像エッジがフュージョンエッジとして確定される。
図3に戻り、ステップS35で、エッジの対応付けにより物体面の認識がされる。物体面の認識には、フュージョンエッジ(ステップS34)、仮想エッジ(ステップS32)と、画像エッジ(ステップS13)、ミリ波エッジ(ステップS23)が使用される。
図6にステップS35のフュージョン処理による物体面認識のロジックを示す。なお、画像エッジのみによる物体面の認識と、ミリ波エッジ(仮想エッジを含む)のみによる物体面の認識については、従来の周辺監視センサと同様の手法で行うことができる。
フュージョンロジックによる物体面認識には、エッジ23のどちら側に物体があるかを判断する。このために、最初にエッジ同士の相関パワーを以下の式により計算し、相関パワーの高いエッジの間に物体21が存在すると認識する。
相関パワー=ミリ波ゲイン係数×片側ピークパワー積分値
+画像ゲイン係数×エッジ相関信頼性
ここで、ミリ波ゲイン係数と画像ゲイン係数は、図5(B)に示したものが使用される。片側パワー積分値は、画像エッジ23を中心として両側のピークパワー22を積分した値で、図6(B)に示すように、物体21のある方がない方よりも相関パワーは高い値になる。エッジ相関信頼性は、画像データを用いて、背景色と物体の色との識別により物体21を区別する。
図7は、フュージョン結果の出力のイメージを示す。フュージョン処理により物体21が検出され、相対距離、相対速度、幅、横位置などの情報が確立される。また、各情報については、図2を用いて説明したように、ミリ波データと画像データの信頼性が高い方のデータが使用される。したがって、物体に関する情報として精度の高いデータが得られる。
図3に戻り、ステップS35で認識された各物体面について、ステップS36で、制御用データが作成出力される。この制御用データは、例えば、自動走行支援システム用ECUで使用される。また、危険エリア14に物体21が検出されたときは、図示しない警報装置へディジタル値の警報信号を出力する。
ステップS35のエッジ対応付けで得られた各種データは、ステップS11とステップS21の過去対応の処理にフィードバックされる。この過去対応の処理は、例えば、物体21がフュージョンエリア12,14(図2)から他のエリアに移動した場合、一方のセンサのデータの信頼度を一時的に下げ、また、ミリ波レーダ2又は画像センサ3がそれぞれ苦手とするデータを、フュージョンデータで置き換えることにより、確実な追跡処理が行える。なお、この過去対応の処理は、フュージョンエリア12,14にある物体に関する処理においても利用可能である。
また、前述のように、画像センサ3が雨、距離など環境の影響を受け易いというように、各センサの特性によりそれぞれのデータの性能劣化がある。この性能劣化に対しては、例えば、性能劣化の原因となる降雨を降雨センサにより検出したとき、劣化するデータを他のセンサによるデータに置き換えることにより、良好なデータを得ることができる。
本発明を適用した周辺監視センサの構成を示す図。 図1の周辺監視センサの検出エリアを示す図。 図1の周辺監視センサの動作を示すフローチャート。 図3の処理におけるフュージョン処理のイメージを示す図。 図3の処理におけるフュージョンロジック(物体端検出)を示す図。 図3の処理におけるフュージョンロジック(物体面認識)を示す図。 図3の処理におけるフュージョン結果の出力を示す図。
符号の説明
1 周辺監視装置
2 ミリ波レーダ
3 画像センサ
4 信号処理部
11,12,13,14,15 エリア
21 物体
22 ピークパワー
23 画像エッジ
24 画像エッジ信頼度

Claims (7)

  1. ミリ波レーダと画像センサと信号処理部を具備する周辺監視センサにおいて、
    制御に必要なエリアと制御の予測に必要なエリアとを記憶するメモリを有し、
    前記信号処理部は、所定のエリア内に存在する物体については、前記ミリ波レーダから取得した情報と前記画像センサから取得した情報に基づいて、前記物体に関する情報を作成し、
    前記信号処理部は、前記制御に必要なエリアで検出した物体には、相対位置、相対速度、物体形状を提供し、前記予測エリアで検出した物体には、存在情報を提供する、
    ことを特徴とする周辺監視センサ。
  2. 物体が存在すること自体が危険な危険エリアを記憶するメモリを有し、前記信号処理部は、前記危険エリアに物体が存在することを検出した場合は、その旨を示す信号を出力する請求項1に記載の周辺監視センサ。
  3. 前記制御に必要なエリアを、前記ミリ波レーダと前記画像センサのセンシングエリアの重なるエリアに一致させる請求項1に記載の周辺監視センサ。
  4. 前記信号処理部は、前記ミリ波レーダと前記画像センサの重なるエリアから物体が外れる場合、このエリアから出る物体を追跡する手段を有する請求項3に記載の周辺監視センサ。
  5. 前記信号処理部は、前記追跡時には、前記ミリ波レーダ又は前記画像センサの一方のデータの信頼度を一時的に下げる請求項4に記載の周辺監視センサ。
  6. 前記信号処理部は、前記追跡時には、前記ミリ波レーダ又は前記画像センサにおける苦手なデータを前記追跡時に使用する情報のデータに置き換える請求項4に記載の周辺監視センサ。
  7. 前記ミリ波レーダと前記画像センサの重なるエリアについても請求項5又は請求項6に記載の処理を行う周辺監視センサ。
JP2008224073A 2008-09-01 2008-09-01 周辺監視センサ Expired - Fee Related JP4823282B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008224073A JP4823282B2 (ja) 2008-09-01 2008-09-01 周辺監視センサ

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008224073A JP4823282B2 (ja) 2008-09-01 2008-09-01 周辺監視センサ

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP27693099A Division JP4308381B2 (ja) 1999-09-29 1999-09-29 周辺監視センサ

Publications (2)

Publication Number Publication Date
JP2009031299A true JP2009031299A (ja) 2009-02-12
JP4823282B2 JP4823282B2 (ja) 2011-11-24

Family

ID=40401914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008224073A Expired - Fee Related JP4823282B2 (ja) 2008-09-01 2008-09-01 周辺監視センサ

Country Status (1)

Country Link
JP (1) JP4823282B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017132285A (ja) * 2016-01-25 2017-08-03 日立オートモティブシステムズ株式会社 車両走行制御システム、及び車両走行制御方法
KR101813790B1 (ko) * 2016-04-14 2017-12-29 국방과학연구소 특징 기반 다중 센서 정보 융합 장치 및 방법
US11987271B2 (en) 2018-12-07 2024-05-21 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, mobile-object control apparatus, and mobile object

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6082880A (ja) * 1983-10-13 1985-05-11 Mitsubishi Electric Corp 車載式速度測定装置
JPH04276585A (ja) * 1991-03-04 1992-10-01 Toyota Motor Corp 車載用測距装置
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JPH0717347A (ja) * 1993-07-07 1995-01-20 Mazda Motor Corp 自動車の障害物検知装置
JPH10160834A (ja) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd 先行車両認識方法
JPH11231053A (ja) * 1998-02-16 1999-08-27 Honda Motor Co Ltd 車載レーダ装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6082880A (ja) * 1983-10-13 1985-05-11 Mitsubishi Electric Corp 車載式速度測定装置
JPH04276585A (ja) * 1991-03-04 1992-10-01 Toyota Motor Corp 車載用測距装置
JPH06230115A (ja) * 1993-02-01 1994-08-19 Toyota Motor Corp 車間距離検出装置
JPH0717347A (ja) * 1993-07-07 1995-01-20 Mazda Motor Corp 自動車の障害物検知装置
JPH10160834A (ja) * 1996-11-29 1998-06-19 Sumitomo Electric Ind Ltd 先行車両認識方法
JPH11231053A (ja) * 1998-02-16 1999-08-27 Honda Motor Co Ltd 車載レーダ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017132285A (ja) * 2016-01-25 2017-08-03 日立オートモティブシステムズ株式会社 車両走行制御システム、及び車両走行制御方法
KR101813790B1 (ko) * 2016-04-14 2017-12-29 국방과학연구소 특징 기반 다중 센서 정보 융합 장치 및 방법
US11987271B2 (en) 2018-12-07 2024-05-21 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, mobile-object control apparatus, and mobile object

Also Published As

Publication number Publication date
JP4823282B2 (ja) 2011-11-24

Similar Documents

Publication Publication Date Title
JP4308381B2 (ja) 周辺監視センサ
US10688997B2 (en) Lane merging determination apparatus
US10366295B2 (en) Object recognition apparatus
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US11024174B2 (en) Parking space detection apparatus
JP4815488B2 (ja) 車両周辺監視装置
US20190001978A1 (en) Vehicle control method and apparatus
WO2007007906A1 (ja) 物体検出装置
JP2013190421A (ja) 車両において通行物体位置検出を向上する方法
JP2005300315A (ja) 物体検出装置
US20170227634A1 (en) Object recognition apparatus using a plurality of object detecting means
JP2013117475A (ja) 障害物検出装置
US10049577B2 (en) Object detection apparatus
JP2010108168A (ja) 衝突予測装置
JP4823282B2 (ja) 周辺監視センサ
JP5321640B2 (ja) 車両用道路形状認識方法及び装置、記録媒体
JP2009276906A (ja) 走行情報提供装置
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
JP4376147B2 (ja) 障害物認識方法及び障害物認識装置
KR20210101877A (ko) 차량의 후측방 경고 장치 및 방법
JP2014109944A (ja) 物標検出装置
JPH05113482A (ja) 車載用追突防止装置
JP2006047033A (ja) 物体認識方法及び物体認識装置
KR101180676B1 (ko) 차량의 영상인식 기반 상향등 자동 제어 방법
JP6548147B2 (ja) 車両用制御装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees