JP2010020414A - 物体検出装置、物体検出プログラム、および物体検出方法 - Google Patents

物体検出装置、物体検出プログラム、および物体検出方法 Download PDF

Info

Publication number
JP2010020414A
JP2010020414A JP2008178247A JP2008178247A JP2010020414A JP 2010020414 A JP2010020414 A JP 2010020414A JP 2008178247 A JP2008178247 A JP 2008178247A JP 2008178247 A JP2008178247 A JP 2008178247A JP 2010020414 A JP2010020414 A JP 2010020414A
Authority
JP
Japan
Prior art keywords
vehicle
detection
unit
original data
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008178247A
Other languages
English (en)
Other versions
JP5470762B2 (ja
Inventor
Masayoshi Shimizu
雅芳 清水
Hiroyuki Kobayashi
弘幸 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008178247A priority Critical patent/JP5470762B2/ja
Publication of JP2010020414A publication Critical patent/JP2010020414A/ja
Application granted granted Critical
Publication of JP5470762B2 publication Critical patent/JP5470762B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】複数のセンサを用いて物体の有無を検出する検出精度を向上すること。
【解決手段】車両検出部120は、カメラ部110によって取得された画像を用いて、検出対象領域の車両の有無を検出する。車両検出部140は、レーダ部130によって受信された反射波の強度分布を用いて、検出対象領域の車両の有無を検出する。車両位置比較部151は、車両検出部120および車両検出部140から通知される車両位置を比較し、それぞれの車両位置の対応関係を確認する。融合判定部152は、車両検出部120から通知された車両位置において車両検出部140が車両を検出していない場合は、レーダ部130から反射波の強度分布を取得する。そして、融合判定部152は、車両検出部120から通知された車両位置における反射波の強度を参照し、反射波の強度が0でなければ車両があると判定する。
【選択図】 図1

Description

本発明は、物体検出装置、物体検出プログラム、および物体検出方法に関する。
近年、交通事故や渋滞などの道路交通問題を解決する取り組みとして、ITS(Intelligent Transport Systems:高度道路交通システム)に関連する技術が数多く検討されている。具体的には、例えばミリ波レーダや可視光カメラなどのセンサを用いて車両の有無を検出し、車間距離を監視したり車両間の衝突を防止したりする技術が一般に知られている。
このようにセンサを用いて車両の有無を検出する場合、誤検出が生じると重大な事故を引き起こす虞があるため、車両の検出精度を向上することが非常に重要となる。そこで、1つのセンサのみを用いて車両の有無を検出するのではなく、複数のセンサを組み合わせて車両の有無を検出するセンサフュージョンと呼ばれる方法が注目されている。センサフュージョンにおいては、例えば照射したミリ波の反射波を受信するミリ波レーダと通常の可視光線を検知する可視光カメラとの組み合わせなど、互いに異なる特徴量を検知するセンサを組み合わせ、相補的に車両などの物体の有無が検出される。このため、たとえ1つのセンサが物体を検出不可能な条件下でも、他のセンサは物体を検出することが可能であり、検出漏れを防止することができる。
また、センサフュージョンの一例として、複数のセンサそれぞれの出力から、車両が存在する予測領域や確率密度を算出し、検出確率が高いセンサの出力を用いて車両を追尾し、車両の異常走行や停止を判定することが開示されている。
特開2000−99875号公報
しかしながら、従来のセンサフュージョンにおいては、複数のセンサがそれぞれ独立して用いられて物体の有無が検出されており、複数のセンサを用いているにも拘らず、物体の検出精度の向上には一定の限界があるという問題がある。すなわち、複数のセンサは、それぞれ異なる特徴量を検知するが、それぞれの特徴量から独立に物体の有無が検出されるため、結局は、各センサが個別に特徴量を検知して物体の有無を検出する場合と同程度の検出精度が得られるのみである。
そして、物体がないという検出結果に対応するセンサが得た原データについては、特に使用されることなく棄却されてしまう。したがって、厳密には、複数のセンサを融合して物体を検出しているわけではなく、それぞれのセンサを個別に用いて独立に物体を検出しているに過ぎない。このため、複数のセンサを用いて物体を検出したとしても、最終的な検出精度は1つ1つのセンサによる検出精度を超えることはなく、検出精度の向上が困難となっている。
本発明はかかる点に鑑みてなされたものであり、複数のセンサを用いて物体の有無を検出する検出精度を向上することができる物体検出装置、物体検出プログラム、および物体検出方法を提供することを目的とする。
上記課題を解決するために、物体検出装置は、第1のセンサによって検知された特徴量の原データを取得する第1取得部と、第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得部と、前記第1取得部によって取得された原データから物体の有無を検出する第1検出部と、前記第2取得部によって取得された原データから物体の有無を検出する第2検出部と、前記第1検出部によって物体が検出され、かつ前記第2検出部によって物体が検出されなかった場合、前記第1取得部または前記第2取得部によって取得された原データを参照して物体の有無を判定する判定部とを有する構成を採る。
また、物体検出プログラムは、コンピュータによって実行される物質検出プログラムであって、前記コンピュータに、第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップとを実行させるようにした。
また、物体検出方法は、第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップとを有するようにした。
これらによれば、2つのセンサを用いたそれぞれの物体検出結果が互いに相反する場合は、センサの原データを参照して物体の有無を判定するため、特に、物体なしとの検出結果に対応するセンサの原データを参照することにより、個々のセンサを独立に用いた検出結果のみではなく、より詳細な情報に基づく物体検出を実行することができる。換言すれば、2つのセンサを融合して相補的に利用し、精度良く物体を検出することができる。
本明細書に開示された物体検出装置、物体検出プログラム、および物体検出方法によれば、複数のセンサを用いて物体の有無を検出する検出精度を向上することができる。
本発明の骨子は、2つのセンサそれぞれによって得られた原データから物体の有無を検出した結果、一方のセンサの原データからは物体があるという検出結果が得られ、他方のセンサの原データからは物体がないという検出結果が得られた場合、物体がないという検出結果に対応するセンサの原データを参照し、物体の検出位置における信号強度が0でなければ、最終的に物体があると判断することである。以下、本発明の実施の形態について、図面を参照して詳細に説明する。以下においては、物体の一例として車両を検出する場合の処理について説明する。
(実施の形態1)
図1は、実施の形態1に係る物体検出装置の要部構成を示すブロック図である。同図に示す物体検出装置は、カメラ部110、車両検出部120、レーダ部130、車両検出部140、および融合部150を有している。さらに、融合部150は、車両位置比較部151および融合判定部152を有している。
カメラ部110は、車両の検出対象領域を撮像し、検出対象領域の画像を取得する。換言すれば、カメラ部110は、検出対象領域から反射する可視光線を特徴量として検知する。そして、カメラ部110は、取得された画像を車両検出部120へ出力する。なお、カメラ部110によって取得される画像は、可視光線を検知するセンサの原データに相当する。
車両検出部120は、カメラ部110によって取得された画像を用いて、検出対象領域に車両があるか否かを検出する。具体的には、車両検出部120は、例えば異なる時刻に撮像して得られた2画像から差分画像を作成し、差分画像における変化部分の大きさから車両の有無を検出する。すなわち、車両検出部120は、差分画像における変化部分の大きさが所定の閾値以上である場合に、移動中の車両があることを検出する。そして、車両検出部120は、検出対象領域中に車両がある場合には、それぞれの車両位置を融合部150の車両位置比較部151へ通知する。ただし、車両位置比較部151へ通知される車両位置には、誤検出の結果も含まれており、必ずしもすべての車両位置に実際に車両があるとは限らない。
レーダ部130は、車両の検出対象領域に対して例えばミリ波などの電磁波を照射し、検出対象領域からの反射波を受信する。換言すれば、レーダ部130は、検出対象領域から反射するミリ波を特徴量として検知する。そして、レーダ部130は、受信された反射波の強度分布を車両検出部140へ出力する。なお、レーダ部130によって受信される反射波の強度分布は、ミリ波を検知するセンサの原データに相当する。
車両検出部140は、レーダ部130によって受信された反射波の強度分布を用いて、検出対象領域に車両があるか否かを検出する。具体的には、車両検出部140は、反射波の強度が所定の閾値以上である範囲に車両があることを検出する。そして、車両検出部140は、検出対象領域中に車両がある場合に、それぞれの車両位置を融合部150の車両位置比較部151へ通知する。ただし、車両位置比較部151へ通知される車両位置には、誤検出の結果も含まれており、必ずしもすべての車両位置に実際に車両があるとは限らない。
融合部150は、車両検出部120および車両検出部140による車両検出結果を融合し、最終的に車両があると判断される位置を示す車両位置情報を出力する。このとき、融合部150は、車両検出部120および車両検出部140による車両検出結果が互いに相反する場合、カメラ部110またはレーダ部130における原データを参照し、最終的に車両があるか否かを判断する。
具体的には、車両位置比較部151は、車両検出部120から通知される車両位置と車両検出部140から通知される車両位置とを比較し、それぞれの車両位置の対応関係を確認する。すなわち、車両位置比較部151は、車両検出部120および車両検出部140によって同一の位置に車両があると検出されたか否かを判定する。この判定の結果、2つの車両検出部120、140によって同一の位置に車両があると検出されていれば、この位置には車両がある可能性が高いことになる。
融合判定部152は、車両検出部120および車両検出部140のいずれか一方のみによって車両があると検出されている車両位置について、車両が検出されなかったセンサ(カメラ部110またはレーダ部130)の原データを取得し、最終的な車両の有無を判定する。
具体的には、融合判定部152は、車両検出部120から通知された車両位置において車両検出部140が車両を検出していない場合は、車両検出部140に対応するレーダ部130から反射波の強度分布を取得する。そして、融合判定部152は、車両検出部120から通知された車両位置における反射波の強度を参照し、反射波の強度が0でなければ車両があると判定する。すなわち、融合判定部152は、レーダ部130の原データに対応する信号強度が0でなければ、車両検出部140による車両検出結果を破棄し、最終的に車両があると判定する。また、融合判定部152は、車両検出部120から通知された車両位置における反射波の強度が0であれば、車両検出部120における検出が誤検出であると判断し、車両がないと判定する。すなわち、融合判定部152は、レーダ部130の原データに対応する信号強度が0であると、車両検出部140による車両検出結果を維持し、最終的に車両がないと判定する。
一方、融合判定部152は、車両検出部140から通知された車両位置において車両検出部120が車両を検出していない場合は、車両検出部120に対応するカメラ部110から異なる時刻の2画像を取得する。そして、融合判定部152は、車両検出部140から通知された車両位置における2画像間の差分値を算出し、差分値が0でなければ車両があると判定する。すなわち、融合判定部152は、カメラ部110の原データに対応する信号強度が0でなければ、車両検出部120による車両検出結果を破棄し、最終的に車両があると判定する。また、融合判定部152は、車両検出部140から通知された車両位置における差分値が0であれば、車両検出部140における検出が誤検出であると判断し、車両がないと判定する。すなわち、融合判定部152は、カメラ部110の原データに対応する信号強度が0であると、車両検出部120による車両検出結果を維持し、最終的に車両がないと判定する。
なお、一般に、カメラとレーダを比較すると、レーダの方が天候などの環境とは無関係に物体の有無を検出することができるため、融合判定部152は、車両検出部140によって検出された車両位置には、無条件に車両があると判定するようにしても良い。この場合には、融合判定部152は、カメラ部110の原データに対応する信号強度が0であっても、車両検出部120による車両検出結果を破棄し、最終的に車両があると判定する。
融合判定部152は、上述したように、カメラ部110およびレーダ部130における原データを用いて最終的な車両位置を決定すると、決定された車両位置を示す車両位置情報を出力する。
次いで、上記のように構成された物体検出装置の動作について、図2に示すフロー図を参照して、具体的に例を挙げながら説明する。
まず、カメラ部110によって、車両の検出対象領域が異なる時刻に2回撮像され(ステップS101)、検出対象領域の2画像が取得される。そして、車両検出部120によって、2画像の差分画像が作成され(ステップS102)、差分画像から変化部分が抽出されることにより、検出対象領域内の車両位置が検出される(ステップS103)。具体的には、差分画像における変化部分は、物体の移動によって変化があったと考えられるため、車両検出部120によって、所定の閾値以上の大きさの変化部分が移動中の車両位置として検出される。
すなわち、例えば図3上段に示すように、カメラ部110によって画像200aが撮像されると、車両201a〜204aが走行中であるため、これらの車両201a〜204aが車両検出部120によって検出される。このため、図3下段に示すように、検出結果200bにおいては、車両201a〜204aに対応する車両位置201b〜204bが示されている。また、画像200aにおいて、車両204aの影205aが車両204aに伴って移動するため、車両検出部120によって、影205aも車両として誤検出され、検出結果200bにおいては、車両位置205bにも車両があるという結果が示されている。
このように、1つのセンサ(カメラ部110)のみによる車両検出では、車両の影などを車両として誤検出することがあり、検出結果200bは、実際の車両位置を正確に示したものではない。
一方、カメラ部110によって撮像されるのと同時に、レーダ部130によって、車両の検出対象領域へミリ波が照射され(ステップS104)、車両からの反射波が受信される(ステップS105)。そして、車両検出部140によって、反射波の強度が所定の閾値と比較されることにより、検出対象領域内の車両位置が検出される(ステップS106)。具体的には、車両がある位置からは強い反射波が受信されると考えられるため、車両検出部140によって、反射波の強度が所定の閾値以上の位置が車両位置として検出される。
すなわち、例えば図4上段に示すように、レーダ部130によって反射波の強度分布210aが得られると、反射波211aおよび反射波212aの強度が所定の閾値以上であるため、これらの反射波211a、212aが車両検出部140によって車両として検出される。ここで、図4上段に示す反射波の強度分布210aは、図3上段に示す画像200aとして撮像された検出対象領域からの反射波を表したものであり、反射波211aは車両201aからの反射波であり、反射波212aは車両204aからの反射波である。しかし、車両202a、203aに関しては、反射波213aのようなノイズ程度の反射波しか得られていない。したがって、車両202a、203aは、車両検出部140においては車両として検出されない。結果として、図4下段に示すように、検出結果210bにおいては、車両位置211b、212bにのみ車両があるという結果が示されることになる。上述したように、車両位置211b、212bは、図3上段の画像200aに示す車両201a、204aの車両位置である。
このように、1つのセンサ(レーダ部130)のみによる車両検出では、照射する電磁波の反射特性や検出対象の車両の形状によって車両の検出漏れが生じることがあり、検出結果210bは、実際の車両位置を正確に示したものではない。
車両検出部120および車両検出部140によって、それぞれ車両位置が検出されると、検出された車両位置が融合部150の車両位置比較部151へ通知される。そして、車両位置比較部151によって、車両検出部120によって検出された車両位置と車両検出部140によって検出された車両位置とが比較され、それぞれの車両位置が1対1に対応するか否かが判断される(ステップS107)。この判断の結果、すべての車両位置が一致している場合は(ステップS107No)、2つのセンサ(カメラ部110およびレーダ部130)による車両検出結果が完全に一致したことになるため、その旨が融合判定部152へ通知され、融合判定部152によって、検出された車両位置を示す車両位置情報が出力される(ステップS115)。
一方、車両位置の比較の結果、2つのセンサ(カメラ部110およびレーダ部130)由来の検出結果において、一致しない車両位置がある場合は(ステップS107Yes)、該当する車両位置が融合判定部152へ通知される。そして、融合判定部152によって、車両位置が画像のみから検出されたか、反射波の強度分布のみから検出されたかが判定される(ステップS108)。
この判定の結果、画像のみから検出され、反射波の強度分布からは検出されなかった車両位置については(ステップS108Yes)、レーダ部130から原データが取得される(ステップS109)。すなわち、融合判定部152によって、例えば図4上段に示した反射波の強度分布210aが取得される。そして、融合判定部152によって、画像のみから検出された車両位置における反射波の強度が0であるか否かが判定される(ステップS110)。換言すれば、レーダ部130における原データに対応する信号強度が0であるか否かが判定される。
具体的には、図3下段の検出結果200bにおいて、車両位置202b、203b、205bは、画像のみから検出された車両位置であるため、これらの車両位置における反射波の強度が0であるか否かが判定される。この結果、図4上段に示す反射波の強度分布210aにおいて、車両位置202b、203bにおける反射波213aの強度が0ではないため(ステップS110Yes)、融合判定部152によって、車両位置202b、203bには車両があると判定される(ステップS111)。また、図4上段に示す反射波の強度分布210aにおいて、車両位置205bにおける反射波の強度は0であるため(ステップS110No)、融合判定部152によって、車両位置205bには車両がないと判定される(ステップS114)。
この結果、融合判定部152によって、画像および反射波の強度の双方から検出された車両位置201b(211b)、204b(212b)と、画像のみから検出された車両位置202b、203bとが最終的な車両位置と決定される。そして、融合判定部152によって、図5に示すように、これらの車両位置を示す車両位置情報220が出力される(ステップS115)。図5に示す車両位置情報220において、車両位置221は、検出結果200bの車両位置201bおよび検出結果210bの車両位置211bに対応し、車両位置222は、検出結果200bの車両位置202bに対応する。同様に、車両位置223は、検出結果200bの車両位置203bに対応し、車両位置224は、検出結果200bの車両位置204bおよび検出結果210bの車両位置212bに対応する。
図5に示す車両位置情報と図3上段に示す画像200aを比較すれば明らかなように、図5に示す車両位置情報は、実際の車両位置を正確に表している。すなわち、画像のみからの検出では誤検出された影205aや、反射波の強度分布のみからの検出では検出されなかった車両202a、203aについても、最終的には高精度な検出結果が得られることがわかる。
ところで、車両位置が反射波の強度分布のみから検出され、画像からは検出されていない場合は(ステップS108No)、カメラ部110から原データが取得される(ステップS112)。すなわち、融合判定部152によって、例えば図3上段に示した画像200aと、異なる時刻に撮像された画像との2画像が取得される。そして、融合判定部152によって、反射波の強度分布のみから検出された車両位置における2画像間の差分値が求められ、差分値が0であるか否かが判定される(ステップS113)。換言すれば、カメラ部110における原データに対応する信号強度が0であるか否かが判定される。
この判定の結果、差分値が0ではない車両位置については(ステップS113Yes)、融合判定部152によって、車両があると判定される(ステップS111)。また、差分値が0である車両位置については(ステップS113No)、融合判定部152によって、車両がないと判定される(ステップS114)。この結果、融合判定部152によって、画像および反射波の強度の双方から検出された車両位置と、反射波の強度のみから検出された車両位置のうちカメラ部110の原データに対応する信号強度が0ではない車両位置とが最終的な車両位置と決定される。そして、融合判定部152によって、最終的な車両位置を示す車両位置情報が出力される(ステップS115)。
なお、上述したように、通常の物体検出に関しては、カメラよりもレーダの方が信頼度が高いため、レーダ部130に対応する車両検出部140のみによって検出された車両位置については、車両検出部120による検出結果に拘わらず無条件に車両があると判定されるようにしても良い。この場合には、融合判定部152によって、カメラ部110から原データが取得されることもなく、車両検出部140によって検出されたすべての車両位置を示す車両位置情報が出力される。
また、図2において、ステップS101〜S103の車両検出部120による車両位置検出と、ステップS104〜S106の車両検出部140による車両位置検出とは、同時あるいはほぼ同じタイミングで実行されるものとする。すなわち、カメラを用いた車両位置検出と、レーダを用いた車両位置検出とは、ほぼ同一の状態にある検出対象領域に対して実行される。したがって、処理順序は図2に示す順序に限るものではなく、ステップS101〜S103とステップS104〜S106とは、同時もしくはほぼ同じタイミングで並行的に行われても良いし、ステップS104〜S106が先に行われても良い。
以上のように、本実施の形態によれば、カメラおよびレーダの原データからそれぞれ車両の位置を検出し、一方の原データからは車両が検出され、他方の原データからは車両が検出されなかった車両位置については、車両が検出されなかった原データを取得し、原データに対応する信号強度が0であるか否かを判定する。そして、信号強度が0でない場合には、最終的に車両があると判断し、信号強度が0である場合には、最終的に車両がないと判断する。このため、カメラおよびレーダなどの2つのセンサそれぞれを用いた物体の有無の検出結果が相反する場合は、物体が検出されなかったセンサの原データを棄却することなく、原データに対応する信号強度から最終的な物体の有無を判断することができ、複数のセンサを用いて物体の有無を検出する検出精度を向上することができる。
(実施の形態2)
本発明の実施の形態2の特徴は、カメラによる画像のみから検出された車両位置において、レーダによって得られる反射波の強度が0である場合、カメラに比べてレーダの分解能が低いことを考慮し、画像から車両幅を求め、車両幅が所定の閾値未満であれば、最終的に車両があると判定する点である。なお、通常の物体検出に関しては、カメラよりもレーダの方が信頼度が高いため、本実施の形態においては、レーダによって車両があると検出された車両位置については、無条件に車両があると判定するものとする。したがって、以下においては、カメラのみによって車両があると検出された車両位置について、レーダおよびカメラの原データを用いて車両の有無を最終的に判断する場合を説明する。
図6は、本実施の形態に係る物質検出装置の要部構成を示すブロック図である。同図において、図1と同じ部分には同じ符号を付し、その説明を省略する。図6に示す物質検出装置は、図1に示す物質検出装置の融合部150に代えて融合部300を有している。すなわち、図6に示す物質検出装置は、図1に示す融合判定部152を融合判定部301に代え、車両幅算出部302および閾値比較部303を付加した構成を有している。
融合判定部301は、車両検出部120のみによって車両があると検出されている車両位置について、車両が検出されなかったセンサ(レーダ部130)の原データを取得し、車両の有無を判定する。このとき、融合判定部301は、レーダ部130から反射波の強度分布を取得し、車両検出部120から通知された車両位置における反射波の強度が0でなければ車両があると判定する。
また、融合判定部301は、車両検出部120から通知された車両位置における反射波の強度が0であれば、車両幅算出部302へその旨を通知する。そして、融合判定部301は、閾値比較部303において車両幅と所定の閾値とが比較された結果から、最終的に車両の有無を判定する。具体的には、融合判定部301は、車両幅が所定の閾値未満であれば、反射波の強度が0であっても車両があると判定し、車両幅が所定の閾値以上であれば、反射波の強度が0であれば車両がないと判定する。
融合判定部301は、上述したように、カメラ部110およびレーダ部130における原データを用いて最終的な車両位置を決定すると、決定された車両位置を示す車両位置情報を出力する。
車両幅算出部302は、車両検出部120によって検出された車両位置における反射波の強度が0である旨が融合判定部301から通知されると、カメラ部110から異なる時刻の2画像を取得する。そして、車両幅算出部302は、2画像の差分画像を作成し、反射波の強度が0である車両位置における変化部分の幅を算出する。ここでは、車両検出部120によって検出された車両位置を対象としているため、差分画像における変化部分は必ず存在し、車両幅算出部302は、変化部分の幅を車両幅として算出することが可能である。
閾値比較部303は、車両幅算出部302によって算出された車両幅を所定の閾値と比較し、車両幅が所定の閾値未満であるか否かを示す比較結果を融合判定部301へ通知する。閾値比較部303が車両幅と比較する閾値は、レーダ部130の分解能に応じて定められており、レーダ部130が検出可能な最小の物体幅に相当する値となっている。したがって、閾値比較部303による比較の結果、車両幅が所定の閾値未満であれば、レーダ部130の分解能では車両を検出することが不可能であり、反射波の強度が0となるのは当然であると言える。
次いで、上記のように構成された物体検出装置の動作について、図7に示すフロー図を参照して、具体的に例を挙げながら説明する。なお、図7において、図2と同じ部分には同じ符号を付し、その詳しい説明を省略する。
まず、カメラ部110によって、車両の検出対象領域が異なる時刻に2回撮像され(ステップS101)、検出対象領域の2画像が取得される。そして、車両検出部120によって、2画像の差分画像が作成され(ステップS102)、差分画像から変化部分が抽出されることにより、検出対象領域内の車両位置が検出される(ステップS103)。
すなわち、例えば図8上段に示すように、カメラ部110によって画像400aが撮像されると、車両401a、402aが走行中であるため、これらの車両401a、402aが車両検出部120によって検出される。このため、図8下段に示すように、検出結果400bにおいては、車両401a、402aに対応する車両位置401b、402bが示されている。なお、車両401aは、例えばバイクなどの車両であり、車両402aなどの通常の車両よりも車両幅が著しく小さい。
一方、カメラ部110によって撮像されるのと同時に、レーダ部130によって、車両の検出対象領域へミリ波が照射され(ステップS104)、車両からの反射波が受信される(ステップS105)。そして、車両検出部140によって、反射波の強度が所定の閾値と比較されることにより、検出対象領域内の車両位置が検出される(ステップS106)。
すなわち、例えば図9上段に示すように、レーダ部130によって反射波の強度分布410aが得られると、反射波411aの強度が所定の閾値以上であるため、この反射波411aが車両検出部140によって車両として検出される。ここで、図9上段に示す反射波の強度分布410aは、図8上段に示す画像400aとして撮像された検出対象領域からの反射波を表したものであり、反射波411aは、車両402aからの反射波である。しかし、車両401aに関しては、車両幅がレーダ部130の分解能未満であるため、反射波がまったく得られていない。したがって、車両401aは、車両検出部140においては車両として検出されない。結果として、図9下段に示すように、検出結果410bにおいては、車両位置411bにのみ車両があるという結果が示されることになる。上述したように、車両位置411bは、図8上段の画像400aに示す車両402aの車両位置である。
車両検出部120および車両検出部140によって、それぞれ車両位置が検出されると、検出された車両位置が融合部300の車両位置比較部151へ通知される。そして、車両位置比較部151によって、車両検出部120によって検出された車両位置と車両検出部140によって検出された車両位置とが比較されるが、本実施の形態においては、車両検出部120のみによって検出された車両位置があるものとする。換言すれば、画像のみから検出され、反射波の強度分布からは検出されなかった車両位置があるものとする(ステップS201)。
この場合、融合判定部301によって、反射波の強度分布からは検出されなかった車両位置について、レーダ部130から原データが取得される(ステップS109)。すなわち、融合判定部301によって、例えば図9上段に示した反射波の強度分布410aが取得される。そして、融合判定部301によって、画像のみから検出された車両位置における反射波の強度が0であるか否かが判定される(ステップS110)。換言すれば、レーダ部130における原データに対応する信号強度が0であるか否かが判定される。
この判定の結果、反射波の強度が0でない車両位置については(ステップS110Yes)、融合判定部301によって、車両があると判定される(ステップS111)。また、反射波の強度が0である車両位置については(ステップS110No)、該当する車両位置があることが車両幅算出部302へ通知される。そして、車両幅算出部302によって、カメラ部110の原データが取得され、画像のみから検出された車両の車両幅が算出される(ステップS202)。
具体的には、例えば図8下段に示す検出結果400bと図9下段に示す検出結果410bとを比較すると、検出結果410bにおいては、検出結果400bにおける車両位置401bに対応する車両位置が検出されていない。このため、融合判定部301によって、図9上段に示す反射波の強度分布410aがレーダ部130から取得されるが、車両位置401bにおける反射波の強度は0である。そこで、車両幅算出部302によって、図8上段に示す画像400aと、異なる時刻に撮像された画像との2画像が取得される。そして、車両幅算出部302によって、例えば図10上段に示すような、2画像の差分画像420aが作成され、変化部分421a、422aが抽出される。これらの変化部分421a、422aは、それぞれ車両401a、402aに対応している。
そして、車両幅算出部302によって、画像のみから検出された車両に対応する変化部分421aの幅が算出される。すなわち、例えば変化部分421aの最大幅が車両幅として算出される。この結果、図10下段に示す算出結果420bのように、車両幅421bが得られる。なお、算出結果420bにおいては、比較のために変化部分422aに対応する車両幅422bも同時に示している。この算出結果420bからわかるように、車両幅421bは、車両幅422bよりも著しく小さい。
算出された車両幅421bは、閾値比較部303へ出力され、閾値比較部303によって、所定の閾値と比較される(ステップS203)。上述したように、ここで車両幅421bと比較される閾値は、レーダ部130が検出可能な最小の物体幅に相当する。したがって、比較の結果、車両幅421bが所定の閾値未満であれば、反射波の強度分布410aにおいて、車両401aに対応する反射波の強度が0であるのは当然であることになる。換言すれば、反射波の強度が0であっても、車両がないということにはならない。
そこで、閾値比較部303による比較の結果が融合判定部301へ出力され、車両幅421bが所定の閾値未満である場合は(ステップS203Yes)、融合判定部301によって、車両位置401bには車両があると判定される(ステップS111)。この結果、融合判定部301によって、画像および反射波の強度の双方から検出された車両位置402b(411b)と、画像のみから検出された車両位置401bとが最終的な車両位置と決定される。ここで、実施の形態1とは異なり、車両位置401bについては、反射波の強度が0であるにも拘らず、車両があると判定されていることになる。そして、融合判定部301によって、図11に示すように、車両があると判定された車両位置を示す車両位置情報430が出力される(ステップS115)。図11に示す車両位置情報430において、車両位置431は、検出結果400bの車両位置401bに対応し、車両位置432は、検出結果400bの車両位置402bおよび検出結果410bの車両位置411bに対応する。
ところで、車両幅が所定の閾値以上である場合は(ステップS203No)、画像のみから検出された車両位置における車両幅は、レーダ部130によって十分検出可能な幅であるにも拘わらず、実際には検出されなかったことになる。このため、画像からの検出が誤検出であると判定され、画像のみから検出された車両位置には、車両がないと判定される(ステップS114)。この結果、融合判定部301によって、反射波の強度から検出された車両位置が最終的な車両位置と決定される。そして、融合判定部301によって、最終的な車両位置を示す車両位置情報が出力される(ステップS115)。
以上のように、本実施の形態によれば、カメラおよびレーダの原データからそれぞれ車両の位置を検出し、カメラの原データからは車両が検出され、レーダの原データからは車両が検出されなかった場合、レーダの原データを取得し、原データに対応する信号強度が0であるか否かを判定する。そして、信号強度が0でない場合には、最終的に車両があると判定し、信号強度が0である場合には、カメラの原データから車両幅を算出し、所定の閾値と比較する。この結果、車両幅が所定の閾値未満であれば、最終的に車両がないと判定する。このため、カメラおよびレーダなどの2つのセンサそれぞれを用いた物体の有無の検出結果が相反する場合は、センサの分解能を考慮しながらセンサの原データを参照し、より正確に最終的な物体の有無を判断することができる。
なお、上記各実施の形態においては、可視光線を特徴量として検知するカメラとミリ波を特徴量として検知するレーダとの2つのセンサを融合して物体を検出する場合について説明したが、本発明はこれに限定されない。すなわち、例えば赤外線を特徴量として検知する赤外線カメラなどをセンサとして用いる場合にも、本発明を同様に適用することができる。つまり、異なる特徴量を検知する2つのセンサによって物体を検出する場合に、検出結果が互いに相反すると、物体が検出されなかったセンサの原データを参照して最終的に物体の有無を判断することが可能である。
具体的には、例えば可視光線を検知するカメラと赤外線を検知する赤外線カメラとの2つを用いる場合、カメラの原データからは物体が検出され、赤外線カメラの原データからは物体が検出されないと、赤外線カメラの原データが取得され、この原データに対応する信号強度が0でなければ、最終的には物体があると判定されることになる。赤外線カメラの原データに対応する信号強度とは、例えば上記各実施の形態におけるカメラ部110の原データに対応する信号強度と同様に、2時点の赤外画像の差分値などである。そのほかにも、信号強度としては、差分画像における変化部分の大きさなどでも良い。要するに、信号強度とは、センサの原データにおいて物体の有無の指標となる物理量であり、上記各実施の形態における車両検出部120、140は、信号強度が所定の閾値以上である場合に車両があると判定している。
また、上記各実施の形態においては、カメラとレーダの2つのセンサのみを用いるものとしたが、3つ以上のセンサを同時に用いる場合に、本発明を適用することも可能である。すなわち、3つ以上のセンサによってそれぞれ物体の有無を検出したときに、検出結果が完全に一致しない場合、物体が検出されなかったセンサの原データを取得し、原データに対応する信号強度によって最終的な物体の有無を判断するようにしても良い。
さらに、上記各実施の形態においては、物体が検出されなかったセンサの原データにおいて、信号強度が0でなければ物体があると判定するものとしたが、必ずしも信号強度を0と比較する必要はない。すなわち、信号強度が所定の閾値以上であれば物体があると判定するようにしても良い。この場合に信号強度と比較される閾値は、一方のセンサの原データのみを用いる車両検出部120、140において信号強度と比較される閾値以下である。換言すれば、一方のセンサによって物体があると検出された場合は、他方のセンサの信号強度と比較される閾値を小さくし、物体があるという検出結果が得られやすくすることと等価である。
なお、上記各実施の形態においては、物体検出装置によって、カメラおよびレーダの原データを利用した物体検出が行われることとしたが、上述した処理をコンピュータが読み取り可能なプログラムとして記述し、このプログラムをコンピュータに実行させることにより、本発明を実施することも可能である。
以上の実施の形態に関して、さらに以下の付記を開示する。
(付記1)第1のセンサによって検知された特徴量の原データを取得する第1取得部と、
第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得部と、
前記第1取得部によって取得された原データから物体の有無を検出する第1検出部と、
前記第2取得部によって取得された原データから物体の有無を検出する第2検出部と、
前記第1検出部によって物体が検出され、かつ前記第2検出部によって物体が検出されなかった場合、前記第1取得部または前記第2取得部によって取得された原データを参照して物体の有無を判定する判定部と
を有することを特徴とする物体検出装置。
(付記2)前記判定部は、
前記第2取得部によって取得された原データを参照し、物体の有無の指標となる信号強度が0ではない場合に物体があると判定することを特徴とする付記1記載の物体検出装置。
(付記3)前記判定部は、
前記第2取得部によって取得された原データの信号強度が0である場合、前記第1取得部によって取得された原データを参照し、前記第1検出部によって検出された物体の大きさを算出する算出部と、
前記算出部によって算出された物体の大きさと所定の閾値とを比較する比較部とを含み、
前記比較部による比較の結果、物体の大きさが所定の閾値未満である場合に物体があると判定する一方、物体の大きさが所定の閾値以上である場合に物体がないと判定することを特徴とする付記2記載の物体検出装置。
(付記4)前記比較部は、
前記算出部によって算出された物体の大きさと前記第2のセンサの分解能に応じた閾値とを比較することを特徴とする付記3記載の物体検出装置。
(付記5)前記判定部は、
前記第2取得部によって取得された原データを参照し、物体の有無の指標となる信号強度が所定の閾値以上である場合に物体があると判定することを特徴とする付記1記載の物体検出装置。
(付記6)コンピュータによって実行される物質検出プログラムであって、前記コンピュータに、
第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、
第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、
前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、
前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、
前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップと
を実行させることを特徴とする物体検出プログラム。
(付記7)第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、
第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、
前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、
前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、
前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップと
を有することを特徴とする物体検出方法。
実施の形態1に係る物体検出装置の要部構成を示すブロック図である。 実施の形態1に係る物体検出装置の動作を示すフロー図である。 実施の形態1に係るカメラを用いた車両検出の一例を示す図である。 実施の形態1に係るレーダを用いた車両検出の一例を示す図である。 実施の形態1に係る車両位置情報の一例を示す図である。 実施の形態2に係る物体検出装置の要部構成を示すブロック図である。 実施の形態2に係る物体検出装置の動作を示すフロー図である。 実施の形態2に係るカメラを用いた車両検出の一例を示す図である。 実施の形態2に係るレーダを用いた車両検出の一例を示す図である。 実施の形態2に係る車両幅算出の一例を示す図である。 実施の形態2に係る車両位置情報の一例を示す図である。
符号の説明
110 カメラ部
120、140 車両検出部
130 レーダ部
150、300 融合部
151 車両位置比較部
152、301 融合判定部
302 車両幅算出部
303 閾値比較部

Claims (7)

  1. 第1のセンサによって検知された特徴量の原データを取得する第1取得部と、
    第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得部と、
    前記第1取得部によって取得された原データから物体の有無を検出する第1検出部と、
    前記第2取得部によって取得された原データから物体の有無を検出する第2検出部と、
    前記第1検出部によって物体が検出され、かつ前記第2検出部によって物体が検出されなかった場合、前記第1取得部または前記第2取得部によって取得された原データを参照して物体の有無を判定する判定部と
    を有することを特徴とする物体検出装置。
  2. 前記判定部は、
    前記第2取得部によって取得された原データを参照し、物体の有無の指標となる信号強度が0ではない場合に物体があると判定することを特徴とする請求項1記載の物体検出装置。
  3. 前記判定部は、
    前記第2取得部によって取得された原データの信号強度が0である場合、前記第1取得部によって取得された原データを参照し、前記第1検出部によって検出された物体の大きさを算出する算出部と、
    前記算出部によって算出された物体の大きさと所定の閾値とを比較する比較部とを含み、
    前記比較部による比較の結果、物体の大きさが所定の閾値未満である場合に物体があると判定する一方、物体の大きさが所定の閾値以上である場合に物体がないと判定することを特徴とする請求項2記載の物体検出装置。
  4. 前記比較部は、
    前記算出部によって算出された物体の大きさと前記第2のセンサの分解能に応じた閾値とを比較することを特徴とする請求項3記載の物体検出装置。
  5. 前記判定部は、
    前記第2取得部によって取得された原データを参照し、物体の有無の指標となる信号強度が所定の閾値以上である場合に物体があると判定することを特徴とする請求項1記載の物体検出装置。
  6. コンピュータによって実行される物質検出プログラムであって、前記コンピュータに、
    第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、
    第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、
    前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、
    前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、
    前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップと
    を実行させることを特徴とする物体検出プログラム。
  7. 第1のセンサによって検知された特徴量の原データを取得する第1取得ステップと、
    第2のセンサによって検知され、前記第1のセンサによって検知された特徴量とは異なる特徴量の原データを取得する第2取得ステップと、
    前記第1取得ステップにて取得された原データから物体の有無を検出する第1検出ステップと、
    前記第2取得ステップにて取得された原データから物体の有無を検出する第2検出ステップと、
    前記第1検出ステップおよび前記第2検出ステップにおける検出結果が互いに相反する場合、前記第1取得ステップまたは前記第2取得ステップにて取得された原データを参照して物体の有無を判定する判定ステップと
    を有することを特徴とする物体検出方法。
JP2008178247A 2008-07-08 2008-07-08 物体検出装置、物体検出プログラム、および物体検出方法 Expired - Fee Related JP5470762B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008178247A JP5470762B2 (ja) 2008-07-08 2008-07-08 物体検出装置、物体検出プログラム、および物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008178247A JP5470762B2 (ja) 2008-07-08 2008-07-08 物体検出装置、物体検出プログラム、および物体検出方法

Publications (2)

Publication Number Publication Date
JP2010020414A true JP2010020414A (ja) 2010-01-28
JP5470762B2 JP5470762B2 (ja) 2014-04-16

Family

ID=41705261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008178247A Expired - Fee Related JP5470762B2 (ja) 2008-07-08 2008-07-08 物体検出装置、物体検出プログラム、および物体検出方法

Country Status (1)

Country Link
JP (1) JP5470762B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143264A (ja) * 2015-02-03 2016-08-08 富士重工業株式会社 車外環境認識装置
JP2017220076A (ja) * 2016-06-09 2017-12-14 株式会社東芝 車種判別装置および車種判別方法
US10061017B2 (en) 2013-03-04 2018-08-28 Denso Corporation Target recognition apparatus
KR20190050216A (ko) * 2017-11-02 2019-05-10 현대자동차주식회사 주변 차량의 운동 상태 추정 장치 및 방법
CN113412506A (zh) * 2019-02-13 2021-09-17 日立安斯泰莫株式会社 车辆控制装置及电子控制系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6256531B2 (ja) * 2016-06-10 2018-01-10 三菱電機株式会社 物体認識処理装置、物体認識処理方法および自動運転システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007071631A (ja) * 2005-09-06 2007-03-22 Toyota Motor Corp 車両用物標判定装置
JP2008008870A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 物体検出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007071631A (ja) * 2005-09-06 2007-03-22 Toyota Motor Corp 車両用物標判定装置
JP2008008870A (ja) * 2006-06-30 2008-01-17 Toyota Motor Corp 物体検出装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10061017B2 (en) 2013-03-04 2018-08-28 Denso Corporation Target recognition apparatus
JP2016143264A (ja) * 2015-02-03 2016-08-08 富士重工業株式会社 車外環境認識装置
JP2017220076A (ja) * 2016-06-09 2017-12-14 株式会社東芝 車種判別装置および車種判別方法
KR20190050216A (ko) * 2017-11-02 2019-05-10 현대자동차주식회사 주변 차량의 운동 상태 추정 장치 및 방법
KR102371615B1 (ko) * 2017-11-02 2022-03-07 현대자동차주식회사 주변 차량의 운동 상태 추정 장치 및 방법
CN113412506A (zh) * 2019-02-13 2021-09-17 日立安斯泰莫株式会社 车辆控制装置及电子控制系统
JP2022107660A (ja) * 2019-02-13 2022-07-22 日立Astemo株式会社 車両制御装置および電子制御システム
JP7281000B2 (ja) 2019-02-13 2023-05-24 日立Astemo株式会社 車両制御方法および車両制御システム

Also Published As

Publication number Publication date
JP5470762B2 (ja) 2014-04-16

Similar Documents

Publication Publication Date Title
JP5470762B2 (ja) 物体検出装置、物体検出プログラム、および物体検出方法
US10614322B2 (en) Object recognition device
KR101787996B1 (ko) 차선 추정 장치 및 그 방법
EP2807642B1 (en) Method for operating a driver assistance device of a motor vehicle, driver assistance device and motor vehicle
AU2016397318B2 (en) Passenger counting device, system, method and program
JP6717240B2 (ja) 物標検出装置
JP2013117475A (ja) 障害物検出装置
JP5241461B2 (ja) 乗客コンベアの乗客検出装置
US7391007B2 (en) Optoelectronic apparatus and method of operating the optoelectronic apparatus in order to detect an object
JP2007121158A (ja) 侵入検知装置
JP2012247829A (ja) 車両周辺監視装置
JP5509615B2 (ja) 車両検出装置、車両検出方法、および車両検出プログラム
JP2018022270A (ja) 路肩検出方法及び路肩検出装置
CN113330448A (zh) 用于车辆的传感器数据融合的方法和装置
US20130107049A1 (en) Accident avoiding system and method
JP3948450B2 (ja) 物体検出装置及び物体検出方法
US10909850B2 (en) Movement track detection apparatus, moving object detection apparatus, and movement track detection method
JP5012163B2 (ja) 検出装置及びプログラム
JP2008299787A (ja) 車両検知装置
JP2011145812A (ja) レーザセンサ及びこれを用いた検出対象判定方法
JP6686776B2 (ja) 段差検出方法及び段差検出装置
JP2007315948A (ja) 物体検知装置および方法
US11113833B2 (en) Object detection system
JP2012242247A (ja) 物体検知装置
KR102308974B1 (ko) 영상정보 기반 위험체 탐지 시스템, 방법, 및 컴퓨터프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees