JP2016153775A - 物体検出装置および物体検出方法 - Google Patents

物体検出装置および物体検出方法 Download PDF

Info

Publication number
JP2016153775A
JP2016153775A JP2015193173A JP2015193173A JP2016153775A JP 2016153775 A JP2016153775 A JP 2016153775A JP 2015193173 A JP2015193173 A JP 2015193173A JP 2015193173 A JP2015193173 A JP 2015193173A JP 2016153775 A JP2016153775 A JP 2016153775A
Authority
JP
Japan
Prior art keywords
region
radar
capture
marker
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015193173A
Other languages
English (en)
Other versions
JP6593588B2 (ja
JP2016153775A5 (ja
Inventor
偉傑 劉
Iketsu Ryu
偉傑 劉
中川 洋一
Yoichi Nakagawa
洋一 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to CN201610008658.6A priority Critical patent/CN105893931A/zh
Priority to US15/006,239 priority patent/US10061023B2/en
Publication of JP2016153775A publication Critical patent/JP2016153775A/ja
Publication of JP2016153775A5 publication Critical patent/JP2016153775A5/ja
Application granted granted Critical
Publication of JP6593588B2 publication Critical patent/JP6593588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

【課題】レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させること。
【解決手段】捕捉領域算出部32は、電力プロファイル情報から反射強度の極大点である捕捉点を算出し、捕捉点を囲む捕捉領域を算出する。エッジ算出部34は、画像データから1つ以上の物体のエッジを算出する。マーカー算出部35は、捕捉領域からマーカーを算出する。コンポーネント領域算出部36は、エッジを用いてマーカーを拡張してコンポーネント領域を算出する。グループ化処理部37は、コンポーネント領域のうち、同一の物体に属するコンポーネント領域をグルーピング化する。物体確定部38は、グルーピングの結果である対象物体領域に基づいて、1つ以上の物体の種別(例えば、大型車両、小型車両、二輪車、歩行者、飛行体、鳥など)を判定する。
【選択図】図3

Description

本開示は、物体検出装置および物体検出方法に関し、より特定的には、車両、道路インフラシステム、または、特定施設の監視システムに搭載され、周辺に存在する物体を個別にかつ正確に検出することのできる物体検出装置および物体検出方法に関する。
近年、乗用車などの車両には、当該車両の周囲に存在する、他車両、歩行者、二輪車、路上にある設置物などを検出する車載用レーダ装置または車載用カメラ装置が搭載されている。車載用レーダ装置または車載用カメラ装置は、自車両の前方や側方から接近してくる対象物体を検出し、自車両との相対位置、相対速度などを測定する。そして、車載用レーダ装置は、測定結果に基づき、自車両と対象物体とが衝突する危険性が無いかを判断する。車載用レーダ装置は、危険性があると判断した場合、更に、運転手に警告を出したり、自動的に自車両を制御したりすることによって、衝突を回避させる。
例えば、特許文献1には、車載用レーダ装置および車載用カメラ装置を共に用いて、物体の検出を行う技術が開示されている。具体的に、特許文献1では、カメラ装置の測定情報を利用し、対象物体の数および方位角の範囲を確定し、対象物体の数および方位角の範囲に基づいて、レーダ装置の測定情報を修正している。
また、特許文献2には、道路周辺に設置されるカメラ装置とレーダ装置を共に用いて、交通量を監視する技術が開示されている。具体的に、特許文献2では、遠方車両の位置およびスピードの情報をレーダ装置で検知し、当該車両のカメラ画像における位置を確定の後、カメラ画像より当該車両より遠近両方の車両の状況を提示し、交通監視と交通管理を行っている。
また、従来、空港、港、鉄道駅、又は、建物などの特定施設を監視するために、レーダ装置またはカメラ装置が設置され、地上又は空中(地上より上の空間)からの侵入する物体を検知し、関連セキュリティシステム又は表示部に情報を提供し、不審物体(不審者を含む)の侵入を防いでいる。
特開2010−151621号公報 米国特許出願公開第2013/0300870号明細書
R.C.Gonzalez and R.E.Woods, Digital Image Processing, Prentice Hall, 2001.
しかしながら、上述した特許文献1の従来技術では、対象物体の数および各対象物体の方位角の範囲を車載されたカメラ装置の測定情報によって確定しなければならない。つまり、車載用カメラ装置に対して、高度な物体検出性能を必要とする。
また、特許文献2の従来技術では、レーダ装置が1つの車両から複数の検出結果を取得してしまった場合に、当該車両の位置の確定が困難になってしまう。
つまり、上記の従来技術では、車両に搭載する、道路インフラシステムに利用する、または、特定施設の監視システムに利用する、といった場合であっても、物体の検出精度がカメラ装置とレーダ装置のうちの一方の性能に依存している。つまり、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることが困難である。
本開示は、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることを可能とする物体検出装置および物体検出方法を提供することを目的とする。
本開示の物体検出装置は、レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成する情報生成部と、前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出する捕捉領域算出部と、カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出するエッジ抽出部と、前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出するマーカー算出部と、前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出するコンポーネント領域算出部と、前記コンポーネント領域を対象物体領域としてグループ化するグループ化処理部と、前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する物体確定部と、を具備する。
本開示の物体検出方法は、レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成し、前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出し、カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出し、前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出し、前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出し、前記コンポーネント領域を対象物体領域としてグループ化し、前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する。
本開示によれば、レーダ装置のセンシング機能とカメラ装置のセンシング機能とを効果的に重畳して、物体の検出精度を向上させることができる。
本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図 本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図 本開示に係る物体検出装置の設置場所についての概念図 本開示に係る物体検出装置の設置場所についての概念図 本開示の実施の形態1に係る物体検出装置の主要構成を示すブロック図 本開示の実施の形態1における電力プロファイル情報の一例を示す図 本開示の実施の形態1における捕捉領域の算出結果の一例を示す図 レーダ測定三次元空間の座標系の一例を示す図 距離、最大可能高さ、および、地面距離の関係を示す図 カメラ三次元空間の座標からカメラ画像平面の座標への変換の説明に供する図 カメラ画像平面の一例を示す図 図5に示す捕捉領域に対応するマーカーの算出結果の一例を示す図 コンポーネント領域算出部がマーカーを分割する場合の一例を示す図 コンポーネント算出部による領域拡張の結果の一例を示す図 コンポーネント領域をレーダ測定平面上の領域に座標変換した結果の一例を示す図 グループ化処理部によるグルーピングの結果の一例を示す図 本開示の実施の形態2に係る物体検出装置の主要構成を示すブロック図 本開示の実施の形態3に係る物体検出装置の主要構成を示すブロック図 本開示の実施の形態4に係る物体検出装置の主要構成を示すブロック図
(本開示に至る経緯)
まず、本開示に至る経緯について説明する。本開示は、車載用レーダ装置およびカメラ装置、道路インフラシステム用レーダ装置およびカメラ装置、ならびに、特定施設の監視システムに、用いられる物体検出装置に関する。
車載用レーダ装置およびカメラ装置は、既に多くの車両に搭載されつつあるが、道路インフラシステム用レーダ装置およびカメラ装置も道路のインフラシステムに導入されつつあり、また、特定施設の監視システムとして、従来、レーダ装置又はカメラ装置のいずれかが単独に利用されてきたが、レーダ装置及びカメラ装置を併用して利用される場合も多くなりつつある。
道路インフラシステム用レーダ装置およびカメラ装置は、交差点等の道路の周辺に設置され、道路および道路周辺に存在する車両、歩行者、二輪車などを検出し、交通状況の監視と交通の管理を行う。
道路インフラシステム用レーダ装置およびカメラ装置は、交通状況の監視として、交通量の検出、車両のスピード違反や信号無視などの検出を行う。また、道路インフラシステム用レーダ装置およびカメラ装置は、交通の管理として、検出した交通量に基づいて、信号機の制御を行う。あるいは、道路インフラシステム用レーダ装置およびカメラ装置は、車両の死角に存在する物体を検出し、検出した物体の情報を車両の運転手に通知する。このように、道路インフラシステム用レーダ装置およびカメラ装置は、交通の効率化と交通事故の防止を実現することができる。
車載用レーダ装置およびカメラ装置においても、あるいは、道路インフラシステム用レーダ装置およびカメラ装置においても、車両、歩行者、自転車、バイクなどの特徴の異なる対象物体は、正確に検出される必要がある。また、監視システム用レーダ装置およびカメラ装置においても、地上を監視領域とした場合は各種車両や歩行者を、また、空中を監視領域とした場合は各種飛行体や鳥を正確に検出する必要がある。
各対象物体が正確に検出されることによって、空間に物体が存在する状態、交通量の状態を正確に把握し、被侵入、又は、衝突の可能性を正確に予測することができる。各対象物体が正確に検出されなければ、対象物体の検出漏れや誤検出が発生し、空間に物体が存在する状態や交通量の状態の把握が困難になり、被侵入、又は、衝突の可能性の予測が困難になる。
一般に、レーダ装置における測定では、1つの対象物体から複数の強い反射点(以下、捕捉点という)を取得する。そのため、測定結果から対象物体を検出するために、同一物体に対応する捕捉点をグループ化する必要がある。
特許文献1では、車載されたカメラ装置の測定情報によって対象物体の数および各対象物体の方位角の範囲を確定し、グループ化した捕捉点を対象物体の数および各対象物体の方位角の範囲に基づいて、再グループ化またはグループの解除を行う。このような処理によって、特許文献1の開示する技術では誤検出や検出漏れを回避する。
しかしながら、特許文献1の開示する技術では、対象物体の数および各対象物体の方位角の範囲の精度、つまり、カメラ装置のセンシング機能の精度によって、物体の検出精度が変わってしまう。
また、特許文献2では、複数の捕捉点を取得した際に対象物体である車両を検出することが困難になり、結果的に、特許文献2の開示する技術が利用困難である。
このような事情に鑑み、カメラ装置の測定情報とレーダ装置の測定情報の違いを考慮すればこれらの測定情報を効果的に重畳できることに着目し、本開示に至った。
本開示によれば、車載用レーダ装置およびカメラ装置において、自車両周辺に存在する車両、二輪車、および、歩行者を正確に検出し、自車両との衝突危険性を予測し、危険回避のための警告や制御を行うことができる。その結果、交通事故の防止が実現される。
また、本開示によれば、空港、港、鉄道駅、又は、建物などの特定施設の監視システム用レーダ装置およびカメラ装置において、空中からは飛行体や鳥、地上からは各種車両や侵入者を正確に検出し、外部のセキュリティシステムと連動し、不審者の侵入を防止し施設の安全が確保される。
また、本開示によれば、道路インフラシステム用レーダ装置およびカメラ装置において、交差点を含む道路周辺に存在する車両、二輪車、および、歩行者を正確に検出し、衝突の可能性の予測、衝突の回避、および、交通量の把握と管理を行うことができる。その結果、交通事故の防止とともに交通管理の効率化が実現される。
(本開示の利用イメージ)
ここで、本開示に係る物体検出装置の接続方法および設置場所について図面を用いて説明する。
図1A、図1Bは、本開示に係る物体検出装置を用いたセンシングユニットの構成の概念図である。図1A、図1Bにおいて、RおよびCは、それぞれ、レーダ装置およびカメラ装置を示す。Wは、本開示に係る物体検出装置を示す。図1Aは、レーダ装置Rとカメラ装置Cが同一の筐体に設けられ、物体検出装置Wと接続する場合を示す。図1Bは、レーダ装置Rとカメラ装置Cが別々の筐体に設けられ、物体検出装置Wと接続する場合を示す。なお、図1A及び図1Bの物体検出装置Wは更に、外部のセキュリティシステム又は表示部に接続されている。
本開示は、レーダ装置Rとカメラ装置Cの設置する方法、場所、および、相対的な位置関係を制限しない。また、レーダ装置Rの検知範囲とカメラ装置Cの検知範囲の位置関係についても制限しない。ただし、本開示はレーダ装置Rの検知範囲とカメラ装置Cの検知範囲の重畳範囲に対して適用するため、レーダ装置Rとカメラ装置Cは、重畳範囲が大きくなるように設置されるのが好ましい。
本開示は、レーダ装置Rの測定情報とカメラ装置Cの測定情報を重畳して処理する物体検出装置Wを提供する。本開示に係る物体検出装置Wは、レーダ装置Rの構成、および、カメラ装置Cの構成についても制限しない。レーダ装置Rおよびカメラ装置Cは、いずれも既存の市販品や公知技術で構成される製品でもよい。
また、図1A及び図1Bに示す概念図において、物体検出装置Wは、レーダ装置Rおよびカメラ装置Cと別々に設けられるとしたが、レーダ装置Rまたはカメラ装置Cに含まれるとしてもよい。
また、本開示において、レーダ装置Rおよびカメラ装置Cは、物体検出装置Wと接続して、測定情報を物体検出装置Wに伝送するが、その伝送方式は限定されない。伝送方式は、有線通信方式であっても無線通信方式であってもよい。
次に、本開示に係る物体検出装置Wの設置場所について図2A、図2Bを用いて説明する。図2A、図2Bは、本開示に係る物体検出装置Wの設置場所についての概念図である。図2Aは、物体検出装置Wがレーダ装置Rおよびカメラ装置Cとともに車両に搭載される概念図であり、図2Bは、物体検出装置Wがレーダ装置Rおよびカメラ装置Cとともに道路インフラシステムで利用される概念図である。
図2Aにおいて、Vは自車両、R/Cは自車両に搭載されるレーダ装置Rおよびカメラ装置Cを含む測定装置、T1およびT2は2つの異なる対象物体を示す。実装上、物体検出装置Wは、測定装置R/Cと一体としてもよいし、測定装置R/Cと設置位置が異なっていてもよいが、自車両Vの前方または側方の周辺にある物体を検出できれば好都合である。
図2Bにおいて、R/Cは道路インフラに搭載されるレーダ装置Rおよびカメラ装置Cを含む測定装置、Pは路面、Lは測定装置R/Cが設置されるポールなどのサポート装置、T1およびT2は2つの異なる対象物体を示す。図2Bは、測定装置R/Cが設置された位置付近の斜視したイメージ図である。
路面Pは、直進の道路でもよいし、交差点の一部であってもよい。また、測定装置R/Cが設置される位置は、道路の上方、路側、交差点の上方、または、交差点の各コーナーであってもよい。なお、本開示は、測定装置R/Cを設置する位置や設置する方法を限定しない。測定装置R/Cが交差点にある横断歩道の周囲に存在する車両、歩行者、二輪車などを検出できれば好都合である。
図2Aおよび図2Bにおいて、対象物体T1は、対象物体T2よりも大きい物体であり、例えば、車両などの物体に該当する。また、対象物体T2は、例えば、バイク、自転車、歩行者などに該当する。また、図2Aおよび図2Bに示す概念図では、対象物体T2は、対象物体T1よりもレーダ装置に近い位置に存在する。本開示に係る物体検出装置Wは、対象物体T1とT2を分離して個別に検出する。
また、図示していないが、本開示に係る物体検出装置Wの設置場所は、空港、港、鉄道駅、又は建物などの特定施設を監視できる場所でもよい。本開示に係る物体検出装置Wの測定領域も地上領域に限定せず、空中に対する監視又は測定でも利用可能である。
次に、本開示の実施の形態について、図面を参照して詳細に説明する。なお、以下に説明する各実施の形態は一例であり、本開示はこれらの実施の形態により限定されるものではない。
(実施の形態1)
まず、本開示の実施の形態1に係る物体検出装置について図面を用いて説明する。図3は、本開示の実施の形態1に係る物体検出装置30の主要構成を示すブロック図である。
本開示の実施の形態1に係る物体検出装置30は、レーダ装置Rおよびカメラ装置Cに接続される。レーダ装置Rは、所定の角度間隔で順次方向を変えながらレーダ信号を送信する送信部と、レーダ信号が対象物体に反射した反射信号を受信する受信部と、反射信号をベースバンドに変換し、レーダ信号の送信方向毎の遅延プロファイル(伝搬遅延特性)を取得する信号処理部と、を有する。カメラ装置Cは、被写体(対象物体)を撮像し、画像データを取得する。
物体検出装置30は、情報生成部31、補足領域算出部32、カメラ画像取得部33、エッジ算出部34、マーカー算出部35、コンポーネント領域算出部36、グループ化処理部37、および、物体確定部38を有する。物体検出装置30の各構成は、LSI回路などのハードウェアで実現可能である。あるいは、物体検出装置30の各構成は、車両を制御する電子制御ユニット(Electronic Control Unit:ECU)の一部としても実現可能である。
情報生成部31は、レーダ装置の信号処理部から出力された遅延プロファイルにより、レーダ信号の送信方向毎に、レーダ装置からの距離を所定の間隔で区切ったセル毎に、反射信号の受信電力の代表値(以下、「反射強度」と云う)を測定する。そして、情報生成部31は、各セルの反射強度を示す電力プロファイル情報を生成し、捕捉点算出部32へ出力する。なお、反射強度は、一般的に連続値であるが、処理を簡単にするために情報生成部31が量子化処理を行ってもよい。なお、情報生成部31が生成する電力プロファイル情報の詳細については、後述する。
捕捉領域算出部32は、まず、電力プロファイル情報から反射強度の極大点を算出する。捕捉領域算出部32によって算出される極大点は、対象物体を捕捉する捕捉点となる。具体的に、捕捉領域算出部32は、電力プロファイル情報を画像として取り扱い、公知の方法で極大点を算出する。次に、捕捉領域算出部32は、公知の画像処理の方法を用いて、捕捉点に対する捕捉領域を算出する。捕捉領域は、捕捉点を囲む局所領域であり、捕捉点の周囲の点のうち、所定の値以上の反射強度を有する点で構成される。なお、捕捉領域算出部32における捕捉領域の算出方法については後述する。
カメラ画像取得部33は、カメラ装置Cから画像データを受け取り、画質改善等の前処理を行い、エッジ算出部34に出力する。
エッジ算出部34は、公知のエッジ抽出手法を用いて、カメラ画像取得部33から出力された画像データから対象物体のエッジ(輪郭)を算出する。
マーカー算出部35は、捕捉領域算出部32が算出した捕捉領域からマーカーを算出する。マーカーは、捕捉領域に対応するカメラ画像の部分領域である。マーカー算出部35におけるマーカーの算出方法については後述する。
コンポーネント領域算出部36は、エッジ算出部34が算出したカメラ画像のエッジを用いて、マーカー算出部35が算出したマーカーを拡張してコンポーネント領域を算出する。コンポーネント領域算出部36におけるコンポーネント領域の算出方法については後述する。
グループ化処理部37は、コンポーネント領域算出部36が算出したコンポーネント領域のうち、同一の物体に属するコンポーネント領域をグルーピングする。グループ化処理部37は、グルーピングの結果、対象物体領域を取得する。グループ化処理部37におけるコンポーネント領域のグルーピングの方法については後述する。
物体確定部38は、グループ化処理部37におけるグループ化処理の結果である対象物体領域に基づいて、対象物体の位置、大きさ、形状、更に、物体の種別(例えば、大型車両、小型車両、二輪車、歩行者など)を判別する。物体確定部38における対象物体の判別方法については後述する。物体確定部38は、判別結果を外部のセキュリティシステムまたは表示部に出力する。
次に、情報生成部31が生成する電力プロファイル情報について説明する。図4は、本開示の実施の形態1における電力プロファイル情報の一例を示す図である。図4の横軸は、レーダ装置Rの方位角を示し、縦軸は、レーダ装置Rからの距離を示す。以降の説明では、レーダ装置Rの方位角とレーダ装置Rからの距離とにより規定される平面をレーダ測定平面と呼ぶ。
図4の例では、横軸の方位角を10°毎に区切り、縦軸の距離を10m毎に区切ってセルを構成している。なお、本実施の形態において、セルの角度範囲および距離範囲は、上記のものに限定されない。各範囲は、高い分解能を得られるという点で、より小さい方が好ましい。
また、図4において、電力プロファイル情報における各セルの濃淡は、反射強度を示し、色が濃い程反射強度が強いことを示している。なお、説明を簡単にするために、特定のセル以外のセルの色は同じ白色としている。
また、本実施の形態では、各セルの反射強度(代表値)は、そのセルの範囲における受信電力の最大値とする。ただし、本開示はこれに限られず、各セルの反射強度(代表値)を、そのセルの範囲における受信電力の平均値等、他の値を用いてもよい。
また、以下では、図4に示すような電力プロファイル情報の各セルを、適宜、1つの点として取り扱って説明を行う。
次に、捕捉領域算出部32における捕捉領域の算出方法について図4および図5を用いて説明する。
捕捉領域算出部32は、まず、図4に示す電力プロファイル情報から捕捉点を算出する。捕捉点は、電力プロファイル情報における反射強度の極大点である。反射強度の極大点の算出方法は、公知の方法を用いてよい。例えば、ある特定の点とその点に隣接する点の反射強度を比較し、当該特定の点の反射強度が、隣接する点の反射強度よりも一定値以上大きければ、当該特定の点を反射強度の極大点としてよい。
図4に示す電力プロファイル情報の場合、捕捉領域算出部32は、反射強度の極大点である捕捉点a1、a2、および、a3を算出する。
次に、捕捉領域算出部32は、電力プロファイル情報を画像として取り扱い、region growing画像処理手法などの公知の画像処理手法を用いて、捕捉点a1、a2、および、a3それぞれを取り囲む捕捉領域を算出する。region growing画像処理手法の詳細については、非特許文献1を参照されたい。
図5は、本開示の実施の形態1における捕捉領域の算出結果の一例を示す図である。図5の横方向は、レーダ装置Rの方位角に対応し、縦方向は、レーダ装置Rからの距離に対応する。図5に示す捕捉領域A1、A2、および、A3は、それぞれ、捕捉点a1、a2、および、a3を取り囲む局所領域である。また、捕捉領域A1、A2、および、A3は、レーダ測定平面上の局所領域である。通常、捕捉点よりも捕捉領域の方がノイズの影響を受けにくい。
次に、マーカー算出部35におけるマーカーの算出方法について説明する。マーカー算出部35は、レーダ測定平面上の局所領域である捕捉領域から、カメラ画像の平面上の部分領域であるマーカーを算出する。以降の説明では、カメラ画像の水平方向および垂直方向により規定される平面をカメラ画像平面と呼ぶ。なお、レーダ測定平面の座標とカメラ画像平面の座標は、一致しない。そのため、マーカー算出部35は、座標変換を行って、捕捉領域からマーカーを算出する。以下では、マーカー算出部35が対象物体T1に対応する捕捉領域Aから、マーカーを算出する場合を説明する。
具体的に、マーカー算出部35は、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換、および、カメラ三次元空間の座標からカメラ画像平面の座標への変換、の3つの座標変換を順に行う。
レーダ測定三次元空間は、レーダ装置Rがスキャンする空間であり、カメラ三次元空間は、カメラ装置Cが撮影を行う空間である。レーダ装置Rとカメラ装置Cの設置位置が異なれば、レーダ測定三次元空間とカメラ三次元空間は、一致しない場合もある。
ここで、レーダ測定平面における捕捉領域Aの方位角範囲をθ1〜θ2、距離範囲をd1〜d2とする。方位角範囲は、捕捉領域Aの最小方位角θ1および最大方位角θ2から決定され、距離範囲は、捕捉領域Aの最小距離d1および最大距離d2から決定される。
(レーダ測定平面の座標からレーダ測定三次元空間の座標への変換)
まず、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換について説明する。この変換は、捕捉領域Aの方位角範囲θ1〜θ2および距離範囲d1〜d2から、捕捉領域Aに対応するレーダ測定三次元空間の位置および大きさを算出する変換である。
図6は、レーダ測定三次元空間の座標系の一例を示す図である。図6に示す原点OおよびXr−Yr−Zrは、レーダ測定三次元空間の座標系を示している。レーダ装置Rは、Zr軸上に設置される。高さHrは、レーダ装置Rが設置される高さに対応する。また、図7に示すレーダ装置Rからの距離dは、レーダ測定平面における縦軸の距離dと対応する。地面距離Lは、Xr−Yr平面上の対象物体T1までの地面(路面)上の距離である。高さhは、対象物体T1の高さである。なお、対象物体T1の位置および形状は、模式的なものである。
レーダ装置Rは、Xr=0におけるYr−Zr平面を方位角θ=0°の方向とし、Zr軸を軸として、図6に示すレーダ測定三次元空間をスキャンする。このとき、レーダ測定平面における横軸の方位角θは、レーダ装置Rのスキャン面のレーダ測定三次元空間のXr−Yr平面上に対する投影位置に対応する。例えば、スキャン面の投影位置とYr軸となす角が、方位角θに対応する。図6は、方位角θが0°に対応する位置に対象物体T1が存在する場合を示している。
通常、レーダ装置Rは、方位角θおよび距離dに対応する反射強度を測定するが、一方で、レーダ装置Rは、図6のZr軸の方向、より詳細には図6における俯仰角φを精度よく検知しない。つまり、レーダ装置Rは、反射強度から対象物体T1の高さhを検知することができず、その結果、対象物体T1までの地面距離Lを検知困難である。
そこで、本実施の形態におけるマーカー算出部35は、対象物体T1の最大可能高さhpを予め設定しておく。最大可能高さhpは、対象物体T1の高さとして最大限可能な値である。例えば、対象物体T1が歩行者である場合には、最大可能高さhpを2mとする。なお、この段階において、対象物体T1が何であるかは確定されていないが、最大可能高さhpは、対象物体T1に対応する捕捉領域の大きさや反射強度等に基づいて設定される。
マーカー算出部35は、最大可能高さhpを用いて、レーダ測定平面上の距離dからレーダ測定三次元空間における対象物体T1までの地面距離Lの範囲を算出する。
図7は、距離d、最大可能高さhp、および、地面距離Lの関係を示す図である。図7は、対象物体T1で反射する信号が対象物体T1の地面付近(図7におけるZr=0)で反射する場合と、対象物体T1で反射する信号が対象物体T1の最大可能高さhp付近で反射する場合とを示す。
図7に示すように、地面距離Lは、1つの反射強度の距離dに対して、地面付近で反射する場合の地面距離L1と最大可能高さhp付近で反射する場合の地面距離L2の間の範囲になる。
マーカー算出部35は、捕捉領域Aの距離範囲d1〜d2について、距離d1に対する地面距離L1(L11)および距離d1に対する地面距離L2(L12)を算出し、距離d2に対する地面距離L1(L21)および距離d2に対する地面距離L2(L22)を算出する。そして、マーカー算出部35は、L11、L12、L21、および、L22の中の最小値Lminおよび最大値Lmaxを判定する。その結果、マーカー算出部35は、捕捉領域Aの距離範囲d1〜d2から、Yr軸方向の地面距離範囲Lmin〜Lmaxを算出する。
また、上記の通り、レーダ測定平面における横軸の方位角θは、レーダ装置Rのスキャン面のXr−Yr平面上における投影位置に対応するので、マーカー算出部35は、方位角範囲θ1〜θ2からXr−Yr平面上における対象物体T1の方位角範囲θ1〜θ2を算出する。
(レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換)
次に、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換について説明する。レーダ装置Rの設置位置およびカメラ装置Cの設置位置はそれぞれ既知であるため、レーダ測定三次元空間の座標からカメラ三次元空間の座標への変換は、標準の座標変換方式を用いて行われる。
この変換を行うことによって、レーダ装置Rの設置位置とカメラ装置Cの設置位置が異なる場合においても、レーダ測定平面上の局所領域である捕捉領域から、カメラ画像の平面上の部分領域であるマーカーを算出できる。
以下では、説明を簡単にするため、カメラ三次元空間は、Xr−Yr−Zrの座標系を有するレーダ測定三次元空間と同一であるとする。つまり、レーダ測定三次元空間における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxは、カメラ三次元空間においてそのまま用いて説明することとする。
(カメラ三次元空間の座標からカメラ画像平面の座標への変換)
次に、カメラ三次元空間の座標からカメラ画像平面の座標への変換について説明する。この変換は、カメラ三次元空間(以下の説明では、レーダ測定三次元空間と同一)における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上のそれぞれに対応する範囲を算出する変換である。この変換によって得られるカメラ画像平面上の範囲、つまり、部分領域が捕捉領域Aに対するマーカーである。
ここでは、まず、カメラ三次元空間におけるYr軸方向の地面距離範囲Lmin〜Lmaxから、対応するカメラ画像平面上の範囲を算出する方法について説明する。
図8は、カメラ三次元空間の座標からカメラ画像平面の座標への変換の説明に供する図である。図9は、カメラ画像平面の一例を示す図である。図9は、図8に示す空間において、カメラ装置Cが撮影する画像を模式的に示すものである。ここでは、説明のため、図9のカメラ画像平面を示しており、マーカー算出部35は、実際に撮影される画像、つまり、カメラ画像取得部33が取得した画像を用いている。
図8に示す原点O及びXr−Yr−Zrは、カメラ三次元空間の座標系を示している。カメラ装置Cは、Zr軸上に設置される。高さHcは、カメラ装置Cが設置される高さに対応する。以下では、カメラ装置Cの位置、より詳細にはカメラ装置Cが画像を撮影する中心点を点Cとし、点CがZr軸の高さHcの位置にあるとして説明する。
図8に示す角度∠PCQは、カメラ装置Cの垂直方向の画角範囲である。図8および図9に示す点Pおよび点Qは、それぞれ、カメラ装置Cの画角範囲の下限と上限に対応する。点Pおよび点Qは、カメラ装置Cの画角範囲から算出される。
また、図8におけるXr=0におけるYr−Zr平面は、図9におけるPQ線分に対応する。また、図8におけるXr=0は、カメラ装置Cの水平方向の画角範囲の中央に対応する。
図8に示す消失点Fは、図9に示すように、カメラ画像平面における路面pの無限遠点である。消失点Fは、公知の方法で算出される。
図8に示す地面距離範囲Lmin〜Lmaxは、レーダ測定平面の座標からレーダ測定三次元空間の座標への変換において得られた地面距離範囲である。以下では、地面距離範囲Lmin〜Lmaxは、Yr軸上の点K〜点Jの範囲として説明する。
図8および図9に示すように、点Jおよび点Kに対応するカメラ画像平面上の点を、それぞれ点Vおよび点Uとする。Yr軸方向の地面距離範囲Lmin〜Lmaxから対応するカメラ画像平面上の範囲の算出は、すなわち、カメラ画像平面上における点Uおよび点Vの位置を算出することである。
まず、カメラ画像平面上における点Uの位置を算出する方法を説明する。
消失点F、点P、および、点Qについて、∠PCF:∠PCQ=PF:PQの関係が成り立つ。∠PCFおよび∠PCQは、図8に示すカメラ画像三次元空間における角度であり、PFおよびPQは、図9に示すカメラ画像平面における長さである。ここで、∠PCQはカメラ装置Cの垂直方向の画角範囲であり、PQはカメラ画像の縦幅なので、いずれもカメラ装置Cの仕様によって定まる既知の値である。また、消失点Fは公知の方法で算出されるので、PFも既知である。∠PCFは、上記の関係から算出される。
次に、図8に示すように、OCの長さである高さHc、および、OKの長さである地面距離Lminから三角関数等を用いて、∠OKCを算出する。図8の点Cと点Fを結ぶ直線がYr軸に平行なので、算出した∠OKCは、∠UCFと同一である。
次に、算出した∠PCFおよび∠UCFについて、∠UCF:∠PCF=UF:PFという関係が成り立つ。PFおよびUFは、図9に示すカメラ画像平面における長さである。UFの長さは、この関係から算出される。
算出したUFから図9に示すカメラ画像平面における点Uの位置が算出される。図9に示すカメラ画像平面における点Vについても、点Uと同様の手順で算出される。
上記の通り、マーカー算出部35は、Yr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上における点Uおよび点Vの位置を算出する。
次に、カメラ三次元空間における方位角範囲θ1〜θ2から、対応するカメラ画像平面上の範囲を算出する方法について説明する。
カメラ三次元空間における方位角は、図9に示すカメラ画像平面における水平方向のPQからの距離に対応する。また、カメラ装置Cの水平方向の画角範囲は、仕様で定められる既知の範囲であり、カメラ画像平面の水平方向の左端および右端に対応する。マーカー算出部35は、方位角範囲θ1〜θ2およびカメラ装置Cの水平方向の画角範囲に基づいて、対応するカメラ画像平面上における範囲、つまり、水平方向のPQからの距離を算出する。
図9に示す垂直方向の線θ1およびθ2は、方位角範囲のθ1およびθ2に対応する。
上記で説明したように、マーカー算出部35は、カメラ三次元空間における方位角範囲θ1〜θ2およびYr軸方向の地面距離範囲Lmin〜Lmaxから、カメラ画像平面上のそれぞれに対応する範囲を算出する。そして、マーカー算出部35は、算出した範囲を囲む矩形枠をマーカーとする。図9のマーカーBは、捕捉領域Aに対応するマーカーである。マーカーBは、算出した点Uおよび点Vを通る水平方向の直線と線θ1および線θ2によって囲まれる矩形である。
図10は、図5に示す捕捉領域に対応するマーカーの算出結果の一例を示す図である。図10は、図5に示す捕捉領域A1、A2、および、A3にそれぞれ対応する、カメラ画像平面上におけるマーカーB1、B2、および、B3を示す。また、図10では、マーカーB1、B2、および、B3は、エッジ算出部34によって算出されたカメラ画像のエッジと重畳されている。図10に示すように、レーダ測定平面上の各捕捉領域から、カメラ画像平面上のマーカーが矩形として算出される。
なお、上記で説明した各座標変換によるマーカーの算出方法は一例であり、本開示はこれに限定されない。マーカー算出部35は、実空間におけるレーダ装置Rが測定可能な方位角の範囲、および、距離の範囲、ならびに、カメラ装置Cが撮影可能な範囲に基づいて、捕捉領域を変換し、マーカーを算出することができる。なお、実空間におけるレーダ装置Rが測定可能な方位角の範囲、および、距離の範囲は、レーダ装置Rの設置位置、および、レーダ装置Rの仕様で予め決定される。また、カメラ装置Cが撮影可能な範囲は、カメラ装置Cの設置位置、および、カメラ装置Cの仕様で予め決定される。
また、上記で説明したマーカーは、矩形であるとしたが、本開示はこれに限定されない。マーカーは、矩形ではない形状であってもよい。
次に、コンポーネント領域算出部36におけるコンポーネント領域の算出方法について説明する。
まず、コンポーネント領域算出部36は、マーカーとエッジを重畳し、1つのマーカーがエッジに重なる場合に、マーカーを分割する。図10の場合、マーカーB2がエッジに重なっているので、コンポーネント領域算出部35は、マーカーB2を分割する。
図11は、コンポーネント領域算出部36がマーカーを分割する場合の一例を示す図である。図11に示すように、図10において、エッジに重なっていたマーカーB2は、マーカーB21およびマーカーB22に分割される。
次に、コンポーネント領域算出部36は、各マーカーを領域拡張のシードとし、エッジを領域拡張の境界として、ウォーターシェッド(Watershed)アルゴリズムなどの公知の画像処理手法を利用して領域拡張を行い、コンポーネント領域を算出する。コンポーネント領域とは、物体を構成する一部分に対応するカメラ画像平面上の部分領域である。
図12は、コンポーネント算出部36による領域拡張の結果の一例を示す図である。領域拡張の結果、マーカーB1とマーカーB22からコンポーネント領域C1が算出され、マーカーB21からコンポーネント領域C2が算出され、マーカーB3からコンポーネント領域C3が算出される。
次に、グループ化処理部37におけるコンポーネント領域のグルーピングの方法について説明する。
グループ化処理部37は、コンポーネント領域算出部36が算出したコンポーネント領域のうち、同一の物体に属するコンポーネント領域をグルーピングする。コンポーネント領域が同一の物体に属するか否かは、カメラ画像から得られる情報およびレーダ測定から得られる情報の一方または両方によって判定される。
カメラ画像から得られる情報としては、例えば、カメラ画像における各コンポーネント領域のテクスチャである。グループ化処理部37は、隣り合うコンポーネント領域のテクスチャを比較し、テクスチャが類似する場合に、隣り合うコンポーネント領域をグルーピングする。テクスチャが類似するか否かは、所定の閾値などによって判定されてもよい。
レーダ測定から得られる情報としては、例えば、ドップラー情報がある。ドップラー情報は、レーダ測定平面における各点の速度の情報である。ここで、ドップラー情報はレーダ測定平面における情報であり、コンポーネント領域はカメラ画像平面上の領域である。そのため、コンポーネント領域が同一の物体に属するか否かをドップラー情報によって判定する場合、コンポーネント領域をレーダ測定平面上の領域に座標変換を行う必要がある。
コンポーネント領域をレーダ測定平面上の領域に座標変換する方法は、上記で説明した捕捉領域からマーカーを算出する方法の逆の手順で行えばよい。
図13は、コンポーネント領域をレーダ測定平面上の領域に座標変換した結果の一例を示す図である。図13の横方向は、レーダ装置Rの方位角に対応し、縦方向は、レーダ装置Rからの距離に対応し、各点(各セル)にはドップラー情報が含まれる。図13の領域D1、D2、および、D3は、それぞれ、図12に示すコンポーネント領域C1、C2、および、C3に対応する。
グループ化処理部37は、領域D1、D2、および、D3に含まれるドップラー情報を比較し、ドップラー情報が類似する場合に、カメラ画像平面上で隣り合うコンポーネント領域をグルーピングする。ドップラー情報が類似するか否かは、所定の閾値などによって判定されてもよい。
図14は、グループ化処理部37によるグルーピングの結果の一例を示す図である。図14に示すように、図12のコンポーネント領域C1およびC2がグルーピングされて、対象物体領域E1となり、図12のコンポーネント領域C3が他とグルーピングされずに、対象物体領域E2となる。
図14に示す例では、グループ化処理部37は、グルーピングの結果、2つの対象物体領域E1およびE2を取得する。
次に、物体確定部38における対象物体の判別方法について説明する。
物体確定部38は、グループ化処理部37のグルーピングの結果である対象物体領域に基づいて、対象物体の位置、大きさ、形状、更に、物体の種別を判別する。本開示の実施の形態1では、物体確定部38における具体的な判別方法を限定しない。例えば、物体確定部38は、物体の種別に対応する対象物体領域のサイズおよび形状のテンプレートモデルを予め保持し、テンプレートモデルとグループ化処理部37のグルーピングの結果である対象物体領域を比較することによって、判別を行ってもよい。あるいは、物体確定部38は、物体の種別に対応する反射強度の分布のテンプレートモデルと比較することによって、判別を行ってもよい。
例えば、図14に示す対象物体領域E1およびE2に対してテンプレートモデルを用いて判別する場合を説明する。物体確定部38は、対象物体領域E1と保持する複数のテンプレートモデルを比較し、対象物体領域E1が車両のテンプレートモデルと一致すると判定する。また、物体確定部38は、対象物体領域E2と保持する複数のテンプレートモデルを比較し、対象物体領域E2が歩行者のテンプレートモデルと一致すると判定する。
上記で説明した本実施の形態によれば、レーダ測定平面上における捕捉領域をカメラ画像平面上におけるマーカーに変換し、マーカーをカメラ画像に重畳することによって、対象物体の検出精度を向上させることができる。つまり、レーダの測定情報とカメラの測定情報とを効果的に重畳することによって、対象物体の検出精度を向上させることができる。
(実施の形態2)
図15は、本開示の実施の形態2に係る物体検出装置150の主要構成を示すブロック図である。図15において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図15に示す物体検出装置150は、図3に示す物体検出装置30の情報生成部31および捕捉領域算出部32がそれぞれ情報生成部151および捕捉領域算出部152に置き換わる構成を有する。
情報生成部151は、実施の形態1の情報生成部31と同様に、電力プロファイル情報を生成する。更に、情報生成部151は、レーダ装置Rから受け取る遅延プロファイルから、各セルのドップラー速度を示すドップラープロファイル情報を生成する。ドップラープロファイル情報は、横軸が方位角、縦軸が距離を示す。
捕捉領域算出部152は、電力プロファイル情報およびドップラープロファイル情報に基づいて、捕捉領域を算出する。
具体的には、捕捉領域算出部152は、実施の形態1で説明した方法によって、電力プロファイル情報から捕捉領域を算出する。そして、捕捉領域算出部152は、捕捉領域に含まれる各点(各セル)のドップラー速度を比較し、ドップラー速度が一致するか否かを判定する。捕捉領域算出部152は、ドップラープロファイルの値が一致しない点(セル)を捕捉領域から除外する。
捕捉領域算出部152は、算出した捕捉領域をマーカー算出部35へ出力する。マーカー算出部35以降では、実施の形態1で説明した処理と同様の処理を実行する。
上記で説明した本実施の形態によれば、ドップラー速度を用いて捕捉領域から一部の点(セル)を除外することによって、異なる物体から反射される反射強度が1つの捕捉領域に含まれてしまうことを避けることをできる。
なお、本実施の形態では、捕捉領域算出部152は、電力プロファイル情報およびドップラープロファイル情報に基づいて捕捉領域を算出するとしたが、ドップラープロファイル情報に基づいて捕捉領域を算出してもよい。
(実施の形態3)
図16は、本開示の実施の形態3に係る物体検出装置160の主要構成を示すブロック図である。図16において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図16に示す物体検出装置160は、図3に示す物体検出装置30のグループ化処理部37と物体確定部38の間に規範枠確定部161が挿入される構成を有する。
規範枠確定部161は、グループ化処理部37におけるグルーピングの結果である対象物体領域をカバーする規範枠を求める。規範枠は、対象物体の形状を反映した枠であり、例えば、矩形の枠である。
規範枠確定部161は、求めた規範枠で対象物体領域を囲い、グループ化処理部37においてグルーピングが困難であった対象物体領域のグルーピングを補間する。
上記で説明した本実施の形態によれば、規範枠を用いてグルーピングの補間を行うことによって、対象物体領域の形状をより物体の形状に近づけることができ、物体確定部38における物体の確定の精度を向上させることができる。
(実施の形態4)
図17は、本開示の実施の形態4に係る物体検出装置170の主要構成を示すブロック図である。図17において、図3と共通する構成には、図3と同一の符号を付しその詳しい説明を省略する。図17に示す物体検出装置170は、図3に示す物体検出装置30のグループ化処理部37と物体確定部38の間に領域追跡部171が挿入される構成を有する。
領域追跡部171は、異なる時刻間で、グループ化処理部37のグルーピングの結果である対象物体領域の位置および形状を追跡する。
具体的に、領域追跡部171は、ある検出タイミングt1における対象物体領域を保持する。領域追跡部171は、次の検出タイミングt2における対象物体領域をグループ化処理部37から受け取り、検出タイミングt1における対象物体領域と検出タイミングt2における対象物体領域をリンクさせる。そして、領域追跡部171は、リンクさせた対象物体領域の形状の変化や位置の変化を追跡し、対象物体領域の動きを検出する。
領域追跡部171は、対象物体領域の動きに関する情報を物体確定部38へ出力する。物体確定部38は、対象物体領域から対象物体を判別する際に、対象物体領域の動きに関する情報を参照してもよい。また、物体確定部38は、対象物体を判別した後、対象物体の情報と共に当該対象物体の動きに関する情報を外部の表示部又はセキュリティシステム等に出力してもよい。
上記で説明した本実施の形態によれば、異なる検出タイミングにおける対象物体領域の位置および形状を追跡し、対象物体領域の動きを検出することによって、物体の判別の精度を向上させることができ、さらに、物体の動きに関する情報を得ることができる。
なお、上記で説明した各実施の形態は、適宜組み合わせてもよい。例えば、実施の形態4に係る物体検出装置171において、グループ化処理部37と領域追跡部171の間に実施の形態3にて説明した規範枠確定部161が挿入されてもよい。このような構成の場合、対象物体領域の形状をより物体の形状に近づけることができ、領域追跡部171による対象物体の動きの検出精度を向上させることができる。
なお、上記各実施の形態では、本開示をハードウェアで構成する場合を例にとって説明したが、本開示はソフトウェアで実現することも可能である。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュアラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
本開示に係る物体検出装置、および、物体検出方法は、車載用レーダ装置およびカメラ装置、ならびに、道路インフラシステム用レーダ装置およびカメラ装置、ならびに、施設監視システム用レーダ装置およびカメラ装置に用いるのに好適である。車載用レーダ装置およびカメラ装置に用いる場合、自車両周辺にいる歩行者、二輪車、他車両を検出し、自車両の運転手に警報したりまたは運転システムを制御したりし、衝突の危険を回避することを実現できる。また、インフラシステム用レーダ装置およびカメラ装置に用いる場合、道路および交差点にいる歩行者、二輪車、車両などを検出し、交通状況を監視すると共に、インフラシステムを制御したり車両運転者に情報伝達したりし、交通量の管理と交通事故の回避を行うことを実現できる。特定施設の監視システム用レーダ装置およびカメラ装置に用いる場合、空中からの飛行体や鳥、または地上からの各種車両や侵入者を検出し、セキュリティシステムに情報を伝達し、不審者の侵入を防止することができる。
30、150、160、170 物体検出装置
31、151 情報生成部
32、152 捕捉領域算出部
33 カメラ画像取得部
34 エッジ算出部
35 マーカー算出部
36 コンポーネント領域算出部
37 グループ化処理部
38 物体確定部
161 規範枠確定部
171 領域追跡部

Claims (10)

  1. レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成する情報生成部と、
    前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出する捕捉領域算出部と、
    カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出するエッジ抽出部と、
    前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出するマーカー算出部と、
    前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出するコンポーネント領域算出部と、
    前記コンポーネント領域を対象物体領域としてグループ化するグループ化処理部と、
    前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する物体確定部と、
    を具備する物体検出装置。
  2. 前記マーカー算出部は、前記1つ以上の物体の高さとして最大限可能な値を示す高さ情報を予め有し、前記高さ情報を前記1つ以上の物体の高さとして用いて前記捕捉領域を変換し、前記マーカー領域を算出する、
    請求項1に記載の物体検出装置。
  3. 前記コンポーネント領域算出部は、前記マーカーを前記エッジと重畳し、前記マーカーを分割する、
    請求項1または請求項2に記載の物体検出装置。
  4. 前記情報生成部は、前記受信信号から前記レーダ装置が求めた遅延プロファイルに基づいて前記セル毎にドップラー速度を算出し、前記各セルの前記ドップラー速度を示すドップラープロファイル情報を生成し、
    前記捕捉領域算出部は、前記捕捉領域に含まれる前記1つ以上のセルの前記ドップラー速度を比較し、前記ドップラープロファイルの値が一致しないセルを前記捕捉領域から除外する、
    請求項1から請求項3のいずれか一項に記載の物体検出装置。
  5. 前記対象物体領域を含む規範枠を設け、前記規範枠を用いて前記対象物体領域のグループ化の補間を行う規範枠確定部を更に具備する、
    請求項1から請求項4のいずれか一項に記載の物体検出装置。
  6. 時間経過に伴う前記対象物体領域の形状の変化を追跡し、前記対象物体領域の動きに関する情報を検出する領域追跡部を更に具備する、
    請求項1から請求項5のいずれか一項に記載の物体検出装置。
  7. 請求項1から請求項6のいずれか一項に記載の物体検出装置と、
    前記物体検出装置に接続されるレーダ装置と、
    を有する車載レーダ装置。
  8. 請求項1から請求項6のいずれか一項に記載の物体検出装置と、
    前記物体検出装置に接続されるレーダ装置と、
    と有する道路インフラシステム用レーダ装置。
  9. 請求項1から請求項6のいずれか一項に記載の物体検出装置と、
    前記物体検出装置に接続されるレーダ装置と、
    と有する監視システム用レーダ装置。
  10. レーダ装置が送信したレーダ信号の各送信方向について前記レーダ装置からの距離を所定の間隔毎に区切った複数のセルに対して、前記レーダ信号が1つ以上の物体によって反射された反射信号を前記レーダ装置が受信した受信信号の電力の代表値である反射強度をそれぞれ算出し、前記反射強度を用いて、前記複数のセルに対して電力プロファイル情報をそれぞれ生成し、
    前記複数のセルの前記電力プロファイル情報の中から前記反射強度の極大値を示すセルを、前記1つ以上の物体を捕捉する捕捉点として算出し、前記捕捉点を囲む1つ以上のセルである捕捉領域を算出し、
    カメラ装置が取得した画像に含まれる前記1つ以上の物体のエッジを抽出し、
    前記レーダ装置の測定範囲および前記カメラ装置の撮影範囲に基づいて、前記捕捉領域を前記画像における部分領域に変換し、前記部分領域を、前記捕捉領域に対応する前記画像の領域であるマーカーとして算出し、
    前記エッジを境界として前記マーカーを拡張することによって、前記1つ以上の物体を構成する一部分に対応するコンポーネント領域を算出し、
    前記コンポーネント領域を対象物体領域としてグループ化し、
    前記対象物体領域から前記1つ以上の物体を判定し、前記判定結果を出力する、
    物体検出方法。
JP2015193173A 2015-02-16 2015-09-30 物体検出装置および物体検出方法 Active JP6593588B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610008658.6A CN105893931A (zh) 2015-02-16 2016-01-07 物体检测装置和物体检测方法
US15/006,239 US10061023B2 (en) 2015-02-16 2016-01-26 Object detection apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015027514 2015-02-16
JP2015027514 2015-02-16

Publications (3)

Publication Number Publication Date
JP2016153775A true JP2016153775A (ja) 2016-08-25
JP2016153775A5 JP2016153775A5 (ja) 2018-09-20
JP6593588B2 JP6593588B2 (ja) 2019-10-23

Family

ID=56761164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015193173A Active JP6593588B2 (ja) 2015-02-16 2015-09-30 物体検出装置および物体検出方法

Country Status (2)

Country Link
JP (1) JP6593588B2 (ja)
CN (1) CN105893931A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097766A (ja) * 2016-12-16 2018-06-21 クラリオン株式会社 画像処理装置、外界認識装置
KR101881458B1 (ko) * 2017-03-09 2018-07-25 건아정보기술 주식회사 동적객체에 대한 인식영역 추출시스템
JP2018163096A (ja) * 2017-03-27 2018-10-18 沖電気工業株式会社 情報処理方法および情報処理装置
KR101972361B1 (ko) * 2018-08-10 2019-04-25 (주)이젠정보통신 교통신호 가변 제어 시스템
WO2019187093A1 (ja) 2018-03-30 2019-10-03 三菱電機株式会社 物体同定装置
JP2020038638A (ja) * 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド インテリジェント路側ユニット。
CN110929475A (zh) * 2018-08-29 2020-03-27 德尔福技术有限公司 对象的雷达简档的注释
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
CN113888871A (zh) * 2021-10-20 2022-01-04 上海电科智能系统股份有限公司 高速公路交通事件自动化处置联动系统及方法
JP2022017330A (ja) * 2016-12-05 2022-01-25 トラックマン・アクティーゼルスカブ レーダデータ及び撮像装置データを使用して物体を追跡するための装置、システム、及び方法
EP4099302A1 (en) * 2021-06-02 2022-12-07 Arlo Technologies, Inc. Multisensor security system with aircraft monitoring
JP7452333B2 (ja) 2020-08-31 2024-03-19 株式会社デンソー Lidarの補正パラメータの生成方法、lidarの評価方法、およびlidarの補正装置
CN110929475B (zh) * 2018-08-29 2024-04-26 德尔福技术有限公司 对象的雷达简档的注释

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101752858B1 (ko) * 2016-12-09 2017-07-19 메타빌드주식회사 레이더 기반 고 정밀 돌발상황 검지 시스템
CN106908783B (zh) * 2017-02-23 2019-10-01 苏州大学 基于多传感器信息融合的障碍物检测方法
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
EP3623844A4 (en) * 2017-06-02 2020-05-20 Huawei Technologies Co., Ltd. METHOD AND DEVICE FOR DETECTING OBSTACLES
JP7103759B2 (ja) * 2017-06-16 2022-07-20 株式会社デンソーウェーブ 車両認識装置、車両認識システム、車両認識プログラム
CN112119330A (zh) * 2018-05-14 2020-12-22 三菱电机株式会社 物体检测装置及物体检测方法
CN110660186B (zh) * 2018-06-29 2022-03-01 杭州海康威视数字技术股份有限公司 基于雷达信号在视频图像中识别目标对象的方法及装置
CN109118537B (zh) * 2018-08-21 2021-11-02 加特兰微电子科技(上海)有限公司 一种画面匹配方法、装置、设备和存储介质
JP7020353B2 (ja) * 2018-09-21 2022-02-16 トヨタ自動車株式会社 物体検出装置
US11258987B2 (en) * 2018-09-21 2022-02-22 Microsoft Technology Licensing, Llc Anti-collision and motion control systems and methods
JP7151449B2 (ja) * 2018-12-14 2022-10-12 トヨタ自動車株式会社 情報処理システム、プログラム、及び情報処理方法
US10748032B1 (en) * 2019-01-31 2020-08-18 StradVision, Inc. Method for providing robust object distance estimation based on camera by performing pitch calibration of camera more precisely with fusion of information acquired through camera and information acquired through V2V communication and device using the same
JP7174252B2 (ja) * 2019-04-25 2022-11-17 日本電信電話株式会社 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
CN113811788A (zh) * 2019-05-14 2021-12-17 三菱电机株式会社 车载用物体检测系统
JP7259685B2 (ja) 2019-09-30 2023-04-18 トヨタ自動車株式会社 自動運転車両用の運転制御装置、停車用物標、運転制御システム
CN113740355B (zh) * 2020-05-29 2023-06-20 清华大学 一种射线检测机器人的边界防护方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590521B1 (en) * 1999-11-04 2003-07-08 Honda Giken Gokyo Kabushiki Kaisha Object recognition system
JP2005090974A (ja) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP2010156567A (ja) * 2008-12-26 2010-07-15 Toyota Motor Corp 物体検出装置および物体検出方法
JP2011099683A (ja) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd 物体検出装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899211B2 (en) * 2005-12-07 2011-03-01 Nissan Motor Co., Ltd. Object detecting system and object detecting method
JP2007255977A (ja) * 2006-03-22 2007-10-04 Nissan Motor Co Ltd 物体検出方法および物体検出装置
US7541943B2 (en) * 2006-05-05 2009-06-02 Eis Electronic Integrated Systems Inc. Traffic sensor incorporating a video camera and method of operating same
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
FR2947657B1 (fr) * 2009-07-06 2016-05-27 Valeo Vision Procede de detection d'un obstacle pour vehicule automobile
CN101975951B (zh) * 2010-06-09 2013-03-20 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
JP5673568B2 (ja) * 2012-01-16 2015-02-18 トヨタ自動車株式会社 物体検出装置
JP5812064B2 (ja) * 2012-11-22 2015-11-11 株式会社デンソー 物標検出装置
JP2014228943A (ja) * 2013-05-20 2014-12-08 日本電産エレシス株式会社 車両用外界センシング装置、その軸ズレ補正プログラム及びその軸ズレ補正方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6590521B1 (en) * 1999-11-04 2003-07-08 Honda Giken Gokyo Kabushiki Kaisha Object recognition system
JP2005090974A (ja) * 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP2010156567A (ja) * 2008-12-26 2010-07-15 Toyota Motor Corp 物体検出装置および物体検出方法
JP2011099683A (ja) * 2009-11-04 2011-05-19 Hitachi Automotive Systems Ltd 物体検出装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022017330A (ja) * 2016-12-05 2022-01-25 トラックマン・アクティーゼルスカブ レーダデータ及び撮像装置データを使用して物体を追跡するための装置、システム、及び方法
US11828867B2 (en) 2016-12-05 2023-11-28 Trackman A/S Device, system, and method for tracking an object using radar data and imager data
JP7254142B2 (ja) 2016-12-05 2023-04-07 トラックマン・アクティーゼルスカブ レーダデータ及び撮像装置データを使用して物体を追跡するための装置、システム、及び方法
WO2018110605A1 (ja) * 2016-12-16 2018-06-21 クラリオン株式会社 画像処理装置、外界認識装置
JP2018097766A (ja) * 2016-12-16 2018-06-21 クラリオン株式会社 画像処理装置、外界認識装置
US11461595B2 (en) 2016-12-16 2022-10-04 Clarion Co., Ltd. Image processing apparatus and external environment recognition apparatus
KR101881458B1 (ko) * 2017-03-09 2018-07-25 건아정보기술 주식회사 동적객체에 대한 인식영역 추출시스템
JP2018163096A (ja) * 2017-03-27 2018-10-18 沖電気工業株式会社 情報処理方法および情報処理装置
JP7062878B2 (ja) 2017-03-27 2022-05-09 沖電気工業株式会社 情報処理方法および情報処理装置
WO2019187093A1 (ja) 2018-03-30 2019-10-03 三菱電機株式会社 物体同定装置
KR101972361B1 (ko) * 2018-08-10 2019-04-25 (주)이젠정보통신 교통신호 가변 제어 시스템
CN110929475A (zh) * 2018-08-29 2020-03-27 德尔福技术有限公司 对象的雷达简档的注释
CN110929475B (zh) * 2018-08-29 2024-04-26 德尔福技术有限公司 对象的雷达简档的注释
US11099272B2 (en) 2018-08-31 2021-08-24 Beijing Online Network Technology (Beijing) Co., Ltd. Intelligent roadside unit
JP2020038638A (ja) * 2018-08-31 2020-03-12 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド インテリジェント路側ユニット。
JP2021135061A (ja) * 2020-02-21 2021-09-13 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
JP7461160B2 (ja) 2020-02-21 2024-04-03 Jrcモビリティ株式会社 3次元情報推定システム、3次元情報推定方法、及びコンピュータが実行可能なプログラム
JP7452333B2 (ja) 2020-08-31 2024-03-19 株式会社デンソー Lidarの補正パラメータの生成方法、lidarの評価方法、およびlidarの補正装置
EP4099302A1 (en) * 2021-06-02 2022-12-07 Arlo Technologies, Inc. Multisensor security system with aircraft monitoring
CN113888871A (zh) * 2021-10-20 2022-01-04 上海电科智能系统股份有限公司 高速公路交通事件自动化处置联动系统及方法

Also Published As

Publication number Publication date
JP6593588B2 (ja) 2019-10-23
CN105893931A (zh) 2016-08-24

Similar Documents

Publication Publication Date Title
JP6593588B2 (ja) 物体検出装置および物体検出方法
US10061023B2 (en) Object detection apparatus and method
CN106019281B (zh) 物体检测装置以及物体检测方法
CN105785370B (zh) 物体检测装置和物体检测方法
US8180561B2 (en) Vehicle-installation obstacle detection apparatus
JP6650344B2 (ja) 物体検出装置及び物体検出方法
US9759812B2 (en) System and methods for intersection positioning
JP6659367B2 (ja) 物体検出装置および物体検出方法
EP2282295B1 (en) Object recognizing device and object recognizing method
US11315420B2 (en) Moving object and driving support system for moving object
JP2006184276A (ja) 視覚検知による全天候障害物衝突防止装置とその方法
JP6313081B2 (ja) 車載用画像処理装置およびそれを用いた車両システム
JP6547785B2 (ja) 物標検出装置
US11029150B2 (en) Object distance detection device
CN109606258A (zh) 一种露天矿用自卸车防撞系统
WO2022231879A1 (en) Data driven resolution function derivation
JP2019083027A (ja) 交通路の検出範囲を決定するための方法および装置
KR102163774B1 (ko) 영상 인식 장치 및 그 방법
JP2008165610A (ja) 道路区画線認識装置
JP6891082B2 (ja) 物体距離検出装置
JP3586938B2 (ja) 車載用距離測定装置
WO2018021444A1 (ja) 物標検出装置
KR101891920B1 (ko) 보행자 인식 시스템, 자동 순항 제어장치 및 그 방법
JP2023511454A (ja) 車両走行路内のデブリの検出
US11380106B2 (en) System, apparatus, and method for vehicle control and image sensor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180802

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180802

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190910

R150 Certificate of patent or registration of utility model

Ref document number: 6593588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150