JP6834020B2 - 物体認識装置および物体認識方法 - Google Patents

物体認識装置および物体認識方法 Download PDF

Info

Publication number
JP6834020B2
JP6834020B2 JP2019551853A JP2019551853A JP6834020B2 JP 6834020 B2 JP6834020 B2 JP 6834020B2 JP 2019551853 A JP2019551853 A JP 2019551853A JP 2019551853 A JP2019551853 A JP 2019551853A JP 6834020 B2 JP6834020 B2 JP 6834020B2
Authority
JP
Japan
Prior art keywords
detection
processing unit
region
object detection
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019551853A
Other languages
English (en)
Other versions
JPWO2019092874A1 (ja
Inventor
智広 秋山
智広 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019092874A1 publication Critical patent/JPWO2019092874A1/ja
Application granted granted Critical
Publication of JP6834020B2 publication Critical patent/JP6834020B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Description

この発明は、物体認識装置、および物体認識方法に関するものである。
従来、自車両の周囲の状況を認識するため、例えば、画像処理部(例えばカメラ)と、レーダ計測部(例えばミリ波レーダ)という検出特性の異なる2つの物体検出部を車両に搭載している。画像処理部では、自車両の前方を走行する他の車両との車間距離、方向、相対速度、車両幅、車線内位置を検出する。また、レーダ計測部では、自車両の前方を走行する他の車両の車間距離、方向、相対速度を検出する。この画像処理部とレーダ計測部の検出結果がネットワークを介して統合処理部に送出され、統合処理部では、レーダ計測部と画像処理部との検出結果が、同一の車両に対するものであるか否かを判別する。同一の車両のものであると判別した場合、その検出結果はセンサ情報として車内ネットワークを介して車両制御装置に伝送される。
車両制御装置には、自車両が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステム、前方の車両に追従するアダプティブクルーズコントロールシステム、及び自動で駐車スペースに駐車する自動駐車システムなど車両の安全性や快適性を向上するための車両用アプリケーションが搭載されており、上述したセンサ情報はこれら車両用アプリケーションに使用される。
上述した画像処理部やレーダ計測部など、自車両周辺物体のセンシング性能を向上する技術として、検出精度が異なる複数のセンサの検出値を使用して目標の位置を高精度に推定することができる技術が開示されている(例えば特許文献1参照)。
特許第4371115号公報
上述した、画像処理部、レーダ計測部、及び統合処理部からなる従来の物体認識装置では、画像処理部が他の物体に遮蔽され目的とする物体を検出できない領域(オクルージョン領域)においてレーダ計測部が検出した物体と、画像処理部がオクルージョン領域以外で検出した別物体とを誤認識してしまう場合がある。このような場合、実際には同一物体ではないにもかかわらず、同一物体であると判定してしまう恐れがある。
このように本来は同一の物体を他の物体と認識すると、以下のような問題が生じる。
(1)その物体を追跡して制御を行っている場合に、追跡しているその物体を見失うことで、制御の遅れが発生する恐れがある。
(2)その物体を追跡して制御を行っている場合に、追跡しているその物体を見失うことで本来行われるべき制御が行われない。逆に本来行われるべきでない制御が行われる事態が発生する恐れがある。
(3)画像処理部とレーダ計測部との検出領域が相互に重なり合う領域で、レーダ計測部のみからしか出力が得られていないことから、誤検出と認定してしまい、本来存在する物体を見逃してしまうという恐れがある。
そこで本発明は、オクルージョン領域を発生する画像処理部などの物体検出手段のオクルージョン領域を、精度良く決定するとともに、物体検出手段の2つ以上の出力の相関を算出し、物体認識結果を出力することで、従来の車両の物体認識装置と比べて物体の誤認識の発生を減少させることができる物体認識装置を提供することを目的する。
この発明に係る物体認識装置においては、車両に搭載され、車両の周辺物体を検出するとともに、検出した周辺物体に応じたオクルージョン領域を発生する第1の物体検出手段、発生した前記オクルージョン領域を決定するためのオクルージョン領域検出処理部、第1の物体検出手段の第1の物体検出結果と相関をとるための第2の物体検出結果を生成する物体検出生成手段、オクルージョン領域検出処理部で決定したオクルージョン領域を除いた領域で第1の物体検出結果と第2の物体検出結果との相関をとるための相関処理部、相関処理部で第1の物体検出結果と第2の物体検出結果とが同一の物体の検出結果であると判断された場合、第1の物体検出結果と第2の物体検出結果とから、周辺物体の認識結果を算出し、更新する更新処理部を備え、更新処理部の前記認識結果に基づいて車両を制御することを特徴とする。
本発明に係る物体認識装置によれば、物体の誤認識の発生を減少させることができる。
本発明の実施の形態1による物体認識装置のブロック構成図である。 本発明の実施の形態1による物体認識装置の物体認識処理部のハードウエア構成図である。 本発明の実施の形態1による物体認識装置の動作を示すフローチャートである。 本発明の実施の形態1による物体認識装置の第2の物体検出部の検出領域を示す説明図である。 本発明の実施の形態1による物体認識装置の第2の物体検出部のオクルージョン領域を説明する説明図である。 本発明の実施の形態1による物体認識装置の第1の物体検出部の検出領域を示す説明図である。 本発明の実施の形態1による物体認識装置の第1の物体検出部の物体検出可能領域を示す説明図である。 本発明の実施の形態1による物体認識装置の第2の物体検出部の物体検出可能領域を示す説明図である。 本発明の実施の形態1による物体認識装置の相関処理部の相関可能領域を説明する説明図である。 本発明の実施の形態2による物体認識装置のブロック構成図である。 本発明の実施の形態2による物体認識装置の動作を示すフローチャートである。 本発明の実施の形態2による物体認識装置のオクルージョン領域、及び相関可能領域を説明する説明図である。
実施の形態1
図1は、この発明の実施の形態1に係る物体認識装置を車両制御部1300とともに示すブロック構成図である。なお、図1中の矢印は、信号の流れを示すものとする。
物体認識装置は、第1の物体検出部1101、第2の物体検出部1102、及び物体認識処理部1200から構成され、物体認識処理部1200は、オクルージョン領域検出処理部1201、相関処理部1202、及び更新処理部1203から構成される。
第1の物体検出部1101は、例えば、カメラ、ライダ(LIDAR:LIght Detection And Ranging)など、物体検出位置に加え、物体幅情報を取得できる装置で構成されている。第2の物体検出部1102は、例えば、レーダ(RADAR:RAdio Detection And Ranging)、超音波センサ、車車間通信機器(複数の車両間での通信機器をいう)などの物体検出位置が取得できる装置で構成されている。本発明に係る実施の形態1では、2つの物体検出部を用いて説明しているが、物体検出部は3つ以上用いてもよい。ただし、物体幅情報を得られる物体検出部を含むことが必要である。
物体認識処理部1200は、ハードウエアの一例を図2に示すように、プロセッサ100と記憶装置101から構成される。記憶装置は図示していないが、ランダムアクセスメモリ等の揮発性記憶装置と、フラッシュメモリ等の不揮発性の補助記憶装置とを具備する。また、フラッシュメモリの代わりにハードディスクの補助記憶装置を具備してもよい。プロセッサ100は、記憶装置101から入力されたプログラムを実行する。プログラムは、例えば図3のフローチャートに従ったアプリケーションに基づく。この場合、補助記憶装置から揮発性記憶装置を介してプロセッサ100にプログラムが入力される。また、プロセッサ100は、演算結果等のデータを記憶装置101の揮発性記憶装置に出力してもよいし、揮発性記憶装置を介して補助記憶装置にデータを保存してもよい。
次にこのような構成からなる物体認識装置のオクルージョン領域を決定する動作及び、車両制御部1300へ送信される物体の位置情報のための物体認識結果の算出までについて、図3から図5Dに基づいて説明する。
第1の物体検出部1101で測定された物体検出位置、および物体検出位置精度情報は、物体検出位置信号、および物体検出位置精度信号として、オクルージョン領域検出処理部1201、相関処理部1202へ出力される(図3のフローチャート中、ステップS1)。第1の物体検出部1101の出力には、物体幅信号も含まれており、この信号もオクルージョン領域検出処理部1201、相関処理部1202へ出力される。第2の物体検出部1102で測定された物体検出位置、および物体検出位置精度情報は、相関処理部1202へ出力される。
オクルージョン領域検出処理部1201のオクルージョン領域の具体的な決定方法の一例について図4A、図4Bを用いて説明する。自車両10の周辺に物体が存在しないときの第1の物体検出部1101の検出領域Pを図4Aに示す。このとき、検出領域P内の全ての物体を検出することが可能であり、オクルージョン領域は発生しない。次に、検出領域P内に周辺物体20が存在する状態を図4Bに示す。このとき、周辺物体20が障害となり、第1の物体検出部1101が検出できない領域(オクルージョン領域Q1)が発生する。
発生したオクルージョン領域Q1の決定は、図4Bに示したX−Y座標において、自車両10の第1の物体検出部1101の取付位置を原点(0,0)、周辺物体20の後端中心の縦位置をXa、横位置をYa、及び周辺物体20の幅情報をWaとした場合、下記条件A、及び条件Bを満たす領域(縦位置x、横位置y)となる(ステップS2)。
条件A:(Ya−Wa/2)/Xa ≦ y ≦(Ya+Wa/2)/Xa
条件B:|Xa| ≦ |x|
図4Bで示したオクルージョン領域は1つであるが、周辺物体が複数(n個)ある場合は、本処理を第1の物体検出部1101の全ての物体検出結果に対して行い、第1の物体検出部1101のオクルージョン領域Q1〜Qnを決定する。
オクルージョン領域の決定において、第1の物体検出部1101の物体の、X軸方向またはY軸方向の検出誤差に応じて、マージンMx、Myを設定し、次のとおり、条件A、条件Bをそれぞれ条件A’、条件B’に変更し、オクルージョン領域を狭めてもよい。マージンMx、Myはそれぞれ正の値とする。
条件A’:(Ya−Wa/2)/Xa+My ≦ y ≦(Ya+Wa/2)/Xa−My
条件B’:|Xa|+Mx ≦ |x|
マージンMx、Myは、第1の物体検出部1101の物体検出位置の精度情報に基づいて、値を変化させてもよい。すなわち、物体検出位置精度が高いときに、マージンMx、又はマージンMyを小さくし、物体検出位置精度が低いときに、マージンMx、又はマージンMyを大きくする。
このように、第1の物体検出部1101の検出誤差にあわせて、マージンを設定し、領域の境界を変更することにより、オクルージョン領域検出処理部1201で、オクルージョン領域をさらに精度良く決定することができる。これにより、同一物体を異なる物体と判定される可能性をさらに低減することができる。
次に、上述のようにオクルージョン領域が決定された第1の物体検出部1101の物体検出結果と、第2の物体検出部1102の物体検出結果の相関を相関処理部1202により判断する。具体的には、相関可能領域内の、全ての第1の物体検出部1101の物体検出結果と第2の物体検出部1102の物体検出結果の組み合わせの中で、第1の物体検出部1101の物体検出結果と第2の物体検出部1102の物体検出結果との相関を判断し、相関の高い検出結果を組み合わせる。すなわち、実施の形態1では、自車両から検出物体までの距離差が最も小さい物体検出結果をそれぞれ選択し組み合わせる処理を行う。相関をとる情報は、検出物体までの距離に限らず、検出物体の形状など物体を識別できる情報であればよい。
相関可能領域について図5Aから図5Dを用いて説明する。図5Aに自車両10、および第2の物体検出部1102の検出領域Rを示す。自車両10の周辺に物体が存在しないとき、図4Aで説明した第1の物体検出部1101と同様、検出領域R内の全ての物体を検出することが可能であり、オクルージョン領域は発生しない。また、図5Bに示すように、自車両10の前方に他車両である周辺物体20a、20b、20cが存在しても、第2の物体検出部1102は、上述した通り、レーダ、車車間通信機器などであるため、その検出特性により、オクルージョン領域は発生せず、物体検出可能領域RA内の物体を検出可能である(ステップS4)。
これに対し、図5Cに示すように、第1の物体検出部1101が自車両10の前方に周辺物体20a、20b、20cを検出した場合、図4Bで説明した通り、これら周辺物体20a、20b、20cが障害となり、第1の物体検出部1101が検出できないオクルージョン領域Q2、Q3が発生する。これにより、第1の物体検出部1101はオクルージョン領域Q2、Q3を除く物体検出可能領域PAで検出可能となる(ステップS3)。相関処理部1202では、図5Dで示すように、第1の物体検出部1101の検出可能領域PA、及び第2の物体検出部1102の検出可能領域RAの重複した範囲を、相関可能領域SAとして決定し(ステップS5)、この相関可能領域SA内で検出した周辺物体20a、20b、20cにつき、第1の物体検出部1101の物体検出結果と第2の物体検出部1102の物体検出結果を比較し、上述した通り、それぞれの物体検出結果の距離の差が最小となる物体検出結果を組み合わせる(ステップS6)。
更新処理部1203は、相関処理部1202の相関処理にて組み合わされた第1の物体検出部1101の物体検出結果と第2の物体検出部1102の物体検出結果を同一の物体と判断し、検出情報の統合を行うことで、周辺物体20a、20b、20cのそれぞれの位置を特定(認識)し、この特定された物体の認識結果の更新を行う(ステップS7)。統合方法としては従来から知られているα-βフィルタ、カルマンフィルタなどを使用する。
車両制御部1300は、上述した物体認識処理部1200より得られた自車両10と自車両の周辺物体20a、20b、20cとの認識された相対位置の情報を用いて、自車両10が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステム、前方の車両に追従するアダプティブクルーズコントロールシステムの制御などを行う。つまり、物体認識処理部1200による物体認識結果に基づき、自車両の自動運転を行うことができるものである。
このように本発明に係る実施の形態1では、オクルージョン領域を排除した相関可能領域内のみの相関をとることにより、相関を抑制し、さらに、オクルージョン領域に存在する異なる物体を同一物体と判定することが無くなるので、誤った組合せ(誤相関)による物体認識結果が発生する可能性を低減することができる。
実施の形態2
図6は、この発明の実施の形態2に係る第2の物体認識装置を車両制御部1300とともに示すブロック構成図である。なお、図6中の矢印は、信号の流れを示すものとする。また、実施の形態1と同一符号は同一又は相当する部分を示す。
第2の物体認識装置は、第1の物体検出部1101、及び第2の物体認識処理部2200から構成され、第2の物体認識処理部2200は、オクルージョン領域検出処理部1201、第2の相関処理部2202、第2の更新処理部2203、及び予測処理部2204から構成される。第2の物体認識処理部2200は、物体認識処理部1200と同様な図2で示すハードウエア構成である。
実施の形態2では、第1の物体検出部1101と第2の物体検出部1102のそれぞれの物体検出結果の相関を相関処理部1202で算出していた実施の形態1と異なり、第1の物体検出部1101の物体検出結果と予測処理部2204の出力との相関を第2の相関処理部2202で算出し、物体認識結果を出力することにある。
次にこのような構成からなる第2の物体認識装置の車両制御部1300へ送信される物体の位置情報のための物体認識結果の算出までについて、図7及び図8に基づいて説明する。
第1の物体検出部1101で検出した物体からオクルージョン領域検出処理部1201により、オクルージョン領域を決定し、このオクルージョン領域を排除した検出可能領域PAを決定するまでの方法は、実施の形態1で説明した図3のステップS1からステップS3と同様である。
予測処理部2204は、時刻t1の第2の更新処理部2203から出力された物体認識結果を記録しておく。時刻t1+Δtに第1の物体検出部1101が物体を検出した場合、予測処理部2204に記録していた時刻t1の物体認識結果を読み出し、読み出した物体認識結果を第1の物体検出部1101が物体を検出した時刻t1+Δtまで遷移させた物体予測結果を算出する。このように、以前の物体認識結果に基づいて算出された物体予測結果は、物体認識結果と同様の情報を有する。例えば、物体認識結果に物体の相対速度が含まれている場合において、第2の更新処理部で物体認識の処理を行った時刻t1と第1の物体検出部1101が物体を検出した時刻t1+Δtとの差分Δtと、この物体の相対速度を用いて、時刻t1+Δtの物体の相対位置を予測することができる(ステップS8)。なお、物体認識結果は、物体検出位置、物体幅情報、及び物体検出位置の精度情報を含むものとする。
第2の相関処理部2202では、図8で示すように、上述した予測処理部2204の物体予測結果と、第1の物体検出部1101の検出可能領域PAの重複した範囲を相関可能領域TAとして決定し(ステップS9)この相関可能領域TA内で検出した周辺物体20a、20b、20cにつき第1の物体検出部1101の物体検出結果と、予測処理部2204の物体予測結果との相関を判定する。この場合、第2の相関処理部2202で決定された相関可能領域TAは、第1の物体検出部1101の物体検出可能領域PAと同じ領域となる。
具体的には、相関可能領域内の、全ての第1の物体検出部1101の物体検出結果と予測処理部2204の物体予測結果の組み合わせの中で、第1の物体検出部1101の物体検出結果と予測処理部2204の物体予測結果の情報の内、自車両から物体までの距離の差が最も小さいものを組み合わせる相関処理を行う(ステップS10)。相関をとる情報は、距離の差に限られず、物体の形状など、物体を識別できるものであればよい。
このように、相関処理を行うときに使用する物体認識結果と物体検出結果の時刻を合せることで、正確に物体認識結果と物体検出結果を組み合わせることができる。
第2の更新処理部2203は、更新処理部1203と同様、第2の相関処理部2202の相関処理にて組み合わされた第1の物体検出部1101の物体検出結果と予測処理部2204の出力である物体予測結果を同一の物体と判断し、これら結果の統合を行うことで、周辺物体20a、20b、20cのそれぞれの位置を特定(認識)し、この特定された物体の認識結果の更新を行う(ステップS11)。統合方法としては従来から知られているα-βフィルタ、カルマンフィルタなどを使用する。
このように本発明に係る実施の形態2では、予測処理部の物体予測結果と物体検出部の物体検出結果との相関をとることにより、物体認識結果の精度を上げることができ、さらに、オクルージョン領域に存在する異なる物体を同一物体と判定することが無くなるので、誤った組合せ(誤相関)による物体認識結果が発生する可能性を低減することができる。
なお、この発明は、その発明の範囲内において、各実施の形態を自由に組み合わせたり、各実施の形態を適宜、変形、省略することが可能である。
1101:第1の物体検出部、1102:第2の物体検出部、1200:物体認識処理部、1201:オクルージョン領域検出処理部、1202:相関処理部、1203:更新処理部、1300:車両制御部、2200:第2の物体認識処理部、2202:第2の相関処理部、2203:第2の更新処理部、2204:予測処理部

Claims (9)

  1. 車両に搭載され、前記車両の周辺物体を検出するとともに、検出した前記周辺物体に応じたオクルージョン領域を発生する第1の物体検出手段、発生した前記オクルージョン領域を決定するためのオクルージョン領域検出処理部、前記第1の物体検出手段の第1の物体検出結果と相関をとるための第2の物体検出結果を生成する物体検出生成手段、前記オクルージョン領域検出処理部で決定した前記オクルージョン領域を除いた領域で前記第1の物体検出結果と前記第2の物体検出結果との相関をとるための相関処理部、前記相関処理部で前記第1の物体検出結果と前記第2の物体検出結果とが同一の物体の検出結果であると判断された場合、前記第1の物体検出結果と前記第2の物体検出結果とから、前記周辺物体の認識結果を算出し、更新する更新処理部を備え、前記更新処理部の前記認識結果に基づいて車両を制御することを特徴とする物体認識装置。
  2. 前記相関処理部は、前記第1の物体検出結果と前記第2の物体検出結果との相関の高い検出結果を選択することを特徴とする請求項1に記載の物体認識装置。
  3. 前記相関をとる情報は、検出された前記車両から前記周辺物体までの距離の情報であることを特徴とする請求項2に記載の物体認識装置。
  4. 前記物体検出生成手段は、オクルージョン領域を発生しない第2の物体検出手段であることを特徴とする請求項1から3のいずれか一項に記載の物体認識装置。
  5. 前記物体検出生成手段は、前記更新処理部で算出された前記認識結果に基づいて予測した物体の検出結果を出力する予測処理手段であることを特徴とする請求項1から3のいずれか一項に記載の物体認識装置。
  6. 前記オクルージョン領域検出処理部は、前記第1の物体検出手段で検出された前記車両から前記周辺物体までの距離、及び前記周辺物体の幅に基づいて前記オクルージョン領域を決定することを特徴とする請求項1から5のいずれか一項に記載の物体認識装置。
  7. 周辺物体を認識し、認識した情報に基づき車両を制御する物体認識方法において、前記周辺物体の検出時に第1の検出手段に発生するオクルージョン領域を決定し、前記オクルージョン領域を前記周辺物体の検出領域から除外した第1の検出可能領域を決定し、前記オクルージョン領域が発生しない第2の検出手段の第2の検出可能領域を決定し、前記第1の検出可能領域と前記第2の検出可能領域の双方の領域に存在する前記周辺物体の、前記周辺物体までの距離を含む物体情報を、前記第1の検出手段と前記第2の検出手段とで検出し、検出された前記距離の差が最も小さい検出結果の組合せを同一物体の物体情報と認識することを特徴とする物体認識方法。
  8. 周辺物体を認識し、認識した情報に基づき車両を制御する物体認識方法において、前記周辺物体の検出時に第1の検出手段に発生するオクルージョン領域を決定し、前記オクルージョン領域を前記周辺物体の検出領域から除外した第1の検出可能領域を決定し、前記第1の検出可能領域に存在する前記周辺物体の検出結果と、前記周辺物体を検出した以前の検出結果から現在位置を予測した予測結果とを、前記周辺物体までの距離において相関をとり、前記距離の差が最も小さい検出結果と予測結果との組合せを同一物体の物体情報と認識することを特徴とする物体認識方法。
  9. 前記オクルージョン領域の決定の際には、検出誤差を相殺するマージンを設定することを特徴とする請求項7または請求項8に記載の物体認識方法。
JP2019551853A 2017-11-13 2017-11-13 物体認識装置および物体認識方法 Active JP6834020B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040687 WO2019092874A1 (ja) 2017-11-13 2017-11-13 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JPWO2019092874A1 JPWO2019092874A1 (ja) 2020-07-30
JP6834020B2 true JP6834020B2 (ja) 2021-02-24

Family

ID=66438352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019551853A Active JP6834020B2 (ja) 2017-11-13 2017-11-13 物体認識装置および物体認識方法

Country Status (4)

Country Link
US (1) US11555913B2 (ja)
JP (1) JP6834020B2 (ja)
DE (1) DE112017008095T5 (ja)
WO (1) WO2019092874A1 (ja)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252587A (ja) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd 物体追跡装置
JP4398533B2 (ja) * 1999-03-12 2010-01-13 富士通株式会社 画像追跡装置及び記録媒体
JP4193519B2 (ja) * 2003-02-27 2008-12-10 セイコーエプソン株式会社 物体識別方法および物体識別装置
JP4371115B2 (ja) 2006-03-01 2009-11-25 トヨタ自動車株式会社 物体検出装置
JP2012226574A (ja) * 2011-04-20 2012-11-15 Sony Corp 画像処理方法、画像処理装置及び表示装置
US8908041B2 (en) * 2013-01-15 2014-12-09 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
JP6084192B2 (ja) * 2014-10-15 2017-02-22 本田技研工業株式会社 物体認識装置
US10565468B2 (en) * 2016-01-19 2020-02-18 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
US9805274B2 (en) * 2016-02-03 2017-10-31 Honda Motor Co., Ltd. Partially occluded object detection using context and depth ordering
US10317522B2 (en) * 2016-03-01 2019-06-11 GM Global Technology Operations LLC Detecting long objects by sensor fusion
JP6223504B1 (ja) * 2016-05-18 2017-11-01 三菱電機株式会社 レーダ装置およびこれを用いたセンサフュージョン装置
KR101784611B1 (ko) 2016-06-09 2017-11-06 재단법인대구경북과학기술원 라이다 센서 및 레이더 센서를 이용한 사람 탐지 장치 및 방법
JP6194520B1 (ja) 2016-06-24 2017-09-13 三菱電機株式会社 物体認識装置、物体認識方法および自動運転システム
US11067996B2 (en) * 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management

Also Published As

Publication number Publication date
CN111295566A (zh) 2020-06-16
WO2019092874A1 (ja) 2019-05-16
US20200225342A1 (en) 2020-07-16
JPWO2019092874A1 (ja) 2020-07-30
US11555913B2 (en) 2023-01-17
DE112017008095T5 (de) 2020-07-16

Similar Documents

Publication Publication Date Title
CN107490794B (zh) 物体辨识处理装置、物体辨识处理方法及自动驾驶系统
US10311340B2 (en) Object recognition integration device and object recognition integration method
KR102569900B1 (ko) 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량
JP5012270B2 (ja) 物体検出装置
JP2016148547A (ja) 検知装置
US10793145B2 (en) Object recognition device, object recognition method, and vehicle control system
JPWO2019239463A1 (ja) 車両走行制御装置、車両走行制御方法、制御回路および記憶媒体
CN111103587A (zh) 用于预测同时并线车辆的方法和设备及包括其的车辆
JP6169146B2 (ja) 物体認識統合装置および物体認識統合方法
JP5067091B2 (ja) 衝突判定装置
US11892536B2 (en) Object-detecting device
JP2005326296A (ja) 車両用物体検出装置
JP2016189084A (ja) 車両状態判定装置
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
JP6834020B2 (ja) 物体認識装置および物体認識方法
US11615627B2 (en) Object recognition apparatus, vehicle control apparatus, object recognition method, and vehicle control method
CN111295566B (zh) 物体识别装置及物体识别方法
JP6818902B6 (ja) 車両検知システム
JP6594565B1 (ja) 車載装置、情報処理方法及び情報処理プログラム
JP7412254B2 (ja) 物体認識装置および物体認識方法
JP5644673B2 (ja) 周辺監視装置および周辺監視方法、並びに運転支援装置
JP6593682B2 (ja) 衝突予測システム
JP7401273B2 (ja) 移動体の制御装置及び方法
WO2024013839A1 (ja) 物体認識装置及び物体認識方法
CN115017467B (zh) 一种跟车目标的补偿方法、装置及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R151 Written notification of patent or utility model registration

Ref document number: 6834020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250