JP6397801B2 - 物体検知装置 - Google Patents

物体検知装置 Download PDF

Info

Publication number
JP6397801B2
JP6397801B2 JP2015131499A JP2015131499A JP6397801B2 JP 6397801 B2 JP6397801 B2 JP 6397801B2 JP 2015131499 A JP2015131499 A JP 2015131499A JP 2015131499 A JP2015131499 A JP 2015131499A JP 6397801 B2 JP6397801 B2 JP 6397801B2
Authority
JP
Japan
Prior art keywords
unit
dimensional object
dimensional
vehicle
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015131499A
Other languages
English (en)
Other versions
JP2017016331A (ja
Inventor
琢馬 大里
琢馬 大里
雅幸 竹村
雅幸 竹村
裕史 大塚
裕史 大塚
永崎 健
健 永崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2015131499A priority Critical patent/JP6397801B2/ja
Priority to US15/574,687 priority patent/US10360436B2/en
Priority to CN201680023435.5A priority patent/CN107533749B/zh
Priority to PCT/JP2016/067716 priority patent/WO2017002613A1/ja
Priority to EP16817722.8A priority patent/EP3319037A4/en
Publication of JP2017016331A publication Critical patent/JP2017016331A/ja
Application granted granted Critical
Publication of JP6397801B2 publication Critical patent/JP6397801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、物体検知装置に関する。
物体検知装置の主な用途として、例えば、車両に搭載して障害物を検知することが挙げられる。前方の障害物が車両であった場合、該車両を検知して、その位置や速度情報をより精度よく算出できることが望ましい。算出された位置速度情報は、例えば、衝突回避機能や先行車追従機能の入力として利用され、より適切な車両制御の実現につながる。
本技術分野の背景技術として、特開2010-224936(特許文献1)がある。該公報には、「距離検出手段が検出した距離データを的確にグループ化して物体を的確に検出することが可能な物体検出装置を提供する。」と記載されている。特許文献1では、車両の背面ランプ情報を利用し、画像上における車両の存在領域を正確に算出することで、位置速度情報を精度よく算出することができると記載されている。
特開2010-224936号公報
しかしながら、特許文献1のように、車両を適切に検知するためにランプの情報を用いた場合、夜間やブレーキ中といった先行車のランプが点灯中のシーンにおける検知性能は向上するが、ランプが消灯中のシーンにおいては効果を発揮しない。より多くのシーンにおいて車両を適切に検知するために、シーンによらず利用可能な車両の特性を用いることが重要な課題となる。
本発明は、上記の点に鑑みてなされたものであり、その目的とするところは、車両を安定的に識別可能な物体検知装置を提供することである。
上記課題を解決する本発明の物体検知装置は、左撮像部と右撮像部で撮像した左画像と右画像から複数の立体物を検知する立体物検知部と、前記複数の立体物の中から左右に間隔を空けて存在する二つの立体物を結合候補として抽出する結合候補抽出部と、該結合候補として抽出された前記二つの立体物の間の中間領域に左右領域よりも視差密度が小さい視差疎領域が存在するか否かを判定する疎領域判定部と、前記中間領域に前記視差疎領域が存在すると判定された前記二つの立体物を一つの立体物と仮定したときの領域を前記左右の画像からそれぞれ抽出して相互に比較して見え方が同じか否かを判定するマッチング部と、該マッチング部によって見え方が同じと判定された場合に、前記二つの立体物を一つの立体物と判定する立体物結合部とを有することを特徴とする。
本発明によれば、車両を安定的に識別可能な物体検知装置を提供することができる。なお、上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本実施例における物体検知装置の全体構成を説明する図。 立体物結合処理を行う実施例1の画像処理部の構成図。 全体処理の処理フローを示す図。 立体物結合部の処理フローを示した図。 視差の算出が容易な場合と困難な場合の例を説明する図。 サイズ判定処理S221の処理内容の説明図。 距離判定処理S222の処理内容の説明図。 視差疎領域判定処理S223における詳細な処理の内容を示したフロー図。 疎領域判定処理S304の処理内容の説明図。 左右マッチング処理S224の処理内容の説明図。 実施例2における画像処理部の構成を示した図。 立体物分割部301の処理フローを示した図。 実施例3における画像処理部の構成を示した図。 実施例3における画像処理部の処理フローを示す図。 実施例4における画像処理部の構成を示した図。 実施例4の処理フローを示した図。 実施例5における車両制御を含めた場合の全体構成を示した図。
以下、本発明の実施例について図面を用いて説明する。
[実施例1]
図1は、本実施例における物体検知装置の全体構成を説明する図である。物体検知装置は、車両に搭載されており、図1に示すように、ステレオカメラ100と、メモリ103と、CPU104と、画像処理部111と、外部通信部112を有している。ステレオカメラ100は、左右一対をなして車両の前方を撮像する左撮像部101と右撮像部102を有する。
画像処理部111は、ステレオカメラ100で撮像された画像から立体物を抽出し、抽出した立体物を時系列にトラッキングし、トラッキングした立体物の輪郭や視差形状を用いて車両らしいかどうかを識別する。識別結果は、外部通信部112によって物体検知装置の外部に送信され、アクセルやブレーキ、ステアリングなどの車両制御に利用される。
図2は、画像処理部111の構成を示した図である。画像処理部111は、視差算出部201、立体物検知部202、立体物結合部203、車両識別部204を有している。視差算出部201は、左撮像部101で撮像した画像と、右撮像部102で撮像した画像を用いて、同じ対象物の撮像位置のズレである視差を算出する。立体物検知部202は、視差算出部201で算出した視差の情報に基づいて立体物の検知を行う。
立体物検知部202は、立体物を検知するために、まず、視差算出部201で得られた視差情報と視差情報の画像座標とから、実空間上での点の座標を算出する。そして、それぞれの点について、点同士の距離を算出して近傍にある点同士をグルーピングする。グルーピング結果を1つの立体物としたとき、急激に傾きが変わる個所や視差がほぼ得られていない領域で分割することで、1つの塊と思われる立体物を検知する。このとき、車両を立体物として検知するケースでは、車両の左右を異なる立体物として検知する傾向にある。
図5は、視差の算出が容易な場合と困難な場合の例を説明する図である。視差の算出では、例えば、左画像のある領域を指定したとき、右画像で同じものが撮像された領域がないかを、右画像において横方向に向かって探索することが行われる。したがって、図5(1)に示すように、横方向に輝度の変化があり、縦方向のエッジがある領域では、対応する領域が定まりやすく、視差を算出しやすい。一方、図5(2)に示すように、横方向に輝度の変化がなく、例えば横方向のエッジが続いているような場合には、対応する領域が定まりにくく、視差を算出しにくい。
車両の場合、左右端は縦方向にエッジがあるので視差を算出しやすいが、中央部分は横方向のエッジがほとんどである。したがって、車両の左右部分では視差が密になり、中央部分では視差が疎になる。その結果、車両の左右端をそれぞれ別の立体物として検知することが多い。
立体物結合部203は、過分割された立体物を結合する処理を行う。すなわち、立体物結合部203は、立体物検知部202によって一つの立体物を複数の立体物として検知している可能性が高いと判断したときに、これら複数の立体物を結合して一つの立体物として検知する処理を行う。立体物結合部203による処理についての詳細は、後述する。
車両識別部204は、立体物検知部202及び立体物結合部203で一つの立体物として検知した立体物に対して車両識別判定を実施し、車両か否かを判定する。立体物検知部202で検知した立体物が1つの車両を複数の立体物としてとらえているケースにおいても、立体物結合部203において一つの立体物として統合されるため、車両識別部204では車両として適切に識別できる。
図3は、全体処理の処理フローを示す図である。図3に示すように、まず、ステレオカメラ100による画像撮像が行われ(S101)、撮像されたステレオ画像に基づいて視差算出部201による視差の算出が行われる。そして、算出された視差の情報に基づいて立体物の検知が行われる(S103)。ここで、実際には一つの立体物を複数の立体物として誤検知しているか否かが判断され、複数の立体物として誤検知している可能性が高いときには、これら複数の立体物を結合して一つの立体物(結合立体物)とする(S104)。そして、S103において一つの立体物として検知された単独立体物や、S104において一つの立体物として結合された結合立体物が、車両か否かの車両識別判定が行われ(S105)、その判定結果に基づいて車両制御が行われる(S106)。
次に、立体物結合部203における処理内容について詳細に説明する。
図4は、立体物結合部203の処理フローを示した図である。データ入力処理S210において、処理に必要なデータを受信する。立体物検知結果入力処理S211において、立体物検知部202で検知した立体物検知結果を受信する。左右画像入力処理S212において、左撮像部101と右撮像部102で撮像した左右画像を受信する。
次に、結合可否判定処理S220において、受信した立体物に対して結合処理を実施して良いか否かの結合可否判定を行う。このとき、画像上で隣接した立体物のペアに対して判定を行う。ここでいう隣接は、立体物同士が画像上で接している必要はなく、2つの立体物を選んだ時にその間の領域に別の立体物が存在しておらず(別の立体物が検知されていない)、左右に間隔を空けて存在することを指す。結合可否判定処理S220では、サイズ判定処理S221、距離判定処理S222、視差疎領域判定処理S223、左右マッチング処理S224が行われる。
次に、立体物結合処理S230では、結合可否判定処理S220で結合可と判定された立体物のペアに対して結合処理を行う。例えば、領域に含まれる視差の平均値を再度計算することで立体物の距離を再算出したり、結合によって変化した高さや幅の情報を更新するなどの処理を行う。
図6は、サイズ判定処理S221の処理内容の説明図である。抽出された立体物のペアを結合したと仮定したとき、縦横比や高さ・幅が検出対象物である車両らしいサイズであるかどうかを判定する(サイズ判定部)。
例えば、(1)立体物検知結果に示すように、各立体物D1〜D6に対して、互いに隣り合う立体物同士を立体物結合候補として抽出する(結合候補抽出部)。(2)に示す例では、互いに隣り合う立体物(歩行者)D1と立体物(電柱)D2のペアを立体物結合候補(A)とし、立体物(歩行者)D5、D6のペアを立体物結合候補(C)とし、立体物(車両の左端と右端)D3、D4のペアを立体物結合候補(B)としている。この立体物結合候補の抽出は、画像内における全ての立体物に対して行われ、例えば特に図示していないが、立体物(電柱)D2と立体物(車両の左端)D3のペアと、立体物(車両の右端)D4と立体物(歩行者)D5のペアも立体物結合候補として抽出される。
そして、(2)立体物結合候補に示すように、各結合候補に対するサイズ判定が行われる(S221)。ここでは、二つの立体物の検知領域を所定の検知対象物の両端とした場合の大きさが、撮像距離に基づいて決定される検知対象物の大きさに相当するか否かが判断される。
例えば、立体物(歩行者)D1と立体物(電柱)D2のペアである立体物結合候補(A)は、電柱の高さが一般的な車両と比べて明らかに高いため、車両らしくない高さであるとしてサイズ判定結果をNGとする。そして、離れた立体物(歩行者)D5、D6のペアである立体物結合候補(C)は、高さについては車両らしいと判定されるが、幅が車両よりも極端に大きくなるため、車両らしくない幅であるとしてサイズ判定結果をNGとする。そして、立体物(車両の右端と左端)D3、D4のペアである立体物結合候補(B)は、高さ及び幅が共に車両らしいサイズであるとしてサイズ判定結果をOKとする。
図7は、距離判定処理S222の処理内容の説明図である。抽出された立体物のペアを結合したと仮定したとき、ペアとなる立体物同士の距離情報が、似たような値を持っているかどうかを判定する(距離判定部)。
例えば、(1)立体物検知結果に示すように、各立体物D7〜D12に対して、互いに隣り合う立体物同士を立体物結合候補として抽出する(結合候補抽出部)。図7に示す例では、互いに隣り合う立体物(歩行者)D7と立体物(電柱)D8のペアを立体物結合候補(D)とし、立体物(歩行者)D11、D12のペアを立体物結合候補(F)とし、立体物(車両の左端と右端)D9、D10のペアを立体物結合候補(E)としている。なお、図示していないが、立体物(電柱)D8と立体物(車両の左端)D9のペアと、立体物(車両の右端)D10と立体物(歩行者)D11のペアも立体物結合候補として抽出される。
そして、(2)立体物結合候補、及び(3)俯瞰図に示すように、各結合候補(D)〜(F)に対する距離判定が行われる(S222)。例えば立体物(歩行者)D7と立体物(電柱)D8のペアである結合候補(D)は、画像上で隣接しているため立体物結合候補とされたが、歩行者D7が手前に配置されているのに対して電柱D8が離れた位置に配置されており、ペアの間で撮像距離の距離情報が大きくずれているので、距離判定NGとする。同様に、立体物(歩行者)D11、D12のペアである結合候補(F)も、撮像距離の距離情報が大きくずれているので、距離判定NGとする。一方、立体物(車両の右端と左端)D9、D10のペアである結合候補(E)は、撮像距離の距離情報がほぼ同じであるため、距離判定結果をOKとする。
サイズ判定処理S221と距離判定処理S222の少なくともいずれか一方で判定NGであった場合、その立体物ペアは判定の対象外となり、その時点で結合判定NGとして処理を終了する。これは、左右マッチング処理S224の処理不可が高いため、事前に候補の絞り込みを行うことで立体物結合部203全体の処理不可を軽減するためである。そして、サイズ判定処理S221と距離判定処理S222の両方で判定OKであった場合、その立体物ペアは、次の視差疎領域判定処理S223の判定対象とされる。
視差疎領域判定処理S223では、立体物のペアの間の中間領域に左右領域よりも視差密度が小さい視差疎領域が存在するか否かが判定される。
図8は、視差疎領域判定処理S223における詳細な処理の内容を示したフロー図である。立体物ペア情報入力処理S301では、サイズ判定処理S221と距離判定処理S222の処理により疎領域判定の判定対象とされた立体物ペアの情報を受信する。判定領域決定処理S302では、立体物ペアの存在する左右の領域とその間の中間領域を抽出し、中間領域を疎領域判定の対象とする。疎判定閾値算出処理S303では、中間領域が視差疎領域であるか否かを判定するための視差密度閾値Th1を算出して決定する。疎領域判定処理S304では、視差密度閾値Th1に基づいて立体物ペアの間の中間領域が視差疎領域か否かの判定を行う。
図9は、疎領域判定処理S304の処理内容の説明図である。具体的な処理として、例えば、立体物ペアの左右領域A1、A2とその間の中間領域A3に対して、縦一列ごとに視差の密度を算出する。視差の密度を算出するには、ある縦一列内に存在する有効視差(ステレオマッチングに成功した点)の面積を、縦一列の面積で割ればよい。得られた密度に対して、視差密度閾値(第1の閾値)Th1を基準に視差疎領域か密領域かの判定を行う(疎領域判定部)。視差密度が視差密度閾値Th1以下のときは、視差疎領域であると判定し、視差密度が視差密度閾値Th1よりも大きいときは視差密領域と判定する。
視差密度閾値Th1は、疎判定閾値算出処理S303で算出する。適切な固定値を設定もよいし、左右の視差密領域に対する割合などを設定して可変にしてもよい。図では、視差密度閾値Th1を固定したときの視差密度と判定結果の一例を示した。本実施例では一例として画像の縦一列毎に密度を算出する手法を示したが、立体物として検知した領域(左・右)とその間の中間領域の3領域に分け、それぞれの密度を算出しても良い。
図10は、左右マッチング処理S224の処理内容の説明図である。
結合候補でかつ中間領域の視差密度が視差疎領域であると判断された立体物ペアに対して、結合を仮定したときの領域を左右画像からそれぞれ抽出し、相互に比較して見え方が同じか否かのマッチング判定を行う(マッチング部)。マッチング判定には、SADなどの相関値を用いる。SADはブロック内における座標ごとに差分をとり、その絶対値を足し合わせたものである。この相関値が相関値閾値(第2の閾値)Th2以下である場合、抽出した領域は左右画像で見え方が同じであると判定する。見え方が同じであると判定された場合、結合候補となった立体物ペアは一つの立体物(結合立体物)と判定される。
結合候補となった立体物ペアがそれぞれ別の立体物であった場合には、その中央部分においては背景などが撮像されているため左右画像で見え方が異なり、SADが大きな値をとる。したがって、相関値が相関値閾値Th2よりも大きい場合には、抽出した画像は左右で同じ見え方ではないと判定する。このように抽出した画像が左右画像で見え方が異なると判定された場合、結合候補となった立体物ペアは複数の立体物、すなわち個々に独立した二つの立体物と判定される。
例えば、左画像の結合立体物候補(車両)GL1と右画像の結合立体物候補(車両)GR1の場合、相関値は相関値閾値Th2以下になり、左右画像で見え方が同じであると判定される。したがって、立体物ペアを一つの結合立体物と判断し、結合可(結合OK)と判定する。
一方、左画像の結合立体物候補(歩行者ペア)GL2と右画像の結合立体物候補(歩行者ペア)GR2の場合、画像の中央部分の見え方が左右画像で大きく異なっているので、相関値が相関値閾値Th2よりも大きくなり、左右画像で見え方が異なると判定される。したがって、立体物ペアを複数の立体物と判断し、結合不可(結合NG)と判定する。
以上の判定によって結合可と判定された立体物ペアは、図4の立体物結合処理S230によって、一つの立体物として統合される(結合立体物)。統合された結合立体物は、図2の車両識別部204に入力され、車両であるか否かが判断され、車両であると判断された場合には、適切に車両として識別される。車両識別結果は、図1の外部通信部112によって外部に送信され、車両制御などの用途に用いられる。
本実施例の物体検知装置によれば、立体物ペアの中間領域における視差密度が閾値Th1以下の視差疎領域である立体物ペアを結合候補とし、結合候補の立体物ペアを結合したときの領域の画像を左右の画像から抽出してマッチング判定を行い、左右の画像で見え方が同じ場合には立体物ペアは一つの立体物であり、見え方が異なる場合には立体物ペアは複数の立体物であると判定する。したがって、先行車のランプが点灯しているか否かにかかわらず、より多くのシーンにおいて車両を適切に検知することができる。
なお、本実施例では、障害物が車両である場合について説明したが、検知対象物は車両に限定されるものではなく、例えば歩行者などの他の障害物であってもよい。本実施例によれば、立体物ペアのサイズや撮像距離、視差疎領域の判定がNOの場合に、立体物ペアが結合されないので、車両よりもサイズが小さい歩行者サイズの立体物を正確に検知できる確率が高い。
[実施例2]
ここでは、実施例1に示すように立体物を過分割した際に適切に結合するのではなく、立体物を過結合した際に適切に分割するという観点から適用した場合の実施の形態を示す。
図11は、本実施例における画像処理部111の構成を示した図である。実施例1と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
視差算出部201及び車両識別部204は、実施例1に示したものと同様の処理を行う。立体物検知部202は、実施例1と比べて実際には複数の立体物を一つの立体物として検知しやすいよう調整される。例えば、視差算出部201で得られた視差情報と画像座標から実空間での座標を算出し、近傍にある点同士をグルーピングするが、この時のグルーピング閾値を大きくする。あるいは、グルーピング結果を分割する際に、視差が得られていない領域での分割を行わない。
かかる調整によって、車両など1つの立体物を過分割するケースを抑制することができるが、一方で2人の歩行者など、複数の立体物を1つの立体物と誤検知する可能性が高まる。したがって、立体物分割部301において、過結合された立体物を分割する処理を行う。
図12は、立体物分割部301の処理フローを示した図である。データ入力処理S410において、処理に必要なデータを受信する。立体物検知結果入力処理S411において、立体物検知部202で検知した立体物検知結果を受信する。左右画像入力処理S412において、左撮像部101と右撮像部102で撮像した左右画像を受信する。
次に、分割可否判定処理S420において、受信した立体物に対して分割処理を実施して良いか否かの判定を行う。分割候補点探索処理S421においては、例えば、視差疎領域判定処理S223と同様にして視差の疎な領域を探索する(分割候補点探索部)。1つの立体物として検知された画像の領域において、視差の密な領域と疎な領域を抽出する。左右に視差の密な領域、中央に視差の疎な領域が存在する場合、視差の密な領域の端部を分割候補点とする。
次に、左右マッチング処理S422において、立体物が検知された領域を左右画像から抽出し、左右画像で同じ見え方かどうかの判定を行う。判定には、SADなどの相関値を用いる。この相関値が閾値以下である場合、左右画像は等しいと判定する。SADの値が大きかった場合、左右での見え方が異なるため、分割可と判断する。
以上の判定によって分割可と判定された立体物は立体物分割処理S430に入力され、複数の立体物に分割される。例えば、分割された領域に含まれる視差の平均値をそれぞれ計算することで立体物の距離を再算出したり、分割によって変化した高さや幅の情報を更新するなどの処理を行う。以降は、実施例1と同様に車両識別部204に入力され、他の立体物と同様に処理される。
本実施例によれば、はじめに大まかに立体物検知を行い、次いで一つの立体物として検知したものが分割可能か否かを判断する。本実施例では、立体物検知で一つの立体物として検知された立体物に対してのみ分割可否の判断を行うので、実施例1と比較して処理対象が少なく、処理時間を短縮することができる。本実施例は、歩行者などの比較的小さな検出対象物よりも、車両などの比較的大きな検知対象物の検知に適している。
[実施例3]
実施例3は、実施例1の変形例であり、ここでは、立体物結合部203の結合判定に用いる閾値を、動的に変化させる実施の形態を示す。
立体物結合部203において、車両らしい幅や高さ、縦横比などを判定に利用しているが、一口に車両と言っても様々な形状が存在する。よって、誤判定防止のためには対象によって閾値を動的に変えられることが望ましい。
図13は、本実施例における画像処理部111の構成を示した図である。実施例1、2と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
視差算出部201〜車両識別部204までの各処理内容は実施例1と同様である。本実施例で追加された結合閾値調整部401において、立体物結合部203で用いる閾値を算出し、動的に変化させる。
図14は、本実施例の処理フローを示した図である。結合判定閾値調整処理S501は、立体物検知処理S103における立体物検知結果と、車両識別処理S105における車両識別結果を入力として受信する。例えば、サイズ判定処理S221における高さの閾値を例に挙げる。例えば、高さの閾値の初期値として、小型車から大型車まで対応するために「高さ1m〜3m」であれば、高さの判定をOKと判断していたとする。
そして、車両識別処理S105による車両識別の結果、高さ1.5mの立体物が車両として識別されたとき、閾値を「高さ1m〜2m」と変更することで、車両として識別された立体物を結合の対象にしつつ、それ以外の誤結合を抑制することができる。
一例として高さの判定について挙げたが、もちろん、車両のサイズや車種情報に応じて、例えばサイズ判定処理S221における幅や縦横比、距離判定処理S222における撮像距離の差分閾値(第3の閾値)、視差疎領域判定処理S223における疎領域判定の閾値など各種閾値を調整することも可能である。得られた車両識別結果は、実施例1と同様に外部通信部112によって外部に送信され、車両制御などの用途に用いられる。
[実施例4]
実施例4は、実施例1の変形例であり、ここでは、立体物結合部203において対象となる立体物を抽出する際に、画像上で事前に対象領域を抽出しておく実施の形態を示す。判定の対象となる立体物を絞り込むことが出来るため、全体の処理負荷が軽減される。
図15は、本実施例における画像処理部111の構成を示した図である。実施例1〜3と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
視差算出部201〜車両識別部204までの各処理内容は実施例1と同様である。追加された結合判定対象領域検出部501において、立体物結合部203で立体物結合判定を実施する領域を抽出する。
図16は、本実施例の処理フローを示した図である。結合判定対象領域検出処理S601は、視差画像を入力として、結合判定の対象となる領域を抽出する。例えば、実施例1では立体物の結合、実施例2では立体物の分割を行う形態を示したが、いずれも視差の疎な領域において結合あるいは分割を実施するという点は共通である。よって、結合判定対象領域検出処理S601では、視差画像全体に対して、視差の密度マップを生成する。
ここでは、視差の密度が疎な領域及びその周辺領域を結合判定の対象領域として抽出する。視差の密度が疎な領域であるか否かは、画像上における視差の密度が予め設定された視差密度閾値(第4の閾値)に基づいて判断され、視差の密度が視差密度閾値以下である場合に、疎な領域であると判断される。立体物結合処理S104では、抽出された領域のみを結合対象として処理を行う。これにより、視差が十分に得られている領域において結合や分割の判定を行う必要が無くなり、処理負荷が軽減される。
他に、例えば、CAN情報や路面情報を元に推定した自車進行路の情報を用いた領域抽出が考えられる。自車の速度や舵角などのCAN情報や、白線などの周辺環境情報から自車の進行路を推定し、自車進行路上に位置する立体物のみを結合対象として立体物結合処理S104に入力する。この手法を用いた場合、特に車両制御に関わる進行路上の対象をとりこぼすことなく、処理負荷の軽減が可能となる。得られた車両識別結果は、実施例1と同様に外部通信部112によって外部に送信され、車両制御などの用途に用いられる。
[実施例5]
ここでは、本発明を車両に搭載されたステレオカメラを用いて車両検知を行い、検知結果を外部に通信して車両制御を行うシステムに適用した場合の実施の形態を示す。
図17は、車両制御を含めた場合の全体構成を示した図である。実施例1〜4と同様の構成要素には同一の符号を付することでその詳細な説明を省略する。
車両の制御を行う場合、検知の精度によって制御方法を変えられることが望ましい。例えば、先行車追従機能を実現するためには、検知した車両が間違いなく車両である場合には適切な位置速度を算出し車両を制御するが、そうでない場合には検知位置のずれなど誤差が発生している恐れがある。
そこで、信頼度算出部610において、外部通信部112における外部への信号に検知の信頼度情報を付加する。信頼度情報の例として、立体物検知部202における立体物検知結果と、立体物結合部203における検知結果を区別する情報が挙げられる。例えば、対象が立体物結合部203において結合した結合立体物であるか、または、立体物検知部202で検知した単独立体物であるかを区別するフラグを外部通信信号に付加する。
外部への信号は、車両制御部600で受信され、ブレーキ601や警報602、アクセル603、ステアリング605などを制御する。立体物結合部203の結果として検知された車両(結合立体物)は、立体物検知部202の結果として検知された車両(単独立体物)の場合に比べて、検知結果が不安定となる可能性がある。
そこで、例えば、車両が立体物検知部202における検知結果(単独立体物)のものであれば通常の先行車追従機能を実現するが、立体物結合部203における検知結果(結合立体物)のものであればブレーキ601の制御を弱めるのみに留める、あるいは立体物結合部203で結合に失敗し一時的に見失う可能性を考慮して見失った後もごく短い時間は車両がいると仮定して制御を続けるなどの動作が考えられる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
101 左撮像部
102 右撮像部
111 画像処理部
112 外部通信部
201 視差算出部
202 立体物検知部
203 立体物結合部
204 車両識別部
301 立体物分割部
401 結合閾値調整部
501 結合判定対象領域検出部
600 車両制御部

Claims (10)

  1. 左撮像部と右撮像部で撮像した左画像と右画像から複数の立体物を検知する立体物検知部と、
    前記複数の立体物の中から左右に間隔を空けて存在する二つの立体物を結合候補として抽出する結合候補抽出部と、
    該結合候補として抽出された前記二つの立体物の間の中間領域に左右領域よりも視差密度が小さい視差疎領域が存在するか否かを判定する疎領域判定部と、
    前記中間領域に前記視差疎領域が存在すると判定された前記二つの立体物を一つの立体物と仮定したときの領域を前記左右の画像からそれぞれ抽出して相互に比較して見え方が同じか否かを判定するマッチング部と、
    該マッチング部によって見え方が同じと判定された場合に、前記二つの立体物を一つの立体物と判定する立体物結合部と、
    を有することを特徴とする物体検知装置。
  2. 前記疎領域判定部は、前記視差密度が第1の閾値以下の場合に、前記視差疎領域が存在すると判定することを特徴とする請求項1に記載の物体検知装置。
  3. 前記マッチング部は、前記左右の画像からそれぞれ抽出した領域の差分の絶対値を足し合わせた相関値が第2の閾値以下の場合に前記見え方が同じと判定することを特徴とする請求項1に記載の物体検知装置。
  4. 前記二つの立体物の検知領域を所定の検知対象物の両端とした場合の大きさが、撮像距離に基づいて決定される前記検知対象物の大きさに相当するか否かを判定するサイズ判定部と、
    前記結合候補として抽出された前記二つの立体物の各撮像距離を比較して互いに同じであるか否かを判定する距離判定部を有し、
    前記疎領域判定部は、前記サイズ判定部により前記検知対象物の大きさに相当すると判定され、且つ、前記距離判定部により前記各撮像距離が同じであると判定された場合に、前記視差疎領域が存在するか否かの判定を行うことを特徴とする請求項1に記載の物体検知装置。
  5. 前記距離判定部は、前記二つの立体物の各撮像距離の差分が第3の閾値以下の場合に前記各撮像距離が同じであると判定することを特徴とする請求項4に記載の物体検知装置。
  6. 前記立体物結合部により前記一つの立体物と判定された結合立体物が車両か否かを識別する車両識別部と、
    該車両識別部によって識別した車両のサイズや車種情報に応じて、前記立体物結合部の判定閾値を調整する結合閾値調整部を有することを特徴とする請求項4に記載の物体検知装置。
  7. 画像上における視差の密度が予め設定された第4の閾値以下の疎領域を結合判定対象領域として抽出する結合判定対象領域検出部を有し、
    前記立体物結合部は、前記結合判定対象領域のみを処理対象として判定を行うことを特徴とする請求項1に記載の物体検知装置。
  8. 前記立体物結合部は、CAN情報や路面情報を元に推定した自車進行路上の立体物のみを結合対象とすることを特徴とする請求項1に記載の物体検知装置。
  9. 車両制御部を備え、
    前記立体物検知部における立体物検知結果と、立体物結合部における検知結果を区別する情報を外部通信信号に付加することを特徴とする請求項1に記載の物体検知装置。
  10. 左右の撮像部で撮像した左右画像から立体物を検知する立体物検知部と、
    前記立体物の中間領域に左右領域よりも視差密度が疎である領域が存在するか否かを判定し、存在すると判定した場合に、視差の密な領域の端部を分割候補点とする分割候補点探索部と、
    前記立体物が検知された領域を前記左右画像から抽出し、相互に比較して見え方が異なるか否かを判定するマッチング部と、
    該マッチング部によって見え方が異なると判定された場合に、前記立体物を前記分割候補点で分割する立体物分割部と、
    を有することを特徴とする物体検知装置。
JP2015131499A 2015-06-30 2015-06-30 物体検知装置 Active JP6397801B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015131499A JP6397801B2 (ja) 2015-06-30 2015-06-30 物体検知装置
US15/574,687 US10360436B2 (en) 2015-06-30 2016-06-15 Object detection device
CN201680023435.5A CN107533749B (zh) 2015-06-30 2016-06-15 物体检测装置
PCT/JP2016/067716 WO2017002613A1 (ja) 2015-06-30 2016-06-15 物体検知装置
EP16817722.8A EP3319037A4 (en) 2015-06-30 2016-06-15 OBJECT DETECTION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015131499A JP6397801B2 (ja) 2015-06-30 2015-06-30 物体検知装置

Publications (2)

Publication Number Publication Date
JP2017016331A JP2017016331A (ja) 2017-01-19
JP6397801B2 true JP6397801B2 (ja) 2018-09-26

Family

ID=57608043

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015131499A Active JP6397801B2 (ja) 2015-06-30 2015-06-30 物体検知装置

Country Status (5)

Country Link
US (1) US10360436B2 (ja)
EP (1) EP3319037A4 (ja)
JP (1) JP6397801B2 (ja)
CN (1) CN107533749B (ja)
WO (1) WO2017002613A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475775B2 (en) 2020-07-06 2022-10-18 Toyota Jidosha Kabushiki Kaisha Vehicle and method of recognizing surrounding vehicle

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844885B1 (ko) * 2016-07-11 2018-05-18 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
KR102462502B1 (ko) * 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
JP6660367B2 (ja) * 2017-12-25 2020-03-11 株式会社Subaru 車外環境認識装置
JP7253323B2 (ja) * 2018-02-14 2023-04-06 オムロン株式会社 3次元計測システム及び3次元計測方法
CN111868784B (zh) * 2018-03-22 2023-09-01 日立安斯泰莫株式会社 车载立体摄像机
JP7030007B2 (ja) * 2018-04-13 2022-03-04 東芝ライフスタイル株式会社 自律型電気掃除機
CN110549975A (zh) * 2018-05-31 2019-12-10 南京华捷艾米软件科技有限公司 一种基于3D Sensor的汽车雷达系统及其控制方法
EP3614299A1 (de) 2018-08-21 2020-02-26 Siemens Aktiengesellschaft Verfahren und anordnung zum erkennen von objekten an anlagen
JP6983334B2 (ja) * 2018-09-12 2021-12-17 日立Astemo株式会社 画像認識装置
JP7406962B2 (ja) * 2019-11-26 2023-12-28 株式会社Subaru 画像処理装置
WO2021166912A1 (ja) * 2020-02-18 2021-08-26 株式会社デンソー 物体検出装置
JP2022040651A (ja) * 2020-08-31 2022-03-11 株式会社Subaru 車外環境認識装置
CN113077657B (zh) * 2021-03-30 2022-07-05 上海华兴数字科技有限公司 车辆间安全距离报警方法及装置
KR20230055722A (ko) * 2021-10-19 2023-04-26 현대모비스 주식회사 차량의 타겟 감지 시스템 및 방법
WO2023157621A1 (ja) * 2022-02-15 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106500A (ja) * 1995-10-12 1997-04-22 Fuji Heavy Ind Ltd 車輌の運転支援装置
JPH10178564A (ja) * 1996-10-17 1998-06-30 Sharp Corp パノラマ画像作成装置及び記録媒体
JP3739693B2 (ja) * 2001-11-09 2006-01-25 本田技研工業株式会社 画像認識装置
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
JP5073700B2 (ja) 2009-03-24 2012-11-14 富士重工業株式会社 物体検出装置
JP6013884B2 (ja) 2012-11-08 2016-10-25 日立オートモティブシステムズ株式会社 物体検出装置及び物体検出方法
CN104217208B (zh) * 2013-06-03 2018-01-16 株式会社理光 目标检测方法和装置
CN104299219A (zh) * 2013-07-19 2015-01-21 株式会社理光 物体检测方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11475775B2 (en) 2020-07-06 2022-10-18 Toyota Jidosha Kabushiki Kaisha Vehicle and method of recognizing surrounding vehicle

Also Published As

Publication number Publication date
EP3319037A4 (en) 2019-02-27
EP3319037A1 (en) 2018-05-09
CN107533749B (zh) 2020-12-22
US20180137339A1 (en) 2018-05-17
WO2017002613A1 (ja) 2017-01-05
US10360436B2 (en) 2019-07-23
CN107533749A (zh) 2018-01-02
JP2017016331A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6397801B2 (ja) 物体検知装置
JP5127182B2 (ja) 物体検出装置
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US9886773B2 (en) Object detection apparatus and object detection method
JP6291469B2 (ja) 障害物検出装置および障害物検出方法
JP2014222429A (ja) 画像処理装置、距離測定装置、移動体機器制御システム、移動体及び画像処理用プログラム
KR101795270B1 (ko) 장애물의 지면경계 정보를 이용한 물체 측면 검출 방법 및 장치
JP2017027279A (ja) 物体検出装置及び物体検出方法
JP6325927B2 (ja) 物体検知装置及びそれを用いた車両制御システム
US9953228B2 (en) Information presenting apparatus, information presenting method, and computer program product
JP2008064628A (ja) 物体検出装置および物体検出方法
JP2015069566A (ja) フィルタリング装置および環境認識システム
JP2013190841A (ja) レーンマーク検出装置およびレーンマークの検索範囲設定方法
JP2016191988A (ja) 車外環境認識装置
JP2004280194A (ja) 前方監視装置及びその方法
JP2019053685A (ja) 画像処理装置
JP2001082954A (ja) 画像処理装置及び画像処理測距方法
JP6660367B2 (ja) 車外環境認識装置
US11816902B2 (en) Vehicle external environment recognition apparatus
CN112400094B (zh) 物体探测装置
WO2020036039A1 (ja) ステレオカメラ装置
US11958483B2 (en) Vehicle external environment recognition apparatus
JP5890816B2 (ja) フィルタリング装置および環境認識システム
JP7115832B2 (ja) 測距装置
WO2020071132A1 (ja) カメラ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R150 Certificate of patent or registration of utility model

Ref document number: 6397801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350