JPWO2013018672A1 - 移動体検出装置及び移動体検出方法 - Google Patents

移動体検出装置及び移動体検出方法 Download PDF

Info

Publication number
JPWO2013018672A1
JPWO2013018672A1 JP2013526867A JP2013526867A JPWO2013018672A1 JP WO2013018672 A1 JPWO2013018672 A1 JP WO2013018672A1 JP 2013526867 A JP2013526867 A JP 2013526867A JP 2013526867 A JP2013526867 A JP 2013526867A JP WO2013018672 A1 JPWO2013018672 A1 JP WO2013018672A1
Authority
JP
Japan
Prior art keywords
detection
turning
dimensional object
host vehicle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013526867A
Other languages
English (en)
Other versions
JP5664787B2 (ja
Inventor
早川 泰久
泰久 早川
千加夫 土谷
千加夫 土谷
雅則 古屋
雅則 古屋
修 深田
修 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2013526867A priority Critical patent/JP5664787B2/ja
Application granted granted Critical
Publication of JP5664787B2 publication Critical patent/JP5664787B2/ja
Publication of JPWO2013018672A1 publication Critical patent/JPWO2013018672A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

移動体検出装置1は、自車両後方を撮像する撮像手段10と、撮像画像を鳥瞰視画像に視点変換する画像変換手段31と、異なる時刻の鳥瞰視画像の差分画像に基づいて差分波形情報を生成し、該差分波形情報に基づいて立体物を検出するとともに、差分波形情報に基づいて立体物の移動速度を算出する立体物検出手段32,33,34と、立体物の移動速度に基づいて立体物が移動体であるか否かを検出する移動体検出手段34と、自車両の旋回を検出する旋回検出部35と、自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記差分波形情報に基づいて前記立体物を検出すること、または、前記立体物を移動体として検出することを抑制する制御手段36とを備えている。

Description

本発明は、移動体検出装置及び移動体検出方法に関する。
従来、車両周囲を撮影するカメラを備え、カメラにより撮影された画像を鳥瞰画像に変換すると共に、異なる時刻の鳥瞰画像の差分をとり、この差分に基づいて車両周囲の立体物を検出する障害物検出装置が提案されている。この障害物検出装置は、鳥瞰画像内に他車両等の立体物が存在する場合に他車両等が差分となって表れることから、この特徴に基づいて他車両等の立体物を検出する(特許文献1参照)
特開2008-227646号公報
しかし、特許文献1に記載の技術を用いて、立体物が移動体であるか静止物であるかを判断する技術に応用した場合、静止物を移動体であると誤判断してしまうことがあった。すなわち、特許文献1に記載の障害物検出装置において、自車両が旋回している場合、旋回により静止物が動くかのように表現されてしまい、静止物を誤って移動体と判断してしまう可能性があった。
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、移動体の検出精度を向上させることが可能な移動体検出装置及び移動体検出方法を提供することにある。
本発明の移動体検出装置は、異なる時刻の鳥瞰視画像の差分画像上で所定の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、該差分波形情報に基づいて、所定領域内に存在する立体物を検出するとともに、差分波形情報の波形の時間変化から立体物の移動速度を算出する。そして、立体物の移動速度に基づいて、立体物が移動体であるか否かを検出する。さらに、移動体検出装置は、自車両の旋回を検出し、自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、差分波形情報に基づいて立体物を検出すること、または、立体物を移動体として検出することを抑制する。
本発明によれば、自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、移動体の検出感度を低下させる。そのため、自車両が旋回して静止物が画像上において動くかのように表現されてしまっても移動体の判断精度が低下しているため、静止物を移動体と誤判断しないようにすることができる。従って、移動体の検出精度を向上させることができる。
本実施形態に係る移動体検出装置の概略構成図であって、移動体検出装置が車両に搭載される場合の例を示している。 図1に示した車両の走行状態を示す上面図である。 図1に示した計算機の詳細を示すブロック図である。 図3に示した差分画像生成部の処理の概要を示す上面図であり、(a)は車両の移動状態を示し、(b)は位置合わせの概要を示している。 図3に示した差分波形生成部による差分波形の生成の様子を示す概略図である。 図3に示した差分波形生成部により生成される差分波形の例を示した図であり、(a)は車両直進時に得られる差分波形の例を示し、(b)〜(e)は車両旋回時に得られる差分波形の例を示し、(c)は移動体の検出感度を低下させた第1の例を示しており、(d)は移動体の検出感度を低下させた第2の例を示しており、(e)は移動体の検出感度を低下させた第3の例を示している。 本実施形態に係る移動体検出方法を示すフローチャートである。 第2実施形態に係る計算機の詳細を示すブロック図である。 第3実施形態に係る計算機の詳細を示すブロック図である。 第3実施形態に係る移動体検出装置の動作の概要を示す車両上面図であり、自車両がラウンドアバウトを走行する際の様子を示している。 図10に示したラウンドアバウト走行時における旋回曲率を示すグラフである。 図10に示したラウンドアバウト走行時における感度を示すグラフであって、(a)は比較例を示し、(b)は第3実施形態に係る移動体検出装置の感度状態を示している。 第3実施形態に係る移動体検出方法を示すフローチャートである。 第4実施形態に係る計算機の詳細を示すブロック図である。 第4実施形態に係る輝度差算出部の動作を説明するための図であり、(a)は鳥瞰視画像における注目線、参照線、注目点及び参照点の位置関係を示す図、(b)は実空間における注目線、参照線、注目点及び参照点の位置関係を示す図である。 第4実施形態に係る輝度差算出部の詳細な動作を説明するための図であり、(a)は鳥瞰視画像における検出領域を示す図、(b)は鳥瞰視画像における注目線、参照線、注目点及び参照点の位置関係を示す図である。 エッジ波形生成部によるエッジ差分波形の生成方法を説明するための図である。 第4実施形態に係る移動体検出方法を示すフローチャートである。
以下、本発明の好適な実施形態を図面に基づいて説明する。図1は、本実施形態に係る移動体検出装置1の概略構成図であって、移動体検出装置1が車両Vに搭載される場合の例を示している。図1に示す移動体検出装置1は、自車両Vの周囲の撮像結果から自車両Vの運転者に対して各種情報を提供するものであって、カメラ(撮像手段)10と、センサ20と、計算機30とを備えている。
図1に示すカメラ10は、自車両Vの後方における高さhの箇所において、光軸が水平から下向きに角度θとなるように取り付けられている。カメラ10は、その位置から検出領域を撮像するようになっている。センサ20は、例えば自車両Vの走行速度を検出する車速センサや、ハンドル操作量を検出する操舵角センサからなっている。計算機30は、カメラ10により撮像された画像に基づいて、自車両Vの後側方に存在する移動体(例えば他車両、二輪車等)を検出するものである。
また、移動体検出装置1は、不図示の警報装置を備えており、計算機30により検出された移動体が自車両Vに接触する可能性がある場合などに、自車両Vの運転者に警告するものである。
図2は、図1に示した車両の走行状態を示す上面図である。図2に示すようにカメラ10は、自車両Vの後側方を撮像可能となっている。自車両Vが走行する走行車線に隣接する隣接車線には他車両等の移動体を検出するための検出領域(所定領域)A1,A2が設定されており、計算機30は検出領域A1,A2内に移動体が存在するか否かを検出する。このような検出領域A1,A2は、自車両Vに対する相対位置から設定されている。また、検出領域A1,A2は、白線自動認識技術等を利用して隣接車線に設定されてもよい。
図3は、図1に示した計算機30の詳細を示すブロック図である。なお、図3においては、接続関係を明確とするためにカメラ10及びセンサ20についても図示するものとする。なお、センサ20は、図3から明らかなように、車速センサ21と操舵角センサ22とから構成されているが、これに限らず、他のセンサを更に備えていていもよい。
図3に示すように、計算機30は、視点変換部31と、差分画像生成部(差分画像生成手段)32と、差分波形生成部(差分波形生成手段)33と、移動体検出部(移動体検出手段)34とを備えている。
視点変換部31は、カメラ10による撮像にて得られた検出領域A1,A2を含む撮像画像データを入力し、入力した撮像画像データを鳥瞰視される状態の鳥瞰画像データに視点変換するものである。鳥瞰視される状態とは、上空から例えば鉛直下向きに見下ろす仮想カメラの視点から見た状態である。この視点変換は、例えば特開2008-219063号公報に記載さるようにして実行される。
差分画像生成部32は、視点変換部31の視点変換により得られた鳥瞰画像データを順次入力し、入力した異なる時刻の鳥瞰画像データの位置を合わせるものである。図4は、図3に示した差分画像生成部32の処理の概要を示す上面図であり、(a)は車両Vの移動状態を示し、(b)は位置合わせの概要を示している。
図4(a)に示すように、現時刻の自車両VがV1に位置し、一時刻前の自車両VがV2に位置しているとする。また、自車両Vの後側方向に他車両Vが位置して自車両Vと並走状態にあり、現時刻の他車両VがV3に位置し、一時刻前の他車両VがV4に位置しているとする。さらに、自車両Vは、一時刻で距離d移動したものとする。なお、一時刻前とは、現時刻から予め定められた時問(例えば1制御周期)だけ過去の時刻であっても良いし、任意の時間だけ過去の時刻であっても良い。
このような状態において、現時刻における鳥瞰画像PBは図4(b)に示すようになる。この鳥瞰画像PBでは、路面上に描かれる白線については矩形状となり、比較的正確に上面視された状態となっている。しかし、他車両V3については倒れ込みが発生している。また、一時刻前における鳥瞰画像PBt−1についても同様に、路面上に描かれる白線については矩形状となり、比較的正確に上面視された状態となっているが、他車両V4については倒れ込みが発生している。
差分画像生成部32は、上記のような鳥瞰画像PB,PBt−1の位置合わせをデータ上で実行する。この際、差分画像生成部32は、一時刻前における鳥瞰画像PBt−1をオフセットさせ、現時刻における鳥瞰画像PBと位置を一致させる。オフセット量d’は、図4(a)に示した移動距籬dに対応するだけの量となり、車速センサ20からの信号と一時刻前から現時刻までの時間に基づいて決定される。
なお、本実施形態において、差分画像生成部32は、異なる時刻の鳥瞰画像の位置を鳥瞰視上で位置合わせし、その位置合わせされた鳥瞰画像を得るが、この「位置合わせ」処理は、検出対象の種別や要求される検出精度に応じた精度で行うことができる。たとえば、同一時刻及び同一位置を基準に位置を合わせるといった厳密な位置合わせ処理であってもよいし、各鳥瞰視画像の座標を把握するという程度の緩い位置合わせ処理であってもよい。
また、位置合わせ後において差分画像生成部32は、鳥瞰画像PB,PBt−1の画素毎に対応付けて差分をとり、上記差分の絶対値が所定値以上となった画素を差分画素として抽出する。そして、差分画素生成部32は、これら差分画素から差分画像PDを生成する。
再度、図3を参照する。差分波形生成部33は、差分画像生成部32により生成された差分画像PDのデータに基づいて、差分波形を生成するものである。
図5は、図3に示した差分波形生成部33による差分波形の生成の様子を示す概略図である。図5に示すように、差分波形生成部33は、差分画像PDのうち検出領域A1,A2に相当する部分から、差分波形DWを生成する。この際、嵳分波形生成部33は、視点変換により立体物が倒れ込む方向に沿って、差分波形DWを生成する。なお、図5に示す例では、便宜上検出領域A1のみを用いて説明する。
具体的に説明すると、まず差分波形生成部33は、差分画像DWのデータ上において立体物が倒れ込む方向上の線Laを定義する。そして、差分波形生成部33は、線La上において所定の差分を示す差分画素DPの数をカウントする。ここで、差分画素DPは、差分画像DWの画素値が鳥瞰画像PB,PBt−1の画素値の差を絶対値化したものである場合、所定値を超える画素であり、差分画像DWの画素値が「0」「1」で表現されている場合、「1」を示す画素である。
差分波形生成部33は、差分画素DPの数をカウントした後、線Laと線L1との交点CPを求める。そして、差分波形生成部33は、交点CPとカウント数とを対応付け、点CPの位置に基づいて横軸位置(図5の紙面上下方向軸における位置)を決定し、カウント数から縦軸位置(図5の紙面左右方向軸における位置)を決定する。
以下同様に、差分波形生成部33は、立体物が倒れ込む方向上の線を定義して、差分画素DPの数をカウントし、交点CPの位置に基づいて横軸位置を決定し、カウント数(差分画素DPの数)から縦軸位置を決定する。移動体検出部33は、上記を順次繰り返して度数分布化することで差分波形DWを生成する。
なお、図5に示すように、立体物が倒れ込む方向上の線Laと線Lbとは検出領域A1と重複する距離が異なっている。このため、検出領域A1が差分画素DPで満たされているとすると、線Lb上よりも線La上の方が差分画素DPの数が多くなってしまう。このため、差分波形生成部33は、差分画素DPのカウント数から縦軸位置を決定する場合、立体物が倒れ込む方向上の線La,Lbと検出領域A1とが重複する距離に基づいて正規化する。具体例を挙げると、図5において線La上の差分画素DPは6つあり、線Lb上の差分画素DPは5つである。このため、図5においてカウント数から縦軸位置を決定するにあたり、差分波形生成部33は、カウント数を重複距離で除算するなどして正規化する。これにより、差分波形DWに示すように、立体物が倒れ込む方向上の線La,Lbに対応する差分波形DWの値はほぼ同じとなっている。
移動体検出部34は、図5に示したような差分波形DWのデータに基づいて移動体を検出するものである。この移動体検出部34は、移動体検出にあたり、まず閾値処理を実行する。具体的に移動体検出部34は、差分波形DWの平均値と所定の閾値とを比較して、平均値が所定の閾値以上であれば移動体である可能性があると判断する。一方、移動体検出部34は、平均値が所定の閾値以上でなければ移動体である可能性がないと判断する。ここで、差分波形DWがノイズによるものである場合、平均値が所定の閾値以上となり難い。このため、移動体検出部34は、まず閾値処理を行って移動体の可能性を判断している。なお、移動体検出部34は、これに限らず、例えば差分波形DWのうち所定の閾値以上となる面積割合が所定割合以上である場合に移動体である可能性があると判断し、そうでない場合に移動体である可能性がないと判断してもよい。
また、移動体検出部34は、差分波形DWが示す立体物が移動体である可能性があると判断すると、一時刻前の差分波形DWt−1と今回の差分波形DWとを対応付けることで立体物の推定速度を算出する。例えば、立体物が他車両Vである場合、他車両Vのタイヤ部分において差分画素DPが得られやすいことから、差分波形DWは2つの極大値を有するものとなり易い。このため、一時刻前の差分波形DWt−1と今回の差分波形DWとの極大値間のズレを求めることにより、自車両Vに対する他車両Vの相対速度を求めることができる。これにより、移動体検出部34は、立体物の推定速度を求める。そして、移動体検出部34は、推定速度に基づいて、差分波形DWにより示される立体物が移動体であるか静止物であるかを判断する。
さらに、計算機30は旋回検出部(旋回検出手段)35と、感度設定部(感度設定手段)36とを備えている。旋回検出部35は、自車両Vの旋回を検出するものであって、操舵角センサ22により検出された操舵角から自車両が旋回しているか検出するものである。感度設定部36は、移動体検出部34における移動体の検出感度を変化させるものである。尚、旋回検出部35は、操舵角によらず、ナビゲーション等でカーブ走行していることを判断することで検出してもよい。
図6は、図3に示した差分波形生成部33により生成される差分波形DWの例を示した図であり、(a)は車両直進時に得られる差分波形DWの例を示し、(b)〜(e)は車両旋回時に得られる差分波形DWの例を示している。また、(c)は移動体の検出感度を低下させた第1の例を示しており、(d)は移動体の検出感度を低下させた第2の例を示しており、(e)は移動体の検出感度を低下させた第3の例を示している。
まず、図6(a)に示すような差分波形DWが得られたとする。その際、移動体検出部34は、上記したように閾値処理を実行する。図6(a)に示す例では、差分波形DWの平均値が閾値TH以上でない。そのため、移動体検出部34は、差分波形DWが移動体によるものではなく、例えばノイズ(具体的には草や壁などのテクスチャが複雑な静止物)によるものであると判断する。
しかし、図6(b)に示すように自車両Vが旋回しているとすると、差分波形DWが大きくなり易い。旋回により静止物が画像上において動いているかのように表現されてしまい、差分が得られ易くなってしまうからである。特に、図6(b)に示す例では、差分波形DWの平均値が閾値TH以上となっている。このため、静止物を移動体であると誤認し易くなってしまう。
そこで、感度設定部36は、旋回時に移動体の検出感度を低下させる。具体的に感度設定部36は、図6(b)に示すように所定の閾値THを高める(変更前の閾値をTH’で示す)。それにより、差分波形DWの平均値が閾値TH以上とならず、移動体検出部34は静止物を移動体であると誤認し難くすることができる。
また、感度設定部36は、図6(c)や図6(d)に示すように、閾値THを高めることが望ましい。すなわち、感度設定部36は、自車両Vの前方側に対応する閾値THよりも、自車両Vの後方側に対応する閾値THを高くする。本実施形態に係る移動体検出装置1は、自車両Vの後側方の移動体を検出するものであるため、旋回時においては撮像画像のうち自車両後方側の方が前方側よりも差分が大きくなりやすい。そこで、上記の如く、自車両Vの後方側に対応する閾値THを高くすることで、閾値THを適切に設定して一層移動体の検出精度を向上させることができるからである。
なお、この場合において移動体検出部34は、図6(c)に示すように直線的な閾値THを設定してもよいし、図6(d)に示すように階段状に閾値THを設定してもよい。
さらに、感度設定部36は、操舵角センサ22により検出された操舵角を検出することで旋回を検出し、この操舵角が大きくなるほど、移動体検出部34による移動体の検出感度を低下させる。急激な旋回ほど静止物が画像上において大きく動くように表現されてしまい、差分が一層得られ易くなってしまうからである。具体的には図6(e)に示すように感度設定部36は、操舵角が大きくなるほど、所定の閾値THを高める。すなわち、図6(e)に示す例と図6(b)に示す例とを比較すると、図6(e)に示す閾値THの方が高くなっている。そのように、感度設定部36は、操舵角が大きくなるほど所定の閾値THを高めることで、より一層適切な閾値を設定している。
ここで、感度設定部36は、操舵角に加えて横G、アクセル開度、及びブレーキ操作を加味して感度を低下させるようにしてもよい。例えば、アクセル開度の変化やブレーキ操作により前後方向の動きが発生すると、差分波形DWが大きくなり易い傾向があるためである。また、横Gの変化についても同様に、差分波形DWが大きくなり易い傾向があるためである。
次に、本実施形態に係る移動体検出方法を説明する。図7は、本実施形態に係る移動体検出方法を示すフローチャートである。図7に示すように、まず、計算機30は、車速センサ20からの信号に基づいて車速を検出する(S1)。
次に、旋回検出部36は、操舵角センサ22からの信号に基づいて、自車両Vが旋回しているか否かを判断する(S2)。自車両Vが旋回していないと判断した場合(S2:NO)、処理はステップS8に移行する。
一方、自車両Vが旋回していると判断した場合(S2:YES)、感度設定部36は、操舵角の大きさをもとに、閾値THの目標値を設定する(S3)。次に、移動体検出部34は、現在移動体検出中であるか否かを判断する(S4)。
移動体検出中であると判断した場合(S4:YES)、感度設定部36は、感度を変化させる際の変化量について、上限値となるリミット値を第1リミット値に設定する(S5)。そして、処理はステップS7に移行する。一方、移動体検出中でないと判断した場合(S4:NO)、領域設定部33bは、リミット値を第2リミット値に設定する(S6)。そして、処理はステップS7に移行する。ここで、第1リミット値は、第2リミット値よりも小さくされている。このため、移動体検出中においては閾値THが急激に変化して検出中の移動体を検出できなくなってしまう事態を防止することができる。
次いで、感度設定部36は閾値THを変化させる(S7)。すなわち、感度設定部36は、ステップS5,S6において設定されたリミット値を超えない範囲で、ステップS3において求められた目標値に近づくように、閾値THを変化させる。
その後、差分画像生成部32は差分を検出する(S8)。この際、差分画像生成部32は、図4を参照して説明したように差分画像PDのデータを生成する。
次いで、差分波形生成部33は、ステップS8において生成された差分画像PDに基づき、図5を参照して説明したようにして差分波形DWを生成する(S9)。そして、移動体検出部34は、一時刻前の差分波形DWt−1と今回の差分波形DWとを対応付けることで、立体物の推定速度を算出する(S10)。
その後、移動体検出部34は、ステップS10において算出された推定速度が検出対象であるか否かを判断する(S11)。ここで、本実施形態において移動体検出装置1は、車線変更時に接触の可能性がある他車両や二輪車等を検出するものである。このため、移動体検出部34は、ステップS11において推定速度が他車両や二輪車等の速度として適切であるかを判断することとなる。
推定速度が他車両や二輪車等の速度として適切であると判断した場合(S11:YES)、移動体検出部34は、差分波形DWによって示される立体物が検出対象となる移動体(他車両や二輪車等)であると判断する(S12)。そして、図7に示す処理は終了する。一方、推定速度が他車両や二輪車等の速度として適切でないと判断した場合(S11:NO)、移動体検出部33は、差分波形DWによって示される立体物が検出対象となる移動体でないと判断し、図7に示す処理は終了する。
このようにして、本実施形態に係る移動体検出装置1及び移動体検出方法によれば、自車両Vが旋回していると検出された場合に、自車両Vが旋回していない場合と比較して、移動体の検出感度を低下させる。このため、自車両Vが旋回して静止物が画像上において動くかのように表現されてしまっても移動体の判断精度が低下しているため、静止物を移動体と誤判断しないようにすることができる。従って、移動体の検出精度を向上させることができる。
また、自車両Vが旋回していると検出された場合に、自車両Vが旋回していない場合と比較して、所定の閾値THを高めることにより、移動体の検出感度を低下させる。このため、自車両Vが旋回して静止物が画像上において動くかのように表現され、静止物にも拘わらず差分波形が大きく表れてしまっても、閾値THが高められていることから、移動体であると判断され難くすることができる。
また、自車両前方側に対応する閾値THよりも、自車両後方側に対応する閾値THを高く設定するため、旋回のように自車両後方側の差分波形DWが前方側よりも大きく表現され易い状況において、適切に閾値THを設定することとなり、一層移動体の検出精度を向上させることができる。
また、操舵角が大きくなるほど移動体の検出感度を低下させるため、操舵角が大きくなり、静止物が画像上において一層動くかのように表現され易い状況においても、移動体の判断精度がより低下させられることとなり、静止物を一層移動体と誤判断しないようにすることができる。
また、移動体の検出中において、移動体の非検出中よりも感度の低下量を減少させるため、移動体の検出中において感度を大きく低下させてしまい、移動体の検出漏れを起こしてしまう頻度を低減するとこができる。
次に、本発明の第2実施形態を説明する。第2実施形態に係る移動体検出装置及び移動体検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
図8は、第2実施形態に係る計算機30の詳細を示すブロック図である。なお、図8においては、接続関係を明確とするためにカメラ10及びセンサ20についても図示するものとする。
図8に示すように、第2実施形態に係る計算機30は、差分画像生成部32を制御することで、移動体検出部34による移動体の検出感度を低下させることとしている。上記したように、差分画像生成部32は、異なる時刻の鳥瞰画像PB,PBt−1の位置合わせをデータ上で実行して差分をとり、上記差分の絶対値が所定値以上となった画素を差分画素DPとして抽出する。第2実施形態において感度設定部36は、例えば上記所定値を大きくすることにより、差分画素DPを抽出され難くし、閾値THを変更させることなく差分波形DWの大きさが小さくなるように制御する。具体的に説明すると、通常であれば差分画像生成部32が輝度差「5」で差分画素DPとして抽出するところ、ある旋回状態においては例えば輝度差「20」で差分画素DPとして抽出するように変更することとなる。これにより、結果として移動体検出部34による移動体の検出精度が低下することとなる。尚、上記に限らず、差分波形生成部33は、差分波形を生成した後に、単純に差分波形DWを高さ方向に圧縮するようにして、差分波形DWの大きさが小さくなるように制御してもよい。
次に、第2実施形態に係る移動体検出方法について説明する。第2実施形態に係る移動体検出方法は、第1実施形態と同様であるが、ステップS3において閾値THの目標値を設定するのでなく、差分画素DPを抽出するための所定値の目標値を設定する。また、ステップS7において、閾値THを変化させるのでなく、所定値を変化させることとなる。
なお、他の処理については第1実施形態と同じである。
このようにして、第2実施形態に係る移動体検出装置2及び移動体検出方法によれば、第1実施形態と同様に、移動体の検出精度を向上させることができる。
さらに、第2実施形態によれば、自車両Vが旋回していると検出された場合に、自車両Vが旋回していない場合と比較して、差分画素DPを検出するための所定値を大きくすることにより、移動体の検出感度を低下させる。このため、差分画素DP自体が検出され難くなり、差分波形DWが小さくなって表れることから、移動体と誤判断しないようにすることができる。
次に、本発明の第3実施形態を説明する。第3実施形態に係る移動体検出装置及び移動体検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
図9は、第3実施形態に係る計算機30の詳細を示すブロック図である。なお、図9においては、接続関係を明確とするためにカメラ10及びセンサ20についても図示するものとする。
図9に示すように、計算機30は車線変更検出部(車線変更検出手段)37を備えている。車線変更検出部37は、自車両Vの車線変更を検出するものである。具体的に車線変更検出部37は、運転者によるウインカー操作を検出することにより、自車両Vの車線変更を検出する。なお、車線変更の検出方法は、これに限らず、例えば、カメラ10により撮像された画像データ上から自車両Vの横移動を判断して、車線変更を検出してもよいし、操舵角センサ22からの信号や横Gセンサからの信号を組み合わせて車線変更を検出してもよい。
図10は、第3実施形態に係る移動体検出装置3の動作の概要を示す車両上面図であり、自車両Vがラウンドアバウトを走行する際の様子を示している。図10に示すように、自車両Vがラウンドアバウトへ進入する際、右回りのラウンドアバウトに合わせて運転者はハンドルをやや右方向へ操舵する。その後、自車両Vが図10に示す位置Pに到達する。このとき、運転者がラウンドアバウトを抜けようとすると、運転者は左側のウインカーを点灯させると共に、ハンドルを左方向へ操舵する。そして、自車両Vはラウンドアバウトを抜けることとなる。
図11は、図10に示したラウンドアバウト走行時における旋回曲率を示すグラフである。図10を参照して説明したように、まず、ラウンドアバウトの進入時において自車両Vの運転者はハンドルを右方向に操舵するため、時刻t1〜t2に掛けて右方向ヘの旋回曲率が高まっていく。そして、時刻t2において旋回曲率は一定値を保つ。次いで、時刻t3において運転者は、ラウンドアバウトを抜けるべく、左側のウインカーを点灯させ、ハンドルを左側に操舵する。これにより、時刻t4において旋回曲率は一度零となり、時刻t5まで左方向ヘの旋回曲率が上昇することとなる。そして、運転者はラウンドアバウトを抜けるにあわせて、ハンドルをもとに戻していくため、時刻t6から旋回曲率は減少することとなる。
図12は、図10に示したラウンドアバウト走行時における感度を示すグラフであって、(a)は比較例を示し、(b)は第3実施形態に係る移動体検出装置3の感度状態を示している。なお、図12(a)においては、第1実施形態に係る移動体検出装置1の感度変更の様子を比較例として説明する。
上記の如く自車両Vがラウンドアバウトを走行した場合、図12(a)に示すように、まず、時刻t1において旋回が発生することから、感度が低下することとなる。また、旋回曲率は時刻t2まで高まっているため、感度についても時刻t1〜t2に掛けて次第に低下していく。
そして、時刻t2〜t3において旋回曲率が一定に保たれるため、感度は低下したまま維持される。その後、運転者がラウンドアバウトを抜けるべく左側のウインカーを点灯させハンドルを左側に操舵すると、時刻t4において旋回曲率は一度零となるため、時刻t3〜t4に掛けて感度は初期値に復帰するとことなる。次いで、時刻t5まで左方向ヘの旋回曲率が上昇するため、感度は時刻t4〜t5に掛けて再び低下していく。そして、時刻t5〜t6まで旋回曲率が一定に保たれることから、感度も低下したまま維持され、その後旋回曲率の低下に合わせて感度が初期値に向けて上昇することとなる。
しかし、図12(a)から明らかなように、時刻t4において感度が通常時と同じとなってしまう。このため、零となる瞬間やその付近において静止物を移動体と誤って検出し易くなってしまう。特にラウンドアバウトには、中央に草等が配置されていることが多く、一時的にでも感度が通常時と同じとなってしまうと、移動体の検出精度の低下を招いてしまう。
そこで、第3実施形態に係る感度設定部36は、操舵角が規定値以下となった場合に、車線変更検出部37により、現在走行時における旋回方向と逆方向ヘの車線変更が検出されたとき、低下させた感度を低下させる前の感度に復帰させる復帰速度を低下させる。
すなわち、図12(b)に示すように、時刻t3〜t4に掛けて感度を初期値まで戻すのではなく、時刻t3〜t5に掛けてゆっくりと低下させる。これにより、感度が急激に低下してしまうことを防止し、移動体の検出精度が低下してしまう事態を防止することができる。
次に、第3実施形態に係る移動体検出方法を説明する。図13は、第3実施形態に係る移動体検出方法を示すフローチャートである。なお、図13に示すステップS21〜S26までの処理は、図7に示したステップS1〜S6までの処理を同様であるため、説明を省略する。
ステップS27において感度設定部36は、操舵角が規定値以下となった場合に、その旋回方向と逆方向ヘの車線変更が検出されたか否かを判断する(S27)。旋回方向と逆方向ヘの車線変更が検出されたと判断した場合(S27:YES)、図10〜図12を参照して説明したように、自車両Vがラウンドアバウトを走行中であると考えられる。よって、感度設定部36は、ステップS25,S26にて設定したリミット値を低下させる。これにより、図12(b)に示したように、感度が急激に変更されることなく、低下させた感度を復帰させる復帰速度が低下することとなる。
そして、処理はステップS29に移行する。ステップS29〜S34に示す処理は、図7に示したステップS7〜S12に示す処理を同様であるため、説明を省略する。
このようにして、第3実施形態に係る移動体検出装置3及び移動体検出方法によれば、第1実施形態と同様に、移動体の検出精度を向上させることができ、静止物にも拘わらず差分波形が大きく表れてしまっても、閾値THが高められていることから、移動体であると判断され難くすることができる。また、一層移動体の検出精度を向上させることができ、静止物を一層移動体と誤判断しないようにすることができる。
また、第3実施形態によれば、操舵角が規定値以下となった場合に、その旋回方向と逆方向ヘの車線変更が検出されたとき、低下させた感度を低下する前の感度に復帰させる復帰速度を低下させる。このため、例えば旋回方向とは逆方向のウインカーを点灯させてラウンドアバウトを抜ける場合など、一時的に旋回状態が零となるが、その後旋回が発生するようなときには、零となる瞬間やその付近において静止物を移動体と判断されないように低下させた感度を即座に復帰させないこととすることができる。従って、ラウンドアバウトを抜ける場合などにおいても、移動体の検出精度を向上させることができる。
次に、本発明の第4実施形態を説明する。第4実施形態に係る移動体検出装置4及び移動体検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
図14は、第4実施形態に係る計算機30の詳細を示すブロック図である。なお、図14においては、接続関係を明確とするためにカメラ10についても図示するものとする。
図14に示すように、第4実施形態において、計算機30は輝度差算出部38と、エッジ波形生成部39と、移動体検出部34aとを備えている。以下において、各構成について説明する。
輝度差算出部38は、鳥瞰画像に含まれる立体物のエッジを検出するために、視点変換部31により視点変換された鳥瞰画像データにおける画素領域間の輝度差を算出する。具体的には、輝度差算出部38は、実空間における鉛直方向に伸びる鉛直仮想線に沿って複数の算出点を設定し、当該算出点近傍の2つの画素間の輝度差を算出する。なお、輝度差算出部38は、実空間における鉛直方向に伸びる鉛直仮想線を1本だけ設定する手法と、鉛直仮想線を2本設定する手法との何れかによって輝度差を算出することができる。
ここでは、鉛直仮想線を2本設定する具体的な手法について説明する。輝度差算出部38は、視点変換された鳥瞰画像に対して、実空間で鉛直方向に伸びる線分に該当する第1鉛直仮想線と、第1鉛直仮想線と異なり実空間で鉛直方向に伸びる線分に該当する第2鉛直仮想線とを設定する。輝度差算出部38は、第1鉛直仮想線上の点と第2鉛直仮想線上の点との輝度差を、第1鉛直仮想線及び第2鉛直仮想線に沿って連続的に求める。以下、この輝度差算出部38の動作について詳細に説明する。
輝度差算出部38は、図15(a)に示すように、実空間で鉛直方向に伸びる線分に該当し、かつ、検出領域A1を通過する第1鉛直仮想線La(以下、注目線Laという)を設定する。また、輝度差算出部38は、注目線Laと異なり、実空間で鉛直方向に伸びる線分に該当し、かつ、検出領域A1を通過する第2鉛直仮想線Lr(以下、参照線Lrという)を設定する。ここで参照線Lrは、実空間における所定距離だけ注目線Laから離間する位置に設定される。なお、実空間で鉛直方向に伸びる線分に該当する線とは、鳥瞰画像においてはカメラ10の位置Psから放射状に広がる線となる。この放射状に広がる線は、鳥瞰視に変換した際に立体物が倒れ込む方向に沿う線である。
輝度差算出部38は、注目線La上に注目点Pa(第1鉛直仮想線上の点)を設定する。また輝度差算出部38は、参照線Lr上に参照点Pr(第2鉛直板想線上の点)を設定する。これら注目線La、注目点Pa、参照線Lr、参照点Prは、実空間上において図15(b)に示す関係となる。図15(b)から明らかなように、注目線La及び参照線Lrは、実空間上において鉛直方向に伸びた線であり、注目点Paと参照点Prとは、実空間上において略同じ高さに設定される点である。なお、注目点Paと参照点Prとは必ずしも厳密に同じ高さである必要はなく、注目点Paと参照点Prとが同じ高さとみなせる程度の誤差は許容される。
輝度差算出部38は、注目点Paと参照点Prとの輝度差を求める。仮に、注目点Paと参照点Prとの輝度差が大きいと、注目点Paと参照点Prとの間にエッジが存在すると考えられる。特に、第4実施形態では、検出領域A1,A2に存在する立体物を検出するために、鳥瞰画像に対して実空間において鉛直方向に伸びる線分として鉛直仮想線を設定しているため、注目線Laと参照線Lrとの輝度差が高い場合には、注目線Laの設定箇所に立体物のエッジがある可能性が高い。
この点をより詳細に説明する。図16は、輝度差算出部38の詳細動作を示す図であり、図16(a)は鳥瞰視された状態の鳥瞰画像を示し、図16(b)は、図16(a)に示した鳥瞰画像の一部B1を拡大した図である。なお図16についても検出領域A1のみを図示して説明するが、検出領域A2についても同様の手順で輝度差を算出する。
カメラ10が撮像した撮像画像内に他車両Vが映っていた場合に、図16(a)に示すように、鳥瞰画像内の検出領域A1に他車両Vが現れる。図16(b)に図16(a)中の領域B1の拡大図を示すように、鳥瞰画像上において、他車両Vのタイヤのゴム部分上に注目線Laが設定されていたとする。この状態において、輝度差算出部38は、先ず参照線Lrを設定する。参照線Lrは、注目線Laから実空間上において所定の距離だけ離れた位置に、鉛直方向に沿って設定される。具体的には、本実施形態に係る立体物検出装置1aにおいて、参照線Lrは、注目線Laから実空間上において10cmだけ離れた位置に設定される。これにより、参照線Lrは、鳥瞰画像上において、例えば他車両Vのタイヤのゴムから10cm相当だけ離れた他車両Vのタイヤのホイール上に設定される。
次に、輝度差算出部38は、注目線La上に複数の注目点Pa1〜PaNを設定する。図16(b)においては、説明の便宜上、6つの注目点Pa1〜Pa6(以下、任意の点を示す場合には単に注目点Paiという)を設定している。なお、注目線La上に設定する注目点Paの数は任意でよい。以下の説明では、N個の注目点Paが注目線La上に設定されたものとして説明する。
次に、輝度差算出部38は、実空間上において各注目点Pa1〜PaNと同じ高さとなるように各参照点Pr1〜PrNを設定する。そして、輝度差算出部38は、同じ高さ同士の注目点Paと参照点Prとの輝度差を算出する。これにより、輝度差算出部38は、実空間における鉛直方向に伸びる鉛直仮想線に沿った複数の位置(1〜N)ごとに、2つの画素の輝度差を算出する。輝度差算出部38は、例えば第1注目点Pa1とは、第1参照点Pr1との間で輝度差を算出し、第2注目点Pa2とは、第2参照点Pr2との間で輝度差を算出することとなる。これにより、輝度差算出部38は、注目線La及び参照線Lrに沿って、連続的に輝度差を求める。すなわち、輝度差算出部38は、第3〜第N注目点Pa3〜PaNと第3〜第N参照点Pr3〜PrNとの輝度差を順次求めていくこととなる。
輝度差算出部38は、検出領域A1内において注目線Laをずらしながら、上記の参照線Lrの設定、注目点Pa及び参照点Prの設定、輝度差の算出といった処理を繰り返し実行する。すなわち、輝度差算出部38は、注目線La及び参照線Lrのそれぞれを、実空間上において接地線L1の延在方向に同一距離だけ位置を変えながら上記の処理を繰り返し実行する。輝度差算出部38は、例えば、前回処理において参照線Lrとなっていた線を注目線Laに設定し、この注目線Laに対して参照線Lrを設定して、順次輝度差を求めていくことになる。
このように、第2実施形態では、実空間上で略同じ高さとなる注目線La上の注目点Paと参照線Lr上の参照点Prとから輝度差を求めることで、鉛直方向に伸びるエッジが存在する場合における輝度差を明確に検出することができる。また、実空間において鉛直方向に伸びる鉛直仮想線同士の輝度比較を行うために、鳥瞰画像に変換することによって立体物が路面からの高さに応じて引き伸ばされてしまっても、立体物の検出処理が影響されることはなく、立体物の検出精度を向上させることができる。
図14に示すエッジ波形生成部39は、輝度差算出部38により検出されたエッジに基づいて、一次元のエッジ波形EWを生成する。たとえば、エッジ波形生成部39は、検出されたエッジの強度(輝度差)が所定のエッジ閾値t以上である画素を検出し、第1実施形態における差分波形DWの生成方法と同様に、エッジの強度(輝度差)が所定のエッジ閾値t以上である画素数を、視点変換により立体物が倒れ込む方向に沿ってカウントして度数分布化することで、一次元のエッジ波形EDを生成することができる。
さらに、エッジ波形生成部39は、一時刻前のエッジ波形EWt−1を自車両V1の車速度に基づく移動量だけオフセットさせることで、一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの位置合わせを行い、位置合わせした一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの差分に基づいて、エッジ差分波形EW’を生成する。ここで、図17(A)は、現在のエッジ波形EWの一例であり、図17(B)は、オフセットさせた一時刻前のエッジ波形EWt−1の一例であり、この場合、自車両Vに対して立体物は距離dだけ移動したものと判断できる。この場合、エッジ波形生成部39は、図17(C)に示すように、位置合わせした一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの差分を縦軸に、検出領域の進行方向における検出位置を横軸にプロットすることで、エッジ差分波形EW’を生成する。このように、エッジ波形生成部39は、一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの差分に基づいて、エッジ差分波形EW’を生成することで、移動体の可能性が高い立体物を検出することができる。
移動体検出部34aは、エッジ差分波形EW’のデータに基づいて移動体を検出する。第1実施形態と同様に、移動体検出部34aは、まず、エッジ差分波形EW’の平均値を算出し、算出したエッジ差分波形EW’の平均値が感度設定部36により設定された閾値TH以上であれば、移動体が存在する可能性があるものと判断し、一方、エッジ差分波形EW’の平均値が所定の閾値TH以上でなければ移動体である可能性がないものと判断する。ここで、エッジ差分波形EW’がノイズによるものである場合、エッジ差分波形EW’の平均値は所定の閾値TH以上となり難いため、移動体検出部34aは、まず閾値処理を行って移動体の可能性を判断している。なお、移動体検出部34aは、これに限らず、例えば、エッジ差分波形EW’のうち所定の閾値TH以上となる面積割合が所定割合以上である場合に移動体である可能性があると判断し、そうでない場合に移動体である可能性がないと判断してもよい。なお、感度設定部36は、エッジ差分波形EW’に基づいて立体物が移動体であるか否かを判断するための閾値として、差分波形DWに基づいて立体物が移動体であるか否かを判断するための閾値と異なる閾値を設定することができる。
また、移動体検出部34aは、上記閾値処理においてエッジ差分波形EW’が示す立体物が移動体である可能性があると判断した場合、一時刻前のエッジ差分波形EWt−1’と今回のエッジ差分波形EW’とを対応付けることで立体物の推定速度を算出する。たとえば、立体物が他車両Vである場合、他車両Vのタイヤ部分においてエッジが得られやすいことから、エッジ差分波形EW’は2つの極大値を有するものとなり易い。このため、一時刻前のエッジ差分波形EWt−1’と今回のエッジ差分波形EW’との極大値間のズレを求めることにより、自車両Vに対する他車両Vの相対速度を求めることができる。これにより、移動体検出部34aは、立体物の推定速度を求める。そして、移動体検出部34aは、推定速度に基づいて、エッジ差分波形EW’により示される立体物が移動体であるか静止物であるかを判断する。
次に、第4実施形態に係る移動体検出方法を説明する。図18は、第4実施形態に係る移動体検出方法を示すフローチャートである。なお、図18に示すステップS41〜S47までの処理は、図7に示したステップS1〜S7までの処理と同様であるため、説明を省略する。
ステップS48において、輝度差算出部38は、図15に示すように、実空間上において鉛直方向に伸びる線に相当する線を注目線Laとして設定するとともに、注目線Laと実空間上において所定距離離れた線を参照線Lrとして設定する。そして、輝度差算出部38は、注目線La上に複数の注目点Paを設定するとともに、該注目点Paと略同じ高さとなるように参照点Prを設定する。そして、輝度差算出部38は、実空間上において同じ高さとなる注目点Paと参照点Prとの輝度差を算出することで、鳥瞰画像から被写体のエッジを検出する。
ステップS49では、エッジ波形生成部39により、ステップS48で検出されたエッジに基づいて、一次元のエッジ差分波形ED’の生成が行われる。具体的には、エッジ波形生成部39は、エッジが検出された画素数を、視点変換により立体物が倒れ込む方向に沿ってカウントして度数分布化することで、一次元のエッジ波形EDを生成する。さらに、エッジ波形生成部39は、一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの位置合わせを行い、位置合わせした一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの差分に基づいて、エッジ差分波形EW’を生成する。
そして、ステップS50では、移動体検出部34aにより、ステップS49で生成されたエッジ差分波形EW’の平均値が、ステップS47で設定された閾値TH以上であるか否かの判断が行われる。エッジ差分波形EW’の平均値が閾値TH以上である場合には、移動体が存在する可能性があると判断し、ステップS51に進み、一方、エッジ差分波形EW’の平均値が閾値TH未満である場合には、移動体が存在する可能性はないものと判断し、図17に示す処理を終了する。
ステップS51では、移動体検出部34aにより、一時刻前のエッジ差分波形EWt−1’と今回処理で生成されたエッジ差分波形EW’との差分に基づいて、立体物の推定速度の算出が行われる。そして、ステップS52,S53では、第1実施形態のステップS11,S12と同様に、立体物の推定速度が、他車両や二輪車等の速度として適切であるか否かの判断が行われ(S52)、立体物の推定速度が他車両や二輪車等の速度として適切である場合には(S52:YES)、エッジ差分波形EW’によって示される立体物が検出対象となる移動体(他車両や二輪車等)であると判断される(S53)。
このように、第4実施形態に係る移動体検出装置4及び移動体検出方法によれば、鳥瞰画像からエッジを検出し、検出したエッジに基づいて立体物の推定速度を算出することで、自車両Vの光環境によっては、差分波形に基づいて立体物の推定速度を算出し難いような場面においても、エッジに基づいて立体物の推定速度を適切に算出することができる。また、第4実施形態によれば、静止物であるにもかかわらず、自車両Vが旋回しているために、エッジ差分波形EW’が大きく表れる場合でも、自車両Vの旋回状態に応じて閾値THを変更することで、静止物を移動体であると誤検出してしまうことを有効に防止することができる。
以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるもので
は無く、本発明の趣旨を逸脱しない範囲で、変更を加えてもよいし、各実施形態を組み合
わせてもよい。
例えば、上記実施形態において、自車両Vの車速を速度センサ21からの信号に基づいて判断しているが、これに限らず、異なる時刻の複数の画像から速度を推定するようにしてもよい。この場合、車速センサが不要となり、構成の簡素化を図ることができる。
また、上記実施形態においては、撮像した現時刻の画像と一時刻前の画像とを鳥瞰図に変換し、変換した鳥瞰図の位置合わせを行ったうえで差分画像PDを生成し、生成した差分画像PDを倒れ込み方向(撮像した画像を鳥瞰図に変換した際の立体物の倒れ込み方向)に沿って評価して差分波形DWを生成しているが、これに限定されない。例えば、一時刻前の画像のみを鳥瞰図に変換し、変換した鳥瞰図を位置合わせした後に再び撮像した画像相当に変換し、その画像と現時刻の画像とで差分画像を生成し、生成した差分画像を倒れ込み方向に相当する方向(すなわち、倒れ込み方向を撮像画像上の方向に変換した方向)に沿って評価するととによって差分波形DWを生成しても良い。すなわち、現時刻の画像と一時刻前の画像との位置合わせを行い、位置合わせを行った両画像の差分から差分画像PDを生成し、差分画像PDを鳥瞰図に変換した際の立体物の倒れ込み方向に沿って評価できれば、必ずしも鳥瞰図を生成しなくとも良い。
また、上述した実施形態では、立体物の推定速度が他車両や二輪車等の速度として適切であると判断した場合に、立体物を移動体と判断する構成を例示したが、自車両Vが旋回している場合には、他車両や二輪車等と判断される速度の条件を変更する構成としてもよい。たとえば、立体物の絶対移動速度が10km/h以上である場合に、立体物を移動体と判断している場合に、自車両Vが旋回している場合には、たとえば、立体物の絶対移動速度が20km/h以上である場合に、立体物は移動体であると判断することができる。これにより、自車両Vが旋回している場合に、立体物を移動体として検出することを抑制することができ、静止物を移動体として誤検出してしまうことを有効に防止することができる。
さらに、上述した第2実施形態では、自車両Vが旋回している場合に、差分画素DPを抽出するための閾値を高い値に変更する構成を例示しているが、この構成に限定されず、たとえば、自車両Vが旋回している場合に、各画素から出力される画素値を低くすることで、立体物を移動体として検出することを抑制する構成としてもよい。この場合も、自車両Vの旋回により、静止物を移動体として誤検出してしまうことを有効に防止することができる。
さらに、上述した第4実施形態では、自車両Vの旋回状態に応じて、立体物が移動体であるか否かを判断するための閾値THの値を変更する構成を例示したが、この構成に限定されず、たとえば、自車両Vの旋回状態に応じて、エッジを検出するためのエッジ閾値tを変更する構成としてもよい。たとえば、第4実施形態では、エッジの強度(輝度差)が所定のエッジ閾値t以上である画素数を、視点変換により立体物が倒れ込む方向に沿ってカウントして度数分布化することで、一次元のエッジ波形EDを生成しており、自車両Vが旋回している場合には、このエッジ閾値tを高い値に変更することで、生成されるエッジ波形EDの値を小さくし、その結果、移動体の検出を抑制することができ、静止物を移動体として誤検出してしまうことを有効に防止することができる。また、自車両Vが旋回している場合に、各画素から出力する輝度値を小さくすることで、立体物を移動体として検出することを抑制する構成としてもよい。この場合も、静止物を移動体として誤検出してしまうことを有効に防止することができる。
加えて、上述した第4実施形態では、一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの位置合わせを行い、位置合わせした一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとの差分に基づいて、エッジ差分波形EW’を生成し、一時刻前のエッジ差分波形EWt−1’と今回のエッジ差分波形EW’とを対応付けることで立体物の推定速度を算出する構成を例示したが、この構成に限定されず、たとえば、一時刻前のエッジ波形EWt−1と現在のエッジ波形EWとを対応付けることで立体物の推定速度を算出する構成としてもよい。また、エッジ波形EWが所定の閾値TH以上であるか否かを判断し、エッジ波形EWが所定の閾値TH以上である場合に、移動体の可能性がある立体物が存在すると判断し、エッジ波形EWが所定の閾値TH未満である場合に、移動体の可能性がある立体物が存在しないと判断する構成としてもよい。
なお、上述した実施形態のカメラ10は本発明の撮像手段に相当し、視点変換部31は本発明の画像変換手段に相当し、差分画像生成部32、差分波形生成部33、および、移動体検出部34,34a、輝度差算出部38、エッジ波形生成部39は本発明の立体物検出手段に相当し、移動体検出部34,34aは本発明の移動体検出手段に相当し、旋回検出部35は本発明の旋回検出手段に相当し、感度設定部36は本発明の制御手段に相当し、車線変更検出部37は本発明の車線変更検出手段に相当する。
1〜3…移動距雛検出装置
10…カメラ
20…センサ
21…車速センサ
22…操舵角センサ
30…計算機
31…視点変換部
32…差分画像生成部
33…差分波形生成部
34,34a…移動体検出部
35…旋回検出部
36…感度設定部
37…車線変更検出部
38…輝度差算出部
39…エッジ波形生成部
a…画角
A1,A2…検出領域
CP…交点
DP…差分画素
DW,DW’…差分波形
La,LB…立体物が倒れこむ方向上の線
PB…鳥瞰画像
PD…差分画像
V…自車両、他車両

Claims (17)

  1. 自車両周囲の移動体を検出する移動体検出装置であって、
    自車両に搭載され、自車両後側方を撮像する撮像手段と、
    前記撮像手段により得られた撮像画像を鳥瞰視画像に視点変換する画像変換手段と、
    前記画像変換手段により得られた異なる時刻の鳥瞰視画像の位置を鳥瞰視上で位置合わせし、当該位置合わせされた鳥瞰視画像の差分画像上において所定の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、該差分波形情報に基づいて、所定領域内に存在する立体物を検出するとともに、前記差分波形情報の波形の時間変化から前記立体物の移動速度を算出する立体物検出手段と、
    前記立体物の移動速度に基づいて、前記立体物検出手段により検出された前記立体物が移動体であるか否かを検出する移動体検出手段と、
    自車両の旋回を検出する旋回検出手段と、
    前記旋回検出手段により自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記差分波形情報に基づいて前記立体物を検出すること、または、前記立体物を前記移動体として検出することを抑制する制御手段と、を備えることを特徴とする移動体検出装置。
  2. 前記立体物検出手段は、前記差分波形情報の波形の大きさが所定の第1閾値以上である場合に、前記所定領域内に前記立体物が存在すると判断し、
    前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合には、自車両が旋回していない場合と比較して、前記第1閾値を高い値に変更することで、前記立体物の検出を抑制することを特徴とする請求項1に記載の移動体検出装置。
  3. 前記立体物検出手段は、前記差分画像上において所定の第2閾値以上の差分を示す画素数をカウントして度数分布化することで前記差分波形情報を生成し、
    前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合には、自車両が旋回していない場合と比較して、前記第2閾値を高い値に変更することで、前記立体物の検出を抑制することを特徴とする請求項1または2に記載の移動体検出装置。
  4. 前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合には、自車両が旋回していない場合と比較して、前記立体物検出手段に前記差分画素をカウントして度数分布化した値を低く出力させることで、前記立体物の検出を抑制することを特徴とする請求項1〜3のいずれかに記載の移動体検出装置。
  5. 自車両周囲の移動体を検出する移動体検出装置であって、
    自車両に搭載され、自車両後側方を撮像する撮像手段と、
    前記撮像手段により得られた撮像画像を鳥瞰視画像に視点変換する画像変換手段と、
    前記画像変換手段により得られた前記鳥瞰視画像からエッジ情報を検出し、該エッジ情報に基づいて所定領域内に存在する立体物を検出する立体物検出手段と、
    前記エッジ情報に基づいて前記立体物が移動体であるか否かを検出する移動体検出手段と、
    自車両の旋回を検出する旋回検出手段と、
    前記旋回検出手段により自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記エッジ情報に基づいて前記立体物を検出すること、または、前記立体物を移動体として検出することを抑制する制御手段と、を備えることを特徴とする移動体検出装置。
  6. 請求項5に記載の移動体検出装置であって、
    前記立体物検出手段は、前記鳥瞰視画像から、所定の画素領域ごとに前記エッジ情報を検出し、前記鳥瞰視画像に視点変換した際に立体物が倒れ込む方向に沿って、所定値以上の前記エッジ情報を有する画素領域の数をカウントして度数分布化することでエッジ波形情報を生成し、
    前記移動体検出手段は、前記エッジ波形情報に基づいて、前記立体物が前記移動体であるか否かを検出することを特徴とする立体物検出装置。
  7. 前記立体物検出手段は、異なる時刻に生成された前記エッジ波形情報の差分に基づいて、エッジ差分波形情報を生成し、
    前記移動体検出手段は、前記エッジ差分波形情報に基づいて、前記立体物が前記移動体であるか否かを検出することを特徴とする請求項6に記載の移動体検出装置。
  8. 前記立体物検出手段は、前記エッジ差分波形情報の波形の大きさが所定の第1閾値以上である場合に、前記所定領域内に前記立体物が存在すると判断し、
    前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合には、自車両が旋回していない場合と比較して、前記第1閾値を高い値に変更することで、前記立体物の検出を抑制することを特徴とする請求項7に記載の移動体検出装置。
  9. 前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合には、自車両が旋回していない場合と比較して、前記立体物検出手段に、前記エッジ波形の差分を低く出力させることで、前記立体物の検出を抑制することを特徴とする請求項7または8に記載の移動体検出装置。
  10. 前記立体物検出手段は、前記鳥瞰視画像から、隣接する画素領域間の輝度差が所定の第2閾値以上であるエッジ成分を抽出し、該エッジ成分に基づいて前記エッジ情報を検出し、
    前記制御手段は、前記旋回検出手段により自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記第2閾値を高い値に変更することで、前記立体物の検出を抑制することを特徴とする請求項5〜9のいずれかに記載の移動体検出装置。
  11. 前記制御手段は、自車両前方側に対応する前記第1閾値よりも、自車両後方側に対応する前記第1閾値を高く設定することを特徴とする請求項2または8に記載の移動体検出装置。
  12. 前記制御手段は、自車両前方側に対応する前記第2閾値よりも、自車両後方側に対応する前記第2閾値を高く設定することを特徴とする請求項3または10に記載の移動体検出装置。
  13. 前記旋回検出手段は、操舵角を検出することで前記自車両の旋回を検出し、
    前記制御手段は、前記旋回検出手段により検出された前記操舵角が大きいほど、前記立体物の検出を抑制する際の抑制度合い、または、前記移動体の検出を抑制する際の抑制度合いを高くすることを特徴とする請求項1〜12のいずれかに記載の移動体検出装置。
  14. 自車両の車線変更を検出する車線変更検出手段をさらに備え、
    前記制御手段は、前記操舵角が規定値以下となった場合に、前記車線変更検出手段により、その旋回方向と逆方向ヘの車線変更が検出された場合には、前記立体物の検出の抑制を解除する速度、または、前記移動体の検出の抑制を解除する速度を遅くすることを特徴とする請求項13に記載の移動体検出装置。
  15. 前記感度設定手段は、移動体の検出中においては、移動体の非検出中よりも、前記立体物の検出を抑制する際の抑制度合い、または、前記移動体の検出を抑制する際の抑制度合いを低くすることを特徴とする請求項1〜14のいずれかに記載の移動体検出装置。
  16. 自車両周囲の移動体を検出する移動体検出方法であって、
    自車両から、自車両後側方を撮像する撮像工程と、
    前記撮像工程における撮像により得られた撮像画像を鳥瞰視画像に視点変換する画像変換工程と、
    異なる時刻の前記鳥瞰視画像の位置を鳥瞰視上で位置合わせし、当該位置合わせされた鳥瞰視画像の差分画像上において所定の差分を示す画素数をカウントして度数分布化することで差分波形情報を生成し、該差分波形情報に基づいて、所定領域内に存在する立体物を検出するとともに、前記差分波形情報の波形の時間変化から前記立体物の移動速度を算出する立体物検出工程と、
    前記立体物の移動速度に基づいて、前記立体物が移動体であるか否かを検出する移動体検出工程と、
    自車両の旋回を検出する旋回検出工程と、
    前記旋回検出工程において自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記差分波形情報に基づいて前記立体物を検出すること、または、前記立体物を前記移動体として検出することを抑制する制御工程と、を備えることを特徴とする移動体検出方法。
  17. 自車両周囲の移動体を検出する移動体検出方法であって、
    自車両から、自車両後側方を撮像する撮像工程と、
    前記撮像工程における撮像により得られた撮像画像を鳥瞰視画像に視点変換する画像変換工程と、
    前記鳥瞰視画像からエッジ情報を検出し、該エッジ情報に基づいて所定領域内に存在する立体物を検出する立体物検出工程と、
    前記エッジ情報に基づいて前記立体物が移動体であるか否かを検出する移動体検出工程と、
    自車両の旋回を検出する旋回検出工程と、
    前記旋回検出工程において自車両が旋回していると検出された場合に、自車両が旋回していない場合と比較して、前記エッジ情報に基づいて前記立体物を検出すること、または、前記立体物を前記移動体として検出することを抑制する感度設定工程と、を備えることを特徴とする移動体検出方法。
JP2013526867A 2011-08-02 2012-07-27 移動体検出装置及び移動体検出方法 Active JP5664787B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013526867A JP5664787B2 (ja) 2011-08-02 2012-07-27 移動体検出装置及び移動体検出方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011168899 2011-08-02
JP2011168899 2011-08-02
PCT/JP2012/069092 WO2013018672A1 (ja) 2011-08-02 2012-07-27 移動体検出装置及び移動体検出方法
JP2013526867A JP5664787B2 (ja) 2011-08-02 2012-07-27 移動体検出装置及び移動体検出方法

Publications (2)

Publication Number Publication Date
JP5664787B2 JP5664787B2 (ja) 2015-02-04
JPWO2013018672A1 true JPWO2013018672A1 (ja) 2015-03-05

Family

ID=47629196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013526867A Active JP5664787B2 (ja) 2011-08-02 2012-07-27 移動体検出装置及び移動体検出方法

Country Status (9)

Country Link
US (1) US9665781B2 (ja)
EP (1) EP2741256B1 (ja)
JP (1) JP5664787B2 (ja)
CN (1) CN103718214B (ja)
BR (1) BR112014001837B1 (ja)
MX (1) MX2014000603A (ja)
MY (1) MY165967A (ja)
RU (1) RU2568777C2 (ja)
WO (1) WO2013018672A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5740241B2 (ja) * 2011-08-03 2015-06-24 株式会社東芝 車両検出装置
RU2544775C1 (ru) * 2011-09-12 2015-03-20 Ниссан Мотор Ко., Лтд. Устройство обнаружения трехмерных объектов
KR101573576B1 (ko) * 2013-10-08 2015-12-01 현대자동차주식회사 Avm 시스템의 이미지 처리 방법
KR101573764B1 (ko) * 2014-07-28 2015-12-02 현대모비스 주식회사 차량의 주행 차로 인식 시스템 및 방법
EP3023906B1 (en) 2014-11-18 2018-05-16 Volvo Car Corporation Roundabout detecting arrangement, adaptive cruise control arrangement equipped therewith and method of detecting a roundabout
JP6581379B2 (ja) * 2015-03-31 2019-09-25 株式会社デンソー 車両制御装置、及び車両制御方法
US9676326B2 (en) * 2015-09-25 2017-06-13 Ford Global Technologies, Llc Drive history parking barrier alert
CN108352120B (zh) 2015-11-10 2021-10-29 古河电气工业株式会社 监测装置以及监测方法
JP6538540B2 (ja) * 2015-12-17 2019-07-03 株式会社ヴァレオジャパン ターンシグナル装置
TWI585723B (zh) * 2015-12-31 2017-06-01 合盈光電科技股份有限公司 車輛監控系統及其方法
US9910440B2 (en) * 2016-05-13 2018-03-06 Delphi Technologies, Inc. Escape-path-planning system for an automated vehicle
JP6750519B2 (ja) * 2016-05-24 2020-09-02 株式会社Jvcケンウッド 撮像装置、撮像表示方法および撮像表示プログラム
CN106446796B (zh) * 2016-08-30 2020-08-28 安徽清新互联信息科技有限公司 一种车辆间距检测方法
EP3696788B1 (en) * 2017-10-10 2022-08-10 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
JP6766844B2 (ja) * 2018-06-01 2020-10-14 株式会社デンソー 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置
CN112654836A (zh) * 2019-02-04 2021-04-13 御眼视觉技术有限公司 用于车辆导航的系统和方法
JP6887471B2 (ja) * 2019-09-20 2021-06-16 三菱電機株式会社 車両用後側方警報装置
JP7418481B2 (ja) 2022-02-08 2024-01-19 本田技研工業株式会社 学習方法、学習装置、移動体制御装置、移動体制御方法、およびプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2068582C1 (ru) * 1992-08-14 1996-10-27 Научно-исследовательский институт промышленного телевидения "Растр" Устройство для выделения подвижных объектов на изображении
JP3226415B2 (ja) 1994-04-13 2001-11-05 三菱電機株式会社 自動車用移動体認識装置
FR2751772B1 (fr) * 1996-07-26 1998-10-16 Bev Bureau Etude Vision Soc Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement
JP2000214256A (ja) 1999-01-28 2000-08-04 Mazda Motor Corp 車両の表示装置
US7376250B2 (en) * 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
JP4259368B2 (ja) * 2004-03-26 2009-04-30 三菱自動車工業株式会社 ノーズビューモニタ装置
US7190282B2 (en) 2004-03-26 2007-03-13 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Nose-view monitoring apparatus
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
CN100583125C (zh) * 2008-02-28 2010-01-20 上海交通大学 车辆智能后视方法
JP5108605B2 (ja) 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
JP5054612B2 (ja) * 2008-05-15 2012-10-24 株式会社日立製作所 接近物検出装置および接近物検出方法
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置

Also Published As

Publication number Publication date
US20140146176A1 (en) 2014-05-29
BR112014001837A2 (pt) 2017-02-21
EP2741256B1 (en) 2019-12-11
BR112014001837B1 (pt) 2021-04-20
US9665781B2 (en) 2017-05-30
CN103718214A (zh) 2014-04-09
EP2741256A1 (en) 2014-06-11
RU2014107925A (ru) 2015-09-10
CN103718214B (zh) 2017-08-11
WO2013018672A1 (ja) 2013-02-07
RU2568777C2 (ru) 2015-11-20
MX2014000603A (es) 2014-03-31
JP5664787B2 (ja) 2015-02-04
EP2741256A4 (en) 2015-06-17
MY165967A (en) 2018-05-18

Similar Documents

Publication Publication Date Title
JP5664787B2 (ja) 移動体検出装置及び移動体検出方法
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP6246014B2 (ja) 外界認識システム、車両、及びカメラの汚れ検出方法
JP5761349B2 (ja) 立体物検出装置及び立体物検出方法
JP4714104B2 (ja) 物体傾き検出装置
US20030137593A1 (en) Infrared image-processing apparatus
US9965690B2 (en) On-vehicle control device
JP4901275B2 (ja) 走行誘導障害物検出装置および車両用制御装置
US20140168440A1 (en) Three-dimensional object detection device
JP2008168811A (ja) 車線認識装置、車両、車線認識方法、及び車線認識プログラム
WO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
WO2013094242A1 (ja) 立体物検出装置
JP6315308B2 (ja) 制御用対象物識別装置、移動体機器制御システム及び制御用対象物認識用プログラム
JP5874831B2 (ja) 立体物検出装置
JP5682735B2 (ja) 立体物検出装置
JP4721278B2 (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP3925285B2 (ja) 走行路環境検出装置
JP5794378B2 (ja) 立体物検出装置及び立体物検出方法
JP5783319B2 (ja) 立体物検出装置及び立体物検出方法
JP2005127781A (ja) 車両用測距性能低下検出装置
JP6429101B2 (ja) 画像判定装置、画像処理装置、画像判定プログラム、画像判定方法、移動体
JP5724570B2 (ja) 走行支援装置及び走行支援方法
JP5817913B2 (ja) 立体物検出装置及び立体物検出方法
JP5768927B2 (ja) 立体物検出装置
JP5842466B2 (ja) 移動体検出装置及び移動体検出方法

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R151 Written notification of patent or utility model registration

Ref document number: 5664787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151