JP2014096005A - 物体検出装置及び物体検出方法 - Google Patents

物体検出装置及び物体検出方法 Download PDF

Info

Publication number
JP2014096005A
JP2014096005A JP2012246693A JP2012246693A JP2014096005A JP 2014096005 A JP2014096005 A JP 2014096005A JP 2012246693 A JP2012246693 A JP 2012246693A JP 2012246693 A JP2012246693 A JP 2012246693A JP 2014096005 A JP2014096005 A JP 2014096005A
Authority
JP
Japan
Prior art keywords
image
object detection
region
distance
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012246693A
Other languages
English (en)
Other versions
JP6013884B2 (ja
Inventor
Yasushi Otsuka
裕史 大塚
Hiroto Mitoma
寛人 三苫
Akira Ota
亮 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2012246693A priority Critical patent/JP6013884B2/ja
Priority to US14/441,419 priority patent/US9424462B2/en
Priority to PCT/JP2013/077694 priority patent/WO2014073322A1/ja
Priority to EP13854008.3A priority patent/EP2919197B1/en
Publication of JP2014096005A publication Critical patent/JP2014096005A/ja
Application granted granted Critical
Publication of JP6013884B2 publication Critical patent/JP6013884B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】距離画像に基づくグループ化の誤りを抑制できる、物体検出装置及び物体検出方法を提供する。
【解決手段】一対の濃淡画像に基づいて距離画像を生成し(S603)、距離画像において距離データが近い隣接領域をグループ化する(S604)。一方、前記濃淡画像における、物体の接地面よりも下方の縦ラインにおける輝度と、前記接地面よりも上方の縦ラインにおける輝度との差を演算し、前記輝度の差に基づき、前記グループ化された領域を左右に分割する(S605)。更に、前記濃淡画像に基づいて分割した領域の左右領域のいずれかで垂直エッジに途切れがあるか否かを判定し、垂直エッジの途切れがあった側で隣接する領域どうしをマージする(S607)。
【選択図】図6

Description

本発明は、一対の濃淡画像に基づいて生成した距離画像に基づいて物体を検出する物体検出装置及び物体検出方法に関する。
特許文献1には、ステレオ画像処理によって生成される距離画像に基づいて物体を検出する物体検出装置において、距離画像の距離データの信頼性を評価して、有効距離データと無効距離データとを抽出し、これら有効距離データ及び無効距離データに基づき、同一物体とみなすグループ化を行うことが開示されている。
特開2008−065634号公報
しかし、距離画像における有効距離データ及び無効距離データに基づくグループ化では、有効距離データが物体の左右エッジに集中するために十分な情報が得られず、同距離に並ぶ複数の物体を同一物体とみなしてしまうことを防ぐことが難しかった。
そして、車両周辺の監視を行う場合であって、先行車の他に、歩行者やバイクなどが存在する場合に、例えば、車両と歩行者とをひとまとめにしてしまうグループ化の誤りが生じると、歩行者に対しては十分に減速し、先行車に対しては追従させたり発進警報を発したりといった、車両と歩行者との違いに応じた車両制御が行えなくなってしまう。
そこで、本発明は、距離画像に基づくグループ化の誤りを抑制できる、物体検出装置及び物体検出方法を提供することを目的とする。
そのため、本願発明の物体検出装置は、一対の濃淡画像に基づいて距離画像を生成する距離画像生成部と、前記距離画像において距離データが近い隣接領域をグループ化するグループ化部と、前記グループ化された領域を前記濃淡画像に基づいて分割する分割部と、を備えるようにした。
また、本願発明の物体検出方法は、一対の濃淡画像に基づいて距離画像を生成するステップと、前記距離画像において距離データが近い隣接領域をグループ化するステップと、前記グループ化された領域を前記濃淡画像に基づいて分割するステップと、を含むようにした。
本発明によれば、距離画像に基づくグループ化の誤りを抑制できる。
本発明の実施の形態における車両運転支援システムの構成を示すブロック図である。 本発明の実施の形態におけるカメラユニット及び画像信号処理ユニットの構成図である。 本発明の実施の形態におけるカラーフィルタの配置例を示す図である。 本発明の実施の形態におけるステレオカメラによる測距原理を説明するための図である。 本発明の実施の形態における先行車の濃淡画像及び距離画像を示す図である。 本発明の実施の形態におけるグルーピング処理の流れを示すフローチャートである。 本発明の実施の形態における複数歩行者に対する処理結果を示す図である。 本発明の実施の形態における歩行者及び先行車に対する処理結果を示す図である。 本発明の実施の形態における濃度画像に基づく分割処理を示す図である。 本発明の実施の形態における垂直エッジによるマージ処理を説明するための図である。
以下に、本発明の実施の形態を、図面を用いて説明する。
図1は、本願発明に係る物体検出装置及び方法の一例として、前方衝突警告(FCW:Forward Collision Warning)と車間距離制御(ACC:Adaptive Cruise Control)とを実施する車両運転支援システムの構成を示すブロック図である。
この図1において、カメラユニット(ステレオカメラ)101は、車両107の前方の視界を捕えるように、自車に設置される。
カメラユニット101が撮像した車両前方画像は、画像信号処理ユニット102に入力され、画像信号処理ユニット102は、車両前方画像に基づいて先行車までの距離や相対速度を計算し、先行車までの距離や相対速度などの情報を、制御ユニット103に送信する。
制御ユニット103は、先行車までの距離や相対速度から衝突の危険度を判定し、危険度に応じて、スピーカ104で警告音(前方衝突警告)を出したり、ブレーキ106で減速したりするなどの指令を出力する。
また、車両107のドライバーがACC機能を有効にしている場合、制御ユニット103は、アクセル105及びブレーキ106を制御して自車を先行車に一定の車間距離を保ちながら追従させたり、先行車がいない場合は設定車速まで加速させたりする制御(車間距離制御)を行う。
次に、上記の車両運転支援システムにおいて、カメラユニット101の撮像画像に基づき先行車などを検出する方法を説明する。
図2は、カメラユニット101及び画像信号処理ユニット102の内部構成を示すブロック図である。
カメラユニット101は、左右一対のカメラ101a、101bからなり、カメラ101a、101bは、それぞれCMOS(Complementary Metal Oxide Semiconductor)201a、201b及びDSP(Digital Signal Processor)202a、202bを備えている
CMOS201a、201bは、光を電荷に変換するフォトダイオードが格子状に並んだ撮像素子である。
ここで、CMOS201がカラー素子である場合、CMOS201のRAW画像(カラー画像)をDSP202に転送して、DSP202において濃淡画像に変換する。
一方、CMOS201がモノクロ素子である場合、濃淡画像をそのまま画像信号処理ユニット102の画像入力I/F205に送信する。
画像信号はカメラユニット101から画像入力I/F205に対して連続的に送信されるが、その先頭には同期信号が含まれており、画像入力I/F205で必要なタイミングの画像のみを取り込むことができるようになっている。
画像入力I/F205を介して画像信号処理ユニット102内に取り込まれた左右一対の濃淡画像は、メモリ206に書き込まれ、画像処理ユニット204は、メモリ206に格納された画像に基づき視差計算処理や解析処理などを行う。
画像処理ユニット204における一連の処理は、フラッシュROMに予め書き込まれたプログラム207に従って行われる。
CPU203は、画像入力I/F205による画像の取り込みや、画像処理ユニット204で画像処理を行わせたりするための制御、及び、必要な計算を行う。
CMOS201a、201bは、露光制御を行うための露光制御ユニットと露光時間を設定するレジスタを内蔵しており、CMOS201a、201bはレジスタに設定された露光時間で撮像する。
レジスタに設定される露光時間は、CPU203によって書き換えることが可能で、CPU203によって書き換えられた露光時間は、次フレーム或いは次フィールド以降の撮像時に反映される。
露光時間は電子制御可能で、露光時間によってCMOS201a、201bに当たる光の量が制限される。
露光時間制御は、前記のような電子シャッター方式によって実現できるが、メカニカルシャッターを開閉させる方式を用いても同様に実現可能である。また、絞りを調整することで露光量を変化させることができる。また、インターレースのように1ラインおきに走査する場合、奇数ラインと偶数ラインとで露光量を変化させることができる。
画像信号処理ユニット102は、先行車までの距離や相対速度などの情報を、CANI/F208を介して制御ユニット103に送信し、制御ユニット103は、送信された情報に基づき前方衝突警告や車間距離制御などを実施する。
以下では、DSP202a、202bが行う濃淡画像変換処理を説明する。
CMOS201a、201bがカラー素子である場合、各画素は赤(R)、緑(G)、青(B)のいずれか1色の強度を測定するため、それ以外の色は周囲の色を参照して推定する。例えば、図3(a)の中央のG22の画素のRGBはそれぞれ数1のようにして算出することができる。
同様に、図3(b)の中央のR22の画素のRGBはそれぞれ数2のようにして算出することができる。
G22、R22以外の画素についても、同様にしてRGBの値を求めることができ、全ての画素でRGBの3原色の強度を計算して、カラー画像を得る。そして、全画素での明度Yを数3に従って算出してY画像を作成し、当該Y画像を濃淡画像とする。
左右一対のカメラ101a、101bで撮像された左右一対の画像から、カメラと対象物(障害物)の表面までの距離データを、画素毎の距離データとして画像形式で出力することができ、この画像形式の距離データを距離画像と呼ぶ。
図4は、左右一対のカメラ101a、101bを用いた測距原理(三角測量)を説明するための図である。
図4において、被写体である車両402(先行車)の背面におけるある点Pは、右カメラ画像(基準画像)上では点Prに写り、左カメラ画像(参照画像)上では点Plに写る。
カメラの焦点距離をf、レンズ401a、401bの主点から車両402までの距離をZ、右カメラと左カメラの基線長をB、点Prと点Plの位置ズレ量、すなわち視差をdとすると、距離Zは三角形の相似比から数4のようにして計算できる。
ここで、基線長B及び焦点距離fは一定値であるため、距離Zを求めることと、視差dを求めることは等価である。
視差dを求めるためには、右カメラ画像(基準画像)上の点Prに対応する左カメラ画像(参照画像)の点Plを求める。点Prと点Plとは被写体の同じ部位であるため、画像上でも両点の周辺はほぼ同じ形状、輝度になる。
そこで、基準画像のm×nのブロックに対して、類似度を計算するパターンマッチングを用いて、参照画像の対応するブロックを求めるブロックマッチングと呼ばれる手法を用いる。
ここで、m,nは2以上の整数であり、値が大きいほどブロックの特徴量が大きくなるため誤マッチングは防止できロバストにはなるが、ブロックよりも小さな対象の距離は正確に出ないため、遠方の対象物まで考慮して最適な値に設定される。
具体的には、ブロックの大きさが、検知したい最遠方の立体物の大きさよりも十分小さくなるように、例えば、m=n=5に設定する。
ブロックマッチングのアルゴリズムとしては、ブロック間における画素ごとの輝度差の絶対値の総和SAD(Sum of Absolute Difference)を計算し、係るSAD値が最も小さいブロックを選ぶ方法を用いることができる。
SAD値は数5のようにして求めることができ、SADの値が小さいほどより形状が一致している(類似度が高い)ことになる。
エピポーラ線上に探索を行って、SADの値が最も小さい場所を視差として距離データに換算する。この処理を画像全領域で行うことで距離画像(画素毎の距離データからなる画像)を生成することができる。
ここで、全ての基準画像のブロックにおいて最適な視差が求まるわけではなく、たとえばブロック内の画素の輝度差がほとんど無い場合、その周辺も同じようになだらかで平坦なパターンが続いていることが多い。このような場合は、一様な領域内であればどこでも高い類似度を示すことになるため、最適な距離データを求めることができない。
そこで、このような特徴量の少ないブロックに関しては、ブロックマッチングの結果を無視する無効領域(無効距離データ)とする。逆に、輝度差があるエッジ上の箇所など、特徴量の多いブロックに関しては、ブロックマッチングの結果を信頼できるので、ブロックマッチングの結果を採用する有効領域(有効距離データ)とする。
左右に配置されたステレオカメラの場合は、左右方向にブロックマッチングを行って視差計算をするため、水平方向に輝度差がある垂直エッジ付近に有効な距離データが集まりやすい。
図5(a)は、先行車501の映像(濃淡画像)の一例で、図5(b)は、図5(a)の先行車の映像に対応する距離画像における有効領域(有効距離データ)を表したものである。
図5(b)に示す黒い線領域は、垂直エッジの部分であると同時に距離データの有効領域でもあり、黒い線領域では距離データの信頼性が高い。
ブロックマッチングの結果(視差)の有効領域と無効領域とは、数6に従って算出される指標値Tを用いて判定される。
数6に従って演算される指標値Tは、ブロック内で横方向に隣接する画素同士の輝度差の平均を表す。そして、指標値Tが、所定の値(例えば5)以上である場合は、ブロックの特徴量が大きいため距離(視差)の信頼値が高い、つまり、距離データの有効領域(有効距離データ)であると判定し、逆に、指標値Tが所定の値よりも小さい場合は、ブロックの特徴量が小さいため、距離データの無効領域(無効距離データ)であると判定する。
ここで、対象物が先行車両の場合、車両の背面は一般になだらかで平坦な輝度パターンが続いていて距離データが無効となることが多いので、図5(b)の先行車502のように、有効領域(有効距離データ)は、車両の左右に分断されてしまうことが多い。
図6は、有効領域のグルーピング処理を含む物体検出処理の流れを示すフローチャートである。
図6のフローチャートに示す物体検出処理では、左右一対の濃淡画像に基づき、画素毎の距離データ(視差データ)からなる距離画像を生成し、距離画像の有効領域のなかで距離が近い隣接する領域をひとまとめにするグルーピングを行う。次いで、濃淡画像(輝度データ)に基づく物体領域の切り出しに応じて、距離画像に基づきグルーピングした領域の分割を行い、更に、前記分割によって、同一物体領域が分離されたか否かを、濃淡画像における垂直エッジに基づき判定し、同一物体領域が分離されていれば、当該領域をマージする処理を行う。
図7及び図8は、図6のフローチャートに示す手順によって処理を行った結果の実例を示す図である。
図7は、3名の歩行者が自車から略等距離の位置に並んで立っている例であり、3名が並んでいる幅が、同程度の距離の車間で先行する車両の幅と同程度であるため、誤ったグルーピングを行い易いシーンである。
また、図8は、車両の近傍に歩行者が居る場合の例である。障害物が車両である場合よりも歩行者である場合にブレーキをより早いタイミングで(より遠い距離から)作動させる設定の場合、図8のようなシーンでは、車両と歩行者とを早期に分離しておかないと、歩行者に対するブレーキの作動が遅れることになる。
以下、図6のフローチャートに従って、物体検出処理を詳述する。
まず、ステップS601、ステップS602では、左右のカメラ101a、101bで撮像された画像からそれぞれに濃淡画像を取得する。
カメラ101a、101bが、モノクロの撮像素子を備える場合には、そのままの画像形式で濃淡画像を取得できるが、カラー撮像素子を備える場合には、前述した数1、数2、数3に従って、3原色の信号を輝度Yの信号、即ち、濃淡形式に変換して、濃淡画像を取得する。
次のステップS603(距離画像生成部)では、左右一対の濃淡画像に基づくブロックマッチングによって同一物体に対する視差を求めて、距離画像を生成する。
更にステップS604(グループ化部)では、距離画像において距離データが近い隣接する有効領域をひとまとめにするグルーピングを行う。
図7(a)及び図8(a)は、ステップS604におけるグルーピングの結果の一例を示す図である。
距離データが近い有効領域をグルーピングすることで、自車から異なる距離に位置する物体を分離して検出することができるが、同程度の距離に異なる複数の物体(複数名の歩行者や、歩行者と車両など)が並んで位置している場合に、これらを同一物体として誤ってグルーピングしてしまう可能性がある。
図7(a)に示す例では、3名の歩行者が略同距離で横に並んでいて、これら3名の歩行者を含む矩形領域にグルーピングされ、図8(a)に示す例では、一人の歩行者と車両とが略同距離で横に並んでいて、これら1名の歩行者と車両とを含む矩形領域にグルーピングされている。
例えば、図8(a)に示す例のようにグルーピングされると、車両と歩行者とを分離検出できず、歩行者に対するブレーキの作動が遅れることになる。
そこで、次のステップS605(分割部)では、距離画像に基づき同一物体としてグルーピングした領域が分割可能であるか否かを、濃淡画像に基づく物体領域の切り出しに基づいて判定し、分割可能である場合、つまり、グルーピングした1つ領域に複数の異なる物体が含まれている場合には、グルーピングした領域を濃淡画像に基づく物体領域の切り出しに応じて分割する。
これにより、距離データに基づくグルーピング処理の誤りを修正し、同程度の距離に並んで位置している複数の物体を分離して検出することが可能となる。
ここで、図9を参照して、ステップS605における分割処理を詳細に説明する。
ステップS605では、グルーピングされた領域が分割可能であるか否かを、濃淡画像の縦方向における輝度差に基づいて判定し、分割可能であれば分割を行う。
まず、図9(a)に示すように、濃淡画像において、物体の接地面901よりも下にある縦ライン903における輝度平均(路面平均輝度)を求め、接地面901より上の縦ライン902における輝度と上記の路面平均輝度との差分の絶対値の累積を演算する。
即ち、接地面901のY座標を0としたときに、数7に従って、接地面901は挟んだ上下での輝度差Dを縦ライン毎に演算する。
ここで、数7における「h」は、画像中における物体(立体物)の見かけ上の高さ(pixel)である。
尚、輝度差Dを演算する縦ラインを、画像の横方向において間引いて設定することができ、また、縦ラインの幅は1画素或いは複数画素とすることができる。また、接地面901とは、歩行者の場合は足元位置であり、車両ではタイヤの接地面であり、例えば、距離画像上でグルーピングした領域の下端に連続的に繋がる略水平の面を接地面901とすることができる。
路面と路面上の物体との間には一般的に輝度差が生じる一方、接地面901よりも下の領域には路面が撮像されているものと推定できるので、接地面901よりも下の領域(路面)に対して輝度差が大きい、接地面901よりも上の領域は、物体領域(歩行者や車両など)であるものと推定でき、逆に、接地面901よりも下の領域に対して輝度差が小さい、接地面901よりも上の領域は、路面の延長上の領域であると推定できる。
上記の輝度差Dの演算を、濃淡画像の縦ライン毎に行った結果を、図9(b)に示してある。
図9の場合、図9(a)に示したように、3名の歩行者が横に並んでいるシーンであり、図9(b)に示すように、3名の歩行者の間隔部分では、接地面901を挟んだ上下が共に路面となるため、輝度差Dが小さくなる一方、3名の歩行者の立ち位置部分では、接地面901よりも下方が路面であるのに対し、同じ縦ライン上の接地面901よりも上方が歩行者であるため、上下が路面である場合に比べて輝度差Dが大きくなる。
その結果、輝度差Dは、横方向において、歩行者の位置で大きくなって凸状をなし、歩行者の間で小さくなって凹状をなすことになり、係る輝度差Dの横方向での変化に基づき、横方向での物体領域(歩行者領域)を切り出すことが可能である。
そこで、例えば、輝度差Dの横方向での変化における変曲点を通る縦ライン、つまり、輝度差Dが大きい領域と小さい領域の境界ラインを、物体領域の境界ラインとして設定し、係る境界ラインで挟まれる輝度差Dが凸状をなす領域を、物体領域(歩行者領域)として検出し、前記境界ラインで挟まれる輝度差Dが凹状をなす領域を、非物体領域(路面領域)として検出する。
そして、距離データに基づきグルーピングした領域に、前記輝度差Dに基づく境界ライン(非物体領域、路面領域)が含まれる場合には、分割可能と判定し、縦方向に延びる非物体領域を挟んで左右に分割する。
図7(b)及び図8(b)は、ステップS605における分割処理の結果を示す。
図7に示す例では、距離画像に基づくグルーピングで、図7(a)に示すように3名の歩行者が一括りにグルーピングされた領域が、濃淡画像に基づく分割によって、図7(b)に示すように、3名の歩行者毎に分割される。
これにより、障害物を歩行者として検知して、当該歩行者との距離に応じた車両制御(ブレーキ制御、警告制御)を行える。
また、図8に示す例では、距離画像に基づくグルーピングで、図8(a)に示すように1名の歩行者と車両とが一括りにグルーピングされた領域から、濃淡画像に基づく分割によって、図8(b)に示すように、1名の歩行者を分離でき、歩行者に対して距離に応じた車両制御(ブレーキ制御、警告制御)を行える。
また、距離画像に基づきグルーピングされた領域から、濃淡画像に基づく分割によって車両領域を正しく切り出すことが可能であるが、車両の場合、車両背面のパターンや状況によっては、図8(b)に示すように、濃淡画像に基づく分割によって車両領域が左右に分離されてしまう可能性がある。
例えば、輝度差Dの演算において、先行車背面の中央寄りで、接地面901よりも下にある縦ライン903が、路面上の影の領域に設定され、かつ、車両の色が濃色である場合には、接地面901の上下での輝度差Dが大きくならず、非物体領域であると誤検出してしまう可能性がある。この場合、先行車背面の中央寄りの縦領域が非物体領域として検出されることで、図8(b)に示すように、先行車背面の左側部分と右側部分とに分割されてしまい、先行車背面が同一物体として検出されなくなってしまう。
そこで、ステップS606(マージ部)では、距離画像に基づくグルーピング領域を濃淡画像に基づき分割した結果が、正しく同一物体領域を切り出したか否かを、垂直エッジに基づいて判定し、同一物体領域を正しく切り出していない場合には、誤って分割した領域をマージ(併合)する処理を行う。
ステップS606では、まず、ステップS605で分割した各領域内に、図7(c)及び図8(c)に示すように、右領域と左領域とを設け、左右それぞれの領域に含まれる垂直エッジ成分の累積を求める。尚、右領域、左領域とは、ステップS605で分割した各領域の幅方向の中心付近を境に右側及び左側にそれぞれ設定した所定幅の領域である。
ステップS605で分割した各領域が1つの物体を包含する場合には、左右それぞれに物体の輪郭が存在することになるので、実際に物体の左右の輪郭が含まれているか否かを、垂直エッジ成分の累積値に基づいて判断する。
例えば、車両背面の中央寄りの領域に含まれる垂直エッジは、平坦であるバンパー付近で少なくなるという特徴がある。このため、図8(c)に示すように、先行車の背面領域を左側と右側とに誤って分割した場合、背面左側の領域801に設定した左右領域LE、REのうちの中央寄りである右領域REでは、バンパーの高さ付近で垂直エッジの途切れが生じ、同様に、背面右側の領域802に設定した左右領域LE、REのうちの中央寄りである左領域LEでは、バンパーの高さ付近で垂直エッジの途切れが生じる。
そこで、左右領域LE、REについて垂直エッジの量や分布を解析して、上記の垂直エッジの途切れがあるか否かを検証し、左右領域LE,REの一方に垂直エッジの途切れがあった場合には、誤った分割を行ったものと判定し、ステップS607(車両検出部)へ進んで、相互に垂直エッジの途切れがあった側で隣接する領域どうしをマージし、マージした領域の物体を先行車両として検出する。
一方、左右領域LE,REのいずれにも垂直エッジの途切れがなかった場合には、濃度画像に基づく分割に誤りがなかったものと判定し、ステップS608へ進んで、濃度画像に基づき分割した領域に従って物体検出を行う。
図10は、上記マージ処理の一例を説明するための図である。
図10(a)に示すように、濃淡画像によって分割した領域に左右領域LE,REを設定し、左右領域LE,RE毎に垂直エッジ成分の累積値を演算する。
図10(b)及び(c)は、左右領域LE,REそれぞれで求めた垂直エッジ成分の累積値を、Y軸に投影した結果である。
図10(a)の分割領域801は、先行車両の左側面を含む領域であり、分割領域801の左領域LEには、車両左側面の垂直エッジが含まれるため、図10(b)に示すように、垂直エッジ成分の累積値は、途中で急激な落ち込みを示すことなく、なだらかな変化を示す。
一方、車両の中央寄りの右領域REには、バンパーやボディー部分で垂直エッジが少ない箇所が存在するため、図10(c)に示すように、バンパーやボディー部分などの垂直エッジが少なくなる途中の領域で急激な落ち込みを示す。
そこで、垂直エッジ成分の累積値が途中で急激に落ち込んでいるか否か(垂直エッジ成分の途切れがあるか否か)を左右領域LE,REで判定し、垂直エッジ成分の落ち込み(途切れ)が認められた左領域LE又は右領域REについては、車両の輪郭部分ではなく、輪郭部分よりも中央寄りの領域であると判定する。
換言すれば、左右領域LE,REの一方に垂直エッジ成分の落ち込み(途切れ)がある場合には、濃淡画像に基づく分割に誤りがあり、車両領域を誤って左右に分割したものと判定する。
この場合、濃淡画像に基づき誤って分割したので、図8(d)に示すように、相互に垂直エッジの途切れがあった側で隣接する領域どうしをマージし、マージした領域の物体を先行車両として検出する。
即ち、背面左側の領域801では、右領域REで垂直エッジ成分の落ち込み(途切れ)が検出され、背面右側の領域802では、左領域LEで垂直エッジ成分の落ち込み(途切れ)が検出されるので、領域801、802は、相互に垂直エッジの途切れがあった側で隣接する領域であり、領域801、802を一括りに包含するようにマージする。
これにより、車両が濃い色であったり、濃度差Dの演算において路面輝度として影の部分の輝度を用いることになったりしても、車両領域を正しく切り出すことができ、検出した車両に応じて前方衝突警告や車間距離制御などを行える。
一方、図7に示すように3名の歩行者が並んでいる場合で、図7(a)に示す距離画像に基づくグルーピング領域を、濃度画像に基づき図7(b)に示すように分割した場合には、分割した各領域の左右に歩行者の輪郭部分が含まれるので、垂直エッジ成分の落ち込み(途切れ)は、左右領域LE,REのいずれでも生じることはなく、マージを行うことなく、濃度画像に基づき分割した結果を最終的な物体領域とする。
尚、垂直エッジ成分の落ち込み(途切れ)の有無の判定は、種々の方法を用いて行うことができ、例えば、垂直エッジ成分の累積値についての左右領域LE,RE間での偏差の大きさに基づき判定したり、垂直エッジ成分の累積値と閾値との比較に基づき判定したり、垂直エッジ成分の累積値のY軸方向(垂直方向)での微分値に基づき判定したりすることができる。
尚、本発明は、上述の実施の形態の内容に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
例えば、上記実施形態では、本発明に係る物体検出装置及び方法を、車両運転支援システムに適用した例を示したが、車両運転支援システムに限定されるものではない。
また、距離画像に基づくグルーピング処理として、例えば特開2008−065634号公報などに開示される公知の種々の処理方法を適用することができる。
101…カメラユニット、101a、101b…カメラ、102…画像信号処理ユニット、103…制御ユニット、104…スピーカ、105…アクセル、106…ブレーキ、107…車両、201a、201b…CMOS、202a、202b…DSP、203…CPU、204…画像処理ユニット204、205…画像入力I/F、206…メモリ、207…プログラム
そのため、本願発明の物体検出装置は、一対の濃淡画像に基づいて距離画像を生成する距離画像生成部と、前記距離画像において距離データが近い隣接領域をグループ化するグループ化部と、前記グループ化された領域を前記濃淡画像に基づいて分割する分割部と、を備え、前記分割部は、前記濃淡画像における、物体の接地面よりも下方の縦ラインにおける輝度と、前記接地面よりも上方の縦ラインにおける輝度との差に基づいて、前記グループ化された領域を左右に分割するようにした。
また、本願発明の物体検出方法は、一対の濃淡画像に基づいて距離画像を生成するステップと、前記距離画像において距離データが近い隣接領域をグループ化するステップと、前記グループ化された領域を前記濃淡画像に基づいて分割するステップと、を含み、前記分割するステップは、前記濃淡画像における、物体の接地面よりも下方の縦ラインにおける輝度と、前記接地面よりも上方の縦ラインにおける輝度との差を演算するステップと、前記輝度の差に基づき、前記グループ化された領域を左右に分割するステップと、を含むようにした。

Claims (11)

  1. 一対の濃淡画像に基づいて距離画像を生成する距離画像生成部と、
    前記距離画像において距離データが近い隣接領域をグループ化するグループ化部と、
    前記グループ化された領域を前記濃淡画像に基づいて分割する分割部と、
    を備えた、物体検出装置。
  2. 前記分割部が、前記濃淡画像に基づき切り出した物体領域に基づいて、前記グループ化された領域を分割する、請求項1記載の物体検出装置。
  3. 前記分割部が、前記濃淡画像の縦方向における輝度差に基づいて、前記グループ化された領域を左右に分割する、請求項1又は2記載の物体検出装置。
  4. 前記分割部が、前記濃淡画像における、物体の接地面よりも下方の縦ラインにおける輝度と、前記接地面よりも上方の縦ラインにおける輝度との差に基づいて、前記グループ化された領域を左右に分割する、請求項1から3のいずれか1つに記載の物体検出装置。
  5. 前記分割部が、前記輝度差が大きい領域と小さい領域との境界に基づき、前記グループ化された領域を左右に分割する、請求項3又は4記載の物体検出装置。
  6. 前記濃淡画像に基づいて分割した領域の垂直エッジに基づき、前記濃淡画像に基づいて分割した領域をマージするマージ部を備えた、請求項1から5のいずれか1つに記載の物体検出装置。
  7. 前記マージ部が、前記濃淡画像に基づいて分割した領域の左右領域のいずれかで垂直エッジに途切れがある場合に、垂直エッジの途切れがあった側で隣接する領域どうしをマージする、請求項6記載の物体検出装置。
  8. 前記一対の濃淡画像が、車両に搭載された一対の撮像部で撮像された画像に基づく濃淡画像であり、
    前記マージ部がマージした領域の物体を車両として検出する車両検出部を備えた、請求項6又は7記載の物体検出装置。
  9. 一対の濃淡画像に基づいて距離画像を生成するステップと、
    前記距離画像において距離データが近い隣接領域をグループ化するステップと、
    前記グループ化された領域を前記濃淡画像に基づいて分割するステップと、
    を含む、物体検出方法。
  10. 前記分割を行うステップが、
    前記濃淡画像における、物体の接地面よりも下方の縦ラインにおける輝度と、前記接地面よりも上方の縦ラインにおける輝度との差を演算するステップと、
    前記輝度の差に基づき、前記グループ化された領域を左右に分割するステップと、
    を含む、請求項9記載の物体検出方法。
  11. 前記濃淡画像に基づいて分割した領域の左右領域のいずれかで垂直エッジに途切れがあるか否かを判定するステップと、
    垂直エッジの途切れがあった側で隣接する領域どうしをマージするステップと、
    を更に含む、請求項9又は10記載の物体検出方法。
JP2012246693A 2012-11-08 2012-11-08 物体検出装置及び物体検出方法 Active JP6013884B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012246693A JP6013884B2 (ja) 2012-11-08 2012-11-08 物体検出装置及び物体検出方法
US14/441,419 US9424462B2 (en) 2012-11-08 2013-10-11 Object detection device and object detection method
PCT/JP2013/077694 WO2014073322A1 (ja) 2012-11-08 2013-10-11 物体検出装置及び物体検出方法
EP13854008.3A EP2919197B1 (en) 2012-11-08 2013-10-11 Object detection device and object detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012246693A JP6013884B2 (ja) 2012-11-08 2012-11-08 物体検出装置及び物体検出方法

Publications (2)

Publication Number Publication Date
JP2014096005A true JP2014096005A (ja) 2014-05-22
JP6013884B2 JP6013884B2 (ja) 2016-10-25

Family

ID=50684436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012246693A Active JP6013884B2 (ja) 2012-11-08 2012-11-08 物体検出装置及び物体検出方法

Country Status (4)

Country Link
US (1) US9424462B2 (ja)
EP (1) EP2919197B1 (ja)
JP (1) JP6013884B2 (ja)
WO (1) WO2014073322A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232792A (ja) * 2014-06-10 2015-12-24 富士重工業株式会社 車外環境認識装置
WO2016031523A1 (ja) * 2014-08-26 2016-03-03 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
WO2016129403A1 (ja) * 2015-02-12 2016-08-18 日立オートモティブシステムズ株式会社 物体検知装置
JP2016191988A (ja) * 2015-03-30 2016-11-10 富士重工業株式会社 車外環境認識装置
WO2017002613A1 (ja) * 2015-06-30 2017-01-05 日立オートモティブシステムズ株式会社 物体検知装置
EP3115933A1 (en) 2015-07-07 2017-01-11 Ricoh Company, Ltd. Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
EP3115966A1 (en) 2015-07-06 2017-01-11 Ricoh Company, Ltd. Object detection device, object detection method, and computer program
JP2017011499A (ja) * 2015-06-22 2017-01-12 キヤノン株式会社 画像処理装置及び画像復号装置及びそれらの制御方法
EP3324336A1 (en) 2016-11-18 2018-05-23 Ricoh Company Ltd. Information processing device, information processing method, and carrier means
JP2021086265A (ja) * 2019-11-26 2021-06-03 株式会社Subaru 画像処理装置
WO2023157621A1 (ja) * 2022-02-15 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6606369B2 (ja) * 2015-07-21 2019-11-13 株式会社Soken 物体検出装置及び物体検出方法
CN108351964B (zh) * 2015-12-08 2019-10-18 松下知识产权经营株式会社 图像识别装置及图像识别方法
CN105678268B (zh) * 2016-01-11 2020-06-30 华东理工大学 一种基于双区域学习的地铁站场景行人计数实现方法
JP6752024B2 (ja) * 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置
JP6786279B2 (ja) * 2016-07-05 2020-11-18 日立オートモティブシステムズ株式会社 画像処理装置
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
WO2019161300A1 (en) 2018-02-18 2019-08-22 Nvidia Corporation Detecting objects and determining confidence scores
CN111095291B (zh) 2018-02-27 2024-04-09 辉达公司 由自动驾驶车辆实时检测车道和边界
CN110494863B (zh) 2018-03-15 2024-02-09 辉达公司 确定自主车辆的可驾驶自由空间
JP7106332B2 (ja) * 2018-04-17 2022-07-26 日立Astemo株式会社 外界認識装置
US11170299B2 (en) 2018-12-28 2021-11-09 Nvidia Corporation Distance estimation to objects and free-space boundaries in autonomous machine applications
US11182916B2 (en) * 2018-12-28 2021-11-23 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
WO2020140047A1 (en) 2018-12-28 2020-07-02 Nvidia Corporation Distance to obstacle detection in autonomous machine applications
WO2020185779A1 (en) 2019-03-11 2020-09-17 Nvidia Corporation Intersection detection and classification in autonomous machine applications
KR102083126B1 (ko) * 2019-08-05 2020-02-28 이정숙 진공 흡착구
CN114667437A (zh) 2019-08-31 2022-06-24 辉达公司 用于自主驾驶应用的地图创建和定位
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
CN112241717B (zh) * 2020-10-23 2021-11-16 北京嘀嘀无限科技发展有限公司 前车检测方法、前车检测模型的训练获取方法及装置
US11461992B2 (en) 2020-11-12 2022-10-04 Samsung Electronics Co., Ltd. Region of interest selection for object detection
CN115272341B (zh) * 2022-09-29 2022-12-27 华联机械集团有限公司 一种基于机器视觉的包装机缺陷产品检测方法
CN117115816B (zh) * 2023-10-24 2024-02-09 深圳市美侨医疗科技有限公司 一种白带显微图像中线索细胞的识别方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2002183737A (ja) * 2000-12-18 2002-06-28 Honda Motor Co Ltd 対象物認識装置
JP2009177309A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 撮像手段の調整装置および車外監視装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07225127A (ja) * 1994-02-14 1995-08-22 Mitsubishi Motors Corp 車両用路上物体認識装置
JP4832227B2 (ja) 2006-09-07 2011-12-07 富士重工業株式会社 物体検出装置および物体検出方法
JP2009139324A (ja) 2007-12-10 2009-06-25 Mazda Motor Corp 車両用走行路面検出装置
JP4482599B2 (ja) * 2008-10-24 2010-06-16 本田技研工業株式会社 車両の周辺監視装置
JP5188430B2 (ja) * 2009-03-24 2013-04-24 富士重工業株式会社 画像処理装置
EP2517175A4 (en) * 2009-12-25 2018-01-10 Ricoh Company, Ltd. Object identifying apparatus, moving body control apparatus, and information providing apparatus
JP5665401B2 (ja) * 2010-07-21 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN102741884B (zh) * 2010-07-27 2016-06-08 松下知识产权经营株式会社 移动体检测装置及移动体检测方法
JP5580233B2 (ja) * 2011-03-22 2014-08-27 富士重工業株式会社 車外監視装置および車外監視方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052171A (ja) * 1999-08-06 2001-02-23 Nissan Motor Co Ltd 周囲環境認識装置
JP2002183737A (ja) * 2000-12-18 2002-06-28 Honda Motor Co Ltd 対象物認識装置
JP2009177309A (ja) * 2008-01-22 2009-08-06 Fuji Heavy Ind Ltd 撮像手段の調整装置および車外監視装置

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015232792A (ja) * 2014-06-10 2015-12-24 富士重工業株式会社 車外環境認識装置
WO2016031523A1 (ja) * 2014-08-26 2016-03-03 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
JP2016045903A (ja) * 2014-08-26 2016-04-04 日立オートモティブシステムズ株式会社 物体認識装置及び車両制御システム
US10246038B2 (en) 2014-08-26 2019-04-02 Hitachi Automotive Systems, Ltd. Object recognition device and vehicle control system
JP2016148962A (ja) * 2015-02-12 2016-08-18 日立オートモティブシステムズ株式会社 物体検知装置
WO2016129403A1 (ja) * 2015-02-12 2016-08-18 日立オートモティブシステムズ株式会社 物体検知装置
US10627228B2 (en) 2015-02-12 2020-04-21 Hitachi Automotive Systems, Ltd. Object detection device
JP2016191988A (ja) * 2015-03-30 2016-11-10 富士重工業株式会社 車外環境認識装置
JP2017011499A (ja) * 2015-06-22 2017-01-12 キヤノン株式会社 画像処理装置及び画像復号装置及びそれらの制御方法
WO2017002613A1 (ja) * 2015-06-30 2017-01-05 日立オートモティブシステムズ株式会社 物体検知装置
JP2017016331A (ja) * 2015-06-30 2017-01-19 日立オートモティブシステムズ株式会社 物体検知装置
US10360436B2 (en) 2015-06-30 2019-07-23 Hitachi Automotive Systems, Ltd. Object detection device
EP3115966A1 (en) 2015-07-06 2017-01-11 Ricoh Company, Ltd. Object detection device, object detection method, and computer program
EP3115933A1 (en) 2015-07-07 2017-01-11 Ricoh Company, Ltd. Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
EP3324336A1 (en) 2016-11-18 2018-05-23 Ricoh Company Ltd. Information processing device, information processing method, and carrier means
JP2021086265A (ja) * 2019-11-26 2021-06-03 株式会社Subaru 画像処理装置
JP7406962B2 (ja) 2019-11-26 2023-12-28 株式会社Subaru 画像処理装置
WO2023157621A1 (ja) * 2022-02-15 2023-08-24 ソニーグループ株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
EP2919197B1 (en) 2020-07-29
WO2014073322A1 (ja) 2014-05-15
EP2919197A1 (en) 2015-09-16
US9424462B2 (en) 2016-08-23
JP6013884B2 (ja) 2016-10-25
EP2919197A4 (en) 2016-11-09
US20150278578A1 (en) 2015-10-01

Similar Documents

Publication Publication Date Title
JP6013884B2 (ja) 物体検出装置及び物体検出方法
JP5863536B2 (ja) 車外監視装置
JP5371725B2 (ja) 物体検出装置
JP5068134B2 (ja) 対象領域分割方法及び対象領域分割装置
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
US8160300B2 (en) Pedestrian detecting apparatus
JP2018060422A (ja) 物体検出装置
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
US9524645B2 (en) Filtering device and environment recognition system
JP3868915B2 (ja) 前方監視装置及びその方法
JP2010224936A (ja) 物体検出装置
JP5587852B2 (ja) 画像処理装置及び画像処理方法
JP7229032B2 (ja) 車外物体検出装置
JP7261006B2 (ja) 車外環境認識装置
WO2017090097A1 (ja) 車両用外界認識装置
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
KR20140062334A (ko) 장애물 검출 장치 및 방법
CN112611360B (zh) 物体检测装置、车辆及物体检测处理方法
CN113838111A (zh) 一种道路纹理特征检测方法、装置与自动驾驶系统
WO2020036039A1 (ja) ステレオカメラ装置
JP2015215235A (ja) 物体検出装置及び物体検出方法
JP2019160251A (ja) 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP2014123301A (ja) 白線検出装置
JP2019061314A (ja) 物体距離検出装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20140528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150709

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160713

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160715

TRDD Decision of grant or rejection written
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160715

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160923

R150 Certificate of patent or registration of utility model

Ref document number: 6013884

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350