JP5999127B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5999127B2
JP5999127B2 JP2014049456A JP2014049456A JP5999127B2 JP 5999127 B2 JP5999127 B2 JP 5999127B2 JP 2014049456 A JP2014049456 A JP 2014049456A JP 2014049456 A JP2014049456 A JP 2014049456A JP 5999127 B2 JP5999127 B2 JP 5999127B2
Authority
JP
Japan
Prior art keywords
area
distance
region
extraction
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014049456A
Other languages
English (en)
Other versions
JP2015175598A (ja
Inventor
清水 宏明
宏明 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014049456A priority Critical patent/JP5999127B2/ja
Priority to CN201510102836.7A priority patent/CN104918033A/zh
Priority to US14/643,647 priority patent/US20150262365A1/en
Priority to EP15158323.4A priority patent/EP2919159A3/en
Publication of JP2015175598A publication Critical patent/JP2015175598A/ja
Application granted granted Critical
Publication of JP5999127B2 publication Critical patent/JP5999127B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、画像処理装置に関する。
従来、視差に基づいて人物の顔等の特定物体を検出する技術がある。例えば、特許文献1には、2つの画像の視差に基づいて距離画像を生成し、距離画像において距離値に対応したサイズの検出領域を設定し、検出領域における被写体が人物の顔であるか否かを判定する技術が開示されている。
特開2007−280088号公報
撮像手段によって撮像された画像データの視差に基づいて物標を抽出するときの精度の低下を抑制できることが望まれている。例えば、撮像手段から対象の物標までの距離と、撮像手段から背景までの距離との差が小さいと、視差の値が小さくなり、画像データから物標の領域を抽出する際の抽出精度が低くなる。視差情報による輪郭抽出を、人物の顔だけでなく胴体や脚部まで含む広範囲に拡大して行う場合、抽出対象は背景までの距離が短い部分と、背景までの距離が長い部分とを含む。背景までの距離が短い部位においては、当該部位の画像データから得られる視差値と、その近傍の背景位置の画像データから得られる視差値との差が小さくなるため、分離/抽出の精度が低下する可能性がある。これにより、背景までの距離が短い部位においては、抽出された形状と物標の真の形状との乖離が大きくなりやすい。抽出された形状に基づいてパターンマッチング等の比較を行う場合、抽出された形状と真の形状との乖離が大きいと、パターンマッチングの精度の低下を招いてしまう。
本発明の目的は、画像データから視差に基づいて物標の領域を抽出する際の抽出精度を向上させることができる画像処理装置を提供することである。
本発明の画像処理装置は、周囲の画像を撮像するステレオカメラ撮像手段と、前記ステレオカメラ撮像手段によって撮像された画像データに基づいて物標の候補を含む画像領域である第一領域を抽出する第一の抽出手段と、前記ステレオカメラ撮像手段によって撮像された画像データに基づいて視差を算出する視差算出手段と、前記視差に基づいて、前記第一領域から前記候補の画像領域である候補領域を抽出する第二の抽出手段と、前記候補領域の形状と、予め定められた前記物標の形状との比較により前記候補領域の画像が前記物標の画像であるか否かを判定する対象物判定手段とを備え、前記第一領域のうち所定の位置よりも下部を撮像した領域から前記候補領域を抽出することが、前記所定の位置よりも上部を撮像した領域から前記候補領域を抽出することよりも制約され、前記所定の位置は、基準位置として設定される位置であって、前記第一領域のうち前記基準位置よりも下部を撮像した下部領域から前記候補領域を抽出することが、前記基準位置よりも上部を撮像した上部領域から前記候補領域を抽出することよりも制約され、更に、前記ステレオカメラ撮像手段から前記物標の候補までの距離を特定する距離特定手段を備え、前記距離特定手段によって特定された前記距離が大きい場合における前記基準位置が、当該距離が小さい場合における前記基準位置よりも、前記第一領域におけるより上部側に設定されることを特徴とする。
上記画像処理装置において、前記距離特定手段によって特定された前記距離が大きい場合における前記下部領域について前記候補領域の抽出が制約される度合いが、当該距離が小さい場合における前記下部領域について前記候補領域の抽出が制約される度合いよりも、高く設定されることが好ましい。
上記画像処理装置において、前記第二の抽出手段は、前記第一領域のうち、撮像対象と前記ステレオカメラ撮像手段との距離が、前記距離特定手段によって特定された前記距離に対して所定の範囲内である領域を前記候補領域として抽出し、前記第一領域のうち前記下部領域についての前記所定の範囲が、前記上部領域についての前記所定の範囲よりも狭いことにより、前記下部領域について前記候補領域を抽出することが制約されることが好ましい。
上記画像処理装置において、前記第二の抽出手段は、前記第一領域のうち、撮像対象と前記ステレオカメラ撮像手段との距離が、前記距離特定手段によって特定された前記距離に対して所定の範囲内である領域を前記候補領域として抽出し、前記第一領域のうち前記下部領域について、前記候補領域を抽出することが禁止されることが好ましい。
上記画像処理装置において、前記距離特定手段によって特定された前記距離が大きい場合、当該距離が小さい場合よりも、前記第一領域のうち前記下部領域についての前記所定の範囲と、前記上部領域についての前記所定の範囲との乖離度合いが大きいことが好ましい。
上記画像処理装置において、前記第一領域のうち所定の位置よりも下部を撮像した領域では、前記候補領域の抽出が禁止されることが好ましい。
本発明に係る画像処理装置は、周囲の画像を撮像する撮像手段と、前記撮像手段によって撮像された画像データに基づいて物標の候補を含む画像領域である第一領域を抽出する第一の抽出手段と、前記撮像手段によって撮像された画像データに基づいて視差を算出する視差算出手段と、前記視差に基づいて、前記第一領域から前記候補の画像領域である候補領域を抽出する第二の抽出手段と、前記候補領域の形状と、予め定められた前記物標の形状との比較により前記候補領域の画像が前記物標の画像であるか否かを判定する対象物判定手段とを備え、前記第一領域のうち所定の位置よりも下部を撮像した領域から前記候補領域を抽出することが、前記所定の位置よりも上部を撮像した領域から前記候補領域を抽出することよりも制約されている。
本発明に係る画像処理装置によれば、画像データから視差に基づいて物標の領域を抽出する際の抽出精度を向上させることができるという効果を奏する。
図1は、第1実施形態に係る画像処理装置の動作を示すフローチャートである。 図2は、第1実施形態に係る画像処理装置のブロック図である。 図3は、第1実施形態に係る車両の斜視図である。 図4は、視差を算出する方法の一例を示す図である。 図5は、第一領域を示す図である。 図6は、視差に基づく抽出方法の問題を説明する図である。 図7は、抽出許可領域を示す図である。 図8は、抽出領域の決定方法の説明図である。 図9は、候補領域の抽出方法の説明図である。 図10は、候補領域の一例を示す図である。 図11は、第1実施形態の変形例に係る抽出許可領域の決定方法の説明図である。 図12は、第2実施形態の候補領域の抽出方法を説明する図である。 図13は、第2実施形態の第1変形例に係る候補領域の抽出方法を説明する図である。 図14は、第2実施形態の第2変形例に係る候補領域の抽出方法を説明する図である。
以下に、本発明の実施形態に係る画像処理装置および画像処理方法につき図面を参照しつつ詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記の実施形態における構成要素には、当業者が容易に想定できるものあるいは実質的に同一のものが含まれる。
[第1実施形態]
図1から図10を参照して、第1実施形態について説明する。本実施形態は、画像処理装置および画像処理方法に関する。図1は、本発明の第1実施形態に係る画像処理装置の動作を示すフローチャート、図2は、第1実施形態に係る画像処理装置のブロック図、図3は、第1実施形態に係る車両の斜視図、図4は、視差を算出する方法の一例を示す図、図5は、第一領域を示す図、図6は、視差に基づく抽出方法の問題を説明する図、図7は、抽出許可領域を示す図、図8は、抽出領域の決定方法の説明図、図9は、候補領域の抽出方法の説明図、図10は、候補領域の一例を示す図である。
図2に示すように、本実施形態の画像処理装置100は、ステレオカメラ撮像手段2と、ECU3とを含んで構成されている。本実施形態では、画像処理装置100が図3に示すように車両1に搭載され、車両1の周囲の障害物を検出する障害物検出装置として機能する場合について説明する。ステレオカメラ撮像手段2は、車両1の周囲の画像を撮像する撮像手段である。本実施形態のステレオカメラ撮像手段2は、車両1の前方の画像を撮像する。ステレオカメラ撮像手段2は、例えば、車室内におけるフロントガラスの近傍に配置される。
図3に示すように、ステレオカメラ撮像手段2は、2つのカメラ2R,2Lを有する。本実施形態では、右側カメラ2Rと左側カメラ2Lは、それぞれ独立した撮像手段である。各カメラ2R,2Lは、例えば、CCD又はCMOSなどの光電変換素子を有するものである。2つのカメラ2R,2Lは、例えば、車両1の水平方向前方の画像を撮像する。2つのカメラ2R,2Lは、車両1の車幅方向の異なる位置に配置されている。右側カメラ2Rは、左側カメラ2Lに対して相対的に車幅方向の右側に配置されている。2つのカメラ2R,2Lは、右側カメラ2Rの光軸と左側カメラ2Lの光軸とが平行となるように配置されている。
右側カメラ2Rおよび左側カメラ2Lは、それぞれECU3と接続されている。各カメラ2R,2Lによって撮像された画像データは、それぞれECU3に出力される。ECU3は、ステレオカメラ撮像手段2によって撮像された画像データを処理する画像処理手段としての機能を有する。ECU3は、例えば、コンピュータを有する電子制御ユニットである。ECU3は、例えば、右側カメラ2Rおよび左側カメラ2Lに対して、所定の時間周期ごとに撮像を指令する。右側カメラ2Rおよび左側カメラ2Lの撮像タイミングは、同期されていることが好ましい。ECU3は、撮像指令に応じて各カメラ2R,2Lによって撮像され、生成された画像データを取得する。
図2に示すように、ECU3は、視差算出手段4、第一の抽出手段5、距離特定手段6、抽出範囲設定手段7、第二の抽出手段8および対象物判定手段9を含んで構成されている。視差算出手段4は、撮像手段によって撮像された画像データに基づいて視差を算出する。本実施形態の視差算出手段4は、ステレオカメラ撮像手段2によって撮像された複数の画像データに基づいて視差を算出する。本実施形態の視差算出手段4は、右画像データと、左画像データの2つの画像データに基づいて視差を算出する。なお、「右画像データ」とは、右側カメラ2Rによって撮像され、生成された画像データである。また、「左画像データ」とは、左側カメラ2Lによって撮像され、生成された画像データである。2つのカメラ2R,2Lは、車幅方向の異なる位置に配置されていることから、右画像データと左画像データには、視差が生じる。視差算出手段4は、この視差を算出する。
図4を参照して、視差の算出方法の一例について説明する。視差算出手段4は、右画像データDRと、左画像データDLとの相関から、同一の撮像対象が撮影された画素に生じている視差を算出する。具体的には、視差算出手段4は、左画像データDLのうち着目する画素(以下、単に「着目画素」と称する。)PXについて、着目画素PXを中心とする予め定められたサイズの画素ブロックを元ブロックBKとして選択する。視差算出手段4は、選択した元ブロックBKと、右画像データDRの比較対象のブロックBKCとの相関度合いを算出する。
図4において、右画像データDRの対応ブロックBK0は、左画像データDLの元ブロックBKと対応するブロック、言い換えると、画像データ中における位置が元ブロックBKと同一のブロックである。視差算出手段4は、対応ブロックBK0に対して上下方向や左右方向にシフトさせた位置の比較対象のブロックBKCと、元ブロックBKとの相関度合いを算出する。ここで、「上下方向」とは、画像データにおける撮像対象の上下方向を示し、「左右方向」とは、画像データにおける撮像対象の左右方向を示す。本実施形態では、各画像データDR,DLの上下方向は、紙面の上下方向と一致し、各画像データDR,DLの左右方向は、紙面の左右方向と一致している。
視差算出手段4は、対応ブロックBK0に対して様々なシフト量でシフトさせた比較対象のブロックBKCについて、元ブロックBKとの相関度合いを算出する。視差算出手段4は、例えば、1画素分ずつ比較対象のブロックBKCを左右方向あるいは上下方向にシフトさせ、シフトさせるごとに相関度合いを算出する。そして、元ブロックBKとの相関度合いが最も高い比較対象のブロックBKCに基づいて、着目画素PXの視差を算出する。視差算出手段4は、例えば、元ブロックBKと比較対象のブロックBKCとの対応する画素の輝度の差を各画素について算出し、その輝度差の和(あるいは二乗和でもよい)を求める。求められた輝度差の和が小さい値であるほど、元ブロックBKと比較対象のブロックBKCとの相関度合いが高い。
視差算出手段4は、元ブロックBKとの相関度合いが最も高い比較対象のブロックBKCを決定し、その比較対象のブロックBKCの対応ブロックBK0からのシフト量を着目画素PXの視差とする。なお、比較対象のブロックBKCを対応ブロックBK0に対してシフトさせるときの最大シフト量Smaxは、予め定められている。
なお、視差算出手段4は、例えば、下記の参考文献1に記載された方法で視差を算出するようにしてもよい。
(1)H. Hirschmuller, "Accurate and efficient stereo processing by semiglobal matching and mutual information", CVPR, 2005, pp.807-814(参考文献1)
第一の抽出手段5は、ステレオカメラ撮像手段2によって撮像された画像データに基づいて物標の候補を含む画像領域である第一領域(図5の符号R1参照)を抽出する。本実施形態では、検出対象の物標が歩行者である場合を例に説明する。「物標の候補」とは、検出対象である歩行者の候補のことである。物標の候補は、画像データDR,DLに基づいて抽出された物体であり、パターンマッチングにより実際に歩行者であるか否かを判定する対象とされるものである。
第一の抽出手段5は、例えば、画像データDR,DLの各画素の輝度に基づいて、第一領域R1を抽出する。本実施形態の第一の抽出手段5は、右画像データDRおよび左画像データDLのいずれか一方に基づいて、第一領域R1を抽出する。第一の抽出手段5は、例えば、右画像データDR内で、周辺との輝度の差が大きい一群の画素領域PX1を抽出する。第一の抽出手段5は、抽出されたひとかたまりの画素領域PX1の輪郭形状と、予め記憶している歩行者の輪郭形状とのマッチングにより、画素領域PX1の画像が歩行者を撮像したものであるか否かを判断する。
なお、第一の抽出手段5は、例えば、下記の参考文献2に記載された方法で輝度に基づいて歩行者を抽出するようにしてもよい。
(2)N. Dalal and B. Triggs, "Histogram of oriented gradient for human detection", CVPR, 2005(参考文献2)
第一の抽出手段5は、画素領域PX1の輪郭形状と歩行者の輪郭形状との相関度合いが高い場合、画素領域PX1の画像が歩行者のものであると仮に判定する。本実施形態では後述するように、歩行者のものであると仮判定された画素領域PX1について、更に、高さ方向の位置に基づく抽出条件が調整される。画像処理装置100は、調整された抽出条件に基づいて、最終的なパターンマッチング用の候補領域を抽出する。
第一の抽出手段5は、画素領域PX1の画像が歩行者のものであると仮判定すると、第一領域R1を抽出する。第一領域R1は、図5に示すように、画素領域PX1を含むように抽出される。第一領域R1の上端は、画素領域PX1の上端よりも上側にあることが好ましい。また、第一領域R1の下端は、画素領域PX1の下端よりも下側にあることが好ましい。また、第一領域R1の左端は画素領域PX1の左端よりも左側に、第一領域R1の右端は画素領域PX1の右端よりも右側にあることが好ましい。第一領域R1は、例えば、歩行者の候補よりも外側の所定の幅(例えば、数十cm)の画像を撮像できるように定められてもよい。なお、第一領域R1の外枠の形状は、図5に示す矩形には限定されない。
距離特定手段6は、ステレオカメラ撮像手段2によって撮像された画像データに基づいて、ステレオカメラ撮像手段2から物標の候補までの距離を特定する。本実施形態の距離特定手段6は、視差算出手段4によって算出された視差に基づいて、距離の算出を行う。本実施形態では、距離特定手段6は、第一領域R1内に距離算出用の領域R11を設定する。距離特定手段6は、距離算出用の領域R11の各画素の視差情報に基づいて、ステレオカメラ撮像手段2と物標の候補との距離を算出する。
距離算出用の領域R11は、例えば、図5に示すように、矩形の領域である。本実施形態の距離算出用の領域R11は、第一の抽出手段5によって抽出された画素領域PX1のうち、胴体部分に対応する領域PX11と、脚部の上部に対応する領域PX12と、上腕部分に対応する領域PX13とを含むように設定されている。距離算出用の領域R11は、歩行者であると仮判定された画素領域PX1の中心部分、すなわち物標の候補の中心部分を含むように設定される。本実施形態の距離算出用の領域R11は、少なくとも一部に画素領域PX1の背景の領域PX2を含むように定められている。
距離特定手段6は、距離算出用の領域R11の各画素の視差の値から、ステレオカメラ撮像手段2と歩行者として仮判定された撮像対象までの距離を算出する。距離特定手段6は、ステレオカメラ撮像手段2と、歩行者として仮判定された物標の候補との距離を代表する値として、代表距離を算出する。画像データDR,DLの各画素の視差の値は、その画素の撮像対象とステレオカメラ撮像手段2との距離に対応している。距離特定手段6は、例えば、距離算出用の領域R11に含まれる各画素の視差の中央値や平均値を代表視差として算出する。この代表視差は、物標の候補とステレオカメラ撮像手段2との代表距離に対応している。距離特定手段6は、代表視差の値をそのまま代表距離に対応する値として出力しても、代表視差を距離に換算して、代表距離を出力してもよい。本実施形態の距離特定手段6は、代表距離L0を算出し、算出した代表距離L0を抽出範囲設定手段7に出力する。なお、ステレオカメラ撮像手段2と物標の候補との距離が遠いほど視差値は小さな値となり、距離が近いほど視差値は大きな値となる。従って、距離特定手段6が代表距離L0に対応する値として代表視差の値を出力する場合には、上記の視差値と距離との相関関係に基づいて、抽出範囲設定手段7等による各処理がなされるようにすればよい。
抽出範囲設定手段7は、第一領域R1のうち、実際に物標の抽出に用いる範囲を設定する。まず、図6を参照して、視差に基づいて物標を抽出するときの問題点について説明する。ステレオカメラ撮像手段2より得られる画像データから立体物の形状を抽出する場合、立体物と背景との分離が必要である。歩行者のような路面に接地している立体物では、路面に近い脚の部分と路面との分離は、上半身と背景との分離と比較して困難である。
図6に示すように、ステレオカメラ撮像手段2から抽出対象の歩行者PE(歩行者PE1,PE2)までの距離L1と、背景(例えば、路面)までの距離(L1+L2)とは異なる。このことから、2つの画像データDR,DLの視差に基づいて歩行者PE1や歩行者PE2を抽出することが可能となる。しかしながら、歩行者PE(PE1,PE2)のうち、路面に近い部分、例えば歩行者PEの脚部を抽出しようとする場合、2つの距離の差分L2が小さな値となる。このため、抽出の精度が低下しやすい。また、ステレオカメラ撮像手段2から遠い位置にいる歩行者PE2の場合、抽出対象までの距離L1が大きな値となる。このため、近い位置にいる歩行者PE1を抽出する場合と比較して、歩行者PE2の足元を背景から分離することが難しく、真の形状とは異なる形状を抽出してしまいやすい。例えば、歩行者PE2の足元を抽出する場合、路面形状に起因するノイズによる影響を受けやすくなる。
これに対して、本実施形態に係る画像処理装置100は、以下に説明するように、物標の候補までの距離に応じて、立体物の形状の抽出に使用する上下方向の範囲を変化させる。これにより、物標の候補の形状を精度よく抽出することができ、例えば、遠方にある物標の候補を抽出するときの精度の低下が抑制される。図7および図8を参照して、抽出範囲設定手段7による範囲の設定について説明する。
図7に示すように、第一領域R1には、抽出許可領域R12および抽出禁止領域R13が定められる。ここで、抽出許可領域R12は、画像データDR,DLから後述する候補領域PX3(図10参照)を抽出することが許可される領域である。一方、抽出禁止領域R13は、画像データDR,DLから候補領域PX3を抽出することが禁止される領域である。抽出許可領域R12と抽出禁止領域R13とは、境界線LBによって分けられている。境界線LBは、所定の位置としての一例であり、本実施形態では直線である。所定の位置としての境界線LBは、基準位置として設定される位置である。境界線LBは、第一領域R1の上端R1aからの上下方向の幅hpで決まるラインである。言い換えると、境界線LBは、第一領域R1の枠上端よりも下側にあり、上端R1aからの距離がhpの線である。抽出許可領域R12は、境界線LBよりも上端R1a側の領域である。つまり、抽出許可領域R12は、基準位置である境界線LBよりも上部を撮像した上部領域である。一方、抽出禁止領域R13は、境界線LBよりも上端R1a側と反対側の領域である。抽出禁止領域R13は、基準位置である境界線LBよりも下部を撮像した下部領域である。つまり、本実施形態では、第一領域R1のうち境界線LBよりも下部を撮像した領域である抽出禁止領域R13について、候補領域PX3を抽出することが禁止される。
抽出範囲設定手段7は、例えば、図8に示すマップを参照して、抽出許可領域R12を設定する。図8の横軸は、ステレオカメラ撮像手段2と物標の候補との距離dを示し、縦軸は、高さhを示す。なお、高さhは、画像上の距離ではなく、実際の高さである。すなわち、高さhは、物標の候補がある位置での実際の空間上の長さを示すものである。この高さhに応じて、抽出許可領域R12の枠が決定される。例えば、ステレオカメラ撮像手段2から物標の候補までの距離dの値がd1である場合、高さhの値としてh1が選択される。抽出範囲設定手段7は、高さhを物標の候補までの距離dに応じて画像上の長さに変換し、図7に示す抽出許可領域R12の上下方向の幅hpを決定する。抽出範囲設定手段7は、第一領域R1のうち、上端R1aから幅hpの領域を抽出許可領域R12とする。
図8に示すように、ステレオカメラ撮像手段2から物標の候補までの距離dが大きい場合の高さhは、当該距離dが小さい場合の高さhよりも小さい。つまり、距離特定手段6によって特定された距離(代表距離L0)が大きい場合の所定の高さ位置(境界線LB)は、代表距離L0が小さい場合の所定の高さ位置よりも、物標候補の上下方向の上側に位置する。本実施形態では、代表距離L0が大きな値であるほど、境界線LBが歩行者の上端寄りの位置に設定される。一方、代表距離L0が小さな値であるほど、境界線LBが相対的に歩行者の下端寄りの位置に設定される。
従って、本実施形態では、同一の物標候補を抽出する際に、代表距離L0に応じて抽出許可領域R12の縦横比が変化することになる。物標が車両1から遠くにあるほど、画像において物標を撮像した領域が小さくなる。従って、物標が遠くにあるほど、第一領域R1の大きさも小さくなる。本実施形態では、物標が遠ざかることによる第一領域R1の縮小割合よりも大きな縮小割合で抽出許可領域R12の上下方向の幅hpが縮小される。従って、物標の候補がステレオカメラ撮像手段2から近い位置にあるほど、抽出許可領域R12が上下方向に細長くなる一方、物標の候補が遠い位置にあるほど、抽出許可領域R12の横枠の幅に対する縦枠の幅hpの割合が小さくなる。
なお、距離dに応じた高さhの値は、予め実験的に定められてもよい。例えば、路面からステレオカメラ撮像手段2までの高さと、距離dと、高さhとの組み合わせについて、実験結果に基づいて物標を抽出する抽出精度の評価が行われる。その結果、例えば、距離dの位置にある物標を抽出する際に許容される抽出精度を実現できる高さhの最大値に基づいて図8のマップが作成される。
第二の抽出手段8は、視差に基づいて、第一領域R1から物標の候補の画像領域である候補領域PX3を抽出する。第二の抽出手段8は、抽出許可領域R12の各画素の視差の値に基づいて、物標の候補と背景とを分離する。図9を参照して、第二の抽出手段8による物標の候補の抽出方法について説明する。
第二の抽出手段8は、抽出許可領域R12のうち、撮像対象とステレオカメラ撮像手段2との距離が、距離特定手段6によって特定された距離(代表距離L0)に対して所定の範囲内である領域を候補領域として抽出する。例えば、図9に示すように、ステレオカメラ撮像手段2からの距離が、代表距離L0に対して奥行き方向の所定距離σの範囲内が所定の範囲内とされる。なお、図9には、抽出許可領域R12に対応する領域が矢印で示されている。
抽出許可領域R12の画素のうち、視差の値に対応する距離が代表距離L0に対して所定の範囲内である画素は、物標の候補を撮像した画素として判定される。具体的には、第二の抽出手段8は、抽出許可領域R12内の各画素について、その画素の視差の値をステレオカメラ撮像手段2からの距離LPに換算する。第二の抽出手段8は、算出された距離LPが、下記式(1)を満たす画素を候補領域の画素であると判断する。
L0−σ≦LP≦L0+σ…(1)
図10に示すように、候補領域PX3は、抽出許可領域R12において抽出され、抽出禁止領域R13では抽出されない。このように、本実施形態の画像処理装置100によれば、視差に基づく抽出精度が比較的高い領域に限定して物標の候補領域PX3を抽出することができる。その結果、物標の領域を抽出する際の抽出精度を向上させることができる。よって、本実施形態の画像処理装置100によれば、候補領域PX3に基づいてパターンマッチングを行う際の判定精度の低下が抑制される。
対象物判定手段9は、候補領域PX3の形状と、予め定められた物標の形状との比較により候補領域PX3の画像が物標の画像であるか否かを判定する。本実施形態の対象物判定手段9による比較方法は、パターンマッチングである。ECU3は、物標の形状として、歩行者の形状を予め記憶している。ECU3は、例えば、向きや姿勢、体格等の異なる複数の歩行者の形状を記憶している。対象物判定手段9は、これらの記憶された形状と、候補領域PX3の形状とのパターンマッチングを行う。対象物判定手段9は、候補領域PX3の形状と記憶された形状との比較結果に基づいて、候補領域PX3が歩行者の画像であるか否かを判定する。本実施形態では、第一領域R1のうち所定の位置である境界線LBよりも下部を撮像した領域、すなわち相対的に抽出精度の低い領域は、抽出禁止領域R13とされる。つまり、抽出禁止領域R13から候補領域PX3を抽出することが、所定の位置である境界線LBよりも上部を撮像した抽出許可領域R12から候補領域PX3を抽出することよりも制約されている。よって、候補領域PX3に精度の低い抽出結果が混在してしまうことを抑制し、対象物判定手段9に高精度のパターンマッチングを行わせることができる。
図1を参照して、本実施形態の画像処理装置100の動作について説明する。図1に示す制御フローは、例えば、所定の周期で繰り返し実行される。まず、ステップS1では、ステレオカメラ撮像手段2により2枚の画像が同時に撮影される。ECU3は、右側カメラ2Rおよび左側カメラ2Lに対して同時に撮像することを指令する。ECU3は、指令に応じて同時に撮像された右画像データDRを右側カメラ2Rから取得し、左画像データDLを左側カメラ2Lから取得する。ステップS1が実行されると、ステップS2に進む。
ステップS2では、視差算出手段4により、視差が算出される。視差算出手段4は、例えば、図4を参照して説明したように、ステレオ視処理によって右画像データDRと左画像データDLの視差を算出する。視差算出手段4は、画像データDR,DLの各画素について視差の値を算出し、各画素のアドレスと当該画素の視差の値との関係を示す視差情報を距離特定手段6に出力する。ステップS2が実行されると、ステップS3に進む。
ステップS3では、第一の抽出手段5により、第一領域R1が抽出される。第一の抽出手段5は、例えば、図5を参照して説明したように、第一領域R1を抽出する。第一の抽出手段5は、抽出した第一領域R1についての情報、例えば第一領域R1のアドレスを示す情報を距離特定手段6に出力する。ステップS3が実行されると、ステップS4に進む。
ステップS4では、距離特定手段6により、歩行者の候補として検出された検出物までの距離が算出される。距離特定手段6は、例えば、図5を参照して説明したように、距離算出用の領域R11内の各画素について算出された視差の値の中央値をステレオカメラ撮像手段2から検出物までの距離とする。距離特定手段6は、算出した距離(代表距離L0)を抽出範囲設定手段7に出力する。ステップS4が実行されると、ステップS5に進む。
ステップS5では、抽出範囲設定手段7により輪郭形状を検出可能な範囲が設定される。抽出範囲設定手段7は、距離特定手段6によって算出された代表距離L0の値に基づいて、ステップS5の範囲を設定する。抽出範囲設定手段7は、例えば、図7および図8を参照して説明したように、抽出許可領域R12を設定する。抽出範囲設定手段7は、設定した抽出許可領域R12に関する情報、例えば抽出許可領域R12のアドレスに関する情報を第二の抽出手段8に出力する。ステップS5が実行されると、ステップS6に進む。
ステップS6では、第二の抽出手段8により、ステップS5で設定された範囲内の視差を用いて輪郭形状が抽出される。第二の抽出手段8は、ステップS5で設定された抽出許可領域R12の各画素の視差データに基づいて、抽出許可領域R12から候補領域PX3を抽出する。第二の抽出手段8は、例えば、図9を参照して説明したように、抽出許可領域R12内の画素のうち、ステレオカメラ撮像手段2から撮像対象までの距離が代表距離L0に対して所定距離σの範囲内である画素を候補領域PX3の画素として分類する。第二の抽出手段8は、例えば、抽出許可領域R12内の全ての画素について、その画素が候補領域PX3の画素であるか否かを判定する。
第二の抽出手段8は、候補領域PX3を決定すると、候補領域PX3の輪郭形状を抽出する。例えば、候補領域PX3の各行の画素のうち、連続した画素の端部にある画素が輪郭を構成する画素として判定される。同様にして、候補領域PX3の各列の画素のうち、連続した画素の端部にある画素が輪郭を構成する画素として判定される。第二の抽出手段8は、抽出した輪郭形状を対象物判定手段9に出力する。ステップS6が実行されると、ステップS7に進む。
ステップS7では、対象物判定手段9により、輪郭形状が歩行者であるか否かが判定される。対象物判定手段9は、第二の抽出手段8によって抽出された輪郭形状と、予め記憶しておいた歩行者のモデルとのマッチングを行う。対象物判定手段9は、例えば、抽出された輪郭形状とモデルとのスケールを合わせるように、輪郭形状を拡大あるいは縮小して、モデルとのパターンマッチングを行う。対象物判定手段9は、例えば、参考文献2の手法のHOG(Histogram of oriented gradient)の部分を2値化画像に置き換えて、SVM(Support Vector Machines)によって判定するようにしてもよい。
対象物判定手段9は、ステップS6で抽出された輪郭形状が歩行者の形状であるか否かを判定し、その判定結果を出力する。ステップS7が実行されると、本制御フローは終了する。
以上説明したように、本実施形態の画像処理装置100によれば、第一領域R1のうち所定の位置である境界線LBよりも下部を撮像した領域(抽出禁止領域R13)から候補領域PX3を抽出することが、所定の位置よりも上部を撮像した領域(抽出許可領域R12)から候補領域PX3を抽出することよりも制約されている。本実施形態では、抽出禁止領域R13において候補領域PX3の抽出を制約する度合いが最大とされ、候補領域PX3の抽出が禁止される。これにより、候補領域PX3の抽出精度を低下させてしまうことが効果的に抑制される。
また、本実施形態の画像処理装置100は、距離特定手段6によって特定された距離(代表距離L0)が大きい場合における境界線LBが、当該距離が小さい場合における境界線よりも、第一領域R1におけるより上部側に設定される。これは、以下の(i)および(ii)によって実現される。
(i)代表距離L0が大きい場合、代表距離L0が小さい場合よりも図8に示す高さhが小さな値とされること。
(ii)高さhが小さな値となることで、境界線LBが第一領域R1において相対的に上側に移動し、抽出禁止領域R13が上側に拡大すること。
なお、本実施形態のECU3は、更に、ドライバの運転操作を支援する支援手段を備えて構成されてもよい。支援手段は、例えば、ステップS7の判定結果に基づいて、ドライバを支援する。支援方法としては、例えば、情報伝達手段によって、歩行者の存在をドライバに伝達する方法、操作支援手段によって運転操作を支援する方法などが挙げられる。歩行者の存在を伝達する方法には、検出された歩行者と車両1との相対位置や相対速度に基づいて、ドライバに対して注意喚起や警告を行うことや、歩行者との接近を回避する回避操作を促すことなどが含まれる。運転操作を支援する方法には、駆動源(エンジン、モータジェネレータ等)や制動装置、操舵装置等に対するドライバの操作入力をアシストして、検出された歩行者との接近を回避することなどが含まれる。支援手段を備えるECU3は、車両1を制御する制御装置として機能することができる。
本実施形態に係る画像処理装置100によれば、抽出された歩行者の候補との距離に基づいて、その候補を精度よく抽出可能な画像領域(抽出許可領域R12)に限定して候補領域PX3が抽出される。従って、歩行者の候補が車両1から遠方にいる場合、歩行者の上部、例えば頭部や上半身の画像が候補領域PX3として抽出される。歩行者が遠方にいる場合でも、歩行者の上部は、背景との視差が比較的大きいため、精度よく抽出される。こうして精度よく抽出された候補領域PX3に基づいて歩行者モデルとのマッチングが行われることで、その候補領域PX3が歩行者であるか否かが精度よく判定される。つまり、歩行者が遠方にいるときから、歩行者の存在を精度よく判定することが可能である。また、歩行者の下部についての抽出が禁止されることで、候補領域PX3に精度の低い抽出結果が混在してしまうことが抑制される。よって、実際は歩行者であるにもかかわらず候補領域PX3が歩行者でないと誤判定されてしまうことが抑制される。
車両1と歩行者との距離が短くなるに従い、抽出許可領域R12は、第一領域R1において歩行者の下端に向けて広がる。従って、車両1と歩行者が接近するに従い、歩行者のより多くの部分を含む候補領域PX3が抽出されるようになる。これにより、パターンマッチングによって、歩行者の向きや姿勢など歩行者についての更に詳細な情報を得ることができるようになる。抽出された候補が実際に歩行者であるか否かだけでなく、その歩行者が子供であるか否か、その歩行者が車両1の前方を横断しようとしているか否かなど、歩行者を精度よく分類することが可能となる。
(画像処理方法)
第1実施形態によれば、画像処理方法が開示されている。上記の画像処理方法は、周囲の画像を撮像する撮像手順と、撮像手順において撮像された画像データに基づいて物標の候補を含む画像領域である第一領域を抽出する第一の抽出手順と、撮像手順において撮像された画像データに基づいて視差を算出する視差算出手順と、視差に基づいて、第一領域から候補の画像領域である候補領域を抽出する第二の抽出手順と、候補領域の形状と、予め定められた物標の形状との比較により候補領域の画像が物標の画像であるか否かを判定する対象物判定手順と、を備え、第一領域のうち所定の位置よりも下部を撮像した領域から候補領域を抽出することが、所定の位置よりも上部を撮像した領域から候補領域を抽出することよりも制約されているものである。
撮像手順は、例えば、ステレオカメラ撮像手段2によって実行される。第一の抽出手順は、例えば、第一の抽出手段5によって実行される。視差算出手順は、例えば、視差算出手段4によって実行される。第二の抽出手順は、例えば、第二の抽出手段8によって実行される。対象物判定手順は、例えば、対象物判定手段9によって実行される。
[第1実施形態の変形例]
第1実施形態の変形例について説明する。図11は、第1実施形態の変形例に係る抽出許可領域の決定方法の説明図である。上記第1実施形態では、ステレオカメラ撮像手段2と物標の候補との距離dが大きくなるに従い、抽出許可領域R12を決定する高さhが連続的に減少していた。本変形例では、抽出許可領域R12を決定する高さhが段階的に変化する点で、上記第1実施形態と異なる。
図11に示すように、距離dには、閾値d1,d2が定められている。第一の閾値d1は、第二の閾値d2よりも小さな値である。距離dが第一の閾値d1未満である場合、抽出許可領域R12を決定する高さhは、第一の高さh1とされる。距離dが第一の閾値d1以上で第二の閾値d2未満である場合、抽出許可領域R12を決定する高さhは、第二の高さh2とされる。また、距離dが第二の閾値d2以上である場合、抽出許可領域R12を決定する高さhは第三の高さh3とされる。ここで、第二の高さh2は、第一の高さh1よりも小さく、第三の高さh3は、第二の高さh2よりも小さい。
なお、本変形例では、抽出許可領域R12を決定する高さhが3段階に変化するが、これに代えて、抽出許可領域R12を決定する高さhが2段階に変化するようにしても、4段階以上に変化するようにしてもよい。
[第2実施形態]
図12を参照して、第2実施形態について説明する。第2実施形態については、上記第1実施形態で説明したものと同様の機能を有する構成要素には同一の符号を付して重複する説明は省略する。図12は、第2実施形態の候補領域の抽出方法を説明する図である。第2実施形態について、上記第1実施形態と異なる点は、歩行者PEの下部について候補領域PX3の抽出が許可されている点である。上記第1実施形態では、第一領域R1のうち、所定の位置よりも上部を撮像した領域のみで候補領域PX3の抽出が許可された。第2実施形態では、これに代えて、所定の位置よりも下部を撮像した領域でも候補領域PX3を抽出することが許可される。ただし、以下に説明するように、下部を撮像した領域では、候補領域PX3を抽出する抽出条件が制約されている。
図12に示すように、本実施形態では、第一領域R1が、上部領域R1Uと下部領域R1Lの2つの領域に分けられている。なお、図12の第一領域R1は、画像データDR,DL上の第一領域R1を実際の空間上の位置に投影したイメージである。上部領域R1Uは、第一領域R1のうち、所定位置よりも上下方向の上側を撮像した領域である。一方、下部領域R1Lは、第一領域R1のうち、所定位置よりも上下方向の下側を撮像した領域である。上部領域R1Uと下部領域R1Lとの境界線は、例えば、上記第1実施形態の境界線LBと同様に決定される。
図12に示すように、上部領域R1Uについての所定距離σである第一所定距離σ1は、下部領域R1Lについての所定距離σである第二所定距離σ2よりも大きい。すなわち、上部領域R1Uでは、代表距離L0との距離差が比較的大きな画素であっても、候補領域PX3を構成する画素とされる。例えば、上部領域R1U上のある画素について、その画素の撮像対象とステレオカメラ撮像手段2との距離LPと代表距離L0との差が、第二所定距離σ2を超えていても、第一所定距離σ1以下であれば、その画素は候補領域PX3を構成する。
これに対して、下部領域R1Lでは、ある画素について、その画素の撮像対象とステレオカメラ撮像手段2との距離LPと代表距離L0との差が、第二所定距離σ2を超えると、その画素は物標の候補を撮像した画素であるとは判定されない。第二の抽出手段8は、上部領域R1Uについては、第一所定距離σ1に基づいて候補領域PX3を抽出する。また、第二の抽出手段8は、下部領域R1Lについては、第二所定距離σ2に基づいて候補領域PX3を抽出する。画像処理装置100のその他の動作については、上記第1実施形態と同様とされてもよい。
本実施形態では、このように、第一領域R1の上部と下部で所定距離σが異なる。第一領域R1のうち所定の位置よりも下部を撮像した下部領域R1Lについての所定の範囲(±σ2の範囲)が、所定の位置よりも上部を撮像した上部領域R1Uについての所定の範囲(±σ1の範囲)よりも狭いことにより、下部領域R1Lから候補領域PX3を抽出することが、上部領域R1Uから候補領域PX3を抽出することよりも制約される。よって、本実施形態によれば、歩行者PEの下部を抽出する場合に、路面等の背景を歩行者PEの一部として誤検出してしまうことが抑制される。
本実施形態では、更に、距離特定手段6によって特定された距離に応じて、第二所定距離σ2が変化する。ステレオカメラ撮像手段2から歩行者PEの候補までの代表距離L0が大きい場合の第二所定距離σ2は、代表距離L0が小さい場合の第二所定距離σ2よりも小さい。つまり、距離特定手段6によって特定された距離(代表距離L0)が大きい場合における下部領域R1Lについて候補領域PX3の抽出が制約される度合いが、当該距離が小さい場合における下部領域R1Lについて候補領域PX3の抽出が制約される度合いよりも、高く設定される。言い換えると、歩行者PEが遠方にいる場合、歩行者PEが近くにいる場合よりも、下部領域R1Lにおいて候補領域PX3と判定する際に許容される距離あるいは視差の誤差範囲が小さくされ、候補領域PX3を抽出することが抑制される度合いが強くなる。
また、代表距離L0が大きくなると第二所定距離σ2が小さくされることにより、第一所定距離σ1と第二所定距離σ2との乖離度合いが大きくなる。つまり、代表距離L0が大きい場合、当該距離が小さい場合よりも、下部領域R1Lについての所定の範囲(±σ2の範囲)と、上部領域R1Uの所定の範囲(±σ1の範囲)との乖離度合いが大きくなる。よって、対象物の距離が遠くなるに従い抽出精度が低下しやすいステレオカメラ方式の特性に応じて、検出対象が遠いときの下部領域R1Lの抽出条件を厳しくすることができる。
代表距離L0の変化に伴う第二所定距離σ2の変化は、連続的な変化であっても、段階的な変化であってもよい。なお、代表距離L0が一定以上の距離である場合、第二所定距離σ2が0とされてもよい。第二所定距離σ2が0とされた場合には、上記第1実施形態とほぼ同様の候補領域PX3を得ることが可能である。
第2実施形態において、上部領域R1Uと下部領域R1Lとの境界線は、代表距離L0にかかわらず一定とされてもよい。また、第一領域R1は、上下方向に3つ以上の領域に分割されてもよい。この場合、最も上側の領域については所定距離σの値を最も大きくし、下側の領域へ向かうに従い所定距離σの値を小さくしていくことが好ましい。
第2実施形態は、更に、第1実施形態と組み合わせて実行されてもよい。例えば、抽出許可領域R12内に第2実施形態のような上部領域R1Uと下部領域R1Lが設けられてもよい。このようにすれば、抽出禁止領域R13において候補領域PX3の抽出が禁止されると共に、抽出許可領域R12において、相対的に下部を撮像した領域では候補領域PX3の抽出が制約される。
[第2実施形態の第1変形例]
第2実施形態の第1変形例について説明する。図13は、第2実施形態の第1変形例に係る候補領域の抽出方法を説明する図である。図13に説明するように、第1変形例の第一領域R1は、上部領域R1U、中間領域R1Mおよび下部領域R1Lの3つの領域に分けられている。上部領域R1Uは、第一領域R1のうち上下方向の最も上側を撮像した領域である。下部領域R1Lは、第一領域R1のうち上下方向の最も下部を撮像した領域である。中間領域R1Mは、第一領域のうち上部領域R1Uと下部領域R1Lとの間の領域である。
図13に示すように、上部領域R1Uの所定距離σである第一所定距離σ1、および下部領域R1Lの所定距離σである第二所定距離σ2は、それぞれ一定値である。これに対して、中間領域R1Mの所定距離σは上下方向の位置に応じて変化する。本変形例では、中間領域R1Mの所定距離σは、上下方向の下側へ向かうに従い値が小さくなる。また、中間領域R1Mにおいて、上部領域R1Uとの境界における所定距離σは、第一所定距離σ1である。中間領域R1Mにおいて、下部領域R1Lとの境界における所定距離σは、第二所定距離σ2である。つまり、所定距離σは、各領域R1U,R1M,R1Lの境界において連続している。
本変形例によれば、路面等の接地面からの上下方向の距離に応じて適宜所定距離σを変化させることができる。これにより、歩行者PEと背景との視差の得やすさに応じて抽出条件を変化させ、抽出精度の低下を抑制することができる。なお、上記第1変形例と同様にして、代表距離L0に応じて第二所定距離σ2を変化させるようにしてもよい。また、代表距離L0が一定以上の距離である場合、第二所定距離σ2が0とされてもよい。また、代表距離L0に応じて、中間領域R1Mの位置が変化してもよい。例えば、代表距離L0が大きい場合の中間領域R1Mは、代表距離L0が小さい場合の中間領域R1Mよりも上側に位置するようにされてもよい。
なお、本変形例は、更に、上記第1実施形態と組み合わせて実行されてもよい。例えば、抽出許可領域R12内に本変形例のような上部領域R1U、中間領域R1Mおよび下部領域R1Lが設定されてもよい。
[第2実施形態の第2変形例]
第2実施形態の第2変形例について説明する。図14は、第2実施形態の第2変形例に係る候補領域の抽出方法を説明する図である。図14に示すように、第2変形例では、所定距離σが、第一領域R1の上端側から下端側に向けて連続的に変化する。所定距離σは、第一領域R1のうち、相対的に上側を撮像した部分であるほど値が大きくなり、相対的に下側を撮像した部分であるほど値が小さくなる。これにより、視差に基づいて背景と歩行者PEとを分離しにくい下方へ向かうほど、候補領域PX3を抽出することが制約される。
所定距離σは、例えば、上下方向の位置に応じて、図14に示すように線形的に値が変化する。なお、所定距離σは、線形的に値が変化することに代えて、例えば、上下方向の位置に応じて、奥行き方向に湾曲する曲線に沿って値が変化してもよい。
本変形例では、所定距離σの最小値σ3が可変である。最小値σ3は、代表距離L0に応じて値が変化する。代表距離L0が大きい場合の最小値σ3の値は、代表距離L0が小さい場合の最小値σ3の値よりも小さい。つまり、車両1に対して歩行者PEが遠い位置にいるほど、最小値σ3が小さくなる。一方、所定距離σの最大値σ4は、不変である。歩行者PEが遠くなると最小値σ3が小さくされることにより、歩行者PEが車両1から遠方にいるほど、歩行者PEの足元が候補領域PX3として抽出されにくくなる。また、歩行者PEが車両1から遠方にいるほど、候補領域PX3として抽出されにくい領域が歩行者PEのより上側の位置まで拡大する。代表距離L0が一定以上の距離である場合、最小値σ3が0とされてもよい。
なお、本変形例は、更に、上記第1実施形態と組み合わせて実行されてもよい。例えば、抽出許可領域R12において、下側へ向かうに従い所定距離σが低減するようにされてもよい。
[上記各実施形態の変形例]
上記第1実施形態および第2実施形態では、画像処理装置100が車両1に搭載されていたが、これに限定されるものではない。画像処理装置100は、車両以外の移動体に搭載されてもよく、移動体以外の構造物等に搭載されてもよい。また、画像処理装置100は、例えば、ユニットとして単体で取り引きされてもよい。画像処理装置100は、専用の装置で構成されても、少なくとも一部の構成要素が汎用品で構成されてもよい。例えば、ステレオカメラ撮像手段2は、2つの汎用カメラの組み合わせによって構成されてもよい。また、ECU3に代えて、汎用のコンピュータ(例えば、PC)が用いられてもよい。ステレオカメラ撮像手段2は、2つのカメラを備えることに代えて、1つのカメラでステレオ画像を撮像するものであってもよい。
上記各実施形態および変形例では、ステレオカメラ撮像手段2によって車両1の前方が撮像されたが、撮像の方向はこれには限定されない。ステレオカメラ撮像手段2は、例えば、車両1の側方や後方などを撮像するようにしてもよい。距離特定手段6は、視差に基づいて撮像手段から物標の候補までの距離を算出することに代えて、レーダ検出器などの距離情報取得手段によって物標の候補までの距離を特定するようにしてもよい。
マッチングによる判定対象の物標は、典型的には歩行者であるが、他の物標が判定対象とされてもよい。他の物標としては、例えば、先行車や自転車など、車両の周囲の交通環境内を移動する移動物が含まれる。また、他の物標としては、例えば、電柱やポールなどの固定物が含まれてもよい。
上記の各実施形態および各変形例に開示された内容は、適宜組み合わせて実行することができる。
1 車両
2 ステレオカメラ撮像手段(撮像手段)
3 ECU
4 視差算出手段
5 第一の抽出手段
6 距離特定手段
7 抽出範囲設定手段
8 第二の抽出手段
9 対象物判定手段
100 画像処理装置
PX1 画素領域
PX2 背景の領域
PX3 候補領域
R1 第一領域
R11 距離算出用の領域
R12 抽出許可領域
R13 抽出禁止領域
R1U 上部領域
R1L 下部領域

Claims (6)

  1. 周囲の画像を撮像するステレオカメラ撮像手段と、
    前記ステレオカメラ撮像手段によって撮像された画像データに基づいて物標の候補を含む画像領域である第一領域を抽出する第一の抽出手段と、
    前記ステレオカメラ撮像手段によって撮像された画像データに基づいて視差を算出する視差算出手段と、
    前記視差に基づいて、前記第一領域から前記候補の画像領域である候補領域を抽出する第二の抽出手段と、
    前記候補領域の形状と、予め定められた前記物標の形状との比較により前記候補領域の画像が前記物標の画像であるか否かを判定する対象物判定手段と
    を備え、前記第一領域のうち所定の位置よりも下部を撮像した領域から前記候補領域を抽出することが、前記所定の位置よりも上部を撮像した領域から前記候補領域を抽出することよりも制約され、
    前記所定の位置は、基準位置として設定される位置であって、
    前記第一領域のうち前記基準位置よりも下部を撮像した下部領域から前記候補領域を抽出することが、前記基準位置よりも上部を撮像した上部領域から前記候補領域を抽出することよりも制約され、
    更に、前記ステレオカメラ撮像手段から前記物標の候補までの距離を特定する距離特定手段を備え、
    前記距離特定手段によって特定された前記距離が大きい場合における前記基準位置が、当該距離が小さい場合における前記基準位置よりも、前記第一領域におけるより上部側に設定される
    ことを特徴とする画像処理装置。
  2. 前記距離特定手段によって特定された前記距離が大きい場合における前記下部領域について前記候補領域の抽出が制約される度合いが、当該距離が小さい場合における前記下部領域について前記候補領域の抽出が制約される度合いよりも、高く設定される
    請求項1に記載の画像処理装置。
  3. 前記第二の抽出手段は、前記第一領域のうち、撮像対象と前記ステレオカメラ撮像手段との距離が、前記距離特定手段によって特定された前記距離に対して所定の範囲内である領域を前記候補領域として抽出し、
    前記第一領域のうち前記下部領域についての前記所定の範囲が、前記上部領域についての前記所定の範囲よりも狭いことにより、前記下部領域について前記候補領域を抽出することが制約される
    請求項またはに記載の画像処理装置。
  4. 前記第二の抽出手段は、前記第一領域のうち、撮像対象と前記ステレオカメラ撮像手段との距離が、前記距離特定手段によって特定された前記距離に対して所定の範囲内である領域を前記候補領域として抽出し、
    前記第一領域のうち前記下部領域について、前記候補領域を抽出することが禁止される
    請求項1に記載の画像処理装置。
  5. 前記距離特定手段によって特定された前記距離が大きい場合、当該距離が小さい場合よりも、前記第一領域のうち前記下部領域についての前記所定の範囲と、前記上部領域についての前記所定の範囲との乖離度合いが大きい
    請求項3に記載の画像処理装置。
  6. 前記第一領域のうち前記所定の位置よりも下部を撮像した領域では、前記候補領域の抽出が禁止される
    請求項1から3、5のいずれか1項に記載の画像処理装置。
JP2014049456A 2014-03-12 2014-03-12 画像処理装置 Active JP5999127B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014049456A JP5999127B2 (ja) 2014-03-12 2014-03-12 画像処理装置
CN201510102836.7A CN104918033A (zh) 2014-03-12 2015-03-09 图像处理装置和图像处理方法
US14/643,647 US20150262365A1 (en) 2014-03-12 2015-03-10 Image processing device and image processing method
EP15158323.4A EP2919159A3 (en) 2014-03-12 2015-03-10 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014049456A JP5999127B2 (ja) 2014-03-12 2014-03-12 画像処理装置

Publications (2)

Publication Number Publication Date
JP2015175598A JP2015175598A (ja) 2015-10-05
JP5999127B2 true JP5999127B2 (ja) 2016-09-28

Family

ID=52629465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014049456A Active JP5999127B2 (ja) 2014-03-12 2014-03-12 画像処理装置

Country Status (4)

Country Link
US (1) US20150262365A1 (ja)
EP (1) EP2919159A3 (ja)
JP (1) JP5999127B2 (ja)
CN (1) CN104918033A (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11615460B1 (en) 2013-11-26 2023-03-28 Amazon Technologies, Inc. User path development
US11205270B1 (en) 2015-03-25 2021-12-21 Amazon Technologies, Inc. Collecting user pattern descriptors for use in tracking a movement of a user within a materials handling facility
US10679177B1 (en) 2015-03-25 2020-06-09 Amazon Technologies, Inc. Using depth sensing cameras positioned overhead to detect and track a movement of a user within a materials handling facility
US10586203B1 (en) * 2015-03-25 2020-03-10 Amazon Technologies, Inc. Segmenting a user pattern into descriptor regions for tracking and re-establishing tracking of a user within a materials handling facility
US10810539B1 (en) 2015-03-25 2020-10-20 Amazon Technologies, Inc. Re-establishing tracking of a user within a materials handling facility
CN106534828A (zh) * 2015-09-11 2017-03-22 钰立微电子股份有限公司 应用于立体图像获取装置的控制器与立体图像获取装置
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
KR101777518B1 (ko) * 2016-04-07 2017-09-11 엘지전자 주식회사 인테리어 카메라 장치, 이를 포함하는 차량 운전 보조장치 및 이를 포함하는 차량
WO2018211127A1 (en) 2017-05-19 2018-11-22 Movidius Ltd. Methods, systems and apparatus to optimize pipeline execution
JP6859907B2 (ja) * 2017-09-08 2021-04-14 トヨタ自動車株式会社 車両制御装置
US11328513B1 (en) 2017-11-07 2022-05-10 Amazon Technologies, Inc. Agent re-verification and resolution using imaging
JP7166108B2 (ja) 2018-08-31 2022-11-07 株式会社小松製作所 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット
DE112020002666T5 (de) * 2019-06-06 2022-05-12 Mobileye Vision Technologies Ltd. Systeme und verfahren für die fahrzeugnavigation
US20230106278A1 (en) * 2020-02-21 2023-04-06 Harman International Industries, Incorporated Image processing method, apparatus, device and medium

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2891159B2 (ja) * 1996-02-14 1999-05-17 日本電気株式会社 多眼画像からの物体検出方式
JP4584405B2 (ja) * 2000-05-08 2010-11-24 富士通株式会社 3次元物体検出装置と3次元物体検出方法及び記録媒体
US6956469B2 (en) * 2003-06-13 2005-10-18 Sarnoff Corporation Method and apparatus for pedestrian detection
JP2007280088A (ja) 2006-04-07 2007-10-25 Konica Minolta Holdings Inc 特定物体検出装置、特定物体検出方法、及び特定物体検出プログラム
KR100902343B1 (ko) * 2007-11-08 2009-06-12 한국전자통신연구원 로봇 영상 시스템 및 검출 방법
JP4934701B2 (ja) * 2009-06-30 2012-05-16 株式会社日立製作所 ステレオ画像処理装置およびステレオ画像処理方法
US8509519B2 (en) * 2009-07-29 2013-08-13 Intellectual Ventures Fund 83 Llc Adjusting perspective and disparity in stereoscopic image pairs
JP5417645B2 (ja) * 2010-03-08 2014-02-19 オプテックス株式会社 距離画像における平面推定方法および距離画像カメラ
WO2012017650A1 (ja) * 2010-08-03 2012-02-09 パナソニック株式会社 物体検出装置、物体検出方法及びプログラム
US8578299B2 (en) * 2010-10-08 2013-11-05 Industrial Technology Research Institute Method and computing device in a system for motion detection
JP5891415B2 (ja) * 2010-12-20 2016-03-23 パナソニックIpマネジメント株式会社 ステレオ画像処理装置
US8831336B2 (en) * 2011-11-11 2014-09-09 Texas Instruments Incorporated Method, system and computer program product for detecting an object in response to depth information
JP2013161241A (ja) * 2012-02-03 2013-08-19 Toyota Motor Corp 物体認識装置、物体認識方法
AU2013305770A1 (en) * 2012-08-21 2015-02-26 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras
CN103268616B (zh) * 2013-04-18 2015-11-25 北京工业大学 多特征多传感器的移动机器人运动人体跟踪方法

Also Published As

Publication number Publication date
US20150262365A1 (en) 2015-09-17
EP2919159A3 (en) 2015-12-23
CN104918033A (zh) 2015-09-16
EP2919159A2 (en) 2015-09-16
JP2015175598A (ja) 2015-10-05

Similar Documents

Publication Publication Date Title
JP5999127B2 (ja) 画像処理装置
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP6197291B2 (ja) 複眼カメラ装置、及びそれを備えた車両
KR102027405B1 (ko) 이동 물체 인식기
JP5926228B2 (ja) 自律車両用の奥行き検知方法及びシステム
JP5267596B2 (ja) 移動体検出装置
US20120327189A1 (en) Stereo Camera Apparatus
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
CN109997148B (zh) 信息处理装置、成像装置、设备控制系统、移动对象、信息处理方法和计算机可读记录介质
KR101551026B1 (ko) 차량 검출 방법
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
US10803605B2 (en) Vehicle exterior environment recognition apparatus
JP6141788B2 (ja) レーンマーク認識装置
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
JP6601506B2 (ja) 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP6458577B2 (ja) 画像測距装置
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
JP6683245B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、物体認識装置及び機器制御システム
US10789489B2 (en) Vehicle exterior environment recognition apparatus
JP2017211791A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP5345999B2 (ja) レーンマーク認識装置
JP6677141B2 (ja) 駐車枠認識装置
JP2019114150A (ja) 車外環境認識装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160815

R151 Written notification of patent or utility model registration

Ref document number: 5999127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151