JP2013239167A - 対象物領域分割方法及び対象物領域分割装置 - Google Patents

対象物領域分割方法及び対象物領域分割装置 Download PDF

Info

Publication number
JP2013239167A
JP2013239167A JP2013099444A JP2013099444A JP2013239167A JP 2013239167 A JP2013239167 A JP 2013239167A JP 2013099444 A JP2013099444 A JP 2013099444A JP 2013099444 A JP2013099444 A JP 2013099444A JP 2013239167 A JP2013239167 A JP 2013239167A
Authority
JP
Japan
Prior art keywords
area
point
initial
parallax
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013099444A
Other languages
English (en)
Other versions
JP6119409B2 (ja
Inventor
Lu Yaojie
ヤオジエ ル
You Ganmei
ガンメイ ユ
Zhongchao Shi
ジョォンチャオ シ
Gane Wang
ガン ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2013239167A publication Critical patent/JP2013239167A/ja
Application granted granted Critical
Publication of JP6119409B2 publication Critical patent/JP6119409B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】対象物領域分割方法及び装置を提供する。
【解決手段】
該方法及び装置においては、対象物を内包するシーンの視差図を取得し、該視差図における対象物輪郭を内包する1つまたは複数の初期対象物領域を取得し、各々の初期対象物領域内の対象物の視差範囲を取得し、各初期対象物領域内の、視差値が該初期対象物領域内の対象物の視差範囲の最小値未満になる点により、該初期対象物領域内の対象物を分割するための対象物分割領域を取得し、該対象物分割領域により、該初期対象物領域を分割し、対象物領域の分割結果を得る。
【選択図】図2

Description

本発明は、画像処理領域に関し、特に、対象物領域分割方法及び装置に関する。
対象物分割処理は、対象物識別及び多くの画像処理の重要な前処理の一つである。正確な対象物分割は、以降の画像処理への理解と処理に多大な助けとなり得る。例えば、現在普及しつつある運転補助システムにおいては、道路環境中の通行人や車輌や道路標識等を含む対象物、或いは対象物領域に対して分割・識別を行う必要がある。さらに、事務室環境においては、事務用机・椅子や、パソコン等の対象物や対象物領域への分割・識別が必要となる場合がある。
本発明における対象物や対象物領域は、非限定性状の対象物や障害物を全て網羅している。要約していえば、対象物分割は、シーンから対象物を分割することを含む。
現在、既に対象物の分割または検知方法が提案されている。特許文献1(米国特許US7046822号明細書)には、類似距離値を有する特徴により、3次元対象を決定するとともに、類似高さを有する特徴により、平面対象を決定する道路車輌範囲内の対象検知方法が開示されている。しかしながら、該方法においては、近所の対象の分割または検知がなされていない。
特許文献2(国際特許出願公開WO2009/013636A2号明細書)には、対象物エッジの自動的な分割方法が提案されている。該方法では、画像へのフィルタを行い、対象物エッジ候補を識別する第1の段階と、大半の偽エッジを除去する第2の段階の、2段階の分割が用いられている。該第2の段階では、径方向に画像を走査し、第1の段階で検知されたエッジ候補のみ保持し、画像点に多項式を満足するようにすることで、他の一部の偽エッジ画素を除去し、かつ満足する点から最大距離を有する点を削除し、これにより得られた候補エッジで初期パターンを形成し、離散動的輪郭(DDC)パターンによる変形により、対象物境界の閉輪郭を取得している。しかしながら、該方法では、シーンにおける対象物の遠近関係が考慮されておらず、距離情報が用いられていないため、検知精度が低くなっている。
実際の検知環境においては、例えば、肩を並べて歩行する複数の人等、多くの対象物がくっ付いているか、非常に接近していることがあり、ひいては、複数くっ付いている対象物(例えば、通行人)の画像特徴は、見たところ自動車の外形に非常に似ていることがある。なお、遠近上は異なるものであるが、観測者の角度から、部分的に重畳の可能性のある対象物も存在する可能性がある。
例えば、図1(a)、(b)は、くっ付いている対象物を含むシーンが示され、ここで、図1(a)は、楕円フレームに2つの対象物がくっ付いているケースを示し、図1(b)は、楕円フレームに複数の対象物がくっ付いているケースを示している。このようなケースにおいて、従来の識別または分割方法では、くっ付いている対象物を分割することが極めて困難で、不正確な検知結果を招くことになる。
さらに、従来の対象物分割方法においては、通常、階調図やカラー図を用いて対象物の分割を行っているが、複雑な視覚特徴によっても、対象物分割の精度が制限されてしまう。
本発明は、従来技術における前述の問題を鑑みてなされたものである。
本発明の一の態様においては、対象物を内包するシーンの視差図を取得するステップと、前記視差図における対象物の輪郭を内包する1つまたは複数の初期対象物領域を取得するステップと、各々の初期対象物領域内の対象物の視差範囲を取得するステップと、各初期対象物領域に対し、前記初期対象物領域内の、視差値が前記初期対象物領域内の前記対象物の視差範囲の最小値未満になる点に基づき、前記初期対象物領域内の対象物を分割するための対象物分割領域を取得するステップと、前記対象物分割領域により、前記初期対象物領域を分割し、対象物領域の分割結果を得るステップと、を含む、対象物領域分割方法が提供される。
前記対象物分割領域を取得するステップにおいて、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点からなる領域を、前記対象物分割領域としてもよい。
前記対象物分割領域を取得するステップにおいて、前記初期対象物領域内の視差値のない点に対し、該点が前記対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っている場合、前記視差値のない点も前記対象物分割領域にさらに追加してもよい。
前記対象物分割領域を取得するステップにおいて、該初期対象物領域内の、視差値が対象物の視差範囲の最大値を超えた点に対し、該点が前記対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っている場合、前記視差値が対象物の視差範囲の最大値を超えた点も該対象物分割領域にさらに追加してもよい。
前記対象物分割領域により、前記初期対象物領域を分割するステップは、前記初期対象物領域内の、視差値が前記視差範囲内の点により、前記初期対象物領域内の推定対象物領域を取得するステップと、前記対象物分割領域により、前記推定対象物領域を分割するステップと、を含んでもよい。
前記推定対象物領域を取得するステップにおいて、前記初期対象物領域内の、視差値が前記視差範囲内の点からなる領域を、前記推定対象物領域としてもよい。
前記推定対象物領域を取得するステップにおいて、前記初期対象物領域内の視差値のない点に対し、該点が前記推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っている場合、前記視差値のない点も前記推定対象物領域にさらに追加してもよい。
前記推定対象物領域を取得するステップにおいて、前記初期対象物領域内の、視差値が対象物の視差範囲の最大値を超えた点に対し、該点が前記推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っている場合、前記視差値が対象物の視差範囲の最大値を超えた点も該推定対象物領域にさらに追加してもよい。
前記対象物分割領域により、前記推定対象物領域を分割するステップにおいて、(a)前記推定対象物領域から前記対象物分割領域を除去し、得られた連結領域を新規の推定対象物領域とし、(b)前記新規の推定対象物領域の上縁位置情報を取得し、位置の波の谷の点を取得し、(c)前記波の谷の点の高さが所定の閾値未満になるか否かを検知し、前記閾値未満になる場合、前記波の谷の点により、前記新規の推定対象物領域を2つの領域に分割するとともに、該2つの領域を新規の推定対象物領域し、(d)このように得られた全ての新規の推定対象物領域に対し、再分割が不可能になるまで、以上のステップ(b)〜(c)を繰り返すようにしてもよい。
前記所定の閾値は、絶対閾値でもよく、前記上縁位置値から算出された相対閾値でもよい。
本発明の他の態様においては、対象物を内包するシーンの視差図を取得する視差図取得部と、前記視差図における対象物の輪郭を内包する1つまたは複数の初期対象物領域を取得する初期対象物領域取得部と、各々の初期対象物領域内の対象物の視差範囲を取得する視差範囲取得部と、各初期対象物領域に対し、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点に基づき、前記初期対象物領域内の対象物を分割するための対象物分割領域を取得する対象物分割領域取得部と、前記対象物分割領域により、前記初期対象物領域を分割し、対象物領域の分割結果を得る分割部と、を含む、対象物領域分割装置が提供される。
前記対象物分割領域取得部は、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点からなる領域を、前記対象物分割領域とするようにしてもよい。
本発明の対象物領域分割方法及び装置は、視差図内の対象物の距離情報及び対象物間の遮蔽関係を考慮して、比較的遠距離にある対象物の情報を裁断基準として分割を行うことにより、くっ付いている或いは接近している可能性のある対象物を分離し、これにより、正確な分割が可能になるとともに、強力な耐ノイズ能力を有することができる。
さらに、本発明は、近距離対象物に対しても処理を施すことにより、部分的に遮蔽された対象物に対しても優れた分割結果を得ることができる。
(a)及び(b)は、検知すべきシーンに2つまたは複数のくっ付いた対象物が存在するケースを示した模式図である。 本発明の1実施例における道路対象物領域分割方法200の全体フローチャートである。 本発明の1実施例における、図2のステップS240の対象物分割領域の取得方法300のフローチャートである。 本発明の1実施例における、図2のステップS250の対象物分割領域を用いた該初期対象物領域の分割方法400のフローチャートである。 本発明の1実施例における、方法400のステップS410の推定対象物の取得方法500のフローチャートである。 (a)及び(b)は、本発明における、対象物領域分割方法により得られた対象物領域分割結果である。 本発明の1実施例における、更なる最適化分割結果の方法700のフローチャートである。 は、本発明の実施例における対象物領域分割装置800のブロック図である。
当業者の本発明へのより容易な理解のために、以下、図面及び実施例を参照しながら、本発明についてさらに詳細に説明する。
以下の順で説明する。
1.発明思想の略述及び基本概念の説明
2.実施例
2.1、対象物領域の分割フロー
2.2、対象物分割領域取得
2.3、対象物分割領域による分割
2.4、分割結果の更なる最適化
2.5、対象物分割装置
3.まとめ
<1.発明思想の略述及び基本概念の説明>
詳細の説明の前に、当業者の本発明の理解をより容易にするために、先ず、発明の思想を全体的に説明する。
検知すべきシーンにおいては、通常、複数の検知すべき対象物がくっ付いているか、互いに近接している場合と、近距離の対象物が遠距離の対象物の一部を遮蔽する場合がある。多くの場合、対象物は不透明であることから、対象物を通してその後ろ側の対象物を見ることができないため、遠距離の対象物をみることができた場合は、シーンにおける該遠距離対象物の両側は、2つの異なる対象物である可能性がある。このため、本発明においては、視差図における距離情報により、対象物の分割を行っている。
以下、理解の便宜上、基本概念について説明する。
視差は、実際に、ある基線の両端から同一の遠距離対象物までそれぞれ直線を引いた場合、該2つの直線からなる夾角を指している。通常は、一定間隔の2つの点から同一の目標を眺めたときに生じる方向差を指している。目標から見たときの2つの点間の夾角を、該2つの点の視差角と称し、2点間の距離を、基線と称する。視差角と基線の長さが分かれば、目標と観測者間の距離が求められる。
視差図(disparity map)は、任意の1画像を基準として、サイズが該基準画像のサイズとなり、要素値が視差値となる画像を指している。視差図は、シーン及び該シーンの対象物の距離情報が含まれている。視差図は、双眼カメラで撮像された左画像と右画像から算出されてもよく、或いは、立体図における深度図(depth map)から算出されてもよい。シーンの視差図を取得する方法は、従来技術における公知のものである。
<2.実施例>
<2.1対象物領域分割のフロー>
図2は、本発明の1実施例による道路対象物領域分割方法200の全体フローチャートである。
図2に示されたように、ステップS210において、対象を内包するシーンの視差図を取得する。前述のように、双眼カメラ、多眼カメラ、ステレオカメラで撮像し、該対象物を含む視差図を得てもよく、または、立体図から深度図を取得し、深度図から視差図を取得してもよい。シーンの視差図の取得方法は、従来技術では公知のものである。
ステップS220において、該視差図における対象物の輪郭を内包する1つまたは複数の初期対象物領域を取得する。ステップS220で得られた視差図に対しては、式(1)に示されたように、任意の対象物分割方法により、初期の対象物領域分割結果(PRES)が得られる。
式中、objiは、分割後の初期対象物領域を表す。
初期対象物領域の取得後は、ステップS230において、各々の初期対象物領域内のターゲット対象物の視差範囲を取得する。下記の式(2)に示されたように、各分割後の初期対象物領域には、対象物領域情報(areai)及び対象物視差範囲(disprangei)の情報が含まれている。
対象物領域情報areaiについては、通常、初期分割時、ターゲット対象物の凡その輪郭が不規則の形状であることから、該凡その輪郭を内包する外接矩形を、初期分割の対象物領域情報とする。図1(a)と(b)における矩形フレーム領域を、複数の初期対象物領域と見なすことができる。もちろん、該初期対象物領域の形状は、矩形に限らず、円形や、楕円形等でもよいことは、当業者に明白である。
対象物視差範囲disprangeiについては、通常、対応するareaiの対物物の凡その輪郭内の90%の点を、有効点として、該areai内のターゲット対象物の視差範囲disprangeiを算出する。該視差範囲は、例えば、[mini、maxi]のように、1区間値であり、miniは、初期対象物領域areai内のターゲット対象物の最小視差値であり、maxiは、初期対象物領域areai内のターゲット対象物の最大視差値であることから、該視差範囲により、該ターゲット対象物の距離及び厚さが反映されることになる。
もちろん、視差範囲を算出するための点は、前記90%に限らず、95%等でもよいことは、当業者に明白である。代替的に、対象物の視差範囲は、例えば、UV視差図方法のような、他の方法によって算出されてもよい。例えば、Yingping Huang等の人による、EURASIP Journal on Applied Signal Processing 2005:14,2322-2329ページの“Stereovision-Based Object Segmentation for Automotive Applications”題目の文献には、UV視差図による前記対象物領域(areai)及び対象物視差範囲(disprangei)の取得方法が開示されている。
なお、従来の分割方法で1つまたは複数の初期対象物領域を取得する以外にも、ユーザにより、視差図から1つまたは複数の初期対象物領域を指定するとともに、従来技術の方法により、各領域の対象物領域情報(areai)及び対象物視差範囲(disprangei)を取得してもよい。
ステップS240において、各初期対象物領域に対し、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点に基づき、該初期対象物領域内の対象物を分割するための対象物分割領域を取得する。
ステップS220から得られた各初期対象物領域については、前述のように、該領域が凡その対象物輪郭の外接矩形から得られたものであることから、該領域内には、該領域範囲内のものであるものの、該領域内のターゲット対象物に属さない点が存在する可能性がある。視差図内の点の視差値は、距離情報を反映可能な特性を考えると、初期対象物領域areai内には、以下の4種類の点が存在する可能性がある。
C1:該点の視差値が該領域areaiのターゲット対象物の視差範囲[mini、maxi]内にあると、該点が該ターゲット対象物上の点である可能性があることを表す。
C2:該点の視差値が該ターゲット対象物の最小視差値mini未満になると、該点が遠距離対象物上の点の可能性があることを表す。
C3:該点の視差値が該ターゲット対象物の最大視差値maxiを超えていると、該点が近距離対象物上の点の可能性があることを表す。
C4:該点に視差値がないと、該点の値が、隣接点の値と同一の可能性があることを表す。通常、ある原因からある点に視差値がない場合が生じ、例えば、画像撮像時のカメラの欠陥により、或いは、これらの点の所属する対象物にテクスチャー情報がないことにより、視差図に黒色で反映される等である。
前記発明思想の略述で説明したように、大半の場合、対象物は不透明であり、対象物を通してその後ろの対象物を見ることができないため、初期対象物領域に、遠距離対象物に属する点(C2類の点)が含まれている場合、該遠距離点の両側は、2つの異なる対象物に属する可能性が高いことから、該遠距離点を分割点として、該初期対象物領域への更なる分割を行うことができる。
このため、ステップS220で得られた初期対象物領域に対して、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点(C2類の点)から、該初期対象物領域内の対象物を分割するための対象物分割領域が得られる。
ステップS250において、該対象物分割領域により、該初期対象物領域を分割し、対象物領域の分割結果を得る。これにより、初期対象物領域中のターゲット対象物に属さない点を除去することができ、くっ付いているか近接している対象物を分割することができる。
<2.2、対象物分割領域の取得>
以下、図3を参照して、本発明の1実施例における図2のステップS240の対象物分割領域の取得方法300を説明する。
図3に示されたように、ステップS310において、各初期対象物領域に対し、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点からなる領域を、対象物分割領域とする。
または、該方法において、ステップS320をさらに有してもよく、該ステップS320においては、該初期対象物領域内の視差値のない点に対し、該点が該対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っていると、該点も該対象物分割領域に追加する。
理由としては、該初期対象物領域中の視差値のない点に関しては、即ち、距離が未知である該点が、視差値を有するある点とくっ付いている場合、該点の距離がくっ付いている点の視差値と同一の可能性があることから、視差値のない点が、該対象物分割領域中の点と垂直方向に隣接していると、該点も遠距離対象物である可能性があることから、該点も対象物分割領域に追加する。
水平方向の隣接ではなく、垂直方向の隣接を考慮している理由は、通常、対象物(通行人や、自動車)は、上下に積み重ねられるのではなく、左右に(水平方向に)隣接していることから、通常は、水平方向の分割は不要で、垂直方向の分割のみ必要となる。
点が垂直方向に隣接しているか否かを検知する方法に関しては、従来技術における2連結(2-connected)方法による各点の座標値の検知で実現してもよい。
または、該方法においては、ステップS330を含んでもよく、該ステップS330において、該初期対象物領域内の視差値が対象物の視差範囲の最大値を超えた点に対し、該点が該対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っていると、該点も該対象物分割領域に追加する。
理由としては、該初期対象物領域内の視差値がターゲット対象物の視差範囲内の最大視差値maxi を超えた点(C3類に属する点)に対し、前述のようにこれらが近距離対象物の点に属するものの、遠距離対象物を遮蔽している可能性があり、被遮蔽部分の点の距離も未知となるからである。このため、該点が該対象物分割領域中の点と垂直方向に隣接していると、該点に遮蔽される点も、該隣接点と同一の視差値を有し、即ち、該点に遮蔽される点も遠距離対象物に属する点になる可能性があることから、該点も対象物分割領域に追加する。
これにより、方法200におけるステップS250においては、ステップS330で得られた対象物分割領域を用いて、該初期対象物領域を分割することで、より正確な対象物領域分割を実現することができる。
ここで、ステップS310のみで得られる対象物分割領域(即ち、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点からなる領域)も、方法200におけるステップS240で得られる対象物分割領域として、直接用いてもよい。この場合、遠距離対象物の情報による、初期対象物領域の再分割が可能になり、隣接の可能性のある対象物を分割することができる。
<2.3、対象物分割領域の分割>
以下、図4を参照して、本発明の1実施例における図2のステップS250の対象物分割領域による該初期対象物領域の分割方法400を説明する。
図4に示されたように、ステップS410において、該初期対象物領域内の、視差値が該領域のターゲット対象物の視差範囲内に点により、該初期対象物領域内の推定対象物領域を取得する。
前述のように、視差値が該領域のターゲット対象物の視差範囲内にある点は、該ターゲット対象物上に存在する可能性があることから、このような点により、該初期対象物領域内の、ターゲット対象物の最も存在し得る推定対象物領域を取得してもよい。推定対象物領域を取得する1実施例については、図5を参照して詳細に後述する。
該方法においては、ステップS420をさらに有してもよい。該ステップS420においては、得られた対象物分割領域により、該推定対象物領域の分割を行うことから、遠距離対象物の情報を用いた初期対象物領域の再分割が可能になり、隣接の可能性のある対象物の分割が可能になる。
図5は、本発明の1実施例における、ステップS410の推定対象物の取得方法500を示している。
図5に示されたように、ステップS510において、該初期対象物領域内の、視差値が該領域内のターゲット対象物の視差範囲内の点(C1類の点)からなる領域を、該推定対象物領域とする。
または、該方法においては、ステップS520を含んでもよく、該ステップS520において、該初期対象物領域内の視差値のない点に対し、該点が該推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っていると、該点も該推定対象物領域に追加する。
前述のように、該初期対象物領域内の視差値のない点(C4類に属する点)に関しては、即ち、距離が未知である該点が、視差値を有するある点と隣接している場合、該点の距離が隣接している点の視差値と同一の可能性があることから、視差値のない点が、該推定対象物領域中の点と隣接していると、該点もターゲット対象物である可能性があることから、該点も推定対象物領域に追加する。
ステップS520の検知においては、視差値のない点が、垂直方向に該推定対象物領域中の点と隣接している可能性だけでなく、水平方向に該点と隣接している可能性があることから、従来技術における4連結(4-connected)方法により、水平方向と垂直方向で隣接有無を検知してもよい。または、8連結(8-connected)方法により、8つの方向でより正確な検知を行うことができる。
または、該方法においては、ステップS530を含んでもよく、該ステップS530において、該初期対象物領域内の視差値が対象物の視差範囲の最大値を超えた点に対し、該点が該推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っていると、該点も該推定対象物領域に追加する。
前述のように、該初期対象物領域内の視差値がターゲット対象物の視差範囲内の最大視差値maxiを超えた点(C3類に属する点)に対し、これらがより近距離の対象物の点に属するものの、ターゲット対象物を遮蔽している可能性があると、被遮蔽部分の点の距離も未知となることから、該点が該推定対象物領域中の点と隣接していると、該点に遮蔽される点も、該隣接点と同一の視差値を有し、即ち、該点に遮蔽される点もターゲット対象物に属する点になる可能性があることから、該点も推定対象物領域に追加する。
これにより、初期対象物領域内のターゲット対象物が最も存在し得る推定対象物領域が得られる。該推定対象物領域から、得られた対象物分割領域を引き去ることにより、正確に分割された対象物領域が得られる。このため、より遠距離の対象物の情報を用いた初期対象物領域への再分割が可能により、隣接の可能性のある対象物の分割が可能になる。
ここで、ステップS510のみで得られる推定対象物領域(即ち、該初期対象物領域内の、視差値が該領域内のターゲット対象物の視差範囲内の点からなる領域)は、方法400におけるステップS420で得られる推定対象物領域として、直接用いてもよい。この場合、該推定対象物領域から、得られた対象物分割領域を引くことで、同様に、より遠距離の対象物の情報を用いた初期対象物領域への再分割が可能により、隣接の可能性のある対象物の分割が可能になる。
前述の本発明の対象物領域分割方法及び装置は、対象物間の遮蔽関係及び視差図内の対象物の距離情報を考慮して、比較的遠距離にある対象物の情報を裁断基準として分割を行うことにより、隣接或いは近接している対象物を分割し、正確な分割が可能になるとともに、強力な耐ノイズ能力を有することができる。さらに、該方法においては、近距離対象物に対しても処理を施すことにより、一部が遮蔽された対象物に対しても優れた分割効果が得られる。
図6(a)、(b)は、前述の対象物領域分割方法により得られた対象物領域分割結果である。図6(a)は、接近またはくっ付いている複数の通行人が含まれた初期対象物領域を示し、図6(b)は、前述の対象物領域分割方法により、図6(a)の初期対象物領域を分割して得られた対象物領域分割結果であり、複数の不規則なバー形状領域が、前記対象物分割領域の例となる。図6(b)から、くっ付いた人が正確に分割されていることが分かる。
<2.4、分割結果の更なる最適化>
大半の場合、対象物が空中に飛行することは少ないことから、遠距離にある対象物が空中に飛行している場合は、路面からスタートして対象物領域を分割する必要があることから、前述の方法による分割結果をさらに最適化する。本発明における前述の対象物領域分割方法から得られた結果において、分割後の対象物領域に、外見上一部が分離されたものの、一部が依然としてくっ付いている対象物が存在する場合は、該対象物領域をさらに分割する必要がある。
図7は、本発明の1実施例における、更なる最適化分割結果の方法700のフローチャートである。
図7に示されたように、ステップS710において、該推定対象物領域から該対象物分割領域を除去して得られた連結領域を、新規の推定対象物領域とする。
ステップS720において、該新規の推定対象物領域の上縁位置情報を取得し、位置の波の谷の点を取得する。
ステップS730において、該波の谷の点の高さが所定の閾値未満になるか否かを検知し、該波の谷の点の高さが該閾値未満になると、該波の谷の点により、該新規の推定対象物領域を2つの領域に分割するとともに、該2つの領域を新規の推定対象物領域とする。
ステップS740において、ステップS730から得られた全ての新規の推定対象物領域に対し、再分割が不可能になるまで、以上のステップS720〜S730を繰り返す。
該所定の閾値に関しては、当業者が需要に応じて設定してもよく、例えば、予め設定されたある固定値のように、絶対閾値でもよく、或いは、
(aは、0〜1の範囲内の係数因子であり、Mean()は、平均値を表し、OUBは、前記上縁位置の高さを表す)のように、前記上縁位置値から算出される相対閾値でもよい。もちろん、該閾値は、実際の適用ケースに応じて、他の適切な値でもよいことは、当業者に明白である。
前述の方法700によれば、一部がくっ付いた対象物を含む対象物領域の更なる分割が可能になる。
<2.5、対象物分割装置>
図8は、本発明の実施例における対象物領域分割装置800のブロック図である。
図8に示されたように、該対象物領域分割装置800は、視差図取得部810と、初期対象物領域取得部820と、視差範囲取得部830と、対象物分割領域取得部840と、分割部850と、を備えている。
該視差図取得部810は、対象物を内包するシーンの視差図を取得する。該初期対象物領域取得部820は、該視差図における対象物輪郭を内包する1つまたは複数の初期対象物領域を取得する。該視差範囲取得部830は、各々の初期対象物領域内の対象物の視差範囲を取得する。該対象物分割領域取得部840は、各初期対象物領域に対し、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点により、該初期対象物領域内の対象物を分割するための対象物分割領域を取得する。該分割部850は、該対象物分割領域により、該初期対象物領域を分割し、対象物領域の分割結果を得る。
該対象物分割領域取得部は、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点からなる領域を、該対象物分割領域としてもよい。
<3、まとめ>
以上のように、対象物を内包するシーンの視差図を取得し、該視差図における対象物輪郭を内包する1つまたは複数の初期対象物領域を取得し、各々の初期対象物領域内の対象物の視差範囲を取得し、各初期対象物領域に対し、該初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点に基づき、該初期対象物領域内の対象物を分割するための対象物分割領域を取得し、該対象物分割領域により、該初期対象物領域が分割され、対象物領域の分割結果が得られる、対象物領域分割方法及び装置について説明した。
本発明は、視差図内の対象物の距離情報及び対象物間の遮蔽関係を考慮して、比較的遠距離にある対象物の情報を裁断基準として分割を行うことにより、くっ付いているか接近している可能性のある対象物を分離し、これにより、正確な分割が可能になるとともに、強力な耐ノイズ能力を有することができる。さらに、本発明は、近距離対象物に対しても処理を施すことにより、部分的に遮蔽された対象物に対しても優れた分割結果を得ることができる。
前述の実施例では、道路画面を例に、本発明の対象物領域分割方法及び装置を説明したが、本発明は、同様に事務環境のような他の環境にも適用可能なことは、言うまでもない。
双眼カメラ、多眼カメラ、ステレオカメラで撮像して対象物を内包する視差図を得てもよく、或いは、立体図から深度図を取得し、深度図から視差図を取得してもよい。シーンの視差図の取得方法は、従来技術では公知のものである。
従来の分割方法で1つまたは複数の初期対象物領域を取得してもよい。または、ユーザにより、視差図から1つまたは複数の初期対象物領域を指定するとともに、従来技術の方法により、各領域の対象物領域情報及び対象物視差範囲を取得してもよい。
また、初期対象物領域内の、視差値が該領域内の対象物の視差範囲の最小値未満になる点からなる領域を、該対象物分割領域としてもよい。または、該初期対象物領域内の視差値のない点が該対象物分割領域中の点と垂直方向に隣り合っていると、該点も該対象物分割領域に追加してもよい。または、該初期対象物領域内の視差値が対象物の視差範囲の最大値を超えた点が該対象物分割領域中の点と垂直方向に隣り合っていると、該点も該対象物分割領域に追加してもよい。
また、初期対象物領域内の、視差値が該領域内のターゲット対象物の視差範囲内の点からなる領域を、推定対象物領域としてもよい。または、該初期対象物領域内の視差値のない点が該推定対象物領域中の点と隣り合っていると、該点も該推定対象物領域に追加してもよい。または、該初期対象物領域内の、視差値が対象物の視差範囲の最大値を超えた点が該推定対象物領域中の点と隣り合っていると、該点も該推定対象物領域に追加してもよい。
以上、具体的な実施例により、本発明の基本原理を説明したが、当業者が本発明の方法及び装置の全て、または任意のステップや各部を理解したうえ、任意の演算装置(プロセッサ、記録媒体等を含む)や、演算装置のネットワークにおいて、ハードウェア、ファームウェア、ソフトウェアや、これらの組合せで実現することが可能であることは、言うまでもなく、当業者が、本発明の説明のもと、基本プログラミング技能を用いて実現可能なものである。
このため、本発明の目的は、さらに、任意の演算装置上で1つのプログラムや1セットのプログラムを実行して実現できる。前記演算装置は、公知の汎用装置でよい。このため、本発明の目的は、単に前記方法や装置を実現するプログラムコードを含むプログラム製品を提供することでも実現することができる。もちろん、前記記録媒体は、任意の公知の記録媒体や、将来開発し得る任意の記録媒体でもよい。
また、本発明の装置及び方法において、各部や、各ステップは、分解及び/或いは再組み合わせが可能であることは言うまでもない。このような分解及び/または再組み合わせも、本発明と同等の発明と見なされるべきである。なお、前記系列処理の実行ステップは、自然に説明順、時間順で行ってもよいが、必ずしも一定の時間順で行われる必要はなく、あるステップは、並行に、或いは独立に行われてもよい。例えば、基準レーザスポット/領域特徴値の取得ステップと候補レーザスポット/領域の生成ステップとは、独立したものであり、並行に行われてもよく、任意の前後順に行われてもよい。
本発明は、前述の具体的な実施形態によって保護範囲が制限されるものではなく、当業者が、設計要求や他の要素に応じて、多種多様な補正、組み合わせ、サブ組み合わせ、代替が可能なことは言うまでもない。本発明の精神と原則を逸脱しない範囲内のいずれの補正、同等の代替、改善等は、すべて本発明の保護範囲内のものとなる。
米国特許US7046822号明細書 国際特許出願公開WO2009/013636A2号明細書

Claims (10)

  1. 対象物を内包するシーンの視差図を取得するステップと、
    前記視差図における対象物の輪郭を内包する1つまたは複数の初期対象物領域を取得するステップと、
    各々の初期対象物領域内の対象物の視差範囲を取得するステップと、
    各初期対象物領域に対し、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点に基づき、前記初期対象物領域内の対象物を分割するための対象物分割領域を取得するステップと、
    前記対象物分割領域により、前記初期対象物領域を分割し、対象物領域の分割結果を得るステップと、を含む、対象物領域分割方法。
  2. 前記対象物分割領域を取得するステップにおいて、
    前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点からなる領域を、前記対象物分割領域とする、請求項1に記載の対象物領域分割方法。
  3. 前記対象物分割領域を取得するステップにおいて、さらに、
    前記初期対象物領域内の視差値のない点に対し、該点が前記対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っている場合、前記視差値のない点も前記対象物分割領域に追加し、
    前記初期対象物領域内の、視差値が対象物の視差範囲の最大値を超えた点に対し、該点が前記対象物分割領域中の点と垂直方向に隣り合っているか否かを検知し、隣り合っている場合、前記視差値が対象物の視差範囲の最大値を超えた点も前記対象物分割領域に追加する、請求項2に記載の対象物領域分割方法。
  4. 前記対象物分割領域により、前記初期対象物領域を分割するステップは、
    前記初期対象物領域内の、視差値が前記視差範囲内の点により、前記初期対象物領域内の推定対象物領域を取得するステップと、
    前記対象物分割領域により、前記推定対象物領域を分割するステップと、を含む、請求項1に記載の対象物領域分割方法。
  5. 前記推定対象物領域を取得するステップにおいて、
    前記初期対象物領域内の、視差値が前記視差範囲内の点からなる領域を、前記推定対象物領域とする、請求項4に記載の対象物領域分割方法。
  6. 前記推定対象物領域を取得するステップにおいて、さらに、
    前記初期対象物領域内の視差値のない点に対し、該点が前記推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っている場合、前記視差値のない点も前記推定対象物領域に追加し、
    前記初期対象物領域内の、視差値が対象物の視差範囲の最大値を超えた点に対し、該点が前記推定対象物領域中の点と隣り合っているか否かを検知し、隣り合っている場合、前記視差値が対象物の視差範囲の最大値を超えた点も前記推定対象物領域に追加する、請求項5に記載の対象物領域分割方法。
  7. 前記対象物分割領域により、前記推定対象物領域を分割するステップにおいて、
    (a)前記推定対象物領域から前記対象物分割領域を除去し、得られた連結領域を新規の推定対象物領域とし、
    (b)前記新規の推定対象物領域の上縁位置情報を取得し、位置の波の谷の点を取得し、
    (c)前記波の谷の点の高さが所定の閾値未満になるか否かを検知し、前記閾値未満になる場合、前記波の谷の点により、前記新規の推定対象物領域を2つの領域に分割するとともに、該2つの領域を新規の推定対象物領域し、
    (d)このように得られた全ての新規の推定対象物領域に対し、再分割が不可能になるまで、以上のステップ(b)〜(c)を繰り返す、請求項4に記載の対象物領域分割方法。
  8. 前記所定の閾値は、絶対閾値または前記上縁位置値から算出された相対閾値である、請求項7に記載の対象物領域分割方法。
  9. 対象物を内包するシーンの視差図を取得する視差図取得部と、
    前記視差図における対象物の輪郭を内包する1つまたは複数の初期対象物領域を取得する初期対象物領域取得部と、
    各々の初期対象物領域内の対象物の視差範囲を取得する視差範囲取得部と、
    各初期対象物領域に対し、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点に基づき、前記初期対象物領域内の対象物を分割するための対象物分割領域を取得する対象物分割領域取得部と、
    前記対象物分割領域により、前記初期対象物領域を分割し、対象物領域の分割結果を得る分割部と、を含む、対象物領域分割装置。
  10. 前記対象物分割領域取得部は、前記初期対象物領域内の、視差値が前記初期対象物領域内の対象物の視差範囲の最小値未満になる点からなる領域を、前記対象物分割領域とする、請求項9に記載の対象物領域分割装置。
JP2013099444A 2012-05-11 2013-05-09 対象物領域分割方法及び対象物領域分割装置 Active JP6119409B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210147434.5A CN103390268B (zh) 2012-05-11 2012-05-11 物体区域分割方法和装置
CN201210147434.5 2012-05-11

Publications (2)

Publication Number Publication Date
JP2013239167A true JP2013239167A (ja) 2013-11-28
JP6119409B2 JP6119409B2 (ja) 2017-04-26

Family

ID=48326120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013099444A Active JP6119409B2 (ja) 2012-05-11 2013-05-09 対象物領域分割方法及び対象物領域分割装置

Country Status (3)

Country Link
EP (1) EP2677462B1 (ja)
JP (1) JP6119409B2 (ja)
CN (1) CN103390268B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092608A (ja) * 2016-11-25 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105277169B (zh) * 2015-09-25 2017-12-22 安霸半导体技术(上海)有限公司 基于图像分割的双目测距方法
CN106886997A (zh) * 2015-12-15 2017-06-23 株式会社理光 识别堆叠物体的方法和装置
EP3327624A1 (en) * 2016-11-25 2018-05-30 Ricoh Company Ltd. Information processing apparatus, imaging device, device control system, mobile object, information processing method, and carrier means
CN109254579B (zh) * 2017-07-14 2022-02-25 上海汽车集团股份有限公司 一种双目视觉相机硬件系统、三维场景重建系统及方法
CN111666824B (zh) * 2020-05-14 2023-12-15 浙江工业大学 移动机器人的基于颜色属性和机器学习的指示灯识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170118A (ja) * 2000-12-04 2002-06-14 Olympus Optical Co Ltd 背景分離装置及び背景分離方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19926559A1 (de) 1999-06-11 2000-12-21 Daimler Chrysler Ag Verfahren und Vorrichtung zur Detektion von Objekten im Umfeld eines Straßenfahrzeugs bis in große Entfernung
WO2009013636A2 (en) * 2007-05-22 2009-01-29 The University Of Western Ontario A method for automatic boundary segmentation of object in 2d and/or 3d image
CN102024260B (zh) * 2010-12-30 2012-11-28 浙江工商大学 基于局部Gamma拟合的活动轮廓SAR图像分割方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170118A (ja) * 2000-12-04 2002-06-14 Olympus Optical Co Ltd 背景分離装置及び背景分離方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6017000667; Michael Bleyer,Magrit Gelautz: 'A layered stereo algorithm using image segmentation and global visibility constraints' Image Processing,2004.ICIP'04 , 2004, 2997-3000, IEEE *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018092608A (ja) * 2016-11-25 2018-06-14 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP7062904B2 (ja) 2016-11-25 2022-05-09 株式会社リコー 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム

Also Published As

Publication number Publication date
CN103390268A (zh) 2013-11-13
EP2677462B1 (en) 2018-05-30
CN103390268B (zh) 2016-11-23
JP6119409B2 (ja) 2017-04-26
EP2677462A1 (en) 2013-12-25

Similar Documents

Publication Publication Date Title
JP6496987B2 (ja) 目標検出方法及び目標検出装置
JP6119409B2 (ja) 対象物領域分割方法及び対象物領域分割装置
US10210286B1 (en) Systems and methods for detecting curbs in three-dimensional point clouds descriptive of streets
US9412040B2 (en) Method for extracting planes from 3D point cloud sensor data
JP6299291B2 (ja) 道路エッジ検出方法及び道路エッジ検出装置
Cheng et al. Integration of LiDAR data and optical multi-view images for 3D reconstruction of building roofs
JP6955783B2 (ja) 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品
JP6131704B2 (ja) 連続型道路分割体の検知方法及び連続型道路分割体の検知装置
WO2017041396A1 (zh) 一种车道线数据的处理方法、装置、存储介质及设备
JP6340781B2 (ja) 視差図による視差方向連続型物体検知方法及び装置
Zhou et al. Moving object detection and segmentation in urban environments from a moving platform
JP2013109760A (ja) 対象検知方法及び対象検知システム
KR20160123668A (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
JP5353455B2 (ja) 周辺監視装置
Ahmetovic et al. Zebrarecognizer: Efficient and precise localization of pedestrian crossings
Mroz et al. An empirical comparison of real-time dense stereo approaches for use in the automotive environment
CN107949851B (zh) 在场景内的物体的端点的快速和鲁棒识别
CN107491065B (zh) 利用障碍物的地面边界信息检测物体的侧面的方法和装置
WO2020154990A1 (zh) 目标物体运动状态检测方法、设备及存储介质
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
JP2015011713A (ja) 車両検出方法及び装置
KR20200087296A (ko) 라이다 센서 데이터 기반 장애물 검출 3차원 뷰어 시스템
Petrovai et al. Obstacle detection using stereovision for Android-based mobile devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R151 Written notification of patent or utility model registration

Ref document number: 6119409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151