JP2014127208A - 物体検出方法及び物体検出装置 - Google Patents

物体検出方法及び物体検出装置 Download PDF

Info

Publication number
JP2014127208A
JP2014127208A JP2013265379A JP2013265379A JP2014127208A JP 2014127208 A JP2014127208 A JP 2014127208A JP 2013265379 A JP2013265379 A JP 2013265379A JP 2013265379 A JP2013265379 A JP 2013265379A JP 2014127208 A JP2014127208 A JP 2014127208A
Authority
JP
Japan
Prior art keywords
height
foreground
dimensional
detection
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013265379A
Other languages
English (en)
Other versions
JP6295645B2 (ja
Inventor
Ying Fang Xiong
ファヌ ションイヌ
Woo Wang Shin
ワン シヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2014127208A publication Critical patent/JP2014127208A/ja
Application granted granted Critical
Publication of JP6295645B2 publication Critical patent/JP6295645B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

【課題】物体検出方法及び物体検出装置を提供する。
【解決手段】該方法は、物体の複数の奥行き画像を取得するステップと、各々画像座標系を有する前景を各奥行き画像から抽出するステップと、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において各前景を融合するステップと、3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得するステップと、複数のステレオカメラの配置によって、重畳領域及び重畳回数を決定するステップと、検出位置が重畳領域にあるか否か及び対応する重畳回数によって、検出パラメータを決定するステップと、検出パラメータに基づいて外観2次元ヒストグラムを用いて物体を検出するステップと、を含む。
【選択図】図2

Description

本発明は、全体的に画像処理に関し、更に具体的にステレオビジョンに基づく物体検出方法および装置に関するものである。
タイトルが「METHOD AND SYSTEM TO SEGMENT DEPTH IMAGES AND TO DETECT SHAPES IN THREE−DTMENSIONALLY ACQUIRED DATA」である特許文献US8009871B(特許文献1)、タイトルが「SURFACE GENERATION METHOD FROM BOUNDARIES OF STEREO IMAGES」である特許文献US5202928A(特許文献2)、Michael Harvilleが2003年に発表した文章「Stereo Person Tracking with Adaptive Plan−View Templates of Height and Occupancy Statistics」(非特許文献1)などのようなステレオカメラで収集された画像を用いて物体を検出する技術は、既に存在している。
人の位置決め又は検出を例として、人の位置決めが人を中心とする技術の基礎であるため、人物が正確に位置決めされた後に限ってはプロアクティブなサービスを提供およびプッシュすることができる。人の位置決めは、人を検出して、更に屋内や屋外における人の位置情報を取得し、即ち世界座標系における人の座標値(x,y,z)を取得する過程である。
立体視に基づく人への位置決め技術の中核は、奥行きマップ/視差マップシーケンスにおける人への検出及び追跡技術である。今でも、それは、挑戦的な技術的課題であり、主に、実際の応用において人の姿勢と外観の変化が大きく、遮蔽問題が良く発生するためである。屋内シーンにおいて、背景が複雑であり、人が多いため、遮蔽の発生周波数が更に高くなり、人の検出および追跡が失敗になる場合が多い。同時に、単一のステレオの視角が限られるため、その測定誤差が距離の増大に伴って大きくなる。そのため、複数のステレオカメラを配置することでシステムの視角、有効な測定範囲を広くし、遮蔽問題を減らすことができる。
発明者は、どのように複数のステレオカメラの奥行き/視差情報を用いてより効果的に人を検出し、追跡して、より正確に人を位置決めるかが実際の応用に非常に意義を持つ課題であり、融合技術を用いることで解決することができると考える。融合は、その融合オブジェクトによって、生データセットの融合、特徴セットの融合、結果セットの融合という3種類に大別することができる。
複数のステレオカメラ例えば双眼カメラのシーンについては、生データセットの融合、即ち画素セットの融合は、ネットワークで伝送されるデータの量および処理されるデータの量が大きいため、実際のシーンにリアルタイムに応用することができない。
特許US7929017B2(特許文献3)には、ステレオカメラ、マルチカメラおよびRFとビデオの融合に用いられる方法および装置が提案されている。当該方法は、単眼カメラ、ステレオカメラの追跡結果、およびRFID、位置決めシステムと生物識別システムの結果を融合している。当該融合技術は、異なるセンサ情報のノイズとファジーに対して厳しく不確実性分析を行うことで、センサ情報の変換を行う。それは、時間と空間の制約に基づいて異なるセンサの位置と速度情報を融合する。当該特許に提案される方法にはベイズ法を用いて各種の結果を融合し、融合目標が追跡された結果と位置情報である。安定性を増加させるために、それは、時間と空間の制約を考えた。
特許US7742620B2(特許文献4)には、時間領域と空間領域の融合により検出結果を向上させる方法が提案されている。当該方法において融合目標は、それぞれの異なるセンサの処理結果であり、それは空間領域と時間領域の融合を一緒に組み合わせて、同時に特殊な閾値処理を用いる。
上記の二つの特許文献に用いられる方法は、いずれも結果セット上の融合であり、一般的には、結果が既に多くの元の情報と特徴を失ったため、結果自体の信頼度が不確定であるため、融合結果のエラー率が高くなる。
本発明は、従来技術における上記問題を鑑みてなされたものである。
本発明の一つの目的は、物体遮蔽に対して強い頑健性(ロバスト性)を持ち、精確かつできる限り多く物体を検出できる物体検出方法および装置を提供することにある。
本発明の一の態様に係る物体検出方法は、複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するステップと、各々画像座標系を有する前景を各奥行き画像から抽出するステップと、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合するステップと、前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得するステップであって、当該外観2次元ヒストグラムが、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって得られるステップと、当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定するステップと、ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定するステップと、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出するステップと、を含んでもよい。
本発明の他の態様に係る物体検出装置は、複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するマルチ奥行き画像取得部と、各奥行き画像からそれぞれの画像座標系を有する前景を抽出する前景抽出部と、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合する前景融合部と、前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得し、当該外観2次元ヒストグラムを、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって取得する外観2次元ヒストグラム計算部と、当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定する重畳回数決定部と、ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定する検出パラメータ決定部と、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する物体検出部と、を含んでもよい。
本発明の実施形態に係る物体検出方法および装置により、遮蔽の影響を除去又は軽減して、より正確で、できるだけ多く物体を検出することができる。
本発明の実施形態に係る方法又は装置を用いたシステムを示す図である。 本発明の一実施形態に係る物体検出方法を示す全体的なフローチャートである。 本発明の一実施形態に係る統一的xyz世界座標系において前景点を融合することを示す図である。 本発明の一実施形態に係る前景点融合の例示的な方法のフローチャートである。 本発明の実施形態に係る統一的世界座標にける垂直体を示す図である。 本発明の一実施形態に係る鳥瞰図に基づく外観2次元ヒストグラムの生成のフローチャートである。 外観2次元ヒストグラムを示す図である。 本発明の一実施形態に係る重畳領域の重畳回数の計算を示す図である。 本発明の実施形態に係る異なる重畳領域の検出パラメータとする物体標準表面積の決定を示す図である。 本発明の第2の実施例に係る物体検出方法を示す全体的なフローチャートである。 本発明の一実施形態に係る融合された前景から計算して外観2次元ヒストグラムと高さ2次元ヒストグラムの両者を取得する方法を示すフローチャートである。 本発明の実施形態に係る平面図に基づく高さ2次元ヒストグラムを示す図である。 本発明の一実施形態に係る2次元ヒストグラムを用いて物体を追跡する方法を示すフローチャートである。 本発明の実施形態に係る重畳領域の重畳回数によって追跡特徴を変更することを示す図である。 本発明の一実施形態に係る例示的な物体検出装置を示す機能構成ブロック図である。 本発明の実施形態に係る物体検出システムを示す全体的なハードウェアブロック図である。
当業者が本発明をより良く理解するために、以下、図面および具体的な実施形態を参照しながら本発明を更に詳細に説明する。
次の順番で説明する。
1、システム略図
2、外観2次元ヒストグラムに基づく物体検出方法(第1の実施形態)
3、外観2次元ヒストグラムと高さ2ヒストグラムに基づく物体検出方法(第2の実施形態)
4、高さ2次元ヒストグラムに基づく物体追跡方法(第3の実施形態)
5、物体検出装置
6、システムのハードウェア構成
7、まとめ
[1、システム略図]
図1は、本発明の実施形態に係る方法又は装置を用いたシステムを示す図であり、主に例示的に本発明の実施形態の入力と出力を示す。その中、入力された情報は、2つの双眼カメラに由来し、図に2つだけの双眼カメラを示しているが、実際には本発明は、1つ、2つ、より多くの双眼カメラをサポートすることができる。本発明の実施形態の出力は、位置決められた人の位置であり、鳥瞰図又は平面図で示す。図1の2つの円1、2が鳥瞰図での2つの双眼カメラ1の位置を示し、直線A、B、Cが双眼カメラの視角の縁を示し、DEFが双眼カメラ2の視角の縁を示し、複数の白い菱形が位置決められた人を示す。
本例および後続の例において、人を検出目標とし、そして人が地面に立つことを仮定すると説明すべきである。しかし、これは、例だけであるが、本発明は、この限りではなく、いかなる物体、例えば動物、椅子などを検出目標としてもよく、かつ検出物体が任意に配置されてもよく、必ずしも地面に位置するものではない。
[2、外観2次元ヒストグラムに基づく物体検出方法(第1の実施形態)]
以下、本発明の一実施形態に係る、複数のステレオカメラで物体を検出する全体の過程を説明する。
図2は、本発明の一実施形態に係る物体検出方法100を示す全体的なフローチャートである。
説明の便宜上、当該全体的なフローチャートについては、所定空間に、複数のステレオカメラを配置して、当該所定空間に現れる物体を立体的にイメージングするようになり、ステレオ画像を処理することで物体を検出することが仮定される。
所定空間については、1つの部屋、例えばスーパーマーケット、工場などであってよいが、屋外空間、例えば学校場所、軍事場所などであってもよく、監視オブジェクトとすることができる空間であればよい。検出されるオブジェクトについては、特に制限されなく、人、動物、飛行物、自転車、椅子などであってよい。
ステレオカメラは、物体を3次元的にイメージングする又は立体的にイメージングすることができるカメラであり、一般的に奥行き画像とカラー画像(又はグレー画像)を同時に出力できる。上述したように、能動的に放出された赤外線を用いて3次元情報の生成を支援するステレオカメラであって、例えば、マイクロソフトのKinect、また赤外線の飛行時間(TOF:Time of Flight)技術に基づくタイプ、又はテクスチャ光に基づくタイプがある。別のタイプのステレオは、3次元スタジアの双眼カメラ原理に基づくものであって、例えば双眼カメラまたは多眼カメラである。説明の便宜上、以下、双眼カメラを例にして説明するが、本発明は、この限りではなく、いかなるステレオカメラを応用してもよい。
ステレオカメラを用いるため、的確な3次元情報を取得できると注意すべきである。そのため、本発明に係る人の検出は、検出および位置決めを同時に完了できると理解されるべきであり、物体検出と位置決めの一つだけを行うことができることはもちろん言うまでもない。
図2に示すように、ステップS110において、複数のステレオカメラで物体を撮影して当該物体の複数の奥行き画像を取得する。
ステレオカメラは、物体を3次元的にイメージングする又は立体的にイメージングすることができるカメラであり、一般的に奥行き画像とカラー画像(又はグレー画像)を同時に出力できる。上述したように、能動的に放出された赤外線を用いて3次元情報の生成を支援するステレオカメラであって、例えば、マイクロソフトのKinect、また赤外線の飛行時間(TOF:Time of Flight)技術に基づくタイプ、又はテクスチャ光に基づくタイプがある。別のタイプのステレオは、3次元スタジアの双眼カメラ原理に基づくものであって、例えば双眼カメラまたは多眼カメラである。説明の便宜上、以下、双眼カメラを例にして説明するが、本発明は、この限りではなく、いかなるステレオカメラを応用してもよい。
ステレオカメラを用いるため、正確な3次元情報を取得できると注意すべきである。そのため、本発明に係る人の検出は、検出および位置決めを同時に完了できると理解されるべきであり、物体検出と位置決めの一つだけを行うことができることはもちろん言うまでもない。
ステップS120において、各奥行き画像から前景を抽出し、各奥行き画像の前景がそれぞれの画像座標系を有する。
奥行き画像から前景を抽出するまたは前景を分割し、即ちステレオ画像から処理オブジェクトとする前景と背景を分離させて、前景を抽出する。1つの例示的な実施形態として、RGBDの混合ガウス動的モデリングにより前景を分割することができ、具体的に、タイトルが「Plan−view trajectory estimation with dense stereo background model」であるT.Darrelが2001年に発表した文章を参照することができる。
ステップS310において、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、各前景を融合し、物体がx、z軸によって限定されたxz平面に立つことになる。
地面に立つ人を検出することを例とすると、地面がxz平面にあり、人の高さ方向がy軸方向である。
以下、図3、図4を参照して、本発明の一例示的な実施形態に係る前景を融合する例を詳細に説明する。
図3は、本発明の一実施形態に係る統一的xyz世界座標系において前景点を融合することを示す図である。図3に示すように、中間位置にある前景オブジェクトの前景点は、異なる双眼カメラに由来し、一部で双眼カメラAに由来し、一部で双眼カメラBに由来する。実際には、図3において他の位置にある前景オブジェクトも同様の状況である。
図4は、本発明の一実施形態に係る前景点を融合する例示的な方法130を示すフローチャートである。当該方法130は、図2に示すステップS130に応用することができる。
統一的座標系の確立基礎は、まず双眼カメラの外部パラメータを決定することであり、現在、既に公知の技術になったため、ここで詳細に述べない。複数の双眼カメラのために統一的世界座標系を確立した後、物理的世界における1個の点の異なる双眼カメラでの座標値が類似することを確保でき、即ち当該点と異なる双眼カメラで取得された、統一的世界座標系における異なる座標点との間の距離が小さい。
図4に示すように、ステップS131において、xyzの統一的世界座標において、異なる双眼カメラで取得された前景点を取得する。画像座標系から世界座標系への1個の点の座標変換が公知の技術であるため、ここではそれに対する詳細な説明を省略する。
ステップS132において、これらの異なるソースの前景点が物理的世界における1個の点に属することを判定する。一例では、統一的世界座標系におけるこれらの異なるソースの前景点の距離を計算することで判定してもよく、距離が所定の閾値より小さいと、これらの異なるソースの前景点が同じ点であると判定し、そうでなければ、これらの異なるソースの前景点が異なる点であると判定する。閾値が実験により決定され、又は学習により取得されてもよい。一例では、閾値を1cmにデフォルトで設定する。
ステップS132において異なるソースの前景点が同じ点ではないと判定した場合、ステップS133に進み、ステップS133において、直接それらを統一的世界座標系における前景点とする。
ステップS132において異なるソースのこれらの前景点が同じ点であると判定すると、ステップS134に進む。
図3の例では、異なるソースのこれらの前景点が同じ点であると判定した場合、複数の点を融合して、最終点の座標値を取得する必要がある。
一例では、加重和法により融合してもよい。
具体的には、ステップS134において、各点の自身ソース(即ち双眼カメラ)までの距離を計算する。
ステップS135において、異なる距離値によって、異なるソースの前景点の重みを計算して、距離によって、異なるソースの前景点の重みを決定し、これにより距離が近いほど、重みが高くなり、その後、融合して当該点の最終の座標値を取得する。
以下、2つの異なるソースの前景点が物理的世界における同じ点に対応することを例として説明する。仮に、双眼カメラAに由来する前景点の自身の画像座標系での座標値が(xa,ya,za)であり、統一的世界座標系に変換されて出力した前景点の座標が(x1,y1,z1)となり、当該点のカメラAまでの距離がdistaである。双眼カメラBに由来する前景点の自身の画像座標系での座標値が(xb,yb,zb)であり、統一的世界座標系に変換されて出力した前景点の座標が(x2,y2,z2)となり、当該点のカメラBまでの距離がdistbである。
一例では、式1によって当該点のカメラA、カメラBまでの2つの距離を用いて重みの計算を行うことができる。
Figure 2014127208
その中、weightaがカメラAに由来する前景点の重みであり、weightbがカメラBに由来する前景点の重みである。
計算して得られた重みによって、融合後の点の最終の座標値(x,y,z)を計算できる。一例によれば、具体的な数式が(2)に示すようなものである。
Figure 2014127208
上記の例では、距離によって重みを決定する式(1)と座標融合式(2)が例だけであるため、異なる応用と実際の状況によって他の公式を設計することができ、距離が近いほど、重みが大きくなり、最終の座標値に対する決定作用が強くなることを満たしていればよい。
なお、以上に2つの双眼カメラに由来する前景点を例として複数の異なる双眼カメラに由来する前景点の融合を説明したが、これは、例だけであるが、例えば3、4などのより多くの双眼カメラに由来する前景点を融合してもよい。
図2に戻り、ステップS130において前景融合を完了した後、ステップS140に進む。
ステップS140において、前記3次元世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得し、当該外観2次元ヒストグラムが前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得するように処理して取得される。
前記外観2次元ヒストグラムおよび/又は後述する高さ2次元ヒストグラムは、ある平面図における、3次元画像の物体の表面点の分布の統計データと見なされることができ、いくつかの文献例えばタイトルが「Plan−view trajectory estimation with dense stereo background model」であるT.Darrelが2001に発表した文章では外観平面図(Appearance plan view)とも称され、又は発明者がシヌ ワンであり、特許出願番号がCN201210292660.2である発明特許出願では増分平面図又は高さ平面図とも称される。
外観2次元ヒストグラムは、人の表面積を示し、実際には人に含まれるすべての垂直bin内の前景点の合計であり、合計が大きいほど人の表面積が大きくなることを示す。外観2次元ヒストグラムを用いて人の表面積を示し、それは、後続の、人を検出する基本特徴とすることができる。
上記垂直体は、垂直binとも称されている。図5は、本発明の実施形態に係る統一的世界座標系における垂直binを示す図である。統一的世界座標系において、垂直binにより3次元空間を分割し、その後、各垂直bin内でそれに含まれる前景点の数(外観2次元ヒストグラム)又はそれに含まれる前景点の最高値(高さ2次元ヒストグラム)を統計し、このように鳥観図で統計および分析を行うと、外観2次元ヒストグラムおよび/又は高さ2次元ヒストグラムを取得する。
図6は、本発明の一実施形態に係る鳥観図に基づく外観2次元ヒストグラムの生成のフローチャートである。
ステップS141において、前景点を取得する。
ステップS142において、各垂直binを列挙する。
ステップS143において、bin内の前景点の数を統計する。
ステップS144において、外観2次元ヒストグラムを計算して取得する。外観又は外観モデルは、人の表面積を意味し、実際に人に含まれる垂直bin内の前景点の数の合計であり、合計が大きいほど、人の表面積が大きくなることを示す。外観モデルを用いた2次元ヒストグラムは、人の表面積を示し、後続の、人を検出する基本特徴とされることができる。
図7は、外観2次元ヒストグラムを示す図であり、その中のそれぞれの白い斑点がそれぞれの人の外観2次元ヒストグラムを示す。
外観2次元ヒストグラム(又は外観平面図と称される)を取得する方法についてのより具体的な説明は、タイトルが「Plan−view trajectory estimation with dense stereo background model」であるT.Darrelが2001年に発表した文章、又は発明者がシヌ ワンであり、特許出願番号がCN201210292660.2である発明特許出願を参照でき、上記の2つの文献の全文を本明細書に組み込んで参照とする。
図2に戻り、ステップS140において外観2次元ヒストグラムを取得した後、ステップS150に進む。
ステップS150において、当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定し、そして重畳回数を決定する。
2つの双眼カメラの重畳領域において、選択されたある矩形領域について、そのbinの数量が非重畳領域から選択された矩形領域中のbinの数量より大きい。同時に、重畳領域において、選択されたある矩形領域について、一般的には、その面積(前景点の合計数)も非重畳領域から選択された矩形領域中の面積(前景点の合計数)より大きい。例示的に、図7に示す外観2次元ヒストグラムにおいて、重畳領域に位置する白い斑点の強さが重畳領域に位置しない白い斑点の強さより大きく、つまり重畳領域に位置する人の表面積が非重畳領域に位置する人の表面積より大きい。
外観モデルは、後続の人の検出に用いられ、異なる重畳領域の人の表面積に違いが存在することを考えて、そのため、検出アルゴリズムの一部は、対応するメカニズムによって対応される必要がある。
そのため、発明者は、それぞれのカメラの重畳領域および領域に関する重畳回数を決定し、それに応じて検出パラメータを調整して、より正確にオブジェクトを検出すると考えている。
そのため、ステップS150において、重畳領域の決定、および重畳回数の計算を行う。
図8は、本発明の一実施形態に係る重畳領域の重畳回数の計算を示す図である。
複数の双眼カメラの配置によってその重畳領域の分布と重畳回数を計算する。1つだけの双眼カメラによりカバーされた領域の重畳回数は、1であり、2つの双眼カメラによりカバーされた領域の重畳回数は、2であり、順次類推する。カメラの内部パラメータと配置情報を知った後、3次元空間におけるどの領域がカメラにカバーされるかは、公知の技術になったため、ここで詳細に述べない。領域の重畳回数の計算を完了させた後、重畳回数をマスク(図8におけるグリッドに示すようなもの)として、外観2次元ヒストグラム又は後述する高さ2次元ヒストグラムに用いることができる。
ステップS160において、ある検出位置が重畳領域にあるか否かおよび対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定する。
ここでの検出パラメータは、オブジェクトを検出するための検出方法に係るパラメータを意味している。検出パラメータは、用いられる検出方法によって異なる。
一例によれば、物体標準テンプレートと外観2次元ヒストグラムにおけるマッチングすべきオブジェクトをマッチングする方法により検出すると、検出パラメータは、閾値と物体標準テンプレートであってよい。この場合、被検体(検出される物体)と物体標準テンプレートをマッチングし、マッチング程度を決定し、マッチング程度と閾値を比較することで、物体を検出する。
別の例として、物体検出モデルをモデリングするにより物体を検出すると、検出パラメータは、具体的な物体検出モデルに依存する具体的なパラメータであってよい。
ここで、検出方法と検出パラメータについては、本発明において特に制限されなく、いずれかの検出方法と対応する検出パラメータは、本発明、例えば接続領域分析に基づいてオブジェクトを分割して検出する方法などに応用することができる。しかし、以下、説明の便宜上、例として、物体標準テンプレートと外観2次元ヒストグラムにおける検出すべきオブジェクトをマッチングするオブジェクト検出方法を例として、どのように検出パラメータを検出するかを説明する。
なお、物体標準テンプレートについては、一例によって標準物体を描く特徴からなる特徴ベクトル、例えば、標準物体の表面積(単一の値又は決定された値の範囲)、標準物体の高さ範囲、標準物体の外観2次元ヒストグラムのサンプル例えばガウステンプレートなどであると理解できる。より具体的には、一例では、標準物体テンプレートは、簡単に標準物体の表面積に設定されている。
1つの例示的な検出方法では、物体の検出過程は、所定の形状例えば矩形、円形などのマッチングウィンドウで外観2次元ヒストグラムに移動し、マッチングウィンドウ内の領域と物体標準テンプレートのマッチングにより物体を検出する。例えば、人を検出する場合、マッチングウィンドウ内の物体の表面積を計算し、計算された物体の表面積と標準物体の表面積を比較し、差が所定閾値より小さいと、マッチングウィンドウに検出すべきオブジェクト即ち人が存在し、そうでなければ、検出すべきオブジェクトが存在しない。
ここで、検出位置は、マッチングウィンドウ又は検出ウィンドウが現在存在する位置である。
図9は、本発明の実施形態に係る異なる重畳領域の検出パラメータとする物体標準表面積の決定を示す図である。図9に示すように、例えば図8で計算されたマスク(重畳回数)を用いて重畳回数の多い領域に対してより大きい物体標準表面積を用い、逆に重畳回数の少ない領域に対してより小さい物体標準表面積を用いる。
例示的な実施例では、検出位置に関連付けられた検出パラメータは、標準物体の表面積を示す標準表面積の物体標準テンプレートであり、ある検出位置が重畳領域にあるか否かおよび重畳回数によって当該検出位置に関連付けられた検出パラメータを決定し、具体的に、検出位置がある領域の重畳回数によって当該検出位置に関連付けられた標準表面積を計算し、それによって重畳回数が大きいほど、標準表面積が大きくなる。
上述したように、外観モデルが本質的に観測された表面積を反映するため、複数の双眼カメラの重畳回数の高い領域において通常取得された人の表面積は、重畳回数の少ない領域と非重畳領域より大きい。人を検出する場合、重畳領域の重畳回数によって異なる物体テンプレート、即ち異なる物体標準表面積を用いて、それによって1つの領域に対応する重畳回数が大きいほど、物体標準表面積も対応してより大きくなる。
例示的な実施例では、式(3)、(4)で物体標準表面積を計算する。
Figure 2014127208
その中、Areaiは、検出位置iに対応する物体標準表面積を示し、Overlapvalueは、検出位置iに対応する重畳回数を示し、1、2、3、…などであり、f(Overlapvalue)は、値がOverlapvalueに伴って単調に増加する正関数を示し、同時にf(1)=1を満たす。StdAreaは、重畳しない又は重畳回数が1である領域に対応する物体標準表面積を示し、Wavgは、物体の平均幅であり、検出オブジェクトが人である場合に約40cmにすることができ、Havgは、物体の平均高さであり、検出オブジェクトが人であると約170cmであり、ここで物体の標準表面積は、物体の平均幅と物体の平均高さの積の1/4で推定され、これは、単一のカメラが物体を斜めに撮影する時に遮蔽が存在するなどを考える一般的な場合で、物体表面積を経験的に推定する例である。
1つのより具体的な実施形態によれば、式(5)で物体標準表面積を計算する。
Figure 2014127208
その中、sigmoid関数は、1つの良い閾値関数であり、連続、円滑かつ厳密、単調である。一例によれば、その数式は、式(6)に示すようなものであってよい。
Figure 2014127208
なお、前記物体標準表面積の計算に用いられた式(3)−(6)は、例だけであるが、本発明は、これに限られるものではなく、需要に応じて様々な式を設計し、例えば一例では、式(3)に対してf(1)=1を要求しなく、要求がなくてもよく、又は他の値例えばf(1)=0.5と要求され、この場合、それに応じて式(6)を、例えば係数2を除去するなどのように調整してもよい。
なお、以上調整された検出パラメータを物体標準表面積とすることを例として説明したが、これは、例だけであるが、本発明は、これに限られるものではない。例えば、調整された検出パラメータは、物体テンプレートと検出すべきオブジェクトとのマッチング程度(又は相違度)を判定する時に用いられる閾値であってよい。また、上述したように、検出パラメータは、検出方法に応じて異なってもよい。
図2に戻り、ステップS160において検出パラメータを決定した後、ステップS170に進む。
ステップS170において、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する。
上述したように、検出方法は、所定のものであり、かつステップS160の操作により検出方法に係る検出パラメータを決定した場合、決定された検出パラメータに基づいて、所定の検出方法により外観2次元ヒストグラムを用いて物体を検出することができる。
一実施例によれば、決定された検出パラメータは、各検出位置に対応する物体標準テンプレートであり、より具体的に、物体標準表面積である。この場合、検出過程は、所定の形状例えば矩形、円形などのマッチングウィンドウで外観2次元ヒストグラムに移動し、マッチングウィンドウが位置する検出位置を決定し、さらに当該検出位置に関連付けられた物体標準表面積を決定し、その後マッチングウィンドウ内の領域と決定された物体標準表面積をマッチングさせ、より具体的には、例えば、人を検出する場合、マッチングウィンドウ内の物体表面積を計算し、計算された物体表面積と決定された物体標準表面積(標準的な人の表面積)を比較し、両者間の差の絶対値が所定閾値より小さいと、マッチングウィンドウ内に検出すべきオブジェクト即ち人が存在し、そうでなければ、人が存在しない。
別の実施例によれば、決定された検出パラメータは、各検出位置に対応する閾値である。検出過程は、所定の形状例えば矩形、円形などのマッチングウィンドウで外観2次元ヒストグラムに移動し、マッチングウィンドウが位置する検出位置を決定し、さらに当該検出位置に関連付けられた閾値を決定し、即ち、この例では、物体標準テンプレートが全体の外観2次元ヒストグラムに統一的ものであるが、閾値が検出位置に応じて異なる可能性があり、その後マッチングウィンドウ内の領域と物体標準テンプレートをマッチングさせ、より具体的に例えば、人を検出する場合、マッチングウィンドウ内の物体表面積を計算し、物体表面積と標準的な人の表面積との差の絶対値を計算し、当該差の絶対値と前記決定された当該検出位置に関連付けられた閾値を比較し、当該差の絶対値が対応する閾値より小さいと、マッチングウィンドウ内に検出すべきオブジェクト即ち人が存在し、そうでなければ人が存在しない。
なお、上記の検出方法と検出パラメータは、例だけであるが、本発明は、これに限られるものではなく、実際には本発明の実施形態に係る外観2次元ヒストグラムを用いて物体を検出することができるいかなる物体検出方法と関連する検出パラメータは、いずれも本発明に用いられることができ、例えば物体検出モデルをモデリングする場合、検出方法は、物体検出モデリング方法であり、検出が物体検出モデルに依存する具体的なパラメータであり、更に例えば、分類器例えば決定木、サポートベクターマシンなどにより物体を分類して物体を検出する場合、検出パラメータは、分類器と関連するパラメータなどであってよい。
物体例えば人を検出した後、検出された人の位置および/又は他の情報を出力でき、それによって人に対する位置決めを実現し、これにより人へプロアクティブなサービスを提供およびプッシュすることができる。
本発明の前記実施形態に係る物体検出方法は、少なくとも次の利点を持つ。
(1)、複数のステレオカメラで撮影して取得された画像の前景を抽出して融合することで、結果セットを融合する従来技術に比べて、より多くの元の情報と特徴を保存し、同時に、生データセット即ち画素セットを融合する従来技術に比べて、データ量を著しく低減して、ネットワーク伝送と処理を容易にし、これにより情報損失とネットワーク伝送と処理のオーバーヘッドにおいて良いバランスを見つけた。
(2)、関連領域の重畳回数によって検出パラメータを決定および/又は調整し、このような検出パラメータに基づいて検出することで、遮蔽の影響を低減し、エラー率を低下させ、物体の検出率と位置決めの精度を向上させることができる。
[3、外観2次元ヒストグラムと高さ2次元ヒストグラムに基づく物体検出方法(第2の実施形態)]
以上、外観2次元ヒストグラムを用いて物体を検出することを説明したが、高さ2次元ヒストグラムを組み合わせて用いて物体を検出することもでき、以下、高さ2次元ヒストグラムの意義、取得方法を説明する。
図10は、本発明の第2の実施形態に係る物体検出方法200を示す全体的なフローチャートである。
以下、図10を参照して、本発明の第2の実施形態に係る物体検出方法200を説明し、外観2次元ヒストグラムだけでなく、高さ2次元ヒストグラムを用いて物体を検出する。
図10に示す第2の実施形態に係る物体検出方法200と図2に示す第1の実施形態に係る物体検出方法100の違いは、ステップS240およびステップ280とS290を加えたことにある。その他のステップS210−S230、S250−S270が図2の対応するステップS110−S130、S150−S170と類似し、その実現および機能について図2の対応するステップを参照して説明することができ、ここで更に繰り返して説明しない。
ステップS240とステップS140の違いは、融合された前景から外観2次元ヒストグラムを計算して取得する以外、高さ2次元ヒストグラムを取得することにある。
検出オブジェクトが人である場合、高さ2次元ヒストグラムは、人の高さ分布状況を説明し、各垂直bin内の最高の高さを示す。
図11は、本発明の一実施形態に係る融合された前景から計算して外観2次元ヒストグラムと高さ2次元ヒストグラムの両者を取得する方法240を示すフローチャートであり、当該方法240は、図10のステップS240に用いられることができる。
図11に示す方法240と図6に示す方法140の違いは、高さ2次元ヒストグラムを計算するステップ、即ちS245とS246を加えたことにある。その他のステップは、図6の対応するステップと類似し、ここで更に繰り返して説明しない。
ステップS245において、各垂直bin内の前景点の最高値を統計する。ステップS246において高さ2次元ヒストグラム(高さモデル2次元ヒストグラムとも称される)を取得した。
図12は、本発明の実施形態に係る平面図に基づく高さ2次元ヒストグラムを示す図であり、その中の白い斑点が個々の人の高さ二次元ヒストグラムである。
図12から分かるように、重畳領域又は非重畳領域に、各binの最高値が基本的に一致し、即ち人の高さ分布が基本的に類似する。
図7と図12を纏めて、2つの結論を導き出すことができる。
1)重畳領域において、より多くの双眼カメラが人を観測できるため、取得された人の表面積が非重畳領域の人の表面積がより大きい。
2)重畳領域において、より多くの双眼カメラが人を観測できるが、人の高さ自体が変化しなく、そのため、人の高さ2次元ヒストグラムが非重畳領域に取得される高さ2次元ヒストグラムと類似する。
したがって、外観2次元ヒストグラムを用いて物体を検出する場合、関連する検出パラメータを調整する必要があるが、高さ2次元ヒストグラムを用いて物体を検出する場合、検出パラメータを調整する必要がない。
図10に戻り、ステップS240の後、図2と類似して、ステップS250において、各領域の重畳回数を決定し、ステップS260において、検出位置の所在領域の重畳回数に基づいて、検出位置に関連付けられた検出パラメータを決定し、ステップS270において、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する。
ステップS280において、高さ2次元ヒストグラムを用いて物体を検出し、高さ2次元ヒストグラムを用いて物体を検出する期間に用いられた、高さ2次元ヒストグラムに関連付けられた検出パラメータが、検出位置が重畳領域にあるか否かおよび重畳回数に関わらない。
一つの例示的な実施形態では、人を検出することを例として、検出すべき領域内の平均高さを計算して当該領域の高さを示すことができ、その後当該高さが所定の人の高さ範囲に入るかどうかを確認し、入ったなら、当該検出すべき物体が人であり、そうでなければ、当該検出すべき物体が人ではない。
もちろん、これは、単なる例であるが、需要に応じてより複雑な検出方法を用いることができ、例えば1つの例示的な方法で、平均高さが所定の高さ範囲に入るかどうかを判定することだけでなく、高さの標準偏差が所定の高さ偏差範囲に入るかどうかを判定する。さらに例えば、検出すべき領域のパターンと人の標準な高さ2次元ヒストグラムパターン(pattern)をマッチングすることで当該領域内に人が存在するか否かを判定するなどのような、形状をマッチングすることで検出することができる。
しかし、上記の様々な、高さ2次元ヒストグラムに基づいて物体を検出することは、それに係る検出パラメータと検出位置が重畳領域にあるか否かおよび重畳回数に関わらない共通性を持っている。
もちろん、当該検出結果は、0と1の2つの値ではなくてもよく、代わりに、人の信頼度(又は確率)を示すことができる。
ステップS290において、検出結果を組み合わせ、即ちステップS270の外観2次元ヒストグラムに基づく物体検出結果とステップS280の高さ2次元ヒストグラムに基づく物体検出結果を組み合わせて、最終の検出結果を取得する。
組み合わせ方法は、ステップS270とS280の出力によって異なることができ、そして需要に応じて設計されることができる。例えば、ステップS270とステップS280の検出結果がいずれも人の信頼度を示す場合、両者を重み付けて組み合わせることで最後の信頼度を取得し、そして当該最後の信頼度と所定の信頼度閾値を比較して人であるかを判定することができる。
又は、ルールに基づいて検出結果を組み合わせることができ、例えば、1つのルールは、外観2次元ヒストグラムに基づく検出結果と高さ2次元ヒストグラムに基づく検出結果がいずれも人であることを示す場合だけで、人を検出したことを判定するなどである。
人を検出した後、検出された人の位置情報および/又は他の情報を出力でき、それによって人の位置決めを実現して、人へプロアクティブなサービスを提供およびプッシュすることができるようにする。
本発明の第2の実施形態に係る物体検出方法により、さらに物体の検出精度を向上し、位置決め精度を高めることができる。
[4、高さ2次元ヒストグラムに基づく物体追跡方法(第3の実施形態)]
上述したように、物体の高さがステレオカメラの数量と配置の影響を受けないため、高さ2次元ヒストグラムを用いて物体を追跡することができる。
図13は、本発明の一実施形態に係る2次元ヒストグラムを用いて物体を追跡する方法300を示すフローチャートである。
図13に示すように、ステップS310において、前記3次元の世界座標系において融合された前景からxz平面上の高さ2次元ヒストグラムを計算して取得し、各垂直体内の前景点のうちの高さの最大の前景点の高さを統計することで各垂直体内の最高の高さを示す高さ2次元ヒストグラムを取得する。ここで、既に統一的3次元の世界座標系において融合された前景を取得したと仮定し、取得方法について、図2のステップS110−S130を参照して組み合わせることができる。高さ2次元ヒストグラムについての取得方法は、図11の右側の分岐を参照することができる。
次に、高さ2次元ヒストグラムを用いて物体を追跡する。
具体的には、ステップS320において、高さ2次元ヒストグラムから特徴を抽出する。
一例では、追跡用の3つの特徴が定義され、第1の特徴は、高さ2次元ヒストグラムに対応する高さマスクであり、その中、高さ2次元ヒストグラムのある点の値が所定閾値より大きいと、当該点に対応する高さマスクが第1の値となり、そうでなければ、当該点に対応する高さマスクが第2の値にとなり、第1の値が第2の値より大きく、例えば、第1の値が255であり、第2の値が0であり、閾値が経験によって例えば90cmにデフォルトで決定されることができ、又は学習により取得されることができ、第2の特徴は、候補物体の平均高さを示す平均高さ、例えば、矩形のマッチングウィンドウ内の平均高さである。第3の特徴は、候補物体の位置情報、例えば矩形のマッチングウィンドウの中心位置、即ち平面図での座標(x,z)である。
ステップS330において、物体が異なる重畳領域の境界に位置するか否かを判定する。例えば、マッチングウィンドウが移動する過程においてウィンドウに対応する重畳回数の変化によって、物体が異なる重畳領域の境界に位置するか否かを判定することができる。
ステップS340において、判定結果によって異なる特徴を用いて追跡する。物体が異なる重畳領域の境界に位置すると判定した場合、前記第2の特徴と第3の特徴即ち平均高さと位置(x,z)に基づいて物体を追跡する。物体が異なる重畳領域の境界に位置しないと判定した場合、前記第1の特徴、第2の特徴と第3の特徴即ち高さマスク、平均高さと位置(x,z)に基づいて物体を追跡する。
ここで前記追跡は、共通の追跡アルゴリズム、例えばMean Shiftアルゴリズム、カルマンフィルタ又は粒子フィルタを用いて実現することができる。ここで、追跡される特徴は、通常の色/グレーヒストグラム、縁などではなく、高さマスク、平均高さと位置であり、かつ物体が異なる領域の境界に位置する場合、特徴が調整される。
物体が非境界領域に位置し、同時に3つの特徴を用いることを例として、どのように特徴を用いるかを説明する。オブジェクトの高さマスクテンプレートがTであり、平均高さテンプレートがTH_avgであり、オブジェクトの位置テンプレートがTpositionであり、これらの情報は、最近の歴史的なフレーム画像の追跡後で決定される。現在のフレームにおいて、測定して得たオブジェクトの高さマスクがTmaskに示され、オブジェクトの平均高さがTavgであり、オブジェクトの位置がPx,zである。式(7)によって、測定して得たオブジェクトが歴史的なフレームの結果とマッチングするか否かを判定し、マッチングした場合、追跡が成功した。
Figure 2014127208
その中、Mvalueが計算されたマッチング値であり、ある所定の閾値より小さいと、追跡が成功したことを考えることができ、α、βとγが上記の3つの特徴の重みであり、実験によって決定することができ、そのデフォルト値がそれぞれ1.0、0.7、9.0であり、SADがSum of Absolute Difference、即ち絶対値差分の和であり、その詳細な説明について、http://en.wikipedia.org/wiki/Sum_of_absolute_differencesを参照できる。
同様に、式(7)を、例えば高さマスクの項を除去するように簡単に変更して境界領域に2つの特徴を用いて追跡することができる。
図14は、本発明の実施形態に係る重畳領域の重畳回数によって追跡特徴を変更することを示す図である。その中のグリッドは、高さマスクを示し、その中の矢印1が人が重畳領域の境界を跨いで重畳回数の小さい領域から重畳回数の大きい領域へ移動していることを示し、その中の矢印2が人が重畳領域の境界を跨いで重畳回数の大きい領域から重畳回数の小さい領域へ移動していることを示す。
様々な方法により追跡結果、例えば追跡された人および位置情報を出力することができる。
また、発明者は、全体の追跡過程で、人がどの位置にいるかに関わらず、平均高さ特徴と位置特徴の変換が漸進的な過程であると発見した。しかし、高さマスクが重畳領域の境界に大きく変化する。具体的には、人が重畳回数の大きい領域へ移動すると、その高さマスク範囲が大きくなり、人が重畳回数の小さい領域へ移動すると、その高さマスク範囲が小さくなる。
このため、発明者は、高さマスクの変化傾向により物体の追跡を支援することができると考えている。
一例によれば、高さ2次元ヒストグラムに基づいて追跡する過程で、物体が異なる重畳領域の境界に位置すると判定した場合、高さマスクの変化傾向が所期の高さマスクの変化傾向に合致するか否かを判定する。高さマスクの変化傾向が所期の高さマスクの変化傾向に合致しないと判定した場合、今回の追跡が失敗したことを判定する。一例によれば、前記所期の高さマスクの変化傾向は、物体が境界を通じて重畳回数の高い領域に入ると、その高さマスク範囲が大きくなり、物体が境界を通じて重畳回数の低い領域に入ると、その高さマスク範囲が小さくなることができる。
[5、物体検出装置]
図15は、本発明の一実施形態に係る例示的な物体検出装置5000を示す機能構成ブロック図である。
物体検出装置5000は、所定の空間に配置された複数のステレオカメラで取得された画像を処理し、物体を検出および/又は追跡することに用いられる。
図15に示すように、物体検出装置5000は、複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するマルチ奥行き画像取得部5100と、各奥行き画像から前景を抽出し、各奥行き画像の前景がそれぞれの画像座標系を有する前景抽出部5200と、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合する前景融合部5300と、前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得し、当該外観2次元ヒストグラムが、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得するように処理して取得される外観2次元ヒストグラム計算部5400と、当該複数のステレオカメラの配置によって、対応する奥行き画像のxz平面における重畳領域を決定し、そして重畳回数を決定する重畳回数決定部5500と、ある検出位置が重畳領域にあるか否かおよび対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定する検出パラメータ決定部5600と、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する物体検出部5700と、を含む。
前記物体検出装置5000の各機能部材5100〜5700の操作について図2に示すフローチャートおよび関連する説明を参照でき、ここで更に繰り返して説明しない。
[6、システムのハードウェア構成]
本発明は、物体検出(追跡)ハードウェアシステムにより実施されることもできる。図16は、本発明の実施形態に係る物体検出(追跡)システム1000を示す全体的なハードウェアブロック図である。図16に示すように、物体検出システム1000は、外部から関連する画像又は情報、例えば複数のステレオカメラで撮影された画像又はビデオストリーム、所定空間のサイズ、カメラの各種の内部パラメータと外部パラメータ例えば位置などを入力することに用いられ、例えばキーボード、マウス、および通信ネットワークおよびそれに接続された遠隔用入力装置などを含むことができる入力装置1100と、前記本発明の実施形態に係る物体検出方法又は前記物体検出装置を実施することに用いられ、例えばコンピュータの中央処理装置又は他の処理能力を持つチップなどを含むことができ、インターネットのようなネットワーク(示されない)に接続され、処理過程の需要に応じて処理後の画像などを遠隔伝送することができる処理装置1200と、前記物体検出(追跡)過程を実施して取得された結果を外部へ出力することに用いられ、例えば表示器、プリンタ、および通信ネットワークおよびそれに接続された遠隔用出力装置などを含むことができる出力装置1300と、前記物体検出(追跡)過程に係る3次元画像、空間のサイズ、カメラのパラメータ、外観2次元ヒストグラム、高さ2次元ヒストグラム、物体標準テンプレート、閾値などのようなデータを発揮又は不発揮で記憶することに用いられ、例えばランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、ハードディスク、又は半導体メモリなどの様々な発揮性又は不発揮性メモリを含むことができる記憶装置1400と、を含むことができる。
[7、まとめ]
本発明の一実施形態に係る物体検出方法は、複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するステップと、各々画像座標系を有する前景を各奥行き画像から抽出するステップと、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合するステップと、前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得するステップであって、当該外観2次元ヒストグラムが、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって得られるステップと、当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定するステップと、ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定するステップと、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出するステップと、を含んでもよい。
本発明の別の実施形態に係る物体検出装置は、複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するマルチ奥行き画像取得部と、各奥行き画像からそれぞれの画像座標系を有する前景を抽出する前景抽出部と、x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合する前景融合部と、前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得し、当該外観2次元ヒストグラムを、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって取得する外観2次元ヒストグラム計算部と、当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定する重畳回数決定部と、ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定する検出パラメータ決定部と、決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する物体検出部と、を含んでもよい。
本発明の実施形態に係る物体検出方法および装置によれば、遮蔽の影響を除去又は軽減して、より正確で、できるだけ多くオブジェクトを検出することができる。
上記の説明は、例示に過ぎず、多くの変更および/又は入れ替えが可能である。
以上の図面と説明においてステレオカメラが双眼カメラであることを例として説明したが、本発明は、これに限られるものではなく、いかならステレオカメラに適用してもよい。
以上の例示的な説明では人を検出目標とする。しかし、これは、一例だけであるが、本発明は、これに限られるものではなく、いかなる物体、例えば動物、椅子などを検出目標としてもよい。
以上の例示的な説明では、人が地面に立つと仮定するが、本発明は、これに限られるものではなく、検出オブジェクトが任意に配置されてもよく、必ず地面に位置しない。
以上の例示的な説明では、平面図中の外観2次元ヒストグラムを処置オブジェクトとするが、これは、一例に過ぎず、本発明は、これに限られるものではなく、任意の方向の外観2次元ヒストグラムを処理オブジェクトとしてもよく、例えば側面図中の外観2次元ヒストグラムを処理オブジェクトとしてもよい。また、処理オブジェクトは、必ず外観2次元ヒストグラムではなく、高さ2次元ヒストグラムなどであってもよい。
以上の例示的な説明では、用語の奥行き画像は、広義に理解されるべきであり、距離情報を含むいかなる画像、例えば視差画像などは、いずれも本発明の目的に用いてもよい。
以上、具体的な実施形態を組み合わせて本発明の基本原理を説明したが、本分野の当業者に対して、本発明の方法および装置の全部又はいかなるステップ又は部材がいかなら計算装置(プロセッサ、記憶媒体などを含む)又は計算装置のネットワークにおいて、ハードウェア、ファームウェア、ソフトウェア又はそれらの組み合わせで実現されることができると説明すべきであり、これは、本分野の当業者が本発明の説明を読んだ場合彼らの基本的なプログラミングスキルを用いて実現することができるものである。
従って、本発明の目的は、いかなる計算装置に1つのプログラム又は1組のプログラムを実行することで実現されることもできる。前記計算装置は、公知の汎用装置であってよい。そのため、本発明の目的は、前記方法又は装置を実現するプログラムコードが含まれるプログラム製品を提供することだけで実現されてもよい。つまり、このようなプログラム製品も本発明を構成し、かつこのようなプログラムが記憶されている記憶媒体も本発明を構成する。明らかに、前記記憶媒体は、いかなる公知の記憶媒体又は未来開発されるいかなる記憶媒体であってよい。
また、本発明の装置および方法では、明らかに、各部材又は各ステップは、分解および/又は統合することができると説明すべきである。これらの分解又は統合は、本発明の等価スキームと見なされるべきであり、例えば図10に示すステップS240は、独立した外観2次元ヒストグラムの取得と高さ2次元ヒストグラムの取得に分解されてもよい。更に、上記の一連の処理を実行するステップは、自然に説明する順番で時系列に実行されることができるが、必ずしも時系列に従って順次実行する必要がない。いくつかのステップは、並列的あるいは互いに独立して実行されることができ、例えば、図10に示す外観2次元ヒストグラムに基づく物体検出と高さ2次元ヒストグラムに基づく物体検出は、需要に応じていかなら順番で実行されてもよい。
上記の具体的な実施形態は、本発明の保護範囲に対する制限を構成されるものではない。本分野の当業者は、設計要求と他の範囲に依存し、様々な変更、統合、サブ統合と入れ替わりが発生できると理解すべきである。本発明の精神と原則内で行われたいかなる改修、同等入れ替わり、改良等が、本発明の保護範囲以内に含まれるべきである。
US8009871B US5202928A US7929017B2 US7742620B2
「Stereo Person Tracking with Adaptive Plan−View Templates of Height and Occupancy Statistics」Michael Harville、2003年

Claims (18)

  1. 複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するステップと、
    各々画像座標系を有する前景を各奥行き画像から抽出するステップと、
    x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合するステップと、
    前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得するステップであって、当該外観2次元ヒストグラムが、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって得られるステップと、
    当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定するステップと、
    ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定するステップと、
    決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出するステップと、を含む、物体検出方法。
  2. 前記検出パラメータを決定するステップで決定された検出パラメータは、閾値及び/又は物体標準テンプレートであり、検出される物体と物体標準テンプレートとをマッチングし、マッチング程度を決定し、マッチング程度と閾値とを比較することで、物体を検出する、請求項1に記載の物体検出方法。
  3. 前記3次元の世界座標系において融合された前景からxz平面上の高さ2次元ヒストグラムを計算して取得するステップであって、各垂直体における前景点のうちの高さが最大の前景点の高さを統計することで各垂直体における最大の高さを示す高さ2次元ヒストグラムを取得するステップと、
    高さ2次元ヒストグラムから特徴を抽出し、
    物体が異なる重畳領域の境界に位置するか否かを判定し、
    判定結果によって、異なる特徴を用いて追跡することを含む、高さ2次元ヒストグラムを用いて物体を追跡するステップと、をさらに含む、請求項1に記載の物体検出方法。
  4. 高さ2次元ヒストグラムにおけるある点の値が所定閾値より大きいと、当該点に対応する高さマスクが第1の数値となり、そうでなければ、当該点に対応する高さマスクが第1の数値よりも小さい第2の数値となる、該高さ2次元ヒストグラムに対応する高さマスクを表す第1の特徴と、候補物体の平均高さを示す平均高さである第2の特徴と、候補物体の位置情報である第3の特徴の、3つの追跡用の特徴を定義するステップをさらに含み、
    判定結果によって、異なる特徴を用いて追跡するステップは、
    物体が異なる重畳領域の境界に位置すると判定した場合、前記第2の特徴と第3の特徴に基づいて物体追跡を行い、
    物体が異なる重畳領域の境界に位置しないと判定した場合、前記第1の特徴、第2の特徴及び第3の特徴に基づいて物体追跡を行うことを含む、請求項3に記載の物体検出方法。
  5. 物体が異なる重畳領域の境界に位置すると判定した場合、高さマスクの変化傾向が所期の高さマスクの変化傾向に合致するか否かを判定するステップと、
    高さマスク変化傾向が所期の高さマスク変化傾向に合致しないと判定した場合、今回の追跡は失敗したと判定するステップと、をさらに含む、請求項4に記載の物体検出方法。
  6. 前記所期の高さマスクの変化傾向は、物体が境界を通じて高い重畳回数の領域に入ると、その高さマスク範囲が大きくなり、物体が境界を通じて低い重畳回数の領域に入ると、その高さマスク範囲が小さくなる、請求項5に記載の物体検出方法。
  7. 前記検出位置に関連付けられた検出パラメータは、標準物体の表面積を示す標準表面積の物体標準テンプレートであり、
    ある検出位置が重畳領域にあるか否か及び重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定するステップは、
    重畳回数が大きいほど、標準表面積が大きくなるように、検出位置の所在領域の重畳回数によって当該検出位置に関連付けられた標準表面積を計算することを含む、請求項1に記載の物体検出方法。
  8. 前記3次元の世界座標系において融合された前景からxz平面上の高さ2次元ヒストグラムを計算して取得するステップであって、各垂直体における前景点のうち高さが最大の前景点の高さを統計することで、各垂直体における最大の高さを示す高さ2次元ヒストグラムを取得するステップと、
    高さ2次元ヒストグラムを用いて物体を検出するステップであって、高さ2次元ヒストグラムによる物体検出期間に用いられる、高さ2次元ヒストグラムに関連付けられた検出パラメータが、検出位置が重畳領域にあるか否か及び重畳回数には依存しない、ステップと、をさらに含む、請求項1に記載の物体検出方法。
  9. 前記x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、各前景を融合するステップは、
    異なるステレオカメラからの前景点が物理的世界における同一の点に属するか否かを判定し、
    異なるステレオカメラからの前景点が同一の点ではないと判定した場合、直接それらを統一的世界座標系における前景点とし、
    異なるステレオカメラからの前景点が同一の点であると判定した場合、異なるステレオカメラからの前景点の座標値の重み付け合計を計算することで、統一的世界座標系における前景点の座標値を取得する、ことを含み、
    当該前景点の座標値の重みは、異なるステレオカメラからの前景点における各前景点の自身のステレオカメラとの距離によって、距離が近いほど、重みが高くなるように、決定されたものである、請求項1に記載の物体検出方法。
  10. 複数のステレオカメラで物体を撮影して、当該物体の複数の奥行き画像を取得するマルチ奥行き画像取得部と、
    各奥行き画像からそれぞれの画像座標系を有する前景を抽出する前景抽出部と、
    x、y、z方向の直交座標で定義された統一的3次元の世界座標系において、物体がx、z軸によって限定されたxz平面に立つことになるように、各前景を融合する前景融合部と、
    前記3次元の世界座標系において融合された前景からxz平面上の外観2次元ヒストグラムを計算して取得し、当該外観2次元ヒストグラムを、前記3次元の世界座標系において融合された前景をy方向に沿って延伸する垂直体に分割し、各垂直体における前景点の個数を統計することで、各垂直体における前景点の個数を示す外観2次元ヒストグラムを取得する処理によって取得する外観2次元ヒストグラム計算部と、
    当該複数のステレオカメラの配置によって、対応する複数の奥行き画像のxz平面における重畳領域を決定するとともに、重畳回数を決定する重畳回数決定部と、
    ある検出位置が重畳領域にあるか否か、及び対応する重畳回数によって、当該検出位置に関連付けられた検出パラメータを決定する検出パラメータ決定部と、
    決定された検出パラメータに基づいて、外観2次元ヒストグラムを用いて物体を検出する物体検出部と、を含む、物体検出装置。
  11. 前記検出パラメータは、閾値及び/又は物体標準テンプレートであり、前記物体検出部は、検出される物体と物体標準テンプレートとをマッチングし、マッチング程度を決定し、マッチング程度と閾値とを比較することで、物体を検出する、請求項10に記載の物体検出装置。
  12. 前記3次元の世界座標系において融合された前景からxz平面上の高さ2次元ヒストグラムを計算して取得する高さ2次元ヒストグラム計算部であって、各垂直体における前景点のうちの高さが最大の前景点の高さを統計することで各垂直体における最大の高さを示す高さ2次元ヒストグラムを取得する高さ2次元ヒストグラム計算部と、
    高さ2次元ヒストグラムから特徴を抽出し、
    物体が異なる重畳領域の境界に位置するか否かを判定し、
    判定結果によって、異なる特徴を用いて追跡することで、高さ2次元ヒストグラムを用いて物体を追跡する追跡部と、をさらに含む、請求項10に記載の物体検出装置。
  13. 高さ2次元ヒストグラムにおけるある点の値が所定閾値より大きいと、当該点に対応する高さマスクが第1の数値となり、そうでなければ、当該点に対応する高さマスクが第1の数値よりも小さい第2の数値となる、該高さ2次元ヒストグラムに対応する高さマスクを表す第1の特徴と、候補物体の平均高さを示す平均高さである第2の特徴と、候補物体の位置情報である第3の特徴の、3つの追跡用の特徴を定義する特徴定義部をさらに含み、
    前記追跡部は、
    物体が異なる重畳領域の境界に位置すると判定した場合、前記第2の特徴と第3の特徴に基づいて物体追跡を行い、
    物体が異なる重畳領域の境界に位置しないと判定した場合、前記第1の特徴、第2の特徴及び第3の特徴に基づいて物体追跡を行う、請求項12に記載の物体検出装置。
  14. 物体が異なる重畳領域の境界に位置すると判定した場合、高さマスクの変化傾向が所期の高さマスクの変化傾向に合致するか否かを判定する変化傾向判定部と、
    高さマスク変化傾向が所期の高さマスク変化傾向に合致しないと判定した場合、今回の追跡は失敗したと判定する追跡判定部と、をさらに含む、請求項13に記載の物体検出装置。
  15. 前記所期の高さマスクの変化傾向は、物体が境界を通じて高い重畳回数の領域に入ると、その高さマスク範囲が大きくなり、物体が境界を通じて低い重畳回数の領域に入ると、その高さマスク範囲が小さくなる、請求項14に記載の物体検出装置。
  16. 前記検出位置に関連付けられた検出パラメータは、標準物体の表面積を示す標準表面積の物体標準テンプレートであり、
    前記検出パラメータ決定部は、重畳回数が大きいほど、標準表面積が大きくなるように、検出位置の所在領域の重畳回数によって当該検出位置に関連付けられた標準表面積を計算する、請求項10に記載の物体検出装置。
  17. 前記3次元の世界座標系において融合された前景からxz平面上の高さ2次元ヒストグラムを計算して取得する高さ2次元ヒストグラム計算部であって、各垂直体における前景点のうち高さが最大の前景点の高さを統計することで、各垂直体における最大の高さを示す高さ2次元ヒストグラムを取得する高さ2次元ヒストグラム計算部と、
    高さ2次元ヒストグラムを用いて物体を検出する検出部であって、高さ2次元ヒストグラムによる物体検出期間に用いられる、高さ2次元ヒストグラムに関連付けられた検出パラメータが、検出位置が重畳領域にあるか否か及び重畳回数には依存しない、検出部と、をさらに含む、請求項10に記載の物体検出装置。
  18. 前記前景融合部は、
    異なるステレオカメラからの前景点が物理的世界における同一の点に属するか否かを判定し、
    異なるステレオカメラからの前景点が同一の点ではないと判定した場合、直接それらを統一的世界座標系における前景点とし、
    異なるステレオカメラからの前景点が同一の点であると判定した場合、異なるステレオカメラからの前景点の座標値の重み付け合計を計算することで、統一的世界座標系における前景点の座標値を取得し、
    当該前景点の座標値の重みは、異なるステレオカメラからの前景点における各前景点の自身のステレオカメラとの距離によって、距離が近いほど、重みが高くなるように、決定されたものである、請求項10に記載の物体検出装置。
JP2013265379A 2012-12-26 2013-12-24 物体検出方法及び物体検出装置 Expired - Fee Related JP6295645B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201210574632.XA CN103903246A (zh) 2012-12-26 2012-12-26 物体检测方法和装置
CN201210574632.X 2012-12-26

Publications (2)

Publication Number Publication Date
JP2014127208A true JP2014127208A (ja) 2014-07-07
JP6295645B2 JP6295645B2 (ja) 2018-03-20

Family

ID=50974729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013265379A Expired - Fee Related JP6295645B2 (ja) 2012-12-26 2013-12-24 物体検出方法及び物体検出装置

Country Status (3)

Country Link
US (1) US9741130B2 (ja)
JP (1) JP6295645B2 (ja)
CN (1) CN103903246A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104596447A (zh) * 2015-01-26 2015-05-06 上海出入境检验检疫局机电产品检测技术中心 基于图像分析技术的饰品表面积快速检测方法及检测系统
JP2016218610A (ja) * 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2019091310A (ja) * 2017-11-15 2019-06-13 Necエンベデッドプロダクツ株式会社 画像処理装置、摘み取り装置、画像処理方法、プログラム
JP2020135617A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225217B (zh) 2014-06-23 2018-04-10 株式会社理光 基于深度的背景模型更新方法和系统
CN105654023B (zh) 2014-11-12 2019-05-03 株式会社理光 识别物体危险性的方法和装置
CN104463899B (zh) * 2014-12-31 2017-09-22 北京格灵深瞳信息技术有限公司 一种目标对象检测、监控方法及其装置
CN106295460B (zh) 2015-05-12 2019-05-03 株式会社理光 人的检测方法及设备
CN106296721B (zh) * 2015-05-14 2019-01-25 株式会社理光 基于立体视觉的对象聚集检测方法和装置
CN106327465B (zh) * 2015-06-18 2019-08-06 深圳超多维光电子有限公司 物体位置确定方法及装置
CN106469446B (zh) * 2015-08-21 2021-04-20 小米科技有限责任公司 深度图像的分割方法和分割装置
CN105160680B (zh) * 2015-09-08 2017-11-21 北京航空航天大学 一种基于结构光的无干扰深度相机的设计方法
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
CN106683070B (zh) * 2015-11-04 2020-05-12 杭州海康威视数字技术股份有限公司 基于深度相机的身高测量方法及装置
CN107172383B (zh) * 2016-03-02 2019-11-22 杭州海康威视数字技术股份有限公司 一种对象状态检测方法及装置
WO2017187014A1 (en) * 2016-04-25 2017-11-02 Teknologian Tutkimuskeskus Vtt Oy Controlling multiple imaging sensors
KR102579994B1 (ko) * 2016-10-24 2023-09-18 삼성에스디에스 주식회사 다중 배경 모델을 이용한 전경 생성 방법 및 그 장치
CN113884080A (zh) * 2016-11-01 2022-01-04 北京墨土科技有限公司 测定定位点三维坐标的方法及设备、以及光电测量仪器
CN106997407B (zh) * 2016-12-29 2022-08-16 武汉大学 基于趋势拟合的风资源场景缩减方法
JP6589926B2 (ja) * 2017-04-07 2019-10-16 トヨタ自動車株式会社 物体検出装置
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
IL255249A0 (en) * 2017-10-24 2017-12-31 Pointgrab Ltd Method and system for identifying a person in an image based on location in the image
CN108171682B (zh) * 2017-12-04 2022-04-19 北京中科慧眼科技有限公司 基于远景的双目同步曝光率检测方法、系统及存储介质
CN109870126A (zh) * 2017-12-05 2019-06-11 宁波盈芯信息科技有限公司 一种面积计算方法以及一种能够进行面积计算的手机
CN109033972A (zh) * 2018-06-27 2018-12-18 上海数迹智能科技有限公司 一种目标检测方法、装置、设备及存储介质
CN108986164B (zh) * 2018-07-03 2021-01-26 百度在线网络技术(北京)有限公司 基于图像的位置检测方法、装置、设备及存储介质
CN109146886B (zh) * 2018-08-19 2022-02-11 沈阳农业大学 一种基于深度密度的rgbd图像语义分割优化方法
CN109460790B (zh) * 2018-11-09 2021-08-03 上海理工大学 一种基于机器视觉的废弃充电宝回收分拣设计方法
CN111476827B (zh) * 2019-01-24 2024-02-02 曜科智能科技(上海)有限公司 目标跟踪方法、系统、电子装置及存储介质
CN111951598B (zh) * 2019-05-17 2022-04-26 杭州海康威视数字技术股份有限公司 一种车辆跟踪监测方法、装置及系统
CN110794405B (zh) * 2019-10-18 2022-06-10 北京全路通信信号研究设计院集团有限公司 一种基于相机和雷达融合的目标检测方法及系统
CN111612753B (zh) * 2020-05-15 2021-08-06 北京百度网讯科技有限公司 三维物体检测方法、装置、电子设备和可读存储介质
CN114089433B (zh) * 2020-08-05 2024-02-09 恒景科技股份有限公司 存在检测系统
US11361508B2 (en) * 2020-08-20 2022-06-14 Qualcomm Incorporated Object scanning using planar segmentation
CN112102391A (zh) * 2020-08-31 2020-12-18 北京市商汤科技开发有限公司 测量方法及装置、电子设备及存储介质
CN115116050B (zh) * 2022-08-30 2022-12-13 相国新材料科技江苏有限公司 用于增材制造设备的制造件外观在线识别方法
US11856261B1 (en) * 2022-09-29 2023-12-26 Motorola Solutions, Inc. System and method for redaction based on group association

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
WO2005124687A1 (ja) * 2004-06-16 2005-12-29 The University Of Tokyo 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム
US20060028552A1 (en) * 2004-07-28 2006-02-09 Manoj Aggarwal Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
US20080101652A1 (en) * 2004-12-21 2008-05-01 Tao Zhao Method and apparatus for tracking objects over a wide area using a network of stereo sensors
JP2012063866A (ja) * 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766445B2 (ja) 1988-09-09 1995-07-19 工業技術院長 画像処理方法
US7003136B1 (en) * 2002-04-26 2006-02-21 Hewlett-Packard Development Company, L.P. Plan-view projections of depth image data for object tracking
CA2519908C (en) 2003-03-21 2012-12-18 Lockheed Martin Corporation Target detection improvements using temporal integrations and spatial fusion
US7831087B2 (en) * 2003-10-31 2010-11-09 Hewlett-Packard Development Company, L.P. Method for visual-based recognition of an object
US8009871B2 (en) 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
CN101141633B (zh) * 2007-08-28 2011-01-05 湖南大学 一种复杂场景中的运动目标检测与跟踪方法
CN201210292Y (zh) * 2008-05-27 2009-03-18 金宝电子工业股份有限公司 卡合机构
US8446492B2 (en) * 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
CN103593641B (zh) * 2012-08-16 2017-08-11 株式会社理光 基于立体摄像机的物体检测方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
WO2005124687A1 (ja) * 2004-06-16 2005-12-29 The University Of Tokyo 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム
US20060028552A1 (en) * 2004-07-28 2006-02-09 Manoj Aggarwal Method and apparatus for stereo, multi-camera tracking and RF and video track fusion
US20080101652A1 (en) * 2004-12-21 2008-05-01 Tao Zhao Method and apparatus for tracking objects over a wide area using a network of stereo sensors
JP2012063866A (ja) * 2010-09-14 2012-03-29 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
原口 真悟: "多数のステレオカメラと色情報を用いた人物追跡手法", 電子情報通信学会技術研究報告, vol. 109, no. 471, JPN6017042353, 8 March 2010 (2010-03-08), pages 229 - 234, ISSN: 0003675738 *
池城 和夫: "FLSMに基づいた複数人体のモーションキャプチャにおけるオクルージョン領域の人体形状推定手法", 画像ラボ, vol. 第22巻 第11号, JPN6017042354, 10 November 2011 (2011-11-10), pages 23 - 33, ISSN: 0003675739 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104596447A (zh) * 2015-01-26 2015-05-06 上海出入境检验检疫局机电产品检测技术中心 基于图像分析技术的饰品表面积快速检测方法及检测系统
JP2016218610A (ja) * 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2019091310A (ja) * 2017-11-15 2019-06-13 Necエンベデッドプロダクツ株式会社 画像処理装置、摘み取り装置、画像処理方法、プログラム
JP2020135617A (ja) * 2019-02-22 2020-08-31 株式会社豊田自動織機 物体検出装置
JP7081526B2 (ja) 2019-02-22 2022-06-07 株式会社豊田自動織機 物体検出装置

Also Published As

Publication number Publication date
US20140177915A1 (en) 2014-06-26
JP6295645B2 (ja) 2018-03-20
CN103903246A (zh) 2014-07-02
US9741130B2 (en) 2017-08-22

Similar Documents

Publication Publication Date Title
JP6295645B2 (ja) 物体検出方法及び物体検出装置
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
US10719727B2 (en) Method and system for determining at least one property related to at least part of a real environment
Saxena et al. Depth Estimation Using Monocular and Stereo Cues.
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
US10452949B2 (en) System and method for scoring clutter for use in 3D point cloud matching in a vision system
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP2008304268A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP6221390B2 (ja) 画像処理装置、プログラム、および画像処理方法
Tang et al. Joint multi-view people tracking and pose estimation for 3D scene reconstruction
CN103593641B (zh) 基于立体摄像机的物体检测方法和装置
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
CN107949851B (zh) 在场景内的物体的端点的快速和鲁棒识别
Munoz-Banon et al. Targetless camera-lidar calibration in unstructured environments
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
Feng et al. Three-dimensional robot localization using cameras in wireless multimedia sensor networks
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
WO2022237026A1 (zh) 平面信息检测方法及系统
Ghidoni et al. A multi-viewpoint feature-based re-identification system driven by skeleton keypoints
Stefańczyk et al. Multimodal segmentation of dense depth maps and associated color information
Kumar Rath et al. Real‐time moving object detection and removal from 3D pointcloud data for humanoid navigation in dense GPS‐denied environments
Phan et al. Towards 3D human posture estimation using multiple kinects despite self-contacts
Gruenwedel et al. Low-complexity scalable distributed multicamera tracking of humans

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180205

R151 Written notification of patent or utility model registration

Ref document number: 6295645

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees