JP2014528135A - 深度画像における人の頭部の検出 - Google Patents

深度画像における人の頭部の検出 Download PDF

Info

Publication number
JP2014528135A
JP2014528135A JP2014532201A JP2014532201A JP2014528135A JP 2014528135 A JP2014528135 A JP 2014528135A JP 2014532201 A JP2014532201 A JP 2014532201A JP 2014532201 A JP2014532201 A JP 2014532201A JP 2014528135 A JP2014528135 A JP 2014528135A
Authority
JP
Japan
Prior art keywords
depth
template
depth values
region
shape region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014532201A
Other languages
English (en)
Other versions
JP5785664B2 (ja
Inventor
フ、ウェイ
ヘ、ジーシャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=47994099&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2014528135(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2014528135A publication Critical patent/JP2014528135A/ja
Application granted granted Critical
Publication of JP5785664B2 publication Critical patent/JP5785664B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

深度画像を受信することと、この深度画像のピクセルにテンプレートを適用して深度画像における人の頭部のロケーションを決定することとを含むシステム、デバイス、及び方法が記載されている。テンプレートは、円形形状領域と、この円形形状領域を取り囲む第1の環状形状領域とを含む。円形形状領域は、深度値の第1の範囲を指定する。第1の環状形状領域は、深度値の第1の範囲の深度値よりも大きな深度値の第2の範囲を指定する。【選択図】図2

Description

深度撮像技術は、ここ数年の間に劇的に進歩した。深度画像内のピクセルは、強度又は色という尺度ではなく、シーンにおける較正された深度を示す。深度画像は、人間等の物体のより正確な検出を可能にする。さらに、人の頭部の検出又は定位は、肩、胴、腕、及び脚等の画像内の人体の他の部分の検出を助けることができる。
色に基づく方法及び顔検出器に基づく方法のような人の頭部の位置を特定する現在の手法のほとんどは、色情報又はグレースケール強度情報のいずれかを利用する。その上、顔検出技法は、被写体がカメラの方を向いていないときは役に立たない。肌色検出技法は、身体の他の部分を突き止めるのに役立つ場合があるが、そのような技法は、変動する照明に適応するのが困難である。深度情報にのみ基づいた人体部分検出における最近の試みは、被写体の両手が握られているとき及び/又は被写体の頭部が別の身体部分によって部分的に若しくは完全に遮られているとき(例えば、被写体が前かがみになっているときに起こる場合がある)に問題となる。加えて、物体検出器をトレーニングするのに、従来の深度に基づく技法は、取得するのが困難である詳細な3Dの人の姿勢画像を必要とする傾向がある。
本明細書において説明されるマテリアルは、添付した図において、限定としてではなく例として示されている。説明を簡単かつ明瞭にするために、図に示した要素は、必ずしも一律の縮尺で描かれているものではない。例えば、幾つかの要素の寸法は、明瞭にするために、他の要素に比べて誇張されている場合がある。さらに、適切と考えられる場合には、対応する要素又は類似の要素を示すのに、参照符号が図の間で繰り返されている。
一例示の頭部検出システムの説明図である。
一例示の頭部検出プロセスのフローチャートである。
一例示の頭部検出テンプレートを示す図である。
一例示の頭部検出モデルの説明図である。 一例示の頭部検出テンプレートを示す図である。
一例示の頭部検出プロセスのフローチャートである。
一例示のシステムの説明図であり、上記の図は全て、本開示の少なくとも幾つかの実施態様に従って構成されている。
ここでは、同封された図を参照して1つ若しくは複数の実施形態又は実施態様を説明する。特定の構成及び装置が論述されるが、これは、例示の目的でのみなされていることが理解されるべきである。当業者であれば、この説明の趣旨及び範囲から逸脱することなく他の構成及び配置を用いることができることを認識するであろう。本明細書において説明する技法及び/又は配置は、本明細書において説明するもの以外の他の様々なシステム及びアプリケーションにおいても用いることができることが当業者には明らかであろう。
以下の説明は、例えば、システムオンチップ(SoC)アーキテクチャ等のアーキテクチャにおいて顕在化させることができる様々な実施態様を記載しているが、本明細書において説明する技法及び/又は装置の実施態様は、特定のアーキテクチャ及び/又はコンピューティングシステムに制限されるものではなく、同様の目的の任意のアーキテクチャ及び/又はコンピューティングシステムによって実施することができる。例えば複数の集積回路(IC)チップ及び/又はパッケージを用いる、例えば様々なアーキテクチャ、及び/又はセットトップボックス、スマートフォン等の様々なコンピューティングデバイス及び/又はコンシューマ家電(CE)デバイスが、本明細書において説明する技法及び/又は装置を実施することができる。さらに、以下の説明は、システム構成要素のロジックの実施態様、タイプ、及び相互関係、ロジックの分割/統合の選択肢等の多数の特定の詳細を記載している場合があるが、特許請求される主題は、そのような特定の詳細がなくても実施することができる。それ以外の場合に、例えば、制御構造及び全ソフトウェア命令シーケンス等の幾つかのマテリアルは、本明細書に開示するマテリアルを分かりにくくしないように詳細に示されていない場合がある。
本明細書に開示するマテリアルは、ハードウェア、ファームウェア、ソフトウェア、又はそれらの任意の組み合わせで実施することができる。本明細書に開示するマテリアルは、1つ又は複数のプロセッサが読み出して実行することができる機械可読媒体上に記憶された命令として実施することもできる。機械可読媒体は、機械(例えば、コンピューティングデバイス)によって可読な形態で情報を記憶又は伝送するための任意の媒体及び/又はメカニズムを含むことができる。例えば、機械可読媒体は、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリデバイス、電気的形態、光学的形態、音響的形態、又は他の形態の伝播信号(例えば、搬送波、赤外線信号、デジタル信号等)等を含むことができる。
本明細書において「1つの実施態様」、「一実施態様」、「一例示の実施態様」等というとき、これは、説明される実施態様が、特定の特徴、構造、又は特性を含む場合があるが、あらゆる実施態様が、その特定の特徴、構造、又は特性を必ずしも含むとは限らないことを示す。その上、そのようなフレーズは、必ずしも同じ実施態様を指しているとは限らない。さらに、特定の特徴、構造、又は特性が一実施態様に関して説明されているとき、本明細書において明示的に説明されているか否かを問わず、他の実施態様に関してもそのような特徴、構造、又は特性が有効であることが当業者には知られていると考えられる。
図1は、本開示による一例示のシステム100を示している。様々な実施態様では、システム100は、頭部検出モジュール102、データベース104、及びネットワーク106を備えることができる。以下でより詳細に説明するように、検出モジュール(HDM)102は、前景部分110(例えば、人間の画像の形態)、及び背景部分112を含む深度画像108を受信することができる。様々な実施態様では、様々なよく知られた技法(例えば、Azriel Rosenfeld及びJohn L. Pfaltz「Sequential Operations in Digital Picture Processing」(J. ACM, vol. 13, no. 4, pp. 471-494, October 1966)参照)を用いて深度画像108を前処理し、画像108を前景部分110及び背景部分112にセグメンテーションしておくことができ、及び/又は前景部分110を人体の画像として識別しておくことができる。
様々な実施態様では、HDM102は、深度画像108及び頭部テンプレート114を受信することができる。HDM102は、次に、以下でより詳細に説明する頭部検出プロセスを適用して、テンプレート114を用いて深度画像108内の人の頭部を検出してその位置を特定することができる。様々な実施態様では、HDM102は、深度画像108を直接受信することができ、深度画像108をネットワーク106を介して受信することができ、及び/又は深度画像108をデータベース104から直接若しくはネットワーク106を介して受信することができる。同様の可能性は、頭部テンプレートの受信にも当てはまる。様々な実施態様では、HDM102は、データベース104に直接又はネットワーク106を介して記憶される、検出された頭部の中心に対応する深度画像内のピクセルロケーションと、検出された頭部の半径値とを含む、頭部検出プロセスの結果を提供することができる。
様々な実施態様では、深度画像108は、クロミナンス強度データ値及び/又はルミナンス強度データ値と、深度データ値とを指定するピクセルを含むモノクロ深度画像又はカラー深度画像とすることができる。例えば、深度画像は、画像ピクセル位置(x,y)における画像強度値(例えば、ルミナンス値)の2次元(2D)アレイを含むことができ、各ピクセル位置は深度(z)値も含む。さらに、深度画像108は、任意の解像度及び/又はアスペクト比を有することができる。本開示は、深度画像108に関連付けられたどの特定のデータフォーマット、画像解像度、画像アスペクト比等にも限定されるものではない。加えて、ネットワーク106は、任意のタイプのネットワークとすることができ、無線及び/又は有線のネットワーク技術の任意の組み合わせを含むことができる。例えば、非限定的な例では、ネットワーク106は、インターネット等のワイドエリアネットワーク(WAN)と組み合わせた1つ又は複数の無線ローカルエリアネットワーク(LAN)を含むことができる。
HDM102は、任意のコンピューティングシステムによって提供することができる。例えば、深度画像108のキャプチャも行ったコンピューティングシステムが、HDM102を提供することができる。他の実施態様では、HDM102は、画像108をキャプチャした任意のデバイスに対してリモートとすることができる。例えば、リモートサーバーコンピューティングシステムの1つ又は複数のプロセッサコアが、HDM102を提供することができる。さらに、ハードウェアロジック、ソフトウェアロジック、及び/又はファームウェアロジック、又はそれらの任意の組み合わせを含む任意のタイプのロジックが、HDM102を提供することができる。
図2は、本開示の様々な実施態様による、深度画像において頭部を検出するための一例示のプロセス200のフロー図を示している。プロセス200は、図2のブロック202、204、206、208、210、及び212のうちの1つ又は複数によって示される1つ又は複数の動作、機能、又はアクションを含むことができる。非限定的な例として、本明細書では、プロセス200は、図1の例示のシステム100を参照して説明される。
プロセス200は、深度画像108内の前景ピクセルを選択することができるブロック202において開始することができる。例えば、図1を参照すると、ブロック202の深度画像108をよく知られた技法を用いて前処理して、深度画像のピクセルを、背景部分112又は前景部分110のいずれかに属するものとして指定しておくことができる。加えて、この前処理は、部分110を人体として識別しておくことができる。このように、ブロック202は、前景部分110からピクセルを選択することを含むことができる。
ブロック204において、ブロック202において選択された前景ピクセルが身体境界に隣接しているか否かについての判断を行うことができる。例えば、図1において、身体境界線120内に存在するピクセル118は、前景ピクセルとして指定されるのに対して、身体境界線120の外側に存在するピクセル122は、背景ピクセルとして指定される。次に、ブロック204は、選択された前景ピクセルが身体境界の近くにあるか又は身体境界に接しているか否かを判断することを含むことができる。様々な非限定的な実施態様では、ブロック202において選択された前景ピクセルを身体境界から離れたピクセルが水平方向又は垂直方向に2つ以上存在する場合、当該選択された前景ピクセルは、身体境界に隣接していないと指定することができる。
ブロック204の結果、ブロック202において選択されたピクセルが身体境界に隣接していると判断された場合、プロセス200は、ブロック202にループバックすることができ、次の前景ピクセルを選択することができ、そのピクセルを用いて、ブロック204の別の反復に着手することができる。一方、ブロック204の結果、ブロック202において選択されたピクセルが身体境界に隣接していないと判断された場合、プロセス200は、ブロック206に続くことができ、このブロックにおいて、選択された前景ピクセルに頭部テンプレート114を適用してテンプレートマッチングを実行することができる。
様々な実施態様では、ブロック206において適用された頭部テンプレート114は、当該テンプレート内の各点が深度画像内の1つのピクセルロケーションに対応するように、深度画像108のピクセルアレイのピッチと一致するピッチ及び向きを有する点のアレイを含むことができる。他の実施態様では、頭部テンプレート114のピッチは、深度画像のピッチの整数倍とすることができる。加えて、頭部テンプレートは、任意のサイズ及び/又は形状を有することができる。
さらに、頭部テンプレートのサイズは、頭部テンプレート114が深度画像108に適用されるように適合することができる。例えば、以下の非限定的な例示の実施態様では、頭部テンプレート114は、画像108に適用されるとき、深度画像108内の9つのピクセルロケーションに及ぶのに十分な初期直径を有するとともに合計53個の点を有する直径の円形形状アレイとして説明することができるが、頭部テンプレート114は、任意の数のピクセルに及ぶことができるように直径が変化することができる。図3は、本開示の様々な実施態様による一例示の頭部テンプレート114の全体形状300を示している。この例では、テンプレート114は、形状が円形であり、53個の点302(中心点304を含む)のアレイを含むような初期半径Rを有する。ここで、アレイ302は、画像108のピクセルアレイと同じピッチ及び向きを有する。
様々な実施態様では、頭部テンプレート114は、投影モデルを基準にして作成することができる。例えば、図4は、本開示の様々な実施態様による基準投影モデル400を示している。図4は、モデル400の2つのビュー402及び404を示している。ビュー402では、半径Rを有するとともに人の頭部をモデル化した球形物体406が、例えば、深度画像108の画像平面を表すビュー平面408に対して側面から見たように示されている。ビュー404では、物体406は、ビュー平面410の視点から示されている。ビュー402及び404の双方において、縦座標Z(ビュー平面410に対して直交している)は、ビュー平面410からの増加する深度又距離を表す。
図4は、物体406の表面上の幾つかの点A、B、及びCと、ビュー平面410上のそれらの点の対応する投影A'、B'、及びC'とを示している。点Cは、ビュー平面410に対する物体406上の最も近い点を表し、点Aは、最も遠い可視点を表し、点Bは、点Aと点Cとの間の中間の深度又は距離を有するロケーションを表している。投影点B'とC'との間の距離はrによって示されている。距離AA'がMであると仮定すると、距離CC'はM−Rであり、B'に関連付けられた深度値は、以下の式を用いて計算することができる。
Figure 2014528135
式(1)を用いると、深度画像のビュー平面410上に投影された球の表面上の任意の点の深度、したがって、深度画像ビュー平面上のその点の投影に関連付けられた深度値を決定することができる。
しかしながら、一般に、深度画像における人の頭部の中心部分の方が画像ビュー平面に近く、頭部の周縁部分の方がビュー平面から幾分遠いこと、及び画像の背景部分(例えば、頭部でない身体部分、背景物体等)の方が、ビュー平面から更に離れていることを認識することができる。これを考慮に入れると、様々な実施態様による頭部テンプレートは、各円に関連付けられた異なる深度値を有する3つの同心領域を含むように指定することができる。
例えば、様々な実施態様では、頭部テンプレート207の構造は、3つの同心円形状領域及び/又は環状形状領域のセットとして指定することができる。図5は、本開示の様々な実施態様による深度画像平面の視点から見た頭部テンプレートモデル500を示している。例えば、頭部テンプレート114は、頭部テンプレートモデル500に基づくことができる。図5に示すように、頭部テンプレートモデル500は、円内部領域(IR)502、環状形状中央領域(MR)504、及び環状形状外部領域(OR)506の3つの領域を備える。
一般に、人の頭部は、80mm〜150mmの範囲の半径Rを有することができる。画像ビュー平面における頭部の半径の投影は、Rで示すことができる。モデル500において、内部領域IRは、頭部の中心を表し、R=(4/5)・Rの半径を有し、環状形状中央領域MRは、頭部の周縁領域を表し、環状形状外部領域ORは、頭部に隣接する領域を表し、(5/4)・Rの半径を有する。換言すれば、領域MRは、領域IRの半径の1.25倍の大きさの半径を有することができ、さらに、領域ORは、領域MRの半径の1.25倍の大きさの半径を有することができる。
M(x,y)がモデルの中心を表すものとすると、M(i,j)は、M(x,y)までの距離を
Figure 2014528135
によって提供することができるモデル上の点を表す。以下の式は、異なる領域IR、MR、及びOR内の任意の点M(i,j)の深度値を決定するのに用いることができる。
Figure 2014528135
式中、Num(X)は、対応する領域X内のテンプレート点の総数を表す。
ブロック206の論述を続けると、テンプレートマッチングは、頭部テンプレートを選択されたピクセルロケーション(例えば、テンプレートモデルにおける点M(x,y)に対応する)上にセンタリングし、次いで、選択されたピクセルの近傍のピクセルの深度値を、それぞれ式(2)、(3)、及び(4)を用いて求められた異なる領域IR(502)、MR(504)、及びOR(506)内のテンプレート深度値と比較することによって、頭部テンプレートを選択された前景ピクセルに適用することを含むことができる。
図6は、本開示の様々な実施態様によるプロセス200のブロック206のフロー図600を更に詳細に示している。プロセス600は、図6のブロック602、604、606、608、及び610のうちの1つ又は複数によって示されているような1つ又は複数の動作、機能、又は行為を含むことができる。
プロセス600は、頭部テンプレート114を選択された前景ピクセル601上にセンタリングすることができるブロック602において開始することができる。ブロック604において、前景ピクセル601(以下、I(i,j)で示す)について、テンプレート半径を最小値(minR)から最大値(maxR)に所定のステップサイズで変更させ、以下の式を用いてサンプル半径Rを決定することができる。
Figure 2014528135
式中、閾値thinner、thmid、及びthの値が、サンプル半径を決定する。
ブロック604において求められたサンプル半径を用いると、プロセス600は、選択された前景ピクセルの近傍のピクセル(ピクセル
Figure 2014528135
に対応する)を異なるテンプレート領域に関連付けるか又は異なるテンプレート領域間に分割することができるブロック606に続くことができる。様々な実施態様では、ブロック606は、以下の式を用いて着手することができる。
Figure 2014528135
ブロック608において、マッチングスコアは、複数の異なる領域に関連付けられたテンプレート深度値と、選択された前景ピクセル及び式(6)を用いて領域に関連付けられた近傍ピクセルの深度値とに基づいて決定することができる。様々な実施態様では、ブロック608は、以下の式を用いて着手することができる。
Figure 2014528135
式中、
Figure 2014528135
である。プロセス600は、次に、マッチングスコア(H(x,y))及びサンプルテンプレート半径(R)を選択された前景ピクセル601用に提供することができるブロック610において終了することができる。
図2の論述に戻って、プロセス200は、ブロック206においてテンプレートマッチングを実行すると、処理するための追加の前景ピクセルを選択するか否かの判断を伴うブロック208に続くことができる。例えば、プロセス200は、深度画像108内の全ての前景ピクセルについて着手することができる。したがって、処理するための追加の前景ピクセルが残っている場合、ブロック208の結果、判断は肯定的になる場合があり、プロセス200は、ループバックして、別の前景ピクセルについてブロック202〜206に着手することができる。
一方、ブロック208の結果、判断が否定的になった場合、プロセス200は、ブロック210に続くことができ、このブロックにおいて、頭部のロケーション及び半径を識別することができる。様々な実施態様では、ブロック210は、ブロック206において処理された前景ピクセルごとに求められた全てのマッチングスコア(H(x,y))を比較することと、以下の形態を有する最も高い又は最もよく一致したスコアを識別することとを含むことができる。
Figure 2014528135
検出された頭部のロケーションの中心は、この場合、最も高い又は最もよく一致したスコアを有する前景ピクセルのロケーションに対応することができ、関連付けられた半径Rは、検出された頭部の半径に対応し得る。
プロセス200は、次に、頭部のロケーション及び半径の値を記憶することができるブロック212において終了することができる。例えば、頭部検出モジュール102は、ブロック202〜210に着手すると、頭部のロケーション及び半径の値をデータベース104に記憶することができる。
様々な実施態様では、プロセス200は、深度画像の前景部分にわたってテンプレートをスキャンすることによって、一連の前景ピクセルに対して実行することができる。幾つかの実施態様では、そのようなスキャンは、画像の各前景ピクセルをスキャンすることを含むことができる。他の実施態様では、そのようなスキャンは、一部の前景ピクセルのみが処理されるスパースグリッド手法を用いて着手することができる。例えば、様々な非限定的な例では、1つおきの前景ピクセルのみ、5つごとの前景ピクセルのみ、10個ごとの前景ピクセルのみ等を、プロセス200を用いてサンプリング又は処理することができる。
図2及び図6に示すような例示のプロセス200及び600の実施態様は、示された順序で図示した全てのブロックを行うことを含むことができるが、本開示は、この点に限定されるものではなく、様々な例では、プロセス200及び600の実施態様は、図示した全てのブロックのサブセットのみを行うこと、及び/又は示したものとは異なる順序で行うことを含むことができる。
加えて、図2及び図6のプロセス及び/又はブロックのうちの任意の1つ又は複数は、1つ又は複数のコンピュータープログラム製品によって提供される命令に応答して行うことができる。そのようなプログラム製品は、例えば、1つ又は複数のプロセッサコアによって実行されると、本明細書において説明した機能を提供することができる命令を提供する信号担持媒体を含むことができる。コンピュータープログラム製品は、任意の形式のコンピューター可読媒体において提供することができる。したがって、例えば、1つ又は複数のプロセッサコアを含むプロセッサは、コンピューター可読媒体によってプロセッサに搬送される命令に応答して、図2及び図6に示すブロックのうちの1つ又は複数を行うことができる。
図7は、本開示による一例示のシステム700を示している。システム700は、本明細書において議論した様々な機能の一部又は全てを実行するのに用いることができ、本開示の様々な実施態様による、本明細書において開示したプロセスを実施することができる任意のデバイス又はデバイスの集合体を備えることができる。例えば、システム700は、デスクトップ、移動コンピューター又はタブレットコンピューター、スマートフォン、セットトップボックス等のコンピューティングプラットフォーム又はデバイスの選択された構成要素を含むことができるが、本開示は、この点に限定されるものではない。幾つかの実施態様では、システム700は、CEデバイス用のIntel(登録商標)アーキテクチャ(IA)に基づくコンピューティングプラットフォーム又はSoCとすることができる。本明細書において説明した実施態様は、本開示の範囲から逸脱することなく、代替の処理システムとともに用いることができることが当業者によって容易に認識されるであろう。
システム700は、1つ又は複数のプロセッサコア704を有するプロセッサ702を備える。プロセッサコア704は、少なくとも部分的にソフトウェアを実行し及び/又はデータ信号を処理することができる任意のタイプのプロセッサロジックとすることができる。様々な例では、プロセッサコア704は、CISCプロセッサコア、RISCマイクロプロセッサコア、VLIWマイクロプロセッサコア、及び/又は命令セットの任意の組み合わせを実装する任意の数のプロセッサコア、又はデジタル信号プロセッサ若しくはマイクロコントローラー等の他の任意のプロセッサデバイスを含むことができる。
プロセッサ702は、例えば、ディスプレイプロセッサ708及び/又はグラフィックスプロセッサ710によって受信された命令を制御信号及び/又はマイクロコードエントリーポイントにデコードするのに用いることができるデコーダー706も備える。コア(複数の場合もある)704とは別個の構成要素としてシステム700に示されているが、当業者であれば、コア(複数の場合もある)704のうちの1つ又は複数が、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710を実施することができることを認識することができる。幾つかの実施態様では、プロセッサ702は、図2及び図6に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行うように構成することができる。さらに、制御信号及び/又はマイクロコードエントリーポイントに応答して、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710は、対応する動作を実行することができる。
処理コア(複数の場合もある)704、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710は、システム相互接続716を通じて互いに及び/又は様々な他のシステムデバイスと通信可能に及び/又は動作可能に結合することができる。これらの様々な他のシステムデバイスは、例えば、メモリコントローラー714、オーディオコントローラー718、及び/又は周辺装置720を含むことができるが、これらに限定されるものではない。周辺装置720は、例えば、統一シリアルバス(USB:unified serial bus)ホストポート、周辺機器相互接続(PCI)エクスプレスポート、シリアル周辺インターフェース(SPI)インターフェース、拡張バス、及び/又は他の周辺装置を含むことができる。図7は、相互接続716によってデコーダー706並びにプロセッサ708及び710に結合されたものとしてメモリコントローラー714を示しているが、様々な実施態様では、メモリコントローラー714は、デコーダー706、ディスプレイプロセッサ708、及び/又はグラフィックスプロセッサ710に直接結合することができる。
幾つかの実施態様では、システム700は、図7に図示していない様々なI/OデバイスとI/Oバス(同様に図示せず)を介して通信することができる。そのようなI/Oデバイスは、例えば、ユニバーサル非同期受信機/送信機(UART)デバイス、USBデバイス、I/O拡張インターフェース、又は他のI/Oデバイスを含むことができるが、これらに限定されるものではない。様々な実施態様では、システム700は、移動通信、ネットワーク通信、及び/又は無線通信を行うためのシステムの少なくとも一部分を表すことができる。
システム900は、メモリ712を更に備えることができる。メモリ712は、ダイナミックランダムアクセスメモリ(DRAM)デバイス、スタティックランダムアクセスメモリ(SRAM)デバイス、フラッシュメモリデバイス、又は他のメモリデバイス等の1つ又は複数のディスクリートメモリ構成要素とすることができる。図7は、プロセッサ702の外部のものとしてメモリ712を示しているが、様々な実施態様では、メモリ712は、プロセッサ702の内部とすることができる。メモリ712は、図2及び図6に関して説明した例示のプロセスを含む、本明細書において説明したプロセスのうちの任意のものを行う際に、プロセッサ702が実行することができるデータ信号によって表される命令及び/又はデータを記憶することができる。例えば、メモリ712は頭部テンプレート深度値、検出された頭部のロケーション及び半径、等を記憶することができる。幾つかの実施態様では、メモリ712は、システムメモリ部分及びディスプレイメモリ部分を含むことができる。
本明細書において記載された或る特定の特徴を様々な実施態様に関して説明してきたが、この説明は、限定的な意味に解釈されることを意図するものではない。したがって、本開示が関係する技術分野の当業者に明らかである、本明細書において説明した実施態様及び他の実施態様の様々な変更は、本開示の趣旨及び範囲内にあるとみなされる。
本明細書において記載された或る特定の特徴を様々な実施態様に関して説明してきたが、この説明は、限定的な意味に解釈されることを意図するものではない。したがって、本開示が関係する技術分野の当業者に明らかである、本明細書において説明した実施態様及び他の実施態様の様々な変更は、本開示の趣旨及び範囲内にあるとみなされる。ここで、本発明の実施態様の例を示す。
[項目1]
画像において人の頭部を検出するコンピューターにより実行される方法であって、
深度画像を受信することと、
深度画像のピクセルにテンプレートを適用することであって、深度画像における人の頭部のロケーションを決定することと、
を含み、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、方法。
[項目2]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目1に記載の方法。
[項目3]
第1の複数の深度値は、テンプレートにおける円形形状領域内に存在する点にのみ関連付けられ、第2の複数の深度値は、テンプレートにおける第1の環状形状領域内に存在する点にのみ関連付けられ、第3の複数の深度値は、テンプレートにおける第2の環状形状領域内に存在する点にのみ関連付けられている、項目2に記載の方法。
[項目4]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目2に記載の方法。
[項目5]
第1の環状形状領域は、円形形状領域に対して同心円状に配置されている、項目1に記載の方法。
[項目6]
テンプレートを深度画像のピクセルに適用することは、テンプレートを深度画像内の複数の前景ピクセルとマッチングすることを含む、項目1に記載の方法。
[項目7]
テンプレートを深度画像内の複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたってテンプレートをスキャンすることを含む、項目6に記載の方法。
[項目8]
テンプレートを複数の前景ピクセルとマッチングすることは、各前景ピクセルについて、テンプレートの深度値を、前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、項目6に記載の方法。
[項目9]
テンプレートの深度値を近傍の一群のピクセルの深度値と比較することは、
前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付けるとともに、前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付けることと、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較することと、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較することと、
を含む、項目8に記載の方法。
[項目10]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目1に記載の方法。
[項目11]
システムであって、
プロセッサと、該プロセッサに結合されたメモリと備え、該メモリ内の命令は、
深度画像を受信することと、
深度画像のピクセルにテンプレートを適用して、深度画像における人の頭部のロケーションを決定する、適用することと、
を行うようにプロセッサを構成し、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、システム。
[項目12]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目11に記載のシステム。
[項目13]
第1の複数の深度値は、テンプレートにおける円形形状領域内に存在する点にのみ関連付けられ、第2の複数の深度値は、テンプレートにおける第1の環状形状領域内に存在する点にのみ関連付けられ、第3の複数の深度値は、テンプレートにおける第2の環状形状領域内に存在する点にのみ関連付けられている、項目12に記載のシステム。
[項目14]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目12に記載のシステム。
[項目15]
第1の環状形状領域は、円形形状領域に対して同心円状に配置されている、項目11に記載のシステム。
[項目16]
テンプレートを深度画像のピクセルに適用することは、テンプレートを深度画像内の複数の前景ピクセルとマッチングすることを含む、項目11に記載のシステム。
[項目17]
テンプレートを深度画像内の複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたってテンプレートをスキャンすることを含む、項目16に記載のシステム。
[項目18]
テンプレートを複数の前景ピクセルとマッチングすることは、各前景ピクセルについて、テンプレートの深度値を、前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、項目16に記載のシステム。
[項目19]
テンプレートの深度値を近傍の一群のピクセルの深度値と比較することをプロセッサに行うように構成する命令は、
前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付けることと、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付けることと、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較することと、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較することと、
を行うようにプロセッサを構成する命令を含む、項目18に記載のシステム。
[項目20]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目11に記載のシステム。
[項目21]
深度画像を記憶するデータベースを更に備える、項目11に記載のシステム。
[項目22]
デバイスであって、
深度画像を受信し、
深度画像のピクセルにテンプレートを適用して、深度画像における人の頭部のロケーションを決定する、頭部検出モジュール(HDM)を備え、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、デバイス。
[項目23]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目22に記載のデバイス。
[項目24]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目23に記載のデバイス。
[項目25]
テンプレートを深度画像のピクセルに適用するのに、HDMは、
深度画像の前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付け、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付け、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較し、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較する、
ように構成されている、項目22に記載のデバイス。
[項目26]
コンピュータープログラム製品を含む物品であって、実行されると、
深度画像を受信する命令と、
深度画像のピクセルにテンプレートを適用する命令であって、深度画像における人の頭部のロケーションを求める命令とが記憶され、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、コンピュータープログラム製品を含む物品。
[項目27]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目26に記載の物品。
[項目28]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目27に記載の物品。
[項目29]
深度画像のピクセルにテンプレートを適用する命令は、実行されると、
深度画像の前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付ける命令と、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付ける命令と、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較する命令と、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較する命令と、
を含む、項目26に記載の物品。
[項目30]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目26に記載の物品。

Claims (30)

  1. 画像において人の頭部を検出するコンピューターにより実行される方法であって、
    深度画像を受信することと、
    前記深度画像のピクセルにテンプレートを適用することであって、前記深度画像における人の頭部のロケーションを決定することと、
    を含み、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、方法。
  2. 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項1に記載の方法。
  3. 前記第1の複数の深度値は、前記テンプレートにおける前記円形形状領域内に存在する点にのみ関連付けられ、前記第2の複数の深度値は、前記テンプレートにおける前記第1の環状形状領域内に存在する点にのみ関連付けられ、前記第3の複数の深度値は、前記テンプレートにおける前記第2の環状形状領域内に存在する点にのみ関連付けられている、請求項2に記載の方法。
  4. 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項2に記載の方法。
  5. 前記第1の環状形状領域は、前記円形形状領域に対して同心円状に配置されている、請求項1に記載の方法。
  6. 前記テンプレートを前記深度画像のピクセルに適用することは、前記テンプレートを前記深度画像内の複数の前景ピクセルとマッチングすることを含む、請求項1に記載の方法。
  7. 前記テンプレートを前記深度画像内の前記複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたって前記テンプレートをスキャンすることを含む、請求項6に記載の方法。
  8. 前記テンプレートを前記複数の前景ピクセルとマッチングすることは、前記前景ピクセルの各々について、前記テンプレートの深度値を、前記前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、請求項6に記載の方法。
  9. 前記テンプレートの深度値を前記近傍の一群のピクセルの深度値と比較することは、
    前記前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付けるとともに、前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付けることと、
    前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較することと、
    前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較することと、
    を含む、請求項8に記載の方法。
  10. 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項1に記載の方法。
  11. システムであって、
    プロセッサと、該プロセッサに結合されたメモリと備え、該メモリ内の命令は、
    深度画像を受信することと、
    前記深度画像のピクセルにテンプレートを適用して、前記深度画像における人の頭部のロケーションを決定する、適用することと、
    を行うように前記プロセッサを構成し、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、システム。
  12. 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項11に記載のシステム。
  13. 前記第1の複数の深度値は、前記テンプレートにおける前記円形形状領域内に存在する点にのみ関連付けられ、前記第2の複数の深度値は、前記テンプレートにおける前記第1の環状形状領域内に存在する点にのみ関連付けられ、前記第3の複数の深度値は、前記テンプレートにおける前記第2の環状形状領域内に存在する点にのみ関連付けられている、請求項12に記載のシステム。
  14. 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項12に記載のシステム。
  15. 前記第1の環状形状領域は、前記円形形状領域に対して同心円状に配置されている、請求項11に記載のシステム。
  16. 前記テンプレートを前記深度画像のピクセルに適用することは、前記テンプレートを前記深度画像内の複数の前景ピクセルとマッチングすることを含む、請求項11に記載のシステム。
  17. 前記テンプレートを前記深度画像内の前記複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたって前記テンプレートをスキャンすることを含む、請求項16に記載のシステム。
  18. 前記テンプレートを前記複数の前景ピクセルとマッチングすることは、前記前景ピクセルの各々について、前記テンプレートの深度値を、前記前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、請求項16に記載のシステム。
  19. 前記テンプレートの深度値を前記近傍の一群のピクセルの深度値と比較することを前記プロセッサに行うように構成する命令は、
    前記前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付けることと、
    前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付けることと、
    前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較することと、
    前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較することと、
    を行うように前記プロセッサを構成する命令を含む、請求項18に記載のシステム。
  20. 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項11に記載のシステム。
  21. 前記深度画像を記憶するデータベースを更に備える、請求項11に記載のシステム。
  22. デバイスであって、
    深度画像を受信し、
    前記深度画像のピクセルにテンプレートを適用して、前記深度画像における人の頭部のロケーションを決定する、頭部検出モジュール(HDM)を備え、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、デバイス。
  23. 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項22に記載のデバイス。
  24. 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項23に記載のデバイス。
  25. 前記テンプレートを前記深度画像のピクセルに適用するのに、前記HDMは、
    前記深度画像の前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付け、
    前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付け、
    前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較し、
    前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較する、
    ように構成されている、請求項22に記載のデバイス。
  26. コンピュータープログラム製品を含む物品であって、実行されると、
    深度画像を受信する命令と、
    前記深度画像のピクセルにテンプレートを適用する命令であって、前記深度画像における人の頭部のロケーションを求める命令とが記憶され、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、コンピュータープログラム製品を含む物品。
  27. 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項26に記載の物品。
  28. 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項27に記載の物品。
  29. 前記深度画像のピクセルに前記テンプレートを適用する命令は、実行されると、
    前記深度画像の前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付ける命令と、
    前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付ける命令と、
    前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較する命令と、
    前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較する命令と、
    を含む、請求項26に記載の物品。
  30. 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項26に記載の物品。
JP2014532201A 2011-09-30 2011-09-30 深度画像における人の頭部の検出 Expired - Fee Related JP5785664B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2011/001661 WO2013044418A1 (en) 2011-09-30 2011-09-30 Human head detection in depth images

Publications (2)

Publication Number Publication Date
JP2014528135A true JP2014528135A (ja) 2014-10-23
JP5785664B2 JP5785664B2 (ja) 2015-09-30

Family

ID=47994099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014532201A Expired - Fee Related JP5785664B2 (ja) 2011-09-30 2011-09-30 深度画像における人の頭部の検出

Country Status (6)

Country Link
US (2) US9111131B2 (ja)
EP (1) EP2761533A4 (ja)
JP (1) JP5785664B2 (ja)
KR (1) KR101763778B1 (ja)
CN (1) CN103907123B (ja)
WO (1) WO2013044418A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135035A (ja) * 2019-02-13 2020-08-31 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013044418A1 (en) 2011-09-30 2013-04-04 Intel Corporation Human head detection in depth images
KR101534776B1 (ko) * 2013-09-16 2015-07-09 광운대학교 산학협력단 깊이 정보를 이용한 템플릿 매칭 기반 고속 얼굴 추적 방법
JP2015216518A (ja) * 2014-05-12 2015-12-03 富士通株式会社 情報処理方法、プログラム及び情報処理装置
CN106469446B (zh) * 2015-08-21 2021-04-20 小米科技有限责任公司 深度图像的分割方法和分割装置
WO2018000366A1 (en) 2016-06-30 2018-01-04 Microsoft Technology Licensing, Llc Method and apparatus for detecting a salient point of a protuberant object
CN106951820B (zh) * 2016-08-31 2019-12-13 江苏慧眼数据科技股份有限公司 基于环形模板和椭圆拟合的客流统计方法
WO2018053763A1 (zh) * 2016-09-22 2018-03-29 深圳大学 一种图像识别方法和装置
WO2018119668A1 (zh) * 2016-12-27 2018-07-05 深圳大学 一种行人头部识别方法及系统
CN106667496B (zh) * 2017-02-10 2020-05-05 广州帕克西软件开发有限公司 一种面部数据测量方法及装置
CN107016373A (zh) * 2017-04-12 2017-08-04 广东工业大学 一种安全帽佩戴的检测方法及装置
CN110622217B (zh) * 2017-05-12 2023-04-18 富士通株式会社 距离图像处理装置以及距离图像处理系统
EP3624052A1 (en) * 2017-05-12 2020-03-18 Fujitsu Limited Distance image processing device, distance image processing system, distance image processing method, and distance image processing program
CN108539576B (zh) * 2018-05-30 2020-06-12 Oppo广东移动通信有限公司 激光投射器的控制系统和移动终端
CN113091227B (zh) * 2020-01-08 2022-11-01 佛山市云米电器科技有限公司 空调控制方法、云端服务器、空调控制系统及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214338A (ja) * 1996-11-29 1998-08-11 Toshiba Corp スムージング処理機能を備えた画像処理装置
JP2001012922A (ja) * 1999-06-29 2001-01-19 Minolta Co Ltd 3次元データ処理装置
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP2003196656A (ja) * 2001-12-28 2003-07-11 Matsushita Electric Works Ltd 距離画像処理装置
JP2006185166A (ja) * 2004-12-27 2006-07-13 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法および人体検知装置
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69710164T2 (de) * 1996-11-29 2002-10-31 Kabushiki Kaisha Toshiba, Kawasaki Bildverarbeitungsgerät mit Glättungseigenschaft
JPH11126259A (ja) 1997-06-02 1999-05-11 Matsushita Electric Ind Co Ltd 画像検出方法、画像検出装置、画像処理方法、画像処理装置、及び媒体
JP2004264738A (ja) 2003-03-04 2004-09-24 Nippon Telegr & Teleph Corp <Ntt> レーザ光減衰装置、この装置を有する光コネクタ受け口及び光コネクタ並びに光コネクタ接続アダプタ
US20060291697A1 (en) * 2005-06-21 2006-12-28 Trw Automotive U.S. Llc Method and apparatus for detecting the presence of an occupant within a vehicle
JP2009276294A (ja) * 2008-05-16 2009-11-26 Toshiba Corp 画像処理方法
CN102428501A (zh) 2009-09-18 2012-04-25 株式会社东芝 图像处理装置
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
CN101866484B (zh) * 2010-06-08 2012-07-04 华中科技大学 一种图像中像素显著程度的计算方法
WO2013044418A1 (en) 2011-09-30 2013-04-04 Intel Corporation Human head detection in depth images

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10214338A (ja) * 1996-11-29 1998-08-11 Toshiba Corp スムージング処理機能を備えた画像処理装置
JP2001012922A (ja) * 1999-06-29 2001-01-19 Minolta Co Ltd 3次元データ処理装置
JP2003057007A (ja) * 2001-08-10 2003-02-26 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法
JP2003196656A (ja) * 2001-12-28 2003-07-11 Matsushita Electric Works Ltd 距離画像処理装置
JP2006185166A (ja) * 2004-12-27 2006-07-13 Matsushita Electric Works Ltd 距離画像を用いた人体検知方法および人体検知装置
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135035A (ja) * 2019-02-13 2020-08-31 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体
JP7195963B2 (ja) 2019-02-13 2022-12-26 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体

Also Published As

Publication number Publication date
EP2761533A1 (en) 2014-08-06
US20150332466A1 (en) 2015-11-19
EP2761533A4 (en) 2016-05-11
JP5785664B2 (ja) 2015-09-30
US20130272576A1 (en) 2013-10-17
WO2013044418A1 (en) 2013-04-04
KR101763778B1 (ko) 2017-08-01
US9111131B2 (en) 2015-08-18
CN103907123B (zh) 2018-10-09
KR20140050113A (ko) 2014-04-28
CN103907123A (zh) 2014-07-02
US9996731B2 (en) 2018-06-12

Similar Documents

Publication Publication Date Title
JP5785664B2 (ja) 深度画像における人の頭部の検出
US10726264B2 (en) Object-based localization
KR101608253B1 (ko) 이미지 기반 멀티 뷰 3d 얼굴 생성
WO2020010979A1 (zh) 手部关键点的识别模型训练方法、识别方法及设备
CN109683699B (zh) 基于深度学习实现增强现实的方法、装置及移动终端
US8660362B2 (en) Combined depth filtering and super resolution
JP5822322B2 (ja) ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ
US9560273B2 (en) Wearable information system having at least one camera
US20200160049A1 (en) Age classification of humans based on image depth and human pose
EP3574450A1 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
WO2017143745A1 (zh) 一种确定待测对象的运动信息的方法及装置
KR20150130483A (ko) 평면의 자연스러운 특성 타겟들의 인시츄 생성
US20150095360A1 (en) Multiview pruning of feature database for object recognition system
Liang et al. Reduced-complexity data acquisition system for image-based localization in indoor environments
CN103765477B (zh) 通过图形匹配和环形检测而用自动模型初始化进行线跟踪
WO2024060708A1 (zh) 目标检测方法和装置
CN117940956A (zh) 关键点检测和特征描述符计算
CN113822102B (zh) 一种姿态估计方法、装置、电子设备及存储介质
WO2018120932A1 (en) Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory
WO2019033509A1 (zh) 图像轮廓的内外识别方法及设备
CN114299302A (zh) 基于稀疏点的平面提取方法及其系统和电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150724

R150 Certificate of patent or registration of utility model

Ref document number: 5785664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees