JP2014528135A - 深度画像における人の頭部の検出 - Google Patents
深度画像における人の頭部の検出 Download PDFInfo
- Publication number
- JP2014528135A JP2014528135A JP2014532201A JP2014532201A JP2014528135A JP 2014528135 A JP2014528135 A JP 2014528135A JP 2014532201 A JP2014532201 A JP 2014532201A JP 2014532201 A JP2014532201 A JP 2014532201A JP 2014528135 A JP2014528135 A JP 2014528135A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- template
- depth values
- region
- shape region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims description 19
- 238000000034 method Methods 0.000 claims abstract description 63
- 238000004590 computer program Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 description 31
- 230000002093 peripheral effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
[項目1]
画像において人の頭部を検出するコンピューターにより実行される方法であって、
深度画像を受信することと、
深度画像のピクセルにテンプレートを適用することであって、深度画像における人の頭部のロケーションを決定することと、
を含み、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、方法。
[項目2]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目1に記載の方法。
[項目3]
第1の複数の深度値は、テンプレートにおける円形形状領域内に存在する点にのみ関連付けられ、第2の複数の深度値は、テンプレートにおける第1の環状形状領域内に存在する点にのみ関連付けられ、第3の複数の深度値は、テンプレートにおける第2の環状形状領域内に存在する点にのみ関連付けられている、項目2に記載の方法。
[項目4]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目2に記載の方法。
[項目5]
第1の環状形状領域は、円形形状領域に対して同心円状に配置されている、項目1に記載の方法。
[項目6]
テンプレートを深度画像のピクセルに適用することは、テンプレートを深度画像内の複数の前景ピクセルとマッチングすることを含む、項目1に記載の方法。
[項目7]
テンプレートを深度画像内の複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたってテンプレートをスキャンすることを含む、項目6に記載の方法。
[項目8]
テンプレートを複数の前景ピクセルとマッチングすることは、各前景ピクセルについて、テンプレートの深度値を、前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、項目6に記載の方法。
[項目9]
テンプレートの深度値を近傍の一群のピクセルの深度値と比較することは、
前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付けるとともに、前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付けることと、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較することと、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較することと、
を含む、項目8に記載の方法。
[項目10]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目1に記載の方法。
[項目11]
システムであって、
プロセッサと、該プロセッサに結合されたメモリと備え、該メモリ内の命令は、
深度画像を受信することと、
深度画像のピクセルにテンプレートを適用して、深度画像における人の頭部のロケーションを決定する、適用することと、
を行うようにプロセッサを構成し、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、システム。
[項目12]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目11に記載のシステム。
[項目13]
第1の複数の深度値は、テンプレートにおける円形形状領域内に存在する点にのみ関連付けられ、第2の複数の深度値は、テンプレートにおける第1の環状形状領域内に存在する点にのみ関連付けられ、第3の複数の深度値は、テンプレートにおける第2の環状形状領域内に存在する点にのみ関連付けられている、項目12に記載のシステム。
[項目14]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目12に記載のシステム。
[項目15]
第1の環状形状領域は、円形形状領域に対して同心円状に配置されている、項目11に記載のシステム。
[項目16]
テンプレートを深度画像のピクセルに適用することは、テンプレートを深度画像内の複数の前景ピクセルとマッチングすることを含む、項目11に記載のシステム。
[項目17]
テンプレートを深度画像内の複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたってテンプレートをスキャンすることを含む、項目16に記載のシステム。
[項目18]
テンプレートを複数の前景ピクセルとマッチングすることは、各前景ピクセルについて、テンプレートの深度値を、前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、項目16に記載のシステム。
[項目19]
テンプレートの深度値を近傍の一群のピクセルの深度値と比較することをプロセッサに行うように構成する命令は、
前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付けることと、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付けることと、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較することと、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較することと、
を行うようにプロセッサを構成する命令を含む、項目18に記載のシステム。
[項目20]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目11に記載のシステム。
[項目21]
深度画像を記憶するデータベースを更に備える、項目11に記載のシステム。
[項目22]
デバイスであって、
深度画像を受信し、
深度画像のピクセルにテンプレートを適用して、深度画像における人の頭部のロケーションを決定する、頭部検出モジュール(HDM)を備え、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、デバイス。
[項目23]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目22に記載のデバイス。
[項目24]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目23に記載のデバイス。
[項目25]
テンプレートを深度画像のピクセルに適用するのに、HDMは、
深度画像の前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付け、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付け、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較し、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較する、
ように構成されている、項目22に記載のデバイス。
[項目26]
コンピュータープログラム製品を含む物品であって、実行されると、
深度画像を受信する命令と、
深度画像のピクセルにテンプレートを適用する命令であって、深度画像における人の頭部のロケーションを求める命令とが記憶され、テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、円形形状領域は、第1の複数の深度値を指定し、第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、第1の複数の深度値よりも大きな深度値を含む、コンピュータープログラム製品を含む物品。
[項目27]
テンプレートは、第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、第2の複数の深度値よりも大きな深度値を含む、項目26に記載の物品。
[項目28]
第1の環状形状領域の半径は、円形形状領域の半径の1.25倍の値を有し、第2の環状形状領域の半径は、第1の環状形状領域の半径の値の1.25倍の値を有する、項目27に記載の物品。
[項目29]
深度画像のピクセルにテンプレートを適用する命令は、実行されると、
深度画像の前景ピクセルの第1の一群の近傍ピクセルを円形形状領域に関連付ける命令と、
前景ピクセルの第2の一群の近傍ピクセルを第1の環状形状領域に関連付ける命令と、
第1の一群の近傍ピクセルの深度値を円形形状領域の深度値と比較する命令と、
第2の一群の近傍ピクセルの深度値を第1の環状形状領域の深度値と比較する命令と、
を含む、項目26に記載の物品。
[項目30]
深度画像における人の頭部のロケーションを決定することは、人の頭部に関連付けられた深度画像の前景ピクセルを決定することと、前景ピクセル上にセンタリングされた円の半径を決定することとを含む、項目26に記載の物品。
Claims (30)
- 画像において人の頭部を検出するコンピューターにより実行される方法であって、
深度画像を受信することと、
前記深度画像のピクセルにテンプレートを適用することであって、前記深度画像における人の頭部のロケーションを決定することと、
を含み、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、方法。 - 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項1に記載の方法。
- 前記第1の複数の深度値は、前記テンプレートにおける前記円形形状領域内に存在する点にのみ関連付けられ、前記第2の複数の深度値は、前記テンプレートにおける前記第1の環状形状領域内に存在する点にのみ関連付けられ、前記第3の複数の深度値は、前記テンプレートにおける前記第2の環状形状領域内に存在する点にのみ関連付けられている、請求項2に記載の方法。
- 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項2に記載の方法。
- 前記第1の環状形状領域は、前記円形形状領域に対して同心円状に配置されている、請求項1に記載の方法。
- 前記テンプレートを前記深度画像のピクセルに適用することは、前記テンプレートを前記深度画像内の複数の前景ピクセルとマッチングすることを含む、請求項1に記載の方法。
- 前記テンプレートを前記深度画像内の前記複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたって前記テンプレートをスキャンすることを含む、請求項6に記載の方法。
- 前記テンプレートを前記複数の前景ピクセルとマッチングすることは、前記前景ピクセルの各々について、前記テンプレートの深度値を、前記前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、請求項6に記載の方法。
- 前記テンプレートの深度値を前記近傍の一群のピクセルの深度値と比較することは、
前記前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付けるとともに、前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付けることと、
前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較することと、
前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較することと、
を含む、請求項8に記載の方法。 - 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項1に記載の方法。
- システムであって、
プロセッサと、該プロセッサに結合されたメモリと備え、該メモリ内の命令は、
深度画像を受信することと、
前記深度画像のピクセルにテンプレートを適用して、前記深度画像における人の頭部のロケーションを決定する、適用することと、
を行うように前記プロセッサを構成し、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、システム。 - 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項11に記載のシステム。
- 前記第1の複数の深度値は、前記テンプレートにおける前記円形形状領域内に存在する点にのみ関連付けられ、前記第2の複数の深度値は、前記テンプレートにおける前記第1の環状形状領域内に存在する点にのみ関連付けられ、前記第3の複数の深度値は、前記テンプレートにおける前記第2の環状形状領域内に存在する点にのみ関連付けられている、請求項12に記載のシステム。
- 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項12に記載のシステム。
- 前記第1の環状形状領域は、前記円形形状領域に対して同心円状に配置されている、請求項11に記載のシステム。
- 前記テンプレートを前記深度画像のピクセルに適用することは、前記テンプレートを前記深度画像内の複数の前景ピクセルとマッチングすることを含む、請求項11に記載のシステム。
- 前記テンプレートを前記深度画像内の前記複数の前景ピクセルとマッチングすることは、前景ピクセルのスパースグリッドにわたって前記テンプレートをスキャンすることを含む、請求項16に記載のシステム。
- 前記テンプレートを前記複数の前景ピクセルとマッチングすることは、前記前景ピクセルの各々について、前記テンプレートの深度値を、前記前景ピクセルを取り囲む近傍の一群のピクセルの深度値と比較することを含む、請求項16に記載のシステム。
- 前記テンプレートの深度値を前記近傍の一群のピクセルの深度値と比較することを前記プロセッサに行うように構成する命令は、
前記前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付けることと、
前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付けることと、
前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較することと、
前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較することと、
を行うように前記プロセッサを構成する命令を含む、請求項18に記載のシステム。 - 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項11に記載のシステム。
- 前記深度画像を記憶するデータベースを更に備える、請求項11に記載のシステム。
- デバイスであって、
深度画像を受信し、
前記深度画像のピクセルにテンプレートを適用して、前記深度画像における人の頭部のロケーションを決定する、頭部検出モジュール(HDM)を備え、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、デバイス。 - 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項22に記載のデバイス。
- 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項23に記載のデバイス。
- 前記テンプレートを前記深度画像のピクセルに適用するのに、前記HDMは、
前記深度画像の前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付け、
前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付け、
前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較し、
前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較する、
ように構成されている、請求項22に記載のデバイス。 - コンピュータープログラム製品を含む物品であって、実行されると、
深度画像を受信する命令と、
前記深度画像のピクセルにテンプレートを適用する命令であって、前記深度画像における人の頭部のロケーションを求める命令とが記憶され、前記テンプレートは、円形形状領域と、該円形形状領域を取り囲む第1の環状形状領域とを含み、前記円形形状領域は、第1の複数の深度値を指定し、前記第1の環状形状領域は、第2の複数の深度値を指定し、該第2の複数の深度値は、前記第1の複数の深度値よりも大きな深度値を含む、コンピュータープログラム製品を含む物品。 - 前記テンプレートは、前記第1の環状形状領域を取り囲む第2の環状形状領域を指定し、該第2の環状形状領域は、第3の複数の深度値を指定し、該第3の複数の深度値は、前記第2の複数の深度値よりも大きな深度値を含む、請求項26に記載の物品。
- 前記第1の環状形状領域の半径は、前記円形形状領域の半径の1.25倍の値を有し、前記第2の環状形状領域の半径は、前記第1の環状形状領域の前記半径の前記値の1.25倍の値を有する、請求項27に記載の物品。
- 前記深度画像のピクセルに前記テンプレートを適用する命令は、実行されると、
前記深度画像の前景ピクセルの第1の一群の近傍ピクセルを前記円形形状領域に関連付ける命令と、
前記前景ピクセルの第2の一群の近傍ピクセルを前記第1の環状形状領域に関連付ける命令と、
前記第1の一群の近傍ピクセルの深度値を前記円形形状領域の深度値と比較する命令と、
前記第2の一群の近傍ピクセルの深度値を前記第1の環状形状領域の深度値と比較する命令と、
を含む、請求項26に記載の物品。 - 前記深度画像における前記人の頭部の前記ロケーションを決定することは、前記人の頭部に関連付けられた前記深度画像の前景ピクセルを決定することと、前記前景ピクセル上にセンタリングされた円の半径を決定することとを含む、請求項26に記載の物品。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2011/001661 WO2013044418A1 (en) | 2011-09-30 | 2011-09-30 | Human head detection in depth images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014528135A true JP2014528135A (ja) | 2014-10-23 |
JP5785664B2 JP5785664B2 (ja) | 2015-09-30 |
Family
ID=47994099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014532201A Expired - Fee Related JP5785664B2 (ja) | 2011-09-30 | 2011-09-30 | 深度画像における人の頭部の検出 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9111131B2 (ja) |
EP (1) | EP2761533A4 (ja) |
JP (1) | JP5785664B2 (ja) |
KR (1) | KR101763778B1 (ja) |
CN (1) | CN103907123B (ja) |
WO (1) | WO2013044418A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135035A (ja) * | 2019-02-13 | 2020-08-31 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013044418A1 (en) | 2011-09-30 | 2013-04-04 | Intel Corporation | Human head detection in depth images |
KR101534776B1 (ko) * | 2013-09-16 | 2015-07-09 | 광운대학교 산학협력단 | 깊이 정보를 이용한 템플릿 매칭 기반 고속 얼굴 추적 방법 |
JP2015216518A (ja) * | 2014-05-12 | 2015-12-03 | 富士通株式会社 | 情報処理方法、プログラム及び情報処理装置 |
CN106469446B (zh) * | 2015-08-21 | 2021-04-20 | 小米科技有限责任公司 | 深度图像的分割方法和分割装置 |
WO2018000366A1 (en) | 2016-06-30 | 2018-01-04 | Microsoft Technology Licensing, Llc | Method and apparatus for detecting a salient point of a protuberant object |
CN106951820B (zh) * | 2016-08-31 | 2019-12-13 | 江苏慧眼数据科技股份有限公司 | 基于环形模板和椭圆拟合的客流统计方法 |
WO2018053763A1 (zh) * | 2016-09-22 | 2018-03-29 | 深圳大学 | 一种图像识别方法和装置 |
WO2018119668A1 (zh) * | 2016-12-27 | 2018-07-05 | 深圳大学 | 一种行人头部识别方法及系统 |
CN106667496B (zh) * | 2017-02-10 | 2020-05-05 | 广州帕克西软件开发有限公司 | 一种面部数据测量方法及装置 |
CN107016373A (zh) * | 2017-04-12 | 2017-08-04 | 广东工业大学 | 一种安全帽佩戴的检测方法及装置 |
CN110622217B (zh) * | 2017-05-12 | 2023-04-18 | 富士通株式会社 | 距离图像处理装置以及距离图像处理系统 |
EP3624052A1 (en) * | 2017-05-12 | 2020-03-18 | Fujitsu Limited | Distance image processing device, distance image processing system, distance image processing method, and distance image processing program |
CN108539576B (zh) * | 2018-05-30 | 2020-06-12 | Oppo广东移动通信有限公司 | 激光投射器的控制系统和移动终端 |
CN113091227B (zh) * | 2020-01-08 | 2022-11-01 | 佛山市云米电器科技有限公司 | 空调控制方法、云端服务器、空调控制系统及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214338A (ja) * | 1996-11-29 | 1998-08-11 | Toshiba Corp | スムージング処理機能を備えた画像処理装置 |
JP2001012922A (ja) * | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | 3次元データ処理装置 |
JP2003057007A (ja) * | 2001-08-10 | 2003-02-26 | Matsushita Electric Works Ltd | 距離画像を用いた人体検知方法 |
JP2003196656A (ja) * | 2001-12-28 | 2003-07-11 | Matsushita Electric Works Ltd | 距離画像処理装置 |
JP2006185166A (ja) * | 2004-12-27 | 2006-07-13 | Matsushita Electric Works Ltd | 距離画像を用いた人体検知方法および人体検知装置 |
JP2006236184A (ja) * | 2005-02-28 | 2006-09-07 | Nec Engineering Ltd | 画像処理による人体検知方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69710164T2 (de) * | 1996-11-29 | 2002-10-31 | Kabushiki Kaisha Toshiba, Kawasaki | Bildverarbeitungsgerät mit Glättungseigenschaft |
JPH11126259A (ja) | 1997-06-02 | 1999-05-11 | Matsushita Electric Ind Co Ltd | 画像検出方法、画像検出装置、画像処理方法、画像処理装置、及び媒体 |
JP2004264738A (ja) | 2003-03-04 | 2004-09-24 | Nippon Telegr & Teleph Corp <Ntt> | レーザ光減衰装置、この装置を有する光コネクタ受け口及び光コネクタ並びに光コネクタ接続アダプタ |
US20060291697A1 (en) * | 2005-06-21 | 2006-12-28 | Trw Automotive U.S. Llc | Method and apparatus for detecting the presence of an occupant within a vehicle |
JP2009276294A (ja) * | 2008-05-16 | 2009-11-26 | Toshiba Corp | 画像処理方法 |
CN102428501A (zh) | 2009-09-18 | 2012-04-25 | 株式会社东芝 | 图像处理装置 |
US8963829B2 (en) * | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
CN101866484B (zh) * | 2010-06-08 | 2012-07-04 | 华中科技大学 | 一种图像中像素显著程度的计算方法 |
WO2013044418A1 (en) | 2011-09-30 | 2013-04-04 | Intel Corporation | Human head detection in depth images |
-
2011
- 2011-09-30 WO PCT/CN2011/001661 patent/WO2013044418A1/en active Application Filing
- 2011-09-30 EP EP11873311.2A patent/EP2761533A4/en not_active Withdrawn
- 2011-09-30 JP JP2014532201A patent/JP5785664B2/ja not_active Expired - Fee Related
- 2011-09-30 KR KR1020147007442A patent/KR101763778B1/ko active IP Right Grant
- 2011-09-30 CN CN201180073778.XA patent/CN103907123B/zh not_active Expired - Fee Related
- 2011-09-30 US US13/977,155 patent/US9111131B2/en active Active
-
2015
- 2015-07-13 US US14/798,198 patent/US9996731B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10214338A (ja) * | 1996-11-29 | 1998-08-11 | Toshiba Corp | スムージング処理機能を備えた画像処理装置 |
JP2001012922A (ja) * | 1999-06-29 | 2001-01-19 | Minolta Co Ltd | 3次元データ処理装置 |
JP2003057007A (ja) * | 2001-08-10 | 2003-02-26 | Matsushita Electric Works Ltd | 距離画像を用いた人体検知方法 |
JP2003196656A (ja) * | 2001-12-28 | 2003-07-11 | Matsushita Electric Works Ltd | 距離画像処理装置 |
JP2006185166A (ja) * | 2004-12-27 | 2006-07-13 | Matsushita Electric Works Ltd | 距離画像を用いた人体検知方法および人体検知装置 |
JP2006236184A (ja) * | 2005-02-28 | 2006-09-07 | Nec Engineering Ltd | 画像処理による人体検知方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020135035A (ja) * | 2019-02-13 | 2020-08-31 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
JP7195963B2 (ja) | 2019-02-13 | 2022-12-26 | 株式会社東海理化電機製作所 | 頭部判別装置、コンピュータプログラム、および記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
EP2761533A1 (en) | 2014-08-06 |
US20150332466A1 (en) | 2015-11-19 |
EP2761533A4 (en) | 2016-05-11 |
JP5785664B2 (ja) | 2015-09-30 |
US20130272576A1 (en) | 2013-10-17 |
WO2013044418A1 (en) | 2013-04-04 |
KR101763778B1 (ko) | 2017-08-01 |
US9111131B2 (en) | 2015-08-18 |
CN103907123B (zh) | 2018-10-09 |
KR20140050113A (ko) | 2014-04-28 |
CN103907123A (zh) | 2014-07-02 |
US9996731B2 (en) | 2018-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5785664B2 (ja) | 深度画像における人の頭部の検出 | |
US10726264B2 (en) | Object-based localization | |
KR101608253B1 (ko) | 이미지 기반 멀티 뷰 3d 얼굴 생성 | |
WO2020010979A1 (zh) | 手部关键点的识别模型训练方法、识别方法及设备 | |
CN109683699B (zh) | 基于深度学习实现增强现实的方法、装置及移动终端 | |
US8660362B2 (en) | Combined depth filtering and super resolution | |
JP5822322B2 (ja) | ローカライズされ、セグメンテーションされた画像のネットワークキャプチャ及び3dディスプレイ | |
US9560273B2 (en) | Wearable information system having at least one camera | |
US20200160049A1 (en) | Age classification of humans based on image depth and human pose | |
EP3574450A1 (en) | Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory | |
WO2017143745A1 (zh) | 一种确定待测对象的运动信息的方法及装置 | |
KR20150130483A (ko) | 평면의 자연스러운 특성 타겟들의 인시츄 생성 | |
US20150095360A1 (en) | Multiview pruning of feature database for object recognition system | |
Liang et al. | Reduced-complexity data acquisition system for image-based localization in indoor environments | |
CN103765477B (zh) | 通过图形匹配和环形检测而用自动模型初始化进行线跟踪 | |
WO2024060708A1 (zh) | 目标检测方法和装置 | |
CN117940956A (zh) | 关键点检测和特征描述符计算 | |
CN113822102B (zh) | 一种姿态估计方法、装置、电子设备及存储介质 | |
WO2018120932A1 (en) | Method and apparatus for optimizing scan data and method and apparatus for correcting trajectory | |
WO2019033509A1 (zh) | 图像轮廓的内外识别方法及设备 | |
CN114299302A (zh) | 基于稀疏点的平面提取方法及其系统和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150526 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5785664 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |