JPWO2018207365A1 - 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム - Google Patents

距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム Download PDF

Info

Publication number
JPWO2018207365A1
JPWO2018207365A1 JP2019516863A JP2019516863A JPWO2018207365A1 JP WO2018207365 A1 JPWO2018207365 A1 JP WO2018207365A1 JP 2019516863 A JP2019516863 A JP 2019516863A JP 2019516863 A JP2019516863 A JP 2019516863A JP WO2018207365 A1 JPWO2018207365 A1 JP WO2018207365A1
Authority
JP
Japan
Prior art keywords
distance image
learning
human body
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019516863A
Other languages
English (en)
Other versions
JP6809604B2 (ja
Inventor
桝井 昇一
昇一 桝井
藤本 博昭
博昭 藤本
和浩 吉村
和浩 吉村
佐藤 卓也
卓也 佐藤
佐々木 和雄
和雄 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2018207365A1 publication Critical patent/JPWO2018207365A1/ja
Application granted granted Critical
Publication of JP6809604B2 publication Critical patent/JP6809604B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

学習装置(100)は、人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から人体の各位置または物体の各位置までの距離を示す距離画像と、人体の各部位または物体の部位を識別する部位画像とを対応づけた学習画像を複数生成する。学習装置(100)は、学習画像の距離画像と部位画像とを基にして、距離画像の領域のうち、物体の部位に対応する領域の値を修正する。学習装置(100)は、修正された距離画像を有する複数の学習画像を基にして、距離画像の特徴と、人体の部位または物体の部位とを対応づけた識別器を学習する。

Description

本発明は、距離画像処理装置等に関する。
図15は、姿勢認識を行う従来システムを説明するための図である。図15に示すように、従来システムは、距離センサ6を用いて、対象者5aの距離画像7を取得する。従来システムは、距離画像7を基にして、関節位置推定を行うことで、対象者5aの骨格位置5bを特定し、対象者5aの姿勢を推定する。
図16は、従来システムの応用例を説明するための図である。図16に示す例では、距離センサ6を用いて、対象者5aの距離画像を取得して、対象者5aの姿勢を認識し、ゲーム上でのアバター5cに、対象者5aと同じ姿勢を取らせている。
図17は、姿勢認識の従来技術の一例を説明するための図である。従来技術は、人体を含む1つ以上の距離画像を取得する(ステップS10)。たとえば、距離画像1には、特定する人体に関する前景ピクセル1aと、それ以外の背景ピクセル1bとが含まれる。
従来技術は、距離画像1から背景ピクセル1bを分離することで、前景ピクセルのみを含む距離画像1cを得る(ステップS11)。従来技術は、人物の部位を識別する「識別器」に、距離画像1cを入力することで、距離画像1cの人体の領域を複数の部位ラベルbp1〜bp14に分ける(ステップS12)。
従来技術は、人体の各部位ラベルbp1〜bp14に基づいて、3次元の骨格位置を複数持った人体の骨格モデルを複数提案する(ステップS13)。従来技術は、複数の骨格モデルの中から最も尤度の高い骨格モデルを選択し、選択した骨格モデルに基づき、人物の姿勢を認識する(ステップS14)。
ここで、図17等の従来技術で用いられる識別器は、図18に示すような処理を実行することで学習される。図18は、従来の識別器を学習する処理手順を示すフローチャートである。図18に示すように、従来技術は、モーションキャプチャデータを取得する(ステップS20)。従来技術は、モーションキャプチャデータを基にして、人体モデルリターゲティングを行うことで、様々な姿勢の人体モデルを複数生成する(ステップS21)。
従来技術は、各人体モデルから似通った人体モデル姿勢を除去し、ユニークな人体モデル姿勢のみを残すことで、冗長性を除去する(ステップS22)。従来技術は、ユニークな人体モデル姿勢を基にして、想定された距離センサの位置を基準とした部位ラベル画像および距離画像をそれぞれ生成する(ステップS23)。従来技術は、部位ラベル画像と距離画像との組を基にして、距離画像の各位置の特徴(および周辺位置の特徴)と部位ラベルとの対応関係を繰り返し学習することで、識別器を生成する(ステップS24)。
特開2016−212688号公報 特開2015−167008号公報 特開2012−120647号公報 特開2016−091108号公報 米国特許出願公開第2015/0036879号明細書 米国特許出願公開第2016/0125243号明細書
しかしながら、上述した従来技術では、人体の部位を適切に判定することができないという問題がある。
たとえば、図15で説明した従来システムで人体の姿勢認識を行う場合には、物体によるオクルージョンが発生する。物体によるオクルージョンは、認識対象となる人体の一部が、他の物体により見えなくなる状態のことである。
図19は、物体によるオクルージョンの一例を示す図である。図19に示す例では、鞍馬演技において、鞍馬8bの後方に対象者8aの体の一部が隠れた状態で存在している。図20に示すような状態で、図17で説明した従来技術を適用し、対象者8aの姿勢認識を行うと、正常な部位ラベルが割り当てられず、正確な姿勢認識を行うことができない。
図20および図21は、従来技術の問題点を説明するための図である。たとえば、従来技術は、対象者8aおよび鞍馬8bを含む距離画像を取得し、距離画像から背景を除去し、部位ラベルを割り当てると、図20に示す部位ラベル認識結果9Aとなる。従来技術では、対象者8aおよび鞍馬8bを含む領域8cを、対象者8aの領域とし、鞍馬8bを人体の一部として、部位ラベルを割り当ててしまう。
一方、予め、対象者8aが存在しない状態で、固定された鞍馬8bのみの距離画像を撮影しておき、実際に対象者8aが鞍馬8b上で運動をしている際に撮影された距離画像から、鞍馬8bのみの距離画像を取り除くことは可能である。このように鞍馬8bのみの距離画像を取り除くと、鞍馬8bの裏側に隠れている足の部分の距離画像を検出することができないので、鞍馬8bによって分断された距離画像しか得ることができない。
たとえば、鞍馬8bの距離画像を取り除いた距離画像について、部位ラベルを割り当てると、図21に示す部位ラベル認識結果9Bとなる。人体の領域が分断されると、分断された各領域B、Bがそれぞれ一つの対象者の領域として認識され、部位ラベルが割り当てられてしまう。たとえば、領域Bについて、部分bに足の部位ラベルが割り当てられ、領域Bについて、人体の足以外(たとえば、手)の部位ラベルが割り当てられる場合がある。
上記のように、部位ラベルを適切に判定することができないと、部位ラベルの判定結果を基にした姿勢認識の精度が低下する。
1つの側面では、本発明は、人体の部位を適切に判定することができる距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラムを提供することを目的とする。
第1の案では、距離画像処理装置は、生成部と、修正部と、学習部とを有する。生成部は、人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から人体の各位置または物体の各位置までの距離を示す距離画像と、人体の各部位または物体の部位を識別する部位画像とを対応づけた学習画像を複数生成する。修正部は、学習画像の距離画像と部位画像とを基にして、距離画像の領域のうち、物体の部位に対応する領域の値を修正する。学習部は、修正された距離画像を有する複数の学習画像を基にして、距離画像の特徴と、人体の部位または物体の部位とを対応づけた識別器を学習する。
本発明は、人体の部位を適切に判定することができる。
図1は、本実施例に係る距離画像処理システムの一例を示す図である。 図2は、学習装置の構成の一例を示す図である。 図3は、キャプチャカメラを説明するための図である。 図4は、物体モデルデータの一例を示す図である。 図5は、合成モデルテーブルのデータ構造の一例を示す図である。 図6は、学習画像テーブルのデータ構造の一例を示す図である。 図7は、部位ラベル画像と距離画像と関節位置との関係を説明するための図である。 図8は、識別器データのデータ構造の一例を示す図である。 図9は、認識装置の構成の一例を示す図である。 図10は、本実施例に係る学習装置の処理手順を示すフローチャートである。 図11は、本実施例に係る認識装置の処理手順を示すフローチャート(1)である。 図12は、本実施例に係る認識装置の処理手順を示すフローチャート(2)である。 図13は、学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図14は、認識装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図15は、姿勢認識を行う従来システムを説明するための図である。 図16は、従来システムの応用例を説明するための図である。 図17は、姿勢認識の従来技術の一例を説明するための図である。 図18は、従来の識別器を学習する処理手順を示すフローチャートである。 図19は、物体によるオクルージョンの一例を示す図である。 図20は、従来技術の問題点を説明するための図(1)である。 図21は、従来技術の問題点を説明するための図(2)である。
以下に、本発明にかかる距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る距離画像処理システムの一例を示す図である。図1に示すように、この距離画像処理システムは、学習装置100と、認識装置200とを含む。学習装置100は、モーションキャプチャ装置10に接続される。認識装置200は、距離センサ20に接続される。また、学習装置100と認識装置200は、相互に接続される。
学習装置100は、認識装置200が対象者の姿勢を認識する場合に用いる識別器や骨格推定器を学習する装置である。認識装置200は、学習装置100が学習した識別器あるいは、骨格推定器を用いて、対象者の姿勢を認識する装置である。学習装置100および認識装置200は、距離画像処理装置の一例である。
図2は、学習装置の構成の一例を示す図である。図2に示すように、この学習装置100は、モーションキャプチャ装置10に接続される。学習装置100は、入力部110と、表示部120と、記憶部130と、制御部140とを有する。
モーションキャプチャ装置10は、複数のキャプチャカメラ10aに接続される。図3は、キャプチャカメラを説明するための図である。図3に示すように、キャプチャカメラ10aは、対象者11の周りに配置される。対象者11の各関節位置には、マーカ12がそれぞれ取り付けられている。
たとえば、モーションキャプチャ装置10は、対象者11のマーカ12の動きを、各キャプチャカメラ10aを用いて記録し、各マーカ12から3次元の関節位置を求める。モーションキャプチャ装置10は、各マーカ12の位置座標から求められる3次元の関節位置を順次記録していくことで、モーションキャプチャデータを生成する。モーションキャプチャ装置10は、モーションキャプチャデータを、学習装置100に出力する。
図2の説明に戻る。入力部110は、学習装置100に各種の情報を入力するための入力装置である。たとえば、入力部110は、キーボードやマウス、タッチパネルなどに対応する。
表示部120は、制御部140から出力される情報を表示する表示装置である。たとえば、表示部120は、液晶ディスプレイやタッチパネルなどに対応する。
記憶部130は、モーションキャプチャデータ130a、人体モデルデータ130bと、物体モデルデータ130cと、合成モデルテーブル130dと、学習画像テーブル130eを有する。また、記憶部130は、識別器データ130fと、骨格推定器データ130gとを有する。記憶部130は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
モーションキャプチャデータ130aは、モーションキャプチャ装置10により生成される、人物の3次元の関節位置の動きを記録するデータである。たとえば、モーションキャプチャデータ130aは、フレーム毎の関節位置の情報を有する。
人体モデルデータ130bは、人体の3次元モデルのデータである。人体モデルデータ130bは、モーションキャプチャ130aの人物の各関節位置に基づく骨格に、3次元の人体モデルを結合することで生成される情報である。
物体モデルデータ130cは、人物とは異なる物体の3次元モデルである。図4は、物体モデルデータの一例を示す図である。ここでは一例として、物体を鞍馬としているがこれに限定されるものではない。
合成モデルテーブル130dは、人体モデルデータ130bと、物体モデルデータ130cとを合成した合成モデルデータを複数有するテーブルである。図5は、合成モデルテーブルのデータ構造の一例を示す図である。図5に示すように、この合成モデルテーブル130dは、合成モデル番号と、合成モデルデータとを対応づける。合成モデル番号は、合成モデルデータを識別する番号である。合成モデルデータは、一連の動きの中であるタイミング(フレーム)の人体モデルデータ130bと、物体モデルデータ130cとを合成した結果得られるデータである。
学習画像テーブル130eは、識別器データ130fおよび骨格推定器データ130gを生成するための学習画像データを複数有するテーブルである。図6は、学習画像テーブルのデータ構造の一例を示す図である。図6に示すように、この学習画像テーブル130eは、学習画像番号と、部位ラベル画像データと、距離画像データと、関節位置データとを対応づける。
学習画像番号は、学習画像となる部位ラベル画像データと、距離画像データと、関節位置データの組を一意に識別する番号である。部位ラベル画像データは、合成モデルデータ(人体+物体)の各部位および物体をユニークな部位ラベルで示す情報である。距離画像データは、合成モデルデータ(人体+物体)から生成される距離画像である。後述するように、距離画像データの領域のうち、物体に対応する領域の値は、背景と同じ値に設定される。たとえば、背景と同じ値とは、無限遠であったりする。関節位置データは、合成モデルデータの人体モデルに含まれる各関節位置の情報を抽出したデータである。学習画像テーブル130eにおいて、対応する部位ラベル画像データ、距離画像データ、関節位置データは、同一の合成モデルデータから生成される。
なお、ここでは一例として、部位ラベル画像データと、距離画像データと、関節位置データとの組を学習画像としたが、これに限定されるものではない。たとえば、部位ラベル画像データと、距離画像データとの組を学習画像としても良いし、関節位置データと、距離画像データとの組を学習画像としても良い。
図7は、部位ラベル画像と距離画像と関節位置との関係を説明するための図である。図7は、ある学習画像番号に対応する部位ラベル画像データ131Aと距離画像データ131Bと関節位置データ131Cとの組を示す。距離画像データ131Bとは、たとえば、カメラなどの基準位置から、合成モデルデータの各位置までの距離をピクセル毎に示す距離画像データである。
部位ラベル画像データ131Aは、距離画像データ131Bに含まれる人物の各部位および物体をユニークな部位ラベルで示す情報である。たとえば、所定の分割ポリシーに基づいて、人物の領域は複数の部位に分割され、各部位に対応する領域に固有の部位ラベルを割り当てられる。また、物体については、物体に対応する領域に人物の部位とは異なる部位ラベルを割り当てる。
関節位置データ131Cは、距離画像データ131Bの生成元となった合成モデルデータに含まれる人体モデルを生成する際に基となる人体の関節位置を示すデータである。たとえば、合成モデルデータには、モーションキャプチャデータ130aの人物の各関節位置の情報が含まれており、かかる人物の関節位置の一部、あるいは、全ての情報が、関節位置データ130Cとして抽出される。
識別器データ130fは、たとえば、距離画像データのある位置の周辺の特徴量を元に、距離画像の各ピクセルを部位ラベルに対応づける識別器を構成する。距離画像データのある位置の部位ラベルを特定する場合には、距離画像データのある位置の周辺の特徴量を、識別器に入力することで、ある位置の部位ラベルが出力される。
図8は、識別器のデータ構造の一例を示す図である。図8に示すように、この識別器データ130fは、複数の分岐(Split)ノードf1−1、f2−1〜f2−n、f3−1〜f3−nと、リーフ(Leaf)ノードR〜Rを有する。以下の説明では、分岐ノードf1−1、f2−1〜f2−n、f3−1〜f3−nをまとめて、分岐ノードfと表記する。リーフノードR〜Rをまとめて、リーフノードRと表記する。
分岐ノードfは、距離画像データのある位置の周辺の特徴量とにより、配下の分岐ノードfのうち、いずれかの分岐先を指示するノードである。分岐ノードfが、分岐ノードf3−1〜f3−nである場合には、距離画像データのある位置の周辺の特徴量とにより、配下のリーフノードRのうち、いずれかの遷移先を指示する。
リーフノードRは、人体の部位を示すデータを格納するノードである。
骨格推定器データ130gは、距離画像データと、関節位置とを対応づける骨格推定器を構成する。距離画像データのある位置の関節位置を特定する場合には、ディープラーニングによって得られたニューラルネットワークを用い、距離画像データ、から関節位置が出力される。この時、特徴量に相当する量は、ニューラルネットワーク中で自動的に最適化される。
図2の説明に戻る。制御部140は、取得部140aと、生成部140bと、修正部140cと、学習部140dと、通知部140eとを有する。制御部140は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部140は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
取得部140aは、モーションキャプチャ装置10からモーションキャプチャデータ130aを取得する処理部である。取得部140aは、取得したモーションキャプチャデータ130aを、記憶部130に格納する。
生成部140bは、学習画像テーブル130eを生成する処理部である。たとえば、生成部140bは、人体モデルデータ130bを生成する処理、合成モデルテーブル130dを生成する処理、学習画像テーブル130eを生成する処理を実行する。なお、生成部140bは、物体モデルデータ130cを新たに生成しても良いし、既存の物体モデルデータを、物体モデルデータ130cとして用いても良い。
生成部140bが、人体モデルデータ130bを生成する処理について説明する。生成部140bは、モーションキャプチャデータ130aに含まれる人物の関節位置の一連の動きのうち、人物の関節位置の情報を取得し、各関節位置をスケルトンで接続することで、人物の骨格情報を生成する。生成部140bは、骨格情報に、予め準備した人体モデルの部品を組み合わせていくことで、骨格情報に対応する人体モデルを生成する。つまり、生成部140bが行う処理は、モーションキャプチャデータ130aと人体モデルとを結合する処理に対応する。
生成部140bが、合成モデルテーブル130dを生成する処理について説明する。生成部140bは、一連のモーションキャプチャデータ130aに対し、人体モデルを、人体モデルデータ130bから取得し、取得した人体モデルと、物体モデルデータ130cの物体モデルとを合成することで、合成モデルデータを生成する。生成部140bは、他のフレームに対応する人体モデルと、物体モデルとを合成する処理を繰り返すことで、複数の合成モデルデータを生成する。生成部140bは、合成モデル番号を対応づけて、合成モデルデータを、合成モデルテーブル130dに登録する。
なお、生成部140bは、合成モデルテーブル130dに登録された複数の合成モデルデータのうち、類似する合成モデルデータが含まれる場合には、冗長性を除去する処理を行っても良い。たとえば、生成部140bは、合成モデルデータの各関節位置の差の合計値が閾値未満である合成モデルデータを、類似する合成モデルデータであると判定する。生成部140bは、類似する合成モデルデータのうち、一つの合成モデルデータを残して、他の合成モデルデータを削除する処理を行う。
生成部140bが、学習画像テーブル130eを生成する処理について説明する。生成部140bは、合成モデルテーブル130dを参照し、ある合成モデル番号の合成モデルデータを取得する。生成部140bは、取得した合成モデルデータに基づいて、部位ラベル画像データおよび距離画像データを生成する。生成部140bは、学習画像番号に対応づけて、部位ラベル画像データおよび距離画像データを、学習画像テーブル130eに登録する。
たとえば、生成部140bは、予め、合成モデルデータに人体の部位を識別する部位ラベルを配置する。生成部140bは、3次元上に仮想の基準位置を設定し、この基準位置から合成モデルデータをみた場合における距離画像データを生成する。また、生成部140bは、基準位置から合成モデルデータをみた場合の合成モデルデータの領域を複数の部位ラベルに分類することで、部位ラベル画像データを生成する。たとえば、ある同一の合成モデルデータから生成される部位ラベル画像データおよび距離画像データは、図7で説明した部位ラベル画像データ131A、距離画像データ131Bに対応する。
また、生成部140bは、合成モデルデータを構成する人体モデルから人体の関節位置の情報を抽出することで、関節位置データを生成する。この関節位置データは、図7で説明した関節位置データ131Cに対応し、少なくとも、距離画像データ131Bと対応づけられる。
生成部140bは、合成モデルテーブル130dに格納された他の合成モデルデータについても、上記処理を繰り返し実行することで、部位ラベル画像データ、距離画像データ、関節位置データを生成し、学習画像テーブル130eに格納する。
修正部140cは、学習画像テーブル130eの部位ラベル画像データおよび距離画像データを修正する処理部である。たとえば、修正部140cは、学習画像テーブル130eで対応付けた、部位ラベル画像データと、距離画像データとを比較し、距離画像データの領域のうち、物体の領域を特定する。修正部140cは、距離画像データの物体の領域の値を、背景の値と同じ値に修正する。たとえば、修正部140cは、距離画像データの物体の領域の値を「無限遠」に設定する。また、修正部140cは、部位ラベル画像データに含まれる物体の部位ラベルを、背景を示すラベルに修正する。
修正部140cは、学習画像テーブル130eに格納された他の部位ラベル画像データおよび他の距離画像データについても、上記処理を繰り返し実行することで、他の部位ラベル画像データおよび距離画像データを修正する。修正部140cが係る処理を実行することで、距離画像データに含まれる物体(鞍馬などの物体)を、背景として取り扱うことができる。
学習部140dは、学習画像テーブル130eに含まれる複数の部位ラベル画像データおよび距離画像データの学習セットを基にして、繰り返し機械学習を実行し、識別器データ130fを生成する処理部である。また、学習部140dは、学習画像テーブル130eに含まれる複数の距離画像データおよび関節位置データの学習セットを基にして、ディープラーニングなど利用して学習を行い、骨格推定器データ130gを生成する処理部である。
学習部140dが、第1識別器データ130fを生成する処理の一例について説明する。学習部140dは、距離画像データのある位置(x1、y1)の周辺の特徴量と、ある位置(x1、y1)に対応する部位ラベルを特定する。たとえば、ある位置(x1、y1)の周辺の特徴量は、距離画像データ上のある位置(x1、y1)を基準とした周辺の距離画像データの凹凸であっても良いし、その他の特徴量であっても良い。ある位置(x1、y1)に対応する部位ラベルは、部品ラベル画像データのある位置(x1、y1)に割り当てられた部位ラベルに対応する。
同様に、学習部140dは、距離画像データのある位置(xn、yn)の周辺の特徴量と、ある位置(xn、yn)に対応する部位ラベルとのパターンを、異なる位置毎に特定する。学習部140dは、異なる位置の各パターンを、繰り返し機械学習することで、識別器データ130fを生成(学習)する。
学習部140dが、骨格推定器データ130gを生成する処理の一例について説明する。学習部140dは、ディープラーニングを使用し、特徴量が自動的に最適される形で、距離画像データと関節位置データの関係を学習する。
同様に、学習部140dは、距離画像データのある位置(xn、yn)の特徴量と、ある位置(xn、yn)の周辺の特徴量と、ある位置(xn、yn)に対応する関節位置とのパターンを、異なる位置毎に特定する。学習部140dは、異なる位置の各パターンを、繰り返し機械学習することで、骨格推定器データ130gを生成(学習)する。
通知部140dは、学習部140cにより生成された識別器データ130fおよび骨格推定器データ130gを、認識装置200に送信する処理部である。
続いて、認識装置200の説明に移行する。図9は、認識装置の構成の一例を示す図である。図9に示すように、この認識装置200は、距離センサ20に接続される。認識装置200は、入力部210と、表示部220と、記憶部230と、制御部240とを有する。
距離センサ20は、姿勢の認識処理時に、対象者および所定の物体(鞍馬など、図示略)の距離画像を測定し、測定した距離画像のデータを、認識装置200に出力する。以下の説明では、距離センサ20から取得する距離画像のデータを、認識距離画像データ230aと表記する。本実施例では、所定の物体を鞍馬として説明を行う。
入力部210は、認識装置200に各種の情報を入力するための入力装置である。たとえば、入力部210は、キーボードやマウス、タッチパネルなどに対応する。
表示部220は、制御部240から出力される情報を表示する表示装置である。たとえば、表示部220は、液晶ディスプレイやタッチパネルなどに対応する。
記憶部230は、認識距離画像データ230aと、背景距離画像データ230bと、識別器データ130fと、骨格推定器データ130gとを有する。記憶部130は、RAM、ROM、フラッシュメモリなどの半導体メモリ素子や、HDDなどの記憶装置に対応する。
認識距離画像データ230aは、認識時において、距離センサ20により測定された距離画像データである。認識距離画像データ230aは、位置(ピクセル)毎に、距離センサ20から対象者および物体までの距離を示すデータである。
背景距離画像データ230bは、対象者が存在しない状態で、距離センサ20により撮影された背景のみの距離画像データである。図4に記された所定の物体は、この背景距離画像データには存在する(所定の物体は、人物の前に存在したとしても、ここでは背景と記載する)。取得部240aは、予め、距離センサ20から、背景距離画像データ230bを取得し、記憶部230に格納しておく。
識別器データ130fは、学習装置100により生成される識別器データである。識別器データ130fのデータ構造は、図8で説明したデータ構造に対応する。
骨格推定器データ130gは、学習装置100により生成される骨格推定器データである。
制御部240は、取得部240a、除去部240b、判定部240c、認識部240dを有する。制御部240は、CPUやMPUなどによって実現できる。また、制御部240は、ASICやFPGAなどのハードワイヤードロジックによっても実現できる。
取得部240aは、距離センサ20から、認識距離画像データ230aを取得し、記憶部230に格納する。取得部240aは、学習装置100から、識別器データ130fおよび骨格推定器データ130gを取得し、取得した識別器データ130fおよび骨格推定器データ130gを、記憶部230に格納する。
除去部240bは、認識距離画像データ230aと背景距離画像データ230bとの差分を取ることで、認識距離画像データ230aから、背景、および、所定の物体の情報を除去する処理部である。除去部240bは、認識距離画像データ230aから、背景の情報を除去した距離画像データを、判定部240cに出力する。以下の説明では、認識距離画像データ230aから、背景の情報を除去した距離画像データを、単に「距離画像データ」と表記する。
判定部240cは、識別器データ130fまたは骨格推定器データ130gを選択して、部位ラベルの判定または関節位置の判定を行う処理部である。
判定部240cが、識別器データ130fを選択して、部位ラベルの判定を行う処理について説明する。判定部240cは、除去部240bから取得した距離画像データと、識別器データ130fとを基にして、距離画像データの位置(ピクセル)毎に、対応する部位ラベルを判定する。
たとえば、判定部240cは、距離画像データの周辺の特徴量と、識別器データ130fの各分岐ノードfとを比較して、各分岐ノードfを辿り、辿った先のリーフノードRに示される部位ラベルを、判定結果の部位ラベルとする。判定部240cは、他のピクセルについても、上記処理を繰り返し実行することで、全距離画像データに対応する部位ラベルを判定する。判定部240cは、距離画像データの各位置と、部位ラベルとを対応づけた第1判定結果を、認識部240dに出力する。
判定部240cが、骨格推定器データ130gを選択して、関節位置の判定を行う処理について説明する。判定部240cは、除去部240bから取得した距離画像データと、骨格推定器データ130gとを基にして、距離画像データから、対応する関節位置を推定する。
たとえば、判定部240cは、ディープニューラルネットワークなどを用い、距離画像データから、関節位置とを対応づけた第2判定結果を、認識部240dに出力する。
認識部240dは、判定部240cの第1判定結果または第2判定結果を基にして、対象者の姿勢を認識する処理部である。たとえば、認識部240dは、第1判定結果に含まれる人体の部位ラベルを基にして、3次元位置を複数持った人体の骨格モデルを複数提案する。認識部240dは、複数の骨格モデルの中から最も尤度の高い骨格モデルを選択し、選択した骨格モデルに基づき、対象者の姿勢を認識する。
認識部240dは、第2判定結果に含まれる人体の関節位置を基にして、骨格モデルを生成し、生成した骨格モデルに基づき、対象者の姿勢を認識する。
次に、本実施例に係る学習装置の処理手順および認識装置200の処理手順について説明する。図10は、本実施例に係る学習装置の処理手順を示すフローチャートである。図10に示すように、学習装置100の取得部140aは、モーションキャプチャ装置10からモーションキャプチャデータ130aを取得する(ステップS101)。
学習装置100の生成部140bは、人体モデルデータ130bを生成する(ステップS102a)。生成部140bは、物体モデルデータ130cを生成する(ステップS102b)。なお、生成部140bは、予め生成された物体モデルデータを、物体モデルデータ130cとして用いても良い。
生成部140bは、動きに応じた複数の人体モデルと物体モデルとを合成した合成モデルデータを生成する(ステップS103)。生成部140bは、合成モデルテーブル130dから冗長性を除去する(ステップS104)。
生成部140bは、合成モデルデータを基にして、学習画像テーブル130eに、部位ラベル画像データ、距離画像データを登録する(ステップS105)。
学習装置100の修正部140cは、距離画像データのうち、部位ラベル「物体」に対応する位置の距離を無限遠に修正し、部位ラベル画像データの物体の部位ラベルを背景と同一に修正する(ステップS106)。
生成部140bは、関節位置データを生成し、学習画像テーブル130eに登録する(ステップS107)。
学習装置100の学習部140dは、距離画像データと部位ラベル画像データとを基にして、識別器を生成する場合には(ステップS108,Yes)、ステップS109に移行する。学習部140dは、距離画像データと部位ラベル画像データとを基にして、識別器を生成しない場合には(ステップS108,No)、ステップS111に移行する。
学習部140dは、距離画像データの特徴量と部位ラベルとの関係を機械学習し、識別器データ130fを生成する(ステップS109)。学習装置100の通知部140eは、識別器データ130fを、認識装置100に通知する(ステップS110)。
学習部140dは、距離画像データの特徴量と関節位置との関係を機械学習し、骨格推定器データ130gを生成する(ステップS111)。学習装置100の通知部140eは、骨格推定器データ130fを、認識装置100に通知する(ステップS112)。
図11は、本実施例に係る認識装置の処理手順を示すフローチャート(1)である。図11の処理では、認識装置200は、識別器データ130fを用いて処理を行うものとする。認識装置200の取得部240aは、距離センサ20から認識距離画像データ230aを取得する(ステップS201)。
認識装置200の除去部240bは、認識距離画像データ230aから背景、および、所定の物体を除去する(ステップS202)。認識装置200の判定部240cは、識別器データ130fと距離画像データとを基にして、距離画像データに含まれる人体の各部位ラベルを判定する(ステップS203)。
認識装置200の認識部240dは、人体の各部位ラベルを基にして、対象者の姿勢を認識する(ステップS205)。
図12は、本実施例に係る認識装置の処理手順を示すフローチャート(2)である。図12の処理では、認識装置200は、骨格推定器データ130gを用いて処理を行うものとする。認識装置200の取得部240aは、距離センサ20から認識距離画像データ230aを取得する(ステップS301)。
認識装置200の除去部240bは、認識距離画像データ230aから背景、および、所定の物体を除去する(ステップS302)。認識装置200の判定部240cは、骨格推定器データ130gと距離画像データとを基にして、距離画像データに含まれる人体の関節位置を判定する(ステップS303)。
認識装置200の認識部240dは、人体の関節位置を基にして、対象者の姿勢を認識する(ステップS304)。
次に、本実施例に係る学習装置100および認識装置200の効果について説明する。学習装置100の生成部140bは、人体モデルデータ130bと物体モデルデータ130cとを合成した合成モデルデータを基にして、距離画像データと部位ラベル画像とを対応づけた学習画像を複数生成する。学習装置100は、距離画像データの物体の領域に対応する値を、背景の値と同様の値に修正し、複数の学習画像を機械学習することにより、距離画像データの特徴と、人体の部位ラベルとを対応づけた第1識別器データ130fを生成する。この第1識別器データ130fは、距離画像データの特徴と、人体の部位ラベルとを対応づけた識別器であるため、距離画像取得時に人体と物体とが同時に存在する場合でも、物体の影響を除去して、距離画像データから、人体の各部位ラベルを特定することができる。
学習装置100は、距離画像データと関節位置データとを対応づけた学習画像を複数生成する。学習装置100は、複数の学習画像を機械学習することにより、距離画像データの特徴と、人体の関節位置とを対応づけた骨格推定器データ130gを生成する。この骨格推定器データ130gは、距離画像データの特徴と、人体の関節位置とを対応づけた識別器であるため、距離画像取得時に人体と物体とが同時に存在する場合でも、物体の影響を除去して、人体の関節位置を特定することができる。
認識装置200は、距離センサ20から取得する認識距離画像データ230aから背景、および、所定の物体を取り除いた距離画像データおよび識別器データ130fを用いて、対象者の部位ラベルを判定する。このため、距離画像取得時に、人体と物体とが同時に存在する場合でも、物体の影響を除去して、距離画像データの人体の部位ラベルを特定することができる。すなわち、物体によるオクルージョンが存在しても、正しい部位認識を行うことができる。
認識装置200は、距離センサ20から取得する認識距離画像データ230aから背景、および、所定の物体を取り除いた距離画像データおよび骨格推定器データ130gを用いて、対象者の関節位置を判定する。このため、距離画像取得時に、人体と物体とが同時に存在する場合でも、物体の影響を除去して人体の関節位置を特定することができる。すなわち、物体によるオクルージョンが存在しても、正しい部位認識を行うことができる。
ところで、上述した実施例の内容は一例であり、学習装置100および認識装置200の処理は、上記の処理に限られるものではない。以下では、その他の処理1〜3について説明する。
その他の処理1について説明する。上記の処理では、学習装置100は、距離画像データに含まれる人体の各部位および物体の部位のうち、物体の部位の領域の値を、背景の値に修正していたがこれに限定されるものではない。たとえば、学習装置100の修正部140cは、距離画像データについて、人体の髪の部位に対応する領域の値も、背景の値に修正する。また、修正部140cは、部位ラベル画像データの人体の髪の部分の部位ラベルを背景に修正しても良い。たとえば、髪の色が黒色である場合には、距離センサ20のレーザ光が反射されず、距離画像データから消失する場合がある。このため、人物の髪の部位を予め取り除いて、学習画像を生成し、識別器データ130fを生成することで、より、部位ラベルの認識精度を向上させることができる。
その他の処理2について説明する。上記の説明では、学習装置100は、距離画像データと、人体の関節位置を全て含んだ関節位置データとのパターンを繰り返し学習することで、骨格推定器データ130gを生成していたが、これに限定されるものではない。たとえば、学習装置100の学習部140dは、人体の関節位置が、物体の影響で一部取得できない場合でも、距離画像データと、人体の関節位置(物体の影響により一部欠落)を含んだ関節位置データとのパターンを繰り返し学習することで、骨格推定器データ130gを生成しても良い。
その他の処理3について説明する。上記の処理では、学習装置100が識別器データ130f、骨格推定器データ130gを生成し、認識装置200が識別器データ130f、骨格推定器データ130gを用いて対象者の姿勢を認識していたがこれに限定されるものではない。たとえば、学習装置100および認識装置200の処理を行う距離画像処理装置が、上記実施例に対応する処理を実行しても良い。たとえば、距離画像処理装置は、「学習フェーズ」において、図2の制御部140と同様の処理を実行することで、識別器データ130f、骨格推定器データ120gを生成する。距離画像処理装置は、「認識フェーズ」において、学習フェーズで学習しておいた識別器データ130f、骨格推定器データ130gを用いて、図9に示した制御部240と同様の処理を実行し、対象者の姿勢を認識する。
次に、上記実施例に示した学習装置100および認識装置200と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図13は、学習装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図13に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、有線または無線ネットワークを介して他のコンピュータ(キャリブレーション装置10等)との間でデータの授受を行うインターフェース装置305とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301〜307は、バス308に接続される。
ハードディスク装置307は、取得プログラム307a、生成プログラム307b、修正プログラム307c、学習プログラム307d、通知プログラム307eを有する。CPU301は、取得プログラム307a、生成プログラム307b、修正プログラム307c、学習プログラム307d、通知プログラム307eを読み出してRAM306に展開する。
取得プログラム307aは、取得プロセス306aとして機能する。生成プログラム307bは、生成プロセス306bとして機能する。修正プログラム307cは、修正プロセス306cとして機能する。学習プログラム307dは、学習プロセス306dとして機能する。通知プログラム307eは、通知プロセス306eとして機能する。
取得プロセス306aの処理は、取得部140aの処理に対応する。生成プロセス306bの処理は、生成部140bの処理に対応する。修正プロセス306cの処理は、修正部140cの処理に対応する。学習プロセス306dの処理は、学習部140dの処理に対応する。通知部プロセス306eの処理は、通知部140eの処理に対応する。
なお、各プログラム307a〜307eについては、必ずしも最初からハードディスク装置307に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a〜307eを読み出して実行するようにしても良い。
図14は、認識装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図14に示すように、コンピュータ400は、各種演算処理を実行するCPU401と、ユーザからのデータの入力を受け付ける入力装置402と、ディスプレイ403とを有する。また、コンピュータ400は、記憶媒体からプログラム等を読み取る読み取り装置404と、有線または無線ネットワークを介して他のコンピュータ(モーションキャプチャ装置10等)との間でデータの授受を行うインターフェース装置405とを有する。また、コンピュータ400は、各種情報を一時記憶するRAM406と、ハードディスク装置407とを有する。そして、各装置401〜407は、バス408に接続される。
ハードディスク装置407は、取得プログラム407a、除去プログラム407b、判定プログラム407c、認識プログラム407dを有する。CPU401は、取得プログラム407a、除去プログラム407b、判定プログラム407c、認識プログラム407dを読み出してRAM406に展開する。
取得プログラム407aは、取得プロセス406aとして機能する。除去プログラム407bは、除去プロセス406bとして機能する。判定プログラム407cは、判定プロセス406cとして機能する。認識プログラム407dは、認識プロセス406dとして機能する。
取得プロセス406aの処理は、取得部240aの処理に対応する。除去プロセス406bの処理は、除去部240bの処理に対応する。判定プロセス406cの処理は、判定部240cの処理に対応する。認識部プロセス406dの処理は、認識部240dの処理に対応する。
なお、各プログラム407a〜407dについては、必ずしも最初からハードディスク装置407に記憶させておかなくても良い。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ400が各プログラム407a〜407dを読み出して実行するようにしても良い。
10 モーションキャプチャ装置
20 距離センサ
100 学習装置
200 認識装置

Claims (19)

  1. 人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から前記人体の各位置または前記物体の各位置までの距離を示す距離画像と、前記人体の各部位または前記物体の部位を識別する部位画像とを対応づけた学習画像を複数生成する生成部と、
    前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記物体の部位に対応する領域の値を修正する修正部と、
    修正された距離画像を有する複数の学習画像を基にして、前記距離画像の特徴と、前記人体の部位または前記物体の部位とを対応づけた識別器を学習する学習部と
    を有することを特徴とする距離画像処理装置。
  2. 前記生成部は、前記合成モデルを基にして、前記距離画像と、前記人体の各関節位置とを対応づけた他の学習画像を複数生成し、前記学習部は、前記他の学習画像を複数用いて、骨格推定器を学習することを特徴とする請求項1に記載の距離画像処理装置。
  3. 前記修正部は、前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記人体の髪の部位に対応する領域の値を更に修正することを特徴とする請求項2に記載の距離画像処理装置。
  4. 前記修正部は、前記物体の部位に対応する領域の値および前記人体の髪の部位に対応する領域の値を、前記距離画像の背景に対応する値と同じ値に修正することを特徴とする請求項3に記載の距離画像処理装置。
  5. 距離センサから対象者、物体および背景を含んだ距離画像を取得する取得部と、前記対象者、物体および背景を含んだ距離画像から背景、および、物体を取り除くことで対象者距離画像を生成する除去部と、前記対象者距離画像と前記識別器とを基にして、前記対象者距離画像の位置と、前記人体の部位とを関係を判定する判定部と、前記判定部の判定結果を基にして前記対象者距離画像に含まれる前記人体の各部位の関係から前記対象者の姿勢を認識する認識部とを更に有することを特徴とする請求項4に記載の距離画像処理装置。
  6. 前記判定部は、前記対象者距離画像と前記骨格推定器とを基にして、前記対象者の関節位置を判定することを特徴とする請求項5に記載の距離画像処理装置。
  7. 学習装置と認識装置とを有する距離画像処理システムであって、
    前記学習装置は、
    人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から前記人体の各位置または前記物体の各位置までの距離を示す距離画像と、前記人体の各部位または前記物体の部位を識別する部位画像とを対応づけた学習画像を複数生成する生成部と、
    前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記物体の部位に対応する領域の値を修正する修正部と、
    修正された距離画像を有する複数の学習画像を基にして、前記距離画像の特徴と、前記人体の部位または前記物体の部位とを対応づけた識別器を学習する学習部とを有し、
    前記認識装置は、
    距離センサから対象者、物体および背景を含んだ距離画像を取得する取得部と、
    前記対象者、物体および背景を含んだ距離画像から背景、および、物体を取り除くことで対象者距離画像を生成する除去部と、
    前記対象者距離画像と前記識別器とを基にして、前記対象者距離画像の位置と、前記人体の部位とを関係を判定する判定部と、
    前記判定部の判定結果を基にして前記対象者距離画像に含まれる前記人体の各部位の関係から前記対象者の姿勢を認識する認識部とを有する
    ことを特徴とする距離画像処理システム。
  8. コンピュータが実行する距離画像処理方法であって、
    人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から前記人体の各位置または前記物体の各位置までの距離を示す距離画像と、前記人体の各部位または前記物体の部位を識別する部位画像とを対応づけた学習画像を複数生成し、
    前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記物体の部位に対応する領域の値を修正し、
    修正された距離画像を有する複数の学習画像を基にして、前記距離画像の特徴と、前記人体の部位または前記物体の部位とを対応づけた識別器を学習する
    処理を実行することを特徴とする距離画像処理方法。
  9. 前記生成する処理は、前記合成モデルを基にして、前記距離画像と、前記人体の各関節位置とを対応づけた他の学習画像を複数生成し、前記学習する処理は、前記他の学習画像を複数用いて、骨格推定器を学習することを特徴とする請求項8に記載の距離画像処理方法。
  10. 前記修正する処理は、前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記人体の髪の部位に対応する領域の値を更に修正することを特徴とする請求項9に記載の距離画像処理方法。
  11. 前記修正する処理は、前記物体の部位に対応する領域の値および前記人体の髪の部位に対応する領域の値を、前記距離画像の背景に対応する値と同じ値に修正することを特徴とする請求項10に記載の距離画像処理方法。
  12. 距離センサから対象者、物体および背景を含んだ距離画像を取得し、前記対象者、物体および背景を含んだ距離画像から背景、および、物体を取り除くことで対象者距離画像を生成し、前記対象者距離画像と前記識別器とを基にして、前記対象者距離画像の位置と、前記人体の部位とを関係を判定し、判定結果を基にして前記対象者距離画像に含まれる前記人体の各部位の関係から前記対象者の姿勢を認識する処理を更に実行することを特徴とする請求項11に記載の距離画像処理方法。
  13. 前記対象者距離画像と前記骨格推定器とを基にして、前記対象者の関節位置を判定する処理を更に実行することを特徴とする請求項12に記載の距離画像処理方法。
  14. コンピュータに、
    人体の3次元モデルと物体の3次元モデルとを合成した合成モデルを基にして、基準位置から前記人体の各位置または前記物体の各位置までの距離を示す距離画像と、前記人体の各部位または前記物体の部位を識別する部位画像とを対応づけた学習画像を複数生成し、
    前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記物体の部位に対応する領域の値を修正し、
    修正された距離画像を有する複数の学習画像を基にして、前記距離画像の特徴と、前記人体の部位または前記物体の部位とを対応づけた識別器を学習する
    処理を実行させることを特徴とする距離画像処理プログラム。
  15. 前記生成する処理は、前記合成モデルを基にして、前記距離画像と、前記人体の各関節位置とを対応づけた他の学習画像を複数生成し、前記学習する処理は、前記他の学習画像を複数用いて、骨格推定器を学習することを特徴とする請求項14に記載の距離画像処理プログラム。
  16. 前記修正する処理は、前記学習画像の距離画像と部位画像とを基にして、前記距離画像の領域のうち、前記人体の髪の部位に対応する領域の値を更に修正することを特徴とする請求項15に記載の距離画像処理プログラム。
  17. 前記修正する処理は、前記物体の部位に対応する領域の値および前記人体の髪の部位に対応する領域の値を、前記距離画像の背景に対応する値と同じ値に修正することを特徴とする請求項16に記載の距離画像処理プログラム。
  18. 距離センサから対象者、物体および背景を含んだ距離画像を取得し、前記対象者、物体および背景を含んだ距離画像から背景、および、物体を取り除くことで対象者距離画像を生成し、前記対象者距離画像と前記識別器とを基にして、前記対象者距離画像の位置と、前記人体の部位とを関係を判定し、判定結果を基にして前記対象者距離画像に含まれる前記人体の各部位の関係から前記対象者の姿勢を認識する処理を更に実行することを特徴とする請求項17に記載の距離画像処理プログラム。
  19. 前記対象者距離画像と前記骨格推定器とを基にして、前記対象者の関節位置を判定する処理を更に実行することを特徴とする請求項18に記載の距離画像処理プログラム。
JP2019516863A 2017-05-12 2017-05-12 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム Active JP6809604B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/018107 WO2018207365A1 (ja) 2017-05-12 2017-05-12 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2018207365A1 true JPWO2018207365A1 (ja) 2020-02-27
JP6809604B2 JP6809604B2 (ja) 2021-01-06

Family

ID=64104493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019516863A Active JP6809604B2 (ja) 2017-05-12 2017-05-12 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム

Country Status (5)

Country Link
US (1) US11138419B2 (ja)
EP (1) EP3624052A4 (ja)
JP (1) JP6809604B2 (ja)
CN (1) CN110651298B (ja)
WO (1) WO2018207365A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6860066B2 (ja) 2017-05-12 2021-04-14 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
CN110942422A (zh) * 2018-09-21 2020-03-31 北京市商汤科技开发有限公司 一种图像处理方法、装置和计算机存储介质
JP6684336B1 (ja) * 2018-11-15 2020-04-22 株式会社ドワンゴ データ補正装置およびプログラム
JP7271915B2 (ja) * 2018-11-22 2023-05-12 コニカミノルタ株式会社 画像処理プログラムおよび画像処理装置
TWI715903B (zh) * 2018-12-24 2021-01-11 財團法人工業技術研究院 動作追蹤系統及方法
US11488317B2 (en) 2020-11-23 2022-11-01 Sony Group Corporation Neural network model based depth estimation
CN114902299A (zh) * 2020-12-31 2022-08-12 商汤国际私人有限公司 图像中关联对象的检测方法、装置、设备和存储介质
WO2023162223A1 (ja) * 2022-02-28 2023-08-31 富士通株式会社 学習プログラム、生成プログラム、学習方法および生成方法
US20230282002A1 (en) 2022-03-07 2023-09-07 Woven By Toyota, Inc. Apparatus and method for modifying ground truth for checking accuracy of machine learning model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
JP2004226197A (ja) 2003-01-22 2004-08-12 Seiko Epson Corp 物体識別方法および物体識別装置、並びに物体識別プログラム
JP2007310707A (ja) 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
US20110227923A1 (en) 2008-04-14 2011-09-22 Xid Technologies Pte Ltd Image synthesis method
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
WO2010130245A1 (de) * 2009-05-11 2010-11-18 Universität Zu Lübeck Verfahren zur echtzeitfähigen, rechnergestützten analyse einer eine veränderliche pose enthaltenden bildsequenz
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8625897B2 (en) * 2010-05-28 2014-01-07 Microsoft Corporation Foreground and background image segmentation
JP2012120647A (ja) 2010-12-07 2012-06-28 Alpha Co 姿勢検出装置
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
JP2013058174A (ja) * 2011-09-09 2013-03-28 Fujitsu Ltd 画像処理プログラム、画像処理方法および画像処理装置
KR101763778B1 (ko) * 2011-09-30 2017-08-01 인텔 코포레이션 깊이 영상들에서 사람의 머리 부위 검출
KR101283262B1 (ko) * 2011-10-21 2013-07-11 한양대학교 산학협력단 영상 처리 방법 및 장치
US8666149B2 (en) 2012-08-01 2014-03-04 Chevron U.S.A. Inc. Method for editing a multi-point facies simulation
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP2016091108A (ja) 2014-10-30 2016-05-23 パナソニックIpマネジメント株式会社 人体部位検出システムおよび人体部位検出方法
US10248993B2 (en) 2015-03-25 2019-04-02 Optitex Ltd. Systems and methods for generating photo-realistic images of virtual garments overlaid on visual images of photographic subjects
JP2016212688A (ja) 2015-05-11 2016-12-15 日本電信電話株式会社 関節位置推定装置、方法、及びプログラム
US10477200B2 (en) 2017-04-13 2019-11-12 Facebook, Inc. Panoramic camera systems
JP6860066B2 (ja) 2017-05-12 2021-04-14 富士通株式会社 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015186436A1 (ja) * 2014-06-06 2015-12-10 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム

Also Published As

Publication number Publication date
EP3624052A1 (en) 2020-03-18
CN110651298B (zh) 2023-07-25
EP3624052A4 (en) 2020-03-18
US20200042782A1 (en) 2020-02-06
JP6809604B2 (ja) 2021-01-06
WO2018207365A1 (ja) 2018-11-15
CN110651298A (zh) 2020-01-03
US11138419B2 (en) 2021-10-05

Similar Documents

Publication Publication Date Title
JP6809604B2 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
JP6860066B2 (ja) 距離画像処理装置、距離画像処理システム、距離画像処理方法および距離画像処理プログラム
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
Xu et al. Efficient hand pose estimation from a single depth image
US11763603B2 (en) Physical activity quantification and monitoring
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
KR101378216B1 (ko) 모션 캡처 라벨링 시스템, 방법, 저장 매체, 장치
JP6760490B2 (ja) 認識装置、認識方法および認識プログラム
JP2009265732A (ja) 画像処理装置及びその方法
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
US11423561B2 (en) Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
WO2020184006A1 (ja) 画像処理装置、画像処理方法及び非一時的なコンピュータ可読媒体
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016152467A (ja) 追尾装置、追尾方法及び追尾プログラム
WO2022190206A1 (ja) 骨格認識方法、骨格認識プログラムおよび体操採点支援システム
US20230112148A1 (en) Frame Selection for Image Matching in Rapid Target Acquisition
WO2023062762A1 (ja) 推定プログラム、推定方法および情報処理装置
WO2023162223A1 (ja) 学習プログラム、生成プログラム、学習方法および生成方法
WO2023012915A1 (ja) 姿勢特定プログラム、姿勢特定方法および情報処理装置
JP2018097795A (ja) 法線推定装置、法線推定方法、及び法線推定プログラム
CN118103866A (zh) 估计程序、估计方法以及信息处理装置
CN114830183A (zh) 信息处理装置、信息处理方法和信息处理程序

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201123

R150 Certificate of patent or registration of utility model

Ref document number: 6809604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150