JP2021144358A - Learning apparatus, estimation apparatus, learning method, and program - Google Patents
Learning apparatus, estimation apparatus, learning method, and program Download PDFInfo
- Publication number
- JP2021144358A JP2021144358A JP2020041376A JP2020041376A JP2021144358A JP 2021144358 A JP2021144358 A JP 2021144358A JP 2020041376 A JP2020041376 A JP 2020041376A JP 2020041376 A JP2020041376 A JP 2020041376A JP 2021144358 A JP2021144358 A JP 2021144358A
- Authority
- JP
- Japan
- Prior art keywords
- depth image
- specific part
- human body
- model
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、学習装置、推定装置、学習方法、及びプログラムに関する。 The present invention relates to a learning device, an estimation device, a learning method, and a program.
これまでに、深度画像から人体部位の頭、肩、首、肘など、人体骨格を推定する認識処理の研究が行われている。この認識処理では、人体の三次元モデルを生成した上で、その三次元モデルでの各部位(頭・肩など)が、どのような深度分布になっているかを機械学習させて、人体の各骨格位置を推定している。この推定において、三次元モデルの視えている部分のみを機械学習した場合、例えば、腕を前にすることによって肩が視えなくなると、肩の関節位置を推定できなくなることがある。 So far, research has been conducted on recognition processing that estimates the human skeleton such as the head, shoulders, neck, and elbows of human body parts from depth images. In this recognition process, after generating a three-dimensional model of the human body, machine learning is performed to learn what kind of depth distribution each part (head, shoulder, etc.) in the three-dimensional model has, and each part of the human body. The skeletal position is estimated. In this estimation, if only the visible part of the three-dimensional model is machine-learned, for example, if the shoulder cannot be seen by putting the arm in front, the shoulder joint position may not be estimated.
特許文献1には、深度画像を用いて、分析対象が視える可視部分だけでなく、他部位で隠れて視えない隠し部分の部位を認識することができる技術が開示されている。特許文献1では、分類ツリーを用いて、分析対象が可視部分であるか、隠し部分であるかを認識する。その結果から、その分析対象部分の深度値を復元して、各部位を推定している。この分類ツリーは学習させて、認識性能を向上させている。
また、非特許文献1には、深度画像から人体の関節位置の座標を推定する技術が開示されている。非特許文献1では、可視部分の人体部位を分類する分類ツリーで各最終ノードに分類される類似部位の位置から関節位置を回帰分析により推定し、隠れた部位でも推定できる。
Further, Non-Patent
しかしながら、特許文献1では、可視部分及び隠し部分の両方を入力として、分類ツリーから分析対象が可視部分であるか、隠し部分であるかを認識しているため、認識処理に大量のデータが必要となり、処理の複雑化、又は、処理時間の長期化するおそれがある。また、非特許文献1では、人体の全身部位をマルチクラス分類しているため、非特許文献1でも、処理の複雑化、又は、処理時間の長期化するおそれがある。
However, in
本発明の目的の一例は、人体の隠れた部位の位置を推定できる識別モデルを生成する学習装置、学習方法、及びプログラム、並びに、その識別モデルを用いた推定装置を提供することにある。 An example of an object of the present invention is to provide a learning device, a learning method, and a program for generating a discriminative model capable of estimating the position of a hidden part of the human body, and an estimation device using the discriminative model.
上記目的を達成するため、本発明の一側面における学習装置は、
人体の三次元モデルを生成する三次元モデル生成部と、
前記三次元モデルの深度画像を生成する深度画像生成部と、
前記特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択する第1選択部と、
前記人体の特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択する第2選択部と、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成する、第1生成部と、
を備える。
In order to achieve the above object, the learning device in one aspect of the present invention is
A 3D model generator that generates a 3D model of the human body,
A depth image generator that generates a depth image of the three-dimensional model,
A first selection unit that selects a depth image of a second specific part region including the specific part from a depth image of the three-dimensional model in which the specific part is hidden by another part.
A second selection unit that selects a depth image of a first specific part region including the specific part from a depth image of the three-dimensional model in a posture in which the specific part of the human body is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. , 1st generation part,
To be equipped.
上記目的を達成するため、本発明の一側面における推定装置は、
撮像装置から深度画像を取得する深度画像取得部と、
取得された前記深度画像に、人体の首を含む領域を推定し、推定した前記領域に基づいて、前記深度画像から人を検出する人検出部と、
前記人が検出された場合、前記領域内における深度分布に基づいて、前記首の周囲にある人体の特定部位の位置を、第1識別モデルを用いて推定する位置推定部と、
を備え、
前記第1識別モデルは、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像が選択され、前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像が選択され、前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて生成されている。
In order to achieve the above object, the estimation device in one aspect of the present invention is
A depth image acquisition unit that acquires a depth image from an image pickup device,
A human detection unit that estimates a region including the neck of the human body in the acquired depth image and detects a person from the depth image based on the estimated region.
When the person is detected, a position estimation unit that estimates the position of a specific part of the human body around the neck based on the depth distribution in the region by using the first discriminative model.
With
The first discriminative model is
From the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part, the depth image of the first specific part region including the specific part is selected, and the specific part is hidden by the other part. A depth image of the second specific part region including the specific part is selected from the depth image of the three-dimensional model having no posture, and the depth image of the first specific part region and the depth image of the second specific part region are selected. Is generated based on.
また、上記目的を達成するため、本発明の一側面における学習方法は、
人体の三次元モデルを生成するステップと、
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を備える。
Further, in order to achieve the above object, the learning method in one aspect of the present invention is:
Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
To be equipped.
更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
人体の三次元モデルを生成するステップと、
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を実行させる命令を含む。
Further, in order to achieve the above object, the program in one aspect of the present invention is:
On the computer
Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
Includes instructions to execute.
以上のように本発明によれば、撮像装置で撮像された深度画像において、人体の特定部位が他の部位で隠れていても、その特定部位の位置の推定を可能にできる。 As described above, according to the present invention, even if a specific part of the human body is hidden by another part in the depth image captured by the imaging device, it is possible to estimate the position of the specific part.
以下、本発明の一実施形態における学習装置および学習方法について、図1〜図11を参照しながら説明する。 Hereinafter, the learning device and the learning method according to the embodiment of the present invention will be described with reference to FIGS. 1 to 11.
[装置構成]
図1は、学習装置10の構成図である。
[Device configuration]
FIG. 1 is a configuration diagram of the
学習装置10は、撮像装置で撮像された深度画像(以下、撮像画像と言う)から、人体の特定部位の位置を推定するための識別モデルを学習させるための装置である。学習装置10は、生成した人体の三次元モデルを用いて、識別モデルを学習させていくことで、撮像画像から人体の特定部位の位置を推定する精度を高めることを可能としている。
The
学習装置10は、三次元モデル生成部1と、深度画像生成部2と、第1選択部3と、第2選択部4と、第1生成部5と、を備えている。
The
三次元モデル生成部1は、人体の三次元モデルを生成する。
The three-dimensional
深度画像生成部2は、生成された三次元モデルの深度画像を生成する。
The depth
第1選択部3は、人体の特定部位が他の部位で隠れた姿勢の三次元モデルの深度画像から、特定部位を含む第1特定部位領域の深度画像を選択する。「特定部位」は、人体の頭、肩又は首である。また、「他の部位」は、人体の三次元モデルを一方向から視たときに、特定部位の前方に位置することができる部位である。例えば、「特定部位」が「肩」である場合、「他の部位」は「腕」、「手」、「肘」などが相当する。そして、人体の特定部位が他の部位で隠れた姿勢とは、人体の三次元モデルを一方向から視たときに、特定部位の前方に、他の部位が位置した状態である。
The
以下の説明では、人体の特定部位が他の部位で隠れた姿勢を、特定部位にオクルージョンが発生した姿勢と言う場合もある。 In the following description, a posture in which a specific part of the human body is hidden by another part may be referred to as a posture in which occlusion occurs in the specific part.
第2選択部4は、人体の特定部位が他の部位で隠れていない姿勢の三次元モデルの深度画像から、特定部位を含む第2特定部位領域の深度画像を選択する。人体の特定部位が他の部位で隠れていない姿勢とは、人体の三次元モデルを一方向から視たときに、特定部位の前方に、他の部位が位置していない状態である。
The
以下の説明では、人体の特定部位が他の部位で隠れていない姿勢を、特定部位にオクルージョンが発生していない姿勢と言う場合もある。 In the following description, a posture in which a specific part of the human body is not hidden by another part may be referred to as a posture in which occlusion does not occur in the specific part.
第1生成部5は、第1特定部位領域の深度画像、及び、第2特定部位領域の深度画像に基づいて、撮像画像から人体の特定部位を識別するための第1識別モデルを生成する。
The
この構成の学習装置10によると、人体の特定部位が他の部位で隠れた姿勢の三次元モデル、及び、特定部位が隠れていない姿勢の三次元モデルそれぞれから、第1識別モデルを生成する。これにより、撮像装置で人を撮像して、その撮像画像から人体の特定部位の位置を推定する場合、撮像画像内の人の姿勢が、人体の特定部位が他の部位で隠れた姿勢であっても、隠れていない姿勢であっても、第1識別モデルを用いることで、その特定部位の位置の推定が可能となる。
According to the
続いて、図2〜図6を用いて、学習装置10の構成について具体的に説明する。
Subsequently, the configuration of the
図2は、学習装置10の具体的な構成を示すブロック図である。学習装置10は、三次元モデル生成部1、深度画像生成部2、第1選択部3、第2選択部4、及び第1生成部5に加え、第3選択部7と、第2生成部8と、第1識別モデル記憶部6と、第2識別モデル記憶部9とを備えている。
FIG. 2 is a block diagram showing a specific configuration of the
三次元モデル生成部1は、人体の三次元モデルを生成する。三次元モデルは、モーションキャプチャを利用して生成してもよいし、人体を撮像して得られた画像から生成してもよく、その生成方法は、特に限定されない。
The three-dimensional
深度画像生成部2は、三次元モデル生成部1により生成された三次元モデルの深度画像を生成する。深度画像は、カメラ位置から人体の各部位までの距離を示す距離情報を有した画像である。
The depth
第1選択部3は、生成された三次元モデルが、特定部位にオクルージョンが発生した姿勢である場合に、その三次元モデルの深度画像から、第1特定部位領域の深度画像を選択する。
When the generated three-dimensional model is in a posture in which occlusion occurs in a specific part, the
図3は、特定部位にオクルージョンが発生した姿勢の三次元モデルを示す図である。 FIG. 3 is a diagram showing a three-dimensional model of a posture in which occlusion occurs at a specific portion.
生成された三次元モデルは、手動、例えば学習装置10の操作者による操作、又は自動で動かされる。三次元モデルは、動かされることによって、特定部位が他の部位で隠れた姿勢となる。図3は、左肩が左腕で隠れた姿勢を示す。三次元モデルは生成されたものであるため、人体の各部位の位置は特定可能である。特定部位を左肩とする場合、第1選択部3は、左肩の位置を特定する。そして、第1選択部3は、その位置を中心とする矩形状の第1特定部位領域31を生成し、第1特定部位領域31の深度画像を選択する。
The generated three-dimensional model is manually operated, for example, operated by the operator of the
なお、図3の三次元モデルは、左肩が腕で隠れているため、第1選択部3が選択した第1特定部位領域31の深度画像には、人体の「左肩」の深度画像は含まれていない。
In the three-dimensional model of FIG. 3, since the left shoulder is hidden by the arm, the depth image of the first
第1選択部3は、左肩以外の特定部位に対しても同様に、三次元モデルが動かされた結果、他の部位で隠れた右肩、首又は頭の位置を特定し、特定した位置を中心とする矩形状の第1特定部位領域31を生成し、その第1特定部位領域31の深度画像を選択する。また、第1選択部3は、図3に示す正面から視た三次元モデルだけでなく、人体の側方又は上方などから視た三次元モデルに対しても同様に、特定部位を含む第1特定部位領域31の深度画像を選択する。このように、第1選択部3は、多様に動かされ、多方向から視た三次元モデルの深度画像に、第1特定部位領域31を生成し、その第1特定部位領域31の深度画像を随時選択する。
Similarly, the
第2選択部4は、生成された三次元モデルが、特定部位にオクルージョンが発生していない姿勢である場合に、その三次元モデルの深度画像から、第2特定部位領域の深度画像を選択する。
The
図4は、特定部位にオクルージョンが発生していない姿勢の三次元モデルを示す図である。 FIG. 4 is a diagram showing a three-dimensional model of a posture in which occlusion does not occur in a specific part.
三次元モデルが、特定部位が他の部位で隠れていない姿勢である場合、特定部位を左肩とすると、第2選択部4は、左肩の位置を特定し、その位置を中心とする矩形状の第2特定部位領域32を生成し、その第2特定部位領域32の深度画像を選択する。なお、第2特定部位領域32の大きさは、第1特定部位領域31の大きさと同じであることが好ましい。
When the three-dimensional model is in a posture in which a specific part is not hidden by another part and the specific part is the left shoulder, the
第2選択部4は、左肩以外の特定部位に対しても同様に、オクルージョンが発生していない姿勢の三次元モデルにおける右肩、首又は頭の位置を特定し、特定した位置を中心とする矩形状の第2特定部位領域32を生成し、その第2特定部位領域32の深度画像を選択する。また、第2選択部4は、図4に示す正面から視た三次元モデルだけでなく、人体の側方又は上方などから視た三次元モデルに対しても同様に、特定部位を含む第2特定部位領域32の深度画像を選択する。このように、第2選択部4は、多様に動かされ、多方向から視た三次元モデルの深度画像に第2特定部位領域32を生成し、その第2特定部位領域32の深度画像を随時選択する。
Similarly, the
第1生成部5は、第1選択部3が選択した、第1特定部位領域31の深度画像、及び、第2選択部4が選択した、第2特定部位領域32の深度画像それぞれの深度分布を特徴量として学習して、第1識別モデルとして生成する。
The
第1生成部5は、生成した第1識別モデルを、第1識別モデル記憶部6に記憶する。第1識別モデル記憶部6は、第1識別モデルを記憶する記憶装置である。なお、第1識別モデル記憶部6は、学習装置10が備えていてもよいし、学習装置10の外部に設けられていてもよい。
The
第3選択部7は、生成された三次元モデルの深度画像から、人体の首を含む首領域の深度画像を選択する。
The
図5及び図6は、第3選択部7が選択する首領域33の深度画像を説明するための図である。上記のように、三次元モデルは生成されたものであるため、人体の各部位の位置は特定される。第3選択部7は、三次元モデルにおける「首」の位置を特定し、その位置を中心とする矩形状の首領域33を生成し、その首領域33の深度画像を選択する。
5 and 6 are diagrams for explaining a depth image of the
第3選択部7は、図5に示す正面から視た状態以外に、三次元モデルのあらゆる方向から視た状態で、人体の首を含む首領域の深度画像を選択する。図6は、三次元モデルの上方から視た三次元モデルを示している。図6の場合、三次元モデルの頭及び肩が視え、首が頭で隠れたオクルージョンが発生した姿勢となっている。この状態であっても、第3選択部7は、首の位置を特定し、特定した位置を中心とする矩形状の首領域33を生成し、その首領域33の深度画像を選択する。
The
第2生成部8は、選択された首領域33の深度画像の深度情報に基づいて、第2識別モデルを生成する。詳しくは、第2生成部8は、首領域33の深度画像の深度分布を特徴量として学習して、第2識別モデルとして生成する。
The second generation unit 8 generates a second discriminative model based on the depth information of the depth image of the selected
第2生成部8は、生成した第2識別モデルを、第2識別モデル記憶部9に記憶する。第2識別モデル記憶部9は、第2識別モデルを記憶する記憶装置である。なお、第2識別モデル記憶部9は、学習装置10が備えていてもよいし、学習装置10の外部に設けられていてもよい。
The second generation unit 8 stores the generated second identification model in the second identification
このように、学習装置10は、三次元モデルによる、第1識別モデル及び第2識別モデルを学習させる。第1識別モデル及び第2識別モデルは、撮像画像から人体の特定部位の位置を推定する推定装置で用いられる。第1識別モデルは、撮像画像から人体の特定部位である頭、肩又は首の位置を推定する際に用いられる。また、第2識別モデルは、撮像画像に人が写っているかの人検出を行う際に用いられる。以下に、その推定装置について説明する。
In this way, the
図7は、推定装置20の構成を示すブロック図である。
FIG. 7 is a block diagram showing the configuration of the
推定装置20は、撮像装置30から撮像画像を取得する。撮像装置30は、空間内の人を撮像するように、配置されている。撮像装置30は、人体の正面から撮像するように配置されてもよいし、側方又は上方から撮像するように配置されていてもよい。推定装置20は、取得した撮像画像から人を検出し、検出された人体の特定部位である、頭、肩又は首の二次元座標上の位置を推定する。頭、肩又は首の位置を推定することで、頭、肩又は首周囲の関節位置を推定できる。関節位置を推定することで、身振り手振りなどのジェスチャー動作を認識したり、人の姿勢を推定したりできるようになる。
The
なお、推定装置20と撮像装置30とは、それぞれ独立した装置で、データ通信可能に接続された構成であってもよいし、推定装置20が撮像装置30を備えた構成であってもよい。また、第1識別モデル記憶部6及び第2識別モデル記憶部9が、学習装置10の外部に設けられている場合、推定装置20は、第1識別モデル記憶部6及び第2識別モデル記憶部9に対してのみ、データ通信可能に接続された構成であってもよい。
The
推定装置20は、深度画像取得部21と、人検出部22と、位置推定部23と、関節位置推定部24とを備えている。
The
深度画像取得部21は、撮像装置30から撮像画像を取得する。
The depth
人検出部22は、取得された撮像画像に対して、人体の首を含む領域を推定し、推定した領域に基づいて、撮像画像から人を検出する。まず、人検出部22は、取得された撮像画像に含まれる距離情報に応じて、撮像画像の縮小画像を生成する。例えば、撮像画像内の人の大きさは、撮像装置30の近距離に位置する場合と遠距離に位置する場合とで、異なる。このため、人検出部22は、近距離の場合には縮小率を大きくした縮小画像を撮像画像から生成し、遠距離の場合には縮小率を小さくした縮小画像を撮像画像から生成する。
The
人検出部22は、生成した縮小画像内で、人体の首の位置を推定し、その推定した位置を含む領域を生成する。ここでは、人検出部22は、例えば、NMS(Non Maximum Suppression)を用いた処理により、領域を生成する。
The
第2識別モデルは、上記したように、三次元モデルから生成した、首を含む首領域33の深度画像の深度分布である。人検出部22は、撮像画像(具体的には縮小画像)に推定した領域の深度分布と、第2識別モデルと対比することで、推定した領域が首を含む領域であるかを判定し、首を含む領域であると判定すると、撮像画像には人が写っていると特定する。これにより、人検出部22は、撮像画像内の人を検出する。
The second discriminative model is the depth distribution of the depth image of the
ここで、人検出範囲とする矩形サイズの水平長さ(cm)と、首領域33の水平サイズ(ピクセル数)が決まっていて、撮像装置の画角と解像度とが決まっているとする。この場合、検出したい距離での人検出の水平長さが、撮像画像中の水平何ピクセルに相当するのかが計算できる。この水平のピクセル数が、特徴量の水平サイズピクセルに合うように撮像画像を縮小すると、首領域33を固定化して、縮小画像中から人検出することが可能となる。
Here, it is assumed that the horizontal length (cm) of the rectangular size used as the human detection range and the horizontal size (number of pixels) of the
位置推定部23は、撮像画像に人が検出されると、人検出部22が推定した領域内における深度分布に基づいて、首の周囲にある人体の特定部位である頭、肩又は首の位置を、第1識別モデルを用いて推定する。第1識別モデルは、オクルージョンが発生した姿勢の三次元モデル、及び、オクルージョンが発生していない姿勢の三次元モデルから生成された識別モデルである。位置推定部23は、第1識別モデルを用いることで、撮像画像にオクルージョンが発生しているか否かに関わらず、特定部位の位置を推定することができる。例えば、撮像画像内の人の姿勢が、図3で示すように、左肩が左手で隠れた姿勢である場合であっても、位置推定部23は、人検出部22が推定した領域の深度分布が、図3の三次元モデルから生成された第1識別モデルの学習された深度分布と類似していることで、撮像画像における人の左肩の位置を推定することができる。
When a person is detected in the captured image, the
位置推定部23は、撮像画像における推定した位置に、円形状のラベルを付与する。例えば、位置推定部23は、推定した左肩の位置に対して、左肩を示すラベルを付与する。
The
関節位置推定部24は、位置推定部23が付与したラベルから、関節位置を推定する。関節位置推定部24は、例えば、左肩のラベルが付与された位置と、首のラベルが付与された位置との間の領域を、右肩関節の位置として推定する。
The joint
なお、撮像画像上で、特定部位同士によるオクルージョンが発生した場合、例えば、首が肩で隠れた姿勢の場合、位置推定部23は、重なった領域に対して2つの部位の重なり領域として、ラベルを付与する。そして、関節位置推定部24は、特定部位が重なっていない領域と重なった領域とを合わせて、関節位置を推定する。
When occlusion occurs between specific parts on the captured image, for example, when the neck is hidden by the shoulder, the
[装置動作]
次に、本実施形態における学習装置10の動作について図8及び図9を用いて説明する。図8及び図9は、学習装置10の動作を示すフロー図である。以下の説明においては、適宜図1〜図7を参照する。また、本実施形態では、学習装置10を動作させることによって、学習方法が実施される。よって、本実施形態における学習方法の説明は、以下の学習装置10の動作説明に代える。
[Device operation]
Next, the operation of the
図8は、第1識別モデル生成時のフロー図である。三次元モデル生成部1は、三次元モデルを生成する(S1)。深度画像生成部2は、生成された三次元モデルの深度画像を生成する(S2)。三次元モデルは、オクルージョンが発生する姿勢、オクルージョンが発生しない姿勢に動かされる。第1選択部3は、オクルージョンが発生した三次元モデルの深度画像から、第1特定部位領域31の深度画像を選択する(S3)。具体的には、第1選択部3は、三次元モデルの深度画像における、人体の特定部位の位置を特定する。そして、第1選択部3は、その位置を中心とする矩形状の第1特定部位領域31を生成し、第1特定部位領域31の深度画像を選択する。第2選択部4は、オクルージョンが発生していない三次元モデルの深度画像から、第2特定部位領域32の深度画像を選択する(S4)。第1生成部5は、選択された第1特定部位領域31の深度画像、及び、第2特定部位領域32の深度画像の深度画像の深度分布を特徴量として学習して、第1識別モデルを生成する(S5)。第1生成部5は、生成した第1識別モデルを、第1識別モデル記憶部6に記憶する(S6)。
FIG. 8 is a flow chart at the time of generating the first discriminative model. The three-dimensional
図9は、第2識別モデル生成時のフロー図である。第3選択部7は、図8のS1で生成された三次元モデルの深度画像から、人体の首を含む首領域33の深度画像を選択する(S8)。第2生成部8は、首領域33の深度画像の深度分布を特徴量として学習して、第2識別モデルを生成し(S9)、第2識別モデル記憶部9に記憶する(S10)。
FIG. 9 is a flow chart at the time of generating the second discriminative model. The
学習装置10は、図8のS3〜S6の処理、及び、図9のS8〜S10の処理を、三次元モデルを動かしつつ、繰り返し実行する。また、学習装置10は、あらゆる方向から視た三次元モデルに対して、各処理を行う。
The
次に、推定装置20の動作について説明する。図10は、推定装置20の動作を示すフロー図である。
Next, the operation of the
深度画像取得部21は、撮像装置30から撮像画像を取得する(S21)。人検出部22は、取得された撮像画像の縮小画像を生成する(S22)。このとき、人検出部22は、撮像画像に含まれる距離情報に応じて、撮像画像の縮小画像を生成する。人検出部22は、近距離の場合には縮小率を大きくした縮小画像を撮像画像から生成し、遠距離の場合には縮小率を小さくした縮小画像を撮像画像から生成する。
The depth
人検出部22は、生成した縮小画像から人を検出する(S23)。人検出部22は、生成した縮小画像に対して、人体の首を含む領域を推定し、その領域の深度画像の深度分布と、第2識別モデルとを対比する。そして、人検出部22は、対比することで、推定した領域が首を含む領域であるかを判定し、首を含む領域であると判定すると、撮像画像には人が写っていると特定する。
The
位置推定部23は、撮像画像に人が検出されると、S23で推定された領域の深度分布に基づいて、首の周囲にある人体の特定部位である頭、肩又は首の位置を、第1識別モデル及び第2識別モデルを用いて推定する(S24)。そして、位置推定部23は、推定した位置に、円形状のラベルを付与する(S25)。関節位置推定部24は、付与されたラベルに基づいて、関節位置を推定する(S26)。
When a person is detected in the captured image, the
以上のように、学習装置10が、第1識別モデル及び第2識別モデルを生成することで、推定装置20は、オクルージョンの発生の有無にかかわらず、撮像画像における人の特定部位の位置を推定することができる。また、学習装置10が、第2識別モデルを生成し、推定装置20が、その第2識別モデルを用いて、首を中心とした人の検出を行うことで、撮像装置30の撮像アングルに依存せず、撮像画像における人の検出が可能となる。そして、学習装置10が、あらゆる方向から視た三次元モデルから第1識別モデル及び第2識別モデルを生成することで、撮像装置30の撮像アングルに依存せず、撮像画像における人体の特定部の位置の推定が可能となる。
As described above, the
[プログラム]
本実施形態におけるプログラムは、コンピュータに、図8に示す各ステップを実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施形態における学習装置と学習方法とを実現することができる。この場合、コンピュータのプロセッサは、三次元モデル生成部1、深度画像生成部2、第1選択部3、第2選択部4、第1生成部5、第3選択部7、及び第2生成部8として機能し、処理を行なう。
[program]
The program in this embodiment may be any program that causes a computer to execute each step shown in FIG. By installing this program on a computer and executing it, the learning device and the learning method in the present embodiment can be realized. In this case, the computer processor is a three-dimensional
また、本実施形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、三次元モデル生成部1、深度画像生成部2、第1選択部3、第2選択部4、第1生成部5、第3選択部7、及び第2生成部8のいずれかとして機能しても良い。
Moreover, the program in this embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer has a three-dimensional
さらに、本実施の形態では、第1識別モデル記憶部6、及び第2識別モデル記憶部9は、コンピュータに備えられたハードディスク等の記憶装置で実現されていても良いし、別のコンピュータの記憶装置によって実現されていても良い。
Further, in the present embodiment, the first identification
また、コンピュータに、図10に示す各ステップを実行させるプログラムをインストールし、実行することによって、本実施形態における推定装置を実現することができる。この場合、コンピュータのプロセッサは、深度画像取得部21、人検出部22、位置推定部23及び関節位置推定部24として機能し、処理を行なう。このプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、深度画像取得部21、人検出部22、位置推定部23及び関節位置推定部24のいずれかとして機能しても良い。
Further, the estimation device according to the present embodiment can be realized by installing and executing a program for executing each step shown in FIG. 10 on a computer. In this case, the computer processor functions as a depth
コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。 Examples of computers include smartphones and tablet terminal devices in addition to general-purpose PCs.
[物理構成]
ここで、本実施形態におけるプログラムを実行することによって、学習装置10を実現するコンピュータについて図11を用いて説明する。図11は、学習装置10を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes the
図11に示すように、コンピュータ110は、CPU(Central Processing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。
As shown in FIG. 11, the
また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。
Further, the
CPU111は、記憶装置113に格納された、コード群で構成された実施形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。
The
また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
Further, the program in the embodiment is provided in a state of being stored in a computer-
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
Further, specific examples of the
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
The data reader /
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD−ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
Specific examples of the
なお、本実施形態における学習装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、学習装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
The
なお、推定装置20を実現するコンピュータについて、図11と同様であるため、その説明は省略する。
Since the computer that realizes the
上述した実施の形態の一部又は全部は、以下に記載する(付記1)〜(付記10)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 10), but the present invention is not limited to the following description.
(付記1)
人体の三次元モデルを生成する三次元モデル生成部と、
前記三次元モデルの深度画像を生成する深度画像生成部と、
前記特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択する第1選択部と、
前記人体の特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択する第2選択部と、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成する、第1生成部と、
を備える、学習装置。
(Appendix 1)
A 3D model generator that generates a 3D model of the human body,
A depth image generator that generates a depth image of the three-dimensional model,
A first selection unit that selects a depth image of a second specific part region including the specific part from a depth image of the three-dimensional model in which the specific part is hidden by another part.
A second selection unit that selects a depth image of a first specific part region including the specific part from a depth image of the three-dimensional model in a posture in which the specific part of the human body is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. , 1st generation part,
A learning device equipped with.
(付記2)
付記1に記載の学習装置であって、
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1生成部は、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
学習装置。
(Appendix 2)
The learning device according to
The specific site is the head, shoulders or neck of the human body.
The first generation unit learns the depth distribution of the depth image as a feature amount and generates the first discriminative model.
Learning device.
(付記3)
付記1又は付記2に記載の学習装置であって、
前記三次元モデルの深度画像から、前記人体の首を含む首領域の深度画像を選択する第3選択部と、
撮像装置で撮像された深度画像から人体の有無を識別するための第2識別モデルを、選択された前記首領域の深度画像の深度情報に基づいて生成する、第2生成部と、
を備える、学習装置。
(Appendix 3)
The learning device according to
A third selection unit that selects a depth image of the neck region including the neck of the human body from the depth image of the three-dimensional model.
A second generation unit that generates a second identification model for identifying the presence or absence of a human body from a depth image captured by an imaging device based on the depth information of the selected depth image of the neck region.
A learning device equipped with.
(付記4)
付記3に記載の学習装置であって、
前記第2生成部は、前記首領域の深度画像の深度分布を特徴量として学習して、前記第2識別モデルを生成する、
学習装置。
(Appendix 4)
The learning device according to
The second generation unit learns the depth distribution of the depth image of the neck region as a feature amount to generate the second discriminative model.
Learning device.
(付記5)
撮像装置から深度画像を取得する深度画像取得部と、
取得された前記深度画像に、人体の首を含む領域を推定し、推定した前記領域に基づいて、前記深度画像から人を検出する人検出部と、
前記人が検出された場合、前記領域内における深度分布に基づいて、前記首の周囲にある人体の特定部位の位置を、識別モデルを用いて推定する位置推定部と、
を備え、
前記識別モデルは、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像が選択され、前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像が選択され、前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて生成されている、
推定装置。
(Appendix 5)
A depth image acquisition unit that acquires a depth image from an image pickup device,
A human detection unit that estimates a region including the neck of the human body in the acquired depth image and detects a person from the depth image based on the estimated region.
When the person is detected, a position estimation unit that estimates the position of a specific part of the human body around the neck using a discriminative model based on the depth distribution in the region.
With
The discriminative model is
From the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part, the depth image of the first specific part region including the specific part is selected, and the specific part is hidden by the other part. A depth image of the second specific part region including the specific part is selected from the depth image of the three-dimensional model having no posture, and the depth image of the first specific part region and the depth image of the second specific part region are selected. Generated based on,
Estimator.
(付記6)
付記5に記載の推定装置であって、
前記人体検出部は、
前記三次元モデルの深度画像から、前記人体の首を含む領域の深度画像が選択され、選択された前記深度画像から生成された第2識別モデルを用いて、前記人を検出する、
推定装置。
(Appendix 6)
The estimation device according to
The human body detection unit
A depth image of a region including the neck of the human body is selected from the depth image of the three-dimensional model, and the person is detected using the second identification model generated from the selected depth image.
Estimator.
(付記7)
人体の三次元モデルを生成するステップと、
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を備える、学習方法。
(Appendix 7)
Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
A learning method that includes.
(付記8)
付記7に記載の学習方法であって、
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1識別モデルを生成するステップでは、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
学習方法。
(Appendix 8)
The learning method described in
The specific site is the head, shoulders or neck of the human body.
In the step of generating the first discriminative model, the depth distribution of the depth image is learned as a feature amount to generate the first discriminative model.
Learning method.
(付記9)
コンピュータに、
人体の三次元モデルを生成するステップと、
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を実行させる命令を含むプログラム。
(Appendix 9)
On the computer
Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
A program that contains instructions to execute.
(付記10)
付記9に記載のプログラムであって、
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1識別モデルを生成するステップでは、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
プログラム。
(Appendix 10)
The program described in
The specific site is the head, shoulders or neck of the human body.
In the step of generating the first discriminative model, the depth distribution of the depth image is learned as a feature amount to generate the first discriminative model.
program.
1 三次元モデル生成部
2 深度画像生成部
3 第1選択部
4 第2選択部
5 第1生成部
6 第1識別モデル記憶部
7 第3選択部
8 第2生成部
9 第2識別モデル記憶部
10 学習装置
20 推定装置
21 深度画像取得部
22 人検出部
23 位置推定部
24 関節位置推定部
30 撮像装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
1 3D
112
Claims (10)
前記三次元モデルの深度画像を生成する深度画像生成部と、
前記特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択する第1選択部と、
前記人体の特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択する第2選択部と、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成する、第1生成部と、
を備える、学習装置。 A 3D model generator that generates a 3D model of the human body,
A depth image generator that generates a depth image of the three-dimensional model,
A first selection unit that selects a depth image of a second specific part region including the specific part from a depth image of the three-dimensional model in which the specific part is hidden by another part.
A second selection unit that selects a depth image of a first specific part region including the specific part from a depth image of the three-dimensional model in a posture in which the specific part of the human body is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. , 1st generation part,
A learning device equipped with.
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1生成部は、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
学習装置。 The learning device according to claim 1.
The specific site is the head, shoulders or neck of the human body.
The first generation unit learns the depth distribution of the depth image as a feature amount and generates the first discriminative model.
Learning device.
前記三次元モデルの深度画像から、前記人体の首を含む首領域の深度画像を選択する第3選択部と、
撮像装置で撮像された深度画像から人体の有無を識別するための第2識別モデルを、選択された前記首領域の深度画像の深度情報に基づいて生成する、第2生成部と、
を備える、学習装置。 The learning device according to claim 1 or 2.
A third selection unit that selects a depth image of the neck region including the neck of the human body from the depth image of the three-dimensional model.
A second generation unit that generates a second identification model for identifying the presence or absence of a human body from a depth image captured by an imaging device based on the depth information of the selected depth image of the neck region.
A learning device equipped with.
前記第2生成部は、前記首領域の深度画像の深度分布を特徴量として学習して、前記第2識別モデルを生成する、
学習装置。 The learning device according to claim 3.
The second generation unit learns the depth distribution of the depth image of the neck region as a feature amount to generate the second discriminative model.
Learning device.
取得された前記深度画像に、人体の首を含む領域を推定し、推定した前記領域に基づいて、前記深度画像から人を検出する人検出部と、
前記人が検出された場合、前記領域内における深度分布に基づいて、前記首の周囲にある人体の特定部位の位置を、識別モデルを用いて推定する位置推定部と、
を備え、
前記識別モデルは、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像が選択され、前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像が選択され、前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて生成されている、
推定装置。 A depth image acquisition unit that acquires a depth image from an image pickup device,
A human detection unit that estimates a region including the neck of the human body in the acquired depth image and detects a person from the depth image based on the estimated region.
When the person is detected, a position estimation unit that estimates the position of a specific part of the human body around the neck using a discriminative model based on the depth distribution in the region.
With
The discriminative model is
From the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part, the depth image of the first specific part region including the specific part is selected, and the specific part is hidden by the other part. A depth image of the second specific part region including the specific part is selected from the depth image of the three-dimensional model having no posture, and the depth image of the first specific part region and the depth image of the second specific part region are selected. Generated based on,
Estimator.
前記人体検出部は、
前記三次元モデルの深度画像から、前記人体の首を含む領域の深度画像が選択され、選択された前記深度画像から生成された第2識別モデルを用いて、前記人を検出する、
推定装置。 The estimation device according to claim 5.
The human body detection unit
A depth image of a region including the neck of the human body is selected from the depth image of the three-dimensional model, and the person is detected using the second identification model generated from the selected depth image.
Estimator.
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を備える、学習方法。 Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
A learning method that includes.
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1識別モデルを生成するステップでは、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
学習方法。 The learning method according to claim 7.
The specific site is the head, shoulders or neck of the human body.
In the step of generating the first discriminative model, the depth distribution of the depth image is learned as a feature amount to generate the first discriminative model.
Learning method.
人体の三次元モデルを生成するステップと、
前記三次元モデルの深度画像を生成するステップと、
前記人体の特定部位が他の部位で隠れた姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第1特定部位領域の深度画像を選択するステップと、
前記特定部位が他の部位で隠れていない姿勢の前記三次元モデルの深度画像から、前記特定部位を含む第2特定部位領域の深度画像を選択するステップと、
前記第1特定部位領域の深度画像、及び、前記第2特定部位領域の深度画像に基づいて、撮像装置で撮像された深度画像から人体の特定部位を識別するための第1識別モデルを生成するステップと、
を実行させる命令を含むプログラム。 On the computer
Steps to generate a three-dimensional model of the human body,
Steps to generate a depth image of the 3D model,
A step of selecting a depth image of a first specific part region including the specific part from the depth image of the three-dimensional model in which the specific part of the human body is hidden by another part.
A step of selecting a depth image of a second specific part region including the specific part from the depth image of the three-dimensional model in a posture in which the specific part is not hidden by another part.
Based on the depth image of the first specific part region and the depth image of the second specific part region, a first identification model for identifying a specific part of the human body is generated from the depth image captured by the imaging device. Steps and
A program that contains instructions to execute.
前記特定部位は、前記人体の頭、肩又は首であり、
前記第1識別モデルを生成するステップでは、深度画像の深度分布を特徴量として学習して、前記第1識別モデルを生成する、
プログラム。
The program according to claim 9.
The specific site is the head, shoulders or neck of the human body.
In the step of generating the first discriminative model, the depth distribution of the depth image is learned as a feature amount to generate the first discriminative model.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041376A JP2021144358A (en) | 2020-03-10 | 2020-03-10 | Learning apparatus, estimation apparatus, learning method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020041376A JP2021144358A (en) | 2020-03-10 | 2020-03-10 | Learning apparatus, estimation apparatus, learning method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021144358A true JP2021144358A (en) | 2021-09-24 |
Family
ID=77766634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041376A Pending JP2021144358A (en) | 2020-03-10 | 2020-03-10 | Learning apparatus, estimation apparatus, learning method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021144358A (en) |
-
2020
- 2020-03-10 JP JP2020041376A patent/JP2021144358A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762386B2 (en) | Method of determining a similarity transformation between first and second coordinates of 3D features | |
US9098740B2 (en) | Apparatus, method, and medium detecting object pose | |
JP4686595B2 (en) | Pose estimation based on critical point analysis | |
JP5251987B2 (en) | Person determination device, method and program | |
JP6570786B2 (en) | Motion learning device, skill discrimination device, and skill discrimination system | |
JP6571108B2 (en) | Real-time 3D gesture recognition and tracking system for mobile devices | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN112506340B (en) | Equipment control method, device, electronic equipment and storage medium | |
KR20150067680A (en) | System and method for gesture recognition of vehicle | |
JP7031685B2 (en) | Model learning device, model learning method and computer program | |
JP2022517050A (en) | How to remotely control a display device via head gestures, systems and computer programs | |
JP2021144359A (en) | Learning apparatus, estimation apparatus, learning method, and program | |
KR20150103520A (en) | Method and apparatus for recognating hand motion | |
JP2018048890A (en) | Posture estimation system, posture estimation device, and distance image camera | |
JP2021144358A (en) | Learning apparatus, estimation apparatus, learning method, and program | |
JP5829155B2 (en) | Pedestrian detection device and program | |
US9761009B2 (en) | Motion tracking device control systems and methods | |
KR101909326B1 (en) | User interface control method and system using triangular mesh model according to the change in facial motion | |
JP6894398B2 (en) | Object tracking device, object tracking method, and object tracking program | |
JP6273686B2 (en) | Image processing apparatus, image processing method, and image processing program | |
CN112329508A (en) | Gesture recognition method, device, equipment and readable storage medium | |
KR101785650B1 (en) | Click detecting apparatus and method for detecting click in first person viewpoint | |
WO2022181252A1 (en) | Joint detection device, training model generation device, joint detection method, training model generation method, and computer-readable recording medium | |
US11847823B2 (en) | Object and keypoint detection system with low spatial jitter, low latency and low power usage | |
CN112711324B (en) | Gesture interaction method and system based on TOF camera |