JP2021060734A - 学習装置、学習方法、学習プログラム - Google Patents

学習装置、学習方法、学習プログラム Download PDF

Info

Publication number
JP2021060734A
JP2021060734A JP2019183964A JP2019183964A JP2021060734A JP 2021060734 A JP2021060734 A JP 2021060734A JP 2019183964 A JP2019183964 A JP 2019183964A JP 2019183964 A JP2019183964 A JP 2019183964A JP 2021060734 A JP2021060734 A JP 2021060734A
Authority
JP
Japan
Prior art keywords
skeleton
data
model
estimation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019183964A
Other languages
English (en)
Other versions
JP7355588B2 (ja
Inventor
良介 丹野
Ryosuke Tanno
良介 丹野
秀平 浅野
Shuhei Asano
秀平 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2019183964A priority Critical patent/JP7355588B2/ja
Priority to PCT/JP2020/037636 priority patent/WO2021066173A1/ja
Priority to CN202080058179.XA priority patent/CN114270414A/zh
Publication of JP2021060734A publication Critical patent/JP2021060734A/ja
Priority to US17/711,030 priority patent/US20220222963A1/en
Priority to JP2023156369A priority patent/JP2023164709A/ja
Application granted granted Critical
Publication of JP7355588B2 publication Critical patent/JP7355588B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

【課題】骨格推定を精度よく行うモデルを生成すること。【解決手段】学習装置10は、人物を含む画像データを取得し、取得した画像データを入力として、人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、骨格データを推定する。また、学習装置10は、取得した画像データを入力として、画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する衣服形状領域分割モデルを用いて、画像データの領域を衣服の種別ごとに分割する。続いて、学習装置10は、推定結果と分割結果とを入力として、改良骨格推定モデルを用いて、骨格データを推定し、推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する。そして、学習装置10は、出力された識別結果を基に、改良骨格推定モデルおよび識別モデルを最適化する。【選択図】図1

Description

本発明は、学習装置、学習方法、学習プログラムに関する。
近年、各種の生体認証を用いて本人認証を行う技術が知られている。このような認証技術として、例えば、認証対象の人物の全身を含む画像データから骨格の位置座標を推定する骨格推定を行い、推定結果を基に本人認証を行う技術がある。
特開2018−013999号公報
しかしながら、従来の骨格推定の手法では、骨格推定を精度よく行えない場合があるという課題があった。例えば、従来の骨格推定の手法では、画像データにおける認証対象の人物自身のボディーラインが分かり難いような衣服を着用している場合には、骨格推定の精度が低下するという課題があった。
上述した課題を解決し、目的を達成するために、本発明の学習装置は、人物を含む画像データを取得する取得部と、前記取得部によって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定部と、前記取得部によって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割部と、前記第一の推定部による推定結果と前記分割部による分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定部と、前記第二の推定部によって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別部と、前記識別部によって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習部とを有することを特徴とする。
また、本発明の学習方法は、学習装置によって実行される学習方法であって、人物を含む画像データを取得する取得工程と、前記取得工程によって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定工程と、前記取得工程によって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割工程と、前記第一の推定工程による推定結果と前記分割工程による分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定工程と、前記第二の推定工程によって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別工程と、前記識別工程によって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習工程とを含むことを特徴とする。
また、本発明の学習プログラムは、人物を含む画像データを取得する取得ステップと、前記取得ステップによって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定ステップと、前記取得ステップによって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割ステップと、前記第一の推定ステップによる推定結果と前記分割ステップによる分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定ステップと、前記第二の推定ステップによって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別ステップと、前記識別ステップによって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習ステップとをコンピュータに実行させることを特徴とする。
本発明によれば、骨格推定を精度よく行うモデルを生成することができるという効果を奏する。
図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。 図2は、骨格データの一例を説明する図である。 図3は、敵対的ネットワークの学習手法の一例を説明する図である。 図4は、敵対的ネットワークの学習手法の一例を説明する図である。 図5は、第1の実施形態に係る学習装置における処理の流れの一例を示すフローチャートである。 図6は、学習プログラムを実行するコンピュータを示す図である。
以下に、本願に係る学習装置、学習方法、学習プログラムの実施形態を図面に基づいて詳細に説明する。なお、この実施形態により本願に係る学習装置、学習方法、学習プログラムが限定されるものではない。
[第1の実施形態]
以下の実施形態では、第1の実施形態に係る学習装置の構成、学習装置10の処理の流れを順に説明し、最後に第1の実施形態による効果を説明する。
[学習装置の構成]
まず、図1を用いて、学習装置10の構成を説明する。図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。学習装置10は、例えば、骨格推定を行うためのモデルを学習する。また、学習装置10によって学習された骨格推定を行うためのモデルは、例えば、本人認証を行う認証処理システムに適用されるものとする。
学習装置10は、学習処理において、例えば、ニューラルネットワークの一種である敵対的生成ネットワークであるGAN(Generative Adversarial Network)を利用し、いわゆる生成器および識別器という二つのニューラルネットワークを組み合わせて学習を行う。第1の実施形態に係る学習装置10では、改良骨格推定モデルが生成器に相当し、識別モデルが識別器に相当する。例えば、敵対的生成ネットワークでは、学習処理として、生成器はフェイクデータ(推定された骨格データ)を生成するようにするとともに、識別器は入力されたデータが正解の骨格データであるのか生成器が生成したフェイクデータであるのかを識別するように構築される。
図1に示すように、この学習装置10は、通信処理部11、制御部12および記憶部13を有する。以下に学習装置10が有する各部の処理を説明する。
通信処理部11は、接続される装置との間でやり取りする各種情報に関する通信を制御する。例えば、通信処理部11は、骨格推定の処理対象となる画像データを外部の装置から受信する。また、記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納し、正解データ記憶部13aおよび学習済みモデル記憶部13bを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置である。
正解データ記憶部13aは、後述する識別モデルに入力する正解データとして、人物を含む画像データと該人物の骨格データとを対応付けて記憶する。なお、ここで、図2の例を用いて、骨格データの一例について説明する。図2は、骨格データの一例を説明する図である。図2に例示するように、正解データ記憶部13aに記憶される骨格データは、各部位を示す点と、隣接する点同士を結んだ線または矢印とで表現される。なお、図2の例では、骨格データにおける所定の点と所定の点を起点とする矢印とは関節に相当する部分であり、「右肩」、「右上腕」、「右前腕」、「左肩」、「左上腕」、「左前腕」、「右上腿」、「右下腿」、「左上腿」および「左下腿」の部分が骨格データに含まれるものとする。
学習済みモデル記憶部13bは、後述する学習部12fによって学習された学習済みモデルを記憶する。例えば、学習済みモデル記憶部13bは、学習済みモデルとして、骨格推定を行うための骨格推定モデルおよび画像から衣服の形状領域を分割する衣服形状領域分割モデルを記憶する。なお、学習済みモデル記憶部13bは、骨格推定モデルと衣服形状領域分割モデルとが一体となった一つの学習済みモデルを記憶してもよい。
制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部12は、取得部12a、第一の推定部12b、分割部12c、第二の推定部12d、識別部12eおよび学習部12fを有する。ここで、制御部12は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphical Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。
取得部12aは、人物を含む画像データを取得する。例えば、取得部12aは、衣服を着用した人物の全身を含む画像データを取得する。なお、取得部12aは、外部の装置から画像データを取得してもよいし、学習のために予め用意された画像データを装置内から取得するようにしてもよい。
第一の推定部12bは、取得部12aによって取得された画像データを入力として、人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、骨格データを推定する。例えば、第一の推定部12bは、人物の骨格における各部位の位置を特定し、各関節に相当する部分として「右肩」、「右上腕」、「右前腕」、「左肩」、「左上腕」、「左前腕」、「右上腿」、「右下腿」、「左上腿」および「左下腿」の位置を推定する。
分割部12cは、取得部12aによって取得された画像データを入力として、画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する衣服形状領域分割モデルを用いて、画像データの領域を衣服の種別ごとに分割する。例えば、分割部12cは、画像データから上着、ズボン、帽子、靴下等の衣服の領域をそれぞれ特定し、画像データの領域を衣服の種別ごとに分割する。
第二の推定部12dは、第一の推定部12bによる推定結果と分割部12cによる分割結果とを入力として、骨格データを推定する改良骨格推定モデルを用いて、骨格データを推定する。具体的には、第二の推定部12dは、衣服の領域分割結果と骨格推定の結果を照らし合わせて骨格推定結果の改良を行う。つまり、第二の推定部12dは、第一の推定部12bにおいて骨格推定が困難な箇所の補助に分割部12cによる分割結果を利用して、骨格推定結果の改良を行う。
識別部12eは、第二の推定部12dによって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する。例えば、識別部12eは、第二の推定部12dによって推定された骨格データ、または、正解データ記憶部13aに記憶された正解の骨格データのいずれかを識別モデルに入力する。ここで、識別モデルは、入力された骨格データが、画像データから推定された骨格データであるのか、もしくは、画像データに対応する正解の骨格データであるのかを識別する。
学習部12fは、識別部12eによって出力された識別結果を基に、改良骨格推定モデルおよび識別モデルを最適化する。つまり、学習部12fは、識別モデルが入力された骨格データを、推定された骨格データであるのか正解データであるのかを正しく識別できるように識別モデルを最適化するとともに、骨格推定モデルおよび衣服形状領域分割モデルが正解データの骨格データらしい骨格データを生成できるように改良骨格推定モデルを最適化する。
このように、学習装置10では、学習処理において、ニューラルネットワークの一種である敵対的生成ネットワークであるGANを利用し、いわゆる生成器および識別器という二つのニューラルネットワークを組み合わせて学習が行われる。ここで、図3を用いて、敵対的ネットワークの学習手法の一例を説明する。図3は、敵対的ネットワークの学習手法の一例を説明する図である。
図3に例示するように、学習装置10は、骨格推定モデルと衣服形状領域分割モデルとにそれぞれ画像データを入力する。そして、学習装置10は、画像データを入力データとして、骨格推定モデルを用いて、骨格を推定する。また、学習装置10は、画像データを入力データとして、衣服形状領域分割モデルを用いて、画像データの領域を衣服の種別ごとに分割する。そして、学習装置10は、骨格推定モデルから出力された骨格推定の結果と衣服形状領域分割モデルから出力された衣服の領域分割結果とを入力データとして、改良骨格推定モデルを用いて、骨格を推定する。
そして、学習装置10は、推定された骨格データ、または、正解データ記憶部13aに記憶された正解の骨格データのいずれかを識別モデルに入力し、画像データから推定された骨格データであるのか、もしくは、画像データに対応する正解の骨格データであるのかを識別した識別結果を識別モデルから出力する。
例えば、識別モデルは、入力されたデータが推定された骨格データであるのか、または、正解データ記憶部13aに記憶された正解の骨格データであるのかを識別し、入力されたデータに対する正解らしさを出力する。例えば、識別モデルは、「0」〜「1」の値を出力するように設定され、「1」に近いほど正解らしさが高く、「0」に近いほど正解らしさが低いものとする。
そして、学習装置10は、識別モデルの識別結果が正解に近くなるように、生成器および識別器を最適化する。つまり、識別モデルは、正解の骨格データが入力された場合には、高い値(1に近い値)を出力し、推定された骨格データの場合が入力された場合には、低い値(「0」に近い値)を出力することができるように、学習により最適化される。そして、学習装置10は、識別モデルの識別結果が正解に近くなるように、生成器および識別器を最適化する。また、学習装置10は、識別結果を基に、正解の骨格データに似ている骨格データを推定できるように改良骨格推定モデルを最適化する。
なお、骨格推定モデルと衣服形状領域分割モデルとが別モデルである場合を説明したがこれに限定されるものではない。例えば、図4に例示するように、学習装置10は、骨格推定モデルと衣服形状領域分割モデルとが一体となった同時推定モデルに画像データを入力し、骨格を推定する処理と、画像データの領域を衣服の種別ごとに分割する処理とを行い、その後、骨格推定モデルから出力された骨格推定の結果と衣服形状領域分割モデルから出力された衣服の領域分割結果とを入力データとして、改良骨格推定モデルを用いて、骨格を推定するようにしてもよい。
[学習装置の処理手順]
次に、図5を用いて、第1の実施形態に係る学習装置10による処理手順の例を説明する。図5は、第1の実施形態に係る学習装置における処理の流れの一例を示すフローチャートである。
図5に例示するように、学習装置10では、取得部12aが衣服を着用した人物の全身を含む画像データを取得すると(ステップS101肯定)、第一の推定部12bは、取得部12aによって取得された画像データを入力として、人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、骨格データを推定する(ステップS102)。
そして、分割部12cは、画像データの領域を衣服の種別ごとに分割する(ステップS103)。例えば、分割部12cは、画像データから上着、ズボン、帽子、靴下等の衣服の領域をそれぞれ特定し、画像データの領域を衣服の種別ごとに分割する。
続いて、第二の推定部12dは、第一の推定部12bによる推定結果と分割部12cによる分割結果とを用いて、骨格データを推定する改良骨格推定を行う(ステップS104)。具体的には、第二の推定部12dは、骨格推定モデルから出力された骨格推定の結果と衣服形状領域分割モデルから出力された衣服の領域分割結果とを入力データとして、改良骨格推定モデルを用いて、骨格を推定する。
そして、識別部12eは、推定された骨格データと正解の骨格データとを、識別モデルを用いて識別する(ステップS105)。例えば、識別部12eは、第二の推定部12dによって推定された骨格データ、または、正解データ記憶部13aに記憶された正解の骨格データのいずれかを識別モデルに入力する。
その後、学習部12fは、識別部12eによって出力された識別結果に基づいて、改良骨格推定モデルおよび識別モデルを学習する(ステップS106)。つまり、学習部12fは、識別モデルが入力された骨格データを、推定された骨格データであるのか正解データであるのかを正しく識別できるように識別モデルを最適化するとともに、改良骨格推定モデルが正解データの骨格データらしい骨格データを生成できるように改良骨格推定モデルを最適化する。
[第1の実施形態の効果]
第1の実施形態に係る学習装置10は、人物を含む画像データを取得し、取得した画像データを入力として、人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、骨格データを推定する。また、学習装置10は、取得した画像データを入力として、画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する衣服形状領域分割モデルを用いて、画像データの領域を衣服の種別ごとに分割する。続いて、学習装置10は、推定結果と分割結果とを入力として、改良骨格推定モデルを用いて、骨格データを推定し、推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する。そして、学習装置10は、出力された識別結果を基に、改良骨格推定モデルおよび識別モデルを最適化する。このため、学習装置10は、骨格推定を精度よく行うモデルを生成することが可能である。
つまり、学習装置10は、敵対的生成ネットワークを利用して改良骨格推定モデルおよび識別モデルを学習し、骨格推定モデルおよび衣服形状領域分割モデルとともに、学習した改良骨格推定モデルを適用して、骨格推定を行うので、衣服の形状を利用して骨格推定を行うことが可能である。
また、学習装置10は、敵対的生成ネットワークを利用して改良骨格推定モデルおよび識別モデルを学習し、骨格推定モデルおよび衣服形状領域分割モデルとともに、学習した改良骨格推定モデルを適用して、骨格推定を行うので、衣服の形状にロバストな骨格推定が可能であり、ボディーラインが分かり難いような衣服を着用している場合であっても、骨格推定を精度よく行うモデルを生成することが可能である。
[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPUおよび当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る学習装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
図6は、学習プログラムを実行するコンピュータを示す図である。図6に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。
メモリ1010は、図6に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図6に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図6に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図6に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図6に例示するように、例えばディスプレイ1130に接続される。
ここで、図6に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。
また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。
なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 学習装置
11 通信処理部
12 制御部
12a 取得部
12b 第一の推定部
12c 分割部
12d 第二の推定部
12e 識別部
12f 学習部
13 記憶部
13a 正解データ記憶部
13b 学習済みモデル記憶部

Claims (5)

  1. 人物を含む画像データを取得する取得部と、
    前記取得部によって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定部と、
    前記取得部によって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割部と、
    前記第一の推定部による推定結果と前記分割部による分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定部と、
    前記第二の推定部によって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別部と、
    前記識別部によって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習部と
    を有することを特徴とする学習装置。
  2. 前記識別部は、前記第二の推定部によって推定された骨格データ、または、記憶部に記憶された正解の骨格データのいずれかが識別モデルに入力され、入力された骨格データが、前記第二の推定部によって推定された骨格データであるのか、もしくは、前記正解の骨格データであるのかを識別することを特徴とする請求項1に記載の学習装置。
  3. 前記学習部は、前記識別モデルが、入力された骨格データを、推定された骨格データであるのか正解データであるのかを正しく識別できるように、前記識別モデルを最適化するとともに、前記骨格推定モデルおよび前記分割モデルが正解データの骨格データらしい骨格データを生成できるように、前記改良骨格推定モデルを最適化することを特徴とする請求項1に記載の学習装置。
  4. 学習装置によって実行される学習方法であって、
    人物を含む画像データを取得する取得工程と、
    前記取得工程によって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定工程と、
    前記取得工程によって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割工程と、
    前記第一の推定工程による推定結果と前記分割工程による分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定工程と、
    前記第二の推定工程によって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別工程と、
    前記識別工程によって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習工程と
    を含むことを特徴とする学習方法。
  5. 人物を含む画像データを取得する取得ステップと、
    前記取得ステップによって取得された画像データを入力として、前記人物の骨格に関する骨格データを推定する骨格推定モデルを用いて、前記骨格データを推定する第一の推定ステップと、
    前記取得ステップによって取得された画像データを入力として、前記画像データに含まれる前記人物の各衣服の領域を衣服の種別ごとに分割する分割モデルを用いて、前記画像データの領域を衣服の種別ごとに分割する分割ステップと、
    前記第一の推定ステップによる推定結果と前記分割ステップによる分割結果とを入力として、前記骨格データを推定する改良骨格推定モデルを用いて、前記骨格データを推定する第二の推定ステップと、
    前記第二の推定ステップによって推定された骨格データと正解の骨格データとを識別するように学習された識別モデルを用いて、該識別モデルに入力された骨格の識別結果を出力する識別ステップと、
    前記識別ステップによって出力された識別結果を基に、前記改良骨格推定モデルおよび前記識別モデルを最適化する学習ステップと
    をコンピュータに実行させることを特徴とする学習プログラム。
JP2019183964A 2019-10-04 2019-10-04 学習装置、学習方法、学習プログラム Active JP7355588B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019183964A JP7355588B2 (ja) 2019-10-04 2019-10-04 学習装置、学習方法、学習プログラム
PCT/JP2020/037636 WO2021066173A1 (ja) 2019-10-04 2020-10-02 学習装置、学習方法、学習プログラム
CN202080058179.XA CN114270414A (zh) 2019-10-04 2020-10-02 学习装置、学习方法、学习程序
US17/711,030 US20220222963A1 (en) 2019-10-04 2022-04-01 Learning device, learning method, and learning program
JP2023156369A JP2023164709A (ja) 2019-10-04 2023-09-21 学習装置、学習方法、学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183964A JP7355588B2 (ja) 2019-10-04 2019-10-04 学習装置、学習方法、学習プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023156369A Division JP2023164709A (ja) 2019-10-04 2023-09-21 学習装置、学習方法、学習プログラム

Publications (2)

Publication Number Publication Date
JP2021060734A true JP2021060734A (ja) 2021-04-15
JP7355588B2 JP7355588B2 (ja) 2023-10-03

Family

ID=75337045

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019183964A Active JP7355588B2 (ja) 2019-10-04 2019-10-04 学習装置、学習方法、学習プログラム
JP2023156369A Pending JP2023164709A (ja) 2019-10-04 2023-09-21 学習装置、学習方法、学習プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023156369A Pending JP2023164709A (ja) 2019-10-04 2023-09-21 学習装置、学習方法、学習プログラム

Country Status (4)

Country Link
US (1) US20220222963A1 (ja)
JP (2) JP7355588B2 (ja)
CN (1) CN114270414A (ja)
WO (1) WO2021066173A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2327061A4 (en) 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
JP6185879B2 (ja) 2014-05-01 2017-08-23 日本電信電話株式会社 多関節物体追跡装置、多関節物体追跡方法、及びプログラム
US10321728B1 (en) 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction

Also Published As

Publication number Publication date
JP7355588B2 (ja) 2023-10-03
CN114270414A (zh) 2022-04-01
JP2023164709A (ja) 2023-11-10
US20220222963A1 (en) 2022-07-14
WO2021066173A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
KR101574884B1 (ko) 표정 추정 장치, 제어 방법, 제어 프로그램, 및 기록 매체
BR112019009219A2 (pt) método para reconhecimento de facial, aparelho e dispositivo eletrônico
US10452896B1 (en) Technique for creating avatar from image data
CN109472269A (zh) 图像特征配置及校验方法、装置、计算机设备及介质
CN110069983A (zh) 基于显示媒质的活体识别方法、装置、终端及可读介质
JP6969878B2 (ja) 識別器学習装置および識別器学習方法
JP6225460B2 (ja) 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP2012118927A (ja) 画像処理プログラムおよび画像処理装置
WO2021066173A1 (ja) 学習装置、学習方法、学習プログラム
JP6622150B2 (ja) 情報処理装置および情報処理方法
JP7287874B2 (ja) 推定装置、推定方法、推定プログラム
JP2019204288A (ja) 生体認証装置、生体認証方法及び生体認証プログラム
CN108288023A (zh) 人脸识别的方法和装置
US20240020873A1 (en) Image generation system, image generation method, and recording medium
JP2023005567A (ja) 機械学習プログラム、機械学習方法及び表情認識装置
JP7409819B2 (ja) 算出装置、算出方法、算出プログラム
WO2023100772A1 (ja) 認証装置、プログラム、及び認証方法
JP2020149361A (ja) 表情推定装置、感情判定装置、表情推定方法及びプログラム
JP2022043364A (ja) 学習装置、物体検出装置、学習方法、およびプログラム
JP6856965B1 (ja) 画像出力装置及び画像出力方法
JP2022158634A (ja) 表示装置、表示方法および表示プログラム
CN114078130A (zh) 图像生成方法、装置、计算机设备和存储介质
JP2022114443A (ja) 情報処理装置、情報処理方法及び顔画像分類装置
KR20230126635A (ko) 이미지를 이용한 얼굴 분위기 진단 플랫폼 제공 방법, 장치 및 프로그램
WO2018110490A1 (ja) 情報処理装置、遺伝情報作成方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7355588

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150