JP2018129007A - 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム - Google Patents

学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム Download PDF

Info

Publication number
JP2018129007A
JP2018129007A JP2017023666A JP2017023666A JP2018129007A JP 2018129007 A JP2018129007 A JP 2018129007A JP 2017023666 A JP2017023666 A JP 2017023666A JP 2017023666 A JP2017023666 A JP 2017023666A JP 2018129007 A JP2018129007 A JP 2018129007A
Authority
JP
Japan
Prior art keywords
learning
data generation
unit
image
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017023666A
Other languages
English (en)
Inventor
和樹 岡見
Kazuki Okami
和樹 岡見
広太 竹内
Kota Takeuchi
広太 竹内
木全 英明
Hideaki Kimata
英明 木全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017023666A priority Critical patent/JP2018129007A/ja
Publication of JP2018129007A publication Critical patent/JP2018129007A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】三次元の関節情報と画像とを含む複数の学習データをより容易に取得することである。【解決手段】関節を有する生物又は物体の三次元形状を表す三次元モデルについて、複数の視野によりレンダリングされた画像と、レンダリングされた際の前記三次元モデルの関節の位置及び角度を示す関節情報と、を生成するデータ生成部と、前記データ生成部によって生成された前記画像及び前記関節情報を用いて機械学習を行うことにより、処理の対象となる画像である対象画像に基づいて前記対象画像に撮像されている生物又は物体の関節情報を推定するための学習結果を取得する学習部と、を備える学習装置である。【選択図】図1

Description

本発明は、被写体の関節に関する情報を画像から取得するための技術に関する。
人間の関節の動きを計測する技術を応用することによって、映画などに登場する人を模したコンピュータグラフィックスのキャラクターに生き生きとした動作を付与することができる。そのため、人間の関節の動きを計測する技術は、コンテンツ全体の品質向上を実現するために必要不可欠な技術である。また、上記のようなエンタテインメントの分野以外にも、人間の関節の動きを計測する技術は、様々な分野で用いられている。例えば、医療の分野においては、患者の容体を把握するための情報として重要である。
このように、人間の関節の動きに関する情報(以下「関節情報」という。)は様々な分野で重要な情報である。しかし、関節情報の取得には多大な手間が伴う。関節情報の取得技術としてモーションキャプチャを用いたデータ取得技術がある。モーションキャプチャでは、計測する対象の人物に専用のスーツを着てもらう必要があり、事前に空間のキャリブレーションを行う必要もあり、と煩雑な作業が必要となる。そのほかの技術に関しても、特殊な機器を必要とするものであったり、限定的な環境でしか利用できなかったりと、様々な問題を抱えている。
このような問題に対し、ディープラーニングを用いて、画像に映る被写体の関節位置をロバストに推定する技術が近年発表された(例えば非特許文献1参照)。この技術では、画像内に複数の人物が存在していたとしても、ロバストな推定が可能である。
L. Pishchulin, E. Insafutdinov, S. Tang, B. Andres, M. Andriluka, P. Gehler, B. Schiele, "DeepCut: Joint Subset Partition and Labeling for Multi Person Pose Estimation," IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016).
しかしながら、従来の方法では、推定される関節情報は、画像上の二次元の関節位置のみである。そのため、アニメーション生成などに用いる関節情報としては不十分であった。一方で、三次元の関節情報をディープラーニング等の機械学習を用いて推定しようとすると、三次元の関節情報と画像とを含む学習データを多量に予め取得する必要があり、困難を伴っていた。
上記事情に鑑み、本発明は、三次元の関節情報と画像とを含む複数の学習データをより容易に取得する事を可能とする技術の提供を目的としている。
本発明の一態様は、関節を有する生物又は物体の三次元形状を表す三次元モデルについて、複数の視野によりレンダリングされた画像と、レンダリングされた際の前記三次元モデルの関節の位置及び角度を示す関節情報と、を含む学習データを生成するデータ生成部を備える学習データ生成装置である。
本発明の一態様は、上記の学習データ生成装置であって、前記データ生成部は、同一の三次元モデルに基づいて前記関節情報が異なる複数のシーンを生成し、前記シーン毎に1又は複数の視野の画像をレンダリングする。
本発明の一態様は、上記の学習データ生成装置と、前記データ生成部によって生成された前記画像及び前記関節情報を用いて機械学習を行うことにより、処理の対象となる画像である対象画像に基づいて前記対象画像に撮像されている生物又は物体の関節情報を推定するための学習結果を取得する学習部と、を備える学習装置である。
本発明の一態様は、上記の学習装置と、前記学習装置によって取得された前記学習結果を用いることによって、前記対象画像に撮像されている生物又は物体の関節情報を推定する推定部と、を備える推定装置である。
本発明の一態様は、関節を有する生物又は物体の三次元形状を表す三次元モデルについて、複数の視野によりレンダリングされた画像と、レンダリングされた際の前記三次元モデルの関節の位置及び角度を示す関節情報と、を生成するデータ生成ステップを有する学習データ生成方法である。
本発明の一態様は、コンピュータを、上記の学習データ生成装置として機能させるためのコンピュータプログラムである。
本発明により、三次元の関節情報と画像とを含む複数の学習データをより容易に取得することが可能となる。
実施形態における推定装置10の構成例を示す概略ブロック図である。 データ生成部111の構成例を示す図である。 学習部112の構成例を示す図である。 ネットワーク構築部211によって構築されるネットワークの具体例を示す図である。 入力部12の構成例を示す図である。 推定部13の構成例を示す図である。 推定装置10の前処理の流れの具体例を示す図である。 推定装置10の推定処理の流れの具体例を示す図である。
図1は実施形態における推定装置10の構成例を示す概略ブロック図である。推定装置10は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、推定プログラムを実行する。推定プログラムの実行によって、推定装置10は、学習装置11、入力部12及び推定部13を備える装置として機能する。なお、推定装置10の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。推定プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。推定プログラムは、電気通信回線を介して送信されてもよい。
学習装置11は、データ生成部111及び学習部112を備える。
まず、データ生成部111について説明する。データ生成部111は、学習部112によって使用される学習データを生成する。データ生成部111によって生成される学習データは、画像データと、関節情報と、を有する。画像データは、予め生成された三次元人物モデルが所定の姿勢で視野に含まれるコンピュータグラフィックスとして生成される。データ生成部111は、1又は複数の三次元人物モデルを用いて、三次元人物モデル毎に1又は複数のシーンを形成し、シーン毎に1又は複数の視野でコンピュータグラフィックスを生成することによって、複数の画像データを生成する。
三次元人物モデルは、例えば人物の各関節の位置と、人物の表面形状と、人物の表面の画像(テクスチャ画像)と、を有するデータである。三次元人物モデルを用いることによって、所望の視野で所望の姿勢の人物の画像を生成することが可能となる。このような三次元人物モデルは、予め人間の手によって作成されたデータであってもよいし、人工知能(Artificial Intelligence:AI)によって作成されたデータであってもよいし、モーションキャプチャ等の三次元形状を記録する技術を用いて作成されたデータであってもよい。三次元人物モデルが有する関節の数は、推定部13において求められる推定処理の精度などに応じて適宜決定されてよい。例えば、関節の数は15であってもよいし、より少ない数であってもよいし、より多い数であってもよい。例えば、指先の動きなどをより精度よく推定する必要がある場合には、該当部分の関節をより多い数とすることが望ましい。この場合、関節の数が増加する。
所定の姿勢とは、人物の関節の位置や角度によって定義される人の姿勢を示す。三次元人物モデルが有する関節の位置や角度を変更することによって、同一の三次元人物モデルから複数の姿勢を得ることができる。
シーンとは、生成されるコンピュータグラフィックスの空間(以下「対象空間」という。)のモデリングデータを示す。シーンは、三次元人物モデルと環境情報とによって定義される。環境情報とは、対象空間内に位置する物に関する情報である。例えば、環境情報は、対象空間内に位置する光源の位置、光源の種類、光源が光を発する方向、光源が発する光の強さ、対象空間内に位置する物体(壁、家具、植物、動物など)の材質や位置などを示す。三次元人物モデルの姿勢や位置、環境情報のいずれか一つでも異なれば、異なるシーンである。複数のシーンは、予め人間の手によって作成されてもよいし、人工知能によって作成されてもよい。
データ生成部111は、上述したように、一つのシーンに対して複数の視野でコンピュータグラフィックスをレンダリングしてもよい。視野は例えば視点の位置と視線の方向とによって定義される。視点の位置は、シーンの全周囲と定められてもよい。また、視野は、シーンの特性や用途等の情報に合わせて変更されてもよい。例えば、後述する入力部12に入力される実処理の対象の画像において視野が予め定められている場合には、その視野と同じ視野でコンピュータグラフィックスが生成されてもよい。
関節情報は、三次元人物モデルの各関節の位置を示す情報(関節位置情報)と、各関節が成す角度を示す情報(関節角度情報)と、を有する。関節位置情報は、例えば三次元人物モデルの所定の位置を原点としたときの各関節の三次元座標値として表されてもよい。関節位置情報は、例えばシーンにおけるカメラ座標を基準として表されてもよい。関節角度情報は、例えばオイラー角を用いて表されてもよいし、クオータニオンを用いて表されてもよいし、他の表現で表されてもよい。関節情報は、三次元人物モデルのシーン毎に生成される。視野が変わったとしても、三次元人物モデル及びシーンが変わらなければ、関節情報は変わらない。
データ生成部111は、同一シーン(三次元人物モデル及びシーンが同じことを示す)において1又は複数の視野でコンピュータグラフィックスを生成する。同一シーンで生成された1又は複数の視野のコンピュータグラフィックスを、シーンCGセットという。データ生成部111は、シーンCGセットと、そのシーンにおける関節情報と、が対応付けられたデータを単位学習データとして出力する。データ生成部111は、このような単位学習データを複数生成する。データ生成部111は、複数の単位学習データを含む学習データを出力する。
図2は、データ生成部111の構成例を示す図である。図面のスペースの都合により、三次元人物モデルを図2では“3Dモデル”と表す。データ生成部111には、複数(例えばN種類)の三次元人物モデルが入力される。データ生成部111は、シーン生成部201及び画像生成部202を有する。シーン生成部201は、入力された三次元人物モデル毎に1又は複数(例えばM種類)のシーンを生成する。なお、三次元人物モデル毎に異なる数のシーンが生成されてもよい。画像生成部202は、シーン毎に、1又は複数(例えばL種類)の視野のコンピュータグラフィックスを生成する。画像生成部202は、生成されたコンピュータグラフィックスに基づいて、複数の単位学習データを生成する。
次に学習部112について説明する。学習部112は、データ生成部111によって生成された複数の単位学習データに基づいて学習処理を行う。学習部112は、機械学習を実行することによって、推定部13によって実行される推定処理に用いられるパラメータを取得する。推定処理とは、処理の対象となる画像(以下「対象画像」という。)から、対象画像に撮影されている人物の関節情報を推定する処理である。学習部112に実装される機械学習は、どのような技術であってもよい。例えば、ディープニューラルネットワーク(DNN)やサポートベクタマシン(SVM)等の技術が適用されてもよい。
図3は、学習部112の構成例を示す図である。学習部112には、複数の単位学習データを含む学習データが入力される。学習部112は、ネットワーク構築部211及びパラメータ学習部212を有する。なお、図3に示される学習部112は、DNNが適用された場合の具体例にすぎない。学習部112に他の機械学習の技術が適用される場合には、適用される機械学習に応じて学習部112の構成が変更されてもよい。
ネットワーク構築部211は、学習に用いられるネットワークを構築する。例えば、学習部112にDNNが適用されている場合、学習部112は、対象画像を入力とし、被写体の三次元の関節情報を出力とするディープニューラルネットワークを構築する。ネットワーク構築部211によって構築されるネットワークは、出力される三次元の関節情報の数に応じて構築される。例えば、ネットワークの出力層では、求められる関節の数に応じて次元数が決定される。
図4は、ネットワーク構築部211によって構築されるネットワークの具体例を示す図である。ネットワークは、単位学習データに含まれるL個の画像が入力であり、それらの画像に対応する関節情報が出力である。例えば、単位学習データに含まれる各画像(コンピュータグラフィックスとして生成された画像)は、縦のサイズが256、横のサイズが256、RGBの3チャネルで構成される3×256×256のカラー画像である。このカラー画像が視点数分入力される。各画像に対して、チャネル数は36で、5×5のカーネルを用いて36×5×5の畳み込みが行われる。さらに、2×2のプーリングが実行される。この時、畳み込み層で生成されるチャネル数は36、ストライド幅は2である。次に、これらの出力がCONCAT処理によって縦に連結される。このようなCONCAT処理によって多視点の画像が畳み込まれたデータが、以降の処理で同一のフィルタで畳み込まれる。このような構造のネットワークが用いられることによって、関節情報を求めるための空間的な特徴量を抽出することが可能となる。以降のネットワークの構造及び処理は、一般的なネットワークに準ずるものとなる。チャネル数は72であり、3×3のカーネルを用いてチャネル数72の72×3×3の畳み込みが行われる。2×2でストライド幅2のプーリングといった処理が2回繰り返される。それらの結果は、並べてFC層へと流し込まれる。FC層は、例えば3つの層で構成されている。それぞれの活性化関数として、ReLUが用いられる。ノード数は上流から順に512、1024、2048である。出力層では、15個の関節位置それぞれについて、xyzの座標位置と、xyzオイラー角が出力される。そのため、出力層は90次元となる。
上述した図4のネットワークは、あくまで一つの例にすぎない。各カーネルのサイズやストライド幅については、他の値が用いられてもよい。また、活性化関数の種類については、どのような関数が用いられてもよい。ただし、出力される関節情報は、関節数が変化した場合においても、関節ごとにxyzの座標位置と、xyzオイラー角とが出力されることが望ましい。
このようなネットワークを構築することによって、画像から被写体の三次元の関節情報を推定するためのネットワークが構築される。また、複数の視野の画像を重ね合わせることによって、画像上での関節情報として扱うのではなく、空間上での関節情報として扱える。そのため、三次元の関節情報を推定することが可能となる。
パラメータ学習部212は、ネットワーク構築部211によって構築されたネットワークに関して、データ生成部111によって生成された学習データを用いた機械学習を行うことによって、ネットワークのパラメータを取得する。この時、反復回数や初期パラメータについては、最適と考えられる値が手動で与えられてもよい。
以下、入力部12及び推定部13について説明する。
図5は、入力部12の構成例を示す図である。入力部12には、対象画像が入力される。入力部12は、画像取得部21及び画像加工部22を有する。
画像取得部21は、推定装置10に対して入力される対象画像のデータを取得する。画像取得部21は、例えばCD−ROMやUSBメモリ(Universal Serial Bus Memory)等の記録媒体に記録された対象画像のデータを記録媒体から読み出してもよい。画像取得部21は、スチルカメラやビデオカメラによって撮像された対象画像を、カメラから受信してもよい。推定装置10がスチルカメラやビデオカメラ若しくはカメラを備えた情報処理装置に内蔵されている場合は、画像取得部21は撮像された対象画像又は撮像前の対象画像をバスから受信してもよい。画像取得部21は、ネットワークを介して他の情報処理装置から対象画像のデータを受信してもよい。画像取得部21は、対象画像のデータの入力を受けることが可能な構成であれば、さらに異なる態様で構成されてもよい。画像取得部21は、入力された動画像の所定周期のフレームを対象画像として取得してもよい。
画像加工部22は、画像取得部21によって取得された対象画像に対し、所定の画像処理を実行する。画像加工部22は、例えば、対象画像のサイズを、推定部13によって使用可能なサイズに変更してもよい。対象画像に複数人が撮像されている場合は、画像加工部22は、各人物の領域を切り出すことによって複数の対象画像を生成し、切り出された各対象画像のサイズを推定部13によって使用可能なサイズに変更してもよい。この場合、画像加工部22は、画像から人物の領域を検出する人物検出処理を行ってもよい。なお、推定部13によって使用可能な対象画像が推定装置10に入力される場合には、入力部12は画像加工部22を備えないように構成されてもよい。
図6は、推定部13の構成例を示す図である。推定部13には対象画像及び学習結果が入力される。推定部13に入力される対象画像は、入力部12が画像加工部22を備えている場合には、画像加工部22によって画像処理がなされた対象画像である。推定部13に入力される学習結果は、学習装置11によって実行された学習処理の結果である。学習結果は、例えば学習によって得られたパラメータが設定されたネットワークである。
推定部13は、学習装置11による機械学習の結果を用いて、対象画像に写っている被写体の関節情報を推定する。推定部13が使用する機械学習の結果とは、例えば学習部112によって得られたパラメータが与えられたネットワークである。推定部13が使用する機械学習の結果とは、例えば機械学習によって得られた識別器である。
図7は、推定装置10の前処理の流れの具体例を示す図である。推定装置10の前処理は、学習装置11によって実行される。まず、データ生成部111は、関節情報を含む三次元人物モデルを取得する(ステップS101)。次に、データ生成部111は、三次元人物モデルの関節情報を変更することによって、複数の姿勢のシーンを生成する(ステップS102)。次に、データ生成部111は、シーン毎に複数の視野でコンピュータグラフィックス(画像)をレンダリングする(ステップS103)。データ生成部111は、シーン毎に生成された複数の画像と関節情報とを対応付けて単位学習データを生成する(ステップS104)。次に、学習部112が、データ生成部111によって生成された複数の単位学習データ(画像及び関節情報)に基づいて学習処理を実行する(ステップS105)。学習部112は、学習処理の結果に基づいて得られたパラメータをネットワークに設定する(ステップS106)。
図8は、推定装置10の推定処理の流れの具体例を示す図である。入力部12は、対象画像を入力する(ステップS201)。推定部13は、入力部12によって入力された対象画像に対し、学習装置11の学習結果を用いた推定処理を実行する。推定部13は、推定処理によって、対象画像に撮像されている人物の関節情報を推定する(ステップS202)。
このように構成された推定装置10では、データ生成部111によってレンダリングされたコンピュータグラフィックスを用いて学習データが生成される。そのため、三次元の関節情報と画像とを含む複数の学習データをより容易に生成することができる。特にディープラーニング等の機械学習では、一般的に多量の学習データが必要となるため、上述した推定装置10は有効である。
また、一つの三次元人物モデルの関節情報を変更することによって、一つの三次元人物モデルから多様な関節情報に基づく画像と関節情報とを生成することができる。例えば、従来のモーションキャプチャでは、たとえ同一の人物(三次元人物モデル)であっても、異なる姿勢毎に関節情報の測定を行う必要があり手間を要していた。一方、推定装置10では、たとえモーションキャプチャを用いたとしても、一度三次元人物モデルを取得してしまえば、その後は関節情報を変更することによって容易に複数の姿勢の学習データを取得することが可能となる。
また、三次元人物モデルには関節情報が定義されているため、学習データとしてより正確な関節情報を取得する事が可能となる。
(変形例)
データ生成部111によって生成されるコンピュータグラフィックスは、カラー画像であってもよいし、グレースケール画像であってもよいし、2値画像であってもよい。
上述した推定装置10による処理の対象は人物であったが、必ずしも処理の対象は人物に限定される必要は無い。処理の対象は、関節を有する生物又は物体であればどのようなものであってもよい。例えば、動物が処理の対象となってもよい。この場合、三次元人物モデルに代えて三次元動物モデルが用いられて関節情報の学習結果が得られる。推定装置10の入力部12には処理の対象となっている動物が撮影された画像が入力され、その動物の関節情報が推定される。例えば、ロボットが処理の対象となっても良い。この場合、三次元人物モデルに代えて三次元ロボットモデルが用いられて関節情報の学習結果が得られる。推定装置10の入力部12には処理の対象となっているロボットが撮影された画像が入力され、そのロボットの関節情報が推定される。
データ生成部111は、生成されたコンピュータグラフィックスに対して所定の処理(以下「画像前処理」という。)を実行してもよい。画像前処理とは、学習部112における学習処理や、推定部13による推定処理の精度をより高める事を目的として実行される処理である。画像前処理は、例えば、サイズの変更であってもよいし、処理の対象(例えば人物)の領域の切り出しであってもよい。ただし、生成されたコンピュータグラフィックスに対して実行される画像前処理は共通しており、変更後のサイズは全て同一になるように画像前処理が実行される。また、データ生成部111において実行される画像前処理は、入力部12において入力される処理対象の画像に対しても同様に実行される。この場合、入力部12において画像前処理が実行された後の画像のサイズは、データ生成部111によって画像前処理が実行された後のコンピュータグラフィックスのサイズと同じであることが望ましい。言い換えれば、学習部112において用いられるコンピュータグラフィックスのサイズと、推定部13において用いられる画像のサイズは同一であることが望ましい。このような画像前処理は、例えば画像加工部22によって実行されてもよい。
学習部112によって使用されるネットワークは、ネットワーク構築部211によって構築されるのではなく、予め構築されたものが不図示の記憶部に記憶されていてもよい。この場合、パラメータ学習部212は、記憶部に記憶されているネットワークを読み出すことによって機械学習を実行する。
学習装置11は、推定装置10とは別の装置として構成されてもよい。この場合、推定システムが構築されてもよい。推定システムは、推定装置10と学習装置11とを備える。この場合、推定装置10は、入力部12及び推定部13を備える。推定装置10は、ネットワーク等を介して学習装置11から学習結果を示すデータを取得し、推定処理を実行する。
データ生成部111は、学習装置11とは異なる学習データ生成装置に備えられてもよい。この場合、学習データ生成装置によって生成された学習データは、ネットワークや記憶媒体などを介して学習装置11に与えられてもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
10…推定装置, 11…学習装置, 111…データ生成部, 112…学習部, 12…入力部, 13…推定部, 201…シーン生成部, 202…画像生成部, 211…ネットワーク構築部, 212…パラメータ学習部, 21…画像取得部, 22…画像加工部

Claims (6)

  1. 関節を有する生物又は物体の三次元形状を表す三次元モデルについて、複数の視野によりレンダリングされた画像と、レンダリングされた際の前記三次元モデルの関節の位置及び角度を示す関節情報と、を含む学習データを生成するデータ生成部を備える学習データ生成装置。
  2. 前記データ生成部は、同一の三次元モデルに基づいて前記関節情報が異なる複数のシーンを生成し、前記シーン毎に1又は複数の視野の画像をレンダリングする、請求項1に記載の学習データ生成装置。
  3. 請求項1又は2に記載の学習データ生成装置と、
    前記データ生成部によって生成された前記画像及び前記関節情報を用いて機械学習を行うことにより、処理の対象となる画像である対象画像に基づいて前記対象画像に撮像されている生物又は物体の関節情報を推定するための学習結果を取得する学習部と、
    を備える学習装置。
  4. 請求項3に記載の学習装置と、
    前記学習装置によって取得された前記学習結果を用いることによって、前記対象画像に撮像されている生物又は物体の関節情報を推定する推定部と、を備える推定装置。
  5. 関節を有する生物又は物体の三次元形状を表す三次元モデルについて、複数の視野によりレンダリングされた画像と、レンダリングされた際の前記三次元モデルの関節の位置及び角度を示す関節情報と、を生成するデータ生成ステップを有する学習データ生成方法。
  6. コンピュータを、請求項1又は2に記載の学習データ生成装置として機能させるためのコンピュータプログラム。
JP2017023666A 2017-02-10 2017-02-10 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム Pending JP2018129007A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017023666A JP2018129007A (ja) 2017-02-10 2017-02-10 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017023666A JP2018129007A (ja) 2017-02-10 2017-02-10 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2018129007A true JP2018129007A (ja) 2018-08-16

Family

ID=63174456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017023666A Pending JP2018129007A (ja) 2017-02-10 2017-02-10 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2018129007A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法
WO2020148810A1 (ja) * 2019-01-15 2020-07-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
WO2020178957A1 (ja) * 2019-03-04 2020-09-10 日本電気株式会社 画像処理装置、画像処理方法及びプログラム記録媒体
CN112070241A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 基于机器学习模型的植物生长预测方法、装置和设备
WO2021005878A1 (ja) * 2019-07-11 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
KR20210081770A (ko) * 2019-12-24 2021-07-02 한국전자통신연구원 골관절염 예측 정보 제공 방법 및 장치
JP2022512295A (ja) * 2018-12-07 2022-02-03 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー 電気機械スイッチング装置の摩耗を検出する装置および方法
WO2023189104A1 (ja) * 2022-03-30 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877387A (ja) * 1994-09-01 1996-03-22 Nec Corp 映像提示装置
JP2012083955A (ja) * 2010-10-12 2012-04-26 Nippon Telegr & Teleph Corp <Ntt> 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
JP2013020578A (ja) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2014085933A (ja) * 2012-10-25 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2018129009A (ja) * 2017-02-10 2018-08-16 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877387A (ja) * 1994-09-01 1996-03-22 Nec Corp 映像提示装置
JP2012083955A (ja) * 2010-10-12 2012-04-26 Nippon Telegr & Teleph Corp <Ntt> 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム
JP2013020578A (ja) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2014085933A (ja) * 2012-10-25 2014-05-12 Nippon Telegr & Teleph Corp <Ntt> 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2018129009A (ja) * 2017-02-10 2018-08-16 日本電信電話株式会社 画像合成装置、画像合成方法及びコンピュータプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PAUL E. DEBEVEC ET AL.: "Modeling and Rendering Architecture from Photographs: A hybrid geometry - and image-based approach", SIGGRAPH'96: PROCEEDINGS OF THE 23RD ANNUAL CONFERENCE ON COMPUTER GRAPHICS AND INTERACTIVE TECHNIQU, JPN6020009284, August 1996 (1996-08-01), US, pages 11 - 20, XP059140364, ISSN: 0004230404, DOI: 10.1145/237170.237191 *
服部 雄一 ほか: "視体積交差法復元形状への標準人体モデル当てはめによる高精度化", 情報処理学会研究報告 2007-CVIM-158, vol. 2007, no. 31, JPN6013037956, March 2007 (2007-03-01), JP, pages 147 - 154, ISSN: 0004230403 *
高木 和久 ほか: "多視点データ学習による視点不変な人物姿勢推定", 電子情報通信学会技術研究報告 PRMU2016-127−PRMU2016-151, vol. 116, no. 411, JPN6020009282, 12 January 2017 (2017-01-12), JP, pages 235 - 240, ISSN: 0004230402 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020082246A (ja) * 2018-11-20 2020-06-04 大日本印刷株式会社 姿勢データ生成装置、学習器、コンピュータプログラム、学習データ、姿勢データ生成方法及び学習モデルの生成方法
JP2022512295A (ja) * 2018-12-07 2022-02-03 フェニックス コンタクト ゲーエムベーハー ウント コムパニー カーゲー 電気機械スイッチング装置の摩耗を検出する装置および方法
WO2020148810A1 (ja) * 2019-01-15 2020-07-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JP7134260B2 (ja) 2019-01-15 2022-09-09 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JPWO2020148810A1 (ja) * 2019-01-15 2021-11-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
JPWO2020178957A1 (ja) * 2019-03-04 2021-10-21 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
WO2020178957A1 (ja) * 2019-03-04 2020-09-10 日本電気株式会社 画像処理装置、画像処理方法及びプログラム記録媒体
JP7294402B2 (ja) 2019-03-04 2023-06-20 日本電気株式会社 画像処理装置、画像処理方法及びプログラム
US11803615B2 (en) 2019-03-04 2023-10-31 Nec Corporation Generating 3D training data from 2D images
WO2021005878A1 (ja) * 2019-07-11 2021-01-14 ソニー株式会社 情報処理装置、情報処理方法および情報処理プログラム
US11986746B2 (en) 2019-07-11 2024-05-21 Sony Group Corporation Information processing device and information processing method
KR20210081770A (ko) * 2019-12-24 2021-07-02 한국전자통신연구원 골관절염 예측 정보 제공 방법 및 장치
KR102505614B1 (ko) 2019-12-24 2023-03-06 한국전자통신연구원 골관절염 예측 정보 제공 방법 및 장치
CN112070241A (zh) * 2020-09-11 2020-12-11 腾讯科技(深圳)有限公司 基于机器学习模型的植物生长预测方法、装置和设备
WO2023189104A1 (ja) * 2022-03-30 2023-10-05 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム

Similar Documents

Publication Publication Date Title
JP2018129007A (ja) 学習データ生成装置、学習装置、推定装置、学習データ生成方法及びコンピュータプログラム
CN109636831B (zh) 一种估计三维人体姿态及手部信息的方法
Alldieck et al. imghum: Implicit generative models of 3d human shape and articulated pose
Achenbach et al. Fast generation of realistic virtual humans
US10685454B2 (en) Apparatus and method for generating synthetic training data for motion recognition
CN110998659B (zh) 图像处理系统、图像处理方法、及程序
CN111243093B (zh) 三维人脸网格的生成方法、装置、设备及存储介质
JP6793151B2 (ja) オブジェクトトラッキング装置、オブジェクトトラッキング方法およびオブジェクトトラッキングプログラム
US10140777B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6676562B2 (ja) 画像合成装置、画像合成方法及びコンピュータプログラム
KR20150113751A (ko) 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치
TW201415414A (zh) 資料之登錄方法
JP7448679B2 (ja) 画像処理方法及び装置
Hu et al. 3DBodyNet: fast reconstruction of 3D animatable human body shape from a single commodity depth camera
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
CN113706699A (zh) 数据处理方法、装置、电子设备及计算机可读存储介质
JP2014085933A (ja) 3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
JP2019016164A (ja) 学習データ生成装置、推定装置、推定方法及びコンピュータプログラム
WO2019012632A1 (ja) 認識処理装置、認識処理方法及びプログラム
JP4474546B2 (ja) 顔形状モデリングシステムおよび顔形状モデリング方法
JP2010211732A (ja) 物体認識装置および方法
CN110008873B (zh) 面部表情捕捉方法、系统及设备
JP5767078B2 (ja) 姿勢推定装置、姿勢推定方法及び姿勢推定プログラム
CN111105489A (zh) 数据合成方法和装置、存储介质和电子装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707