JP7375666B2 - 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム - Google Patents

推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム Download PDF

Info

Publication number
JP7375666B2
JP7375666B2 JP2020074799A JP2020074799A JP7375666B2 JP 7375666 B2 JP7375666 B2 JP 7375666B2 JP 2020074799 A JP2020074799 A JP 2020074799A JP 2020074799 A JP2020074799 A JP 2020074799A JP 7375666 B2 JP7375666 B2 JP 7375666B2
Authority
JP
Japan
Prior art keywords
image
joint
unit
blank area
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020074799A
Other languages
English (en)
Other versions
JP2021174059A (ja
Inventor
聡一 戎野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2020074799A priority Critical patent/JP7375666B2/ja
Priority to CN202180018560.8A priority patent/CN115244578A/zh
Priority to US17/911,422 priority patent/US20230101893A1/en
Priority to PCT/JP2021/008703 priority patent/WO2021215129A1/ja
Publication of JP2021174059A publication Critical patent/JP2021174059A/ja
Application granted granted Critical
Publication of JP7375666B2 publication Critical patent/JP7375666B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象者を撮影した画像を用いて対象者の骨格位置を推定する推定装置等に関する。
人間の動作を解析することで、工場作業者(対象者)の作業改善が行われている。従来では、ビデオカメラで撮影した動画を見て、人間が作業時間を計測し、作業改善を進めている。人間の動作解析を自動化する試みも進んでおり、深層学習を用いた関節の位置及び対応関係の推定である骨格推定が従来技術として知られている(非特許文献1参照)。
"OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE,2019
しかしながら、上述のような従来技術は、プライバシー保護の観点及び、作業机上の作業解析性から作業者(対象者)の顔が映らない角度で(例えば上方から)撮影することが求められている。
既存の深層学習をベースにした骨格推定としては、非特許文献1に関するOpenPoseが挙げられる。OpenPoseでは、処理範囲の仕組み上、肩または首の関節を含まない画像から骨格を安定して推定する事ができない。
本発明の一態様は、対象者の一部の関節を含まない画像から、対象者の該関節の関節位置を含む骨格情報を安定して推定することを目的とする。
上記の課題を解決するために、本発明の一態様に係る推定装置は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、前記第2の画像と学習済み推定モデルとを用いて、前記ブランク領域に位置する前記第2関節の関節位置を含む骨格情報を推定する推定部と、を備えている。
上記の構成によれば、第2関節が欠落した第1の画像にブランク領域を付加することで、ブランク領域に位置する第2関節の関節位置を含む骨格情報を安定して推定することができる。
前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させてもよい。
上記の構成によれば、第1の画像の1辺を超えた位置に存在する対象者の第2関節の関節位置を推定することができる。
前記第2関節は、首の関節を含んでもよい。
上記の構成によれば、第1の画像は、例えば肩・肘・手・腰が写っているが、首が写っていない画像とすることができる。それゆえ、対象者の顔が映っていない第1の画像を用いて、首を含む骨格情報を安定して正確に推定することができる。
前記画像取得部は、上方から撮影された前記第1の画像を取得してもよい。
上記の構成によれば、上方から撮影した画像を用いることで、例えば対象者の顔が映らないようにし、作業机上の作業対象及び対象者(作業者)の骨格情報を一緒に用いた作業解析が行える。
上記の課題を解決するために、本発明の一態様に係る学習装置は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、前記ブランク領域に位置する前記第2関節を含む骨格情報及び前記第2の画像を含む教師データを記憶する教師データ記憶部と、前記教師データを用いて、前記骨格情報及び前記第2の画像から骨格情報の推定モデルを学習する学習部と、を備えている。
上記の構成によれば、第2関節が欠落した第1の画像にブランク領域を付加し、ブランク領域上に位置する第2関節を教師データに含ませることで、ブランク領域に第2関節を有する骨格情報を学習することができる。
前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させてもよい。
前記第2関節は、首の関節を含んでもよい。
前記学習装置は、前記第2の画像に幾何変形の画像処理を施し第3の画像を生成するデータ拡張部と、前記第3の画像における、前記第2の画像に対応する領域内の不足画素領域をブランク領域で修正し、学習用の新たな第2の画像とする不足領域修正部と、を備えてもよい。
上記の構成によれば、少ない画像からでも複数の教師データを作成することができ、学習を効率的に行える。
前記画像取得部は、上方から撮影された前記第1の画像を取得してもよい。
上記の構成によれば、上方から撮影した画像を用いることで、作業机上の作業対象及び対象者(作業者)の骨格情報で推定モデルを学習することができる。
上記の課題を解決するために、本発明の一態様に係る教師データ作成装置は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、前記第2の画像を表示する表示制御部と、前記第2の画像における前記ブランク領域に対して前記第2関節の関節位置の入力をユーザから受け付ける入力部と、前記第1関節及び前記第2関節の関節位置を含む骨格情報を、前記第2の画像に対応付けた教師データを作成する教師データ作成部と、を備えている。
上記の構成によれば、第2関節が欠落した第1の画像にブランク領域を付加することで、ブランク領域に位置する第2関節の関節位置を含む教師データを作成することができる。
前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させてもよい。
前記第2関節は、首の関節を含んでもよい。
本発明の一態様に係る推定方法は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、前記第2の画像と学習済み推定モデルとを用いて、前記ブランク領域に位置する前記第2関節の関節位置を含む骨格情報を推定する推定ステップと、を含む。
本発明の一態様に係る学習方法は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、前記ブランク領域に位置する前記第2関節を含む骨格情報及び前記第2の画像を含む教師データを取得する教師データ取得ステップと、前記教師データを用いて、前記骨格情報及び前記第2の画像から骨格情報の推定モデルを学習する学習ステップと、を含む。
本発明の一態様に係る教師データ作成方法は、対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、前記第2の画像を表示する表示制御ステップと、前記第2の画像における前記ブランク領域に対して前記第2関節の関節位置の入力をユーザから受け付ける入力ステップと、前記第1関節及び前記第2関節の関節位置を含む骨格情報を、前記第2の画像に対応付けた教師データを作成する教師データ作成ステップと、を含む。
本発明の各態様に係る推定装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記推定装置が備える各部(ソフトウェア要素)として動作させることにより前記推定装置をコンピュータにて実現させる推定プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の各態様に係る学習装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記学習装置が備える各部(ソフトウェア要素)として動作させることにより前記学習装置をコンピュータにて実現させる学習プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の各態様に係る教師データ作成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記教師データ作成装置が備える各部(ソフトウェア要素)として動作させることにより前記教師データ作成装置をコンピュータにて実現させる教師データ作成プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の一様態によれば、ブランク領域に位置する関節を含む骨格情報を推定できる。
本発明の実施形態1に係る推定装置の学習動作での構成要素の一例を示すブロック図である。 本発明の実施形態1に係る推定装置の推定動作での構成要素の一例を示すブロック図である。 本発明の実施形態1に係る推定装置の学習動作での構成要素のデータの状態を表すモデル図である。 本発明の実施形態1に係る推定装置で推定する骨格情報の模式図である。 本発明の実施形態1に係る推定装置の学習処理を示すフローチャートである。 本発明の実施形態1に係る推定装置の推定処理を示すフローチャートである。 本発明の実施形態2に係る教師データ作成装置の要部構成の一例を示すブロック図である。 本発明の実施形態2に係る教師データ作成部での関節位置を指定するユーザインタフェースの一例である。 本発明の実施形態2に係る教師データ作成装置の動作フローチャートである。 本発明の実施形態3に係る上方から作業者を撮影した画像の模式図である。 本発明の実施形態3に係る側面から作業者を撮影した画像の模式図である。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。
〔実施形態1〕
§1.適用例
推定装置は作業者(対象者)を撮影した画像を用いて、その作業者の骨格情報を推定する装置である。骨格情報は、作業者の各関節位置の情報を含む。作業者の関節位置は、作業動作に対応した作業者の姿勢を表す。
上記の推定に先立ち、推定装置は、当該推定に用いる推定モデルを学習する。具体的には、推定装置は、作業者を上方から撮影した画像に対し、該画像中に含まれる又は人間が推測できる関節位置により構成された骨格情報を対応付け、教師データとして生成する。推定装置は、生成した教師データを用いて、推定モデルを学習する。
作業者を上方から撮影した画像には、作業者の顔が含まれていないため、作業者の一部の関節、例えば首の関節は含まれていない。上記学習にあたって、一部の関節が欠落した画像に対しブランク領域を設定した画像を学習に用いる。これにより、ブランク領域中の欠落した関節位置を推定する推定モデルが生成される。
以上のようにして、推定モデルを生成した後、関節の一部が欠落した画像を推定装置に入力し、推定モデルを用いて推定させることで、プライバシーを保護したまま骨格情報を推定することができる。
§2.構成例
図1から4に基づいて推定装置1の構成例を説明する。図1は、推定装置1の構成要素のうち、学習動作で働く構成要素の一例を示すブロック図である。図2は、推定装置1の構成要素のうち、推定動作で働く構成要素の一例を示すブロック図である。図3は、推定装置1の学習動作での構成要素のデータの状態を表すモデル図である。図4は、推定装置1で推定する骨格情報の模式図である。
図1、2に示すように、推定装置1(学習装置)は、推定装置1の各部を統括して制御する制御部10と、推定装置が使用する各種データを記憶する記憶部20とを備えている。
制御部10には、ブランク領域拡張部101、教師データ作成部102、データ拡張部103、過不足領域修正部104、推定モデル取得部111、特徴量抽出部112、関節推定部113、結合度推定部114、骨格推定部121、推定モデル学習部122、入力部130及び出力部140が含まれている。また、記憶部20には、教師データ記憶部201、及び推定モデル記憶部202が含まれている。
制御部10のうち、学習動作では学習部11が働き(図1参照)、推定動作では推定部12が働く(図2参照)。学習部11には、特徴量抽出部112、関節推定部113、結合度推定部114、骨格推定部121及び推定モデル学習部122が含まれている。推定部12には、推定モデル取得部111、特徴量抽出部112、関節推定部113、結合度推定部114及び骨格推定部121が含まれている。
入力部130(画像取得部)は、推定装置1に対する画像を含むデータ入力及びユーザ入力を受け付ける。入力部130は、画像300の入力を受け付け、ブランク領域拡張部101に画像300を出力する。また、入力部130は、推定装置1に接続されたカメラ、ネットワークを介した外部のサーバ、または推定装置1内の記憶装置から画像300を取得してもよい。入力部130は静止画だけではなく動画の入力にも対応していてもよい。
画像300(第1の画像)は、作業者の関節の一部、例えば肘または手の関節などが写っているが、作業者の関節の他の一部、例えば首または肩などが欠落した画像である。画像300は、例えば作業者の顔を含まないため作業者のプライバシーを保護することができる。画像300としては、作業者の上方から撮像した画像でもよく、この場合、作業者が作業している状況を撮像し易い。上方から撮像することで、例えば作業机の上の作業対象の位置の変化なども、作業している状況として撮像可能である。上方から撮像した画像300も、作業者の関節の他の一部、例えば首または肩などを含まない。
また、入力部130は、入力装置を介して、ユーザの推定装置1に対する操作入力も受け付ける。入力装置は、例えば、マウス、またはタッチパネルなどのポインティングデバイス、または十字キーであってもよい。入力部130は、ユーザから、画像に対する関節位置の指定を受け付ける。ユーザ入力としては、ブランク済み画像301に対するポインティングデバイスでの位置指定、十字キーによる位置指定、または、ブランク済み画像301の画素座標を直接指定してもよい。入力部130は、入力された関節位置の情報(教師骨格情報312)を教師データ作成部102に出力する。
ブランク領域拡張部101は、入力された画像300の少なくとも1辺に隣接するブランク領域311を付加することで、画像範囲(画像サイズ)が拡張されたブランク済み画像301を作成する。その後、ブランク領域拡張部101は、教師データ作成部102又は特徴量抽出部112にブランク済み画像301を出力する。
ブランク済み画像301(第2の画像)は、画像300とブランク領域311とが一体化された画像である。図3では、ブランク領域311は右下がりのハッチングで示されているが、実際は特定の単色で塗りつぶされている。特定の単色は、例えば黒色または白色だが、これに限らない。なお、ブランク領域311は、単色ではなく、特定の模様またはハッチング(複数のブランク済み画像301に対して同じ模様またはハッチング)が施された領域であってもよい。また、図3では、ブランク領域311は画像300の1辺に隣接しているが、2辺以上に隣接していてもよい。
ブランク領域のサイズ及び配置は、ユーザ入力によって設定可能なパラメータであってもよい。
教師データ作成部102は、ブランク済み画像301に対し、教師骨格情報312を対応づけた骨格含有データ302(教師データ)を作成する。その後、教師データ作成部102は、データ拡張部103に骨格含有データ302を出力する。
骨格含有データ302は、ブランク済み画像301並びに、教師骨格情報312により構成されたデータである。教師骨格情報312は、ブランク済み画像301に対応する、作業者の複数の部位(首、右肩、右肘、右手、左肩、左肘、左手、右腰及び左腰)のそれぞれの位置(関節位置)の情報を含む。
教師骨格情報312として設定する関節(部位)は、ここでは、首、右肩、右肘、右手、左肩、左肘、左手、右腰及び左腰の9箇所とするが、この限りではなく頭や足を設定してもよいし、一部の関節(右手等)が欠けていてもよい。図3では、教師骨格情報312について、関節を黒丸で、関節間の結合を線分で示す。
データ拡張部103は、入力された骨格含有データ302に対し任意の画像処理を行い、画像処理済みデータ303を作成する。その後、過不足領域修正部104に画像処理済みデータ303を出力する。
画像処理済みデータ303は、ブランク済み画像301に対して画像処理を適用された画像処理済み画像303a、及び画像処理と同様の幾何変形を施された教師骨格情報312を含むデータである。幾何変形としては、左右反転、回転、拡大縮小、左右移動、上下移動及び射影変換などがある。
画像処理としては、明度変更、色彩変更及び幾何変形などがある。上記画像処理は、一度に1種類とは限らず、順に複数適用してもよい。また、何も画像処理せずに過不足領域修正部104に骨格含有データ302を画像処理済みデータ303としてスルー出力してもよい。
過不足領域修正部104(不足領域修正部)は、入力された画像処理済みデータ303の画像処理済み画像303aに対し、元の画像サイズ(ブランク済み画像301の画像サイズ)の領域内の画素のうち、画像情報がない領域を不足画素領域313に設定する。過不足領域修正部104は、元のブランク済み画像301のブランク領域311と同じ領域も、改めてブランク領域314に設定する。過不足領域修正部104は、画像処理済みデータ303のうち、元の画像サイズの領域をはみ出た部分は無視する。過不足領域修正部104は、画像処理済み画像303aにおいて、不足画素領域313をブランク領域で修正する(ブランク領域311と同じ単色で塗りつぶす)ことで、過不足修正済み画像304aを生成する。
教師データ304は、過不足修正済み画像304a(第2の画像)、及び画像処理と同様の幾何変形を施された教師骨格情報312を含む。過不足領域修正部104は、教師データ記憶部201に教師データ304を出力する。
図3では、不足画素領域313は右上がりのハッチングであるが、実際はブランク領域311と同色の単色の塗りつぶしとする。また、データ拡張部103の処理で、画像処理として幾何変形を施したため画像処理前に画像があった画素に画像がなくなった画素も、上記不足画素領域313に含める。また、幾何変形により、元の画像領域からはみ出た分の画素は過不足修正済み画像304aには含めない。
教師データ記憶部201は、入力された教師データ304を記憶する。また、制御部10の指示に基づき、教師データ304を特徴量抽出部112及び推定モデル学習部122に出力する。
推定モデル取得部111は、記憶された推定モデルを推定モデル記憶部202から取得する。推定モデル取得部111は、特徴量抽出部112、関節推定部113、及び結合度推定部114に、推定モデル(の複数のパラメータ)を出力する。
特徴量抽出部112は、入力された教師データ304を構成する過不足修正済み画像304aまたはブランク済み画像301から特徴量を抽出する。特徴量抽出部112は、抽出した特徴量を関節推定部113と結合度推定部114とに出力する。
関節推定部113は、入力された特徴量から、複数の関節の位置を表す関節推定結果を作成する。関節推定部113は、関節推定結果を骨格推定部121に出力する。
結合度推定部114は、入力された特徴量から、関節間の結合度を表す結合度推定結果を求める。結合度推定部114は、結合度推定結果を、骨格推定部121に出力する。
骨格推定部121は、入力された関節推定結果と結合度推定結果とから、推定骨格情報を推定する。骨格推定部121は、推定骨格情報を、推定モデル学習部122および出力部140に出力する。
推定骨格情報は、推定に用いる画像(過不足修正済み画像304aまたはブランク済み画像301)の作業者に対応する、関節位置の情報を含む。推定骨格情報は、推定に用いる画像(過不足修正済み画像304aまたはブランク済み画像301)において、ブランク領域(311または313)に位置する一部の関節、例えば首や肩などの位置を含み得る。
図4に示すように、推定装置1では、首、右肩、右肘、右手、左肩、左肘、左手、右腰及び左腰の9個の関節を関節推定結果として推定する。また、推定装置1では、首と右肩、右肩と右肘、右肘と右手、首と左肩、左肩と左肘、左肘と左手、首と右腰及び首と左腰の8個の関節間の結合の度合いを結合度推定結果として推定する。
骨格推定部121は、関節の相対的な位置関係、関節毎に設定されている結合のルール、及び関節間の結合度の相対的な強さから、各関節の位置を決定する。特に推定に用いた画像に複数の作業者が含まれる場合、骨格推定部121は、結合度推定結果を用いて各関節がいずれの作業者に対応するかを特定する。
推定モデル学習部122は、入力された推定骨格情報と教師データ304内の教師骨格情報312とを比較する。十分な推定精度が得られていない場合、学習を継続し、特徴量抽出部112と関節推定部113と結合度推定部114とのパラメータを修正する。その後、再度学習するために特徴量抽出部112と関節推定部113と結合度推定部114とに、現状の特徴量と現状の関節推定結果と現状の結合度推定結果とを出力し、再度処理させる。
十分な推定精度が得られていた場合、推定モデル学習部122は、学習を終了し、特徴量抽出部112と関節推定部113と結合度推定部114とのパラメータを推定モデルとして、推定モデル記憶部202に記憶させる。
推定モデル記憶部202は、特徴量抽出部112、関節推定部113及び結合度推定部114のパラメータである推定モデルを記憶する。また、推定モデル取得部111に学習済みの推定モデルを出力する。
出力部140は、推定装置1による推定骨格情報の表示、推定装置1からのデータ出力を行う。
§3.動作例
(学習処理)
図5に基づいて、推定装置1の学習処理を説明する。図5は、推定装置1の学習処理を示すフローチャートである。
入力部130が画像300を取得し(S11)、画像300をブランク領域拡張部101に出力する。ブランク領域拡張部101は、画像300をブランク領域311で拡張することでブランク済み画像301を生成する(S12)。ブランク領域拡張部101は、教師データ作成部102にブランク済み画像301を出力する。
教師データ作成部102は、画像300に対応する教師骨格情報312をブランク済み画像301に対応づけることで、骨格含有データ302を作成する(S13)。教師データ作成部102は、データ拡張部103に骨格含有データ302を出力する。
データ拡張部103は、骨格含有データ302の画像(ブランク済み画像301)に対し、画像処理を適用することで画像処理済み画像303aを生成する(S14)。この時、回転、拡大縮小、左右移動、上下移動及び射影変換などの関節位置の画素座標が変化する画像処理では、データ拡張部103は、教師骨格情報312にも同様の変形を施す。これにより、データ拡張部103は、画像処理済み画像303aに対応した教師骨格情報312を生成する。データ拡張部103は、過不足領域修正部104に画像処理済み画像303aおよび教師骨格情報312を含む画像処理済みデータ303を出力する。
過不足領域修正部104は、画像処理済みデータ303の画像処理済み画像303aに対し、元の画像サイズ(ブランク済み画像301の画像サイズ)の領域内のうち、画像情報がない領域を不足画素領域313とする。過不足領域修正部104は、過不足領域(不足画素領域313及び元の画像サイズの領域をはみ出た領域)を修正する。元の画像サイズの領域をはみ出た領域は無視される。過不足領域修正部104は、不足画素領域313をブランク領域と同色の単色の塗りつぶしとする。また、過不足領域修正部104は、画像処理済み画像303aに対し、元のブランク済み画像301のブランク領域311と同じ領域も、改めてブランク領域314とする。これにより、過不足領域修正部104は、過不足修正済み画像304aを作成する(S15)。不足画素領域313とブランク領域314とは同色であるが、異なる色であってもよい。
過不足領域修正部104は、幾何変形された教師骨格情報312及び過不足修正済み画像304aを合わせた教師データ304を作成する(S15)。過不足領域修正部104は、作成した教師データ304を教師データ記憶部に記憶する(S16)。
教師データ記憶部に保存されている教師データ数が規定数より少ない場合(S17でNo)、再度、骨格含有データ302から教師データ304を作るプロセス(データ拡張処理S14~S16)を、教師データの数が規定数になるまで繰り返す。この時、データ拡張部103での画像処理は、毎度異なるものとする。画像処理の種類及び、変化量は乱数パラメータで決めてよいものとする。なお、何も画像処理しなかった場合、骨格含有データ302が教師データ304となる。
教師データ記憶部201に保存されている教師データの数が規定数以上の場合(S17でYes)、制御部10は、教師データの作成処理を終了し、学習処理に移行する。
学習部11は、教師データ記憶部201から教師データを読み込み、学習処理を行う。推定モデル学習部122は、推定モデル記憶部202から複数のパラメータを含む推定モデルを取得する。推定モデルは、画像を入力として、推定された骨格情報を出力とするモデルである。未学習の時点では、推定モデルは初期パラメータを含む。推定モデル学習部122は、特徴量抽出部112、関節推定部113、及び結合度推定部114に、対応する複数のパラメータを出力する。
特徴量抽出部112は、特徴量抽出用パラメータを用いて、教師データ304内の過不足修正済み画像304aから、特徴量を抽出する(S18)。関節推定部113は、関節推定用パラメータを用いて、抽出された特徴量を基に、関節位置を示す関節推定結果を求める(S19)。結合度推定部114は、結合度推定用パラメータを用いて、抽出された特徴量を基に、関節間の結合度を示す結合度推定結果を求める(S20)。骨格推定部121は、関節推定結果、及び結合度推定結果から、推定骨格情報を求める(S21)。
推定モデル学習部122は、推定骨格情報が教師データ304内の教師骨格情報312に対し、十分な精度があるかを判定する(S22)。推定モデル学習部122は、推定骨格情報と教師骨格情報との差が、所定の基準以内であれば、十分な精度があると判定する。
十分な精度がなかった場合(S22でNo)、推定モデル学習部122は、特徴量抽出部112、関節推定部113、及び結合度推定部114のパラメータを修正する(S23)。修正に当たっては、推定骨格情報と教師骨格情報312との誤差が少なくなるように、推定モデル学習部122は、パラメータを修正(推定モデルを学習)する。推定モデル学習部122は、修正されたパラメータを、特徴量抽出部112、関節推定部113、及び結合度推定部114に出力する。その後、学習部11は、S18~S21の処理を繰り返す。これを複数の教師データ304について行う。
十分な精度が得られた場合(S22でYes)、学習処理を終了し、推定モデル学習部122は、推定モデル記憶部202に学習済み推定モデルを記憶する(S24)。出力部140は、表示装置に学習が終了した旨を表示する。
図5のS22では、十分な精度をもって学習処理を終了するトリガーとしたが、この限りではなく、規定回数の繰り返し学習(S18~S23までの処理)を行って、学習終了としてもよい。
また、S18からS24までの類似処理として、OpenPoseを用いることも可能である。
(推定処理)
図6に基づいて、推定装置1の推定処理を説明する。図6は、推定装置1の推定処理を示すフローチャートである。
入力部130が画像300を取得し(S31)、画像300をブランク領域拡張部101に出力する。ブランク領域拡張部101は、画像300をブランク領域311で拡張することで、ブランク済み画像301を生成する(S32)。ブランク領域拡張部101は、特徴量抽出部112にブランク済み画像301を出力する。
推定モデル取得部111は、推定モデル記憶部202から、学習済み推定モデルを読込する(S33)。推定モデル取得部111は、学習済み推定モデルに含まれる複数のパラメータを、特徴量抽出部112、関節推定部113、及び結合度推定部114に出力する。
特徴量抽出部112は、特徴量抽出用パラメータを用いて、ブランク済み画像301から、特徴量を抽出する(S34)。関節推定部113は、関節推定用パラメータを用いて、抽出された特徴量を基に、関節位置を示す関節推定結果を求める(S35)。結合度推定部114は、結合度推定用パラメータを用いて、抽出された特徴量を基に、関節間の結合度を示す結合度推定結果を求める(S36)。骨格推定部121は、関節推定結果、及び結合度推定結果から、推定骨格情報を求める(S37)。その後、出力部140は、表示装置に骨格情報を表示する(S38)。なお、出力部140は、外部のサーバに骨格情報を出力してもよい。
また、S33からS38までの類似処理として、OpenPoseを用いることも可能である。
§4.作用・効果
以上のとおり、本実施形態1に係る推定装置1は、入力部130が画像300を取得した後、画像300にブランク領域311を付加し、ユーザ入力による教師骨格情報312を教示される。その後、データ拡張部103及び過不足領域修正部104にて、機械学習に必要な分のデータ数が得られるまで教師データ304を作成する。作成された教師データ304を用いて機械学習を行い、推定モデルを学習する。
学習後、入力部130が新たな画像300を取得した後、学習された推定モデルを用いて、ブランク領域311で拡張されたブランク済み画像301から推定骨格情報を推定する。
このように、推定装置1は、第2関節が欠落した画像300(第1の画像)にブランク領域311、314を付加したブランク済み画像301または過不足修正済み画像304aを第2の画像として生成する。推定装置1は、ブランク領域を含む第2の画像を推定モデルの入力とし、ブランク領域に位置する第2関節の関節位置を含む教師骨格情報を推定モデルの出力として学習を行う。これにより、推定装置1は、第2関節が欠落した画像300から、第2関節の関節位置を含む骨格情報を推定できる推定モデルを作ることができる。推定装置1は、第2関節が位置すると考えられる領域まで画像範囲を拡張して学習することにより、画像情報がないブランク領域311に位置する第2関節の関節位置を適切に推測できるようになる。それゆえ、推定装置1は、学習済の推定モデルを用いて、第2関節が欠落した画像300から、第1関節及び第2関節の関節位置を含む推定骨格情報を推定することができる。
従来技術では、例えば、右腕と左腕とを接続する首または肩の関節位置を推定しない場合(画像に首または肩の関節位置が含まれていない場合)、右腕及び左腕の関節の位置を安定して正確に推定することができない。
推定装置1は、画像に首(または肩)の関節位置が含まれていなくとも、右腕及び左腕の関節位置とともに、右腕と左腕とを接続する首(または肩)の関節位置をも推定する。これにより、右腕及び左腕の関節位置も安定して正確に推定することができる。
また、入力部は、頭、首及び肩などが欠落したプライバシーを考慮した画像、及び作業机上の状況がわかる画像を入力できる。上記画像を用いることで、対象者の時間変化に伴う骨格情報の時間変化に加え、作業机上の作業対象の時間変化も併せて解析ができる。これらの同時での解析により、対象者の作業解析が自動化できる。
(変形例)
なお、関節推定部113及び結合度推定部114を多段に構成してもよい。例えば、関節推定部113及び結合度推定部114は、特徴量から関節推定結果及び結合度推定結果を求めた後、関節推定結果及び結合度推定結果を用いて、もう一度推定を行ってもよい。この場合、関節推定部113は、1回目の関節推定結果を結合度推定部114に出力し、結合度推定部114は、1回目の結合度推定結果を関節推定部113に出力する。関節推定部113は、特徴量と1回目の関節推定結果と1回目の結合度推定結果とを用いて、2回目の関節推定結果を求める。結合度推定部114は、特徴量と1回目の関節推定結果と1回目の結合度推定結果とを用いて、2回目の結合度推定結果を求める。この際、関節推定部113及び結合度推定部114は、1回目とは異なるパラメータを用いる。また、関節推定部113及び結合度推定部114は、3回以上推定処理を行ってもよい。これにより、推定の精度が向上する。
〔実施形態2〕
本発明の他の実施形態について、図7から図9に基づいて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
§1.構成例
図7に基づいて、本実施形態に係る教師データ作成装置2の構成を説明する。図7は、教師データ作成装置2の要部構成の一例を示すブロック図である。
図7に示すように、教師データ作成装置2は、学習データ作成装置の各部を統括して制御する制御部10と、教師データ作成装置2が使用する各種データを記憶する記憶部20を備えている。なお、記憶部20は、教師データ作成装置2に対して外付けされた機器であってもよい。
制御部10には、ブランク領域拡張部101、教師データ作成部102、入力部130及び表示制御部150とが含まれている。
表示制御部150は、教師データ作成装置2の状態表示及び画像表示を行う機能をもつ。表示制御部150によって制御される対象の図示しない表示装置は、教師データ作成装置2に対して外付けされた機器であってもよい。
図8に基づいて、本実施形態に係る学習データ作成装置のユーザインタフェースを説明する。図8は、教師データ作成部での関節位置を指定するユーザインタフェース51の一例である。
ユーザインタフェース51は、画像表示部501、作業者リスト511、作業者追加ボタン513、関節リスト521、座標表示指示部531を備えている。ユーザインタフェース51の表示は表示制御部150によって制御される。
画像表示部501は、表示制御部150の指示に従ったブランク済み画像301を表示する領域である。また、ユーザ入力によって入力された編集関節位置541、確定関節位置542、結合情報543を表示する。編集関節位置541及び確定関節位置542は互いに異なる表示をしており、識別できるようになっている。結合情報543は、前述した関節の結合関係に従った関節間の結合を表す表示である。図8では、矢印にて表示しているが、この限りではなく線分でもよい。
作業者リスト511は、ブランク済み画像301に含まれる作業者のリストである。ブランク済み画像301に1名の作業者のみが含まれる場合、「作業員1」のみが使用される。作業者リスト511の中の設定中の作業者は、編集作業者512としてハイライト表示されてもよい。
関節リスト521は、作業者の設定しなければならない関節の一覧である。設定対象の関節としては、首、右肩、右肘、右手、左肩、左肘、左手、右腰及び左腰の9個であるが、この限りではなく頭や足を設定できるようになっていてもよい。関節リストの中の設定中の関節(編集関節位置541に対応する)は、編集関節522としてハイライト表示されてもよい。
座標表示指示部531は、編集関節522の設定中の画素座標を示し、X座標の為のX座標表示指示部532及びY座標の為のY座標表示指示部533からなる。X座標もY座標もともに、現在設定中の画素を表示することに加え、ユーザ入力をも受けつけている。ユーザ入力により座標が変化した場合、表示制御部150にて編集関節位置541の表示位置も変更される。
ユーザは、入力部130及び座標表示指示部531で、編集関節522の座標を変更する場合、座標としてはブランク領域311に入る座標を指定してもよい。
§2.動作例
図9に基づいて、本実施形態に係る教師データ作成装置2の動作を説明する。図9は、教師データ作成装置2の動作フローチャートである。
入力部130は、画像300を取得し、ブランク領域拡張部101に画像300を出力する(S41)。ブランク領域拡張部101は、入力された画像300の辺に隣接するブランク領域311を付加し、ブランク済み画像301を作成する。ブランク領域拡張部101は、教師データ作成部102及び表示制御部150にブランク済み画像301を出力する(S42)。
表示制御部150は、表示装置にユーザインタフェース51を表示させる。表示制御部150は、画像表示部501にブランク済み画像301を表示する(S43)。入力部130は、マウス、キーボード、またはタッチパネル等を介してユーザから入力を受け付ける。例えば、入力部130は、作業者追加ボタン513による作業者の追加、作業者リスト511での作業者の選択、関節リスト521での編集関節の選択、及び、座標表示指示部531または画像表示部501での編集関節位置の指定を受け付ける(S44)。この際、入力部130は、画像300に位置する関節の関節位置の指定だけでなく、ブランク領域311に位置する関節の関節位置の指定も受け付ける。入力部130は、入力された作業者、関節、及び関節位置の情報を、互いに対応付けて教師データ作成部102に出力する。
教師データ作成部102は、ユーザ入力に基づき、表示制御部150による表示を変更させる。また、教師データ作成部102は、1人以上の作業者、複数の関節、及び複数の関節位置の情報を含む教師骨格情報312を生成する。複数の関節は、画像300の領域に位置する第1関節と、ブランク領域311に位置する第2関節とを含む。教師データ作成部102は、教師骨格情報312をブランク済み画像301に対応付けて骨格含有データ302を作成する(S45)。
教師データ作成部102は、骨格含有データ302を教師データ記憶部201に記憶させる。
§3.作用・効果
以上のとおり、本実施形態2に係る教師データ作成装置2は、入力部130が画像300を入力後、ブランク領域311を拡張し、ユーザインタフェース51にブランク済み画像301を表示する。教師データ作成装置2は、ユーザから、ブランク領域311に対応する関節の関節位置の入力を受け付けることで、ブランク済み画像301に対応する教師骨格情報312を作成できる。
教師骨格情報を構成する関節位置は、ブランク領域311に設定してもよい。これにより、頭、首及び肩などが欠落したプライバシーを考慮した画像を入力部で入力でき、実施形態1で用いる学習用のデータである教師骨格情報312を作成できる。
〔実施形態3〕
本発明のさらに他の実施形態について、図10、図11に基づいて以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
図10、図11に基づいて本実施形態に係る入力画像例を説明する。図10は、上方から作業者を撮影した画像の模式図である。図11は側面から作業者を撮影した画像の模式図である。
(上方撮影画像)
図10に示すように、上方から撮影することで、作業者の顔が写らず、また作業机の上の状況が容易に把握できる画像300aが撮影できる。そのため、上方から撮影することで、プライバシーを保護したまま作業解析に適した画像が取得できる。
画像300aは、作業者601、作業机602、作業対象603が含まれている。また、画像300aの4辺に隣接してブランク領域311a、311b、311c、311dが拡張されている。図10では、4辺全てに隣接するようにブランク領域が設定されているが、この限りではなく、任意の1辺以上に接するようにブランク領域を設定すればよい。
作業者601は、作業解析される対象の作業者である。作業者の顔などの、プライバシーに関する要素は画像に含まれなくてもよい。作業机602は、作業者が作業する空間である。一段棚の作業机だけでなく、多段の棚がある机でも構わない。作業対象603は、作業者が作業する対象である。作業机602または作業対象603には、作業解析の為に、マーカなどを付加しても構わない。
図10に示すように、画像300aの上部にブランク領域311aを拡張することで、作業者の顔などを写さずに骨格情報が推定できる。画像300aの右側にブランク領域311bを拡張することで、作業者が左側(画像における右側)に移動した場合や、画像300a外の空間にある作業対象に手を伸ばした場合でも、骨格情報が推定できる。画像300aの下側にブランク領域311cを拡張することで、画像300a外の作業対象に作業者が手を伸ばした場合でも、骨格情報が推定できる。画像300aの左側にブランク領域311dを拡張することで、作業者が右側(画像における左側)に移動した場合や、画像300a外の空間にある作業対象に手を伸ばした場合でも、骨格情報が推定できる。
したがって、上方から撮影することで、プライバシーを保護したまま骨格情報が推定でき、平面的な作業机上の作業解析が容易にできる。また、画像300aの複数の辺に隣接するよう複数のブランク領域を付加することで、画像300a外に作業者が移動した場合でも、骨格情報が推定できる。
(側面撮影画像)
図11に示すように、側面から撮影することで、作業者の顔を写さずに、多段になった作業台の状況が容易に把握できる画像300bが撮影できる。そのため、側面から撮影することで、プライバシーを保護したまま作業解析に適した画像が取得できる。
画像300bは、作業者601、作業机602、作業対象603、マスク領域604が含まれている。また、画像300aの4辺に隣接してブランク領域311e、311f、311g、311hが拡張されている。図11では、4辺全てに隣接するようにブランク領域が設定されているが、この限りではなく、任意の1辺以上に接するようにブランク領域を設定すればよい。
マスク領域604はカメラの設置位置及び設置方向により、作業者の顔などのプライバシーを侵害する要素が写らざるをえない場合に設定してもよい。マスク領域604はブランク領域311と同一単色での塗りつぶしである。また、ブランク領域に接した任意の位置に、任意の大きさで設定してもよい。
図11に示すように、画像300bの上部にブランク領域311eを拡張することで、
多段の棚に部品または工具を設置している場合や、画像300bの外側上部に設置している場合でも、骨格情報が推定できる。画像300bの右側にブランク領域311fを拡張することで、作業台の作業者から見た奥に設置してある作業対象に手を飛ばした場合での骨格情報が推定できる。画像300bの下側にブランク領域311gを拡張することで、作業台の下側に設置してある作業対象に手を伸ばした場合での骨格情報が推定できる。画像300bの左側にブランク領域を拡張することで、作業者の顔などを写さずに骨格情報が推定できる。
したがって、側面から撮影することで、プライバシーを保護したまま骨格情報が推定でき、立体的な作業机上の作業解析が容易にできる。
撮影画角としては、上方及び側面に限定されず、作業者後ろ側上方斜めからの撮影でもよい。この場合、上方撮影での平面的な作業解析と、側面撮影での立体的な作業解析が同時に可能である。
〔ソフトウェアによる実現例〕
推定装置1及び教師データ作成装置2の制御ブロック(特に制御部10における、ブランク領域拡張部101、教師データ作成部102、データ拡張部103、過不足領域修正部104、推定モデル取得部111、特徴量抽出部112、関節推定部113、結合度推定部114、骨格推定部121、推定モデル学習部122、入力部130、出力部140、及び表示制御部150)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、推定装置1及び教師データ作成装置2は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 推定装置
2 教師データ作成装置
10 制御部
11 学習部
12 推定部
20 記憶部
51 ユーザインタフェース
101 ブランク領域拡張部
102 教師データ作成部
103 データ拡張部
104 過不足領域修正部(不足領域修正部)
111 推定モデル取得部
112 特徴量抽出部
113 関節推定部
114 結合度推定部
121 骨格推定部
122 推定モデル学習部
130 入力部(画像取得部)
140 出力部
150 表示制御部
201 教師データ記憶部
202 推定モデル記憶部
300、300a、300b、301、304a 画像(第1の画像)
301 ブランク済み画像(第2の画像)
302 骨格含有データ
303 画像処理済みデータ
303a 画像処理済み画像(第3の画像)
304 教師データ
304a 過不足修正済み画像(新たな第2の画像)
312 教師骨格情報
311、311a、311b、311c、311d、311e、311f、311g、311h、314 ブランク領域
313 不足画素領域
501 画像表示部
511 作業者リスト
512 編集作業者
513 作業者追加ボタン
521 関節リスト
522 編集関節
531 座標表示指示部
531 編集関節位置
532 X座標表示指示部
532 確定関節位置
533 Y座標表示指示部
533 結合情報
601 作業者
602 作業机
603 作業対象
604 マスク領域

Claims (18)

  1. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、
    前記第2の画像と学習済み推定モデルとを用いて、前記ブランク領域に位置する前記第2関節の関節位置を含む骨格情報を推定する推定部と、を備えている推定装置。
  2. 前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させる請求項1に記載の推定装置。
  3. 前記第2関節は、首の関節を含む請求項1または2に記載の推定装置。
  4. 前記画像取得部は、上方から撮影された前記第1の画像を取得する請求項1から3のいずれか1項に記載の推定装置。
  5. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、
    前記ブランク領域に位置する前記第2関節を含む骨格情報及び前記第2の画像を含む教師データを記憶する教師データ記憶部と、
    前記教師データを用いて、前記骨格情報及び前記第2の画像から骨格情報の推定モデルを学習する学習部と、を備えている学習装置。
  6. 前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させる請求項5に記載の学習装置。
  7. 前記第2関節は、首の関節を含む請求項5または6に記載の学習装置。
  8. 前記学習装置は、
    前記第2の画像に幾何変形の画像処理を施し第3の画像を生成するデータ拡張部と、
    前記第3の画像における、前記第2の画像に対応する領域内の不足画素領域をブランク領域で修正し、学習用の新たな第2の画像とする不足領域修正部と、を備える請求項5から7のいずれか1項に記載の学習装置。
  9. 前記画像取得部は、上方から撮影された前記第1の画像を取得する請求項5から8のいずれか1項に記載の学習装置。
  10. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得部と、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張部と、
    前記第2の画像を表示する表示制御部と、
    前記第2の画像における前記ブランク領域に対して前記第2関節の関節位置の入力をユーザから受け付ける入力部と、
    前記第1関節及び前記第2関節の関節位置を含む骨格情報を、前記第2の画像に対応付けた教師データを作成する教師データ作成部と、
    を備えている教師データ作成装置。
  11. 前記ブランク領域拡張部は、前記ブランク領域を前記第1の画像の1辺に隣接させる、請求項10に記載の教師データ作成装置。
  12. 前記第2関節は、首の関節を含む請求項10または11に記載の教師データ作成装置。
  13. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、
    前記第2の画像と学習済み推定モデルとを用いて、前記ブランク領域に位置する前記第2関節の関節位置を含む骨格情報を推定する推定ステップと、を含む推定方法。
  14. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、
    前記ブランク領域に位置する前記第2関節を含む骨格情報及び前記第2の画像を含む教師データを取得する教師データ取得ステップと、
    前記教師データを用いて、前記骨格情報及び前記第2の画像から骨格情報の推定モデルを学習する学習ステップと、を含む学習方法。
  15. 対象者の第1関節を含みかつ第2関節を含まない第1の画像を取得する画像取得ステップと、
    前記第1の画像をブランク領域で拡張した第2の画像を生成する、ブランク領域拡張ステップと、
    前記第2の画像を表示する表示制御ステップと、
    前記第2の画像における前記ブランク領域に対して前記第2関節の関節位置の入力をユーザから受け付ける入力ステップと、
    前記第1関節及び前記第2関節の関節位置を含む骨格情報を、前記第2の画像に対応付けた教師データを作成する教師データ作成ステップと、
    を含む教師データ作成方法。
  16. 請求項1に記載の推定装置としてコンピュータを機能させるための推定プログラムであって、前記画像取得部、前記ブランク領域拡張部及び前記推定部としてコンピュータを機能させるための推定プログラム。
  17. 請求項5に記載の学習装置としてコンピュータを機能させるための学習プログラムであって、前記画像取得部、前記ブランク領域拡張部、及び前記学習部としてコンピュータを機能させるための学習プログラム。
  18. 請求項10に記載の教師データ作成装置としてコンピュータを機能させるための教師データ作成プログラムであって、前記画像取得部、前記ブランク領域拡張部、前記表示制御部、前記入力部、及び前記教師データ作成部としてコンピュータを機能させるための教師データ作成プログラム。
JP2020074799A 2020-04-20 2020-04-20 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム Active JP7375666B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020074799A JP7375666B2 (ja) 2020-04-20 2020-04-20 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム
CN202180018560.8A CN115244578A (zh) 2020-04-20 2021-03-05 推测装置、学习装置、教学数据制作装置、推测方法、学习方法、教学数据制作方法以及程序
US17/911,422 US20230101893A1 (en) 2020-04-20 2021-03-05 Estimation device, learning device, teaching data creation device, estimation method, learning method, teaching data creation method, and recording medium
PCT/JP2021/008703 WO2021215129A1 (ja) 2020-04-20 2021-03-05 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020074799A JP7375666B2 (ja) 2020-04-20 2020-04-20 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021174059A JP2021174059A (ja) 2021-11-01
JP7375666B2 true JP7375666B2 (ja) 2023-11-08

Family

ID=78270529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020074799A Active JP7375666B2 (ja) 2020-04-20 2020-04-20 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230101893A1 (ja)
JP (1) JP7375666B2 (ja)
CN (1) CN115244578A (ja)
WO (1) WO2021215129A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7408731B1 (ja) 2022-07-06 2024-01-05 東芝テリー株式会社 行動検知方法、行動検知装置、行動検知システム
JP2024021467A (ja) * 2022-08-03 2024-02-16 オムロン株式会社 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム
KR102578864B1 (ko) * 2023-06-07 2023-09-14 주식회사 성원 철강 제조 작업자의 모션 데이터를 이용한 인공신경망 학습 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091377A (ja) 2015-11-13 2017-05-25 日本電信電話株式会社 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム
WO2019224947A1 (ja) 2018-05-23 2019-11-28 株式会社ソニー・インタラクティブエンタテインメント 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
JP7223865B2 (ja) 2019-09-20 2023-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017091377A (ja) 2015-11-13 2017-05-25 日本電信電話株式会社 姿勢推定装置、姿勢推定方法、及び姿勢推定プログラム
WO2019224947A1 (ja) 2018-05-23 2019-11-28 株式会社ソニー・インタラクティブエンタテインメント 学習装置、画像生成装置、学習方法、画像生成方法及びプログラム
JP7223865B2 (ja) 2019-09-20 2023-02-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
WO2021215129A1 (ja) 2021-10-28
JP2021174059A (ja) 2021-11-01
US20230101893A1 (en) 2023-03-30
CN115244578A (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
JP7375666B2 (ja) 推定装置、学習装置、教師データ作成装置、推定方法、学習方法、教師データ作成方法、及びプログラム
US7116330B2 (en) Approximating motion using a three-dimensional model
JP6302132B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US8135209B2 (en) Articulated object position and posture estimation device, method and program
US9838670B2 (en) Method and system for three-dimensional imaging
US20060109274A1 (en) Client/server-based animation software, systems and methods
JP6985532B2 (ja) データ処理方法及び装置、電子機器並びに記憶媒体
JP2000067267A (ja) 三次元シーンにおける形状及び模様の復元方法及び装置
JP2018081410A (ja) コンピュータープログラム
JP4474546B2 (ja) 顔形状モデリングシステムおよび顔形状モデリング方法
KR102118937B1 (ko) 3d 데이터서비스장치, 3d 데이터서비스장치의 구동방법 및 컴퓨터 판독가능 기록매체
KR100248374B1 (ko) 증강현실 시스템에서 카메라와 트랙커간의 오차 보정방법
KR102571744B1 (ko) 3차원 콘텐츠 생성 방법 및 장치
JPH10240908A (ja) 映像合成方法
JP6545847B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019057070A (ja) 画像処理装置、画像処理方法、およびプログラム
KR20220083552A (ko) 착용형 ar 장치를 위한 다중 객체의 6 자유도 추정과 보정 및 이를 적용한 ar 서비스 방법
Remondino et al. Human motion reconstruction and animation from video sequences
JP7119854B2 (ja) 変更画素領域抽出装置、画像処理システム、変更画素領域抽出方法、画像処理方法及びプログラム
JP3860287B2 (ja) 動き抽出処理方法,動き抽出処理装置およびプログラム記憶媒体
KR102671280B1 (ko) 3d 볼류메트릭 동영상에서 다수 프레임 아바타 객체의 신체 비율 자동 보정 장치 및 그의 방법
US11562543B2 (en) Method and system for augmented reality visualisation
WO2022249592A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP3790253B2 (ja) 動画像処理装置
JP2023080688A (ja) 画像作成方法、画像作成プログラム、画像作成装置及び画像作成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231009

R150 Certificate of patent or registration of utility model

Ref document number: 7375666

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150