JPWO2020084667A1 - 認識方法、認識プログラム、認識装置および学習方法 - Google Patents

認識方法、認識プログラム、認識装置および学習方法 Download PDF

Info

Publication number
JPWO2020084667A1
JPWO2020084667A1 JP2020551730A JP2020551730A JPWO2020084667A1 JP WO2020084667 A1 JPWO2020084667 A1 JP WO2020084667A1 JP 2020551730 A JP2020551730 A JP 2020551730A JP 2020551730 A JP2020551730 A JP 2020551730A JP WO2020084667 A1 JPWO2020084667 A1 JP WO2020084667A1
Authority
JP
Japan
Prior art keywords
learning
input
subject
information
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020551730A
Other languages
English (en)
Other versions
JP7014304B2 (ja
Inventor
能久 浅山
能久 浅山
桝井 昇一
昇一 桝井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2020084667A1 publication Critical patent/JPWO2020084667A1/ja
Application granted granted Critical
Publication of JP7014304B2 publication Critical patent/JP7014304B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/033Recognition of patterns in medical or anatomical images of skeletal patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

認識装置は、被写体を含む距離画像に基づいて、被写体の姿勢を特定する姿勢情報を生成する。認識装置は、距離画像とともに姿勢情報を、被写体の骨格を認識するために学習された学習済みモデルに入力する。その後、認識装置は、学習済みモデルの出力結果を用いて、被写体の骨格を特定する。この結果、認識装置は、肘、手首、膝、手足の位置などの人体において左右で対になっている関節の左右の誤認識を抑制し、骨格の認識精度を向上させることができる。

Description

本発明は、認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置に関する。
体操や医療などの幅広い分野において、選手や患者などの人の骨格を認識することが行われている。例えば、オブジェクトを含む入力画像から、背景画像を用いて変化する変化領域画像を抽出し、入力画像と変化領域画像とを結合して畳込み型ニューラルネットワークを利用することによりオブジェクトの位置を検出する技術が知られている。また、画像を入力として、学習モデルにより手足が存在する信頼度を示すヒートマップ画像を推定し、推定結果に基づいて手足の位置を算出する技術が知られている。
また、体操競技を例にすると、近年では、3D(Three−dimensional)レーザセンサにより選手の3次元データである距離画像を取得し、距離画像から選手の各関節の向きや各関節の角度である骨格を認識して、演技した技などを採点することが行われている。
特開2017−191501号公報 特開2017−211988号公報
ところで、各関節を含む骨格の認識に、深層学習(ディープラーニング(DL:Deep Learning))などの機械学習を用いることも考えられる。ディープラーニングを例にして説明すると、学習時は、3Dレーザセンサにより被写体の距離画像を取得し、距離画像をニューラルネットワークに入力し、ディープラーニングによって各関節を認識する学習モデルを学習する。認識時には、3Dレーザセンサにより取得された被写体の距離画像を学習済みの学習モデルに入力して、各関節の存在確率(尤度)を示すヒートマップ画像を取得し、各関節を認識する手法が考えられる。
しかしながら、機械学習を用いた学習モデルを単純に骨格の認識等に適用した場合、認識精度が低い。例えば、距離画像からでは人がどちらを向いているのかがわからないので、肘、手首、膝、手足の位置などの人体において左右で対になっている関節等が、正しい関節と比較して左右反対に認識されることがある。
一つの側面では、機械学習を用いた学習モデルを使った骨格認識の精度を向上させることができる認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置を提供することを目的とする。
第1の案では、認識方法は、コンピュータが、被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成する処理を実行する。認識方法は、コンピュータが、前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力する処理を実行する。認識方法は、コンピュータが、前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する処理を実行する。
一つの側面では、機械学習を用いた学習モデルを使った骨格認識の精度を向上させることができる。
図1は、実施例1にかかる認識装置を含むシステムの全体構成例を示す図である。 図2は、実施例1にかかる学習処理および認識処理を説明する図である。 図3は、実施例1にかかる学習装置と認識装置の機能構成を示す機能ブロック図である。 図4は、骨格定義DBに記憶される定義情報の例を示す図である。 図5は、学習データDBに記憶される学習データの例を示す図である。 図6は、距離画像とヒートマップ画像の一例を示す図である。 図7は、実施例1にかかる処理の流れを示すフローチャートである。 図8は、骨格情報の認識結果の比較例を説明する図である。 図9は、姿勢情報の入力を説明する図である。 図10は、角度値および三角関数を説明する図である。 図11は、ハードウェア構成例を説明する図である。
以下に、本発明にかかる認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる認識装置を含むシステムの全体構成例を示す図である。図1に示すように、このシステムは、3Dレーザセンサ5、学習装置10、認識装置50、採点装置90を有し、被写体である演技者1の3Dデータを撮像し、骨格等を認識して正確な技の採点を行うシステムである。なお、本実施例では、一例として、体操競技における演技者の骨格情報を認識する例で説明する。
一般的に、体操競技における現在の採点方法は、複数の採点者によって目視で行われているが、技の高度化に伴い、採点者の目視では採点が困難になっている。近年では、3Dレーザセンサにより選手の3次元データである距離画像を取得し、距離画像から選手の各関節の向きや各関節の角度である骨格を認識して、演技した技などを採点する技術の開発が行われている。しかし、距離画像のみを用いた学習では、演技者がどちらを向いているのかがわからないので、肘、手首、膝、手足の位置などの人体において左右で対になっている関節の誤認識が発生することがある。このような誤認識の発生に伴い、採点者への情報提供が不正確となり、演技・技の誤認識による採点ミスの発生などが懸念される。
そこで、実施例1にかかる認識装置50は、3Dレーザセンサから得られた距離画像を用いて、ディープラーニングにより人の骨格情報を認識する際、特に、左右の関節を誤認識せずに高精度に認識する。
まず、図1におけるシステムを構成する各装置について説明する。3Dレーザセンサ5は、赤外線レーザ等を用いて対象物の距離を画素ごとに測定(センシング)するセンサ装置の一例である。距離画像には、各画素までの距離が含まれる。つまり、距離画像は、3Dレーザセンサ(深度センサ)5から見た被写体の深度を表す深度画像である。
学習装置10は、骨格認識用の学習モデルを学習するコンピュータ装置の一例である。具体的には、学習装置10は、事前に取得したCGデータなどを学習データとして使用して、ディープラーニングなどの機械学習を用いて学習モデルを学習する。
認識装置50は、3Dレーザセンサ5により測定された距離画像を用いて、演技者1の各関節の向きや位置等に関する骨格を認識するコンピュータ装置の一例である。具体的には、認識装置50は、3Dレーザセンサ5により測定された距離画像を、学習装置10によって学習された学習済みの学習モデルに入力し、学習モデルの出力結果に基づいて骨格を認識する。その後、認識装置50は、認識された骨格を採点装置90に出力する。
採点装置90は、認識装置50により認識された骨格を用いて、演技者の各関節の位置や向きを特定し、演技者が演技した技の特定および採点を実行するコンピュータ装置の一例である。
ここで、学習処理及び認識処理について説明する。図2は、実施例1にかかる学習処理および認識処理を説明する図である。図2に示すように、学習装置10は、予め用意された学習データから、姿勢情報と、距離画像と、正解値を示すヒートマップ画像とを読み込む。そして、学習装置10は、距離画像を入力データ、正解値を正解ラベルとする教師データを用いて、ニューラルネットワークを用いた学習モデルAの学習を実行する際に、ニューラルネットワークに姿勢情報を入力して学習する。
その後、認識装置50は、3Dレーザセンサ5によって測定された距離画像を取得すると、予め学習された姿勢認識用の学習モデルBに入力して、姿勢情報を取得する。そして、認識装置50は、学習装置10によって学習された学習済みの学習モデルAに、測定された距離画像と取得された姿勢情報とを入力して、学習モデルAの出力結果としてヒートマップ画像を取得する。その後、認識装置50は、ヒートマップ画像から各関節の位置(座標値)などを特定する。
このように、上記システムでは、学習モデル生成のために、機械学習への入力データに、距離画像だけでなく、3Dレーザセンサ5に対する人の向きの情報(姿勢情報)を与えることで、骨格の認識精度を向上させることができる。
[機能構成]
図3は、実施例1にかかる学習装置10と認識装置50の機能構成を示す機能ブロック図である。なお、採点装置90は、関節などの情報を用いて技の精度を判定し、演技者の演技を採点する一般的な装置と同様の構成を有するので、詳細な説明は省略する。
(学習装置10の機能構成)
図3に示すように、学習装置10は、通信部11、記憶部12、制御部20を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、学習結果などを認識装置50に出力する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、骨格定義DB13、学習データDB14、学習結果DB15を記憶する。
骨格定義DB13は、骨格モデル上の各関節を特定するための定義情報を記憶するデータベースである。ここで記憶される定義情報は、3Dレーザセンサによる3Dセンシングによって演技者ごとに測定してもよく、一般的な体系の骨格モデルを用いて定義してもよい。
図4は、骨格定義DB13に記憶される定義情報の例を示す図である。図4に示すように、骨格定義DB13は、公知の骨格モデルで特定される各関節をナンバリングした、18個(0番から17番)の定義情報を記憶する。例えば、図4に示すように、右肩関節(SHOULDER_RIGHT)には7番が付与され、左肘関節(ELBOW_LEFT)には5番が付与され、左膝関節(KNEE_LEFT)には11番が付与され、右股関節(HIP_RIGHT)には14番が付与される。ここで、実施例では、8番の右肩関節のX座標をX8、Y座標をY8、Z座標をZ8と記載する場合がある。なお、例えば、Z軸は、3Dレーザセンサ5から対象に向けた距離方向、Y軸は、Z軸に垂直な高さ方向、X軸は、水平方向をと定義することができる。
学習データDB14は、骨格を認識するための学習モデルの構築に利用される学習データ(訓練データ)を記憶するデータベースである。図5は、学習データDB14に記憶される学習データの例を示す図である。図5に示すように、学習データDB14は、「項番、画像情報、骨格情報」を対応付けて記憶する。
ここで記憶される「項番」は、学習データを識別する識別子である。「画像情報」は、関節などの位置が既知である距離画像のデータである。「骨格情報」は、骨格の位置情報であり、図4に示した18個の各関節に対応する関節位置(3次元座標)である。すなわち、画像情報が入力データ、骨格情報が正解ラベルとして、教師有学習に利用される。図4の例では、距離画像である「画像データA1」には、HEADの座標「X3,Y3,Z3」などを含む18個の関節の位置が既知であることを示す。
学習結果DB15は、学習結果を記憶するデータベースである。例えば、学習結果DB15は、制御部20による学習データの判別結果(分類結果)、機械学習等によって学習された各種パラメータを記憶する。
制御部20は、認識装置50全体を司る処理部であり、例えばプロセッサなどである。制御部20は、学習処理部30を有し、学習モデルの学習処理を実行する。なお、学習処理部30は、プロセッサなどの電子回路の一例やプロセッサなどが有するプロセスの一例である。
学習処理部30は、正解値読込部31、ヒートマップ生成部32、画像生成部33、姿勢認識部34、学習部35を有し、各関節の認識を行う学習モデルの学習を実行する処理部である。なお、姿勢認識部34は、生成部の一例であり、学習部35は、入力部と学習部の一例であり、ヒートマップ生成部32は、生成部の一例である。
正解値読込部31は、学習データDB14から正解値を読み込む処理部である。例えば、正解値読込部31は、学習対象である学習データの「骨格情報」を読み込み、ヒートマップ生成部32に出力する。
ヒートマップ生成部32は、ヒートマップ画像を生成する処理部である。例えば、ヒートマップ生成部32は、正解値読込部31から入力された「骨格情報」を用いて、各関節のヒートマップ画像を生成し、学習部35に出力する。すなわち、ヒートマップ生成部32は、正解値である18個の各関節の位置情報(座標)を用いて、各関節に対応するヒートマップ画像を生成する。
なお、ヒートマップ画像の生成には、公知の様々な手法を採用することができる。例えば、ヒートマップ生成部32は、正解値読込部31により読み込まれた座標位置を最も尤度(存在隔離)の高い位置とし、その位置が半径Xcmを次に尤度の高い位置、さらにその位置から半径Xcmを次に尤度の高い位置として、ヒートマップ画像を生成する。なお、Xは閾値であり、任意の数字である。また、ヒートマップ画像の詳細は、後述する。
画像生成部33は、距離画像を生成する処理部である。例えば、画像生成部33は、学習データDB14に記憶される学習データのうち、正解値読込部31が読み込んだ骨格情報に対応付けられる画像情報に記憶される距離画像を読み込んで、学習部35に出力する。
姿勢認識部34は、学習データの骨格情報を用いた姿勢情報を算出する処理部である。例えば、姿勢認識部34は、骨格情報である各関節の位置情報と、図4に格納される骨格の定義情報とを用いて、背骨を軸にした回転角および両肩を軸にした回転角を算出し、算出結果を学習部35に出力する。なお、背骨の軸とは、例えば図4に示すHEAD(3)とSPINE_BASE(0)とを結ぶ軸であり、両肩の軸とは、例えば図4に示すSHOULDER_RIGHT(7)からSHOULDER_LEFT(4)とを結ぶ軸である。
学習部35は、多層構造のニューラルネットワークを学習モデルとして用いる深層学習、いわゆるディープラーニングを用いた学習モデルに対して、教師有学習を実行する処理部である。例えば、学習部35は、画像生成部33が生成した距離画像データを入力データ、姿勢認識部34が生成した姿勢情報をニューラルネットワークに入力する。そして、学習部35は、ニューラルネットワークの出力として、各関節のヒートマップ画像を取得する。その後、学習部35は、ニューラルネットワークの出力である各関節のヒートマップ画像と、ヒートマップ生成部32が生成した正解ラベルである各関節のヒートマップ画像とを比較する。そして、学習部35は、各関節の誤差が最小となるように、誤差逆伝搬法などを用いてニューラルネットワークを学習する。
ここで、入力データについて説明する。図6は、距離画像とヒートマップ画像の一例を示す図である。図6の(a)に示すように、距離画像は、3Dレーザセンサ5から画素までの距離が含まれるデータであり、3Dレーザセンサ5からの距離が近いほど、濃い色で表示される。また、図6の(b)に示すように、ヒートマップ画像は、関節ごとに生成され、各関節位置の尤度を可視化した画像であって、最も尤度が高い座標位置ほど、濃い色で表示される。なお、ヒートマップ画像では、通常、人物の形は表示されないが、図6では、説明をわかりやすくするために、人物の形を図示するが、画像の表示形式を限定するものではない。
また、学習部35は、学習が終了すると、ニューラルネットワークにおける各種パラメータなどを学習結果として、学習結果DB15に格納する。なお、学習を終了するタイミングは、所定数以上の学習データを用いた学習が完了した時点や誤差が閾値未満となった時点など、任意に設定することができる。
(認識装置50の機能構成)
図3に示すように、認識装置50は、通信部51、記憶部52、制御部60を有する。通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部51は、学習装置10から学習結果を取得し、3Dレーザセンサ5から距離画像を取得し、演技者1の骨格情報を採点装置90に送信する。
記憶部52は、データや制御部60が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部52は、骨格定義DB53、学習結果DB54、算出結果DB55を記憶する。なお、骨格定義DB53は、骨格定義DB13と同様の情報を記憶し、学習結果DB54は、学習結果DB15と同様の情報を記憶するので、詳細な説明は省略する。
算出結果DB55は、後述する制御部60によって算出された各関節の情報を記憶するデータベースである。具体的には、算出結果DB55は、認識装置50により距離画像から認識された結果を記憶する。
制御部60は、認識装置50全体を司る処理部であり、例えばプロセッサなどである。制御部60は、認識処理部70を有し、学習モデルの学習処理を実行する。なお、認識処理部70は、プロセッサなどの電子回路の一例やプロセッサなどが有するプロセスの一例である。
認識処理部70は、画像取得部71、姿勢認識部72、認識部73、算出部74を有し、骨格認識を実行する処理部である。なお、姿勢認識部72は、生成部の一例であり、認識部73は、入力部の一例であり、算出部74は、特定部の一例である。
画像取得部71は、骨格認識対象の距離画像を取得する処理部である。例えば、画像取得部71は、3Dレーザセンサ5が測定した距離画像を取得し、姿勢認識部72と認識部73とに出力する。
姿勢認識部72は、距離画像から姿勢情報を認識する処理部である。例えば、姿勢認識部72は、予め学習された姿勢認識用の学習モデルに、画像取得部71により取得された距離画像を入力する。そして、姿勢認識部72は、当該別の学習モデルから出力された出力値を姿勢情報として、認識部73に出力する。なお、ここで使用する姿勢認識用の学習モデルは、公知の学習モデルなどを用いることができ、学習モデルに限らず、公知の算出式などを採用することもできる。すなわち、距離画像から姿勢情報を取得できれば、その手法はどのような手法であってもよい。
認識部73は、学習装置10によって学習された学習済みの学習モデルを用いて、骨格認識を実行する処理部である。例えば、認識部73は、学習結果DB54に記憶される各種パラメータを読み出し、各種パラメータを設定したニューラルネットワークを用いた学習モデルを構築する。
そして、認識部73は、画像取得部71により取得された距離画像と、姿勢認識部72により取得された姿勢情報とを、構築した学習済みの学習モデルに入力し、出力結果として、各関節のヒートマップ画像を認識する。すなわち、認識部73は、学習済みの学習モデルを用いて、18個の各関節に対応するヒートマップ画像を取得し、算出部74に出力する。
算出部74は、認識部73により取得された各関節のヒートマップ画像から各関節の位置を算出する処理部である。例えば、算出部74は、各関節のヒートマップのうち、最大尤度の座標を取得する。つまり、算出部74は、HEAD(3)のヒートマップ画像、SHOULDER_RIGHT(7)のヒートマップ画像のように、18個の各関節のヒートマップ画像について、最大尤度の座標を取得する。
そして、算出部74は、各関節における最大尤度の座標を、算出結果として算出結果DB55に格納する。このとき、算出部44は、各関節について取得された最大尤度の座標(2次元座標)を3次元座標に変換することもできる。例えば、算出部74は、右肘角度=162度、左肘角度=170度などと算出する。
[処理の流れ]
図7は、実施例1にかかる処理の流れを示すフローチャートである。なお、ここでは、学習処理の後に認識処理が実行される例で説明するが、これに限定されるものではなく、別々のフローで実現することもできる。
図7に示すように、学習装置10は、学習開始の指示を受信すると(S101:Yes)、学習データDB14から学習データを読み込む(S102)。
続いて、学習装置10は、読み込んだ学習データから距離画像を取得し(S103)、学習データの骨格情報から姿勢情報を算出する(S104)。また、学習装置10は、学習データから正解値である骨格情報を取得し(S105)、取得した骨格情報から各関節のヒートマップ画像を生成する(S106)。
その後、学習装置10は、距離画像を入力データ、各関節のヒートマップ画像を正解ラベルとして、ニューラルネットワークに入力するとともに、姿勢情報をニューラルネットワークに入力して、モデルの学習を実行する(S107)。ここで、学習を継続する場合(S108:No)、S102以降が繰り返される。
そして、学習を終了した後(S108:Yes)、認識開始の指示を受信すると(S109:Yes)、認識装置50は、3Dレーザセンサ5から距離画像を取得する(S110)。
続いて、認識装置50は、予め学習済みである姿勢認識用の学習モデルに、S110で取得された距離画像を入力して、その出力結果を姿勢情報として取得する(S111)。その後、認識装置50は、S107で学習された学習済みの学習モデルに対して、S110で取得された距離画像とS111で取得された姿勢情報を入力し、その出力結果を各関節のヒートマップ画像として取得する(S112)。
そして、認識装置50は、取得された各関節のヒートマップ画像に基づいて、各関節の位置情報を取得し(S113)、取得した各関節の位置情報を2次元座標等に変換して、算出結果DB16に出力する(S114)。
その後、認識装置50は、骨格認識を継続する場合(S115:No)、S110以降を繰り返し、骨格処理を終了する場合(S115:Yes)、認識処理を終了する。
[効果]
上述したように、認識装置50は、3Dレーザセンサ5から得られた距離画像を用いて、ディープラーニングにより人の関節などを認識する際に、3Dレーザセンサ5に対する人の向きの情報(姿勢情報)をニューラルネットワークに与える。すなわち、ディープラーニングなどの機械学習に、距離画像に映っている人のどちらが右でどちらが左なのかがわかる情報を与える。この結果、認識装置50は、肘や手首、膝などの人体において左右で対になっている関節を左右間違えずに正しく認識することができる。
図8は、骨格情報の認識結果の比較例を説明する図である。図8では、学習済みの学習モデルから得られた各関節のヒートマップ画像を示し、図内の黒丸は、既知である関節の正解値(位置)を示し、図内のバツ印は、最終的に認識された関節の位置を示す。また、図8では、一例として、4つの関節のヒートマップ画像を図示して説明する。
図8の(1)に示すように、一般技術では、学習時には、左右で正確に認識して学習が行われても、認識時に、学習データと同じ向きの距離画像であっても学習データとは左右を逆に認識することがあり、正確な認識結果を得られない。
一方、図8の(2)に示すように、実施例1による手法を用いた学習モデルでは、距離画像だけではなく、姿勢情報を用いて骨格認識の学習および推定を行う。このため、実施例1にかかる認識装置50は、距離画像と姿勢情報を入力データとして用いて学習モデルにより骨格認識を行うことができ、左右が正確に認識された認識結果を出力できる。
ところで、実施例1では、多層構造のニューラルネットワークを学習モデルとして用いるディープラーニングを用いた学習モデルの生成について説明したが、学習装置10や認識装置50では姿勢情報を入力する層を制御することができる。なお、ここでは、認識装置50を例にして説明するが、学習装置10についても同様に処理することができる。
例えば、ニューラルネットワークは、入力層、中間層(隠れ層)、出力層から構成される多段構成であり、各層は複数のノードがエッジで結ばれる構造を有する。各層は、「活性化関数」と呼ばれる関数を持ち、エッジは「重み」を持ち、各ノードの値は、前の層のノードの値、接続エッジの重みの値(重み係数)、層が持つ活性化関数から計算される。なお、計算方法については、公知の様々な手法を採用できる。
また、ニューラルネットワークにおける学習とは、出力層が正しい値となるように、パラメータ、すなわち、重みとバイアスを修正していくことである。誤差逆伝播法においては、ニューラルネットワークに対して、出力層の値がどれだけ正しい状態(望まれている状態)から離れているかを示す「損失関数(loss function)」を定め、最急降下法等を用いて、損失関数が最小化するように、重みやバイアスの更新が行われる。具体的には、入力値をニューラルネットワークに与え、その入力値を基にニューラルネットワークが予測値を計算し、予測値と教師データ(正解値)を比較して誤差を評価し、得られた誤差を基にニューラルネットワーク内の結合荷重(シナプス係数)の値を逐次修正することにより、学習モデルの学習および構築が実行される。
上記認識装置50は、このようなニューラルネットワークを用いた手法として、CNN(Convolutional Neural Network)などを用いることができる。そして、認識装置50は、学習時または認識時において、ニューラルネットワークが有する各中間層のうち最初の中間層に、姿勢情報を入力して学習または認識を行う。このようにすることで、姿勢情報を入力した状態で、各中間層による特徴量の抽出を実行できるので、関節の認識精度を向上させることができる。
また、認識装置50は、CNNを用いた学習モデルの場合、中間層の中で最もサイズが小さくなる層に、姿勢情報を入力して学習または認識を行うこともできる。CNNは、中間層(隠れ層)として、畳み込み層とプーリング層と有する。畳み込み層は、前の層で近くにあるノードにフィルタ処理を実行して特徴マップを生成し、プーリング層は、畳込み層から出力された特徴マップをさらに縮小して新たな特徴マップを生成する。つまり、畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴を集約する処理を実行し、これらによって入力画像の特徴を維持しながら画像を縮小する。
ここで、認識装置50は、各層に入力される入力画像が最小の層に対して、姿勢情報を入力する。このようにすることで、入力層に入力される入力画像(距離画像)の特徴を最も抽出した状態のときに姿勢情報を入力することができ、その後の特徴量から元画像を復元するときに、姿勢情報を加味した復元を実行できるので、関節の認識精度を向上させることができる。
ここで、図9を用いて具体的に説明する。図9は、姿勢情報の入力を説明する図である。図9に示すように、ニューラルネットワークは、入力層、中間層(隠れ層)、出力層から構成され、ニューラルネットワークの入力データとニューラルネットワークから出力された出力データとの誤差が最小になるように学習される。このとき、認識装置50は、中間層の最初の層である(a)層に姿勢情報を入力して、学習処理および認識処理を実行する。または、認識装置50は、各層に入力される入力画像が最小となる(b)層に姿勢情報を入力して、学習処理および認識処理を実行する。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[姿勢情報の入力値]
上記実施例では、姿勢情報として、背骨を軸にした回転角および両肩を軸にした回転角を用いる例を説明したが、これらの回転角として、角度値や三角関数を用いることができる。図10は、角度値および三角関数を説明する図である。図10では、背骨の軸をab、両肩の軸をcdで図示する。そして、認識装置50は、演技者の背骨の軸がab軸から角度θだけ傾いているとき、この角度θを角度値として使用する。または、認識装置50は、演技者の背骨の軸がab軸から角度θだけ傾いているとき、sinθまたはcosθを三角関数として使用する。
角度値を用いることで、計算コストを削減することができ、学習処理や認識処理の処理時間を短縮することができる。また、三角関数を用いることで、360度から0度へ変化する境目を正確に認識することができ、角度値を用いる場合と比較して、学習精度または認識精度を向上させることができる。なお、ここでは、背骨の例を軸にして説明したが、両肩の軸についても同様に処理することができる。また、学習装置10についても同様に処理することができる。
[適用例]
上記実施例では、体操競技を例にして説明したが、これに限定されるものではなく、選手が一連の技を行って審判が採点する他の競技にも適用することができる。他の競技の一例としては、フィギュアスケート、新体操、チアリーディング、水泳の飛び込み、空手の型、モーグルのエアーなどがある。また、スポーツに限らず、トラック、タクシー、電車などの運転手の姿勢検出やパイロットの姿勢検出などにも適用することができる。
[骨格情報]
また、上記実施例では、18個の各関節の位置を学習する例を説明したが、これに限定されるものではなく、1個以上の関節を指定して学習することもできる。また、上記実施例では、骨格情報の一例として各関節の位置を例示して説明したが、これに限定されるものではなく、各関節の角度、手足の向き、顔の向きなど、予め定義できる情報であれば、様々な情報を採用することができる。
[学習モデル]
また、姿勢情報には、腰の回転角、頭の向きなど被写体の向きを示す情報であれば様々な情報を採用することができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、学習装置10と認識装置50とを同じ装置で実現することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
次に、学習装置10や認識装置50などのコンピュータのハードウェア構成について説明する。図11は、ハードウェア構成例を説明する図である。図11に示すように、コンピュータ100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図11に示した各部は、バス等で相互に接続される。
通信装置100aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD100bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ100dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD100b等から読み出してメモリ100cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、認識装置50が有する各処理部と同様の機能を実行する。具体的には、プロセッサ100dは、認識処理部70等と同様の機能を有するプログラムをHDD100b等から読み出す。そして、プロセッサ100dは、認識処理部70等と同様の処理を実行するプロセスを実行する。
このように認識装置50は、プログラムを読み出して実行することで認識方法を実行する情報処理装置として動作する。また、認識装置50は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、認識装置50によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。なお、学習装置10についても同様のハードウェア構成を用いて処理することができる。
5 3Dレーザセンサ
10 学習装置
11 通信部
12 記憶部
13 骨格定義DB
14 学習データDB
15 学習結果DB
20 制御部
30 学習処理部
31 正解値読込部
32 ヒートマップ生成部
33 画像生成部
34 姿勢認識部
35 学習部
50 認識装置
51 通信部
52 記憶部
53 骨格定義DB
54 学習結果DB
55 算出結果DB
60 制御部
70 認識処理部
71 画像取得部
72 姿勢認識部
73 認識部
74 算出部

Claims (17)

  1. コンピュータが、
    被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成し、
    前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力し、
    前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する
    処理を実行することを特徴とする認識方法。
  2. 前記入力する処理は、前記学習済みモデルに利用されるニューラルネットワークの入力層に前記距離画像を入力し、前記ニューラルネットワークの各中間層のうち先頭の中間層に前記姿勢情報を入力することを特徴とする請求項1に記載の認識方法。
  3. 前記入力する処理は、前記学習済みモデルに利用される畳み込みニューラルネットワークの入力層に前記距離画像を入力し、前記畳み込みニューラルネットワークの各隠れ層のうち、入力された画像のサイズが最も小さくなる隠れ層に前記姿勢情報を入力することを特徴とする請求項1に記載の認識方法。
  4. 前記入力する処理は、前記姿勢情報として、前記被写体の向きを示す角度値または三角関数を入力することを特徴とする請求項1に記載の認識方法。
  5. 前記入力する処理は、前記被写体の背骨を軸にした回転角と前記被写体の両肩を軸にした回転角とのそれぞれの角度値、または、それぞれの回転角を用いた各三角関数を入力することを特徴とする請求項4に記載の認識方法。
  6. 前記生成する処理は、前記姿勢情報を出力するために学習された学習済みモデルに、前記距離画像を入力して得られる出力結果を、前記姿勢情報として生成することを特徴とする請求項1に記載の認識方法。
  7. 前記特定する処理は、前記学習済みモデルの出力結果として、前記被写体の関節位置の尤度を可視化したヒートマップ画像を取得し、前記ヒートマップ画像における尤度が最も高い位置を、前記関節位置と特定することを特徴とする請求項1に記載の認識方法。
  8. コンピュータに、
    被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成し、
    前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力し、
    前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する
    処理を実行させることを特徴とする認識プログラム。
  9. 被写体を含む距離画像に基づいて、前記被写体の姿勢を特定する姿勢情報を生成する生成部と、
    前記距離画像とともに前記姿勢情報を、前記被写体の骨格を認識するために学習された学習済みモデルに入力する入力部と、
    前記学習済みモデルの出力結果を用いて、前記被写体の骨格を特定する特定部と
    を有することを特徴とする認識装置。
  10. コンピュータが、
    学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成し、
    前記距離画像とともに前記姿勢情報を学習モデルに入力し、
    前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する
    処理を実行することを特徴とする学習方法。
  11. 前記骨格情報から、前記被写体の関節位置の尤度を可視化したヒートマップ画像を生成する処理を前記コンピュータにさらに実行させ、
    前記学習する処理は、前記学習モデルの出力結果として前記ヒートマップ画像を取得し、前記出力結果であるヒートマップ画像と、前記骨格情報から生成されたヒートマップ画像とを比較した結果に応じて、前記学習モデルを学習する請求項10に記載の学習方法。
  12. 前記入力する処理は、前記学習モデルに利用されるニューラルネットワークの入力層に前記距離画像を入力し、前記ニューラルネットワークの各中間層のうち先頭の中間層に前記姿勢情報を入力することを特徴とする請求項10に記載の学習方法。
  13. 前記入力する処理は、前記学習モデルに利用される畳み込みニューラルネットワークの入力層に前記距離画像を入力し、前記畳み込みニューラルネットワークの各隠れ層のうち、入力された画像のサイズが最も小さくなる隠れ層に前記姿勢情報を入力することを特徴とする請求項10に記載の学習方法。
  14. 前記入力する処理は、前記姿勢情報として、前記被写体の向きを示す角度値または三角関数を入力することを特徴とする請求項10に記載の学習方法。
  15. 前記入力する処理は、前記被写体の背骨を軸にした回転角と前記被写体の両肩を軸にした回転角とのそれぞれの角度値、または、それぞれの回転角を用いた各三角関数を入力することを特徴とする請求項14に記載の学習方法。
  16. コンピュータに、
    学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成し、
    前記距離画像とともに前記姿勢情報を学習モデルに入力し、
    前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する
    処理を実行させることを特徴とする学習プログラム。
  17. 学習データである被写体を含む距離画像に対応付けられる、正解情報である前記被写体の骨格情報を用いて、前記被写体の姿勢を特定する姿勢情報を生成する生成部と、
    前記距離画像とともに前記姿勢情報を学習モデルに入力する入力部と、
    前記学習モデルの出力結果と前記骨格情報とを用いて、前記学習モデルを学習する学習部と
    を有することを特徴とする学習装置。
JP2020551730A 2018-10-22 2018-10-22 認識方法、認識プログラム、認識装置および学習方法 Active JP7014304B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/039215 WO2020084667A1 (ja) 2018-10-22 2018-10-22 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置

Publications (2)

Publication Number Publication Date
JPWO2020084667A1 true JPWO2020084667A1 (ja) 2021-09-02
JP7014304B2 JP7014304B2 (ja) 2022-02-01

Family

ID=70330560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551730A Active JP7014304B2 (ja) 2018-10-22 2018-10-22 認識方法、認識プログラム、認識装置および学習方法

Country Status (3)

Country Link
US (1) US20210216759A1 (ja)
JP (1) JP7014304B2 (ja)
WO (1) WO2020084667A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11282214B2 (en) * 2020-01-08 2022-03-22 Agt International Gmbh Motion matching analysis
JP7478848B2 (ja) 2020-12-21 2024-05-07 ファナック株式会社 教師データ生成装置、機械学習装置、及びロボット関節角度推定装置
JPWO2022190206A1 (ja) * 2021-03-09 2022-09-15
WO2022244135A1 (ja) * 2021-05-19 2022-11-24 日本電信電話株式会社 学習装置、推定装置、学習モデルデータ生成方法、推定方法及びプログラム
WO2023162223A1 (ja) * 2022-02-28 2023-08-31 富士通株式会社 学習プログラム、生成プログラム、学習方法および生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212688A (ja) * 2015-05-11 2016-12-15 日本電信電話株式会社 関節位置推定装置、方法、及びプログラム
JP2018026131A (ja) * 2016-08-09 2018-02-15 ダンロップスポーツ株式会社 動作解析装置
WO2018189795A1 (ja) * 2017-04-10 2018-10-18 富士通株式会社 認識装置、認識方法および認識プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213680B2 (en) * 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
KR101815975B1 (ko) * 2011-07-27 2018-01-09 삼성전자주식회사 객체 자세 검색 장치 및 방법
US10902343B2 (en) * 2016-09-30 2021-01-26 Disney Enterprises, Inc. Deep-learning motion priors for full-body performance capture in real-time
US10861184B1 (en) * 2017-01-19 2020-12-08 X Development Llc Object pose neural network system
US10672188B2 (en) * 2018-04-19 2020-06-02 Microsoft Technology Licensing, Llc Surface reconstruction for environments with moving objects
US10706584B1 (en) * 2018-05-18 2020-07-07 Facebook Technologies, Llc Hand tracking using a passive camera system
EP3813661A4 (en) * 2018-06-29 2022-04-06 WRNCH Inc. SYSTEM AND METHOD FOR ANALYZING HUMAN POSES
WO2020049692A2 (ja) * 2018-09-06 2020-03-12 株式会社ソニー・インタラクティブエンタテインメント 推定装置、学習装置、推定方法、学習方法及びプログラム
WO2020070812A1 (ja) * 2018-10-03 2020-04-09 株式会社ソニー・インタラクティブエンタテインメント スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212688A (ja) * 2015-05-11 2016-12-15 日本電信電話株式会社 関節位置推定装置、方法、及びプログラム
JP2018026131A (ja) * 2016-08-09 2018-02-15 ダンロップスポーツ株式会社 動作解析装置
WO2018189795A1 (ja) * 2017-04-10 2018-10-18 富士通株式会社 認識装置、認識方法および認識プログラム

Also Published As

Publication number Publication date
US20210216759A1 (en) 2021-07-15
JP7014304B2 (ja) 2022-02-01
WO2020084667A1 (ja) 2020-04-30

Similar Documents

Publication Publication Date Title
JP7014304B2 (ja) 認識方法、認識プログラム、認識装置および学習方法
JP7367764B2 (ja) 骨格認識方法、骨格認識プログラムおよび情報処理装置
Thar et al. A proposal of yoga pose assessment method using pose detection for self-learning
AU2022202416A1 (en) Multi-joint Tracking Combining Embedded Sensors and an External
US11786129B2 (en) Systems and methods for human mesh recovery
CN109863535A (zh) 运动识别装置、运动识别程序以及运动识别方法
US20220092302A1 (en) Skeleton recognition method, computer-readable recording medium storing skeleton recognition program, skeleton recognition system, learning method, computer-readable recording medium storing learning program, and learning device
JP6943294B2 (ja) 技認識プログラム、技認識方法および技認識システム
US20220207921A1 (en) Motion recognition method, storage medium, and information processing device
Kitsikidis et al. Multi-sensor technology and fuzzy logic for dancer’s motion analysis and performance evaluation within a 3D virtual environment
JP6381368B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
US11995845B2 (en) Evaluation method, storage medium, and information processing apparatus
Morel et al. Automatic evaluation of sports motion: A generic computation of spatial and temporal errors
CN117015802A (zh) 用于改进无标记运动分析的方法
JP7482471B2 (ja) 学習モデルの生成方法
Sharma et al. Digital Yoga Game with Enhanced Pose Grading Model
US20220301352A1 (en) Motion recognition method, non-transitory computer-readable storage medium for storing motion recognition program, and information processing device
Olsen Motion tracking of infants in risk of cerebral palsy
US20240157217A1 (en) Golf teaching method and golf teaching system
Pan et al. Analysis and Improvement of Tennis Motion Recognition Algorithm Based on Human Body Sensor Network
WO2022234741A1 (en) Methods and apparatuses for processing an image
Gioi et al. Robust Upper Limb Kinematic Reconstruction Using a RGB-D Camera
Li et al. Clinical patient tracking in the presence of transient and permanent occlusions via geodesic feature
CN116648190A (zh) 骨架估计装置、骨架估计方法及体操评分辅助系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220103