JP2018026131A - 動作解析装置 - Google Patents

動作解析装置 Download PDF

Info

Publication number
JP2018026131A
JP2018026131A JP2017153215A JP2017153215A JP2018026131A JP 2018026131 A JP2018026131 A JP 2018026131A JP 2017153215 A JP2017153215 A JP 2017153215A JP 2017153215 A JP2017153215 A JP 2017153215A JP 2018026131 A JP2018026131 A JP 2018026131A
Authority
JP
Japan
Prior art keywords
motion
neural network
image
depth
motion analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017153215A
Other languages
English (en)
Other versions
JP7057959B2 (ja
Inventor
祐樹 永野
Yuki Nagano
祐樹 永野
植田 勝彦
Katsuhiko Ueda
勝彦 植田
伸敬 島田
Nobutaka Shimada
伸敬 島田
良明 白井
Yoshiaki Shirai
良明 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Dunlop Sports Co Ltd
Original Assignee
Sumitomo Rubber Industries Ltd
Ritsumeikan Trust
Dunlop Sports Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Rubber Industries Ltd, Ritsumeikan Trust, Dunlop Sports Co Ltd filed Critical Sumitomo Rubber Industries Ltd
Publication of JP2018026131A publication Critical patent/JP2018026131A/ja
Application granted granted Critical
Publication of JP7057959B2 publication Critical patent/JP7057959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】簡易かつ高精度に物体の動作を解析することができる動作解析装置を提供する。【解決手段】動作解析システム100において、物体の動作を解析するための動作解析装置1は、取得部と、導出部とを備える。取得部は、物体の動作を距離画像センサ2により撮影した深度画像を取得する。導出部は、物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、取得部により取得された深度画像を入力することにより、動作値を導出する。【選択図】図2

Description

本発明は、物体の動作を解析するための動作解析装置、方法及びプログラム、並びに物体の動作を解析するためのモデルを構築するモデル構築装置、方法及びプログラムに関し、特に、ゴルフスイングを解析するのに適した装置、方法及びプログラムに関する。
従来より、ゴルフスイングをカメラで撮影し、このときの画像に基づいてゴルフスイングを解析する装置が公知である(特許文献1,2等)。解析の結果は、ゴルファーに適したゴルフクラブのフィッティングや、ゴルファーのフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。以上のようなゴルフスイングの解析においては、しばしば、画像に写るゴルフクラブのグリップやヘッド、ゴルファーの関節等、注目部位の三次元計測が行われる。特許文献1,2は、複数台のカメラにより複数の方向からゴルフスイングを撮影し、三角測量法やDLT法等に基づいて注目部位の三次元計測を行うことを開示している。
また、近年では、二次元カメラに加え、距離画像センサを備えたkinect(登録商標)と呼ばれる三次元計測が可能なデバイスが普及しており、同装置を用いた人物の動作解析の研究が盛んである(例えば、特許文献3,4等)。
特開2013−215349号公報 特開2004−313479号公報 特開2015−106281号公報 特開2016−75693号公報
しかしながら、特許文献1,2のようなカメラの構成は、設備を大型化させ得る。一方、特許文献3,4のような、距離画像センサからの深度画像に基づく動作の解析技術については、未だ発展段階であり、解析の精度のさらなる向上が望まれる。
本発明は、簡易かつ高精度に物体の動作を解析することができる動作解析装置、方法及びプログラム、並びに物体の動作を解析するためのモデルを構築するモデル構築装置、方法及びプログラムを提供することを目的とする。
第1観点に係る動作解析装置は、物体の動作を解析するための動作解析装置であって、取得部と、導出部とを備える。前記取得部は、前記物体の動作を距離画像センサにより撮影した深度画像を取得する。前記導出部は、前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得部により取得された前記深度画像を入力することにより、前記動作値を導出する。
第2観点に係る動作解析装置は、第1観点に係る動作解析装置であって、前記深度画像は、ゴルフスイングを撮影した画像である。
第3観点に係る動作解析装置は、第2観点に係る動作解析装置であって、前記動作値は、ゴルファーの腰の回転角度である。
第4観点に係る動作解析装置は、第3観点に係る動作解析装置であって、前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記腰の近傍の腰領域を抽出した後、前記腰領域の画像を前記ニューラルネットワークに入力する。
第5観点に係る動作解析装置は、第3観点又は第4観点に係る動作解析装置であって、前記ニューラルネットワークは、前記深度画像から前記ゴルファーの腕を表す腕領域を無効化するドロップアウト層を有する。
第6観点に係る動作解析装置は、第2観点に係る動作解析装置であって、前記動作値は、ゴルファーの体重移動を表す値である。
第7観点に係る動作解析装置は、第6観点に係る動作解析装置であって、前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記ゴルファーの近傍のゴルファー領域を抽出した後、前記ゴルファー領域の画像を前記ニューラルネットワークに入力する。
第8観点に係る動作解析装置は、第2観点に係る動作解析装置であって、前記動作値は、ゴルファーの肩の回転角度である。
第9観点に係る動作解析装置は、第8観点に係る動作解析装置であって、前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記肩の近傍の肩領域を抽出した後、前記肩領域の画像を前記ニューラルネットワークに入力する。
第10観点に係る動作解析装置は、第1観点から第9観点のいずれかに係る動作解析装置であって、前記ニューラルネットワークは、畳み込み層を有する。
第11観点に係る動作解析装置は、第1観点から第10観点のいずれかに係る動作解析装置であって、前記取得部は、時系列の前記深度画像を取得する。前記導出部は、前記ニューラルネットワークに前記時系列の深度画像を入力することにより、時系列の前記動作値を導出する。
第12観点に係る動作解析装置は、第1観点、第2観点、第10観点及び第11観点のいずれかに係る動作解析装置であって、前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得する。前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記物体の注目部位の近傍の注目領域を抽出した後、前記注目領域の画像を前記ニューラルネットワークに入力する。
第13観点に係る動作解析装置は、第1観点、第2観点及び第10観点〜第12観点のいずれかに係る動作解析装置であって、前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する。
第14観点に係るモデル構築装置は、物体の動作を解析するためのモデルを構築するモデル構築装置であって、第1取得部と、第2取得部と、学習部とを備える。前記第1取得部は、前記物体の動作を距離画像センサにより撮影した多数の深度画像を取得する。前記第2取得部は、前記多数の深度画像にそれぞれ対応する、前記物体の動作を定量的に表す多数の動作値を取得する。前記学習部は、前記第1取得部により取得された前記多数の深度画像に基づいて、前記第2取得部により取得された前記多数の動作値を教師信号として、前記深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習する。
第15観点に係るモデル構築装置は、第14観点に係るモデル構築装置であって、前記第2取得部は、前記物体に取り付けられた角速度センサの出力値から前記物体の回転角度を表す前記多数の動作値を取得する。
第16観点に係るモデル構築装置は、第14観点に係るモデル構築装置であって、前記第2取得部は、前記物体が乗る床反力計の出力値から前記物体の重心の位置を表す前記多数の動作値を取得する。
第17観点に係る動作解析システムは、物体の動作を解析するための動作解析システムであって、距離画像センサと、動作解析装置とを備える。前記距離画像センサは、前記物体の動作を捉えた深度画像を撮影する。前記動作解析装置は、前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出する。
第18観点に係る動作解析方法は、物体の動作を解析するための動作解析方法であって、以下のステップを含む。
(1)距離画像センサにより前記物体の動作を捉えた深度画像を撮影するステップ。
(2)前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出するステップ。
第19観点に係る動作解析プログラムは、物体の動作を解析するための動作解析プログラムであって、以下のステップをコンピュータに実行させる。
(1)前記物体の動作を距離画像センサにより撮影した深度画像を取得するステップ。
(2)前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得された深度画像を入力することにより、前記動作値を導出するステップ。
第1観点によれば、物体の動作を距離画像センサにより撮影した深度画像が取得され、当該深度画像がニューラルネットワークに入力され、当該ニューラルネットワークの出力として物体の動作を定量的に表す動作値が導出される。つまり、ニューラルネットワークにより、深度画像から直接的に、物体の動作を定量的に評価することができる。以上より、簡易かつ高精度に物体の動作を解析することができる。
本発明の第1実施形態に係る動作解析装置を含む動作解析システムの全体構成を示す図。 第1実施形態に係る動作解析システムの機能ブロック図。 腰の回転角度を導出するためのニューラルネットワークのモデル構成を示す図。 第1実施形態に係るニューラルネットワークに基づく動作解析処理の流れを示すフローチャート。 正規化された深度画像の例を示す図。 スケルトンデータの例を示す図。 時系列の腰領域の画像の例を示す図。 腕領域が除去された時系列の腰領域の画像の例を示す図。 ニューラルネットワークに基づく腰の回転角度の推定値のグラフ。 腰の回転角度を導出するためのニューラルネットワークの学習処理の流れを示すフローチャート。 本発明の第2実施形態に係る動作解析装置を含む動作解析システムの全体構成を示す図。 第2実施形態に係る動作解析システムの機能ブロック図。 身体の重心移動量を導出するためのニューラルネットワークのモデル構成を示す図。 肩の回転角度を導出するためのニューラルネットワークのモデル構成を示す図。 第2実施形態に係るニューラルネットワークに基づく動作解析処理の流れを示すフローチャート。 図5の深度画像に対応する人物領域画像を示す図。 図5の深度画像から図16Aの人物領域画像を用いて作成された切り取り画像を示す図。 鳩尾を基準とするゴルファー領域の設定方法の例を説明する図。 ニューラルネットワークに基づく身体のX方向の重心移動量の推定値のグラフ。 ニューラルネットワークに基づく身体のY方向の重心移動量の推定値のグラフ。 図18A及び図18Bの推定値に基づく平面視における身体の重心の軌跡のグラフ。 肩中央を基準とする肩領域の設定方法の例を説明する図。 ニューラルネットワークに基づく肩の回転角度の推定値のグラフ。 身体の重心移動量を導出するためのニューラルネットワークの学習処理の流れを示すフローチャート。 肩の回転角度を導出するためのニューラルネットワークの学習処理の流れを示すフローチャート。
以下、図面を参照しつつ、本発明の幾つかの実施形態に係る動作解析装置、方法及びプログラム、並びにモデル構築装置、方法及びプログラムについて説明する。以下の実施形態は、ゴルフスイングを解析する場面を例に説明される。
<1.第1実施形態>
<1−1.動作解析システムの概要>
図1及び図2に、本実施形態に係る動作解析装置1を含む動作解析システム100の全体構成図を示す。動作解析システム100は、ゴルファー7によるゴルフクラブ5のスイング動作を動画として撮影し、当該動画に基づいてスイング動作を解析するためのシステムである。以上の撮影は、距離画像センサ2により行われる。動作解析装置1は、距離画像センサ2とともに動作解析システム100を構成し、距離画像センサ2により取得される深度画像を含む画像データを解析することにより、スイング動作を解析する。動作解析装置1による解析の結果は、ゴルファー7に適したゴルフクラブ5のフィッティングや、ゴルファー7のフォームの改善、ゴルフ用品の開発等、様々な用途で利用される。
スイング動作の解析は、深度画像を入力とするニューラルネットワーク8(図3参照)に基づいて行われる。ニューラルネットワーク8は、スイング動作を解析するためのモデルであり、スイング動作を定量的に表す動作値を出力する。ニューラルネットワーク8は、事前学習により構築される。以下、動作解析システム100の各部の詳細について述べた後、ニューラルネットワーク8のモデル構成、ニューラルネットワーク8に基づく動作解析方法、及びニューラルネットワーク8の学習方法について順に説明する。
<1−2.各部の詳細>
<1−2−1.距離画像センサ>
距離画像センサ2は、ゴルファー7がゴルフクラブ5を試打する様子を二次元画像として撮影するとともに、被写体までの距離を測定する測距機能を有する三次元計測カメラである。従って、距離画像センサ2は、二次元画像とともに、深度画像を出力することができる。なお、ここでいう二次元画像とは、撮影空間の像をカメラの光軸に直交する平面内へ投影した画像である。また、深度画像とは、カメラの光軸方向の被写体の奥行きのデータ(深度データ)を、二次元画像と略同じ撮像範囲内の画素に割り当てた画像である。
本実施形態で使用される距離画像センサ2は、二次元画像を赤外線画像(以下、IR画像という)として撮影する。また、深度画像は、赤外線を用いたタイムオブフライト方式やドットパターン投影方式等の方法により得られる。従って、図1に示すように、距離画像センサ2は、赤外線を前方に向けて発光するIR発光部21と、IR発光部21から照射され、被写体に反射して戻ってきた赤外線を受光するIR受光部22とを有する。IR受光部22は、光学系及び撮像素子等を有するカメラである。ドットパターン投影方式では、IR発光部21から照射された赤外線のドットパターンをIR受光部22で読み取り、距離画像センサ2内部での画像処理によりドットパターンを検出し、これに基づいて奥行きが計算される。本実施形態では、IR発光部21及びIR受光部22は、同じ筐体20内に収容され、筐体20の前方に配置されている。本実施形態では、距離画像センサ2は、ゴルファー7を正面側から撮影すべく、ゴルファー7の前方に設置され、IR発光部21及びIR受光部22がゴルファー7に向けられている。
距離画像センサ2には、距離画像センサ2の動作全体を制御するCPU23の他、撮影された画像データを少なくとも一時的に記憶するメモリ24が内蔵されている。距離画像センサ2の動作を制御する制御プログラムは、メモリ24内に格納されている。また、距離画像センサ2には、通信部25も内蔵されており、通信部25は、撮影された画像データを有線又は無線の通信線17を介して、動作解析装置1等の外部のデバイスへと出力することができる。本実施形態では、CPU23及びメモリ24も、IR発光部21及びIR受光部22とともに、筐体20内に収納されている。なお、動作解析装置1への画像データの受け渡しは、必ずしも通信部25を介して行う必要はない。例えば、メモリ24が着脱式であれば、これを筐体20内から取り外し、動作解析装置1のリーダー(後述する通信部15に対応)に挿入する等して、動作解析装置1で画像データを読み出すことができる。
<1−2−2.動作解析装置>
図2を参照しつつ、動作解析装置1の構成について説明する。動作解析装置1は、ハードウェアとしては汎用のコンピュータであり、例えば、デスクトップ型コンピュータ、ノート型コンピュータ、タブレットコンピュータ、スマートフォンとして実現される。動作解析装置1は、CD−ROM、USBメモリ等のコンピュータで読み取り可能な記録媒体30から、或いはインターネット等のネットワークを介して、動作解析プログラム3を汎用のコンピュータにインストールすることにより製造される。動作解析プログラム3は、距離画像センサ2から送られてくる画像データに基づいてゴルフスイングを解析するためのソフトウェアであり、動作解析装置1に後述する動作を実行させる。
動作解析装置1は、表示部11、入力部12、記憶部13、制御部14及び通信部15を備える。これらの部11〜15は、互いにバス線16を介して接続されており、相互に通信可能である。表示部11は、液晶ディスプレイ等で構成することができ、ゴルフスイングの解析の結果等をユーザに対し表示する。なお、ここでいうユーザとは、ゴルファー7自身やそのインストラクター、ゴルフ用品の開発者等、ゴルフスイングの解析の結果を必要とする者の総称である。入力部12は、マウス、キーボード、タッチパネル等で構成することができ、動作解析装置1に対するユーザからの操作を受け付ける。
記憶部13は、ハードディスク等で構成することができる。記憶部13内には、動作解析プログラム3が格納されている他、距離画像センサ2から送られてくる画像データが保存される。また、記憶部13内には、後述する学習処理で学習され、後述する動作解析処理で使用されるニューラルネットワーク8を定義する情報が格納される。制御部14は、CPU、ROMおよびRAM等から構成することができる。制御部14は、記憶部13内の動作解析プログラム3を読み出して実行することにより、仮想的に第1取得部14a、第2取得部14b、導出部14c、学習部14d及び表示制御部14eとして動作する。各部14a〜14eの動作の詳細については、後述する。通信部15は、距離画像センサ2等の外部のデバイスから通信線17を介してデータを受信する通信インターフェースとして機能する。
<1−3.ニューラルネットワークのモデル構成>
次に、図3を参照しつつ、後述する動作解析処理の中で使用されるニューラルネットワーク8のモデル構成について説明する。ニューラルネットワーク8は、上述したとおり、深度画像を入力とし、スイング動作を定量的に表す動作値を出力とするネットワークである。本実施形態では、ニューラルネットワーク8により、スイング動作中のゴルファー7の腰の回転動作が定量的に解析され、より具体的には、腰の回転角度が定量的に導出される。
図3に示すとおり、本実施形態に係るニューラルネットワーク8は、畳み込みニューラルネットワークであり、識別部81と、識別部81の入力側に接続される特徴抽出部82とを有する。識別部81は、多層パーセプトロンである。特徴抽出部82は、第1中間層83及び第2中間層84を有する多層構造に形成されており、深度画像の特徴量を抽出する。第1中間層83は、畳み込み層83A、プーリング層83B及び正規化層83Cを有し、同様に、第2中間層84も、畳み込み層84A、プーリング層84B及び正規化層84Cを有する。従って、ニューラルネットワーク8では、複数の中間層83,84を通過することにより、畳み込み、プーリング及び正規化の処理が複数回繰り返される。
また、本実施形態に係るニューラルネットワーク8は、特徴抽出部82の入力側にドロップアウト層85を有する。一般的なドロップアウト層とは、多層ネットワークのユニットを確率的に選別し、学習した層であり、選別されたユニット以外を無効化、すなわち、存在しないかのように扱う。これにより、学習時にネットワークの自由度を強制的に小さくし、過学習を回避することができる。一方、本実施形態に係るドロップアウト層85は、解析の対象となる入力画像において、解析の妨げとなる領域を除去する層である。ニューラルネットワーク8の入力は、深度画像である。本実施形態では、ドロップアウト層85に入力される深度画像においては、後述するとおり、予め解析の妨げとなると分かっている背景及び腕の領域に対応する画素の画素値が所定の画素値(本実施形態では、「0」)に設定されている。そして、ドロップアウト層85は、入力される深度画像(図3の例では、64×32ピクセル)の所定の画素値「0」の画素のユニットを無効化するような層であり、出力画像(図3の例では、64×32ピクセル)を出力する。つまり、ドロップアウト層85は、無効化されるユニットを確率的に選別するのではなく、予め解析の妨げとなると分かっている領域を選別して無効化する。具体的には、ドロップアウト層85は、「0」以外の部分を使って重みを決定し、「0」が含まれていたフィルタ応答値の重みを嵩上げして補償する層である。
その後、ドロップアウト層85からの出力画像に対し、多数の重みフィルタG1,G2,・・・,GNによる畳み込み処理が実行される(Nは、2以上の整数。図3の例では、N=16)。その結果、N枚の特徴マップA1,A2,・・・,ANが生成される。特徴マップA1,A2,・・・,ANは、畳み込み層83Aを構成するN個のユニットにそれぞれ入力される。具体的には、入力画像と重みフィルタGnとの内積がラスタスキャンで繰り返し計算され、入力画像に重みフィルタGnが畳み込まれてゆくことにより、特徴マップAnが算出される(n=1,2,・・・,N)。図3の例では、重みフィルタGnが5×5ピクセルであり、特徴マップAnのサイズは、60×28ピクセルとなる。
重みフィルタG1,G2,・・・,GNは、フィルタカーネルとも呼ばれ、深度画像に比べて微細な画像(又は値の配列)であり、各々、入力画像に含まれる一定のパターン(特徴)を検出し、強調するためのフィルタである。特徴マップAnは、重みフィルタGnの特徴に反応し、入力画像において重みフィルタGnの特徴が強調された画像(又は値の配列)である。ここで、入力画像のサイズをH1×H2ピクセルとし、入力画像の画素をインデックス(i,j)で表し(i=0,1,・・・,H1−1,j=0,1,・・・,H2−1)、入力画像の画素(i,j)の画素値をxi,jと表す。また、重みフィルタGnのサイズをH×Hピクセルとし、重みフィルタGnの画素をインデックス(p,q)で表し(p=0,1,・・・,H−1,q=0,1,・・・,H−1)、重みフィルタGnの画素(p,q)の画素値をhp,qと表す。このとき、入力画像の画素(i,j)に畳み込まれた、特徴マップAnの画素値ti,jは、以下のように算出することができる。
次に、特徴マップA1,A2,・・・,ANの各々に対しプーリング処理が実行され、その結果、N枚の特徴マップB1,B2,・・・,BNが生成される。特徴マップB1,B2,・・・,BNは、プーリング層83Bを構成するN個のユニットにそれぞれ入力される。プーリング処理とは、特徴マップAnに含まれる小領域を代表する応答値を出力することにより、特徴マップAnを新たな特徴マップBnに変換する処理である。このプーリング処理により、特徴マップAnのサイズを縮小することができる。また、プーリング処理では、入力画像Anの小領域に含まれる多数の画素値が応答値に集約されるため、出力画像Bnにおいて位置感度が若干低下する。そのため、検出しようとする特徴の位置が深度画像において若干変化したとしても、当該変化を吸収することができ、プーリング処理後の出力画像Bnを一定に近づけることができる。
より具体的には、プーリング処理では、入力画像Anが小領域に分割され、各小領域に含まれる画素値に基づいて応答値となる1つの画素値が決定される。図3の例では、特徴マップAnが2×2ピクセルの小領域に分割され、1/2のサイズに縮小される。従って、特徴マップBnのサイズは、図3の例では、30×14ピクセルとなる。応答値の決定方法は様々考えられ、例えば、小領域内の画素値の平均値を応答値とすることもできるし(平均プーリング)、最大値を応答値とすることもできる(最大プーリング)。また、Lpプーリングと呼ばれる方法のように、小領域内の大きな画素値の影響を大きくし、小さな画素値の影響もある程度残すように応答値を決定することもできる。
続いて、特徴マップB1,B2,・・・,BNの各々が正規化され、その結果、N枚の特徴マップC1,C2,・・・,CNが生成される。特徴マップC1,C2,・・・,CNは、正規化層83Cを構成するN個のユニットにそれぞれ入力される。ここでいう正規化とは、局所コントラスト正規化であり、本実施形態では、減算正規化が実行される。この正規化により、入力画像Bn上において周辺部の画素値に対して変化の大きな画素値が検出され、出力画像Cn上において当該画素値が強調される。
以上より、第1中間層83での処理が終了し、第2中間層84での処理に移行し、2回目の畳み込み処理が実行される。2回目の畳み込み処理では、第1中間層83から出力されるN枚の特徴マップC1,C2,・・・,CNの中から、所定枚数の、本実施形態では4枚の特徴マップをランダムに選択して1組とし、このような組をM組作成する(図3の例では、M=256)。また、多数の重みフィルタL1,L2,・・・,LRを新たに用意し(Rは、2以上の整数。本実施形態では、R=16)、これらの重みフィルタL1,L2,・・・,LRの中から、特徴マップの1つの組に含まれる特徴マップの枚数と同数の、すなわち、本実施形態では4枚の重みフィルタをランダムに選択して1組とし、このような組をM組作成する。こうして選択された特徴マップの組に対し、重みフィルタの組を1対1で対応させ、畳み込みを行う。より具体的には、ある組に含まれる4枚の特徴マップと、当該組に対応する組に含まれる4枚の重みフィルタを1対1で対応させ、この対応関係に従って、畳み込みを行う。本実施形態では、ここでの重みフィルタLrは、5×5ピクセルである(r=1,2,・・・,R)。なお、畳み込みの方法は、第1中間層83での処理と同じである。そして、重みフィルタLrが畳み込まれた特徴マップが組毎に平均され、その結果、M枚の特徴マップD1,D2,・・・,DMが生成される。特徴マップD1,D2,・・・,DMは、畳み込み層84Aを構成するM個のユニットにそれぞれ入力される。特徴マップDmのサイズ(m=1,2,・・・,M)は、図3の例では、26×10ピクセルとなる。
その後、特徴マップD1,D2,・・・,DMの各々に対し、第1中間層83での処理と同様のプーリング処理が実行され、その結果、M枚の特徴マップE1,E2,・・・,EMが生成される。特徴マップE1,E2,・・・,EMは、プーリング層84Bを構成するM個のユニットにそれぞれ入力される。続いて、特徴マップE1,E2,・・・,EMの各々に対し、第1中間層83での処理と同様の正規化が実行され、その結果、M枚の特徴マップF1,F2,・・・,FMが生成される。特徴マップF1,F2,・・・,FMは、正規化層84Cを構成するM個のユニットにそれぞれ入力される。特徴マップEm,Fmのサイズは、図3の例では、13×5ピクセルとなる。特徴マップF1,F2,・・・,FMは、特徴抽出部82の最終的な出力画像となり、識別部81に入力される。
識別部81は、入力層86、中間層87及び出力層88を有し、これらの層86〜88は、全結合層を構成している。出力画像F1,F2,・・・,FMに含まれる全ての画素値U1,U2,・・・,UI1は、入力層86を構成するI1個の入力ユニットにそれぞれ入力される。図3の例では、I1=13×5(ピクセル数)×256(画像の枚数)=16640である。
中間層87は、I2個の中間ユニットから構成され、図3の例では、I2=1000に設定されている。i番目の中間ユニットには、入力ユニットに含まれる値U1,U2,・・・,UI1に基づいて算出される値Viが入力される(i=1,2,・・・,I2)。Viは、以下の式に従って、算出される。なお、下式中のui,1,ui,2,・・・,ui,I1は、重み係数であり、biは、バイアスである。
出力層88は、I3個の出力ユニットから構成され、本実施形態では、I3=1である。出力ユニットには、中間ユニットに含まれる値V1,V2,・・・,VI2に基づいて算出される値W1が入力され、本実施形態では、ゴルファー7の腰の回転角度を定量的に表す動作値W1が入力される。W1は、以下の式に従って、算出される。なお、下式中のv1,v2,・・・,vI2は、重み係数であり、bは、バイアスである。
<1−4.ニューラルネットワークに基づく動作解析処理>
以下、図4を参照しつつ、ゴルフスイングの動作解析処理について説明する。既に述べたとおり、本実施形態では、ニューラルネットワーク8に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W1が導出される。なお、解析の対象となる画像データは、動画である。従って、以下、IR画像及び深度画像を、それぞれIRフレーム、深度フレームということがあり、単にフレームということもある。
動作解析処理を実行するための準備として、まず、ゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。距離画像センサ2により撮影された時系列のIRフレーム及び深度フレームは、距離画像センサ2から動作解析装置1に送られる。動作解析装置1側では、第1取得部14aが、距離画像センサ2からの時系列のIRフレーム及び深度フレームを取得し、記憶部13内に格納する(ステップS1)。
また、ステップS1では、距離画像センサ2によりゴルファー7の身体の骨組みを表す時系列のスケルトンデータが計測され、このスケルトンデータが距離画像センサ2から動作解析装置1に送られる。スケルトンデータとは、人体の主要な関節の位置(三次元座標)を表すデータであり、深度フレームから導出可能である。距離画像センサの1つであるKinect(登録商標)は、深度フレームからスケルトンデータを導出し、これを深度フレームとともに出力する機能を有している。第1取得部14aは、距離画像センサ2からの時系列のスケルトンデータについても取得し、記憶部13内に格納する。なお、スケルトンデータが出力されないような距離画像センサ2が使用される場合には、第1取得部14aが、深度フレームからこれを取得するようにしてもよい。具体的には、第1取得部14aは、記憶部13内に格納されているスイング動作中の時系列の深度フレームを読み出し、これらのフレームに基づいて、スイング動作中の各タイミングでのスケルトンデータを取得する。Kinect(登録商標)には、深度画像からスケルトンデータを導出するためのライブラリが提供されており、このとき、これを使用してスケルトンデータを取得することができる。
続いて、導出部14cは、スイング動作中の各タイミングでの深度フレームを正規化する(ステップS2)。ここでいう正規化とは、ゴルファー7を含む被写体の深度に合わせて、深度フレームの階調のスケール変換を行う処理である。具体的には、導出部14cは、記憶部13内に格納されているスイング動作中の時系列の深度フレームを読み出す。このとき、深度フレームの画素値である深度データは、距離画像センサ2の規格に従う階調を有しており、本実施形態では、1画素に16ビットが割り当てられており、各画素は、0〜65535の画素値をとる。また、距離画像センサ2の奥行き方向の撮像範囲も、距離画像センサ2の規格により定められている。一方で、ゴルファー7の腰の回転角度を推定するために、ゴルファー7以外の深度データは特に必要とされない。そのため、深度フレームの中からゴルファー7を捉えた領域(以下、人物領域という)に含まれる画素値が0〜65535の範囲内の値をとるように、深度フレームの階調をスケール変換する。
距離画像センサ2の設置位置及びゴルファー7の立ち位置は、固定されている。従って、人物領域において深度データが取り得る値の範囲(以下、人物深度範囲という)が、予め設定されている。本実施形態では、導出部14cは、深度フレーム内の各画素の画素値(深度データ)を下式に従って、スケール変換する。ただし、人物深度範囲をminz〜maxzとし、右辺のzを深度フレーム内の各画素の画素値とする。左辺のzは、変換後の画素値である。
以上のスケール変換は、深度フレームから人物深度範囲内の画素値を有する領域を抽出する処理である。図5は、以上のスケール変換後のある特定のタイミングでの深度フレームである。同図から分かるように、スケール変換後の深度フレーム内では、主としてゴルファー7以外を捉えた領域、すなわち、背景領域には、画素値「0」(黒色)が与えられる。その結果、以上のスケール変換により、人物領域が抽出される。なお、図6は、図5のタイミングに対応する、Kinect(登録商標)により計測されたスケルトンデータを示している。
続いて、導出部14cは、ステップS1で取得されたスケルトンデータに基づいて、ステップS2で正規化された深度フレームから、スイング動作中の各タイミングでのゴルファー7の腰の近傍の領域(以下、腰領域)を抽出する(ステップS3)。具体的には、導出部14cは、スケルトンデータから、深度フレーム内での腰の座標を取得する。そして、深度フレームから、この腰の座標を基準とする所定のサイズの領域を、腰領域として切り出す。図7は、図5のような深度フレームから切り出されたスイング動作中の時系列の腰領域の画像を示している。この例では、図5の画像は、512×214ピクセルであり、図7の画像は、腰を中心又は略中心とする128×64ピクセルの画像である。
注目される腰の動きと、肩や足、腕等の他の部位の動きとは独立的である。従って、人体全体が写っている画像に基づいてニューラルネットワークを学習すると、腰の見え方に対応した特徴の検出の精度が低下する虞がある。また、画像のサイズが大き過ぎると、ニューラルネットワークによる解析が困難になり得る。ステップS3は、ニューラルネットワークに基づいて腰の動作の特徴を精度よく検出できるように、解析の対象となる深度フレームから、腰領域を抽出している。
続いて、導出部14cは、ステップS1で取得されたスケルトンデータに基づいて、ステップS3で取得された腰領域の画像から、スイング動作中の各タイミングでのゴルファー7の腕を表す領域(以下、腕領域)を除去する(ステップS4)。具体的には、導出部14cは、腰領域の画像から腕領域を抽出し、腕領域に含まれる画素の画素値を所定の画素値(本実施形態では、0)に設定する。腕領域の抽出は、スケルトンデータに含まれる3つの関節(本実施形態では、左肩、右肩及び左手の手首)の三次元座標に基づいて行われる。より具体的には、導出部14cは、これらの3つの関節の三次元座標を通る平面Kを導出し、腰領域の画像内の任意の点(画素)から平面Kまでの垂線距離dを導出する。なお、任意の点(画素)の三次元座標は、深度画像である腰領域の画像から取得される。また、平面K及び垂線距離dは、幾何学計算により算出することができる。次に、導出部14cは、垂線距離dが所定の範囲内に含まれるか否かを判定し、所定の範囲内に含まれる場合には、当該垂線距離dに対応する点(画素)を腕領域に含まれるものと判定し、所定の範囲外である場合には、腕領域に含まれないものと判定する。図8は、図7のスイング動作中の時系列の腰領域の画像から、腕領域を除去した画像を示している。同図では、腕領域の画素の画素値が「0」(黒色)に変換されている。
ステップS4は、後述するステップS5でニューラルネットワーク8に画像が入力されたときに、ドロップアウト層85において腕領域が無効化されるようにするための処理である。すなわち、ステップS4は、ニューラルネットワーク8に基づく解析の対象となる深度フレームから、解析の妨げとなる領域を除去するステップである。なお、本実施形態では、ステップS2においても、解析の妨げとなる領域、すなわち、背景領域が除去されている。
続くステップS5では、導出部14cは、ステップS4で取得されたスイング動作中の時系列の腰領域の画像を、順次、ニューラルネットワーク8に入力する。これにより、ニューラルネットワーク8の出力ユニットからは、順次、スイング動作を定量的に表す動作値W1、本実施形態では、ゴルファー7の腰の回転角度W1が出力される。ただし、本実施形態では、ステップS4までで取得された128×64ピクセルの画像は、64×32ピクセルのサイズまで圧縮された後、ニューラルネットワーク8へ入力される。
続いて、導出部14cは、ステップS5で導出された回転角度W1の時系列データの平滑化及び補間を行う(ステップS6)。図9は、5点の移動平均により平滑化し、33ms間隔のデータを1ms間隔のデータに変換するスプライン補間を行った例を示している。これにより、平滑化及び補間された滑らかな回転角度W1の時系列データが取得される。
その後、表示制御部14eは、ステップS6で導出されたスイング動作中の時系列の回転角度W1及びその時系列変化、並びに図9に示すようなこれらのグラフを表示部11上に表示させる(ステップS7)。これにより、ユーザは、ゴルファー7の腰の回転の動作を把握することができる。
<1−5.ニューラルネットワークの学習方法>
次に、図10を参照しつつ、ニューラルネットワーク8の学習方法について説明する。以下では、ニューラルネットワーク8を構築するための学習用データセットについて説明した後、当該データセットに基づく学習処理の流れについて説明する。
<1−5−1.学習用データセット>
学習用データセットは、距離画像センサ2により撮影される深度フレーム及びスケルトンデータと、当該深度フレーム及びスケルトンデータの撮影のタイミングでのゴルファー7の腰の回転角度(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる回転角度(真値)は、ニューラルネットワーク8の学習時の教師信号となる。
本実施形態では、ゴルファー7の腰の回転角度に関する教師信号は、ゴルファー7の腰に取り付けられた角速度センサ4(図1及び図2参照)により取得される。角速度センサ4により計測された角速度データは、有線又は無線の通信線を介して、角速度センサ4から動作解析装置1へ出力される。
なお、教師信号は、ニューラルネットワーク8の学習の場面では必要とされるが、ニューラルネットワーク8に基づく動作解析の場面においては特に必要とされない。従って、ニューラルネットワーク8が学習され、記憶部13内に保存された後においては、角速度センサ4は、動作解析システム100から省略することができる。また、動作解析システム100と、ニューラルネットワーク8のモデルを構築するモデル構築システムは、異なるハードウェアにより実現することもできる。すなわち、動作解析システム100は、別のシステムで学習されたニューラルネットワーク8を取得し、これを解析に使用してもよい。ただし、本実施形態に係る動作解析システム100は、ニューラルネットワーク8のモデルを構築するモデル構築システムの役割も兼ねている。
<1−5−2.学習処理の流れ>
次に、図10を参照しつつ、ニューラルネットワーク8の学習処理について説明する。まず、学習用データセットを取得するために、角速度センサ4を腰に取り付けたゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム及びスケルトンデータを取得し、記憶部13内に格納する(ステップS21)。また、ステップS21では、スイング動作中の角速度センサ4により計測された時系列の角速度データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の角速度データを取得し、これを時系列の腰の回転角度を表すデータ(腰の回転角度データ)に変換した後、記憶部13内に格納する。記憶部13内には、多数回のスイング動作に対応するIRフレーム、深度フレーム、スケルトンデータ及び回転角度データが格納される。このとき、IRフレーム、深度フレーム及びスケルトンデータと、回転角度データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
続いて、学習部14dは、ステップS21で取得された多数回のスイング動作に対応する時系列の深度フレームに対し、ステップS22〜S24を実行する。ステップS22〜S24は、ステップS21で取得された深度フレームから、ニューラルネットワーク8に入力されるべき図8のような腰領域の画像を切り出すステップである。なお、ステップS22〜S24は、上述したステップS2〜S4と同様のステップであるため、ここでは詳細な説明を省略する。
続くステップS25では、学習部14dは、ステップS24で取得された腰領域の画像を入力とし、ステップS21で取得された腰の回転角度データを教師信号として、ニューラルネットワーク8を学習させる。より具体的には、学習部14dは、腰領域の画像を現在のニューラルネットワーク8に入力し、出力値として回転角度W1を取得し、この回転角度W1と腰の回転角度データとの誤差を最小化するように、ニューラルネットワーク8のパラメータを更新する。ここでいう学習の対象となるパラメータとは、上述した重みフィルタG1,G2,・・・,GN,L1,L2,・・・,LR、重み係数ui,1,ui,2,・・・,ui,I1、重み係数v1,v2,・・・,vI2、バイアスbi,b等である。そして、このようにして、次々と学習用データセットを適用させながら、ニューラルネットワーク8を最適化してゆく。ニューラルネットワーク8の教師付き学習方法は、様々なもの公知であるため、ここでは詳細な説明を省略するが、例えば、誤差逆伝播法を用いた確率的勾配降下法を用いることができる。以上により、学習処理が終了する。
<2.第2実施形態>
図11及び図12に、本実施形態に係る動作解析システム101の全体構成図を示す。これらの図をそれぞれ図1及び図2と比較すれば明らかなように、第2実施形態に係る動作解析システム101は、第1実施形態に係る動作解析システム100と多くの点で共通する。以下では、簡単のため、第1実施形態と共通の要素には同じ参照符号を付し、第1実施形態との相違点を中心に説明する。
第1及び第2実施形態の主な相違点について述べると、第1実施形態では、スイング動作中のゴルファー7の腰の回転動作が定量的に解析されるのに対し、第2実施形態では、これに加えて、スイング動作中のゴルファー7の身体の体重移動及び肩の回転動作も定量的に解析される。本実施形態では、図13に示すニューラルネットワーク108により、ゴルファー7の動作を定量的に表す動作値として、ゴルファー7の身体の体重移動を表す重心移動量が定量的に導出される。重心移動量は、重心の位置を表す動作値である。また、図14に示すニューラルネットワーク208により、ゴルファー7の動作を定量的に表す動作値として、肩の回転角度が定量的に導出される。これらのニューラルネットワーク108,208も、ニューラルネットワーク8と同様に、深度画像を入力とする。以下、ニューラルネットワーク108,208のモデル構成、ニューラルネットワーク108,208に基づく動作解析方法、及びニューラルネットワーク108,208の学習方法について順に説明する。
<2−1.ニューラルネットワークのモデル構成>
図3と図13とを比較すれば明らかなとおり、ニューラルネットワーク8,108は、類似の構成を有する。両者の主たる相違点について述べると、ニューラルネットワーク108では、ゴルファー7の身体の重心移動量が2次元的に評価されるため、出力層88が2個の出力ユニットから構成される。一方の出力ユニットには、X方向(ゴルフボールの飛球線方向)の重心移動量を定量的に表す動作値W101が入力され、他方の出力ユニットには、Y方向(ゴルファー7の背から腹に向かう方向)の重心移動量を定量的に表す動作値W102が入力される。W101,W102は、以下の式に従って算出される。なお、下式中のv1,1,v1,2,・・・,v1,I2及びv2,1,v2,2,・・・,v2,I2は、重み係数であり、b101,b102は、バイアスである。
また、ニューラルネットワーク108は、ドロップアウト層85を有さないが、勿論、ドロップアウト層85を有するように構成することもできる。さらに、特徴マップのサイズや層を形成するユニット数等が、適宜変更されている。
また、図3と図14とを比較すれば明らかなとおり、ニューラルネットワーク8,208も、類似の構成を有する。両者の主たる相違点は、ニューラルネットワーク208がドロップアウト層85を有さないことであるが、勿論、ニューラルネットワーク208がドロップアウト層85を有するように構成することもできる。ニューラルネットワーク208の出力層88は、1個の出力ユニットから構成される。出力ユニットには、ゴルファー7の肩の回転角度を定量的に表す動作値W201が入力される。W201は、W1と同様に、数3の式に従って算出される。なお、腰の回転角度、肩の回転角度及び重心移動量を導出するためのニューラルネットワーク8,108,208の説明において、Viやbi等のように、しばしば同じ記号が用いられることがあるが、最終的に出力される解析対象が異なり、入力される画像データも異なるため、当然に各記号の表す具体的な値は異なる。
なお、第1実施形態及び第2実施形態で開示されるニューラルネットワーク8,108,208の構成は例示である。よって、各ニューラルネットワーク8,108,208の各層を形成するユニット数や、特徴マップの数及びサイズ、フィルタの数及びサイズ等は、適宜変更することができる。
<2−2.ニューラルネットワークに基づく動作解析処理>
次に、図15を参照しつつ、第2実施形態に係るゴルフスイングの動作解析処理について説明する。既に述べたとおり、ここでは、ニューラルネットワーク8に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W1が導出されるとともに、ニューラルネットワーク108に基づいて、スイング動作中のゴルファー7の身体の重心移動量を定量的に表す動作値W101,102が導出される。さらに、ニューラルネットワーク208に基づいて、スイング動作中のゴルファー7の腰の回転角度を定量的に表す動作値W201も導出される。以下、図15の処理について説明するが、図15の処理は図4の処理を含み、新たなステップS102,S103,S105,S106,S203,S205,S206も図4の処理の一部のステップに類似する。よって、以下では、図4の説明を参照しつつ、主に両処理の相違点についての説明を行う。
まず、図4の処理と同様に、ステップS1及びステップS2が実行される。すなわち、距離画像センサ2により、ゴルファー7がゴルフクラブ5をスイングする様子が撮影され、時系列のIRフレーム、深度フレーム及びスケルトンデータが取得され、動作解析装置1の記憶部13内に格納される。なお、本実施形態のステップS1では、距離画像センサ2により、深度フレームの撮像範囲内においてゴルファー7の身体の占める範囲を表す人物領域画像が作成され、この人物領域画像が距離画像センサ2から動作解析装置1に送られる。人物領域画像は、人物の占める領域とそれ以外の領域とを二値的に区別する画像であり、図16Aにされるような二値画像である。人物領域画像は、深度フレームから導出可能であり、距離画像センサの1つであるKinect(登録商標)は、深度フレームから人物領域画像を導出し、これを深度フレームとともに出力する機能を有している。第1取得部14aは、距離画像センサ2からの時系列の人物領域画像についても取得し、記憶部13内に格納する。なお、人物領域画像が出力されないような距離画像センサ2が使用される場合には、第1取得部14aが、深度フレームからこれを取得するようにしてもよい。具体的には、第1取得部14aは、記憶部13内に格納されているスイング動作中の時系列の深度フレームを読み出し、これらのフレームに基づいて、スイング動作中の各タイミングでの人物領域画像を作成する。
続くステップS2では、深度フレームが正規化される。そして、ステップS2が終わると、図4の処理と同様にステップS3〜S6が実行され、その結果、時系列の腰の回転角度W1が算出され、これに対し平滑化及びスプライン補間が実行される。一方、ステップS3〜S6と並列に、時系列の身体の重心移動量W101,102を導出するためのステップS102,S103,S105,S106と、時系列の肩の回転角度W201を導出するステップS203,S205,S206とが実行される。なお、ステップS3〜S6と、ステップS102,S103,S105,S106と、ステップS203,S205,S206とは、並列に実行される必要はなく、例えば、適当な順番で順に実行されてもよい。
まず、重心移動量W101,102を導出するためのステップS102,S103,S105,S106について説明する。ステップS102では、導出部14cは、スイング動作中の各タイミングでのステップS2で正規化された深度フレームから、ゴルファー7の占める領域だけを切り取った画像(以下、切り取り画像)を作成する。上記のとおり、正規化された深度フレームは、主にゴルファー7の深度の情報のみを含む画像であるが、厳密にはゴルファー7の足元付近の地面の深度の情報も含む。ステップS102では、このような地面の深度の情報を除去するべく、ステップS1で取得された人物領域画像に基づいて、ステップS2で正規化された深度フレームから、ゴルファー7の占める領域だけを切り取る。図16Bは、図5に示す正規化された深度フレームから、図16Aの人物領域画像を用いて作成された切り取り画像を示している。
続くステップS103では、導出部14cは、ステップS1で取得されたスケルトンデータに基づいて、切り取り画像から、ゴルファー7の近傍の領域(以下、ゴルファー領域)を抽出する。具体的には、導出部14cは、スケルトンデータから、深度フレーム内での鳩尾の座標を取得する。そして、深度フレームから、この鳩尾の座標を基準とする所定のサイズの領域を、ゴルファー領域として切り出す。図17の左側の画像は、鳩尾を基準とするゴルファー領域の設定方法の例を示しており、図17の右側の画像は、この設定方法の例に従って、図16Bの切り取り画像から切り出されたゴルファー領域の画像を示している。
身体の重心の位置を評価しようとするとき、地面の情報は不要となり得る。従って、地面の深度の情報を含む画像に基づいてニューラルネットワークを学習すると、重心の検出の精度が低下する虞がある。また、画像のサイズが大き過ぎると、ニューラルネットワークによる解析が困難になり得る。ステップS102,S103は、ニューラルネットワークに基づいて身体の重心の位置を精度よく検出できるように、解析の対象となる深度フレームから、ゴルファー領域を抽出している。
続くステップS105では、導出部14cは、ステップS103で取得されたスイング動作中の時系列のゴルファー領域の画像を、順次、ニューラルネットワーク108に入力する。これにより、ニューラルネットワーク108の出力ユニットからは、順次、スイング動作中の時系列のゴルファー7の身体の重心移動量W101,102が出力される。ただし、本実施形態では、ステップS103までで取得された348×192ピクセルの画像は、最近傍補間等により116×64ピクセルのサイズまで圧縮された後、ニューラルネットワーク108へ入力される。
続いて、導出部14cは、ステップS105で導出された重心移動量W101,102の時系列データの平滑化及び補間を行う(ステップS106)。図18A及び図18Bは、それぞれ重心移動量W101,102の時系列データを5点の移動平均により平滑化し、33ms間隔のデータを1ms間隔のデータに変換するスプライン補間を行った例を示している。これにより、滑らかな重心移動量W101,102の時系列データが取得される。図18Cは、X方向及びY方向の重心移動量W101,102を組み合わせて作成した、平面視における身体の重心の軌跡のグラフである。
次に、肩の回転角度W201を導出するためのステップS203,S205,S206について説明する。まず、導出部14cは、ステップS1で取得されたスケルトンデータに基づいて、ステップS2で正規化された深度フレームから、スイング動作中の各タイミングでのゴルファー7の肩の近傍の領域(以下、肩領域)を抽出する(ステップS203)。具体的には、導出部14cは、スケルトンデータから深度フレーム内での両肩の座標を取得し、両肩の中央(以下、肩中央)の座標を特定する。そして、深度フレームから、この肩中央の座標を基準とする所定のサイズの領域を、肩領域として切り出す。図19の左側の画像は、肩中央を基準とする肩領域の設定方法の例を示しており、図19の右側の画像は、この設定方法の例に従って、図16Bの切り取り画像から又は図5のような深度フレームから切り出された肩領域の画像を示している。
注目される肩の動きと、腰や足、腕等の他の部位の動きとは独立的である。従って、人体全体が写っている画像に基づいてニューラルネットワークを学習すると、肩の見え方に対応した特徴の検出の精度が低下する虞がある。また、画像のサイズが大き過ぎると、ニューラルネットワークによる解析が困難になり得る。ステップS203は、ニューラルネットワークに基づいて肩の動作の特徴を精度よく検出できるように、解析の対象となる深度フレームから、肩領域を抽出している。
続くステップS205では、導出部14cは、ステップS203で取得されたスイング動作中の時系列の肩領域の画像を、順次、ニューラルネットワーク208に入力する。これにより、ニューラルネットワーク208の出力ユニットからは、順次、ゴルファー7の肩の回転角度W201が出力される。ただし、本実施形態では、ステップS203までで取得された128×64ピクセルの画像は、最近傍補間等により64×32ピクセルのサイズまで圧縮された後、ニューラルネットワーク208へ入力される。
続いて、導出部14cは、ステップS205で導出された肩の回転角度W201の時系列データの平滑化及び補間を行う(ステップS206)。図20は、肩の回転角度W201の時系列データを5点の移動平均により平滑化し、33ms間隔のデータを1ms間隔のデータに変換するスプライン補間を行った例を示している。これにより、滑らかな肩の回転角度W201の時系列データが取得される。
その後、表示制御部14eは、ステップS6で導出されたスイング動作中の時系列の腰の回転角度W1及びその時系列変化、並びに図9に示すようなグラフを表示部11上に表示させる(ステップS7)。また、本実施形態のステップS7では、表示制御部14eは、ステップS106で導出されたスイング動作中の時系列の身体の重心移動量W101,102及びその時系列変化、並びに図18A〜18Cに示すようなグラフを表示部11上に表示させる。さらに、表示制御部14eは、ステップS206で導出されたスイング動作中の時系列の肩の回転角度W201及びその時系列変化、並びに図20に示すようなグラフを表示部11上に表示させる。これにより、ユーザは、ゴルファー7の腰及び肩の回転の動作、並びにゴルファー7の体重移動を詳細に把握することができる。
<2−3.ニューラルネットワークの学習方法>
次に、図21及び図22を参照しつつ、ニューラルネットワーク108,208の学習方法について説明する。以下では、ニューラルネットワーク108,208のそれぞれを構築するための学習用データセットについて説明するとともに、各データセットに基づく学習処理の流れについて説明する。
<2−3−1.学習用データセット(身体の重心移動量)>
ニューラルネットワーク108を構築するための学習用データセットは、距離画像センサ2により取得される深度フレーム、スケルトンデータ及び人物領域画像と、これらが取得されるタイミングでのゴルファー7の重心移動量(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる重心移動量(真値)は、ニューラルネットワーク108の学習時の教師信号となる。
本実施形態では、ゴルファー7の重心移動量に関する教師信号は、ゴルファー7の足元に設置される床反力計104(図11及び図12参照)の出力値(床反力データ)に基づいて取得される。床反力計104は、左右一対のフォースプレート104L,104Rから構成される。ゴルフスイング時、ゴルファー7はフォースプレート104L,104R上に乗る。このとき、ゴルファー7の左足はフォースプレート104L上に位置決めされ、右足はフォースプレート104R上に位置決めされる。
フォースプレート104L,104Rは、各々、複数の力センサ121を有する。力センサ121は、フォースプレート104L,104Rの板状のケース内に分散して配置され(例えば、四隅に配置され)、ゴルファー7の体重を受け取ってフォースプレート104L,104R上に作用する床反力を検出する。フォースプレート104L,104Rは、動作解析装置1に通信接続されており、力センサ121より検出された床反力データは、有線又は無線の通信線を介して、フォースプレート104L,104Rから動作解析装置1へ出力される。
なお、ニューラルネットワーク108が学習され、記憶部13内に保存された後においては、床反力計104は、動作解析システム101から省略することができる。また、動作解析システム101と、ニューラルネットワーク108のモデルを構築するモデル構築システムは、異なるハードウェアにより実現することもできる。
<2−3−2.学習処理の流れ(身体の重心移動量)>
次に、図21を参照しつつ、ニューラルネットワーク108の学習処理について説明する。まず、ニューラルネットワーク108を構築するための学習用データセットを取得するために、床反力計104上に乗ったゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム、スケルトンデータ及び人物領域画像を取得し、記憶部13内に格納する(ステップS121)。また、ステップS121では、床反力計104により計測された時系列の床反力データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の床反力データに基づいて、ゴルファー7の身体の重心移動量のデータ(以下、重心位置データ)を取得し、記憶部13内に格納する。このとき、IRフレーム、深度フレーム、スケルトンデータ及び人物領域画像と、重心位置データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
続いて、学習部14dは、ステップS121で取得された多数回のスイング動作に対応する時系列の深度フレームに対し、ステップS122,S132,S133を実行する。ステップS122,S132,S133は、ステップS121で取得された深度フレームから、ニューラルネットワーク108に入力されるべきゴルファー領域の画像を切り出すステップである。なお、ステップS122,S132,S133は、上述したステップS2,S102,S103と同様のステップであるため、ここでは詳細な説明を省略する。
続くステップS135では、学習部14dは、ステップS133で取得されたゴルファー領域の画像を入力とし、ステップS121で取得された重心位置データを教師信号として、ニューラルネットワーク108を学習させる。より具体的には、学習部14dは、ゴルファー領域の画像を現在のニューラルネットワーク108に入力し、出力値として重心移動量W101,W102を取得し、この重心移動量W101,W102と重心位置データとの誤差を最小化するように、ニューラルネットワーク108のパラメータを更新する。ここでいう学習の対象となるパラメータとは、上述した重みフィルタG1,G2,・・・,GN,L1,L2,・・・,LR、重み係数ui,1,ui,2,・・・,ui,I1、v1,1,v1,2,・・・,v1,I2及びv2,1,v2,2,・・・,v2,I2、バイアスbi,b101,b102等である。そして、このようにして、次々と学習用データセットを適用させながら、ニューラルネットワーク108を最適化してゆく。ニューラルネットワーク108の教師付き学習方法は、様々なもの公知であるため、ここでは詳細な説明を省略するが、例えば、誤差逆伝播法を用いた確率的勾配降下法を用いることができる。以上により、学習処理が終了する。
<2−3−3.学習用データセット(肩の回転角度)>
ニューラルネットワーク208を構築するための学習用データセットは、距離画像センサ2により取得される深度フレーム及びスケルトンデータと、これらが取得されるタイミングでのゴルファー7の肩の回転角度(真値)との対のデータであり、このような学習用データセットが多数収集される。学習用データセットに含まれる肩の回転角度(真値)は、ニューラルネットワーク208の学習時の教師信号となる。
本実施形態では、ゴルファー7の肩の回転角度に関する教師信号は、ゴルファー7の肩中央に取り付けられた角速度センサ204(図11及び図12参照)により取得される。角速度センサ204により計測された角速度データは、有線又は無線の通信線を介して、角速度センサ204から動作解析装置1へ出力される。
なお、ニューラルネットワーク208が学習され、記憶部13内に保存された後においては、角速度センサ204は、動作解析システム101から省略することができる。また、動作解析システム101と、ニューラルネットワーク208のモデルを構築するモデル構築システムは、異なるハードウェアにより実現することもできる。
<2−3−4.学習処理の流れ(肩の回転角度)>
図22は、ニューラルネットワーク208の学習処理の流れを示すフローチャートである。まず、ニューラルネットワーク208を構築するための学習用データセットを取得するために、角速度センサ204を肩に取り付けたゴルファー7にゴルフクラブ5を試打させ、その様子を距離画像センサ2により動画として撮影する。このとき、好ましくは、学習の効果を高めるために、複数人のゴルファー7により多数回のスイング動作が実施される。そして、ステップS1と同様に、第1取得部14aが、距離画像センサ2から送られてくる時系列のIRフレーム、深度フレーム及びスケルトンデータを取得し、記憶部13内に格納する(ステップS221)。また、ステップS221では、スイング動作中の角速度センサ204により計測された時系列の角速度データも、動作解析装置1に送信される。そして、第2取得部14bが、この時系列の角速度データを取得し、これを時系列の肩の回転角度を表すデータ(肩の回転角度データ)に変換した後、記憶部13内に格納する。記憶部13内には、多数回のスイング動作に対応するIRフレーム、深度フレーム、スケルトンデータ及び肩の回転角度データが格納される。このとき、IRフレーム、深度フレーム及びスケルトンデータと、回転角度データとの同期が取られ、同じタイミングでのデータは、互いに対応付けられて記憶部13内に格納される。
続いて、学習部14dは、ステップS221で取得された多数回のスイング動作に対応する時系列の深度フレームに対し、ステップS222,S223を実行する。ステップS222,S223は、ステップS221で取得された深度フレームから、ニューラルネットワーク208に入力されるべき図19に示されるような肩領域の画像を切り出すステップである。なお、ステップS222,S223は、上述したステップS2,S203と同様のステップであるため、ここでは詳細な説明を省略する。
続くステップS225では、学習部14dは、ステップS223で取得された肩領域の画像を入力とし、ステップS221で取得された肩の回転角度データを教師信号として、ニューラルネットワーク208を学習させる。より具体的には、学習部14dは、肩領域の画像を現在のニューラルネットワーク208に入力し、出力値として肩の回転角度W201を取得し、この肩の回転角度W201と肩の回転角度データとの誤差を最小化するように、ニューラルネットワーク208のパラメータを更新する。ここでいう学習の対象となるパラメータとは、上述した重みフィルタG1,G2,・・・,GN,L1,L2,・・・,LR、重み係数ui,1,ui,2,・・・,ui,I1、重み係数v1,v2,・・・,vI2、バイアスbi,b等である。そして、このようにして、次々と学習用データセットを適用させながら、ニューラルネットワーク208を最適化してゆく。ニューラルネットワーク208の教師付き学習方法は、様々なもの公知であるため、ここでは詳細な説明を省略するが、例えば、誤差逆伝播法を用いた確率的勾配降下法を用いることができる。以上により、学習処理が終了する。
<3.変形例>
以上、本発明のいくつかの実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。例えば、以下の変更が可能である。また、以下の変形例の要旨は、適宜組み合わせることができる。
<3−1>
動作解析処理において導出される動作値は、注目部位の回転角度や位置(座標)に限られず、例えば、回転速度、回転加速度等であってもよいし、速度及び加速度等であってもよい。また、注目部位も、ゴルファー7の腰、肩及び重心に限らず、ゴルファー7の腕、頭等であってもよい。また、ゴルフスイングに限らず、任意の対象の任意の動作を解析することもできる。
<3−2>
距離画像センサは、深度画像のみを撮影するものであってもよいし、IR画像に代えてカラー画像を撮影するものであってもよい。後者の場合、距離画像センサには、可視光を受光する可視光受光部(例えば、RGBカメラ)を搭載すればよい。
<3−3>
第1実施形態では、腰の回転角度が算出され、第2実施形態では、腰の回転角度、肩の回転角度及び重心移動量が算出された。しかしながら、腰の回転角度、肩の回転角度及び重心移動量の3つの中から任意に選択される1又は複数の要素を算出するようにすることができる。例えば、腰の回転角度及び肩の回転角度のみを算出してもよいし、肩の回転角度及び重心移動量のみを算出してもよい。
1 動作解析装置(モデル構築装置)
2 距離画像センサ
3 動作解析プログラム
4,204 角速度センサ
104 床反力計
5 ゴルフクラブ
7 ゴルファー(物体)
8,108,208 ニューラルネットワーク
81 識別層
82 特徴抽出部
83A,84A 畳み込み層
85 ドロップアウト層
14a 第1取得部(取得部)
14b 第2取得部
14c 導出部
14d 学習部
100,101 動作解析システム

Claims (19)

  1. 物体の動作を解析するための動作解析装置であって、
    前記物体の動作を距離画像センサにより撮影した深度画像を取得する取得部と、
    前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得部により取得された前記深度画像を入力することにより、前記動作値を導出する導出部と
    を備える、
    動作解析装置。
  2. 前記深度画像は、ゴルフスイングを撮影した画像である、
    請求項1に記載の動作解析装置。
  3. 前記動作値は、ゴルファーの腰の回転角度である、
    請求項2に記載の動作解析装置。
  4. 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
    前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記腰の近傍の腰領域を抽出した後、前記腰領域の画像を前記ニューラルネットワークに入力する、
    請求項3に記載の動作解析装置。
  5. 前記ニューラルネットワークは、前記深度画像から前記ゴルファーの腕を表す腕領域を無効化するドロップアウト層を有する、
    請求項3又は4に記載の動作解析装置。
  6. 前記動作値は、ゴルファーの体重移動を表す値である、
    請求項2に記載の動作解析装置。
  7. 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
    前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記ゴルファーの近傍のゴルファー領域を抽出した後、前記ゴルファー領域の画像を前記ニューラルネットワークに入力する、
    請求項6に記載の動作解析装置。
  8. 前記動作値は、ゴルファーの肩の回転角度である、
    請求項2に記載の動作解析装置。
  9. 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
    前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記肩の近傍の肩領域を抽出した後、前記肩領域の画像を前記ニューラルネットワークに入力する、
    請求項8に記載の動作解析装置。
  10. 前記ニューラルネットワークは、畳み込み層を有する、
    請求項1から9のいずれかに記載の動作解析装置。
  11. 前記取得部は、時系列の前記深度画像を取得し、
    前記導出部は、前記ニューラルネットワークに前記時系列の深度画像を入力することにより、時系列の前記動作値を導出する、
    請求項1から10のいずれかに記載の動作解析装置。
  12. 前記取得部は、前記距離画像センサにより計測された人体の骨組みを表すスケルトンデータをさらに取得し、
    前記導出部は、前記スケルトンデータに基づいて、前記深度画像から前記物体の注目部位の近傍の注目領域を抽出した後、前記注目領域の画像を前記ニューラルネットワークに入力する、
    請求項1、2、10及び11のいずれかに記載の動作解析装置。
  13. 前記ニューラルネットワークは、前記深度画像から前記物体の注目していない部位を表す非注目領域を無効化するドロップアウト層を有する、
    請求項1、2及び10〜12のいずれかに記載の動作解析装置。
  14. 物体の動作を解析するためのモデルを構築するモデル構築装置であって、
    前記物体の動作を距離画像センサにより撮影した多数の深度画像を取得する第1取得部と、
    前記多数の深度画像にそれぞれ対応する、前記物体の動作を定量的に表す多数の動作値を取得する第2取得部と、
    前記第1取得部により取得された前記多数の深度画像に基づいて、前記第2取得部により取得された前記多数の動作値を教師信号として、前記深度画像を入力とし、前記動作値を出力とするニューラルネットワークを学習する学習部と
    を備える、
    モデル構築装置。
  15. 前記第2取得部は、前記物体に取り付けられた角速度センサの出力値から前記物体の回転角度を表す前記多数の動作値を取得する、
    請求項14に記載のモデル構築装置。
  16. 前記第2取得部は、前記物体が乗る床反力計の出力値から前記物体の重心の位置を表す前記多数の動作値を取得する、
    請求項14に記載のモデル構築装置。
  17. 物体の動作を解析するための動作解析システムであって、
    前記物体の動作を捉えた深度画像を撮影する距離画像センサと、
    前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出する動作解析装置と
    を備える、
    システム。
  18. 物体の動作を解析するための動作解析方法であって、
    距離画像センサにより前記物体の動作を捉えた深度画像を撮影するステップと、
    前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記距離画像センサにより撮影された前記深度画像を入力することにより、前記動作値を導出するステップと
    を含む、
    動作解析方法。
  19. 物体の動作を解析するための動作解析プログラムであって、
    前記物体の動作を距離画像センサにより撮影した深度画像を取得するステップと、
    前記物体の動作を定量的に表す動作値を出力とするニューラルネットワークに、前記取得された深度画像を入力することにより、前記動作値を導出するステップと
    をコンピュータに実行させる、
    動作解析プログラム。
JP2017153215A 2016-08-09 2017-08-08 動作解析装置 Active JP7057959B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016156842 2016-08-09
JP2016156842 2016-08-09

Publications (2)

Publication Number Publication Date
JP2018026131A true JP2018026131A (ja) 2018-02-15
JP7057959B2 JP7057959B2 (ja) 2022-04-21

Family

ID=61195290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017153215A Active JP7057959B2 (ja) 2016-08-09 2017-08-08 動作解析装置

Country Status (1)

Country Link
JP (1) JP7057959B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144830A (ja) * 2018-02-20 2019-08-29 Kddi株式会社 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法
JP2019166311A (ja) * 2018-03-25 2019-10-03 柏熊 誠治 スイング判定装置、スイング判定方法、および、プログラム。
WO2020084667A1 (ja) * 2018-10-22 2020-04-30 富士通株式会社 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置
CN111685773A (zh) * 2020-06-04 2020-09-22 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
JP2020152530A (ja) * 2019-03-20 2020-09-24 株式会社タダノ クレーン
JP2021099666A (ja) * 2019-12-23 2021-07-01 住友ゴム工業株式会社 学習モデルの生成方法
CN113227711A (zh) * 2018-12-04 2021-08-06 三菱电机株式会社 导航装置、导航参数计算方法及程序
JP2021530771A (ja) * 2018-07-25 2021-11-11 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. レーザレーダスパース深度マップの処理方法、装置、機器および媒体
WO2021241676A1 (ja) * 2020-05-28 2021-12-02 学校法人慶應義塾 運動解析装置、システム及び記憶媒体、並びにリハビリテーションシステム
CN114504777A (zh) * 2022-04-19 2022-05-17 西南石油大学 基于神经网络和模糊综合评价的锻炼强度计算系统和方法
JPWO2023027046A1 (ja) * 2021-08-26 2023-03-02
US11640669B2 (en) 2019-11-05 2023-05-02 Tensor Consulting Co. Ltd. Motion analysis system, motion analysis method, and computer-readable storage medium
JP7283673B1 (ja) 2018-09-10 2023-05-30 京セラ株式会社 推定装置、プログラム及び記録媒体
JP7496858B2 (ja) 2022-08-08 2024-06-07 基礎地盤コンサルタンツ株式会社 粒度分布予測装置、機械学習装置、粒度分布予測方法、及び、機械学習方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147895A (ja) * 1992-11-10 1994-05-27 Fujitsu Ltd 物体の位置計測装置
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2014521139A (ja) * 2011-06-27 2014-08-25 シュン・ヘン・チャン スポーツ動作のビデオを解析する方法
WO2015033576A1 (ja) * 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06147895A (ja) * 1992-11-10 1994-05-27 Fujitsu Ltd 物体の位置計測装置
JP2004164563A (ja) * 2002-09-26 2004-06-10 Toshiba Corp 画像解析方法、画像解析装置、画像解析プログラム
JP2014521139A (ja) * 2011-06-27 2014-08-25 シュン・ヘン・チャン スポーツ動作のビデオを解析する方法
WO2015033576A1 (ja) * 2013-09-06 2015-03-12 日本電気株式会社 セキュリティシステム、セキュリティ方法及び非一時的なコンピュータ可読媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AYAN SINHA ET AL: "DeepHand: Robust Hand Pose Estimation by Completing a Matrix Imputed with Deep Features", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR), JPN7021003089, 30 June 2016 (2016-06-30), US, pages 4150 - 4158, XP033021600, ISSN: 0004570890, DOI: 10.1109/CVPR.2016.450 *
渡辺 嘉二郎 他: "スポーツを支える計測・情報システム", 計測と制御, vol. 第38巻 第4号, JPN6021030897, 10 April 1999 (1999-04-10), JP, pages 249 - 254, ISSN: 0004570891 *

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019144830A (ja) * 2018-02-20 2019-08-29 Kddi株式会社 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法
JP2019166311A (ja) * 2018-03-25 2019-10-03 柏熊 誠治 スイング判定装置、スイング判定方法、および、プログラム。
JP7016434B2 (ja) 2018-07-25 2022-02-04 深▲セン▼市商▲湯▼科技有限公司 レーザレーダスパース深度マップの処理方法、装置、機器および媒体
JP2021530771A (ja) * 2018-07-25 2021-11-11 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. レーザレーダスパース深度マップの処理方法、装置、機器および媒体
JP2023085344A (ja) * 2018-09-10 2023-06-20 京セラ株式会社 推定装置、プログラム及び記録媒体
JP2023089022A (ja) * 2018-09-10 2023-06-27 京セラ株式会社 処理装置及び推定システム
JP7283673B1 (ja) 2018-09-10 2023-05-30 京セラ株式会社 推定装置、プログラム及び記録媒体
JP2023089021A (ja) * 2018-09-10 2023-06-27 京セラ株式会社 推定装置、推定方法、プログラム及び記録媒体
JP2023089024A (ja) * 2018-09-10 2023-06-27 京セラ株式会社 推定装置、プログラム及び記録媒体
JP7292667B1 (ja) 2018-09-10 2023-06-19 京セラ株式会社 推定装置、プログラム及び記録媒体
JP2023082022A (ja) * 2018-09-10 2023-06-13 京セラ株式会社 学習モデル生成方法、プログラム、記録媒体及び装置
JP7452825B2 (ja) 2018-09-10 2024-03-19 京セラ株式会社 推定装置、推定方法、プログラム及び記録媒体
JP7283672B1 (ja) 2018-09-10 2023-05-30 京セラ株式会社 学習モデル生成方法、プログラム、記録媒体及び装置
JPWO2020084667A1 (ja) * 2018-10-22 2021-09-02 富士通株式会社 認識方法、認識プログラム、認識装置および学習方法
WO2020084667A1 (ja) * 2018-10-22 2020-04-30 富士通株式会社 認識方法、認識プログラム、認識装置、学習方法、学習プログラムおよび学習装置
JP7014304B2 (ja) 2018-10-22 2022-02-01 富士通株式会社 認識方法、認識プログラム、認識装置および学習方法
CN113227711A (zh) * 2018-12-04 2021-08-06 三菱电机株式会社 导航装置、导航参数计算方法及程序
JP2020152530A (ja) * 2019-03-20 2020-09-24 株式会社タダノ クレーン
US11640669B2 (en) 2019-11-05 2023-05-02 Tensor Consulting Co. Ltd. Motion analysis system, motion analysis method, and computer-readable storage medium
JP7482471B2 (ja) 2019-12-23 2024-05-14 住友ゴム工業株式会社 学習モデルの生成方法
JP2021099666A (ja) * 2019-12-23 2021-07-01 住友ゴム工業株式会社 学習モデルの生成方法
WO2021241676A1 (ja) * 2020-05-28 2021-12-02 学校法人慶應義塾 運動解析装置、システム及び記憶媒体、並びにリハビリテーションシステム
CN111685773A (zh) * 2020-06-04 2020-09-22 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
CN111685773B (zh) * 2020-06-04 2024-04-09 北京荟健科技有限公司 孕妇运动监控方法、装置、计算机设备及存储介质
JPWO2023027046A1 (ja) * 2021-08-26 2023-03-02
JP7411945B2 (ja) 2021-08-26 2024-01-12 株式会社CaTe プログラム、情報処理装置、および情報処理方法
CN114504777A (zh) * 2022-04-19 2022-05-17 西南石油大学 基于神经网络和模糊综合评价的锻炼强度计算系统和方法
CN114504777B (zh) * 2022-04-19 2022-07-15 西南石油大学 基于神经网络和模糊综合评价的锻炼强度计算系统和方法
JP7496858B2 (ja) 2022-08-08 2024-06-07 基礎地盤コンサルタンツ株式会社 粒度分布予測装置、機械学習装置、粒度分布予測方法、及び、機械学習方法

Also Published As

Publication number Publication date
JP7057959B2 (ja) 2022-04-21

Similar Documents

Publication Publication Date Title
JP7057959B2 (ja) 動作解析装置
Yan et al. Development of ergonomic posture recognition technique based on 2D ordinary camera for construction hazard prevention through view-invariant features in 2D skeleton motion
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP6116784B1 (ja) 3次元モデル生成システム、3次元モデル生成方法、及びプログラム
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN103733227B (zh) 三维对象建模拟合与跟踪
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
JP6776882B2 (ja) 運動解析装置、方法及びプログラム
JP6369811B2 (ja) 歩行解析システムおよび歩行解析プログラム
US20220375126A1 (en) System, method and computer program product for determining sizes and/or 3d locations of objects imaged by a single camera
JP2021514512A (ja) 動作の識別および動作情報を用いた規範的な分析の生成
KR20180130869A (ko) 손 제스처를 검출하는 컨볼루션 신경망, 그리고 손 제스처에 의한 기기 제어시스템
CN112434679B (zh) 康复运动的评估方法及装置、设备、存储介质
KR101636171B1 (ko) 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
WO2024060978A1 (zh) 关键点检测模型训练及虚拟角色驱动的方法和装置
JP2022043264A (ja) 運動評価システム
CN117352126A (zh) 肌肉受力可视化方法、装置、计算机设备以及存储介质
Hwang et al. Motion data acquisition method for motion analysis in golf
JP7482471B2 (ja) 学習モデルの生成方法
JP6525180B1 (ja) 対象数特定装置
CN115862124A (zh) 视线估计方法、装置、可读存储介质及电子设备
CN114639168B (zh) 一种用于跑步姿态识别的方法和系统
KR20230010164A (ko) 두경부 영상 이미지를 이용한 지방량 산출 방법 및 이를 위한 장치
JP2018180894A (ja) 情報処理装置、情報処理方法及びプログラム
Nguyen et al. Vision-based global localization of points of gaze in sport climbing

Legal Events

Date Code Title Description
AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20180207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220329

R150 Certificate of patent or registration of utility model

Ref document number: 7057959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150