JP2017055913A - 動作フォーム判定装置、判定方法、判定プログラム、判定システム - Google Patents

動作フォーム判定装置、判定方法、判定プログラム、判定システム Download PDF

Info

Publication number
JP2017055913A
JP2017055913A JP2015182138A JP2015182138A JP2017055913A JP 2017055913 A JP2017055913 A JP 2017055913A JP 2015182138 A JP2015182138 A JP 2015182138A JP 2015182138 A JP2015182138 A JP 2015182138A JP 2017055913 A JP2017055913 A JP 2017055913A
Authority
JP
Japan
Prior art keywords
determination
determination result
machine learning
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015182138A
Other languages
English (en)
Inventor
真也 梅野
Shinya Umeno
真也 梅野
英一 砂川
Eiichi Sunagawa
英一 砂川
明淑 高
Myungsook Ko
明淑 高
研 植野
Ken Ueno
研 植野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015182138A priority Critical patent/JP2017055913A/ja
Publication of JP2017055913A publication Critical patent/JP2017055913A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Rehabilitation Tools (AREA)

Abstract

【課題】ユーザおよび動作ごとに「正しい」フォームを機械学習し、アドバイザーのアドバイスと同程度の精度でフォームの正誤判定を行う。【解決手段】本発明の一態様としての動作フォーム判定装置は、ユーザの動作に関する動作情報を取得する第1取得部と、前記ユーザの動作を判定した第1判定結果を取得する第2取得部と、前記動作情報と前記第1判定結果に基づき前記ユーザの動作を判定するためのフォームモデルを生成する機械学習部と、前記第1判定結果が下されていない前記動作情報を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定部と、前記第2判定結果を出力する出力部と、を備える。【選択図】図1

Description

この発明の実施形態は、動作フォーム判定装置、判定方法、判定プログラム、判定システムに関する。
作業、スポーツなどにおける動作フォーム、例えば、ゴルフのスイングフォームなどを、習得するために、動作フォームの正確性を判定する装置が知られている。これらの判定装置は、行われた動作フォームを測定し、測定結果に基づき、理想のフォームを実現するためのフィードバックを行う。これらの判定装置には、理想とされる「正しい」フォームが予め記録されており、正しいフォームからの乖離度合いにより、「正しい」フォームか「誤った」フォームかが判定される。
しかし、「正しい」フォームが一意に定まらない場合もあり得る。例えば、片麻痺等の疾病による動作損失の再獲得のために行われるリハビリでは、疾病等の度合い・種類、患者の個性・特徴・回復度合いなどにより定められたマイルストーンに基づく複数のリハビリフォームが存在する。これらのリハビリフォームは、ユーザ個人ごとに異なり、またリハビリの進行状況に伴い変化する。ゆえに、患者間またはリハビリ経過期間を跨いだ単一の「正しい」リハビリフォームがあるのではないため、判定装置の「正しい」フォームをそのまま当てはめることができない。
また、判定する基準も重要な問題である。例えば、リハビリ専門職等のアドバイザーは、リハビリ動作の開始から数秒間の動作軌跡については大きな乖離を許容するが、リハビリ動作の終了直前の1秒間における伸展速度および伸展後の位置は小さな乖離しか許容しないといった場合があり得る。このように、「正しい」フォームからの乖離の許容度が時間別に変化する場合において、単純に「正しい」フォームとの乖離が一定以上の場合は誤りと判定すると、アドバイザーの判定結果と異なる場合が生ずる。
したがって、単一の「理想のフォーム」を前提とした判定装置、または判定基準がアドバイザーの意思を反映していない装置では、ユーザ個別の多様な理想のフォームの1つ1つに対応すること、およびアドバイザーからのアドバイスと同程度の精度でフォームの正誤判定を行うことはできない。
特開2014−133015号公報
本発明の実施形態は、ユーザおよび動作ごとに「正しい」フォームを機械学習し、アドバイザーのアドバイスと同程度の精度でフォームの正誤判定を行う。
本発明の一態様としての動作フォーム判定装置は、ユーザの動作に関する動作情報を取得する第1取得部と、前記ユーザの動作を判定した第1判定結果を取得する第2取得部と、前記動作情報と前記第1判定結果に基づき前記ユーザの動作を判定するためのフォームモデルを生成する機械学習部と、前記第1判定結果が下されていない前記動作情報を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定部と、前記第2判定結果を出力する出力部と、を備える。
動作フォーム判定装置を説明するための図。 第1の実施形態に係る動作フォーム判定装置およびそのシステムの概略構成の一例を示すブロック図。 スケルトンを説明するための図。 動作情報とその時系列データの一例を示す図。 フォームモデルの機械学習を説明するための図。 フォームモデルに基づく判定を説明するための図。 実際に生成されたフォームモデルを示す図。 第1の実施形態に係る動作フォーム判定装置の機械学習処理の概略フローチャート。 第1の実施形態に係る機械学習部の機械学習(モデル生成)処理のフローチャート。 第1の実施形態に係る動作フォーム判定装置の判定処理のフローチャート。 第2の実施形態に係る動作フォーム判定装置の概略構成を示すブロック図。 第3の実施形態に係る動作フォーム判定装置の概略構成を示すブロック図。 第3の実施形態に係る機械学習部の機械学習処理のフローチャート。 本実施形態に係る動作フォーム判定装置を実現したハードウェア構成例を示すブロック図。
以下、図面を参照しながら、本発明の実施形態について説明する。
(第1の実施形態)
図1は、動作フォーム判定装置を説明するための図である。図1(A)は、動作フォーム判定装置1に、ユーザの動作フォームの機械学習を行わせる図である。図1(B)は、動作フォーム判定装置1が、ユーザの動作フォームの判定を行う図である。図1(A)では、図の左側に示されたユーザが、リハビリ専門職などのアドバイザーとともに、腕を伸縮させるリハビリの動作を行っていることが示されている。図1(B)では、当該ユーザがアドバイザー不在の状況下で、同じリハビリを行っていることが示されている。
図1(A)でのユーザのリハビリ動作は、ユーザの動作を映すことができるカメラ2A、またはユーザに取り付けられた加速度もしくは角速度を測るためのセンサ2Bなどの測定装置2により、測定される。また、アドバイザーは、ユーザが行ったリハビリの動作に対して、OKまたはNGなどの判定(評価)を行う。判定は、入力装置3を介して、動作フォーム判定装置1に送られる。動作フォーム判定装置1は、このリハビリ動作および判定に基づき、正しいフォームを機械学習する。ここでは、正しいフォームは、ユーザ個人ごとに異なり、またユーザのリハビリの進行状況に伴い変化することを想定する。
図1(B)でのユーザのリハビリ動作も、ユーザの動作を映すことができるカメラ2Aまたはユーザに取り付けられたセンサ2Bなどの測定装置2により、測定される。但し、測定機器2は、動作フォーム判定装置1の機械学習時よりも少なくともよい。また、機械学習時の測定機器2と同じ項目を測定できるものであれば、同一でなくともよい。図1(B)では、動作フォーム判定装置1は、先の機械学習結果に基づき生成されたフォームモデルに基づき、ユーザのリハビリ動作を判定する。この判定の結果(再現判定結果)は出力装置4に出力されるものとする。この再現判定結果がアドバイザーの判定の精度と同程度ならば、ユーザはアドバイザー不在の状況下でも、効率的にリハビリを行うことが可能となる。
動作フォーム判定装置1、測定装置2、入力装置3、および出力装置4は、有線または無線にて、データ交換を行えるものとする。但し、ここでは、動作フォーム判定装置1は、ユーザ、アドバイザー、測定装置2などと同じ部屋または空間内にあることを想定する。なお、動作フォーム判定装置1が、インターネットなどのネットワークを介して、他の装置と通信接続されることを制限するものではない。
なお、動作は上記例に限定されるものではない。動作は、リハビリではなく、スポーツ・作業の訓練でもよいし、動作部位も腕ではなく、頭、手、指、下肢など体の一部または体全体でもよい。また、アドバイザーには、リハビリ専門職、トレーナ、コーチなど、ユーザの動作を判定する人物全てが含まれるものとする。
図2は、第1の実施形態に係る動作フォーム判定装置およびそのシステムの概略構成の一例を示すブロック図である。このシステムは、動作フォーム判定装置1と、測定装置2と、入力装置3と、出力装置4とを具備する。測定装置2などは、図1で示した通り、複数の装置であってもよい。動作フォーム判定装置1は、測定データ取得部101と、測定データ記憶部102と、入力データ取得部103と、判定データ記憶部104と、パラメータ記憶部105と、機械学習部106と、モデル記憶部107と、再現判定部108と、再現判定結果記憶部109と、出力部110を備える。
測定データ取得部101は、測定装置2から、ユーザの動作を測定した測定データを取得する。ここでは、ユーザの動作に関する情報を動作情報と称する。測定装置2は、カメラ2A、センサ2Bなど、動作情報を取得できるものであればよい。例えば、深度センサなどを有する3Dカメラ、または加速度センサ、角速度センサ、地磁気センサなどがある。また、図1に示したように、測定装置2は、1台でも複数でもよいし、複数の場合は種類が異なってもよい。動作情報は、センサが取得したユーザの加速度等でもよいし、3Dカメラなどが取得した画像(動画、静止画を含む。以下、同じ。)から、スケルトンと呼ばれる技術を用いて算出されたユーザの体の各部位の位置、角度などでもよい。なお、ここでいう位置とは、基準地点からの相対的な位置を意味する。
図3は、スケルトンを説明するための図である。スケルトンとは、体の各部位を代表する点と、それらを結ぶ線とにより、ユーザの動作情報を取得する技術である。図3に示されている複数の白丸が、頭、肩、肘、指などの体の各部位を表す。これらの部位は、画像および深度データに基づくパターン認識技術などによりマッチングされる。スケルトンにより、動作フォームを捉えるのに重要な部位の位置を、3次元および2次元の位置データとして取得できる。スケルトンの計算は、例えばマイクロソフト社のKINECT(登録商標)などを測定装置2に用いることにより実現可能である。
KINECTなどでは、上半身の地面に対する傾き、肘の開き角度または閉じ角度(肘ジョイント角度)、手または指の位置、姿勢の反り(上体の傾き、捻り)、猫背(背屈)、膝の上がり方(膝の角度)などを算出することができる。図4は、動作情報とその時系列データの一例を示す図である。図4(A)は、肘の閉じ角度をθとして表して、肘を閉じている状態から開いた状態に動作させたときのθの変化を時系列データのプロットで表したものである。
なお、上記θなどの動作情報は、KINECTなどの測定装置2または図示しない装置またはシステムなどが算出することを想定しているが、測定データ取得部101または機械学習部106が算出してもよい。スケルトンで示される体の全部位の3次元位置データを測定時刻と組み合わせて保存し、機械学習および判定すべき動作フォームに応じて、算出すべき動作情報を決定し、予め定められた計算方法により算出すればよい。測定データ取得部101が取得する動作情報も、機械学習および判定すべき動作フォームに応じて、適宜、変更してもよい。
また、測定データ取得部101は、測定装置2より、測定の開始時刻と終了時刻のデータも取得するものとする。測定装置2は、例えば、録画ボタンの押下などにより、開始時刻と終了時刻を把握できる。また、入力装置3を介して、入力データ取得部103が測定の開始時刻と終了時刻を受け取ってもよい。その場合は、測定データと、測定の開始および終了時刻の関連付けを行う必要がある。関連付けは、測定データに含まれるタイムスタンプが、測定の開始および終了時刻の間に含まれるかで行えばよい。また、リハビリ動作などが複数回反復して行われる動作の場合は、反復して行われる動作(反復動作)を1回行うごとに、1回分の反復動作の開始時刻と終了時刻も取得するものとする。1回分の反復動作の開始および終了時刻は、KINECTなどで算出可能である。これにより、反復動作に対するフォームモデルの生成が可能となる。
測定データ取得部101は、測定データを測定装置2から受動的に受信してもよいし、測定データ取得部101がポーリングして測定装置2から能動的に受信してもよい。取得のタイミングは、一定時間ごとでも、動作情報の取得の度でもよく、任意に定めてよい。
測定データ取得部101は、測定データに対し、適切な前処理またはプロセシングを行う。前処理またはプロセシングとは、例えば、加速度センサが拾うノイズを除去すること、前述のスケルトンの位置情報より動作情報を算出することなどがある。
測定データ記憶部102は、上記のスケルトンによる3次元位置データなど、測定データ取得部101が取得した測定データを格納する。
入力データ取得部103は、入力装置3から入力されたデータを取得する。入力装置3には、図1で示した通り、アドバイザーによる判定結果が入力される。また、動作フォーム判定装置1が行う処理に対する指示、例えば、処理の開始、終了、内容の変更、などが入力される。また、測定データに関する指示、例えば、データ内容の変更もしくは削除なども入力されてもよい。
なお、入力データ取得部103が、機械学習処理の開始の命令を取得すると、動作フォーム判定装置1は、機械学習を開始する。入力データ取得部103が、再現判定の処理の開始の命令を取得すると、動作フォーム判定装置1は、判定を開始する。
入力装置3は、例えば、タブレット端末、PC(パーソナルコンピュータ)でもよく、入力方法は、タッチ操作、キーボードタイピング、音声、画像などでもよい。なお、アドバイザーは、判定結果を入力する際に、入力装置3に備えつけられたマイクおよびカメラなどに対し、判定理由を音声および画像で入力してもよい。例えば、「NG」を入力した際に、NGである理由を音声および画像で入力する。そして、リハビリ動作の判定時に、判定したリハビリ動作と類似する機械学習データを抽出し、機械学習データに関する判定内容を再生させることで、ユーザはより詳細なアドバイスを取得することができる。
アドバイザーは、図1で説明したような、○K(○、YES、Good)またはNG(×、NO、Bad)などの2段階の判定だけではなく、より複雑に判定を行ってもよい。例えば、「◎(Very Good)、○(Good)、△(Almost)、×(Bad)」、「○(Good)、×(Bad Type1)、×(Bad Type2)、×(Bad Type3)」のような多段階判定、または、90点、65点のような点数を入力してもよい。また、アドバイザーは、今回の測定内容が機械学習に適していないと判断した場合は、「機械学習対象外」という入力を行ってもよい。「機械学習対象外」の場合は、後述する機械学習において、機械学習データとして用いられないこととする。
なお、ここでは、アドバイザーの負担を考慮し、アドバイザーは1つの動作フォームに対し、総合的に判定を行う事を想定している。つまり、1つの動作フォームに対し、1つの判定結果が関連づけられる。但し、1つの動作フォームに対し重要な判定項目を複数定め、それら判定項目それぞれに対し、判定を行ってもよい。例えば、腕の伸縮のリハビリにおいては、伸ばす際の速度、伸展時の手首の高さを判定項目とし、速度はOK、手首の高さはNGという判定を行ってもよい。また、NGと判定した場合は、1つの動作フォームが行われた経過時間を複数の区間に分け、どの時間区間でNGとなったかを特定させてもよい。このように詳細に判定を行った場合、動作フォーム判定装置1は、より詳細に機械学習することができ、機械学習の速度・精度が向上する。
また、動作フォーム判定装置1を複数のユーザで共用する場合、またはユーザ1人が複数の動作フォームについて判定を行う場合もあり得る。このように、複数の動作フォームが動作フォーム判定装置1に登録される場合は、アドバイザーは判定を行う際に、いずれの動作フォームまたはユーザに対する判定かを入力装置3に入力するものとする。入力された動作フォームまたはユーザは、判定結果に含まれる。また、再現判定の処理の開始を行う際にも、ユーザはいずれの動作フォームまたはユーザの再現判定を行うかを入力装置3に入力するものとする。
入力データ取得部103は、機械学習部106が行う処理に必要なパラメータなどの情報を取得する。これらのパラメータは、予めパラメータ記憶部105に格納されていてもよいが、入力データ取得部103がパラメータを取得した場合は、パラメータ記憶部105のデータが更新されるものとする。
判定データ記憶部104は、入力データ取得部103が取得した判定結果を格納する。なお、アドバイザーが判定結果を対話形式で入力する場合、例えば、測定データ取得部101が測定データを取得したときは、出力装置4に判定の入力画面を表示させ、アドバイザーがその測定データにかかる動作フォームの判定を入力するといった場合は、判定データは、測定データに関連付けて、測定データの一部として測定データ記憶部102に格納してもよい。この場合は、判定データ記憶部104はなくともよい。
パラメータ記憶部105は、入力データ取得部103が取得した機械学習部106が行う処理に必要なパラメータを格納する。例えば、機械学習に用いる動作情報のほか、後述する時間ウィンドウ、統計分類手法などが含まれる。パラメータ記憶部に格納されたパラメータは、入力装置3を介して、ユーザ、動作フォーム判定装置1の管理者等が調整可能とする。
機械学習部106は、測定データ記憶部102内の測定データ(動作情報)と、判定データ記憶部104内の判定結果とに基づき、フォームモデルの機械学習を行う。測定データと判定結果は、測定履歴の番号等と判定履歴の番号等で関連付けてもよい。また、アドバイザーの判定がリアルタイムで行われる場合は、タイムスタンプで関連付けてもよい。また、判定結果を変更したことなどにより、1つの動作フォームに判定結果が複数存在する場合は、最も遅い時刻の判定結果を最終判定結果と解釈してもよい。
機械学習部106は、動作情報の時系列データを、所定の時間間隔で、複数の区間(時間ウィンドウ)に分割することもできるものとする。区間に分けることにより、機械学習に適したデータサイズ(データ次元)にする。そして、区間ごとに、動作情報の特徴量を算出する。なお、時間ウィンドウの長さは、動作フォームの動きの速さ、およびユーザの個人能力などに応じて、動作フォームごとに定められるものとする。また、ある1つの動作フォームにおける時間ウィンドウの長さは、同じでも、異なっていてもよい。
また、時間ウィンドウの分割を所定の時間間隔ごとに行うのではなく、測定された動作フォームの特徴に基づき、分割する時間(タイミング)を定めてもよい。例えば、1つ以上の閾値を予め定めておき、腕などの所定の部位の速度がある閾値未満からその閾値以上になったときを分割するタイミングとし、複数の区間に分割してもよい。また、フォーム全体を計測した後、肘などの所定の部位の角度が最大もしくは最小になったタイミングを割り出した上で、そのタイミングにて、分割するといったことも考えられる。
動作フォームの特徴も、任意に定めてよい。着目する体の部位、例えば、腕、肩、肘、関節なども任意に定めてよい。また1箇所だけでなく複数の箇所に着目してもよい。例えば、肘、肩、足首などの体全体の各関節に着目し、各関節の加速度の総和に基づき、分割のタイミングを定めてもよい。また、部位ではなく、体全体の傾き、重心の位置などでもよい。分割するための値に関しても、例えば、位置、速度、加速度など、あるいは、平均値、最大値、最小値なども任意に定めてよい。その他にも、フォーム全体の複雑度を判断することができる主成分分析手法(PCA:Principal Component Analysis)を用いて、フォーム全体の複雑度の平均値に基づき、分割することも考えられる。
特徴量は、動作情報、つまり、動作フォームの特徴を表すものである。動作フォームに適した特徴量を算出することで、判定におけるアドバイザーの着目点との差異を減らし、判定の精度を向上させることができる。特徴量としては、時間ウィンドウごとの動作情報の平均値、最大値、最小値などの他、時間差分における動作情報の極大値、極小値もしくはそれらの時刻、複数個所の時系列的連動(リズム)、動作の複雑性(ブレ)などがある。
特徴量を時間ウィンドウごとの平均値、最大値、最小値などにした場合は、各区間のウィンドウ幅を、例えば、1.0秒と、固定した上で算出する。平均値は、各区間における平均的な動きの推移を把握することができる。最大値、最小値は、部位間距離や関節角度が最大または最小となる時点におけるフォームを動作フォームの特徴と捉える。例えば、できる限り腕を高くあげるといったリハビリなどで用いることが考えられる。
時間差分での動作の大きさの極大値、極小値とした場合では、動作が大きく動いたとき、または、ほぼ静止しているときを、動作フォームの特徴として捉える。例えば、瞬間的に動くまたは止まるといった瞬発力の強化練習などで用いることが考えられる。極大値、極小値、またはそれらの時刻は、例えば、ジョイント別の単位時間の移動距離の総和などの時系列データを算出し、そのデータの極大点と極小点を算出すればよい。
複数個所の時系列的連動とした場合では、例えば、腕を伸ばすと同時に上体を倒すなど、体の複数の部位を連動させて動かすといった動作フォームにおいて、その連動の度合やリズムを特徴と捉える。例えば、ダンス、スポーツのフォームの習得などで用いることが考えられる。連動の度合は、動的時間伸縮法(DTW:Dynamic Time Warping)などにより、着目する複数個所の動きの波形の時間方向の差異を捉えることで、算出することができる。
動作の複雑性は、本来、単調な動作軌跡を描くはずの動作フォームが、力みなどの影響により、複雑な動作軌跡を描く、または動作軌跡が歪む場合を考慮したものである。このような誤りを捉えるため、動作の複雑性を定量的に捉える。正確性を求められる作業、またはリハビリなどで用いることが考えられる。動作の複雑性は、自己相関係数を取る方法、主成分分析手法(PCA)、または、DTWにより正解フォームとの差異を合わせた上で差分の分散を取るといった方法で算出することができる。
図4に、特徴量算出の一例を示す。θの時系列データにおいて、1.0秒ごとの時間間隔で区間が区切られ、3つの区間それぞれに対し、区間の特徴量(60.7、31.4、19.2)が算出されている。1つの動作情報(ここではθ)が有する全ての特徴量(ここでは、60.7、31.4、19.2)を総じて特徴量ベクターと称する。このように、機械学習部は、予め定められた動作情報それぞれに対し、特徴量ベクターを算出する。
機械学習部106は、機械学習分野における統計分類手法により、複数の動作情報の特徴量ベクターの集合から、フォームモデルを機械学習する。動作情報各々に対応するアドバイザーの判定は教師データとして用いられる。統計分類手法は、決定木、SVM(Support Vector Machine)、K近傍法などがある。
例えば、アドバイザーの判定が「○(Good)、×(Bad)」のような2値の場合には、決定木、SVM、K近傍法、ロジスティック回帰などの手法を用いることができる。また、アドバイザーの判定が「◎(Very Good)、○(Good)、△(Almost)、×(Bad)」また「○(Good)、×(Bad Type 1)、×(Bad Type 2)、×(Bad Type 3)」のような多値の場合には、決定木、K近傍法、one−versus−rest法などで多値分類に対応させたSVM、多クラスロジスティック回帰などを用いることができる。また、「90点、65点」のような点数の場合には、重回帰やロジスティック回帰(確率の0.0〜1.0を0点〜100点と解釈)のような手法を用いることが出来る。
図5は、フォームモデルの機械学習を説明するための図である。図5(A)は、機械学習に用いられた動作情報を示す図である。図5(B)は、機械学習により求められたフォームモデルの一例を示す図である。図5(A)の実線は、アドバイザーによりOKと判定された動作フォームに関する動作情報であり、点線は、アドバイザーによりNGと判定された動作フォームに関する動作情報である。これらの動作情報とその判定に基づき、機械学習を行うと、図5(B)のように、フォームモデルとして、特徴量の上限値グラフ及び下限値グラフが生成される。このようにして、フォームモデルは、そのユーザ個人および練習状況に即した特有のモデルとなる。
モデル記憶部107は、機械学習部106より算出されたフォームモデルを格納する。なお、フォームモデルは、1人のユーザに対して、1つのみとは限らない。例えば、複数の動作フォームを連続して行うような場合などでは、一連の動作を1つのフォームモデルとして判定するのではなく、一連の動作フォームそれぞれのフォームモデルを個別に判定したほうがよい。また、1つの動作フォームに対し、フォームモデルが複数存在してもよい。例えば、全ての測定データを用いて、1つのフォームモデルを生成・更新するのではなく、機械学習の機会ごとに、フォームモデルを生成してもよい。例えば、ユーザがリハビリを3日間行った場合、3日間の測定データから1つのフォームモデルを生成してもよいし、1日目のフォームモデル、2日目のフォームモデル、3日目のフォームモデルと分けて生成し、モデル記憶部107に格納してもよい。複数のフォームモデルが格納されているときは、判定に用いるフォームモデルを、アドバイザーまたはユーザが、入力装置3を介して決定すればよい。
再現判定部108は、測定データ記憶部102に格納された測定データと、モデル記憶部107に格納されたフォームモデルに基づき、測定されたユーザの動作が、そのユーザ特有の「正しい」フォームであるかを判定(再現判定)する。
図6は、フォームモデルに基づく判定を説明するための図である。図6(A)は、フォームモデルによる判定の一例を示す図である。図6(B)は、予め定めた理想のフォームから一定値離れた領域を許容範囲とするモデルの例を示す図である。
例えば、アドバイザーの意図が、θの始点(0.0秒〜0.5秒)と終点(2.0秒〜3.0秒)においては、小さい許容度でチェックするが、0.5秒から2.0秒の間では、それほど厳しくはチェックしない、というものであったとする。そうすると、図6(A)のように、点線の上限値グラフと下限値グラフとの間の許容範囲は、始点と終点で狭く、中間地点は広くなる。黒の破線は、今回判定を行う測定フォームの時系列データである。破線で示された測定フォームは、図6(A)では許容範囲内であるが、図6(B)では許容範囲を越えている。許容範囲内に完全に含まれている場合をOK、完全に含まれていない場合はNGとすると、図6(B)のようなモデルではNGとなる。ゆえに、予め定めた理想のフォームから一定値離れた領域を許容範囲とするモデルでは、本来は許容されるべき正しいフォームが、間違ったフォームと判定される場合がある。しかし、動作フォーム判定装置1が生成したフォームモデルを用いれば、アドバイザーの意図を反映しないモデルとは異なり、アドバイザーの判定をより正確に表した判定を行い得る。
図7は、実際に生成されたフォームモデルを示す図である。実際のフォームモデルは、機械学習による決定木、SMV、ロジスティック回帰などの手法で生成される機械学習モデルである。このような機械学習モデルにおいても、図6のような、正誤範囲の図示的解釈が可能である。図7は、2つの特徴量に係るフォームモデルであり、具体的には、手首の伸びと手首の高さとに基づくフォームモデルである。図7の縦軸が手首の伸びを示し、横軸が手首の高さを示す。図7に示された三角形および四角形のプロットは、実際に取得した動作フォームの判定結果を示すものである。三角形は「OK」を意味し、四角形は「NG」を意味する。これらのプロットは、ある特定の時刻におけるプロットでもよいし、ある期間の平均値、最大値、最小値などでもよい。
図7に示された曲線は、SMVによる機械学習により算出され、「正しさ」の度合を示すものである。図7では、上側に描画された線のほうが「正しさ」が高いとする。ここでは、曲線の1つを基準線(判定グラフ)とし、プロットが基準線よりも上側または左側にあるとき、「OK」と判定されている。
なお、再現判定部108は、再現判定を行う際に、測定された動作フォームが開始されたタイミングを把握しなければ、フォームモデルと比較する際にずれが生じてしまい、正確に比較することができない。動作フォームの開始時刻は、入力装置3を介して、ユーザが入力してもよいし、測定装置が記録して測定データに含めてもよい。または、再現判定部108が、フォームモデル等とパターンマッチングを行い、動作フォームの開始を検出してもよい。
再現判定部108が算出する判定結果は、例えば、機械学習に基づき、統計的意味がある点数または2段階評価もしくは多段階評価の結果を表す指標(◎〇△×など)にて表されることが考えられる。フォームモデルの種類によっては、動作フォームの正誤に関する2値判別だけでなく、正しい確率を算出することができるものがある。例えば、SMV、ロジスティック回帰などにより生成されたフォームモデルなどがあり得る。このようなフォームモデルにおいて、例えば、正しいフォームである確率がP(単位は%)という判定結果を得たときは「P点」と表示することにより、確率や統計的意味のある値に応じて、点数を決めることができる。
また、確率の他、正しいと判定された結果の分布に関する標準偏差σ、誤差偏差、信頼区間などに基づき、一定値を算出し、計測結果とフォームモデルとの乖離を当該一定値に基づき、判定することが考えられる。例えば、判定されるユーザの動作に関する全ての値が許容範囲に完全に含まれており、かつ上限値グラフまたは下限値グラフから一定値よりも離れている場合は、100点(◎、Very Good)、許容範囲に完全に含まれているが上限値グラフまたは下限値グラフから一定値以内である場合なら90点(○、Good)、許容範囲に含まれていない値があるが上限値グラフまたは下限値グラフから一定値以内である場合なら60点(△、Almost)、許容範囲に含まれていない値があり上限値グラフまたは下限値グラフから一定値よりも離れている場合は30点(×、Bad)としてもよい。このように、判定の基準、方法、判定結果の表示形式(点数、記号、単語)などは、任意に定めてよい。
上記のように判定結果を算出すると、アドバイザーはOKとNGの2段階しか判定していないが、判定結果は、100点、90点、60点、30点の4段階の判定となり得る。逆にアドバイザーは細かく判定したが、判定結果は、OKとNGの2段階しか算出しないということもできる。このように、判定結果は、アドバイザーが入力した判定の段階数、表示形式などと異なっていてもよい。また、ユーザが、入力部を介して、判定結果の判定の段階数を調節可能としてもよい。
また、判定結果がNGの場合などでは、どの時間帯に問題があったかを判定結果に含めてもよい。再現判定部108は、測定フォームのグラフが、フォームモデルの許容範囲から外にはみ出ると、NGと判定する。ゆえに、このはみ出た時間帯が問題であるとして、当該時間帯を判定結果に含める。これにより、ユーザはどの時間帯が問題であったかを把握することができる。
また再現判定部108は、再現判定された動作と類似する機械学習で用いられた動作を、判定データ記憶部104から抽出し、機械学習で用いられた動作の判定と同じ判定結果としてもよい。機械学習時に、入力装置3に備えられたマイクおよびカメラなどを用いて、機械学習で用いられた動作の判定の理由を音声および画像で入力していた場合に、当該判定理由を判定結果として出力すれば、ユーザにより詳細なアドバイスを行うことができる。また、k近傍法を用い、当該特徴量において、判定された動作と類似する正しい例(正例)の集合と、類似する誤りの例(誤例)の集合を所定数取得し、取得した正例と誤例を出力装置4に表示させてもよい。これらにより、ユーザは修正すべきフォームの箇所等をより理解することができる。
再現判定結果記憶部109は、判定結果を格納する。判定結果は、過去の履歴などを参照する際に用いられる。なお、再現判定結果記憶部109は、判定結果に基づき、統計情報を生成してもよい。再現判定結果記憶部109がデータベースなどで実現されている場合は、RDBMSなどの管理機能を用いればよい。
出力部110は、出力装置4に出力させる内容を出力する。出力する信号、データフォーマット等は、出力装置4に応じて、予め定められているものとする。動作フォーム判定装置1が機械学習を行う場合は、生成したフォームモデルに関する情報などを出力させて、フォームモデルの適否をアドバイザーに確認させてもよい。動作フォーム判定装置1が再現判定を行う場合は、出力部110は、判定結果を出力する。再現判定の都度、判定結果を出力させる場合などでは、出力部110は、再現判定部108より送られた判定結果をリアルタイムに出力装置4に送る。判定結果をまとめて表示する場合などでは、出力部110は、再現判定結果記憶部109を参照し、判定結果に関連付けられたタイムスタンプなどにより、出力させるべき判定結果を把握し、抽出する。
また、出力部110は、入力データ取得部103からの指令を受けて、再現判定結果記憶部109から過去の判定結果を抽出し、当該判定結果を出力するように出力装置4を制御してもよい。例えば、過去1週間当たりの判定結果を、出力装置4を介して出力することで、ユーザおよびアドバイザーはリハビリの進捗具合を把握するといったことができる。また、アドバイザーが判定結果を確認し、判定結果の是非を記録してもよい。判定結果の是非が記録された場合は、当該動作フォームは測定データとすることができ、フォームモデルの更新に用いることができる。また、一度行った判定を修正することも可能である。過去のデータの検索等は、再現判定結果記憶部109がSQLクエリを受付可能なデータベースとして実現されている場合は、タイムスタンプを参照するSQLクエリを生成することで実現できる。
その他にも、出力部110は、各記憶部に格納されたデータ、例えば、測定データの値、パラメータ、または測定装置2などから送られてきた画像データなどをそのまま転送してもよい。ここでは、図1(A)で示した通り、アドバイザーは、ユーザとともにリハビリを行っていることを想定しているが、画像を転送する場合は、ユーザとは異なる場所および時間で判定を行うこともできる。出力部110が出力する内容は、入力装置3を介して指示すればよい。
出力装置4は、出力部110から送られた判定結果等の出力データを表示する。出力装置4は、例えば、タブレット端末、PC(パーソナルコンピュータ)等でよく、また入力部3と同一でもよい。判定結果は、出力装置4が有するディスプレイ、スピーカなどにより、画像、音声などで出力される。
次に、第1の実施形態に係る動作フォーム判定装置1の処理のフローについて説明する。図8は、第1の実施形態に係る動作フォーム判定装置1の機械学習処理の概略フローチャートである。
測定データ取得部101が、測定装置2から測定データを取得する(S101A)。測定データの取得は、任意のタイミングでよい。測定装置2が動作の測定中にリアルタイムに測定データ取得部101に送信してもよいし、リハビリ動作の後で測定データ取得部101が測定データを一括して取得してもよい。測定データは、適切な前処理やプロセシングが行われた上で、測定データ記憶部102が格納する(S102A)。
入力データ取得部103が、入力装置3から判定結果を取得する(S101B)。判定結果は、入力装置3を介して、リアルタイムに送られる。判定結果は、測定データ記憶部102が格納する(S102B)。
なお、測定データの取得(S101A)および格納(S102A)と、判定データの取得(S101B)および格納(S102B)とは、並行して行われても、いずれかが先に行われてもよい。
機械学習部106は機械学習処理を行い、判定結果と測定データ内の動作情報とに基づき、フォームモデルを生成する(S103)。測定データと判定結果は、測定履歴の番号等と判定履歴の番号等で関連付けてもよい。また、アドバイザーの判定がリアルタイムで行われる場合は、タイムスタンプで関連付けてもよい。フォームモデルは、モデル記憶部107が格納する(S104)。以上が、機械学習処理の概略フローである。
図9は、第1の実施形態に係る機械学習部106の機械学習(フォームモデル生成)処理のフローチャートである。
機械学習部106は、パラメータ記憶部105からパラメータを取得する(S201)。取得すべきパラメータは、予め機械学習部106に定められていてもよい。または、機械学習部106が判定対象の動作フォームを判断し、動作フォームに関連づけられたパラメータを取得してもよい。または、入力装置3を介して、ユーザからの指示を受け取ってもよい。パラメータには、特徴量の算出方法、動作情報を分割する時間間隔、統計分類手法などが含まれる。
機械学習部106は、測定データ記憶部102から、機械学習の対象とする測定データを取得する(S202)。機械学習部106は、取得した測定データそれぞれに対し、所定の時間間隔で、複数の区間に分割し(S203)、特徴量ベクターを算出する(S204)。なお、一度当該処理を行っており、既に算出済みの特徴量ベクターが有る場合は、その特徴量ベクターを用いてもよい。算出した特徴量ベクターは、測定データ記憶部102、またはモデル記憶部107に格納すればよい。
機械学習部106は、1つの測定データに対し、1以上の動作情報の特徴量を算出する。ゆえに、全ての種類の特徴量を算出していない場合は(S206のNO)、S203とS204の処理を繰り返す。全ての種類の特徴量を算出し、まだ処理を行うべき測定データが残っている場合は(S207のNO)、次の測定データを取得し(S202)、次の測定データに対しS203とS204の処理を行う。
対象とする全ての測定データを処理した場合は(S207のYES)、全測定データの特徴量ベクターから、選択された統計分類手法により、フォームモデルを機械学習する(S208)。以上が、機械学習部106の機械学習(モデル生成)処理のフローである。
図10は、第1の実施形態に係る動作フォーム判定装置1の判定処理のフローチャートである。当該フローは、入力装置3から判定処理の指令を受け取ったタイミングなどで開始される。
再現判定部108は、モデル記憶部107からフォームモデルを取得する(S301)。選択するモデルは、アドバイザー等により予め定められた標準(デフォルト)のフォームモデルでもよい。または、入力装置3を介して、ユーザから指定されたフォームモデルを選択するようにしてもよい。
再現判定部108は、測定データ記憶部102から、測定データを取得する(S302)。取得する測定データは、測定時刻などから判断すればよい。例えば、判定処理の開始後に測定データ記憶部102に格納されたデータ、または一番直近のデータとしてもよい。または、測定データ取得部101または入力データ取得部103から、取得する測定データの番号等を受け取ってもよい。なお、再現判定部108は、入力データ取得部103からの指令を受け付けてから、測定データを取得してもよい。例えば、ユーザが動作を行った後で、この動作については測定対象外とする入力を入力装置3に行った場合などでは、入力データ取得部103が測定データの取得の指令を行わないとしてもよい。
再現判定部108は、測定データの動作情報とフォームモデルとに基づき、判定を行う(S303)。判定結果は、出力部110により、出力部に送られる(S304)。なお、出力部110は、判定結果のみならず、測定データ取得部101が取得した測定データを逐次、出力装置に送るようにしてもよい。そして、再現判定結果記憶部109が、判定結果を格納する(S305)。以上が、判定処理のフローである。
なお、1度に複数の判定を行う場合は、再現判定結果記憶部109の格納(S305)後、再度、別の測定データを取得する処理(S302)に戻り、判定処理が繰り返し行われる。また、ここでは、出力部110の出力制御(S304)の後に、再現判定結果記憶部109の格納(S305)が実行されるように記載したが、当該フローの実行は、出力制御と同時に行われても、順番を入れ替えて行われてもよい。
以上のように、第1の実施形態によれば、アドバイザー不在の状況下においても、アドバイザーの意思を反映した正誤判定を行うことができる。また、動作フォームに即した特徴量を用いることで、判定におけるアドバイザーの着目点との差異を減らし、判定結果の精度向上を図ることができる。
(第2の実施形態)
第2の実施形態では、リハビリ患者などが、アドバイザーのいる病院だけでなく、自宅などで自主的にリハビリを行いたいといった場合を想定する。このような場合、第1の実施形態に係る動作フォーム判定装置1を病院と自宅に2台設置してもよいが、自宅では機械学習されることができないので、機械学習機能が無駄になる。また、インターネットなどを介して、測定データを病院に設置された動作フォーム判定装置1に送り、判定結果を取得する方法も考えられる。しかし、動作を映した画像などのデータ容量、通信回線の帯域などの影響を受け、現実的とは言えない。
そこで、第2の実施形態に係る動作フォーム判定装置1Aは、機械学習機能を分離させ、判定機能のみを有する。そして、機械学習を行うのは病院に備え付けの動作フォーム判定装置1、再現判定を行うのは自宅に備え付けの動作フォーム判定装置1Aというように、機械学習と再現判定を異なる機器で行うことを想定する。
図11は、第2の実施形態に係る動作フォーム判定装置1Aの概略構成を示すブロック図である。動作フォーム判定装置1Aは、フォームモデル取得部111を新たに備え、判定データ記憶部104、パラメータ記憶部105、機械学習部106を備えない点が、第1の実施形態に係る動作フォーム判定装置1と異なる。第1の実施形態と同一の部分および処理については、説明を省略する。
なお、ここでは、フォームモデル取得部111を新たに備えるものとしたが、入力データ取得部103がフォームモデル取得部111の役割を果たしてもよい。
フォームモデル取得部111は、動作フォーム判定装置1Aの外部の装置から、フォームモデルを取得する。外部の装置は、病院などに設置された第1の実施形態に係る動作フォーム判定装置1でもよい。また、動作フォーム判定装置1から再現判定部108および再現判定結果記憶部109を除き、機械学習機能のみを有する動作フォーム判定装置でもよい。その他、クラウドといった、通信ネットワーク上のサービス提供環境に置かれているフォームモデル提供サーバ5でもよい。動作フォーム判定装置1、フォームモデル提供サーバ5などとは、インターネットなどのネットワークを介して、通信接続できるものとする。
フォームモデル取得部111は、定期的に、動作フォーム判定装置1、フォームモデル提供サーバ5などと同期を行い、フォームモデルを取得してもよい。または、再現判定を行うタイミングで、再現判定に用いるフォームモデルのみを取得してもよい。
フォームモデルを取得するための情報、例えば、取得先のIPアドレス、ポート番号、使用するユーザのID、ログインパスワードなどは、予めフォームモデル取得部111に定められていればよい。または、入力装置3を介して、設定してもよい。また、取得するフォームモデルを特定するために、判定を行うユーザ、動作フォームなどの情報は、入力装置3を介して、取得すればよい。
取得されたフォームモデルは、第1の実施形態に係る動作フォーム判定装置1で生成されたフォームモデルと同様に生成されたものとする。フォームモデルは、第1の実施形態同様、モデル記憶部107に格納される。
その他の部分については、第1の実施形態と同様である。また、再現判定のフローチャートも第1の実施形態と同じである。
以上のように、第2の実施形態によれば、機械学習を行う装置と、判定を行う装置が異なる場合でも、動作フォームの正誤判定を行うことができる。これにより、自宅などで自主的に再現判定を利用したリハビリまたはトレーニングを行う場合に、機械学習を行った装置を用意せずとも判定のみを行う装置を用意することで、容易に再現判定を行うことができる。
(第3の実施形態)
今までの実施形態では、アドバイザーの判定結果を機械学習することにより、アドバイザー視点のフォームモデルを作成し、再現判定の精度を高めた。しかし、測定データの不足などにより、機械学習が不十分な状態では、フォームモデル自体の精度が低くなり、結果的に再現判定の精度も低くなる。そこで、第3の実施形態の動作フォーム判定装置1は、機械学習が十分であるか、生成されたフォームモデルの精度が十分であるかなどを確認する。
図12は、第3の実施形態に係る動作フォーム判定装置1の概略構成を示すブロック図である。第3の実施形態に係る動作フォーム判定装置1の機械学習部106は、機械学習基本部1061、機械学習進捗把握部1062、モデル更新部1063を備える。第1の実施形態と同一の部分および処理については、説明を省略する。
機械学習基本部1061は、第1の実施形態の動作フォーム判定装置1の機械学習部106が行う処理を司る。
機械学習進捗把握部1062は、機械学習が十分であるか、フォームモデルの精度が十分であるかなどを確認する。機械学習の進捗またはフォームモデルの精度は、例えば、機械学習の1つであるアクティブラーニングにおける停止基準(Stopping Criteria)を用いて、確認することができる。
例えば、現在までにユーザの動作測定がn(nは2以上の整数)回行われ、n個の測定データが取得済みとする。n個の測定データは、k(kは1以上、n−1以下の整数)個の測定データの第1グループと、n−k個の測定データの第2グループに分けられる。k個の測定データは、検証用のフォームモデル(検証用モデル)の生成に用いられる。n−k個の測定データは、当該検証用モデルの精度を検証するために用いられる。
機械学習進捗把握部1062は、第1グループに含まれる1つの測定データから、検証用モデルを1個生成する。そして、さらに第1グループに含まれる測定データを1つ追加して、2つの測定データから検証用モデルを新たに1個生成する。このように、用いる測定データを1つずつ追加していきながら、検証用モデルを合計k個生成する。ここでは、s(sは1以上、k以下の整数)個の測定データから生成された検証用モデルをMsと表すこととする。
機械学習進捗把握部1062は、第2グループに含まれる測定データを用いて、検証用モデルMsの精度を算出する。第2グループに含まれる測定データそれぞれに対し、検証用モデルMsを用いて判定を行い、当該判定結果と、判定データ記憶部104に格納されているアドバイザーの判定結果を比較することで、検証用モデルMsの精度が求まる。
検証用モデルMsの精度が所定の閾値を越えている場合は、現在のフォームモデル(つまりMn)の精度も十分と考えられることから、機械学習の完了としてもよい。または、M1からMkまでの検証用モデルの精度に基づく精度向上曲線から近似曲線を生成し、検証用モデルMnの近似曲線の増加量を推測してもよい。増加量が所定の閾値を下回る場合は、これ以上機械学習しても精度が向上しないとして、機械学習の完了としてもよい。
また、機械学習進捗把握部1062は、r分割交差検証(クロスバリデーション)を用いてもよい。r分割交差検証は、測定データをr(rは0以上の整数)個のグループに分割し、そのうち1つのグループをテストデータ、残りを訓練データとして扱う。テストデータによる機械学習と、訓練データによる精度判定を行う。テストデータによるモデルの精度は、正解率(Accuracy)、適合率(Precision)、再現率(Recall)などの尺度で表すことができる。これらの尺度が所定の閾値を越えている場合は、機械学習の完了としてもよい。
機械学習進捗把握部1062が、機械学習の完了を決定するのではなく、アドバイザーに判断させてもよい。例えば、r分割交差検証で算出した尺度を、出力部110を介して出力装置4に出力させ、アドバイザーからの判断結果の入力を受け付けてもよい。なお、アドバイザーが判断しやすくするために、例えば、r分割交差検証で算出できる複数の尺度をそのまま表示するのではなく、適切に合算した上で、0〜100の点数などの単一な指標で示してもよい。
また、既にユーザが再現判定を行っている場合は、現状のフォームモデルにより正しいと再現判定された動作(正例)の一部または全部と、誤りと再現判定された動作(誤例)の一部または全部とを出力装置4に出力し、フォームモデルの精度を判断させることにしてもよい。出力する動作は、カメラ2Aで撮影された画像そのままでもよいし、スケルトンでもよい。
また、動作を個別に出力するのではなく、複数の動作を合成して平均をとった擬似フォームを出力してもよい。例えば、複数の誤例の動作のスケルトン位置を合成して平均を取ることで平均的な誤例フォーム(平均動作情報)を新たに生成する。さらに、平均的な誤例フォームに基づく動作などを、「現状のモデルでは、このような例が正例、このような例が誤例として判断されています」として表示し、トレーナにその妥当性の判断を仰ぐことも考えられる。
また画像ではなく、特徴量の分布度合などでもよい。例えば、正しいと再現判定された肘角度の最大値の一覧と、誤りと再現判定された肘角度の最大値の一覧と、を出力してもよい。
モデル更新部1063は、機械学習の不足と判定された場合に、機械学習の不足を補うための処理を行う。例えば、新たな測定データの取得の指示を、出力部110に行う。または、上述した擬似フォームを複数作成し、機械学習の候補データとしてもよい。擬似フォームにより、実際に測定したフォーム数以上のフォーム数を機械学習に用いることができる。または、リハビリの内容、疾病の症状、体型などを考慮して、類似する他人および他人の測定データをk近傍法などで抽出し、機械学習の候補データとしてもよい。新たな測定データまたは機械学習の候補データをアドバイザーに判定させることにより、第1の実施形態同様に、機械学習が行われ、新たなフォームモデルが生成される。
また、モデル更新部1063は、新たな判定データが一定量以上判定データ記憶部104に格納された場合などのタイミングで、機械学習基本部1061に対し、フォームモデルの更新を指示してもよい。更新の際は、更新に用いる判定データの絞り込みおよび重みづけを行ってもよい。
例えば、ユーザのリハビリの進捗に合わせて、トレーナの判定も段々と厳しくなることが予想される。このため、過去の判定データをそのまま用いると、現状のアドバイザーの判定と乖離が大きくなる。例えば、リハビリ開始当初は上肢のみを重視し、あごを引くという点は妥協してOKとしていたが、現在は、あごを引いていないとNGとしている場合、リハビリ開始当初の判定データは、現在のアドバイザーの判定と乖離することとなる。ゆえに、モデル更新部1063は、例えば、今月と前月に行ったリハビリの判定データは用いるが、3月前に行ったリハビリの判定データは用いずに、機械学習モデルを構築するとしてもよい。これにより、リハビリ初期の機械学習モデルよりも厳しい機械学習モデルを作成することができる。
上記では、フォームモデルの更新を行い、再現判定の精度向上を図ろうとした。しかし、逆に、更新されたフォームモデルを用いるのではなく、過去のフォームモデルを使用するロールバックを可能にしてもよい。フォームモデルは、過度な機械学習および機械学習に用いたデータに含まれるノイズなどにより、生成したフォームモデルの精度が下がることもあり得る。ゆえに、現在よりも過去の機械学習モデルを使用させたい場合もある。
モデル更新部1063は、モデル更新の際に、過去のモデルを消去せず、更新したモデルとともにモデル記憶部107に格納する。そして、モデル更新部1063または再現判定部108は、入力データ取得部103からの指示に従い、判定に用いるフォームモデルを選択するようにしてもよい。また、入力データ取得部103からの指示がない場合に更新したモデルが標準(デフォルト)で用いられるようにするため、モデル更新部1063は、更新したモデルに判別可能なフラグを付け、再現判定部108は、フラグが付いたフォームモデルを用いるとすればよい。
また、更新されたモデルが、過去のフォームモデルよりも精度が高いか否かを判断させるために、機械学習進捗把握部1062が算出したフォームモデルの精度等の情報を、出力装置4に出力するように、出力部110に制御させてもよい。
次に、第3の実施形態に係る機械学習部106の処理のフローについて説明する。図13は、第3の実施形態に係る機械学習部106の機械学習処理のフローチャートである。このフローは、機械学習の進捗を出力するために、入力データ取得部103を介したユーザからの指示を受けて開始されることが考えられる。または、図9に示した機械学習部106の機械学習処理のフローの前に行ってもよい。なお、このフローは、機械学習進捗把握部1062が停止基準を用いた場合を想定する。
機械学習進捗把握部1062は、第1の実施形態での処理と同じく、パラメータ記憶部105からパラメータを、測定データ記憶部102から測定データを取得する(S201、S202)。機械学習進捗把握部1062は、パラメータと測定データの一部に基づき、判定用フォームモデルを生成する(S401)。そして、測定データの残りの一部に基づき、判定用フォームモデルの精度を確認する(S402)。機械学習進捗把握部1062が当該精度に基づき機械学習不足と判断した場合(S403のYES)は、モデル更新部1063は、疑似フォームの作成など、更新のための処理を行う(S404)。出力部110は、出力装置4に対し、判定結果を出力する(S405)。また、更新のための処理を実行するか否かを出力してもよい。機械学習進捗把握部1062が、当該精度に基づき機械学習が充足していると判断した場合(S403のNO)は、モデル更新部1063の処理は行われずに、機械学習が十分であるとの結果が出力部110により出力される(S405)。以上が、機械学習モード変更処理のフローとなる。
以上のように、第3の実施形態によれば、機械学習の進捗を把握し、機械学習が不足しているときは、機械学習を充足するための処理を行うことで、フォームモデルの精度を高めることができる。
また、上記に説明した実施形態における各処理は、ソフトウェア(プログラム)によって実現することが可能である。よって、上記に説明した実施形態における動作フォーム判定装置は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用い、コンピュータ装置に搭載されたプロセッサにプログラムを実行させることにより実現することが可能である。
図14は、本実施形態に係る動作フォーム判定装置1を実現したハードウェア構成例を示すブロック図である。動作フォーム判定装置1は、プロセッサ(CPU)601、主記憶装置602、補助記憶装置603、通信装置604、デバイスインタフェース605、入力装置3606、出力装置4507を備え、これらがバス508を介して接続された、コンピュータ装置6として実現できる。
プロセッサ601が、補助記憶装置603からプログラムを読み出して、主記憶装置602に展開して、実行することで、機械学習部106、再現判定部108などの機能を実現することができる。
本実施形態の動作フォーム判定装置1は、当該動作フォーム判定装置1で実行されるプログラムをコンピュータ装置に予めインストールすることで実現してもよいし、プログラムをCD−ROMなどの記憶媒体に記憶して、あるいはネットワークを介して配布して、コンピュータ装置に適宜インストールすることで実現してもよい。
ネットワークインタフェース604は、通信ネットワークに接続するためのインタフェースである。測定装置2、入力装置3、出力装置4などとの通信は、このネットワークインタフェース604にて実現してもよい。ここではネットワークインタフェースを1つのみ示しているが、複数のネットワークインタフェースが搭載されていてもよい。
デバイスインタフェース605は、外部記憶媒体7などの機器に接続するインタフェースである。外部記憶媒体7は、HDD、CD−R、CD−RW、DVD−RAM、DVD−R、SAN(Storage area network)等の任意の記録媒体でよい。モデル記憶部107、測定データ記憶部102、再現判定結果記憶部109は、外部記憶媒体7としてデバイスインタフェース605に接続されてもよい。
主記憶装置602は、プロセッサ601が実行する命令、および各種データ等を一時的に記憶するメモリ装置であり、DRAM等の揮発性メモリでも、MRAM等の不揮発性メモリでもよい。補助記憶装置603は、プログラムやデータ等を永続的に記憶する記憶装置であり、例えば、HDDまたはSSD等がある。モデル記憶部107、測定データ記憶部102、再現判定結果記憶部109などが保持するデータは、主記憶装置602、補助記憶装置603または外部記憶媒体7に保存される。
上記に、本発明の一実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
1 動作フォーム判定装置
1A 動作フォーム判定装置(判定のみ)
101 測定データ取得部
102 測定データ記憶部
103 入力データ取得部
104 判定データ記憶部
105 パラメータ記憶部
106 機械学習部
1061 機械学習基本部
1062 機械学習進捗把握部
1063 モデル更新部
107 モデル記憶部
108 再現判定部
109 再現判定結果記憶部
110 出力部
111 フォームモデル取得部
2 測定装置
2A カメラ
2B 加速度センサ
3 入力装置
4 出力装置
5 フォームモデル提供サーバ
6 コンピュータ装置
601 プロセッサ
602 主記憶装置
603 補助記憶装置
604 ネットワークインタフェース
605 デバイスインタフェース
606 バス
7 外部記憶媒体

Claims (15)

  1. ユーザの動作に関する動作情報を取得する第1取得部と、
    前記ユーザの動作を判定した第1判定結果を取得する第2取得部と、
    前記動作情報と前記第1判定結果に基づき、前記ユーザの動作を判定するためのフォームモデルを生成する機械学習部と、
    前記第1判定結果が下されていない前記ユーザの動作を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定部と、
    前記第2判定結果を出力する出力部と、
    を備える動作フォーム判定装置。
  2. 前記動作情報は、時系列データであり、
    前記機械学習部は、前記動作情報を、複数の区間に分割し、前記複数の区間それぞれに対し、前記動作情報に関する特徴量を算出し、前記特徴量に基づき、前記フォームモデルを生成する
    請求項1に記載の動作フォーム判定装置。
  3. 前記機械学習部は、統計分類手法に基づき、前記フォームモデルとして、前記特徴量に関する1以上の判定グラフを算出し、前記再現判定部は、前記判定グラフに基づき、2値または3以上の多値に渡る前記第2判定結果を算出する
    請求項1または2に記載の動作フォーム判定装置。
  4. 前記機械学習部は、決定木、SVM(Support Vector Machine)、またはK近傍法により、前記2値の第2判定結果を算出する
    請求項3に記載の動作フォーム判定装置。
  5. 前記機械学習部は、SVM(Support Vector Machine)、または、多クラスロジスティック回帰により、前記3以上の多値の第2判定結果を算出する
    請求項3に記載の動作フォーム判定装置。
  6. 前記特徴量は、所定の時間間隔における、前記動作情報の平均値、最大値もしくは最小値、時間差分における前記動作情報の極大値もしくは極小値、複数の前記動作情報の連動の度合、または前記動作情報の複雑性である
    請求項2ないし5のいずれか一項に記載の動作フォーム判定装置。
  7. 前記機械学習部は、複数回数取得された前記動作情報のうちの一部の前記動作情報と、前記一部の前記動作情報に対応する前記第1判定結果に基づき、検証用モデルを生成し、残りの一部または全部の前記動作情報を前記検証用モデルに基づき判定した第3判定結果と、前記残りの一部または全部の前記動作情報に対応する前記第1判定結果とを比較することにより、機械学習の不足を判断する
    請求項1ないし6のいずれか一項に記載の動作フォーム判定装置。
  8. 前記機械学習部は、機械学習が不足と判断した場合は、前記第1判定結果が同一である複数の前記動作情報により、前記複数の動作情報の平均である平均動作情報を算出し、前記平均動作情報と、前記第1判定結果に基づき、前記フォームモデルを更新する
    請求項7に記載の動作フォーム判定装置。
  9. 前記機械学習部は、機械学習が不足と判断した場合は、前記第1判定結果が同一である複数の前記動作情報により、前記複数の動作情報の平均である平均動作情報を算出し、
    前記出力部は、前記平均動作情報に関する情報を出力する
    請求項7に記載の動作フォーム判定装置。
  10. ユーザの動作に関する第1動作情報と、前記ユーザの動作を判定した第1判定結果とに基づき生成された前記ユーザの動作を判定するためのフォームモデルを取得する第3取得部と、
    前記ユーザの動作に関する第2動作情報を取得する第4取得部と、
    前記第2動作情報を、前記フォームモデルに基づき判定し、第4判定結果を算出する再現判定部と、
    前記第4判定結果を出力する出力部と、
    を備える動作フォーム判定装置。
  11. 2以上の多段階評価における評価指標、または点数を、前記第1判定結果として受け付ける入力装置
    をさらに備える請求項1ないし10のいずれか一項に記載の動作フォーム判定装置。
  12. ユーザの動作に関する動作情報を取得する第1取得ステップと、
    前記ユーザの動作を判定した第1判定結果を取得する第2取得ステップと、
    前記動作情報と、前記第1判定結果に基づき、前記ユーザの動作を判定するためのフォームモデルを生成する機械学習ステップと、
    前記第1判定結果が下されていない前記動作情報を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定ステップと、
    前記第2判定結果を出力する出力ステップと、
    をコンピュータが実行する判定方法。
  13. ユーザの動作に関する動作情報を取得する第1取得ステップと、
    前記ユーザの動作を判定した第1判定結果を取得する第2取得ステップと、
    前記動作情報と、前記第1判定結果に基づき前記ユーザの動作を判定するためのフォームモデルを生成する機械学習ステップと、
    前記第1判定結果が下されていない前記動作情報を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定ステップと、
    前記第2判定結果を出力する出力ステップと、
    をコンピュータに実行させるためのプログラム。
  14. 測定装置と、入力装置と、判定装置と、出力装置と、を備えた判定システムであって、
    前記測定装置は、ユーザの動作に関する動作情報を前記判定装置に送り、
    前記入力装置は、前記ユーザの動作を判定した第1判定結果を前記判定装置に送り、
    前記判定装置は、
    前記動作情報を取得する第1取得部と、
    前記第1判定結果を取得する第2取得部と、
    前記動作情報と前記第1判定結果に基づき、前記ユーザの動作を判定するためのフォームモデルを生成する機械学習部と、
    前記第1判定結果が下されていない前記ユーザの動作を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定部と、
    前記第2判定結果を出力する出力部と、
    を備え、
    前記出力装置は、前記出力部からの前記第2判定結果を受け付けて出力する
    判定システム。
  15. 提供装置と、測定装置と、判定装置と、出力装置と、を備えた判定システムであって、
    前記提供装置は、ユーザの動作に関する第1動作情報と、前記ユーザの動作を判定した第1判定結果とに基づき生成された前記ユーザの動作を判定するためのフォームモデルを前記判定装置に送り、
    前記測定装置は、前記ユーザの動作に関する第2動作情報を前記判定装置に送り、
    前記判定装置は、
    前記フォームモデルを取得する第3取得部と、
    前記第2動作情報を取得する第4取得部と、
    前記第2動作情報を、前記フォームモデルに基づき判定し、第2判定結果を算出する再現判定部と、
    前記第2判定結果を出力する出力部と、
    を備え、
    前記出力装置は、前記出力部からの前記第2判定結果を受け付けて出力する
    判定システム。
JP2015182138A 2015-09-15 2015-09-15 動作フォーム判定装置、判定方法、判定プログラム、判定システム Pending JP2017055913A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015182138A JP2017055913A (ja) 2015-09-15 2015-09-15 動作フォーム判定装置、判定方法、判定プログラム、判定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015182138A JP2017055913A (ja) 2015-09-15 2015-09-15 動作フォーム判定装置、判定方法、判定プログラム、判定システム

Publications (1)

Publication Number Publication Date
JP2017055913A true JP2017055913A (ja) 2017-03-23

Family

ID=58388620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015182138A Pending JP2017055913A (ja) 2015-09-15 2015-09-15 動作フォーム判定装置、判定方法、判定プログラム、判定システム

Country Status (1)

Country Link
JP (1) JP2017055913A (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6200615B1 (ja) * 2017-04-25 2017-09-20 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
JP2019025134A (ja) * 2017-08-01 2019-02-21 株式会社大武ルート工業 動作推定装置及び動作推定プログラム
WO2019069864A1 (ja) * 2017-10-02 2019-04-11 日本電気株式会社 医療情報処理システム
JP2019066623A (ja) * 2017-09-29 2019-04-25 三井E&S造船株式会社 機関室模擬訓練システム、及び、機関室模擬訓練方法
WO2019130755A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019159951A1 (ja) * 2018-02-13 2019-08-22 日本電信電話株式会社 運動評価改善システム及び運動評価改善方法
JP2019136493A (ja) * 2018-02-12 2019-08-22 龍飛 莊 運動の採点方法、システム及びプログラム
JP2019160013A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 情報処理装置、情報処理方法、およびプログラム
CN111246056A (zh) * 2018-11-29 2020-06-05 佳能株式会社 信息处理设备及其控制方法、摄像设备和存储介质
JP2021003520A (ja) * 2019-06-27 2021-01-14 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
WO2021241676A1 (ja) * 2020-05-28 2021-12-02 学校法人慶應義塾 運動解析装置、システム及び記憶媒体、並びにリハビリテーションシステム
WO2022201418A1 (ja) * 2021-03-25 2022-09-29 日本電気株式会社 運動支援装置、運動支援方法及び記録媒体
WO2022230501A1 (ja) * 2021-04-28 2022-11-03 オムロン株式会社 動作解析装置、動作解析方法、動作解析プログラム及び動作解析システム
EP4057211A4 (en) * 2019-11-07 2022-11-23 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US11874854B2 (en) 2020-01-06 2024-01-16 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134767A (ja) * 1999-11-01 2001-05-18 Atr Media Integration & Communications Res Lab 3次元連続動作の検定装置
JP2002336396A (ja) * 2001-05-16 2002-11-26 Nippon Telegr & Teleph Corp <Ntt> 遠隔歩行指導システム
US20040219498A1 (en) * 2002-04-09 2004-11-04 Davidson Lance Samuel Training apparatus and methods
JP2008237832A (ja) * 2007-03-29 2008-10-09 Comfort-Lab:Kk ウォーキングナビゲーションシステム
JP2013027629A (ja) * 2011-07-29 2013-02-07 Seiko Epson Corp 運動指導装置、運動指導プログラム及び記録媒体
JP2013165808A (ja) * 2012-02-15 2013-08-29 Mizuno Corp ゴルファに最適なゴルフクラブの相当単振り子長および慣性モーメントを求める方法およびシステム、ゴルフクラブの選定方法、ならびに各々のゴルファに適した錘の位置および重量を求める方法
JP2014133015A (ja) * 2013-01-11 2014-07-24 Akita Univ 身体動作学習支援装置
JP2015150226A (ja) * 2014-02-14 2015-08-24 日本電信電話株式会社 習熟度評価方法、およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134767A (ja) * 1999-11-01 2001-05-18 Atr Media Integration & Communications Res Lab 3次元連続動作の検定装置
JP2002336396A (ja) * 2001-05-16 2002-11-26 Nippon Telegr & Teleph Corp <Ntt> 遠隔歩行指導システム
US20040219498A1 (en) * 2002-04-09 2004-11-04 Davidson Lance Samuel Training apparatus and methods
JP2008237832A (ja) * 2007-03-29 2008-10-09 Comfort-Lab:Kk ウォーキングナビゲーションシステム
JP2013027629A (ja) * 2011-07-29 2013-02-07 Seiko Epson Corp 運動指導装置、運動指導プログラム及び記録媒体
JP2013165808A (ja) * 2012-02-15 2013-08-29 Mizuno Corp ゴルファに最適なゴルフクラブの相当単振り子長および慣性モーメントを求める方法およびシステム、ゴルフクラブの選定方法、ならびに各々のゴルファに適した錘の位置および重量を求める方法
JP2014133015A (ja) * 2013-01-11 2014-07-24 Akita Univ 身体動作学習支援装置
JP2015150226A (ja) * 2014-02-14 2015-08-24 日本電信電話株式会社 習熟度評価方法、およびプログラム

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6200615B1 (ja) * 2017-04-25 2017-09-20 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
JP2018183383A (ja) * 2017-04-25 2018-11-22 株式会社mediVR リハビリテーション支援システム、リハビリテーション支援方法およびリハビリテーション支援プログラム
JP2019025134A (ja) * 2017-08-01 2019-02-21 株式会社大武ルート工業 動作推定装置及び動作推定プログラム
JP2019066623A (ja) * 2017-09-29 2019-04-25 三井E&S造船株式会社 機関室模擬訓練システム、及び、機関室模擬訓練方法
JP7133915B2 (ja) 2017-09-29 2022-09-09 三菱重工マリタイムシステムズ株式会社 機関室模擬訓練システム、及び、機関室模擬訓練方法
JP2019067177A (ja) * 2017-10-02 2019-04-25 日本電気株式会社 医療情報処理システム、歩行状態定量化方法およびプログラム
JP7057589B2 (ja) 2017-10-02 2022-04-20 日本電気株式会社 医療情報処理システム、歩行状態定量化方法およびプログラム
WO2019069864A1 (ja) * 2017-10-02 2019-04-11 日本電気株式会社 医療情報処理システム
JP7238794B2 (ja) 2017-12-27 2023-03-14 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2019130755A1 (ja) * 2017-12-27 2019-07-04 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11508344B2 (en) 2017-12-27 2022-11-22 Sony Corporation Information processing device, information processing method and program
JPWO2019130755A1 (ja) * 2017-12-27 2021-01-28 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2019136493A (ja) * 2018-02-12 2019-08-22 龍飛 莊 運動の採点方法、システム及びプログラム
WO2019159951A1 (ja) * 2018-02-13 2019-08-22 日本電信電話株式会社 運動評価改善システム及び運動評価改善方法
US11628336B2 (en) 2018-02-13 2023-04-18 Nippon Telegraph And Telephone Corporation Exercise evaluation improvement system, and exercise evaluation improvement method
JP2019136367A (ja) * 2018-02-13 2019-08-22 日本電信電話株式会社 運動評価改善システム及び運動評価改善方法
JP2019160013A (ja) * 2018-03-15 2019-09-19 オムロン株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020095702A (ja) * 2018-11-29 2020-06-18 キヤノン株式会社 情報処理装置、撮像装置、情報処理装置の制御方法、および、プログラム
CN111246056B (zh) * 2018-11-29 2022-05-17 佳能株式会社 信息处理设备及其控制方法、摄像设备和存储介质
US11165952B2 (en) 2018-11-29 2021-11-02 Canon Kabushiki Kaisha Information processing apparatus, image capturing apparatus, method for controlling information processing apparatus, and non-transitory storage medium
CN111246056A (zh) * 2018-11-29 2020-06-05 佳能株式会社 信息处理设备及其控制方法、摄像设备和存储介质
JP2021003520A (ja) * 2019-06-27 2021-01-14 トヨタ自動車株式会社 学習装置、リハビリ支援システム、方法、プログラム、及び学習済みモデル
EP4057211A4 (en) * 2019-11-07 2022-11-23 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US11874854B2 (en) 2020-01-06 2024-01-16 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program
WO2021241676A1 (ja) * 2020-05-28 2021-12-02 学校法人慶應義塾 運動解析装置、システム及び記憶媒体、並びにリハビリテーションシステム
WO2022201418A1 (ja) * 2021-03-25 2022-09-29 日本電気株式会社 運動支援装置、運動支援方法及び記録媒体
WO2022230501A1 (ja) * 2021-04-28 2022-11-03 オムロン株式会社 動作解析装置、動作解析方法、動作解析プログラム及び動作解析システム

Similar Documents

Publication Publication Date Title
JP2017055913A (ja) 動作フォーム判定装置、判定方法、判定プログラム、判定システム
JP6733738B2 (ja) 運動認識装置、運動認識プログラムおよび運動認識方法
US9690982B2 (en) Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds
KR102097190B1 (ko) 스마트 미러를 이용하여 실시간 운동 동작을 분석 및 디스플레이하기 위한 방법 및 이를 위한 스마트 미러
US11763603B2 (en) Physical activity quantification and monitoring
JP6082101B2 (ja) 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置
JP6683938B2 (ja) 採点支援プログラム、採点支援装置および採点支援方法
CN111488824A (zh) 运动提示方法、装置、电子设备和存储介质
JP6758540B1 (ja) 情報処理装置、ワーク認識装置およびワーク取り出し装置
KR102594938B1 (ko) 인공신경망을 이용한 스포츠 자세를 비교 및 교정하는 장치 및 방법
JP7375751B2 (ja) 情報処理装置、および情報処理方法
KR20220028654A (ko) 미러 디스플레이를 이용하여 태권도 동작 코칭 서비스를 제공하는 장치 및 방법
CN110718280A (zh) 健身动作准确度确定方法、装置、电子设备及存储介质
JPWO2019167556A1 (ja) ラベル収集装置、ラベル収集方法及びラベル収集プログラム
CN113703574A (zh) 一种基于5g的vr医疗学习方法及系统
KR20130067856A (ko) 손가락 동작을 기반으로 하는 가상 악기 연주 장치 및 방법
KR20170106737A (ko) 다방향 인식을 이용한 태권도 동작 평가 장치 및 방법
JP6999543B2 (ja) インタラクティブスキルトレーニングコンテンツの配信への応用を含む、身体的に実行されるスキルの分析を可能にするように構成されるフレームワークおよび方法
JP2021111299A (ja) 学習装置、学習方法、学習プログラム、識別装置、識別方法および識別プログラム
JP2015150226A (ja) 習熟度評価方法、およびプログラム
Zhou Role of human body posture recognition method based on wireless network Kinect in line dance aerobics and gymnastics training
Călin et al. Improving Movement analysis in physical therapy systems based on kinect interaction
KR102363435B1 (ko) 골프 스윙 동작 피드백 제공 장치 및 방법
CN116528759A (zh) 信息处理装置、信息处理方法和程序
JP6779848B2 (ja) 作業判別システム、学習装置、及び学習方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190723