JP2012238072A - Action evaluation device - Google Patents
Action evaluation device Download PDFInfo
- Publication number
- JP2012238072A JP2012238072A JP2011105135A JP2011105135A JP2012238072A JP 2012238072 A JP2012238072 A JP 2012238072A JP 2011105135 A JP2011105135 A JP 2011105135A JP 2011105135 A JP2011105135 A JP 2011105135A JP 2012238072 A JP2012238072 A JP 2012238072A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- output
- subject
- acceleration sensor
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
この発明は行動評価装置に関し、より詳しくは、加速度センサを用いて、被験体の動作又は行動を認識して評価する行動評価装置に関する。 The present invention relates to a behavior evaluation apparatus, and more particularly, to a behavior evaluation apparatus that recognizes and evaluates the motion or behavior of a subject using an acceleration sensor.
ここで、「被験体」とは、代表的には人間を指すが、動物であっても良い。 Here, the “subject” typically refers to a human but may be an animal.
また、「動作」とは、被験体の動きを指す。「行動」とは、意識的なものも含まれる動きや行いを指す。本明細書では、簡単のため、動作と行動とを併せて、適宜「動作」と呼ぶ。 The “motion” refers to the movement of the subject. “Behavior” refers to movements and actions that include conscious things. In this specification, for the sake of simplicity, an operation and an action are collectively referred to as an “operation” as appropriate.
この発明の行動評価装置は、典型的には、歩数計・活動量計、携帯電話、モバイルコンピュータなどに組み込んで用いられ得る。 The behavior evaluation apparatus of the present invention can typically be used by being incorporated into a pedometer / activity meter, a mobile phone, a mobile computer, or the like.
従来、例えば特許文献1(特開平10−113343号公報)には、被験体の動作又は行動に伴う状態変化を観測する計測手段と、前記観測結果における特徴量を抽出する特徴量抽出手段と、当該認識装置により認識すべき動作又は行動についての特徴量を記憶する記憶手段と、前記観測結果から抽出した特徴量と記憶してある特徴量とから、前記被験体の動作又は行動を認識する認識手段とを備えたシステムが開示されている。さらに、同文献には、事故などにより足などに障害を受けた場合のリハビリテーションに利用するために、標準的な動作(障害を受ける前の歩行動作等)と計測動作(障害を受けている現在の被験者の歩行動作等)の違いを、観測波形の周波数スペクトルの差分として視覚的に示すことが記載されている。また、標準動作特徴量データベースには、被験者の事故前の標準動作の特徴量を抽出して登録しておくのが最適であるが、それがない場合には、多数の被験者の平均的な動作から求めた特徴量を標準動作として用いてもよい旨が述べられている。 Conventionally, for example, Patent Document 1 (Japanese Patent Application Laid-Open No. 10-113343) discloses a measurement unit that observes a change in state associated with a motion or action of a subject, a feature amount extraction unit that extracts a feature amount in the observation result, Recognition for recognizing the motion or action of the subject from the storage means for storing the feature quantity regarding the action or action to be recognized by the recognition device, the feature quantity extracted from the observation result, and the stored feature quantity A system comprising the means is disclosed. Furthermore, this document describes standard movements (such as walking movements before being damaged) and measurement actions (currently being damaged) in order to be used for rehabilitation in the event of a foot injury due to an accident. It is described that the difference in the walking motion of the subject is visually shown as a difference in the frequency spectrum of the observed waveform. In addition, it is best to extract and register the features of the standard motion before the accident of the subjects in the standard motion feature database, but if there is not, the average motion of many subjects It is stated that the feature amount obtained from the above may be used as a standard operation.
しかしながら、事故に遭うことを前提として、被験者が標準動作特徴量データベースに標準的な動作を登録しておくようなことは、通常は有り得ない。また、多数の被験者の平均的な動作から求めた特徴量を標準動作として用いる場合、評価の精度が落ちるという問題がある。 However, it is usually not possible for a subject to register a standard motion in the standard motion feature database assuming that an accident will occur. Moreover, when using the feature quantity calculated | required from the average motion of many test subjects as standard motion, there exists a problem that the precision of evaluation falls.
そこで、この発明の課題は、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、被験体がした動作又は行動についての評価の精度を高めることができる行動評価装置を提供することにある。 Accordingly, an object of the present invention is to provide an action evaluation apparatus that can increase the accuracy of evaluation of actions or actions performed by a subject with a simple and inexpensive configuration that includes only an acceleration sensor as a detection means for the subject. It is in.
上記課題を解決するため、この発明の行動評価装置は、
被験体に取り付けられるべき加速度センサと、
上記加速度センサの出力を記憶するメモリと、
上記加速度センサの出力から、手本となる動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識するとともに、認識された動作又は行動が上記手本に近い程度を評価する行動評価装置において、
上記ニューラルネットワークは、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する第1のニューラルネットワークと、
指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習し、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する第2のニューラルネットワークとを
含むことを特徴とする。
In order to solve the above problems, the behavior evaluation apparatus of the present invention provides:
An acceleration sensor to be attached to the subject;
A memory for storing the output of the acceleration sensor;
From the output of the acceleration sensor, comprising a neural network that has completed learning to recognize a model action or action,
A behavior evaluation device that recognizes the motion or behavior of the subject through the neural network from the output of the acceleration sensor attached to the subject and evaluates the degree of the recognized motion or behavior close to the example In
The neural network is
Learning that recognizes the movement or action performed by the subject based on the correspondence between the plurality of types of movement or action performed by the subject in advance and the output of the acceleration sensor attached to the subject. After learning, based on the output of the acceleration sensor, a first neural network that recognizes the movement or action of the subject in real time;
Based on the instruction, the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network is read from the memory and learned as a model, and after the learning, the first neural network And a second neural network that outputs a degree of approximation representing the degree of movement or action recognized through the model.
この発明の行動評価装置では、第1のニューラルネットワークは、予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する。第2のニューラルネットワークは、指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習する。したがって、使用者(この行動評価装置を操作する者を指す。典型的には被験体であるが、別の者であっても良い。以下同様。)は、上記指示を入力することによって、上記第2のニューラルネットワークに、例えばスポーツやダンスなどにおいて被験体の調子が良かったときの動きを、上記手本として学習させることができる。上記第2のニューラルネットワークは、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する。この近似度に基づいて、使用者は、上記被験体がした動作又は行動が上記手本に近い程度を知ることができる。 In the behavior evaluation apparatus according to the present invention, the first neural network has a correspondence relationship between a plurality of types of actions or behaviors performed by the subject in advance and an output of the acceleration sensor attached to the subject. Based on this, learning for recognizing the motion or action performed by the subject is completed, and after the learning, the motion or behavior performed by the subject is recognized in real time based on the output of the acceleration sensor. Based on the instruction, the second neural network reads the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network from the memory and learns it as a model. Therefore, the user (refers to a person who operates this behavior evaluation apparatus. Typically, it is a subject but may be another person. The same shall apply hereinafter). For example, the second neural network can learn the movement when the subject is in good condition, for example, in sports or dance, as the example. After the learning, the second neural network outputs a degree of approximation representing the degree to which the motion or action recognized through the first neural network is close to the example. Based on this degree of approximation, the user can know the degree to which the action or action performed by the subject is close to the example.
この行動評価装置では、使用者が上記指示を入力することによって、第2のニューラルネットワークに所望のタイミングで適切な手本を学習させることができる。したがって、この行動評価装置によれば、従来に比して、被験体がした動作又は行動についての評価の精度を高めることができる。また、上記行動評価装置は、被験体に対する検出手段として加速度センサのみを備えているので、簡単かつ安価に構成され得る。 In this behavior evaluation apparatus, when the user inputs the instruction, the second neural network can be made to learn an appropriate model at a desired timing. Therefore, according to this behavior evaluation apparatus, it is possible to improve the accuracy of evaluation of the action or behavior performed by the subject as compared with the conventional case. Moreover, since the said behavior evaluation apparatus is provided with only the acceleration sensor as a detection means with respect to a test subject, it can be comprised simply and cheaply.
一実施形態の行動評価装置では、
上記指示を入力するための指示スイッチと、
上記指示スイッチによって上記指示が入力された時、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う制御部とを備えたことを特徴とする。
In the behavior evaluation device of one embodiment,
An instruction switch for inputting the above instructions;
When the instruction is input by the instruction switch, the output of the acceleration sensor corresponding to the action or action recognized through the first neural network immediately before the current time in the memory is searched and searched. And a control unit that reads out the output of the acceleration sensor from the memory and inputs the output to the second neural network for learning.
この一実施形態の行動評価装置では、使用者が上記指示スイッチによって上記指示を入力する。上記指示スイッチによって上記指示が入力された時、制御部は、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う。したがって、使用者は、上記第2のニューラルネットワークに所望のタイミングで適切な手本を学習させることができる。 In the behavior evaluation apparatus according to the embodiment, the user inputs the instruction using the instruction switch. When the instruction is input by the instruction switch, the control unit outputs the output of the acceleration sensor corresponding to the operation or action recognized through the first neural network in the memory, which is the latest from the current time. Searching is performed, and the output of the searched acceleration sensor is read from the memory and input to the second neural network for learning. Accordingly, the user can cause the second neural network to learn an appropriate model at a desired timing.
一実施形態の行動評価装置では、上記第2のニューラルネットワークの出力層は単一の素子のみを含むことを特徴とする。 In an action evaluation apparatus according to an embodiment, the output layer of the second neural network includes only a single element.
この一実施形態の行動評価装置では、上記第2のニューラルネットワークの出力層は単一の素子のみを含むから、その単一の素子の出力から得られた近似度は、被験体がした或る動作又は行動が上記手本に近い程度を1つの数値で明確に表すことができる。 In the behavior evaluation apparatus of this embodiment, since the output layer of the second neural network includes only a single element, the degree of approximation obtained from the output of the single element is determined by the subject. The degree to which the action or action is close to the above example can be clearly expressed by one numerical value.
一実施形態の行動評価装置では、上記近似度は数値であることを特徴とする。 In the behavior evaluation apparatus according to an embodiment, the approximation degree is a numerical value.
この一実施形態の行動評価装置では、上記近似度は数値であるから、使用者は、被験体がした或る動作又は行動が上記手本に近い程度を明確に知ることができる。 In the behavior evaluation apparatus according to this embodiment, since the degree of approximation is a numerical value, the user can clearly know the degree to which a certain action or behavior performed by the subject is close to the example.
一実施形態の行動評価装置では、上記動作又は行動はゴルフスイングを含むことを特徴とする。 In the behavior evaluation apparatus according to one embodiment, the operation or behavior includes a golf swing.
この一実施形態の行動評価装置では、上記動作又は行動はゴルフスイングを含む。したがって、使用者は、上記指示を入力することによって、上記第2のニューラルネットワークに、例えば被験体がナイスショットをしたときのスイングやゴルフコーチがお手本ショットをしたときのスイングを、上記手本として学習させることができる。この結果、行動の評価段階で、使用者は、被験体がしたスイングが、被験体自身が調子の良いとき(ナイスショットをしたとき)のスイングにどれだけ近いか、またはゴルフコーチがお手本ショットをしたときのスイングにどれだけ近いか、を知ることができる。 In the behavior evaluation apparatus according to the embodiment, the operation or behavior includes a golf swing. Therefore, the user inputs the above instruction to the second neural network, for example, the swing when the subject makes a nice shot and the swing when the golf coach takes a model shot as the above model. You can learn. As a result, at the behavioral evaluation stage, the user can see how close the subject's swing is to the swing when the subject is in good condition (when taking a nice shot), or the golf coach takes a model shot. You can know how close you are to the swing when you do.
以上より明らかなように、この発明の行動評価装置によれば、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、被験体がした動作又は行動についての評価の精度を高めることができる。 As is clear from the above, according to the behavior evaluation apparatus of the present invention, the accuracy of evaluation of the action or behavior performed by the subject can be improved with a simple and inexpensive configuration including only the acceleration sensor as the detection means for the subject. Can do.
以下、この発明の一実施形態の行動評価装置について、図面を参照しながら詳細に説明する。 Hereinafter, an action evaluation apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
図1(A)に示すように、この発明の一実施形態の行動評価装置1は、本体ケーシング7と、この本体ケーシング7の前面部7Aに設けられたLCD(液晶表示素子)からなるディスプレイ部3と、指示スイッチとして働くノーマリオープン型のボタンスイッチ11と、スライド式の電源スイッチ42とを備えている。
As shown in FIG. 1A, a
図1(B)(行動評価装置1を右側方から見たところに相当する)に示すように、本体ケーシング7の後面部7Bには、この行動評価装置1を被験体(この例では人)90に装着するためのクリップ8が設けられている。具体的には、クリップ8は、蝶番9を介して後面部7Bに取り付けられており、クリップ8の先端8aが後面部7Bに近づくように、図示しないばねによって付勢されている。これにより、図1(E)に示すように、行動評価装置1は、被験体90の腰の横に容易に装着され得る(例えば、被験体90が着けている図示しないベルトにクリップ8を引っ掛ければ良い。)。
As shown in FIG. 1B (corresponding to the
図1(C)および図1(D)によって分かるように、ケーシング7の内部には、電子回路基板10と、この電子回路基板10へ電力を供給するための充電可能な電池6とが収容されている。電源スイッチ42のオン(ON)、オフ(OFF)に応じて、電池6から電子回路基板10へ電力が供給され、または非供給になる。
As can be seen from FIGS. 1C and 1D, the casing 7 contains an
電子回路基板10には、無線通信装置4と、加速度センサ2と、演算装置5とが搭載されている。
On the
無線通信装置4は、この行動評価装置1の近傍に存在する携帯電話やパーソナルコンピュータ等との間で、Bluetooth(ブルートゥース)規格によって無線通信を行う公知の装置である。この無線通信装置4により、この行動評価装置1による評価結果(後述)を上記携帯電話やパーソナルコンピュータ等へ送信することが可能となる。
The
加速度センサ2は、X軸・Y軸・Z軸の3軸方向の加速度を、この例では±2Gの範囲で検知可能な半導体式の公知のものである。この加速度センサ2は、10ミリ秒周期でX,Y,Z方向の加速度をそれぞれ計測して出力する。加速度センサ2が出力した値は、次に述べる制御部50に内蔵されたメモリ54(図2参照)に順次格納され、少なくとも5秒間保持される。
The
演算装置5は、図2に示すように、この演算装置5全体の動作を制御するCPU(中央演算処理装置)からなる制御部50と、加速度センサ2の出力を受けて処理する入力処理部51と、第1のニューラルネットワーク52と、第2のニューラルネットワーク55と、第1のニューラルネットワーク52および第2のニューラルネットワーク55の出力を受けて処理する出力処理部53と、データを一時的に格納し得るメモリ54とを備えている。
As shown in FIG. 2, the
入力処理部51は、制御部50による制御下で、加速度センサ2の出力に対して信号処理を施して、人90の動きを表す特徴データとして複数種類の統計データを生成する。具体的には、入力処理部51は、次のような統計データを生成する。
The
まず、現在の時刻(人90の動作状態の認識を行う時刻に相当)をt1とし、そこから5秒前の時刻をt0とする。入力処理部51は、時刻t0からt1までの5秒間にメモリ54に格納された加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)の平均値をそれぞれ統計データとして算出する。算出された平均値を、それぞれ特徴データX1,Y1,Z1とする。
First, the current time (corresponding to the time when the operating state of the
また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の標準偏差を統計データとして算出する。算出された標準偏差を、それぞれ特徴データX2,Y2,Z2とする。
Further, the
また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向それぞれの出力の最大値と最小値とを探索して、上記最大値と最小値との間の差をそれぞれ統計データとして算出する。算出された上記最大値と最小値との間の差を、それぞれ特徴データX3,Y3,Z3とする。
Further, the
また、入力処理部51は、時刻t0からt1までの5秒間において加速度センサ2のX,Y,Z方向の出力が0になった回数(以下「ゼロクロス回数」という。)をそれぞれカウントして統計データとして求める。求められたゼロクロス回数を、それぞれX4,Y4,Z4とする。
In addition, the
このように、入力処理部51は、12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。入力処理部51による特徴データX1〜X4,Y1〜Y4,Z1〜Z4の生成は、100ミリ秒周期で行われる。1つの軸方向、例えばX軸方向に関して言えば、メモリ54に格納された500個の1種類のデータ(5秒間にわたる加速度センサ2の出力値)から、入力処理部51によって4種類の特徴データX1〜X4が100ミリ秒毎に生成される、ということになる。
In this way, the
第1のニューラルネットワーク52は、この例では図3に示すように、12個の入力素子i1,i2,…,i12を含む入力層52iと、7個の素子m1,m2,…,m7を含む中間層52mと、7個の出力素子n1,n2,…,n7を含む出力層52nとの3層から構成されている。この第1のニューラルネットワーク52は、この例では逆誤差伝搬法(Back Propagation algorithm)と呼ばれる学習法によって、入力層52iの入力素子i1,i2,…,i12に入力された入力から、出力層52nの出力素子n1,n2,…,n7に正しい出力が得られるような学習を行えるように構成されている。
In this example, as shown in FIG. 3, the first
具体的には、まず、入力素子i1,i2,…,i12に対する入力にそれぞれ重み係数wj1,wj2,…,wj12(j=1,2,…,7とする。)を乗算し、次のようにそれらの入力と重み係数との積の線形和ujを求める。
Specifically, first, an input element i 1, i 2, ..., respectively weighting factor inputs to i 12 w j1, w j2, ..., w j12 a (j = 1, 2, ..., is. 7) Multiplication is performed to obtain a linear sum u j of products of these inputs and weighting factors as follows.
出力素子n1,n2,…,n7の出力を、次のようにその線形和ujのシグモイド関数f(uj)であるものとする。
f(uj)=1/(1+exp(−uj))
Assume that the output of the output elements n 1 , n 2 ,..., N 7 is a sigmoid function f (u j ) of its linear sum u j as follows.
f (u j ) = 1 / (1 + exp (−u j ))
次に、入力素子i1,i2,…,i12に或る入力データセットが入力されたときの出力素子n1,n2,…,n7の出力と、正しい解答を表す教師データとの間の誤差を求める。
Then, the input element i 1, i 2, ...,
出力素子n1,n2,…,n7の出力とその教師データとの間の誤差が解消するように、上記重み係数wj1,wj2,…,wj12を変更してゆく。誤差の元となった中間層の出力も順次調整してゆく。 Output element n 1, n 2, ..., as the error between the output of the n 7 and the teacher data is eliminated, the weight coefficient w j1, w j2, ..., slide into change w j12. The output of the intermediate layer that caused the error is also adjusted sequentially.
このようにして学習を行ってゆくと、或る入力データセットに対して出力層52nの出力素子n1,n2,…,n7のうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子の値は略0になるようになる。第1のニューラルネットワーク52は、このような逆誤差伝搬法による学習を行えるように構成されている。
When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the
第2のニューラルネットワーク55は、この例では図4に示すように、12個の入力素子i1,i2,…,i12を含む入力層55iと、7個の素子m1,m2,…,m7を含む中間層55mと、1個の出力素子n1を含む出力層55nとの3層から構成されている。この第2のニューラルネットワーク52は、第1のニューラルネットワーク52と同様に、この例では逆誤差伝搬法によって、入力層55iの入力素子i1,i2,…,i12に入力された入力から、出力層55nの出力素子n1に正しい出力が得られるような学習を行えるように構成されている。
In this example, as shown in FIG. 4, the second
図2中の出力処理部53は、制御部50による制御下で、第1のニューラルネットワーク52の出力層52nおよび第2のニューラルネットワーク55の出力層55nの出力を受けて、それに応じた認識・評価結果を画像として出力する処理を行う。この認識・評価結果は、行動評価装置1のディスプレイ部3に表示される。
2 receives the outputs of the
上述の入力処理部51、第1のニューラルネットワーク52、第2のニューラルネットワーク55、出力処理部53は、ソフトウェアによって構成されている。この行動評価装置1は、被験体90に対する検出手段として加速度センサ2のみを備えているので、簡単かつ安価に構成され得る。
The above-described
図9(A)に示すように、この行動評価装置1は、制御部50による制御によって、大別して、ステップS101に示す「お手本の収録」段階の処理と、ステップS102に示す「行動の評価」段階の処理とを実行する。
As shown in FIG. 9A, the
図9(B)は、上記「お手本の収録」段階の処理(ステップS101)を、より具体的に示している。この例では、電源スイッチ42がオンされている動作期間中に、使用者がボタンスイッチ11を3秒間以上押し続けたとき、この「お手本の収録」段階の処理を開始するものとする。
FIG. 9B shows more specifically the process (step S101) in the “recording of model” stage. In this example, when the user continues to press the
制御部50は、まずステップS201で、例えばディスプレイ部3に「認識の学習をしますか?」と表示して、第1のニューラルネットワーク52に対する学習指示(これを「第1の学習指示」と呼ぶ。)があるか無いかを判断する。第1の学習指示は、この例では使用者がボタンスイッチ11を1回(3秒間未満)押すことにより入力されるものとする。所定期間(例えば5秒間)内に第1の学習指示があれば(ステップS201でYES)、ステップS202に進んで第1のニューラルネットワーク52の学習の処理を行う。予め第1のニューラルネットワーク52の学習が完了していてステップS201では第1の学習指示が無かったとき(ステップS201でNO)、またはステップS202の学習後に、ステップS203へ進む。ステップS203では、第1のニューラルネットワーク52による認識の処理を開始する。
First, in step S201, the
この第1のニューラルネットワーク52による認識をリアルタイムで行っている期間中に、制御部50は、ステップS204で、例えばディスプレイ部3に「評価の学習をしますか?」と表示して、第2のニューラルネットワーク55に対する学習指示(これを「第2の学習指示」と呼ぶ。)があるか無いかを判断する。第2の学習指示は、この例では第1の学習指示と同様に、使用者がボタンスイッチ11を1回(3秒間未満)押すことにより入力されるものとする。所定期間(例えば5秒間)内に第2の学習指示があれば(ステップS204でYES)、ステップS205に進んで第2のニューラルネットワーク55の学習の処理を行う。予め第2のニューラルネットワーク55の学習が完了していてステップS205では第2の学習指示が無かったとき(ステップS204でNO)、またはステップS205の学習後に、この「お手本の収録」の処理を終了する。
During the period when the recognition by the first
次に、被験体90が複数種類の動作を行う場合を想定して、行動評価装置1における第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)について、図10(A)を参照しながら具体的に説明する。この例では、複数種類の動作とは、図7中の「動作状態」欄に示すように、「休止」、「歩行A」、「歩行B」、「走行A」、「走行B」、「スイングA」、「スイングB」という7種類の動作を指すものとする(動作の種類数は、第1のニューラルネットワーク52の出力素子n1,n2,…,n7の個数に対応している。)。ここで、「休止」は被験体90が静止している状態を指す。「歩行A」は被験体90がゆっくり歩いている状態を指し、「歩行B」は被験体90が速く歩いている状態を指す。「走行A」は被験体90がゆっくり走っている状態を指し、「走行B」は被験体90が速く走っている状態を指す。「スイングA」は被験体90が長いシャフトのゴルフクラブ(例えば1番ウッド)をフラットにスイングしている状態(水平面に対するスイングプレーンの傾斜角が小)を指し、「スイングB」は被験体90が短いシャフトのゴルフクラブ(例えば9番アイアン)をアップライトにスイングしている状態(水平面に対するスイングプレーンの傾斜角が大)を指す。なお、スイングの範疇には、「スイングA」、「スイングB」に加えて、さらに別のタイプの「スイングC」、「スイングD」、…を含んでいても良い。
Next, assuming the case where the subject 90 performs a plurality of types of actions, the learning stage processing (step S202 in FIG. 9B) of the first
図10(A)中のステップS1に示すように、まず、被験体90が行動評価装置1を装着し、行動評価装置1(の第1のニューラルネットワーク52)に学習させたい7種類の動作を順次行う。これにより、行動評価装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、入力処理部51は、既述の12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。例えば、被験体90が図5中の矢印91で示すように「スイングA」をしている時、X,Y,Z方向の出力の平均値X1,Y1,Z1は、図6中のデータ12,13,14のように得られる。
As shown in step S1 in FIG. 10A, first, the subject 90 wears the
次に、図10(A)中のステップS2に示すように、上記7種類の動作の各々において特徴的な部分を抽出する。図6の例では、被験体90が「スイングA」をしている時に特徴的なデータを表す期間15のデータを抽出する。このようにした場合、学習の精度を高めることができ、結果として誤認識の防止につながり、有意義である。なお、図6の例では、平均値X1,Y1,Z1のみを示しているが、標準偏差X2,Y2,Z2、最大値と最小値との間の差X3,Y3,Z3、またはゼロクロス回数X4,Y4,Z4について、それぞれ特徴的なデータを表す期間があれば、その期間のデータを抽出するのが望ましい。
Next, as shown in step S2 in FIG. 10A, a characteristic part is extracted in each of the seven types of operations. In the example of FIG. 6, data of
次に、図10(A)中のステップS3に示すように、正しい解答(動作)を表す教師データを作成する。この教師データは、被験体90が或る動作をした時に、入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4が第1のニューラルネットワーク52に入力された場合に相当するものとする。被験体90が「スイングA」をした例では、出力素子n1,n2,n3,n4,n5,n6,n7の出力に対して、教師データは0,0,0,0,0,1,0となる。
Next, as shown in step S3 in FIG. 10A, teacher data representing a correct answer (action) is created. As the teacher data, 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 generated by the
次に、図10(A)中のステップS4に示すように、上記教師データを用いて、第1のニューラルネットワーク52に、逆誤差伝搬法によって学習を行わせる。すなわち、図3に示した第1のニューラルネットワーク52の入力素子i1,i2,…,i12に或る入力データセットとして特徴データX1〜X4,Y1〜Y4,Z1〜Z4が入力されたときの出力素子n1,n2,…,n7の出力と、正しい解答を表す教師データとの間の誤差を求める。そして、出力素子n1,n2,…,n7の出力とその教師データとの間の誤差が解消するように、フィードバックを行って、上記重み係数wj1,wj2,…,wj12を変更して調整してゆく。誤差の元となった中間層の出力も順次調整してゆく。これにより、図10(A)中のステップS5,S6に示すように、被験体90の動作状態判別のための重み係数wj1,wj2,…,wj12を得て、第1のニューラルネットワーク52にそれらの重み係数を組み込む。このことは、第1のニューラルネットワーク52を構成するソフトウェア上では、入力データセットから出力データセットを得るための計算式(アルゴリズム)を確立することと等価である。
Next, as shown in step S4 in FIG. 10A, the first
このようにして学習を行ってゆくと、或る運動を表す入力データセットに対して、出力層52nの出力素子n1,n2,…,n7のうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子は反応しない(値が略0になる)ようになる。この例では、図7に示すように、n1が反応したときは「休止」、n2が反応したときは「歩行A」、n3が反応したときは「歩行B」、n4が反応したときは「走行A」、n5が反応したときは「走行B」、n6が反応したときは「スイングA」、n7が反応したときは「スイングB」という動作状態を表すようになる。
When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the
このようにして、第1のニューラルネットワーク52の学習段階では、被験体90がした複数種類(この例では7種類)の動作又は行動と被験体90に取り付けられた加速度センサ2の出力との間のそれぞれの対応関係に基づいて、加速度センサ2の出力から被験体90がした動作又は行動を認識する学習を済ませる。
In this way, in the learning stage of the first
次に、行動評価装置1における第1のニューラルネットワーク52の認識段階の処理(図9(B)中のステップS203)について、図10(B)を参照しながら具体的に説明する。被験体90は、行動評価装置1を装着して、図7中の7種類の動作の中の或る動作を行うものとする。
Next, the process in the recognition stage of the first
図10(B)中のステップS11に示すように、まず、行動評価装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、ステップS12に示すように、入力処理部51は、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。
As shown in step S <b> 11 in FIG. 10B, first, the
次に、ステップS13に示すように、第1のニューラルネットワーク52の入力素子i1,i2,…,i12に、上記12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を含む入力データセットが入力される。すると、ステップS14に示すように、第1のニューラルネットワーク52の出力層52n(出力素子n1,n2,…,n7)に、結果を表すデータが出力される。ステップS15に示すように、その結果から、出力処理部53は、被験体90が現在行っている動作が何であるかを認識する。
Next, as shown in step S13, the input elements i 1 , i 2 ,..., I 12 of the first
そして、ステップS16に示すように、出力処理部53による認識結果がディスプレイ部3に表示される。
Then, as shown in step S <b> 16, the recognition result by the
この行動評価装置1は、電源スイッチ42がオンされている動作期間内で、第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)や第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)を行っている期間以外は、ステップS11〜S16の処理を100ms周期で繰り返す。これにより、被験体90の動作状態の認識を実質的にリアルタイムで常時行う。
The
例えば図11(A)に模式的に示すように、時間tが経過するにつれて、メモリ54に格納された加速度センサ2の測定データ21から、その時々の被験体90の動作状態がリアルタイムで順次認識される(認識結果を符号22で示す。)。この例では、「休止」、「休止」、「歩行A」、「休止」、「スイングA」、「歩行A」、「歩行A」、「休止」がこの順に認識されている。メモリ54には、加速度センサ2の出力に対応づけて、この動作状態の認識結果22が順次格納される。
For example, as schematically shown in FIG. 11A, as the time t elapses, the operation state of the subject 90 at that time is sequentially recognized from the
なお、第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)や第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)を行っている期間は、例えばディスプレイ部3に「学習中」と表示して、被験体90の動作状態の認識や行動の評価を行っていないことを明示する。
The learning process of the first neural network 52 (step S202 in FIG. 9B) and the learning process of the second neural network 55 (step S205 in FIG. 9B) are performed. During the period, for example, “learning” is displayed on the
次に、行動評価装置1における第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)について、具体的に説明する。
Next, the learning stage processing (step S205 in FIG. 9B) of the second
まず、被験体90が行動評価装置1を装着し、行動評価装置1(の第2のニューラルネットワーク55)に評価させたい動作を行う。この例では、使用者としての被験体90が、「スイングA」をする、すなわちゴルフクラブとして1番ウッドをスイングしてゴルフボールを打つものとする。
First, the subject 90 wears the
被験体90にとって満足のいくナイスショットが打てたら、被験体90は、この例では使用者として、そのスイング後30秒以内にボタンスイッチ11を1回(3間秒未満)押す。すなわち、既述の第2の学習指示を入力する(図9(B)中のステップS204)。これにより、図12(A)に示す第2のニューラルネットワーク55の学習段階の処理に入る。
If the subject 90 hits a nice shot that is satisfactory to the subject 90, the subject 90, as a user in this example, presses the
ボタンスイッチ11が押された時、図12(A)中のステップS21に示すように、制御部50は、メモリ54内で、現時点t1から遡った直近の、第1のニューラルネットワーク52を通して認識された動作又は行動を探索する。この例では、制御部50は、第1のニューラルネットワーク52が学習を済ませた複数種類の動作又は行動のうちスイングを探索するように設定されている。探索対象の期間の長さは、現時点t1から遡った直近の1分間として設定されている。
When the
制御部50は、メモリ54内を探索して、動作状態の認識結果22の中に或るスイングを発見できたら(ステップS22でYES)、それを被験体90がナイスショットをしたときのスイングであると判断して、ステップS23に示すように、それに対応する加速度センサ2の出力(測定データ)をメモリ54から読み出す。図11(A)の例では、「スイングA」に対応する加速度センサ2の出力21Fを読み出す。
When the
次に、制御部50は、図12(A)中のステップS24に示すように、読み出した加速度センサ2の出力21Fを、学習のために第2のニューラルネットワーク55の入力層55iに入力する。具体的には、測定データ21Fとしての、入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を、第2のニューラルネットワーク55の入力素子i1,i2,…,i12に入力データセットとして入力する。これとともに、制御部50は、第2のニューラルネットワーク55の出力層55n(出力素子n1)に、教師データとして数値「1」を与える。
Next, as shown in step S24 in FIG. 12A, the
これにより、第2のニューラルネットワーク55に、第1のニューラルネットワーク52におけるのと同様に、逆誤差伝搬法によって学習を行わせる。すなわち、図4に示した第2のニューラルネットワーク55の入力素子i1,i2,…,i12に或る入力データセットとして特徴データX1〜X4,Y1〜Y4,Z1〜Z4が入力されたときの出力素子n1の出力と、正しい解答を表す教師データとの間の誤差を求める。そして、出力素子n1の出力とその教師データとの間の誤差が解消するように、フィードバックを行って、上記重み係数wj1,wj2,…,wj12を変更して調整してゆく。誤差の元となった中間層の出力も順次調整してゆく。これにより、図12(A)中のステップS25,S26に示すように、被験体90の「スイングA」を評価するための重み係数wj1,wj2,…,wj12を得て、第2のニューラルネットワーク55にそれらの重み係数を組み込む。
This causes the second
このようにして学習を行ってゆくと、被験体90がナイスショットをしたときの「スイングA」を表す入力データセットに対して、出力層55nの出力素子n1の値が1になり、ミスショットをしたときのスイングや別の「スイングB」、「スイングC」、…を表す入力データセットに対して出力素子n1の値が小さくなる(0に近くなる)ようになる。
This way Yuku performs learning on the input data set representing the "swing A" when the subject 90 has a nice shot results in a value of 1 output element n 1 of the
このようにして、第2のニューラルネットワーク55の学習段階では、被験体90がナイスショットをしたときの「スイングA」と被験体90に取り付けられた加速度センサ2の出力との間の対応関係に基づいて、加速度センサ2の出力から被験体90がしたスイングを評価するための学習を済ませる。
In this way, at the learning stage of the second
上の例では、被験体90がナイスショットをしたときのスイングに対応する加速度センサ2の出力を、第2のニューラルネットワーク55の学習のための入力データセットとした。当然ながら、これに限られるものではなく、例えばゴルフコーチがお手本ショットをしたときのスイングに対応する加速度センサ2の出力を、第2のニューラルネットワーク55の学習のための入力データセットとしても良い。
In the above example, the output of the
いずれにしても、この行動評価装置1では、使用者がボタンスイッチ11を押すことによって、第2のニューラルネットワーク55に所望のタイミングで適切な手本を学習させることができる。
In any case, in this
次に、行動評価装置1における「行動の評価」段階の処理(図9(A)中のステップS102)について、具体的に説明する。 Next, processing in the “behavior evaluation” stage in the behavior evaluation apparatus 1 (step S102 in FIG. 9A) will be specifically described.
この「行動の評価」段階では、第1のニューラルネットワーク52は、被験体90の動作状態の認識をリアルタイムで常時行っている。例えば図11(B)に模式的に示すように、時間tが経過するにつれて、メモリ54に格納された加速度センサ2の測定データ23から、その時々の被験体90の動作状態がリアルタイムで順次認識される(認識結果を符号24で示す。)。この例では、「休止」、「休止」、「歩行A」、「休止」、「スイングA」、「歩行A」、「歩行A」、「休止」がこの順に認識されている。メモリ54には、加速度センサ2の出力に対応づけて、この動作状態の認識結果24が順次格納されている。
In this “behavior evaluation” stage, the first
図12(B)中のステップS31に示すように、制御部50は、メモリ54内における動作状態の認識結果24に或るスイングが含まれているか否かをリアルタイムで常時探索する。動作状態の認識結果24にスイングが含まれていれば(ステップS32でYES)、制御部50は、ステップS33に示すように、そのスイングに対応する加速度センサ2の出力をメモリ54から読み出す。図11(A)の例では、「スイングA」に対応する加速度センサ2の出力(測定データ)23Fを読み出す。
As shown in step S31 in FIG. 12B, the
次に、制御部50は、図12(B)中のステップS34に示すように、読み出した加速度センサ2の出力(測定データ)23Fを、行動の評価のために第2のニューラルネットワーク55の入力層55iに入力する。具体的には、測定データ23Fとしての入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を、第2のニューラルネットワーク55の入力素子i1,i2,…,i12に入力データセットとして入力する。すると、ステップS35に示すように、第2のニューラルネットワーク55の出力層55n(出力素子n1)に、結果を表すデータが出力される。すなわち、お手本(図9(B)中のステップS205で学習したもの)に近い程度を表す近似度(0から1までの数値)が出力される。例えば図8(A)に例示するように、近似度として出力素子n1に0.80という数値が出力される。この例では、第2のニューラルネットワーク55の出力層55nが単一の出力素子n1のみを含むので、被験体90がした或るスイングが手本に近い程度を1つの数値で明確に表すことができる。
Next, as shown in step S34 in FIG. 12B, the
そして、図12(B)中のステップS36に示すように、出力処理部53によってスイングの評価結果がディスプレイ部3に表示される。この例では、出力処理部53は、近似度の数値を100倍して、100点満点の点数Pを算出する。P=80の場合は「さっきのスイングは80点」というように表示を行う。
Then, as shown in step S <b> 36 in FIG. 12B, the
このように、この行動評価装置1によれば、近似度に基づく点数表示によって、使用者は、被験体90がしたスイングが手本に近い程度、すなわち、被験体90自身が調子の良いとき(ナイスショットをしたとき)のスイングにどれだけ近いか、またはゴルフコーチがお手本ショットをしたときのスイングにどれだけ近いか、を明確に知ることができる。
As described above, according to the
この行動評価装置1は、「行動の評価」段階の処理を行っている期間は、ステップS31〜S36の処理を100ms周期で繰り返す。これにより、被験体90がしたスイングの評価を実質的にリアルタイムで常時行うことができる。
The
この例では、電源スイッチ42がオフされたとき、または、電源スイッチ42がオンされている動作期間中に、使用者がボタンスイッチ11を3秒間以上押し続けたとき、この「行動の評価」段階の処理を終了するものとする。
In this example, when the
以上より明らかなように、この実施形態の行動評価装置1では、使用者がボタンスイッチ11を押して第2の学習指示を入力することによって、第2のニューラルネットワーク55に所望のタイミングで適切な手本を学習させることができる。したがって、この行動評価装置1によれば、「行動の評価」段階で、従来に比して、被験体90がした動作又は行動についての評価の精度を高めることができる。
As is clear from the above, in the
なお、この実施形態では、使用者がボタンスイッチ11を押して第1、第2の学習指示を入力するものとしたが、これに限られるものではない。無線通信装置4は、この行動評価装置1の近傍に存在する携帯電話やパーソナルコンピュータから無線通信装置4を介して、第1、第2の学習指示を入力するようにしても良い。
In this embodiment, the user presses the
また、この実施形態では、第1のニューラルネットワーク52の学習段階(図9(B)中のステップS202)で、被験体90が行動評価装置1を装着し、加速度データを実測して、第1のニューラルネットワーク52に学習させるべき入力データを得た。しかしながら、第1のニューラルネットワーク52は、大まかな動作状態の認識を行うだけであるから、必ずしも被験体90からの実測データを入力データとする必要はない。第1のニューラルネットワーク52の学習は、この行動評価装置1の近傍に存在するパーソナルコンピュータ等から無線通信装置4を介して、予め学習用に用意された入力データを入力し、学習アルゴリズムを実行することによって行っても良い。
In this embodiment, in the learning stage of the first neural network 52 (step S202 in FIG. 9B), the subject 90 wears the
また、上述の実施形態では、第1のニューラルネットワーク52は、3層からなり、12個の入力素子、7個の出力素子を備えたものとした。また、第2のニューラルネットワーク55は、3層からなり、12個の入力素子、1個の出力素子を備えたものとした。しかしながら、これに限られるものではなく、第1のニューラルネットワーク52、第2のニューラルネットワーク55は、さらに多層で、多くの入力素子、出力素子を備えても良い。
In the above-described embodiment, the first
特に、第2のニューラルネットワーク55の出力層55nの出力素子は、お手本の数だけあっても良い。例えば「スイングA」についてのお手本データと、「スイングB」についてのお手本データとがある場合、図8(B)中に例示するように、第2のニューラルネットワーク55の出力層55nを2つの出力素子n1,n2を含むものとする。この場合、第2のニューラルネットワーク55の学習段階で、「スイングA」に応じたお手本の入力データセットを入力したときは、教師データとしてn1に数値「1」を与え、n2に数値「0」を与える。一方、「スイングB」に応じたお手本の入力データセットを入力したときは、教師データとしてn1に数値「0」を与え、n2に数値「1」を与える。このようにして、学習を済ませる。すると、「行動の評価」段階では、例えば被験体90がお手本に近い「スイングA」をしたとき、図8(B)中に例示するように、例えば出力素子n1に数値「0.90」が出力され、出力素子n2に数値「0.10」が出力される。この出力結果は、n1,n2の中でn1の値が最も大きいことから、被験体90がしたスイングは「スイングA」であることを示している。また、被験体90がした「スイングA」のお手本の「スイングA」に対する近似度が、0.90(100点満点で90点)であることを示している。
In particular, the number of output elements of the
このように、第2のニューラルネットワーク55の出力層55nが複数の出力素子を含む場合、複数のタイプのスイングを評価することができる。
Thus, when the
また、上述の実施形態では、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)から、入力処理部51によって、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成した。しかしながら、これに限られるものではない。例えば標準偏差X2,Y2,Z2に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「分散」を、特徴データとして生成して用いても良い。または、最大値と最小値との間の差X3,Y3,Z3に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「最大値」および「最小値」を、特徴データとして抽出して用いても良い。要するに、この実施形態で挙げた特徴データのうち、少なくとも2種類の特徴データを用いれば、本発明を実施することができる。当然ながら、この実施形態で挙げた特徴データの全部を用いても良い。
Further, in the above-described embodiment, the feature data X1 to 12 which are the above-described 12 types of statistical data are input by the
また、この実施形態では、行動評価装置1は、携帯電話101や、歩数計・活動量計、モバイルコンピュータなどの電子機器に、一体に組み込んで構成され得る。これにより、ユーザの利便性を高めることができる。
In this embodiment, the
一方、加速度センサ2を本体ケーシング7とは別体に構成して、加速度センサ2(およびそれに付随した無線通信装置)のみが被験体90に装着されるようにしても良い。この場合、加速度センサ2と本体とは無線通信装置を介して通信する。
On the other hand, the
また、この実施形態では、行動評価装置1は、ゴルフのスイングを評価する例について述べたが、当然ながら、これに限られるものではない。例えばダンスなどにおいては、指導者の動きをお手本として行動評価装置1にデータ入力してもらうことにより、被験体90の動きがお手本にどれだけ近づいているか、ということを評価できる。
Moreover, in this embodiment, although the
なお、上記行動評価装置1が対象とする被験体90は、冒頭に述べたように、代表的には人間を指すが、動物も含む。この行動評価装置1は、使用者が被験体90としての動物に芸を仕込む場合にも、好ましく適用できる。
Note that the subject 90 targeted by the
1 行動評価装置
2 加速度センサ
3 ディスプレイ部
4 無線通信装置
5 演算装置
6 電池
7 本体ケーシング
41 指示スイッチ
50 制御部
51 入力処理部
52 第1のニューラルネットワーク
53 出力処理部
54 メモリ
55 第2のニューラルネットワーク
DESCRIPTION OF
Claims (5)
上記加速度センサの出力を記憶するメモリと、
上記加速度センサの出力から、手本となる動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識するとともに、認識された動作又は行動が上記手本に近い程度を評価する行動評価装置において、
上記ニューラルネットワークは、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する第1のニューラルネットワークと、
指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習し、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する第2のニューラルネットワークとを
含むことを特徴とする行動評価装置。 An acceleration sensor to be attached to the subject;
A memory for storing the output of the acceleration sensor;
From the output of the acceleration sensor, comprising a neural network that has completed learning to recognize a model action or action,
A behavior evaluation device that recognizes the motion or behavior of the subject through the neural network from the output of the acceleration sensor attached to the subject and evaluates the degree of the recognized motion or behavior close to the example In
The neural network is
Learning that recognizes the movement or action performed by the subject based on the correspondence between the plurality of types of movement or action performed by the subject in advance and the output of the acceleration sensor attached to the subject. After learning, based on the output of the acceleration sensor, a first neural network that recognizes the movement or action of the subject in real time;
Based on the instruction, the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network is read from the memory and learned as a model, and after the learning, the first neural network And a second neural network that outputs a degree of approximation representing the degree of movement or action recognized through the model.
上記指示を入力するための指示スイッチと、
上記指示スイッチによって上記指示が入力された時、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う制御部とを備えたことを特徴とする行動評価装置。 The behavior evaluation apparatus according to claim 1,
An instruction switch for inputting the above instructions;
When the instruction is input by the instruction switch, the output of the acceleration sensor corresponding to the action or action recognized through the first neural network immediately before the current time in the memory is searched and searched. A behavior evaluation apparatus comprising: a control unit that reads out the output of the acceleration sensor from the memory and inputs the output to the second neural network for learning.
上記第2のニューラルネットワークの出力層は単一の素子のみを含むことを特徴とする行動評価装置。 The behavior evaluation apparatus according to claim 1 or 2,
The behavior evaluation apparatus according to claim 1, wherein the output layer of the second neural network includes only a single element.
上記近似度は数値であることを特徴とする行動評価装置。 In the behavior evaluation device according to any one of claims 1 to 3,
The behavior evaluation apparatus characterized in that the degree of approximation is a numerical value.
上記動作又は行動はゴルフスイングを含むことを特徴とする行動評価装置。 In the behavior evaluation device according to any one of claims 1 to 4,
The behavior evaluation apparatus characterized in that the operation or behavior includes a golf swing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011105135A JP2012238072A (en) | 2011-05-10 | 2011-05-10 | Action evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011105135A JP2012238072A (en) | 2011-05-10 | 2011-05-10 | Action evaluation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012238072A true JP2012238072A (en) | 2012-12-06 |
Family
ID=47460937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011105135A Withdrawn JP2012238072A (en) | 2011-05-10 | 2011-05-10 | Action evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012238072A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019040421A (en) * | 2017-08-25 | 2019-03-14 | 株式会社東芝 | Detection system and detection method |
CN111602137A (en) * | 2018-02-06 | 2020-08-28 | 欧姆龙株式会社 | Evaluation device, operation control device, evaluation method, and evaluation program |
JP2020151267A (en) * | 2019-03-20 | 2020-09-24 | トヨタ自動車株式会社 | Body motion estimation system for person or the like |
-
2011
- 2011-05-10 JP JP2011105135A patent/JP2012238072A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019040421A (en) * | 2017-08-25 | 2019-03-14 | 株式会社東芝 | Detection system and detection method |
CN111602137A (en) * | 2018-02-06 | 2020-08-28 | 欧姆龙株式会社 | Evaluation device, operation control device, evaluation method, and evaluation program |
CN111602137B (en) * | 2018-02-06 | 2024-02-23 | 欧姆龙株式会社 | Evaluation device, action control device, evaluation method, and storage medium |
JP2020151267A (en) * | 2019-03-20 | 2020-09-24 | トヨタ自動車株式会社 | Body motion estimation system for person or the like |
JP7107264B2 (en) | 2019-03-20 | 2022-07-27 | トヨタ自動車株式会社 | Human Body Motion Estimation System |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11699523B2 (en) | Adaptive athletic activity prescription systems | |
KR101687252B1 (en) | Management system and the method for customized personal training | |
JP5358831B2 (en) | Exercise form discrimination device, exercise form discrimination method, and computer program | |
CN104126184B (en) | Method and system for the automatic individual training including drill program | |
KR102054134B1 (en) | Method and system for exercise coaching based on exercise machine | |
JP5896240B2 (en) | Exercise support device, exercise support method, and exercise support program | |
JP2019000653A (en) | Calculating pace and energy expenditure from athletic movement attributes | |
JP2016073789A (en) | Method and system for automation personal training including training program | |
CN107205661B (en) | Energy consumption calculation using data from multiple devices | |
US10892055B2 (en) | Motor function estimation information generation apparatus, motor function estimation system, motor function estimation information generation method, motor function estimation method and storage medium | |
KR102066001B1 (en) | Method and system for exercise coaching based on sports twin index | |
KR102388939B1 (en) | Method for providing feedback service for user's motion correction | |
JP2011224122A (en) | Behavior recognition device | |
JP2017006192A (en) | Advice generation method, advice generation program, and advice generation system | |
JP6241488B2 (en) | Exercise support device, exercise support method, and exercise support program | |
KR20110044113A (en) | Health management system and method | |
JP2013094196A (en) | System, electronic device and program | |
JP2012238072A (en) | Action evaluation device | |
WO2014181605A1 (en) | Walking posture meter and program | |
KR102051004B1 (en) | Mixed reality based exercise system providing optimized sound | |
JP7020479B2 (en) | Information processing equipment, information processing methods and programs | |
JP6432665B2 (en) | Exercise device, arm lowering angle detection method and program | |
KR20220052450A (en) | Method and apparatus for assisting in golf swing practice | |
KR20230101712A (en) | Method for estimating gait index of user, and wearable device and electronic device performing the same | |
EP4332957A2 (en) | Virtual, augmented or mixed reality instrument teaching system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140805 |