JP2012238072A - Action evaluation device - Google Patents

Action evaluation device Download PDF

Info

Publication number
JP2012238072A
JP2012238072A JP2011105135A JP2011105135A JP2012238072A JP 2012238072 A JP2012238072 A JP 2012238072A JP 2011105135 A JP2011105135 A JP 2011105135A JP 2011105135 A JP2011105135 A JP 2011105135A JP 2012238072 A JP2012238072 A JP 2012238072A
Authority
JP
Japan
Prior art keywords
neural network
output
subject
acceleration sensor
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011105135A
Other languages
Japanese (ja)
Inventor
Akihiro Okazaki
昭広 岡崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011105135A priority Critical patent/JP2012238072A/en
Publication of JP2012238072A publication Critical patent/JP2012238072A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an action estimation device capable of improving accuracy of an evaluation of a movement or an action that a subject has performed, by a simple and inexpensive configuration including only an acceleration sensor as detection means for the subject.SOLUTION: The action evaluation device includes the acceleration sensor and a memory for storing outputs of the acceleration sensor. A first neural network has preliminarily learned how to recognize a movement or an action that a subject has performed and, after the learning, recognizes the movement or the action that the subject has performed, in real time on the basis of an output of the acceleration sensor. A second neural network, based on a command, has read the output of the acceleration sensor corresponding to the movement or the action recognized through the first neural network and has learned them as examples and, after the learning, outputs an approximation degree representing the degree to which the movement or the action recognized through the first neural network is approximate to the examples.

Description

この発明は行動評価装置に関し、より詳しくは、加速度センサを用いて、被験体の動作又は行動を認識して評価する行動評価装置に関する。     The present invention relates to a behavior evaluation apparatus, and more particularly, to a behavior evaluation apparatus that recognizes and evaluates the motion or behavior of a subject using an acceleration sensor.

ここで、「被験体」とは、代表的には人間を指すが、動物であっても良い。   Here, the “subject” typically refers to a human but may be an animal.

また、「動作」とは、被験体の動きを指す。「行動」とは、意識的なものも含まれる動きや行いを指す。本明細書では、簡単のため、動作と行動とを併せて、適宜「動作」と呼ぶ。   The “motion” refers to the movement of the subject. “Behavior” refers to movements and actions that include conscious things. In this specification, for the sake of simplicity, an operation and an action are collectively referred to as an “operation” as appropriate.

この発明の行動評価装置は、典型的には、歩数計・活動量計、携帯電話、モバイルコンピュータなどに組み込んで用いられ得る。   The behavior evaluation apparatus of the present invention can typically be used by being incorporated into a pedometer / activity meter, a mobile phone, a mobile computer, or the like.

従来、例えば特許文献1(特開平10−113343号公報)には、被験体の動作又は行動に伴う状態変化を観測する計測手段と、前記観測結果における特徴量を抽出する特徴量抽出手段と、当該認識装置により認識すべき動作又は行動についての特徴量を記憶する記憶手段と、前記観測結果から抽出した特徴量と記憶してある特徴量とから、前記被験体の動作又は行動を認識する認識手段とを備えたシステムが開示されている。さらに、同文献には、事故などにより足などに障害を受けた場合のリハビリテーションに利用するために、標準的な動作(障害を受ける前の歩行動作等)と計測動作(障害を受けている現在の被験者の歩行動作等)の違いを、観測波形の周波数スペクトルの差分として視覚的に示すことが記載されている。また、標準動作特徴量データベースには、被験者の事故前の標準動作の特徴量を抽出して登録しておくのが最適であるが、それがない場合には、多数の被験者の平均的な動作から求めた特徴量を標準動作として用いてもよい旨が述べられている。   Conventionally, for example, Patent Document 1 (Japanese Patent Application Laid-Open No. 10-113343) discloses a measurement unit that observes a change in state associated with a motion or action of a subject, a feature amount extraction unit that extracts a feature amount in the observation result, Recognition for recognizing the motion or action of the subject from the storage means for storing the feature quantity regarding the action or action to be recognized by the recognition device, the feature quantity extracted from the observation result, and the stored feature quantity A system comprising the means is disclosed. Furthermore, this document describes standard movements (such as walking movements before being damaged) and measurement actions (currently being damaged) in order to be used for rehabilitation in the event of a foot injury due to an accident. It is described that the difference in the walking motion of the subject is visually shown as a difference in the frequency spectrum of the observed waveform. In addition, it is best to extract and register the features of the standard motion before the accident of the subjects in the standard motion feature database, but if there is not, the average motion of many subjects It is stated that the feature amount obtained from the above may be used as a standard operation.

特開平10−113343号公報JP-A-10-113343

しかしながら、事故に遭うことを前提として、被験者が標準動作特徴量データベースに標準的な動作を登録しておくようなことは、通常は有り得ない。また、多数の被験者の平均的な動作から求めた特徴量を標準動作として用いる場合、評価の精度が落ちるという問題がある。   However, it is usually not possible for a subject to register a standard motion in the standard motion feature database assuming that an accident will occur. Moreover, when using the feature quantity calculated | required from the average motion of many test subjects as standard motion, there exists a problem that the precision of evaluation falls.

そこで、この発明の課題は、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、被験体がした動作又は行動についての評価の精度を高めることができる行動評価装置を提供することにある。   Accordingly, an object of the present invention is to provide an action evaluation apparatus that can increase the accuracy of evaluation of actions or actions performed by a subject with a simple and inexpensive configuration that includes only an acceleration sensor as a detection means for the subject. It is in.

上記課題を解決するため、この発明の行動評価装置は、
被験体に取り付けられるべき加速度センサと、
上記加速度センサの出力を記憶するメモリと、
上記加速度センサの出力から、手本となる動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識するとともに、認識された動作又は行動が上記手本に近い程度を評価する行動評価装置において、
上記ニューラルネットワークは、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する第1のニューラルネットワークと、
指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習し、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する第2のニューラルネットワークとを
含むことを特徴とする。
In order to solve the above problems, the behavior evaluation apparatus of the present invention provides:
An acceleration sensor to be attached to the subject;
A memory for storing the output of the acceleration sensor;
From the output of the acceleration sensor, comprising a neural network that has completed learning to recognize a model action or action,
A behavior evaluation device that recognizes the motion or behavior of the subject through the neural network from the output of the acceleration sensor attached to the subject and evaluates the degree of the recognized motion or behavior close to the example In
The neural network is
Learning that recognizes the movement or action performed by the subject based on the correspondence between the plurality of types of movement or action performed by the subject in advance and the output of the acceleration sensor attached to the subject. After learning, based on the output of the acceleration sensor, a first neural network that recognizes the movement or action of the subject in real time;
Based on the instruction, the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network is read from the memory and learned as a model, and after the learning, the first neural network And a second neural network that outputs a degree of approximation representing the degree of movement or action recognized through the model.

この発明の行動評価装置では、第1のニューラルネットワークは、予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する。第2のニューラルネットワークは、指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習する。したがって、使用者(この行動評価装置を操作する者を指す。典型的には被験体であるが、別の者であっても良い。以下同様。)は、上記指示を入力することによって、上記第2のニューラルネットワークに、例えばスポーツやダンスなどにおいて被験体の調子が良かったときの動きを、上記手本として学習させることができる。上記第2のニューラルネットワークは、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する。この近似度に基づいて、使用者は、上記被験体がした動作又は行動が上記手本に近い程度を知ることができる。   In the behavior evaluation apparatus according to the present invention, the first neural network has a correspondence relationship between a plurality of types of actions or behaviors performed by the subject in advance and an output of the acceleration sensor attached to the subject. Based on this, learning for recognizing the motion or action performed by the subject is completed, and after the learning, the motion or behavior performed by the subject is recognized in real time based on the output of the acceleration sensor. Based on the instruction, the second neural network reads the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network from the memory and learns it as a model. Therefore, the user (refers to a person who operates this behavior evaluation apparatus. Typically, it is a subject but may be another person. The same shall apply hereinafter). For example, the second neural network can learn the movement when the subject is in good condition, for example, in sports or dance, as the example. After the learning, the second neural network outputs a degree of approximation representing the degree to which the motion or action recognized through the first neural network is close to the example. Based on this degree of approximation, the user can know the degree to which the action or action performed by the subject is close to the example.

この行動評価装置では、使用者が上記指示を入力することによって、第2のニューラルネットワークに所望のタイミングで適切な手本を学習させることができる。したがって、この行動評価装置によれば、従来に比して、被験体がした動作又は行動についての評価の精度を高めることができる。また、上記行動評価装置は、被験体に対する検出手段として加速度センサのみを備えているので、簡単かつ安価に構成され得る。   In this behavior evaluation apparatus, when the user inputs the instruction, the second neural network can be made to learn an appropriate model at a desired timing. Therefore, according to this behavior evaluation apparatus, it is possible to improve the accuracy of evaluation of the action or behavior performed by the subject as compared with the conventional case. Moreover, since the said behavior evaluation apparatus is provided with only the acceleration sensor as a detection means with respect to a test subject, it can be comprised simply and cheaply.

一実施形態の行動評価装置では、
上記指示を入力するための指示スイッチと、
上記指示スイッチによって上記指示が入力された時、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う制御部とを備えたことを特徴とする。
In the behavior evaluation device of one embodiment,
An instruction switch for inputting the above instructions;
When the instruction is input by the instruction switch, the output of the acceleration sensor corresponding to the action or action recognized through the first neural network immediately before the current time in the memory is searched and searched. And a control unit that reads out the output of the acceleration sensor from the memory and inputs the output to the second neural network for learning.

この一実施形態の行動評価装置では、使用者が上記指示スイッチによって上記指示を入力する。上記指示スイッチによって上記指示が入力された時、制御部は、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う。したがって、使用者は、上記第2のニューラルネットワークに所望のタイミングで適切な手本を学習させることができる。   In the behavior evaluation apparatus according to the embodiment, the user inputs the instruction using the instruction switch. When the instruction is input by the instruction switch, the control unit outputs the output of the acceleration sensor corresponding to the operation or action recognized through the first neural network in the memory, which is the latest from the current time. Searching is performed, and the output of the searched acceleration sensor is read from the memory and input to the second neural network for learning. Accordingly, the user can cause the second neural network to learn an appropriate model at a desired timing.

一実施形態の行動評価装置では、上記第2のニューラルネットワークの出力層は単一の素子のみを含むことを特徴とする。   In an action evaluation apparatus according to an embodiment, the output layer of the second neural network includes only a single element.

この一実施形態の行動評価装置では、上記第2のニューラルネットワークの出力層は単一の素子のみを含むから、その単一の素子の出力から得られた近似度は、被験体がした或る動作又は行動が上記手本に近い程度を1つの数値で明確に表すことができる。   In the behavior evaluation apparatus of this embodiment, since the output layer of the second neural network includes only a single element, the degree of approximation obtained from the output of the single element is determined by the subject. The degree to which the action or action is close to the above example can be clearly expressed by one numerical value.

一実施形態の行動評価装置では、上記近似度は数値であることを特徴とする。   In the behavior evaluation apparatus according to an embodiment, the approximation degree is a numerical value.

この一実施形態の行動評価装置では、上記近似度は数値であるから、使用者は、被験体がした或る動作又は行動が上記手本に近い程度を明確に知ることができる。   In the behavior evaluation apparatus according to this embodiment, since the degree of approximation is a numerical value, the user can clearly know the degree to which a certain action or behavior performed by the subject is close to the example.

一実施形態の行動評価装置では、上記動作又は行動はゴルフスイングを含むことを特徴とする。   In the behavior evaluation apparatus according to one embodiment, the operation or behavior includes a golf swing.

この一実施形態の行動評価装置では、上記動作又は行動はゴルフスイングを含む。したがって、使用者は、上記指示を入力することによって、上記第2のニューラルネットワークに、例えば被験体がナイスショットをしたときのスイングやゴルフコーチがお手本ショットをしたときのスイングを、上記手本として学習させることができる。この結果、行動の評価段階で、使用者は、被験体がしたスイングが、被験体自身が調子の良いとき(ナイスショットをしたとき)のスイングにどれだけ近いか、またはゴルフコーチがお手本ショットをしたときのスイングにどれだけ近いか、を知ることができる。   In the behavior evaluation apparatus according to the embodiment, the operation or behavior includes a golf swing. Therefore, the user inputs the above instruction to the second neural network, for example, the swing when the subject makes a nice shot and the swing when the golf coach takes a model shot as the above model. You can learn. As a result, at the behavioral evaluation stage, the user can see how close the subject's swing is to the swing when the subject is in good condition (when taking a nice shot), or the golf coach takes a model shot. You can know how close you are to the swing when you do.

以上より明らかなように、この発明の行動評価装置によれば、被験体に対する検出手段として加速度センサのみを含む簡単かつ安価な構成で、被験体がした動作又は行動についての評価の精度を高めることができる。   As is clear from the above, according to the behavior evaluation apparatus of the present invention, the accuracy of evaluation of the action or behavior performed by the subject can be improved with a simple and inexpensive configuration including only the acceleration sensor as the detection means for the subject. Can do.

図1(A)は、この発明の一実施形態の行動評価装置の外観を正面から見たところを示す図である。図1(B)は、上記行動評価装置を右側方から見たところを示す図である。図1(C)は、上記行動評価装置を分解状態で右側方から見たところを示す図である。図1(D)は、上記行動評価装置に含まれた部品を示す図である。図1(E)は、被験体としての人が上記行動評価装置を装着した態様を示す図である。FIG. 1A is a diagram showing the appearance of the behavior evaluation apparatus according to the embodiment of the present invention as viewed from the front. FIG. 1B is a diagram showing the behavior evaluation apparatus as viewed from the right side. FIG. 1C is a diagram showing the behavior evaluation apparatus as seen from the right side in a disassembled state. FIG. 1D is a diagram illustrating components included in the behavior evaluation apparatus. FIG. 1E is a diagram showing an aspect in which a person as a subject wears the behavior evaluation apparatus. 上記行動評価装置に含まれた演算装置のブロック構成を示す図である。It is a figure which shows the block configuration of the arithmetic unit contained in the said behavior evaluation apparatus. 上記演算装置に含まれた第1のニューラルネットワークの構成を例示する図である。It is a figure which illustrates the structure of the 1st neural network contained in the said arithmetic unit. 上記演算装置に含まれた第2のニューラルネットワークの構成を例示する図である。It is a figure which illustrates the structure of the 2nd neural network contained in the said arithmetic unit. 被験体としての人が「スイングA」を行っている様子を示す図である。It is a figure which shows a mode that the person as a test subject is performing "swing A". 被験体が図5の運動を行っている時の、上記行動評価装置に含まれた加速度センサの出力を示す図である。It is a figure which shows the output of the acceleration sensor contained in the said behavior evaluation apparatus when a test subject is performing the exercise | movement of FIG. 上記第1のニューラルネットワークの出力層の各ニューロンと、上記被験体としての人の動作状態との間の対応を例示する図である。It is a figure which illustrates the correspondence between each neuron of the output layer of the first neural network and the operating state of the person as the subject. 図8(A)は、上記第2のニューラルネットワークの出力層が単一の素子からなる場合のニューロンの出力を例示する図である。図8(B)は、上記第2のニューラルネットワークの出力層が2つの出力素子からなる場合の各ニューロンの出力を例示する図である。FIG. 8A is a diagram illustrating the output of a neuron when the output layer of the second neural network is composed of a single element. FIG. 8B is a diagram illustrating the output of each neuron when the output layer of the second neural network includes two output elements. 図9(A)は、上記行動評価装置における概略的な処理フローを示す図である。図9(B)は、上記行動評価装置における「お手本の収録」段階の処理フローを示す図である。FIG. 9A is a diagram showing a schematic processing flow in the behavior evaluation apparatus. FIG. 9B is a diagram showing a processing flow of the “recording of model” stage in the behavior evaluation apparatus. 図10(A)は、上記第1のニューラルネットワークの学習段階の処理フローを示す図である。図10(B)は、上記第1のニューラルネットワークの認識段階の処理フローを示す図である。FIG. 10A is a diagram showing a processing flow in the learning stage of the first neural network. FIG. 10B is a diagram showing a processing flow in the recognition stage of the first neural network. 図11(A)は、上記第1のニューラルネットワークの認識動作を模式的に説明する図である。図11(B)は、上記第2のニューラルネットワークの評価動作を模式的に説明する図である。FIG. 11A is a diagram schematically illustrating the recognition operation of the first neural network. FIG. 11B is a diagram for schematically explaining the evaluation operation of the second neural network. 図12(A)は、上記第2のニューラルネットワークの学習段階の処理フローを示す図である。図12(B)は、上記第2のニューラルネットワークの評価段階の処理フローを示す図である。FIG. 12A is a diagram showing a processing flow in the learning stage of the second neural network. FIG. 12B is a diagram showing a processing flow in the evaluation stage of the second neural network.

以下、この発明の一実施形態の行動評価装置について、図面を参照しながら詳細に説明する。   Hereinafter, an action evaluation apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1(A)に示すように、この発明の一実施形態の行動評価装置1は、本体ケーシング7と、この本体ケーシング7の前面部7Aに設けられたLCD(液晶表示素子)からなるディスプレイ部3と、指示スイッチとして働くノーマリオープン型のボタンスイッチ11と、スライド式の電源スイッチ42とを備えている。   As shown in FIG. 1A, a behavior evaluation apparatus 1 according to an embodiment of the present invention includes a display unit including a main body casing 7 and an LCD (liquid crystal display element) provided on a front surface portion 7A of the main body casing 7. 3, a normally open button switch 11 that functions as an instruction switch, and a slide-type power switch 42.

図1(B)(行動評価装置1を右側方から見たところに相当する)に示すように、本体ケーシング7の後面部7Bには、この行動評価装置1を被験体(この例では人)90に装着するためのクリップ8が設けられている。具体的には、クリップ8は、蝶番9を介して後面部7Bに取り付けられており、クリップ8の先端8aが後面部7Bに近づくように、図示しないばねによって付勢されている。これにより、図1(E)に示すように、行動評価装置1は、被験体90の腰の横に容易に装着され得る(例えば、被験体90が着けている図示しないベルトにクリップ8を引っ掛ければ良い。)。   As shown in FIG. 1B (corresponding to the behavioral evaluation device 1 viewed from the right side), the behavioral evaluation device 1 is placed on the rear surface portion 7B of the main body casing 7 (a person in this example). A clip 8 is provided for mounting on 90. Specifically, the clip 8 is attached to the rear surface portion 7B via a hinge 9, and is urged by a spring (not shown) so that the tip 8a of the clip 8 approaches the rear surface portion 7B. Thereby, as shown in FIG. 1E, the behavior evaluation apparatus 1 can be easily attached to the side of the waist of the subject 90 (for example, the clip 8 is hooked on a belt (not shown) worn by the subject 90). Just do it.)

図1(C)および図1(D)によって分かるように、ケーシング7の内部には、電子回路基板10と、この電子回路基板10へ電力を供給するための充電可能な電池6とが収容されている。電源スイッチ42のオン(ON)、オフ(OFF)に応じて、電池6から電子回路基板10へ電力が供給され、または非供給になる。   As can be seen from FIGS. 1C and 1D, the casing 7 contains an electronic circuit board 10 and a rechargeable battery 6 for supplying power to the electronic circuit board 10. ing. Power is supplied from the battery 6 to the electronic circuit board 10 according to whether the power switch 42 is turned on (ON) or off (OFF), or is not supplied.

電子回路基板10には、無線通信装置4と、加速度センサ2と、演算装置5とが搭載されている。   On the electronic circuit board 10, the wireless communication device 4, the acceleration sensor 2, and the arithmetic device 5 are mounted.

無線通信装置4は、この行動評価装置1の近傍に存在する携帯電話やパーソナルコンピュータ等との間で、Bluetooth(ブルートゥース)規格によって無線通信を行う公知の装置である。この無線通信装置4により、この行動評価装置1による評価結果(後述)を上記携帯電話やパーソナルコンピュータ等へ送信することが可能となる。   The wireless communication device 4 is a known device that performs wireless communication with a mobile phone, a personal computer, or the like that exists in the vicinity of the behavior evaluation device 1 according to the Bluetooth standard. The wireless communication device 4 can transmit an evaluation result (described later) by the behavior evaluation device 1 to the mobile phone, personal computer, or the like.

加速度センサ2は、X軸・Y軸・Z軸の3軸方向の加速度を、この例では±2Gの範囲で検知可能な半導体式の公知のものである。この加速度センサ2は、10ミリ秒周期でX,Y,Z方向の加速度をそれぞれ計測して出力する。加速度センサ2が出力した値は、次に述べる制御部50に内蔵されたメモリ54(図2参照)に順次格納され、少なくとも5秒間保持される。   The acceleration sensor 2 is a well-known semiconductor type capable of detecting accelerations in the X axis, Y axis, and Z axis directions in the range of ± 2 G in this example. The acceleration sensor 2 measures and outputs accelerations in the X, Y, and Z directions with a period of 10 milliseconds. Values output from the acceleration sensor 2 are sequentially stored in a memory 54 (see FIG. 2) built in the control unit 50 described below, and held for at least 5 seconds.

演算装置5は、図2に示すように、この演算装置5全体の動作を制御するCPU(中央演算処理装置)からなる制御部50と、加速度センサ2の出力を受けて処理する入力処理部51と、第1のニューラルネットワーク52と、第2のニューラルネットワーク55と、第1のニューラルネットワーク52および第2のニューラルネットワーク55の出力を受けて処理する出力処理部53と、データを一時的に格納し得るメモリ54とを備えている。   As shown in FIG. 2, the arithmetic device 5 includes a control unit 50 composed of a CPU (central processing unit) that controls the operation of the entire arithmetic device 5 and an input processing unit 51 that receives and processes the output of the acceleration sensor 2. A first neural network 52, a second neural network 55, an output processing unit 53 that receives and processes the outputs of the first neural network 52 and the second neural network 55, and temporarily stores data. And a possible memory 54.

入力処理部51は、制御部50による制御下で、加速度センサ2の出力に対して信号処理を施して、人90の動きを表す特徴データとして複数種類の統計データを生成する。具体的には、入力処理部51は、次のような統計データを生成する。   The input processing unit 51 performs signal processing on the output of the acceleration sensor 2 under the control of the control unit 50, and generates a plurality of types of statistical data as feature data representing the movement of the person 90. Specifically, the input processing unit 51 generates the following statistical data.

まず、現在の時刻(人90の動作状態の認識を行う時刻に相当)をt1とし、そこから5秒前の時刻をt0とする。入力処理部51は、時刻t0からt1までの5秒間にメモリ54に格納された加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)の平均値をそれぞれ統計データとして算出する。算出された平均値を、それぞれ特徴データX1,Y1,Z1とする。   First, the current time (corresponding to the time when the operating state of the person 90 is recognized) is set to t1, and the time 5 seconds before is set to t0. The input processing unit 51 calculates, as statistical data, average values of outputs in the X, Y, and Z directions (10-millisecond cycle values) of the acceleration sensor 2 stored in the memory 54 for 5 seconds from time t0 to t1. To do. The calculated average values are referred to as feature data X1, Y1, and Z1, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の標準偏差を統計データとして算出する。算出された標準偏差を、それぞれ特徴データX2,Y2,Z2とする。   Further, the input processing unit 51 calculates the standard deviation of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from time t0 to t1 as statistical data. The calculated standard deviations are referred to as feature data X2, Y2, and Z2, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向それぞれの出力の最大値と最小値とを探索して、上記最大値と最小値との間の差をそれぞれ統計データとして算出する。算出された上記最大値と最小値との間の差を、それぞれ特徴データX3,Y3,Z3とする。   Further, the input processing unit 51 searches for the maximum value and the minimum value of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from the time t0 to the time t1, and calculates the maximum value and the minimum value. Each difference is calculated as statistical data. The difference between the calculated maximum value and minimum value is referred to as feature data X3, Y3, and Z3, respectively.

また、入力処理部51は、時刻t0からt1までの5秒間において加速度センサ2のX,Y,Z方向の出力が0になった回数(以下「ゼロクロス回数」という。)をそれぞれカウントして統計データとして求める。求められたゼロクロス回数を、それぞれX4,Y4,Z4とする。   In addition, the input processing unit 51 counts the number of times the output of the acceleration sensor 2 in the X, Y, and Z directions becomes 0 in 5 seconds from time t0 to time t1 (hereinafter referred to as “the number of times of zero crossing”). Find as data. The obtained zero crossing numbers are X4, Y4, and Z4, respectively.

このように、入力処理部51は、12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。入力処理部51による特徴データX1〜X4,Y1〜Y4,Z1〜Z4の生成は、100ミリ秒周期で行われる。1つの軸方向、例えばX軸方向に関して言えば、メモリ54に格納された500個の1種類のデータ(5秒間にわたる加速度センサ2の出力値)から、入力処理部51によって4種類の特徴データX1〜X4が100ミリ秒毎に生成される、ということになる。   In this way, the input processing unit 51 generates feature data X1 to X4, Y1 to Y4, and Z1 to Z4 that are 12 types of statistical data. The generation of the feature data X1 to X4, Y1 to Y4, and Z1 to Z4 by the input processing unit 51 is performed at a cycle of 100 milliseconds. With respect to one axial direction, for example, the X-axis direction, four types of feature data X1 are input by the input processing unit 51 from one type of data (output value of the acceleration sensor 2 over 5 seconds) stored in the memory 54. ~ X4 is generated every 100 milliseconds.

第1のニューラルネットワーク52は、この例では図3に示すように、12個の入力素子i,i,…,i12を含む入力層52iと、7個の素子m,m,…,mを含む中間層52mと、7個の出力素子n,n,…,nを含む出力層52nとの3層から構成されている。この第1のニューラルネットワーク52は、この例では逆誤差伝搬法(Back Propagation algorithm)と呼ばれる学習法によって、入力層52iの入力素子i,i,…,i12に入力された入力から、出力層52nの出力素子n,n,…,nに正しい出力が得られるような学習を行えるように構成されている。 In this example, as shown in FIG. 3, the first neural network 52 includes an input layer 52 i including 12 input elements i 1 , i 2 ,..., I 12 , and 7 elements m 1 , m 2 , ..., an intermediate layer 52m comprising m 7, 7 pieces of output elements n 1, n 2, ..., is composed of three layers and the output layer 52n including n 7. The first neural network 52, by the learning method called inverse error propagation method (Back Propagation algorithm) In this example, the input element i 1, i 2 of the input layer 52i, ..., from the input that is input to the i 12, .., N 7 is configured to perform learning so that a correct output can be obtained at the output elements n 1 , n 2 ,.

具体的には、まず、入力素子i,i,…,i12に対する入力にそれぞれ重み係数wj1,wj2,…,wj12(j=1,2,…,7とする。)を乗算し、次のようにそれらの入力と重み係数との積の線形和ujを求める。

Figure 2012238072
Specifically, first, an input element i 1, i 2, ..., respectively weighting factor inputs to i 12 w j1, w j2, ..., w j12 a (j = 1, 2, ..., is. 7) Multiplication is performed to obtain a linear sum u j of products of these inputs and weighting factors as follows.
Figure 2012238072

出力素子n,n,…,nの出力を、次のようにその線形和ujのシグモイド関数f(u)であるものとする。
f(u)=1/(1+exp(−u))
Assume that the output of the output elements n 1 , n 2 ,..., N 7 is a sigmoid function f (u j ) of its linear sum u j as follows.
f (u j ) = 1 / (1 + exp (−u j ))

次に、入力素子i,i,…,i12に或る入力データセットが入力されたときの出力素子n,n,…,nの出力と、正しい解答を表す教師データとの間の誤差を求める。 Then, the input element i 1, i 2, ..., output element n 1 when a certain set of input data is input to the i 12, n 2, ..., an output of n 7, and teacher data representing the correct answer Find the error between.

出力素子n,n,…,nの出力とその教師データとの間の誤差が解消するように、上記重み係数wj1,wj2,…,wj12を変更してゆく。誤差の元となった中間層の出力も順次調整してゆく。 Output element n 1, n 2, ..., as the error between the output of the n 7 and the teacher data is eliminated, the weight coefficient w j1, w j2, ..., slide into change w j12. The output of the intermediate layer that caused the error is also adjusted sequentially.

このようにして学習を行ってゆくと、或る入力データセットに対して出力層52nの出力素子n,n,…,nのうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子の値は略0になるようになる。第1のニューラルネットワーク52は、このような逆誤差伝搬法による学習を行えるように構成されている。 When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the output layer 52n reacts to a certain input data set (the value is 1). The remaining output element values become substantially zero. The first neural network 52 is configured to perform learning by such an inverse error propagation method.

第2のニューラルネットワーク55は、この例では図4に示すように、12個の入力素子i,i,…,i12を含む入力層55iと、7個の素子m,m,…,mを含む中間層55mと、1個の出力素子nを含む出力層55nとの3層から構成されている。この第2のニューラルネットワーク52は、第1のニューラルネットワーク52と同様に、この例では逆誤差伝搬法によって、入力層55iの入力素子i,i,…,i12に入力された入力から、出力層55nの出力素子nに正しい出力が得られるような学習を行えるように構成されている。 In this example, as shown in FIG. 4, the second neural network 55 includes an input layer 55 i including 12 input elements i 1 , i 2 ,..., I 12 , and 7 elements m 1 , m 2 , .., M 7 includes an intermediate layer 55 m and an output layer 55 n including one output element n 1 . As in the first neural network 52, the second neural network 52 uses, in this example, an input inputted to the input elements i 1 , i 2 ,..., I 12 of the input layer 55i by the reverse error propagation method. , the correct output to the output device n 1 of the output layer 55n is configured to perform the learning, as obtained.

図2中の出力処理部53は、制御部50による制御下で、第1のニューラルネットワーク52の出力層52nおよび第2のニューラルネットワーク55の出力層55nの出力を受けて、それに応じた認識・評価結果を画像として出力する処理を行う。この認識・評価結果は、行動評価装置1のディスプレイ部3に表示される。   2 receives the outputs of the output layer 52n of the first neural network 52 and the output layer 55n of the second neural network 55 under the control of the control unit 50, and recognizes / A process of outputting the evaluation result as an image is performed. This recognition / evaluation result is displayed on the display unit 3 of the behavior evaluation apparatus 1.

上述の入力処理部51、第1のニューラルネットワーク52、第2のニューラルネットワーク55、出力処理部53は、ソフトウェアによって構成されている。この行動評価装置1は、被験体90に対する検出手段として加速度センサ2のみを備えているので、簡単かつ安価に構成され得る。   The above-described input processing unit 51, first neural network 52, second neural network 55, and output processing unit 53 are configured by software. Since this behavior evaluation apparatus 1 includes only the acceleration sensor 2 as a detection unit for the subject 90, it can be configured simply and inexpensively.

図9(A)に示すように、この行動評価装置1は、制御部50による制御によって、大別して、ステップS101に示す「お手本の収録」段階の処理と、ステップS102に示す「行動の評価」段階の処理とを実行する。   As shown in FIG. 9A, the behavior evaluation apparatus 1 is roughly divided by the control by the control unit 50, and the process of “recording a model” stage shown in step S101 and the “behavior evaluation” shown in step S102. Perform stage processing.

図9(B)は、上記「お手本の収録」段階の処理(ステップS101)を、より具体的に示している。この例では、電源スイッチ42がオンされている動作期間中に、使用者がボタンスイッチ11を3秒間以上押し続けたとき、この「お手本の収録」段階の処理を開始するものとする。   FIG. 9B shows more specifically the process (step S101) in the “recording of model” stage. In this example, when the user continues to press the button switch 11 for 3 seconds or more during the operation period in which the power switch 42 is turned on, the processing of this “exemplary recording” stage is started.

制御部50は、まずステップS201で、例えばディスプレイ部3に「認識の学習をしますか?」と表示して、第1のニューラルネットワーク52に対する学習指示(これを「第1の学習指示」と呼ぶ。)があるか無いかを判断する。第1の学習指示は、この例では使用者がボタンスイッチ11を1回(3秒間未満)押すことにより入力されるものとする。所定期間(例えば5秒間)内に第1の学習指示があれば(ステップS201でYES)、ステップS202に進んで第1のニューラルネットワーク52の学習の処理を行う。予め第1のニューラルネットワーク52の学習が完了していてステップS201では第1の学習指示が無かったとき(ステップS201でNO)、またはステップS202の学習後に、ステップS203へ進む。ステップS203では、第1のニューラルネットワーク52による認識の処理を開始する。   First, in step S201, the control unit 50 displays, for example, “Do you want to learn recognition?” On the display unit 3, and gives a learning instruction to the first neural network 52 (this is referred to as “first learning instruction”). Determine whether or not there is). In this example, the first learning instruction is input by the user pressing the button switch 11 once (less than 3 seconds). If there is a first learning instruction within a predetermined period (for example, 5 seconds) (YES in step S201), the process proceeds to step S202, and learning processing of the first neural network 52 is performed. When the learning of the first neural network 52 is completed in advance and there is no first learning instruction in step S201 (NO in step S201), or after learning in step S202, the process proceeds to step S203. In step S203, the recognition process by the first neural network 52 is started.

この第1のニューラルネットワーク52による認識をリアルタイムで行っている期間中に、制御部50は、ステップS204で、例えばディスプレイ部3に「評価の学習をしますか?」と表示して、第2のニューラルネットワーク55に対する学習指示(これを「第2の学習指示」と呼ぶ。)があるか無いかを判断する。第2の学習指示は、この例では第1の学習指示と同様に、使用者がボタンスイッチ11を1回(3秒間未満)押すことにより入力されるものとする。所定期間(例えば5秒間)内に第2の学習指示があれば(ステップS204でYES)、ステップS205に進んで第2のニューラルネットワーク55の学習の処理を行う。予め第2のニューラルネットワーク55の学習が完了していてステップS205では第2の学習指示が無かったとき(ステップS204でNO)、またはステップS205の学習後に、この「お手本の収録」の処理を終了する。   During the period when the recognition by the first neural network 52 is performed in real time, the control unit 50 displays, for example, “Do you want to learn the evaluation?” It is determined whether or not there is a learning instruction (referred to as a “second learning instruction”) for the neural network 55. In this example, the second learning instruction is input when the user presses the button switch 11 once (less than 3 seconds), similarly to the first learning instruction. If there is a second learning instruction within a predetermined period (for example, 5 seconds) (YES in step S204), the process proceeds to step S205 to perform learning processing of the second neural network 55. When the learning of the second neural network 55 is completed in advance and there is no second learning instruction in step S205 (NO in step S204), or after the learning in step S205, the process of “recording a model” is ended. To do.

次に、被験体90が複数種類の動作を行う場合を想定して、行動評価装置1における第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)について、図10(A)を参照しながら具体的に説明する。この例では、複数種類の動作とは、図7中の「動作状態」欄に示すように、「休止」、「歩行A」、「歩行B」、「走行A」、「走行B」、「スイングA」、「スイングB」という7種類の動作を指すものとする(動作の種類数は、第1のニューラルネットワーク52の出力素子n,n,…,nの個数に対応している。)。ここで、「休止」は被験体90が静止している状態を指す。「歩行A」は被験体90がゆっくり歩いている状態を指し、「歩行B」は被験体90が速く歩いている状態を指す。「走行A」は被験体90がゆっくり走っている状態を指し、「走行B」は被験体90が速く走っている状態を指す。「スイングA」は被験体90が長いシャフトのゴルフクラブ(例えば1番ウッド)をフラットにスイングしている状態(水平面に対するスイングプレーンの傾斜角が小)を指し、「スイングB」は被験体90が短いシャフトのゴルフクラブ(例えば9番アイアン)をアップライトにスイングしている状態(水平面に対するスイングプレーンの傾斜角が大)を指す。なお、スイングの範疇には、「スイングA」、「スイングB」に加えて、さらに別のタイプの「スイングC」、「スイングD」、…を含んでいても良い。 Next, assuming the case where the subject 90 performs a plurality of types of actions, the learning stage processing (step S202 in FIG. 9B) of the first neural network 52 in the behavior evaluation apparatus 1 will be described with reference to FIG. This will be specifically described with reference to (A). In this example, the plurality of types of movements are “pause”, “walking A”, “walking B”, “running A”, “running B”, “ It is assumed that seven types of motions “swing A” and “swing B” are indicated (the number of types of motion corresponds to the number of output elements n 1 , n 2 ,..., N 7 of the first neural network 52). Yes.) Here, “pause” refers to a state in which the subject 90 is stationary. “Walk A” refers to the state where the subject 90 is walking slowly, and “Walk B” refers to the state where the subject 90 is walking fast. “Run A” indicates a state where the subject 90 is running slowly, and “Run B” indicates a state where the subject 90 is running fast. “Swing A” refers to a state in which the subject 90 is swinging a golf club having a long shaft (for example, No. 1 wood) in a flat manner (the swing plane has a small inclination angle with respect to the horizontal plane). Indicates a state in which a golf club having a short shaft (for example, a 9 iron) is swinging upright (the inclination angle of the swing plane with respect to the horizontal plane is large). The swing category may include “swing C”, “swing D”,... In addition to “swing A” and “swing B”.

図10(A)中のステップS1に示すように、まず、被験体90が行動評価装置1を装着し、行動評価装置1(の第1のニューラルネットワーク52)に学習させたい7種類の動作を順次行う。これにより、行動評価装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、入力処理部51は、既述の12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。例えば、被験体90が図5中の矢印91で示すように「スイングA」をしている時、X,Y,Z方向の出力の平均値X1,Y1,Z1は、図6中のデータ12,13,14のように得られる。   As shown in step S1 in FIG. 10A, first, the subject 90 wears the behavior evaluation device 1 and performs seven types of operations that the behavior evaluation device 1 (first neural network 52) wants to learn. Do it sequentially. As a result, the acceleration sensor 2 of the behavior evaluation apparatus 1 obtains the acceleration data corresponding to the above-described seven types of operations by actually measuring each. As described above, the output of the acceleration sensor 2 in the X, Y, and Z directions (the value of a 10 millisecond period) is stored in the memory 54. At the same time, the input processing unit 51 generates the 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 described above. For example, when the subject 90 is performing “swing A” as indicated by an arrow 91 in FIG. 5, the average values X1, Y1, and Z1 of outputs in the X, Y, and Z directions are the data 12 in FIG. , 13, 14 are obtained.

次に、図10(A)中のステップS2に示すように、上記7種類の動作の各々において特徴的な部分を抽出する。図6の例では、被験体90が「スイングA」をしている時に特徴的なデータを表す期間15のデータを抽出する。このようにした場合、学習の精度を高めることができ、結果として誤認識の防止につながり、有意義である。なお、図6の例では、平均値X1,Y1,Z1のみを示しているが、標準偏差X2,Y2,Z2、最大値と最小値との間の差X3,Y3,Z3、またはゼロクロス回数X4,Y4,Z4について、それぞれ特徴的なデータを表す期間があれば、その期間のデータを抽出するのが望ましい。   Next, as shown in step S2 in FIG. 10A, a characteristic part is extracted in each of the seven types of operations. In the example of FIG. 6, data of period 15 representing characteristic data is extracted when the subject 90 is performing “swing A”. In this case, the accuracy of learning can be improved, resulting in prevention of erroneous recognition, which is meaningful. In the example of FIG. 6, only the average values X1, Y1, and Z1 are shown, but the standard deviations X2, Y2, and Z2, the differences X3, Y3, and Z3 between the maximum value and the minimum value, or the number of zero crossings X4 , Y4, and Z4, if there is a period representing characteristic data, it is desirable to extract data for that period.

次に、図10(A)中のステップS3に示すように、正しい解答(動作)を表す教師データを作成する。この教師データは、被験体90が或る動作をした時に、入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4が第1のニューラルネットワーク52に入力された場合に相当するものとする。被験体90が「スイングA」をした例では、出力素子n,n,n,n,n,n,nの出力に対して、教師データは0,0,0,0,0,1,0となる。 Next, as shown in step S3 in FIG. 10A, teacher data representing a correct answer (action) is created. As the teacher data, 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 generated by the input processing unit 51 when the subject 90 performs a certain operation are input to the first neural network 52. It shall correspond to the case. In the example in which the subject 90 performs “swing A”, the teacher data is 0, 0, 0, for the outputs of the output elements n 1 , n 2 , n 3 , n 4 , n 5 , n 6 , n 7 . 0, 0, 1, 0.

次に、図10(A)中のステップS4に示すように、上記教師データを用いて、第1のニューラルネットワーク52に、逆誤差伝搬法によって学習を行わせる。すなわち、図3に示した第1のニューラルネットワーク52の入力素子i,i,…,i12に或る入力データセットとして特徴データX1〜X4,Y1〜Y4,Z1〜Z4が入力されたときの出力素子n,n,…,nの出力と、正しい解答を表す教師データとの間の誤差を求める。そして、出力素子n,n,…,nの出力とその教師データとの間の誤差が解消するように、フィードバックを行って、上記重み係数wj1,wj2,…,wj12を変更して調整してゆく。誤差の元となった中間層の出力も順次調整してゆく。これにより、図10(A)中のステップS5,S6に示すように、被験体90の動作状態判別のための重み係数wj1,wj2,…,wj12を得て、第1のニューラルネットワーク52にそれらの重み係数を組み込む。このことは、第1のニューラルネットワーク52を構成するソフトウェア上では、入力データセットから出力データセットを得るための計算式(アルゴリズム)を確立することと等価である。 Next, as shown in step S4 in FIG. 10A, the first neural network 52 is trained by the inverse error propagation method using the teacher data. That is, feature data X1 to X4, Y1 to Y4, and Z1 to Z4 are inputted as input data sets to the input elements i 1 , i 2 ,..., I 12 of the first neural network 52 shown in FIG. The error between the output of the output elements n 1 , n 2 ,..., N 7 and the teacher data representing the correct answer is obtained. Then, feedback is performed so that an error between the output of the output elements n 1 , n 2 ,..., N 7 and the teacher data is eliminated, and the weight coefficients w j1 , w j2 ,. Change and adjust. The output of the intermediate layer that caused the error is also adjusted sequentially. As a result, as shown in steps S5 and S6 in FIG. 10A, weight coefficients w j1 , w j2 ,..., W j12 for determining the operation state of the subject 90 are obtained, and the first neural network is obtained. These weighting factors are incorporated into 52. This is equivalent to establishing a calculation formula (algorithm) for obtaining an output data set from an input data set on the software constituting the first neural network 52.

このようにして学習を行ってゆくと、或る運動を表す入力データセットに対して、出力層52nの出力素子n,n,…,nのうち、1つの出力素子のみが反応し(値が1になり)、残りの出力素子は反応しない(値が略0になる)ようになる。この例では、図7に示すように、nが反応したときは「休止」、nが反応したときは「歩行A」、nが反応したときは「歩行B」、nが反応したときは「走行A」、nが反応したときは「走行B」、nが反応したときは「スイングA」、nが反応したときは「スイングB」という動作状態を表すようになる。 When learning is performed in this manner, only one output element among the output elements n 1 , n 2 ,..., N 7 of the output layer 52n reacts to an input data set representing a certain motion. (The value becomes 1), and the remaining output elements do not react (the value becomes substantially 0). In this example, as shown in FIG. 7, when n 1 reacts, “pause”, when n 2 reacts, “walk A”, when n 3 reacts, “walk B”, n 4 reacts “Run A”, “Run B” when n 5 reacts, “Swing A” when n 6 reacts, and “Swing B” when n 7 reacts. Become.

このようにして、第1のニューラルネットワーク52の学習段階では、被験体90がした複数種類(この例では7種類)の動作又は行動と被験体90に取り付けられた加速度センサ2の出力との間のそれぞれの対応関係に基づいて、加速度センサ2の出力から被験体90がした動作又は行動を認識する学習を済ませる。   In this way, in the learning stage of the first neural network 52, between the plural types (seven types in this example) of movements or actions performed by the subject 90 and the output of the acceleration sensor 2 attached to the subject 90. Based on the corresponding relationship, learning for recognizing the action or action performed by the subject 90 from the output of the acceleration sensor 2 is completed.

次に、行動評価装置1における第1のニューラルネットワーク52の認識段階の処理(図9(B)中のステップS203)について、図10(B)を参照しながら具体的に説明する。被験体90は、行動評価装置1を装着して、図7中の7種類の動作の中の或る動作を行うものとする。   Next, the process in the recognition stage of the first neural network 52 in the behavior evaluation apparatus 1 (step S203 in FIG. 9B) will be specifically described with reference to FIG. It is assumed that the subject 90 wears the behavior evaluation device 1 and performs a certain operation among the seven types of operations in FIG.

図10(B)中のステップS11に示すように、まず、行動評価装置1の加速度センサ2は、上記7種類の動作に対応する加速度データをそれぞれ実測して取得する。既述のように、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)が、メモリ54に格納される。これとともに、ステップS12に示すように、入力処理部51は、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成する。   As shown in step S <b> 11 in FIG. 10B, first, the acceleration sensor 2 of the behavior evaluation apparatus 1 actually acquires and acquires acceleration data corresponding to the seven types of operations. As described above, the output of the acceleration sensor 2 in the X, Y, and Z directions (the value of a 10 millisecond period) is stored in the memory 54. At the same time, as shown in step S12, the input processing unit 51 generates feature data X1 to X4, Y1 to Y4, and Z1 to Z4, which are the 12 types of statistical data described above.

次に、ステップS13に示すように、第1のニューラルネットワーク52の入力素子i,i,…,i12に、上記12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を含む入力データセットが入力される。すると、ステップS14に示すように、第1のニューラルネットワーク52の出力層52n(出力素子n,n,…,n)に、結果を表すデータが出力される。ステップS15に示すように、その結果から、出力処理部53は、被験体90が現在行っている動作が何であるかを認識する。 Next, as shown in step S13, the input elements i 1 , i 2 ,..., I 12 of the first neural network 52 include the 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4. An input data set is entered. Then, as shown in step S14, data representing the result is output to the output layer 52n (output elements n 1 , n 2 ,..., N 7 ) of the first neural network 52. As shown in step S15, from the result, the output processing unit 53 recognizes what the subject 90 is currently performing.

そして、ステップS16に示すように、出力処理部53による認識結果がディスプレイ部3に表示される。   Then, as shown in step S <b> 16, the recognition result by the output processing unit 53 is displayed on the display unit 3.

この行動評価装置1は、電源スイッチ42がオンされている動作期間内で、第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)や第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)を行っている期間以外は、ステップS11〜S16の処理を100ms周期で繰り返す。これにより、被験体90の動作状態の認識を実質的にリアルタイムで常時行う。   The behavior evaluation apparatus 1 is configured so that the learning process of the first neural network 52 (step S202 in FIG. 9B) and the second neural network 55 are within the operation period in which the power switch 42 is turned on. Except for the period in which the learning stage process (step S205 in FIG. 9B) is performed, the processes of steps S11 to S16 are repeated at a cycle of 100 ms. Thereby, recognition of the operating state of the subject 90 is always performed substantially in real time.

例えば図11(A)に模式的に示すように、時間tが経過するにつれて、メモリ54に格納された加速度センサ2の測定データ21から、その時々の被験体90の動作状態がリアルタイムで順次認識される(認識結果を符号22で示す。)。この例では、「休止」、「休止」、「歩行A」、「休止」、「スイングA」、「歩行A」、「歩行A」、「休止」がこの順に認識されている。メモリ54には、加速度センサ2の出力に対応づけて、この動作状態の認識結果22が順次格納される。   For example, as schematically shown in FIG. 11A, as the time t elapses, the operation state of the subject 90 at that time is sequentially recognized from the measurement data 21 of the acceleration sensor 2 stored in the memory 54 in real time. (The recognition result is indicated by reference numeral 22). In this example, “pause”, “pause”, “walk A”, “pause”, “swing A”, “walk A”, “walk A”, and “pause” are recognized in this order. The memory 54 sequentially stores the recognition result 22 of the operation state in association with the output of the acceleration sensor 2.

なお、第1のニューラルネットワーク52の学習段階の処理(図9(B)中のステップS202)や第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)を行っている期間は、例えばディスプレイ部3に「学習中」と表示して、被験体90の動作状態の認識や行動の評価を行っていないことを明示する。   The learning process of the first neural network 52 (step S202 in FIG. 9B) and the learning process of the second neural network 55 (step S205 in FIG. 9B) are performed. During the period, for example, “learning” is displayed on the display unit 3 to clearly indicate that the operation state of the subject 90 is not recognized or the behavior is not evaluated.

次に、行動評価装置1における第2のニューラルネットワーク55の学習段階の処理(図9(B)中のステップS205)について、具体的に説明する。   Next, the learning stage processing (step S205 in FIG. 9B) of the second neural network 55 in the behavior evaluation apparatus 1 will be specifically described.

まず、被験体90が行動評価装置1を装着し、行動評価装置1(の第2のニューラルネットワーク55)に評価させたい動作を行う。この例では、使用者としての被験体90が、「スイングA」をする、すなわちゴルフクラブとして1番ウッドをスイングしてゴルフボールを打つものとする。   First, the subject 90 wears the behavior evaluation device 1 and performs an operation desired to be evaluated by the behavior evaluation device 1 (the second neural network 55). In this example, it is assumed that the subject 90 as a user performs “swing A”, that is, swings No. 1 wood as a golf club and hits a golf ball.

被験体90にとって満足のいくナイスショットが打てたら、被験体90は、この例では使用者として、そのスイング後30秒以内にボタンスイッチ11を1回(3間秒未満)押す。すなわち、既述の第2の学習指示を入力する(図9(B)中のステップS204)。これにより、図12(A)に示す第2のニューラルネットワーク55の学習段階の処理に入る。   If the subject 90 hits a nice shot that is satisfactory to the subject 90, the subject 90, as a user in this example, presses the button switch 11 once (less than 3 seconds) within 30 seconds after the swing. That is, the above-described second learning instruction is input (step S204 in FIG. 9B). Thereby, the process of the learning stage of the second neural network 55 shown in FIG.

ボタンスイッチ11が押された時、図12(A)中のステップS21に示すように、制御部50は、メモリ54内で、現時点t1から遡った直近の、第1のニューラルネットワーク52を通して認識された動作又は行動を探索する。この例では、制御部50は、第1のニューラルネットワーク52が学習を済ませた複数種類の動作又は行動のうちスイングを探索するように設定されている。探索対象の期間の長さは、現時点t1から遡った直近の1分間として設定されている。   When the button switch 11 is pressed, as shown in step S21 in FIG. 12A, the control unit 50 is recognized in the memory 54 through the first neural network 52 that is the latest from the current time t1. Search for a motion or action. In this example, the control unit 50 is set to search for a swing among a plurality of types of actions or actions that the first neural network 52 has learned. The length of the search target period is set as the latest one minute retroactive from the current time t1.

制御部50は、メモリ54内を探索して、動作状態の認識結果22の中に或るスイングを発見できたら(ステップS22でYES)、それを被験体90がナイスショットをしたときのスイングであると判断して、ステップS23に示すように、それに対応する加速度センサ2の出力(測定データ)をメモリ54から読み出す。図11(A)の例では、「スイングA」に対応する加速度センサ2の出力21Fを読み出す。   When the control unit 50 searches the memory 54 and finds a certain swing in the recognition result 22 of the operation state (YES in step S22), the control unit 50 uses the swing when the subject 90 makes a nice shot. If it is determined that there is, the corresponding output (measurement data) of the acceleration sensor 2 is read from the memory 54 as shown in step S23. In the example of FIG. 11A, the output 21F of the acceleration sensor 2 corresponding to “swing A” is read.

次に、制御部50は、図12(A)中のステップS24に示すように、読み出した加速度センサ2の出力21Fを、学習のために第2のニューラルネットワーク55の入力層55iに入力する。具体的には、測定データ21Fとしての、入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を、第2のニューラルネットワーク55の入力素子i,i,…,i12に入力データセットとして入力する。これとともに、制御部50は、第2のニューラルネットワーク55の出力層55n(出力素子n1)に、教師データとして数値「1」を与える。 Next, as shown in step S24 in FIG. 12A, the control unit 50 inputs the read output 21F of the acceleration sensor 2 to the input layer 55i of the second neural network 55 for learning. Specifically, twelve types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 generated by the input processing unit 51 as the measurement data 21F are input to the input elements i 1 and i of the second neural network 55. 2 ,..., I 12 are input as an input data set. At the same time, the control unit 50 gives a numerical value “1” as teacher data to the output layer 55 n (output element n 1) of the second neural network 55.

これにより、第2のニューラルネットワーク55に、第1のニューラルネットワーク52におけるのと同様に、逆誤差伝搬法によって学習を行わせる。すなわち、図4に示した第2のニューラルネットワーク55の入力素子i,i,…,i12に或る入力データセットとして特徴データX1〜X4,Y1〜Y4,Z1〜Z4が入力されたときの出力素子nの出力と、正しい解答を表す教師データとの間の誤差を求める。そして、出力素子nの出力とその教師データとの間の誤差が解消するように、フィードバックを行って、上記重み係数wj1,wj2,…,wj12を変更して調整してゆく。誤差の元となった中間層の出力も順次調整してゆく。これにより、図12(A)中のステップS25,S26に示すように、被験体90の「スイングA」を評価するための重み係数wj1,wj2,…,wj12を得て、第2のニューラルネットワーク55にそれらの重み係数を組み込む。 This causes the second neural network 55 to perform learning by the reverse error propagation method, as in the first neural network 52. That is, feature data X1 to X4, Y1 to Y4, and Z1 to Z4 are inputted as input data sets to the input elements i 1 , i 2 ,..., I 12 of the second neural network 55 shown in FIG. obtaining an error between the output of the output element n 1, and the teacher data representing the correct answer time. Then, feedback is performed so that the error between the output of the output element n 1 and the teacher data is eliminated, and the weight coefficients w j1 , w j2 ,..., W j12 are changed and adjusted. The output of the intermediate layer that caused the error is also adjusted sequentially. Thereby, as shown in steps S25 and S26 in FIG. 12A, the weighting factors w j1 , w j2 ,..., W j12 for evaluating the “swing A” of the subject 90 are obtained, and the second These weight coefficients are incorporated into the neural network 55 of FIG.

このようにして学習を行ってゆくと、被験体90がナイスショットをしたときの「スイングA」を表す入力データセットに対して、出力層55nの出力素子nの値が1になり、ミスショットをしたときのスイングや別の「スイングB」、「スイングC」、…を表す入力データセットに対して出力素子nの値が小さくなる(0に近くなる)ようになる。 This way Yuku performs learning on the input data set representing the "swing A" when the subject 90 has a nice shot results in a value of 1 output element n 1 of the output layer 55n, Miss "swing B" swing and another when the shot, "swing C", (close to 0) ... input value of the output element n 1 is smaller than the data set representing the way becomes.

このようにして、第2のニューラルネットワーク55の学習段階では、被験体90がナイスショットをしたときの「スイングA」と被験体90に取り付けられた加速度センサ2の出力との間の対応関係に基づいて、加速度センサ2の出力から被験体90がしたスイングを評価するための学習を済ませる。   In this way, at the learning stage of the second neural network 55, the correspondence between “swing A” when the subject 90 makes a nice shot and the output of the acceleration sensor 2 attached to the subject 90. Based on the output of the acceleration sensor 2, learning for evaluating the swing performed by the subject 90 is completed.

上の例では、被験体90がナイスショットをしたときのスイングに対応する加速度センサ2の出力を、第2のニューラルネットワーク55の学習のための入力データセットとした。当然ながら、これに限られるものではなく、例えばゴルフコーチがお手本ショットをしたときのスイングに対応する加速度センサ2の出力を、第2のニューラルネットワーク55の学習のための入力データセットとしても良い。   In the above example, the output of the acceleration sensor 2 corresponding to the swing when the subject 90 makes a nice shot is used as the input data set for learning of the second neural network 55. Of course, the present invention is not limited to this. For example, the output of the acceleration sensor 2 corresponding to a swing when the golf coach takes a model shot may be used as an input data set for learning of the second neural network 55.

いずれにしても、この行動評価装置1では、使用者がボタンスイッチ11を押すことによって、第2のニューラルネットワーク55に所望のタイミングで適切な手本を学習させることができる。   In any case, in this behavior evaluation apparatus 1, when the user presses the button switch 11, the second neural network 55 can learn an appropriate model at a desired timing.

次に、行動評価装置1における「行動の評価」段階の処理(図9(A)中のステップS102)について、具体的に説明する。   Next, processing in the “behavior evaluation” stage in the behavior evaluation apparatus 1 (step S102 in FIG. 9A) will be specifically described.

この「行動の評価」段階では、第1のニューラルネットワーク52は、被験体90の動作状態の認識をリアルタイムで常時行っている。例えば図11(B)に模式的に示すように、時間tが経過するにつれて、メモリ54に格納された加速度センサ2の測定データ23から、その時々の被験体90の動作状態がリアルタイムで順次認識される(認識結果を符号24で示す。)。この例では、「休止」、「休止」、「歩行A」、「休止」、「スイングA」、「歩行A」、「歩行A」、「休止」がこの順に認識されている。メモリ54には、加速度センサ2の出力に対応づけて、この動作状態の認識結果24が順次格納されている。   In this “behavior evaluation” stage, the first neural network 52 always recognizes the operating state of the subject 90 in real time. For example, as schematically shown in FIG. 11B, as the time t elapses, the operation state of the subject 90 at that time is sequentially recognized from the measurement data 23 of the acceleration sensor 2 stored in the memory 54 in real time. (The recognition result is indicated by reference numeral 24). In this example, “pause”, “pause”, “walk A”, “pause”, “swing A”, “walk A”, “walk A”, and “pause” are recognized in this order. The memory 54 sequentially stores the recognition result 24 of the operation state in association with the output of the acceleration sensor 2.

図12(B)中のステップS31に示すように、制御部50は、メモリ54内における動作状態の認識結果24に或るスイングが含まれているか否かをリアルタイムで常時探索する。動作状態の認識結果24にスイングが含まれていれば(ステップS32でYES)、制御部50は、ステップS33に示すように、そのスイングに対応する加速度センサ2の出力をメモリ54から読み出す。図11(A)の例では、「スイングA」に対応する加速度センサ2の出力(測定データ)23Fを読み出す。   As shown in step S31 in FIG. 12B, the control unit 50 constantly searches in real time whether or not a certain swing is included in the recognition result 24 of the operation state in the memory 54. If the swing is included in the recognition result 24 of the operation state (YES in step S32), the control unit 50 reads the output of the acceleration sensor 2 corresponding to the swing from the memory 54 as shown in step S33. In the example of FIG. 11A, the output (measurement data) 23F of the acceleration sensor 2 corresponding to “swing A” is read.

次に、制御部50は、図12(B)中のステップS34に示すように、読み出した加速度センサ2の出力(測定データ)23Fを、行動の評価のために第2のニューラルネットワーク55の入力層55iに入力する。具体的には、測定データ23Fとしての入力処理部51によって生成された12種類の特徴データX1〜X4,Y1〜Y4,Z1〜Z4を、第2のニューラルネットワーク55の入力素子i,i,…,i12に入力データセットとして入力する。すると、ステップS35に示すように、第2のニューラルネットワーク55の出力層55n(出力素子n)に、結果を表すデータが出力される。すなわち、お手本(図9(B)中のステップS205で学習したもの)に近い程度を表す近似度(0から1までの数値)が出力される。例えば図8(A)に例示するように、近似度として出力素子nに0.80という数値が出力される。この例では、第2のニューラルネットワーク55の出力層55nが単一の出力素子nのみを含むので、被験体90がした或るスイングが手本に近い程度を1つの数値で明確に表すことができる。 Next, as shown in step S34 in FIG. 12B, the control unit 50 inputs the read output (measurement data) 23F of the acceleration sensor 2 to the second neural network 55 for behavior evaluation. Input to layer 55i. Specifically, the 12 types of feature data X1 to X4, Y1 to Y4, and Z1 to Z4 generated by the input processing unit 51 as the measurement data 23F are input to the input elements i 1 and i 2 of the second neural network 55. , ..., it is input to the i 12 as the input data set. Then, as shown in step S35, data representing the result is output to the output layer 55n (output element n 1 ) of the second neural network 55. That is, the degree of approximation (numerical value from 0 to 1) representing the degree close to the model (learned in step S205 in FIG. 9B) is output. For example, as illustrated in FIG. 8A, a numerical value of 0.80 is output to the output element n 1 as the degree of approximation. In this example, the output layer 55n of the second neural network 55 includes only a single output element n 1, that one swing subject 90 was clearly represent the degree close to model a single number Can do.

そして、図12(B)中のステップS36に示すように、出力処理部53によってスイングの評価結果がディスプレイ部3に表示される。この例では、出力処理部53は、近似度の数値を100倍して、100点満点の点数Pを算出する。P=80の場合は「さっきのスイングは80点」というように表示を行う。   Then, as shown in step S <b> 36 in FIG. 12B, the output processing unit 53 displays the swing evaluation result on the display unit 3. In this example, the output processing unit 53 multiplies the numerical value of the degree of approximation by 100 to calculate a score P of 100 points. In the case of P = 80, display is made such that “the previous swing is 80 points”.

このように、この行動評価装置1によれば、近似度に基づく点数表示によって、使用者は、被験体90がしたスイングが手本に近い程度、すなわち、被験体90自身が調子の良いとき(ナイスショットをしたとき)のスイングにどれだけ近いか、またはゴルフコーチがお手本ショットをしたときのスイングにどれだけ近いか、を明確に知ることができる。   As described above, according to the behavior evaluation apparatus 1, the score display based on the degree of approximation indicates that the user is close to the model of the swing that the subject 90 has made, that is, when the subject 90 is in good condition ( It is possible to clearly know how close the swing is (when a nice shot is taken) or how close the swing is when the golf coach takes a model shot.

この行動評価装置1は、「行動の評価」段階の処理を行っている期間は、ステップS31〜S36の処理を100ms周期で繰り返す。これにより、被験体90がしたスイングの評価を実質的にリアルタイムで常時行うことができる。   The behavior evaluation apparatus 1 repeats the processes of steps S31 to S36 in a cycle of 100 ms during the period when the “behavior evaluation” process is performed. Thereby, the evaluation of the swing performed by the subject 90 can be performed substantially in real time at all times.

この例では、電源スイッチ42がオフされたとき、または、電源スイッチ42がオンされている動作期間中に、使用者がボタンスイッチ11を3秒間以上押し続けたとき、この「行動の評価」段階の処理を終了するものとする。   In this example, when the power switch 42 is turned off, or when the user keeps pressing the button switch 11 for 3 seconds or more during the operation period in which the power switch 42 is turned on, this “behavior evaluation” stage is performed. This processing is finished.

以上より明らかなように、この実施形態の行動評価装置1では、使用者がボタンスイッチ11を押して第2の学習指示を入力することによって、第2のニューラルネットワーク55に所望のタイミングで適切な手本を学習させることができる。したがって、この行動評価装置1によれば、「行動の評価」段階で、従来に比して、被験体90がした動作又は行動についての評価の精度を高めることができる。   As is clear from the above, in the behavior evaluation apparatus 1 of this embodiment, when the user presses the button switch 11 and inputs the second learning instruction, the second neural network 55 is appropriately handed at a desired timing. You can learn books. Therefore, according to this behavior evaluation apparatus 1, it is possible to increase the accuracy of evaluation of the action or behavior performed by the subject 90 in the “behavior evaluation” stage as compared with the conventional case.

なお、この実施形態では、使用者がボタンスイッチ11を押して第1、第2の学習指示を入力するものとしたが、これに限られるものではない。無線通信装置4は、この行動評価装置1の近傍に存在する携帯電話やパーソナルコンピュータから無線通信装置4を介して、第1、第2の学習指示を入力するようにしても良い。   In this embodiment, the user presses the button switch 11 to input the first and second learning instructions. However, the present invention is not limited to this. The wireless communication device 4 may input first and second learning instructions via a wireless communication device 4 from a mobile phone or a personal computer that exists in the vicinity of the behavior evaluation device 1.

また、この実施形態では、第1のニューラルネットワーク52の学習段階(図9(B)中のステップS202)で、被験体90が行動評価装置1を装着し、加速度データを実測して、第1のニューラルネットワーク52に学習させるべき入力データを得た。しかしながら、第1のニューラルネットワーク52は、大まかな動作状態の認識を行うだけであるから、必ずしも被験体90からの実測データを入力データとする必要はない。第1のニューラルネットワーク52の学習は、この行動評価装置1の近傍に存在するパーソナルコンピュータ等から無線通信装置4を介して、予め学習用に用意された入力データを入力し、学習アルゴリズムを実行することによって行っても良い。   In this embodiment, in the learning stage of the first neural network 52 (step S202 in FIG. 9B), the subject 90 wears the behavior evaluation device 1, measures the acceleration data, and first Input data to be learned by the neural network 52 is obtained. However, since the first neural network 52 only recognizes a rough operation state, it is not always necessary to use actually measured data from the subject 90 as input data. In the learning of the first neural network 52, input data prepared for learning is input in advance from a personal computer or the like existing in the vicinity of the behavior evaluation apparatus 1 via the wireless communication apparatus 4, and a learning algorithm is executed. You may go by.

また、上述の実施形態では、第1のニューラルネットワーク52は、3層からなり、12個の入力素子、7個の出力素子を備えたものとした。また、第2のニューラルネットワーク55は、3層からなり、12個の入力素子、1個の出力素子を備えたものとした。しかしながら、これに限られるものではなく、第1のニューラルネットワーク52、第2のニューラルネットワーク55は、さらに多層で、多くの入力素子、出力素子を備えても良い。   In the above-described embodiment, the first neural network 52 includes three layers and includes 12 input elements and 7 output elements. The second neural network 55 has three layers and includes 12 input elements and 1 output element. However, the present invention is not limited to this, and the first neural network 52 and the second neural network 55 may be multi-layered and may include many input elements and output elements.

特に、第2のニューラルネットワーク55の出力層55nの出力素子は、お手本の数だけあっても良い。例えば「スイングA」についてのお手本データと、「スイングB」についてのお手本データとがある場合、図8(B)中に例示するように、第2のニューラルネットワーク55の出力層55nを2つの出力素子n,nを含むものとする。この場合、第2のニューラルネットワーク55の学習段階で、「スイングA」に応じたお手本の入力データセットを入力したときは、教師データとしてnに数値「1」を与え、nに数値「0」を与える。一方、「スイングB」に応じたお手本の入力データセットを入力したときは、教師データとしてnに数値「0」を与え、nに数値「1」を与える。このようにして、学習を済ませる。すると、「行動の評価」段階では、例えば被験体90がお手本に近い「スイングA」をしたとき、図8(B)中に例示するように、例えば出力素子nに数値「0.90」が出力され、出力素子nに数値「0.10」が出力される。この出力結果は、n,nの中でnの値が最も大きいことから、被験体90がしたスイングは「スイングA」であることを示している。また、被験体90がした「スイングA」のお手本の「スイングA」に対する近似度が、0.90(100点満点で90点)であることを示している。 In particular, the number of output elements of the output layer 55n of the second neural network 55 may be the number of models. For example, when there is model data for “Swing A” and model data for “Swing B”, two output layers 55n of the second neural network 55 are output as illustrated in FIG. 8B. It is assumed to include elements n 1 and n 2 . In this case, in the learning stage of the second neural network 55, when inputting the input data set of role model corresponding to "swing A" gives the value "1" to n 1 as teacher data, numeric n 2 " 0 ”is given. On the other hand, when a model input data set corresponding to “Swing B” is input, a numerical value “0” is given to n 1 as teacher data, and a numerical value “1” is given to n 2 . In this way, learning is completed. Then, in the “behavior evaluation” stage, for example, when the subject 90 performs “swing A” close to a model, as illustrated in FIG. 8B, for example, the output element n 1 has a numerical value “0.90”. Is output, and the numerical value “0.10” is output to the output element n 2 . This output result indicates that the swing performed by the subject 90 is “swing A” because the value of n 1 is the largest among n 1 and n 2 . In addition, the degree of approximation of “swing A” by the subject 90 with respect to the model “swing A” is 0.90 (90 points out of 100).

このように、第2のニューラルネットワーク55の出力層55nが複数の出力素子を含む場合、複数のタイプのスイングを評価することができる。   Thus, when the output layer 55n of the second neural network 55 includes a plurality of output elements, a plurality of types of swings can be evaluated.

また、上述の実施形態では、加速度センサ2のX,Y,Z方向の出力(10ミリ秒周期の値)から、入力処理部51によって、既述の12種類の統計データである特徴データX1〜X4,Y1〜Y4,Z1〜Z4を生成した。しかしながら、これに限られるものではない。例えば標準偏差X2,Y2,Z2に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「分散」を、特徴データとして生成して用いても良い。または、最大値と最小値との間の差X3,Y3,Z3に代えて、またはそれに加えて、時刻t0からt1までの5秒間における加速度センサ2のX,Y,Z方向の出力の「最大値」および「最小値」を、特徴データとして抽出して用いても良い。要するに、この実施形態で挙げた特徴データのうち、少なくとも2種類の特徴データを用いれば、本発明を実施することができる。当然ながら、この実施形態で挙げた特徴データの全部を用いても良い。   Further, in the above-described embodiment, the feature data X1 to 12 which are the above-described 12 types of statistical data are input by the input processing unit 51 from the X-, Y- and Z-direction outputs (values of 10 milliseconds) of the acceleration sensor 2. X4, Y1 to Y4, and Z1 to Z4 were produced. However, the present invention is not limited to this. For example, instead of or in addition to the standard deviations X2, Y2, and Z2, the “distribution” of the output in the X, Y, and Z directions of the acceleration sensor 2 for 5 seconds from time t0 to t1 is generated as feature data. It may be used. Alternatively, instead of or in addition to the differences X3, Y3, and Z3 between the maximum value and the minimum value, the “maximum” of the output in the X, Y, and Z directions of the acceleration sensor 2 during 5 seconds from time t0 to t1 The “value” and “minimum value” may be extracted and used as feature data. In short, the present invention can be implemented by using at least two types of feature data among the feature data mentioned in this embodiment. Of course, all of the feature data mentioned in this embodiment may be used.

また、この実施形態では、行動評価装置1は、携帯電話101や、歩数計・活動量計、モバイルコンピュータなどの電子機器に、一体に組み込んで構成され得る。これにより、ユーザの利便性を高めることができる。   In this embodiment, the behavior evaluation apparatus 1 can be configured to be integrated into an electronic device such as the mobile phone 101, a pedometer / activity meter, and a mobile computer. Thereby, a user's convenience can be improved.

一方、加速度センサ2を本体ケーシング7とは別体に構成して、加速度センサ2(およびそれに付随した無線通信装置)のみが被験体90に装着されるようにしても良い。この場合、加速度センサ2と本体とは無線通信装置を介して通信する。   On the other hand, the acceleration sensor 2 may be configured separately from the main body casing 7 so that only the acceleration sensor 2 (and the associated wireless communication device) is attached to the subject 90. In this case, the acceleration sensor 2 communicates with the main body via a wireless communication device.

また、この実施形態では、行動評価装置1は、ゴルフのスイングを評価する例について述べたが、当然ながら、これに限られるものではない。例えばダンスなどにおいては、指導者の動きをお手本として行動評価装置1にデータ入力してもらうことにより、被験体90の動きがお手本にどれだけ近づいているか、ということを評価できる。   Moreover, in this embodiment, although the behavior evaluation apparatus 1 described the example which evaluates a golf swing, naturally, it is not restricted to this. For example, in dance, it is possible to evaluate how close the movement of the subject 90 is to the model by having the behavior evaluation apparatus 1 input data using the movement of the instructor as a model.

なお、上記行動評価装置1が対象とする被験体90は、冒頭に述べたように、代表的には人間を指すが、動物も含む。この行動評価装置1は、使用者が被験体90としての動物に芸を仕込む場合にも、好ましく適用できる。   Note that the subject 90 targeted by the behavior evaluation apparatus 1 typically refers to a human as described above, but also includes animals. This behavioral evaluation apparatus 1 can be preferably applied also when a user prepares tricks for an animal as the subject 90.

1 行動評価装置
2 加速度センサ
3 ディスプレイ部
4 無線通信装置
5 演算装置
6 電池
7 本体ケーシング
41 指示スイッチ
50 制御部
51 入力処理部
52 第1のニューラルネットワーク
53 出力処理部
54 メモリ
55 第2のニューラルネットワーク
DESCRIPTION OF SYMBOLS 1 Behavior evaluation apparatus 2 Acceleration sensor 3 Display part 4 Wireless communication apparatus 5 Arithmetic apparatus 6 Battery 7 Main body casing 41 Instruction switch 50 Control part 51 Input processing part 52 1st neural network 53 Output processing part 54 Memory 55 2nd neural network

Claims (5)

被験体に取り付けられるべき加速度センサと、
上記加速度センサの出力を記憶するメモリと、
上記加速度センサの出力から、手本となる動作又は行動を認識する学習を済ませたニューラルネットワークとを備えて、
上記被験体に取り付けられた上記加速度センサの出力から、上記ニューラルネットワークを通して上記被験体がした動作又は行動を認識するとともに、認識された動作又は行動が上記手本に近い程度を評価する行動評価装置において、
上記ニューラルネットワークは、
予め、上記被験体がした複数種類の動作又は行動と上記被験体に取り付けられた上記加速度センサの出力との間のそれぞれの対応関係に基づいて、上記被験体がした動作又は行動を認識する学習を済ませ、その学習後は、上記加速度センサの出力に基づいて、リアルタイムで上記被験体がした動作又は行動を認識する第1のニューラルネットワークと、
指示に基づいて、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を、上記メモリから読み出して手本として学習し、その学習後は、上記第1のニューラルネットワークを通して認識された動作又は行動が上記手本に近い程度を表す近似度を出力する第2のニューラルネットワークとを
含むことを特徴とする行動評価装置。
An acceleration sensor to be attached to the subject;
A memory for storing the output of the acceleration sensor;
From the output of the acceleration sensor, comprising a neural network that has completed learning to recognize a model action or action,
A behavior evaluation device that recognizes the motion or behavior of the subject through the neural network from the output of the acceleration sensor attached to the subject and evaluates the degree of the recognized motion or behavior close to the example In
The neural network is
Learning that recognizes the movement or action performed by the subject based on the correspondence between the plurality of types of movement or action performed by the subject in advance and the output of the acceleration sensor attached to the subject. After learning, based on the output of the acceleration sensor, a first neural network that recognizes the movement or action of the subject in real time;
Based on the instruction, the output of the acceleration sensor corresponding to the motion or action recognized through the first neural network is read from the memory and learned as a model, and after the learning, the first neural network And a second neural network that outputs a degree of approximation representing the degree of movement or action recognized through the model.
請求項1に記載の行動評価装置において、
上記指示を入力するための指示スイッチと、
上記指示スイッチによって上記指示が入力された時、上記メモリ内で、現時点から遡った直近の、上記第1のニューラルネットワークを通して認識された動作又は行動に対応する上記加速度センサの出力を探索し、探索した上記加速度センサの出力を上記メモリから読み出して、学習のために上記第2のニューラルネットワークに入力する制御を行う制御部とを備えたことを特徴とする行動評価装置。
The behavior evaluation apparatus according to claim 1,
An instruction switch for inputting the above instructions;
When the instruction is input by the instruction switch, the output of the acceleration sensor corresponding to the action or action recognized through the first neural network immediately before the current time in the memory is searched and searched. A behavior evaluation apparatus comprising: a control unit that reads out the output of the acceleration sensor from the memory and inputs the output to the second neural network for learning.
請求項1または2に記載の行動評価装置において、
上記第2のニューラルネットワークの出力層は単一の素子のみを含むことを特徴とする行動評価装置。
The behavior evaluation apparatus according to claim 1 or 2,
The behavior evaluation apparatus according to claim 1, wherein the output layer of the second neural network includes only a single element.
請求項1から3までのいずれか一つに記載の行動評価装置において、
上記近似度は数値であることを特徴とする行動評価装置。
In the behavior evaluation device according to any one of claims 1 to 3,
The behavior evaluation apparatus characterized in that the degree of approximation is a numerical value.
請求項1から4までのいずれか一つに記載の行動評価装置において、
上記動作又は行動はゴルフスイングを含むことを特徴とする行動評価装置。
In the behavior evaluation device according to any one of claims 1 to 4,
The behavior evaluation apparatus characterized in that the operation or behavior includes a golf swing.
JP2011105135A 2011-05-10 2011-05-10 Action evaluation device Withdrawn JP2012238072A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011105135A JP2012238072A (en) 2011-05-10 2011-05-10 Action evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011105135A JP2012238072A (en) 2011-05-10 2011-05-10 Action evaluation device

Publications (1)

Publication Number Publication Date
JP2012238072A true JP2012238072A (en) 2012-12-06

Family

ID=47460937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011105135A Withdrawn JP2012238072A (en) 2011-05-10 2011-05-10 Action evaluation device

Country Status (1)

Country Link
JP (1) JP2012238072A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040421A (en) * 2017-08-25 2019-03-14 株式会社東芝 Detection system and detection method
CN111602137A (en) * 2018-02-06 2020-08-28 欧姆龙株式会社 Evaluation device, operation control device, evaluation method, and evaluation program
JP2020151267A (en) * 2019-03-20 2020-09-24 トヨタ自動車株式会社 Body motion estimation system for person or the like

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019040421A (en) * 2017-08-25 2019-03-14 株式会社東芝 Detection system and detection method
CN111602137A (en) * 2018-02-06 2020-08-28 欧姆龙株式会社 Evaluation device, operation control device, evaluation method, and evaluation program
CN111602137B (en) * 2018-02-06 2024-02-23 欧姆龙株式会社 Evaluation device, action control device, evaluation method, and storage medium
JP2020151267A (en) * 2019-03-20 2020-09-24 トヨタ自動車株式会社 Body motion estimation system for person or the like
JP7107264B2 (en) 2019-03-20 2022-07-27 トヨタ自動車株式会社 Human Body Motion Estimation System

Similar Documents

Publication Publication Date Title
US11699523B2 (en) Adaptive athletic activity prescription systems
KR101687252B1 (en) Management system and the method for customized personal training
JP5358831B2 (en) Exercise form discrimination device, exercise form discrimination method, and computer program
CN104126184B (en) Method and system for the automatic individual training including drill program
KR102054134B1 (en) Method and system for exercise coaching based on exercise machine
JP5896240B2 (en) Exercise support device, exercise support method, and exercise support program
JP2019000653A (en) Calculating pace and energy expenditure from athletic movement attributes
JP2016073789A (en) Method and system for automation personal training including training program
CN107205661B (en) Energy consumption calculation using data from multiple devices
US10892055B2 (en) Motor function estimation information generation apparatus, motor function estimation system, motor function estimation information generation method, motor function estimation method and storage medium
KR102066001B1 (en) Method and system for exercise coaching based on sports twin index
KR102388939B1 (en) Method for providing feedback service for user&#39;s motion correction
JP2011224122A (en) Behavior recognition device
JP2017006192A (en) Advice generation method, advice generation program, and advice generation system
JP6241488B2 (en) Exercise support device, exercise support method, and exercise support program
KR20110044113A (en) Health management system and method
JP2013094196A (en) System, electronic device and program
JP2012238072A (en) Action evaluation device
WO2014181605A1 (en) Walking posture meter and program
KR102051004B1 (en) Mixed reality based exercise system providing optimized sound
JP7020479B2 (en) Information processing equipment, information processing methods and programs
JP6432665B2 (en) Exercise device, arm lowering angle detection method and program
KR20220052450A (en) Method and apparatus for assisting in golf swing practice
KR20230101712A (en) Method for estimating gait index of user, and wearable device and electronic device performing the same
EP4332957A2 (en) Virtual, augmented or mixed reality instrument teaching system and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805