JP2020175047A - Operation analyzing device, operation analyzing method and program - Google Patents

Operation analyzing device, operation analyzing method and program Download PDF

Info

Publication number
JP2020175047A
JP2020175047A JP2019081528A JP2019081528A JP2020175047A JP 2020175047 A JP2020175047 A JP 2020175047A JP 2019081528 A JP2019081528 A JP 2019081528A JP 2019081528 A JP2019081528 A JP 2019081528A JP 2020175047 A JP2020175047 A JP 2020175047A
Authority
JP
Japan
Prior art keywords
image
timing
specific operation
operation timing
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019081528A
Other languages
Japanese (ja)
Other versions
JP2020175047A5 (en
JP7275807B2 (en
Inventor
正雄 三本木
Masao Sanhongi
正雄 三本木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019081528A priority Critical patent/JP7275807B2/en
Publication of JP2020175047A publication Critical patent/JP2020175047A/en
Publication of JP2020175047A5 publication Critical patent/JP2020175047A5/ja
Application granted granted Critical
Publication of JP7275807B2 publication Critical patent/JP7275807B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

To easily perform comparison of images at a specific operation timing.SOLUTION: An operation analyzing device 1 comprises: extracts an image (frame image) G1 at a specific operation timing periodically appearing from a video obtained by continuously shooting a user who is running, extracts an image (frame image) G2 at the specific operation timing from a prescribed model video that is continuously shot when extracting the image at the specific operation timing, and displays the images G1, G2 on the display unit 15 in a comparable manner.SELECTED DRAWING: Figure 12

Description

本発明は、動作解析装置、動作解析方法及びプログラムに関する。 The present invention relates to a motion analysis device, a motion analysis method and a program.

従来、実施者が技能(例えば、ゴルフ)に関する身体動作(例えば、ゴルフのスイング)を行いながら、自分(実施者)の動きと規範技能者の動きとを比較検討し、規範技能者の動きを的確に再現できているかどうかを自分自身で確認することができる身体技能習得支援装置が開示されている(例えば、特許文献1参照)。 Conventionally, while the practitioner performs physical movements related to skill (for example, golf) (for example, golf swing), the movement of oneself (practitioner) and the movement of the normative technician are compared and examined, and the movement of the normative technician is compared. A physical skill acquisition support device that allows oneself to confirm whether or not it can be accurately reproduced is disclosed (see, for example, Patent Document 1).

特開2011−152333号公報Japanese Unexamined Patent Publication No. 2011-152333

しかしながら、上記特許文献1に開示されている身体技能習得支援装置では、特定の動作タイミングにおける動きを比較検討しようとした場合、実施者の操作に基づいて身体動作情報と技能情報とから当該特定の動作タイミングの画像をそれぞれ指定しなければならないため面倒であるという問題がある。 However, in the physical skill acquisition support device disclosed in Patent Document 1, when an attempt is made to compare and examine movements at a specific movement timing, the specific movement information and skill information are used based on the operation of the practitioner. There is a problem that it is troublesome because each operation timing image must be specified.

本発明は、このような問題に鑑みてなされたものであり、特定の動作タイミングにおける画像の比較を簡便に行うことを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to easily compare images at a specific operation timing.

上記課題を解決するため、本発明に係る動作解析装置は、
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出手段と、
前記第1の抽出手段によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出手段と、
前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御手段と、
を備えることを特徴とする。
In order to solve the above problems, the motion analysis device according to the present invention
A first extraction means for extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user performing an exercise consisting of repeated periodic operations, and a first extraction means.
When the frame image of the specific operation timing is extracted by the first extraction means, the second extraction means for extracting the frame image of the specific operation timing from the predetermined model video continuously shot. ,
A display control means for causing the display means to display the frame images extracted by the first extraction means and the second extraction means in a manner comparable to each other.
It is characterized by having.

本発明によれば、特定の動作タイミングにおける画像の比較を簡便に行うことができる。 According to the present invention, it is possible to easily compare images at a specific operation timing.

動作解析装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the motion analysis apparatus. センサー装置2をユーザーが装着した状態を示す図である。It is a figure which shows the state which the user wears the sensor device 2. 測定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a measurement process. 着地タイミング設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the landing timing setting process. 前後方向、左右方向、上下方向それぞれの加速度信号の波形の一部分を例示的に抜き出して示すグラフである。It is a graph which shows by exemplifying a part of the waveform of the acceleration signal of each of the front-rear direction, the left-right direction, and the up-down direction. 離地タイミング設定処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the takeoff timing setting process. 前後方向、上下方向それぞれの加速度信号の波形の一部分を例示的に抜き出して示すグラフである。It is a graph which shows by exemplifying a part of the waveform of the acceleration signal in each of the front-rear direction and the up-down direction. 図7に示すグラフのうち、28.9秒から29.1秒の間の一部分を拡大したグラフである。Of the graph shown in FIG. 7, a part of the graph between 28.9 seconds and 29.1 seconds is enlarged. 前後方向、上下方向それぞれの加速度信号の波形の一部分を例示的に抜き出して示すグラフである。It is a graph which shows by exemplifying a part of the waveform of the acceleration signal in each of the front-rear direction and the up-down direction. 前後方向、上下方向それぞれの加速度信号の波形の一部分を例示的に抜き出して示すグラフである。It is a graph which shows by exemplifying a part of the waveform of the acceleration signal in each of the front-rear direction and the up-down direction. 前後方向、上下方向それぞれの加速度信号の波形の一部分を例示的に抜き出して示すグラフである。It is a graph which shows by exemplifying a part of the waveform of the acceleration signal in each of the front-rear direction and the up-down direction. 動作解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the motion analysis processing. ランニングフォーム比較画面の一例を示す図である。It is a figure which shows an example of a running form comparison screen.

以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated examples.

≪動作解析装置1の構成≫
本実施形態の動作解析装置1は、周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から当該ユーザーの動作を解析するための装置である。以下では、周期的な動作の繰り返しから成る運動としてランニングを例に挙げて説明を行う。
<< Configuration of motion analysis device 1 >>
The motion analysis device 1 of the present embodiment is a device for analyzing the motion of a user who is continuously taking an image of a user who is performing an exercise consisting of repeating periodic motions. In the following, running will be described as an example of an exercise consisting of repeated periodic movements.

図1は、本発明を適用した一実施形態の動作解析装置1の概略構成を示すブロック図である。
図1に示すように、動作解析装置1は、CPU(Central Processing Unit)11と、RAM(Random Access Memory)12と、記憶部13と、操作部14と、表示部15と、通信部16とを備える。
FIG. 1 is a block diagram showing a schematic configuration of an operation analysis device 1 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the motion analysis device 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a storage unit 13, an operation unit 14, a display unit 15, and a communication unit 16. To be equipped.

CPU(第1の抽出手段、第2の抽出手段、表示制御手段、比較手段、報知手段、補正手段)11は、動作解析装置1の各部を制御する。CPU11は、記憶部13に記憶されているシステムプログラム及びアプリケーションプログラムのうち、指定されたプログラムを読み出してRAM12に展開し、当該プログラムとの協働で各種処理を実行する。 The CPU (first extraction means, second extraction means, display control means, comparison means, notification means, correction means) 11 controls each part of the motion analysis device 1. The CPU 11 reads a designated program among the system programs and application programs stored in the storage unit 13 and expands them in the RAM 12, and executes various processes in cooperation with the program.

RAM12は、揮発性のメモリであり、各種のデータやプログラムを一時的に格納するワークエリアを形成する。 The RAM 12 is a volatile memory and forms a work area for temporarily storing various data and programs.

記憶部13は、例えば、フラッシュメモリ、EEPROM(Electrically Erasable Programmable ROM)、HDD(Hard Disk Drive)などにより構成される。記憶部13には、CPU11で実行されるシステムプログラムやアプリケーションプログラム、これらのプログラムの実行に必要なデータ等が記憶されている。 The storage unit 13 is composed of, for example, a flash memory, an EEPROM (Electrically Erasable Programmable ROM), an HDD (Hard Disk Drive), or the like. The storage unit 13 stores system programs and application programs executed by the CPU 11, data necessary for executing these programs, and the like.

また、記憶部13には、所定の映像データを記憶するための映像記憶部(図示省略)が設けられている。所定の映像データとは、例えば、トレッドミルを用いてランニングを行っているユーザーを連続的に撮影した映像に関する映像データである。この映像記憶部に上記映像データが記憶される際、当該映像データの映像の撮影時にユーザーに装着されたセンサー装置2(後述)から取得され、当該映像と同期が取れている加速度信号データ(センシングデータ)と、ユーザーのランニング動作におけるサイクル(周期)の各局面(着地タイミング、最下点タイミング、離地タイミング、最高点タイミング等)のデータとがそれぞれ対応付けられて記憶される。このランニング動作におけるサイクル(周期)の各局面のデータは、動作解析装置1により測定処理(後述)が実行されることによって算出されるデータである。 Further, the storage unit 13 is provided with a video storage unit (not shown) for storing predetermined video data. The predetermined video data is, for example, video data related to a video continuously captured by a user who is running using a treadmill. When the video data is stored in the video storage unit, the acceleration signal data (sensing) acquired from the sensor device 2 (described later) attached to the user at the time of shooting the video of the video data and synchronized with the video. Data) and data of each phase (landing timing, lowest point timing, takeoff timing, highest point timing, etc.) of the cycle in the user's running operation are stored in association with each other. The data of each phase of the cycle in this running motion is the data calculated by executing the measurement process (described later) by the motion analysis device 1.

また、記憶部13には、所定の手本映像データを記憶するための手本映像記憶部(図示省略)が設けられている。ここで、所定の手本映像データとは、手本となるランナーがトレッドミルを用いてランニングを行っている様子を連続的に撮影した手本映像に関する映像データである。この所定の手本映像データは、上述した所定の映像データと同様に、当該手本映像データの映像の撮影時に手本となるランナーに装着されたセンサー装置2(後述)から取得され、当該映像と同期が取れている加速度信号データ(センシングデータ)と、当該ランナーのランニング動作におけるサイクル(周期)の各局面のデータとがそれぞれ対応付けられて手本映像記憶部に記憶される。 Further, the storage unit 13 is provided with a model video storage unit (not shown) for storing predetermined model video data. Here, the predetermined model video data is video data related to a model video in which a runner as a model is continuously photographed while running using a treadmill. The predetermined model video data is acquired from the sensor device 2 (described later) attached to the runner as a model at the time of shooting the video of the model video data, and the video is obtained in the same manner as the predetermined video data described above. The acceleration signal data (sensing data) synchronized with the above and the data of each phase of the cycle in the running operation of the runner are associated with each other and stored in the model video storage unit.

また、記憶部13には、後述する動作解析処理(図12参照)が実行された際、動作解析の結果として報知されるコメントを記憶したコメントテーブル(図示省略)が設けられている。このコメントテーブルには、例えば、ランニング動作におけるサイクル(周期)の局面(動作タイミング)ごとに「動作解析の対象となるランナーの姿勢と手本となるランナーの姿勢の相違点」、「コメント」等の項目が設けられており、これらの項目に関するデータが互いに対応付けられて記憶されるようになっている。 Further, the storage unit 13 is provided with a comment table (not shown) that stores comments to be notified as a result of the motion analysis when the motion analysis process (see FIG. 12) described later is executed. In this comment table, for example, "difference between the posture of the runner to be analyzed and the posture of the runner as a model", "comment", etc. for each phase (motion timing) of the cycle in the running motion. Items are provided, and data related to these items are stored in association with each other.

ここで、図2を用いて、上記センサー装置2について説明する。図2は、センサー装置2をユーザーが装着した状態を示す図である。
図2に示すように、センサー装置2は、本体部2Aと、ベルト部2Bとを有しており、ベルト部2Bによって、ユーザーの腰の位置で本体部2Aが固定されている。ここで、左右方向をX軸とし、前後方向をY軸とし、上下方向をZ軸とする。X軸においては左手方向を正、右手方向を負とする。Y軸においては進行方向逆向きを正とし、進行方向を負とする。Z軸においては上方向を正、下方向を負とする。センサー装置2は、加速度センサー(図示省略)を備えており、この加速度センサーによって出力される3軸(X軸、Y軸、Z軸)方向の加速度信号データ(センシングデータ)をランニング動作時に逐次記録可能となっている。
Here, the sensor device 2 will be described with reference to FIG. FIG. 2 is a diagram showing a state in which the sensor device 2 is worn by the user.
As shown in FIG. 2, the sensor device 2 has a main body portion 2A and a belt portion 2B, and the main body portion 2A is fixed at the position of the user's waist by the belt portion 2B. Here, the left-right direction is the X-axis, the front-back direction is the Y-axis, and the up-down direction is the Z-axis. On the X-axis, the left-hand direction is positive and the right-hand direction is negative. On the Y-axis, the opposite direction of travel is positive and the direction of travel is negative. On the Z axis, the upward direction is positive and the downward direction is negative. The sensor device 2 includes an acceleration sensor (not shown), and sequentially records acceleration signal data (sensing data) in the three-axis (X-axis, Y-axis, Z-axis) directions output by the acceleration sensor during running operation. It is possible.

操作部14は、例えば、タッチパネルを備え、ユーザーからのタッチ入力を受け付け、その操作情報をCPU11に出力する。
タッチパネルは、表示部15と一体となって形成され、例えば、静電容量方式、抵抗膜方式、超音波表面弾性波方式等の各種方式により、ユーザーによる表示部15上の接触位置のXY座標を検出する。そして、タッチパネルは、接触位置のXY座標に係る位置信号をCPU11に出力する。
The operation unit 14 is provided with, for example, a touch panel, receives a touch input from a user, and outputs the operation information to the CPU 11.
The touch panel is formed integrally with the display unit 15, and for example, the XY coordinates of the contact position on the display unit 15 by the user can be set by various methods such as a capacitance method, a resistance film method, and an ultrasonic surface acoustic wave method. To detect. Then, the touch panel outputs a position signal related to the XY coordinates of the contact position to the CPU 11.

表示部(表示手段)15は、LCD(Liquid Crystal Display)、EL(Electro Luminescence)ディスプレイ等で構成され、CPU11から指示された表示情報に従い各種表示を行う。 The display unit (display means) 15 is composed of an LCD (Liquid Crystal Display), an EL (Electro Luminescence) display, or the like, and performs various displays according to display information instructed by the CPU 11.

通信部16は、モデム、ルータ、ネットワークカード等により構成される。通信部16は、通信ネットワークを介して接続された外部機器とのデータ送受信を行う。 The communication unit 16 is composed of a modem, a router, a network card, and the like. The communication unit 16 transmits / receives data to / from an external device connected via a communication network.

≪動作解析装置1の動作≫
[測定処理]
次に、図3〜図11を用いて、動作解析装置1により実行される測定処理について説明する。
<< Operation of motion analysis device 1 >>
[Measurement processing]
Next, the measurement process executed by the motion analysis device 1 will be described with reference to FIGS. 3 to 11.

図3は、測定処理の流れを示すフローチャートである。
なお、図5及び図7〜図11は、前後方向、左右方向、及び上下方向の加速度信号の波形の一部分を例示的に抜き出して示すグラフである。以下の説明では、上記測定処理に加速度信号の波形がどう用いられているかを、図5及び図7〜図11を参照して説明する。また、本実施形態では、図5及び図7〜図11に示す部分にのみ上記測定処理が施される場合を例示して説明するが、当該測定処理は、前後方向、左右方向、及び上下方向それぞれの加速度信号の波形の全体を対象として実行される。
FIG. 3 is a flowchart showing the flow of the measurement process.
5 and 7 to 11 are graphs showing a part of the waveforms of the acceleration signals in the front-rear direction, the left-right direction, and the up-down direction by exemplifying them. In the following description, how the waveform of the acceleration signal is used in the measurement process will be described with reference to FIGS. 5 and 7 to 11. Further, in the present embodiment, the case where the above measurement process is applied only to the portions shown in FIGS. 5 and 7 to 11 will be described as an example, but the measurement process is performed in the front-rear direction, the left-right direction, and the up-down direction. It is executed for the entire waveform of each acceleration signal.

図3に示すように、上記測定処理が実行されると、CPU11は、まず、着地タイミング設定処理を行う(ステップS1)。ここで、着地タイミングとは、ランニング動作におけるサイクルの一局面であり、走っているユーザーの足(一方の足)が地面に触れたタイミングを指す。なお、着地タイミング設定処理の詳細については後述する。 As shown in FIG. 3, when the measurement process is executed, the CPU 11 first performs the landing timing setting process (step S1). Here, the landing timing is one aspect of the cycle in the running motion, and refers to the timing when the running user's foot (one foot) touches the ground. The details of the landing timing setting process will be described later.

次いで、CPU11は、最下点タイミングの設定を行う(ステップS2)。具体的には、CPU11は、後述する高さ位置波形Tの極小値Tmin(図5参照)を示すタイミングを最下点タイミングとして設定する。ここで、最下点タイミングとは、ランニング動作におけるサイクルの一局面であり、走っているユーザーの足(一方の足)が地面に触れている間において、腰が最も低い位置を通過したタイミングを指す。 Next, the CPU 11 sets the lowest point timing (step S2). Specifically, the CPU 11 sets the timing indicating the minimum value T min (see FIG. 5) of the height position waveform T, which will be described later, as the lowest point timing. Here, the lowest point timing is one phase of the cycle in the running motion, and is the timing when the running user's foot (one foot) passes the lowest position while touching the ground. Point to.

次いで、CPU11は、離地タイミング設定処理を行う(ステップS3)。ここで、離地タイミングとは、ランニング動作におけるサイクルの一局面であり、走っているユーザーの足(一方の足)が地面から離れたタイミングを指す。なお、離地タイミング設定処理の詳細については後述する。 Next, the CPU 11 performs a takeoff timing setting process (step S3). Here, the takeoff timing is one aspect of the cycle in the running motion, and refers to the timing when the running user's foot (one foot) is off the ground. The details of the takeoff timing setting process will be described later.

次いで、CPU11は、最高点タイミングの設定を行う(ステップS4)。具体的には、CPU11は、後述する高さ位置波形Tの極大値Tmax(図5参照)を示すタイミングを最高点タイミングとして設定する。ここで、最高点タイミングとは、ランニング動作におけるサイクルの一局面であり、走っているユーザーの足(一方の足)が地面から離れた後、腰が最も高い位置を通過したタイミングを指す。 Next, the CPU 11 sets the highest point timing (step S4). Specifically, the CPU 11 sets the timing indicating the maximum value T max (see FIG. 5) of the height position waveform T, which will be described later, as the highest point timing. Here, the highest point timing is one aspect of the cycle in the running motion, and refers to the timing when the running user's foot (one foot) passes the highest position of the waist after being separated from the ground.

次いで、CPU11は、着地タイミング設定処理によって設定された着地タイミングと、離地タイミング設定処理によって設定された離地タイミングと、の差分の時間を接地時間として算出する(ステップS5)。
これにより、ランニング動作におけるサイクルの各局面のデータ(着地タイミング、最下点タイミング、離地タイミング、最高点タイミング、及び接地時間)が算出されて、CPU11は測定処理を終了する。
Next, the CPU 11 calculates the difference time between the landing timing set by the landing timing setting process and the takeoff timing set by the takeoff timing setting process as the ground contact time (step S5).
As a result, the data (landing timing, lowest point timing, takeoff timing, highest point timing, and ground contact time) of each phase of the cycle in the running operation are calculated, and the CPU 11 ends the measurement process.

次に、上記の測定処理における着地タイミング設定処理(ステップS1)の詳細について説明する。
図4は、着地タイミング設定処理の流れを示すフローチャートである。
図5は、前後方向、左右方向、及び上下方向の加速度信号の波形の一部分を例示的に抜き出して示すグラフである。以下の説明では、着地タイミング設定処理に加速度信号の波形がどう用いられているかを、図5を参照して説明する。また、本実施形態では、図5に示す部分にのみ着地タイミング設定処理が施される場合を例示して説明するが、着地タイミング設定処理は、前後方向、左右方向、及び上下方向それぞれの加速度信号の波形の全体を対象として実行される。
Next, the details of the landing timing setting process (step S1) in the above measurement process will be described.
FIG. 4 is a flowchart showing the flow of the landing timing setting process.
FIG. 5 is a graph showing a part of the waveforms of the acceleration signals in the front-rear direction, the left-right direction, and the up-down direction as an example. In the following description, how the waveform of the acceleration signal is used for the landing timing setting process will be described with reference to FIG. Further, in the present embodiment, a case where the landing timing setting process is applied only to the portion shown in FIG. 5 will be described as an example, but the landing timing setting process is performed by accelerating signals in the front-rear direction, the left-right direction, and the up-down direction. It is executed for the entire waveform of.

図4に示すように、着地タイミング設定処理が実行されると、CPU11は、まず、上下方向の加速度信号(第2加速度信号)AccZ1に対して例えば移動平均等の周知の平滑化処理を行う(ステップS11)。
次いで、CPU11は、平滑化後の上下方向の加速度信号AccZ2の波形の極大値Zmaxを求め、この極大値Zmaxを示すタイミングを基準タイミング(第四基準タイミング)として時間軸を分割する(ステップS12)。図5では、極大値Zmaxに基づいて線P1,P2,P3で時間軸を分割している。この線P1と,線P2の間の分割領域、線P2と線P3との間の分割領域を第一分割領域R1と称す。
As shown in FIG. 4, when the landing timing setting process is executed, the CPU 11 first performs a well-known smoothing process such as a moving average on the vertical acceleration signal (second acceleration signal) AccZ1 ( Step S11).
Next, the CPU 11 obtains the maximum value Z max of the waveform of the vertical acceleration signal AccZ2 after smoothing, and divides the time axis with the timing showing the maximum value Z max as the reference timing (fourth reference timing) (step). S12). In FIG. 5, the time axis is divided by lines P1, P2, and P3 based on the maximum value Z max . The division region between the line P1 and the line P2, and the division region between the line P2 and the line P3 are referred to as a first division region R1.

次いで、CPU11は、平滑化前の上下方向の加速度信号AccZ1を第一分割領域R1毎に二度積分することで、センサー装置2の高さ位置を表す高さ位置波形Tを求める(ステップS13)。
次いで、CPU11は、各第一分割領域R1内にある高さ位置波形Tの極大値Tmaxを示すタイミングを基準タイミング(第一基準タイミング)として時間軸を分割する。図5では、極大値Tmaxに基づいて線P4,P5,P6で時間軸を分割している。この線P4,P5,P6を歩の切れ目(例えば奇数歩目と偶数歩目の境界)に設定する(ステップS14)。この線P4,P5,P6で分割された領域を第二分割領域と称す。なお、説明の便宜上、以下においては、連続する二つの第二分割領域のうち、先(時間的に前)の方を「先の第二分割領域R21」とし、後(時間的に後)の方を「後の第二分割領域R22」とする。
Next, the CPU 11 obtains the height position waveform T representing the height position of the sensor device 2 by integrating the vertical acceleration signal AccZ1 before smoothing twice for each first division region R1 (step S13). ..
Next, the CPU 11 divides the time axis with the timing indicating the maximum value T max of the height position waveform T in each first division region R1 as the reference timing (first reference timing). In FIG. 5, the time axis is divided by lines P4, P5, and P6 based on the maximum value T max . The lines P4, P5, and P6 are set at the breaks between steps (for example, the boundary between odd-numbered steps and even-numbered steps) (step S14). The area divided by the lines P4, P5, P6 is referred to as a second divided area. For convenience of explanation, in the following, of the two consecutive second division regions, the earlier one (before in time) is referred to as the "first second division region R21", and the latter (after in time). This is referred to as "later second division region R22".

次いで、CPU11は、各第二分割領域R21,R22のうち前半部分(例えば歩の切れ目(線P4,P5)から、平滑化後の上下方向の加速度信号AccZ2の波形の極大値位置(線P2,P3))内において、前後方向の加速度信号(第1加速度信号)AccYの波形の正の極大値を探索する(ステップS15)。
図5では、先の第二分割領域R21に正の極大値Ymaxが一つあり、後の第二分割領域R22に正の極大値Ymaxが二つある場合を例示している。
Next, the CPU 11 determines the maximum value position (line P2,) of the waveform of the acceleration signal AccZ2 in the vertical direction after smoothing from the first half of each of the second division regions R21 and R22 (for example, the step break (lines P4 and P5)). In P3)), the positive maximum value of the waveform of the acceleration signal (first acceleration signal) AccY in the front-rear direction is searched for (step S15).
FIG. 5 illustrates a case where the first second division region R21 has one positive maximum value Y max and the second second division region R22 has two positive maximum values Y max .

次いで、CPU11は、各第二分割領域R21,R22の前半部分にある正の極大値Ymaxが一つであるか否かを判断し、一つである場合にはその正の極大値Ymaxを特定しステップS18に移行し、二つ以上である場合にはステップS17に移行する(ステップS16)。
ここで、着地時においてはその着地動作による衝撃によって減速するために、前後方向の加速度信号AccYの波形には正の値にピーク(極大値)が生じることになる。この正の極大値Ymaxが、進行方向に対して減速を示す極値である。
しかし、走り方や速度によっては同様のピークが複数生じることもある。換言すると、着地時においては前後方向の加速度信号AccYの波形に少なくとも一つは正の極大値が生じることになる。このため、ステップS16では、正の極大値が一つであるか否かを判断している。なお、本実施形態では、前後方向の加速度信号AccYは、進行方向逆向きを正とし、進行方向を負としているため、前後方向の加速度信号AccYの波形における減速を示す極値が正の極大値Ymaxとなっているが、正負が逆の場合は減速を示す極値が負の極小値となる。
Next, the CPU 11 determines whether or not there is one positive maximum value Y max in the first half of each of the second division regions R21 and R22, and if it is one, the positive maximum value Y max. Is specified and the process proceeds to step S18, and if there are two or more, the process proceeds to step S17 (step S16).
Here, at the time of landing, the waveform of the acceleration signal AccY in the front-rear direction has a peak (maximum value) at a positive value because the vehicle decelerates due to the impact of the landing operation. This positive maximum value Y max is an extreme value indicating deceleration in the traveling direction.
However, multiple similar peaks may occur depending on the running style and speed. In other words, at the time of landing, at least one positive maximum value is generated in the waveform of the acceleration signal AccY in the front-rear direction. Therefore, in step S16, it is determined whether or not there is one positive maximum value. In the present embodiment, since the acceleration signal AccY in the front-rear direction has a positive direction in the opposite direction of travel and a negative direction in the direction of travel, the extreme value indicating deceleration in the waveform of the acceleration signal AccY in the front-rear direction is a positive maximum value. Although it is Y max , when the positive and negative values are opposite, the extreme value indicating deceleration becomes the negative minimum value.

ステップS17では、CPU11は、左右方向の加速度信号AccXの波形に基づいて複数の正の極大値Ymaxから一つ特定する。例えば、走行による着地時においては、片足だけが着地することになるため、上体は左右方向に傾くことになる。このとき、無意識のうちに体勢を整えるために、左右方向に上体が揺れ動くことになる。つまり、左右方向の加速度信号AccXの波形においては、着地時に左右のブレを示す波形が現れることになる。この波形を基にすれば、着地時を特定することが可能である。
具体的には、CPU11は、後の第二分割領域R22の前半部分内において、所定間隔内に左右方向の加速度信号AccXの波形の極値Xm1,Xm2,Xm3が三つ存在し、なおかつ当該三つの極値Xm1,Xm2,Xm3のうち隣接する極値Xm1,Xm2,Xm3の差分が所定値以上であると、左右のブレを示す波形として認定する。そして、CPU11は三つの極値Xm1,Xm2,Xm3のうち最初に発生した極値Xm1に近い正の極大値Ymaxを特定する。
なお、「所定間隔」や、「所定値」については、実験やシミュレーションなどにより得られた値が用いられる。具体的には所定間隔としては40〜100msの範囲に収まる値が好ましく、70msがより好ましい。また、所定値としては5〜15m/sの範囲に収まる値が好ましく、10m/sがより好ましい。
In step S17, the CPU 11 identifies one from a plurality of positive maximum values Y max based on the waveform of the acceleration signal AccX in the left-right direction. For example, when landing by running, only one foot lands, so the upper body tilts to the left and right. At this time, the upper body swings in the left-right direction in order to unknowingly adjust the posture. That is, in the waveform of the acceleration signal AccX in the left-right direction, a waveform showing left-right blurring appears at the time of landing. Based on this waveform, it is possible to specify the time of landing.
Specifically, the CPU 11 has three extreme values X m1 , X m2 , and X m3 of the waveform of the acceleration signal AccX in the left-right direction within a predetermined interval in the first half portion of the second division region R22. Further, if the difference between the adjacent extreme values X m1 , X m2 , and X m3 among the three extreme values X m1 , X m2 , and X m3 is equal to or more than a predetermined value, it is recognized as a waveform showing left and right blurring. Then, the CPU 11 specifies a positive maximum value Y max that is close to the first extreme value X m1 that occurs among the three extreme values X m1 , X m2 , and X m3 .
For the "predetermined interval" and the "predetermined value", the values obtained by experiments and simulations are used. Specifically, the predetermined interval is preferably a value within the range of 40 to 100 ms, more preferably 70 ms. Further, preferably a value within the range of 5 to 15 m / s 2 as the predetermined value, 10 m / s 2 is more preferable.

次いで、CPU11は、特定した正の極大値Ymaxの位置(時間)を着地タイミングとして設定し(ステップS18)、着地タイミング設定処理を終了する。 Next, the CPU 11 sets the position (time) of the specified positive maximum value Y max as the landing timing (step S18), and ends the landing timing setting process.

次に、上記の測定処理における離地タイミング設定処理(ステップS3)の詳細について説明する。
図6は、離地タイミング設定処理の流れを示すフローチャートである。
図7、図9、図10は、前後方向、及び上下方向の加速度信号の波形の一部分を例示的に抜き出して示すグラフである。
図8は、図7に示すグラフのうち、28.9秒から29.1秒の間の一部分を拡大したグラフである。
以下の説明では、離地タイミング設定処理に加速度信号の波形がどう用いられているかを、図7〜図10を参照して説明する。また、本実施形態では、図7〜図10に示す部分にのみ離地タイミング設定処理が施される場合を例示して説明するが、離地タイミング設定処理は、前後方向、及び上下方向それぞれの加速度信号の波形の全体を対象として実行される。
Next, the details of the takeoff timing setting process (step S3) in the above measurement process will be described.
FIG. 6 is a flowchart showing the flow of the takeoff timing setting process.
7, 9 and 10 are graphs showing a part of the waveform of the acceleration signal in the front-rear direction and the up-down direction by exemplifying.
FIG. 8 is an enlarged graph of a part of the graph shown in FIG. 7 between 28.9 seconds and 29.1 seconds.
In the following description, how the waveform of the acceleration signal is used for the takeoff timing setting process will be described with reference to FIGS. 7 to 10. Further, in the present embodiment, a case where the takeoff timing setting process is applied only to the portions shown in FIGS. 7 to 10 will be described as an example, but the takeoff timing setting process is performed in the front-rear direction and the up-down direction, respectively. It is executed for the entire waveform of the acceleration signal.

図6に示すように、離地タイミング設定処理が実行されると、CPU11は、まず、前後方向の加速度信号(第1加速度信号)AccYに対して移動平均を用いた平滑化処理を行う(ステップS21)。
具体的には、CPU11は、前後方向の加速度信号AccYに対して、タップ数が11〜15(ここで、タップ数はサンプリング周波数が200Hzであって、サンプリング周期が5msである場合のサンプル数であって、移動平均を算出する期間が対象とする信号の前後25〜35msの期間(第1期間)である場合に対応する)の三角移動平均(第一の移動平均)を算出し、当該三角移動平均による平滑化処理後の第1信号(以下、FAccY_2と称す)を求めるとともに、タップ数が3〜5(タップ数はサンプリング周波数が200Hzである場合のサンプル数であって、移動平均を算出する期間が対象とする信号の前後5〜10msの期間(第2期間)である場合に対応する)の三角移動平均(第二の移動平均)を算出し、当該三角移動平均による平滑化処理後の第2信号(以下、FAccY_1と称する)を求める。ここで、三角移動平均は対象とする信号のノイズを低減する効果を有するものであり、周知の手法である。この三角移動平均による平滑化処理においては、タップ数(サンプル数)を多くする程、信号が平滑化される効果が大きくなる。
As shown in FIG. 6, when the takeoff timing setting process is executed, the CPU 11 first performs a smoothing process using a moving average for the acceleration signal (first acceleration signal) AccY in the front-rear direction (step). S21).
Specifically, the CPU 11 is the number of samples when the number of taps is 11 to 15 (here, the sampling frequency is 200 Hz and the sampling cycle is 5 ms) with respect to the acceleration signal AccY in the front-rear direction. Therefore, the triangular moving average (first moving average) of the period (corresponding to the case where the period for calculating the moving average is 25 to 35 ms before and after the target signal (first period)) is calculated, and the triangle is concerned. The first signal (hereinafter referred to as FAccY_2) after the smoothing process by the moving average is obtained, and the number of taps is 3 to 5 (the number of taps is the number of samples when the sampling frequency is 200 Hz, and the moving average is calculated. After calculating the triangular moving average (second moving average) of the period (corresponding to the case where the period is 5 to 10 ms before and after the target signal (second period)) and smoothing with the triangular moving average. Second signal (hereinafter referred to as FAccY_1) is obtained. Here, the triangular moving average has the effect of reducing the noise of the target signal, and is a well-known method. In this smoothing process using the triangular moving average, the larger the number of taps (number of samples), the greater the effect of smoothing the signal.

次いで、CPU11は、変数nを、サンプリング周期(例えば、5ms)毎のサンプリングタイミングに、時間の経過に応じて順次付した番号として、第二分割領域(上述の図5における線P4、P5間、又は、線P5、P6間の第二分割領域と同様に設定される領域であり、図7の線L1,L2間の領域)のうちの後半部分において、FAccY_2が負から正、すなわち加速から減速へと変化するタイミング(プラスゼロクロスタイミング;n=ZC)を探索する(ステップS22)。そして、CPU11は、探索して取得した上記タイミング(ZC)を第二基準タイミングとして設定する。図7〜図10では、第二基準タイミングを線LZCで示している。
ここで、プラスゼロクロスタイミング(ZC)を探索するに際して、図8の破線の丸で囲った領域に示すように、離地前にも、AccYの値がノイズや体の動き方によって負から正に急峻に変化するタイミングが発生してしまう場合がある。そして、タップ数が比較的小さいFAccY_1ではこの急峻な変化が残っていて、同様に負から正に急峻に変化する。これに対して、図8に示すように、タップ数が比較的大きいFAccY_2では、AccYやFAccY_1では負から正に急峻に変化する場合であっても、この急峻な変化が緩和されて、負から正に変化するタイミングは現れないようになる。そこで、本実施形態では、タップ数を比較的大きくしたFAccY_2を用いることによって、プラスゼロクロスタイミング(ZC)を適正に探索することができるようにしている。なお、上記のタップ数はサンプリング周波数が200Hzでサンプリング周期が5msの場合であり、タップ数は加速度信号のサンプリング周波数によって変化する。また、サンプリング数、サンプリング期間は上記の値に限定されるものではなく、上記の値の近傍であればよい。
Next, the CPU 11 assigns the variable n to the sampling timing for each sampling cycle (for example, 5 ms) in sequence according to the passage of time, as a second division region (between lines P4 and P5 in FIG. 5 described above). Alternatively, in the latter half of the region (the region between the lines L1 and L2 in FIG. 7) which is set in the same manner as the second division region between the lines P5 and P6, FAccY_2 changes from negative to positive, that is, from acceleration to deceleration. Search for the timing (plus zero cross timing; n = ZC) that changes to (step S22). Then, the CPU 11 sets the above-mentioned timing (ZC) searched and acquired as the second reference timing. In FIGS. 7 to 10, the second reference timing is indicated by the line LZC .
Here, when searching for plus-zero cross timing (ZC), as shown in the area circled by the broken line in FIG. 8, the value of AccY changes from negative to positive depending on noise and body movement even before takeoff. The timing of sudden changes may occur. Then, in FAccY_1 having a relatively small number of taps, this steep change remains, and similarly, the steep change changes from negative to positive. On the other hand, as shown in FIG. 8, in FAccY_2 having a relatively large number of taps, even when AccY or FAccY_1 changes from negative to positively steep, this steep change is alleviated and becomes negative. The timing of the positive change will not appear. Therefore, in the present embodiment, the plus zero cross timing (ZC) can be appropriately searched by using FAccY_2 in which the number of taps is relatively large. The number of taps is when the sampling frequency is 200 Hz and the sampling period is 5 ms, and the number of taps changes depending on the sampling frequency of the acceleration signal. Further, the number of samplings and the sampling period are not limited to the above values, and may be in the vicinity of the above values.

次いで、CPU11は、第二分割領域(図7の線L1,L2で分割された領域)のうちの後半部分において、FAccY_2が極大値となるタイミング(LMX)を探索する(ステップS23)。そして、CPU11は、上記タイミング(LMX)を第三基準タイミングとして設定する。図7〜図10では、第三基準タイミングを線LLMXで示している。 Next, the CPU 11 searches for a timing (LMX) at which FAccY_2 reaches a maximum value in the latter half of the second division area (area divided by lines L1 and L2 in FIG. 7) (step S23). Then, the CPU 11 sets the above timing (LMX) as the third reference timing. In FIGS. 7 to 10, the third reference timing is indicated by the line L LMX .

次いで、CPU11は、第二基準タイミングと第三基準タイミングとの間、すなわち線LZC,LLMXで分割された探索期間において、先ず、第二基準タイミングから1サンプリング周期後のサンプリングタイミング(n=ZC+1、ステップS24)から第三基準タイミング(LMX)の間のサンプリング周期毎のFAccY_1の値の、FAccY_1の1サンプリング周期前の値に対する差分(FAccY_1(n)−FAccY_1(n−1))を算出し、当該差分の値が予め定められた閾値TH未満であるか否かを判定する(ステップS25)。ここで、ステップS25の閾値処理は、例えば、ノイズや体の固有の動き等の影響によって、第二基準タイミングの後、極大値が一気に現れる場合や、途中で変曲点が見られる波形の後に極大値が現れる場合に、離地タイミングを正確に特定できるようにすることを目的としてなされている。また、当該閾値処理では、AccYのデータに含まれているノイズの影響を抑制するため、FAccY_1を用いている。ここで、閾値THは、0m/sに近い値(例えば、0.5m/s)とする。なお、閾値THは、FAccY_1の極大値に応じて段階的に設定しても良い。例えば、FAccY_1の極大値が5m/s未満の場合は0.5m/sとし、当該極大値が5m/s以上の場合は1.0m/sとする。 Next, the CPU 11 first sets the sampling timing (n =) one sampling cycle after the second reference timing in the search period divided between the second reference timing and the third reference timing, that is, the lines L ZC and L LMX. Calculate the difference (FAccY_1 (n) -FAccY_1 (n-1)) between the value of FAccY_1 for each sampling cycle between ZC + 1, step S24) and the third reference timing (LMX) with respect to the value of FAccY_1 one sampling cycle before. Then, it is determined whether or not the value of the difference is less than the predetermined threshold value TH (step S25). Here, in the threshold processing in step S25, for example, when the maximum value appears at once after the second reference timing due to the influence of noise or the peculiar movement of the body, or after the waveform in which the inflection point is seen in the middle. The purpose is to enable accurate identification of takeoff timing when a maximum value appears. Further, in the threshold value processing, FAccY_1 is used in order to suppress the influence of noise contained in the AccY data. Here, the threshold value TH is set to a value close to 0 m / s 2 (for example, 0.5 m / s 2 ). The threshold value TH may be set stepwise according to the maximum value of FAccY_1. For example, if the maximum value of FAccY_1 is less than 5 m / s 2 , it is set to 0.5 m / s 2, and if the maximum value is 5 m / s 2 or more, it is set to 1.0 m / s 2 .

ステップS25において、上記差分が閾値TH未満でないと判定された場合(ステップS25;NO)、CPU11は、上記変数nを1インクリメントし(ステップS26)、このときの変数nが示すサンプリングタイミングが第三基準タイミング(LMX)であるか否かを判定する(ステップS27)。
ステップS27において、このときの変数nが示すサンプリングタイミングが第三基準タイミング(LMX)でないと判定された場合(ステップS27;NO)、ステップS25へ戻り、CPU11は、ステップS25以降の処理を繰り返し行う。
一方、ステップS27において、このときの変数nが示すサンプリングタイミングが第三基準タイミング(LMX)であると判定された場合(ステップS27;YES)、すなわち、第二基準タイミング(ZC)と第三基準タイミング(LMX)との間において、上記差分が閾値TH未満であるという条件が満たされなかった場合、CPU11は、図9に示すように、当該第三基準タイミング(LMX)を離地タイミングとして設定し(ステップS28)、離地タイミング設定処理を終了する。
When it is determined in step S25 that the difference is not less than the threshold value TH (step S25; NO), the CPU 11 increments the variable n by 1 (step S26), and the sampling timing indicated by the variable n at this time is the third. It is determined whether or not the timing is the reference timing (LMX) (step S27).
In step S27, if it is determined that the sampling timing indicated by the variable n at this time is not the third reference timing (LMX) (step S27; NO), the process returns to step S25, and the CPU 11 repeats the processes after step S25. ..
On the other hand, in step S27, when it is determined that the sampling timing indicated by the variable n at this time is the third reference timing (LMX) (step S27; YES), that is, the second reference timing (ZC) and the third reference. When the condition that the difference is less than the threshold value TH is not satisfied with the timing (LMX), the CPU 11 sets the third reference timing (LMX) as the takeoff timing as shown in FIG. (Step S28), the takeoff timing setting process is completed.

また、ステップS25において、上記差分が閾値TH未満であると判定された場合(ステップS25;YES)、CPU11は、このときの変数nが示すサンプリングタイミングにおける上下方向の加速度信号AccZの値が所定値C1未満であり、且つ、FAccY_1の値が特定値C2以上であるか否かを判定する(ステップS29)。
ステップS29の判定処理でAccZの値が所定値C1未満であるか否かを判定しているのは、足が地面に設置している間は、AccZの値が正側すなわち上向きになっており、AccZの値が所定値C1以上である場合(例えば、図9の破線の丸で囲った領域参照)は、足はまだ地面に接していると想定されるためである。ここで、所定値C1は、重力加速度9.80665m/sよりも若干大きい値(例えば、12m/s)とする。
また、ステップS29の判定処理でFAccY_1の値が特定値C2以上であるか否かを判定しているのは、FAccY_1の極大値に対して、FAccY_1の値が非常に小さい場合(図10の破線の丸で囲った領域参照)は、そのタイミングにおいてAccYの上昇率が0になっていたとしても、まだ足が地面から離れていないと想定されるためであり、離地タイミングでは、比較的大きな速度の変化(減少)が生じると想定されるためである。ここで、特定値C2は、第二基準タイミング(ZC)から第二分割領域の後端(例えば、図7の線L2参照)までの範囲におけるFAccY_1の値の最大値に所定の係数(例えば、40〜60%)を掛けた値とする。
Further, when it is determined in step S25 that the difference is less than the threshold value TH (step S25; YES), the CPU 11 determines that the value of the acceleration signal AccZ in the vertical direction at the sampling timing indicated by the variable n at this time is a predetermined value. It is determined whether or not the value is less than C1 and the value of FAccY_1 is equal to or more than the specific value C2 (step S29).
In the determination process of step S29, whether or not the AccZ value is less than the predetermined value C1 is determined because the AccZ value is on the positive side, that is, upward while the foot is placed on the ground. , AccZ is greater than or equal to the predetermined value C1 (see, for example, the area circled by the broken line in FIG. 9), because it is assumed that the foot is still in contact with the ground. The predetermined value C1 is slightly larger than the gravitational acceleration 9.80665 m / s 2 (e.g., 12m / s 2) to.
Further, in the determination process of step S29, whether or not the value of FAccY_1 is equal to or higher than the specific value C2 is determined when the value of FAccY_1 is very small with respect to the maximum value of FAccY_1 (broken line in FIG. 10). (Refer to the area circled in) is because even if the rate of increase of AccY is 0 at that timing, it is assumed that the foot is not yet off the ground, and it is relatively large at the takeoff timing. This is because it is assumed that a change (decrease) in speed will occur. Here, the specific value C2 is a predetermined coefficient (for example, for example) with respect to the maximum value of the value of FAccY_1 in the range from the second reference timing (ZC) to the rear end of the second division region (see, for example, line L2 in FIG. 7). It is a value multiplied by 40 to 60%).

ステップS29において、上記判定条件を満たしていないと判定された場合(ステップS29;NO)、ステップS26へ移行し、CPU11は、それ以降の処理を行う。
一方、ステップS29において、上記判定条件を満たしていると判定された場合(ステップS29;YES)、CPU11は、このときの変数nが示すサンプリングタイミング(図8及び図10参照)を離地タイミングとして設定し(ステップS30)、離地タイミング設定処理を終了する。
If it is determined in step S29 that the above determination conditions are not satisfied (step S29; NO), the process proceeds to step S26, and the CPU 11 performs subsequent processing.
On the other hand, when it is determined in step S29 that the above determination condition is satisfied (step S29; YES), the CPU 11 uses the sampling timing (see FIGS. 8 and 10) indicated by the variable n at this time as the takeoff timing. The setting (step S30) is performed, and the takeoff timing setting process is completed.

上述したように、CPU11は、着地タイミング設定処理(ステップS1)、最下点タイミングの設定処理(ステップS2)、離地タイミング設定処理(ステップS3)及び最高点タイミングの設定処理(ステップS4)を実行することにより、例えば、図11に示すように、一方の足が地面に触れた接地時(着地タイミング)、この足の接地中に腰が最も低い位置を通過した最下点時(最下点タイミング)、この足が地面から離れた離地時(離地タイミング)、及び、この足が地面から離れた後、腰が最も高い位置を通過した最高点時(最高点タイミング)、並びに、逆の足が地面に触れた逆足接地時(着地タイミング)、この足の接地中に腰が最も低い位置を通過した逆足最下点時(最下点タイミング)、この足が地面から離れた逆足離地時(離地タイミング)、及び、この足が地面から離れた後、腰が最も高い位置を通過した逆足最高点時(最高点タイミング)を検出(抽出)することができる。 As described above, the CPU 11 performs the landing timing setting process (step S1), the lowest point timing setting process (step S2), the takeoff timing setting process (step S3), and the highest point timing setting process (step S4). By executing, for example, as shown in FIG. 11, when one foot touches the ground and touches the ground (landing timing), and when the foot passes the lowest position while touching the ground (bottom). Point timing), when the foot takes off from the ground (takeoff timing), and when the foot passes the highest position after leaving the ground (highest point timing), and When the reverse foot touches the ground (landing timing), and when the reverse foot passes the lowest position while the foot touches the ground (lowest point timing), the foot separates from the ground. It is possible to detect (extract) the time of reverse foot takeoff (takeoff timing) and the time of the highest point of reverse foot (highest point timing) when the foot passes the highest position after leaving the ground. ..

[動作解析処理]
次に、図12を用いて、動作解析装置1により実行される動作解析処理について説明する。図12は、動作解析処理の流れを示すフローチャートである。
[Motion analysis processing]
Next, the motion analysis process executed by the motion analysis device 1 will be described with reference to FIG. FIG. 12 is a flowchart showing the flow of the motion analysis process.

図12に示すように、まず、CPU11は、操作部14を介して、ユーザー所望の映像データの指定がなされたか否かを判定する(ステップS31)。 As shown in FIG. 12, first, the CPU 11 determines whether or not the video data desired by the user has been specified via the operation unit 14 (step S31).

ステップS31において、ユーザー所望の映像データの指定がなされていないと判定された場合(ステップS31;NO)、CPU11は、ユーザー所望の映像データの指定がなされるまでの間、ステップS31の判定処理を繰り返し行う。
一方、ステップS31において、ユーザー所望の映像データの指定がなされたと判定された場合(ステップS31;YES)、CPU11は、指定された映像データを記憶部13の映像記憶部(図示省略)から取得する(ステップS32)。
If it is determined in step S31 that the video data desired by the user has not been specified (step S31; NO), the CPU 11 performs the determination process in step S31 until the video data desired by the user is specified. Repeat.
On the other hand, when it is determined in step S31 that the user-desired video data has been designated (step S31; YES), the CPU 11 acquires the designated video data from the video storage unit (not shown) of the storage unit 13. (Step S32).

次いで、CPU11は、手本映像データを記憶部13の手本映像記憶部(図示省略)から取得する(ステップS33)。 Next, the CPU 11 acquires the model video data from the model video storage unit (not shown) of the storage unit 13 (step S33).

次いで、CPU11は、ステップS32で取得した映像データに基づいて映像の被写体のサイズを補正することにより、当該映像の被写体のサイズと、ステップS33で取得した手本映像データの手本映像の被写体のサイズとを合わせる映像サイズ補正処理を行う(ステップS34)。なお、映像サイズ補正処理では、例えば、ステップS33で取得した手本映像データに基づいて手本映像の被写体のサイズを補正することにより、上記映像の被写体のサイズと、当該手本映像の被写体のサイズとを合わせるようにしてもよい。また、上記映像と上記手本映像のそれぞれの被写体のサイズを互いに補正することにより、当該映像の被写体のサイズと当該手本映像の被写体のサイズとを合わせるようにしてもよい。 Next, the CPU 11 corrects the size of the subject of the image based on the image data acquired in step S32 to obtain the size of the subject of the image and the subject of the model image of the model image data acquired in step S33. Performs video size correction processing to match the size (step S34). In the image size correction process, for example, by correcting the size of the subject of the model image based on the model image data acquired in step S33, the size of the subject of the above image and the subject of the model image are corrected. You may try to match the size. Further, the size of the subject of the image and the size of the subject of the model image may be matched by correcting each other's size of the subject of the image and the model image.

次いで、CPU11は、操作部14を介して、特定の動作タイミングの指定がなされたか否かを判定する(ステップS35)。ここで、特定の動作タイミングとは、ランニングを行っている際に周期的に出現するタイミング(局面)であり、具体的には、上述の測定処理によって検出された左足が地面に触れた接地時(着地タイミング)、この足の接地中に腰が最も低い位置を通過した最下点時(最下点タイミング)、この足が地面から離れた離地時(離地タイミング)、及び、この足が地面から離れた後、腰が最も高い位置を通過した最高点時(最高点タイミング)、並びに、右足が地面に触れた逆足接地時(着地タイミング)、この足の接地中に腰が最も低い位置を通過した逆足最下点時(最下点タイミング)、この足が地面から離れた逆足離地時(離地タイミング)、及び、この足が地面から離れた後、腰が最も高い位置を通過した逆足最高点時(最高点タイミング)である。 Next, the CPU 11 determines whether or not a specific operation timing has been specified via the operation unit 14 (step S35). Here, the specific operation timing is a timing (phase) that appears periodically during running, and specifically, when the left foot touches the ground, which is detected by the above-mentioned measurement process. (Landing timing), at the lowest point when the foot passes the lowest position while touching the ground (lowest point timing), when the foot is off the ground (takeoff timing), and this foot When the highest point (highest point timing) when the foot passes the highest position after leaving the ground, and when the right foot touches the ground with the reverse foot (landing timing), the waist is the highest while the foot touches the ground. At the lowest point of the reverse foot that passed the low position (lowest point timing), at the time of the reverse foot taking off from the ground (takeoff timing), and after this foot is off the ground, the waist is the highest. It is the time of the highest point of the reverse foot (highest point timing) that has passed the high position.

ステップS35において、特定の動作タイミングの指定がなされていないと判定された場合(ステップS35;NO)、CPU11は、特定の動作タイミングの指定がなされるまでの間、ステップS35の判定処理を繰り返し行う。
一方、ステップS35において、特定の動作タイミングの指定がなされたと判定された場合(ステップS35;YES)、CPU11は、指定された特定の動作タイミングの画像(フレーム画像)を、ステップS32で取得した映像データの映像から抽出する(ステップS36)。例えば、特定の動作タイミングとして、左足による着地タイミングが指定された場合、CPU11は、ステップS32で取得した映像データと対応付けられて記憶されている加速度信号データから当該左足による着地タイミングとして検出されたタイミングを特定し、このタイミングに撮影された画像(フレーム画像)を当該映像データの映像から抽出する。
If it is determined in step S35 that the specific operation timing has not been specified (step S35; NO), the CPU 11 repeats the determination process in step S35 until the specific operation timing is specified. ..
On the other hand, when it is determined in step S35 that a specific operation timing has been specified (step S35; YES), the CPU 11 acquires an image (frame image) of the specified specific operation timing in step S32. Extract from the video of the data (step S36). For example, when the landing timing by the left foot is specified as the specific operation timing, the CPU 11 detects the landing timing by the left foot from the acceleration signal data stored in association with the video data acquired in step S32. The timing is specified, and the image (frame image) taken at this timing is extracted from the video of the video data.

次いで、CPU11は、指定された特定の動作タイミングの画像(フレーム画像)を、ステップS33で取得した手本映像データの手本映像から抽出する(ステップS37)。例えば、特定の動作タイミングとして、左足による着地タイミングが指定された場合、CPU11は、ステップS33で取得した手本映像データと対応付けられて記憶されている加速度信号データから当該左足による着地タイミングとして検出されたタイミングを特定し、このタイミングに撮影された画像(フレーム画像)を当該手本映像データの手本映像から抽出する。 Next, the CPU 11 extracts an image (frame image) of the specified specific operation timing from the model video of the model video data acquired in step S33 (step S37). For example, when the landing timing by the left foot is specified as the specific operation timing, the CPU 11 detects it as the landing timing by the left foot from the acceleration signal data stored in association with the model video data acquired in step S33. The timing is specified, and the image (frame image) taken at this timing is extracted from the model video of the model video data.

次いで、CPU11は、ステップS36(又はステップS41)で抽出された特定の動作タイミングの画像G1(図13参照)と、ステップS37で抽出された特定の動作タイミングの画像G2(図13参照)と、に基づいて動作解析を行う(ステップS38)。具体的には、CPU11は、各画像G1,G2からそれぞれの被写体の関節点を抽出し、抽出された各関節点の位置から各被写体の姿勢を推定する。そして、CPU11は、画像G2の被写体の姿勢に対する画像G1の被写体の姿勢の相違点を導出する。 Next, the CPU 11 includes an image G1 of a specific operation timing (see FIG. 13) extracted in step S36 (or step S41), an image G2 of a specific operation timing extracted in step S37 (see FIG. 13), and The motion analysis is performed based on (step S38). Specifically, the CPU 11 extracts the joint points of the respective subjects from the images G1 and G2, and estimates the posture of each subject from the positions of the extracted joint points. Then, the CPU 11 derives the difference in the posture of the subject of the image G1 with respect to the posture of the subject of the image G2.

次いで、CPU11は、ステップS38での動作解析の結果として、ランニングフォーム比較画面20を表示部15に表示する(ステップS39)。 Next, the CPU 11 displays the running form comparison screen 20 on the display unit 15 as a result of the operation analysis in step S38 (step S39).

図13は、ランニングフォーム比較画面20の一例を示す図である。
図13に示すように、ランニングフォーム比較画面20では、ステップS36(又はステップS41)で抽出された特定の動作タイミング(左足による着地タイミング)の画像G1と、ステップS37で抽出された特定の動作タイミング(左足による着地タイミング)の画像G2とが左右に並べられた状態で表示される。また、各画像G1,G2の下方のコメント欄Cには、ステップS38での動作解析の結果である画像G2の被写体の姿勢に対する画像G1の被写体の姿勢の相違点に対応するコメント(例えば、「着地タイミングの重心が後ろ重心になっています。左足の真上に重心がくるように心がけましょう。」)が表示されるようになっている。
FIG. 13 is a diagram showing an example of the running form comparison screen 20.
As shown in FIG. 13, on the running form comparison screen 20, the image G1 of the specific operation timing (landing timing by the left foot) extracted in step S36 (or step S41) and the specific operation timing extracted in step S37. The image G2 (landing timing by the left foot) is displayed side by side. Further, in the comment column C below each of the images G1 and G2, a comment corresponding to the difference in the posture of the subject of the image G1 with respect to the posture of the subject of the image G2, which is the result of the motion analysis in step S38 (for example, " The center of gravity of the landing timing is the back center of gravity. Try to keep the center of gravity directly above your left foot. ") Is displayed.

次いで、CPU11は、操作部14を介して、動作解析処理を継続する指示がなされたか否かを判定する(ステップS40)。 Next, the CPU 11 determines whether or not an instruction to continue the motion analysis process has been given via the operation unit 14 (step S40).

ステップS40において、動作解析処理を継続する指示がなされたと判定された場合(ステップS40;YES)、CPU11は、指定された特定の動作タイミングの他の画像(フレーム画像)を、ステップS32で取得した映像データの映像から抽出する(ステップS41)。そして、CPU11は、処理をステップS38へ戻し、それ以降の処理を繰り返し行う。
一方、ステップS40において、動作解析処理を継続する指示がなされていないと判定された場合(ステップS40;NO)、CPU11は、操作部14を介して、動作解析処理を終了する指示がなされたか否かを判定する(ステップS42)。
When it is determined in step S40 that the instruction to continue the motion analysis process has been given (step S40; YES), the CPU 11 has acquired another image (frame image) of the specified specific motion timing in step S32. Extracting from the video of the video data (step S41). Then, the CPU 11 returns the process to step S38, and repeats the subsequent processes.
On the other hand, if it is determined in step S40 that the instruction to continue the motion analysis process has not been given (step S40; NO), whether or not the CPU 11 has been instructed to end the motion analysis process via the operation unit 14. (Step S42).

ステップS42において、動作解析処理を終了する指示がなされていないと判定された場合(ステップS42;NO)、CPU11は、処理をステップS40へ戻し、それ以降の処理を繰り返し行う。
一方、ステップS42において、動作解析処理を終了する指示がなされたと判定された場合(ステップS42;YES)、CPU11は、ランニングフォーム比較画面20に表示された各画像G1,G2とコメントを記憶部13に保存し(ステップS43)、動作解析処理を終了する。
If it is determined in step S42 that the instruction to end the motion analysis process has not been made (step S42; NO), the CPU 11 returns the process to step S40 and repeats the subsequent processes.
On the other hand, when it is determined in step S42 that the instruction to end the motion analysis process has been given (step S42; YES), the CPU 11 stores the images G1 and G2 and the comments displayed on the running form comparison screen 20 in the storage unit 13. (Step S43), and the operation analysis process is completed.

以上のように、動作解析装置1によれば、ランニングを行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングの画像(フレーム画像)G1を抽出し、当該特定の動作タイミングの画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングの画像(フレーム画像)G2を抽出し、それぞれの画像G1,G2を互いに比較可能な態様で表示部15に表示させるので、特定の動作タイミングにおける画像G1,G2の比較を簡便に行うことができる。 As described above, according to the motion analysis device 1, an image (frame image) G1 of a specific motion timing that appears periodically is extracted from a continuously captured image of a running user, and the specific motion analysis device 1 is used. When an image of the operation timing is extracted, an image (frame image) G2 of the specific operation timing is extracted from a predetermined model image continuously shot, and the respective images G1 and G2 can be compared with each other. Since the image is displayed on the display unit 15, the images G1 and G2 can be easily compared at a specific operation timing.

また、動作解析装置1によれば、映像の撮影時にユーザーに装着されたセンサー装置2から取得され、当該映像と同期が取れている加速度信号データがある場合、当該加速度信号データから周期的に出現する特定の動作タイミングを抽出し、当該特定の動作タイミングに撮影された画像G1を映像から抽出するので、特定の動作タイミングにおける画像G1を的確に抽出することができる。 Further, according to the motion analysis device 1, if there is acceleration signal data acquired from the sensor device 2 worn by the user at the time of shooting the image and synchronized with the image, it appears periodically from the acceleration signal data. Since the image G1 captured at the specific operation timing is extracted from the video, the image G1 at the specific operation timing can be accurately extracted.

また、動作解析装置1によれば、ランニングフォーム比較画面20に表示される各画像G1,G2を比較し、比較の結果を当該ランニングフォーム比較画面20においてコメントとして表示(報知)するので、動作解析の対象ランナーと手本となるランナーとの違いを分かりやすくことができる。 Further, according to the motion analysis device 1, the images G1 and G2 displayed on the running form comparison screen 20 are compared, and the comparison result is displayed (notified) as a comment on the running form comparison screen 20, so that the motion analysis It is possible to easily understand the difference between the target runner and the model runner.

また、動作解析装置1によれば、映像の被写体のサイズを補正することにより、当該映像の被写体のサイズと手本映像の被写体のサイズとを合わせ、映像の被写体のサイズと手本映像の被写体のサイズとが合わせられた後の当該映像から特定の動作タイミングの画像G1を抽出するので、ランニングフォーム比較画面20において各画像G1,G2を比べやすくすることができる。 Further, according to the motion analysis device 1, by correcting the size of the subject of the image, the size of the subject of the image and the size of the subject of the model image are matched, and the size of the subject of the image and the subject of the model image are matched. Since the image G1 at a specific operation timing is extracted from the video after the size is adjusted to the above, it is possible to easily compare the images G1 and G2 on the running form comparison screen 20.

以上、本発明を実施形態に基づいて具体的に説明してきたが、本発明は上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で変更可能である。
例えば、上記実施形態において、周期的な動作の繰り返しから成る運動としてランニングを一例に挙げて説明を行ったが、当該運動はランニングに限定されるものではなく、ウォーキング、水泳、スキー、スケート、自転車などの運動を対象としてもよい。
Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above embodiments and can be modified without departing from the gist thereof.
For example, in the above embodiment, running has been described as an example of an exercise consisting of repeated periodic movements, but the exercise is not limited to running, and the exercise is not limited to running, but walking, swimming, skiing, skating, and biking. It may be targeted for exercise such as.

また、上記実施形態において、動作解析装置1により特定の動作タイミングの画像G1,G2を抽出するようにしたが、例えば、動作解析処理のステップS36において画像G1を抽出する際に、この画像G1の前後に撮影された所定数の画像を抽出し、また、ステップS37において画像G2を抽出する際に、この画像G2の前後に撮影された所定数の画像を抽出し、ランニングフォーム比較画面20において、これらの画像を互いに比較可能な態様で表示させるようにしてもよい。 Further, in the above embodiment, the motion analysis device 1 extracts the images G1 and G2 of a specific motion timing. For example, when the image G1 is extracted in step S36 of the motion analysis process, the image G1 is extracted. A predetermined number of images taken before and after are extracted, and when the image G2 is extracted in step S37, a predetermined number of images taken before and after the image G2 are extracted, and the running form comparison screen 20 displays. These images may be displayed in a manner comparable to each other.

また、上記実施形態において、例えば、記憶部13の映像記憶部に記憶されている映像データに対応付けられている加速度信号データと、手本映像記憶部に記憶されている手本映像データに対応付けられている加速度信号データと、を特定の動作タイミングにおけるデータ同士で比較した際、各データに顕著な違いが現れている場合、この動作タイミングにおける画像を映像データの映像と手本映像データの手本映像とからそれぞれ抽出し、抽出された各画像を比較可能な態様で表示部15に表示させるようにしてもよい。 Further, in the above embodiment, for example, it corresponds to the acceleration signal data associated with the video data stored in the video storage unit of the storage unit 13 and the model video data stored in the model video storage unit. When comparing the attached acceleration signal data with the data at a specific operation timing, if there is a significant difference in each data, the image at this operation timing is the image of the video data and the model video data. Each of the extracted images may be extracted from the model image and displayed on the display unit 15 in a comparable manner.

また、上記実施形態において、動作解析装置1によって動作解析を行う映像データに加速度信号データが対応付けられていない場合、当該映像データの映像の各画像(フレーム画像)に対して被写体の姿勢の推定処理を行うことによって、特定の動作タイミングにお ける画像を抽出するようにしてもよい。 Further, in the above embodiment, when the acceleration signal data is not associated with the video data for which the motion analysis is performed by the motion analysis device 1, the posture of the subject is estimated for each image (frame image) of the video of the video data. By performing the processing, the image at a specific operation timing may be extracted.

また、上記実施形態において、動作解析装置1は、ランニングフォーム比較画面20を表示部15に表示するようにしたが、例えば、外部の機器の表示部(図示省略)にランニングフォーム比較画面20を表示させるようにしてもよい。 Further, in the above embodiment, the motion analysis device 1 displays the running form comparison screen 20 on the display unit 15. For example, the running form comparison screen 20 is displayed on the display unit (not shown) of an external device. You may let it.

以上の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体として記憶部13にフラッシュメモリ、EEPROM、HDDを使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も本発明に適用される。 In the above description, an example in which a flash memory, EEPROM, and HDD are used in the storage unit 13 as a computer-readable medium for the program according to the present invention has been disclosed, but the present invention is not limited to this example. A portable recording medium can be applied as another computer-readable medium. A carrier wave is also applied to the present invention as a medium for providing data of a program according to the present invention via a communication line.

本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
〔付記〕
<請求項1>
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出手段と、
前記第1の抽出手段によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出手段と、
前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御手段と、
を備えることを特徴とする動作解析装置。
<請求項2>
前記第1の抽出手段は、前記映像の撮影時に前記ユーザーに装着されたモーションセンサから取得され、当該映像と同期が取れているセンシングデータがある場合、当該センシングデータから周期的に出現する前記特定の動作タイミングを抽出し、当該特定の動作タイミングに撮影されたフレーム画像を前記映像から抽出する、
ことを特徴とする請求項1に記載の動作解析装置。
<請求項3>
前記第1の抽出手段及び前記第2の抽出手段のそれぞれは、前記特定の動作タイミングのフレーム画像に加え当該フレーム画像の前後に撮影された所定数のフレーム画像を抽出し、
前記表示制御手段は、前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれの各フレーム画像を互いに比較可能な態様で表示手段に表示させる、
ことを特徴とする請求項1又は2に記載の動作解析装置。
<請求項4>
前記表示手段に表示される前記映像のフレーム画像と前記手本映像のフレーム画像とを比較する比較手段と、
前記比較手段による比較の結果を報知する報知手段と、
を備えることを特徴とする請求項1〜3のいずれか一項に記載の動作解析装置。
<請求項5>
前記映像の被写体と前記手本映像の被写体とのうちの少なくともいずれか一方のサイズを補正することにより、当該映像の被写体のサイズと当該手本映像の被写体のサイズとを合わせる補正手段を備え、
前記第1の抽出手段は、前記補正手段によって前記映像の被写体のサイズと前記手本映像の被写体のサイズとが合わせられた後の当該映像から前記特定の動作タイミングのフレーム画像を抽出する、
ことを特徴とする請求項1〜4のいずれか一項に記載の動作解析装置。
<請求項6>
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出工程と、
前記第1の抽出工程によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出工程と、
前記第1の抽出工程と前記第2の抽出工程とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御工程と、
を含むことを特徴とする動作解析方法。
<請求項7>
コンピュータを、
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出手段、
前記第1の抽出手段によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出手段、
前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御手段、
として機能させることを特徴とするプログラム。
Although the embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and the equivalent scope thereof.
The inventions described in the claims originally attached to the application of this application are added below. The claim numbers mentioned in the appendix are the scope of the claims originally attached to the application for this application.
[Additional Notes]
<Claim 1>
A first extraction means for extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user performing an exercise consisting of repeated periodic operations, and a first extraction means.
When the frame image of the specific operation timing is extracted by the first extraction means, the second extraction means for extracting the frame image of the specific operation timing from the predetermined model video continuously shot. ,
A display control means for causing the display means to display the frame images extracted by the first extraction means and the second extraction means in a manner comparable to each other.
A motion analysis device characterized by being equipped with.
<Claim 2>
The first extraction means is acquired from a motion sensor attached to the user at the time of shooting the image, and when there is sensing data synchronized with the image, the specificity that periodically appears from the sensing data. The operation timing of the above is extracted, and the frame image taken at the specific operation timing is extracted from the video.
The motion analysis apparatus according to claim 1.
<Claim 3>
Each of the first extraction means and the second extraction means extracts a predetermined number of frame images taken before and after the frame image in addition to the frame image of the specific operation timing.
The display control means causes the display means to display each frame image extracted by the first extraction means and the second extraction means in a manner comparable to each other.
The motion analysis apparatus according to claim 1 or 2.
<Claim 4>
A comparison means for comparing the frame image of the video displayed on the display means with the frame image of the model video, and
A notification means for notifying the result of comparison by the comparison means, and
The motion analysis apparatus according to any one of claims 1 to 3, further comprising.
<Claim 5>
A correction means for matching the size of the subject of the image with the size of the subject of the model image by correcting the size of at least one of the subject of the image and the subject of the model image is provided.
The first extraction means extracts a frame image of the specific operation timing from the image after the size of the subject of the image and the size of the subject of the model image are matched by the correction means.
The motion analysis device according to any one of claims 1 to 4, wherein the motion analysis device is characterized by the above.
<Claim 6>
The first extraction step of extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user who is performing an exercise consisting of repeating periodic operations, and
When the frame image of the specific operation timing is extracted by the first extraction step, the second extraction step of extracting the frame image of the specific operation timing from the predetermined model video continuously shot. ,
A display control step of displaying the frame images extracted by the first extraction step and the second extraction step on the display means in a manner in which they can be compared with each other.
A motion analysis method characterized by including.
<Claim 7>
Computer,
A first extraction means for extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user who is performing an exercise consisting of repeating periodic operations.
When the frame image of the specific operation timing is extracted by the first extraction means, the second extraction means for extracting the frame image of the specific operation timing from a predetermined model image continuously captured.
A display control means for causing a display means to display each frame image extracted by the first extraction means and the second extraction means in a manner comparable to each other.
A program characterized by functioning as.

1 動作解析装置
11 CPU(第1の抽出手段、第2の抽出手段、表示制御手段、比較手段、報知手段、補正手段)
15 表示部(表示手段)
1 Motion analysis device 11 CPU (first extraction means, second extraction means, display control means, comparison means, notification means, correction means)
15 Display unit (display means)

Claims (7)

周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出手段と、
前記第1の抽出手段によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出手段と、
前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御手段と、
を備えることを特徴とする動作解析装置。
A first extraction means for extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user performing an exercise consisting of repeated periodic operations, and a first extraction means.
When the frame image of the specific operation timing is extracted by the first extraction means, the second extraction means for extracting the frame image of the specific operation timing from the predetermined model video continuously shot. ,
A display control means for causing the display means to display the frame images extracted by the first extraction means and the second extraction means in a manner comparable to each other.
A motion analysis device characterized by being equipped with.
前記第1の抽出手段は、前記映像の撮影時に前記ユーザーに装着されたモーションセンサから取得され、当該映像と同期が取れているセンシングデータがある場合、当該センシングデータから周期的に出現する前記特定の動作タイミングを抽出し、当該特定の動作タイミングに撮影されたフレーム画像を前記映像から抽出する、
ことを特徴とする請求項1に記載の動作解析装置。
The first extraction means is acquired from a motion sensor attached to the user at the time of shooting the image, and when there is sensing data synchronized with the image, the specificity that periodically appears from the sensing data. The operation timing of the above is extracted, and the frame image taken at the specific operation timing is extracted from the video.
The motion analysis apparatus according to claim 1.
前記第1の抽出手段及び前記第2の抽出手段のそれぞれは、前記特定の動作タイミングのフレーム画像に加え当該フレーム画像の前後に撮影された所定数のフレーム画像を抽出し、
前記表示制御手段は、前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれの各フレーム画像を互いに比較可能な態様で表示手段に表示させる、
ことを特徴とする請求項1又は2に記載の動作解析装置。
Each of the first extraction means and the second extraction means extracts a predetermined number of frame images taken before and after the frame image in addition to the frame image of the specific operation timing.
The display control means causes the display means to display each frame image extracted by the first extraction means and the second extraction means in a manner comparable to each other.
The motion analysis apparatus according to claim 1 or 2.
前記表示手段に表示される前記映像のフレーム画像と前記手本映像のフレーム画像とを比較する比較手段と、
前記比較手段による比較の結果を報知する報知手段と、
を備えることを特徴とする請求項1〜3のいずれか一項に記載の動作解析装置。
A comparison means for comparing the frame image of the video displayed on the display means with the frame image of the model video, and
A notification means for notifying the result of comparison by the comparison means, and
The motion analysis apparatus according to any one of claims 1 to 3, further comprising.
前記映像の被写体と前記手本映像の被写体とのうちの少なくともいずれか一方のサイズを補正することにより、当該映像の被写体のサイズと当該手本映像の被写体のサイズとを合わせる補正手段を備え、
前記第1の抽出手段は、前記補正手段によって前記映像の被写体のサイズと前記手本映像の被写体のサイズとが合わせられた後の当該映像から前記特定の動作タイミングのフレーム画像を抽出する、
ことを特徴とする請求項1〜4のいずれか一項に記載の動作解析装置。
A correction means for matching the size of the subject of the image with the size of the subject of the model image by correcting the size of at least one of the subject of the image and the subject of the model image is provided.
The first extraction means extracts a frame image of the specific operation timing from the image after the size of the subject of the image and the size of the subject of the model image are matched by the correction means.
The motion analysis device according to any one of claims 1 to 4, wherein the motion analysis device is characterized by the above.
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出工程と、
前記第1の抽出工程によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出工程と、
前記第1の抽出工程と前記第2の抽出工程とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御工程と、
を含むことを特徴とする動作解析方法。
The first extraction step of extracting a frame image of a specific operation timing that appears periodically from a continuously captured image of a user who is performing an exercise consisting of repeating periodic operations, and
When the frame image of the specific operation timing is extracted by the first extraction step, the second extraction step of extracting the frame image of the specific operation timing from the predetermined model video continuously shot. ,
A display control step of displaying the frame images extracted by the first extraction step and the second extraction step on the display means in a manner in which they can be compared with each other.
A motion analysis method characterized by including.
コンピュータを、
周期的な動作の繰り返しから成る運動を行っているユーザーを連続的に撮影した映像から周期的に出現する特定の動作タイミングのフレーム画像を抽出する第1の抽出手段、
前記第1の抽出手段によって前記特定の動作タイミングのフレーム画像が抽出された場合に、連続的に撮影した所定の手本映像から当該特定の動作タイミングのフレーム画像を抽出する第2の抽出手段、
前記第1の抽出手段と前記第2の抽出手段とによって抽出されたそれぞれのフレーム画像を互いに比較可能な態様で表示手段に表示させる表示制御手段、
として機能させることを特徴とするプログラム。
Computer,
A first extraction means, which extracts a frame image of a specific operation timing that appears periodically from a continuously captured image of a user who is performing an exercise consisting of repeating periodic operations.
When the frame image of the specific operation timing is extracted by the first extraction means, the second extraction means for extracting the frame image of the specific operation timing from a predetermined model image continuously captured.
A display control means for causing a display means to display each frame image extracted by the first extraction means and the second extraction means in a manner comparable to each other.
A program characterized by functioning as.
JP2019081528A 2019-04-23 2019-04-23 Motion analysis device, motion analysis method and program Active JP7275807B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019081528A JP7275807B2 (en) 2019-04-23 2019-04-23 Motion analysis device, motion analysis method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019081528A JP7275807B2 (en) 2019-04-23 2019-04-23 Motion analysis device, motion analysis method and program

Publications (3)

Publication Number Publication Date
JP2020175047A true JP2020175047A (en) 2020-10-29
JP2020175047A5 JP2020175047A5 (en) 2022-04-21
JP7275807B2 JP7275807B2 (en) 2023-05-18

Family

ID=72937486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019081528A Active JP7275807B2 (en) 2019-04-23 2019-04-23 Motion analysis device, motion analysis method and program

Country Status (1)

Country Link
JP (1) JP7275807B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219049A1 (en) * 2022-05-13 2023-11-16 京セラ株式会社 Motion analysis system and motion analysis method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
JP2005237494A (en) * 2004-02-24 2005-09-08 Nihon Knowledge Kk Actual action analysis system and program
US20100015585A1 (en) * 2006-10-26 2010-01-21 Richard John Baker Method and apparatus for providing personalised audio-visual instruction
US20110293239A1 (en) * 2010-05-31 2011-12-01 Casio Computer Co., Ltd. Moving image reproducing apparatus, moving image reproducing method and recording medium
JP2015119833A (en) * 2013-12-24 2015-07-02 カシオ計算機株式会社 Exercise support system, exercise support method, and exercise support program
JP2016063867A (en) * 2014-09-22 2016-04-28 カシオ計算機株式会社 Drawing device, drawing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6514081B1 (en) * 1999-08-06 2003-02-04 Jeffrey L. Mengoli Method and apparatus for automating motion analysis
JP2005237494A (en) * 2004-02-24 2005-09-08 Nihon Knowledge Kk Actual action analysis system and program
US20100015585A1 (en) * 2006-10-26 2010-01-21 Richard John Baker Method and apparatus for providing personalised audio-visual instruction
US20110293239A1 (en) * 2010-05-31 2011-12-01 Casio Computer Co., Ltd. Moving image reproducing apparatus, moving image reproducing method and recording medium
US9264651B2 (en) * 2010-05-31 2016-02-16 Casio Computer Co., Ltd. Moving image reproducing apparatus capable of adjusting display position of indicator for motion analysis based on displacement information of frames, and moving image reproducing method and recording medium for same
JP2015119833A (en) * 2013-12-24 2015-07-02 カシオ計算機株式会社 Exercise support system, exercise support method, and exercise support program
JP2016063867A (en) * 2014-09-22 2016-04-28 カシオ計算機株式会社 Drawing device, drawing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219049A1 (en) * 2022-05-13 2023-11-16 京セラ株式会社 Motion analysis system and motion analysis method

Also Published As

Publication number Publication date
JP7275807B2 (en) 2023-05-18

Similar Documents

Publication Publication Date Title
US9599635B2 (en) Motion analysis apparatus and motion analysis method
US11571141B2 (en) Walking support system, walking support method, and walking support program
KR102141367B1 (en) Device and method for classifying the activity and/or counting steps of a user
US10694980B2 (en) Exercise support device, exercise support method and exercise support program
US20170312574A1 (en) Information processing device, information processing method, and program
JP7215515B2 (en) Analysis device, analysis method and program
US20130123669A1 (en) Gait change determination device
US10582116B2 (en) Shooting control method, shooting control apparatus and user equipment
KR20160046495A (en) Method and device to display screen in response to event related to external obejct
JP6943294B2 (en) Technique recognition program, technique recognition method and technique recognition system
JP2015166816A (en) Display device, display control program, and display control method
JP6862875B2 (en) Exercise evaluation device, exercise evaluation method and exercise evaluation program
JP2008079737A (en) Concentration degree evaluating apparatus and display device for vehicle equipped with the same
JP2019136493A (en) Exercise scoring method, system and program
US10775883B2 (en) Information processing method, information processing apparatus and user equipment
WO2016024565A1 (en) Motion capture device, motion capture method, movement performance diagnostic method and device worn on body for motion capture
JP2020175047A (en) Operation analyzing device, operation analyzing method and program
JP2008516319A (en) Display control method using portable device having image sensor
JPWO2017109920A1 (en) Information processing system, information processing program, and information processing method
KR102072837B1 (en) Method for determining exercise section
JP6690343B2 (en) Measuring device, measuring method, and measuring program
JP7275811B2 (en) Video output device, video output method and program
JP2021102075A (en) Output device, output method, and program
JP7255340B2 (en) MOTION DATA ACQUISITION DEVICE, MOTION DATA OUTPUT METHOD, PROGRAM AND MOTION DATA PROCESSING SYSTEM
US20230329586A1 (en) Gait information generation device, gait information generation method, and recording medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230417

R150 Certificate of patent or registration of utility model

Ref document number: 7275807

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150