JP6787072B2 - Image processing equipment, analysis system, image processing method and program - Google Patents

Image processing equipment, analysis system, image processing method and program Download PDF

Info

Publication number
JP6787072B2
JP6787072B2 JP2016226233A JP2016226233A JP6787072B2 JP 6787072 B2 JP6787072 B2 JP 6787072B2 JP 2016226233 A JP2016226233 A JP 2016226233A JP 2016226233 A JP2016226233 A JP 2016226233A JP 6787072 B2 JP6787072 B2 JP 6787072B2
Authority
JP
Japan
Prior art keywords
image
display
measurement result
unit
target person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016226233A
Other languages
Japanese (ja)
Other versions
JP2018085574A5 (en
JP2018085574A (en
Inventor
量平 山本
量平 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016226233A priority Critical patent/JP6787072B2/en
Publication of JP2018085574A publication Critical patent/JP2018085574A/en
Publication of JP2018085574A5 publication Critical patent/JP2018085574A5/ja
Application granted granted Critical
Publication of JP6787072B2 publication Critical patent/JP6787072B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、解析システム、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an analysis system, an image processing method and a program.

従来、ゴルフスイングを映像によって解析する様々な手法が開発されている。
例えば、特許文献1では、腰部に取り付けられた加速度センサにより得られた計測データを対応する動画と共に再生することでスイング動作評価を行うことが提案されている。
ところが、特許文献1に記載された技術は、実験室のような大掛かりな設備が必要であり、一般ユーザが気軽に活用することは困難である。
一方、近年、コンシューマー用の高速デジタルカメラ、スマートフォン、モーションセンサといった端末が容易に入手可能となっており、一般のユーザがこれらの端末を練習場に持ち込み、各端末の機能を組み合わせて用いることにより、気軽にゴルフスイングを解析することも可能になっている。
Conventionally, various methods for analyzing golf swings by images have been developed.
For example, Patent Document 1 proposes to evaluate swing motion by reproducing measurement data obtained by an acceleration sensor attached to the lumbar region together with a corresponding moving image.
However, the technique described in Patent Document 1 requires large-scale equipment such as a laboratory, and it is difficult for general users to easily utilize it.
On the other hand, in recent years, terminals such as high-speed digital cameras for consumers, smartphones, and motion sensors have become easily available, and general users bring these terminals to the practice area and use the functions of each terminal in combination. , It is also possible to easily analyze the golf swing.

特開2009−050721号公報Japanese Unexamined Patent Publication No. 2009-050721

しかしながら、コンシューマー用の高速デジタルカメラ、スマートフォン、モーションセンサ等の端末を組み合わせて用いる場合、例えば、それぞれの端末によって情報を取得することは可能であるものの、取得した情報から解析結果を提示する機能が十分なものでないといった課題があった。そのため、スイング等の動作を行った後、ユーザが動作内容を把握するまでに無用な時間や手間を要し、効率的な表示ができるものではなかった。 However, when terminals such as high-speed digital cameras for consumers, smartphones, and motion sensors are used in combination, for example, although it is possible to acquire information from each terminal, there is a function of presenting analysis results from the acquired information. There was a problem that it was not enough. Therefore, it takes unnecessary time and effort for the user to grasp the operation content after performing an operation such as a swing, and efficient display is not possible.

本発明は、このような状況に鑑みてなされたものであり、対象者の動きをユーザがより効率的に把握可能な表示を行うことを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to display the movement of the target person so that the user can grasp it more efficiently.

上記目的を達成するため、本発明の一態様の画像処理装置は、
対象者が撮影された撮影画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記撮影画像を表示手段に表示させる第1表示制御手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成手段と、
前記第1表示制御手段による前記撮影画像の表示に先行して、前記簡易表示画像生成手段により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御手段と、を備え、
前記計測結果取得手段による計測結果取得処理は、前記画像取得手段による前記撮影画像の取得処理よりも処理時間が短いことを特徴とする。
In order to achieve the above object, the image processing apparatus of one aspect of the present invention is
Image acquisition means for acquiring captured images taken by the subject,
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person with a sensor,
A first display control means for displaying the captured image acquired by the image acquisition means on the display means, and
A simple display image generation means for generating a simple display image relating to the movement of the target person, which is different from the captured image, based on the measurement result acquired by the measurement result acquisition means.
A second display control means for causing the display means to display the simple display image generated by the simple display image generation means prior to the display of the captured image by the first display control means .
The measurement result acquisition process by the measurement result acquisition means is characterized in that the processing time is shorter than the acquisition process of the captured image by the image acquisition means .

本発明によれば、対象者の動きをユーザがより効率的に把握可能な表示を行うことができる。 According to the present invention, it is possible to display the movement of the target person so that the user can grasp it more efficiently.

本発明の一実施形態に係る解析システムの構成を示すシステム構成図である。It is a system block diagram which shows the structure of the analysis system which concerns on one Embodiment of this invention. 解析システムの使用形態例を示す模式図である。It is a schematic diagram which shows the example of use form of an analysis system. センサユニットのハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware structure of a sensor unit. 撮影装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of a photographing apparatus. 処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of a processing apparatus. センサユニットの機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing information detection processing among the functional configurations of a sensor unit. センサユニットの装着状態を示す模式図である。It is a schematic diagram which shows the mounting state of a sensor unit. センサユニットによって検出される情報の例を示す模式図である。It is a schematic diagram which shows the example of the information detected by a sensor unit. 撮影装置の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for executing a shooting process among the functional configurations of a shooting apparatus. 処理装置の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional configuration for executing the analysis result display processing among the functional configurations of a processing apparatus. リアルタイムモードにおける表示例を示す模式図である。It is a schematic diagram which shows the display example in a real-time mode. ワンショットモードにおける表示例を示す模式図である。It is a schematic diagram which shows the display example in a one-shot mode. ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。It is a schematic diagram which shows the display example of the simple display image of the characteristic point in a golf swing. センサユニットが実行する情報検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the information detection process executed by a sensor unit. 撮影装置が実行する撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the photographing process executed by the photographing apparatus. 処理装置が実行する解析結果表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of analysis result display processing executed by a processing apparatus. ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。It is a schematic diagram which shows schematic the timing of the processing between each apparatus in a one-shot mode. BOXアニメーションの表示形態例を示す模式図である。It is a schematic diagram which shows the display form example of a BOX animation.

以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[システム構成]
図1は、本発明の一実施形態に係る解析システムSの構成を示すシステム構成図である。また、図2は、解析システムSの使用形態例を示す模式図である。
図1及び図2に示すように、解析システムSは、センサユニット1と、撮影装置2と、処理装置3と、を含んで構成される。また、処理装置3とセンサユニット1及び撮影装置2とはBluetooth low energy/Bluetooth LE(商標)(以下、「BLE」と称する。)によって通信可能に構成され、撮影装置2とセンサユニット1及び処理装置3とは、Wi−Fi(Wireless Fidelity)によって通信可能に構成される。
センサユニット1は、計測対象に装着され、計測対象の動きをセンシングしてセンサ情報を処理装置3に送信する。本実施形態においては、ゴルフのスイングの動作をする者(以下、「計測対象者P」と称する。)の腰等にセンサユニット1を装着し、当該動作をセンシングする。
[System configuration]
FIG. 1 is a system configuration diagram showing a configuration of an analysis system S according to an embodiment of the present invention. Further, FIG. 2 is a schematic diagram showing an example of usage of the analysis system S.
As shown in FIGS. 1 and 2, the analysis system S includes a sensor unit 1, a photographing device 2, and a processing device 3. Further, the processing device 3, the sensor unit 1, and the photographing device 2 are configured to be communicable by Bluetooth low energy / Bluetooth LE (trademark) (hereinafter, referred to as “BLE”), and the photographing device 2, the sensor unit 1, and the processing are configured. The device 3 is configured to be communicable by Wi-Fi (Wireless Fieldy).
The sensor unit 1 is attached to the measurement target, senses the movement of the measurement target, and transmits the sensor information to the processing device 3. In the present embodiment, the sensor unit 1 is attached to the waist or the like of a person who performs a golf swing motion (hereinafter, referred to as “measurement target person P”), and the motion is sensed.

撮影装置2は、計測対象を撮影し、計測対象の動きを表す動画のデータを処理装置3に送信する。本実施形態においては、撮影装置2は、ゴルフのスイングの動作をする計測対象者Pの動画を撮影する。 The photographing device 2 photographs the measurement target and transmits the moving image data showing the movement of the measurement target to the processing device 3. In the present embodiment, the photographing device 2 captures a moving image of the measurement target person P performing the golf swing operation.

処理装置3は、計測対象に装着したセンサユニット1から取得したセンサ情報を解析し、解析結果(本実施形態においては、計測対象の姿勢変化や移動の状態)を、センサ情報が取得された計測対象の動きを表す動画と併せて表示する。本実施形態においては、処理装置3は、計測対象の解析結果を、計測対象の3次元的な動きを模式的に示す箱型のオブジェクト(計測対象の3次元的な動きを示す指標)によってアニメーション表示する。また、処理装置3は、計測対象の解析結果が表示されるまでの間に、センサ情報に基づいて、計測対象の動きを概略的に表す画像を表示する。 The processing device 3 analyzes the sensor information acquired from the sensor unit 1 mounted on the measurement target, and measures the analysis result (in the present embodiment, the posture change and the movement state of the measurement target) from which the sensor information is acquired. It is displayed together with a video showing the movement of the target. In the present embodiment, the processing device 3 animates the analysis result of the measurement target with a box-shaped object (an index showing the three-dimensional movement of the measurement target) schematically showing the three-dimensional movement of the measurement target. indicate. Further, the processing device 3 displays an image that roughly represents the movement of the measurement target based on the sensor information until the analysis result of the measurement target is displayed.

[ハードウェア構成]
図3は、センサユニット1のハードウェアの構成を示すブロック図である。
センサユニット1は、計測対象の動きを検出する各種センサを備えた装置として構成される。
図3に示すように、センサユニット1は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、センサ部116と、入力部117と、出力部118と、記憶部119と、通信部120と、を備えている。なお、センサユニット1は、半導体メモリ等よりなるリムーバブルメディアを装着可能な構成としてもよい。
[Hardware configuration]
FIG. 3 is a block diagram showing a hardware configuration of the sensor unit 1.
The sensor unit 1 is configured as a device including various sensors for detecting the movement of the measurement target.
As shown in FIG. 3, the sensor unit 1 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a bus 114, an input / output interface 115, and a sensor. It includes a unit 116, an input unit 117, an output unit 118, a storage unit 119, and a communication unit 120. The sensor unit 1 may be configured so that a removable medium made of a semiconductor memory or the like can be attached.

CPU111は、ROM112に記録されているプログラム、または、記憶部119からRAM113にロードされたプログラムに従って各種の処理を実行する。 The CPU 111 executes various processes according to the program recorded in the ROM 112 or the program loaded from the storage unit 119 into the RAM 113.

RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。 Data and the like necessary for the CPU 111 to execute various processes are also appropriately stored in the RAM 113.

CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、センサ部116、入力部117、出力部118、記憶部119及び通信部120が接続されている。 The CPU 111, ROM 112, and RAM 113 are connected to each other via the bus 114. An input / output interface 115 is also connected to the bus 114. A sensor unit 116, an input unit 117, an output unit 118, a storage unit 119, and a communication unit 120 are connected to the input / output interface 115.

センサ部116は、3軸方向の加速度を測定する3軸加速度センサと、3軸方向の角速度を測定する3軸角速度センサと、3軸方向の地磁気を測定する3軸地磁気センサとを備えている。センサ部116は、予め設定されたサンプリング周期(例えば、0.001秒)毎に、3軸加速度センサ、3軸角速度センサ及び3軸地磁気センサによって3軸方向の加速度、角速度及び地磁気を測定する。センサ部116によって測定された加速度及び角速度のデータは、測定時刻のデータと対応付けて、記憶部119に記憶あるいは処理装置3に送信される。 The sensor unit 116 includes a 3-axis acceleration sensor that measures acceleration in the 3-axis direction, a 3-axis angular velocity sensor that measures the angular velocity in the 3-axis direction, and a 3-axis geomagnetic sensor that measures the geomagnetism in the 3-axis direction. .. The sensor unit 116 measures acceleration, angular velocity, and geomagnetism in the three-axis direction by a three-axis acceleration sensor, a three-axis angular velocity sensor, and a three-axis geomagnetic sensor every preset sampling cycle (for example, 0.001 second). The acceleration and angular velocity data measured by the sensor unit 116 are stored in the storage unit 119 or transmitted to the processing device 3 in association with the measurement time data.

入力部117は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部118は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する。
記憶部119は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部120は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部120は、BLE(登録商標)によって処理装置3と通信したり、Wi−Fiによって撮影装置2と通信したりする。
The input unit 117 is composed of various buttons and the like, and inputs various information according to a user's instruction operation.
The output unit 118 is composed of a lamp, a speaker, a vibration motor, or the like, and outputs light, audio, or a vibration signal.
The storage unit 119 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.
The communication unit 120 controls communication with other devices by direct wireless communication between terminals. In the present embodiment, the communication unit 120 communicates with the processing device 3 by BLE (registered trademark) and communicates with the photographing device 2 by Wi-Fi.

図4は、撮影装置2のハードウェア構成を示すブロック図である。
撮影装置2は、画像の撮影機能を備え、例えば、デジタルカメラによって構成される。本実施形態において、撮影装置2は、ディスプレイと分離して撮影機能がユニット化された装置として構成される。
図4に示すように、撮影装置2は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、ドライブ221と、を備えている。
これらのうち、撮像部216、通信部220及びドライブ221以外の構成は、図3において対応する各部分と同様である。
FIG. 4 is a block diagram showing a hardware configuration of the photographing device 2.
The photographing device 2 has an image capturing function, and is composed of, for example, a digital camera. In the present embodiment, the photographing device 2 is configured as a device in which the photographing function is unitized separately from the display.
As shown in FIG. 4, the photographing apparatus 2 includes a CPU 211, a ROM 212, a RAM 213, a bus 214, an input / output interface 215, an imaging unit 216, an input unit 217, an output unit 218, and a storage unit 219. A communication unit 220 and a drive 221 are provided.
Of these, the configurations other than the imaging unit 216, the communication unit 220, and the drive 221 are the same as the corresponding parts in FIG.

撮像部216は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 Although not shown, the image pickup unit 216 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is composed of a lens that collects light, such as a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, and white balance, if necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU211等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element performs photoelectric conversion (imaging) of the subject image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal as an analog signal to AFE.
The AFE executes various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and is output as an output signal of the imaging unit 216.
Such an output signal of the image pickup unit 216 is hereinafter referred to as "captured image data". The captured image data is appropriately supplied to the CPU 211 and the like.

通信部220は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部220は、BLE(登録商標)によって処理装置3と通信したり、Wi−Fiによって撮影装置2及び処理装置3と通信したりする。
ドライブ221には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ221によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
The communication unit 220 controls communication with other devices by direct wireless communication between terminals. In the present embodiment, the communication unit 220 communicates with the processing device 3 by BLE (registered trademark) and communicates with the photographing device 2 and the processing device 3 by Wi-Fi.
A removable media 231 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 221. The program read from the removable media 231 by the drive 221 is installed in the storage unit 219 as needed. Further, the removable media 231 can also store various data such as image data stored in the storage unit 219 in the same manner as the storage unit 219.

図5は、処理装置3のハードウェア構成を示すブロック図である。
処理装置3は、情報表示機能を備えた情報処理装置であり、例えば、スマートフォンとして構成される。
FIG. 5 is a block diagram showing a hardware configuration of the processing device 3.
The processing device 3 is an information processing device having an information display function, and is configured as, for example, a smartphone.

図5に示すように、処理装置3は、CPU311と、ROM312と、RAM313と、バス314と、入出力インターフェース315と、撮像部316と、センサ部317と、入力部318と、出力部319と、記憶部320と、通信部321と、ドライブ322と、を備えている。なお、ドライブ322には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア331が適宜装着される。
これらのうち、入力部318、出力部319及び通信部321以外の構成は、図3及び図4において対応する各部分と同様である。
As shown in FIG. 5, the processing device 3 includes a CPU 311, a ROM 312, a RAM 313, a bus 314, an input / output interface 315, an image pickup unit 316, a sensor unit 317, an input unit 318, and an output unit 319. A storage unit 320, a communication unit 321 and a drive 322 are provided. A removable media 331 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 322.
Of these, the configurations other than the input unit 318, the output unit 319, and the communication unit 321 are the same as the corresponding parts in FIGS. 3 and 4.

入力部318は、各種釦やタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部319は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
通信部321は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。また、通信部321は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部321は、BLE(登録商標)によってセンサユニット1及び撮影装置2と通信したり、Wi−Fiによって撮影装置2と通信したりする。
The input unit 318 is composed of various buttons, a touch panel, and the like, and inputs various information according to a user's instruction operation.
The output unit 319 is composed of a display, a speaker, or the like, and outputs an image or sound.
The communication unit 321 controls communication with other devices (not shown) via a network including the Internet. In addition, the communication unit 321 controls communication with other devices by direct wireless communication between terminals. In the present embodiment, the communication unit 321 communicates with the sensor unit 1 and the photographing device 2 by BLE (registered trademark), and communicates with the photographing device 2 by Wi-Fi.

[機能的構成]
図6は、センサユニット1の機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。
情報検出処理とは、解析システムSが計測対象の動きを解析する際に、計測対象に装着されたセンサユニット1が計測対象の動きをセンシングする一連の処理である。
情報検出処理が実行される場合、図6に示すように、CPU111において、第1通信制御部151と、第2通信制御部152と、キャリブレーション実行部153と、モード設定部154と、同期制御部155と、検出処理部156と、センサ情報送信制御部157とが機能する。
また、記憶部119の一領域には、センサ情報記憶部171が設定される。
[Functional configuration]
FIG. 6 is a functional block diagram showing a functional configuration for executing information detection processing among the functional configurations of the sensor unit 1.
The information detection process is a series of processes in which the sensor unit 1 mounted on the measurement target senses the movement of the measurement target when the analysis system S analyzes the movement of the measurement target.
When the information detection process is executed, as shown in FIG. 6, in the CPU 111, the first communication control unit 151, the second communication control unit 152, the calibration execution unit 153, the mode setting unit 154, and the synchronous control The unit 155, the detection processing unit 156, and the sensor information transmission control unit 157 function.
Further, a sensor information storage unit 171 is set in one area of the storage unit 119.

第1通信制御部151は、センサユニット1のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部152は、センサユニット1のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
The first communication control unit 151 controls communication by the BLE of the sensor unit 1 and executes pairing processing with other devices and data transmission / reception processing.
The second communication control unit 152 controls communication by Wi-Fi of the sensor unit 1 and executes data transmission / reception processing with another device.

キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。本実施形態においては、キャリブレーション実行部153は、センサユニット1が計測対象者Pの腰に装着され、ゴルフのスイングを行うための位置にアドレスした姿勢を取った状態を基準とし、この状態で取得されたセンサ情報が基準値とされる。 The calibration execution unit 153 acquires sensor information in a reference state in response to an instruction from the processing device 3, and executes calibration using the acquired result as a reference value. In the present embodiment, the calibration execution unit 153 is based on a state in which the sensor unit 1 is attached to the waist of the measurement target person P and takes a posture addressed to a position for performing a golf swing, and in this state. The acquired sensor information is used as a reference value.

図7Aは、センサユニット1の装着状態を示す模式図、図7Bはセンサユニット1によって検出される情報の例を示す模式図である。
キャリブレーションが行われる場合、図7Aに示すように、例えば、センサユニット1がベルト等によって計測対象者Pの腰に装着され、計測対象者Pがゴルフのスイングを行うための位置で、ボールに向かいアドレスした姿勢で所定時間(例えば2秒)静止する。このとき、図7Bに示すように、センサユニット1は、3軸加速度センサによって検出される重力方向及び3軸地磁気センサによって検出される方位を基準として、センサ情報(身体の前後方向の傾斜角度、左右方向の傾斜角度及び鉛直軸周りの回転角度)を取得し、取得された各センサ情報をアドレス時の基準値とする。そして、以降、計測対象者Pがスイングを行う際に、センサユニット1において検出される各センサ情報が、所定時間(例えば2秒)以上、アドレス時の基準値に対し、各センサ情報について設定された閾値の範囲内となっている場合に、アドレスの状態であると検出される。
なお、図7Bに示す情報の他、センサユニット1は、3軸加速度センサを備えているため、センサユニット1の移動(平行移動等)についても検出可能であり、3軸地磁気センサを備えているため、センサユニット1が向いている方位についても検出可能である。
FIG. 7A is a schematic diagram showing a mounted state of the sensor unit 1, and FIG. 7B is a schematic diagram showing an example of information detected by the sensor unit 1.
When calibration is performed, as shown in FIG. 7A, for example, the sensor unit 1 is attached to the waist of the measurement target person P by a belt or the like, and the measurement target person P is placed on the ball at a position for performing a golf swing. Rest for a predetermined time (for example, 2 seconds) in the opposite posture. At this time, as shown in FIG. 7B, the sensor unit 1 has sensor information (tilt angle in the front-rear direction of the body, based on the gravity direction detected by the 3-axis acceleration sensor and the orientation detected by the 3-axis geomagnetic sensor. The tilt angle in the left-right direction and the rotation angle around the vertical axis) are acquired, and each acquired sensor information is used as a reference value at the time of addressing. After that, when the measurement target person P swings, each sensor information detected in the sensor unit 1 is set for each sensor information with respect to the reference value at the time of addressing for a predetermined time (for example, 2 seconds) or more. When it is within the range of the threshold value, it is detected as the state of the address.
In addition to the information shown in FIG. 7B, since the sensor unit 1 is provided with a 3-axis acceleration sensor, it is possible to detect movement (translation, etc.) of the sensor unit 1 and is provided with a 3-axis geomagnetic sensor. Therefore, it is possible to detect the direction in which the sensor unit 1 is facing.

モード設定部154は、処理装置3からの指示に応じて、動作のモードを複数用意されたモードのいずれかに設定する。本実施形態において、解析システムSでは、計測対象者Pのライブビュー画像と併せて、センサユニット1によって取得したセンサ情報から生成されたアニメーションを表示するリアルタイムモードと、計測対象者Pのゴルフのスイングの動画に、そのスイングにおいてセンサユニット1によって取得したセンサ情報から生成されたアニメーションを合成して表示するワンショットモードとが用意されている。 The mode setting unit 154 sets the operation mode to one of a plurality of prepared modes in response to an instruction from the processing device 3. In the present embodiment, the analysis system S has a real-time mode in which an animation generated from sensor information acquired by the sensor unit 1 is displayed together with a live view image of the measurement target person P, and a golf swing of the measurement target person P. There is a one-shot mode that synthesizes and displays the animation generated from the sensor information acquired by the sensor unit 1 in the swing.

同期制御部155は、ワンショットモードに設定された後に、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。センサユニット1及び撮影装置2は、例えば、SNTP(Simple Network Time Protocol)によって基準時刻の同期を行うことができる。 After being set to the one-shot mode, the synchronization control unit 155 synchronizes the reference time in the sensor unit 1 and the photographing device 2 via communication by Wi-Fi. The sensor unit 1 and the photographing device 2 can synchronize the reference time by, for example, Simple Network Time Protocol (SNTP).

検出処理部156は、センサユニット1がリアルタイムモードに設定されている場合及びワンショットモードに設定されている場合に、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する。なお、センサ情報記憶部171に記憶されたセンサ情報は、取得された時刻から所定時間が経過した場合に順次破棄することとしてもよい。ただし、ワンショットモードにおいて、ゴルフのスイングのアドレスからスイング終了までに取得されたセンサ情報は、少なくとも処理装置3への送信が完了した後に破棄される。
また、検出処理部156は、ワンショットモードにおいて取得したセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを検出する。
The detection processing unit 156 sequentially acquires various sensor information when the sensor unit 1 is set to the real-time mode and the one-shot mode, and corresponds the acquired sensor information with the acquired time. It is attached and stored in the sensor information storage unit 171. The sensor information stored in the sensor information storage unit 171 may be sequentially discarded when a predetermined time has elapsed from the acquired time. However, in the one-shot mode, the sensor information acquired from the golf swing address to the end of the swing is discarded at least after the transmission to the processing device 3 is completed.
Further, the detection processing unit 156 detects the timing of a predetermined characteristic point in the golf swing based on the sensor information acquired in the one-shot mode. For example, the detection processing unit 156 analyzes the waveform of the sensor information acquired in the one-shot mode, and detects the timing of each point of the address, top, downswing, impact, and follow in the golf swing.

また、検出処理部156は、ワンショットモードにおいてアドレスのタイミングを検出した場合及びフォローのタイミングを検出した場合、アドレスのタイミングが検出されたことを示す信号(以下、「アドレス検出信号」と称する。)及びフォローのタイミングが検出されたことを示す信号(以下、「フォロー検出信号」と称する。)を、BLEによって処理装置3に逐次送信する。 Further, when the detection processing unit 156 detects the address timing and the follow timing in the one-shot mode, the detection processing unit 156 refers to a signal indicating that the address timing has been detected (hereinafter, referred to as an “address detection signal”. ) And a signal indicating that the follow timing has been detected (hereinafter, referred to as “follow detection signal”) are sequentially transmitted to the processing device 3 by the BLE.

さらに、検出処理部156は、ゴルフのスイングの開始から終了まで(以下、適宜「ワンショット」と称する。)の範囲を検出する。本実施形態において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出する。そして、検出処理部156は、検出したワンショットの範囲を示す信号(以下、「ワンショット範囲検出信号」と称する。)を、BLEによって処理装置3に送信する。 Further, the detection processing unit 156 detects a range from the start to the end of the golf swing (hereinafter, appropriately referred to as "one shot"). In the present embodiment, the detection processing unit 156 detects the timing from the address to the follow of the golf swing of the measurement target person P as a one-shot range. Then, the detection processing unit 156 transmits a signal indicating the detected one-shot range (hereinafter, referred to as “one-shot range detection signal”) to the processing device 3 by BLE.

センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を処理装置3に送信する制御を行う。本実施形態において、検出処理部156では、例えば、1000サンプル/秒程度でセンサ情報を取得することができる。そして、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、リアルタイムモードにおいては低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に送信し、ワンショットモードにおいては高いサンプリングレート(例えば、240サンプル/秒程度)に変換して処理装置3に送信する。なお、ワンショットモードでは、ワンショットの範囲のセンサ情報が処理装置3に送信される。本実施形態において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、ワンショットの範囲のセンサ情報に先行して処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。 The sensor information transmission control unit 157 controls to transmit the sensor information acquired by the detection processing unit 156 to the processing device 3. In the present embodiment, the detection processing unit 156 can acquire sensor information at, for example, about 1000 samples / second. Then, the sensor information transmission control unit 157 converts the sensor information acquired by the detection processing unit 156 to a low sampling rate (for example, about 30 samples / second) in the real-time mode and transmits the sensor information to the processing device 3. In the shot mode, it is converted to a high sampling rate (for example, about 240 samples / sec) and transmitted to the processing device 3. In the one-shot mode, the sensor information in the one-shot range is transmitted to the processing device 3. In the present embodiment, the sensor information transmission control unit 157 provides sensor information of a predetermined characteristic point (address, top, downswing, impact, follow) in the golf swing of the measurement target person P within a one-shot range. It is transmitted to the processing device 3 prior to the sensor information. In this way, by transmitting the sensor information of a predetermined characteristic point to the processing device 3 in advance, the processing device 3 can display the simple display image at an earlier timing.

また、センサ情報送信制御部157は、ワンショットモードにおいてセンサ情報を処理装置3に送信する場合、検出処理部156によって検出されたアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを、併せて処理装置3に送信する。
なお、本実施形態において、検出処理部156で取得されたセンサ情報は、各種センサの出力信号をそれぞれフィルタリングすることにより、ノイズの影響を抑制した波形に変換され、センサ情報送信制御部157は、処理結果のセンサ情報が表す波形から取得されるセンサ情報を処理装置3に送信する。
これにより、ノイズの影響によってばらつきが大きいセンサ情報よりも信頼度が高い情報を参照して、計測対象者Pの動きを解析することができる。
Further, when the sensor information transmission control unit 157 transmits the sensor information to the processing device 3 in the one-shot mode, the sensor information transmission control unit 157 determines the timing of each point of the address, top, downswing, impact, and follow detected by the detection processing unit 156. At the same time, it is transmitted to the processing device 3.
In the present embodiment, the sensor information acquired by the detection processing unit 156 is converted into a waveform in which the influence of noise is suppressed by filtering the output signals of various sensors, respectively, and the sensor information transmission control unit 157 The sensor information acquired from the waveform represented by the sensor information of the processing result is transmitted to the processing device 3.
As a result, it is possible to analyze the movement of the measurement target person P by referring to the information having higher reliability than the sensor information having a large variation due to the influence of noise.

次に、撮影装置2の機能的構成について説明する。
図8は、撮影装置2の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。
撮影処理とは、解析システムSが計測対象の動きを解析する際に、センサユニット1によるセンサ情報の取得と同期して、計測対象の動き表す動画を撮影する一連の処理である。
撮影処理が実行される場合、図8に示すように、CPU211において、第1通信制御部251と、第2通信制御部252と、撮影制御部253と、同期制御部254と、動画送信制御部255とが機能する。
また、記憶部219の一領域には、動画データ記憶部271が設定される。
Next, the functional configuration of the photographing apparatus 2 will be described.
FIG. 8 is a functional block diagram showing a functional configuration for executing a shooting process among the functional configurations of the photographing device 2.
The shooting process is a series of processes in which when the analysis system S analyzes the movement of the measurement target, a moving image representing the movement of the measurement target is shot in synchronization with the acquisition of the sensor information by the sensor unit 1.
When the shooting process is executed, as shown in FIG. 8, in the CPU 211, the first communication control unit 251 and the second communication control unit 252, the shooting control unit 253, the synchronization control unit 254, and the moving image transmission control unit 255 works.
In addition, a moving image data storage unit 271 is set in one area of the storage unit 219.

第1通信制御部251は、撮影装置2のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部252は、撮影装置2のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。本実施形態において、Wi−Fiによる通信が行われる場合、撮影装置2がアクセスポイント(AP)となり、他の装置がステーション(ST)となる。
The first communication control unit 251 controls the communication by the BLE of the photographing device 2, and executes the pairing process with another device and the data transmission / reception process.
The second communication control unit 252 controls communication by the Wi-Fi of the photographing device 2 and executes data transmission / reception processing with another device. In the present embodiment, when communication by Wi-Fi is performed, the photographing device 2 becomes an access point (AP) and the other device becomes a station (ST).

撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示された場合に、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する。また、撮影制御部253は、処理装置3から記録用の動画の撮影が指示された場合に、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する。なお、撮影された記録用の動画は、動画データ記憶部271に記憶される。 When the processing device 3 is instructed to shift to the real-time mode, the shooting control unit 253 controls the imaging unit 216 to perform live at a shooting speed (for example, 30 fps) preset as the shooting speed of the live view image. Take a view image. Further, the shooting control unit 253 controls the imaging unit 216 when the processing device 3 instructs to shoot a moving image for recording, and sets a shooting speed preset as a shooting speed of the moving image for recording (for example, A moving image for recording is shot at 240 fps). The captured moving image for recording is stored in the moving image data storage unit 271.

同期制御部254は、ワンショットモードに設定された後に、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
動画送信制御部255は、撮影制御部253の制御によって撮影されたライブビュー画像または記録用の動画を処理装置3に送信する。具体的には、動画送信制御部255は、リアルタイムモードにおいて、処理装置3からライブビュー画像の撮影指示が行われた場合、撮影されたライブビュー画像を逐次処理装置3に送信する。また、動画送信制御部255は、ワンショットモードにおいて、処理装置3から記録用の動画の撮影指示が行われた場合、処理装置3から通知された記録用の動画の開始から終了までの範囲(即ち、ワンショットの範囲)を切り出して、処理装置3に送信する。
After being set to the one-shot mode, the synchronization control unit 254 synchronizes the reference time in the sensor unit 1 and the photographing device 2 via communication by Wi-Fi.
The moving image transmission control unit 255 transmits a live view image or a moving image for recording taken under the control of the shooting control unit 253 to the processing device 3. Specifically, the moving image transmission control unit 255 transmits the captured live view image to the sequential processing device 3 when the processing device 3 gives an instruction to capture the live view image in the real-time mode. Further, in the one-shot mode, when the processing device 3 gives an instruction to shoot a moving image for recording, the moving image transmission control unit 255 has a range from the start to the end of the moving image for recording notified by the processing device 3. That is, the range of one shot) is cut out and transmitted to the processing device 3.

次に、処理装置3の機能的構成について説明する。
図9は、処理装置3の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。
解析結果表示処理とは、撮影装置2によって撮影された動画に対応する時刻にセンサユニット1によって検出されたセンサ情報を解析して、計測対象者Pの身体の3次元的な動きを模したアニメーションを生成し、撮影装置2によって撮影された動画に合成して表示する一連の処理である。
解析結果表示処理が実行される場合、図9に示すように、CPU311において、第1通信制御部351と、第2通信制御部352と、キャリブレーション管理部353と、モード制御部354と、ワンショット撮影管理部355と、センサ情報取得部356と、画像取得部357と、解析処理部358と、画像生成部359と、簡易表示生成部360と、書き出し処理部361とが機能する。
また、記憶部320の一領域には、動画データ記憶部371と、センサ情報記憶部372と、合成画像記憶部373とが設定される。
Next, the functional configuration of the processing device 3 will be described.
FIG. 9 is a functional block diagram showing a functional configuration for executing analysis result display processing among the functional configurations of the processing device 3.
The analysis result display processing is an animation that imitates the three-dimensional movement of the body of the measurement target person P by analyzing the sensor information detected by the sensor unit 1 at the time corresponding to the moving image captured by the photographing device 2. Is a series of processes for generating and displaying the image in combination with the moving image photographed by the photographing apparatus 2.
When the analysis result display process is executed, as shown in FIG. 9, the CPU 311 includes the first communication control unit 351 and the second communication control unit 352, the calibration management unit 353, the mode control unit 354, and one. The shot shooting management unit 355, the sensor information acquisition unit 356, the image acquisition unit 357, the analysis processing unit 358, the image generation unit 359, the simple display generation unit 360, and the writing processing unit 361 function.
Further, in one area of the storage unit 320, a moving image data storage unit 371, a sensor information storage unit 372, and a composite image storage unit 373 are set.

第1通信制御部351は、処理装置3のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。本実施形態において、BLEによる通信が行われる場合、処理装置3がマスタとなり、他の装置がスレーブとなる。
第2通信制御部352は、のWi−Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
The first communication control unit 351 controls the communication by the BLE of the processing device 3, and executes the pairing process with another device and the data transmission / reception process. In the present embodiment, when communication by BLE is performed, the processing device 3 becomes the master and the other device becomes the slave.
The second communication control unit 352 controls communication by Wi-Fi and executes data transmission / reception processing with other devices.

キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。本実施形態において、センサユニット1におけるキャリブレーションは、センサユニット1の起動後、リアルタイムモードあるいはワンショットモードに移行する前に、一度実行される。 The calibration management unit 353 instructs the sensor unit 1 to execute the calibration. In the present embodiment, the calibration in the sensor unit 1 is performed once after the start of the sensor unit 1 and before the transition to the real-time mode or the one-shot mode.

モード制御部354は、リアルタイムモードに移行するための操作が行われた場合に、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。また、モード制御部354は、ワンショットモードに移行するための操作が行われた場合に、センサユニット1に対し、ワンショットモードへの移行を指示する。 When the operation for shifting to the real-time mode is performed, the mode control unit 354 instructs the sensor unit 1 and the photographing device 2 to shift to the real-time mode by BLE. Further, the mode control unit 354 instructs the sensor unit 1 to shift to the one-shot mode when an operation for shifting to the one-shot mode is performed.

ワンショット撮影管理部355は、リアルタイムモードにおいて、ワンショットの範囲の動画の撮影を管理する。具体的には、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影を指示する。また、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影の終了を指示する。さらに、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信した場合、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。また、ワンショット撮影管理部355は、ワンショットモードにおいて、センサユニット1からセンサ情報の取得が完了した後、撮影装置2に動画の送信を指示する。 The one-shot shooting management unit 355 manages the shooting of a moving image in the range of one shot in the real-time mode. Specifically, when the one-shot shooting management unit 355 receives the address detection signal from the sensor unit 1, it instructs the shooting device 2 to shoot a moving image for recording. Further, when the one-shot shooting management unit 355 receives the follow detection signal from the sensor unit 1, the one-shot shooting management unit 355 instructs the shooting device 2 to end the shooting of the moving image for recording. Further, when the one-shot shooting management unit 355 receives the one-shot range detection signal from the sensor unit 1, the one-shot shooting management unit 355 notifies the shooting device 2 of the one-shot range to be cut out from the shot moving image. Further, the one-shot shooting management unit 355 instructs the shooting device 2 to transmit a moving image after the acquisition of the sensor information from the sensor unit 1 is completed in the one-shot mode.

センサ情報取得部356は、リアルタイムモードにおいて、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から逐次取得する。また、センサ情報取得部356は、ワンショットモードにおいて、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のワンショットの範囲のセンサ情報を、BLEによってセンサユニット1から取得する。また、本実施形態において、センサ情報取得部356は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報を取得するのに先行して、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から取得する。 In the real-time mode, the sensor information acquisition unit 356 sequentially acquires sensor information with a period (low sampling rate) corresponding to the shooting speed (for example, 30 fps) of the live view image from the sensor unit 1 by BLE. Further, in the one-shot mode, the sensor information acquisition unit 356 uses BLE to provide sensor information in a one-shot range with a period (high sampling rate) corresponding to a recording speed (for example, 240 fps) of a moving image for recording. Get from. Further, in the present embodiment, the sensor information acquisition unit 356 takes a predetermined characteristic point in the golf swing of the measurement target person P prior to acquiring the sensor information in the one-shot range in the one-shot mode. The sensor information (address, top, downswing, impact, follow) is acquired from the sensor unit 1 by BLE.

画像取得部357は、リアルタイムモードにおいて、撮影装置2から送信されるライブビュー画像を、Wi−Fiによって逐次取得する。また、画像取得部357は、ワンショットモードにおいて、撮影装置2において記録用の動画が撮影され、ワンショットの範囲が切り出された後に、その切り出された動画を、Wi−Fiによってまとめて取得する。 The image acquisition unit 357 sequentially acquires the live view image transmitted from the photographing device 2 by Wi-Fi in the real-time mode. Further, the image acquisition unit 357 captures a moving image for recording in the photographing device 2 in the one-shot mode, cuts out the range of the one-shot, and then collectively acquires the cut-out moving image by Wi-Fi. ..

解析処理部358は、センサユニット1から取得した各種センサ情報を解析し、計測対象者Pの身体の3次元的な動きを模した箱型のオブジェクトによって表されるアニメーション(以下、適宜「BOXアニメーション」と称する。)の時間的な変化を表すデータを生成する。本実施形態において、解析処理部358は、リアルタイムモードにおいては、ライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。また、解析処理部358は、ワンショットモードにおいては、記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。 The analysis processing unit 358 analyzes various sensor information acquired from the sensor unit 1 and an animation represented by a box-shaped object that imitates the three-dimensional movement of the body of the measurement target person P (hereinafter, appropriately "BOX animation"). ”) To generate data representing changes over time. In the present embodiment, in the real-time mode, the analysis processing unit 358 generates data representing a temporal change of the BOX animation from the sensor information of the cycle corresponding to the shooting speed of the live view image. Further, in the one-shot mode, the analysis processing unit 358 generates data representing a temporal change of the BOX animation from the sensor information of the cycle corresponding to the shooting speed of the moving image for recording.

画像生成部359は、リアルタイムモードにおいて取得されるライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて表示する。
図10は、リアルタイムモードにおける表示例を示す模式図である。
図10に示すように、リアルタイムモードにおいて、画像生成部359は、例えば、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する。なお、計測対象者Pの画像の周囲であって、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションAnを表示することとしてもよい。さらに、画像生成部359は、BOXアニメーションAnに対応するセンサ情報の数値を画像内の所定位置(ここでは左下)に表示する。具体的には、図10に示す例では、身体の前後方向の傾斜角度として「前傾:21度」、鉛直軸周りの回転角度として「回転:15度」、左右方向の傾斜角度として「水平:7度」が表示されている。
The image generation unit 359 displays the BOX animation generated by the analysis processing unit 358 together with the live view image acquired in the real-time mode.
FIG. 10 is a schematic view showing a display example in the real-time mode.
As shown in FIG. 10, in the real-time mode, the image generation unit 359 displays, for example, the measurement target person P in the center and displays the BOX animation An at a preset predetermined position around the image of the measurement target person P. indicate. The BOX animation An may be displayed around the image of the measurement target person P and at a position close to the position of the body on which the sensor unit 1 is attached in the measurement target person P. Further, the image generation unit 359 displays the numerical value of the sensor information corresponding to the BOX animation An at a predetermined position (here, the lower left) in the image. Specifically, in the example shown in FIG. 10, the tilt angle in the front-back direction of the body is "forward tilt: 21 degrees", the rotation angle around the vertical axis is "rotation: 15 degrees", and the tilt angle in the left-right direction is "horizontal". : 7 degrees "is displayed.

また、画像生成部359は、ワンショットモードにおいて取得される記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。以下、このように画像生成部359によって表示される画像を、適宜「解析結果動画」と称する。
図11は、ワンショットモードにおける表示例を示す模式図である。
図11に示すように、ワンショットモードにおいて、画像生成部359は、例えば、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することにより、解析結果動画を表示する。また、本実施形態において、BOXアニメーションAnには、センサユニット1の軸(ここでは上下方向及び左右方向)を示す直線が併せて表示される。センサユニット1の軸は、センサユニット1の動きと共に移動する。また、本実施形態において、ワンショットモードにおける表示例では、表示画面に固定された軸(即ち、絶対座標を表す軸)が併せて表示されている。
なお、BOXアニメーションの時間的な変化は、撮影された計測対象者Pの動画のタイミングと対応付けて表示される。
Further, the image generation unit 359 synthesizes and displays the BOX animation generated by the analysis processing unit 358 with the moving image for recording acquired in the one-shot mode. Hereinafter, the image displayed by the image generation unit 359 in this way is appropriately referred to as an “analysis result moving image”.
FIG. 11 is a schematic view showing a display example in the one-shot mode.
As shown in FIG. 11, in the one-shot mode, the image generation unit 359 displays the analysis result moving image by, for example, superimposing the BOX animation An on the moving image of the measurement target person P by transmitting it. Further, in the present embodiment, the BOX animation An also displays straight lines indicating the axes of the sensor unit 1 (here, the vertical direction and the horizontal direction). The axis of the sensor unit 1 moves with the movement of the sensor unit 1. Further, in the present embodiment, in the display example in the one-shot mode, an axis fixed to the display screen (that is, an axis representing absolute coordinates) is also displayed.
The temporal change of the BOX animation is displayed in association with the timing of the video of the photographed measurement target person P.

ワンショットモードにおけるセンサ情報及び計測対象者Pの動画をこのように表示することで、BOXアニメーションによって、計測対象者Pの身体の動きの傾向をわかり易く示すことができると共に、BOXアニメーションには表れ難い身体の状態をセンサ情報によって明確に示すことが可能となる。また、センサユニット1の軸と表示画面に固定された軸とが併せて表示されることで、計測対象者Pの平行移動等も表示することができ、計測対象者Pの身体の動きがより把握し易いものとなる。 By displaying the sensor information in the one-shot mode and the moving image of the measurement target person P in this way, the tendency of the body movement of the measurement target person P can be shown in an easy-to-understand manner by the BOX animation, and it is difficult to appear in the BOX animation. It is possible to clearly indicate the physical condition by sensor information. Further, by displaying the axis of the sensor unit 1 and the axis fixed to the display screen together, it is possible to display the translation of the measurement target person P, etc., and the movement of the measurement target person P's body can be further improved. It will be easy to grasp.

簡易表示生成部360は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報に先行して取得した計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。なお、以下、簡易表示生成部360によって表示される一連の画像を、適宜「簡易表示画像」と称する。 In the one-shot mode, the simple display generation unit 360 has a predetermined characteristic point (address, top, downswing, impact, etc.) in the golf swing of the measurement target person P acquired prior to the sensor information in the one-shot range. Refer to the data of (follow), and display the numerical values of each sensor information in order on the swing image corresponding to each characteristic point prepared in advance. Hereinafter, a series of images displayed by the simple display generation unit 360 will be appropriately referred to as "simple display images".

ここで、ワンショットモードにおいて、センサユニット1がセンサ情報を取得すると共に、撮影装置2が動画の撮影を行った場合、処理装置3では、初めに、センサ情報取得部356によってセンサユニット1からセンサ情報を取得する。次いで、画像取得部357によって、撮影装置2から記録用の動画のデータを取得する。このとき、画像取得部357は撮影装置2から記録用の動画のデータを取得するためには、データ量が比較的大きいことから、一定の時間を要することとなる。そこで、本実施形態においては、画像取得部357が撮影装置2から記録用の動画のデータの取得を開始した後、簡易表示生成部360が簡易表示画像の表示を行う。そして、簡易表示生成部360は、画像取得部357が撮影装置2から記録用の動画のデータの取得を完了した後、画像生成部359が記録用の動画にBOXアニメーションを合成して表示するまでの間、簡易表示画像の表示を継続する。 Here, in the one-shot mode, when the sensor unit 1 acquires the sensor information and the photographing device 2 captures a moving image, the processing device 3 first receives the sensor from the sensor unit 1 by the sensor information acquisition unit 356. Get information. Next, the image acquisition unit 357 acquires video data for recording from the photographing device 2. At this time, in order for the image acquisition unit 357 to acquire the data of the moving image for recording from the photographing device 2, it takes a certain amount of time because the amount of data is relatively large. Therefore, in the present embodiment, after the image acquisition unit 357 starts acquiring the data of the moving image for recording from the photographing device 2, the simple display generation unit 360 displays the simple display image. Then, in the simple display generation unit 360, after the image acquisition unit 357 completes the acquisition of the data of the moving image for recording from the photographing device 2, the image generation unit 359 synthesizes the BOX animation with the moving image for recording and displays it. During that time, the display of the simple display image is continued.

図12は、ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。
図12に示すように、簡易表示生成部360は、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各特徴的なポイントを示す予め用意された画像に対し、計測対象者Pのスイングにおいて、対応する特徴的なポイントのセンサ情報の数値を併せて表示する。
なお、簡易表示生成部360が簡易表示画像を表示する場合、各特徴的なポイントの簡易表示画像を所定時間ずつ順次表示し、フォローの簡易表示画像まで表示された後は、トップの簡易表示画像に戻って、循環的に各簡易表示画像を表示することが可能である。
簡易表示画像を表示することにより、一定の意義を有する計測対象者Pの動きに関する情報を先行して提示することができる。
また、図12においてはアドレス時点での計測対象者Pの身体の前後方向及び左右方向の傾斜角度を0として表示を行ってもよく、アドレス時点からの計測対象者の身体の回転角度及び各種傾斜角度の変化量を表示させるように構成してもよい。
FIG. 12 is a schematic view showing a display example of a simple display image of characteristic points in a golf swing.
As shown in FIG. 12, the simple display generation unit 360 swings the measurement target person P with respect to a prepared image showing each characteristic point of the address, top, downswing, impact, and follow in the golf swing. In, the numerical values of the sensor information of the corresponding characteristic points are also displayed.
When the simple display generation unit 360 displays the simple display image, the simple display image of each characteristic point is sequentially displayed for a predetermined time, and after the simple display image of the follow is displayed, the simple display image of the top is displayed. It is possible to return to and display each simple display image cyclically.
By displaying the simple display image, information on the movement of the measurement target person P having a certain significance can be presented in advance.
Further, in FIG. 12, the tilt angle of the body of the measurement target person P at the time of address in the front-back direction and the left-right direction may be set to 0, and the rotation angle and various tilts of the body of the measurement target person from the time of address may be displayed. It may be configured to display the amount of change in the angle.

書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。なお、書き出し処理部361は、解析結果動画の保存を指示する操作が行われた場合に、解析結果動画の書き出しを実行する。 The writing processing unit 361 writes the analysis result moving image displayed by the image generation unit 359 as data in a predetermined storage format (MPEG or the like) to the storage unit 320 or the removable media 331. The writing processing unit 361 executes writing of the analysis result moving image when the operation of instructing the saving of the analysis result moving image is performed.

[動作]
次に、解析システムSの動作を説明する。
図13は、センサユニット1が実行する情報検出処理の流れを説明するフローチャートである。
情報検出処理は、センサユニット1の起動と共に開始される。
[motion]
Next, the operation of the analysis system S will be described.
FIG. 13 is a flowchart illustrating a flow of information detection processing executed by the sensor unit 1.
The information detection process is started when the sensor unit 1 is activated.

ステップS1において、第1通信制御部151は、BLEによってスレーブとして処理装置3と接続する。
ステップS2において、キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。
In step S1, the first communication control unit 151 is connected to the processing device 3 as a slave by BLE.
In step S2, the calibration execution unit 153 acquires the sensor information in the reference state in response to the instruction from the processing device 3, and executes the calibration using the acquisition result as the reference value.

ステップS3において、キャリブレーション実行部153は、キャリブレーションが完了したことをBLEによって処理装置3に通知する。
ステップS4において、モード設定部154は、処理装置3からの指示に応じて、リアルタイムモードに設定する。
ステップS5において、検出処理部156は、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する処理を開始する。
In step S3, the calibration execution unit 153 notifies the processing device 3 by BLE that the calibration is completed.
In step S4, the mode setting unit 154 sets the real-time mode in response to an instruction from the processing device 3.
In step S5, the detection processing unit 156 sequentially acquires various sensor information, and starts a process of storing the acquired sensor information in the sensor information storage unit 171 in association with the acquired time.

ステップS6において、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に逐次送信する。
ステップS7において、モード設定部154は、処理装置3からの指示に応じて、ワンショットモードに設定する。
In step S6, the sensor information transmission control unit 157 converts the sensor information acquired by the detection processing unit 156 into a low sampling rate (for example, about 30 samples / second) and sequentially transmits the sensor information to the processing device 3.
In step S7, the mode setting unit 154 sets the one-shot mode in response to an instruction from the processing device 3.

ステップS8において、第2通信制御部152は、Wi−Fiによってステーションとして撮影装置2と接続する。
ステップS9において、同期制御部155は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
In step S8, the second communication control unit 152 is connected to the photographing device 2 as a station by Wi-Fi.
In step S9, the synchronization control unit 155 synchronizes the reference time in the sensor unit 1 and the photographing device 2 via communication by Wi-Fi.

ステップS10において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレスのポイントのタイミングを検出して、アドレス検出信号をBLEによって処理装置3に送信する。 In step S10, the detection processing unit 156 analyzes the waveform of the acquired sensor information, detects the timing of the address point in the golf swing, and transmits the address detection signal to the processing device 3 by BLE.

ステップS11において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるフォローのポイントのタイミングを検出して、フォロー検出信号をBLEによって処理装置3に送信する。 In step S11, the detection processing unit 156 analyzes the waveform of the acquired sensor information, detects the timing of the follow point in the golf swing, and transmits the follow detection signal to the processing device 3 by BLE.

ステップS12において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出し、ワンショット範囲検出信号を処理装置3に送信する。
ステップS13において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるトップ、ダウンスイング、インパクトの各ポイントのタイミングを逐次検出する。
In step S12, the detection processing unit 156 detects the timing from the address to the follow of the golf swing of the measurement target person P as a one-shot range, and transmits the one-shot range detection signal to the processing device 3.
In step S13, the detection processing unit 156 analyzes the waveform of the acquired sensor information, and sequentially detects the timing of each of the top, downswing, and impact points in the golf swing.

ステップS14において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによって処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。なお、ステップS13及びステップS14の処理をステップS12よりも先に実行することとしてもよい。 In step S14, the sensor information transmission control unit 157 transmits the sensor information of a predetermined characteristic point (address, top, downswing, impact, follow) in the golf swing of the measurement target person P to the processing device 3 by BLE. Send. In this way, by transmitting the sensor information of a predetermined characteristic point to the processing device 3 in advance, the processing device 3 can display the simple display image at an earlier timing. The processes of steps S13 and S14 may be executed before step S12.

ステップS15において、センサ情報送信制御部157は、ワンショットの範囲のセンサ情報を、高いサンプリングレート(例えば、240サンプル/秒程度)に変換してBLEによって処理装置3に送信する。なお、ワンショットの範囲のセンサ情報を処理装置3に送信する場合、ステップS14において既に送信した特徴的なポイントのセンサ情報を除いて送信することとしてもよい。この場合、同一のセンサ情報が重複して送信されることを抑制できるため、より効率的にセンサ情報を送信することができる。
ステップS15の後、情報検出処理は終了する。
In step S15, the sensor information transmission control unit 157 converts the sensor information in the one-shot range into a high sampling rate (for example, about 240 samples / second) and transmits it to the processing device 3 by BLE. When transmitting the sensor information in the range of one shot to the processing device 3, the sensor information of the characteristic point already transmitted in step S14 may be excluded from the transmission. In this case, it is possible to prevent the same sensor information from being transmitted in duplicate, so that the sensor information can be transmitted more efficiently.
After step S15, the information detection process ends.

次に、撮影装置2が実行する撮影処理について説明する。
図14は、撮影装置2が実行する撮影処理の流れを説明するフローチャートである。
撮影処理は、入力部217を介して撮影処理の開始を指示する操作が行われることにより開始される。
Next, the shooting process executed by the shooting device 2 will be described.
FIG. 14 is a flowchart illustrating a flow of a shooting process executed by the shooting device 2.
The shooting process is started by performing an operation instructing the start of the shooting process via the input unit 217.

ステップS21において、第1通信制御部251は、BLEによってスレーブとして処理装置3と接続する。
ステップS22において、第2通信制御部252は、Wi−Fiによってアクセスポイントとして処理装置3と接続する。
In step S21, the first communication control unit 251 connects to the processing device 3 as a slave by BLE.
In step S22, the second communication control unit 252 connects to the processing device 3 as an access point by Wi-Fi.

ステップS23において、撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示されることに応じて、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する処理を開始する。
ステップS24において、動画送信制御部255は、撮影されたライブビュー画像を処理装置3に逐次送信する。
In step S23, the shooting control unit 253 controls the imaging unit 216 in response to the instruction to shift to the real-time mode from the processing device 3, and the shooting speed set in advance as the shooting speed of the live view image ( For example, the process of capturing a live view image at 30 fps) is started.
In step S24, the moving image transmission control unit 255 sequentially transmits the captured live view image to the processing device 3.

ステップS25において、第2通信制御部252は、Wi−Fiによってアクセスポイントとしてセンサユニット1と接続する。
ステップS26において、同期制御部254は、Wi−Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
In step S25, the second communication control unit 252 connects to the sensor unit 1 as an access point by Wi-Fi.
In step S26, the synchronization control unit 254 synchronizes the reference time in the sensor unit 1 and the photographing device 2 via communication by Wi-Fi.

ステップS27において、撮影制御部253は、処理装置3から記録用の動画の撮影が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する処理を開始する。
ステップS28において、撮影制御部253は、処理装置3から記録用の動画の撮影の終了が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影を終了する。
In step S27, the shooting control unit 253 controls the imaging unit 216 in response to an instruction from the processing device 3 to shoot a moving image for recording, and shoots a preset shooting speed of the moving image for recording. The process of shooting a moving image for recording is started at a speed (for example, 240 fps).
In step S28, the shooting control unit 253 controls the imaging unit 216 in response to the instruction from the processing device 3 to end the shooting of the moving image for recording, and ends the shooting of the moving image for recording.

ステップS29において、動画送信制御部256は、処理装置3からワンショットの範囲が通知されることに応じて、記録用の動画のワンショットの範囲を切り出す。
ステップS30において、動画送信制御部256は、処理装置3から動画の送信が指示されることに応じて、ワンショットの範囲が切り出された動画を処理装置3に送信する処理を開始する。
ステップS31において、動画送信制御部256は、ステップS30において開始した動画の送信を完了する。
ステップS31の後、撮影処理は終了する。
In step S29, the moving image transmission control unit 256 cuts out the one-shot range of the moving image for recording in response to the notification of the one-shot range from the processing device 3.
In step S30, the moving image transmission control unit 256 starts the process of transmitting the moving image in which the range of one shot is cut out to the processing device 3 in response to the instruction to transmit the moving image from the processing device 3.
In step S31, the moving image transmission control unit 256 completes the transmission of the moving image started in step S30.
After step S31, the shooting process ends.

次に、処理装置3が実行する解析結果表示処理について説明する。
図15は、処理装置3が実行する解析結果表示処理の流れを説明するフローチャートである。
解析結果表示処理は、入力部318を介して解析結果表示処理の開始を指示する操作が行われることにより開始される。
Next, the analysis result display process executed by the processing device 3 will be described.
FIG. 15 is a flowchart illustrating a flow of analysis result display processing executed by the processing device 3.
The analysis result display process is started by performing an operation instructing the start of the analysis result display process via the input unit 318.

ステップS41において、第1通信制御部351は、BLEによってマスタとしてセンサユニット1及び撮影装置2と接続する。
ステップS42において、第2通信制御部352は、Wi−Fiによってステーションとして撮影装置2と接続する。
ステップS43において、キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。
In step S41, the first communication control unit 351 is connected to the sensor unit 1 and the photographing device 2 as a master by BLE.
In step S42, the second communication control unit 352 connects to the photographing device 2 as a station by Wi-Fi.
In step S43, the calibration management unit 353 instructs the sensor unit 1 to execute the calibration.

ステップS44において、キャリブレーション管理部353は、センサユニット1からキャリブレーションの実行が完了したことの通知をBLEによって受信する。
ステップS45において、モード制御部354は、リアルタイムモードに移行するための操作(リモート撮影の指示)の入力を受け付ける。
ステップS46において、モード制御部354は、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。
In step S44, the calibration management unit 353 receives a notification from the sensor unit 1 that the calibration execution is completed by BLE.
In step S45, the mode control unit 354 receives an input of an operation (instruction for remote shooting) for shifting to the real-time mode.
In step S46, the mode control unit 354 instructs the sensor unit 1 and the photographing device 2 to shift to the real-time mode by the BLE.

ステップS47において、センサ情報取得部356は、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。また、画像取得部357は、撮影装置2から送信されるライブビュー画像を、Wi−Fiによって逐次取得する。 In step S47, the sensor information acquisition unit 356 acquires sensor information with a period (low sampling rate) corresponding to the shooting speed (for example, 30 fps) of the live view image from the sensor unit 1 by BLE. In addition, the image acquisition unit 357 sequentially acquires the live view image transmitted from the photographing device 2 by Wi-Fi.

ステップS48において、解析処理部358は、センサユニット1から取得したライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを逐次生成すると共に、画像生成部359は、取得されたライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて逐次表示する。 In step S48, the analysis processing unit 358 sequentially generates data representing the temporal change of the BOX animation from the sensor information of the cycle corresponding to the shooting speed of the live view image acquired from the sensor unit 1, and the image generation unit. The 359 sequentially displays the acquired live view image together with the BOX animation generated by the analysis processing unit 358.

ステップS49において、モード制御部354は、ワンショットモードに移行するための操作の入力を受け付ける。
ステップS50において、モード制御部354は、BLEによって、センサユニット1に対し、ワンショットモードへの移行を指示する。このとき、モード制御部354は、センサユニット1に撮影装置2のSSID(Service Set IDentifier)を併せて送信する。
In step S49, the mode control unit 354 receives an input of an operation for shifting to the one-shot mode.
In step S50, the mode control unit 354 instructs the sensor unit 1 to shift to the one-shot mode by BLE. At this time, the mode control unit 354 also transmits the SSID (Service Set Identifier) of the photographing device 2 to the sensor unit 1.

ステップS51において、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影を指示する。
ステップS52において、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影の終了を指示する
In step S51, the one-shot shooting management unit 355 instructs the shooting device 2 to shoot a moving image for recording in response to receiving the address detection signal from the sensor unit 1.
In step S52, the one-shot shooting management unit 355 instructs the shooting device 2 to end shooting a moving image for recording in response to receiving the follow detection signal from the sensor unit 1.

ステップS53において、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信することに応じて、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。 In step S53, the one-shot shooting management unit 355 notifies the shooting device 2 of the range of the one-shot to be cut out from the shot moving image in response to receiving the one-shot range detection signal from the sensor unit 1.

ステップS54において、センサ情報取得部356は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から受信する。 In step S54, the sensor information acquisition unit 356 receives the sensor information of a predetermined characteristic point (address, top, downswing, impact, follow) in the golf swing of the measurement target person P from the sensor unit 1 by BLE. To do.

ステップS55において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。これにより、簡易表示画像が表示される。 In step S55, the data of predetermined characteristic points (address, top, downswing, impact, follow) in the golf swing of the measurement target person P are referred to, and each characteristic point prepared in advance corresponds to the data. The numerical values of each sensor information are displayed in order on the swing image. As a result, a simple display image is displayed.

ステップS56において、センサ情報取得部356は、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。 In step S56, the sensor information acquisition unit 356 acquires sensor information with a period (high sampling rate) corresponding to the shooting speed (for example, 240 fps) of the moving image for recording from the sensor unit 1 by BLE.

ステップS57において、ワンショット撮影管理部355は、撮影装置2から動画を受信する。 In step S57, the one-shot shooting management unit 355 receives a moving image from the shooting device 2.

ステップS58において、ワンショット撮影管理部355は、撮影装置2から動画の受信が完了したか否かの判定を行う。
撮影装置2から動画の受信が完了していない場合、ステップS58においてNOと判定されて、処理はステップS57に移行する。
一方、撮影装置2から動画の受信が完了した場合、ステップS58においてYESと判定されて、処理はステップS59に移行する。
In step S58, the one-shot shooting management unit 355 determines whether or not the reception of the moving image from the shooting device 2 is completed.
If the reception of the moving image from the photographing device 2 is not completed, NO is determined in step S58, and the process proceeds to step S57.
On the other hand, when the reception of the moving image from the photographing device 2 is completed, YES is determined in step S58, and the process proceeds to step S59.

ステップS59において、解析処理部358は、センサユニット1から取得した記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。 In step S59, the analysis processing unit 358 generates data representing the temporal change of the BOX animation from the sensor information of the cycle corresponding to the shooting speed of the moving image for recording acquired from the sensor unit 1.

ステップS60において、画像生成部359は、取得された記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。これにより、解析結果動画が表示される。 In step S60, the image generation unit 359 synthesizes and displays the BOX animation generated by the analysis processing unit 358 with the acquired moving image for recording. As a result, the analysis result moving image is displayed.

ステップS61において、書き出し処理部361は、解析結果動画の保存を指示する操作が行われたか否かの判定を行う。
解析結果動画の保存を指示する操作が行われていない場合、ステップS61においてNOと判定されて、解析結果表示処理は終了となる。
一方、解析結果動画の保存を指示する操作が行われた場合、ステップS61においてYESと判定されて、処理はステップS62に移行する。
In step S61, the writing processing unit 361 determines whether or not an operation for instructing the saving of the analysis result moving image has been performed.
If the operation for instructing the saving of the analysis result moving image is not performed, NO is determined in step S61, and the analysis result display process ends.
On the other hand, when the operation of instructing the saving of the analysis result moving image is performed, YES is determined in step S61, and the process proceeds to step S62.

ステップS62において、書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。
ステップS62の後、解析結果表示処理は終了となる。
In step S62, the writing processing unit 361 writes the analysis result moving image displayed by the image generation unit 359 as data in a predetermined storage format (MPEG or the like) to the storage unit 320 or the removable media 331.
After step S62, the analysis result display process ends.

このような処理により、解析システムSにおいては、計測対象者Pの身体の動きを計測して得られたセンサ情報と、計測対象者Pの動きを撮影した動画とを時刻を同期させて取得することができる。そして、センサ情報に基づいて、計測対象者Pの身体の3次元的な動きを模したBOXアニメーションを生成し、撮影装置2によって撮影された動画に合成することにより、解析結果動画を表示することができる。
解析結果動画では、計測対象者P自身の動画と、計測対象者Pの3次元的な動きをわかり易く表すBOXアニメーションと、計測対象者Pの身体の動きを計測して得られたセンサ情報とが時刻を同期させて表示される。
そのため、計測対象者Pの動きを撮影した動画のみからでは把握し難い情報を、BOXアニメーションによって直感的かつ容易に把握可能になると共に、時刻を同期させて表示されるセンサ情報によって、より詳細な動きの特徴を明確に把握することが可能となる。また、BOXアニメーションの時間的な変化はセンサ情報と対応付けられているため、BOXアニメーションを参照することによっても、正確な解析結果を把握することが可能となる。
By such processing, in the analysis system S, the sensor information obtained by measuring the body movement of the measurement target person P and the moving image of the movement of the measurement target person P are acquired in synchronization with the time. be able to. Then, based on the sensor information, a BOX animation that imitates the three-dimensional movement of the body of the measurement target person P is generated, and the analysis result moving image is displayed by synthesizing the BOX animation with the moving image taken by the photographing device 2. Can be done.
In the analysis result video, the video of the measurement target person P himself, the BOX animation showing the three-dimensional movement of the measurement target person P in an easy-to-understand manner, and the sensor information obtained by measuring the body movement of the measurement target person P are displayed. The time is displayed in synchronization.
Therefore, information that is difficult to grasp only from the video of the movement of the measurement target person P can be intuitively and easily grasped by the BOX animation, and more detailed by the sensor information displayed in synchronization with the time. It is possible to clearly grasp the characteristics of movement. Further, since the temporal change of the BOX animation is associated with the sensor information, it is possible to grasp the accurate analysis result by referring to the BOX animation.

また、解析システムSでは、ワンショットモードにおいて、解析結果動画が表示されることに先行して、計測対象者Pの動きに関する所定の情報を表示することにより、無用な待機時間が生じることを抑制している。
図16は、ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。
図16に示すように、ワンショットモードにおいて、処理装置3は、解析結果動画を表示するためにセンサ情報及び動画を取得する場合、まず、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を取得する(図15のステップS54)そして、計測対象者Pの動きに関する情報を簡易表示画像として表示しながら(図15のステップS55)、ワンショットの範囲のセンサ情報を取得し(ステップS56)、続いて、動画のデータを受信する(図15のステップS57)。そして、動画データの受信が完了し(図5のステップS58:YES)、BOXアニメーションが生成され(図5のステップS59)、解析結果動画の表示が可能となるまでの間(図5のステップS60)、簡易表示画像を継続して表示する。
そのため、処理装置3が動画のデータを取得する時間を単に待つよりも、一定の意義を有する計測対象者Pの動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
また、計測対象者Pの動きに関する情報を先行して提示することで、解析結果動画の生成に必要な最低限の時間に対して、提示した情報がユーザに閲覧される時間帯を付加的に創出することができる。そのため、解析結果動画の生成に費やす時間をより長く確保することが可能となり、より効果的な解析結果動画を提示することも可能となる。
Further, in the analysis system S, in the one-shot mode, by displaying predetermined information regarding the movement of the measurement target person P prior to displaying the analysis result moving image, it is possible to suppress the occurrence of unnecessary waiting time. doing.
FIG. 16 is a schematic diagram schematically showing the timing of processing between the devices in the one-shot mode.
As shown in FIG. 16, in the one-shot mode, when the processing device 3 acquires the sensor information and the moving image in order to display the analysis result moving image, first, a predetermined characteristic characteristic of the golf swing of the measurement target person P is set. The sensor information of the point is acquired (step S54 in FIG. 15), and the sensor information in the one-shot range is acquired while displaying the information on the movement of the measurement target person P as a simple display image (step S55 in FIG. 15). (Step S56), and subsequently, the moving image data is received (step S57 in FIG. 15). Then, until the reception of the moving image data is completed (step S58 in FIG. 5: YES), the BOX animation is generated (step S59 in FIG. 5), and the analysis result moving image can be displayed (step S60 in FIG. 5). ), The simple display image is continuously displayed.
Therefore, the user can display the movement of the measurement target person P having a certain significance in advance rather than simply waiting for the processing device 3 to acquire the moving image data, so that the user can move the movement of the target person more efficiently. It becomes possible to grasp.
In addition, by presenting information on the movement of the measurement target person P in advance, a time zone in which the presented information is viewed by the user is additionally added to the minimum time required for generating the analysis result video. Can be created. Therefore, it is possible to secure a longer time to generate the analysis result moving image, and it is also possible to present a more effective analysis result moving image.

また、解析システムSにおいては、ワンショットモードにおいて、計測対象者Pのアドレスが自動的に検出され、記録用の動画を撮影することができる。
したがって、計測対象者Pは、アドレスしてスイングする、という動作を繰り返すことにより、記録用の動画を簡単な動作によって逐次撮影することができる。
Further, in the analysis system S, in the one-shot mode, the address of the measurement target person P is automatically detected, and a moving image for recording can be recorded.
Therefore, the measurement target person P can sequentially shoot the moving image for recording by a simple operation by repeating the operation of addressing and swinging.

[変形例1]
上述の実施形態において、BOXアニメーションの表示形態は、計測対象者Pの身体の3次元的な動きを模したものであれば、種々の変形を行うことが可能である。
図17は、BOXアニメーションAnの表示形態例を示す模式図である。
図17に示す例では、BOXアニメーションAnの視点として、正面視、上面視、左側面視等、複数の視点を選択可能になっており、図17に示す例では、選択可能な視点のBOXアニメーションAnが画面上部に小サイズで表示されている。
また、BOXアニメーションAnの表示色は、計測対象者Pの身体の3次元的な動きがよりわかり易い色に選択することができる。
図17に示す例では、各視点のBOXアニメーションAnの表示色がそれぞれ異なる色に設定されている。
なお、BOXアニメーションを計測対象者Pの動画に重畳表示する際に、背景の色を検出し、背景の色と同化し難い所定色(例えば、補色系の色等)を選択することとしてもよい。
[Modification 1]
In the above-described embodiment, the display form of the BOX animation can be variously modified as long as it imitates the three-dimensional movement of the body of the measurement target person P.
FIG. 17 is a schematic diagram showing an example of a display form of the BOX animation An.
In the example shown in FIG. 17, a plurality of viewpoints such as front view, top view, and left side view can be selected as the viewpoint of the BOX animation An, and in the example shown in FIG. 17, the BOX animation of the selectable viewpoint is selected. An is displayed in a small size at the top of the screen.
Further, the display color of the BOX animation An can be selected to be a color in which the three-dimensional movement of the body of the measurement target person P is more easily understood.
In the example shown in FIG. 17, the display color of the BOX animation An of each viewpoint is set to a different color.
When the BOX animation is superimposed and displayed on the moving image of the measurement target person P, the background color may be detected and a predetermined color (for example, a complementary color) that is difficult to be assimilated with the background color may be selected. ..

[変形例2]
上述の実施形態において、リアルタイムモードにおける表示例として、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する場合について説明した。これに対し、リアルタイムモードにおいても、図11に示すワンショットモードの表示例のように、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することとしてもよい。
また、反対に、ワンショットモードにおいても、図10に示すリアルタイムモードの表示例のように、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示してもよい。
[Modification 2]
In the above-described embodiment, as a display example in the real-time mode, a case where the measurement target person P is displayed in the center and the BOX animation An is displayed at a preset predetermined position around the image of the measurement target person P has been described. .. On the other hand, even in the real-time mode, the BOX animation An may be transparently superimposed on the moving image of the measurement target person P as in the display example of the one-shot mode shown in FIG.
On the contrary, also in the one-shot mode, as in the display example of the real-time mode shown in FIG. 10, the measurement target person P is displayed in the center and a predetermined predetermined position around the image of the measurement target person P. BOX animation An may be displayed in.

[変形例3]
上述の実施形態において、1つのセンサユニット1を計測対象者Pの腰等に装着してセンサ情報を取得するものとして説明したが、これに限られない。即ち、複数のセンサユニット1を計測対象者Pの肩と腰等、複数の身体部位に装着し、これらの身体部位それぞれの動きを表すBOXアニメーションを表示することとしてもよい。
この場合、計測対象者Pの身体部位毎の動きの相違(例えば、肩と腰の捩れ等)も表示することができ、より効果的に計測結果を提示することが可能となる。
また、センサユニット1を装着する身体部位は、腰の他、肩、首、腕、大腿部、頭部等とすることができる。
[Modification 3]
In the above-described embodiment, one sensor unit 1 is attached to the waist or the like of the measurement target person P to acquire sensor information, but the present invention is not limited to this. That is, a plurality of sensor units 1 may be attached to a plurality of body parts such as the shoulder and waist of the measurement target person P, and a BOX animation showing the movement of each of these body parts may be displayed.
In this case, the difference in movement of the measurement target person P for each body part (for example, the twist of the shoulder and the waist) can be displayed, and the measurement result can be presented more effectively.
In addition to the waist, the body part to which the sensor unit 1 is attached can be shoulders, neck, arms, thighs, head, and the like.

[変形例4]
上述の実施形態において、ワンショットモードにおける表示例では、計測対象者Pの動きの連続的な動画が表示される。これに対し、計測対象者Pの動きの間欠的な動画を表示することが可能である。
この場合、解析結果動画を生成するための処理負荷が低下し、より早期に解析結果動画を提示することが可能となる。
[Modification example 4]
In the above-described embodiment, in the display example in the one-shot mode, a continuous moving image of the movement of the measurement target person P is displayed. On the other hand, it is possible to display an intermittent moving image of the movement of the measurement target person P.
In this case, the processing load for generating the analysis result moving image is reduced, and the analysis result moving image can be presented earlier.

[変形例5]
上述の実施形態において、BOXアニメーションを計測対象者Pの動画像に透過させて重畳させる場合、その透過度は、目的に応じて種々異なる値を設定することができる。例えば、計測対象者Pが行うべき動きのガイドとして、人型のオブジェクトを表示する場合、計測対象者Pの身体と人型のオブジェクトとの重なりが大きいときは、BOXアニメーションの透過度を上げ(即ち、薄く表示し)、計測対象者Pの身体と人型のオブジェクトとの重なりが小さいときは、BOXアニメーションの透過度を下げる(即ち、濃く表示する)ことが可能である。
これにより、計測対象者Pの動きのガイドを表示する際に、BOXアニメーションをより効果的な形態で表示することができる。
[Modification 5]
In the above-described embodiment, when the BOX animation is transparently superimposed on the moving image of the measurement target person P, the transparency can be set to various different values depending on the purpose. For example, when displaying a humanoid object as a guide for the movement to be performed by the measurement target person P, when the overlap between the measurement target person P's body and the humanoid object is large, the transparency of the BOX animation is increased ( That is, it is displayed lightly), and when the overlap between the body of the measurement target person P and the humanoid object is small, it is possible to reduce the transparency of the BOX animation (that is, display it darkly).
As a result, the BOX animation can be displayed in a more effective form when displaying the movement guide of the measurement target person P.

[変形例6]
上述の実施形態において、撮影装置2によってセンサユニット1を装着した計測対象者Pを撮影することにより、センサユニット1の装着位置を自動的に判別することができる。
この場合、リアルタイムモードにおける表示例等で、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションを表示する際に、BOXアニメーションの表示位置を自動的に決定することが可能となる。
[Modification 6]
In the above-described embodiment, the mounting position of the sensor unit 1 can be automatically determined by photographing the measurement target person P wearing the sensor unit 1 with the photographing device 2.
In this case, in the display example in the real-time mode, when the BOX animation is displayed at a position close to the position of the body on which the sensor unit 1 is attached in the measurement target person P, the display position of the BOX animation is automatically determined. It becomes possible.

以上のように構成される解析システムSは、センサユニット1と、撮影装置2と、処理装置3とを備える。センサユニット1は、対象者に装着され、対象者の動きをセンサによって計測する検出処理部156を備える。撮影装置2は、対象者の画像を撮影する撮影制御部253を備える。処理装置3は、画像取得部357と、センサ情報取得部356と、解析処理部358と、画像生成部359と、簡易表示生成部360とを備える。
画像取得部357は、対象者が撮影された画像を取得する。
センサ情報取得部356は、対象者の動きをセンサによって計測した計測結果を取得する。
画像生成部359は、画像取得部357によって取得された画像を出力部319に表示させる。
簡易表示生成部360は、画像生成部359による表示が行われることに先行して、センサ情報取得部356によって取得された計測結果に基づいて、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像生成部359によって解析結果が表示されるまでの時間を単に待つよりも、一定の意義を有する対象者の動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
したがって、本発明によれば、対象者の動きをユーザがより効率的に把握可能な表示を行うことができる。
The analysis system S configured as described above includes a sensor unit 1, a photographing device 2, and a processing device 3. The sensor unit 1 is attached to the target person and includes a detection processing unit 156 that measures the movement of the target person by a sensor. The photographing device 2 includes a photographing control unit 253 that photographs an image of the target person. The processing device 3 includes an image acquisition unit 357, a sensor information acquisition unit 356, an analysis processing unit 358, an image generation unit 359, and a simple display generation unit 360.
The image acquisition unit 357 acquires an image taken by the subject.
The sensor information acquisition unit 356 acquires the measurement result obtained by measuring the movement of the target person by the sensor.
The image generation unit 359 causes the output unit 319 to display the image acquired by the image acquisition unit 357.
The simple display generation unit 360 causes the output unit 319 to display information on the movement of the target person based on the measurement result acquired by the sensor information acquisition unit 356 prior to the display by the image generation unit 359. ..
As a result, rather than simply waiting for the time until the analysis result is displayed by the image generation unit 359, information on the movement of the target person having a certain significance can be displayed in advance, so that the user can display the movement of the target person more. It becomes possible to grasp efficiently.
Therefore, according to the present invention, it is possible to display the movement of the target person so that the user can grasp it more efficiently.

画像生成部359は、画像取得部357によって取得された画像と、計測結果とを共に出力部319に表示させる。
したがって、対象者の動きを表す動画と、その動画における動きを行っている際のセンサによる計測結果とを併せて表示することができるため、より効果的な形態で情報を表示することができる。
The image generation unit 359 causes the output unit 319 to display both the image acquired by the image acquisition unit 357 and the measurement result.
Therefore, since the moving image showing the movement of the target person and the measurement result by the sensor when the movement in the moving image can be displayed together, the information can be displayed in a more effective form.

センサ情報取得部356による計測結果得処理は、画像取得部357による画像の取得処理よりも処理時間が短い。
したがって、より早期に取得可能な計測結果を用いて、取得処理に長い時間を要する画像が取得されるまでの間に、有用な情報を表示することが可能となる。
The measurement result acquisition process by the sensor information acquisition unit 356 has a shorter processing time than the image acquisition process by the image acquisition unit 357.
Therefore, it is possible to display useful information by using the measurement result that can be acquired earlier until the image that requires a long time for the acquisition process is acquired.

センサ情報取得部356は、対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を計測結果として取得する。
これにより、より正確な計測結果を取得することができる。
The sensor information acquisition unit 356 acquires at least one information of the angular velocity or the acceleration measured by the sensor attached to the subject as the measurement result.
As a result, more accurate measurement results can be obtained.

画像取得部357は、対象者を撮影する撮影装置によって撮影された画像を取得する。
これにより、より適切な対象者の画像を撮影することができる。
The image acquisition unit 357 acquires an image taken by a photographing device that photographs the target person.
As a result, a more appropriate image of the target person can be taken.

画像生成部359は、対象者の画像に指標を重ねて表示する。
これにより、対象者の動きと指標の変化とを容易に把握することが可能となる。
The image generation unit 359 displays the index superimposed on the image of the target person.
This makes it possible to easily grasp the movement of the target person and the change of the index.

センサ情報取得部356は、画像取得部357が画像を取得することに先立って計測結果を取得する。
簡易表示生成部360は、画像取得部357が画像を取得している間に、対象者の動きに関する情報を出力部319に表示させる。
これにより、画像取得部357によって画像が取得されている間の時間を有効に活用することができる。
The sensor information acquisition unit 356 acquires the measurement result prior to the image acquisition unit 357 acquiring the image.
The simple display generation unit 360 causes the output unit 319 to display information regarding the movement of the target person while the image acquisition unit 357 is acquiring the image.
As a result, the time during which the image is acquired by the image acquisition unit 357 can be effectively utilized.

簡易表示生成部360は、センサ情報取得部356によって取得された計測結果において、特徴的なポイントの計測結果と、当該特徴的なポイントを表す画像とを出力部319に表示させる。
これにより、対象者の動きの特徴を早期に把握することが可能となる。
The simple display generation unit 360 causes the output unit 319 to display the measurement result of the characteristic point and the image representing the characteristic point in the measurement result acquired by the sensor information acquisition unit 356.
This makes it possible to grasp the characteristics of the movement of the subject at an early stage.

簡易表示生成部360は、センサ情報取得部356によって取得された計測結果において、時系列における複数の特徴的なポイントについて、特徴的なポイントの計測結果及び特徴的なポイントを表す画像を順に出力部319に表示させる。
これにより、対象者の動き全体の概要を早期に把握することが可能となる。
In the measurement result acquired by the sensor information acquisition unit 356, the simple display generation unit 360 outputs the measurement result of the characteristic point and the image showing the characteristic point in order for a plurality of characteristic points in the time series. Displayed on 319.
This makes it possible to grasp the outline of the entire movement of the target person at an early stage.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the range in which the object of the present invention can be achieved are included in the present invention.

上述の実施形態において、処理装置3が簡易表示画像を表示する場合、撮影装置2からの動画の取得及び解析結果動画の生成全体に要する時間を推測し、推測した時間を簡易表示画像の数で分割した時間ずつ、簡易表示画像を順に表示してもよい。これにより、簡易表示画像の表示内容と解析結果動画の表示開始タイミングとの整合を取りつつ、よりわかり易い形態で解析結果を表示することができる。 In the above-described embodiment, when the processing device 3 displays the simple display image, the time required for the acquisition of the moving image from the photographing device 2 and the generation of the analysis result moving image is estimated, and the estimated time is calculated by the number of the simple display images. The simple display images may be displayed in order for each divided time. As a result, the analysis result can be displayed in a more understandable form while matching the display content of the simple display image with the display start timing of the analysis result moving image.

また、上述の実施形態において、解析システムSをセンサユニット1、撮影装置2及び処理装置3の3つの装置によって構成するものとしたが、これに限られない。例えば、センサユニット1と処理装置3との機能を兼ね備えたスマートフォン等によって、センサユニット1と処理装置3とを一体化した装置として解析システムSを構成してもよい。 Further, in the above-described embodiment, the analysis system S is composed of three devices, a sensor unit 1, a photographing device 2, and a processing device 3, but the present invention is not limited to this. For example, the analysis system S may be configured as a device in which the sensor unit 1 and the processing device 3 are integrated by a smartphone or the like having the functions of the sensor unit 1 and the processing device 3.

また、上述の実施形態において、BOXアニメーションの時間的変化を表示する場合、センサユニット1によって取得されたセンサ情報を基に、加速度の変化等、動きの特徴を色分けあるいは指標を表示する等の表示形態により、識別して表示することとしてもよい。例えば、基準よりも大きい加速度で身体が動いている場合、計測対象者Pの身体を赤色に着色したりすることが可能である。 Further, in the above-described embodiment, when displaying the temporal change of the BOX animation, the movement features such as the change in acceleration are color-coded or the index is displayed based on the sensor information acquired by the sensor unit 1. Depending on the form, it may be identified and displayed. For example, when the body is moving at an acceleration larger than the reference, it is possible to color the body of the measurement target person P in red.

上述の実施形態において、リアルタイムモードにおける表示例等のように、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションを表示する場合、計測対象者Pにおいてセンサユニット1が装着された身体の位置を引き出し線やマーカーで識別して示すこととしてもよい。また、計測対象者Pにおいてセンサユニット1が装着された身体の位置に、BOXアニメーションを重ねて表示することとしてもよい。 In the above-described embodiment, when the BOX animation is displayed at a preset predetermined position around the image of the measurement target person P as in the display example in the real-time mode, the sensor unit 1 is attached to the measurement target person P. The position of the body may be identified and indicated by a leader line or a marker. Further, the BOX animation may be superimposed and displayed on the position of the body on which the sensor unit 1 is attached in the measurement target person P.

上述の実施形態において、計測対象者Pがスイングを行ったか否かについて、センサ情報により詳細な条件を設定して判定することができる。例えば、鉛直軸周りの回転角度が第1の角度以上、テイクバック方向に回転した場合にトップと判定し、トップから鉛直軸周りに第1の角速度以上で回転した場合にダウンスイングと判定し、鉛直軸周りの回転角度が第2の角度以上、フォロー方向に回転した場合にフォローと判定し、これら全ての条件を充足した場合に、スイングが行われたものと判定することができる。なお、これらの判定条件が充足される時間にもさらに条件を設定してもよい。例えば、各条件が2秒以内に順次充足されること等を条件に設定することができる。 In the above-described embodiment, it is possible to determine whether or not the measurement target person P has performed a swing by setting detailed conditions based on the sensor information. For example, if the rotation angle around the vertical axis is equal to or greater than the first angle and rotates in the takeback direction, it is determined to be the top, and if it rotates from the top to the vertical axis at the first angular velocity or more, it is determined to be a downswing. When the rotation angle around the vertical axis is equal to or greater than the second angle and the rotation is in the follow direction, it is determined to be follow, and when all these conditions are satisfied, it can be determined that the swing has been performed. Further, the conditions may be set for the time when these determination conditions are satisfied. For example, it can be set as a condition that each condition is sequentially satisfied within 2 seconds.

上述の実施形態において、センサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する場合、時系列のデータを時間順に解析して特徴的なポイントを判別することや、特徴的なポイントとして明らかに判別可能なタイミングから時系列を遡って解析して、他の特徴的なポイントを判別することが可能である。
これにより、ゴルフのスイングにおける所定の特徴的なポイントのタイミングをより確実に検出することができる。
In the above-described embodiment, when the timing of a predetermined characteristic point in the golf swing is detected based on the sensor information, the time-series data is analyzed in chronological order to determine the characteristic point. It is possible to discriminate other characteristic points by analyzing the time series retroactively from the timing that can be clearly discriminated as a specific point.
This makes it possible to more reliably detect the timing of a predetermined characteristic point in the golf swing.

上述の実施形態において、簡易表示生成部360が簡易表示画像を表示する場合、解析処理部358によるBOXアニメーションのデータの生成及び画像生成部359による解析結果動画の表示に関する処理をキャンセルさせるキャンセルボタンを表示することとしてもよい。
これにより、簡易表示画像を確認することによって、解析結果動画の生成が不要であると判断された場合に、無用な処理が行われることを抑制することができる。
In the above-described embodiment, when the simple display generation unit 360 displays the simple display image, the cancel button for canceling the processing related to the generation of the BOX animation data by the analysis processing unit 358 and the display of the analysis result moving image by the image generation unit 359 is pressed. It may be displayed.
As a result, by checking the simple display image, it is possible to prevent unnecessary processing from being performed when it is determined that the generation of the analysis result moving image is unnecessary.

上述の実施形態において、ワンショットモードで取得したワンショットの範囲のセンサ情報をセンサユニット1から処理装置3に送信する場合、図13のステップS14において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を先行して送信することなく、図13のステップS15において、ワンショットの範囲のセンサ情報全体を処理装置3に送信することとしてもよい。この場合、センサ情報の送信に要する時間を全体として短縮することができる。 In the above-described embodiment, when the sensor information of the one-shot range acquired in the one-shot mode is transmitted from the sensor unit 1 to the processing device 3, in step S14 of FIG. 13, a predetermined value in the golf swing of the measurement target person P is determined. In step S15 of FIG. 13, the entire sensor information in the one-shot range may be transmitted to the processing device 3 without transmitting the sensor information of the characteristic point in advance. In this case, the time required for transmitting the sensor information can be shortened as a whole.

上述の実施形態においては、検出処理部156は、ワンショットモードにおいて取得されたセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、波形の変化量が少ない状態から波形が変化し始めたタイミングをアドレスのタイミングとして検出してもよく、一度スイングの範囲を検出し、ダウンスイングのタイミングを検出した後に、該ダウンスイングのタイミングから所定時間遡った時点をアドレスの時点として再設定して、ワンショットの範囲を決めるように構成してもよい。 In the above-described embodiment, the detection processing unit 156 detects the timing of a predetermined characteristic point in the golf swing based on the sensor information acquired in the one-shot mode. For example, the detection processing unit 156 may analyze the waveform of the sensor information acquired in the one-shot mode and detect the timing when the waveform starts to change from the state where the amount of change in the waveform is small as the address timing, and swing once. After detecting the range of the downswing and detecting the timing of the downswing, the time point that goes back a predetermined time from the timing of the downswing may be reset as the time point of the address to determine the range of one shot.

上述の実施形態において、ゴルフのスイングを行う計測対象者Pにセンサユニット1を装着し、ゴルフのスイングの解析に解析システムSを用いる場合について説明したが、これに限られない。即ち、本発明に係る解析システムSは、野球、テニス、陸上競技等、被写体となるプレーヤーを画角の固定的な位置に撮影可能な各種スポーツ等に用いることができる。例えば、野球の打席でスイングする打者、マウンドで投球するピッチャー、テニスのサーバー、並走するカメラで撮影される短距離走者等を対象として、本発明に係る解析システムSを用いることができる。 In the above-described embodiment, the case where the sensor unit 1 is attached to the measurement target person P who performs the golf swing and the analysis system S is used for the analysis of the golf swing has been described, but the present invention is not limited to this. That is, the analysis system S according to the present invention can be used for various sports such as baseball, tennis, and athletics, in which a player as a subject can be photographed at a fixed angle of view. For example, the analysis system S according to the present invention can be used for a batter swinging in a baseball at-bat, a pitcher throwing in a mound, a tennis server, a sprinter photographed by a parallel camera, and the like.

また、上述の実施形態では、本発明が適用される処理装置3は、スマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
Further, in the above-described embodiment, the processing device 3 to which the present invention is applied has been described by taking a smartphone as an example, but the present invention is not particularly limited thereto.
For example, the present invention can be generally applied to electronic devices having an image processing function. Specifically, for example, the present invention can be applied to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6、8、9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が解析システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6、8、9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or software.
In other words, the functional configurations of FIGS. 6, 8 and 9 are merely examples and are not particularly limited. That is, it suffices if the analysis system S is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is particularly an example of FIGS. 6, 8 and 9. Not limited to.
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
The functional configuration in the present embodiment is realized by a processor that executes arithmetic processing, and the processor that can be used in the present embodiment is composed of various processing devices such as a single processor, a multiprocessor, and a multicore processor. In addition to the above, the present invention includes a combination of these various processing units and processing circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes are executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4、5のリムーバブルメディア231、331により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア231、331は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図3〜5のROM112、212、312や、図3〜5の記憶部119、219、320に含まれるハードディスク等で構成される。 The recording medium containing such a program is not only composed of the removable media 231 and 331 of FIGS. 4 and 5 distributed separately from the device main body in order to provide the program to the user, but is also preliminarily incorporated in the device main body. It is composed of a recording medium or the like provided to the user in this state. The removable media 231 and 331 are composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versaille Disk), a Blu-ray (registered trademark) Disc (Blu-ray Disc), or the like. The magneto-optical disk is composed of MD (Mini-Disk) or the like. The recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body is, for example, ROMs 112, 212, 312 of FIGS. 3 to 5 in which the program is recorded, and storage units 119, 219 of FIGS. , 320 and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and further, various modifications such as omission and substitution can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in the present specification and the like, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記第1表示制御手段は、前記画像取得手段によって取得された前記画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする付記1に記載の画像処理装置。
[付記3]
前記計測結果取得手段による計測結果得処理は、前記画像取得手段による前記画像の取得処理よりも処理時間が短いことを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記計測結果取得手段は、前記画像取得手段が前記画像を取得することに先立って前記計測結果を取得し、
前記第2表示制御手段は、前記画像取得手段が前記画像を取得している間に、前記対象者の動きに関する情報を前記表示手段に表示させることを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントの前記計測結果と、当該特徴的なポイントを表す画像とを前記表示手段に表示させることを特徴とする付記1から6のいずれか1つに記載の画像処理装置。
[付記8]
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントについて、前記特徴的なポイントの前記計測結果及び前記特徴的なポイントを表す画像を順に前記表示手段に表示させることを特徴とする付記7に記載の画像処理装置。
[付記9]
対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記画像を表示手段に表示させる第1表示制御手段と、
前記第1表示制御手段による表示が行われることに先行して、前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。
[付記10]
画像処理装置が実行する画像処理方法であって、
対象者が撮影された画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記画像取得ステップによって取得された前記画像を表示手段に表示させる第1表示制御ステップと、
前記第1表示制御ステップによる表示が行われることに先行して、前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御ステップと、
を含むことを特徴とする画像処理方法。
[付記11]
画像処理装置を制御するコンピュータに、
対象者が撮影された画像を取得する画像取得機能と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
前記画像取得機能によって取得された前記画像を表示手段に表示させる第1表示制御機能と、
前記第1表示制御機能による表示が行われることに先行して、前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きに関する情報を前記表示手段に表示させる第2表示制御機能と、
を実現させることを特徴とするプログラム。
The inventions described in the claims at the time of filing the application of the present application are described below.
[Appendix 1]
Image acquisition means for acquiring images taken by the subject,
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person with a sensor,
A first display control means for causing the display means to display the image acquired by the image acquisition means, and
Prior to the display by the first display control means, the display means causes the display means to display information on the movement of the target person based on the measurement result acquired by the measurement result acquisition means. Control means and
An image processing device characterized by comprising.
[Appendix 2]
The image processing apparatus according to Appendix 1, wherein the first display control means causes the display means to display both the image acquired by the image acquisition means and the measurement result.
[Appendix 3]
The image processing apparatus according to Appendix 1 or 2, wherein the measurement result acquisition process by the measurement result acquisition means has a shorter processing time than the image acquisition process by the image acquisition means.
[Appendix 4]
The measurement result acquisition means obtains at least one of the information of the angular velocity or the acceleration measured by the sensor mounted on the subject as the measurement result, according to any one of the appendices 1 to 3. The image processing apparatus described.
[Appendix 5]
The image processing device according to any one of Supplementary note 1 to 4, wherein the image acquisition means acquires the image taken by the photographing device for photographing the target person.
[Appendix 6]
The measurement result acquisition means acquires the measurement result prior to the image acquisition means acquiring the image.
The second display control means is any one of Appendix 1 to 5, wherein the display means displays information on the movement of the target person while the image acquisition means is acquiring the image. The image processing apparatus according to 1.
[Appendix 7]
In the measurement result acquired by the measurement result acquisition means, the second display control means causes the display means to display the measurement result of the characteristic point and the image representing the characteristic point. The image processing apparatus according to any one of Supplementary Provisions 1 to 6, which is a feature.
[Appendix 8]
In the measurement result acquired by the measurement result acquisition means, the second display control means obtains the measurement result and the characteristic point of the characteristic point with respect to the plurality of the characteristic points in the time series. The image processing apparatus according to Appendix 7, wherein the images to be represented are sequentially displayed on the display means.
[Appendix 9]
A shooting device equipped with a shooting means for shooting an image of the target person,
A detection device that is attached to the target person and includes a measuring means for measuring the movement of the target person by a sensor.
An image acquisition means for acquiring an image captured by the subject from the imaging device, and
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person by a sensor from the detection device, and
A first display control means for causing the display means to display the image acquired by the image acquisition means, and
Prior to the display by the first display control means, the display means causes the display means to display information on the movement of the target person based on the measurement result acquired by the measurement result acquisition means. An image processing device including a control means,
An analysis system characterized by including.
[Appendix 10]
An image processing method executed by an image processing device.
An image acquisition step to acquire an image taken by the subject, and
The measurement result acquisition step of acquiring the measurement result obtained by measuring the movement of the target person by the sensor, and
A first display control step for causing the display means to display the image acquired by the image acquisition step, and
Prior to the display by the first display control step, the display means causes the display means to display information on the movement of the target person based on the measurement result acquired in the measurement result acquisition step. Control steps and
An image processing method characterized by including.
[Appendix 11]
To the computer that controls the image processing device
An image acquisition function that acquires images taken by the target person,
The measurement result acquisition function that acquires the measurement result of the movement of the target person measured by the sensor, and
The first display control function for displaying the image acquired by the image acquisition function on the display means, and
Prior to the display by the first display control function, the second display for displaying information on the movement of the target person on the display means based on the measurement result acquired by the measurement result acquisition function. Control function and
A program characterized by realizing.

S 解析システム,1・・・センサユニット,2・・・撮影装置,3・・・処理装置,111、211、311・・・CPU,112、212、312・・・ROM,113、213、313・・・RAM,114、214、314・・・バス,115、215、315・・・入出力インターフェース,116、317・・・センサ部,117、217、318・・・入力部,118、218、319・・・出力部,119、219、320・・・記憶部,120、220、321・・・通信部,121、322・・・ドライブ,216、316・・・撮像部,231、331・・・リムーバブルメディア,151、251、351・・・第1通信制御部,152、252、352・・・第2通信制御部,153・・・キャリブレーション実行部,154・・・モード設定部,155、254・・・同期制御部,156・・・検出処理部,171、372・・・センサ情報記憶部,253・・・撮影制御部,255・・・動画送信制御部,271、371・・・動画データ記憶部,353・・・キャリブレーション管理部,354・・・モード制御部,355・・・ワンショット撮影管理部,356・・・センサ情報取得部,357・・・画像取得部,358・・・解析処理部,359・・・画像生成部,360・・・簡易表示生成部,361・・・書き出し処理部,373・・・合成画像記憶部 S analysis system, 1 ... sensor unit, 2 ... photographing device, 3 ... processing device, 111, 211, 311 ... CPU, 112, 212, 312 ... ROM, 113, 213, 313 ... RAM, 114, 214, 314 ... Bus, 115, 215, 315 ... Input / output interface, 116, 317 ... Sensor unit, 117, 217, 318 ... Input unit, 118, 218 , 319 ... Output unit, 119, 219, 320 ... Storage unit, 120, 220, 321 ... Communication unit, 121, 322 ... Drive, 216, 316 ... Imaging unit, 231 and 331 ... Removable media, 151, 251, 351 ... 1st communication control unit, 152, 252, 352 ... 2nd communication control unit, 153 ... Calibration execution unit, 154 ... Mode setting unit , 155, 254 ... Synchronous control unit, 156 ... Detection processing unit, 171, 372 ... Sensor information storage unit, 253 ... Shooting control unit, 255 ... Movie transmission control unit, 271, 371 ... Video data storage unit, 353 ... Calibration management unit, 354 ... Mode control unit, 355 ... One-shot shooting management unit, 356 ... Sensor information acquisition unit, 357 ... Image acquisition Unit, 358 ... Analysis processing unit, 359 ... Image generation unit, 360 ... Simple display generation unit, 361 ... Export processing unit, 373 ... Composite image storage unit

Claims (11)

対象者が撮影された撮影画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記撮影画像を表示手段に表示させる第1表示制御手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成手段と、
前記第1表示制御手段による前記撮影画像の表示に先行して、前記簡易表示画像生成手段により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御手段と、を備え、
前記計測結果取得手段による計測結果取得処理は、前記画像取得手段による前記撮影画像の取得処理よりも処理時間が短いことを特徴とする画像処理装置。
Image acquisition means for acquiring captured images taken by the subject,
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person with a sensor,
A first display control means for displaying the captured image acquired by the image acquisition means on the display means, and
A simple display image generation means for generating a simple display image relating to the movement of the target person, which is different from the captured image, based on the measurement result acquired by the measurement result acquisition means.
A second display control means for causing the display means to display the simple display image generated by the simple display image generation means prior to the display of the captured image by the first display control means .
An image processing apparatus characterized in that the measurement result acquisition process by the measurement result acquisition means has a shorter processing time than the acquisition process of the captured image by the image acquisition means .
対象者が撮影された撮影画像を取得する画像取得手段と、Image acquisition means for acquiring captured images taken by the subject,
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person with a sensor,
前記画像取得手段によって取得された前記撮影画像を表示手段に表示させる第1表示制御手段と、A first display control means for displaying the captured image acquired by the image acquisition means on the display means, and
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成手段と、A simple display image generation means for generating a simple display image relating to the movement of the target person, which is different from the captured image, based on the measurement result acquired by the measurement result acquisition means.
前記第1表示制御手段による前記撮影画像の表示に先行して、前記簡易表示画像生成手段により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御手段と、を備え、A second display control means for causing the display means to display the simple display image generated by the simple display image generation means prior to the display of the captured image by the first display control means.
前記計測結果取得手段は、前記画像取得手段が前記撮影画像を取得することに先立って前記計測結果を取得し、The measurement result acquisition means acquires the measurement result prior to the image acquisition means acquiring the captured image.
前記第2表示制御手段は、前記画像取得手段が前記撮影画像を取得している間に、前記簡易表示画像を前記表示手段に表示させることを特徴とする画像処理装置。The second display control means is an image processing device characterized in that the simple display image is displayed on the display means while the image acquisition means is acquiring the captured image.
前記第1表示制御手段は、前記画像取得手段によって取得された前記撮影画像と、前記計測結果とを共に前記表示手段に表示させることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2 , wherein the first display control means displays both the captured image acquired by the image acquisition means and the measurement result on the display means. 前記計測結果取得手段は、前記対象者に装着されたセンサによって計測される角速度または加速度の少なくともいずれかの情報を前記計測結果として取得することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 Any one of claims 1 to 3, wherein the measurement result acquisition means acquires at least one information of an angular velocity or an acceleration measured by a sensor mounted on the subject as the measurement result. The image processing apparatus according to. 前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記撮影画像を取得することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The image processing device according to any one of claims 1 to 4, wherein the image acquisition means acquires the photographed image photographed by the photographing apparatus for photographing the target person. 前記簡易表示画像生成手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントを表す前記簡易表示画像を生成し、
前記第2表示制御手段は、前記簡易表示画像として、前記計測結果取得手段によって取得された前記計測結果における、前記特徴的なポイントの前記計測結果と、当該特徴的なポイントに対応する画像とを前記表示手段に表示させることを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
The simple display image generation means generates the simple display image representing a characteristic point in the measurement result acquired by the measurement result acquisition means.
As the simple display image , the second display control means obtains the measurement result of the characteristic point and the image corresponding to the characteristic point in the measurement result acquired by the measurement result acquisition means. The image processing apparatus according to any one of claims 1 to 5 , wherein the display means displays the image.
対象者が撮影された撮影画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記撮影画像を表示手段に表示させる第1表示制御手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成手段と、
前記第1表示制御手段による前記撮影画像の表示に先行して、前記簡易表示画像生成手段により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御手段と、を備え、
前記簡易表示画像生成手段は、前記計測結果取得手段によって取得された前記計測結果において、特徴的なポイントを表す前記簡易表示画像を生成し、
前記第2表示制御手段は、前記簡易表示画像として、前記計測結果取得手段によって取得された前記計測結果における、前記特徴的なポイントの前記計測結果と、当該特徴的なポイントに対応する画像とを前記表示手段に表示させ、
前記簡易表示画像生成手段は、前記計測結果取得手段によって取得された前記計測結果において、時系列における複数の前記特徴的なポイントを表す前記簡易表示画像を複数生成し、
前記第2表示制御手段は、前記計測結果取得手段によって取得された前記計測結果における、前記時系列における複数の前記特徴的なポイントの前記計測結果及び前記時系列における複数の前記特徴的なポイントを表す前記簡易表示画像を順に前記表示手段に表示させることを特徴とする画像処理装置。
Image acquisition means for acquiring captured images taken by the subject,
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person with a sensor,
A first display control means for displaying the captured image acquired by the image acquisition means on the display means, and
A simple display image generation means for generating a simple display image relating to the movement of the target person, which is different from the captured image, based on the measurement result acquired by the measurement result acquisition means.
A second display control means for causing the display means to display the simple display image generated by the simple display image generation means prior to the display of the captured image by the first display control means.
The simple display image generation means generates the simple display image representing a characteristic point in the measurement result acquired by the measurement result acquisition means.
As the simple display image, the second display control means obtains the measurement result of the characteristic point and the image corresponding to the characteristic point in the measurement result acquired by the measurement result acquisition means. Display on the display means
The simple display image generation means generates a plurality of the simple display images representing a plurality of the characteristic points in a time series in the measurement result acquired by the measurement result acquisition means.
The second display control means obtains the measurement results of the plurality of the characteristic points in the time series and the plurality of the characteristic points in the time series in the measurement result acquired by the measurement result acquisition means. the fact to be displayed on the display means the simple display image in order to represent image picture processor you said.
前記計測結果取得手段に取得された前記計測結果に基づいて、前記対象者による所定の動作を検出した場合、前記撮影画像を撮影する撮影装置に対して、撮影に関する指示を示す指示情報を送信する指示情報送信手段を更に備え、When a predetermined operation by the target person is detected based on the measurement result acquired by the measurement result acquisition means, instruction information indicating an instruction regarding photography is transmitted to the photographing device for photographing the photographed image. Further equipped with instruction information transmission means,
前記指示情報送信手段は、前記計測結果に基づいて、前記対象者による第1の動作を検出した場合に前記撮影装置に撮影を開始させることを示す前記指示情報を送信し、前記対象者による前記第1の動作とは異なる第2の動作を検出した場合に前記撮影装置に撮影を終了させることを示す前記指示情報を送信することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。Based on the measurement result, the instruction information transmitting means transmits the instruction information indicating that the imaging device starts photographing when the first operation by the target person is detected, and the target person transmits the instruction information. The invention according to any one of claims 1 to 7, wherein when the second operation different from the first operation is detected, the instruction information indicating that the photographing device is terminated is transmitted. Image processing equipment.
対象者の撮影画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された撮影画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記画像取得手段によって取得された前記撮影画像を表示手段に表示させる第1表示制御手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成手段と、
前記第1表示制御手段による前記撮影画像の表示に先行して、前記簡易表示画像生成手段により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御手段と、を備え、
前記計測結果取得手段による計測結果取得処理は、前記画像取得手段による前記撮影画像の取得処理よりも処理時間が短いことを特徴とする画像処理装置と、
を含むことを特徴とする解析システム。
A shooting device equipped with a shooting means for shooting an image shot by the subject,
A detection device that is attached to the target person and includes a measuring means for measuring the movement of the target person by a sensor.
An image acquisition means for acquiring a photographed image taken by the subject from the photographing device, and
A measurement result acquisition means for acquiring a measurement result obtained by measuring the movement of the target person by a sensor from the detection device, and
A first display control means for displaying the captured image acquired by the image acquisition means on the display means, and
A simple display image generation means for generating a simple display image relating to the movement of the target person, which is different from the captured image, based on the measurement result acquired by the measurement result acquisition means.
A second display control means for causing the display means to display the simple display image generated by the simple display image generation means prior to the display of the captured image by the first display control means .
An image processing apparatus characterized in that the measurement result acquisition process by the measurement result acquisition means has a shorter processing time than the acquisition process of the captured image by the image acquisition means .
An analysis system characterized by including.
画像処理装置が実行する画像処理方法であって、
対象者が撮影された撮影画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記画像取得ステップによって取得された前記撮影画像を表示手段に表示させる第1表示制御ステップと、
前記計測結果取得ステップによって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成ステップと、
前記第1表示制御ステップによる前記撮影画像の表示に先行して、前記簡易表示画像生成ステップにより生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御ステップと、を含み、
前記計測結果取得ステップによる計測結果取得処理は、前記画像取得ステップによる前記撮影画像の取得処理よりも処理時間が短いことを特徴とする画像処理方法。
An image processing method executed by an image processing device.
An image acquisition step to acquire a captured image taken by the subject, and
The measurement result acquisition step of acquiring the measurement result obtained by measuring the movement of the target person by the sensor, and
A first display control step for displaying the captured image acquired by the image acquisition step on the display means, and
Based on the measurement result acquired by the measurement result acquisition step, a simple display image generation step for generating a simple display image relating to the movement of the target person, which is different from the captured image,
A second display control step of displaying the simple display image generated by the simple display image generation step on the display means prior to the display of the captured image by the first display control step is included.
An image processing method characterized in that the measurement result acquisition process by the measurement result acquisition step has a shorter processing time than the acquisition process of the captured image by the image acquisition step .
画像処理装置を制御するコンピュータに、
対象者が撮影された撮影画像を取得する画像取得機能、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能、
前記画像取得機能によって取得された前記撮影画像を表示手段に表示させる第1表示制御機能、
前記計測結果取得機能によって取得された前記計測結果に基づいて、前記撮影画像とは異なる、前記対象者の動きに関する簡易表示画像を生成する簡易表示画像生成機能、
前記第1表示制御機能による前記撮影画像の表示に先行して、前記簡易表示画像生成機能により生成された前記簡易表示画像を前記表示手段に表示させる第2表示制御機能、として実現させ、
前記計測結果取得機能による計測結果取得処理は、前記画像取得機能による前記撮影画像の取得処理よりも処理時間が短いことを特徴とするプログラム。
To the computer that controls the image processing device
Image acquisition function for acquiring a photographed image of the subject is photographed,
Measurement result acquisition function for acquiring the measurement result obtained by measuring the motion of the subject by a sensor,
The first display control function of displaying the photographed image acquired by the image acquisition function on the display means,
The measurement result acquisition function based on the acquired measurement result by said different from the captured image, the simple display image generating function of generating a simplified display image related to the movement of the subject,
Prior to the display of the captured image by the first display control function, the simple display image generated by the simple display image generation function is realized as a second display control function to be displayed on the display means .
The measurement result acquisition process by the measurement result acquisition function is a program characterized in that the processing time is shorter than the acquisition process of the captured image by the image acquisition function .
JP2016226233A 2016-11-21 2016-11-21 Image processing equipment, analysis system, image processing method and program Active JP6787072B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016226233A JP6787072B2 (en) 2016-11-21 2016-11-21 Image processing equipment, analysis system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016226233A JP6787072B2 (en) 2016-11-21 2016-11-21 Image processing equipment, analysis system, image processing method and program

Publications (3)

Publication Number Publication Date
JP2018085574A JP2018085574A (en) 2018-05-31
JP2018085574A5 JP2018085574A5 (en) 2019-11-21
JP6787072B2 true JP6787072B2 (en) 2020-11-18

Family

ID=62237707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016226233A Active JP6787072B2 (en) 2016-11-21 2016-11-21 Image processing equipment, analysis system, image processing method and program

Country Status (1)

Country Link
JP (1) JP6787072B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021029484A (en) * 2019-08-21 2021-03-01 日本電気株式会社 Determination verification system, determination verification method and computer program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084375A (en) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab Operation verification system and non-contact manipulation system
JP2009050721A (en) * 2008-11-25 2009-03-12 Hitachi Metals Ltd Swing movement assessment method, swing movement assessment apparatus, swing movement assessment system, and swing movement assessment program
US8418085B2 (en) * 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
JP5641222B2 (en) * 2010-12-06 2014-12-17 セイコーエプソン株式会社 Arithmetic processing device, motion analysis device, display method and program
JP2015186531A (en) * 2014-03-26 2015-10-29 国立大学法人 東京大学 Action information processing device and program

Also Published As

Publication number Publication date
JP2018085574A (en) 2018-05-31

Similar Documents

Publication Publication Date Title
KR102553278B1 (en) Image processing apparatus, analysis system, method for processing images, and program
US10070046B2 (en) Information processing device, recording medium, and information processing method
JP5920264B2 (en) Image identification device, image identification system, image identification method, and program
JPWO2013069049A1 (en) Image generating apparatus and image generating method
US10083519B2 (en) Information processing apparatus and information processing method for specifying a composition of a picture
CN103139475A (en) Imaging device
JP2014061119A (en) Image identification system, image identification method, image identification device, and program
JP2017173252A (en) Image processing apparatus, image processing method, and image processing program
JP2017049052A (en) System, method and program for generating three-dimensional image data of object
US20160088219A1 (en) Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium
US11305171B2 (en) Motion evaluation device using angular speed measured by a wearable sensor
JP6787072B2 (en) Image processing equipment, analysis system, image processing method and program
JP2016036680A (en) Photographing control method, photographing control device, photographing control system, and program
JP7188422B2 (en) Image processing device, analysis system, image processing method and program
JP6878874B2 (en) Motion analysis device, motion analysis method and program
JP2021102075A (en) Output device, output method, and program
JP7069953B2 (en) Electronic devices, partial identification methods for operation data, and programs
JP5957838B2 (en) Image processing apparatus, image processing method, and program
JP2010093451A (en) Imaging apparatus and program for imaging apparatus
KR20160057971A (en) Image processing apparatus, image processing method, and program
CN104735342B (en) Moving image processing apparatus, dynamic image processing method and recording medium
JP6222148B2 (en) Imaging apparatus, image reproduction method, and program
JP2014064125A (en) Image generation device, image generation method, and program
JP2016126509A (en) Notification control device, notification control method, and program
JP2024064186A (en) Imaging system, device and control method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191008

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R150 Certificate of patent or registration of utility model

Ref document number: 6787072

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150