JP7188422B2 - Image processing device, analysis system, image processing method and program - Google Patents

Image processing device, analysis system, image processing method and program Download PDF

Info

Publication number
JP7188422B2
JP7188422B2 JP2020143999A JP2020143999A JP7188422B2 JP 7188422 B2 JP7188422 B2 JP 7188422B2 JP 2020143999 A JP2020143999 A JP 2020143999A JP 2020143999 A JP2020143999 A JP 2020143999A JP 7188422 B2 JP7188422 B2 JP 7188422B2
Authority
JP
Japan
Prior art keywords
image
subject
sensor
unit
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020143999A
Other languages
Japanese (ja)
Other versions
JP2020205608A (en
Inventor
健士 岩本
磨 野嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020143999A priority Critical patent/JP7188422B2/en
Publication of JP2020205608A publication Critical patent/JP2020205608A/en
Application granted granted Critical
Publication of JP7188422B2 publication Critical patent/JP7188422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明は、画像処理装置、解析システム、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an analysis system, an image processing method, and a program.

近年、スポーツ技術向上等を目的として、対象者の運動を解析するための様々な技術が検討されている。
例えば、特許文献1には、スイング運動解析技術の分野において対象者の動作に関する情報をセンサにより取得し、該センサ情報に応じて指標画像を生成し、ユーザに表示させる技術が開示されている。
BACKGROUND ART In recent years, various techniques for analyzing the motion of a subject have been studied for the purpose of improving sports skills and the like.
For example, Patent Literature 1 discloses a technique in the field of swing motion analysis technology that acquires information about the motion of a subject using a sensor, generates an index image according to the sensor information, and displays it to the user.

特開2015-002913号公報JP 2015-002913 A

しかしながら、特許文献1に記載の技術においては、対象者に装着されたセンサから得られた情報に基づいて指標画像を生成することはできるものの、生成された指標画像を表示するのみでは装着者の動きを十分に表すことが困難である。
このように、従来の技術においては、対象者の動きについてわかり易く計測結果を提示することが困難であった。
However, in the technique described in Patent Document 1, although it is possible to generate an index image based on information obtained from a sensor worn by a subject, the generated index image alone does not Movement is difficult to represent adequately.
As described above, in the conventional technology, it is difficult to present the measurement result of the movement of the subject in an easy-to-understand manner.

本発明は、このような状況に鑑みてなされたものであり、対象者の動きについてよりわかり易く計測結果を提示することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to present the measurement result of the movement of the subject in an easy-to-understand manner.

上記目的を達成するため、本発明の一態様の画像処理装置は、予め用意された複数の動作モードであって、撮装置に対し対象者による所定の動作を逐次撮させる第1のモードと、前記第1のモードにより逐次撮している時に外部操作の検出に基づき開始するモードであって、センサにより取得される前記所定の動作における計測結果に基づき開始タイミングを検出すると逐次撮されている前記所定の動作の動画記録を開始させる第2のモードとの何れかが設定されると、前記撮装置に対し前記設定された動作モードに基づく撮速度で撮するよう制御して、前記所定の動作画像を取得する画像取得手段と、
前記設定された動作モードに基づくサンプリングレートで前記センサによって計測した前記対象者の動きの計測結果を取得する計測結果取得手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標として、各々の面方向が前記対象者の前後方向、左右方向、及び、鉛直方向に対応する立体的な箱画像を生成する指標生成手段と、
前記画像取得手段によって取得された前記所定の動作の画像と、前記指標生成手段によって生成された前記指標とを共に表示手段に表示させる表示制御手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to one aspect of the present invention includes a plurality of operation modes prepared in advance, including a first mode in which a photographing apparatus is caused to sequentially photograph predetermined actions of a subject. and a mode that is started based on the detection of an external operation while the sequential shooting is being performed in the first mode, and the sequential shooting is performed when the start timing is detected based on the measurement result of the predetermined action acquired by the sensor. and a second mode for starting moving image recording of the predetermined operation is set, the photographing device is controlled to photograph at a photographing speed based on the set operation mode. and image acquisition means for acquiring an image of the predetermined action;
measurement result acquisition means for acquiring a measurement result of the movement of the subject measured by the sensor at a sampling rate based on the set operation mode;
Based on the measurement result obtained by the measurement result obtaining means, as an index indicating the movement of the subject, a three-dimensional object whose plane direction corresponds to the front-rear direction, the left-right direction, and the vertical direction of the subject index generation means for generating a box image;
display control means for causing a display means to display both the image of the predetermined action acquired by the image acquisition means and the index generated by the index generation means;
characterized by comprising

本発明によれば、対象者の動きについてよりわかり易く計測結果を提示することができる。 Advantageous Effects of Invention According to the present invention, it is possible to present a measurement result of a subject's movement in a more comprehensible manner.

本発明の一実施形態に係る解析システムの構成を示すシステム構成図である。1 is a system configuration diagram showing the configuration of an analysis system according to one embodiment of the present invention; FIG. 解析システムの使用形態例を示す模式図である。It is a schematic diagram which shows the example of the type of usage of an analysis system. センサユニットのハードウェアの構成を示すブロック図である。4 is a block diagram showing the hardware configuration of the sensor unit; FIG. 撮影装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of an imaging device. 処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a processing apparatus. センサユニットの機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。3 is a functional block diagram showing a functional configuration for executing information detection processing among the functional configurations of the sensor unit; FIG. センサユニットの装着状態を示す模式図である。It is a schematic diagram which shows the mounting state of a sensor unit. センサユニットによって検出される情報の例を示す模式図である。FIG. 4 is a schematic diagram showing an example of information detected by a sensor unit; 撮影装置の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。2 is a functional block diagram showing a functional configuration for executing imaging processing among the functional configurations of the imaging device; FIG. 処理装置の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。FIG. 4 is a functional block diagram showing a functional configuration for executing analysis result display processing among the functional configurations of the processing device; リアルタイムモードにおける表示例を示す模式図である。FIG. 4 is a schematic diagram showing a display example in real-time mode; ワンショットモードにおける表示例を示す模式図である。FIG. 4 is a schematic diagram showing a display example in one-shot mode; ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。FIG. 4 is a schematic diagram showing a display example of a simplified display image of characteristic points in a golf swing. センサユニットが実行する情報検出処理の流れを説明するフローチャートである。4 is a flowchart for explaining the flow of information detection processing executed by a sensor unit; 撮影装置が実行する撮影処理の流れを説明するフローチャートである。4 is a flowchart for explaining the flow of imaging processing executed by the imaging device; 処理装置が実行する解析結果表示処理の流れを説明するフローチャートである。7 is a flowchart for explaining the flow of analysis result display processing executed by the processing device; ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。FIG. 3 is a schematic diagram schematically showing the timing of processing between devices in one-shot mode; BOXアニメーションの表示形態例を示す模式図である。FIG. 4 is a schematic diagram showing a display form example of a BOX animation;

以下、本発明の実施形態について、図面を用いて説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[システム構成]
図1は、本発明の一実施形態に係る解析システムSの構成を示すシステム構成図である。また、図2は、解析システムSの使用形態例を示す模式図である。
図1及び図2に示すように、解析システムSは、センサユニット1と、撮影装置2と、処理装置3と、を含んで構成される。また、処理装置3とセンサユニット1及び撮影装置2とはBluetooth low energy/Bluetooth LE(商標)(以下、「BLE」と称する。)によって通信可能に構成され、撮影装置2とセンサユニット1及び処理装置3とは、Wi-Fi(Wireless Fidelity)によって通信可能に構成される。
センサユニット1は、計測対象に装着され、計測対象の動きをセンシングしてセンサ情報を処理装置3に送信する。本実施形態においては、ゴルフのスイングの動作をする者(以下、「計測対象者P」と称する。)の腰等にセンサユニット1を装着し、当該動作をセンシングする。
[System configuration]
FIG. 1 is a system configuration diagram showing the configuration of an analysis system S according to one embodiment of the present invention. Also, FIG. 2 is a schematic diagram showing an example of a usage pattern of the analysis system S. As shown in FIG.
As shown in FIGS. 1 and 2, the analysis system S includes a sensor unit 1, an imaging device 2, and a processing device 3. FIG. Further, the processing device 3, the sensor unit 1, and the imaging device 2 are configured to be communicable via Bluetooth low energy/Bluetooth LE (trademark) (hereinafter referred to as “BLE”). The device 3 is configured to be communicable with Wi-Fi (Wireless Fidelity).
The sensor unit 1 is attached to an object to be measured, senses the movement of the object to be measured, and transmits sensor information to the processing device 3 . In this embodiment, the sensor unit 1 is attached to the waist or the like of a person performing a golf swing motion (hereafter referred to as "person to be measured P") to sense the motion.

撮影装置2は、計測対象を撮影し、計測対象の動きを表す動画のデータを処理装置3に送信する。本実施形態においては、撮影装置2は、ゴルフのスイングの動作をする計測対象者Pの動画を撮影する。 The photographing device 2 photographs the object to be measured, and transmits data of a moving image representing the movement of the object to be measured to the processing device 3 . In this embodiment, the photographing device 2 photographs a moving image of the person to be measured P performing a golf swing motion.

処理装置3は、計測対象に装着したセンサユニット1から取得したセンサ情報を解析し、解析結果(本実施形態においては、計測対象の姿勢変化や移動の状態)を、センサ情報が取得された計測対象の動きを表す動画と併せて表示する。本実施形態においては、処理装置3は、計測対象の解析結果を、計測対象の3次元的な動きを模式的に示す箱型のオブジェクト(計測対象の3次元的な動きを示す指標)によってアニメーション表示する。また、処理装置3は、計測対象の解析結果が表示されるまでの間に、センサ情報に基づいて、計測対象の動きを概略的に表す画像を表示する。 The processing device 3 analyzes the sensor information acquired from the sensor unit 1 attached to the object to be measured, and converts the analysis result (in this embodiment, the change in posture and the state of movement of the object to be measured) into the measurement for which the sensor information was acquired. It is displayed together with a moving image showing the movement of the object. In the present embodiment, the processing device 3 animates the analysis result of the measurement target using a box-shaped object (an index indicating the three-dimensional movement of the measurement target) that schematically shows the three-dimensional movement of the measurement target. indicate. In addition, the processing device 3 displays an image that schematically represents the movement of the measurement target based on the sensor information until the analysis result of the measurement target is displayed.

[ハードウェア構成]
図3は、センサユニット1のハードウェアの構成を示すブロック図である。
センサユニット1は、計測対象の動きを検出する各種センサを備えた装置として構成される。
図3に示すように、センサユニット1は、CPU(Central Processing Unit)111と、ROM(Read Only Memory)112と、RAM(Random Access Memory)113と、バス114と、入出力インターフェース115と、センサ部116と、入力部117と、出力部118と、記憶部119と、通信部120と、を備えている。なお、センサユニット1は、半導体メモリ等よりなるリムーバブルメディアを装着可能な構成としてもよい。
[Hardware configuration]
FIG. 3 is a block diagram showing the hardware configuration of the sensor unit 1. As shown in FIG.
The sensor unit 1 is configured as a device equipped with various sensors that detect the movement of the object to be measured.
As shown in FIG. 3, the sensor unit 1 includes a CPU (Central Processing Unit) 111, a ROM (Read Only Memory) 112, a RAM (Random Access Memory) 113, a bus 114, an input/output interface 115, a sensor A unit 116 , an input unit 117 , an output unit 118 , a storage unit 119 and a communication unit 120 are provided. It should be noted that the sensor unit 1 may have a configuration in which a removable medium such as a semiconductor memory can be attached.

CPU111は、ROM112に記録されているプログラム、または、記憶部119からRAM113にロードされたプログラムに従って各種の処理を実行する。 The CPU 111 executes various processes according to programs recorded in the ROM 112 or programs loaded from the storage unit 119 to the RAM 113 .

RAM113には、CPU111が各種の処理を実行する上において必要なデータ等も適宜記憶される。 The RAM 113 also stores data necessary for the CPU 111 to execute various processes.

CPU111、ROM112及びRAM113は、バス114を介して相互に接続されている。このバス114にはまた、入出力インターフェース115も接続されている。入出力インターフェース115には、センサ部116、入力部117、出力部118、記憶部119及び通信部120が接続されている。 The CPU 111 , ROM 112 and RAM 113 are interconnected via a bus 114 . An input/output interface 115 is also connected to this bus 114 . A sensor unit 116 , an input unit 117 , an output unit 118 , a storage unit 119 and a communication unit 120 are connected to the input/output interface 115 .

センサ部116は、3軸方向の加速度を測定する3軸加速度センサと、3軸方向の角速度を測定する3軸角速度センサと、3軸方向の地磁気を測定する3軸地磁気センサとを備えている。センサ部116は、予め設定されたサンプリング周期(例えば、0.001秒)毎に、3軸加速度センサ、3軸角速度センサ及び3軸地磁気センサによって3軸方向の加速度、角速度及び地磁気を測定する。センサ部116によって測定された加速度及び角速度のデータは、測定時刻のデータと対応付けて、記憶部119に記憶あるいは処理装置3に送信される。 The sensor unit 116 includes a 3-axis acceleration sensor that measures acceleration in 3-axis directions, a 3-axis angular velocity sensor that measures angular velocities in 3-axis directions, and a 3-axis geomagnetic sensor that measures geomagnetism in 3-axis directions. . The sensor unit 116 measures acceleration, angular velocity, and geomagnetism in three-axis directions using a three-axis acceleration sensor, a three-axis angular velocity sensor, and a three-axis geomagnetic sensor at preset sampling intervals (for example, 0.001 seconds). The acceleration and angular velocity data measured by the sensor unit 116 are stored in the storage unit 119 or transmitted to the processing device 3 in association with the measurement time data.

入力部117は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部118は、ランプやスピーカあるいは振動用モータ等で構成され、光や音声あるいはバイブレーション信号を出力する。
記憶部119は、DRAM(Dynamic Random Access Memory)等の半導体メモリで構成され、各種データを記憶する。
通信部120は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部120は、BLE(登録商標)によって処理装置3と通信したり、Wi-Fiによって撮影装置2と通信したりする。
The input unit 117 is composed of various buttons and the like, and inputs various kinds of information according to user's instruction operation.
The output unit 118 is composed of a lamp, a speaker, a vibration motor, or the like, and outputs light, sound, or vibration signals.
The storage unit 119 is composed of a semiconductor memory such as a DRAM (Dynamic Random Access Memory) and stores various data.
The communication unit 120 controls communication with other devices through direct wireless communication between terminals. In this embodiment, the communication unit 120 communicates with the processing device 3 via BLE (registered trademark), and communicates with the imaging device 2 via Wi-Fi.

図4は、撮影装置2のハードウェア構成を示すブロック図である。
撮影装置2は、画像の撮影機能を備え、例えば、デジタルカメラによって構成される。本実施形態において、撮影装置2は、ディスプレイと分離して撮影機能がユニット化された装置として構成される。
図4に示すように、撮影装置2は、CPU211と、ROM212と、RAM213と、バス214と、入出力インターフェース215と、撮像部216と、入力部217と、出力部218と、記憶部219と、通信部220と、ドライブ221と、を備えている。
これらのうち、撮像部216、通信部220及びドライブ221以外の構成は、図3において対応する各部分と同様である。
FIG. 4 is a block diagram showing the hardware configuration of the imaging device 2. As shown in FIG.
The photographing device 2 has an image photographing function, and is configured by, for example, a digital camera. In this embodiment, the photographing device 2 is configured as a device in which the photographing function is unitized separately from the display.
As shown in FIG. 4, the photographing apparatus 2 includes a CPU 211, a ROM 212, a RAM 213, a bus 214, an input/output interface 215, an imaging unit 216, an input unit 217, an output unit 218, and a storage unit 219. , a communication unit 220 and a drive 221 .
Among these, the configurations other than the imaging unit 216, the communication unit 220 and the drive 221 are the same as the corresponding portions in FIG.

撮像部216は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。 The imaging unit 216 includes an optical lens unit and an image sensor (not shown).

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens section is composed of a lens for condensing light, such as a focus lens and a zoom lens, in order to photograph an object.
A focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. A zoom lens is a lens that can freely change the focal length within a certain range.
The optical lens unit is also provided with peripheral circuits for adjusting setting parameters such as focus, exposure, white balance, etc., as required.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部216の出力信号として出力される。
このような撮像部216の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU211等に適宜供給される。
The image sensor is composed of a photoelectric conversion element, an AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens section. Therefore, the photoelectric conversion element photoelectrically converts (pictures) a subject image, accumulates an image signal for a certain period of time, and sequentially supplies the accumulated image signal to the AFE as an analog signal.
The AFE executes various signal processing such as A/D (Analog/Digital) conversion processing on this analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 216 .
Such an output signal of the imaging unit 216 is hereinafter referred to as "captured image data". The captured image data is appropriately supplied to the CPU 211 and the like.

通信部220は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部220は、BLE(登録商標)によって処理装置3と通信したり、Wi-Fiによって撮影装置2及び処理装置3と通信したりする。
ドライブ221には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア231が適宜装着される。ドライブ221によってリムーバブルメディア231から読み出されたプログラムは、必要に応じて記憶部219にインストールされる。また、リムーバブルメディア231は、記憶部219に記憶されている画像のデータ等の各種データも、記憶部219と同様に記憶することができる。
The communication unit 220 controls communication with other devices through direct wireless communication between terminals. In this embodiment, the communication unit 220 communicates with the processing device 3 via BLE (registered trademark), and communicates with the imaging device 2 and the processing device 3 via Wi-Fi.
A removable medium 231 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted in the drive 221 as appropriate. A program read from the removable medium 231 by the drive 221 is installed in the storage unit 219 as necessary. The removable medium 231 can also store various data such as image data stored in the storage unit 219 in the same manner as the storage unit 219 .

図5は、処理装置3のハードウェア構成を示すブロック図である。
処理装置3は、情報表示機能を備えた情報処理装置であり、例えば、スマートフォンとして構成される。
FIG. 5 is a block diagram showing the hardware configuration of the processing device 3. As shown in FIG.
The processing device 3 is an information processing device having an information display function, and is configured as a smart phone, for example.

図5に示すように、処理装置3は、CPU311と、ROM312と、RAM313と、バス314と、入出力インターフェース315と、撮像部316と、センサ部317と、入力部318と、出力部319と、記憶部320と、通信部321と、ドライブ322と、を備えている。なお、ドライブ322には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア331が適宜装着される。
これらのうち、入力部318、出力部319及び通信部321以外の構成は、図3及び図4において対応する各部分と同様である。
As shown in FIG. 5, the processing device 3 includes a CPU 311, a ROM 312, a RAM 313, a bus 314, an input/output interface 315, an imaging unit 316, a sensor unit 317, an input unit 318, and an output unit 319. , a storage unit 320 , a communication unit 321 , and a drive 322 . A removable medium 331 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is installed in the drive 322 as appropriate.
Among these, the configurations other than the input section 318, the output section 319 and the communication section 321 are the same as the corresponding portions in FIGS.

入力部318は、各種釦やタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部319は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
通信部321は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。また、通信部321は、端末間の直接的な無線通信によって他の装置との間で行う通信を制御する。本実施形態において、通信部321は、BLE(登録商標)によってセンサユニット1及び撮影装置2と通信したり、Wi-Fiによって撮影装置2と通信したりする。
The input unit 318 is composed of various buttons, a touch panel, and the like, and inputs various kinds of information in accordance with the user's instruction operation.
The output unit 319 includes a display, a speaker, and the like, and outputs images and sounds.
A communication unit 321 controls communication with another device (not shown) via a network including the Internet. Also, the communication unit 321 controls communication with other devices through direct wireless communication between terminals. In this embodiment, the communication unit 321 communicates with the sensor unit 1 and the imaging device 2 via BLE (registered trademark), or communicates with the imaging device 2 via Wi-Fi.

[機能的構成]
図6は、センサユニット1の機能的構成のうち、情報検出処理を実行するための機能的構成を示す機能ブロック図である。
情報検出処理とは、解析システムSが計測対象の動きを解析する際に、計測対象に装着されたセンサユニット1が計測対象の動きをセンシングする一連の処理である。
情報検出処理が実行される場合、図6に示すように、CPU111において、第1通信制御部151と、第2通信制御部152と、キャリブレーション実行部153と、モード設定部154と、同期制御部155と、検出処理部156と、センサ情報送信制御部157とが機能する。
また、記憶部119の一領域には、センサ情報記憶部171が設定される。
[Functional configuration]
FIG. 6 is a functional block diagram showing a functional configuration for executing information detection processing among the functional configurations of the sensor unit 1. As shown in FIG.
The information detection process is a series of processes in which the sensor unit 1 attached to the measurement object senses the movement of the measurement object when the analysis system S analyzes the movement of the measurement object.
When the information detection process is executed, as shown in FIG. 6, the CPU 111 performs a first communication control unit 151, a second communication control unit 152, a calibration execution unit 153, a mode setting unit 154, and synchronization control. A unit 155, a detection processing unit 156, and a sensor information transmission control unit 157 function.
A sensor information storage unit 171 is set in one area of the storage unit 119 .

第1通信制御部151は、センサユニット1のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部152は、センサユニット1のWi-Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
The first communication control unit 151 controls BLE communication of the sensor unit 1, and performs pairing processing with other devices and data transmission/reception processing.
The second communication control unit 152 controls Wi-Fi communication of the sensor unit 1, and executes data transmission/reception processing with other devices.

キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。本実施形態においては、キャリブレーション実行部153は、センサユニット1が計測対象者Pの腰に装着され、ゴルフのスイングを行うための位置にアドレスした姿勢を取った状態を基準とし、この状態で取得されたセンサ情報が基準値とされる。 The calibration execution unit 153 acquires sensor information in a reference state in response to an instruction from the processing device 3, and performs calibration using the acquired result as a reference value. In this embodiment, the calibration execution unit 153 is based on a state in which the sensor unit 1 is attached to the waist of the person to be measured P and is addressed to a position for making a golf swing. The acquired sensor information is used as a reference value.

図7Aは、センサユニット1の装着状態を示す模式図、図7Bはセンサユニット1によって検出される情報の例を示す模式図である。
キャリブレーションが行われる場合、図7Aに示すように、例えば、センサユニット1がベルト等によって計測対象者Pの腰に装着され、計測対象者Pがゴルフのスイングを行うための位置で、ボールに向かいアドレスした姿勢で所定時間(例えば2秒)静止する。このとき、図7Bに示すように、センサユニット1は、3軸加速度センサによって検出される重力方向及び3軸地磁気センサによって検出される方位を基準として、センサ情報(身体の前後方向の傾斜角度、左右方向の傾斜角度及び鉛直軸周りの回転角度)を取得し、取得された各センサ情報をアドレス時の基準値とする。そして、以降、計測対象者Pがスイングを行う際に、センサユニット1において検出される各センサ情報が、所定時間(例えば2秒)以上、アドレス時の基準値に対し、各センサ情報について設定された閾値の範囲内となっている場合に、アドレスの状態であると検出される。
なお、図7Bに示す情報の他、センサユニット1は、3軸加速度センサを備えているため、センサユニット1の移動(平行移動等)についても検出可能であり、3軸地磁気センサを備えているため、センサユニット1が向いている方位についても検出可能である。
FIG. 7A is a schematic diagram showing an attached state of the sensor unit 1, and FIG. 7B is a schematic diagram showing an example of information detected by the sensor unit 1. FIG.
When calibration is performed, as shown in FIG. 7A, for example, the sensor unit 1 is attached to the waist of the person P to be measured by a belt or the like, and the sensor unit 1 is attached to the ball at a position for the person P to swing golf. Stand still for a predetermined time (for example, 2 seconds) in a facing address posture. At this time, as shown in FIG. 7B, the sensor unit 1 uses the direction of gravity detected by the three-axis acceleration sensor and the orientation detected by the Inclination angle in the left-right direction and rotation angle around the vertical axis) are acquired, and the acquired sensor information is used as a reference value at the time of address. Then, after that, when the person to be measured P swings, each sensor information detected by the sensor unit 1 is set for each sensor information with respect to the reference value at address for a predetermined time (for example, two seconds) or more. If it is within the threshold range, the address state is detected.
In addition to the information shown in FIG. 7B, the sensor unit 1 is equipped with a 3-axis acceleration sensor, so it is possible to detect movement (parallel movement, etc.) of the sensor unit 1, and it is equipped with a 3-axis geomagnetic sensor. Therefore, the direction in which the sensor unit 1 is facing can also be detected.

モード設定部154は、処理装置3からの指示に応じて、動作のモードを複数用意されたモードのいずれかに設定する。本実施形態において、解析システムSでは、計測対象者Pのライブビュー画像と併せて、センサユニット1によって取得したセンサ情報から生成されたアニメーションを表示するリアルタイムモードと、計測対象者Pのゴルフのスイングの動画に、そのスイングにおいてセンサユニット1によって取得したセンサ情報から生成されたアニメーションを合成して表示するワンショットモードとが用意されている。 The mode setting unit 154 sets the operation mode to one of a plurality of prepared modes in accordance with an instruction from the processing device 3 . In this embodiment, the analysis system S has a real-time mode that displays an animation generated from the sensor information acquired by the sensor unit 1 together with a live view image of the person P to be measured, and a golf swing of the person P to be measured. A one-shot mode is prepared in which an animation generated from the sensor information acquired by the sensor unit 1 in the swing is synthesized and displayed on the moving image of the swing.

同期制御部155は、ワンショットモードに設定された後に、Wi-Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。センサユニット1及び撮影装置2は、例えば、SNTP(Simple Network Time Protocol)によって基準時刻の同期を行うことができる。 After the one-shot mode is set, the synchronization control section 155 synchronizes the reference times of the sensor unit 1 and the photographing device 2 via Wi-Fi communication. The sensor unit 1 and the imaging device 2 can synchronize the reference time using, for example, SNTP (Simple Network Time Protocol).

検出処理部156は、センサユニット1がリアルタイムモードに設定されている場合及びワンショットモードに設定されている場合に、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する。なお、センサ情報記憶部171に記憶されたセンサ情報は、取得された時刻から所定時間が経過した場合に順次破棄することとしてもよい。ただし、ワンショットモードにおいて、ゴルフのスイングのアドレスからスイング終了までに取得されたセンサ情報は、少なくとも処理装置3への送信が完了した後に破棄される。
また、検出処理部156は、ワンショットモードにおいて取得したセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを検出する。
The detection processing unit 156 sequentially acquires various types of sensor information when the sensor unit 1 is set to the real-time mode and the one-shot mode, and associates the acquired sensor information with the acquired time. is attached and stored in the sensor information storage unit 171 . Note that the sensor information stored in the sensor information storage unit 171 may be discarded sequentially when a predetermined period of time has passed since the time when the information was acquired. However, in the one-shot mode, the sensor information acquired from the address of the golf swing to the end of the swing is discarded at least after the transmission to the processing device 3 is completed.
Moreover, the detection processing unit 156 detects the timing of a predetermined characteristic point in the golf swing based on the sensor information acquired in the one-shot mode. For example, the detection processing unit 156 analyzes the waveform of sensor information acquired in the one-shot mode, and detects the timing of each point of address, top, downswing, impact, and follow in a golf swing.

また、検出処理部156は、ワンショットモードにおいてアドレスのタイミングを検出した場合及びフォローのタイミングを検出した場合、アドレスのタイミングが検出されたことを示す信号(以下、「アドレス検出信号」と称する。)及びフォローのタイミングが検出されたことを示す信号(以下、「フォロー検出信号」と称する。)を、BLEによって処理装置3に逐次送信する。 When the detection processing unit 156 detects the address timing and the follow timing in the one-shot mode, the detection processing unit 156 outputs a signal indicating that the address timing has been detected (hereinafter referred to as an "address detection signal"). ) and a signal indicating that the follow timing has been detected (hereinafter referred to as a “follow detection signal”) are sequentially transmitted to the processing device 3 by BLE.

さらに、検出処理部156は、ゴルフのスイングの開始から終了まで(以下、適宜「ワンショット」と称する。)の範囲を検出する。本実施形態において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出する。そして、検出処理部156は、検出したワンショットの範囲を示す信号(以下、「ワンショット範囲検出信号」と称する。)を、BLEによって処理装置3に送信する。 Furthermore, the detection processing unit 156 detects the range from the start to the end of the golf swing (hereinafter referred to as "one shot" as appropriate). In this embodiment, the detection processing unit 156 detects the timing from the address to the follow in the golf swing of the person P to be measured as the one-shot range. Then, the detection processing unit 156 transmits a signal indicating the detected one-shot range (hereinafter referred to as "one-shot range detection signal") to the processing device 3 by BLE.

センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を処理装置3に送信する制御を行う。本実施形態において、検出処理部156では、例えば、1000サンプル/秒程度でセンサ情報を取得することができる。そして、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、リアルタイムモードにおいては低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に送信し、ワンショットモードにおいては高いサンプリングレート(例えば、240サンプル/秒程度)に変換して処理装置3に送信する。なお、ワンショットモードでは、ワンショットの範囲のセンサ情報が処理装置3に送信される。本実施形態において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、ワンショットの範囲のセンサ情報に先行して処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。 The sensor information transmission control unit 157 controls transmission of the sensor information acquired by the detection processing unit 156 to the processing device 3 . In this embodiment, the detection processing unit 156 can acquire sensor information at, for example, about 1000 samples/second. Then, the sensor information transmission control unit 157 converts the sensor information acquired by the detection processing unit 156 into a low sampling rate (for example, about 30 samples/second) in the real-time mode and transmits it to the processing device 3. In shot mode, the data is converted to a high sampling rate (for example, about 240 samples/second) and transmitted to the processing device 3 . In the one-shot mode, sensor information within the one-shot range is transmitted to the processing device 3 . In this embodiment, the sensor information transmission control unit 157 transmits the sensor information of predetermined characteristic points (address, top, downswing, impact, follow) in the golf swing of the person to be measured P to the range of one shot. It is transmitted to the processing device 3 prior to the sensor information. By transmitting the sensor information of the predetermined characteristic point to the processing device 3 in advance in this manner, the simple display image can be displayed in the processing device 3 at an earlier timing.

また、センサ情報送信制御部157は、ワンショットモードにおいてセンサ情報を処理装置3に送信する場合、検出処理部156によって検出されたアドレス、トップ、ダウンスイング、インパクト、フォローの各ポイントのタイミングを、併せて処理装置3に送信する。
なお、本実施形態において、検出処理部156で取得されたセンサ情報は、各種センサの出力信号をそれぞれフィルタリングすることにより、ノイズの影響を抑制した波形に変換され、センサ情報送信制御部157は、処理結果のセンサ情報が表す波形から取得されるセンサ情報を処理装置3に送信する。
これにより、ノイズの影響によってばらつきが大きいセンサ情報よりも信頼度が高い情報を参照して、計測対象者Pの動きを解析することができる。
Further, when the sensor information transmission control unit 157 transmits the sensor information to the processing device 3 in the one-shot mode, the address, top, downswing, impact, and follow timings detected by the detection processing unit 156 are It also transmits to the processing device 3 .
In this embodiment, the sensor information acquired by the detection processing unit 156 is converted into a waveform that suppresses the influence of noise by filtering the output signals of various sensors, and the sensor information transmission control unit 157 The sensor information acquired from the waveform represented by the sensor information of the processing result is transmitted to the processing device 3 .
This makes it possible to analyze the movement of the person to be measured P by referring to information that is more reliable than sensor information that varies greatly due to the influence of noise.

次に、撮影装置2の機能的構成について説明する。
図8は、撮影装置2の機能的構成のうち、撮影処理を実行するための機能的構成を示す機能ブロック図である。
撮影処理とは、解析システムSが計測対象の動きを解析する際に、センサユニット1によるセンサ情報の取得と同期して、計測対象の動き表す動画を撮影する一連の処理である。
撮影処理が実行される場合、図8に示すように、CPU211において、第1通信制御部251と、第2通信制御部252と、撮影制御部253と、同期制御部254と、動画送信制御部255とが機能する。
また、記憶部219の一領域には、動画データ記憶部271が設定される。
Next, the functional configuration of the photographing device 2 will be described.
FIG. 8 is a functional block diagram showing a functional configuration for executing imaging processing among the functional configurations of the imaging device 2. As shown in FIG.
The photographing process is a series of processes for photographing a moving image representing the movement of the measurement target in synchronization with acquisition of sensor information by the sensor unit 1 when the analysis system S analyzes the movement of the measurement target.
When the shooting process is executed, as shown in FIG. 8, the CPU 211 includes a first communication control unit 251, a second communication control unit 252, a shooting control unit 253, a synchronization control unit 254, and a moving image transmission control unit. 255 works.
A moving image data storage unit 271 is set in one area of the storage unit 219 .

第1通信制御部251は、撮影装置2のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。
第2通信制御部252は、撮影装置2のWi-Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。本実施形態において、Wi-Fiによる通信が行われる場合、撮影装置2がアクセスポイント(AP)となり、他の装置がステーション(ST)となる。
The first communication control unit 251 controls BLE communication of the imaging device 2, and performs pairing processing with other devices and data transmission/reception processing.
The second communication control unit 252 controls Wi-Fi communication of the photographing device 2, and executes data transmission/reception processing with other devices. In this embodiment, when Wi-Fi communication is performed, the imaging device 2 serves as an access point (AP) and the other device serves as a station (ST).

撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示された場合に、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する。また、撮影制御部253は、処理装置3から記録用の動画の撮影が指示された場合に、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する。なお、撮影された記録用の動画は、動画データ記憶部271に記憶される。 When the processing device 3 instructs to shift to the real-time mode, the imaging control unit 253 controls the imaging unit 216 to perform a live view image at a preset imaging speed (for example, 30 fps) as the imaging speed of the live view image. Take a view image. Further, when the processing device 3 instructs the shooting control unit 253 to shoot a moving image for recording, the shooting control unit 253 controls the imaging unit 216 to set a shooting speed preset as the shooting speed of the moving image for recording (for example, 240 fps) for recording. Note that the captured moving image for recording is stored in the moving image data storage unit 271 .

同期制御部254は、ワンショットモードに設定された後に、Wi-Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
動画送信制御部255は、撮影制御部253の制御によって撮影されたライブビュー画像または記録用の動画を処理装置3に送信する。具体的には、動画送信制御部255は、リアルタイムモードにおいて、処理装置3からライブビュー画像の撮影指示が行われた場合、撮影されたライブビュー画像を逐次処理装置3に送信する。また、動画送信制御部255は、ワンショットモードにおいて、処理装置3から記録用の動画の撮影指示が行われた場合、処理装置3から通知された記録用の動画の開始から終了までの範囲(即ち、ワンショットの範囲)を切り出して、処理装置3に送信する。
After the one-shot mode is set, the synchronization control section 254 synchronizes the reference times of the sensor unit 1 and the photographing device 2 via Wi-Fi communication.
The moving image transmission control unit 255 transmits to the processing device 3 a live view image captured under the control of the imaging control unit 253 or a moving image for recording. Specifically, in the real-time mode, the moving image transmission control unit 255 sequentially transmits the captured live view images to the processing device 3 when the processing device 3 issues an instruction to capture a live view image. Further, in the one-shot mode, when the processing device 3 issues an instruction to shoot a moving image for recording, the moving image transmission control unit 255 controls the range from the start to the end of the moving image for recording notified from the processing device 3 ( That is, the one-shot range) is cut out and transmitted to the processing device 3 .

次に、処理装置3の機能的構成について説明する。
図9は、処理装置3の機能的構成のうち、解析結果表示処理を実行するための機能的構成を示す機能ブロック図である。
解析結果表示処理とは、撮影装置2によって撮影された動画に対応する時刻にセンサユニット1によって検出されたセンサ情報を解析して、計測対象者Pの身体の3次元的な動きを模したアニメーションを生成し、撮影装置2によって撮影された動画に合成して表示する一連の処理である。
解析結果表示処理が実行される場合、図9に示すように、CPU311において、第1通信制御部351と、第2通信制御部352と、キャリブレーション管理部353と、モード制御部354と、ワンショット撮影管理部355と、センサ情報取得部356と、画像取得部357と、解析処理部358と、画像生成部359と、簡易表示生成部360と、書き出し処理部361とが機能する。
また、記憶部320の一領域には、動画データ記憶部371と、センサ情報記憶部372と、合成画像記憶部373とが設定される。
Next, the functional configuration of the processing device 3 will be described.
FIG. 9 is a functional block diagram showing a functional configuration for executing the analysis result display process among the functional configurations of the processing device 3. As shown in FIG.
The analysis result display process analyzes the sensor information detected by the sensor unit 1 at the time corresponding to the moving image captured by the imaging device 2, and creates an animation that imitates the three-dimensional movement of the measurement subject P's body. is generated, combined with the moving image captured by the imaging device 2, and displayed.
When the analysis result display process is executed, as shown in FIG. A shot shooting management unit 355, a sensor information acquisition unit 356, an image acquisition unit 357, an analysis processing unit 358, an image generation unit 359, a simple display generation unit 360, and a writing processing unit 361 function.
In one area of the storage unit 320, a moving image data storage unit 371, a sensor information storage unit 372, and a composite image storage unit 373 are set.

第1通信制御部351は、処理装置3のBLEによる通信を制御し、他の装置とのペアリング処理やデータの送受信処理を実行する。本実施形態において、BLEによる通信が行われる場合、処理装置3がマスタとなり、他の装置がスレーブとなる。
第2通信制御部352は、のWi-Fiによる通信を制御し、他の装置とのデータの送受信処理を実行する。
The first communication control unit 351 controls BLE communication of the processing device 3, and executes pairing processing with other devices and data transmission/reception processing. In this embodiment, when communication is performed by BLE, the processing device 3 serves as a master and the other devices serve as slaves.
The second communication control unit 352 controls Wi-Fi communication and executes data transmission/reception processing with other devices.

キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。本実施形態において、センサユニット1におけるキャリブレーションは、センサユニット1の起動後、リアルタイムモードあるいはワンショットモードに移行する前に、一度実行される。 The calibration management section 353 instructs the sensor unit 1 to perform calibration. In this embodiment, the calibration in the sensor unit 1 is performed once after the sensor unit 1 is activated and before shifting to the real-time mode or the one-shot mode.

モード制御部354は、リアルタイムモードに移行するための操作が行われた場合に、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。また、モード制御部354は、ワンショットモードに移行するための操作が行われた場合に、センサユニット1に対し、ワンショットモードへの移行を指示する。 The mode control unit 354 instructs the sensor unit 1 and the imaging device 2 to shift to the real-time mode by BLE when an operation for shifting to the real-time mode is performed. Further, the mode control section 354 instructs the sensor unit 1 to shift to the one-shot mode when an operation for shifting to the one-shot mode is performed.

ワンショット撮影管理部355は、リアルタイムモードにおいて、ワンショットの範囲の動画の撮影を管理する。具体的には、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影を指示する。また、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信した場合、撮影装置2に対し、記録用の動画の撮影の終了を指示する。さらに、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信した場合、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。また、ワンショット撮影管理部355は、ワンショットモードにおいて、センサユニット1からセンサ情報の取得が完了した後、撮影装置2に動画の送信を指示する。 The one-shot shooting management unit 355 manages shooting of moving images in the range of one-shot in the real-time mode. Specifically, when the one-shot shooting management unit 355 receives an address detection signal from the sensor unit 1, it instructs the shooting device 2 to shoot a moving image for recording. Further, when the one-shot shooting management unit 355 receives a follow detection signal from the sensor unit 1, it instructs the shooting device 2 to finish shooting a moving image for recording. Further, when the one-shot shooting management unit 355 receives a one-shot range detection signal from the sensor unit 1, the one-shot shooting management unit 355 notifies the shooting device 2 of the one-shot range to be extracted from the captured moving image. In addition, in the one-shot mode, the one-shot shooting management unit 355 instructs the shooting device 2 to transmit the moving image after the acquisition of the sensor information from the sensor unit 1 is completed.

センサ情報取得部356は、リアルタイムモードにおいて、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から逐次取得する。また、センサ情報取得部356は、ワンショットモードにおいて、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のワンショットの範囲のセンサ情報を、BLEによってセンサユニット1から取得する。また、本実施形態において、センサ情報取得部356は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報を取得するのに先行して、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から取得する。 In the real-time mode, the sensor information acquisition unit 356 sequentially acquires sensor information at a cycle (low sampling rate) corresponding to the live view image capturing speed (eg, 30 fps) from the sensor unit 1 by BLE. Further, in the one-shot mode, the sensor information acquisition unit 356 acquires sensor information in the one-shot range with a period (high sampling rate) corresponding to the shooting speed (for example, 240 fps) of the moving image for recording by BLE. Get from Further, in the present embodiment, the sensor information acquisition unit 356, in the one-shot mode, prior to acquiring the sensor information of the one-shot range, detects a predetermined characteristic point in the golf swing of the measurement target person P. (address, top, downswing, impact, follow) sensor information is acquired from the sensor unit 1 by BLE.

画像取得部357は、リアルタイムモードにおいて、撮影装置2から送信されるライブビュー画像を、Wi-Fiによって逐次取得する。また、画像取得部357は、ワンショットモードにおいて、撮影装置2において記録用の動画が撮影され、ワンショットの範囲が切り出された後に、その切り出された動画を、Wi-Fiによってまとめて取得する。 In the real-time mode, the image acquisition unit 357 sequentially acquires live view images transmitted from the imaging device 2 via Wi-Fi. In addition, in the one-shot mode, the image acquisition unit 357 captures a moving image for recording by the imaging device 2, cuts out the range of the one-shot, and then collectively acquires the cut-out moving image via Wi-Fi. .

解析処理部358は、センサユニット1から取得した各種センサ情報を解析し、計測対象者Pの身体の3次元的な動きを模した箱型のオブジェクトによって表されるアニメーション(以下、適宜「BOXアニメーション」と称する。)の時間的な変化を表すデータを生成する。本実施形態において、解析処理部358は、リアルタイムモードにおいては、ライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。また、解析処理部358は、ワンショットモードにおいては、記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。 The analysis processing unit 358 analyzes various sensor information acquired from the sensor unit 1, and generates an animation represented by a box-shaped object that imitates the three-dimensional movement of the body of the person to be measured P (hereinafter referred to as “box animation” as appropriate). ) is generated. In the present embodiment, in the real-time mode, the analysis processing unit 358 generates data representing the temporal change of the BOX animation from the sensor information of the period corresponding to the imaging speed of the live view image. Also, in the one-shot mode, the analysis processing unit 358 generates data representing the temporal change of the BOX animation from the sensor information of the cycle corresponding to the shooting speed of the moving image for recording.

画像生成部359は、リアルタイムモードにおいて取得されるライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて表示する。
図10は、リアルタイムモードにおける表示例を示す模式図である。
図10に示すように、リアルタイムモードにおいて、画像生成部359は、例えば、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する。なお、計測対象者Pの画像の周囲であって、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションAnを表示することとしてもよい。さらに、画像生成部359は、BOXアニメーションAnに対応するセンサ情報の数値を画像内の所定位置(ここでは左下)に表示する。具体的には、図10に示す例では、身体の前後方向の傾斜角度として「前傾:21度」、鉛直軸周りの回転角度として「回転:15度」、左右方向の傾斜角度として「水平:7度」が表示されている。
The image generation unit 359 displays the BOX animation generated by the analysis processing unit 358 together with the live view image acquired in the real-time mode.
FIG. 10 is a schematic diagram showing a display example in the real-time mode.
As shown in FIG. 10, in the real-time mode, the image generation unit 359 displays, for example, the person P to be measured in the center, and performs a BOX animation An at a predetermined position set in advance around the image of the person P to be measured. indicate. Note that the BOX animation An may be displayed around the image of the person P to be measured and at a position close to the position of the body of the person P to be measured where the sensor unit 1 is worn. Further, the image generator 359 displays the numerical value of the sensor information corresponding to the BOX animation An at a predetermined position (here, the lower left) within the image. Specifically, in the example shown in FIG. 10, the tilt angle in the front-rear direction of the body is "forward tilt: 21 degrees", the rotation angle about the vertical axis is "rotation: 15 degrees", and the tilt angle in the left-right direction is "horizontal. : 7 degrees” is displayed.

また、画像生成部359は、ワンショットモードにおいて取得される記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。以下、このように画像生成部359によって表示される画像を、適宜「解析結果動画」と称する。
図11は、ワンショットモードにおける表示例を示す模式図である。
図11に示すように、ワンショットモードにおいて、画像生成部359は、例えば、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することにより、解析結果動画を表示する。また、本実施形態において、BOXアニメーションAnには、センサユニット1の軸(ここでは上下方向及び左右方向)を示す直線が併せて表示される。センサユニット1の軸は、センサユニット1の動きと共に移動する。また、本実施形態において、ワンショットモードにおける表示例では、表示画面に固定された軸(即ち、絶対座標を表す軸)が併せて表示されている。
なお、BOXアニメーションの時間的な変化は、撮影された計測対象者Pの動画のタイミングと対応付けて表示される。
In addition, the image generation unit 359 synthesizes the BOX animation generated by the analysis processing unit 358 with the moving image for recording acquired in the one-shot mode, and displays it. Hereinafter, the image displayed by the image generation unit 359 in this way will be referred to as an “analysis result moving image” as appropriate.
FIG. 11 is a schematic diagram showing a display example in the one-shot mode.
As shown in FIG. 11 , in the one-shot mode, the image generating unit 359 displays the analysis result moving image by, for example, superimposing the BOX animation An on the moving image of the person to be measured P by transmitting the BOX animation An. In the present embodiment, the BOX animation An also displays straight lines indicating the axes of the sensor unit 1 (vertical direction and horizontal direction here). The axis of the sensor unit 1 moves with the motion of the sensor unit 1 . Further, in the present embodiment, in the display example in the one-shot mode, an axis fixed on the display screen (that is, an axis representing absolute coordinates) is also displayed.
Note that the temporal change of the BOX animation is displayed in association with the timing of the captured moving image of the person P to be measured.

ワンショットモードにおけるセンサ情報及び計測対象者Pの動画をこのように表示することで、BOXアニメーションによって、計測対象者Pの身体の動きの傾向をわかり易く示すことができると共に、BOXアニメーションには表れ難い身体の状態をセンサ情報によって明確に示すことが可能となる。また、センサユニット1の軸と表示画面に固定された軸とが併せて表示されることで、計測対象者Pの平行移動等も表示することができ、計測対象者Pの身体の動きがより把握し易いものとなる。 By displaying the sensor information and the moving image of the person to be measured P in the one-shot mode in this way, it is possible to easily show the tendency of the movement of the person to be measured P by the BOX animation, and it is difficult to appear in the BOX animation. It becomes possible to clearly indicate the state of the body by the sensor information. In addition, since the axes of the sensor unit 1 and the axes fixed on the display screen are displayed together, it is possible to display the parallel movement of the person P to be measured, and the movement of the body of the person P to be measured can be more easily visualized. It becomes easy to understand.

簡易表示生成部360は、ワンショットモードにおいて、ワンショットの範囲のセンサ情報に先行して取得した計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。なお、以下、簡易表示生成部360によって表示される一連の画像を、適宜「簡易表示画像」と称する。 In the one-shot mode, the simplified display generation unit 360 generates predetermined characteristic points (address, top, downswing, impact, Follow-up) data is referred to, and numerical values of each sensor information are displayed in sequence on swing images corresponding to each characteristic point prepared in advance. A series of images displayed by the simple display generator 360 is hereinafter referred to as a "simple display image" as appropriate.

ここで、ワンショットモードにおいて、センサユニット1がセンサ情報を取得すると共に、撮影装置2が動画の撮影を行った場合、処理装置3では、初めに、センサ情報取得部356によってセンサユニット1からセンサ情報を取得する。次いで、画像取得部357によって、撮影装置2から記録用の動画のデータを取得する。このとき、画像取得部357は撮影装置2から記録用の動画のデータを取得するためには、データ量が比較的大きいことから、一定の時間を要することとなる。そこで、本実施形態においては、画像取得部357が撮影装置2から記録用の動画のデータの取得を開始した後、簡易表示生成部360が簡易表示画像の表示を行う。そして、簡易表示生成部360は、画像取得部357が撮影装置2から記録用の動画のデータの取得を完了した後、画像生成部359が記録用の動画にBOXアニメーションを合成して表示するまでの間、簡易表示画像の表示を継続する。 Here, in the one-shot mode, when the sensor unit 1 acquires sensor information and the imaging device 2 shoots a moving image, the processing device 3 first causes the sensor information acquisition unit 356 to acquire sensor information from the sensor unit 1. Get information. Next, the image acquisition unit 357 acquires moving image data for recording from the imaging device 2 . At this time, it takes a certain amount of time for the image acquisition unit 357 to acquire moving image data for recording from the photographing device 2 because the amount of data is relatively large. Therefore, in the present embodiment, after the image acquiring unit 357 starts acquiring moving image data for recording from the imaging device 2, the simple display generating unit 360 displays the simple display image. After the image acquisition unit 357 completes acquiring data of the moving image for recording from the photographing device 2, the simple display generation unit 360 continues until the image generation unit 359 synthesizes the BOX animation with the moving image for recording and displays it. During this period, the display of the simple display image is continued.

図12は、ゴルフのスイングにおける特徴的なポイントの簡易表示画像の表示例を示す模式図である。
図12に示すように、簡易表示生成部360は、ゴルフのスイングにおけるアドレス、トップ、ダウンスイング、インパクト、フォローの各特徴的なポイントを示す予め用意された画像に対し、計測対象者Pのスイングにおいて、対応する特徴的なポイントのセンサ情報の数値を併せて表示する。
なお、簡易表示生成部360が簡易表示画像を表示する場合、各特徴的なポイントの簡易表示画像を所定時間ずつ順次表示し、フォローの簡易表示画像まで表示された後は、トップの簡易表示画像に戻って、循環的に各簡易表示画像を表示することが可能である。
簡易表示画像を表示することにより、一定の意義を有する計測対象者Pの動きに関する情報を先行して提示することができる。
また、図12においてはアドレス時点での計測対象者Pの身体の前後方向及び左右方向の傾斜角度を0として表示を行ってもよく、アドレス時点からの計測対象者の身体の回転角度及び各種傾斜角度の変化量を表示させるように構成してもよい。
FIG. 12 is a schematic diagram showing a display example of a simple display image of characteristic points in a golf swing.
As shown in FIG. 12, the simplified display generation unit 360 generates a swing image of the measurement target person P with respect to images prepared in advance, which show each characteristic point of a golf swing: address, top, downswing, impact, and follow. , numerical values of sensor information of corresponding characteristic points are also displayed.
When the simple display generation unit 360 displays the simple display images, the simple display images of each characteristic point are sequentially displayed for a predetermined period of time. , it is possible to cyclically display each simple display image.
By displaying the simplified display image, it is possible to present information related to the movement of the measurement target person P, which has a certain significance, in advance.
In addition, in FIG. 12, the inclination angles of the body of the person to be measured P in the front-rear direction and the left-right direction at the time of address may be set to 0 for display. It may be configured to display the amount of change in the angle.

書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。なお、書き出し処理部361は、解析結果動画の保存を指示する操作が行われた場合に、解析結果動画の書き出しを実行する。 The write processing unit 361 writes the analysis result moving image displayed by the image generation unit 359 to the storage unit 320 or the removable medium 331 as data in a predetermined storage format (MPEG or the like). Note that the write processing unit 361 writes out the analysis result moving image when an operation to instruct saving of the analysis result moving image is performed.

[動作]
次に、解析システムSの動作を説明する。
図13は、センサユニット1が実行する情報検出処理の流れを説明するフローチャートである。
情報検出処理は、センサユニット1の起動と共に開始される。
[motion]
Next, the operation of the analysis system S will be explained.
FIG. 13 is a flowchart for explaining the flow of information detection processing executed by the sensor unit 1. As shown in FIG.
The information detection process is started when the sensor unit 1 is activated.

ステップS1において、第1通信制御部151は、BLEによってスレーブとして処理装置3と接続する。
ステップS2において、キャリブレーション実行部153は、処理装置3からの指示に応じて、基準となる状態におけるセンサ情報を取得し、取得結果を基準値とするキャリブレーションを実行する。
In step S1, the first communication control unit 151 connects with the processing device 3 as a slave by BLE.
In step S2, the calibration execution unit 153 acquires sensor information in a reference state in response to an instruction from the processing device 3, and performs calibration using the acquired result as a reference value.

ステップS3において、キャリブレーション実行部153は、キャリブレーションが完了したことをBLEによって処理装置3に通知する。
ステップS4において、モード設定部154は、処理装置3からの指示に応じて、リアルタイムモードに設定する。
ステップS5において、検出処理部156は、各種センサ情報を逐次取得し、取得したセンサ情報を、取得された時刻と対応付けてセンサ情報記憶部171に記憶する処理を開始する。
In step S3, the calibration executing unit 153 notifies the processing device 3 by BLE that the calibration has been completed.
In step S<b>4 , the mode setting unit 154 sets the real-time mode according to the instruction from the processing device 3 .
In step S<b>5 , the detection processing unit 156 sequentially acquires various types of sensor information, and starts processing for storing the acquired sensor information in the sensor information storage unit 171 in association with the acquired time.

ステップS6において、センサ情報送信制御部157は、検出処理部156によって取得されたセンサ情報を、低いサンプリングレート(例えば、30サンプル/秒程度)に変換して処理装置3に逐次送信する。
ステップS7において、モード設定部154は、処理装置3からの指示に応じて、ワンショットモードに設定する。
In step S<b>6 , the sensor information transmission control unit 157 converts the sensor information acquired by the detection processing unit 156 into a low sampling rate (for example, about 30 samples/second) and sequentially transmits the sensor information to the processing device 3 .
In step S<b>7 , the mode setting unit 154 sets the one-shot mode according to the instruction from the processing device 3 .

ステップS8において、第2通信制御部152は、Wi-Fiによってステーションとして撮影装置2と接続する。
ステップS9において、同期制御部155は、Wi-Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
In step S8, the second communication control unit 152 connects to the photographing device 2 as a station via Wi-Fi.
In step S9, the synchronization control section 155 synchronizes the reference times of the sensor unit 1 and the photographing device 2 via Wi-Fi communication.

ステップS10において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるアドレスのポイントのタイミングを検出して、アドレス検出信号をBLEによって処理装置3に送信する。 In step S10, the detection processing unit 156 analyzes the waveform of the acquired sensor information, detects the timing of the address point in the golf swing, and transmits an address detection signal to the processing device 3 by BLE.

ステップS11において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるフォローのポイントのタイミングを検出して、フォロー検出信号をBLEによって処理装置3に送信する。 In step S11, the detection processing unit 156 analyzes the waveform of the acquired sensor information, detects the timing of the follow point in the golf swing, and transmits a follow detection signal to the processing device 3 by BLE.

ステップS12において、検出処理部156は、計測対象者Pのゴルフのスイングにおけるアドレスからフォローまでのタイミングをワンショットの範囲として検出し、ワンショット範囲検出信号を処理装置3に送信する。
ステップS13において、検出処理部156は、取得したセンサ情報の波形を解析し、ゴルフのスイングにおけるトップ、ダウンスイング、インパクトの各ポイントのタイミングを逐次検出する。
In step S<b>12 , the detection processing unit 156 detects the timing from the address to the follow in the golf swing of the person to be measured P as the one-shot range, and transmits a one-shot range detection signal to the processing device 3 .
In step S13, the detection processing unit 156 analyzes the waveform of the acquired sensor information, and sequentially detects the timing of each point of the top, downswing, and impact points in the golf swing.

ステップS14において、センサ情報送信制御部157は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによって処理装置3に送信する。このように、所定の特徴的なポイントのセンサ情報を先行して処理装置3に送信することで、処理装置3において、より早いタイミングで簡易表示画像の表示を行うことが可能となる。なお、ステップS13及びステップS14の処理をステップS12よりも先に実行することとしてもよい。 In step S14, the sensor information transmission control unit 157 transmits the sensor information of predetermined characteristic points (address, top, downswing, impact, follow) in the golf swing of the person to be measured P to the processing device 3 by BLE. Send. By transmitting the sensor information of the predetermined characteristic point to the processing device 3 in advance in this manner, the simple display image can be displayed in the processing device 3 at an earlier timing. Note that the processes of steps S13 and S14 may be executed before step S12.

ステップS15において、センサ情報送信制御部157は、ワンショットの範囲のセンサ情報を、高いサンプリングレート(例えば、240サンプル/秒程度)に変換してBLEによって処理装置3に送信する。なお、ワンショットの範囲のセンサ情報を処理装置3に送信する場合、ステップS14において既に送信した特徴的なポイントのセンサ情報を除いて送信することとしてもよい。この場合、同一のセンサ情報が重複して送信されることを抑制できるため、より効率的にセンサ情報を送信することができる。
ステップS15の後、情報検出処理は終了する。
In step S15, the sensor information transmission control unit 157 converts the sensor information in the one-shot range into a high sampling rate (for example, about 240 samples/second) and transmits it to the processing device 3 by BLE. When transmitting the sensor information of the one-shot range to the processing device 3, the sensor information of the characteristic points already transmitted in step S14 may be excluded from the transmission. In this case, redundant transmission of the same sensor information can be suppressed, so sensor information can be transmitted more efficiently.
After step S15, the information detection process ends.

次に、撮影装置2が実行する撮影処理について説明する。
図14は、撮影装置2が実行する撮影処理の流れを説明するフローチャートである。
撮影処理は、入力部217を介して撮影処理の開始を指示する操作が行われることにより開始される。
Next, the photographing process executed by the photographing device 2 will be described.
FIG. 14 is a flowchart for explaining the flow of imaging processing executed by the imaging device 2. As shown in FIG.
The shooting process is started when an operation is performed via the input unit 217 to instruct the start of the shooting process.

ステップS21において、第1通信制御部251は、BLEによってスレーブとして処理装置3と接続する。
ステップS22において、第2通信制御部252は、Wi-Fiによってアクセスポイントとして処理装置3と接続する。
In step S21, the first communication control unit 251 connects with the processing device 3 as a slave by BLE.
In step S22, the second communication control unit 252 connects to the processing device 3 as an access point via Wi-Fi.

ステップS23において、撮影制御部253は、処理装置3からリアルタイムモードへの移行が指示されることに応じて、撮像部216を制御して、ライブビュー画像の撮影速度として予め設定された撮影速度(例えば、30fps)でライブビュー画像を撮影する処理を開始する。
ステップS24において、動画送信制御部255は、撮影されたライブビュー画像を処理装置3に逐次送信する。
In step S23, in response to an instruction from the processing device 3 to shift to the real-time mode, the imaging control unit 253 controls the imaging unit 216 to set an imaging speed ( For example, processing for shooting a live view image at 30 fps is started.
In step S<b>24 , the moving image transmission control unit 255 sequentially transmits the captured live view images to the processing device 3 .

ステップS25において、第2通信制御部252は、Wi-Fiによってアクセスポイントとしてセンサユニット1と接続する。
ステップS26において、同期制御部254は、Wi-Fiによる通信を介して、センサユニット1及び撮影装置2における基準時刻の同期を行う。
In step S25, the second communication control section 252 connects with the sensor unit 1 as an access point via Wi-Fi.
In step S26, the synchronization control section 254 synchronizes the reference times of the sensor unit 1 and the photographing device 2 via Wi-Fi communication.

ステップS27において、撮影制御部253は、処理装置3から記録用の動画の撮影が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影速度として予め設定された撮影速度(例えば、240fps)で記録用の動画を撮影する処理を開始する。
ステップS28において、撮影制御部253は、処理装置3から記録用の動画の撮影の終了が指示されることに応じて、撮像部216を制御して、記録用の動画の撮影を終了する。
In step S27, in response to an instruction to shoot a moving image for recording from the processing device 3, the shooting control unit 253 controls the imaging unit 216 to shoot at a shooting speed set in advance as the moving image shooting speed for recording. Start the process of shooting a moving image for recording at a speed (for example, 240 fps).
In step S<b>28 , the imaging control unit 253 controls the imaging unit 216 in response to an instruction from the processing device 3 to end shooting of the moving image for recording, and ends shooting of the moving image for recording.

ステップS29において、動画送信制御部256は、処理装置3からワンショットの範囲が通知されることに応じて、記録用の動画のワンショットの範囲を切り出す。
ステップS30において、動画送信制御部256は、処理装置3から動画の送信が指示されることに応じて、ワンショットの範囲が切り出された動画を処理装置3に送信する処理を開始する。
ステップS31において、動画送信制御部256は、ステップS30において開始した動画の送信を完了する。
ステップS31の後、撮影処理は終了する。
In step S<b>29 , the moving image transmission control unit 256 cuts out the one-shot range of the moving image for recording in response to the notification of the one-shot range from the processing device 3 .
In step S<b>30 , the moving image transmission control unit 256 starts the process of transmitting the moving image from which the one-shot range is cut out to the processing device 3 in response to the instruction to transmit the moving image from the processing device 3 .
In step S31, the moving image transmission control unit 256 completes transmission of the moving image started in step S30.
After step S31, the photographing process ends.

次に、処理装置3が実行する解析結果表示処理について説明する。
図15は、処理装置3が実行する解析結果表示処理の流れを説明するフローチャートである。
解析結果表示処理は、入力部318を介して解析結果表示処理の開始を指示する操作が行われることにより開始される。
Next, analysis result display processing executed by the processing device 3 will be described.
FIG. 15 is a flowchart for explaining the flow of analysis result display processing executed by the processing device 3 .
The analysis result display process is started when an operation is performed via the input unit 318 to instruct the start of the analysis result display process.

ステップS41において、第1通信制御部351は、BLEによってマスタとしてセンサユニット1及び撮影装置2と接続する。
ステップS42において、第2通信制御部352は、Wi-Fiによってステーションとして撮影装置2と接続する。
ステップS43において、キャリブレーション管理部353は、センサユニット1に対し、キャリブレーションの実行を指示する。
In step S41, the first communication control unit 351 connects with the sensor unit 1 and the imaging device 2 as a master by BLE.
In step S42, the second communication control unit 352 connects with the photographing device 2 as a station via Wi-Fi.
In step S43, the calibration management section 353 instructs the sensor unit 1 to perform calibration.

ステップS44において、キャリブレーション管理部353は、センサユニット1からキャリブレーションの実行が完了したことの通知をBLEによって受信する。
ステップS45において、モード制御部354は、リアルタイムモードに移行するための操作(リモート撮影の指示)の入力を受け付ける。
ステップS46において、モード制御部354は、BLEによって、センサユニット1及び撮影装置2に対し、リアルタイムモードへの移行を指示する。
In step S<b>44 , the calibration management unit 353 receives notification from the sensor unit 1 that the execution of calibration has been completed by BLE.
In step S45, the mode control unit 354 receives input of an operation (instruction for remote imaging) for shifting to the real-time mode.
In step S46, the mode control unit 354 instructs the sensor unit 1 and the photographing device 2 to shift to the real-time mode using BLE.

ステップS47において、センサ情報取得部356は、ライブビュー画像の撮影速度(例えば、30fps)に対応する周期(低いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。また、画像取得部357は、撮影装置2から送信されるライブビュー画像を、Wi-Fiによって逐次取得する。 In step S47, the sensor information acquisition unit 356 acquires sensor information of a period (low sampling rate) corresponding to the live view image shooting speed (for example, 30 fps) from the sensor unit 1 by BLE. In addition, the image acquisition unit 357 sequentially acquires live view images transmitted from the imaging device 2 via Wi-Fi.

ステップS48において、解析処理部358は、センサユニット1から取得したライブビュー画像の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを逐次生成すると共に、画像生成部359は、取得されたライブビュー画像に、解析処理部358によって生成されたBOXアニメーションを併せて逐次表示する。 In step S48, the analysis processing unit 358 sequentially generates data representing temporal changes in the BOX animation from the sensor information of the period corresponding to the imaging speed of the live view image acquired from the sensor unit 1, and the image generating unit 359 sequentially displays the acquired live view image together with the BOX animation generated by the analysis processing unit 358 .

ステップS49において、モード制御部354は、ワンショットモードに移行するための操作の入力を受け付ける。
ステップS50において、モード制御部354は、BLEによって、センサユニット1に対し、ワンショットモードへの移行を指示する。このとき、モード制御部354は、センサユニット1に撮影装置2のSSID(Service Set IDentifier)を併せて送信する。
In step S49, the mode control unit 354 accepts input of an operation for shifting to the one-shot mode.
In step S50, the mode control unit 354 instructs the sensor unit 1 to shift to the one-shot mode using BLE. At this time, the mode control unit 354 also transmits the SSID (Service Set Identifier) of the imaging device 2 to the sensor unit 1 .

ステップS51において、ワンショット撮影管理部355は、センサユニット1からアドレス検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影を指示する。
ステップS52において、ワンショット撮影管理部355は、センサユニット1からフォロー検出信号を受信することに応じて、撮影装置2に対し、記録用の動画の撮影の終了を指示する
In step S<b>51 , in response to receiving the address detection signal from the sensor unit 1 , the one-shot shooting management unit 355 instructs the shooting device 2 to shoot a moving image for recording.
In step S52, in response to receiving the follow detection signal from the sensor unit 1, the one-shot shooting management unit 355 instructs the shooting device 2 to finish shooting the moving image for recording.

ステップS53において、ワンショット撮影管理部355は、センサユニット1からワンショット範囲検出信号を受信することに応じて、撮影装置2に対し、撮影された動画から切り出すワンショットの範囲を通知する。 In step S<b>53 , in response to receiving the one-shot range detection signal from the sensor unit 1 , the one-shot shooting management unit 355 notifies the shooting device 2 of the one-shot range to be extracted from the captured moving image.

ステップS54において、センサ情報取得部356は、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のセンサ情報を、BLEによってセンサユニット1から受信する。 In step S54, the sensor information acquisition unit 356 receives the sensor information of predetermined characteristic points (address, top, downswing, impact, follow) in the golf swing of the person to be measured P from the sensor unit 1 via BLE. do.

ステップS55において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイント(アドレス、トップ、ダウンスイング、インパクト、フォロー)のデータを参照し、予め用意されている各特徴的なポイントに対応するスイングの画像に、それぞれのセンサ情報の数値を併せて順に表示する。これにより、簡易表示画像が表示される。 In step S55, data on predetermined characteristic points (address, top, downswing, impact, follow) in the golf swing of the person to be measured P is referred to, and corresponding to each characteristic point prepared in advance. Numerical values of each sensor information are displayed in sequence on the image of the swing. As a result, a simple display image is displayed.

ステップS56において、センサ情報取得部356は、記録用の動画の撮影速度(例えば、240fps)に対応する周期(高いサンプリングレート)のセンサ情報を、BLEによってセンサユニット1から取得する。 In step S<b>56 , the sensor information acquisition unit 356 acquires sensor information with a period (high sampling rate) corresponding to the recording speed of moving images for recording (for example, 240 fps) from the sensor unit 1 by BLE.

ステップS57において、ワンショット撮影管理部355は、撮影装置2から動画を受信する。 In step S<b>57 , the one-shot shooting management unit 355 receives the moving image from the shooting device 2 .

ステップS58において、ワンショット撮影管理部355は、撮影装置2から動画の受信が完了したか否かの判定を行う。
撮影装置2から動画の受信が完了していない場合、ステップS58においてNOと判定されて、処理はステップS57に移行する。
一方、撮影装置2から動画の受信が完了した場合、ステップS58においてYESと判定されて、処理はステップS59に移行する。
In step S<b>58 , the one-shot shooting management unit 355 determines whether or not the moving image has been received from the shooting device 2 .
If the moving image has not been completely received from the photographing device 2, NO is determined in step S58, and the process proceeds to step S57.
On the other hand, if the moving image has been completely received from the photographing device 2, YES is determined in step S58, and the process proceeds to step S59.

ステップS59において、解析処理部358は、センサユニット1から取得した記録用の動画の撮影速度に対応する周期のセンサ情報から、BOXアニメーションの時間的な変化を表すデータを生成する。 In step S<b>59 , the analysis processing unit 358 generates data representing temporal changes in the BOX animation from the sensor information acquired from the sensor unit 1 and having a period corresponding to the recording speed of the moving image for recording.

ステップS60において、画像生成部359は、取得された記録用の動画に、解析処理部358によって生成されたBOXアニメーションを合成して表示する。これにより、解析結果動画が表示される。 In step S60, the image generation unit 359 synthesizes the BOX animation generated by the analysis processing unit 358 with the acquired moving image for recording and displays it. As a result, the analysis result moving image is displayed.

ステップS61において、書き出し処理部361は、解析結果動画の保存を指示する操作が行われたか否かの判定を行う。
解析結果動画の保存を指示する操作が行われていない場合、ステップS61においてNOと判定されて、解析結果表示処理は終了となる。
一方、解析結果動画の保存を指示する操作が行われた場合、ステップS61においてYESと判定されて、処理はステップS62に移行する。
In step S61, the write processing unit 361 determines whether or not an operation to instruct saving of the analysis result moving image has been performed.
If an operation to instruct saving of the analysis result moving image has not been performed, a determination of NO is made in step S61, and the analysis result display process ends.
On the other hand, if an operation to instruct saving of the analysis result moving image has been performed, a determination of YES is made in step S61, and the process proceeds to step S62.

ステップS62において、書き出し処理部361は、画像生成部359によって表示された解析結果動画を、所定の保存形式(MPEG等)のデータとして、記憶部320またはリムーバブルメディア331に書き出す。
ステップS62の後、解析結果表示処理は終了となる。
In step S62, the write processing unit 361 writes the analysis result moving image displayed by the image generation unit 359 to the storage unit 320 or the removable medium 331 as data in a predetermined storage format (MPEG or the like).
After step S62, the analysis result display process ends.

このような処理により、解析システムSにおいては、計測対象者Pの身体の動きを計測して得られたセンサ情報と、計測対象者Pの動きを撮影した動画とを時刻を同期させて取得することができる。そして、センサ情報に基づいて、計測対象者Pの身体の3次元的な動きを模したBOXアニメーションを生成し、撮影装置2によって撮影された動画に合成することにより、解析結果動画を表示することができる。
解析結果動画では、計測対象者P自身の動画と、計測対象者Pの3次元的な動きをわかり易く表すBOXアニメーションと、計測対象者Pの身体の動きを計測して得られたセンサ情報とが時刻を同期させて表示される。
そのため、計測対象者Pの動きを撮影した動画のみからでは把握し難い情報を、BOXアニメーションによって直感的かつ容易に把握可能になると共に、時刻を同期させて表示されるセンサ情報によって、より詳細な動きの特徴を明確に把握することが可能となる。また、BOXアニメーションの時間的な変化はセンサ情報と対応付けられているため、BOXアニメーションを参照することによっても、正確な解析結果を把握することが可能となる。
Through such processing, in the analysis system S, the sensor information obtained by measuring the movement of the body of the person to be measured P and the moving image of the movement of the person to be measured P are acquired in synchronization with each other in time. be able to. Then, based on the sensor information, a BOX animation that imitates the three-dimensional movement of the body of the person to be measured P is generated and combined with the moving image captured by the imaging device 2 to display the analysis result moving image. can be done.
In the analysis result video, the video of the measurement subject P himself, the BOX animation that clearly shows the three-dimensional movement of the measurement subject P, and the sensor information obtained by measuring the body movement of the measurement subject P. Displayed with synchronized time.
Therefore, the BOX animation makes it possible to intuitively and easily grasp information that is difficult to grasp only from a moving image of the person P to be measured. It is possible to clearly grasp the characteristics of the movement. In addition, since temporal changes in the BOX animation are associated with sensor information, it is possible to obtain accurate analysis results by referring to the BOX animation.

また、解析システムSでは、ワンショットモードにおいて、解析結果動画が表示されることに先行して、計測対象者Pの動きに関する所定の情報を表示することにより、無用な待機時間が生じることを抑制している。
図16は、ワンショットモードにおける各装置間の処理のタイミングを概略的に示す模式図である。
図16に示すように、ワンショットモードにおいて、処理装置3は、解析結果動画を表示するためにセンサ情報及び動画を取得する場合、まず、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を取得する(図15のステップS54)そして、計測対象者Pの動きに関する情報を簡易表示画像として表示しながら(図15のステップS55)、ワンショットの範囲のセンサ情報を取得し(ステップS56)、続いて、動画のデータを受信する(図15のステップS57)。そして、動画データの受信が完了し(図5のステップS58:YES)、BOXアニメーションが生成され(図5のステップS59)、解析結果動画の表示が可能となるまでの間(図5のステップS60)、簡易表示画像を継続して表示する。
そのため、処理装置3が動画のデータを取得する時間を単に待つよりも、一定の意義を有する計測対象者Pの動きに関する情報を先行して表示できるため、ユーザは対象者の動きをより効率的に把握可能となる。
また、計測対象者Pの動きに関する情報を先行して提示することで、解析結果動画の生成に必要な最低限の時間に対して、提示した情報がユーザに閲覧される時間帯を付加的に創出することができる。そのため、解析結果動画の生成に費やす時間をより長く確保することが可能となり、より効果的な解析結果動画を提示することも可能となる。
Further, in the one-shot mode, the analysis system S displays predetermined information regarding the movement of the person to be measured P prior to displaying the analysis result moving image, thereby suppressing unnecessary waiting time. is doing.
FIG. 16 is a schematic diagram schematically showing the timing of processing between devices in the one-shot mode.
As shown in FIG. 16 , in the one-shot mode, when the processing device 3 acquires the sensor information and the moving image for displaying the analysis result moving image, first, a predetermined characteristic characteristic of the golf swing of the measurement target person P is obtained. Acquire point sensor information (step S54 in FIG. 15), and while displaying information about the movement of the person to be measured P as a simple display image (step S55 in FIG. 15), acquire sensor information for the one-shot range. (Step S56), then, data of the moving image is received (Step S57 in FIG. 15). Then, until the reception of the moving image data is completed (step S58 in FIG. 5: YES), the BOX animation is generated (step S59 in FIG. 5), and the analysis result moving image can be displayed (step S60 in FIG. 5). ) to continue displaying the simple display image.
Therefore, rather than simply waiting for the time for the processing device 3 to acquire moving image data, information regarding the movement of the measurement target person P, which has a certain significance, can be displayed in advance. can be grasped.
In addition, by presenting the information about the movement of the measurement target person P in advance, the time period during which the presented information is viewed by the user is added to the minimum time required to generate the analysis result moving image. can be created. Therefore, it is possible to secure a longer time for generating the analysis result moving image, and it is also possible to present a more effective analysis result moving image.

また、解析システムSにおいては、ワンショットモードにおいて、計測対象者Pのアドレスが自動的に検出され、記録用の動画を撮影することができる。
したがって、計測対象者Pは、アドレスしてスイングする、という動作を繰り返すことにより、記録用の動画を簡単な動作によって逐次撮影することができる。
Also, in the analysis system S, in the one-shot mode, the address of the subject P is automatically detected, and a moving image for recording can be taken.
Therefore, by repeating the action of addressing and swinging, the person P to be measured can successively capture moving images for recording with a simple action.

[変形例1]
上述の実施形態において、BOXアニメーションの表示形態は、計測対象者Pの身体の3次元的な動きを模したものであれば、種々の変形を行うことが可能である。
図17は、BOXアニメーションAnの表示形態例を示す模式図である。
図17に示す例では、BOXアニメーションAnの視点として、正面視、上面視、左側面視等、複数の視点を選択可能になっており、図17に示す例では、選択可能な視点のBOXアニメーションAnが画面上部に小サイズで表示されている。
また、BOXアニメーションAnの表示色は、計測対象者Pの身体の3次元的な動きがよりわかり易い色に選択することができる。
図17に示す例では、各視点のBOXアニメーションAnの表示色がそれぞれ異なる色に設定されている。
なお、BOXアニメーションを計測対象者Pの動画に重畳表示する際に、背景の色を検出し、背景の色と同化し難い所定色(例えば、補色系の色等)を選択することとしてもよい。
[Modification 1]
In the above-described embodiment, the display form of the BOX animation can be modified in various ways as long as it imitates the three-dimensional movement of the measurement subject P's body.
FIG. 17 is a schematic diagram showing a display form example of the BOX animation An.
In the example shown in FIG. 17, a plurality of viewpoints such as a front view, a top view, a left side view, etc. can be selected as the viewpoint of the BOX animation An. In the example shown in FIG. An is displayed in a small size at the top of the screen.
In addition, the display color of the BOX animation An can be selected so that the three-dimensional movement of the measurement subject P's body is easier to understand.
In the example shown in FIG. 17, the display colors of the BOX animation An for each viewpoint are set to different colors.
Note that when the BOX animation is superimposed on the moving image of the person to be measured P, the background color may be detected and a predetermined color that is difficult to assimilate with the background color (for example, a complementary color, etc.) may be selected. .

[変形例2]
上述の実施形態において、リアルタイムモードにおける表示例として、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示する場合について説明した。これに対し、リアルタイムモードにおいても、図11に示すワンショットモードの表示例のように、計測対象者Pの動画像に、BOXアニメーションAnを透過させて重畳することとしてもよい。
また、反対に、ワンショットモードにおいても、図10に示すリアルタイムモードの表示例のように、計測対象者Pを中央に表示すると共に、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションAnを表示してもよい。
[Modification 2]
In the above-described embodiment, as a display example in the real-time mode, the case where the person P to be measured is displayed in the center and the BOX animation An is displayed at a predetermined position set in advance around the image of the person P to be measured has been described. . On the other hand, even in the real-time mode, the BOX animation An may be transparently superimposed on the moving image of the person to be measured P as in the display example of the one-shot mode shown in FIG. 11 .
Conversely, in the one-shot mode as well, as in the display example of the real-time mode shown in FIG. BOX animation An may be displayed in .

[変形例3]
上述の実施形態において、1つのセンサユニット1を計測対象者Pの腰等に装着してセンサ情報を取得するものとして説明したが、これに限られない。即ち、複数のセンサユニット1を計測対象者Pの肩と腰等、複数の身体部位に装着し、これらの身体部位それぞれの動きを表すBOXアニメーションを表示することとしてもよい。
この場合、計測対象者Pの身体部位毎の動きの相違(例えば、肩と腰の捩れ等)も表示することができ、より効果的に計測結果を提示することが可能となる。
また、センサユニット1を装着する身体部位は、腰の他、肩、首、腕、大腿部、頭部等とすることができる。
[Modification 3]
In the above-described embodiment, one sensor unit 1 is attached to the waist of the person to be measured P or the like to obtain sensor information, but the present invention is not limited to this. That is, a plurality of sensor units 1 may be attached to a plurality of body parts such as the shoulders and waist of the person to be measured P, and a BOX animation representing the movement of each of these body parts may be displayed.
In this case, it is possible to display the difference in the movement of each body part of the person to be measured P (for example, the twist of the shoulder and the waist), and it is possible to present the measurement results more effectively.
Also, the body part to which the sensor unit 1 is attached can be shoulders, neck, arms, thighs, head, etc., in addition to the waist.

[変形例4]
上述の実施形態において、ワンショットモードにおける表示例では、計測対象者Pの動きの連続的な動画が表示される。これに対し、計測対象者Pの動きの間欠的な動画を表示することが可能である。
この場合、解析結果動画を生成するための処理負荷が低下し、より早期に解析結果動画を提示することが可能となる。
[Modification 4]
In the above-described embodiment, in the display example in the one-shot mode, a continuous moving image of the movement of the person to be measured P is displayed. On the other hand, it is possible to display an intermittent moving image of the movement of the person P to be measured.
In this case, the processing load for generating the analysis result moving image is reduced, and the analysis result moving image can be presented earlier.

[変形例5]
上述の実施形態において、BOXアニメーションを計測対象者Pの動画像に透過させて重畳させる場合、その透過度は、目的に応じて種々異なる値を設定することができる。例えば、計測対象者Pが行うべき動きのガイドとして、人型のオブジェクトを表示する場合、計測対象者Pの身体と人型のオブジェクトとの重なりが大きいときは、BOXアニメーションの透過度を上げ(即ち、薄く表示し)、計測対象者Pの身体と人型のオブジェクトとの重なりが小さいときは、BOXアニメーションの透過度を下げる(即ち、濃く表示する)ことが可能である。
これにより、計測対象者Pの動きのガイドを表示する際に、BOXアニメーションをより効果的な形態で表示することができる。
[Modification 5]
In the above-described embodiment, when the BOX animation is superimposed on the moving image of the person P to be measured, various different values can be set for the degree of transparency depending on the purpose. For example, when displaying a human-shaped object as a guide for the movement that the measurement subject P should perform, if the body of the measurement subject P and the human-shaped object overlap significantly, the transparency of the BOX animation is increased ( That is, it is displayed lightly), and when the overlap between the body of the person to be measured P and the humanoid object is small, it is possible to reduce the transparency of the BOX animation (that is, display it darker).
As a result, the BOX animation can be displayed in a more effective form when displaying the motion guide of the person P to be measured.

[変形例6]
上述の実施形態において、撮影装置2によってセンサユニット1を装着した計測対象者Pを撮影することにより、センサユニット1の装着位置を自動的に判別することができる。
この場合、リアルタイムモードにおける表示例等で、計測対象者Pにおいてセンサユニット1が装着された身体の位置に近い位置に、BOXアニメーションを表示する際に、BOXアニメーションの表示位置を自動的に決定することが可能となる。
[Modification 6]
In the above-described embodiment, by photographing the measurement subject P wearing the sensor unit 1 with the photographing device 2, the mounting position of the sensor unit 1 can be automatically determined.
In this case, when the BOX animation is displayed at a position close to the position of the body where the sensor unit 1 is attached to the person to be measured P, the display position of the BOX animation is automatically determined. becomes possible.

以上のように構成される解析システムSは、センサユニット1と、撮影装置2と、処理装置3とを備える。センサユニット1は、対象者に装着され、対象者の動きをセンサによって計測する検出処理部156を備える。撮影装置2は、対象者の画像を撮影する撮影制御部253を備える。処理装置3は、画像取得部357と、センサ情報取得部356と、解析処理部358と、画像生成部359とを備える。
画像取得部357は、対象者が撮影された画像を取得する。
センサ情報取得部356は、対象者の動きをセンサによって計測した計測結果を取得する。
解析処理部358は、センサ情報取得部356によって取得された計測結果に基づいて、対象者の動きを示す指標を生成する。
画像生成部359は、画像取得部357によって取得された画像と、解析処理部358によって生成された指標とを共に出力部319に表示させる。
これにより、対象者自身の動画と、対象者の動きをわかり易く表す指標と、対象者の身体の動きを計測して得られた計測結果とが併せて表示される。
そのため、対象者の動きを撮影した動画のみからでは把握し難い情報を、指標によって直感的かつ容易に把握可能になると共に、計測結果と共に指標が表示されることによって、動きの特徴を明確かつ正確に把握することが可能となる。
したがって、本発明によれば、対象者の動きについてよりわかり易く計測結果を提示することができる。
The analysis system S configured as described above includes a sensor unit 1 , an imaging device 2 , and a processing device 3 . The sensor unit 1 includes a detection processing unit 156 that is worn by a subject and measures the movement of the subject using a sensor. The photographing device 2 includes a photographing control unit 253 that photographs an image of the subject. The processing device 3 includes an image acquisition unit 357 , a sensor information acquisition unit 356 , an analysis processing unit 358 and an image generation unit 359 .
The image acquisition unit 357 acquires an image of the target person.
The sensor information acquisition unit 356 acquires the measurement result of the subject's movement measured by the sensor.
The analysis processing unit 358 generates an index indicating the subject's movement based on the measurement result acquired by the sensor information acquisition unit 356 .
The image generation unit 359 causes the output unit 319 to display both the image acquired by the image acquisition unit 357 and the index generated by the analysis processing unit 358 .
As a result, the moving image of the subject himself/herself, the index representing the movement of the subject in an easy-to-understand manner, and the measurement result obtained by measuring the movement of the subject's body are displayed together.
As a result, it is possible to intuitively and easily grasp information that is difficult to grasp only from a video of the subject's movement, and by displaying the index together with the measurement results, the characteristics of the movement can be clearly and accurately identified. It is possible to grasp the
Therefore, according to the present invention, it is possible to present the measurement result of the movement of the subject in an easy-to-understand manner.

解析処理部358は、計測結果に基づいて対象者の3次元的な動きを示す指標を生成する。
これにより、対象者の動きをより直感的かつ容易に把握することが可能となる。
The analysis processing unit 358 generates an index indicating the three-dimensional movement of the subject based on the measurement results.
This makes it possible to grasp the movement of the subject more intuitively and easily.

解析処理部358は、計測結果に基づいて対象者の動きを示す指標として立体的な箱画像を生成する。
これにより、対象者の動きをより直感的かつ容易に把握することが可能となる。
The analysis processing unit 358 generates a three-dimensional box image as an index indicating the subject's movement based on the measurement result.
This makes it possible to grasp the movement of the subject more intuitively and easily.

センサ情報取得部356は、対象者に装着されたセンサによって計測された計測結果を取得する。
これにより、より正確な計測結果を取得することができる。
The sensor information acquisition unit 356 acquires the measurement result measured by the sensor attached to the subject.
This makes it possible to obtain more accurate measurement results.

画像取得部357は、対象者を撮影する撮影装置によって撮影された画像を取得する。
これにより、より適切な対象者の画像を撮影することができる。
The image acquisition unit 357 acquires an image captured by a camera that captures an image of the subject.
This makes it possible to capture a more appropriate image of the subject.

画像生成部359は、対象者の画像に指標を重ねて表示する。
これにより、対象者の動きと指標の変化とを容易に把握することが可能となる。
The image generator 359 displays the target person's image with the index superimposed thereon.
This makes it possible to easily grasp the movement of the subject and the change in the index.

画像生成部359は、対象者の画像において、対象者の身体におけるセンサが動きを計測した位置と対応する位置に、指標を重ねて表示する。
これにより、対象者の身体の部位における動きをより容易に把握することが可能となる。
The image generation unit 359 superimposes the index on the target person's image and displays it at a position corresponding to the position where the sensor measures the movement of the target person's body.
As a result, it is possible to more easily grasp the movement of the part of the subject's body.

画像生成部359は、対象者の画像の周囲に指標を表示する。
これにより、対象者の画像を認識し易い状態で、対象者の3次元的な動きを示す指標を表示することができる。
The image generator 359 displays indicators around the image of the subject.
This makes it possible to display the index indicating the three-dimensional movement of the subject in a state in which the subject's image can be easily recognized.

画像生成部359は、対象者の画像の周囲において、対象者の身体におけるセンサが動きを計測した位置と対応付けて、指標を表示する。
これにより、対象者の画像を認識し易い状態で、対象者の身体の部位における動きをより容易に把握することが可能となる。
The image generation unit 359 displays the index around the image of the subject in association with the position where the sensor on the body of the subject measures the movement.
As a result, it is possible to more easily grasp the movement of the target person's body part in a state where the image of the target person can be easily recognized.

センサ情報取得部356は、対象者の身体における複数の部位の動きをセンサによって計測した計測結果を取得する。
解析処理部358は、複数の部位について指標を生成する。
画像生成部359は、画像取得部357によって取得された画像と、解析処理部358によって生成された複数の部位の指標とを対応付けて出力部319に表示させる。
これにより、対象者の身体部位毎の動きの相違(例えば、肩と腰の捩れ等)も表示することができ、より効果的に計測結果を提示することが可能となる。
The sensor information acquisition unit 356 acquires measurement results obtained by measuring movements of multiple parts of the subject's body with sensors.
The analysis processing unit 358 generates indices for multiple parts.
The image generation unit 359 causes the output unit 319 to display the image acquired by the image acquisition unit 357 and the indices of a plurality of regions generated by the analysis processing unit 358 in association with each other.
As a result, it is possible to display the difference in the movement of each part of the subject's body (for example, the twist of the shoulder and waist), and to present the measurement results more effectively.

画像生成部359は、画像取得部357によって取得された画像のうち、時系列における間欠的な画像と、解析処理部358によって生成された指標とを対応付けて出力部319に表示させる。
これにより、解析結果を生成するための処理負荷が低下し、より早期に計測結果を提示することが可能となる。
The image generation unit 359 causes the output unit 319 to display intermittent images in time series among the images acquired by the image acquisition unit 357 in association with the index generated by the analysis processing unit 358 .
As a result, the processing load for generating the analysis result is reduced, and the measurement result can be presented earlier.

画像生成部359は、指標を透過的に表示する。
これにより、対象者の動画の視認性を確保しつつ、対象者の3次元的な動きを示す指標を表示することができる。
The image generator 359 transparently displays the index.
As a result, it is possible to display the index indicating the three-dimensional movement of the subject while ensuring the visibility of the moving image of the subject.

画像生成部359は、対象者の動きのガイドとなる画像を表示し、対象者の動きとガイドとなる画像との重なり度合いに応じて、指標の透過率を変化させる。
これにより、対象者の動きのガイドを表示する際に、指標をより効果的な形態で表示することができる。
The image generator 359 displays an image that serves as a guide for the movement of the subject, and changes the transmittance of the index according to the degree of overlap between the movement of the subject and the image that serves as the guide.
This makes it possible to display the index in a more effective form when displaying a guide for the movement of the subject.

画像生成部359は、指標の動きに対して固定的に表示される軸を表示する。
これにより、対象者の平行移動等も表示することができ、対象者の身体の動きがより把握し易いものとなる。
The image generation unit 359 displays an axis fixedly displayed with respect to the movement of the index.
As a result, it is possible to display the parallel movement of the subject and the like, making it easier to grasp the movement of the subject's body.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 It should be noted that the present invention is not limited to the above-described embodiments, and includes modifications, improvements, and the like within the scope of achieving the object of the present invention.

上述の実施形態において、処理装置3が簡易表示画像を表示する場合、撮影装置2からの動画の取得及び解析結果動画の生成全体に要する時間を推測し、推測した時間を簡易表示画像の数で分割した時間ずつ、簡易表示画像を順に表示してもよい。これにより、簡易表示画像の表示内容と解析結果動画の表示開始タイミングとの整合を取りつつ、よりわかり易い形態で解析結果を表示することができる。 In the above-described embodiment, when the processing device 3 displays the simple display images, the total time required to acquire the moving image from the imaging device 2 and generate the analysis result moving image is estimated, and the estimated time is expressed by the number of simple display images. The simple display images may be displayed in order for each divided time. As a result, it is possible to display the analysis result in a more comprehensible form while matching the display content of the simple display image and the display start timing of the analysis result moving image.

また、上述の実施形態において、解析システムSをセンサユニット1、撮影装置2及び処理装置3の3つの装置によって構成するものとしたが、これに限られない。例えば、センサユニット1と処理装置3との機能を兼ね備えたスマートフォン等によって、センサユニット1と処理装置3とを一体化した装置として解析システムSを構成してもよい。 Further, in the above-described embodiment, the analysis system S is composed of the sensor unit 1, the imaging device 2, and the processing device 3, but the present invention is not limited to this. For example, the analysis system S may be configured as a device in which the sensor unit 1 and the processing device 3 are integrated by a smartphone or the like having the functions of the sensor unit 1 and the processing device 3 .

また、上述の実施形態において、BOXアニメーションの時間的変化を表示する場合、センサユニット1によって取得されたセンサ情報を基に、加速度の変化等、動きの特徴を色分けあるいは指標を表示する等の表示形態により、識別して表示することとしてもよい。例えば、基準よりも大きい加速度で身体が動いている場合、計測対象者Pの身体を赤色に着色したりすることが可能である。 In the above-described embodiment, when displaying the temporal change of the BOX animation, based on the sensor information acquired by the sensor unit 1, the characteristics of the movement, such as the change in acceleration, are displayed in different colors or as indicators. Depending on the form, it may be identified and displayed. For example, when the body is moving with acceleration greater than the reference, it is possible to color the body of the person to be measured P red.

上述の実施形態において、リアルタイムモードにおける表示例等のように、計測対象者Pの画像の周囲における予め設定された所定位置にBOXアニメーションを表示する場合、計測対象者Pにおいてセンサユニット1が装着された身体の位置を引き出し線やマーカーで識別して示すこととしてもよい。また、計測対象者Pにおいてセンサユニット1が装着された身体の位置に、BOXアニメーションを重ねて表示することとしてもよい。 In the above-described embodiment, when the BOX animation is displayed at a predetermined position around the image of the person to be measured P, as in the display example in the real-time mode, the sensor unit 1 is worn by the person to be measured P. It is also possible to identify and indicate the position of the body with a lead line or a marker. Also, a BOX animation may be superimposed and displayed on the position of the body of the person P to be measured where the sensor unit 1 is attached.

上述の実施形態において、計測対象者Pがスイングを行ったか否かについて、センサ情報により詳細な条件を設定して判定することができる。例えば、鉛直軸周りの回転角度が第1の角度以上、テイクバック方向に回転した場合にトップと判定し、トップから鉛直軸周りに第1の角速度以上で回転した場合にダウンスイングと判定し、鉛直軸周りの回転角度が第2の角度以上、フォロー方向に回転した場合にフォローと判定し、これら全ての条件を充足した場合に、スイングが行われたものと判定することができる。なお、これらの判定条件が充足される時間にもさらに条件を設定してもよい。例えば、各条件が2秒以内に順次充足されること等を条件に設定することができる。 In the above-described embodiment, it is possible to determine whether or not the person P to be measured has taken a swing by setting detailed conditions based on sensor information. For example, if the angle of rotation about the vertical axis is a first angle or more and rotates in the take-back direction, it is determined to be the top, and if it rotates about the vertical axis from the top at the first angular velocity or more, it is determined to be a downswing, When the rotation angle about the vertical axis is the second angle or more and the ball rotates in the follow direction, it can be determined that the follow is performed, and when all these conditions are satisfied, it can be determined that the swing has been performed. Further conditions may be set for the times when these determination conditions are satisfied. For example, conditions can be set such that each condition must be sequentially satisfied within two seconds.

上述の実施形態において、センサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する場合、時系列のデータを時間順に解析して特徴的なポイントを判別することや、特徴的なポイントとして明らかに判別可能なタイミングから時系列を遡って解析して、他の特徴的なポイントを判別することが可能である。
これにより、ゴルフのスイングにおける所定の特徴的なポイントのタイミングをより確実に検出することができる。
In the above-described embodiment, when detecting the timing of a predetermined characteristic point in a golf swing based on sensor information, time-series data is analyzed in chronological order to determine the characteristic point, or It is possible to determine other characteristic points by retroactively analyzing the time series from the timing that can be clearly discriminated as a characteristic point.
This makes it possible to more reliably detect the timing of a predetermined characteristic point in a golf swing.

上述の実施形態において、簡易表示生成部360が簡易表示画像を表示する場合、解析処理部358によるBOXアニメーションのデータの生成及び画像生成部359による解析結果動画の表示に関する処理をキャンセルさせるキャンセルボタンを表示することとしてもよい。
これにより、簡易表示画像を確認することによって、解析結果動画の生成が不要であると判断された場合に、無用な処理が行われることを抑制することができる。
In the above-described embodiment, when the simple display generation unit 360 displays a simple display image, a cancel button for canceling processing related to the generation of BOX animation data by the analysis processing unit 358 and the display of the analysis result moving image by the image generation unit 359 is pressed. It may be displayed.
As a result, by checking the simple display image, it is possible to suppress unnecessary processing from being performed when it is determined that generation of the analysis result moving image is unnecessary.

上述の実施形態において、ワンショットモードで取得したワンショットの範囲のセンサ情報をセンサユニット1から処理装置3に送信する場合、図13のステップS14において、計測対象者Pのゴルフのスイングにおける所定の特徴的なポイントのセンサ情報を先行して送信することなく、図13のステップS15において、ワンショットの範囲のセンサ情報全体を処理装置3に送信することとしてもよい。この場合、センサ情報の送信に要する時間を全体として短縮することができる。 In the above-described embodiment, when the sensor information of the one-shot range acquired in the one-shot mode is transmitted from the sensor unit 1 to the processing device 3, in step S14 of FIG. The entire sensor information of the one-shot range may be transmitted to the processing device 3 in step S15 of FIG. 13 without transmitting the sensor information of the characteristic points in advance. In this case, the time required for transmitting sensor information can be shortened as a whole.

上述の実施形態においては、検出処理部156は、ワンショットモードにおいて取得されたセンサ情報に基づいて、ゴルフのスイングにおける所定の特徴的なポイントのタイミングを検出する。例えば、検出処理部156は、ワンショットモードにおいて取得したセンサ情報の波形を解析し、波形の変化量が少ない状態から波形が変化し始めたタイミングをアドレスのタイミングとして検出してもよく、一度スイングの範囲を検出し、ダウンスイングのタイミングを検出した後に、該ダウンスイングのタイミングから所定時間遡った時点をアドレスの時点として再設定して、ワンショットの範囲を決めるように構成してもよい。 In the above-described embodiment, the detection processing unit 156 detects the timing of a predetermined characteristic point in the golf swing based on the sensor information acquired in the one-shot mode. For example, the detection processing unit 156 may analyze the waveform of the sensor information acquired in the one-shot mode, and detect the timing at which the waveform starts to change from a state where the amount of change in the waveform is small as the address timing. After detecting the range of the downswing and detecting the timing of the downswing, the point of time a predetermined time before the timing of the downswing may be reset as the point of time of the address to determine the range of the one-shot.

上述の実施形態において、ゴルフのスイングを行う計測対象者Pにセンサユニット1を装着し、ゴルフのスイングの解析に解析システムSを用いる場合について説明したが、これに限られない。即ち、本発明に係る解析システムSは、野球、テニス、陸上競技等、被写体となるプレーヤーを画角の固定的な位置に撮影可能な各種スポーツ等に用いることができる。例えば、野球の打席でスイングする打者、マウンドで投球するピッチャー、テニスのサーバー、並走するカメラで撮影される短距離走者等を対象として、本発明に係る解析システムSを用いることができる。 In the above-described embodiment, the case where the sensor unit 1 is attached to the subject P who swings golf and the analysis system S is used to analyze the golf swing has been described, but the present invention is not limited to this. In other words, the analysis system S according to the present invention can be used for various sports such as baseball, tennis, track and field, etc., in which the subject player can be photographed at a fixed position of the angle of view. For example, the analysis system S according to the present invention can be used for a batter swinging at a baseball bat, a pitcher pitching on the mound, a tennis server, a sprinter photographed by a camera running side by side, and the like.

また、上述の実施形態では、本発明が適用される処理装置3は、スマートフォンを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
Further, in the above-described embodiment, the processing device 3 to which the present invention is applied has been described as an example of a smartphone, but it is not particularly limited to this.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention is applicable to notebook personal computers, printers, television receivers, video cameras, portable navigation devices, mobile phones, portable game machines, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図6、8、9の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が解析システムSに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図6、8、9の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
本実施形態における機能的構成は、演算処理を実行するプロセッサによって実現され、本実施形態に用いることが可能なプロセッサには、シングルプロセッサ、マルチプロセッサ及びマルチコアプロセッサ等の各種処理装置単体によって構成されるものの他、これら各種処理装置と、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられたものを含む。
The series of processes described above can be executed by hardware or by software.
In other words, the functional configurations of FIGS. 6, 8 and 9 are merely examples and are not particularly limited. That is, it is sufficient if the analysis system S has a function capable of executing the above-described series of processes as a whole, and what kind of functional blocks are used to realize this function are particularly shown in the examples of FIGS. is not limited to
Also, one functional block may be composed of hardware alone, software alone, or a combination thereof.
The functional configuration in this embodiment is realized by a processor that executes arithmetic processing, and processors that can be used in this embodiment are composed of various single processing units such as single processors, multiprocessors, and multicore processors. In addition, it includes a combination of these various processing devices and a processing circuit such as ASIC (Application Specific Integrated Circuit) or FPGA (Field-Programmable Gate Array).

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processes is to be executed by software, a program constituting the software is installed in a computer or the like from a network or a recording medium.
The computer may be a computer built into dedicated hardware. The computer may also be a computer capable of executing various functions by installing various programs, such as a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図4、5のリムーバブルメディア231、331により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア231、331は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk),Blu-ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini-Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図3~5のROM112、212、312や、図3~5の記憶部119、219、320に含まれるハードディスク等で構成される。 Recording media containing such programs are not only configured by removable media 231 and 331 shown in FIGS. It consists of a recording medium, etc., which is provided to the user in a The removable media 231 and 331 are configured by, for example, magnetic disks (including floppy disks), optical disks, or magneto-optical disks. Optical discs are composed of, for example, CD-ROMs (Compact Disk-Read Only Memory), DVDs (Digital Versatile Disks), Blu-ray (registered trademark) Discs, and the like. The magneto-optical disk is composed of an MD (Mini-Disk) or the like. Recording media provided to the user in a state of being pre-installed in the device main body are, for example, ROMs 112, 212, and 312 in FIGS. , 320 and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In this specification, the steps of writing a program recorded on a recording medium are not necessarily processed chronologically according to the order, but may be executed in parallel or individually. It also includes the processing to be executed.
Further, in this specification, the term "system" means an overall device composed of a plurality of devices, a plurality of means, or the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although several embodiments of the present invention have been described above, these embodiments are merely examples and do not limit the technical scope of the present invention. The present invention can take various other embodiments, and various modifications such as omissions and substitutions can be made without departing from the gist of the present invention. These embodiments and their modifications are included in the scope and gist of the invention described in this specification and the like, and are included in the scope of the invention described in the claims and equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
対象者が撮影された画像を取得する画像取得手段と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標を生成する指標生成手段と、
前記画像取得手段によって取得された前記画像と、前記指標生成手段によって生成された前記指標とを共に表示手段に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記指標生成手段は、前記計測結果に基づいて前記対象者の3次元的な動きを示す指標を生成することを特徴とする付記1に記載の画像処理装置。
[付記3]
前記指標生成手段は、前記計測結果に基づいて前記対象者の動きを示す指標として立体的な箱画像を生成することを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記計測結果取得手段は、前記対象者に装着されたセンサによって計測された前記計測結果を取得することを特徴とする付記1から3のいずれか1つに記載の画像処理装置。
[付記5]
前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記画像を取得することを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
[付記6]
前記表示制御手段は、前記対象者の画像に前記指標を重ねて表示することを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記7]
前記表示制御手段は、前記対象者の画像において、前記対象者の身体における前記センサが動きを計測した位置と対応する位置に、前記指標を重ねて表示することを特徴とする付記6に記載の画像処理装置。
[付記8]
前記表示制御手段は、前記対象者の画像の周囲に前記指標を表示することを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
[付記9]
前記表示制御手段は、前記対象者の画像の周囲において、前記対象者の身体における前記センサが動きを計測した位置と対応付けて、前記指標を表示することを特徴とする付記8に記載の画像処理装置。
[付記10]
前記計測結果取得手段は、前記対象者の身体における複数の部位の動きをセンサによって計測した計測結果を取得し、
前記指標生成手段は、前記複数の部位について前記指標を生成し、
前記表示制御手段は、前記画像取得手段によって取得された前記画像と、前記指標生成手段によって生成された前記複数の部位の前記指標とを対応付けて表示手段に表示させることを特徴とする付記1から9のいずれか1つに記載の画像処理装置。
[付記11]
前記表示制御手段は、前記画像取得手段によって取得された前記画像のうち、時系列における間欠的な画像と、前記指標生成手段によって生成された前記指標とを対応付けて表示手段に表示させることを特徴とする付記1から10のいずれか1つに記載の画像処理装置。
[付記12]
前記表示制御手段は、前記指標を透過的に表示することを特徴とする付記1から11のいずれか1つに記載の画像処理装置。
[付記13]
前記表示制御手段は、前記対象者の動きのガイドとなる画像を表示し、前記対象者の動きと前記ガイドとなる画像との重なり度合いに応じて、前記指標の透過率を変化させることを特徴とする付記1から12のいずれか1つに記載の画像処理装置。
[付記14]
前記表示制御手段は、前記指標の動きに対して固定的に表示される軸を表示することを特徴とする付記1から13のいずれか1つに記載の画像処理装置。
[付記15]
対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
前記撮影装置から、前記対象者が撮影された画像を取得する画像取得手段と、
前記検出装置から、前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標を生成する指標生成手段と、
前記画像取得手段によって取得された前記画像と、前記指標生成手段によって生成された前記指標とを共に表示手段に表示させる表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。
[付記16]
画像処理装置が実行する画像処理方法であって、
対象者が撮影された画像を取得する画像取得ステップと、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得ステップと、
前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きを示す指標を生成する指標生成ステップと、
前記画像取得ステップにおいて取得された前記画像と、前記指標生成ステップにおいて生成された前記指標とを共に表示手段に表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法。
[付記17]
画像処理装置を制御するコンピュータに、
対象者が撮影された画像を取得する画像取得機能と、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能と、
前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標を生成する指標生成機能と、
前記画像取得機能によって取得された前記画像と、前記指標生成機能によって生成された前記指標とを共に表示手段に表示させる表示制御機能と、
を実現させることを特徴とするプログラム。
The invention described in the scope of claims at the time of filing of the present application will be additionally described below.
[Appendix 1]
an image acquisition means for acquiring an image of a subject;
measurement result acquisition means for acquiring a measurement result of measuring the movement of the subject by a sensor;
index generation means for generating an index indicating the movement of the subject based on the measurement result acquired by the measurement result acquisition means;
display control means for displaying both the image acquired by the image acquisition means and the index generated by the index generation means on a display means;
An image processing device comprising:
[Appendix 2]
The image processing apparatus according to Supplementary Note 1, wherein the index generating means generates an index indicating the three-dimensional movement of the subject based on the measurement result.
[Appendix 3]
3. The image processing apparatus according to appendix 1 or 2, wherein the index generating means generates a three-dimensional box image as an index indicating the movement of the subject based on the measurement result.
[Appendix 4]
4. The image processing apparatus according to any one of appendices 1 to 3, wherein the measurement result acquisition means acquires the measurement result measured by a sensor attached to the subject.
[Appendix 5]
5. The image processing apparatus according to any one of appendices 1 to 4, wherein the image obtaining means obtains the image photographed by a photographing device for photographing the subject.
[Appendix 6]
6. The image processing apparatus according to any one of appendices 1 to 5, wherein the display control means displays the index superimposed on the image of the subject.
[Appendix 7]
The display control means according to appendix 6, wherein, in the image of the subject, the indicator is superimposed and displayed at a position corresponding to a position on the subject's body where the sensor measures the movement. Image processing device.
[Appendix 8]
6. The image processing apparatus according to any one of appendices 1 to 5, wherein the display control means displays the index around the image of the subject.
[Appendix 9]
The image according to Supplementary Note 8, wherein the display control means displays the indicator in association with the position of the subject's body where the sensor measures the movement around the image of the subject. processing equipment.
[Appendix 10]
The measurement result acquisition means acquires measurement results obtained by measuring movements of a plurality of parts of the subject's body with a sensor,
The index generation means generates the indices for the plurality of parts,
Supplementary Note 1, wherein the display control means causes the display means to display the image acquired by the image acquisition means and the indices of the plurality of parts generated by the index generation means in association with each other. 10. The image processing device according to any one of 9.
[Appendix 11]
The display control means causes the display means to display intermittent images in time series among the images acquired by the image acquisition means in association with the index generated by the index generation means. 11. The image processing apparatus according to any one of appendices 1 to 10.
[Appendix 12]
12. The image processing apparatus according to any one of appendices 1 to 11, wherein the display control means transparently displays the index.
[Appendix 13]
The display control means displays an image that serves as a guide for the movement of the subject, and changes the transmittance of the index according to the degree of overlap between the movement of the subject and the image that serves as the guide. 13. The image processing apparatus according to any one of additional remarks 1 to 12.
[Appendix 14]
14. The image processing apparatus according to any one of appendices 1 to 13, wherein the display control means displays an axis fixedly displayed with respect to the movement of the index.
[Appendix 15]
a photographing device comprising photographing means for photographing an image of a subject;
a detection device that is worn by the subject and includes a measuring means that measures the movement of the subject using a sensor;
an image acquiring means for acquiring an image of the subject photographed from the photographing device;
a measurement result acquisition means for acquiring a measurement result of measuring the movement of the subject by a sensor from the detection device;
index generation means for generating an index indicating the movement of the subject based on the measurement result acquired by the measurement result acquisition means;
an image processing apparatus comprising display control means for causing a display means to display both the image acquired by the image acquisition means and the index generated by the index generation means;
An analysis system comprising:
[Appendix 16]
An image processing method executed by an image processing device,
an image acquisition step of acquiring a captured image of the subject;
a measurement result acquisition step of acquiring a measurement result obtained by measuring the movement of the subject with a sensor;
an index generation step of generating an index indicating the movement of the subject based on the measurement result obtained in the measurement result obtaining step;
a display control step of displaying both the image obtained in the image obtaining step and the index generated in the index generating step on a display;
An image processing method comprising:
[Appendix 17]
In the computer that controls the image processing device,
an image acquisition function for acquiring an image of a target person;
a measurement result acquisition function for acquiring measurement results obtained by measuring the movement of the subject with a sensor;
an index generation function that generates an index indicating the movement of the subject based on the measurement results obtained by the measurement result obtaining function;
a display control function for displaying both the image acquired by the image acquisition function and the index generated by the index generation function on display means;
A program characterized by realizing

S 解析システム,1・・・センサユニット,2・・・撮影装置,3・・・処理装置,111、211、311・・・CPU,112、212、312・・・ROM,113、213、313・・・RAM,114、214、314・・・バス,115、215、315・・・入出力インターフェース,116、317・・・センサ部,117、217、318・・・入力部,118、218、319・・・出力部,119、219、320・・・記憶部,120、220、321・・・通信部,121、322・・・ドライブ,216、316・・・撮像部,231、331・・・リムーバブルメディア,151、251、351・・・第1通信制御部,152、252、352・・・第2通信制御部,153・・・キャリブレーション実行部,154・・・モード設定部,155、254・・・同期制御部,156・・・検出処理部,171、372・・・センサ情報記憶部,253・・・撮影制御部,255・・・動画送信制御部,271、371・・・動画データ記憶部,353・・・キャリブレーション管理部,354・・・モード制御部,355・・・ワンショット撮影管理部,356・・・センサ情報取得部,357・・・画像取得部,358・・・解析処理部,359・・・画像生成部,360・・・簡易表示生成部,361・・・書き出し処理部,373・・・合成画像記憶部 S Analysis system 1... Sensor unit 2... Imaging device 3... Processing device 111, 211, 311... CPU, 112, 212, 312... ROM, 113, 213, 313 RAM 114, 214, 314 bus 115, 215, 315 input/output interface 116, 317 sensor section 117, 217, 318 input section 118, 218 , 319... output section, 119, 219, 320... storage section, 120, 220, 321... communication section, 121, 322... drive, 216, 316... imaging section, 231, 331 Removable media 151, 251, 351 First communication control unit 152, 252, 352 Second communication control unit 153 Calibration execution unit 154 Mode setting unit , 155, 254... synchronization control unit, 156... detection processing unit, 171, 372... sensor information storage unit, 253... shooting control unit, 255... moving image transmission control unit, 271, 371 ... moving image data storage section, 353 ... calibration management section, 354 ... mode control section, 355 ... one-shot photography management section, 356 ... sensor information acquisition section, 357 ... image acquisition Section 358 Analysis processing section 359 Image generation section 360 Simple display generation section 361 Writing processing section 373 Composite image storage section

Claims (16)

予め用意された複数の動作モードであって、撮装置に対し対象者による所定の動作を逐次撮させる第1のモードと、前記第1のモードにより逐次撮している時に外部操作の検出に基づき開始するモードであって、センサにより取得される前記所定の動作における計測結果に基づき開始タイミングを検出すると逐次撮されている前記所定の動作の動画記録を開始させる第2のモードとの何れかが設定されると、前記撮装置に対し前記設定された動作モードに基づく撮速度で撮するよう制御して、前記所定の動作画像を取得する画像取得手段と、
前記設定された動作モードに基づくサンプリングレートで前記センサによって計測した前記対象者の動きの計測結果を取得する計測結果取得手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標として、各々の面方向が前記対象者の前後方向、左右方向、及び、鉛直方向に対応する立体的な箱画像を生成する指標生成手段と、
前記画像取得手段によって取得された前記所定の動作の画像と、前記指標生成手段によって生成された前記指標とを共に表示手段に表示させる表示制御手段と、
を備えることを特徴とする画像処理装置。
Among a plurality of operation modes prepared in advance, a first mode in which the photographing device sequentially photographs a predetermined action by the subject, and an external operation during the sequential photographing in the first mode. a second mode that starts based on detection, in which when the start timing is detected based on the measurement result of the predetermined action acquired by a sensor, the moving image recording of the predetermined action that is being sequentially shot is started; is set, image acquisition means for acquiring an image of the predetermined operation by controlling the photographing device to photograph at a photographing speed based on the set operation mode;
measurement result acquisition means for acquiring a measurement result of the movement of the subject measured by the sensor at a sampling rate based on the set operation mode;
Based on the measurement result obtained by the measurement result obtaining means, as an index indicating the movement of the subject, a three-dimensional object whose plane direction corresponds to the front-rear direction, the left-right direction, and the vertical direction of the subject index generation means for generating a box image;
display control means for causing a display means to display both the image of the predetermined action acquired by the image acquisition means and the index generated by the index generation means;
An image processing device comprising:
前記指標生成手段は、前記計測結果に基づいて前記対象者の3次元的な動きを示す指標を生成することを特徴とする請求項1に記載の画像処理装置。 2. The image processing apparatus according to claim 1, wherein said index generating means generates an index indicating a three-dimensional movement of said subject based on said measurement result. 前記計測結果取得手段は、前記対象者に装着されたセンサによって計測された前記計測結果を取得することを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1, wherein the measurement result acquisition means acquires the measurement result measured by a sensor attached to the subject. 前記画像取得手段は、前記対象者を撮影する撮影装置によって撮影された前記所定の動作の画像を取得することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 4. The image processing apparatus according to any one of claims 1 to 3, wherein said image acquiring means acquires an image of said predetermined action taken by an image taking device for taking an image of said subject. 前記表示制御手段は、前記対象者の画像に前記指標を重ねて表示することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to any one of claims 1 to 4, wherein the display control means displays the index superimposed on the image of the subject. 前記表示制御手段は、前記対象者の画像において、前記対象者の身体における前記センサが動きを計測した位置と対応する位置に、前記指標を重ねて表示することを特徴とする請求項5に記載の画像処理装置。 6. The display control means according to claim 5, wherein, in the image of the subject, the index is superimposed and displayed at a position corresponding to a position where the sensor measures the movement of the body of the subject. image processing device. 前記表示制御手段は、前記対象者の画像の周囲に前記指標を表示することを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 5. The image processing apparatus according to any one of claims 1 to 4, wherein the display control means displays the index around the image of the subject. 前記表示制御手段は、前記対象者の画像の周囲において、前記対象者の身体における前記センサが動きを計測した位置と対応付けて、前記指標を表示することを特徴とする請求項7に記載の画像処理装置。 8. The display control means according to claim 7, wherein the display control means displays the index in association with the position of the subject's body where the sensor measures the movement around the image of the subject. Image processing device. 前記計測結果取得手段は、前記対象者の身体における複数の部位の動きをセンサによって計測した計測結果を取得し、
前記指標生成手段は、前記複数の部位について前記指標を生成し、
前記表示制御手段は、前記画像取得手段によって取得された前記所定の動作の画像と、前記指標生成手段によって生成された前記複数の部位の前記指標とを対応付けて表示手段に表示させることを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
The measurement result acquisition means acquires measurement results obtained by measuring movements of a plurality of parts of the subject's body with a sensor,
The index generation means generates the indices for the plurality of parts,
The display control means causes the display means to display the image of the predetermined motion acquired by the image acquisition means and the indicators of the plurality of parts generated by the indicator generation means in association with each other. The image processing apparatus according to any one of claims 1 to 8, wherein:
前記表示制御手段は、前記画像取得手段によって取得された前記所定の動作の画像のうち、時系列における間欠的な画像と、前記指標生成手段によって生成された前記指標とを対応付けて表示手段に表示させることを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。 The display control means associates intermittent images in a time series among the images of the predetermined motion acquired by the image acquisition means with the indicators generated by the indicator generation means, and displays them on the display means. 10. The image processing apparatus according to any one of claims 1 to 9, wherein the image processing apparatus is configured to display. 前記表示制御手段は、前記指標を透過的に表示することを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。 11. The image processing apparatus according to claim 1, wherein said display control means transparently displays said index. 前記表示制御手段は、前記対象者の動きのガイドとなる画像を表示し、前記対象者の動きと前記ガイドとなる画像との重なり度合いに応じて、前記指標の透過率を変化させることを特徴とする請求項1から11のいずれか1項に記載の画像処理装置。 The display control means displays an image that serves as a guide for the movement of the subject, and changes the transmittance of the index according to the degree of overlap between the movement of the subject and the image that serves as the guide. The image processing apparatus according to any one of claims 1 to 11, wherein: 前記表示制御手段は、前記指標の動きに対して固定的に表示される軸を表示することを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。 13. The image processing apparatus according to any one of claims 1 to 12, wherein said display control means displays an axis fixedly displayed with respect to movement of said index. 対象者の画像を撮影する撮影手段を備える撮影装置と、
前記対象者に装着され、前記対象者の動きをセンサによって計測する計測手段を備える検出装置と、
予め用意された複数の動作モードであって、前記撮装置に対し対象者による所定の動作を逐次撮させる第1のモードと、前記第1のモードにより逐次撮している時に外部操作の検出に基づき開始するモードであって、センサにより取得される前記所定の動作における計測結果に基づき開始タイミングを検出すると逐次撮されている前記所定の動作の動画記録を開始させる第2のモードとの何れかが設定されると、前記撮装置に対し前記設定された動作モードに基づく撮速度で撮するよう制御して、前記所定の動作画像を取得する画像取得手段と、
前記設定された動作モードに基づくサンプリングレートで前記センサによって計測した前記対象者の動きの計測結果を、前記検出装置から取得する計測結果取得手段と、
前記計測結果取得手段によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標として、各々の面方向が前記対象者の前後方向、左右方向、及び、鉛直方向に対応する立体的な箱画像を生成する指標生成手段と、
前記画像取得手段によって取得された前記所定の動作の画像と、前記指標生成手段によって生成された前記指標とを共に表示手段に表示させる表示制御手段と、を備える画像処理装置と、
を含むことを特徴とする解析システム。
a photographing device comprising photographing means for photographing an image of a subject;
a detection device that is worn by the subject and includes a measuring means that measures the movement of the subject using a sensor;
Among a plurality of operation modes prepared in advance, a first mode in which the photographing device is caused to sequentially photograph a predetermined action of the subject, and an external operation during the sequential photographing in the first mode. A second mode in which the moving image recording of the predetermined motion being sequentially captured is started when the start timing is detected based on the measurement result of the predetermined motion acquired by the sensor. and an image acquiring means for acquiring an image of the predetermined operation by controlling the photographing device to photograph at a photographing speed based on the set operation mode when either of the above is set;
measurement result acquisition means for acquiring, from the detection device, a measurement result of the movement of the subject measured by the sensor at a sampling rate based on the set operation mode;
Based on the measurement result obtained by the measurement result obtaining means, as an index indicating the movement of the subject, a three-dimensional object whose plane direction corresponds to the front-rear direction, the left-right direction, and the vertical direction of the subject index generation means for generating a box image;
an image processing apparatus comprising display control means for causing a display means to display both the image of the predetermined action acquired by the image acquisition means and the index generated by the index generation means;
An analysis system comprising:
画像処理装置が実行する画像処理方法であって、
予め用意された複数の動作モードであって、撮装置に対し対象者による所定の動作を逐次撮させる第1のモードと、前記第1のモードにより逐次撮している時に外部操作の検出に基づき開始するモードであって、センサにより取得される前記所定の動作における計測結果に基づき開始タイミングを検出すると逐次撮されている前記所定の動作の動画記録を開始させる第2のモードとの何れかが設定されると、前記撮装置に対し前記設定された動作モードに基づく撮速度で撮するよう制御して、前記所定の動作画像を取得する画像取得ステップと、
前記設定された動作モードに基づくサンプリングレートで前記センサによって計測した前記対象者の動きの計測結果を取得する計測結果取得ステップと、
前記計測結果取得ステップにおいて取得された前記計測結果に基づいて、前記対象者の動きを示す指標として、各々の面方向が前記対象者の前後方向、左右方向、及び、鉛直方向に対応する立体的な箱画像を生成する指標生成ステップと、
前記画像取得ステップにおいて取得された前記所定の動作の画像と、前記指標生成ステップにおいて生成された前記指標とを共に表示手段に表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing device,
Among a plurality of operation modes prepared in advance, a first mode in which the photographing device sequentially photographs a predetermined action by the subject, and an external operation during the sequential photographing in the first mode. a second mode that starts based on detection, in which when the start timing is detected based on the measurement result of the predetermined action acquired by a sensor, the moving image recording of the predetermined action that is being sequentially shot is started; is set, an image acquisition step of controlling the photographing device to photograph at a photographing speed based on the set operation mode, and acquiring an image of the predetermined operation;
a measurement result acquisition step of acquiring a measurement result of the movement of the subject measured by the sensor at a sampling rate based on the set operation mode;
Based on the measurement result obtained in the measurement result obtaining step, as an index indicating the movement of the subject, a three-dimensional object whose plane directions correspond to the front-rear direction, the left-right direction, and the vertical direction of the subject an index generation step for generating a box image;
a display control step of causing a display unit to display both the image of the predetermined action obtained in the image obtaining step and the index generated in the index generating step;
An image processing method comprising:
画像処理装置を制御するコンピュータに、
予め用意された複数の動作モードであって、撮装置に対し対象者による所定の動作を逐次撮させる第1のモードと、前記第1のモードにより逐次撮している時に外部操作の検出に基づき開始するモードであって、センサにより取得される前記所定の動作における計測結果に基づき開始タイミングを検出すると逐次撮されている前記所定の動作の動画記録を開始させる第2のモードとの何れかが設定されると、前記撮装置に対し前記設定された動作モードに基づく撮速度で撮するよう制御して、前記所定の動作画像を取得する画像取得機能、
前記対象者の動きをセンサによって計測した計測結果を取得する計測結果取得機能、
前記計測結果取得機能によって取得された前記計測結果に基づいて、前記対象者の動きを示す指標として、各々の面方向が前記対象者の前後方向、左右方向、及び、鉛直方向に対応する立体的な箱画像を生成する指標生成機能、
前記画像取得機能によって取得された前記所定の動作の画像と、前記指標生成機能によって生成された前記指標とを共に表示手段に表示させる表示制御機能、
を実現させることを特徴とするプログラム。
In the computer that controls the image processing device,
Among a plurality of operation modes prepared in advance, a first mode in which the photographing device sequentially photographs a predetermined action by the subject, and an external operation during the sequential photographing in the first mode. a second mode that starts based on detection, in which when the start timing is detected based on the measurement result of the predetermined action acquired by a sensor, the moving image recording of the predetermined action that is being sequentially shot is started; is set, an image acquisition function for acquiring an image of the predetermined operation by controlling the photographing device to photograph at a photographing speed based on the set operation mode;
A measurement result acquisition function for acquiring measurement results obtained by measuring the movement of the subject with a sensor;
Based on the measurement result acquired by the measurement result acquisition function, as an index indicating the movement of the subject, a three-dimensional object whose plane direction corresponds to the front-back direction, the left-right direction, and the vertical direction of the subject Index generation function that generates a box image,
a display control function for displaying both the image of the predetermined action acquired by the image acquisition function and the index generated by the index generation function on a display unit;
A program characterized by realizing
JP2020143999A 2020-08-28 2020-08-28 Image processing device, analysis system, image processing method and program Active JP7188422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020143999A JP7188422B2 (en) 2020-08-28 2020-08-28 Image processing device, analysis system, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020143999A JP7188422B2 (en) 2020-08-28 2020-08-28 Image processing device, analysis system, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016226235A Division JP2018085575A (en) 2016-11-21 2016-11-21 Image processing apparatus, analysis system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020205608A JP2020205608A (en) 2020-12-24
JP7188422B2 true JP7188422B2 (en) 2022-12-13

Family

ID=73837099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020143999A Active JP7188422B2 (en) 2020-08-28 2020-08-28 Image processing device, analysis system, image processing method and program

Country Status (1)

Country Link
JP (1) JP7188422B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060166737A1 (en) 2005-01-26 2006-07-27 Bentley Kinetics, Inc. Method and system for athletic motion analysis and instruction
JP2015116288A (en) 2013-12-18 2015-06-25 カシオ計算機株式会社 Exercise information display system, exercise information display method, and exercise information display program
JP2015186531A (en) 2014-03-26 2015-10-29 国立大学法人 東京大学 Action information processing device and program
JP2016067408A (en) 2014-09-26 2016-05-09 セイコーエプソン株式会社 Sensor, arithmetic unit, movement measurement method, movement measurement system, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060166737A1 (en) 2005-01-26 2006-07-27 Bentley Kinetics, Inc. Method and system for athletic motion analysis and instruction
JP2008528195A (en) 2005-01-26 2008-07-31 ベントレー・キネティクス・インコーポレーテッド Method and system for analyzing and indicating motor movement
JP2015116288A (en) 2013-12-18 2015-06-25 カシオ計算機株式会社 Exercise information display system, exercise information display method, and exercise information display program
JP2015186531A (en) 2014-03-26 2015-10-29 国立大学法人 東京大学 Action information processing device and program
JP2016067408A (en) 2014-09-26 2016-05-09 セイコーエプソン株式会社 Sensor, arithmetic unit, movement measurement method, movement measurement system, and program

Also Published As

Publication number Publication date
JP2020205608A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
KR102553278B1 (en) Image processing apparatus, analysis system, method for processing images, and program
US10070046B2 (en) Information processing device, recording medium, and information processing method
JP7215515B2 (en) Analysis device, analysis method and program
JPWO2013069049A1 (en) Image generating apparatus and image generating method
WO2016024392A1 (en) Motion analysis method, motion analysis device, motion analysis system, and program
JP6354461B2 (en) Feedback providing method, system, and analysis apparatus
JP5920264B2 (en) Image identification device, image identification system, image identification method, and program
US10083519B2 (en) Information processing apparatus and information processing method for specifying a composition of a picture
US10286285B2 (en) Display method, display apparatus, motion analysis system, motion analysis program, and recording medium
JP2013106324A (en) Image processor, image processing method and program
JP2018153295A (en) Motion analysis device, motion analysis method, and motion analysis system
US11305171B2 (en) Motion evaluation device using angular speed measured by a wearable sensor
JP2021102075A (en) Output device, output method, and program
WO2016024388A1 (en) Imaging control method, imaging control device, imaging control system and program
JP2021165763A (en) Information processor, method for information processing, and program
JP6787072B2 (en) Image processing equipment, analysis system, image processing method and program
JP7188422B2 (en) Image processing device, analysis system, image processing method and program
JP6878874B2 (en) Motion analysis device, motion analysis method and program
JP2010093451A (en) Imaging apparatus and program for imaging apparatus
JP7069953B2 (en) Electronic devices, partial identification methods for operation data, and programs
JP2019092648A (en) Electronic instrument, evaluation method, and program
JP2013078037A (en) Image processing device, image processing method, and program
CN117572958A (en) Visual boundary optimization system, visual boundary optimization method and VR glasses
JP2021144744A (en) Image processing device, image processing method, and program
JP2019162328A (en) Golf club determination device, golf club determination method, and golf club determination program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221114

R150 Certificate of patent or registration of utility model

Ref document number: 7188422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150