JP2018163417A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2018163417A
JP2018163417A JP2017058947A JP2017058947A JP2018163417A JP 2018163417 A JP2018163417 A JP 2018163417A JP 2017058947 A JP2017058947 A JP 2017058947A JP 2017058947 A JP2017058947 A JP 2017058947A JP 2018163417 A JP2018163417 A JP 2018163417A
Authority
JP
Japan
Prior art keywords
image
display
displayed
user
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017058947A
Other languages
Japanese (ja)
Other versions
JP6897215B2 (en
Inventor
加藤 寛之
Hiroyuki Kato
寛之 加藤
章吾 橋本
Shogo Hashimoto
章吾 橋本
亮 奥村
Ryo Okumura
亮 奥村
浩良 小川
Hiroyoshi Ogawa
浩良 小川
英明 松田
Hideaki Matsuda
英明 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017058947A priority Critical patent/JP6897215B2/en
Publication of JP2018163417A publication Critical patent/JP2018163417A/en
Priority to JP2021096455A priority patent/JP7272388B2/en
Application granted granted Critical
Publication of JP6897215B2 publication Critical patent/JP6897215B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To allow a user to simply specifying a frame image to be displayed among moving images indicating a series of motions.SOLUTION: When displaying a moving image showing a golf swing action acquired by imaging a golf swing action, an image processing device displays a seek bar which is used by the user for specifying and operating a time axis position of the frame image to be displayed among the moving images, and in which respective sections corresponding to partial motions contained in the golf swing motion are identifiably displayed. Then, according to a change of position of knob T1 of the seek bar by the specifying operation on the seek bar by the user, a frame image to be displayed is selected from among the moving images.SELECTED DRAWING: Figure 8

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来、ユーザに装着されるセンサからユーザの動作を検出し、検出した動作に基づいて、撮像された画像に、動作に対応するチャプタ情報を設定する技術が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for detecting a user's action from a sensor attached to the user and setting chapter information corresponding to the action in a captured image based on the detected action is known (for example, Patent Document 1). reference).

特開2013−188426号公報JP2013-188426A

しかしながら、特許文献1においては、画像に設定されたチャプタの表示については検討がなされておらず、ユーザの利便性向上の余地が残されていた。   However, in Patent Document 1, no consideration has been given to the display of chapters set in an image, leaving room for improvement in user convenience.

本発明は係る問題に鑑みてなされたものであり、一連の動作を示す動画像の中から表示するフレーム画像をユーザが容易に指定できるようにすることである。   The present invention has been made in view of such a problem, and is to enable a user to easily specify a frame image to be displayed from a moving image showing a series of operations.

上記課題を解決するため、請求項1に記載の発明の画像処理装置は、
被写体の一連の動作を示す動画像を取得する動画像取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする。
In order to solve the above problem, an image processing apparatus according to claim 1 is provided.
Moving image acquisition means for acquiring a moving image showing a series of movements of the subject;
Among the moving images acquired by the moving image acquisition means, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and each of the partial operations included in the series of operations Display control means for causing the display means to display the operation image in which the corresponding section is displayed in an identifiable manner;
Image selecting means for selecting a frame image to be displayed from the moving images in accordance with a change in display mode of the operation image by a user's specifying operation;
It is characterized by providing.

請求項6に記載の発明の画像処理装置は、
被写体の回転動作を示す動画像を取得する動画像取得手段と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする。
An image processing apparatus according to a sixth aspect of the present invention provides:
Moving image acquisition means for acquiring a moving image indicating a rotation operation of the subject;
Rotation angle acquisition means for acquiring information on the rotation angle of the subject in each frame image of the moving image;
Display control means for causing the display means to display an operation image for the user to specify the rotation angle of the subject in the frame image to be displayed among the moving images acquired by the moving image acquisition means;
Image selecting means for selecting a frame image to be displayed from the moving images in response to a designation operation on the operation image by a user;
It is characterized by providing.

本発明によれば、一連の動作を示す動画像の中から表示するフレーム画像をユーザが容易に指定することが可能となる。   According to the present invention, a user can easily specify a frame image to be displayed from a moving image showing a series of operations.

本実施形態の表示システムの全体構成例を示す図である。It is a figure which shows the example of whole structure of the display system of this embodiment. 図1のセンサのユーザへの装着態様と3軸の方向を模式的に示す図である。It is a figure which shows typically the mounting aspect to the user of the sensor of FIG. 1, and the direction of 3 axes | shafts. 図1のセンサの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the sensor of FIG. 図1の撮像装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the imaging device of FIG. 図1の画像処理装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image processing apparatus of FIG. ユーザのゴルフスイング動作におけるZ軸方向の角速度の計測結果を示す図である。It is a figure which shows the measurement result of the angular velocity of the Z-axis direction in a user's golf swing operation | movement. 図5のCPUにより実行される動画表示処理Aを示すフローチャートである。It is a flowchart which shows the moving image display process A performed by CPU of FIG. シークバーの例を示す図である。It is a figure which shows the example of a seek bar. 図5のCPUにより実行される動画表示処理Bを示すフローチャートである。It is a flowchart which shows the moving image display process B performed by CPU of FIG. 回転角コントローラーの例を示す図である。It is a figure which shows the example of a rotation angle controller.

以下、添付図面を参照して本発明に係る実施形態を詳細に説明する。なお、本発明は、図示例に限定されるものではない。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings. The present invention is not limited to the illustrated example.

<第1の実施形態>
[表示システム100の構成]
図1は、本発明の第1の実施形態における表示システム100の全体構成例を示す図である。表示システム100は、図1に示すように、センサ1と、撮像装置2と、画像処理装置3とを備え、各装置は互いに通信接続可能に構成されている。
<First Embodiment>
[Configuration of Display System 100]
FIG. 1 is a diagram showing an example of the overall configuration of a display system 100 according to the first embodiment of the present invention. As shown in FIG. 1, the display system 100 includes a sensor 1, an imaging device 2, and an image processing device 3, and each device is configured to be communicably connected to each other.

[センサ1の構成]
センサ1は、図2に示すように、例えば、ユーザUの腰部等に装着され、ユーザUの動作(本実施形態では、ゴルフスイング動作)を計測してセンサデータを取得し、画像処理装置3に送信する。
[Configuration of Sensor 1]
As shown in FIG. 2, for example, the sensor 1 is attached to the waist of the user U, and measures the user U's action (in this embodiment, a golf swing action) to acquire sensor data. Send to.

図3は、センサ1の機能的構成を示すブロック図である。図3に示すように、センサ1は、CPU11、RAM(Random Access Memory)12、記憶部13、操作部14、センサ部15、通信部16、計時部17等を備えて構成され、各部はバス18により接続されている。   FIG. 3 is a block diagram illustrating a functional configuration of the sensor 1. As shown in FIG. 3, the sensor 1 includes a CPU 11, a RAM (Random Access Memory) 12, a storage unit 13, an operation unit 14, a sensor unit 15, a communication unit 16, a timing unit 17, and the like. 18 is connected.

CPU11は、記憶部13に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。例えば、CPU11は、操作部14の操作に応じて撮像装置2と時刻同期を行う。また、CPU11は、操作部14の操作に応じてセンサ部15によるユーザUのゴルフスイング動作の計測を開始し、ゴルフスイング動作におけるアドレス(図6参照)が検知されると、通信部16によりアドレス検知信号を画像処理装置3に送信する。また、ゴルフスイング動作におけるフィニッシュ(図6参照)が検知されると、通信部16によりフィニッシュ検知信号を画像処理装置3に送信するとともに、RAM12に記憶されているセンサデータを通信部16により画像処理装置3に送信する。   The CPU 11 is a processor that executes various programs stored in the storage unit 13 to perform predetermined calculations and control of each unit. For example, the CPU 11 performs time synchronization with the imaging device 2 according to the operation of the operation unit 14. Further, the CPU 11 starts measurement of the golf swing motion of the user U by the sensor unit 15 in response to the operation of the operation unit 14. When an address (see FIG. 6) in the golf swing motion is detected, the communication unit 16 performs the addressing. A detection signal is transmitted to the image processing apparatus 3. Further, when the finish (see FIG. 6) in the golf swing motion is detected, the communication unit 16 transmits a finish detection signal to the image processing device 3, and sensor data stored in the RAM 12 is processed by the communication unit 16. Transmit to device 3.

RAM12は、CPU11に作業用のメモリ空間を提供し、データを一時的に記憶する。例えば、RAM12は、センサ部15により取得された計測結果を時系列に並べて(時刻に対応付けて)センサデータとして記憶する。   The RAM 12 provides a working memory space to the CPU 11 and temporarily stores data. For example, the RAM 12 arranges the measurement results acquired by the sensor unit 15 in time series (corresponding to the time) and stores it as sensor data.

記憶部13は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部13には、CPU11で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 13 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 13 stores a system program executed by the CPU 11, various processing programs, data necessary for executing these programs, and the like.

操作部14は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU11に出力する。   The operation unit 14 includes various function keys, accepts pressing input of each key by the user, and outputs the operation information to the CPU 11.

センサ部15は、図2に示すX軸、Y軸、Z軸の3軸加速度センサ、3軸ジャイロセンサ及び3軸地磁気センサ等を備えて構成され、ユーザUのゴルフスイング動作における3軸方向の加速度、角速度及び地磁気等を計測して、各センサにおける計測結果を示すセンサデータをCPU11に出力する。   The sensor unit 15 includes an X-axis, Y-axis, and Z-axis acceleration sensor, a 3-axis gyro sensor, a 3-axis geomagnetic sensor, and the like shown in FIG. Measure acceleration, angular velocity, geomagnetism, and the like, and output sensor data indicating the measurement results of each sensor to the CPU 11.

通信部16は、撮像装置2や画像処理装置3等の外部機器と通信を行うためのインターフェースを有する。通信部16は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従って外部機器とデータの送受信を行う。   The communication unit 16 has an interface for communicating with external devices such as the imaging device 2 and the image processing device 3. The communication unit 16 transmits / receives data to / from an external device in accordance with a wireless communication standard such as Bluetooth (registered trademark) or Wi-Fi.

計時部17は、RTC(Real Time Clock)等により構成され、現在時刻を計時してCPU11に出力する。   The timer unit 17 is composed of an RTC (Real Time Clock) or the like, and measures the current time and outputs it to the CPU 11.

[撮像装置2の構成]
撮像装置2は、センサ1によるユーザUのゴルフスイング動作の計測と同期してユーザUのゴルフスイング動作を撮影した動画像を取得して画像処理装置3に送信する。
[Configuration of Imaging Device 2]
The imaging device 2 acquires a moving image obtained by photographing the golf swing motion of the user U in synchronization with the measurement of the golf swing motion of the user U by the sensor 1 and transmits it to the image processing device 3.

図4は、撮像装置2の機能的構成を示すブロック図である。図4に示すように、撮像装置2は、CPU21、RAM22、記憶部23、操作部24、表示部25、撮像部26、通信部27、計時部28等を備えて構成され、各部はバス29により接続されている。   FIG. 4 is a block diagram illustrating a functional configuration of the imaging apparatus 2. As shown in FIG. 4, the imaging device 2 includes a CPU 21, a RAM 22, a storage unit 23, an operation unit 24, a display unit 25, an imaging unit 26, a communication unit 27, a timing unit 28, and the like. Connected by.

CPU21は、記憶部23に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。例えば、CPU21は、操作部24の操作に応じてセンサ1と時刻同期を行う。また、CPU21は、通信部27を介して画像処理装置3から撮影が指示されると、動画撮影を開始し、撮影終了が指示されると、動画撮影を終了し、撮影した動画像の画像データを撮影時刻に対応付けて動画ファイルとして通信部27により画像処理装置3に送信する。   The CPU 21 is a processor that executes various programs stored in the storage unit 23 to perform predetermined calculations and control of each unit. For example, the CPU 21 performs time synchronization with the sensor 1 according to the operation of the operation unit 24. Further, the CPU 21 starts moving image shooting when the image processing device 3 is instructed to shoot via the communication unit 27, and ends the moving image shooting when the end of shooting is instructed, and image data of the captured moving image. Is associated with the shooting time and transmitted to the image processing apparatus 3 by the communication unit 27 as a moving image file.

RAM22は、CPU21に作業用のメモリ空間を提供し、データを一時的に記憶する。例えば、RAM22は、撮像部26により取得された動画像のフレーム画像を撮影時刻に対応付けて記憶する。   The RAM 22 provides a working memory space to the CPU 21 and temporarily stores data. For example, the RAM 22 stores the frame image of the moving image acquired by the imaging unit 26 in association with the shooting time.

記憶部23は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部23には、CPU21で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The storage unit 23 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 23 stores a system program executed by the CPU 21, various processing programs, data necessary for executing these programs, and the like.

操作部24は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU21に出力する。   The operation unit 24 includes various function keys, accepts pressing input of each key by the user, and outputs the operation information to the CPU 21.

表示部25は、LCD(Liquid Crystal Display)等により構成され、CPU21から入力される表示信号の指示に従って、各種表示を行う。   The display unit 25 is configured by an LCD (Liquid Crystal Display) or the like, and performs various displays according to instructions of a display signal input from the CPU 21.

撮像部26は、光学レンズユニット、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ等からなる撮像素子、A/D変換回路等を備えて構成され、光学系を通過した光学像を2次元の画像信号に変換し画像データを取得する。   The imaging unit 26 includes an optical lens unit, an imaging element such as an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), an A / D conversion circuit, and the like, and passes through the optical system. The optical image thus obtained is converted into a two-dimensional image signal to obtain image data.

通信部27は、例えば、センサ1や画像処理装置3等の外部機器と通信を行うためのインターフェースを有する。通信部27は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従って外部機器とデータの送受信を行う。或いは、USB(Universal Serial Bus)等の有線通信規格に従って外部機器とデータの送受信を行うこととしてもよい。   The communication unit 27 has an interface for communicating with external devices such as the sensor 1 and the image processing apparatus 3. The communication unit 27 transmits / receives data to / from an external device according to a wireless communication standard such as Bluetooth (registered trademark) or Wi-Fi. Alternatively, data may be transmitted / received to / from an external device in accordance with a wired communication standard such as USB (Universal Serial Bus).

計時部28は、RTC等により構成され、現在時刻を計時してCPU21に出力する。   The timer unit 28 is composed of an RTC or the like, and measures the current time and outputs it to the CPU 21.

[画像処理装置3の構成]
画像処理装置3は、撮像装置2から送信された動画像のうち表示するフレーム画像をユーザが指定操作するための操作用画像を表示し、操作用画像上からのユーザ操作に応じて動画像の中から指定されたフレーム画像を表示する装置である。画像処理装置3としては、例えば、スマートフォンやタブレット、PC(Personal Computer)等が適用可能である。
[Configuration of Image Processing Device 3]
The image processing device 3 displays an operation image for the user to specify a frame image to be displayed among the moving images transmitted from the imaging device 2, and the moving image of the moving image is displayed according to a user operation from the operation image. It is a device that displays a frame image designated from the inside. As the image processing device 3, for example, a smartphone, a tablet, a PC (Personal Computer), or the like is applicable.

図5は、画像処理装置3の機能的構成を示すブロック図である。図5に示すように、画像処理装置3は、CPU31、RAM32、記憶部33、操作部34、表示部35、第一通信部36、第二通信部37等を備えて構成され、各部はバス38により接続されて構成されている。   FIG. 5 is a block diagram illustrating a functional configuration of the image processing apparatus 3. As shown in FIG. 5, the image processing apparatus 3 includes a CPU 31, a RAM 32, a storage unit 33, an operation unit 34, a display unit 35, a first communication unit 36, a second communication unit 37, and the like. 38 is connected.

CPU31は、記憶部33のプログラム記憶部331に記憶されている各種のプログラムを実行して所定の演算や各部の制御を行うプロセッサである。
例えば、CPU31は、プログラム記憶部331に記憶されているゴルフスイング表示アプリが動画取得モードで起動されると、センサ1からのアドレス検知信号の受信を待機し、第二通信部37によりセンサ1からのアドレス検知信号を受信すると、撮像装置2に撮影指示を送信する。また、CPU31は、第二通信部37によりセンサ1からのフィニッシュ検知信号を受信すると、撮像装置2に撮影終了指示を送信する。また、CPU31は、第二通信部37によりセンサ1からのセンサデータを受信すると、受信したセンサデータをセンサデータ記憶部332に記憶させ、撮像装置2から動画像の画像データを受信すると、受信した画像データを動画像記憶部333に記憶させる。
また、例えば、CPU31は、ゴルフスイング表示アプリが動画表示モードで起動されると、後述する動画表示処理Aを実行し、表示部35にシークバー(図8参照)を表示させる。また、ユーザによるシークバーの操作に応じて、動画像を構成するフレーム画像の中からフレーム画像を選択して表示部35に表示させる。CPU11は、動画像取得手段、表示制御手段、画像選択手段として機能する。
The CPU 31 is a processor that executes various programs stored in the program storage unit 331 of the storage unit 33 to perform predetermined calculations and control of each unit.
For example, when the golf swing display application stored in the program storage unit 331 is activated in the video acquisition mode, the CPU 31 waits for reception of an address detection signal from the sensor 1, and the second communication unit 37 causes the sensor 1 to When the address detection signal is received, a shooting instruction is transmitted to the imaging apparatus 2. Further, when the CPU 31 receives the finish detection signal from the sensor 1 by the second communication unit 37, the CPU 31 transmits a shooting end instruction to the imaging device 2. Further, when the CPU 31 receives the sensor data from the sensor 1 by the second communication unit 37, the CPU 31 stores the received sensor data in the sensor data storage unit 332 and receives the moving image image data from the imaging device 2. The image data is stored in the moving image storage unit 333.
Further, for example, when the golf swing display application is activated in the moving image display mode, the CPU 31 executes a moving image display process A described later, and displays a seek bar (see FIG. 8) on the display unit 35. Further, according to the operation of the seek bar by the user, a frame image is selected from the frame images constituting the moving image and displayed on the display unit 35. The CPU 11 functions as a moving image acquisition unit, a display control unit, and an image selection unit.

ここで、シークバーは、動画像の中から表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像である。本実施形態におけるシークバーは、シークバーの時間軸がゴルフスイング動作に含まれる部分動作(バックスイング、ダウンスイング、フォロースルー)のそれぞれに対応する区間に区切られている。   Here, the seek bar is an operation image for the user to specify and operate the position on the time axis of the frame image displayed from the moving image. The seek bar in this embodiment is divided into sections corresponding to each of partial operations (back swing, down swing, follow-through) in which the time axis of the seek bar is included in the golf swing operation.

RAM32は、CPU31に作業用のメモリ空間を提供し、データを一時的に記憶する。   The RAM 32 provides a working memory space to the CPU 31 and temporarily stores data.

記憶部33は、不揮発性の半導体メモリやハードディスク等により構成される。記憶部33には、プログラム記憶部331、センサデータ記憶部332及び動画像記憶部333が設けられている。   The storage unit 33 is configured by a nonvolatile semiconductor memory, a hard disk, or the like. The storage unit 33 includes a program storage unit 331, a sensor data storage unit 332, and a moving image storage unit 333.

プログラム記憶部331には、CPU31で実行されるシステムプログラムやゴルフスイング表示アプリを始めとする各種処理アプリケーションプログラム、これらのプログラムの実行に必要なデータ等が記憶されている。   The program storage unit 331 stores a system program executed by the CPU 31, various processing application programs including a golf swing display application, data necessary for executing these programs, and the like.

センサデータ記憶部332には、センサ1から送信されてきたセンサデータが記憶される。例えば、センサデータには、当該センサデータに対応する動画像(すなわち、当該センサデータの表すゴルフスイング動作の計測時にそのゴルフスイング動作を撮影した動画像)と同じ識別IDが付与されて記憶される。   The sensor data storage unit 332 stores sensor data transmitted from the sensor 1. For example, the sensor data is stored with the same identification ID as the moving image corresponding to the sensor data (that is, the moving image obtained by photographing the golf swing motion when measuring the golf swing motion represented by the sensor data). .

動画像記憶部333には、撮像装置2から送信されてきた動画像の画像データが記憶される。例えば、動画像には、当該動画像に対応するセンサデータ(すなわち、当該動画像の撮影時にゴルフスイング動作を計測したセンサデータ)と同じ識別IDが付与されて記憶される。   The moving image storage unit 333 stores moving image image data transmitted from the imaging device 2. For example, the same identification ID as the sensor data corresponding to the moving image (that is, the sensor data obtained by measuring the golf swing motion at the time of shooting the moving image) is assigned to the moving image and stored.

さらに、記憶部33には、シークバーの画像が記憶されている。   Further, the storage unit 33 stores a seek bar image.

操作部34は、各種機能キーを備え、ユーザによる各キーの押下入力を受け付けてその操作情報をCPU31に出力する。また、操作部34は、表示部35の表面を覆うように透明電極を格子状に配置したタッチパネル等を有し、手指やタッチペン等による各種操作を検出し、その操作情報をCPU31に出力する。   The operation unit 34 includes various function keys, accepts pressing input of each key by the user, and outputs the operation information to the CPU 31. The operation unit 34 has a touch panel or the like in which transparent electrodes are arranged in a grid pattern so as to cover the surface of the display unit 35, detects various operations with fingers or a touch pen, and outputs the operation information to the CPU 31.

表示部35は、LCD等により構成され、CPU31からの表示制御信号に従って、画面上に各種表示を行う。   The display unit 35 is configured by an LCD or the like, and performs various displays on the screen according to a display control signal from the CPU 31.

第一通信部36は、無線により基地局又はアクセスポイントを介して移動体通信網を含むインターネット等の通信ネットワークに接続し、通信ネットワークに接続された外部装置との通信を行う。   The first communication unit 36 is wirelessly connected to a communication network such as the Internet including a mobile communication network via a base station or an access point, and communicates with an external device connected to the communication network.

第二通信部37は、例えば、ブルートゥース(登録商標)やWi−Fi等の無線通信規格に従ってセンサ1や撮像装置2等の外部機器とデータの送受信を行う。或いは、USB(Universal Serial Bus)等の有線通信規格に従って外部機器とデータの送受信を行うこととしてもよい。   The second communication unit 37 transmits / receives data to / from an external device such as the sensor 1 or the imaging device 2 according to a wireless communication standard such as Bluetooth (registered trademark) or Wi-Fi. Alternatively, data may be transmitted / received to / from an external device in accordance with a wired communication standard such as USB (Universal Serial Bus).

[ゴルフスイングの動作]
図6は、ゴルフスイングの一連の動作と、ゴルフスイングの一連の動作時においてセンサ部15により計測されるZ軸周り角速度の一例を示す図である。図6に示すように、ゴルフスイングの一連の動作は、アドレス、トップ、ハーフ、インパクト、フィニッシュの各ポイントを含む。ここで、アドレスはテイクバックを開始する直前、トップはバックスイングからダウンスイングへの切り替えし点、ハーフはダウンスイング中にシャフトが水平になる位置、インパクトはゴルフクラブがボールに当たる瞬間、フィニッシュはフォロースルー後に通常の姿勢に戻る切り替えし点を意味する。フォワードスイング方向を正としてユーザUのZ軸周りの角速度を基準に見た場合、アドレスはゼロ近傍からマイナスへ移行する直前、トップはマイナスからプラスへ転じる点、ハーフは最大値近傍、インパクトは最大値から少し経過した点、フィニッシュはプラスからゼロ近傍もしくはマイナスへ移行する点である。
[Golf Swing Operation]
FIG. 6 is a diagram illustrating an example of a series of golf swing operations and an angular velocity around the Z axis measured by the sensor unit 15 during a series of golf swing operations. As shown in FIG. 6, a series of operations of the golf swing includes address, top, half, impact, and finish points. Here, the address is just before starting takeback, the top is the point to switch from backswing to downswing, the half is the position where the shaft is horizontal during the downswing, the impact is the moment the golf club hits the ball, the finish is follow It means a switching point that returns to a normal posture after a through. When the forward swing direction is positive and the angular velocity around the Z axis of the user U is taken as a reference, the address is just before shifting from near zero to minus, the top turns from minus to plus, the half is near the maximum value, and the impact is maximum The point where a little has passed from the value, the finish is the point where it shifts from plus to near zero or minus.

[表示システム100の動作]
次に、第1の実施形態における表示システム100の動作について説明する。
まず、ゴルフスイングの一連の動画像を取得する動作について説明する。
ユーザUは、センサ1及び撮像装置2を起動させ、所定の操作によりセンサ1と撮像装置2に時刻同期を行わせる。また、ユーザUは、画像処理装置3のゴルフスイング表示アプリを動画取得モードで起動させる。次いで、ユーザUは、撮像装置2のレンズがユーザUを捉える位置に撮像装置2を配置し、センサ1を腰に装着して操作部14を操作して計測開始を指示する。そして、ユーザUは一連のゴルフスイングの動作を行う。
[Operation of Display System 100]
Next, the operation of the display system 100 in the first embodiment will be described.
First, the operation | movement which acquires a series of moving images of a golf swing is demonstrated.
The user U activates the sensor 1 and the imaging device 2, and causes the sensor 1 and the imaging device 2 to perform time synchronization by a predetermined operation. In addition, the user U activates the golf swing display application of the image processing device 3 in the moving image acquisition mode. Next, the user U places the imaging device 2 at a position where the lens of the imaging device 2 captures the user U, attaches the sensor 1 to the waist, and operates the operation unit 14 to instruct start of measurement. Then, the user U performs a series of golf swing operations.

センサ1において、操作部14の操作により計測開始が指示されると、CPU11は、センサ部15によるユーザUのゴルフスイング動作の計測を開始し、アドレス開始が検知されるのを待機する。ここで、図6に示すように、ユーザUがアドレスからトップの姿勢に向けてバックスイングを開始すると、センサ部15の角速度センサから出力されるZ軸周りの角速度が0からマイナスへ変化する。そこで、例えば、センサ部15から出力されたZ軸周りの角速度がマイナス方向に予め定められた閾値(例えば、−0.3[rad/s])以上変化した場合に、CPU11は、アドレス開始が検知されたと判断する。そして、CPU11は、通信部16によりアドレス検知信号を画像処理装置3に送信する。   When the sensor 1 is instructed to start measurement by operating the operation unit 14, the CPU 11 starts measuring the golf swing motion of the user U by the sensor unit 15 and waits for detection of the address start. Here, as shown in FIG. 6, when the user U starts a backswing from the address toward the top posture, the angular velocity around the Z axis output from the angular velocity sensor of the sensor unit 15 changes from 0 to minus. Therefore, for example, when the angular velocity around the Z-axis output from the sensor unit 15 changes by a predetermined threshold value (for example, −0.3 [rad / s]) in the minus direction, the CPU 11 starts addressing. Judge that it was detected. Then, the CPU 11 transmits an address detection signal to the image processing apparatus 3 through the communication unit 16.

画像処理装置3において、第二通信部37によりセンサ1からのアドレス検知信号を受信すると、CPU31は、第二通信部37により撮像装置2に撮影開始指示を送信する。   In the image processing device 3, when the second communication unit 37 receives an address detection signal from the sensor 1, the CPU 31 transmits a shooting start instruction to the imaging device 2 through the second communication unit 37.

撮像装置2において、通信部27により撮影開始指示を受信すると、CPU21は、撮像部26により所定のフレームレートで動画像の撮影を開始させる。   In the imaging device 2, when the imaging start instruction is received by the communication unit 27, the CPU 21 causes the imaging unit 26 to start capturing a moving image at a predetermined frame rate.

センサ1において、CPU11は、センサ部15によりフィニッシュが検知されるのを待機する。ここで、図6に示すように、フィニッシュはセンサ部15の角速度センサから出力されるZ軸周りの角速度がプラスからゼロ近傍もしくはマイナスへ移行する点である。
そこで、CPU11は、例えば、アドレス開始の検知後にセンサ部15から出力されたZ軸周りの角速度がプラス方向から所定の閾値(例えば、0.3[rad/s])以下となった場合に、フィニッシュが検知されたと判断する。
In the sensor 1, the CPU 11 waits for the finish to be detected by the sensor unit 15. Here, as shown in FIG. 6, the finish is a point where the angular velocity around the Z-axis output from the angular velocity sensor of the sensor unit 15 shifts from plus to near zero or minus.
Therefore, the CPU 11, for example, when the angular velocity around the Z axis output from the sensor unit 15 after detecting the start of the address becomes a predetermined threshold value (for example, 0.3 [rad / s]) or less from the plus direction, It is determined that a finish has been detected.

センサ部15によりフィニッシュが検知されたと判断した場合、CPU11は、フィニッシュ検知信号を通信部16により画像処理装置3に送信する。また、アドレス開始からフィニッシュまでの間にセンサ部15において取得されたセンサデータを通信部16により画像処理装置3に送信する。   When determining that the finish has been detected by the sensor unit 15, the CPU 11 transmits a finish detection signal to the image processing apparatus 3 through the communication unit 16. In addition, the sensor data acquired in the sensor unit 15 from the start of the address to the finish is transmitted to the image processing apparatus 3 by the communication unit 16.

画像処理装置3において、第二通信部37によりセンサ1からのフィニッシュ検知信号を受信すると、CPU31は、第二通信部37により撮像装置2に撮影終了指示を送信する。また、第二通信部37によりセンサ1からのセンサデータを受信すると、データを識別するための識別IDを発行し、発行された識別IDを付与してセンサデータ記憶部332に記憶させる。   In the image processing device 3, when the second communication unit 37 receives a finish detection signal from the sensor 1, the CPU 31 transmits a shooting end instruction to the imaging device 2 through the second communication unit 37. Further, when sensor data from the sensor 1 is received by the second communication unit 37, an identification ID for identifying the data is issued, and the issued identification ID is given and stored in the sensor data storage unit 332.

撮像装置2において、通信部27により撮影終了指示を受信すると、CPU21は、撮像部26に撮影を終了させ、撮影により取得された動画像の画像データ(フレーム画像)を通信部27により画像処理装置3に送信する。なお、動画像の画像データは、例えば、動画ファイルとして画像処理装置3に送信される。   In the imaging device 2, when the communication unit 27 receives a shooting end instruction, the CPU 21 causes the imaging unit 26 to stop shooting, and the communication unit 27 uses the communication unit 27 to process the image data (frame image) of the moving image acquired by the shooting. 3 to send. The image data of the moving image is transmitted to the image processing device 3 as a moving image file, for example.

画像処理装置3において、第二通信部37により撮像装置2から動画像の画像データを受信すると、センサデータに付与したものと同じ識別IDを付与して動画像記憶部333に記憶させる。   In the image processing device 3, when image data of a moving image is received from the imaging device 2 by the second communication unit 37, the same identification ID as that given to the sensor data is assigned and stored in the moving image storage unit 333.

画像処理装置3において、動画像記憶部333に記憶された動画像は、ゴルフスイング表示アプリの動作モードを動画表示モードに設定することにより表示させることができる。   In the image processing device 3, the moving image stored in the moving image storage unit 333 can be displayed by setting the operation mode of the golf swing display application to the moving image display mode.

図7は、動画表示モードにおいてCPU31とゴルフスイング表示アプリとの協働により実行される動画表示処理Aを示すフローチャートである。以下、図7を参照して動画表示処理Aについて説明する。   FIG. 7 is a flowchart showing a moving image display process A executed in cooperation with the CPU 31 and the golf swing display application in the moving image display mode. Hereinafter, the moving image display processing A will be described with reference to FIG.

まず、CPU31は、動画像記憶部333に記憶されている動画像の一覧を表示部35に表示させ、ユーザによる動画像の選択操作を受け付ける(ステップS1)。   First, the CPU 31 displays a list of moving images stored in the moving image storage unit 333 on the display unit 35, and accepts a moving image selection operation by the user (step S1).

次いで、CPU31は、選択された動画像の画像データを動画像記憶部333から取得する(ステップS2)。
次いで、CPU31は、選択された動画像に対応する(同じ識別IDの)センサデータをセンサデータ記憶部332から取得する(ステップS3)。
Next, the CPU 31 acquires image data of the selected moving image from the moving image storage unit 333 (step S2).
Next, the CPU 31 acquires sensor data (with the same identification ID) corresponding to the selected moving image from the sensor data storage unit 332 (step S3).

次いで、CPU31は、取得したセンサデータの波形を解析して、動画像におけるゴルフスイング動作の各ポイント(アドレス、トップ、インパクト、フィニッシュ)の時刻を特定する(ステップS4)。   Next, the CPU 31 analyzes the waveform of the acquired sensor data, and specifies the time of each point (address, top, impact, finish) of the golf swing motion in the moving image (step S4).

次いで、CPU31は、各ポイントの時刻から、動画像におけるゴルフスイング動作の部分動作(バックスイング、ダウンスイング、フォロースルー)の各区間の時間長を算出する(ステップS5)。ここで、アドレスからトップまでがバックスイング区間、トップからインパクトまでがダウンスイング区間、インパクトからフィニッシュまでがフォロースルー区間である。   Next, the CPU 31 calculates the time length of each section of the golf swing motion partial motion (back swing, down swing, follow-through) in the moving image from the time of each point (step S5). Here, the back swing section is from the address to the top, the down swing section is from the top to the impact, and the follow through section is from the impact to the finish.

次いで、CPU31は、記憶部33からシークバーの画像を読み出し、シークバーにおけるゴルフスイング動作の各区間に、計算された時間長を割り当てる(ステップS6)。
そして、CPU31は、動画像のうちアドレスのフレーム画像と、シークバーとを表示部35に表示させる(ステップS7)。
Next, the CPU 31 reads the seek bar image from the storage unit 33 and assigns the calculated time length to each section of the golf swing motion at the seek bar (step S6).
Then, the CPU 31 displays the address frame image and the seek bar in the moving image on the display unit 35 (step S7).

図8(a)〜(c)に、ステップS6において表示部35に表示されるシークバーの例を示す。図8(a)は、棒形状のシークバーを示す図である。図8(b)は、三角形状のシークバーを示す図である。図8(c)は、ゴルフスイング動作の動作イメージを表現した形状のシークバーを示す図である。   FIGS. 8A to 8C show examples of seek bars displayed on the display unit 35 in step S6. FIG. 8A is a diagram showing a bar-shaped seek bar. FIG. 8B is a diagram showing a triangular seek bar. FIG. 8C is a diagram showing a seek bar having a shape representing an operation image of a golf swing operation.

図8(a)〜(c)に示すように、シークバーは、ゴルフスイング動作の各区間(バックスイング区間、ダウンスイング区間、フォロースルー区間)に対応する複数の区間に分かれており、各区間の位置及び名称が識別可能に表示されている。また、シークバーには、ゴルフスイング動作における各ポイント(アドレス、トップ、インパクト、フィニッシュ)の位置も識別可能に表示されている。各ポイントは、区間の区切りと重なっている。シークバーには、つまみT1が設けられている。このつまみT1のデフォルト位置はアドレスの位置であり、このつまみT1をユーザが手指やタッチペン又は操作部34の物理キーによる操作により移動させることにより、動画像における表示するフレーム画像の時間軸上の位置を指定することができる。   As shown in FIGS. 8A to 8C, the seek bar is divided into a plurality of sections corresponding to each section of the golf swing movement (back swing section, down swing section, follow-through section). The position and name are displayed in an identifiable manner. The seek bar also displays the position of each point (address, top, impact, finish) in the golf swing operation in an identifiable manner. Each point overlaps a section break. The seek bar is provided with a knob T1. The default position of the knob T1 is an address position, and the position of the frame image to be displayed in the moving image on the time axis is moved by the user moving the knob T1 by a finger, a touch pen, or a physical key of the operation unit 34. Can be specified.

図8(a)〜(c)に示すように、シークバーにゴルフスイング動作の各区間及び各ポイントが識別可能に表示されていることで、ユーザが、シークバーにおけるトップ、インパクト等のゴルフスイング動作におけるポイントとなる位置や各区間を容易に把握することができ、一連の動画像の中から表示したいフレーム画像の時間軸上の位置をユーザが容易に指定することが可能となる。   As shown in FIGS. 8A to 8C, each section and each point of the golf swing motion are displayed on the seek bar so as to be identifiable, so that the user can perform golf swing motion such as top and impact on the seek bar. The point position and each section can be easily grasped, and the user can easily specify the position on the time axis of the frame image to be displayed from the series of moving images.

また、シークバーが一直線である場合、トップやインパクトなどのポイント(区間の区切り)でつまみT1を止めづらく、所望のフレーム画像が指定しづらい場合があるが、図8(b)に示すように、ポイント(区間の区切り)の位置ごとに角を設けることで、つまみT1をポイントに移動させたいにもかかわらず、ポイントを通り過ぎて次の区間に移動してしまうことを防止することができ、ポイント位置の指定が容易となる。   Further, when the seek bar is a straight line, it may be difficult to stop the knob T1 at a point (section break) such as the top or impact, and it may be difficult to specify a desired frame image. However, as shown in FIG. By providing a corner for each point (section break), it is possible to prevent the knob T1 from moving to the next section past the point even though the knob T1 is moved to the point. The position can be easily specified.

また、動画像におけるゴルフスイング動作の部分動作の各区間の時間長を算出して、図8(b)に示されるシークバーの各区間の長さに対応付けてユーザによる操作を受け付けるため、例えばゴルフのインパクト動作のような動きが早く、撮影されているフレーム画像数が少ない動作の区間であってもユーザは容易に所望のフレーム画像を指定することが出来る。上述の構成により、単純に部分動作の各区間に含まれる画像枚数とシークバーの各区間の長さとを一致させた表示を行うと、シークバーにおいてインパクトに対応する区間が極端に短くなってしまい、ユーザが選択しづらい表示になるという課題を解決することが出来る。   Moreover, in order to receive the operation by the user in correspondence with the length of each section of the seek bar shown in FIG. The user can easily specify a desired frame image even in an operation period in which the movement is fast and the number of frame images taken is small. With the above configuration, if the display is performed by simply matching the number of images included in each section of the partial motion and the length of each section of the seek bar, the section corresponding to the impact in the seek bar becomes extremely short, and the user It is possible to solve the problem that display becomes difficult to select.

また、図8(c)に示すように、シークバーをゴルフスイング動作の動作イメージを表現した形状とすることで、直感的に、シークバーにおける各ポイントや各区間の位置をユーザが把握しやすくなり、一連の動画像の中から表示したいフレーム画像の時間軸上の位置をユーザが容易に指定することが可能となる。   In addition, as shown in FIG. 8C, by making the seek bar a shape that expresses the image of the golf swing operation, the user can intuitively grasp the position of each point and each section on the seek bar, The user can easily specify the position on the time axis of the frame image to be displayed from the series of moving images.

次いで、CPU31は、操作部34によりつまみT1の移動操作が検出されたか否かを判断する(ステップS8)。操作部34によるつまみT1の移動操作が検出されていないと判断した場合(ステップS8;NO)、CPU31は、ステップS11に移行する。   Next, the CPU 31 determines whether or not a movement operation of the knob T1 has been detected by the operation unit 34 (step S8). When it is determined that the movement operation of the knob T1 by the operation unit 34 is not detected (step S8; NO), the CPU 31 proceeds to step S11.

操作部34によりつまみT1の移動操作が検出されたと判断した場合(ステップS8;YES)、CPU31は、シークバーにおけるつまみT1の移動先の区間の開始位置からつまみT1の位置までの距離と、移動先の区間に割り当てられた時間長に基づいて、動画像の中からつまみT1の位置に対応するフレーム画像を選択する(ステップS9)。すなわち、CPU31は、ユーザ操作によるシークバーの表示態様の変化(ここでは、つまみT1の位置の変化)に応じて、動画像の中から表示するフレーム画像を選択する。そして、CPU31は、選択したフレーム画像以降の動画像を表示部35に表示させ(ステップS10)、ステップS11に移行する。   When it is determined that the movement operation of the knob T1 is detected by the operation unit 34 (step S8; YES), the CPU 31 determines the distance from the start position of the movement destination section of the knob T1 to the position of the knob T1 on the seek bar, and the movement destination. A frame image corresponding to the position of the knob T1 is selected from the moving images based on the time length assigned to the section (step S9). That is, the CPU 31 selects a frame image to be displayed from among the moving images in accordance with a change in the display mode of the seek bar by a user operation (here, a change in the position of the knob T1). Then, the CPU 31 displays the moving image after the selected frame image on the display unit 35 (step S10), and proceeds to step S11.

ステップS11おいて、CPU31は、操作部34により動画表示の終了指示が検出されたか否かを判断する(ステップS11)。
操作部34により動画表示の終了指示が検出されていないと判断した場合(ステップS11;NO)、CPU31は、ステップS8に戻る。
操作部34により動画表示の終了指示が検出されたと判断した場合(ステップS11;YES)、CPU31は、動画表示処理Aを終了する。
In step S11, the CPU 31 determines whether or not a moving image display end instruction is detected by the operation unit 34 (step S11).
When it is determined by the operation unit 34 that an instruction to end moving image display has not been detected (step S11; NO), the CPU 31 returns to step S8.
When it is determined by the operation unit 34 that an instruction to end moving image display has been detected (step S11; YES), the CPU 31 ends the moving image display process A.

<第2の実施形態>
次に、本発明の第2の実施形態について説明する。
第2の実施形態において、記憶部33には、回転角コントローラー(図10参照)の画像が記憶されている。
その他の第2の実施形態におけるシステム構成、各装置の構成、及び動画取得動作は、第1の実施形態において説明したものと同様であるので説明を援用し、以下、第2の実施形態における動画表示処理(動画表示処理Bとする)について説明する。
<Second Embodiment>
Next, a second embodiment of the present invention will be described.
In the second embodiment, the storage unit 33 stores an image of the rotation angle controller (see FIG. 10).
Since the system configuration, the configuration of each device, and the moving image acquisition operation in the other second embodiment are the same as those described in the first embodiment, the description is used, and hereinafter, the moving image in the second embodiment. Display processing (referred to as moving image display processing B) will be described.

図9は、動画表示モードにおいてCPU31とゴルフスイング表示アプリとの協働により実行される動画表示処理Bを示すフローチャートである。以下、図9を参照して動画表示処理Bについて説明する。   FIG. 9 is a flowchart showing a moving image display process B executed in cooperation with the CPU 31 and the golf swing display application in the moving image display mode. Hereinafter, the moving image display process B will be described with reference to FIG.

まず、CPU31は、動画像記憶部333に記憶されている動画像の一覧を表示部35に表示させ、ユーザによる動画像の選択操作を受け付ける(ステップS21)。   First, the CPU 31 displays a list of moving images stored in the moving image storage unit 333 on the display unit 35, and accepts a moving image selection operation by the user (step S21).

次いで、CPU31は、選択された動画像の画像データを動画像記憶部333から取得する(ステップS22)。
次いで、CPU31は、選択された動画像に対応する(同じ識別IDの)センサデータをセンサデータ記憶部332から取得する(ステップS23)。
Next, the CPU 31 acquires image data of the selected moving image from the moving image storage unit 333 (step S22).
Next, the CPU 31 acquires sensor data (with the same identification ID) corresponding to the selected moving image from the sensor data storage unit 332 (step S23).

次いで、CPU31は、取得したセンサデータの波形を解析して、動画像におけるゴルフスイング動作の各ポイント(アドレス、トップ、インパクト、フィニッシュ)の時刻を特定する(ステップS24)。   Next, the CPU 31 analyzes the waveform of the acquired sensor data, and specifies the time of each point (address, top, impact, finish) of the golf swing motion in the moving image (step S24).

次いで、CPU31は、センサデータのZ軸周りの角速度をセンサデータの先頭から積分して動画像の各時刻におけるユーザUの腰のZ軸周りの回転角度を算出する(ステップS25)。   Next, the CPU 31 calculates the rotation angle around the Z axis of the waist of the user U at each time of the moving image by integrating the angular velocity around the Z axis of the sensor data from the top of the sensor data (step S25).

次いで、CPU31は、記憶部33から回転角コントローラーの画像を読み出し、動画像のうちアドレスのフレーム画像と、回転角コントローラーとを表示部35に表示させる(ステップS26)。   Next, the CPU 31 reads the image of the rotation angle controller from the storage unit 33, and causes the display unit 35 to display the address frame image and the rotation angle controller in the moving image (step S26).

図10は、ステップS26において表示部35に表示される回転角コントローラーの一例を示す図である。回転角コントローラーは、選択された動画像のうち表示するフレーム画像におけるユーザUの腰の回転角度をユーザが指定操作するための操作用画像である。回転角コントローラーは、ユーザ操作に応じて回転可能な、例えば、腰をイメージさせる楕円形のコントローラー351と、回転角度の0°、90°、180°(−180°)、−90°を示す軸352と、を含んで構成される。コントローラー351には、基準マーク351aが表示されている。基準マーク351aが0°に一致している位置がコントローラー351の回転角度0°の位置であり、コントローラー351をユーザが回転させることで、動画像のうち、腰をその回転角度だけ回転させたときのフレーム画像を表示するフレーム画像として指定することができる。なお、コントローラー351を時計方向に回転させると、回転角度はマイナス方向に変位し、反時計方向に回転させると回転角度はプラス方向に変位する。図10(a)は、回転角度0°の場合のコントローラー351を示しており、図10(b)は、回転角度−45°の場合のコントローラー351を示している。   FIG. 10 is a diagram illustrating an example of the rotation angle controller displayed on the display unit 35 in step S26. The rotation angle controller is an operation image for the user to specify and operate the rotation angle of the user's waist in the frame image to be displayed among the selected moving images. The rotation angle controller can be rotated in accordance with a user operation, for example, an elliptical controller 351 that gives an image of a waist, and axes indicating rotation angles of 0 °, 90 °, 180 ° (−180 °), and −90 °. 352. On the controller 351, a reference mark 351a is displayed. When the position where the reference mark 351a coincides with 0 ° is the position where the rotation angle of the controller 351 is 0 °, and the user rotates the controller 351, the waist of the moving image is rotated by the rotation angle. This frame image can be designated as a frame image to be displayed. Note that when the controller 351 is rotated clockwise, the rotation angle is displaced in the minus direction, and when the controller 351 is rotated counterclockwise, the rotation angle is displaced in the plus direction. FIG. 10A shows the controller 351 when the rotation angle is 0 °, and FIG. 10B shows the controller 351 when the rotation angle is −45 °.

このように、表示するフレーム画像におけるユーザUの回転角度を指定するための操作用画像として、ユーザ操作に応じて回転し、回転した角度を回転角度として入力するコントローラー351を表示することで、ユーザが直感的に所望する姿勢のフレーム画像を表示する画像として指定することができる。   Thus, by displaying the controller 351 that rotates according to the user operation and inputs the rotated angle as the rotation angle as the operation image for designating the rotation angle of the user U in the frame image to be displayed, the user Can be intuitively designated as an image to display a frame image of a desired posture.

次いで、CPU31は、操作部34によりコントローラー351の回転操作が検出されたか否かを判断する(ステップS27)。
コントローラー351の回転操作が検出されていないと判断した場合(ステップS27;NO)、ステップS31に移行する。
Next, the CPU 31 determines whether or not a rotation operation of the controller 351 is detected by the operation unit 34 (step S27).
When it is determined that the rotation operation of the controller 351 has not been detected (step S27; NO), the process proceeds to step S31.

コントローラー351の回転操作が検出されたと判断した場合(ステップS27;YES)、CPU31は、コントローラー351の回転角度と回転方向を取得する(ステップS28)。   When determining that the rotation operation of the controller 351 has been detected (step S27; YES), the CPU 31 acquires the rotation angle and the rotation direction of the controller 351 (step S28).

次いで、CPU31は、取得した回転角度と回転方向に基づいて、動画像の中からフレーム画像を選択する(ステップS29)。
ここで、バックスイング時とダウンスイング時では腰の回転角度が同じになる瞬間があるが、バックスイング時はマイナス方向(時計回り)に回転し、ダウンスイング時はプラス方向(反時計周り)に回転する。したがって、回転角度と回転方向により、動画像の中からユーザにより指定されたフレーム画像を特定することができる。
Next, the CPU 31 selects a frame image from the moving images based on the acquired rotation angle and rotation direction (step S29).
Here, there is a moment when the hip rotation angle is the same during backswing and downswing, but during backswing it rotates in the negative direction (clockwise) and during downswing it is in the positive direction (counterclockwise). Rotate. Therefore, the frame image designated by the user can be specified from the moving images by the rotation angle and the rotation direction.

そして、CPU31は、選択されたフレーム画像以降の動画像を表示部35に表示させ(ステップS30)、ステップS31に移行する。   Then, the CPU 31 displays the moving image after the selected frame image on the display unit 35 (step S30), and proceeds to step S31.

ステップS31おいて、CPU31は、操作部34により、動画表示の終了指示が検出されたか否かを判断する(ステップS31)。
操作部34により動画表示の終了指示が検出されていないと判断した場合(ステップS31;NO)、CPU31は、ステップS27に戻り、ステップS27〜31の処理を繰り返し実行する。
操作部34により動画表示の終了指示が検出されたと判断した場合(ステップS31;YES)、CPU31は、動画表示処理Bを終了する。
In step S31, the CPU 31 determines whether or not a moving image display end instruction is detected by the operation unit 34 (step S31).
When it is determined that the moving image display end instruction has not been detected by the operation unit 34 (step S31; NO), the CPU 31 returns to step S27 and repeatedly executes the processes of steps S27 to S31.
When it is determined by the operation unit 34 that an instruction to end moving image display has been detected (step S31; YES), the CPU 31 ends the moving image display process B.

このように、第2の実施形態では、表示するフレーム画像をユーザが指定操作するための操作用画像として回転角コントローラーを表示するので、ユーザが直感的に所望する姿勢のフレーム画像を表示する画像として指定することができる。また、ユーザによるコントローラー351aの回転操作に応じて表示するフレーム画像を切り替えることができるので、ユーザは、コントローラー351aを回転させる速度を調整することで、注目する姿勢の画像を所望の速度で表示して閲覧することが可能となる。   As described above, in the second embodiment, the rotation angle controller is displayed as an operation image for the user to specify and operate the frame image to be displayed. Therefore, the image that displays the frame image of the posture desired by the user intuitively. Can be specified as In addition, since the frame image to be displayed can be switched according to the rotation operation of the controller 351a by the user, the user can display the image of the attention posture at a desired speed by adjusting the speed of rotating the controller 351a. Can be viewed.

以上、本発明の第1及び第2の実施形態について説明したが、上記実施形態における記述内容は、本発明に係る表示システムの好適な一例であり、これに限定されるものではない。   The first and second embodiments of the present invention have been described above. However, the description in the above embodiment is a preferred example of the display system according to the present invention, and the present invention is not limited to this.

例えば、上記実施形態においては、センサ1と画像処理装置3が別体である場合を例にとり説明したが、例えば、3軸加速度センサ、3軸ジャイロセンサ及び3軸地磁気センサ等を備えたスマートフォンなど、センサ1と画像処理装置3とが一体的に構成されていることとしてもよい。また、例えば、カメラを備えたスマートフォンなど、撮像装置2と画像処理装置3とが一体的に構成されていることとしてもよい。   For example, in the above-described embodiment, the case where the sensor 1 and the image processing apparatus 3 are separate has been described as an example. However, for example, a smartphone including a 3-axis acceleration sensor, a 3-axis gyro sensor, a 3-axis geomagnetic sensor, and the like The sensor 1 and the image processing device 3 may be integrally configured. Further, for example, the imaging device 2 and the image processing device 3 may be configured integrally, such as a smartphone equipped with a camera.

また、上記実施形態においては、画像処理装置3の表示部35において操作用画像及び動画像の表示を行うこととしたが、操作用画像及び動画像を別体の表示装置に表示する構成としてもよい。   In the above embodiment, the operation image and the moving image are displayed on the display unit 35 of the image processing apparatus 3. However, the operation image and the moving image may be displayed on a separate display device. Good.

また、上記第1の実施形態においては、画像処理装置3において動画像が選択された後、動画像に対応するセンサデータを解析して動画像における各ポイントの再生時刻や各区間の時間長を算出することとして説明したが、これらの算出は初めてその動画像が選択されたとき又は予め行っておき、算出された動画像における各ポイントの再生時刻や各区間の時間長を動画像に対応付けて記憶しておくこととしてもよい。そして、動画像が選択された際には、その動画像に対応付けて記憶されている各ポイントの再生時刻や各区間の時間長を読み出してシークバーに割り当てることとしてもよい。   In the first embodiment, after a moving image is selected in the image processing device 3, the sensor data corresponding to the moving image is analyzed to determine the reproduction time of each point in the moving image and the time length of each section. As described above, the calculation is performed when the moving image is selected for the first time or in advance, and the reproduction time of each point and the time length of each section in the calculated moving image are associated with the moving image. It is good also to memorize. When a moving image is selected, the playback time of each point and the time length of each section stored in association with the moving image may be read and assigned to the seek bar.

また、上記第2の実施形態においては、画像処理装置3において動画像が選択された後、動画像に対応するセンサデータに基づいて、動画像の各時刻におけるユーザU(被写体)の腰のZ軸周りの回転角度を算出することとしたが、この回転角度の算出は、初めてその動画像が選択されたとき又は予め行っておき、算出された回転角度を動画像に対応付けて記憶しておくこととしてもよい。そして、動画像が選択された際には、その動画像に対応付けて記憶されている各時刻の回転角度を読み出して回転角コントローラーによるフレーム画像の指定に用いてもよい。   In the second embodiment, after a moving image is selected in the image processing device 3, the waist Z of the user U (subject) at each time of the moving image is based on sensor data corresponding to the moving image. Although the rotation angle around the axis is calculated, the calculation of the rotation angle is performed when the moving image is selected for the first time or in advance, and the calculated rotation angle is stored in association with the moving image. It is good also to leave. When a moving image is selected, the rotation angle at each time stored in association with the moving image may be read out and used for designating a frame image by the rotation angle controller.

また、上記第2の実施形態においては、操作用画像として一つの回転可能なコントローラー151を表示して、コントローラー151の回転操作に応じて動画像からフレーム画像を選択することとして説明したが、例えば、CPU31は、コントローラー151を複数の回転角度で回転させた状態を表す複数の画像(例えば、アドレス、トップ、インパクト、フィニッシュの各ポイントに対応する回転角度でコントローラー151を回転させた状態を表す複数の画像)を操作用画像として表示し、ユーザにより何れかの画像が指定操作されると、指定された画像に対応する回転角度のフレーム画像を表示するフレーム画像として選択することとしてもよい。これにより、表示させたいポイントのフレーム画像をユーザがより簡易な操作で指定することが可能となる。   Further, in the second embodiment, it has been described that one rotatable controller 151 is displayed as the operation image and a frame image is selected from the moving image according to the rotation operation of the controller 151. The CPU 31 has a plurality of images representing a state in which the controller 151 is rotated at a plurality of rotation angles (for example, a plurality of images representing a state in which the controller 151 is rotated at a rotation angle corresponding to each point of address, top, impact, and finish). Image) may be displayed as an operation image, and when any image is designated and operated by the user, a frame image having a rotation angle corresponding to the designated image may be selected as a frame image to be displayed. As a result, the frame image of the point to be displayed can be specified by the user with a simpler operation.

また、上記実施形態においては、センサ1をユーザUの腰に装着することとして説明したが、これに限定されない。例えば、センサ1は、スマートウォッチのようなリストデバイスであってもよい。また、その他の部位(頭、腕、手首)に装着してもよい。手軽なため、身体に装着することが望ましいが、ゴルフクラブに装着することとしてもよい。また、複数個所にセンサ1を装着してもよい。例えば、腰と背中にセンサ1を装着してもよい。腰と肩の捻転差は各種競技で重要になるパラメータであるため、効果的である。   Moreover, in the said embodiment, although demonstrated as mounting the sensor 1 to the user's U waist, it is not limited to this. For example, the sensor 1 may be a wrist device such as a smart watch. Moreover, you may mount | wear with another site | part (a head, an arm, a wrist). Since it is easy, it is desirable to wear it on the body, but it is also possible to wear it on a golf club. Moreover, you may mount | wear with the sensor 1 in several places. For example, the sensor 1 may be attached to the waist and back. Since the torsional difference between the waist and shoulder is an important parameter in various competitions, it is effective.

また、上記実施形態においては、センサ1からセンサデータを直接取得することとしたが、外部のネットワークを介して取得することとしてもよい。   In the above embodiment, the sensor data is directly acquired from the sensor 1, but may be acquired via an external network.

また、上記実施形態においては、センサデータを解析して動画像の各ポイントの時刻や各区間の時間長を算出することとしたが、動画像の各フレーム画像を解析してこれらを算出することとしてもよい。また、動画像の各フレーム画像における腰の回転角度についても同様に、各フレーム画像を解析することにより求めてもよい。   In the above embodiment, the sensor data is analyzed to calculate the time of each point of the moving image and the time length of each section. However, each frame image of the moving image is analyzed and calculated. It is good. Similarly, the waist rotation angle in each frame image of the moving image may be obtained by analyzing each frame image.

また、上記実施形態においては、本発明をゴルフスイング動作を撮影した動画像を表示する場合を例にとり説明したが、これに限定されず、他の動作、例えば、テニスやゲートボール等のスイング動作を撮影した動画像を表示する場合に適用することもできる。   In the above embodiment, the present invention has been described by taking an example in which a moving image obtained by shooting a golf swing motion is displayed. However, the present invention is not limited to this, and other motions such as a swing motion such as tennis or a gate ball are performed. The present invention can also be applied when displaying a captured moving image.

その他、表示システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the display system can be appropriately changed without departing from the spirit of the invention.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
[付記]
<請求項1>
被写体の一連の動作を示す動画像を取得する動画像取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
<請求項2>
前記表示制御手段は、さらに前記一連の動作に含まれる特定のポイントが識別可能に表示された前記操作用画像を前記表示手段に表示させること、
を特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記操作用画像は、前記区間の区切りごとに角を有する形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
前記操作用画像は、前記特定のポイントごとに角を有する形状であること、
を特徴とする請求項2に記載の画像処理装置。
<請求項5>
前記操作用画像は、前記一連の動作の動作イメージを表現した形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
<請求項6>
被写体の回転動作を示す動画像を取得する動画像取得手段と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
<請求項7>
前記操作用画像は、ユーザ操作に応じて回転可能であり、ユーザが当該操作用画像を回転させた角度を前記表示するフレーム画像における前記被写体の回転角度として指定可能であり、
前記画像選択手段は、ユーザによる前記操作用画像の回転操作に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
<請求項8>
前記表示制御手段は、所定の画像を複数の回転角度で回転させた状態を表す複数の画像を前記操作用画像として前記表示手段に表示させ、
前記画像選択手段は、前記操作用画像における前記複数の画像のうちユーザにより指定操作された画像に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
<請求項9>
前記表示制御手段は、前記動画像の中から前記画像選択手段により選択されたフレーム画像を取得して前記表示手段に表示させること、
を特徴とする請求項1〜8のいずれか一項に記載の画像処理装置。
<請求項10>
被写体の一連の動作を示す動画像を取得する工程と、
前記取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる工程と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
<請求項11>
被写体の回転動作を示す動画像を取得する工程と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する工程と、
前記取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる工程と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
<請求項12>
コンピュータを、
被写体の一連の動作を示す動画像を取得する動画像取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
<請求項13>
コンピュータを、
被写体の回転動作を示す動画像を取得する動画像取得手段、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Moving image acquisition means for acquiring a moving image showing a series of movements of the subject;
Among the moving images acquired by the moving image acquisition means, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and each of the partial operations included in the series of operations Display control means for causing the display means to display the operation image in which the corresponding section is displayed in an identifiable manner;
Image selecting means for selecting a frame image to be displayed from the moving images in accordance with a change in display mode of the operation image by a user's specifying operation;
An image processing apparatus comprising:
<Claim 2>
The display control means further causes the display means to display the operation image on which specific points included in the series of operations are displayed in an identifiable manner,
The image processing apparatus according to claim 1.
<Claim 3>
The operation image has a shape having a corner for each section break,
The image processing apparatus according to claim 1, wherein:
<Claim 4>
The operation image is a shape having a corner for each specific point,
The image processing apparatus according to claim 2.
<Claim 5>
The operation image has a shape representing an operation image of the series of operations;
The image processing apparatus according to claim 1, wherein:
<Claim 6>
Moving image acquisition means for acquiring a moving image indicating a rotation operation of the subject;
Rotation angle acquisition means for acquiring information on the rotation angle of the subject in each frame image of the moving image;
Display control means for causing the display means to display an operation image for the user to specify the rotation angle of the subject in the frame image to be displayed among the moving images acquired by the moving image acquisition means;
Image selecting means for selecting a frame image to be displayed from the moving images in response to a designation operation on the operation image by a user;
An image processing apparatus comprising:
<Claim 7>
The operation image can be rotated according to a user operation, and an angle at which the user rotates the operation image can be designated as a rotation angle of the subject in the frame image to be displayed.
The image selecting means selects a frame image to be displayed from the moving images in response to a rotation operation of the operation image by a user;
The image processing apparatus according to claim 6.
<Claim 8>
The display control unit causes the display unit to display a plurality of images representing a state in which a predetermined image is rotated at a plurality of rotation angles as the operation image,
The image selecting means selects a frame image to be displayed from the moving images according to an image designated and operated by a user among the plurality of images in the operation image;
The image processing apparatus according to claim 6.
<Claim 9>
The display control means acquires the frame image selected by the image selection means from the moving images and causes the display means to display the frame image;
The image processing apparatus according to claim 1, wherein:
<Claim 10>
Acquiring a moving image showing a series of movements of the subject;
Among the acquired moving images, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and a section corresponding to each of the partial operations included in the series of operations is identified. A step of causing the display means to display the operation image displayed in a possible manner;
Selecting a frame image to be displayed from the moving images according to a change in the display mode of the operation image by a user's specifying operation;
Including an image processing method.
<Claim 11>
Obtaining a moving image showing the rotation of the subject;
Obtaining information on the rotation angle of the subject in each frame image of the moving image;
A step of causing a display unit to display an operation image for a user to designate and specify a rotation angle of the subject in a frame image to be displayed among the acquired moving images;
A step of selecting a frame image to be displayed from among the moving images in response to a designation operation on the operation image by a user;
Including an image processing method.
<Claim 12>
Computer
Moving image acquisition means for acquiring a moving image indicating a series of movements of the subject;
Among the moving images acquired by the moving image acquisition means, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and each of the partial operations included in the series of operations Display control means for displaying on the display means the operation image in which the corresponding section is displayed in an identifiable manner;
Image selecting means for selecting a frame image to be displayed from the moving images in accordance with a change in display mode of the operation image by a user's specifying operation;
Program to function as.
<Claim 13>
Computer
Moving image acquisition means for acquiring a moving image indicating the rotation of the subject;
Rotation angle acquisition means for acquiring information on the rotation angle of the subject in each frame image of the moving image;
Display control means for causing the display means to display an operation image for the user to specify the rotation angle of the subject in the frame image to be displayed among the moving images acquired by the moving image acquisition means;
Image selecting means for selecting a frame image to be displayed from the moving images in response to a designation operation on the operation image by a user;
Program to function as.

100 表示システム
1 センサ
11 CPU
12 RAM
13 記憶部
14 操作部
15 センサ部
16 通信部
17 計時部
18 バス
2 撮像装置
21 CPU
22 RAM
23 記憶部
24 操作部
25 表示部
26 撮像部
27 通信部
28 計時部
29 バス
3 画像処理装置
31 CPU
32 RAM
33 記憶部
331 プログラム記憶部
332 センサデータ記憶部
333 動画像記憶部
34 操作部
35 表示部
36 第一通信部
37 第二通信部
38 バス
100 Display system 1 Sensor 11 CPU
12 RAM
13 Storage Unit 14 Operation Unit 15 Sensor Unit 16 Communication Unit 17 Timekeeping Unit 18 Bus 2 Imaging Device 21 CPU
22 RAM
23 Storage Unit 24 Operation Unit 25 Display Unit 26 Imaging Unit 27 Communication Unit 28 Timekeeping Unit 29 Bus 3 Image Processing Device 31 CPU
32 RAM
33 storage unit 331 program storage unit 332 sensor data storage unit 333 moving image storage unit 34 operation unit 35 display unit 36 first communication unit 37 second communication unit 38 bus

Claims (13)

被写体の一連の動作を示す動画像を取得する動画像取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
Moving image acquisition means for acquiring a moving image showing a series of movements of the subject;
Among the moving images acquired by the moving image acquisition means, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and each of the partial operations included in the series of operations Display control means for causing the display means to display the operation image in which the corresponding section is displayed in an identifiable manner;
Image selecting means for selecting a frame image to be displayed from the moving images in accordance with a change in display mode of the operation image by a user's specifying operation;
An image processing apparatus comprising:
前記表示制御手段は、さらに前記一連の動作に含まれる特定のポイントが識別可能に表示された前記操作用画像を前記表示手段に表示させること、
を特徴とする請求項1に記載の画像処理装置。
The display control means further causes the display means to display the operation image on which specific points included in the series of operations are displayed in an identifiable manner,
The image processing apparatus according to claim 1.
前記操作用画像は、前記区間の区切りごとに角を有する形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
The operation image has a shape having a corner for each section break,
The image processing apparatus according to claim 1, wherein:
前記操作用画像は、前記特定のポイントごとに角を有する形状であること、
を特徴とする請求項2に記載の画像処理装置。
The operation image is a shape having a corner for each specific point,
The image processing apparatus according to claim 2.
前記操作用画像は、前記一連の動作の動作イメージを表現した形状であること、
を特徴とする請求項1又は2に記載の画像処理装置。
The operation image has a shape representing an operation image of the series of operations;
The image processing apparatus according to claim 1, wherein:
被写体の回転動作を示す動画像を取得する動画像取得手段と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段と、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段と、
を備えること、を特徴とする画像処理装置。
Moving image acquisition means for acquiring a moving image indicating a rotation operation of the subject;
Rotation angle acquisition means for acquiring information on the rotation angle of the subject in each frame image of the moving image;
Display control means for causing the display means to display an operation image for the user to specify the rotation angle of the subject in the frame image to be displayed among the moving images acquired by the moving image acquisition means;
Image selecting means for selecting a frame image to be displayed from the moving images in response to a designation operation on the operation image by a user;
An image processing apparatus comprising:
前記操作用画像は、ユーザ操作に応じて回転可能であり、ユーザが当該操作用画像を回転させた角度を前記表示するフレーム画像における前記被写体の回転角度として指定可能であり、
前記画像選択手段は、ユーザによる前記操作用画像の回転操作に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
The operation image can be rotated according to a user operation, and an angle at which the user rotates the operation image can be designated as a rotation angle of the subject in the frame image to be displayed.
The image selecting means selects a frame image to be displayed from the moving images in response to a rotation operation of the operation image by a user;
The image processing apparatus according to claim 6.
前記表示制御手段は、所定の画像を複数の回転角度で回転させた状態を表す複数の画像を前記操作用画像として前記表示手段に表示させ、
前記画像選択手段は、前記操作用画像における前記複数の画像のうちユーザにより指定操作された画像に応じて、前記動画像の中から表示するフレーム画像を選択すること、
を特徴とする請求項6に記載の画像処理装置。
The display control unit causes the display unit to display a plurality of images representing a state in which a predetermined image is rotated at a plurality of rotation angles as the operation image,
The image selecting means selects a frame image to be displayed from the moving images according to an image designated and operated by a user among the plurality of images in the operation image;
The image processing apparatus according to claim 6.
前記表示制御手段は、前記動画像の中から前記画像選択手段により選択されたフレーム画像を取得して前記表示手段に表示させること、
を特徴とする請求項1〜8のいずれか一項に記載の画像処理装置。
The display control means acquires the frame image selected by the image selection means from the moving images and causes the display means to display the frame image;
The image processing apparatus according to claim 1, wherein:
被写体の一連の動作を示す動画像を取得する工程と、
前記取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる工程と、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
Acquiring a moving image showing a series of movements of the subject;
Among the acquired moving images, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and a section corresponding to each of the partial operations included in the series of operations is identified. A step of causing the display means to display the operation image displayed in a possible manner;
Selecting a frame image to be displayed from the moving images according to a change in the display mode of the operation image by a user's specifying operation;
Including an image processing method.
被写体の回転動作を示す動画像を取得する工程と、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する工程と、
前記取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる工程と、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する工程と、
を含むこと、を特徴とする画像処理方法。
Obtaining a moving image showing the rotation of the subject;
Obtaining information on the rotation angle of the subject in each frame image of the moving image;
A step of causing a display unit to display an operation image for a user to designate and specify a rotation angle of the subject in a frame image to be displayed among the acquired moving images;
A step of selecting a frame image to be displayed from among the moving images in response to a designation operation on the operation image by a user;
Including an image processing method.
コンピュータを、
被写体の一連の動作を示す動画像を取得する動画像取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像の時間軸上の位置をユーザが指定操作するための操作用画像であって、前記一連の動作に含まれる部分動作のそれぞれに対応する区間が識別可能に表示された前記操作用画像を表示手段に表示させる表示制御手段、
ユーザの指定操作による前記操作用画像の表示態様の変化に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
Computer
Moving image acquisition means for acquiring a moving image indicating a series of movements of the subject;
Among the moving images acquired by the moving image acquisition means, an operation image for a user to specify and operate a position on a time axis of a frame image to be displayed, and each of the partial operations included in the series of operations Display control means for causing the display means to display the operation image in which the corresponding section is displayed in an identifiable manner;
Image selecting means for selecting a frame image to be displayed from the moving images in accordance with a change in display mode of the operation image by a user's specifying operation;
Program to function as.
コンピュータを、
被写体の回転動作を示す動画像を取得する動画像取得手段、
前記動画像の各フレーム画像における前記被写体の回転角度の情報を取得する回転角度取得手段、
前記動画像取得手段により取得された動画像のうち表示するフレーム画像における前記被写体の回転角度をユーザが指定操作するための操作用画像を表示手段に表示させる表示制御手段、
ユーザによる前記操作用画像上の指定操作に応じて、前記動画像の中から表示するフレーム画像を選択する画像選択手段、
として機能させるためのプログラム。
Computer
Moving image acquisition means for acquiring a moving image indicating the rotation of the subject;
Rotation angle acquisition means for acquiring information on the rotation angle of the subject in each frame image of the moving image;
Display control means for causing the display means to display an operation image for the user to specify the rotation angle of the subject in the frame image to be displayed among the moving images acquired by the moving image acquisition means;
Image selecting means for selecting a frame image to be displayed from the moving images in response to a designation operation on the operation image by a user;
Program to function as.
JP2017058947A 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs Active JP6897215B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017058947A JP6897215B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs
JP2021096455A JP7272388B2 (en) 2017-03-24 2021-06-09 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058947A JP6897215B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021096455A Division JP7272388B2 (en) 2017-03-24 2021-06-09 Image processing device, image processing method and program

Publications (2)

Publication Number Publication Date
JP2018163417A true JP2018163417A (en) 2018-10-18
JP6897215B2 JP6897215B2 (en) 2021-06-30

Family

ID=63860202

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017058947A Active JP6897215B2 (en) 2017-03-24 2017-03-24 Image processing equipment, image processing methods and programs
JP2021096455A Active JP7272388B2 (en) 2017-03-24 2021-06-09 Image processing device, image processing method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021096455A Active JP7272388B2 (en) 2017-03-24 2021-06-09 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (2) JP6897215B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198219A (en) * 1996-01-18 1997-07-31 Internatl Business Mach Corp <Ibm> Coordinate input controller and method therefor
JP2000231431A (en) * 1998-07-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> Data inputting method and its device and recording medium for storing data input program and video data operating method and its device and recording medium for storing video data operation program
JP2013196518A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing apparatus, image processing method and program
JP2016218764A (en) * 2015-05-21 2016-12-22 アルパイン株式会社 Electronic device, reproduction control program, and reproduction control method
WO2017022286A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6451375B2 (en) 2015-02-12 2019-01-16 セイコーエプソン株式会社 Motion analysis method and apparatus, and motion analysis program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09198219A (en) * 1996-01-18 1997-07-31 Internatl Business Mach Corp <Ibm> Coordinate input controller and method therefor
JP2000231431A (en) * 1998-07-08 2000-08-22 Nippon Telegr & Teleph Corp <Ntt> Data inputting method and its device and recording medium for storing data input program and video data operating method and its device and recording medium for storing video data operation program
JP2013196518A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Image processing apparatus, image processing method and program
JP2016218764A (en) * 2015-05-21 2016-12-22 アルパイン株式会社 Electronic device, reproduction control program, and reproduction control method
WO2017022286A1 (en) * 2015-08-03 2017-02-09 ソニー株式会社 Information processing system, information processing method, and recording medium

Also Published As

Publication number Publication date
JP7272388B2 (en) 2023-05-12
JP2021144744A (en) 2021-09-24
JP6897215B2 (en) 2021-06-30

Similar Documents

Publication Publication Date Title
JP5704317B2 (en) Swing analysis device, swing analysis system, program, and swing analysis method
JP5915148B2 (en) Motion analysis method and motion analysis apparatus
TW201501753A (en) Motion analysis device
US10512833B2 (en) Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium
TW201501751A (en) Motion analysis device
CN105125160B (en) Oral cavity endoscope detecting system and detecting method thereof
JP2015077351A (en) Motion analysis method, motion analysis device, and motion analysis program
JP2015082817A (en) Information processing device, recording medium and information processing method
CN105452979A (en) Device and method for entering information in sports applications
JP2015156882A (en) Motion analysis device and motion analysis system
JP2013009917A (en) Motion analysis system, motion analysis program, and medium recorded with the program
JP2007229197A (en) Mobile communication terminal, movement assessment system, method, program, recording media
JP2016067410A (en) Motion analysis device, motion analysis system, and motion analysis method and program
JP2013202066A (en) Motion analysis device
JP2021107016A (en) Analysis device, analysis method, and program
KR102553278B1 (en) Image processing apparatus, analysis system, method for processing images, and program
JP2015181565A (en) Motion analysis device, motion analysis system, motion analysis method, display method of motion analysis information, and program
CN204889937U (en) Oral cavity endoscope
JP6074897B2 (en) Motion analysis apparatus and motion analysis method
JP7272388B2 (en) Image processing device, image processing method and program
KR20160015674A (en) System for analyzing of human movement using inertial sensor
JP6028941B2 (en) Swing analysis device, swing analysis system, program, and swing analysis method
JP7053516B2 (en) Wearable user interface control system, information processing system using it, and control program
JP6311897B2 (en) Swing analysis device, swing analysis system, and swing analysis method
JP2016198296A (en) Evaluation device and evaluation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150