JP5920264B2 - Image identification device, image identification system, image identification method, and program - Google Patents
Image identification device, image identification system, image identification method, and program Download PDFInfo
- Publication number
- JP5920264B2 JP5920264B2 JP2013059622A JP2013059622A JP5920264B2 JP 5920264 B2 JP5920264 B2 JP 5920264B2 JP 2013059622 A JP2013059622 A JP 2013059622A JP 2013059622 A JP2013059622 A JP 2013059622A JP 5920264 B2 JP5920264 B2 JP 5920264B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- information
- subject
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Studio Devices (AREA)
Description
本発明は、画像特定装置、画像特定システム、画像特定方法及びプログラムに関する。 The present invention relates to an image identification apparatus, images specific system related images specific method, and a program.
従来、ゴルフクラブでボールを打った際に発生するインパクト音をマイクで検出して、デジタルカメラにより撮影された動画のダイジェスト画像を表示させる技術が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for detecting impact sound generated when a ball is hit with a golf club with a microphone and displaying a digest image of a moving image taken by a digital camera is known (see, for example, Patent Document 1).
しかしながら、上記特許文献1では、周囲の雑音がある環境下では、マイクでインパクト音等の特定の音を検出し難くなってしまう。また、被写体から離れた位置で集音するとインパクト音の伝達時間による遅延が生じ、特定の瞬間を基準とする画像の特定を正確に行うことができなくなってしまうといった問題もある。 However, in Patent Document 1, it is difficult to detect a specific sound such as an impact sound with a microphone in an environment with ambient noise. In addition, if sound is collected at a position away from the subject, there is a problem that a delay due to the transmission time of the impact sound occurs, and the image cannot be accurately specified based on a specific moment.
本発明の課題は、所望の画像を適正に特定することである。 An object of the present invention is to appropriately specify a desired image.
上記課題を解決するために、本発明の請求項1に係る発明の画像特定装置は、撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられるセンサから、当該被写体の動きに対応する第一の情報を取得する取得手段と、前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析して、前記所定数の画像から当該被写体の特定の動きに対応する画像を特定する特定手段と、を備える。 In order to solve the above problems, the image identification apparatus according to the invention of claim 1 of the present invention, the attached that sensor more object or tool to which the subject is gripped is imaged on the imaging means, the movement of the subject obtaining means for obtaining a first information corresponding, from a plurality of images captured by the imaging unit, analyzes the image of a predetermined number corresponding to the first information, the subject from the predetermined number of image Specifying means for specifying an image corresponding to the specific movement .
本発明の請求項12に係る発明は、送信側端末と、受信側端末と、を備える画像特定システムであって、送信側端末は、撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する第一の情報を出力するセンサと、前記センサにより出力された情報を前記受信側端末に送信する送信手段と、を備え、前記受信側端末は、前記送信手段により対応付けて送信された前記センサにより出力された第一の情報に基づいて、前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析し、前記被写体の特定の動作に対応する画像を特定する特定手段と、を備える。 The invention according to claim 12 of the present invention is an image specifying system including a transmission side terminal and a reception side terminal, wherein the transmission side terminal is a subject imaged by an imaging means or a tool held by the subject. mounted, comprising: a sensor for outputting a first information corresponding to the motion of the subject, a transmitting means for transmitting the information output by the pre-Symbol sensor to said receiving terminal, wherein the receiving terminal, based on the first information output by the sensor is transmitted in association with the transmission means, from a plurality of images captured by the imaging unit, analyzes the image of a predetermined number corresponding to the first information And specifying means for specifying an image corresponding to a specific action of the subject.
本発明によれば、所望の画像を適正に特定できる。 According to the present invention, a desired image can be appropriately specified.
以下、添付図面を参照して本発明に係る第1、第2の実施の形態を順に詳細に説明する。なお、本発明は、図示例に限定されるものではない。 Hereinafter, first and second embodiments of the present invention will be described in detail in order with reference to the accompanying drawings. The present invention is not limited to the illustrated example.
(第1の実施の形態)
図1〜図9を参照して、本発明に係る第1の実施の形態を説明する。先ず、図1〜図4を参照して、本実施の形態の装置構成を説明する。
(First embodiment)
A first embodiment according to the present invention will be described with reference to FIGS. First, with reference to FIGS. 1-4, the apparatus structure of this Embodiment is demonstrated.
図1を参照して、本実施の形態の画像特定システム100を説明する。図1は、画像特定システム100の概略構成を示す図である。 With reference to FIG. 1, an image identification system 100 according to the present embodiment will be described. FIG. 1 is a diagram showing a schematic configuration of the image specifying system 100.
図1に示すように、画像特定システム100は、テニスラケット300に取付け固定される画像判定装置、送信側端末としての用具側端末1と、この用具側端末1と無線通信回線を介して情報通信可能に接続され、ユーザがテニスラケット300を用いてテニスボールBを打つストローク動作を撮像する受信側端末としての撮像装置2と、を備えている。 As shown in FIG. 1, the image specifying system 100 includes an image determination device that is attached and fixed to a tennis racket 300, a tool-side terminal 1 as a transmission-side terminal, and information communication via the tool-side terminal 1 and a wireless communication line. And an imaging device 2 serving as a receiving side terminal for imaging a stroke motion in which the user hits the tennis ball B using the tennis racket 300.
次いで、図2〜図4を参照して、用具側端末1を説明する。図2は、画像特定システム100を構成する用具側端末1の機能構成を示すブロック図である。図3は、用具側端末1がテニスラケット300に取り付けられた状態を模式的に示す図である。図4は、用具側端末1が取り付けられたテニスラケット300を用いてテニスボールBを打つ状態を模式的に示す図である。 Next, the tool side terminal 1 will be described with reference to FIGS. FIG. 2 is a block diagram showing a functional configuration of the tool-side terminal 1 constituting the image specifying system 100. As shown in FIG. FIG. 3 is a diagram schematically showing a state in which the equipment side terminal 1 is attached to the tennis racket 300. FIG. 4 is a diagram schematically showing a state in which the tennis ball B is hit using the tennis racket 300 to which the equipment side terminal 1 is attached.
なお、以下の説明では、テニスラケット300のフェイス面に略直交する一方向をX軸方向とし、X軸方向に略直交するとともにグリップ部301の延在方向に沿う方向をY軸方向とし、X軸方向及びY軸方向に略直交する一方向をZ軸方向とする。 In the following description, one direction substantially orthogonal to the face surface of the tennis racket 300 is defined as the X-axis direction, the direction substantially orthogonal to the X-axis direction and along the extending direction of the grip portion 301 is defined as the Y-axis direction, and X One direction substantially orthogonal to the axial direction and the Y-axis direction is taken as a Z-axis direction.
図2に示すように、本実施形態の用具側端末1は、中央制御部101と、メモリ102と、センサ部103と、計時部105と、表示部106と、無線処理部107と、操作入力部108とを備えている。また、中央制御部101、メモリ102、センサ部103、計時部105、表示部106及び無線処理部107は、バスライン109を介して接続されている。 As shown in FIG. 2, the tool-side terminal 1 of the present embodiment includes a central control unit 101, a memory 102, a sensor unit 103, a time measuring unit 105, a display unit 106, a wireless processing unit 107, and an operation input. Part 108. The central control unit 101, the memory 102, the sensor unit 103, the time measuring unit 105, the display unit 106, and the wireless processing unit 107 are connected via a bus line 109.
また、図3に示すように、用具側端末1の端末本体は、例えば、テニスボールBを打つための用具としてのテニスラケット300に着脱自在に設けられている。具体的には、端末本体は、テニスラケット300のユーザにより把持されるグリップ部301とフェイス面を構成するフレーム部302との間のシャフト部303の内側に取り付けられている。 Moreover, as shown in FIG. 3, the terminal main body of the tool side terminal 1 is detachably provided in, for example, a tennis racket 300 as a tool for hitting the tennis ball B. Specifically, the terminal main body is attached to the inside of the shaft portion 303 between the grip portion 301 held by the user of the tennis racket 300 and the frame portion 302 constituting the face surface.
ここで、端末本体は、例えば、シャフト部303の内側にて、グリップ部301の延在方向に沿うY軸方向に延在する軸上に当該端末本体の中心が位置するように取り付けられている。なお、端末本体は、例えば、シャフト部303に対して直接取り付けられても良いし、所定の取付用治具(図示略)を用いて取り付けられても良い。 Here, the terminal main body is attached so that the center of the terminal main body is positioned on the axis extending in the Y-axis direction along the extending direction of the grip portion 301, for example, inside the shaft portion 303. . The terminal body may be directly attached to the shaft portion 303, for example, or may be attached using a predetermined attachment jig (not shown).
中央制御部101は、用具側端末1の各部を制御するものである。具体的には、中央制御部101は、例えば、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、ROMに記憶された用具側端末1用の各種処理プログラム(図示略)に従って各種の制御動作を行う。CPUがROMから各種プログラムを読み出してRAMに展開し、展開したプログラムとCPUとの協働により、中央制御部101は、各種処理を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部106に表示させる。 The central control unit 101 controls each unit of the tool side terminal 1. Specifically, the central control unit 101 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and a tool-side terminal stored in the ROM, although not illustrated. Various control operations are performed in accordance with various processing programs for 1 (not shown). The CPU reads out various programs from the ROM and expands them in the RAM, and the central control unit 101 performs various processes in cooperation with the expanded programs and the CPU. At that time, the CPU stores various processing results in a storage area in the RAM, and displays the processing results on the display unit 106 as necessary.
RAMは、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、用具側端末1で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。ROMには、少なくとも後述する第1の撮影制御プログラムが記憶されているものとする。 The RAM includes a program storage area for developing a processing program executed by the CPU, a data storage area for storing input data, a processing result generated when the processing program is executed, and the like. The ROM stores a program stored in the form of computer-readable program code, specifically, a system program that can be executed by the tool-side terminal 1, various processing programs that can be executed by the system program, and these various processing programs. Data used for execution is stored. It is assumed that the ROM stores at least a first shooting control program to be described later.
メモリ102は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部101等によって処理されるデータ等を一時記憶する。 The memory 102 is constituted by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by the central control unit 101 or the like.
センサ部103は、当該端末本体の所定の軸を中心とする回動の角速度を検出するジャイロセンサ等のセンサである。即ち、センサ部103は、ユーザがテニスラケット300を用いてテニスボールBを打つ動作を行う際に、当該端末本体の所定の軸(例えば、Z軸等)を中心とする回動の角速度を検出する。具体的には、センサ部103は、テニスラケット300のテニスボールBを打つ部分を含むフェイス面(一面)に対して略平行に延在し、且つ、グリップ部301の延在方向に略直交するZ軸を中心とする当該端末本体の回動のZ軸の角速度Gzを検出する(図4参照)。そして、センサ部103は、検出されたZ軸の角速度Gzの値を中央制御部101に出力する。センサ部103は、Z軸の角速度Gzとともに、X軸の角速度Gx、Y軸の角速度Gyの値を検出して中央制御部101に出力する。 The sensor unit 103 is a sensor such as a gyro sensor that detects an angular velocity of rotation about a predetermined axis of the terminal body. That is, the sensor unit 103 detects an angular velocity of rotation about a predetermined axis (for example, Z axis) of the terminal body when the user performs an action of hitting the tennis ball B using the tennis racket 300. To do. Specifically, the sensor unit 103 extends substantially parallel to a face surface (one surface) including a portion where the tennis ball B of the tennis racket 300 is hit, and is substantially orthogonal to the extending direction of the grip unit 301. An angular velocity Gz of the Z axis of rotation of the terminal body about the Z axis is detected (see FIG. 4). Then, the sensor unit 103 outputs the detected value of the Z-axis angular velocity Gz to the central control unit 101. The sensor unit 103 detects the values of the X-axis angular velocity Gx and the Y-axis angular velocity Gy together with the Z-axis angular velocity Gz and outputs them to the central control unit 101.
なお、図4には、ユーザがテニスラケット300を用いて右利きのフォアハンドでテニスボールBを打つ状態を、当該ユーザの上方からZ軸方向に視て模式的に表している。テニスボールBを打つ状態を、当該ユーザの上方からZ軸方向に視て模式的に表している。 FIG. 4 schematically shows a state in which the user hits the tennis ball B with the right-handed forehand using the tennis racket 300 as viewed from above the user in the Z-axis direction. A state in which the tennis ball B is hit is schematically shown as viewed in the Z-axis direction from above the user.
計時部105は、図示は省略するが、例えば、計時回路等を備え、現在の時刻を計時して時刻情報を生成し、中央制御部101に出力する。なお、計時部105は、日付や曜日等の暦、時刻情報を含む日時情報を計時することとしてもよい。 Although not shown in the figure, the timer unit 105 includes, for example, a timer circuit, and measures the current time, generates time information, and outputs the time information to the central control unit 101. In addition, the time measuring part 105 is good also as time information including calendar | calendar, time information, such as a date and a day of the week.
表示部106は、例えば、端末本体の表面の所定位置に設けられている(図3参照)。また、表示部106は、例えば、液晶表示パネルなどで構成され、各種の情報を表示する。例えば、表示部106は、テニスラケット300によりテニスボールBが打たれる際に、所定の特定手法を用いて特定された当該テニスボールBの速度や回転量等の各種の情報を表示するようにしても良い。 The display unit 106 is provided, for example, at a predetermined position on the surface of the terminal body (see FIG. 3). The display unit 106 is composed of, for example, a liquid crystal display panel and displays various types of information. For example, when the tennis ball B is hit by the tennis racket 300, the display unit 106 displays various information such as the speed and the rotation amount of the tennis ball B specified using a predetermined specifying method. May be.
無線処理部107は、所定の無線通信回線を介して接続された撮像装置2との間で無線通信を行う。具体的には、無線処理部107は、例えば、ブルートゥース(Bluetooth:登録商標)モジュール(BTモジュール)107aを具備し、このBTモジュール107aは、撮像装置2の無線処理部203のBTモジュール203a(後述)との間でブルートゥース規格に従った無線通信を行う。即ち、BTモジュール107aは、予めペアリングと呼ばれる通信設定処理を行うことで、互いのデバイス情報や認証鍵のデータが無線信号により撮像装置2等の通信相手と交換され、その後、当該通信設定処理を毎回行うことなく、この通信相手と自動的に或いは半自動的に接続されたり接続が解除されるようになっている。 The wireless processing unit 107 performs wireless communication with the imaging device 2 connected via a predetermined wireless communication line. Specifically, the wireless processing unit 107 includes, for example, a Bluetooth (registered trademark) module (BT module) 107a, and the BT module 107a is a BT module 203a (described later) of the wireless processing unit 203 of the imaging device 2. ) Wireless communication according to the Bluetooth standard. That is, the BT module 107a performs communication setting processing called “pairing” in advance, so that the mutual device information and authentication key data are exchanged with a communication partner such as the imaging device 2 by wireless signals, and then the communication setting processing is performed. Without being performed every time, the communication partner is automatically or semi-automatically connected or disconnected.
なお、無線処理部107は、例えば、無線LAN(Local Area Network)モジュール等を具備し、撮像装置2の無線処理部203との間で無線LAN通信を行うようにしても良い。 The wireless processing unit 107 may include, for example, a wireless LAN (Local Area Network) module and the like, and may perform wireless LAN communication with the wireless processing unit 203 of the imaging device 2.
操作入力部108は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されている。また、操作入力部108は、ユーザにより押下されたキーの押下信号を中央制御部101に出力する。なお、操作入力部108としてタッチパネル(図示略)を表示部106の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。 The operation input unit 108 includes, for example, data input keys for inputting numerical values, characters, etc., up / down / left / right movement keys for performing data selection, feeding operations, and the like, various function keys, and the like. Further, the operation input unit 108 outputs a key pressing signal pressed by the user to the central control unit 101. Note that a touch panel (not shown) may be disposed on the display screen of the display unit 106 as the operation input unit 108 and various instructions may be input according to the touch position of the touch panel.
次いで、図5を参照して、撮像装置2について説明する。図5は、撮像装置2の概略構成を示すブロック図である。 Next, the imaging device 2 will be described with reference to FIG. FIG. 5 is a block diagram illustrating a schematic configuration of the imaging apparatus 2.
画像特定システム100は、テニスラケット300でテニスボールBを打つ状態を互いに異なる方向から撮像するように配置された撮像装置2を備えている。なお、撮像装置2は、複数設けることとしてもよい。例えば、複数の撮像装置2のうち、何れか一の撮像装置2は、テニスラケット300でテニスボールBを打つユーザの後方に位置するように配置され、一方、他の撮像装置2は、ユーザの側方に位置するように配置される。また、これら複数の撮像装置2は、所定の無線通信回線を介して互いに情報通信可能に接続され、何れか一の撮像装置2が連携撮像のマスタとなり、残りの他の撮像装置2がスレーブとなる。また、各撮像装置2は、マスタとなるかスレーブとなるかによって動作の内容が異なるものの、構成自体は略同様となっている。なお、連携撮像とは、複数の撮像装置2による撮像動作を連動させた撮像等のことである。 The image specifying system 100 includes an imaging device 2 that is arranged so as to capture the state in which the tennis ball B is hit with the tennis racket 300 from different directions. Note that a plurality of imaging devices 2 may be provided. For example, any one of the plurality of imaging devices 2 is arranged so as to be positioned behind the user who hits the tennis ball B with the tennis racket 300, while the other imaging devices 2 are It is arranged to be located on the side. The plurality of imaging devices 2 are connected so as to be able to communicate with each other via a predetermined wireless communication line, and any one imaging device 2 serves as a master for cooperative imaging, and the remaining other imaging devices 2 serve as slaves. Become. In addition, although the content of the operation differs depending on whether each imaging device 2 is a master or a slave, the configuration itself is substantially the same. Note that cooperative imaging refers to imaging in which imaging operations by a plurality of imaging devices 2 are linked.
図5に示すように、撮像装置2は、中央制御部201と、メモリ202と、無線処理部203と、撮像部204と、画像データ処理部205と、記録媒体制御部206と、計時部207と、表示部209と、操作入力部210と、を備える。また、中央制御部201、メモリ202、無線処理部203、撮像部204、画像データ処理部205、記録媒体制御部206、計時部207及び表示部209は、バスライン211を介して接続されている。 As illustrated in FIG. 5, the imaging device 2 includes a central control unit 201, a memory 202, a wireless processing unit 203, an imaging unit 204, an image data processing unit 205, a recording medium control unit 206, and a time measuring unit 207. And a display unit 209 and an operation input unit 210. The central control unit 201, the memory 202, the wireless processing unit 203, the imaging unit 204, the image data processing unit 205, the recording medium control unit 206, the timing unit 207, and the display unit 209 are connected via a bus line 211. .
中央制御部201は、撮像装置2の各部を制御するものである。具体的には、中央制御部201は、例えば、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、ROMに記憶された撮像装置2用の各種処理プログラム(図示略)に従って各種の制御動作を行う。CPUがROMから各種プログラムを読み出してRAMに展開し、展開したプログラムとCPUとの協働により、中央制御部201は、各種処理を行う。その際に、CPUは、RAM内の格納領域内に各種処理結果を格納させ、必要に応じてその処理結果を表示部209に表示させる。 The central control unit 201 controls each unit of the imaging device 2. Specifically, the central control unit 201 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), which are not illustrated, and the imaging device 2 stored in the ROM. Various control operations are performed in accordance with various processing programs (not shown). The CPU reads out various programs from the ROM and expands them in the RAM, and the central control unit 201 performs various processes in cooperation with the expanded programs and the CPU. At that time, the CPU stores various processing results in a storage area in the RAM, and displays the processing results on the display unit 209 as necessary.
RAMは、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、撮像装置2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。ROMには、少なくとも後述する第1の撮影プログラムが記憶されているものとする。 The RAM includes a program storage area for developing a processing program executed by the CPU, a data storage area for storing input data, a processing result generated when the processing program is executed, and the like. The ROM stores programs stored in the form of computer-readable program codes, specifically, system programs that can be executed by the imaging apparatus 2, various processing programs that can be executed by the system programs, and execution of these various processing programs. The data used for the storage is stored. It is assumed that the ROM stores at least a first photographing program described later.
メモリ202は、例えば、DRAM等により構成され、中央制御部201等によって処理されるデータ等を一時記憶する。 The memory 202 is composed of, for example, a DRAM or the like, and temporarily stores data processed by the central control unit 201 or the like.
無線処理部203は、所定の無線通信回線を介して接続された用具側端末1や撮像装置2等の外部機器Oとの間で無線通信を行う。具体的には、無線処理部203は、例えば、ブルートゥースモジュール(BTモジュール)203aと無線LANモジュール203bを具備している。 The wireless processing unit 203 performs wireless communication with an external device O such as the tool-side terminal 1 or the imaging device 2 connected via a predetermined wireless communication line. Specifically, the wireless processing unit 203 includes, for example, a Bluetooth module (BT module) 203a and a wireless LAN module 203b.
BTモジュール203aは、例えば、用具側端末1のBTモジュール107aと略同様に、用具側端末1のBTモジュール107aとの間でブルートゥース規格に従った無線通信を行う。 For example, the BT module 203a performs wireless communication according to the Bluetooth standard with the BT module 107a of the tool side terminal 1 in substantially the same manner as the BT module 107a of the tool side terminal 1.
無線LANモジュール203bは、例えば、外部のアクセスポイント(固定基地局)を経由せずに直接他の撮像装置2の無線処理部203の無線LANモジュール203bとの間で無線通信回線を構築するPeer to Peer(アドホックモード)で動作する。このアドホックモードでは、例えば、予め当該無線通信回線の通信方式、暗号化情報、チャンネル、IPアドレス等の各種の通信制御情報を設定しておく。そして、無線LANモジュール203bは、無線通信可能範囲内に存し、共通の通信制御情報が設定されている他の撮像装置2の無線処理部203の無線LANモジュール203bとの間で無線通信を行う。 For example, the wireless LAN module 203b is configured to directly establish a wireless communication line with the wireless LAN module 203b of the wireless processing unit 203 of another imaging apparatus 2 without going through an external access point (fixed base station). Operates in Peer (ad hoc mode). In this ad hoc mode, for example, various communication control information such as the communication method, encryption information, channel, and IP address of the wireless communication line are set in advance. The wireless LAN module 203b is in a wireless communicable range and performs wireless communication with the wireless LAN module 203b of the wireless processing unit 203 of another imaging device 2 in which common communication control information is set. .
撮像部204は、被写体を撮像する。具体的には、撮像部204は、レンズ部204aと、電子撮像部204bと、撮像制御部204cとを備えている。 The imaging unit 204 images a subject. Specifically, the imaging unit 204 includes a lens unit 204a, an electronic imaging unit 204b, and an imaging control unit 204c.
レンズ部204aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。電子撮像部204bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部204aの各種レンズを通過した光学像を二次元の画像信号に変換する。なお、図示は省略するが、撮像部204は、レンズ部204aを通過する光の量を調整する絞りを備えていても良い。 The lens unit 204a is composed of a plurality of lenses such as a zoom lens and a focus lens, for example. The electronic imaging unit 204b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 204a into a two-dimensional image signal. To do. Although illustration is omitted, the imaging unit 204 may include a diaphragm that adjusts the amount of light passing through the lens unit 204a.
撮像制御部204cは、電子撮像部204bによる被写体の撮像を制御する。即ち、撮像制御部204cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部204cは、タイミング発生器、ドライバにより電子撮像部204bを走査駆動し、所定周期毎にレンズ部204aにより結像された光学像を電子撮像部204bにより二次元の画像信号に変換させる。そして、撮像制御部204cは、当該電子撮像部204bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ処理部205に出力させる。 The imaging control unit 204c controls imaging of the subject by the electronic imaging unit 204b. That is, the imaging control unit 204c includes a timing generator, a driver, and the like, although not shown. The imaging control unit 204c scans and drives the electronic imaging unit 204b with a timing generator and a driver, and converts an optical image formed by the lens unit 204a into a two-dimensional image signal with the electronic imaging unit 204b at predetermined intervals. Let Then, the imaging control unit 204c reads frame images for each screen from the imaging area of the electronic imaging unit 204b and causes the image data processing unit 205 to output the frame images.
画像データ処理部205は、被写体の画像データを生成する。即ち、画像データ処理部205は、撮像部204により撮像されるフレーム画像を逐次処理する。具体的には、画像データ処理部205は、電子撮像部204bから撮像フレームレートに応じた所定の周期(例えば、1/400秒等)毎に転送された各フレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。なお、撮像フレームレートとして例示する400fpsは、一例であってこれに限られるものではなく、適宜任意に変更可能である。 The image data processing unit 205 generates image data of the subject. That is, the image data processing unit 205 sequentially processes the frame images captured by the imaging unit 204. Specifically, the image data processing unit 205 performs an analog value signal of each frame image transferred from the electronic imaging unit 204b at a predetermined cycle (for example, 1/400 second) according to the imaging frame rate. After adjusting the gain appropriately for each color component of RGB, the sample and hold circuit (not shown) samples and holds it, converts it to digital data by an A / D converter (not shown), and the color process circuit (not shown) After performing color process processing including interpolation processing and γ correction processing, a digital luminance signal Y and color difference signals Cb, Cr (YUV data) are generated. Note that 400 fps exemplified as the imaging frame rate is an example and is not limited to this, and can be arbitrarily changed as appropriate.
また、画像データ処理部205は、各フレーム画像FのYUVデータを所定の符号化方式(例えば、JPEG形式等)に従って圧縮して、記録媒体制御部206に出力する。 Further, the image data processing unit 205 compresses the YUV data of each frame image F according to a predetermined encoding method (for example, JPEG format) and outputs the compressed data to the recording medium control unit 206.
記録媒体制御部206は、記録媒体Mが着脱自在に構成され、装着された記録媒体Mからのデータの読み出しや記録媒体Mに対するデータの書き込みを制御する。即ち、記録媒体制御部206は、画像データ処理部205の符号化部(図示略)により所定の圧縮形式(例えば、JPEG形式、モーションJPEG形式、MPEG形式等)で符号化された記録用の各フレーム画像の画像データを記録媒体Mの所定の記録領域に記録させる。なお、記録媒体Mは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。 The recording medium control unit 206 is configured such that the recording medium M is detachable, and controls reading of data from the loaded recording medium M and writing of data to the recording medium M. In other words, the recording medium control unit 206 uses the encoding unit (not shown) of the image data processing unit 205 to record each of the recordings encoded in a predetermined compression format (eg, JPEG format, motion JPEG format, MPEG format, etc.). The image data of the frame image is recorded in a predetermined recording area of the recording medium M. Note that the recording medium M is composed of, for example, a nonvolatile memory (flash memory).
計時部207は、図示は省略するが、例えば、計時回路等を備えて構成され、現在の時刻を計時して時刻情報を生成し中央制御部201に出力する。具体的には、計時部207は、撮像部204により各フレーム画像が撮像された時刻を計時して当該撮像された時点に係る撮像時情報を生成する。そして、計時部207は、生成された撮像時情報を中央制御部201に出力する。 Although not shown, the timer unit 207 is configured to include, for example, a timer circuit, and measures the current time, generates time information, and outputs the time information to the central control unit 201. Specifically, the timer unit 207 measures the time at which each frame image was captured by the imaging unit 204 and generates imaging time information related to the time when the image was captured. Then, the timer unit 207 outputs the generated imaging time information to the central control unit 201.
表示部209は、表示パネル209aと、表示制御部209bとを具備している。表示パネル209aは、表示画面内に画像を表示する。なお、表示パネル209aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。 The display unit 209 includes a display panel 209a and a display control unit 209b. The display panel 209a displays an image in the display screen. Examples of the display panel 209a include a liquid crystal display panel and an organic EL display panel. However, the display panel 209a is an example and is not limited thereto.
表示制御部209bは、メモリ202に一時的に格納されている表示用の画像データを読み出して、画像データ処理部205により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル209aの表示画面に表示させる制御を行う。具体的には、表示制御部209bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなど(何れも図示略)を備えている。そして、デジタルビデオエンコーダは、画像データ処理部205により復号されてVRAMに記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示パネル209aに出力する。 The display control unit 209b reads display image data temporarily stored in the memory 202, and displays a predetermined image on the display panel 209a based on the image data of a predetermined size decoded by the image data processing unit 205. Control to display on the display screen. Specifically, the display control unit 209b includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like (all not shown). The digital video encoder then outputs the luminance signal Y and the color difference signals Cb and Cr decoded by the image data processing unit 205 and stored in the VRAM from the VRAM via the VRAM controller to a predetermined reproduction frame rate (for example, 30 fps). And a video signal is generated based on these data and output to the display panel 209a.
操作入力部210は、当該撮像装置2の所定操作を行うためのものであり、例えば、装置本体の電源のON/OFFに係る電源ボタン、被写体の撮像指示に係るシャッタボタン、撮像モードや機能等の選択指示に係る選択ボタン、ズーム量の調整指示に係るズームボタン(何れも図示略)等を備えている。そして、操作入力部210は、各ボタンの操作に応じて所定の操作信号を中央制御部201に出力する。 The operation input unit 210 is for performing a predetermined operation of the imaging apparatus 2, and includes, for example, a power button for turning on / off the power of the apparatus body, a shutter button for instructing imaging of a subject, an imaging mode, a function, and the like. And a zoom button (both not shown) related to a zoom amount adjustment instruction. Then, the operation input unit 210 outputs a predetermined operation signal to the central control unit 201 according to the operation of each button.
次に、図6〜図9を参照して、画像特定システム100の動作を説明する。先ず、図6及び図7を参照して、画像特定システム100で撮像するユーザのテニスのストローク動作(テニスボールBの打撃動作)とセンサ部103で得られる角速度のデータと、の対応を説明する。図6(a)は、ユーザのレディポジションの姿勢を示す図である。図6(b)は、ユーザのテークバックの姿勢を示す図である。図6(c)は、ユーザのステップインの姿勢を示す図である。図6(d)は、ユーザのボールインパクトの姿勢を示す図である。図6(e)は、ユーザの振り抜きの姿勢を示す図である。図6(f)は、ユーザのフォロースルーの姿勢を示す図である。図7は、ストローク動作での時間に対する角速度を示すグラフである。 Next, the operation of the image identification system 100 will be described with reference to FIGS. First, with reference to FIG. 6 and FIG. 7, the correspondence between the user's tennis stroke motion (tennis ball B striking motion) imaged by the image specifying system 100 and the angular velocity data obtained by the sensor unit 103 will be described. . FIG. 6A is a diagram illustrating the posture of the user's ready position. FIG. 6B is a diagram showing the user's take-back posture. FIG. 6C is a diagram showing the user's step-in posture. FIG. 6D is a diagram showing the ball impact posture of the user. FIG. 6E is a diagram illustrating the swinging posture of the user. FIG. 6F is a diagram illustrating the user's follow-through posture. FIG. 7 is a graph showing the angular velocity with respect to time in the stroke operation.
ここでは、ユーザのテニスのフォアハンドのストローク動作を撮像するケースを説明する。ストローク動作において、ユーザは、テニスラケット300を把持し、図6(a)のレディポジション、図6(b)のテークバック、図6(c)の左足のステップイン、図6(d)のボールインパクト、図6(e)の前方への振り抜き、図6(f)のフォロースルーの状態を順に行う一連の動作を行う。 Here, a case where the stroke motion of the user's tennis forehand is imaged will be described. In the stroke operation, the user grasps the tennis racket 300, the ready position in FIG. 6A, the take-back in FIG. 6B, the step-in of the left foot in FIG. 6C, and the ball impact in FIG. 6D. A series of operations for sequentially swinging forward in FIG. 6E and follow-through state in FIG.
レディポジションでは、ユーザは、テニスボールBが向かってくる方向に対して正面を向いている。そして、ユーザは、テニスボールBを打つ体制に入ると、テニスラケット300を引いてテークバックの姿勢をとり、左足をステップインして、テニスラケット300をフルスイングする。そして、テニスラケット300のフェイス面とテニスボールBとが接触するボールインパクトの状態を経て、テニスラケット300を前方へ振り抜き、その後フォロースルーの動作を行う。 In the ready position, the user faces the front with respect to the direction in which the tennis ball B comes. When the user enters a system for hitting the tennis ball B, the user pulls the tennis racket 300 to take a takeback posture, steps in the left foot, and fully swings the tennis racket 300. Then, after passing through a ball impact state where the face of the tennis racket 300 and the tennis ball B come into contact, the tennis racket 300 is swung forward and then a follow-through operation is performed.
図7に示すように、用具側端末1のセンサ部103は、X,Y,Zの3軸の角速度のデータを出力する。ストローク動作の各状態は、Z軸の角速度Gzにより識別できる。レディポジションでは、角速度Gzがほぼ0である。そして、テークバックが開始されると、角速度Gzが−方向に増加し、その後減少して0になり、テークバックが終了する。そして、ステップインが開始されると、角速度Gzが+方向に増加し、その後減少して0になり、ステップインが終了する。 As shown in FIG. 7, the sensor unit 103 of the device side terminal 1 outputs data on the angular velocities of the three axes of X, Y, and Z. Each state of the stroke operation can be identified by the Z-axis angular velocity Gz. In the ready position, the angular velocity Gz is almost zero. When takeback is started, the angular velocity Gz increases in the-direction and then decreases to zero, and the takeback ends. Then, when step-in is started, the angular velocity Gz increases in the + direction and then decreases to zero, and step-in ends.
そして、フルスイングが開始されると、角速度Gzが+方向に一旦急に大きく増加した後、+方向にピークをとり、その後減少が見られる。角速度Gzの+方向のピークのポイントが、テニスボールBとテニスラケット300とのインパクトポイントとしてのボールインパクトに対応する。 When the full swing is started, the angular velocity Gz once suddenly greatly increases in the + direction, then peaks in the + direction, and then decreases. A peak point in the + direction of the angular velocity Gz corresponds to a ball impact as an impact point between the tennis ball B and the tennis racket 300.
そして、角速度Gzの+方向のピーク後、フォロースルーが開始され、角速度Gzが減少していき0となり、前方への振り抜きを経て、角速度Gzが−方向に増加した後、減少していき0となり、フォロースルーが終了する。 Then, after the peak of the angular velocity Gz in the + direction, follow-through is started, the angular velocity Gz decreases to 0, and after passing forward, the angular velocity Gz increases in the − direction and then decreases. And the follow-through ends.
次いで、図8を参照して、画像特定システム100の動作を説明する。図8は、用具側端末1で実行される第1の撮影制御処理と、撮像装置2で実行される第1の撮影処理と、を示すフローチャートである。 Next, the operation of the image identification system 100 will be described with reference to FIG. FIG. 8 is a flowchart illustrating a first shooting control process executed by the tool-side terminal 1 and a first shooting process executed by the imaging apparatus 2.
先ず、用具側端末1で実行される第1の撮影制御処理を説明する。第1の撮影制御処理は、用具側端末1の角速度を検出するとともに、検出した角速度を用いて被写体の動作の状態を判定し、その判定に基づく撮影開始コマンド、撮影終了コマンド及びインパクト時情報を撮像装置2に送信する処理である。 First, the 1st imaging | photography control processing performed with the tool side terminal 1 is demonstrated. The first shooting control process detects the angular velocity of the tool side terminal 1 and determines the state of movement of the subject using the detected angular velocity, and obtains a shooting start command, a shooting end command, and information on impact based on the determination. This is processing to transmit to the imaging device 2.
予め、被写体としてのユーザは、撮像装置2を適切な撮影用の位置にセットし、用具側端末1を有するテニスラケット300を把持して、ストローク動作の準備を行う。用具側端末1において、例えば、操作入力部108を介してユーザから第1の撮影制御処理の実行指示が入力されたことをトリガとして、内部ROMから読み出され適宜RAMに展開された第1の撮影制御プログラムと、CPUとの協働で、中央制御部101が第1の撮影制御処理を実行する。 A user as a subject sets the imaging device 2 in an appropriate shooting position in advance, holds the tennis racket 300 having the tool-side terminal 1, and prepares for a stroke operation. In the tool-side terminal 1, for example, a first input that is read from the internal ROM and appropriately expanded in the RAM is triggered by the input of the execution instruction of the first imaging control process from the user via the operation input unit 108. The central control unit 101 executes the first shooting control process in cooperation with the shooting control program and the CPU.
図8に示すように、中央制御部101は、センサ部103により角速度Gx,Gy,Gzの検出(サンプリング)を開始する(ステップS11)。そして、中央制御部101は、ユーザのレディポジションの検出のため、検出された最新の角速度Gzがほぼ0であるか否かを判定する(ステップS12)。角速度Gz≒0でない場合(ステップS12;NO)、レディポジションでなく、ステップS12に移行される。 As shown in FIG. 8, the central control unit 101 starts detection (sampling) of angular velocities Gx, Gy, and Gz by the sensor unit 103 (step S11). Then, the central control unit 101 determines whether or not the latest detected angular velocity Gz is substantially 0 in order to detect the ready position of the user (step S12). When the angular velocity Gz is not approximately 0 (step S12; NO), the process proceeds to step S12 instead of the ready position.
角速度Gz≒0である場合(ステップS12;YES)、レディポジションであり、中央制御部101は、ユーザのテークバックの検出のため、最新の角速度Gzの絶対値が、予め設定された閾値αより大きいか否かを判定する(ステップS13)。図7に示すように、テークバックに入ると角速度Gzが0から−方向に増加しており、閾値αは、テークバックであることを判定するための角速度Gzの閾値である。角速度|Gz|>αでない場合(ステップS13;NO)、テークバックでなく、ステップS13に移行される。 When the angular velocity Gz≈0 (step S12; YES), it is a ready position, and the central control unit 101 determines that the absolute value of the latest angular velocity Gz is greater than a preset threshold value α in order to detect user takeback. Whether or not (step S13). As shown in FIG. 7, when the takeback is entered, the angular velocity Gz increases in the − direction from 0, and the threshold value α is a threshold value of the angular velocity Gz for determining the takeback. If angular velocity | Gz |> α is not satisfied (step S13; NO), the process proceeds to step S13 instead of takeback.
角速度|Gz|>αである場合(ステップS13;YES)、中央制御部101は、撮影開始を指示するための撮影開始コマンドを生成し、無線処理部107を介して撮像装置2に送信する(ステップS14)。そして、中央制御部101は、ユーザのフルスイングの検出のため、最新の角速度Gzの絶対値が、予め設定された閾値βより大きいか否かを判定する(ステップS15)。図7に示すように、フルスイングに入ると角速度Gzが+方向に大きく増加している。閾値βは、フルスイングであることを判定するための角速度Gzの閾値である。角速度|Gz|>βでない場合(ステップS15;NO)、フルスイングでなく、ステップS15に移行される。 When the angular velocity | Gz |> α is satisfied (step S13; YES), the central control unit 101 generates a shooting start command for instructing the start of shooting and transmits the command to the imaging device 2 via the wireless processing unit 107 ( Step S14). Then, the central control unit 101 determines whether or not the absolute value of the latest angular velocity Gz is greater than a preset threshold value β in order to detect the user's full swing (step S15). As shown in FIG. 7, when the full swing is entered, the angular velocity Gz greatly increases in the + direction. The threshold value β is a threshold value of the angular velocity Gz for determining that it is a full swing. If the angular velocity | Gz |> β is not satisfied (step S15; NO), the process proceeds to step S15 instead of a full swing.
角速度|Gz|>βである場合(ステップS15;YES)、中央制御部101は、ユーザのボールインパクトの検出のため、角速度Gzが+方向に急激に増加しピークとなったか否かを判定する(ステップS16)。ステップS16では、例えば、角速度Gzの増加の傾きがほぼ0になったか否かにより判定される。角速度Gzがピークとなっていない場合(ステップS16;NO)、ステップS16に移行される。 When the angular velocity | Gz |> β is satisfied (step S15; YES), the central control unit 101 determines whether or not the angular velocity Gz suddenly increases in the + direction and peaks in order to detect the ball impact of the user. (Step S16). In step S16, for example, the determination is made based on whether or not the gradient of increase in the angular velocity Gz has become substantially zero. When the angular velocity Gz is not a peak (step S16; NO), the process proceeds to step S16.
角速度Gzがピークとなった場合(ステップS16;YES)、中央制御部101は、計時部105から現在の時刻情報(センサ時情報)を、ボールインパクトの瞬間時刻を示すインパクト時情報として取得する(ステップS17)。そして、中央制御部101は、ユーザのフォロースルー中の1回目の角速度Gz≒0を検出するため、最新の角速度Gzがほぼ0であるか否かを判定する(ステップS18)。最新の角速度Gz≒0でない場合(ステップS18;NO)、ステップS18に移行される。 When the angular velocity Gz reaches a peak (step S16; YES), the central control unit 101 acquires the current time information (sensor time information) from the time measuring unit 105 as impact time information indicating the instantaneous time of ball impact ( Step S17). Then, the central control unit 101 determines whether or not the latest angular velocity Gz is substantially 0 in order to detect the first angular velocity Gz≈0 during the user's follow-through (step S18). If the latest angular velocity Gz is not approximately 0 (step S18; NO), the process proceeds to step S18.
角速度Gz≒0である場合(ステップS18;YES)、中央制御部101は、フォロースルー終了の検出のため、検出された最新の角速度Gzがほぼ0であるか否かを判定する(ステップS19)。角速度Gz≒0でない場合(ステップS19;NO)、ステップS19に移行される。 When the angular velocity Gz≈0 (step S18; YES), the central control unit 101 determines whether or not the latest detected angular velocity Gz is substantially 0 for the detection of the end of the follow-through (step S19). . If the angular velocity Gz is not approximately 0 (step S19; NO), the process proceeds to step S19.
角速度Gz≒0である場合(ステップS18;YES)、中央制御部101は、撮影終了を指示するための撮影終了コマンドを生成し、ステップS17で取得したインパクト時情報とともに、無線処理部107を介して撮像装置2に送信し(ステップS20)、第1の撮影制御処理を終了する。 When the angular velocity Gz≈0 is satisfied (step S18; YES), the central control unit 101 generates a shooting end command for instructing the end of shooting, and via the wireless processing unit 107 together with the information at the time of impact acquired in step S17. Is transmitted to the imaging device 2 (step S20), and the first imaging control process is terminated.
次いで、撮像装置2で実行される第1の撮影処理を説明する。第1の撮影処理は、用具側端末1から受信する撮影開始コマンド及び撮影終了コマンドに応じて、被写体であるユーザのストローク動作を連写撮影するとともに、インパクト時情報に応じてインパクト時の画像を特定する処理である。 Next, a first photographing process executed by the imaging device 2 will be described. In the first shooting process, the stroke operation of the user as the subject is continuously shot according to the shooting start command and the shooting end command received from the tool side terminal 1, and the image at the time of the impact is determined according to the information at the time of the impact. This is the process to identify.
予め、撮像装置2において、撮影速度[fps]、露出等、ユーザのストロークの連写撮影の撮影条件情報が設定されているものとする。撮像装置2において、例えば、操作入力部210を介してユーザから第1の撮影処理の実行指示が入力されたことをトリガとして、内部ROMから読み出され適宜RAMに展開された第1の撮影プログラムと、CPUとの協働で、中央制御部201が第1の撮影処理を実行する。 It is assumed that shooting condition information for continuous shooting of a user's stroke such as shooting speed [fps] and exposure is set in the imaging device 2 in advance. In the imaging device 2, for example, a first imaging program read from the internal ROM and appropriately expanded in the RAM triggered by the input of the execution instruction of the first imaging process from the user via the operation input unit 210 In cooperation with the CPU, the central control unit 201 executes the first photographing process.
図8に示すように、中央制御部201は、ステップS14に対応して、無線処理部203を介して、撮影開始コマンドを用具側端末1から受信したか否かを判定する(ステップS31)。撮影開始コマンドを受信していない場合(ステップS31;NO)、ステップS31に移行される。 As shown in FIG. 8, the central control unit 201 determines whether or not a photographing start command has been received from the tool side terminal 1 via the wireless processing unit 203 in response to step S14 (step S31). When the imaging start command has not been received (step S31; NO), the process proceeds to step S31.
撮影開始コマンドを受信した場合(ステップS31;YES)、中央制御部201は、撮像部204、画像データ処理部205を制御して、連写撮影の撮像を開始する(ステップS31)。そして、中央制御部201は、撮像部204、画像データ処理部205を制御して、予め設定された撮影条件情報に従い1つのフレーム画像を生成する(ステップS32)。 When the shooting start command is received (step S31; YES), the central control unit 201 controls the imaging unit 204 and the image data processing unit 205 to start continuous shooting imaging (step S31). Then, the central control unit 201 controls the imaging unit 204 and the image data processing unit 205 to generate one frame image in accordance with preset shooting condition information (step S32).
そして、中央制御部201は、計時部207から現在の時刻情報を撮像時情報として取得し、記録媒体制御部206を制御し、ステップS32で生成したフレーム画像を撮像時情報に対応付けて記録媒体Mに記憶する(ステップS34)。そして、中央制御部201は、ステップS20に対応して、無線処理部203を介して、撮影終了コマンド及びインパクト時情報を用具側端末1から受信したか否かを判定する(ステップS35)。撮影終了コマンド及びインパクト時情報を受信していない場合(ステップS35;NO)、ステップS33に移行される。 Then, the central control unit 201 acquires the current time information as imaging time information from the time measuring unit 207, controls the recording medium control unit 206, and associates the frame image generated in step S32 with the imaging time information as a recording medium. It stores in M (step S34). Then, in response to step S20, the central control unit 201 determines whether or not an imaging end command and impact information have been received from the tool-side terminal 1 via the wireless processing unit 203 (step S35). When the shooting end command and the impact information are not received (step S35; NO), the process proceeds to step S33.
撮影終了コマンド及びインパクト時情報を受信した場合(ステップS35;YES)、中央制御部201は、撮像部204、画像データ処理部205を制御して、撮像を終了する(ステップS36)。そして、中央制御部201は、画像処理により、記録媒体Mに記憶されたフレーム画像について、ストローク動作のボールインパクトを判定し、そのフレーム画像をインパクト画像として特定する(ステップS37)。 When the shooting end command and the impact information are received (step S35; YES), the central control unit 201 controls the imaging unit 204 and the image data processing unit 205 to end the imaging (step S36). Then, the central control unit 201 determines the ball impact of the stroke operation for the frame image stored in the recording medium M by image processing, and specifies the frame image as the impact image (step S37).
ステップS37では、例えば、フレーム画像におけるテニスラケット300のフェイス面の用具領域と、テニスボールBの物体領域とが画像解析され、用具領域の面積に対するボール領域の面積の割合が最大となった状態をボールインパクトと判定し、そのフレーム画像がインパクト画像として特定される。これらの領域特定について、より具体的に説明する。中央制御部201は、フレーム画像を処理対象として、テニスボールBの形状をテンプレートとする特徴抽出処理を施して、当該フレーム画像内からテニスボールBに対応する物体領域を抽出して特定する。また、中央制御部201は、例えば、前記物体領域の画素数のフレーム画像の総画素数に占める比率、実際のテニスボールBの寸法に対するテニスラケット300のフレーム部302の寸法の比率、フレーム部302の形状のテンプレート等を用いて、当該フレーム画像内からテニスラケット300のフレーム部302のフェイス面に対応する用具領域を抽出して特定する。なお、物体領域や用具領域の抽出、特定の手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。 In step S37, for example, the device area on the face of the tennis racket 300 in the frame image and the object area of the tennis ball B are image-analyzed, and the ratio of the area of the ball area to the area of the equipment area is maximized. The ball impact is determined, and the frame image is specified as the impact image. These area identifications will be described more specifically. The central control unit 201 performs a feature extraction process using the shape of the tennis ball B as a template with the frame image as a processing target, and extracts and specifies an object region corresponding to the tennis ball B from the frame image. Further, the central control unit 201, for example, the ratio of the number of pixels of the object region to the total number of pixels of the frame image, the ratio of the size of the frame portion 302 of the tennis racket 300 to the actual size of the tennis ball B, the frame portion 302 A tool region corresponding to the face surface of the frame portion 302 of the tennis racket 300 is extracted and specified from the frame image using a template having a shape of Note that the extraction of the object region and the tool region and the specific method are examples, and are not limited thereto, and can be arbitrarily changed as appropriate.
また、ステップS37では、他にも、フレーム画像におけるフレーム部302のフェイス面の用具領域の中心と、テニスボールBの物体領域の中心とを画像解析し、当該2つの中心の間の距離が最小となった状態をボールインパクトと判定し、そのフレーム画像がインパクト画像として特定されることとしてもよい。なお、ステップS37の処理は、ステップS33の1枚のフレーム画像生成毎にリアルタイムに行われることとしてもよい。 In step S37, other than this, image analysis is performed on the center of the equipment area on the face of the frame portion 302 in the frame image and the center of the object area of the tennis ball B, and the distance between the two centers is minimized. It is possible to determine that the state has become a ball impact and specify the frame image as an impact image. Note that the processing in step S37 may be performed in real time every time one frame image is generated in step S33.
そして、中央制御部201は、ステップS37で判定されたインパクト画像に、ステップS35で受信されたインパクト時情報を割り当て、記録媒体制御部206を制御し、インパクト時情報をセンサ時情報としてインパクト画像に対応付けて記録媒体Mに記憶する(ステップS38)。そして、中央制御部201は、インパクト画像以外の全てのフレーム画像の撮像時情報に対応するセンサ時情報をインパクト時情報から算出して割り当てる。また、中央制御部201は、記録媒体制御部206を制御し、算出したセンサ時情報を各フレーム画像に対応付けて記録媒体Mに記憶し(ステップS39)、第1の撮影処理を終了する。ここで、フレーム画像と、撮像時情報及びセンサ時情報とは、同じファイルとして記憶してもよく、別々のファイルとして記憶してもよい。 The central control unit 201 assigns the impact time information received in step S35 to the impact image determined in step S37, controls the recording medium control unit 206, and uses the impact time information as sensor time information in the impact image. The information is stored in the recording medium M in association (step S38). Then, the central control unit 201 calculates and assigns sensor time information corresponding to the imaging time information of all frame images other than the impact image from the impact time information. The central control unit 201 also controls the recording medium control unit 206 to store the calculated sensor time information in the recording medium M in association with each frame image (step S39), and ends the first photographing process. Here, the frame image, the imaging time information, and the sensor time information may be stored as the same file, or may be stored as separate files.
ここで、図9を参照して、ステップS39のフレーム画像へのセンサ時情報の割り当ての具体例を説明する。図9(a)は、インパクト画像から2フレーム前のフレーム画像F1を示す図である。図9(b)は、インパクト画像から1フレーム前のフレーム画像F2を示す図である。図9(c)は、インパクト画像としてのフレーム画像F3を示す図である。図9(d)は、インパクト画像から1フレーム後のフレーム画像F4を示す図である。 Here, with reference to FIG. 9, a specific example of assignment of sensor time information to the frame image in step S39 will be described. FIG. 9A shows a frame image F1 two frames before the impact image. FIG. 9B shows a frame image F2 one frame before the impact image. FIG. 9C shows a frame image F3 as an impact image. FIG. 9D shows a frame image F4 that is one frame after the impact image.
図9(a)〜図9(d)に示すフレーム画像F1,F2,F3,F4は、ステップS33で生成されたフレーム画像の一部であり、ステップS34でフレーム画像F1,F2,F3,F4にそれぞれ撮像時情報が割り当てられているものとする。また、連写撮影の撮影速度は、100[fps]に設定されているものとする。 The frame images F1, F2, F3, and F4 shown in FIGS. 9A to 9D are a part of the frame images generated in step S33, and the frame images F1, F2, F3, and F4 in step S34. It is assumed that information at the time of imaging is assigned to each. The shooting speed for continuous shooting is set to 100 [fps].
ステップS37では、図9(c)に示すフレーム画像F3がインパクト画像として特定され、そのセンサ時情報(インパクト時情報)が[5:53:40.33]であり、撮像時情報が[5:53:46.55]であるものとする。ステップS39において、図9(b)に示すインパクト画像の1フレーム前のフレーム画像F2のセンサ時情報には、インパクト時情報[5:53:40.33]から10[ms]前の[5:53:40.32]が割り当てられる。同様にして、図9(a)に示すフレーム画像F1、図9(d)に示すフレーム画像F4に、それぞれ、インパクト時のセンサ時情報から20[ms]前、10[ms]後のセンサ時情報が割り当てられる。 In step S37, the frame image F3 shown in FIG. 9C is specified as an impact image, the sensor time information (impact time information) is [5: 53: 40.33], and the image pickup time information is [5: 53: 46.55]. In step S39, the sensor time information of the frame image F2 that is one frame before the impact image shown in FIG. 9B includes [5: 53: 40.33] from the impact time information [5:53:40]. 53: 40.32]. Similarly, the frame image F1 shown in FIG. 9 (a) and the frame image F4 shown in FIG. 9 (d) are respectively 20 [ms] before and 10 [ms] after the sensor information at the time of impact. Information is assigned.
例えば、センサ部103の出力情報としての角速度のデータ及びそのセンサ時情報を記憶することにより、記録媒体Mに記憶されたフレーム画像は、センサ時情報を共通にして、角速度のデータとともに解析することが可能となる。 For example, by storing the angular velocity data as the output information of the sensor unit 103 and the sensor time information, the frame image stored in the recording medium M can be analyzed together with the angular velocity data with the sensor time information in common. Is possible.
以上、本実施の形態によれば、用具側端末1は、撮像部204等に撮像されるユーザが把持するテニスラケット300に取り付けられ、当該ユーザの動きを検出するセンサ部103により出力された情報に基づいて、撮像された画像における当該ユーザの動作の状態(テークバック、ボールインパクト、フォロースルー)を判定する。このため、ユーザの動作の状態をフレーム画像に対応付けることで、所望の画像を適正に特定できる。 As described above, according to the present embodiment, the tool-side terminal 1 is attached to the tennis racket 300 held by the user imaged by the imaging unit 204 or the like, and is output by the sensor unit 103 that detects the movement of the user. Based on the above, the user's motion state (takeback, ball impact, follow-through) in the captured image is determined. For this reason, it is possible to appropriately specify a desired image by associating the state of the user's operation with the frame image.
また、用具側端末1は、センサ部103により出力された情報に基づいて、ユーザの動作の状態(テークバック、フォロースルー)に応じた撮影の開始及び終了のタイミングを判定する。このため、用具側端末1が、撮影の開始及び終了のタイミングに応じた撮影開始コマンド及び撮影終了コマンドを撮像装置2に送信することで、自動的に撮影の開始及び終了を制御できる。このため、ユーザの負担を低減できるとともに、テークバックからフォロースルーまでの必要な部分のみを撮影でき、撮像する画像の容量を低減できる。 Moreover, the tool side terminal 1 determines the timing of the start and end of imaging according to the user's operation state (takeback, follow-through) based on the information output by the sensor unit 103. For this reason, the tool side terminal 1 can automatically control the start and end of shooting by transmitting a shooting start command and a shooting end command according to the start and end timing of shooting to the imaging device 2. For this reason, while being able to reduce a user's burden, only the necessary part from take back to follow-through can be imaged, and the capacity of the image to be captured can be reduced.
また、センサ部103は、角速度センサであり、角速度を検出してその情報を出力する。このため、周囲の雑音が発生している環境下でも、遅延なく、ユーザの動作の状態を判定できる。 The sensor unit 103 is an angular velocity sensor that detects angular velocity and outputs the information. For this reason, even in an environment where ambient noise is generated, the user's operation state can be determined without delay.
また、用具側端末1は、撮像部204等により撮像されるユーザが把持するテニスラケット300に取り付けられ、当該被写体の動きに対応する情報を出力するセンサ部103の検出に対応する時刻を計時部105により計時しセンサ時情報を出力し、センサ部103により出力された情報とセンサ時情報とを対応付けて無線処理部107により撮像装置2に送信する。撮像装置2は、送信されたセンサ部103により出力された情報とセンサ時情報とに基づいて、撮像手段により撮像された画像からユーザの特定の状態に対応する画像を特定する。このため、ユーザの動作の状態(ボールインパクト)に応じて、センサ時情報(インパクト時情報)に対応付けられた所望のインパクト画像を適正に特定できる。 The tool side terminal 1 is attached to a tennis racket 300 held by a user that is imaged by the imaging unit 204 and the like, and a time corresponding to detection by the sensor unit 103 that outputs information corresponding to the movement of the subject is counted. The time is measured by 105 and sensor time information is output. The information output by the sensor unit 103 and the sensor time information are associated with each other and transmitted to the imaging apparatus 2 by the wireless processing unit 107. The imaging device 2 identifies an image corresponding to a specific state of the user from the images captured by the imaging unit based on the transmitted information output by the sensor unit 103 and the sensor time information. For this reason, the desired impact image matched with the sensor time information (impact time information) can be appropriately specified according to the user's motion state (ball impact).
また、撮像装置2は、ユーザを撮像した画像からユーザの動作の状態を判定し、撮像部204等の撮像に対応する時刻を計時部207により計時し撮像時情報を出力し、撮像装置2は、更に、上記判定結果に基づいて、前記画像の撮像時情報にセンサ時情報を対応付けることで、ユーザの特定の状態に対応する画像を特定する。このため、全ての画像についてセンサ時情報と撮像時情報との対応付けを行うことができる。 In addition, the imaging device 2 determines the state of the user's operation from the image captured of the user, measures the time corresponding to the imaging of the imaging unit 204 and the like by the timing unit 207, and outputs the imaging time information. Furthermore, based on the determination result, the image information corresponding to the specific state of the user is specified by associating the sensor time information with the image capturing time information. For this reason, it is possible to associate the sensor time information and the imaging time information with respect to all the images.
(第2の実施の形態)
図10〜図13を参照して、本発明に係る第2の実施の形態を説明する。第1の実施の形態では、テニスのストローク動作の撮影において、検出した角速度を用いて、ユーザの動作の状態と、この状態に基づく撮影開始及び撮影終了と、を判定した。本第2の実施の形態では、ゴルフのストローク動作の撮影において、検出した加速度を用いて、ユーザの動作の状態を判定する。
(Second Embodiment)
A second embodiment according to the present invention will be described with reference to FIGS. In the first embodiment, in the shooting of the tennis stroke motion, the detected angular velocity is used to determine the state of the user's motion and the start and end of shooting based on this state. In the second embodiment, in photographing golf stroke motion, the detected motion is used to determine the state of the user's motion.
先ず、図10を参照して、本実施の形態の画像判定システムとしての画像特定システム400を説明する。図10は、画像特定システム400の概略構成を示す図である。 First, an image specifying system 400 as an image determination system according to the present embodiment will be described with reference to FIG. FIG. 10 is a diagram showing a schematic configuration of the image specifying system 400.
図10に示すように、画像特定システム400は、ゴルフクラブ500に取付け固定される画像判定装置としての用具側端末1Aと、この用具側端末1Aと無線通信回線を介して情報通信可能に接続され、ユーザがゴルフクラブ500を用いてゴルフボールB1を打つストローク動作を撮像する撮像装置2Aと、を備えている。 As shown in FIG. 10, the image specifying system 400 is connected to a tool-side terminal 1A as an image determination device that is attached and fixed to the golf club 500, and to the tool-side terminal 1A so as to be capable of information communication via a wireless communication line. The image pickup apparatus 2 </ b> A for picking up an image of a stroke operation in which the user hits the golf ball B <b> 1 using the golf club 500.
用具側端末1の端末本体は、例えば、ゴルフボールB1を打つための用具としてのゴルフクラブ500に着脱自在に設けられている。具体的には、端末本体は、ゴルフクラブ500のユーザにより把持されるグリップ部501とフェイス面を構成するヘッド部502との間のシャフト部503に取り付けられている。 The terminal body of the tool side terminal 1 is detachably provided on a golf club 500 as a tool for hitting the golf ball B1, for example. Specifically, the terminal body is attached to a shaft portion 503 between a grip portion 501 held by a user of the golf club 500 and a head portion 502 constituting a face surface.
用具側端末1Aの内部の機能構成は、第1の実施の形態の用具側端末1の機能構成と同様であるものとし、各部に同じ符号を付し、異なる機能を主として説明する。中央制御部101のROMには、少なくとも後述する第2の撮影制御プログラムが記憶されているものとする。 The internal functional configuration of the tool-side terminal 1A is the same as the functional configuration of the tool-side terminal 1 of the first embodiment, and the same reference numerals are given to the respective parts, and different functions will be mainly described. It is assumed that the ROM of the central control unit 101 stores at least a second shooting control program described later.
センサ部103は、3次元の加速度を検出する加速度センサであるものとする。グリップ部501の軸方向及びフェイス面の下辺を含む面へのヘッド部502のフェイス面の投影面に垂直な方向に、X軸をとり、X軸に垂直な方向にY軸をとり、X軸及びY軸に垂直な方向にZ軸をとるものとする。図10の左方向をX軸の正方向とする。センサ部103は、X軸、Y軸、Z軸の加速度gx,gy,gzを検出し、センサ情報として中央制御部101に出力する。 The sensor unit 103 is assumed to be an acceleration sensor that detects a three-dimensional acceleration. The X axis is taken in the direction perpendicular to the projection direction of the face surface of the head unit 502 on the axis direction of the grip portion 501 and the face including the lower side of the face surface, and the Y axis is taken in the direction perpendicular to the X axis. The Z axis is taken in the direction perpendicular to the Y axis. The left direction in FIG. 10 is the positive direction of the X axis. The sensor unit 103 detects X-axis, Y-axis, and Z-axis accelerations gx, gy, and gz and outputs them to the central control unit 101 as sensor information.
撮像装置2Aの内部の機能構成は、第1の実施の形態の撮像装置2の機能構成と同様であるものとし、各部に同じ符号を付し、異なる機能を主として説明する。制御手段としての中央制御部201のROMには、少なくとも後述する第2の撮影プログラムが記憶されているものとする。 The internal functional configuration of the imaging device 2A is assumed to be the same as the functional configuration of the imaging device 2 of the first embodiment, and the same reference numerals are given to the respective parts, and different functions will be mainly described. It is assumed that the ROM of the central control unit 201 serving as a control unit stores at least a second imaging program described later.
次に、図11〜図13を参照して、画像特定システム400の動作を説明する。図11は、用具側端末1Aで実行される第2の撮影制御処理と、撮像装置2Aで実行される第2の撮影処理と、を示すフローチャートである。図12(a)は、ナイスショットでの時間に対する加速度の変化を示す図である。図12(b)は、ミスショットでの時間に対する加速度の変化を示す図である。図13は、記録媒体Mのフォルダ構成を示す図である。 Next, the operation of the image specifying system 400 will be described with reference to FIGS. FIG. 11 is a flowchart showing a second imaging control process executed by the tool side terminal 1A and a second imaging process executed by the imaging apparatus 2A. FIG. 12A is a diagram showing a change in acceleration with respect to time in a nice shot. FIG. 12B is a diagram illustrating a change in acceleration with respect to time in a miss shot. FIG. 13 is a diagram showing a folder structure of the recording medium M.
先ず、用具側端末1Aで実行される第2の撮影制御処理を説明する。第2の撮影制御処理は、ユーザ操作に応じた撮影開始コマンド及び撮影終了コマンドを撮像装置2Aに送信するとともに、用具側端末1Aの加速度を検出し、検出した加速度を用いて被写体の動作状態を判定し、その判定に基づく動作状態情報を撮像装置2Aに送信する処理である。 First, the 2nd imaging | photography control processing performed with the tool side terminal 1A is demonstrated. The second shooting control process transmits a shooting start command and a shooting end command according to a user operation to the imaging apparatus 2A, detects the acceleration of the tool-side terminal 1A, and uses the detected acceleration to determine the motion state of the subject. This is a process of determining and transmitting operation state information based on the determination to the imaging apparatus 2A.
予め、被写体としてのユーザは、撮像装置2Aを適切な撮影用の位置にセットし、用具側端末1Aを有するゴルフクラブ500を把持して、ストローク動作の準備を行う。用具側端末1Aにおいて、例えば、操作入力部108を介してユーザから第2の撮影制御処理の実行指示が入力されたことをトリガとして、内部ROMから読み出され適宜RAMに展開された第2の撮影制御プログラムと、CPUとの協働で、中央制御部101が第2の撮影制御処理を実行する。 A user as a subject sets the imaging device 2A in an appropriate shooting position in advance, holds the golf club 500 having the tool-side terminal 1A, and prepares for a stroke operation. In the tool-side terminal 1A, for example, a second input that is read from the internal ROM and appropriately expanded in the RAM is triggered by the input of the execution instruction of the second imaging control process from the user via the operation input unit 108. The central control unit 101 executes the second shooting control process in cooperation with the shooting control program and the CPU.
図11に示すように、中央制御部101は、計時部105による計時と撮像装置2Aの計時部207による計時を同期させるための同期制御信号を生成し、無線処理部107を撮像装置2Aに送信する(ステップS41)。同期制御信号は、例えば、計時部105で計時された現在の時刻情報を含む。 As illustrated in FIG. 11, the central control unit 101 generates a synchronization control signal for synchronizing the time measured by the time measuring unit 105 and the time measured by the time measuring unit 207 of the imaging device 2A, and transmits the wireless processing unit 107 to the imaging device 2A. (Step S41). The synchronization control signal includes, for example, current time information measured by the timer unit 105.
そして、中央制御部101は、操作入力部108を介してユーザからのクラブ選択情報の入力を受け付ける(ステップS42)。そして、中央制御部101は、操作入力部108を介してユーザからの動画の撮影開始の指示入力を受け付けたか否かを判定する(ステップS43)。撮影開始の指示入力がない場合(ステップS43;NO)、ステップS43に移行される。 Then, the central control unit 101 receives an input of club selection information from the user via the operation input unit 108 (step S42). Then, the central control unit 101 determines whether or not an instruction input for starting to shoot a moving image from the user is received via the operation input unit 108 (step S43). When there is no instruction to start shooting (step S43; NO), the process proceeds to step S43.
撮影開始の指示入力がある場合(ステップS43;YES)、中央制御部101は、センサ部103により加速度gx,gy,gzの検出(サンプリング)を開始する(ステップS44)。そして、中央制御部101は、無線処理部107を介して、撮影開始コマンドと、ステップS42で入力されたクラブ選択情報と、を撮像装置2Aに送信する(ステップS45)。 When there is an instruction to start shooting (step S43; YES), the central control unit 101 starts detection (sampling) of accelerations gx, gy, and gz by the sensor unit 103 (step S44). Then, the central control unit 101 transmits the shooting start command and the club selection information input in step S42 to the imaging device 2A via the wireless processing unit 107 (step S45).
そして、中央制御部101は、操作入力部108を介してユーザからの動画の撮影終了の指示入力を受け付けたか否かを判定する(ステップS46)。撮影終了は、ユーザのストローク動作の終了後にとられる。撮影終了の指示入力がない場合(ステップS46;NO)、ステップS46に移行される。撮影終了の指示入力がある場合(ステップS46;YES)、中央制御部101は、ステップS44で検出開始された加速度を解析し、被写体であるユーザの動作状態を判定して動作状態情報を作成する(ステップS47)。動作状態情報は、例えば、ユーザがストローク動作でナイスショットをしたか、ミスショットをしたかの状態の種類を示す情報である。 Then, the central control unit 101 determines whether or not an instruction input for ending moving image shooting from the user has been received via the operation input unit 108 (step S46). The end of shooting is taken after the end of the user's stroke operation. If there is no instruction to end shooting (step S46; NO), the process proceeds to step S46. If there is an instruction input to end shooting (step S46; YES), the central control unit 101 analyzes the acceleration started in step S44, determines the operation state of the user who is the subject, and creates operation state information. (Step S47). The operation state information is, for example, information indicating a state type indicating whether the user has made a nice shot or a miss shot by a stroke operation.
図12(a)に示すように、横軸に時間をとり、縦軸にシャフト部503におけるX軸方向の歪み(加速度の変化)をとるグラフを考える。縦軸の加速度の変化は、加速度gxに対応している。レディポジションから、時間経過ともに、加速度の変化は、0から増加して減少し、0を経て急激に減少した後、ピークをとり反転する。丸で囲んだ部分が、ヘッド部502がゴルフボールB1と接触したインパクトに対応する。インパクト後、加速度の変化は、増加し、0を経て増加した後、減少していき0となる。 As shown in FIG. 12A, consider a graph in which time is taken on the horizontal axis and the distortion (change in acceleration) in the X-axis direction of the shaft portion 503 is taken on the vertical axis. The change in acceleration on the vertical axis corresponds to the acceleration gx. From the ready position, with time, the change in acceleration increases from 0 and decreases. After abruptly decreasing after 0, the peak is reversed. The portion surrounded by a circle corresponds to the impact of the head portion 502 coming into contact with the golf ball B1. After impact, the change in acceleration increases, increases through zero, decreases, and then decreases to zero.
ナイスショットの場合は、グラフの丸で囲んだ部分について、ゴルフクラブ500(ヘッド部502)がゴルフボールB1を芯で打てているため、加速度の変化の波形が1回できれいにピークをとって反転している。 In the case of a nice shot, since the golf club 500 (head portion 502) hits the golf ball B1 with the core in the circled portion of the graph, the waveform of the change in acceleration takes a clean peak once. Inverted.
図12(b)に示すように、ミスショットの場合は、グラフの丸で囲んだ部分について、ゴルフクラブ500(ヘッド部502)がゴルフボールB1を芯で打てていないため、ヘッド部502への衝撃が少し大きく、加速度の変化の波形が複数のピークにより汚く反転している。 As shown in FIG. 12B, in the case of a miss shot, the golf club 500 (head portion 502) does not hit the golf ball B1 with the core in the circled portion of the graph. The impact is slightly larger, and the acceleration change waveform is dirty and reversed by a plurality of peaks.
ステップS47では、撮影中に検出された加速度gxの波形に応じて、図12(a)に示すナイスショットと、図12(b)に示すミスショットと、の動作の状態の種類が判定される。 In step S47, the types of operation states of the nice shot shown in FIG. 12A and the miss shot shown in FIG. 12B are determined according to the waveform of the acceleration gx detected during shooting. .
しかし、ステップS47で判定される動作状態情報としては、ナイスショット及びミスショットを示す情報に限定されるものではない。例えば、ゴルフボールB1の飛距離、打ち出し角度、ゴルフボールB1のどこを叩いたか(縦方向、横方向等)等の状態を示す情報としてもよい。また、加速度からの動作状態の判定方法は、上記のように、加速度の波形の特徴部分(インパクト部分等)を解析する方法に限定されるものではない。例えば、加速度の実測値から飛距離等の推定値を算出する方法や、ユーザの所定の動作状態下で計測された経験的な加速度パターンと実測での加速度パターンとの比較による方法、としてもよい。 However, the operation state information determined in step S47 is not limited to information indicating a nice shot and a miss shot. For example, the information may indicate information such as the flight distance of the golf ball B1, the launch angle, and where the golf ball B1 was struck (vertical direction, horizontal direction, etc.). In addition, as described above, the determination method of the operation state from the acceleration is not limited to the method of analyzing the characteristic portion (impact portion or the like) of the acceleration waveform. For example, a method for calculating an estimated value such as a flight distance from an actual measured value of acceleration, or a method by comparing an empirical acceleration pattern measured under a predetermined operation state of the user with an actually measured acceleration pattern may be used. .
そして、中央制御部101は、無線処理部107を介して、撮影終了コマンドと、ステップS47で作成された動作状態情報と、を撮像装置2Aに送信する(ステップS48)。そして、中央制御部101は、操作入力部108を介してユーザからの全動画の撮影終了の指示入力を受け付けたか否かを判定する(ステップS49)。全撮影終了の指示入力がない場合(ステップS49;NO)、ステップS42に移行される。 Then, the central control unit 101 transmits the shooting end command and the operation state information created in step S47 to the imaging device 2A via the wireless processing unit 107 (step S48). Then, the central control unit 101 determines whether or not an instruction input for ending the shooting of all moving images has been received from the user via the operation input unit 108 (step S49). If there is no instruction to end all shooting (step S49; NO), the process proceeds to step S42.
全撮影終了の指示入力がある場合(ステップS49;YES)、中央制御部101は、無線処理部107を介して、全撮影終了コマンドを撮像装置2Aに送信し(ステップS50)、第2の撮影制御処理を終了する。 When there is an instruction input to end all shooting (step S49; YES), the central control unit 101 transmits an all shooting end command to the imaging apparatus 2A via the wireless processing unit 107 (step S50). The control process ends.
次いで、撮像装置2Aで実行される第2の撮影処理を説明する。第2の撮影処理は、用具側端末1Aから受信する撮影開始コマンド及び撮影終了コマンドに応じて、被写体であるユーザのストローク動作を動画撮影するとともに、その動画ファイルを動作状態情報に対応付けて、各カテゴリのフォルダに格納する処理である。 Next, a second imaging process executed by the imaging device 2A will be described. In the second shooting process, according to the shooting start command and the shooting end command received from the tool-side terminal 1A, the user's stroke operation as a subject is shot as a movie, and the movie file is associated with the operation state information. It is a process of storing in a folder of each category.
予め、撮像装置2Aにおいて、撮影速度[fps]、露出等、ユーザのストロークの動画撮影の撮影条件情報が設定されているものとする。撮像装置2Aにおいて、例えば、操作入力部210を介してユーザから第2の撮影処理の実行指示が入力されたことをトリガとして、内部ROMから読み出され適宜RAMに展開された第2の撮影プログラムと、CPUとの協働で、中央制御部201が第2の撮影処理を実行する。 It is assumed that shooting condition information for moving image shooting of a user's stroke such as shooting speed [fps] and exposure is set in the imaging device 2A in advance. In the imaging apparatus 2A, for example, a second imaging program read from the internal ROM and appropriately expanded in the RAM triggered by the input of the execution instruction of the second imaging process from the user via the operation input unit 210 In cooperation with the CPU, the central control unit 201 executes the second photographing process.
図11に示すように、中央制御部201は、ステップS41に対応して、無線処理部203を介して、同期制御信号を用具側端末1Aから受信し、同期制御信号に応じて計時部207を計時部105に同期する同期処理を行う(ステップS61)。ステップS61では、例えば、計時部207で計時される時刻情報が、同期制御信号内の時刻情報に合わせられる。 As shown in FIG. 11, the central control unit 201 receives the synchronization control signal from the tool side terminal 1A via the wireless processing unit 203 in response to step S41, and sets the time measuring unit 207 according to the synchronization control signal. A synchronization process is performed in synchronization with the time measuring unit 105 (step S61). In step S61, for example, the time information measured by the time measuring unit 207 is matched with the time information in the synchronization control signal.
そして、中央制御部201は、撮像部204、画像データ処理部205を制御して、動画撮影のための撮像を開始する(ステップS62)。そして、中央制御部201は、ステップS45に対応して、無線処理部203を介して、撮影開始コマンド及びクラブ選択情報を用具側端末1Aから受信したか否かを判定する(ステップS63)。撮影開始コマンド及びクラブ選択情報を受信していない場合(ステップS63;NO)、ステップS63に移行される。 Then, the central control unit 201 controls the imaging unit 204 and the image data processing unit 205 to start imaging for moving image shooting (step S62). Then, in response to step S45, the central control unit 201 determines whether or not a shooting start command and club selection information have been received from the equipment side terminal 1A via the wireless processing unit 203 (step S63). When the shooting start command and the club selection information are not received (step S63; NO), the process proceeds to step S63.
撮影開始コマンド及びクラブ選択情報を受信した場合(ステップS63;YES)、中央制御部201は、撮像部204、画像データ処理部205を制御して、予め設定された撮影条件情報に従い動画用のフレーム画像を生成する(ステップS64)。そして、中央制御部201は、ステップS48に対応して、無線処理部203を介して、撮影終了コマンド及び動作状態情報を用具側端末1Aから受信したか否かを判定する(ステップS65)。撮影終了コマンド及び動作状態情報を受信していない場合(ステップS65;NO)、ステップS64に移行される。 When the shooting start command and the club selection information are received (step S63; YES), the central control unit 201 controls the imaging unit 204 and the image data processing unit 205, and the moving image frame according to the preset shooting condition information. An image is generated (step S64). Then, in response to step S48, the central control unit 201 determines whether or not the photographing end command and the operation state information are received from the tool side terminal 1A via the wireless processing unit 203 (step S65). When the photographing end command and the operation state information are not received (step S65; NO), the process proceeds to step S64.
撮影終了コマンド及び動作状態情報を受信した場合(ステップS65;YES)、中央制御部201は、ステップS63で受信したクラブ選択情報と、ステップS65で受信した動作状態情報と、をステップS64で生成されたフレーム画像を含む動画ファイルに格納する(ステップS66)。そして、中央制御部201は、記録媒体制御部206を制御し、ステップS63で受信した動作状態情報に応じて、ステップS66で生成した動画ファイルを記録媒体M内の各カテゴリのフォルダに記憶する(ステップS67)。各カテゴリとは、動作の状態の種類を示すカテゴリであるものとする。 When the shooting end command and the operation state information are received (step S65; YES), the central control unit 201 generates the club selection information received in step S63 and the operation state information received in step S65 in step S64. It stores in a moving image file including the frame image (step S66). Then, the central control unit 201 controls the recording medium control unit 206 to store the moving image file generated in step S66 in each category folder in the recording medium M in accordance with the operation state information received in step S63 ( Step S67). Each category is a category indicating the type of operation state.
一例として、図13に示すように、記録媒体M内に、ナイスショットのカテゴリのフォルダR1と、ミスショットのカテゴリのフォルダR2と、が形成されているものとする。ステップS67では、動画ファイル内の動作状態情報がナイスショットを示す場合に、当該動画ファイルがフォルダR1に格納され、動画ファイル内の動作状態情報がミスショットを示す場合に、当該動画ファイルがフォルダR2に格納される。なお、動作の状態の種類、その数(フォルダの数)は、上記の例に限定されるものではない。 As an example, it is assumed that a nice shot category folder R1 and a miss shot category folder R2 are formed in the recording medium M as shown in FIG. In step S67, when the operation state information in the movie file indicates a nice shot, the movie file is stored in the folder R1, and when the operation state information in the movie file indicates a miss shot, the movie file is stored in the folder R2. Stored in Note that the types of operation states and the number thereof (number of folders) are not limited to the above example.
そして、中央制御部201は、ステップS50に対応して、無線処理部203を介して、全撮影終了コマンドを用具側端末1Aから受信したか否かを判定する(ステップS69)。全撮影終了コマンドを受信していない場合(ステップS69;NO)、ステップS63に移行される。 Then, in response to step S50, the central control unit 201 determines whether or not an all imaging end command has been received from the tool side terminal 1A via the wireless processing unit 203 (step S69). When the complete photographing end command has not been received (step S69; NO), the process proceeds to step S63.
全撮影終了コマンドを受信した場合(ステップS69;YES)、中央制御部201は、撮像部204、画像データ処理部205を制御して、撮像を終了し(ステップS70)、第2の撮影処理を終了する。 When the all photographing end command is received (step S69; YES), the central control unit 201 controls the imaging unit 204 and the image data processing unit 205 to end the imaging (step S70), and the second photographing process is performed. finish.
以上、本実施の形態によれば、用具側端末1Aは、撮像部204等に撮像されるユーザが把持するゴルフクラブ500に取り付けられ、当該ユーザの動きを検出するセンサ部103により出力された情報に基づいて、撮像された画像における当該ユーザの動作の状態(の種類)を判定する。このため、ユーザの動作の状態(の種類)を動画ファイルに対応付けることにより、所望の画像を適正に特定できる。 As described above, according to the present embodiment, the tool-side terminal 1A is attached to the golf club 500 held by the user imaged by the imaging unit 204 or the like, and is output by the sensor unit 103 that detects the movement of the user. Based on the above, the state (type) of the user's operation in the captured image is determined. For this reason, it is possible to appropriately specify a desired image by associating the state (type) of the user's operation with the moving image file.
また、センサ部103は、加速度センサであり、加速度を検出してその情報を出力する。このため、周囲の雑音が発生している環境下でも、遅延することなく、ユーザの動作の状態(の種類)を判定できる。 The sensor unit 103 is an acceleration sensor that detects acceleration and outputs the information. For this reason, even in an environment where ambient noise is generated, the state (type) of the user's operation can be determined without delay.
また、用具側端末1Aは、センサ部103により出力された情報に基づいて、撮像された1又は複数のフレーム画像(動画ファイル)におけるユーザの動作の状態の種類(ナイスショット、ミスショット)を判定する。このため、ユーザの動作の状態の種類を動画ファイルに対応付けることにより、所望の1又は複数の画像を適正に特定できる。 In addition, the tool-side terminal 1A determines the type of user action state (nice shot or miss shot) in one or more captured frame images (moving image file) based on the information output by the sensor unit 103. To do. For this reason, it is possible to appropriately specify a desired image or a plurality of images by associating the type of the user's operation state with the moving image file.
また、用具側端末1Aは、センサ部103により出力された情報の波形の形状に基づいて、撮像された1又は複数のフレーム画像(動画ファイル)におけるユーザの動作の状態の種類(ナイスショット、ミスショット)を判定する。このため、ユーザの動作の状態の種類をより正確に判定できる。 In addition, the tool-side terminal 1A determines the type of user action state (nice shot, miss) in one or a plurality of captured frame images (moving image files) based on the waveform shape of the information output by the sensor unit 103. Shot). For this reason, it is possible to more accurately determine the type of state of the user's operation.
また、撮像装置2Aは、判定された動画ファイルにおけるユーザの動作の状態の種類と、当該動画ファイルと、を対応付けて記憶手段としての記録媒体Mに記憶する。このため、ユーザの動作の状態の種類に応じて動画ファイルを容易に検索及び読み出すことができる。 In addition, the imaging apparatus 2A stores the type of the user's operation state in the determined moving image file and the moving image file in association with each other in the recording medium M as a storage unit. For this reason, a moving image file can be easily searched and read out according to the type of user's operation state.
また、撮像装置2Aは、判定された動画ファイルにおけるユーザの動作の状態の種類のフォルダに、当該動画ファイルを格納して記憶する。このため、ユーザの動作の状態の種類に応じて動画ファイルをさらに容易に検索及び読み出すことができる。 In addition, the imaging device 2A stores and stores the moving image file in a folder of the type of the user's operation state in the determined moving image file. For this reason, it is possible to more easily search and read out the moving image file in accordance with the type of operation state of the user.
なお、本発明は、上記実施の形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。 The present invention is not limited to the above embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
上記第1、第2の実施の形態を適宜組み合わせる構成としてもよい。例えば、ユーザのレディポジション等の状態に応じたフォルダを記録媒体Mに設定し、各状態に対応するフレーム画像を対応するフォルダに格納する構成である。 The first and second embodiments may be combined as appropriate. For example, a folder corresponding to the user's ready position or the like is set in the recording medium M, and frame images corresponding to each state are stored in the corresponding folder.
また、上記第1、第2の実施の形態にあっては、1軸の角速度又は加速度を用いて、被写体の状態を判定する構成としたが、これに限定されるものではなく、2軸又は3軸の角速度又は加速度を用いる構成としてもよい。 In the first and second embodiments, the state of the subject is determined using the uniaxial angular velocity or acceleration. However, the present invention is not limited to this. A configuration using triaxial angular velocity or acceleration may be used.
また、上記第1の実施の形態にあっては、センサ部103が角速度を検出する構成としたが、これに限定されるものではなく、センサ部103が、加速度等、テニスラケット300の動きを検出可能なセンサであれば如何なるセンサを用いても良い。上記第2の実施の形態にあっては、センサ部103が加速度を検出する構成としたが、これに限定されるものではなく、センサ部103が、角速度等、ゴルフクラブ500の動きを検出可能なセンサであれば如何なるセンサを用いても良い。 Further, in the first embodiment, the sensor unit 103 is configured to detect the angular velocity. However, the present invention is not limited to this, and the sensor unit 103 can detect the movement of the tennis racket 300 such as acceleration. Any sensor may be used as long as it can be detected. In the second embodiment, the sensor unit 103 is configured to detect acceleration. However, the present invention is not limited to this, and the sensor unit 103 can detect the motion of the golf club 500 such as angular velocity. Any sensor may be used as long as it is a simple sensor.
さらに、上記第1の実施形態にあっては、テニスラケット300に対するテニスボールBの接触をインパクトとして検出するようにしたが、一例であってこれに限られるものではなく、テニスラケット300とテニスボールBとの接触を検出可能であれば如何なる構成であっても良い。 Furthermore, in the first embodiment, the contact of the tennis ball B with the tennis racket 300 is detected as an impact. However, this is only an example and the present invention is not limited to this. Any configuration is possible as long as contact with B can be detected.
上記第1の実施の形態にあっては、図8のステップS12,S13,S15,S16,S18,S19の処理を用具側端末1が行うこととしたが、当該処理を撮像装置2が行っても良い。つまり、用具側端末1が、検出した角速度Gzの値に計時部105が計時した時刻情報を対応付けて撮像装置2に送信し、撮像装置2が、角速度Gzの値と時刻情報とに基づいてテニスラケット300に対するテニスボールBのインパクト時の検出と撮影開始及び撮影終了の判定を行い、当該インパクト時に対応する撮像時情報が関連付けられたフレーム画像を特定する構成としてもよい。 In the first embodiment, the tool side terminal 1 performs the processing of steps S12, S13, S15, S16, S18, and S19 in FIG. 8, but the imaging device 2 performs the processing. Also good. In other words, the tool-side terminal 1 associates the time value measured by the time measuring unit 105 with the detected value of the angular velocity Gz and transmits it to the imaging device 2, and the imaging device 2 is based on the value of the angular velocity Gz and the time information. The configuration may be such that detection at the time of impact of the tennis ball B on the tennis racket 300 and determination of the start and end of shooting are performed, and the frame image associated with the shooting time information corresponding to the impact time is specified.
上記第2の実施の形態にあっては、図11のステップS47の処理を用具側端末1Aが行うこととしたが、当該処理を撮像装置2Aが行っても良い。つまり、用具側端末1Aが、検出した加速度gxの値に計時部105が計時した時刻情報を対応付けて撮像装置2Aに送信し、撮像装置2Aが、角速度Gzの値と時刻情報とに基づいてユーザの動作の状態の判定を行い、この動作状態情報を動画ファイルに対応付ける構成としてもよい。 In the second embodiment, the tool side terminal 1A performs the process of step S47 in FIG. 11, but the imaging apparatus 2A may perform the process. That is, the tool side terminal 1A associates the detected acceleration gx value with the time information measured by the time measuring unit 105 and transmits it to the imaging apparatus 2A, and the imaging apparatus 2A is based on the angular velocity Gz value and the time information. It may be configured to determine the state of the user's operation and associate this operation state information with the moving image file.
さらに、上記第1の実施の形態において、用具としてテニスラケット300を例示し、上記第2の実施の形態において、用具としてゴルフクラブ500を例示したが、一例であってこれに限られるものではなく、例えば、卓球のラケット、野球のバット等の物体を打つものであれば適宜任意に変更可能である。このとき、用具側端末1,1Aの端末本体は、ユーザにより把持される把持部の延在方向に沿う方向に延在する軸上に取付け固定されているのが好ましい。 Furthermore, in the said 1st Embodiment, the tennis racket 300 was illustrated as a tool, and the golf club 500 was illustrated as a tool in the said 2nd Embodiment, However, It is an example and is not restricted to this. For example, any object such as a table tennis racket or a baseball bat can be arbitrarily changed. At this time, it is preferable that the terminal main body of the tool side terminals 1 and 1A is attached and fixed on an axis extending in a direction along the extending direction of the gripping portion gripped by the user.
また、画像特定システム100,400の構成は、上記第1、第2の実施の形態に例示したものは一例であり、これに限られるものではない。例えば、所定の通信回線として、無線通信回線を例示して説明したが、用具側端末1,1Aと撮像装置2,2Aとを有線ケーブル等により接続して通信を行う有線通信回線であっても良い。 Further, the configurations of the image specifying systems 100 and 400 are only examples as illustrated in the first and second embodiments, and are not limited thereto. For example, the wireless communication line has been described as an example of the predetermined communication line. good.
また、上記第1、第2の実施の形態にあっては、テニス、ゴルフのスポーツを例示したがこれに限らず、事故などの衝突を検出してその瞬間の画像を特定するとか、また連続撮影動画の中から接触(衝突)を検出してその前後の動画(テニスならスイングフォームの動画、事故なら衝突前後の動画)を特定するといったことに適用が可能である。 In the first and second embodiments, tennis and golf sports are exemplified. However, the present invention is not limited to this, and a collision such as an accident is detected and an image at that moment is specified. The present invention can be applied to detecting a contact (collision) from photographed moving images and specifying a moving image before and after the contact (a swing form moving image for tennis and a moving image before and after a collision for an accident).
また、上記第1、第2の実施の形態にあっては、センサ部103を有する用具側端末1,1Aが、テニスラケット300又はゴルフクラブ500に取り付けられる構成としたが、これに限定されるものではない。用具側端末1,1Aが、被写体としてのユーザそのものに取り付けられる構成としてもよい。 Moreover, in the said 1st, 2nd embodiment, although the equipment side terminal 1 and 1A which have the sensor part 103 was set as the structure attached to the tennis racket 300 or the golf club 500, it is limited to this. It is not a thing. The tool side terminals 1 and 1A may be configured to be attached to the user as a subject.
さらに、上記第1、第2の実施の形態にあっては、用具側端末1,1Aと撮像装置2,2Aとを備える画像特定システム100,400を例示したが、一例であってこれに限られるものではなく、一の画像特定装置から構成されていても良い。 Furthermore, in the first and second embodiments, the image specifying systems 100 and 400 including the tool-side terminals 1 and 1A and the imaging devices 2 and 2A have been illustrated. It may be configured from one image specifying device.
加えて、上記第1、第2の実施の形態にあっては、第1、第2の撮影制御処理を中央制御部101がプログラムにより実行し、第1、第2の撮影処理を中央制御部201がプログラムにより実行する構成としたが、これに限定されるものではない。用具側端末1,1Aが、第1、第2の撮影制御処理と同様の処理を行うロジック回路等の専用回路を備え、撮像装置2,2Aが、第1、第2の撮影処理と同様の処理を行うロジック回路等の専用回路を備える構成としてもよい。 In addition, in the first and second embodiments, the central control unit 101 executes the first and second shooting control processes by a program, and the first and second shooting processes are performed by the central control unit. 201 is configured to be executed by a program, but is not limited thereto. The tool-side terminals 1 and 1A include a dedicated circuit such as a logic circuit that performs processing similar to the first and second imaging control processing, and the imaging devices 2 and 2A are similar to the first and second imaging processing A dedicated circuit such as a logic circuit for processing may be provided.
さらに、上記第1、第2の実施の形態の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMを挙げたが、ハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, although ROM was mentioned as a computer-readable medium which stored the program for performing each process of the said 1st, 2nd embodiment, non-volatile memories, such as flash memory other than a hard disk, It is also possible to apply a portable recording medium such as a CD-ROM. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
また、上記各実施の形態における画像特定システムの各構成要素の細部構成及び細部動作に関しては、本発明の趣旨を逸脱することのない範囲で適宜変更可能であることは勿論である。 In addition, it is needless to say that the detailed configuration and detailed operation of each component of the image specifying system in each of the above embodiments can be appropriately changed without departing from the spirit of the present invention.
本発明の実施の形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像手段に撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する情報を出力するセンサと、
前記センサにより出力された情報に基づいて、前記撮像手段により撮像された画像における前記被写体の動作の状態を判定する判定手段と、
を備える画像判定装置。
<請求項2>
前記判定手段は、前記センサにより出力された情報に基づいて、前記撮像手段により撮像された1又は複数の画像における前記被写体の動作の状態の種類を判定する請求項1に記載の画像判定装置。
<請求項3>
前記判定手段は、前記センサにより出力された情報の波形の形状に基づいて、前記撮像手段により撮像された1又は複数の画像における前記被写体の動作の状態の種類を判定する請求項2に記載の画像判定装置。
<請求項4>
前記センサは、加速度センサ又は角速度センサであり、加速度又は角速度に関する情報を出力する請求項1から3の何れか一項に記載の画像判定装置。
<請求項5>
前記センサにより出力された情報に基づいて、前記被写体の動作の状態に応じた撮影の開始及び終了のタイミングを特定するタイミング特定手段を更に備える請求項1から4の何れか一項に記載の画像判定装置。
<請求項6>
請求項1から5のいずれか一項に記載の画像判定装置と、
前記判定された画像における前記被写体の動作の状態の種類と、当該画像とを対応付けて記憶手段に記憶させる記憶制御手段と、
を備える画像判定システム。
<請求項7>
前記記憶制御手段は、前記判定された画像における前記被写体の動作の状態の種類のフォルダに、当該種類に対応する画像を格納して記憶する請求項6に記載の画像判定システム。
<請求項8>
送信側端末と、受信側端末と、を備える画像特定システムであって、
送信側端末は、
撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する情報を出力するセンサと、
前記センサの検出に対応する時刻を計時し第1の時刻情報を出力する第1の計時手段と、
前記センサにより出力された情報と前記第1の時刻情報とを対応付けて前記受信側端末に送信する送信手段と、を備え、
前記受信側端末は、
前記送信手段により対応付けて送信された前記センサにより出力された情報と第1の時刻情報とに基づいて、前記撮像手段により撮像された画像から前記被写体の特定の状態に対応する画像を特定する特定手段と、
を備える画像特定システム。
<請求項9>
前記受信側端末は、
前記被写体を撮像した画像から前記被写体の動作の状態を判定する状態判定手段と、
前記撮像手段の撮像に対応する時刻を計時し第2の時刻情報を出力する第2の計時手段を更に備え、
前記特定手段は、更に、前記状態判定手段による判定結果に基づいて、前記画像の第2の時刻情報に前記第1の時刻情報を対応付けることで、前記被写体の特定の状態に対応する画像を特定する請求項8に記載の画像特定システム。
<請求項10>
前記センサは、加速度センサ又は角速度センサであり、加速度又は角速度に関する情報を出力する請求項8又は9に記載の画像特定システム。
<請求項11>
撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する情報を出力するセンサと、
前記センサの検出に対応する時刻を計時し時刻情報を出力する計時手段と、
前記センサにより出力された情報と前記時刻情報とを対応付けて受信端末に送信する送信手段と、
を備える送信端末。
<請求項12>
センサにより出力された被写体の動きに対応する情報と、撮像手段による前記被写体の撮像に対応する時刻情報とに基づいて、前記撮像手段により撮像された画像から前記被写体の特定の状態に対応する画像を特定する特定手段を備える受信端末。
<請求項13>
撮像手段により撮像された被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する情報をセンサにより出力する工程と、
前記センサ工程により出力された情報に基づいて、撮像された画像における前記被写体の動作の状態を判定する工程と、を含む画像判定方法。
<請求項14>
送信側端末と、受信側端末と、を備える画像特定システムにおける画像特定方法であって、
前記送信側端末が、撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられたセンサにより、当該被写体の動きに対応する情報を出力する工程と、
前記送信側端末が、前記被写体の動作に対応する時刻を計時し時刻情報を出力する工程と、
前記センサにより出力された情報と前記時刻情報とを対応付けて前記受信側端末に送信する工程と、
前記受信側端末が、前記センサにより出力された情報と時刻情報とに基づいて、前記撮像手段により撮像された画像から前記被写体の特定の状態に対応する画像を特定する工程と、を含む画像特定方法。
<請求項15>
コンピュータを、
撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する情報をセンサにより出力する出力手段、
前記センサにより出力された情報に基づいて、撮像された画像における前記被写体の動作の状態を判定する判定手段、
として機能させるためのプログラム。
Although the embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and the equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
A sensor attached to a subject to be imaged by the imaging means or a tool held by the subject and outputting information corresponding to the movement of the subject;
Determination means for determining a state of operation of the subject in an image captured by the imaging means based on information output by the sensor;
An image determination apparatus comprising:
<Claim 2>
The image determination apparatus according to claim 1, wherein the determination unit determines a type of a state of movement of the subject in one or a plurality of images captured by the imaging unit based on information output from the sensor.
<Claim 3>
3. The determination unit according to claim 2, wherein the determination unit determines a type of an operation state of the subject in one or a plurality of images captured by the imaging unit based on a waveform shape of information output by the sensor. Image determination device.
<Claim 4>
The image determination apparatus according to claim 1, wherein the sensor is an acceleration sensor or an angular velocity sensor, and outputs information related to acceleration or angular velocity.
<Claim 5>
5. The image according to claim 1, further comprising: a timing specifying unit that specifies a start timing and an end timing of imaging according to an operation state of the subject based on information output from the sensor. Judgment device.
<Claim 6>
An image determination device according to any one of claims 1 to 5,
Storage control means for associating and storing in the storage means the type of motion state of the subject in the determined image and the image;
An image determination system comprising:
<Claim 7>
The image determination system according to claim 6, wherein the storage control unit stores and stores an image corresponding to the type in a folder of the type of the motion state of the subject in the determined image.
<Claim 8>
An image identification system comprising a transmission side terminal and a reception side terminal,
The sending terminal
A sensor attached to a subject imaged by the imaging means or a tool held by the subject and outputting information corresponding to the movement of the subject;
First time measuring means for measuring time corresponding to the detection of the sensor and outputting first time information;
Transmission means for associating the information output by the sensor with the first time information and transmitting the information to the receiving terminal,
The receiving terminal is
Based on the information output by the sensor transmitted in association with the transmission unit and the first time information, the image corresponding to the specific state of the subject is identified from the image captured by the imaging unit. Specific means,
An image identification system comprising:
<Claim 9>
The receiving terminal is
State determination means for determining the state of operation of the subject from an image obtained by imaging the subject;
A second time measuring means for measuring the time corresponding to the image pickup by the image pickup means and outputting second time information;
The specifying unit further specifies the image corresponding to the specific state of the subject by associating the first time information with the second time information of the image based on the determination result by the state determining unit. The image specifying system according to claim 8.
<Claim 10>
The image specifying system according to claim 8, wherein the sensor is an acceleration sensor or an angular velocity sensor, and outputs information related to acceleration or angular velocity.
<Claim 11>
A sensor attached to a subject imaged by the imaging means or a tool held by the subject and outputting information corresponding to the movement of the subject;
Time measuring means for measuring time corresponding to detection of the sensor and outputting time information;
Transmitting means for associating the information output by the sensor with the time information and transmitting the information to the receiving terminal;
A transmission terminal comprising:
<Claim 12>
An image corresponding to a specific state of the subject from an image captured by the imaging unit based on information corresponding to the movement of the subject output by the sensor and time information corresponding to the imaging of the subject by the imaging unit A receiving terminal comprising a specifying means for specifying.
<Claim 13>
A step of attaching to a subject imaged by the imaging means or a tool held by the subject and outputting information corresponding to the movement of the subject by a sensor;
Determining the state of motion of the subject in the captured image based on the information output by the sensor step.
<Claim 14>
An image identification method in an image identification system comprising a transmission side terminal and a reception side terminal,
A step of outputting information corresponding to the movement of the subject by a sensor attached to the subject imaged by the imaging means or a tool held by the subject, wherein the transmission side terminal;
The transmitting terminal timing the time corresponding to the movement of the subject and outputting time information;
Associating the information output by the sensor with the time information and transmitting the information to the receiving terminal;
The receiving side terminal specifying an image corresponding to a specific state of the subject from an image captured by the imaging unit based on information output by the sensor and time information. Method.
<Claim 15>
Computer
An output means attached to a subject to be imaged or a tool held by the subject and outputting information corresponding to the movement of the subject by a sensor;
Determination means for determining a state of operation of the subject in the captured image based on information output by the sensor;
Program to function as.
100,400 画像特定システム
1,1A 用具側端末
101 中央制御部
102 メモリ
103 センサ部
105 計時部
106 表示部
107 無線処理部
107a BTモジュール
108 操作入力部
109 バスライン
2,2A 撮像装置
201 中央制御部
202 メモリ
203 無線処理部
203a BTモジュール
203b 無線LANモジュール
204 撮像部
204a レンズ部
204b 電子撮像部
204c 撮像制御部
205 画像データ処理部
206 記録媒体制御部
M 記録媒体
207 計時部
209 表示部
209a 表示パネル
209b 表示制御部
210 操作入力部
211 バスライン
DESCRIPTION OF SYMBOLS 100,400 Image identification system 1,1A Tool side terminal 101 Central control part 102 Memory 103 Sensor part 105 Time measuring part 106 Display part 107 Wireless processing part 107a BT module 108 Operation input part 109 Bus line 2, 2A Imaging device 201 Central control part 202 Memory 203 Wireless processing unit 203a BT module 203b Wireless LAN module 204 Imaging unit 204a Lens unit 204b Electronic imaging unit 204c Imaging control unit 205 Image data processing unit 206 Recording medium control unit M Recording medium 207 Timing unit 209 Display unit 209a Display panel 209b Display control unit 210 Operation input unit 211 Bus line
Claims (18)
前記撮像手段により撮像される複数の画像のうち、前記第一の情報に対応する所定数の画像を解析して、前記所定数の画像から当該被写体の特定の動きに対応する画像を特定する特定手段と、
を備える画像特定装置。 From attached that sensor more object or tool to which the subject is gripped is imaged on the imaging unit, an acquisition unit for acquiring first information corresponding to the motion of the subject,
A specification for analyzing a predetermined number of images corresponding to the first information among a plurality of images captured by the imaging unit and specifying an image corresponding to a specific movement of the subject from the predetermined number of images Means,
An image specifying apparatus comprising:
前記記憶制御手段は、前記取得手段により取得された前記第一の時刻情報と、前記画像特定手段により特定された画像とを対応付けて前記記憶手段に記憶させる請求項2に記載の画像特定装置。The image specifying device according to claim 2, wherein the storage control unit stores the first time information acquired by the acquiring unit and the image specified by the image specifying unit in association with each other in the storage unit. .
前記記憶制御手段は、前記取得手段により取得された前記第一の時刻情報、前記第二の計時手段により取得された前記第二の時刻情報、及び画像特定手段により特定された画像を対応付けて記憶手段に記憶させる請求項3又は4に記載の画像特定装置。The storage control unit associates the first time information acquired by the acquisition unit, the second time information acquired by the second time measuring unit, and the image specified by the image specifying unit. The image specifying device according to claim 3 or 4, wherein the image specifying device is stored in a storage unit.
前記撮像手段により撮像される複数の画像から、前記第一の情報に基づいて前記被写体の一連の動作が撮像された画像から前記所定数の画像を選択する選択手段、Selection means for selecting the predetermined number of images from images obtained by imaging a series of operations of the subject based on the first information from a plurality of images captured by the imaging means;
を更に備える請求項1から8の何れか1項に記載の画像特定装置。The image specifying device according to claim 1, further comprising:
送信側端末は、
撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられ、当該被写体の動きに対応する第一の情報を出力するセンサと、
前記センサにより出力された情報を前記受信側端末に送信する送信手段と、を備え、
前記受信側端末は、
前記送信手段により対応付けて送信された前記センサにより出力された第一の情報に基づいて、前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析し、前記被写体の特定の動作に対応する画像を特定する特定手段と、
を備える画像特定システム。 An image identification system comprising a transmission side terminal and a reception side terminal,
The sending terminal
A sensor attached to a subject imaged by the imaging means or a tool held by the subject and outputting first information corresponding to the movement of the subject;
The information output by the pre-Symbol sensor and a transmitting means for transmitting to said receiving terminal,
The receiving terminal is
Based on the first information output by the sensor is transmitted in association with the transmission means, from a plurality of images captured by the imaging unit, analyzes the image of a predetermined number corresponding to the first information and a specifying means for specifying an image corresponding to the specific operation of the subject,
An image identification system comprising:
前記センサの検出に対応する時刻を計時し第一の時刻情報を出力する第一の計時手段を更に備え、Further comprising first timing means for timing the time corresponding to the detection of the sensor and outputting first time information;
前記送信手段は、前記センサにより出力された第一の情報と前記第一の時刻情報とを対応付けて前記受信側端末に送信し、The transmission means associates the first information output by the sensor with the first time information and transmits the first information to the receiving terminal,
前記選択手段は前記送信手段により対応付けて送信された前記センサにより出力された第一の情報と前記第一の時刻情報とに基づいて、前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を選択する請求項12に記載の画像特定システム。The selection unit is configured to select, based on the first information output by the sensor transmitted in association with the transmission unit and the first time information, from a plurality of images captured by the imaging unit. The image specifying system according to claim 12, wherein a predetermined number of images corresponding to one piece of information is selected.
前記被写体を撮像した画像から前記被写体の動作の状態を判定する状態判定手段と、
前記撮像手段の撮像に対応する時刻を計時し第2の時刻情報を出力する第2の計時手段を更に備え、
前記特定手段は、更に、前記状態判定手段による判定結果に基づいて、前記画像の第2の時刻情報に前記第1の時刻情報を対応付けることで、前記被写体の特定の状態に対応する画像を特定する請求項13に記載の画像特定システム。 The receiving terminal is
State determination means for determining the state of operation of the subject from an image obtained by imaging the subject;
A second time measuring means for measuring the time corresponding to the image pickup by the image pickup means and outputting second time information;
The specifying unit further specifies the image corresponding to the specific state of the subject by associating the first time information with the second time information of the image based on the determination result by the state determining unit. The image specifying system according to claim 13 .
前記撮像部により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析して、前記所定数の画像から当該被写体の特定の動きに対応する画像を特定する工程と、Analyzing a predetermined number of images corresponding to the first information from a plurality of images captured by the imaging unit, and identifying an image corresponding to a specific movement of the subject from the predetermined number of images; ,
を含む画像特定方法。An image specifying method including:
前記送信側端末が、撮像手段により撮像される被写体又は当該被写体が把持する用具に取り付けられたセンサにより、当該被写体の動きに対応する第一の情報を出力する工程と、
前記センサにより出力された情報を前記受信側端末に送信する工程と、
前記送信手段により対応付けて送信された前記センサにより出力された第一の情報に基づいて、前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析し、前記被写体の特定の動作に対応する画像を特定する工程と、を含む画像特定方法。 An image identification method in an image identification system comprising a transmission side terminal and a reception side terminal,
A step of outputting first information corresponding to the movement of the subject by a sensor attached to the subject imaged by the imaging means or a tool held by the subject;
And transmitting the information output by said sensor to said receiving terminal,
Analyzing a predetermined number of images corresponding to the first information from a plurality of images captured by the imaging unit based on the first information output by the sensor transmitted in association with the transmission unit. And specifying an image corresponding to a specific operation of the subject .
撮像手段に撮像される被写体又は当該被写体が把持する用具に取り付けられるセンサから、当該被写体の動きに対応する第一の情報を取得する取得手段、
前記撮像手段により撮像される複数の画像から、前記第一の情報に対応する所定数の画像を解析して、前記所定数の画像から当該被写体の特定の動きに対応する画像を特定する特定手段、
として機能させるためのプログラム。 A computer having imaging means ;
Acquisition means for acquiring first information corresponding to a movement of the subject from a subject imaged by the imaging means or a sensor attached to a tool held by the subject;
A specifying unit that analyzes a predetermined number of images corresponding to the first information from a plurality of images captured by the imaging unit and specifies an image corresponding to a specific movement of the subject from the predetermined number of images. ,
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013059622A JP5920264B2 (en) | 2013-03-22 | 2013-03-22 | Image identification device, image identification system, image identification method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013059622A JP5920264B2 (en) | 2013-03-22 | 2013-03-22 | Image identification device, image identification system, image identification method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014183897A JP2014183897A (en) | 2014-10-02 |
JP5920264B2 true JP5920264B2 (en) | 2016-05-18 |
Family
ID=51832085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013059622A Active JP5920264B2 (en) | 2013-03-22 | 2013-03-22 | Image identification device, image identification system, image identification method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5920264B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328839A1 (en) * | 2013-12-24 | 2016-11-10 | Sony Corporation | Image processing apparatus and image processing method |
JP2016036680A (en) * | 2014-08-11 | 2016-03-22 | セイコーエプソン株式会社 | Photographing control method, photographing control device, photographing control system, and program |
WO2016056449A1 (en) * | 2014-10-10 | 2016-04-14 | 富士通株式会社 | Skill determination program, skill determination method, skill determination device, and server |
CN107106900A (en) * | 2015-01-15 | 2017-08-29 | 精工爱普生株式会社 | Detection means, detecting system, motion analysis system, recording medium and analysis method |
KR102000245B1 (en) * | 2018-04-24 | 2019-07-15 | 주식회사 유라이크 | User's Moving Picture Editing Method, Method for Managing Moving Picture of User's Motion, Managing Server Used Therein |
JP6938030B2 (en) * | 2018-10-26 | 2021-09-22 | 株式会社テクノクラフト | Golf club swing analysis system and swing analysis program |
JP6978025B1 (en) * | 2021-06-30 | 2021-12-08 | 丸井 智敬 | Batting support system for hitters |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4143389B2 (en) * | 2002-11-22 | 2008-09-03 | キヤノン株式会社 | Video recording device |
JP2008067219A (en) * | 2006-09-08 | 2008-03-21 | Sony Corp | Imaging apparatus and imaging method |
JP2009106323A (en) * | 2007-10-26 | 2009-05-21 | Yamaha Corp | Motion form evaluation device and motion form evaluation program |
US8941723B2 (en) * | 2010-08-26 | 2015-01-27 | Blast Motion Inc. | Portable wireless mobile device motion capture and analysis system and method |
JP5761505B2 (en) * | 2011-06-09 | 2015-08-12 | セイコーエプソン株式会社 | Swing analysis apparatus, swing analysis system, swing analysis method, swing analysis program, and recording medium |
JP5994306B2 (en) * | 2012-03-15 | 2016-09-21 | ソニー株式会社 | Information processing apparatus, information processing system, and program |
-
2013
- 2013-03-22 JP JP2013059622A patent/JP5920264B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014183897A (en) | 2014-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5920264B2 (en) | Image identification device, image identification system, image identification method, and program | |
US10070046B2 (en) | Information processing device, recording medium, and information processing method | |
JP6079089B2 (en) | Image identification system, image identification method, image identification apparatus, and program | |
JP4983784B2 (en) | Imaging system, image presentation method, control device, program | |
KR101645806B1 (en) | Image processing apparatus, image processing method and computer readable recording medium having program thereof | |
KR101446641B1 (en) | Image processing apparatus, image processing method, and storage medium | |
CN109120844B (en) | Image pickup control device, image pickup control method, and storage medium | |
KR102553278B1 (en) | Image processing apparatus, analysis system, method for processing images, and program | |
JP2011120061A5 (en) | ||
JP5880135B2 (en) | Detection apparatus, detection method, and program | |
US20160088219A1 (en) | Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium | |
JP2014116878A (en) | Imaging device and imaging method | |
JP6787072B2 (en) | Image processing equipment, analysis system, image processing method and program | |
JP6701677B2 (en) | Imaging device, image evaluation method for imaging device, and image evaluation program for imaging device | |
JP5942844B2 (en) | Display control apparatus, display control system, display control method, and program | |
JP6885133B2 (en) | Image processing equipment, imaging system, image processing method and program | |
KR20160057971A (en) | Image processing apparatus, image processing method, and program | |
JP7188422B2 (en) | Image processing device, analysis system, image processing method and program | |
JP2015068973A (en) | Imaging control device, imaging control method, and program | |
JP7069953B2 (en) | Electronic devices, partial identification methods for operation data, and programs | |
JP6237201B2 (en) | Imaging apparatus, imaging system, imaging method, and program | |
JP6322964B2 (en) | Imaging apparatus, imaging control method, and program | |
JP6115656B2 (en) | Image processing apparatus, image processing method, and program | |
JP5747889B2 (en) | Visible light communication system, light emitting unit, imaging device, and visible light communication method | |
JP2016066994A (en) | Imaging device, information transmission device, imaging control method, information transmission method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150728 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5920264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |