JP5821236B2 - Image processing apparatus, synchronization method, and program - Google Patents

Image processing apparatus, synchronization method, and program Download PDF

Info

Publication number
JP5821236B2
JP5821236B2 JP2011077393A JP2011077393A JP5821236B2 JP 5821236 B2 JP5821236 B2 JP 5821236B2 JP 2011077393 A JP2011077393 A JP 2011077393A JP 2011077393 A JP2011077393 A JP 2011077393A JP 5821236 B2 JP5821236 B2 JP 5821236B2
Authority
JP
Japan
Prior art keywords
image data
still image
subjects
swing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011077393A
Other languages
Japanese (ja)
Other versions
JP2012213020A (en
Inventor
到 中川
到 中川
恵一 谷岡
恵一 谷岡
佐藤 隆雄
隆雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011077393A priority Critical patent/JP5821236B2/en
Publication of JP2012213020A publication Critical patent/JP2012213020A/en
Application granted granted Critical
Publication of JP5821236B2 publication Critical patent/JP5821236B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

本発明は、画像処理装置、同期方法及びプログラムに関する。 The present invention relates to an image processing apparatus , a synchronization method, and a program.

従来、複数の被写体の各々を撮像した複数の動画像データを同期させて表示させるため、各々の動画像データの再生内容における所定のタイミング(例えば、所定の動画フレーム等)を同期タイミングとし、同期タイミングを同時に再生させるようにすることで同期タイミング以後の複数の動画像データの再生を同期させる動画再生方法がある(例えば、特許文献1及び特許文献2参照)。   Conventionally, in order to display a plurality of moving image data obtained by imaging each of a plurality of subjects in synchronization, a predetermined timing (for example, a predetermined moving image frame) in the reproduction content of each moving image data is set as a synchronization timing, and synchronization is performed. There is a moving image reproduction method in which the reproduction of a plurality of moving image data after the synchronization timing is synchronized by simultaneously reproducing the timing (see, for example, Patent Document 1 and Patent Document 2).

特開2006−80735号公報JP 2006-80735 A 特開2002−344897号公報JP 2002-344897 A

しかしながら、従来の動画再生方法では、複数の被写体の各々を撮像した複数の動画像データを十分に同期させることができない場合があった。
例えば、所定の時間連続した所定の動作を行う複数の被写体の各々を撮像した複数の動画像データを同期させるにあたり、各被写体により行われる所定の動作の進行速度が異なる場合、同期を取ったタイミングから再生が進むにつれて次第に各々の動画像データにおける各被写体の動作がずれ、各被写体の動作が同期しない状態となる。一方、このような複数の動画像データにおいて、動画像データの終了タイミング(例えば、所定の動作の完了タイミング等)で複数の動画像データを同期させた場合、所定の動作の開始タイミングがずれるので、やはり各被写体の動作は同期しない。
However, in the conventional moving image reproduction method, there are cases where a plurality of moving image data obtained by imaging each of a plurality of subjects cannot be sufficiently synchronized.
For example, when synchronizing a plurality of moving image data obtained by imaging each of a plurality of subjects performing a predetermined operation for a predetermined time, if the progress speed of a predetermined operation performed by each subject is different, the synchronization timing As the playback progresses, the operation of each subject in each moving image data gradually shifts, and the operation of each subject is not synchronized. On the other hand, in such a plurality of moving image data, when a plurality of moving image data is synchronized at the end timing of moving image data (for example, the completion timing of a predetermined operation), the start timing of the predetermined operation is shifted. Again, the movement of each subject is not synchronized.

本発明の課題は、複数の被写体の各々を撮像した複数の動画像データに基づく画像の同期の精度をより高めることができる画像処理装置、同期方法及びプログラムを提供することである。 An object of the present invention is to provide an image processing device , a synchronization method, and a program that can further improve the accuracy of image synchronization based on a plurality of moving image data obtained by imaging each of a plurality of subjects.

上記課題を解決するため、本発明の画像処理装置は、撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる画像処理装置であって、前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する生成手段と、この生成手段により生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける分割手段と、この分割手段により分けられたグループ単位で、前記複数の被写体の静止画像データどうしを同期させる同期手段と、前記グループ単位で前記複数の被写体の各々の静止画像データの数に差がある場合、前記グループ単位で前記複数の被写体の各々の静止画像データの数を同一とするよう、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに、前記数の差に応じた数の追加の静止画像データを加える追加手段と、前記追加手段により追加の静止画像データを加える位置または方法を任意に選択する選択手段と、を備えることを特徴とする。 In order to solve the above problems, an image processing apparatus of the present invention is an image processing apparatus that synchronizes a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device, and each of the plurality of subjects by the imaging device. Generating means for generating a plurality of still image data from each of a plurality of moving image data obtained by capturing the image, and the plurality of still image data generated by the generating means in a plurality of groups provided in time series, respectively. A dividing unit, a synchronizing unit that synchronizes the still image data of the plurality of subjects in a group unit divided by the dividing unit, and a difference in the number of still image data of each of the plurality of subjects in the group unit. If there is a plurality of subjects, the number of the still image data of each of the plurality of subjects is the same for each group. Adding means for adding the additional still image data in a number corresponding to the difference in the plurality of still image data having a small number of the still image data, and a position or method for adding the additional still image data by the adding means Selecting means for arbitrarily selecting .

本発明によれば、複数の被写体の各々を撮像した複数の動画像データに基づく画像の同期の精度をより高めることができる。   According to the present invention, the accuracy of image synchronization based on a plurality of moving image data obtained by imaging each of a plurality of subjects can be further increased.

本発明の一実施形態による画像処理装置を含むゴルフスイング解析システムを示す図である。1 is a diagram showing a golf swing analysis system including an image processing device according to an embodiment of the present invention. ゴルフスイング解析システム及び画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of a golf swing analysis system and an image processing apparatus. 画像処理装置による画像処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image processing by an image processing apparatus. スイング対象抽出画面の一例を示す図である。図4(a)は、スイング対象画面の初期表示内容の一例を示す図である。図4(b)は、スイング開始の静止画像データを選択しているときのスイング対象画面の表示内容の一例を示す図である。図4(c)は、各種のタイミングに対応した静止画像データの選択が完了した後のスイング対象画面の表示内容の一例を示す図である。It is a figure which shows an example of a swing object extraction screen. FIG. 4A is a diagram illustrating an example of the initial display content of the swing target screen. FIG. 4B is a diagram illustrating an example of display contents of a swing target screen when still image data for starting swing is selected. FIG. 4C is a diagram illustrating an example of display contents on the swing target screen after selection of still image data corresponding to various timings is completed. 基準位置情報テーブルの一例を示す図である。図5(a)は初期化された状態の基準位置情報テーブルの一例を示す図である。図5(b)は正面静止画像に対するスイング対象抽出後の基準位置情報テーブルの一例を示す図である。図5(c)は正面静止画像に対して後方静止画像及びボール静止画像を同期させた後の基準位置情報テーブルの一例を示す図である。It is a figure which shows an example of a reference | standard position information table. FIG. 5A shows an example of the reference position information table in an initialized state. FIG. 5B is a diagram illustrating an example of the reference position information table after the swing target is extracted from the front still image. FIG. 5C is a diagram illustrating an example of the reference position information table after the rear still image and the ball still image are synchronized with the front still image. 複数の被写体の基準位置情報テーブルの対応関係の一例を示す図である。It is a figure which shows an example of the correspondence of the reference | standard position information table of a some to-be-photographed object. 複数の被写体のゴルフスイングの静止画像データどうしを同期させた合成静止画像データの一例を示す図である。It is a figure which shows an example of the synthetic | combination still image data which synchronized still image data of the golf swing of a several subject. 図6に示す複数の被写体の基準位置情報テーブルに対応した第1〜第3パートの静止画像データの数の一例を示す図である。It is a figure which shows an example of the number of the still image data of the 1st-3rd part corresponding to the reference | standard position information table of several subjects shown in FIG. パートの冒頭に追加の静止画像データを加える場合の一例を模式的に示す図である。It is a figure which shows typically an example in the case of adding additional still image data to the beginning of a part. パートの末尾に追加の静止画像データを加える場合の一例を模式的に示す図である。It is a figure which shows typically an example in the case of adding additional still image data to the tail of a part. パートの冒頭から末尾にかけて追加の静止画像データを振り分けて加える場合の一例を模式的に示す図である。It is a figure which shows typically an example in the case of adding and adding additional still image data from the beginning to the end of a part. パートの冒頭から末尾にかけて追加の静止画像データを振り分けて加える場合の処理の流れをスクリプトで示した場合の一例を示す図である。It is a figure which shows an example at the time of showing the flow of a process in the case of adding and adding additional still image data from the beginning to the end of a part by a script. パート単位のスイング画像同期の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a swing image synchronization process of a part unit. 冒頭追加処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an opening addition process. 末尾追加処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a tail addition process. 均等振分処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an equal distribution process. 図16に示す均等振分処理の流れの続きを示すフローチャートである。It is a flowchart which shows the continuation of the flow of the equal distribution process shown in FIG. 正面静止画像、後方静止画像及びボール静止画像を手動で同期させるための画面の一例を示す図である。It is a figure which shows an example of the screen for synchronizing a front still image, a back still image, and a ball still image manually.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明の一実施形態による画像処理装置10を含むゴルフスイング解析システム1を示す図である。ゴルフスイング解析システム1は、3台のカメラ2、3、4と、HUB5と、画像処理装置10と、プリンタ6と、ディスクライタ7と、を備える。   FIG. 1 is a diagram showing a golf swing analysis system 1 including an image processing apparatus 10 according to an embodiment of the present invention. The golf swing analysis system 1 includes three cameras 2, 3, 4, a HUB 5, an image processing device 10, a printer 6, and a disc writer 7.

カメラ2、3、4は、ゴルフスイングを行う被写体(α又はβ)又はゴルフボールを載置するピンP及びその付近をそれぞれ異なる角度から撮像する。
なお、以下の説明において、被写体から見てゴルフボールが飛翔する方向を前方、その反対側を後方とし、さらに、被写体から見てゴルフボールが載置される側を正面とする。
The cameras 2, 3, and 4 capture images of a subject (α or β) performing a golf swing or a pin P on which a golf ball is placed and the vicinity thereof from different angles.
In the following description, the direction in which the golf ball flies as viewed from the subject is the front, the opposite side is the rear, and the side on which the golf ball is placed as viewed from the subject is the front.

カメラ2はゴルフスイングを行うヒトである被写体の正面側から被写体を撮像し、カメラ3は同被写体の後方から被写体を撮像する。カメラ4は被写体の正面側からピンP及びその付近を撮像することで、ゴルフボール及びゴルフボールを打つゴルフクラブWのヘッドを撮像する。カメラ2、3、4は撮像画像を動画像データとして出力する。   The camera 2 images the subject from the front side of the subject who is a person performing a golf swing, and the camera 3 images the subject from behind the subject. The camera 4 images the pin P and its vicinity from the front side of the subject, thereby imaging the golf ball and the head of the golf club W that hits the golf ball. The cameras 2, 3, and 4 output the captured image as moving image data.

カメラ2、3、4は、動画撮像時の秒間撮像フレーム数(frame per second:fps)を所定の値(例えば、300〜1200[fps])とすることができる。本実施形態において、カメラ2、3は300[fps]、カメラ4は1200[fps]で撮像を行う。   The cameras 2, 3, and 4 can set the number of frames captured per second (frames per second: fps) to a predetermined value (for example, 300 to 1200 [fps]) when capturing a moving image. In this embodiment, the cameras 2 and 3 perform imaging at 300 [fps], and the camera 4 performs imaging at 1200 [fps].

HUB5は、3台のカメラ2、3、4と画像処理装置10との間に介在する集線装置であり、3台のカメラ2、3、4と画像処理装置10とを接続する。   The HUB 5 is a line concentrator interposed between the three cameras 2, 3, 4 and the image processing apparatus 10, and connects the three cameras 2, 3, 4 and the image processing apparatus 10.

画像処理装置10は、撮像装置(例えば、3台のカメラ2、3、4等)により複数の被写体(例えば、α及びβ)の各々を撮像した複数の画像データを同期させる画像処理装置である。画像処理装置10は、3台のカメラ2、3、4により撮像された動画像データを記憶し、当該動画像データを基にした複数の静止画像データに対して各種の処理を行う。その詳細については後述する。   The image processing apparatus 10 is an image processing apparatus that synchronizes a plurality of image data obtained by imaging each of a plurality of subjects (for example, α and β) by an imaging apparatus (for example, three cameras 2, 3, 4, etc.). . The image processing apparatus 10 stores moving image data captured by the three cameras 2, 3, and 4, and performs various processes on a plurality of still image data based on the moving image data. Details thereof will be described later.

プリンタ6は、印刷媒体(例えば紙等)に対して印刷を施す。プリンタ6は、例えばページプリンタ等の印刷装置により構成される。
ディスクライタ7は、画像処理装置10の制御によりデジタルデータをDVDメディアに書き込む機器である。
The printer 6 performs printing on a print medium (for example, paper). The printer 6 is configured by a printing device such as a page printer.
The disc writer 7 is a device that writes digital data to a DVD medium under the control of the image processing apparatus 10.

次に、画像処理装置10の構成について説明する。図2は、ゴルフスイング解析システム1及び画像処理装置10の構成を示すブロック図である。
画像処理装置10は、CPU11と、RAM12と、ROM13と、記憶装置14と、入力装置15と、表示装置16と、インターフェース17、18、19と、これらの各構成を相互接続するバス20と、を有する。
本実施形態において、画像処理装置10は、例えば、パーソナルコンピュータ、デスクトップコンピュータ等の情報処理装置により構成される。
Next, the configuration of the image processing apparatus 10 will be described. FIG. 2 is a block diagram illustrating configurations of the golf swing analysis system 1 and the image processing device 10.
The image processing apparatus 10 includes a CPU 11, a RAM 12, a ROM 13, a storage device 14, an input device 15, a display device 16, interfaces 17, 18, and 19, and a bus 20 that interconnects these components, Have
In the present embodiment, the image processing apparatus 10 is configured by an information processing apparatus such as a personal computer or a desktop computer.

CPU11は、ROM13や記憶装置14からプログラム、データ等を読み込んで実行処理すると共に、画像処理装置10の各部や画像処理装置10に接続されている各構成の動作制御を行う。CPU11が読み込んだプログラム、データ等及びCPU11の処理において一時的に生じたパラメータ等はRAM12に格納される。   The CPU 11 reads a program, data, and the like from the ROM 13 and the storage device 14 and executes them, and controls the operation of each unit of the image processing apparatus 10 and each component connected to the image processing apparatus 10. A program, data, and the like read by the CPU 11 and parameters temporarily generated in the processing of the CPU 11 are stored in the RAM 12.

ROM13は、例えばROMチップ等であり、プログラム、データ等を記憶する。
記憶装置14は、例えばハードディスクドライブやフラッシュメモリ等であり、プログラム、データ等を記憶することができる。記憶装置14は、カメラ2、3、4により撮像された複数の動画像データや、当該動画像データに基づいて生成される複数の静止画像データ、基準位置情報テーブル、複数の動画像データの各々のfps等を記憶するための記憶領域を有している。
また、ROM13や記憶装置14は、CPU11が行う各種の処理に応じたプログラムを記憶している。
The ROM 13 is a ROM chip, for example, and stores programs, data, and the like.
The storage device 14 is, for example, a hard disk drive or a flash memory, and can store programs, data, and the like. The storage device 14 includes a plurality of moving image data captured by the cameras 2, 3, and 4, a plurality of still image data generated based on the moving image data, a reference position information table, and a plurality of moving image data. Storage area for storing the fps and the like.
The ROM 13 and the storage device 14 store programs corresponding to various processes performed by the CPU 11.

入力装置15は、例えばキーボードやマウス等であり、ユーザの手動による画像処理装置10に対する入力操作を受け付ける。   The input device 15 is, for example, a keyboard or a mouse, and accepts an input operation to the image processing device 10 manually by the user.

表示装置16は、例えば液晶ディスプレイや有機エレクトロルミネッセンス(Electro-Luminescence:EL)ディスプレイ等により構成され、画像処理装置10の画面出力処理に応じた内容を表示する。   The display device 16 is composed of, for example, a liquid crystal display, an organic electroluminescence (Electro-Luminescence: EL) display, or the like, and displays contents according to the screen output processing of the image processing device 10.

インターフェース17、18、19は、例えばUSB(Universal Serial Bus)等のバスインターフェースであり、画像処理装置10と外部機器との接続を可能にする。カメラ2、3、4はHUB5を介してインターフェース17に接続され、プリンタ6はインターフェース18に接続され、ディスクライタ7はインターフェース19に接続される。   The interfaces 17, 18, and 19 are bus interfaces such as USB (Universal Serial Bus), for example, and enable connection between the image processing apparatus 10 and an external device. The cameras 2, 3, 4 are connected to the interface 17 via the HUB 5, the printer 6 is connected to the interface 18, and the discwriter 7 is connected to the interface 19.

次に、画像処理装置10により行われる処理について説明する。図3は、画像処理装置10による画像処理の流れの一例を示すフローチャートである。   Next, processing performed by the image processing apparatus 10 will be described. FIG. 3 is a flowchart showing an example of the flow of image processing by the image processing apparatus 10.

まず、3つのカメラ2、3、4が、3方向からの撮影を行う(ステップS1)。撮影は、ユーザによる所定の入力操作により、画像処理装置10が3台のカメラ2、3、4を動作させて被写体を撮像する処理である。3台のカメラ2、3、4により撮像された動画像データは、画像処理装置10に転送される。画像処理装置10は転送された動画像データを記憶装置14に記憶する。   First, the three cameras 2, 3, 4 perform photographing from three directions (step S1). Shooting is a process in which the image processing apparatus 10 operates the three cameras 2, 3, and 4 to image a subject by a predetermined input operation by a user. The moving image data captured by the three cameras 2, 3, 4 is transferred to the image processing apparatus 10. The image processing apparatus 10 stores the transferred moving image data in the storage device 14.

以下の説明において、カメラ2の撮像による動画像データに関するものに「FR」を付加し、カメラ3の撮像による動画像データに関するものに「BK」を付加し、カメラ4の撮像による動画像データに関するものに「BL」を付加して説明する。
また、本実施形態では、カメラ2、3、4により、二人(α、β)のゴルフスイングがそれぞれ一回ずつ撮影される。画像処理装置10の記憶装置14は、二人のゴルフスイングを撮像した各々の動画像データを記憶する。以下、αのゴルフスイングを撮像した動画像データに関するものに「α_」を付加し、βのゴルフスイングを撮像した動画像データに関するものに「β_」を付加して説明する。
In the following description, “FR” is added to data related to moving image data captured by the camera 2, “BK” is added to data related to moving image data captured by the camera 3, and moving image data captured from the camera 4 is captured. The description will be made with “BL” added to the object.
In the present embodiment, the golf swings of two people (α, β) are each photographed once by the cameras 2, 3, 4. The storage device 14 of the image processing apparatus 10 stores each moving image data obtained by imaging two golf swings. In the following description, “α_” is added to the data related to the moving image data obtained by imaging the golf swing of α, and “β_” is added to the data related to the moving image data acquired of the golf swing of β.

次に、画像処理装置10は静止画像生成を行う(ステップS2)。静止画像生成は、カメラ2、3、4により撮像された複数の被写体(α、β)の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する処理である。生成された複数の静止画像データは記憶装置14に記憶される。   Next, the image processing apparatus 10 generates a still image (step S2). Still image generation is a process of generating a plurality of still image data from each of a plurality of moving image data obtained by imaging each of a plurality of subjects (α, β) captured by the cameras 2, 3, and 4. The generated still image data is stored in the storage device 14.

静止画像データの各々には、ゴルフスイングが撮像された人物を示す符号(例えば、α_又はβ_)と、基となった動画像データを示す符号(例えば、「FR」、「BK」又は「BL」等)と、番号と、を付したファイル名が付与される。番号は、例えば、初期値1の連番であり、動画像データの最初のフレームに対応する静止画像データのファイル名に1が付与され、以降継続して付与されるフレームの番号は順次増加する。
例えば、αを撮像した動画像データFRから生成された静止画像データを例に挙げると、「α_FR0000001」、「α_FR0000002」…のように、所定の桁数(例えば、7桁)の連番による番号が末尾に付されたファイル名が付与される。
動画像データBK、動画像データBLや、βの動画像データの各々に基づいて生成された静止画像データについても同様である。以下の説明において、静止画像データの各々に付与される番号を「静止画像の番号」と記載し、動画像データFRから生成された静止画像データを「正面静止画像」と記載し、動画像データBKから生成された静止画像データを「後方静止画像」と記載し、動画像データBLから生成された静止画像データを「ボール静止画像」と記載する。
In each of the still image data, a code (for example, α_ or β_) indicating a person whose golf swing has been imaged and a code (for example, “FR”, “BK”, or “BL” indicating the moving image data used as a base) ”And the like, and a file name with a number. The number is, for example, a serial number with an initial value of 1, and 1 is assigned to the file name of the still image data corresponding to the first frame of the moving image data, and the number of frames that are continuously added subsequently increases sequentially. .
For example, in the case of still image data generated from moving image data FR obtained by imaging α, for example, “α_FR0000001”, “α_FR0000002”, etc., a number by a predetermined number of digits (for example, 7 digits). The file name with the suffix is given.
The same applies to the still image data generated based on each of the moving image data BK, the moving image data BL, and the β moving image data. In the following description, the number assigned to each of the still image data is described as “still image number”, the still image data generated from the moving image data FR is described as “front still image”, and the moving image data Still image data generated from BK is referred to as “rear still image”, and still image data generated from moving image data BL is referred to as “ball still image”.

生成される静止画像データの枚数は、動画像データの各々のfpsに応じる。例えば、300[fps]の動画像データを静止画像データにした場合、1秒間の動画像データに対応した静止画像データは300[枚]生成される。つまり、一の静止画像データは、動画像データにおける一の画像フレームに対応する。
画像処理装置10は、各カメラのfpsを管理、記憶する。具体的には、カメラ2のfpsをFRfpsの値とし、カメラ3のfpsをBKfpsの値とし、カメラ4のfpsをBLfpsの値として記憶装置14に記憶する。
The number of still image data generated depends on the fps of each moving image data. For example, when moving image data of 300 [fps] is used as still image data, 300 [images] of still image data corresponding to moving image data for one second is generated. That is, one still image data corresponds to one image frame in the moving image data.
The image processing apparatus 10 manages and stores the fps of each camera. Specifically, the fps of the camera 2 is set as the FRfps value, the fps of the camera 3 is set as the BKfps value, and the fps of the camera 4 is stored in the storage device 14 as the BLfps value.

次に、ユーザの入力内容に基づいて、画像処理装置10はスイング対象抽出を行う(ステップS3)。スイング対象抽出は、α、βの複数の静止画像データのうち、ゴルフスイングの開始から終了までを撮像した複数の静止画像データを特定する処理である。これは、カメラ2、3、4による動画像データの撮像時にゴルフスイングと関係がない撮像画像が含まれることがあるために行われる処理である。ゴルフスイング中と関係がない撮像画像として、例えば被写体が姿勢を整える動作を行っている最中や、被写体がその他の動作(例えば、煙草を吸う等)を行っている最中の撮像画像等が挙げられる。   Next, the image processing apparatus 10 performs swing target extraction based on the input content of the user (step S3). Swing target extraction is a process of identifying a plurality of still image data obtained by imaging from the start to the end of a golf swing among a plurality of still image data of α and β. This is a process performed because a captured image that is not related to the golf swing may be included when moving image data is captured by the cameras 2, 3, and 4. As a captured image that is not related to the golf swing, for example, a captured image while the subject is performing an operation of adjusting the posture, or while the subject is performing other operations (for example, smoking a cigarette) Can be mentioned.

図4を用いて、スイング対象抽出の具体的内容の一例を示す。
図4(a)は、スイング対象抽出画面の一例を示す図である。図4(a)は、スイング対象画面の初期表示内容の一例を示す。図4(b)は、スイング開始の静止画像データを選択しているときのスイング対象画面の表示内容の一例を示す。図4(c)は、各種のタイミングに対応した静止画像データの選択が完了した後のスイング対象画面の表示内容の一例を示す。
An example of specific contents of the swing target extraction will be described with reference to FIG.
FIG. 4A is a diagram illustrating an example of a swing target extraction screen. FIG. 4A shows an example of the initial display contents of the swing target screen. FIG. 4B shows an example of the display contents of the swing target screen when the swing start still image data is selected. FIG. 4C shows an example of display contents on the swing target screen after selection of still image data corresponding to various timings is completed.

図4(a)〜(c)に示すように、スイング対象抽出画面は、複数の静止画像データをグループ単位で分ける境目に対応する各種のタイミングの名称(例えば、スイング開始、スイングのトップ、インパクト、スイング終了等)と、これらの各種のタイミングに対応する静止画像データを選択、決定、確認するための静止画像表示部と、静止画像表示部に表示された静止画像データを選択するためのスクロールバー30と、を表示項目に含む。   As shown in FIGS. 4A to 4C, the swing target extraction screen displays various timing names (for example, swing start, swing top, impact) corresponding to the boundary where a plurality of still image data is divided into groups. , Swing end, etc.), still image display unit for selecting, determining and confirming still image data corresponding to these various timings, and scroll for selecting still image data displayed on the still image display unit Bar 30 is included in the display items.

なお、「スイング開始」は、被写体がゴルフボールを打つ前の動作としてゴルフクラブWを後方経由で振り上げる動作(テークバック)を開始する動作シーンである。「スイングのトップ(以下の記載及び図面では、単に「トップ」と記載)」は、被写体がゴルフボールを打つため、テークバック後にゴルフクラブWを振り下ろす動作を開始する動作シーンである。「インパクト」は、ゴルフクラブWのヘッドがゴルフボールを打つ瞬間(インパクト瞬間)のシーンである。「スイング終了」は、ゴルフボールを打った後、被写体がゴルフクラブWを前方へ振りぬく動作の終了(フォロースルー終了)シーンである。   Note that “swing start” is an operation scene in which an operation (takeback) of swinging up the golf club W via the rear is started as an operation before the subject hits the golf ball. The “top of swing (simply described as“ top ”in the following description and drawings)” is an operation scene in which an operation of swinging down the golf club W after takeback is started because the subject hits the golf ball. “Impact” is a scene at the moment when the head of the golf club W hits the golf ball (impact moment). The “swing end” is a scene where the subject swings the golf club W forward after hitting the golf ball (end of follow-through).

スクロールバー30は、矢印ボタン31、32やスクロールゲージ34、スクロールゲージ34の移動範囲に対応するバー33等を含む。スクロールゲージ34は、矢印ボタン31、32に対する操作や、スクロールゲージ34の左右に位置するバー33に対する操作、スクロールゲージ34を左右に移動させる操作等に応じて左右に移動する。そして、スクロールゲージ34の移動に応じて、フォーカスの当たった静止画像表示部に表示される静止画像データの表示内容が遷移する。図4(b)に示す例では、スクロールゲージ34の移動に応じて、ゴルフスイング中の被写体の姿勢が変化し、被写体により振られるゴルフクラブWの位置が変化する例を示している。
ここで、バー33の範囲は、カメラ2により撮像された動画像データから生成された一人(例えば、α又はβ)の全ての正面静止画像に対応する。
The scroll bar 30 includes arrow buttons 31 and 32, a scroll gauge 34, a bar 33 corresponding to the movement range of the scroll gauge 34, and the like. The scroll gauge 34 moves to the left and right in response to an operation on the arrow buttons 31 and 32, an operation on the bar 33 positioned on the left and right of the scroll gauge 34, and an operation for moving the scroll gauge 34 to the left and right. Then, according to the movement of the scroll gauge 34, the display content of the still image data displayed on the still image display unit that is in focus is changed. The example shown in FIG. 4B shows an example in which the posture of the subject during the golf swing changes and the position of the golf club W swung by the subject changes according to the movement of the scroll gauge 34.
Here, the range of the bar 33 corresponds to all the front still images of one person (for example, α or β) generated from the moving image data captured by the camera 2.

なお、図4(b)では、スイング開始の静止画像表示部に対する選択操作を例示しているが、ユーザは、トップ、インパクト及びスイング終了についても同様に各々のタイミングに対応する静止画像データの選択を行うことができ、図4(c)に示すように、各種のタイミングに応じた静止画像データを特定することができる。つまり、ユーザは、フォーカスを当てる静止画像表示部の変更と、スクロールバー30に対する入力操作とにより、各種のタイミング(例えば、スイング開始、トップ、インパクト、スイング終了等)に応じた正面静止画像を特定することができる。   FIG. 4B illustrates the selection operation for the still image display unit at the start of the swing, but the user selects the still image data corresponding to each timing for the top, impact, and end of the swing as well. As shown in FIG. 4C, still image data corresponding to various timings can be specified. That is, the user specifies a front still image corresponding to various timings (for example, swing start, top, impact, end of swing, etc.) by changing the focused still image display unit and performing an input operation on the scroll bar 30. can do.

また、スイング対象抽出において、CPU11は、基準位置情報テーブル情報を生成、更新する。
図5は、基準位置情報テーブルの一例を示す図である。図5(a)は初期化された状態の基準位置情報テーブルの一例を示す。図5(b)は正面静止画像に対するスイング対象抽出後の基準位置情報テーブルの一例を示す。図5(c)は正面静止画像に対して後方静止画像及びボール静止画像を同期させた後の基準位置情報テーブルの一例を示す。
In the swing target extraction, the CPU 11 generates and updates reference position information table information.
FIG. 5 is a diagram illustrating an example of the reference position information table. FIG. 5A shows an example of the reference position information table in an initialized state. FIG. 5B shows an example of the reference position information table after extraction of the swing target for the front still image. FIG. 5C shows an example of the reference position information table after the rear still image and the ball still image are synchronized with the front still image.

基準位置情報テーブルは、複数のカメラ2、3、4により撮像された動画像データに対応する各種の静止画像データ(例えば、正面静止画像、後方静止画像及びボール静止画像)のそれぞれについて、ゴルフスイング中の各種のタイミング(例えば、スイング開始、トップ、インパクト、スイング終了等)に対応する静止画像の番号を有するファイル名を記憶するテーブルである。基準位置情報テーブルは、記憶装置14に記憶される。   The reference position information table includes a golf swing for each of various still image data (for example, a front still image, a rear still image, and a ball still image) corresponding to moving image data captured by a plurality of cameras 2, 3, and 4. It is a table which memorize | stores the file name which has the number of the still image corresponding to various inside timings (for example, swing start, top, impact, swing end, etc.). The reference position information table is stored in the storage device 14.

スイング対象抽出の開始時に、CPU11は、例えば、初期化された状態の基準位置情報テーブルを生成する。初期化された状態の基準位置テーブルは、図5(a)に示すように、ゴルフスイング中の各種のタイミングと、各種の静止画像の先頭の番号を有する静止画像データのファイル名とを対応付けている。   At the start of the swing target extraction, the CPU 11 generates a reference position information table in an initialized state, for example. As shown in FIG. 5A, the reference position table in the initialized state associates various timings during golf swing with file names of still image data having the top numbers of various still images. ing.

スイング対象抽出画面に対するユーザの入力操作等により、正面静止画像についてスイング対象抽出が行われると、CPU11は、図5(b)に示すように、基準位置情報テーブルの正面静止画像の各種のタイミングに対応付けられた静止画像データのファイル名を、スイング対象抽出画面において特定された各種のタイミングの静止画像データに応じた番号を有するファイル名とする。   When the swing target extraction is performed on the front still image by a user input operation or the like on the swing target extraction screen, the CPU 11 performs various timings of the front still image of the reference position information table as illustrated in FIG. The file name of the associated still image data is a file name having a number corresponding to still image data at various timings specified on the swing target extraction screen.

そして、正面静止画像に対するスイング対象抽出が完了すると、CPU11は、以下の式(1)、(2)に基づいて、ゴルフスイング中の各種のタイミングに対応する後方静止画像及びボール静止画像の静止画像の番号を算出する。
BKno=FRno×BKfps/FRfps−(BKfps/FRfps)+1…(1)
BLno=FRno×BLfps/FRfps−(BLfps/FRfps)+1…(2)
上記の式(1)、(2)において、FRnoは、正面静止画像の静止画像の番号を示し、BKnoは、後方静止画像の静止画像の番号を示し、BLnoは、ボール静止画像の静止画像の番号を示す。本実施形態では、FRfpsとBKfpsとは同一(300[fps])であるので、各種のタイミングのFRnoとBKnoとは同一となる。また、BLfps(1200[fps])は、FRfps(300[fps])の4倍であるので、各種のタイミングのBLnoは、FRnoの4倍から3を減じた値(FRno×4−(4)+1)となる。
CPU11は、図5(c)に示すように、基準位置情報テーブルの後方静止画像及びボール静止画像の各種のタイミングに対応付けられた静止画像データのファイル名を、式(1)、(2)により算出されたBKno、BLnoに応じた静止画像の番号を有するファイル名とする。
Then, when the swing target extraction for the front still image is completed, the CPU 11 performs the rear still image and the ball still image corresponding to various timings during the golf swing based on the following equations (1) and (2). The number is calculated.
BKno = FRno × BKfps / FRfps− (BKfps / FRfps) +1 (1)
BLno = FRno × BLfps / FRfps− (BLfps / FRfps) +1 (2)
In the above equations (1) and (2), FRno indicates the still image number of the front still image, BKno indicates the still image number of the rear still image, and BLno indicates the still image number of the ball still image. Indicates the number. In this embodiment, since FRfps and BKfps are the same (300 [fps]), FRno and BKno at various timings are the same. Since BLfps (1200 [fps]) is four times FRfps (300 [fps]), BLno at various timings is a value obtained by subtracting three from four times FRno (FRno × 4- (4) +1).
As shown in FIG. 5C, the CPU 11 uses the expressions (1) and (2) for the file names of the still image data associated with various timings of the rear still image and the ball still image in the reference position information table. It is assumed that the file name has a still image number corresponding to BKno and BLno calculated by.

スイング対象抽出は、複数の被写体(例えば、α及びβ)の各々に対して個別に行われ、二人の各々により行われたゴルフスイングの各種のタイミングに対応する静止画像の番号を有するファイル名が特定される。
図6は、複数の被写体の基準位置情報テーブルの対応関係の一例を示す図である。
なお、CPU11は、複数の被写体(例えば、α及びβ)の基準位置情報テーブルを個別に生成、更新してもよいし、複数の被写体の情報を含む一つの基準位置情報テーブルを生成してもよい。
スイング対象抽出により決定された、複数の静止画像データに含まれる各種のタイミング(例えば、スイング開始、トップ、インパクト、スイング終了等)に対応する静止画像の番号は、複数の静止画像データをグループ単位で区切る基準となる。
The swing target extraction is performed individually for each of a plurality of subjects (for example, α and β), and a file name having a still image number corresponding to various timings of the golf swing performed by each of the two persons. Is identified.
FIG. 6 is a diagram illustrating an example of a correspondence relationship between the reference position information tables of a plurality of subjects.
The CPU 11 may individually generate and update the reference position information table for a plurality of subjects (for example, α and β), or may generate one reference position information table including information on a plurality of subjects. Good.
The number of the still image corresponding to various timings (for example, swing start, top, impact, end of swing, etc.) included in the plurality of still image data determined by the swing target extraction is obtained by grouping the plurality of still image data. It becomes the standard to separate with.

次に、画像処理装置10は、スイング画像同期を行う(ステップS4)。スイング画像同期は、複数の動画像データの各々から生成された複数の静止画像データをグループ単位で同期させ、同期された同一タイミングの複数の被写体(α、β)の各々の静止画像どうしを合成した複数の合成静止画像データを生成する処理である。スイング画像同期により、例えば、図7に示すように、複数の被写体(例えば、α及びβ)のゴルフスイングの静止画像データどうしを同期させた複数の合成静止画像データを、ゴルフスイングの開始(例えば、「スイング開始」のタイミング)から終了(例えば、「スイング終了」のタイミング)までについて得ることができる。スイング画像同期の詳細は、後述する。   Next, the image processing apparatus 10 performs swing image synchronization (step S4). Swing image synchronization synchronizes still images of multiple synchronized subjects (α, β) at the same timing by synchronizing multiple still image data generated from each of multiple moving image data in groups. This is a process for generating a plurality of synthesized still image data. With the swing image synchronization, for example, as shown in FIG. 7, a plurality of synthesized still image data obtained by synchronizing still image data of golf swings of a plurality of subjects (for example, α and β), , “Swing start” timing) to end (for example, “swing end” timing). Details of the swing image synchronization will be described later.

スイング画像同期の後、画像処理装置10は同期動画生成を行う(ステップS5)。同期動画生成は、スイング画像同期が完了した静止画像データを合成して一つの動画像データを生成する処理である。CPU11は、複数の被写体(例えば、α及びβ)のゴルフスイングを撮像した静止画像データを表示内容に含む複数の合成静止画像データを連続するフレームとした一つの動画像データを生成する。ここで、同期動画生成によって得られた一つの動画像データは、ディスクライタ7によりDVDビデオディスクのデータとしてDVDメディアに記録することができる。
また、画像処理装置10は、同期動画生成により生成された動画像データを再生する処理である同期動画再生を行う(ステップS6)。
After the swing image synchronization, the image processing apparatus 10 generates a synchronized moving image (step S5). Synchronized moving image generation is processing for generating one moving image data by combining still image data for which swing image synchronization has been completed. The CPU 11 generates one moving image data in which a plurality of synthesized still image data including still image data obtained by capturing golf swings of a plurality of subjects (for example, α and β) as display contents is a continuous frame. Here, one moving image data obtained by the synchronous moving image generation can be recorded on the DVD medium as data of the DVD video disk by the disc writer 7.
In addition, the image processing apparatus 10 performs synchronized moving image reproduction, which is processing for reproducing moving image data generated by the synchronized moving image generation (step S6).

次に、スイング画像同期の詳細について説明する。
スイング画像同期において、CPU11は、まず、α、βの各々の複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループ(例えば、第1パート、第2パート、第3パート等)に分ける。
具体的には、CPU11は、ゴルフスイングの各種のタイミングに基づいて、スイング開始からスイング終了までの複数の静止画像データを複数のグループに分割し、分割された各々のパートに含まれる静止画像データの数を特定する。
ここで、CPU11は、「スイング開始」のタイミングから「トップ」のタイミングまでの静止画像データのグループを、ゴルフクラブWのスイングの開始からスイングのトップまでの第1パートとする。また、CPU11は、「トップ」のタイミングから「インパクト」のタイミングまでの静止画像データのグループを、スイングのトップからボールへのインパクトまでの第2パートとする。また、CPU11は、「インパクト」のタイミングから「スイング終了」のタイミングまでの静止画像データのグループを、ボールへのインパクトからスイングの終了までの第3パートとする。CPU11は、二人のゴルフスイングの静止画像データの各々について、基準位置情報テーブルに設定されたファイル名の番号に基づいて、第1〜第3パートに含まれる静止画像データの数を特定する。
Next, details of swing image synchronization will be described.
In swing image synchronization, the CPU 11 first has a plurality of groups (for example, a first part, a second part, a third part, etc.) in which a plurality of still image data of α and β are provided in time series. Divide into
Specifically, the CPU 11 divides a plurality of still image data from the start of the swing to the end of the swing into a plurality of groups based on various timings of the golf swing, and the still image data included in each divided part. Identify the number of
Here, the CPU 11 sets a group of still image data from the timing of “start of swing” to the timing of “top” as the first part from the start of swing of the golf club W to the top of the swing. Further, the CPU 11 sets a group of still image data from the “top” timing to the “impact” timing as the second part from the top of the swing to the impact on the ball. Further, the CPU 11 sets the group of still image data from the timing of “impact” to the timing of “end of swing” as the third part from the impact on the ball to the end of the swing. The CPU 11 specifies the number of still image data included in the first to third parts based on the file name number set in the reference position information table for each of the still image data of the two golf swings.

以下、αのゴルフスイングの静止画像データのうち、第1パートに含まれる静止画像データの数をA1Nとし、第2パートに含まれる静止画像データの数をB1Nとし、第3パートに含まれる静止画像データの数をC1Nとする。また、βのゴルフスイングの静止画像データのうち、第1パートに含まれる静止画像データの数をA2Nとし、第2パートに含まれる静止画像データの数をB2Nとし、第3パートに含まれる静止画像データの数をC2Nとする。   Hereinafter, among the still image data of the golf swing of α, the number of still image data included in the first part is A1N, the number of still image data included in the second part is B1N, and the still image data included in the third part The number of image data is C1N. Moreover, among the still image data of the golf swing of β, the number of still image data included in the first part is A2N, the number of still image data included in the second part is B2N, and the still image data included in the third part The number of image data is C2N.

図8は、図6に示す複数の被写体の基準位置情報テーブルに対応した第1〜第3パートの静止画像データの数の一例を示す図である。
図8に示す例の場合、A2NはA1Nより大きく、B2NはB1Nより大きく、C2NはC1Nより大きい。以下の説明では、これらの大小関係に基づいて説明するが、一例であって、これに限られるものではない。例えば、パートの一部又は全部について、αの静止画像データの数の方がβの静止画像データの数よりも多くてもよい。
FIG. 8 is a diagram illustrating an example of the number of first to third part still image data corresponding to the reference position information table of the plurality of subjects illustrated in FIG. 6.
In the example shown in FIG. 8, A2N is larger than A1N, B2N is larger than B1N, and C2N is larger than C1N. In the following description, the description will be based on these magnitude relationships, but this is an example and the present invention is not limited to this. For example, for some or all of the parts, the number of still image data of α may be larger than the number of still image data of β.

各々のパートに含まれる静止画像データの数の特定後、CPU11は、グループ単位(パート単位)で、複数の被写体(α、β)の静止画像データどうしを同期させる。具体的には、CPU11は、例えば、カメラ2、3、4により撮像された二人のゴルフスイングの動画像データから生成された複数の静止画像データを、第1パート、第2パート、第3パートのパート単位で同期させる。   After specifying the number of still image data included in each part, the CPU 11 synchronizes still image data of a plurality of subjects (α, β) in group units (part units). Specifically, the CPU 11 uses, for example, a plurality of still image data generated from moving image data of two golf swings captured by the cameras 2, 3, and 4 as a first part, a second part, and a third part. Synchronize part by part.

パート単位で複数の静止画像データを同期させるにあたり、CPU11は、二人の各々を撮像した動画像データから生成された複数の静止画像データの数を、パート単位で比較する。
ここで、静止画像データの数が同一である場合、CPU11は、パートの冒頭の番号から末尾の番号まで、一対一の対応関係で二人の静止画像データを同期させるための対応付けを行う。例えば、仮に、第1パートに含まれる静止画像データの数が、α、β共に10[枚]であった場合、第1パートに含まれるαの1枚目の静止画像データとβの1枚目の静止画像データとを同期させ、αの2枚目の静止画像データとβの2枚目の静止画像データとを同期させ…、のように、冒頭(1枚目)から末尾(10枚目)までを一対一の対応関係で同期させる。
When synchronizing a plurality of still image data in part units, the CPU 11 compares the number of a plurality of still image data generated from moving image data obtained by imaging each of the two people in part units.
Here, when the number of still image data is the same, the CPU 11 performs association for synchronizing the two still image data in a one-to-one correspondence from the beginning number to the end number of the part. For example, if the number of still image data included in the first part is 10 [sheets] for both α and β, the first still image data of α included in the first part and one sheet of β Synchronize the still image data of the eye, synchronize the second still image data of α and the second still image data of β, and so on, from the beginning (first image) to the end (10 images) Synchronize with the one-to-one correspondence.

一方、CPU11は、グループ単位(パート単位)で複数の被写体(α、β)の各々の静止画像データの数に差がある場合、グループ単位で複数の被写体の各々の静止画像データの数を同一とするよう、複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに追加の静止画像データを加える補完処理を行う。
例えば、CPU11は、第1のパートにおける二人の静止画像データの数であるA1N、A2Nについて、A2NがA1Nより大きく、静止画像データの数に差があることから、静止画像データの数を同一とするよう、数が少ないA1Nに対応するαの第1パートに追加の静止画像データを加える。
On the other hand, when there is a difference in the number of still image data of the plurality of subjects (α, β) in the group unit (part unit), the CPU 11 sets the same number of still image data in the plurality of subjects in the group unit. As described above, a complementary process is performed in which additional still image data is added to a plurality of still image data having a small number of still image data of each of a plurality of subjects.
For example, the CPU 11 has the same number of still image data because A2N is larger than A1N and there is a difference in the number of still image data for A1N and A2N, which are the number of still image data of two people in the first part. As described above, additional still image data is added to the first part of α corresponding to the small number A1N.

CPU11は、パートの冒頭又は末尾あるいはパートの冒頭から末尾にかけて振り分けるように追加の静止画像データを加える。以下、順次説明する。   The CPU 11 adds additional still image data so as to distribute from the beginning or end of the part or from the beginning to the end of the part. Hereinafter, description will be made sequentially.

図9は、パートの冒頭に追加の静止画像データを加える場合の一例を模式的に示す図である。図9〜図11では、数が少ない方のαの静止画像データの数が「3」、数が多い方のβの静止画像データの数が「10」、静止画像データの数の差が「7」である場合について模式的に示している。また、追加された静止画像データにマスキングを施して示している。
パートの冒頭に追加の静止画像データを加える場合、CPU11は、複数の静止画像データの数の差に応じた数の追加の静止画像データを、パート単位で分割された複数の静止画像データのうち数が少ない複数の静止画像データのパートの冒頭に加える。
具体的には、CPU11は、数が少ないA1Nに対応するαの第1パートの冒頭の静止画を、静止画像データの数の差に応じて複製する。そして、CPU11は、複製された静止画像データを、数が多いA2Nに対応するβの第1パートの冒頭部分の複数の静止画像データと同期させる。これにより、例えば、図9に示すように、静止画像データの数の差(「7」)に応じたβの冒頭部分の複数の静止画像データ(β1〜β7)は、複製されたαの冒頭の静止画像データ(α1)と同期するよう対応付けられる。
また、CPU11は、静止画像データの数の差に応じたパートの冒頭部分に引き続く番号を有するファイル名の静止画像データを、一対一の対応関係で同期させる。これにより、例えば、図9に示すように、βの複数の静止画像データ(β8〜β10)と、αの複数の静止画像データ(α1〜α3)とが同期するよう対応付けられる。
FIG. 9 is a diagram schematically illustrating an example in which additional still image data is added to the beginning of a part. In FIG. 9 to FIG. 11, the smaller number of α still image data is “3”, the larger number of β still image data is “10”, and the difference in the number of still image data is “10”. 7 ”is schematically shown. Further, the added still image data is shown by being masked.
When adding additional still image data to the beginning of a part, the CPU 11 divides the number of additional still image data according to the difference in the number of still image data among the plurality of still image data divided in units of parts. It is added at the beginning of a part of a plurality of still image data having a small number.
Specifically, the CPU 11 duplicates the initial still image of the first part of α corresponding to the small number A1N according to the difference in the number of still image data. Then, the CPU 11 synchronizes the replicated still image data with a plurality of still image data at the beginning of the first part of β corresponding to A2N having a large number. Thus, for example, as shown in FIG. 9, a plurality of still image data (β1 to β7) at the beginning of β corresponding to the difference in the number of still image data (“7”) Are associated with the still image data (α1).
Further, the CPU 11 synchronizes still image data having a file name having a number subsequent to the beginning portion of the part corresponding to the difference in the number of still image data in a one-to-one correspondence relationship. Accordingly, for example, as illustrated in FIG. 9, the plurality of β still image data (β8 to β10) and the plurality of α still image data (α1 to α3) are associated with each other in synchronization.

より具体的には、CPU11は、数の多い方の静止画像データの数(例えば、A2Nの値)を基準として、冒頭から数えた数(静止画像のコマ数)が、数が多い方の静止画像データの数から数が少ない方の静止画像データの数を減じた値(例えば、A2N−A1Nの値)以下の静止画像データについて、その次に同期させる静止画像の番号のうち、数が少ない方の静止画像の番号を据え置き、数が多い方の静止画像の番号を順次進める。そして、CPU11は、数の多い方の静止画像データを基準として、冒頭から数えた数が、数が多い方の静止画像データの数から数が少ない方の静止画像データの数を減じた値に1を加えた値(例えば、A2N−A1N+1の値)以上であって、数が多い方の静止画像データの数から1を減じた値(例えば、A2N−1の値)以下の静止画像データについて、その次に同期させる静止画像の番号を、数が少ない方及び数が多い方の静止画像データの双方とも順次進める。   More specifically, the CPU 11 uses the larger number of still image data (for example, the value of A2N) as a reference, and the number of still images counted from the beginning (the number of still image frames) is the larger still image. For still image data equal to or less than a value obtained by subtracting the smaller number of still image data from the number of image data (for example, the value of A2N-A1N), the number of still image numbers to be synchronized next is small. The still image number of the one is deferred, and the number of the still image with the larger number is sequentially advanced. Then, the CPU 11 uses the still image data with the larger number as a reference, and the number counted from the beginning is a value obtained by subtracting the number of still image data with the smaller number from the number of still image data with the larger number. Still image data that is equal to or larger than a value obtained by adding 1 (for example, a value of A2N-A1N + 1) and less than a value obtained by subtracting 1 from the number of still image data having a larger number (for example, a value of A2N-1) Then, the number of the still image to be synchronized next is sequentially advanced for both the still image data having the smaller number and the still image data having the larger number.

図10は、パートの末尾に追加の静止画像データを加える場合の一例を模式的に示す図である。
パートの末尾に追加の静止画像データを加える場合、CPU11は、複数の静止画像データの数の差に応じた数の追加の静止画像データを、パート単位で分割された複数の静止画像データのうち数が少ない複数の静止画像データのパートの末尾に加える。
具体的には、CPU11は、静止画像データの数の差に応じたパートの冒頭部分から、数が少ない方の静止画像データの末尾の静止画像データまでの複数の静止画像データを、一対一の対応関係で同期させる。これにより、例えば、図10に示すように、βの複数の静止画像データ(β1〜β3)と、αの複数の静止画像データ(α1〜α3)とが同期するよう対応付けられる。
また、CPU11は、数が少ないA1Nに対応するαの第1パートの末尾の静止画を、静止画像データの数の差に応じて複製する。そして、CPU11は、複製された静止画像データを、数が多いA2Nに対応するβの第1パートの末尾部分の複数の静止画像データと同期させる。これにより、例えば、図10に示すように、静止画像データの数の差(「7」)に応じたβの末尾部分の複数の静止画像データ(β4〜β10)は、複製されたαの末尾の静止画像データ(α3)と同期するよう対応付けられる。
FIG. 10 is a diagram schematically illustrating an example in which additional still image data is added to the end of the part.
When adding additional still image data to the end of the part, the CPU 11 divides the number of additional still image data according to the difference in the number of still image data among the plurality of still image data divided in units of parts. It is added to the end of the parts of multiple still image data with a small number.
Specifically, the CPU 11 has a one-to-one correspondence with a plurality of still image data from the beginning of the part corresponding to the difference in the number of still image data to the still image data at the end of the smaller still image data. Synchronize in correspondence. Accordingly, for example, as illustrated in FIG. 10, the plurality of β still image data (β1 to β3) and the plurality of α still image data (α1 to α3) are associated with each other so as to be synchronized.
Further, the CPU 11 duplicates the still image at the end of the first part of α corresponding to the small number A1N according to the difference in the number of still image data. Then, the CPU 11 synchronizes the replicated still image data with a plurality of still image data at the end of the first part of β corresponding to A2N having a large number. Thus, for example, as shown in FIG. 10, a plurality of still image data (β4 to β10) at the end portion of β corresponding to the difference (“7”) in the number of still image data is stored at the end of the replicated α. Are associated with the still image data (α3).

より具体的には、CPU11は、数の多い方の静止画像データの数(例えば、A2Nの値)を基準として、冒頭から数えた数(静止画像のコマ数)が、数が少ない方の画像の数(例えば、A1Nの値)未満の静止画像データについて、その次に同期させる静止画像の番号を、数が少ない方及び数が多い方の静止画像データの双方とも順次進める。そして、CPU11は、数の多い方の静止画像データを基準として、冒頭から数えた数が、数が少ない方の画像の数(例えば、A1Nの値)以上であって、数が多い方の静止画像データの数から1を減じた値(例えば、A2N−1の値)以下の静止画像データについて、その次に同期させる静止画像の番号のうち、数が少ない方の静止画像の番号を据え置き、数が多い方の静止画像の番号を順次進める。   More specifically, the CPU 11 uses the larger number of still image data (for example, the value of A2N) as a reference, and the image counted from the beginning (the number of still images) has the smaller number. For still image data less than the number of images (for example, the value of A1N), the number of the still image to be synchronized next is sequentially advanced for both the smaller number and the larger number of still image data. Then, the CPU 11 uses the still image data with the larger number as a reference, and the number counted from the beginning is equal to or greater than the number of images with the smaller number (for example, the value of A1N) and the still image with the larger number For still image data equal to or less than the value obtained by subtracting 1 from the number of image data (for example, the value of A2N-1), the still image number with the smaller number among the still image numbers to be synchronized next is deferred, The number of the still image with the larger number is sequentially advanced.

図11は、パートの冒頭から末尾にかけて追加の静止画像データを振り分けて加える場合の一例を模式的に示す図である。図12は、パートの冒頭から末尾にかけて追加の静止画像データを振り分けて加える場合の処理の流れをスクリプトで示した場合の一例を示す図である。
まず、CPU11は、数が少ない方の冒頭の静止画像データと、数が多い方の棒等の静止画像データとを一対一の対応関係で同期させる。これにより、例えば、図11に示すように、βの冒頭の静止画像データ(β1)と、αの冒頭の静止画像データ(α1)とが同期するよう対応付けられる。
FIG. 11 is a diagram schematically illustrating an example in which additional still image data is distributed and added from the beginning to the end of the part. FIG. 12 is a diagram illustrating an example of a case where the flow of processing when additional still image data is distributed and added from the beginning to the end of a part is illustrated by a script.
First, the CPU 11 synchronizes the still image data at the beginning of the smaller number and the still image data of the larger number of bars and the like in a one-to-one correspondence relationship. Thus, for example, as shown in FIG. 11, the initial still image data (β1) of β and the initial still image data (α1) of α are associated with each other so as to be synchronized.

また、CPU11は、数が多い方を基準として、同期処理が完了された静止画像データの枚数のカウントを行う。カウントされた数値は、CPU11により設定された所定の変数(例えば、「k」)に格納され、管理される。   Further, the CPU 11 counts the number of still image data for which synchronization processing has been completed, based on the larger number. The counted numerical value is stored and managed in a predetermined variable (for example, “k”) set by the CPU 11.

次に、数が多い方の冒頭から2枚目の静止画像データと同期させる画像を決定するにあたり、CPU11は、所定の変数(例えば、「j」)を初期値1で設定し、以下の式(3)に基づいて別の変数(例えば、「Sj」)の値を算出する。
Sj=j×(A2N/A1N)…(3)
Next, in determining the image to be synchronized with the second still image data from the beginning of the larger number, the CPU 11 sets a predetermined variable (for example, “j”) with an initial value of 1, and uses the following formula: Based on (3), the value of another variable (for example, “Sj”) is calculated.
Sj = j × (A2N / A1N) (3)

そして、CPU11は、kの値が、Sjの値の小数点を切り上げた値と等しいか比較する。
ここで、kの値が、Sjの値の小数点を切り上げた値と等しい場合、CPU11は、同期させる数の少ない方の静止画像データ及び数の多い方の静止画像データを、共に、直前に同期された静止画像データの次の番号を有するファイル名の静止画像データとする。そして、CPU11は、jの値に1を加え、再度、上記の式(3)に基づいてSjの値を算出する。
一方、kの値がSjの値の小数点を切り上げた値と等しくない場合、CPU11は、同期させる静止画像データのうち、数の少ない方の静止画像データを、直前に同期された静止画像データと同一の番号を有するファイル名の静止画像データとし、数の多い方の静止画像データを、直前に同期された静止画像データの次の番号を有するファイル名の静止画像データとする。つまり、この場合、CPU11は、数の多い方の静止画像の番号だけを進ませて、数の少ない方の静止画像の番号を据え置いて、静止画像データを同期させる。
Then, the CPU 11 compares whether the value of k is equal to the value obtained by rounding up the decimal point of the value of Sj.
Here, when the value of k is equal to the value obtained by rounding up the decimal point of the value of Sj, the CPU 11 synchronizes the still image data having the smaller number and the still image data having the larger number to be synchronized immediately before. It is assumed that still image data having a file name having the next number of the still image data thus obtained is obtained. Then, the CPU 11 adds 1 to the value of j, and again calculates the value of Sj based on the above equation (3).
On the other hand, when the value of k is not equal to the value obtained by rounding up the decimal point of the value of Sj, the CPU 11 selects the still image data with the smaller number of the still image data to be synchronized with the still image data synchronized immediately before. The still image data having the same number as the file name is set as the still image data having the same number, and the still image data having the larger number is set as the still image data having the file number having the next number after the still image data synchronized immediately before. That is, in this case, the CPU 11 advances only the number of the still image having the larger number, defers the number of the still image having the smaller number, and synchronizes the still image data.

CPU11は、同期させる静止画像データを冒頭から順次決定すると共に、kの値をカウントアップし、上記の処理を繰り返す。
また、kの値がA2Nから1を減じた値(例えば、A2N−1の値)と等しい場合、CPU11は、上記の処理より優先して、同期させる数の少ない方の静止画像データ及び数の多い方の静止画像データを、共に、パートにおける各々の末尾の静止画像データとする。そして、CPU11は、パートの末尾の静止画像データの同期を完了させることにより、当該パートのスイング画像同期を終了する。
The CPU 11 sequentially determines still image data to be synchronized from the beginning, counts up the value of k, and repeats the above processing.
Further, when the value of k is equal to the value obtained by subtracting 1 from A2N (for example, the value of A2N-1), the CPU 11 has priority over the above-described processing, and the still image data and the number of the smaller still image data to be synchronized Both of the still image data with the larger number are used as still image data at the end of each part. Then, the CPU 11 completes the synchronization of the still image data at the end of the part, thereby ending the swing image synchronization of the part.

例えば、冒頭から2枚目の静止画像データの同期の場合、k=1である。また、図11に示す例になぞらえて、A2N=10、A1N=3とした場合、j=1の場合のSjの値は10/3であり、小数点を切り上げたSjの値は4となる。この場合、kの値が、Sjの値の小数点を切り上げた値と同一でないので、CPU11は、数の多い方の静止画像データの番号だけを進ませて、数の少ない方の静止画像の番号を据え置いて、静止画像データを同期させる。よって、図11に示すように、β2とα1とが同期するよう対応付けられる。同様の処理が、kが4未満の間繰り返され、β3、β4も、α1と同期するよう対応付けられる。この場合、β2〜β4との同期のために、α1の静止画像データが追加される。   For example, in the case of synchronizing the second still image data from the beginning, k = 1. Further, in the case of A2N = 10 and A1N = 3, the value of Sj when j = 1 is 10/3, and the value of Sj with the decimal point rounded up is 4 in comparison with the example shown in FIG. In this case, since the value of k is not the same as the value obtained by rounding up the decimal point of the value of Sj, the CPU 11 advances only the number of the still image data with the larger number, and the number of the still image with the smaller number. To synchronize still image data. Therefore, as shown in FIG. 11, β2 and α1 are associated with each other so as to be synchronized. Similar processing is repeated while k is less than 4, and β3 and β4 are also associated with α1 in synchronization. In this case, still image data of α1 is added for synchronization with β2 to β4.

一方、冒頭から5枚目の静止画像データの同期の場合、k=4である。この場合、kの値が、Sjの値の小数点を切り上げた値と同一となる。この場合、CPU11は、同期させる数の少ない方の静止画像データ及び数の多い方の静止画像データを、共に、直前に同期された静止画像データの次の番号を有するファイル名の静止画像データとする。よって、図11に示すように、β4の次のβ5と、α1の次のα2とが同期するよう対応付けられる。   On the other hand, in the case of synchronization of the fifth still image data from the beginning, k = 4. In this case, the value of k is the same as the value obtained by rounding up the decimal point of the value of Sj. In this case, the CPU 11 combines the still image data with the smaller number and the still image data with the larger number with the still image data with the file name having the next number of the still image data synchronized immediately before. To do. Therefore, as shown in FIG. 11, β5 next to β4 and α2 next to α1 are associated with each other so as to be synchronized.

以降、同様に、β6、β7との同期のために、α2の静止画像データが追加される。また、β9、β10との同期のために、α3の静止画像データが追加される。   Thereafter, similarly, the still image data of α2 is added for synchronization with β6 and β7. Also, α3 still image data is added for synchronization with β9 and β10.

図9〜図11では、ボール静止画像を同期させる場合の例について示しているが、スイング画像同期において、CPU11は、二人のゴルフスイングの正面静止画像、後方静止画像及びボール静止画像を一括して、パート単位で同期させる。
なお、静止画像データの同期において、進める静止画像の番号の大きさは、静止画像データの基となった動画像データのfpsに基づく。例えば、本実施形態の正面静止画像と後方静止画像の基となったカメラ2、3のfps(300[fps])は同一であるので、一方の静止画像の番号が1進むことに応じて、他方の静止画像の番号も1進む。一方、ボール静止画像の基となったカメラ4のfps(1200[fps])は、正面静止画像及び後方静止画像の4倍であるので、正面静止画像及び後方静止画像の番号が1進むことに応じて、ボール静止画像の番号は4進む。言い換えれば、正面静止画像の番号が1進むことに応じて、後方静止画像の番号は、(1×BKfps/FRfps)進み、ボール静止画像の番号は、(1×BLfps/FRfps)進むこととなる。
9 to 11 show an example in which the ball still images are synchronized. In the swing image synchronization, the CPU 11 batches the front still image, the rear still image, and the ball still image of the two golf swings. And synchronize in parts.
In the synchronization of still image data, the size of the number of the still image to be advanced is based on fps of the moving image data that is the basis of the still image data. For example, since the fps (300 [fps]) of the cameras 2 and 3 that are the basis of the front still image and the rear still image of the present embodiment are the same, according to the number of one still image being advanced by 1, The number of the other still image also advances by 1. On the other hand, the fps (1200 [fps]) of the camera 4 that is the basis of the ball still image is four times that of the front still image and the rear still image. Accordingly, the ball still image number advances by four. In other words, as the number of the front still image advances by 1, the number of the rear still image advances by (1 × BKfps / FRfps), and the number of the ball still image advances by (1 × BLfps / FRfps). .

また、上記の説明は、第1パートに含まれる複数の被写体としての二人(α及びβ)の静止画像データの数(A1N、A2N)に基づいて行っているが、第2パートの静止画像データの数であるB1N、B2N及び第3パートの静止画像データの数であるC1N、C2Nについても、A1N、A2Nの場合と同様である。   The above description is based on the number of still image data (A1N, A2N) of two persons (α and β) as a plurality of subjects included in the first part. The same applies to B1N and B2N as the number of data and C1N and C2N as the number of still image data of the third part as in the case of A1N and A2N.

また、画像処理装置10は、追加された静止画像データに応じた表示内容と共に表示させる文字列を設定することができる。
具体的には、画像処理装置10は、スイング画像同期により追加された静止画像データと共に表示させるコメントを設定する機能を有する。コメントの追加は、入力装置15を介して行われる。本実施形態では、パートの冒頭又は末尾に追加の静止画像データを加える場合、ユーザは、例えば、図7に示すように、追加された静止画像データと共に表示されるコメントを設定することができる。本実施形態では、設定されたコメントは、冒頭又は末尾に連続して追加された静止画像データを含む全ての合成後の静止画像データに設定されるが、合成後の静止画像データの一部のみに設定するようにしてもよいし、合成後の静止画像データに個別のコメントを設定可能としてもよい。
コメントを設定することにより、同期された複数の静止画像データ(例えば、二人のゴルフスイング等)についての比較に関する情報を付加することができる等、画像の同期に関する情報を付加することができる。
Further, the image processing apparatus 10 can set a character string to be displayed together with display contents corresponding to the added still image data.
Specifically, the image processing apparatus 10 has a function of setting a comment to be displayed together with still image data added by swing image synchronization. The comment is added via the input device 15. In the present embodiment, when adding additional still image data to the beginning or end of the part, the user can set a comment displayed together with the added still image data, for example, as shown in FIG. In the present embodiment, the set comment is set in all the still image data after synthesis including still image data added continuously at the beginning or end, but only a part of the still image data after synthesis. It is also possible to set a comment for each of the combined still image data.
By setting a comment, it is possible to add information related to image synchronization, such as information related to comparison between a plurality of synchronized still image data (for example, two golf swings).

本実施形態の画像処理装置10は、補完処理において追加の静止画像データを加える位置を任意に選択、設定することができる機能を有する。具体的には、画像処理装置10は、追加の静止画像データを加える場合、パートの冒頭に追加の静止画像データを加えるか、パートの末尾に追加の静止画像データを加えるか、追加の静止画像データをパートの冒頭から末尾にかけて振り分けるか、のいずれかとする設定を予め記憶装置14に記憶させている。ユーザにより、入力装置15等を介して追加の静止画像データを加える処理に関する設定が行われると、画像処理装置10は、設定の内容に応じて追加の画像を加える設定を更新、記憶する。また、本実施形態の画像処理装置10は、追加の静止画像データを加える位置の選択を、パート単位で個別に行うことができる。   The image processing apparatus 10 according to the present embodiment has a function capable of arbitrarily selecting and setting a position at which additional still image data is added in the complementing process. Specifically, when adding the additional still image data, the image processing apparatus 10 adds the additional still image data to the beginning of the part, adds the additional still image data to the end of the part, or adds the additional still image data. The storage device 14 stores in advance a setting for allocating data from the beginning to the end of the part. When a setting related to a process of adding additional still image data is performed by the user via the input device 15 or the like, the image processing apparatus 10 updates and stores the setting of adding an additional image according to the content of the setting. Further, the image processing apparatus 10 according to the present embodiment can individually select a position to which additional still image data is added in units of parts.

次に、パート単位のスイング画像同期の処理の流れを、図13及至図17のフローチャートを参照して説明する。図13及至図17では、スイング画像同期の処理の一例として、第1のパートの静止画像データの数(A1N、A2N)を用いて説明するが、第2パート(B1N、B2N)、第3パート(C1N、C2N)も同様である。   Next, the flow of the swing image synchronization process for each part will be described with reference to the flowcharts of FIGS. 13 to 17, description will be made using the number of still image data (A1N, A2N) of the first part as an example of the swing image synchronization processing, but the second part (B1N, B2N), the third part will be described. The same applies to (C1N, C2N).

画像処理装置10のCPU11は、まず、基準位置情報テーブルを読み出し(ステップS11)、二人のゴルフスイングを撮像した動画像データの各々から生成された複数の正面静止画像、後方静止画像及びボール静止画像の第1パートの冒頭の番号及び末尾の番号並びに第1パートに含まれる静止画像データの数(A1N、A2N)を取得する。   First, the CPU 11 of the image processing apparatus 10 reads a reference position information table (step S11), and a plurality of front still images, rear still images, and ball stills generated from each of the moving image data obtained by imaging two golf swings. The numbers at the beginning and end of the first part of the image and the number of still image data (A1N, A2N) included in the first part are acquired.

次に、CPU11は、二人のゴルフスイングの静止画像データのうち、第1パートの冒頭の番号を有する正面静止画像、後方静止画像及びボール静止画像を読み出し(ステップS12〜S14)、読み出された各々の静止画像データを合成して1枚の合成静止画像データ(図7参照)を生成し(ステップS15)、記憶装置14に保存する(ステップS16)。   Next, the CPU 11 reads out the front still image, the rear still image, and the ball still image having the beginning number of the first part from the still image data of the two golf swings (steps S12 to S14), and is read out. Each piece of still image data is combined to generate one piece of combined still image data (see FIG. 7) (step S15) and stored in the storage device 14 (step S16).

次に、CPU11は、第1パートのうち、数の多い方の静止画像データの末尾の番号を有する各々の静止画像データを合成した合成静止画像データの生成を完了したか否か判定する(ステップS17)。
ここで、第1パートの末尾の番号を有する各々の静止画像データを合成した合成静止画像データの生成を完了していないと判定された場合(ステップS17:NO)、CPU11は、追加の静止画像データを加える位置の設定に応じた補完処理を行う。
Next, the CPU 11 determines whether or not the generation of the composite still image data obtained by combining the still image data having the last number of the still image data having the larger number among the first parts is completed (step S11). S17).
Here, when it is determined that the generation of the combined still image data obtained by combining the still image data having the last number of the first part is not completed (step S17: NO), the CPU 11 adds the additional still image. Complement processing is performed according to the setting of the position to add data.

具体的には、CPU11は、まず、第1パートについて、パートの冒頭に追加の静止画像データを加える設定がなされているか否かを判定する(ステップS18)。ここで、第1パートの冒頭に追加の静止画像データを加える設定がなされていると判定された場合(ステップS18:YES)、CPU11は、複数の静止画像データの数の差(A2N−A1N)に応じた数の追加の静止画像データを、パート単位で分割された複数の静止画像データのうち数が少ない複数の静止画像データ(αの静止画像データ)のパートの冒頭に加えるための処理(冒頭追加処理)を行う(ステップS19)。   Specifically, the CPU 11 first determines whether or not the first part is set to add additional still image data at the beginning of the part (step S18). If it is determined that the setting for adding additional still image data is made at the beginning of the first part (step S18: YES), the CPU 11 determines the difference in the number of still image data (A2N-A1N). To add the number of additional still image data corresponding to the first part of the plurality of still image data (α still image data) having a small number among the plurality of still image data divided in part units ( (Initial addition processing) is performed (step S19).

ここで、冒頭追加処理について、図14のフローチャートを参照して説明する。
CPU11は、処理対象の静止画像データについて、A2Nを基準として第1パートの冒頭から数えた数(静止画像のコマ数)が、A2N−A1Nの値以下であるか否か判定する(ステップS31)。ここで、A2N−A1Nの値以下であると判定された場合(ステップS31:YES)、CPU11は、αの静止画像の番号を据え置き、βの静止画像の番号を順次進める番号の変更処理を行う。具体的には、βの正面静止画像及び後方静止画像の番号に1を加算し(ステップS32、ステップS33)、βのボール静止画像の番号に4を加算する(ステップS34)。また、CPU11は、入力装置15を介して入力されたコメントを読み出す(ステップS35)。
Here, the beginning addition process will be described with reference to the flowchart of FIG.
The CPU 11 determines whether or not the number of still image data to be processed counted from the beginning of the first part with respect to A2N (the number of still image frames) is equal to or less than the value of A2N-A1N (step S31). . If it is determined that the value is equal to or smaller than the value of A2N−A1N (step S31: YES), the CPU 11 performs a change process of the number that keeps the number of the still image of α and sequentially advances the number of the still image of β. . Specifically, 1 is added to the number of the front still image and the rear still image of β (steps S32 and S33), and 4 is added to the number of the ball still image of β (step S34). In addition, the CPU 11 reads a comment input via the input device 15 (step S35).

一方、ステップS31にて、A2N−A1Nの値以下でないと判定された場合(ステップS31:NO)、CPU11は、α及びβの静止画像の番号を順次進める番号の変更処理を行う。具体的には、α及びβの正面静止画像及び後方静止画像の番号に1を加算し(ステップS36、ステップS37)、α及びβのボール静止画像の番号に4を加算する(ステップS38)。   On the other hand, when it is determined in step S31 that the value is not equal to or less than the value of A2N-A1N (step S31: NO), the CPU 11 performs a number changing process of sequentially advancing the numbers of the α and β still images. Specifically, 1 is added to the numbers of the front and rear still images of α and β (steps S36 and S37), and 4 is added to the numbers of the ball still images of α and β (step S38).

そして、CPU11は、ステップS34又はステップS37の処理後の番号を有する正面静止画像、後方静止画像及びボール静止画像を読み出し(ステップS39)、冒頭追加処理を終了する。
冒頭追加処理の終了後、CPU11は、処理をステップS15へ移行させる。コメントの読み出しが行われている場合、CPU11は、合成静止画像データにコメントをあわせて合成する。
Then, the CPU 11 reads the front still image, the rear still image, and the ball still image having the numbers after the processing in step S34 or step S37 (step S39), and ends the opening addition process.
After completing the beginning addition process, the CPU 11 shifts the process to step S15. When the comment is being read, the CPU 11 combines the combined still image data with the comment.

また、ステップS18にて、第1パートの冒頭に追加の静止画像データを加える設定がなされていないと判定された場合(ステップS18:NO)、CPU11は、第1パートについて、パートの末尾に追加の静止画像データを加える設定がなされているか否かを判定する(ステップS20)。ここで、第1パートの末尾に追加の静止画像データを加える設定がなされていると判定された場合(ステップS20:YES)、CPU11は、複数の静止画像データの数の差(A2N−A1N)に応じた数の追加の静止画像データを、パート単位で分割された複数の静止画像データのうち数が少ない複数の静止画像データ(αの静止画像データ)のパートの末尾に加えるための処理(末尾追加処理)を行う(ステップS21)。   If it is determined in step S18 that the setting for adding additional still image data is not made at the beginning of the first part (step S18: NO), the CPU 11 adds the first part to the end of the part. It is determined whether or not the setting for adding still image data is made (step S20). If it is determined that the setting for adding additional still image data to the end of the first part is made (step S20: YES), the CPU 11 determines the difference in the number of still image data (A2N-A1N). To add the number of additional still image data corresponding to the end of the part of the plurality of still image data (α still image data) having a small number among the plurality of still image data divided by the part ( A tail addition process) is performed (step S21).

ここで、末尾追加処理について、図15のフローチャートを参照して説明する。
CPU11は、処理対象の静止画像データについて、A2Nを基準として第1パートの冒頭から数えた数(静止画像のコマ数)が、A1Nの値未満であるか否か判定する(ステップS41)。ここで、A1Nの値未満であると判定された場合(ステップS41:YES)、CPU11は、α及びβの静止画像の番号を順次進める番号の変更処理を行う。具体的には、α及びβの正面静止画像及び後方静止画像の番号に1を加算し(ステップS42、ステップS43)、α及びβのボール静止画像の番号に4を加算する(ステップS44)。
Here, the tail addition process will be described with reference to the flowchart of FIG.
The CPU 11 determines whether or not the number of still image data to be processed counted from the beginning of the first part based on A2N (the number of still image frames) is less than the value of A1N (step S41). If it is determined that the value is less than the value of A1N (step S41: YES), the CPU 11 performs a number changing process that sequentially advances the numbers of the still images of α and β. Specifically, 1 is added to the numbers of the front and rear still images of α and β (steps S42 and S43), and 4 is added to the numbers of the ball still images of α and β (step S44).

一方、ステップS41にて、A1Nの値以下でないと判定された場合(ステップS41:NO)、CPU11は、αの静止画像の番号を据え置き、βの静止画像の番号を順次進める番号の変更処理を行う。具体的には、βの正面静止画像及び後方静止画像の番号に1を加算し(ステップS45、ステップS46)、βのボール静止画像の番号に4を加算する(ステップS47)。また、CPU11は、入力装置15を介して入力されたコメントを読み出す(ステップS48)。   On the other hand, when it is determined in step S41 that the value is not less than the value of A1N (step S41: NO), the CPU 11 performs a change process of the number in which the still image number of α is deferred and the still image number of β is sequentially advanced. Do. Specifically, 1 is added to the number of the front still image and the rear still image of β (steps S45 and S46), and 4 is added to the number of the ball still image of β (step S47). In addition, the CPU 11 reads a comment input via the input device 15 (step S48).

そして、CPU11は、ステップS44又はステップS48の処理後の番号を有する正面静止画像、後方静止画像及びボール静止画像を読み出し(ステップS49)、末尾追加処理を終了する。
末尾追加処理の終了後、CPU11は、処理をステップS15へ移行させる。コメントの読み出しが行われている場合、CPU11は、合成された合成静止画像データにコメントをあわせて合成する。
Then, the CPU 11 reads the front still image, the rear still image, and the ball still image having the numbers after the process in step S44 or step S48 (step S49), and ends the tail addition process.
After the end addition process ends, the CPU 11 shifts the process to step S15. When the comment is being read, the CPU 11 combines the combined still image data with the comment.

また、ステップS20にて、第1パートの冒頭に末尾の静止画像データを加える設定がなされていないと判定された場合(ステップS20:NO)、CPU11は、複数の静止画像データの数の差(A2N−A1N)に応じた数の追加の静止画像データを、パート単位で分割された複数の静止画像データのうち数が少ない複数の静止画像データ(αの静止画像データ)のパートの冒頭から末尾にかけて追加の静止画像データを振り分けて加えるための処理(均等振分処理)を行う(ステップS22)。   If it is determined in step S20 that the setting for adding the final still image data to the beginning of the first part is not made (step S20: NO), the CPU 11 determines the difference in the number of still image data ( A number of additional still image data corresponding to A2N-A1N) is added to the end of the part of the plurality of still image data (α still image data) having a small number among the plurality of still image data divided in part units. In step S22, additional still image data is distributed and added (equal distribution processing).

ここで、均等振分処理について、図16及び図17のフローチャートを参照して説明する。
まず、CPU11は、A2Nを基準として、処理対象の静止画像の番号が冒頭から2枚目の静止画像の番号であるか否か判定する(ステップS51)。ここで、処理対象の静止画像の番号が冒頭から2枚目の静止画像の番号であると判定された場合(ステップS51:YES)、CPU11は、変数kを設定し、kの値を1とする(ステップS52)。
また、CPU11は、変数jを設定し、jの値を1とする(ステップS53)。そして、CPU11は、上記の式(3)に基づいてSjの値を算出する(ステップS54)。
Here, the uniform distribution process will be described with reference to the flowcharts of FIGS. 16 and 17.
First, the CPU 11 determines whether or not the number of the still image to be processed is the number of the second still image from the beginning based on A2N (step S51). Here, when it is determined that the number of the still image to be processed is the number of the second still image from the beginning (step S51: YES), the CPU 11 sets the variable k and sets the value of k to 1. (Step S52).
Further, the CPU 11 sets a variable j and sets the value of j to 1 (step S53). And CPU11 calculates the value of Sj based on said Formula (3) (step S54).

そして、CPU11は、A2Nを基準として、処理対象の静止画像の番号が末尾の静止画像の番号であるか否か判定する。即ち、CPU11は、kの値がA2Nから1を減じた値(A2N−1)と等しいか否か判定する(ステップS55)。ここで、kの値がA2N−1と等しいと判定された場合(ステップS55:YES)、CPU11は、α及びβの正面静止画像、後方静止画像及びボール静止画像の番号を、第1パートにおける各々の末尾の番号とする(ステップS56〜S58)。   Then, the CPU 11 determines whether or not the number of the still image to be processed is the number of the last still image on the basis of A2N. That is, the CPU 11 determines whether or not the value of k is equal to a value obtained by subtracting 1 from A2N (A2N-1) (step S55). Here, when it is determined that the value of k is equal to A2N-1 (step S55: YES), the CPU 11 assigns the numbers of the front still image, the rear still image, and the ball still image of α and β in the first part. It is set as the last number of each (steps S56 to S58).

一方、ステップS55にて、kの値がA2N−1と等しくないと判定された場合(ステップS55:NO)、CPU11は、kの値が、Sjの値の小数点を切り上げた値と等しいか否か判定する(ステップS59)。ここで、kの値が、Sjの値の小数点を切り上げた値と等しいと判定された場合(ステップS59:YES)、CPU11は、α及びβの静止画像の番号を順次進める番号の変更処理を行う。具体的には、α及びβの正面静止画像及び後方静止画像の番号に1を加算し(ステップS60、ステップS61)、α及びβのボール静止画像の番号に4を加算する(ステップS62)。さらに、CPU11は、jの値に1を加え(ステップS63)、上記の式(3)に基づいてSjの値を再度算出する(ステップS64)。   On the other hand, when it is determined in step S55 that the value of k is not equal to A2N-1 (step S55: NO), the CPU 11 determines whether or not the value of k is equal to the value obtained by rounding up the decimal point of the value of Sj. (Step S59). Here, when it is determined that the value of k is equal to the value obtained by rounding up the decimal point of the value of Sj (step S59: YES), the CPU 11 performs a number changing process of sequentially incrementing the numbers of the still images of α and β. Do. Specifically, 1 is added to the numbers of the front and rear still images of α and β (steps S60 and S61), and 4 is added to the numbers of the ball still images of α and β (step S62). Further, the CPU 11 adds 1 to the value of j (step S63), and again calculates the value of Sj based on the above equation (3) (step S64).

一方、ステップS57にてkの値がSjの値の小数点を切り上げた値と等しくないと判定された場合(ステップS59:NO)、CPU11は、αの静止画像の番号を据え置き、βの静止画像の番号を順次進める番号の変更処理を行う。具体的には、βの正面静止画像及び後方静止画像の番号に1を加算し(ステップS65、ステップS66)、βのボール静止画像の番号に4を加算する(ステップS67)。   On the other hand, when it is determined in step S57 that the value of k is not equal to the value obtained by rounding up the decimal point of the value of Sj (step S59: NO), the CPU 11 defers the number of the still image of α, and the still image of β The number change process is performed in which the numbers are sequentially advanced. Specifically, 1 is added to the numbers of the front still image and the rear still image of β (steps S65 and S66), and 4 is added to the number of the ball still image of β (step S67).

また、CPU11は、ステップS64又はステップS67の処理後、kの値に1を加える(ステップS68)。そして、CPU11は、ステップS58又はステップS68の処理後の番号を有する正面静止画像、後方静止画像及びボール静止画像を読み出し(ステップS69)、均等振分処理を終了する。
均等振分処理の終了後、CPU11は、処理をステップS15へ移行させる。
Further, the CPU 11 adds 1 to the value of k after the process of step S64 or step S67 (step S68). Then, the CPU 11 reads the front still image, the rear still image, and the ball still image having the numbers after the process in step S58 or step S68 (step S69), and ends the equal distribution process.
After completing the uniform distribution process, the CPU 11 shifts the process to step S15.

また、ステップS17にて、第1パートの末尾の番号を有する各々の静止画像データを合成した合成静止画像データの生成を完了したと判定された場合(ステップS17:YES)、CPU11は、1回分のパート単位のスイング画像同期を終了する。
スイング画像同期において、CPU11は、全てのパートに対してパート単位のスイング画像同期を行う。全てのパートに対してのパート単位のスイング画像同期が終了すると、CPU11は、画像処理装置10は同期動画生成以降の処理を行う。
If it is determined in step S17 that the generation of the composite still image data obtained by combining the still image data having the last part number of the first part is completed (step S17: YES), the CPU 11 performs one time. The part-by-part swing image synchronization ends.
In swing image synchronization, the CPU 11 performs part-by-part swing image synchronization for all parts. When the part-by-part swing image synchronization for all parts is completed, the CPU 11 performs processing after the generation of the synchronized moving image.

以上のように、本実施形態のゴルフスイング解析システム1によれば、画像処理装置10が、複数の被写体(例えば、α、β等)の各々を撮像した複数の動画像データの各々から生成された複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分け、グループ単位で、複数の被写体の静止画像データどうしを同期させるので、グループ単位で区切られた複数のタイミングを基準として、複数の被写体の各々を撮像した複数の動画像データから生成された複数の静止画像データどうしを同期させることができ、複数の被写体の各々を撮像した複数の動画像データに基づく画像の同期の精度をより高めることができる。   As described above, according to the golf swing analysis system 1 of the present embodiment, the image processing device 10 is generated from each of a plurality of moving image data obtained by imaging each of a plurality of subjects (for example, α, β, etc.). The multiple still image data are divided into multiple groups arranged in chronological order, and the still image data of multiple subjects are synchronized in groups, so multiple timings divided in groups are used as a reference. As described above, it is possible to synchronize a plurality of still image data generated from a plurality of moving image data obtained by imaging each of a plurality of subjects, and synchronize images based on a plurality of moving image data obtained by imaging each of the plurality of subjects. Accuracy can be further increased.

また、画像処理装置10が、グループ単位で複数の被写体の各々の静止画像データの数に差がある場合、グループ単位で複数の被写体の各々の静止画像データの数を同一とするよう、複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに追加の静止画像データを加えるので、同期させる複数の静止画像データの基となる、複数の被写体の各々の複数の動画像データの各々のフレーム数や撮像時刻等が異なる場合であっても、数が少ない複数の静止画像データに追加の静止画像データを加えることで、複数の動画像データの各々のフレーム数や撮像時刻等の違いを埋め合わせることができる。即ち、複数の被写体の各々の複数の動画像データの各々のフレーム数や撮像時刻等が異なる場合であっても、これらの複数の動画像データに基づく画像の同期をより高い精度で行うことができる。   In addition, when there is a difference in the number of still image data of each of the plurality of subjects in the group unit, the image processing apparatus 10 has a plurality of pieces so that the number of still image data of each of the plurality of subjects is the same in the group unit. Since additional still image data is added to a plurality of still image data having a small number of a plurality of still image data of each of the subjects, a plurality of moving images of each of the plurality of subjects as a basis of the plurality of still image data to be synchronized Even when the number of frames of image data, the time of image capture, etc. are different, by adding additional still image data to a plurality of still image data with a small number of frames, the number of frames and image capture of each of the plurality of moving image data Differences such as time can be compensated. In other words, even when the number of frames of each of the plurality of moving image data of each of the plurality of subjects, imaging time, and the like are different, it is possible to perform image synchronization based on the plurality of moving image data with higher accuracy. it can.

また、画像処理装置10が、グループ単位の複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データのグループの冒頭に加えるので、複数の動画像データに基づく画像を同期させた後の表示内容は、相対的に再生時間が長い動画像データ(例えば、相対的にフレーム数が多い動画像データや、相対的に撮像時刻が長い動画像データ等)の画像が先に表示内容を変じ、追加の静止画像データの数に対応するフレーム数や撮像時刻の経過後に、相対的に再生時間が短い動画像データ(例えば、相対的にフレーム数が少ない動画像データや、相対的に撮像時刻が短い動画像データ等)の画像の表示内容の変化も伴う表示内容となり、再生の開始タイミングの違いにより同期された複数の静止画像データの基となった複数の動画像データの再生時間の違いを明確に確認することができる。   In addition, the image processing apparatus 10 sets the number of additional still image data corresponding to the difference in the number of still image data of each of the plurality of subjects in units of groups, out of the plurality of still image data of each of the plurality of subjects. Is added to the beginning of a group of a plurality of still image data, so that the display contents after synchronizing images based on the plurality of moving image data are moving image data (for example, relatively frames A large number of moving image data, moving image data with a relatively long imaging time, etc.) change the display content first, and after the number of frames corresponding to the number of additional still image data and the imaging time have elapsed, In particular, the display content is accompanied by a change in the display content of the moving image data (for example, moving image data having a relatively small number of frames or moving image data having a relatively short imaging time). It can be clearly confirmed the difference in playback time of the plurality of moving image data a plurality of groups of still image data synchronized by the difference in the start timing of the raw.

また、画像処理装置10が、グループ単位の複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、複数の被写体の各々の複数の静止画像データのグループの末尾に加えるので、複数の動画像データに基づく画像を同期させた後の表示内容は、相対的に再生時間が短い動画像データ(例えば、相対的にフレーム数が少ない動画像データや、相対的に撮像時刻が短い動画像データ等)の画像が先に終了し、相対的に再生時間が長い動画像データ(例えば、相対的にフレーム数が多い動画像データや、相対的に撮像時刻が長い動画像データ等)の画像の再生の終了を待つ表示内容となり、再生の終了タイミングの違いにより同期された複数の静止画像データの基となった複数の動画像データの再生時間の違いを明確に確認することができる。   Further, the image processing apparatus 10 adds the number of additional still image data according to the difference in the number of still image data of each of the plurality of subjects in the group unit to the group of the plurality of still image data of each of the plurality of subjects. Since it is added at the end, the display content after synchronizing images based on a plurality of moving image data is moving image data (for example, moving image data having a relatively small number of frames or relative Moving image data with a relatively short imaging time, such as moving image data with a relatively long reproduction time (for example, moving image data with a relatively large number of frames or a relatively long imaging time). The display content waits for the end of image playback (moving image data, etc.), and the difference in the playback time of multiple moving image data based on the multiple still image data synchronized due to the difference in playback end timing is clarified It can be confirmed.

また、画像処理装置10が、グループ単位の複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、複数の被写体の各々の複数の静止画像データのグループの冒頭から末尾にかけて振り分けて加えるので、同期させる複数の静止画像データの基となる複数の動画像データの各々のフレーム数や撮像時刻等が異なる場合であっても、フレーム数や撮像時刻等の差をパートの開始から終了までにかけて分散させることができ、フレーム数や撮像時刻等の差による同期のずれをパートの冒頭又は末尾に集積させることがなくなり、同期のずれを視覚的に軽減することができる。即ち、同期させる複数の静止画像データの基となる複数の動画像データの各々のフレーム数や撮像時刻等が異なる場合であっても、複数の動画像データに基づく画像の同期をより高い精度で行うことができる。   Further, the image processing apparatus 10 adds the number of additional still image data according to the difference in the number of still image data of each of the plurality of subjects in the group unit to the group of the plurality of still image data of each of the plurality of subjects. Since it is distributed and added from the beginning to the end, the difference in the number of frames, imaging time, etc., even when the number of frames, imaging time, etc. of each of the plurality of moving image data that is the basis of the plurality of still image data to be synchronized is different Can be distributed from the start to the end of the part, and synchronization deviation due to differences in the number of frames, imaging time, etc. is not accumulated at the beginning or end of the part, and the synchronization deviation can be visually reduced. it can. That is, even when the number of frames and the imaging time of each of the plurality of moving image data that are the basis of the plurality of still image data to be synchronized are different, synchronization of images based on the plurality of moving image data is performed with higher accuracy. It can be carried out.

また、画像処理装置10が、追加の静止画像データに応じた表示内容と共に表示させる文字列(例えば、コメント等)を設定するので、文字列の内容に応じた情報を同期された画像と共に示すことができる。   In addition, since the image processing apparatus 10 sets a character string (for example, a comment or the like) to be displayed together with the display content corresponding to the additional still image data, the information corresponding to the content of the character string is shown together with the synchronized image. Can do.

また、同期の単位となるグループが、ゴルフクラブWのスイングの開始からスイングのトップまでの第1パートと、スイングのトップからボールへのインパクトまでの第2パートと、ボールへのインパクトからスイングの終了までの第3パートであるので、第1パートから第3パートの3つのパートに分けられた各々のパート単位で、ゴルフにおいてボールを打つ動作の開始から終了を撮像した複数の動画像データに基づく画像どうしを同期させることができ、ゴルフスイングを撮像した動画像データに基づく画像の同期の精度をより高めることができる。   In addition, the group that becomes the unit of synchronization includes the first part from the start of the swing of the golf club W to the top of the swing, the second part from the top of the swing to the impact on the ball, and the swing from the impact on the ball. Since it is the third part until the end, in each part divided into three parts from the first part to the third part, a plurality of moving image data obtained by imaging the start to the end of the action of hitting the ball in golf The images based on each other can be synchronized with each other, and the accuracy of image synchronization based on the moving image data obtained by imaging the golf swing can be further increased.

また、画像処理装置10が、同期された同一タイミングの複数の被写体の各々の静止画像データどうしを合成して複数の合成静止画像データを生成し、さらに、複数の合成静止画像データに基づいて動画像データを生成するので、生成された動画像データは、複数の動画像データから生成された複数の静止画像データどうしがグループ単位で同期された動画像データとなり、当該動画像データにより、同期された複数の動画像データに基づく画像を容易に確認することができる。即ち、複数の動画像データに基づく複数の静止画像データどうしの同期処理の結果の確認をより容易に行うことができる。   Further, the image processing apparatus 10 generates a plurality of combined still image data by combining still image data of a plurality of synchronized subjects at the same timing, and further generates a moving image based on the plurality of combined still image data. Since the image data is generated, the generated moving image data becomes moving image data in which a plurality of still image data generated from a plurality of moving image data is synchronized in units of groups, and is synchronized by the moving image data. In addition, an image based on a plurality of moving image data can be easily confirmed. That is, it is possible to more easily confirm the result of the synchronization processing between a plurality of still image data based on a plurality of moving image data.

また、同期動画再生を行うことにより、グループ単位で同期された二人のゴルフスイングの開始から終了までの一連の二人の動作(例えば、姿勢変化等)を比較しながら確認することができる。   In addition, by performing synchronized moving image playback, it is possible to confirm while comparing a series of actions (for example, posture change, etc.) of two people from the start to the end of two golf swings synchronized in units of groups.

なお、本発明は、上記の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記の実施形態では、HUB5を介して複数のカメラ2、3、4と画像処理装置10とが接続されているが、接続形態の一例であり、これに限られるものではない。他の接続形態として、例えば、複数のカメラの各々に動画像データの記録のための端末を設け、画像処理装置と各々の端末をと接続するようにしてもよい。また、被写体を撮像するカメラは3台に限らず、1台でも2台以上でもよい。
また、カメラと画像処理装置とは必ずしも接続されていなくともよい。例えば、画像処理装置は、カメラにより撮像された動画像データが記憶された所定の記憶装置や記憶媒体から動画像データを取得するようにしてもよい。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the plurality of cameras 2, 3, 4 and the image processing apparatus 10 are connected via the HUB 5, but this is an example of a connection form, and the present invention is not limited to this. As another connection mode, for example, a terminal for recording moving image data may be provided in each of a plurality of cameras, and the image processing apparatus may be connected to each terminal. Further, the number of cameras that capture the subject is not limited to three, and may be one or two or more.
Further, the camera and the image processing apparatus are not necessarily connected. For example, the image processing apparatus may acquire moving image data from a predetermined storage device or storage medium in which moving image data captured by a camera is stored.

また、上記の実施形態において同期される複数の被写体を撮像した静止画像データの基となる複数の動画像データ(二人のゴルフスイングの正面静止画像、後方静止画像及びボール静止画像)は一例であり、これに限られるものではない。例えば、3以上の複数の被写体による動作をそれぞれ撮像した複数の動画像データの各々から複数の静止画像データを生成して、これらの静止画像データの一部又は全部をグループ単位で区切り、同期させるようにしてもよい。また、本発明は、ゴルフスイングを撮像した動画像データに基づく静止画像データの同期においても、正面静止画像、後方静止画像、ボール静止画像に限らず、任意の角度からゴルフスイングを行っている被写体やボール、ゴルフクラブW等を撮像した動画像データに基づく静止画像データを同期させることができる。   In addition, a plurality of moving image data (a front still image, a rear still image, and a ball still image of two golf swings) as a basis of still image data obtained by imaging a plurality of subjects synchronized in the above embodiment is an example. Yes, it is not limited to this. For example, a plurality of still image data is generated from each of a plurality of moving image data obtained by capturing motions of a plurality of subjects of three or more, and a part or all of these still image data is divided into groups and synchronized. You may do it. Further, the present invention is not limited to a front still image, a rear still image, and a ball still image, even in the synchronization of still image data based on moving image data obtained by capturing a golf swing. It is possible to synchronize still image data based on moving image data obtained by imaging a ball, a golf club W or the like.

また、同期の単位となるグループは、上記の実施形態における第1パート、第2パート及び第3パートに限らない。本発明は、グループの区切り目を任意に設定することができる。   Further, the group serving as a synchronization unit is not limited to the first part, the second part, and the third part in the above embodiment. In the present invention, group breaks can be arbitrarily set.

また、一の被写体の動作を同時に撮像した複数の動画像データに基づく静止画像データどうしの同期と、異なる被写体の動作間での同期と、の順番は問わない。例えば、上記の実施形態では、αの正面静止画像、後方静止画像及びボール静止画像を同期させ、βの正面静止画像、後方静止画像及びボール静止画像を同期させた後に、αとβの静止画像データどうしを同期させているが、αとβのいずれかの静止画像データを同期させた後、αとβのそれぞれで正面静止画像、後方静止画像及びボール静止画像を同期させるようにしてもよい。   Further, the order of synchronization between still image data based on a plurality of moving image data obtained by simultaneously capturing the motion of one subject and the synchronization between motions of different subjects is not limited. For example, in the above embodiment, the front still image of α, the back still image, and the ball still image are synchronized, and the front still image of β, the back still image, and the ball still image are synchronized, and then the still images of α and β are synchronized. The data are synchronized, but after synchronizing the still image data of either α or β, the front still image, the rear still image, and the ball still image may be synchronized with each of α and β. .

また、上記の実施形態では、スイング対象抽出において、正面静止画像に対して手動でスイングの開始から終了までの各種のタイミングを設定し、後方静止画像及びボール静止画像を式(1)、(2)に基づいて同期させているが、一例であって、これに限られるものではない。例えば、図18に示すような、正面静止画像と後方静止画像とボール静止画像とを手動で同期させるための画面に対するユーザの操作内容に応じて、同期させる正面静止画像、後方静止画像及びボール静止画像の番号の対応関係を決定するようにしてもよい。   In the above embodiment, in the swing target extraction, various timings from the start to the end of the swing are manually set for the front still image, and the rear still image and the ball still image are expressed by the equations (1) and (2). ), But is only an example, and the present invention is not limited to this. For example, as shown in FIG. 18, the front still image, the rear still image, and the ball stationary are synchronized according to the user's operation content on the screen for manually synchronizing the front still image, the rear still image, and the ball still image. You may make it determine the correspondence of the number of an image.

また、本実施形態では、同期動画生成において第1パートから第3パートまでの全てのパートを含む一の動画像データを生成するが、パート単位での動画像データを生成するようにしてもよい。   In the present embodiment, one piece of moving image data including all the parts from the first part to the third part is generated in the synchronous moving image generation. However, moving image data may be generated in part units. .

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる画像処理装置であって、前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する生成手段と、この生成手段により生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける分割手段と、この分割手段により分けられたグループ単位で、前記複数の被写体の静止画像データどうしを同期させる同期手段と、を備えることを特徴とする画像処理装置。
<請求項2>
前記グループ単位で前記複数の被写体の各々の静止画像データの数に差がある場合、前記グループ単位で前記複数の被写体の各々の静止画像データの数を同一とするよう、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに追加の静止画像データを加える追加手段を備えることを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記追加手段は、前記グループ単位の前記複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データのグループの冒頭に加えることを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記追加手段は、前記グループ単位の前記複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、前記複数の被写体の各々の複数の静止画像データのグループの末尾に加えることを特徴とする請求項2に記載の画像処理装置。
<請求項5>
前記追加手段は、前記グループ単位の前記複数の被写体の各々の静止画像データの数の差に応じた数の追加の静止画像データを、前記複数の被写体の各々の複数の静止画像データのグループの冒頭から末尾にかけて振り分けて加えることを特徴とする請求項2に記載の画像処理装置。
<請求項6>
前記追加手段により加えられた追加の静止画像データに応じた表示内容と共に表示させる文字列を設定する設定手段を備えることを特徴とする請求項3又は4に記載の画像処理装置。
<請求項7>
前記グループは、ゴルフクラブのスイングの開始からスイングのトップまでの第1パートと、前記スイングのトップからボールへのインパクトまでの第2パートと、前記ボールへのインパクトからスイングの終了までの第3パートであることを特徴とする請求項1から6のいずれか一項に記載の画像処理装置。
<請求項8>
前記同期手段により同期された同一タイミングの前記複数の被写体の各々の静止画像データどうしを合成して複数の合成静止画像データを生成する合成手段と、前記複数の合成静止画像データに基づいて動画像データを生成する動画像生成手段と、を備えることを特徴とする請求項1から7のいずれか一項に記載の画像処理装置。
<請求項9>
撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる画像処理装置のコンピュータを、前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する手段、生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける手段、前記グループ単位で、前記複数の被写体の各々の静止画像データどうしを同期させる手段、として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
An image processing device for synchronizing a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device, wherein a plurality of still images are obtained from each of a plurality of moving image data obtained by imaging each of the plurality of subjects by the imaging device. A generating unit that generates data; a dividing unit that divides the plurality of still image data generated by the generating unit into a plurality of groups provided in time series; and a group unit divided by the dividing unit. An image processing apparatus comprising: synchronization means for synchronizing still image data of the plurality of subjects.
<Claim 2>
When there is a difference in the number of still image data of each of the plurality of subjects in the group unit, each of the plurality of subjects is set to have the same number of still image data of the plurality of subjects in the group unit. The image processing apparatus according to claim 1, further comprising an adding unit that adds additional still image data to a plurality of still image data having a small number of the plurality of still image data.
<Claim 3>
The adding means adds a number of additional still image data corresponding to a difference in the number of still image data of each of the plurality of subjects in the group unit, out of a plurality of still image data of each of the plurality of subjects. The image processing apparatus according to claim 2, wherein the image processing device is added to the beginning of a group of a plurality of still image data with a small amount of data.
<Claim 4>
The adding means adds a number of additional still image data corresponding to a difference in the number of still image data of each of the plurality of subjects in the group unit to a group of a plurality of still image data of each of the plurality of subjects. The image processing apparatus according to claim 2, wherein the image processing apparatus is added at the end.
<Claim 5>
The adding means adds a number of additional still image data corresponding to a difference in the number of still image data of each of the plurality of subjects in the group unit to a group of a plurality of still image data of each of the plurality of subjects. The image processing apparatus according to claim 2, wherein the image processing apparatus is distributed and added from the beginning to the end.
<Claim 6>
5. The image processing apparatus according to claim 3, further comprising setting means for setting a character string to be displayed together with display contents corresponding to the additional still image data added by the adding means.
<Claim 7>
The group includes a first part from the start of the swing of the golf club to the top of the swing, a second part from the top of the swing to the impact on the ball, and a third part from the impact to the ball to the end of the swing. The image processing apparatus according to claim 1, wherein the image processing apparatus is a part.
<Claim 8>
Synthesizing means for generating a plurality of synthesized still image data by combining still image data of the plurality of subjects at the same timing synchronized by the synchronizing means, and a moving image based on the plurality of synthesized still image data The image processing apparatus according to claim 1, further comprising a moving image generation unit that generates data.
<Claim 9>
A computer of an image processing device that synchronizes a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device, and a plurality of still images from a plurality of moving image data obtained by imaging each of the plurality of subjects by the imaging device. Means for generating data, means for dividing the plurality of generated still image data into a plurality of groups provided in time series, and synchronizing still image data of each of the plurality of subjects in units of groups A program characterized by causing it to function as a means for making it happen.

1 ゴルフスイング解析システム
2,3,4 カメラ
10 画像処理装置
11 CPU
12 RAM
13 ROM
14 記憶装置
15 入力装置
16 表示装置
DESCRIPTION OF SYMBOLS 1 Golf swing analysis system 2,3,4 Camera 10 Image processing apparatus 11 CPU
12 RAM
13 ROM
14 storage device 15 input device 16 display device

Claims (7)

撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる画像処理装置であって、
前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する生成手段と、
この生成手段により生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける分割手段と、
この分割手段により分けられたグループ単位で、前記複数の被写体の静止画像データどうしを同期させる同期手段と、
前記グループ単位で前記複数の被写体の各々の静止画像データの数に差がある場合、前記グループ単位で前記複数の被写体の各々の静止画像データの数を同一とするよう、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに、前記数の差に応じた数の追加の静止画像データを加える追加手段と、
前記追加手段により追加の静止画像データを加える位置または方法を任意に選択する選択手段と、
を備えることを特徴とする画像処理装置。
An image processing device that synchronizes a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device,
Generating means for generating a plurality of still image data from each of a plurality of moving image data obtained by imaging each of the plurality of subjects by the imaging device;
A dividing unit that divides the plurality of still image data generated by the generating unit into a plurality of groups provided in time series;
Synchronization means for synchronizing still image data of the plurality of subjects in units of groups divided by the dividing means;
When there is a difference in the number of still image data of each of the plurality of subjects in the group unit, each of the plurality of subjects is set to have the same number of still image data of the plurality of subjects in the group unit. Adding means for adding a number of additional still image data according to the difference in the number of still image data of a plurality of still image data of the plurality of still image data,
A selecting means for arbitrarily selecting a position or a method for adding additional still image data by the adding means;
An image processing apparatus comprising:
前記選択手段は、前記選択可能な位置として、複数の静止画像データのグループの冒頭または末尾を含むことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the selection unit includes a head or a tail of a group of a plurality of still image data as the selectable position. 前記選択手段は、前記選択可能な方法として、複数の静止画像データのグループの冒頭から末尾にかけて振り分けて加える方法を含むことを特徴とする請求項1または2に記載の画像処理装置。 3. The image processing apparatus according to claim 1 , wherein the selection unit includes, as the selectable method, a method of sorting and adding a plurality of still image data groups from the beginning to the end. 4. 前記追加手段により加えられた追加の静止画像データに応じた表示内容と共に表示させる文字列を設定する設定手段を備えることを特徴とする請求項1から3のいずれか一項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, further comprising a setting unit configured to set a character string to be displayed together with display contents corresponding to the additional still image data added by the adding unit. 5. . 前記グループは、ゴルフクラブのスイングの開始からスイングのトップまでの第1パートと、前記スイングのトップからボールへのインパクトまでの第2パートと、前記ボールへのインパクトからスイングの終了までの第3パートであることを特徴とする請求項1から4のいずれか一項に記載の画像処理装置。 The group includes a first part from the start of the swing of the golf club to the top of the swing, a second part from the top of the swing to the impact on the ball, and a third part from the impact to the ball to the end of the swing. The image processing apparatus according to claim 1 , wherein the image processing apparatus is a part. 撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる同期方法であって、
前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する生成処理と、
この生成処理により生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける分割処理と、
この分割処理により分けられたグループ単位で、前記複数の被写体の静止画像データどうしを同期させる同期処理と、
前記グループ単位で前記複数の被写体の各々の静止画像データの数に差がある場合、前記グループ単位で前記複数の被写体の各々の静止画像データの数を同一とするよう、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに、前記数の差に応じた数の追加の静止画像データを加える追加処理と、
前記追加処理により追加の静止画像データを加える位置または方法を任意に選択する選択処理と、
を含むことを特徴とする同期方法。
A synchronization method for synchronizing a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device,
Generation processing for generating a plurality of still image data from each of a plurality of moving image data obtained by imaging each of the plurality of subjects by the imaging device;
A division process for dividing the plurality of still image data generated by the generation process into a plurality of groups provided in time series;
A synchronization process for synchronizing still image data of the plurality of subjects in units of groups divided by the division process;
When there is a difference in the number of still image data of each of the plurality of subjects in the group unit, each of the plurality of subjects is set to have the same number of still image data of the plurality of subjects in the group unit. An additional process of adding a number of additional still image data in accordance with the number difference to a plurality of still image data having a small number of the plurality of still image data,
A selection process for arbitrarily selecting a position or method for adding additional still image data by the additional process;
Including a synchronization method.
撮像装置により複数の被写体の各々を撮像した複数の画像データを同期させる画像処理装置のコンピュータを、
前記撮像装置により前記複数の被写体の各々を撮像した複数の動画像データの各々から複数の静止画像データを生成する生成手段、
この生成手段により生成された前記複数の静止画像データをそれぞれ時系列に沿って設けられた複数のグループに分ける分割手段、
この分割手段により分けられたグループ単位で、前記複数の被写体の静止画像データどうしを同期させる同期手段、
前記グループ単位で前記複数の被写体の各々の静止画像データの数に差がある場合、前記グループ単位で前記複数の被写体の各々の静止画像データの数を同一とするよう、前記複数の被写体の各々の複数の静止画像データのうち数が少ない複数の静止画像データに、前記数の差に応じた数の追加の静止画像データを加える追加手段、
前記追加手段により追加の静止画像データを加える位置または方法を任意に選択する選択手段、
として機能させることを特徴とするプログラム。
A computer of an image processing device that synchronizes a plurality of image data obtained by imaging each of a plurality of subjects by an imaging device,
Generating means for generating a plurality of still image data from each of a plurality of moving image data obtained by imaging each of the plurality of subjects by the imaging device;
A dividing unit that divides the plurality of still image data generated by the generating unit into a plurality of groups provided in time series;
Synchronization means for synchronizing still image data of the plurality of subjects in groups divided by the dividing means;
When there is a difference in the number of still image data of each of the plurality of subjects in the group unit, each of the plurality of subjects is set to have the same number of still image data of the plurality of subjects in the group unit. Adding means for adding a number of additional still image data in accordance with the difference in the number of still image data having a small number of the plurality of still image data;
Selection means for arbitrarily selecting a position or method for adding additional still image data by the adding means,
A program characterized by functioning as
JP2011077393A 2011-03-31 2011-03-31 Image processing apparatus, synchronization method, and program Active JP5821236B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011077393A JP5821236B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, synchronization method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011077393A JP5821236B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, synchronization method, and program

Publications (2)

Publication Number Publication Date
JP2012213020A JP2012213020A (en) 2012-11-01
JP5821236B2 true JP5821236B2 (en) 2015-11-24

Family

ID=47266638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011077393A Active JP5821236B2 (en) 2011-03-31 2011-03-31 Image processing apparatus, synchronization method, and program

Country Status (1)

Country Link
JP (1) JP5821236B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016015780A (en) * 2015-10-14 2016-01-28 ソニー株式会社 Information processor, recording medium and information processing system
JP6576287B2 (en) * 2016-03-31 2019-09-18 Kddi株式会社 Movie processing apparatus and movie processing method
JP6947407B2 (en) * 2016-06-28 2021-10-13 Necソリューションイノベータ株式会社 Playback system, playback method, program, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122837A (en) * 2001-10-17 2003-04-25 Nippon Telegr & Teleph Corp <Ntt> Form diagnostic service method and system by continuous image, user terminal, its control method and control program, recording medium with the control program recorded thereon, form diagnostic server, its control method and control program, recording medium with the control program recorded thereon, examiner terminal, its control method and control program, and recording medium with the control program recorded thereon
JP2004260765A (en) * 2003-02-27 2004-09-16 Nihon Knowledge Kk Practical skill analysis system and program
JP2006080735A (en) * 2004-09-08 2006-03-23 Nippon Telegr & Teleph Corp <Ntt> Method, apparatus and program for synchronously reproducing a plurality of video images and computer-readable recording medium recording the program
JP5050445B2 (en) * 2006-08-11 2012-10-17 カシオ計算機株式会社 Movie playback apparatus and movie playback method
JP5321012B2 (en) * 2008-11-25 2013-10-23 カシオ計算機株式会社 Image processing apparatus and program

Also Published As

Publication number Publication date
JP2012213020A (en) 2012-11-01

Similar Documents

Publication Publication Date Title
CN108289180B (en) Method, medium, and terminal device for processing video according to body movement
JP6433559B1 (en) Providing device, providing method, and program
JP4504322B2 (en) Image extraction apparatus, image extraction method, and image extraction program
WO2005050986A1 (en) Method and device for presenting video content
CN104065875B (en) Display control unit, display control method and recording medium
JP5389724B2 (en) Image processing apparatus, image processing method, and program
EP1672546A1 (en) Video display
JP5321012B2 (en) Image processing apparatus and program
US20140079290A1 (en) Image processing device for performing image processing on moving image
JP2012105012A (en) Moving image reproduction apparatus, moving image reproduction method, computer program, and storage medium
JP5821236B2 (en) Image processing apparatus, synchronization method, and program
JPWO2013125277A1 (en) Image processing apparatus, image processing method, and program
JP2010130084A (en) Image processor and program
JP2016134701A (en) Video reproduction control program, video reproduction control method, video distribution server, transmission program, and transmission method
JP2020028096A (en) Image processing apparatus, control method of the same, and program
CN104168436B (en) Moving image reproducing apparatus and moving image reproducing method
JP5407708B2 (en) Captured video processing apparatus, control method, and program
CN104065867A (en) Image processing apparatus and image processing method
US20040169734A1 (en) Electronic camera extracting a predetermined number of images from a plurality of images generated by continuous shooting, and method for same
JP2021058300A (en) Cycle motion comparison display device and cycle motion comparison display method
CN116193049A (en) Video processing method, device, computer equipment and storage medium
JP5790710B2 (en) Image processing apparatus, control method, and program
JP6256738B2 (en) Movie selection device, movie selection method and program
JP2001054607A (en) Recording and reproducing device for golf swing form
KR102453296B1 (en) Information processing apparatus, control method therefor and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150715

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150921

R150 Certificate of patent or registration of utility model

Ref document number: 5821236

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150