JP2014164644A - Signal process device, display device and program - Google Patents

Signal process device, display device and program Download PDF

Info

Publication number
JP2014164644A
JP2014164644A JP2013036794A JP2013036794A JP2014164644A JP 2014164644 A JP2014164644 A JP 2014164644A JP 2013036794 A JP2013036794 A JP 2013036794A JP 2013036794 A JP2013036794 A JP 2013036794A JP 2014164644 A JP2014164644 A JP 2014164644A
Authority
JP
Japan
Prior art keywords
moving image
unit
image
frame
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013036794A
Other languages
Japanese (ja)
Inventor
Tetsuya Konishi
哲也 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013036794A priority Critical patent/JP2014164644A/en
Publication of JP2014164644A publication Critical patent/JP2014164644A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a signal process device that allows a form of a subject to be easily compared.SOLUTION: The signal process device comprises: a first detection section that detects a displacement among frames of a moving image; a first extraction section that extracts a characteristic point of the displacement detected by the first detection section; a collation section that collates the characteristic point in a first moving image extracted by the first extraction section with the characteristic point in a second moving image thereby, and associates a first characteristic point in the first moving image with a second characteristic point corresponding to the first characteristic point in the second moving image.

Description

本発明は、信号処理装置、表示装置、及びプログラムに関する。   The present invention relates to a signal processing device, a display device, and a program.

手本となるフォームと比較練習するためのフォーム練習装置が開示されている(例えば、特許文献1参照)。   A form practice device for comparison practice with a model form has been disclosed (for example, see Patent Document 1).

特開平7−124281号公報JP-A-7-124281

特許文献1に記載の装置では、それぞれのフォームのタイミングを合わせることができない場合があった。このように、従来、練習者のフォームと手本となるフォームとを容易に比較することができない場合があるという問題があった。   In the apparatus described in Patent Document 1, there is a case where the timing of each form cannot be synchronized. As described above, there has been a problem in the prior art that it may not be possible to easily compare the trainee's form with the model form.

本発明は、このような事情に鑑みてなされたもので、その目的は、互いに異なる被写体のフォームを容易に比較することができる信号処理装置、表示装置、及びプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is to provide a signal processing device, a display device, and a program capable of easily comparing forms of different subjects.

この発明は上述した課題を解決するためになされたもので、本発明の一態様は、動画像のフレーム間の変位を検出する第1検出部と、前記第1検出部により検出された前記変位の特徴点を抽出する第1抽出部と、前記第1抽出部により抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける照合部と、を備えることを特徴とする信号処理装置である。   The present invention has been made to solve the above-described problems, and one aspect of the present invention provides a first detection unit that detects a displacement between frames of a moving image, and the displacement detected by the first detection unit. A first extraction unit that extracts a feature point of the first moving image, a feature point in the first moving image extracted by the first extracting unit is matched with a feature point in the second moving image, and the first feature in the first moving image And a collating unit that associates a point with the second feature point corresponding to the first feature point in the second moving image.

また、本発明の一態様は、上記記載の信号処理装置、を備えることを特徴とする表示装置である。   Another embodiment of the present invention is a display device including the above-described signal processing device.

また、本発明の一態様は、コンピュータに、動画像のフレーム間の変位を検出する第1ステップと、前記第1ステップにおいて検出された前記変位の特徴点を抽出する第2ステップと、前記第2ステップにおいて抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける第3ステップと、を実行させるためのプログラムである。   According to another aspect of the present invention, a computer includes a first step of detecting a displacement between frames of a moving image, a second step of extracting a feature point of the displacement detected in the first step, and the first step. The feature points in the first video extracted in step 2 are matched with the feature points in the second video, and the first feature points in the first video and the second video correspond to the first feature points. A third step of associating the second feature point with the program.

被写体のフォームを容易に比較することができる。   The forms of the subject can be easily compared.

この発明の第1実施形態による表示装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the display apparatus by 1st Embodiment of this invention. 第1実施形態のタイミング処理部及び記憶部の詳細構成の一例を示す図である。It is a figure which shows an example of the detailed structure of the timing process part of 1st Embodiment, and a memory | storage part. 動画と位置と時刻ポイントとが対応付けされたデータの一例を示す図である。It is a figure which shows an example of the data with which the moving image, the position, and the time point were matched. 動画データを照合して対応付けをした結果の一例を示す図である。It is a figure which shows an example of the result of collating and matching moving image data. 動画データを照合して対応付けをした結果の別の例を示す図である。It is a figure which shows another example of the result of collating and matching moving image data. 表示装置が動画を再生する処理の一例を説明する図である。It is a figure explaining an example of the process in which a display apparatus reproduces | regenerates a moving image. 再生処理の具体例(第1例)を説明する図である。It is a figure explaining the specific example (1st example) of a reproduction | regeneration process. 再生処理の具体例(第2例)を説明する図である。It is a figure explaining the specific example (2nd example) of a reproduction | regeneration process. 再生処理の具体例(第3例)を説明する図である。It is a figure explaining the specific example (3rd example) of a reproduction | regeneration process. 第2実施形態のタイミング処理部の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the timing process part of 2nd Embodiment. 第3実施形態のタイミング処理部の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the timing process part of 3rd Embodiment. 第4実施形態の処理部の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the process part of 4th Embodiment. 第5実施形態の撮像装置の構成の一例を示す概略ブロック図である。It is a schematic block diagram which shows an example of a structure of the imaging device of 5th Embodiment.

以下、図面を参照して、本発明の実施の形態について説明する。
[第1実施形態]
図1は、この発明の第1実施形態による表示装置20の構成の一例を示す概略ブロック図である。表示装置20は、表示部4と、記憶媒体部5と、信号処理部10(信号処理装置)と、バス11と、を備えている。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a schematic block diagram showing an example of the configuration of the display device 20 according to the first embodiment of the present invention. The display device 20 includes a display unit 4, a storage medium unit 5, a signal processing unit 10 (signal processing device), and a bus 11.

表示部4は、画像または文字情報などを表示するディスプレイである。例えば、表示部4は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどを備えており、信号処理部10の制御によって入力された画像信号に基づいた画像、または、入力された文字信号に基づいた文字情報等を表示する。また、表示部4は、信号処理部10の制御によって入力された2種類の動画像(以下、動画と称する)を並べて表示する。なお、表示部4は、表示面に対するタッチ操作を検出するタッチパネルを含んで構成されてもよい。また、表示部4は、表示装置20と有線または無線により入力された画像または文字情報などを表示する外部装置としての表示装置であってもよい。   The display unit 4 is a display that displays images or character information. For example, the display unit 4 includes a liquid crystal display, an organic EL (Electro Luminescence) display, and the like, and is based on an image based on an image signal input by the control of the signal processing unit 10 or an input character signal. Display text information and so on. In addition, the display unit 4 displays two types of moving images (hereinafter referred to as “moving images”) input under the control of the signal processing unit 10 side by side. In addition, the display part 4 may be comprised including the touch panel which detects the touch operation with respect to a display surface. In addition, the display unit 4 may be a display device as an external device that displays images or character information input via a wired or wireless connection with the display device 20.

記憶媒体部5は、取り外しが可能な記憶媒体50(カードメモリ等)と接続され、この記憶媒体50に記憶(記録)されている画像又は情報を読み出す。例えば、記憶媒体部5は、記憶媒体50に記憶(記録)されている動画を信号処理部10の制御により読み出す。なお、記憶媒体部5は、記憶媒体50に対する画像又は情報の書込みや消去を行ってもよい。   The storage medium unit 5 is connected to a removable storage medium 50 (such as a card memory), and reads an image or information stored (recorded) in the storage medium 50. For example, the storage medium unit 5 reads a moving image stored (recorded) in the storage medium 50 under the control of the signal processing unit 10. Note that the storage medium unit 5 may perform writing or erasing of an image or information on the storage medium 50.

記憶媒体50は、表示装置20に対して着脱可能に接続されるメモリであって、例えば、撮影された動画等を記憶する。なお、記憶媒体部5に代えて、有線または無線を介して接続される他機器が有する記憶媒体、又は記憶装置としてもよい。   The storage medium 50 is a memory that is detachably connected to the display device 20 and stores, for example, a captured moving image. Instead of the storage medium unit 5, a storage medium or a storage device included in another device connected via wire or wireless may be used.

信号処理部10は、処理部1と、記憶部2と、を備えている。処理部1は、タイミング処理部110と、再生処理部120と、を備えている。タイミング処理部110は、動画に対して信号処理を実行する。再生処理部120は、タイミング処理部110の信号処理の結果に基づいて動画を再生する。例えば、再生処理部120は、記憶媒体部5から読み出した動画を、タイミング処理部110の信号処理の結果に基づいて再生して表示部4に表示させる。記憶部2は、タイミング処理部110が動画に対して信号処理を実行する際に必要なデータ、または、信号処理の結果により生成されたデータを記憶する。   The signal processing unit 10 includes a processing unit 1 and a storage unit 2. The processing unit 1 includes a timing processing unit 110 and a reproduction processing unit 120. The timing processing unit 110 performs signal processing on the moving image. The reproduction processing unit 120 reproduces a moving image based on the signal processing result of the timing processing unit 110. For example, the reproduction processing unit 120 reproduces the moving image read from the storage medium unit 5 based on the signal processing result of the timing processing unit 110 and causes the display unit 4 to display the moving image. The storage unit 2 stores data necessary when the timing processing unit 110 performs signal processing on a moving image or data generated as a result of signal processing.

バス11は、表示部4、記憶媒体部5、及び、信号処理部10と接続され、各部から出力された画像信号、制御信号、等を転送する。   The bus 11 is connected to the display unit 4, the storage medium unit 5, and the signal processing unit 10, and transfers image signals, control signals, and the like output from each unit.

次に、図2を参照して、タイミング処理部110及び記憶部2の構成について詳しく説明する。図2は、タイミング処理部110及び記憶部2の詳細構成の一例を示す図である。まず、タイミング処理部110の詳細構成について説明する。タイミング処理部110は、選択部112と、テンプレート登録部113と、変位検出部114と、変化特徴点抽出部115と、照合部116と、を備えている。   Next, the configuration of the timing processing unit 110 and the storage unit 2 will be described in detail with reference to FIG. FIG. 2 is a diagram illustrating an example of a detailed configuration of the timing processing unit 110 and the storage unit 2. First, a detailed configuration of the timing processing unit 110 will be described. The timing processing unit 110 includes a selection unit 112, a template registration unit 113, a displacement detection unit 114, a change feature point extraction unit 115, and a collation unit 116.

選択部112は、動画から所定の被写体を含む画像領域を選択する。例えば、選択部112は、ユーザの操作に応じて、動画の画像領域のうちの所定の被写体を含む画像領域を選択する。ここで、所定の被写体とは、例えば、動画に記録されているスポーツやダンスの練習者、または、その見本となる者(先生)のことである。例えば、選択部112は、動画から、フォームを比較したい被写体を含む画像領域をユーザの操作に応じて選択する。なお、ユーザの操作とは、不図示の操作部に対する操作であってもよいし、表示部4がタッチパネルを有する場合には表示面へのタッチ操作であってもよい。   The selection unit 112 selects an image area including a predetermined subject from the moving image. For example, the selection unit 112 selects an image area including a predetermined subject from among the image areas of the moving image in accordance with a user operation. Here, the predetermined subject is, for example, a sports or dance practitioner recorded in a moving image or a sample (teacher). For example, the selection unit 112 selects an image region including a subject whose form is to be compared from a moving image according to a user operation. The user operation may be an operation on an operation unit (not shown), or may be a touch operation on the display surface when the display unit 4 includes a touch panel.

テンプレート登録部113(登録部)は、選択部112により選択された画像領域の画像をテンプレート画像として登録する。例えば、テンプレート登録部113(登録部)は、テンプレート画像を記憶部2に登録して記憶させる。   The template registration unit 113 (registration unit) registers the image of the image area selected by the selection unit 112 as a template image. For example, the template registration unit 113 (registration unit) registers and stores the template image in the storage unit 2.

変位検出部114(第1検出部)は、動画のフレーム間の変位を検出する。例えば、変位検出部114は、テンプレート登録部113により登録されたテンプレート画像を用いて、動画の各フレーム画像に対してテンプレートマッチングを行うことにより、所定の被写体を含む画像領域のフレーム間の変位を検出する。   The displacement detector 114 (first detector) detects a displacement between frames of the moving image. For example, the displacement detection unit 114 performs template matching on each frame image of the moving image using the template image registered by the template registration unit 113, thereby detecting the displacement between frames of the image region including the predetermined subject. To detect.

具体的には、変位検出部114は、動画のフレーム画像毎にフレーム画像の画像領域のうちの所定の被写体を含む画像領域の座標位置を検出するとともに、検出したフレーム画像毎の座標位置に基づいて座標位置のフレーム間の変位を検出する。また、変位検出部114は、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム順に配列した「位置配列データ」を生成する。なお、変位検出部114は、この位置配列データにおいて、例えば、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム番号と対応付けている。また、変位検出部114は、検出した座標位置のフレーム間の変位を示す情報を、変化特徴点抽出部115に供給する。   Specifically, the displacement detection unit 114 detects the coordinate position of an image area including a predetermined subject in the image area of the frame image for each frame image of the moving image, and based on the detected coordinate position of each frame image. To detect the displacement of the coordinate position between frames. Further, the displacement detection unit 114 generates “position arrangement data” in which the coordinate positions of image areas including a predetermined subject for each frame are arranged in the order of frames. In this position array data, the displacement detection unit 114 associates, for example, the coordinate position of an image area including a predetermined subject for each frame with a frame number. Further, the displacement detection unit 114 supplies information indicating the displacement between frames of the detected coordinate position to the change feature point extraction unit 115.

変化特徴点抽出部115(第1抽出部)は、変位検出部114により検出されたフレーム間の変位の特徴点を抽出する。例えば、変化特徴点抽出部115は、フレーム間の変位のうち変化が大きいタイミングを変位の特徴点として抽出する。ここで、上述の変化が大きいタイミングとは、例えば、「変位の方向が反転したタイミング」、または、「変位の速度変化が大きいタイミング(例えば、静止状態から動き出したタイミングや動いている状態から静止したタイミング等)」等である。なお、変位の特徴点として抽出した変化の大きいタイミングを示す情報を、以下の説明において「時刻ポイント」と称する。   The change feature point extraction unit 115 (first extraction unit) extracts a feature point of displacement between frames detected by the displacement detection unit 114. For example, the change feature point extraction unit 115 extracts a timing at which the change is large among the displacements between frames as a feature point of the displacement. Here, the timing at which the change is large is, for example, “timing at which the direction of displacement is reversed” or “timing at which the displacement speed change is large (for example, timing at which movement starts from a stationary state or movement from a stationary state) Etc.) ”. Information indicating the timing of the large change extracted as the displacement feature point is referred to as a “time point” in the following description.

また、変化特徴点抽出部115は、抽出した「時刻ポイント」をフレーム番号と対応付けてフレーム順に配列した「時刻ポイント配列データ」を生成する。例えば、変化特徴点抽出部115は、変位の特徴点の有無を示すフラグ情報(例えば、有り:「1」、無し:「0」)のうち、変位の特徴点が「有り」を示すフラグ情報(例えば、有り:「1」)を「時刻ポイント」としてフレーム番号に対応付ける。なお、変化特徴点抽出部115は、変位の特徴点の種類に応じて異なるフラグ情報を「時刻ポイント」としてフレーム番号に対応付けてもよい。   Further, the change feature point extraction unit 115 generates “time point array data” in which the extracted “time points” are associated with frame numbers and arranged in the order of frames. For example, the change feature point extraction unit 115 includes flag information indicating that the displacement feature point is “present” among the flag information indicating the presence / absence of the displacement feature point (for example, presence: “1”, absence: “0”). (For example, “Yes”: “1”) is associated with the frame number as “time point”. Note that the change feature point extraction unit 115 may associate different flag information as “time point” with the frame number according to the type of displacement feature point.

照合部116は、動画における変位の特徴点を、他の動画における変位の特徴点と照合して対応付けを行う。例えば、比較する2つの動画を、「A動画」(第1の動画)と「B動画」(第2の動画)とする。この場合、変化特徴点抽出部115は、「A動画」における変位の特徴点と、「B動画」における変位の特徴点とをそれぞれ抽出して、「A動画」の時刻ポイント配列データと、「B動画」の時刻ポイント配列データとを生成する。照合部116は、「A動画」の時刻ポイント配列データと、「B動画」の時刻ポイント配列データとを参照して、「A動画」の時刻ポイントと、「B動画」の時刻ポイントとを照合する。すなわち、照合部116は、変化特徴点抽出部115により抽出された「A動画」における特徴点と、「B動画」における特徴点とを照合する。   The collation unit 116 collates the displacement feature points in the moving image with the displacement feature points in the other moving images and performs association. For example, the two moving images to be compared are “A moving image” (first moving image) and “B moving image” (second moving image). In this case, the change feature point extraction unit 115 extracts the displacement feature point in the “A movie” and the displacement feature point in the “B movie”, respectively, Time point array data of “B moving image” is generated. The collation unit 116 refers to the time point array data of “A movie” and the time point sequence data of “B movie”, and collates the time point of “A movie” and the time point of “B movie”. To do. That is, the collation unit 116 collates the feature points in the “A moving image” extracted by the change feature point extraction unit 115 and the feature points in the “B moving image”.

そして、照合部116は、「A動画」における第1特徴点(「A動画」における「時刻ポイント」)と、「B動画」において第1特徴点に対応する第2特徴点(「B動画」において「A動画」における「時刻ポイント」に対応する「時刻ポイント」)とを対応付ける。例えば、照合部116は、「A動画」における第1特徴点(「時刻ポイント」)と、「B動画」において第1特徴点と同様の変位の特徴を示す第2特徴点(「時刻ポイント」)とを対応付ける。続いて、図3、図4を参照して、照合部116が照合して対応付けをする処理の具体例を以下に説明する。   Then, the collation unit 116 includes the first feature point in “A movie” (“time point” in “A movie”) and the second feature point corresponding to the first feature point in “B movie” (“B movie”). To “time point” corresponding to “time point” in “A moving image”). For example, the collation unit 116 includes a first feature point (“time point”) in “A movie” and a second feature point (“time point”) indicating the same displacement feature as the first feature point in “B movie”. ). Next, a specific example of processing in which the collation unit 116 collates and associates will be described below with reference to FIGS. 3 and 4.

(照合処理の具体例)
図3は、動画(画像及び音声(声以外の音も含む))と、所定の被写体を含む画像領域の「位置」と、変位の特徴点のタイミングの「時刻ポイント」とが対応付けされたデータの一例を示す図である。なお、横軸が、動画の時間軸を示している。なお、この図では、例えば「A動画」がダンスのフォームの手本となる先生がダンスをしている動画であり、「B動画」がそのダンスを練習する練習者がダンスをしている動画であるものとする。
(Specific example of verification processing)
In FIG. 3, a moving image (image and sound (including sound other than voice)), “position” of an image region including a predetermined subject, and “time point” of the timing of a displacement feature point are associated with each other. It is a figure which shows an example of data. The horizontal axis represents the time axis of the moving image. In this figure, for example, “A video” is a video where a teacher who is a model of dance is dancing, and “B video” is a video where a practitioner who is practicing the dance is dancing Suppose that

また、この図に示す「時刻ポイント」は、ダンスの動きにおける変位の特徴点が抽出されたタイミング(動きの変化が大きいタイミング)のフレームに対応付けられている。例えば、「時刻ポイント」には、変位の特徴点が「有り」を示すフラグ情報(例えば、「1」)が対応付けられている。すなわち、変化特徴点抽出部115は、「A動画」及び「B動画」において、変位の特徴点として抽出した変化の大きいタイミングのフレームに、変位の特徴点の「有り」を示すフラグ情報(例えば、有り:「1」)を「時刻ポイント」として対応付けている。   In addition, the “time point” shown in this figure is associated with a frame at a timing at which a feature point of displacement in the dance movement is extracted (a timing when the movement change is large). For example, “time point” is associated with flag information (for example, “1”) indicating that the displacement feature point is “present”. That is, the change feature point extraction unit 115 includes flag information indicating “existence” of the displacement feature point in the frame with the large change timing extracted as the displacement feature point in “A movie” and “B movie” (for example, , Existence: “1”) is associated as “time point”.

この図では、「A動画」において、フレームfa(12)、fa(18)、fa(23)のそれぞれに、フラグ情報「1」が「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」、としてそれぞれ対応付けられている。また、「B動画」において、フレームfb(12)、fb(17)、fb(20)のそれぞれに、フラグ情報「1」が「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」、としてそれぞれ対応付けられている。   In this figure, in “A moving image”, flag information “1” is “time point (0)” and “time point (1)” in each of the frames fa (12), fa (18), and fa (23). , “Time point (2)”, respectively. In the “B moving image”, the flag information “1” is set to “time point (0)”, “time point (1)”, “figure” in each of the frames fb (12), fb (17), and fb (20). Time points (2) ”are associated with each other.

図4は、図3に示す動画データを照合して対応付けをした結果の一例を示す図である。照合部116は、動画の時間の経過の順に、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれを、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと対応付ける。すなわち、照合部116は、「A動画」における複数の第1特徴点のそれぞれと、「B動画」において複数の第1特徴点のそれぞれに対応する第2特徴点とを対応付ける。   FIG. 4 is a diagram illustrating an example of a result of collating and matching the moving image data illustrated in FIG. The collation unit 116 sets each of “time point (0)”, “time point (1)”, and “time point (2)” in “A moving image” in “B moving image” in the order of the passage of time of the moving image. Corresponding to “time point (0)”, “time point (1)”, and “time point (2)”. That is, the collation unit 116 associates each of the plurality of first feature points in “A movie” with the second feature points corresponding to each of the plurality of first feature points in “B movie”.

例えば、照合部116は、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれが、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと同じタイミングで再生されるように対応付ける。   For example, the collation unit 116 determines that each of “time point (0)”, “time point (1)”, and “time point (2)” in “B moving image” is “time point (0)” in “A moving image”. ”,“ Time point (1) ”, and“ time point (2) ”so as to be reproduced at the same timing.

具体的には、照合部116は、「B動画」における「時刻ポイント(0)」のフレームfb(12)が、「A動画」における「時刻ポイント(0)」のフレームfa(12)と同じタイミングで再生されるように対応付ける。また、照合部116は、「B動画」における「時刻ポイント(1)」のフレームfb(17)が、「A動画」における「時刻ポイント(1)」のフレームfa(18)と同じタイミングで再生されるように対応付ける。また、照合部116は、「B動画」における「時刻ポイント(2)」のフレームfb(20)が、「A動画」における「時刻ポイント(2)」のフレームfa(23)と同じタイミングで再生されるように対応付ける。   Specifically, the collation unit 116 has the same frame fb (12) of “time point (0)” in “B moving image” as frame fa (12) of “time point (0)” in “A moving image”. Match to be played at the timing. In addition, the collating unit 116 reproduces the frame fb (17) of “time point (1)” in “B moving image” at the same timing as the frame fa (18) of “time point (1)” in “A moving image”. Correlate as Further, the collating unit 116 reproduces the frame fb (20) of “time point (2)” in “B moving image” at the same timing as the frame fa (23) of “time point (2)” in “A moving image”. Correlate as

このように、照合部116は、練習生のダンスの動きにおける変位の特徴点のそれぞれを、見本となる先生のダンスの動きにおける変位の特徴点のそれぞれと同じタイミングで再生されるように対応付ける。   In this way, the collating unit 116 associates each of the displacement feature points in the dance movement of the trainee so as to be reproduced at the same timing as each of the displacement feature points in the teacher's dance movement as a sample.

なお、照合部116は、「A動画」における第1特徴点(「A動画」における時刻ポイント)と、「B動画」において第1特徴点に対応する第2特徴点(「B動画」における時刻ポイント)とを統合してもよい。そして、照合部116は、統合した特徴点(時刻ポイント)に対して、第1特徴点に対応する「A動画」のフレーム画像、および、第2特徴点に対応する「B動画」のフレーム画像を対応付けてもよい。   Note that the matching unit 116 determines the first feature point in “A movie” (time point in “A movie”) and the second feature point corresponding to the first feature point in “B movie” (the time in “B movie”). Point). Then, the collation unit 116 performs frame image of “A moving image” corresponding to the first feature point and frame image of “B moving image” corresponding to the second feature point with respect to the integrated feature point (time point). May be associated.

図5は、図3に示す動画データを照合して、「時刻ポイント」を統合した一例を示している。この図においては、照合部116は、「A動画」における「時刻ポイント(0)」と「B動画」における「時刻ポイント(0)」とを統合した「時刻ポイント(0)」に、「A動画」のフレームfa(12)と「B動画」のフレームfb(12)とを対応付ける。また、照合部116は、「A動画」における「時刻ポイント(1)」と「B動画」における「時刻ポイント(1)」とを統合した「時刻ポイント(1)」に、「A動画」のフレームfa(18)と「B動画」のフレームfb(17)とを対応付ける。また、照合部116は、「A動画」における「時刻ポイント(2)」と「B動画」における「時刻ポイント(2)」とを統合した「時刻ポイント(2)」に、「A動画」のフレームfa(23)と「B動画」のフレームfb(20)とを対応付ける。   FIG. 5 shows an example in which “time points” are integrated by collating the moving image data shown in FIG. In this figure, the collation unit 116 adds “A point” (“0”) in “A movie” and “Time point (0)” in “B movie” to “A point (0)”. The frame “fa” (12) of “Movie” and the frame fb (12) of “B Movie” are associated with each other. In addition, the collation unit 116 adds “time point (1)” in “A moving image” and “time point (1)” in “B moving image” to “time point (1)” and “A moving image”. The frame fa (18) is associated with the frame fb (17) of “B moving image”. In addition, the collation unit 116 adds “time point (2)” in “A moving image” and “time point (2)” in “B moving image” to “time point (2)” by combining “time point (2)”. The frame fa (23) and the frame fb (20) of “B moving image” are associated with each other.

図2に戻り、次に、記憶部2の詳細構成について説明する。記憶部2は、テンプレート画像記憶部21と、位置配列データ記憶部22と、時刻ポイント配列データ記憶部23と、画像処理用バッファメモリ24と、を備えている。   Returning to FIG. 2, the detailed configuration of the storage unit 2 will be described next. The storage unit 2 includes a template image storage unit 21, a position array data storage unit 22, a time point array data storage unit 23, and an image processing buffer memory 24.

テンプレート画像記憶部21は、テンプレート登録部113が登録するテンプレート画像を記憶する。例えば、テンプレート画像記憶部21は、選択部112により選択された所定の被写体を含む画像領域の画像をテンプレート登録部113の制御によりテンプレート画像として記憶する。また、テンプレート画像記憶部21は、記憶しているテンプレート画像を、変位検出部114がテンプレートマッチングを行う際に変位検出部114の要求に応じて供給する。   The template image storage unit 21 stores a template image registered by the template registration unit 113. For example, the template image storage unit 21 stores an image of an image area including a predetermined subject selected by the selection unit 112 as a template image under the control of the template registration unit 113. The template image storage unit 21 supplies the stored template image in response to a request from the displacement detection unit 114 when the displacement detection unit 114 performs template matching.

位置配列データ記憶部22は、変位検出部114が生成した位置配列データを記憶する。例えば、位置配列データ記憶部22は、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム番号と対応付けて記憶する。   The position array data storage unit 22 stores the position array data generated by the displacement detection unit 114. For example, the position array data storage unit 22 stores the coordinate position of the image area including a predetermined subject for each frame in association with the frame number.

時刻ポイント配列データ記憶部23は、変化特徴点抽出部115が生成した時刻ポイント配列データを記憶する。例えば、時刻ポイント配列データ記憶部23は、変位の特徴点として抽出した変化の大きいタイミングである「時刻ポイント」をフレーム番号と対応付けて記憶する。   The time point array data storage unit 23 stores the time point array data generated by the change feature point extraction unit 115. For example, the time point array data storage unit 23 stores “time point”, which is a timing with a large change extracted as a feature point of displacement, in association with a frame number.

画像処理用バッファメモリ24は、信号処理部10が動画に対して信号処理を実行する際の作業領域、または、動画を再生する処理を実行する際の作業領域として利用され、動画が一時的に記憶される。例えば、画像処理用バッファメモリ24は、「A動画」に対して処理を実行する際に利用されるAバッファメモリと、「B動画」に対して処理を実行する際に利用されるBバッファメモリと、を有している。   The image processing buffer memory 24 is used as a work area when the signal processing unit 10 performs signal processing on a moving image or a work area when executing a process of playing back a moving image. Remembered. For example, the image processing buffer memory 24 includes an A buffer memory used when processing “A moving image” and a B buffer memory used when executing processing “B moving image”. And have.

以上のように構成された信号処理部10は、照合部116が照合した結果に基づいて、「A動画」と「B動画」とのそれぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生する。すなわち、信号処理部10は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生する。また、表示装置20は、信号処理部10が再生した「A動画」と「B動画」とのそれぞれの動画を表示部4に並べて表示する。   The signal processing unit 10 configured as described above, based on the result of collation by the collation unit 116, the timing of the movement of the predetermined subject (displacement feature point) in each of the “A moving image” and the “B moving image”. Play each video so that That is, the signal processing unit 10 reproduces each moving image so that the timing of the movement of the predetermined subject (displacement feature point) in each of the two moving images matches. In addition, the display device 20 displays the moving images “A moving image” and “B moving image” reproduced by the signal processing unit 10 side by side on the display unit 4.

よって、表示装置20は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を表示部4に並べて表示することができる。   Therefore, the display device 20 can display the moving images side by side on the display unit 4 so that the timing of the movement of the predetermined subject (displacement feature point) in each of the two moving images matches.

例えば、表示装置20(信号処理部10)は、図3に示す「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれとが同じタイミングで再生されるように、「A動画」と「B動画」とを表示部4に並べて表示する(再生する)ことができる。次に、この表示装置20における再生処理について詳しく説明する。   For example, the display device 20 (the signal processing unit 10) includes “time point (0)”, “time point (1)”, “time point (2)” in “A moving image” illustrated in FIG. “A movie” and “B movie” are reproduced so that “time point (0)”, “time point (1)”, and “time point (2)” in “B movie” are reproduced at the same timing. Can be displayed side by side on the display unit 4 (reproduced). Next, the reproduction process in the display device 20 will be described in detail.

(再生処理の説明)
図6は、表示装置20が動画を再生する処理の一例を説明する図である。この図において、信号処理部10は、「A動画」の時刻ポイント配列データと「B動画」の時刻ポイント配列データとをそれぞれ生成して、生成したそれぞれの時刻ポイント配列データが時刻ポイント配列データ記憶部23に記憶されているものとする。
(Description of playback processing)
FIG. 6 is a diagram illustrating an example of a process in which the display device 20 reproduces a moving image. In this figure, the signal processing unit 10 generates time point array data of “A moving image” and time point array data of “B moving image”, and the generated time point array data is stored in the time point array data. It is assumed that it is stored in the unit 23.

照合部116は、時刻ポイント配列データ記憶部23に記憶されている「A動画」の時刻ポイント配列データと「B動画」の時刻ポイント配列データとを参照して、「A動画」における「時刻ポイント」と、「B動画」における「時刻ポイント」とを対応付ける(符号S101参照)。   The collating unit 116 refers to the time point array data of “A moving image” and the time point array data of “B moving image” stored in the time point array data storage unit 23, and the “time point” of “A moving image” ”And“ time point ”in“ B moving image ”(see S101).

再生処理部120は、記憶媒体部5から「A動画」を読み出して、「A動画」のフレーム画像の配列(A画像配列)と、音声の配列(A音声配列)と、位置配列(A位置配列)と、のそれぞれのデータのうち所定の数フレーム分のデータをフレーム順にしたがって、画像処理用バッファメモリ24のAバッファメモリに一時的に記憶させる(符号S102参照)。また、再生処理部120は、記憶媒体部5から「B動画」を読み出して、「B動画」のフレーム画像の配列(B画像配列)と、音声の配列(B音声配列)と、位置配列(B位置配列)と、のそれぞれのデータのうち所定の数フレーム分のデータをフレーム順にしたがって、画像処理用バッファメモリ24のBバッファメモリに一時的に記憶させる(符号S103参照)。   The reproduction processing unit 120 reads the “A moving image” from the storage medium unit 5, and arranges the frame image array (A image array), the sound array (A sound array), and the position array (A position) of “A moving image”. The data for a predetermined number of frames of the respective data are temporarily stored in the A buffer memory of the image processing buffer memory 24 according to the frame order (see S102). Further, the reproduction processing unit 120 reads “B moving image” from the storage medium unit 5, and arranges a frame image array (B image array), a sound array (B sound array), and a position array (“B moving image”). (B position array) and a predetermined number of frames of the data are temporarily stored in the B buffer memory of the image processing buffer memory 24 according to the frame order (see S103).

次に、再生処理部120は、照合部116が照合した結果(対応付けされた時刻ポイント)に基づいて、「A動画」と「B動画」とのそれぞれの互いに対応する「時刻ポイント」の再生タイミングが同じになるように、画像処理用バッファメモリ24から「A動画」と「B動画」とを読み出して再生し(符号S104参照)、表示部4に並べて表示させる(符号S105参照)。
また、再生処理部120は、画像処理用バッファメモリ24から「A動画」と「B動画」とを読み出したことに応じて、次のフレームのデータを画像処理用バッファメモリ24に順次一時的に記憶させる。
Next, the reproduction processing unit 120 reproduces the “time point” corresponding to each of “A moving image” and “B moving image” based on the result (corresponding time point) collated by the collating unit 116. The “A moving image” and the “B moving image” are read from the image processing buffer memory 24 so as to have the same timing, reproduced (see reference S104), and displayed side by side on the display unit 4 (refer to reference S105).
In addition, in response to reading “A moving image” and “B moving image” from the image processing buffer memory 24, the reproduction processing unit 120 sequentially and temporarily stores data of the next frame in the image processing buffer memory 24. Remember me.

例えば、再生処理部120は、図4に示すように、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれが、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと同じタイミングで再生されるように、「A動画」と「B動画」との再生開始フレームと、「B動画」のフレームレートとを調整する。   For example, as illustrated in FIG. 4, the reproduction processing unit 120 sets “time point (0)”, “time point (1)”, and “time point (2)” in “B moving image” to “A moving image”. "A movie" and "B movie" start to be played at the same timing as "time point (0)", "time point (1)", and "time point (2)" The frame and the frame rate of “B moving image” are adjusted.

具体的には、再生処理部120は、「A動画」のフレームfa(12)と「B動画」のフレームfb(12)、「A動画」のフレームfa(18)と「B動画」のフレームfb(17)、及び「A動画」のフレームfa(23)と「B動画」のフレームfb(20)、がそれぞれ同じタイミングになるように再生する。すなわち、再生処理部120は、「A動画」のフレームfa(12)からフレームfa(18)を再生する期間に、「B動画」のフレームfb(12)からフレームfb(17)を「A動画」のフレームレートよりも低いフレームレートで再生する。また、再生処理部120は、「A動画」のフレームfa(12)からフレームfa(18)を再生する期間に、「B動画」のフレームfb(12)からフレームfb(17)を「A動画」のフレームレートよりも低いフレームレートに変換して再生する。   Specifically, the reproduction processing unit 120 performs the “fa movie” frame fa (12), the “B movie” frame fb (12), the “A movie” frame fa (18), and the “B movie” frame. Playback is performed so that the frame fb (17), the frame A (moving picture A) fa (23), and the frame B (moving picture B) fb (20) have the same timing. That is, the playback processing unit 120 converts the frame fb (12) from the frame fb (12) to the frame fb (17) of the “B moving image” into the “A moving image” during the period of reproducing the frame fa (12) from the frame fa (12) of the “A moving image”. "Is played back at a frame rate lower than the frame rate. Further, the playback processing unit 120 converts the frame fb (12) from the frame fb (12) to the frame fb (17) of the “B moving image” into the “A moving image” during the period of reproducing the frame fa (12) from the frame fa (12) of “A moving image”. The frame rate is lower than the frame rate of “

このように、再生処理部120は、「A動画」において第1特徴点が抽出されたフレーム画像と、「B動画」において第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、「A動画」および「B動画」を再生する。また、再生処理部120は、第1特徴点が抽出されたフレーム画像と第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、「A動画」または「B動画」のフレームレートを変換する。また、再生処理部120は、再生した「A動画」および「B動画」を表示部4に並べて表示する。   As described above, the reproduction processing unit 120 reproduces the frame image from which the first feature point is extracted in “A moving image” and the frame image from which the second feature point is extracted in “B moving image” at the same timing. In this way, “A moving image” and “B moving image” are reproduced. In addition, the reproduction processing unit 120 performs “A movie” or “B movie” so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. Convert the frame rate. In addition, the reproduction processing unit 120 displays the reproduced “A moving image” and “B moving image” side by side on the display unit 4.

すなわち、表示装置20は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生して表示部4に並べて表示する。よって、表示装置20は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を表示することができる。   That is, the display device 20 reproduces each moving image and displays it side by side on the display unit 4 so that the timing of the movement of the predetermined subject (displacement feature point) in each of the two moving images matches. Therefore, the display device 20 can display the respective moving images so that the forms of the subjects recorded in the different moving images can be easily compared.

なお、再生処理部120は、「B動画」を「A動画」のフレームレートよりも低いフレームレートに変更して再生する場合、「B動画」の1フレーム毎の再生時間を長くするように変更してもよいし、フレームレートを変更する期間内の「B動画」のフレーム数と「A動画」のフレーム数とが同じになるように、その期間内の「B動画」にフレーム(画像)を加えてもよい。例えば、この図4において「B動画」のフレームfb(12)からフレームfb(17)の期間において加える画像は、「B動画」のフレームfb(12)からフレームfb(17)の画像のうちの少なくとも一つフレームの画像であってもよいし、少なくとも一つフレームの画像に基づいて生成された画像であってもよい。同様に、「B動画」のフレームfb(17)からフレームfb(20)の期間において加える画像は、「B動画」のフレームfb(17)からフレームfb(20)の画像のうちの少なくとも一つフレームの画像であってもよいし、少なくとも一つフレームの画像に基づいて生成された画像であってもよい。   Note that the playback processing unit 120 changes the playback time for each frame of “B moving image” to be longer when changing “B moving image” to a frame rate lower than the frame rate of “A moving image”. Alternatively, the frame (image) of “B moving image” within the period is changed so that the number of frames of “B moving image” and the number of frames of “A moving image” are the same within the period for changing the frame rate. May be added. For example, in FIG. 4, the image added during the period from frame fb (12) to frame fb (17) of “B moving image” is the image of frames “b moving image” from frame fb (12) to frame fb (17). It may be an image of at least one frame, or may be an image generated based on an image of at least one frame. Similarly, the image added in the period from the frame fb (17) to the frame fb (20) of the “B moving image” is at least one of the images of the frame fb (17) to the frame fb (20) of the “B moving image”. It may be a frame image or an image generated based on at least one frame image.

また、上記図4及び図6を用いて説明した例では、「B動画」を「A動画」のフレームレートよりも低いフレームレートに変更して再生する例を示したが、「時刻ポイント」間のフレーム数が「A動画」よりも「B動画」の方が多い場合には、「B動画」を「A動画」のフレームレートよりも高いフレームレートに変更して再生してもよい。この場合、「B動画」の1フレーム毎の再生時間を短くするように変更してもよいし、フレームレートを変更する期間内の「B動画」のフレーム数と「A動画」のフレーム数とが同じになるように、その期間内の「B動画」のフレームを間引いてもよい。   In the example described with reference to FIG. 4 and FIG. 6, the example in which “B moving image” is changed to a frame rate lower than the frame rate of “A moving image” is shown. If “B video” is larger than “A video”, “B video” may be changed to a frame rate higher than the frame rate of “A video” and played back. In this case, the playback time for each frame of “B moving image” may be changed, or the number of frames of “B moving image” and the number of frames of “A moving image” within the period for changing the frame rate may be changed. So that the frames of “B moving image” within the period may be thinned out.

なお、表示装置20は、変位検出部114が生成した(位置配列データ記憶部22に記憶されている)位置配列データに基づいて、再生して表示するフレーム画像に対応する「位置」を示す情報を動画に重ねて表示部4に表示してもよい。また、表示装置20は、動画を再生して表示部4に表示する際に、所定の被写体を含む画像領域が含まれるフレーム画像に対してはその旨を示す情報を表示してもよい。   The display device 20 is information indicating “position” corresponding to the frame image to be reproduced and displayed based on the position array data (stored in the position array data storage unit 22) generated by the displacement detector 114. May be displayed on the display unit 4 so as to overlap the video. Further, when the moving image is reproduced and displayed on the display unit 4, the display device 20 may display information indicating that for a frame image including an image region including a predetermined subject.

また、変位検出部114は、位置配列データを生成しなくともよい。例えば、変位検出部114は、フレーム画像毎の座標位置に基づいて、座標位置のフレーム間の変位を検出する処理を実行して、位置配列データを生成する処理を実行しなくともよい。   Further, the displacement detector 114 does not have to generate position array data. For example, the displacement detection unit 114 does not have to execute the process of generating the position array data by executing the process of detecting the displacement between the frames at the coordinate position based on the coordinate position of each frame image.

なお、図3から図6を用いて説明した動画の例は画像と音声とを含む動画であるが、これに限られるものではなく、本実施形態における処理が適用される動画は音声(音)を含まない動画であってもよい。   The example of the moving image described with reference to FIGS. 3 to 6 is a moving image including an image and sound. However, the moving image is not limited to this, and the moving image to which the processing according to the present embodiment is applied is sound (sound). May not be included.

(2つの動画それぞれの再生タイミングを合わせる処理の具体例)
本実施形態によれば、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、その他の動きの変位の特徴点を対応付けることにより、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。続いて、図7、図8、及び、図9を参照して、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生する再生処理の具体例を説明する。
(Specific example of processing for matching the playback timings of two videos)
According to the present embodiment, even if there is a partial omission or a different movement in the movement of a predetermined subject in each of the two moving images, the two moving images can be associated with each other by associating feature points of other movement displacements. Each of the predetermined subjects can be played back at the same timing. Next, with reference to FIGS. 7, 8, and 9, a specific example of a reproduction process for reproducing in accordance with the timing of movement of a predetermined subject of each of the two moving images will be described.

なお、図3、図4.及び図5を用いて説明した処理と同様に、「A動画」と「B動画」との2つの動画のうち、「A動画」がダンスのフォームの手本となる先生がダンスをしている動画(手本フォームの動画)であり、「B動画」がそのダンスを練習する練習者がダンスをしている動画(練習フォームの動画)であるものとする。また、「B動画」の再生タイミングを「A動画」の再生タイミングに合わせる処理として説明する。   3 and 4. As in the process described with reference to FIG. 5, among the two videos of “A movie” and “B movie”, a teacher whose “A movie” serves as a model for dance is dancing. It is assumed that the video is a video (example form video), and the “B video” is a video (practice form video) in which a practitioner who practices the dance is dancing. Further, a description will be given of a process of matching the playback timing of “B moving image” with the playback timing of “A moving image”.

なお、図7、図8、及び、図9では、図3、図4.及び、図5に示す各フレームの「画像」、「音声」、及び、「位置」の記載を省略しており、「時刻ポイント」と「フレーム番号」とを示している。   7, 8, and 9, FIGS. 3, 4. Also, “image”, “sound”, and “position” of each frame shown in FIG. 5 are omitted, and “time point” and “frame number” are shown.

また、ここでは、所定の被写体(先生または練習者)のフレーム間の変位の特徴点を、以下に示すような変位の特徴点の種類毎に抽出する。また、変位の特徴点の種類毎に以下に示すようなフラグ情報が予め定められている。
・「変位の方向が反転」:フラグ情報「2」
・「ジャンプ」:フラグ情報「3」
・「静止状態から動く」:フラグ情報「4」
・「動いている状態から静止」:フラグ情報「5」
そして、これらの変位の特徴点が抽出されたフレームに対して、それぞれのフラグ情報が「時刻ポイント」として対応付けられているものとする。
Further, here, feature points of displacement between frames of a predetermined subject (teacher or practitioner) are extracted for each type of feature points of displacement as shown below. Further, flag information as shown below is predetermined for each type of displacement feature point.
・ "Displacement direction is reversed": Flag information "2"
・ "Jump": Flag information "3"
・ "Move from stationary state": Flag information "4"
・ "Still from moving": Flag information "5"
Then, it is assumed that each flag information is associated as a “time point” with respect to the frame in which the feature points of these displacements are extracted.

<第1例>
図7は、再生処理の具体例(第1例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれる「時刻ポイント」が、「B動画」(練習フォームの動画)において抜けている場合を示している。
<First example>
FIG. 7 is a diagram for explaining a specific example (first example) of the reproduction process. The example shown in this figure shows a case where the “time point” included in “A movie” (example form movie) is missing in “B movie” (practice form movie).

この図では、「A動画」においてフラグ情報「2」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」における最初の「時刻ポイント」であるフラグ情報「2」が、「B動画」の最初には無い。これは、例えば、練習者が、最初の動き(振り)である「変位の方向が反転」(フラグ情報「2」)の動きを行わずに、次の「ジャンプ」(フラグ情報「3」)の動きを行ってしまったような場合である。   In this figure, “time point” is associated with frames in the order of flag information “2”, “3”, “3”, “2” in “A movie”, whereas “B movie” “Time point” is associated with the frame in the order of flag information “3”, “3”, and “2”. That is, the flag information “2” that is the first “time point” in “A moving image” does not exist at the beginning of “B moving image”. This is because, for example, the practitioner does not perform the movement of “the direction of displacement is reversed” (flag information “2”), which is the first movement (swing), but the next “jump” (flag information “3”). This is the case where the movement has been performed.

図7(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(12)にフラグ情報「2」、フレームfa(14)にフラグ情報「3」、フレームfa(17)にフラグ情報「3」、及び、フレームfa(22)にフラグ情報「2」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(17)にフラグ情報「3」、フレームfb(21)にフラグ情報「3」、及び、フレームfb(25)にフラグ情報「2」がそれぞれ対応付けられている。   FIG. 7A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “2” in frame fa (12), flag information “3” in frame fa (14), flag information “3” in frame fa (17), and frame The flag information “2” is associated with fa (22). On the other hand, as “time point” of “B moving image”, flag information “3” in the frame fb (17), flag information “3” in the frame fb (21), and flag information “2” in the frame fb (25). Are associated with each other.

図7(b)は、照合部116が、図7(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。   FIG. 7B is a diagram illustrating a result of the collation unit 116 collating the “time points” of “A moving image” and “B moving image” illustrated in FIG. . The collation unit 116 associates the “time point” of “A moving image” and the “time point” of “B moving image” with the “time point” of the same flag information in the order according to the time flow of the moving image.

例えば、照合部116は、「A動画」のフレームfa(14)の「時刻ポイント」と「B動画」のフレームfb(17)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(17)の「時刻ポイント」と「B動画」のフレームfb(21)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(22)の「時刻ポイント」と「B動画」のフレームfb(25)の「時刻ポイント」とを対応付ける。なお、照合部116は、「A動画」のフレームfa(12)の「時刻ポイント」に対応する「時刻ポイント」が「B動画」にはないため、「A動画」のフレームfa(12)の「時刻ポイント」の対応付けを行わない。   For example, the collation unit 116 associates the “time point” of the frame fa (14) of “A moving image” with the “time point” of the frame fb (17) of “B moving image”. Further, the collating unit 116 associates the “time point” of the frame fa (17) of “A moving image” with the “time point” of the frame fb (21) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (22) of “A moving image” with the “time point” of the frame fb (25) of “B moving image”. Note that the collation unit 116 does not have the “time point” corresponding to the “time point” of the frame fa (12) of the “A moving image” in the “B moving image”, and therefore the frame fa (12) of the “A moving image”. Do not associate “time point”.

再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。   Based on the collation result of the collation unit 116, the reproduction processing unit 120 reproduces the “time point” frames corresponding to “A moving image” and “B moving image” at the same timing.

例えば、再生処理部120は、「A動画」のフレームfa(14)と「B動画」のフレームfb(17)、「A動画」のフレームfa(17)と「B動画」のフレームfb(21)、及び、「A動画」のフレームfa(22)と「B動画」のフレームfb(25)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」のタイミングに合わせるため、「B動画」のフレームfb(17)〜fb(21)、及び、フレームfb(21)〜fb(25)の期間のそれぞれのフレームレートを変換する。   For example, the reproduction processing unit 120 includes the frame fa (14) of “A moving image”, the frame fb (17) of “B moving image”, the frame fa (17) of “A moving image”, and the frame fb (21 of “B moving image”). ), And “A movie” and “B movie” are reproduced and displayed so that the frame fa (22) of “A movie” and the frame fb (25) of “B movie” have the same timing. Part 4 is displayed side by side. Further, the reproduction processing unit 120 matches the reproduction timing of “B moving image” with the timing of “A moving image”, so that frames “b moving image” fb (17) to fb (21) and frames fb (21) to Each frame rate in the period of fb (25) is converted.

なお、図7(b)では、フレームfb(17)〜fb(21)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(17)〜fb(21)の期間内の何れかのフレームを間引いてもよい。また、図7(b)では、フレームfb(21)〜fb(25)の期間内の各フレームの時間の長さを長くしている例を示しているが、フレームfb(21)〜fb(25)の期間内にフレームを加えてもよい。   FIG. 7B shows an example in which the length of time of each frame in the period of the frames fb (17) to fb (21) is shortened, but the frames fb (17) to fb ( Any frame within the period 21) may be thinned out. FIG. 7B shows an example in which the length of time of each frame in the period of the frames fb (21) to fb (25) is increased, but the frames fb (21) to fb ( A frame may be added within the period of 25).

このように、表示装置20(信号処理部10)は、「A動画」における先生の手本の動きに対して、「B動画」における練習者の動きに部分的な抜けがある場合(例えば、図7(a)に示すような場合)であっても、「A動画」における先生の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図7(b)に示すように)再生することができる。   As described above, the display device 20 (signal processing unit 10) may have a partial omission in the movement of the practitioner in the “B moving image” with respect to the movement of the teacher in the “A moving image” (for example, Even in the case shown in FIG. 7A, the timing of the teacher's movement in the “A moving image” and the practice person's movement in the “B moving image” are matched (for example, as shown in FIG. 7B). Can play).

<第2例>
図8は、再生処理の具体例(第2例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれていない「時刻ポイント」が、「B動画」(練習フォームの動画)に含まれる場合を示している。
<Second example>
FIG. 8 is a diagram for explaining a specific example (second example) of the reproduction process. The example shown in this figure shows a case where “time point” that is not included in “A moving image” (exemplary form moving image) is included in “B moving image” (practice form moving image).

この図では、「A動画」においてフラグ情報「2」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「2」、「3」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」においてフラグ情報「3」の「時刻ポイント」が2つのフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「3」の「時刻ポイント」が3つのフレームに対応付けられている。これは、例えば、練習者が、手本の動き(振り)に対して「ジャンプ」(フラグ情報「3」)の回数を間違えてしまったような場合(1回多くジャンプしてしまった場合)である。   In this figure, “time point” is associated with frames in the order of flag information “2”, “3”, “3”, “2” in “A movie”, whereas “B movie” “Time point” is associated with the frame in the order of flag information “2”, “3”, “3”, “3”, “2”. That is, “time point” of flag information “3” is associated with two frames in “A movie”, whereas “time point” of flag information “3” is 3 in “B movie”. Is associated with one frame. This is the case, for example, when the practitioner makes a mistake in the number of “jumps” (flag information “3”) with respect to the movement (swing) of the model (when jumping once many times). It is.

図8(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(12)にフラグ情報「2」、フレームfa(14)にフラグ情報「3」、フレームfa(17)にフラグ情報「3」、及び、フレームfa(22)にフラグ情報「2」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(15)にフラグ情報「2」、フレームfb(17)にフラグ情報「3」、フレームfb(19)にフラグ情報「3」、フレームfb(21)にフラグ情報「3」、及び、フレームfb(25)にフラグ情報「2」がそれぞれ対応付けられている。   FIG. 8A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “2” in frame fa (12), flag information “3” in frame fa (14), flag information “3” in frame fa (17), and frame The flag information “2” is associated with fa (22). On the other hand, as “time point” of “B moving image”, flag information “2” in frame fb (15), flag information “3” in frame fb (17), flag information “3” in frame fb (19), frame Flag information “3” is associated with fb (21), and flag information “2” is associated with frame fb (25).

図8(b)は、照合部116が、図8(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。   FIG. 8B is a diagram showing a result of the collation unit 116 collating the “time points” of “A moving image” and “B moving image” shown in FIG. . The collation unit 116 associates the “time point” of “A moving image” and the “time point” of “B moving image” with the “time point” of the same flag information in the order according to the time flow of the moving image.

例えば、照合部116は、「A動画」のフレームfa(12)の「時刻ポイント」と「B動画」のフレームfb(15)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(14)の「時刻ポイント」と「B動画」のフレームfb(17)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(17)の「時刻ポイント」と「B動画」のフレームfb(19)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(22)の「時刻ポイント」と「B動画」のフレームfb(25)の「時刻ポイント」とを対応付ける。なお、照合部116は、「B動画」のフレームfb(21)の「時刻ポイント」に対応する「時刻ポイント」が「A動画」にはないため、「B動画」のフレームfb(21)の「時刻ポイント」の対応付けを行わない。   For example, the collation unit 116 associates the “time point” of the frame fa (12) of “A moving image” with the “time point” of the frame fb (15) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (14) of “A moving image” with the “time point” of the frame fb (17) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (17) of “A moving image” with the “time point” of the frame fb (19) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (22) of “A moving image” with the “time point” of the frame fb (25) of “B moving image”. Note that the collation unit 116 does not have the “time point” corresponding to the “time point” in the frame fb (21) of the “B moving image” in the “A moving image”, and therefore the frame fb (21) of the “B moving image”. Do not associate “time point”.

再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。   Based on the collation result of the collation unit 116, the reproduction processing unit 120 reproduces the “time point” frames corresponding to “A moving image” and “B moving image” at the same timing.

例えば、再生処理部120は、「A動画」のフレームfa(12)と「B動画」のフレームfb(15)、「A動画」のフレームfa(14)と「B動画」のフレームfb(17)、「A動画」のフレームfa(17)と「B動画」のフレームfb(19)、及び、「A動画」のフレームfa(22)と「B動画」のフレームfb(25)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」に合わせるため、「B動画」のフレームfb(17)〜fb(19)、及び、フレームfb(19)〜fb(25)の期間のそれぞれのフレームレートを変換する。   For example, the reproduction processing unit 120 includes the frame fa (12) of “A moving image”, the frame fb (15) of “B moving image”, the frame fa (14) of “A moving image”, and the frame fb (17 of “B moving image”). ), A frame fa (17) of “A movie” and a frame fb (19) of “B movie”, and a frame fa (22) of “A movie” and a frame fb (25) of “B movie”, respectively. "A moving image" and "B moving image" are reproduced and displayed side by side on the display unit 4 so as to be at the same timing. In addition, the playback processing unit 120 matches the playback timing of “B moving image” with “A moving image”, so that the frames “b moving image” fb (17) to fb (19) and frames fb (19) to fb ( Each frame rate in the period 25) is converted.

なお、図8(b)では、フレームfb(17)〜fb(19)の期間内の各フレームの時間の長さを長くしている例を示しているが、フレームfb(17)〜fb(19)の期間内にフレームを加えてもよい。また、図8(b)では、フレームfb(19)〜fb(25)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(19)〜fb(25)の期間内の何れかのフレームを間引いてもよい。   8B shows an example in which the length of time of each frame in the period of the frames fb (17) to fb (19) is increased, the frames fb (17) to fb ( A frame may be added within the period of 19). 8B shows an example in which the time length of each frame in the period of the frames fb (19) to fb (25) is shortened, the frames fb (19) to fb ( Any frame within the period of 25) may be thinned out.

このように、表示装置20(信号処理部10)は、「B動画」の練習者の動きにおいて部分的に「A動画」の手本の動きには含まれない動きがある場合(例えば、図8(a)に示すような場合)であっても、「A動画」における手本の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図8(b)に示すように)再生することができる。   As described above, the display device 20 (signal processing unit 10) has a movement that is not included in the movement of the “A moving image” in the movement of the practitioner of “B moving image” (for example, FIG. 8 (a), the timing of the movement of the model in “A video” and the movement of the practitioner in “B video” are matched (for example, as shown in FIG. 8B). Can play).

<第3例>
図9は、再生処理の具体例(第3例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれる「時刻ポイント」と、「B動画」(練習フォームの動画)における「時刻ポイント」とが、部分的に異なる(動きの変位の特徴が異なる)場合を示している。
<Third example>
FIG. 9 is a diagram for explaining a specific example (third example) of reproduction processing. In the example shown in this figure, “time point” included in “A movie” (example form movie) and “time point” in “B movie” (practice form movie) are partially different ( This shows the case where the characteristics of the movement displacement are different.

この図では、「A動画」においてフラグ情報「4」、「2」、「5」、「3」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「4」、「2」、「2」、「3」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」と「B動画」とでは部分的に「時刻ポイント」のフラグ情報が異なる。これは、例えば、練習者が、「変位の方向が反転」(フラグ情報「2」)の動きの後に、「動いている状態から静止」(フラグ情報「5」)の動きを行うはずのところを間違えて静止せずに動いてしまい、「変位の方向が反転」(フラグ情報「2」)の動きを行うことによって静止するはずであった位置に戻ってきてそのまま「ジャンプ」(フラグ情報「3」)の動きを行ったような場合である。   In this figure, “time points” are associated with frames in the order of flag information “4”, “2”, “5”, and “3” in “A movie”, whereas in “B movie” “Time point” is associated with the frame in the order of flag information “4”, “2”, “2”, “3”. That is, the flag information of “time point” is partially different between “A moving image” and “B moving image”. This is because, for example, the practitioner should perform the movement from “moving to stationary” (flag information “5”) after the movement of “displacement direction is reversed” (flag information “2”). By moving the direction of “displacement direction reversed” (flag information “2”) and returning to the position where it should have been stationary and performing “jump” (flag information “ 3)).

図9(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(13)にフラグ情報「4」、フレームfa(16)にフラグ情報「2」、フレームfa(20)にフラグ情報「5」、及び、フレームfa(25)にフラグ情報「3」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(12)にフラグ情報「4」、フレームfb(15)にフラグ情報「2」、フレームfb(22)にフラグ情報「2」、及び、フレームfb(26)にフラグ情報「3」がそれぞれ対応付けられている。   FIG. 9A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “4” in frame fa (13), flag information “2” in frame fa (16), flag information “5” in frame fa (20), and frame The flag information “3” is associated with fa (25). On the other hand, as “time point” of “B moving image”, flag information “4” in the frame fb (12), flag information “2” in the frame fb (15), flag information “2” in the frame fb (22), and The flag information “3” is associated with the frame fb (26).

図9(b)は、照合部116が、図9(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。   FIG. 9B is a diagram showing a result of collation unit 116 collating and matching each “time point” of “A video” and “B video” shown in FIG. 9A. . The collation unit 116 associates the “time point” of “A moving image” and the “time point” of “B moving image” with the “time point” of the same flag information in the order according to the time flow of the moving image.

例えば、照合部116は、「A動画」のフレームfa(13)の「時刻ポイント」と「B動画」のフレームfb(12)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(16)の「時刻ポイント」と「B動画」のフレームfb(15)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(25)の「時刻ポイント」と「B動画」のフレームfb(26)の「時刻ポイント」とを対応付ける。なお、照合部116は、「B動画」のフレームfb(22)の「時刻ポイント」に対応する「時刻ポイント」が「A動画」にはないため、「B動画」のフレームfb(22)の「時刻ポイント」の対応付けを行わない。また、照合部116は、「A動画」のフレームfb(20)の「時刻ポイント」に対応する「時刻ポイント」が「B動画」にはないため、「A動画」のフレームfb(20)の「時刻ポイント」の対応付けを行わない。   For example, the collating unit 116 associates the “time point” of the frame fa (13) of “A moving image” with the “time point” of the frame fb (12) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (16) of “A moving image” with the “time point” of the frame fb (15) of “B moving image”. The collating unit 116 associates the “time point” of the frame fa (25) of “A moving image” with the “time point” of the frame fb (26) of “B moving image”. The collation unit 116 does not have the “time point” corresponding to the “time point” of the frame “f” (22) of “B moving image” in the “A moving image”, and therefore the frame fb (22) of “B moving image”. Do not associate “time point”. In addition, since the “time point” corresponding to the “time point” of the frame fb (20) of the “A moving image” is not included in the “B moving image”, the collating unit 116 determines the frame fb (20) of the “A moving image”. Do not associate “time point”.

再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。   Based on the collation result of the collation unit 116, the reproduction processing unit 120 reproduces the “time point” frames corresponding to “A moving image” and “B moving image” at the same timing.

例えば、再生処理部120は、「A動画」のフレームfa(13)と「B動画」のフレームfb(12)、「A動画」のフレームfa(16)と「B動画」のフレームfb(15)、及び、「A動画」のフレームfa(25)と「B動画」のフレームfb(26)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」に合わせるため、「B動画」のフレームfb(15)〜fb(26)の期間のフレームレートを変換する。なお、図9(b)では、フレームfb(15)〜fb(26)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(15)〜fb(26)の期間内の何れかのフレームを間引いてもよい。   For example, the reproduction processing unit 120 includes the frame fa (13) of “A moving image”, the frame fb (12) of “B moving image”, the frame fa (16) of “A moving image”, and the frame fb (15) of “B moving image”. ) And “A movie” and “B movie” are reproduced and displayed so that the frame fa (25) of “A movie” and the frame fb (26) of “B movie” are in the same timing. Part 4 is displayed side by side. In addition, the playback processing unit 120 converts the frame rate of the period “b moving image” from frames fb (15) to fb (26) in order to match the playback timing of “B moving image” with “A moving image”. FIG. 9B shows an example in which the time length of each frame in the period of the frames fb (15) to fb (26) is shortened, but the frames fb (15) to fb ( Any frame within the period of 26) may be thinned out.

このように、表示装置20(信号処理部10)は、「B動画」の練習者の動きにおいて部分的に「A動画」の手本の動きには含まれない動きがある場合(例えば、図9(a)に示すような場合)であっても、「A動画」における手本の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図9(b)に示すように)再生することができる。   As described above, the display device 20 (signal processing unit 10) has a movement that is not included in the movement of the “A moving image” in the movement of the practitioner of “B moving image” (for example, FIG. 9 (a), the timing of the movement of the model in “A movie” and the exerciser's movement in “B movie” are matched (for example, as shown in FIG. 9B). Can play).

以上、第1例から第3例において説明したように、信号処理部10は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、その他の動きの変位の特徴点を用いて対応付けを行う。これにより、信号処理部10は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。よって、信号処理部10は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を再生することができる。   As described above, as described in the first to third examples, the signal processing unit 10 may have other motions that are partially lost or different in the motion of a predetermined subject in each of the two moving images. Association is performed using feature points of movement displacement. As a result, the signal processing unit 10 determines the timing of the movement of each predetermined subject of the two moving images even if the movement of the predetermined subject of each of the two moving images partially lacks or is different. You can play them together. Therefore, the signal processing unit 10 can reproduce the moving images so that the forms of the subjects recorded in the different moving images can be easily compared.

また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。よって、表示装置20は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を再生して表示することができる。   In addition, the display device 20 adjusts the timing of the movement of each predetermined subject of the two moving images even if the movement of the predetermined subject of each of the two moving images partially lacks or is different. It is possible to reproduce and display two moving images side by side on the display unit 4. Therefore, the display device 20 can reproduce and display the respective moving images so that the forms of the subjects recorded in the different moving images can be easily compared.

なお、上記実施形態においてダンスのフォームを比較する例を説明したが、比較するフォームはダンスのフォームに限られるものではない。例えば、比較するフォームは、テニス、ゴルフ、体操、野球等のフォーム、空手の型、チアリーディングの振り、等のようなダンス以外のフォームであってもよい。   In addition, although the example which compares the dance form in the said embodiment was demonstrated, the form to compare is not restricted to a dance form. For example, the form to be compared may be a form other than dance such as tennis, golf, gymnastics, baseball, etc., karate type, cheerleading swing, etc.

なお、図3から図5及び図7から図9に示す時刻ポイントの間隔とフレーム数との関係は単に模式的に表したものであって実際の動きの速さを表すものではない。また、「時刻ポイント」は、1つのフレームと対応付けられていてもよいし、連続する複数のフレーム群と対応付けられていてもよい。   The relationship between the time point interval and the number of frames shown in FIG. 3 to FIG. 5 and FIG. 7 to FIG. 9 is merely schematically shown and does not represent the actual speed of movement. Further, the “time point” may be associated with one frame or may be associated with a plurality of continuous frame groups.

[第2実施形態]
次に、図10を参照して、本発明の第2実施形態による表示装置20について説明する。図10は、第2実施形態による表示装置20が備えるタイミング処理部110Aの構成の一例を示す概略ブロック図である。この図に示すタイミング処理部110Aは、画像特徴点抽出部111を備えている構成であることが図2に示す第1実施形態のタイミング処理部110に対して異なる。なお、図10において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Second Embodiment]
Next, a display device 20 according to a second embodiment of the present invention will be described with reference to FIG. FIG. 10 is a schematic block diagram illustrating an example of the configuration of the timing processing unit 110A included in the display device 20 according to the second embodiment. The timing processing unit 110A shown in this figure is different from the timing processing unit 110 of the first embodiment shown in FIG. 2 in that it has a configuration including an image feature point extraction unit 111. In FIG. 10, components corresponding to those in FIG. 2 are assigned the same reference numerals, and descriptions thereof are omitted.

画像特徴点抽出部111(第2抽出部)は、動画から所定の被写体の特徴点を抽出する。また、この第2実施形態の構成において、選択部112は、画像特徴点抽出部111により抽出された所定の被写体の特徴点を含む画像領域を選択する。そして、テンプレート登録部113は、選択部112により選択された画像領域をテンプレート画像として登録する。   The image feature point extraction unit 111 (second extraction unit) extracts feature points of a predetermined subject from the moving image. In the configuration of the second embodiment, the selection unit 112 selects an image region including the feature point of the predetermined subject extracted by the image feature point extraction unit 111. Then, the template registration unit 113 registers the image area selected by the selection unit 112 as a template image.

すなわち、第2実施形態のタイミング処理部110Aは、所定の被写体の特徴点に基づいて、所定の被写体を含む画像領域、例えば、フォームを比較したい被写体を含む画像領域を選択する。   That is, the timing processing unit 110A of the second embodiment selects an image region including a predetermined subject, for example, an image region including a subject whose form is to be compared, based on a feature point of the predetermined subject.

ここで、所定の被写体の特徴点とは、例えば、被写体の顔、手、足、または、被写体が持っている物体(例えば、バトン、テニスラケット、ゴルフのクラブ等)、等に基づく特徴点である。   Here, the feature point of a predetermined subject is, for example, a feature point based on the subject's face, hands, feet, or an object (eg, baton, tennis racket, golf club, etc.) that the subject has. is there.

これにより、信号処理部10は、所定の被写体における注目すべき変位(フォームを比較するための変位)を適切に検出することができる。よって、信号処理部10は、2つの動画のそれぞれの所定の被写体の変位の特徴点に基づいて、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。   Thereby, the signal processing unit 10 can appropriately detect a notable displacement (displacement for comparing forms) in a predetermined subject. Therefore, the signal processing unit 10 can reproduce the movement timings of the predetermined subjects of the two moving images in accordance with the feature points of the displacement of the predetermined subjects of the two moving images. Further, the display device 20 can reproduce the two moving images side by side on the display unit 4 by reproducing the two moving images in accordance with the movement timing of a predetermined subject.

[第3実施形態]
次に、図11を参照して、本発明の第3実施形態による表示装置20について説明する。図11は、第3実施形態による表示装置20が備えるタイミング処理部110Bの構成の一例を示す概略ブロック図である。この図に示すタイミング処理部110Bは、音変化検出部117を備えている構成であることが図2に示す第1実施形態のタイミング処理部110に対して異なる。なお、図10において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Third Embodiment]
Next, with reference to FIG. 11, the display apparatus 20 by 3rd Embodiment of this invention is demonstrated. FIG. 11 is a schematic block diagram illustrating an example of a configuration of the timing processing unit 110B included in the display device 20 according to the third embodiment. The timing processing unit 110B shown in this figure is different from the timing processing unit 110 of the first embodiment shown in FIG. 2 in that the configuration includes a sound change detection unit 117. In FIG. 10, components corresponding to those in FIG. 2 are assigned the same reference numerals, and descriptions thereof are omitted.

音変化検出部117(第2検出部)は、動画においてフレーム間の音の変化を検出する。例えば、音変化検出部117は、音の大きさ(音量)の変化、音の種類の変化、または、音の有無等を検出する。また、この第3実施形態の構成において、変化特徴点抽出部115(第3抽出部)は、音変化検出部117により検出された音の変化の特徴点を抽出する。ここで、音の変化の特徴点とは、例えば、音の大きさ(音量)の変化が大きい点、音の種類が大きく変化する点、音の有無が変化する点、等である。また、変化特徴点抽出部115は、音の変化の特徴点を示す情報を「時刻ポイント」として、フレーム番号と対応付けてフレーム順に配列した「時刻ポイント配列データ」を生成する。   The sound change detection unit 117 (second detection unit) detects a change in sound between frames in a moving image. For example, the sound change detecting unit 117 detects a change in sound volume (volume), a change in sound type, or the presence or absence of sound. In the configuration of the third embodiment, the change feature point extraction unit 115 (third extraction unit) extracts the feature point of the sound change detected by the sound change detection unit 117. Here, the characteristic points of the sound change are, for example, a point that the change in sound volume (volume) is large, a point that the type of sound changes greatly, a point that the presence or absence of sound changes, and the like. Further, the change feature point extraction unit 115 generates “time point array data” in which the information indicating the feature points of the sound change is “time point” and is arranged in the order of frames in association with the frame number.

そして、照合部116は、例えば、変化特徴点抽出部115により抽出された「A動画」における特徴点(音の変化の特徴点)と、「B動画」における特徴点(音の変化の特徴点)とを照合し、「A動画」における第1特徴点と、「B動画」において第1特徴点に対応する第2特徴点とを対応付ける。   Then, the matching unit 116, for example, the feature point (sound change feature point) in “A movie” extracted by the change feature point extraction unit 115 and the feature point (sound change feature point) in “B movie”. ) To match the first feature point in “A moving image” and the second feature point corresponding to the first feature point in “B moving image”.

これにより、信号処理部10は、2つの動画のそれぞれの音の変化の特徴点に基づいて、2つの動画のそれぞれの音の変化の特徴点のタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの音の変化の特徴点のタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。例えば、音楽にあわせたダンスを練習している場合等において、信号処理部10は、2つの動画のそれぞれの音の変化の特徴点のタイミングを合わせることによって、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。   Thereby, the signal processing unit 10 can reproduce the timing of the feature points of the sound changes of the two moving images in accordance with the feature points of the sound changes of the two moving images. In addition, the display device 20 can reproduce and display the two moving images side by side on the display unit 4 by reproducing the timings of the characteristic points of the sound changes of the two moving images. For example, when practicing dance according to music, the signal processing unit 10 adjusts the timing of the feature points of the sound changes of the two moving images to thereby match the predetermined subjects of the two moving images. Can be played at the same timing. Further, the display device 20 can reproduce the two moving images side by side on the display unit 4 by reproducing the two moving images in accordance with the movement timing of a predetermined subject.

なお、変化特徴点抽出部115は、変位検出部114により検出されたフレーム間の変位の特徴点と、音変化検出部117により検出された音の変化の特徴点とに基づいて、「時刻ポイント配列データ」を生成してもよい。また、信号処理部10(表示装置20)は、2つの動画のそれぞれの所定の被写体の変位の特徴点と、音の変化の特徴点とに基づいて、2つの動画のそれぞれのタイミングをあわせて再生してもよい。   Note that the change feature point extraction unit 115 determines the “time point” based on the feature point of the displacement between frames detected by the displacement detection unit 114 and the feature point of the sound change detected by the sound change detection unit 117. Sequence data "may be generated. Further, the signal processing unit 10 (display device 20) synchronizes the timings of the two moving images based on the feature points of the displacement of the predetermined subjects of the two moving images and the feature points of the sound change. You may replay it.

なお、図11のタイミング処理部110Bは、図10のタイミング処理部110Aの構成と同様に、画像特徴点抽出部111を備えている構成としてもよい。   Note that the timing processing unit 110B of FIG. 11 may include an image feature point extraction unit 111, similar to the configuration of the timing processing unit 110A of FIG.

[第4実施形態]
次に、図12を参照して、本発明の第4実施形態について説明する。図12は、第4実施形態による信号処理部10が備えている処理部1Cの構成の一例を示す概略ブロック図である。この図に示す処理部1Cは、再生処理部120に代えて、データ生成部130を備えている構成であることが図1に示す第1実施形態の処理部1に対して異なる。なお、図12において、図1の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 12 is a schematic block diagram illustrating an example of the configuration of the processing unit 1C included in the signal processing unit 10 according to the fourth embodiment. The processing unit 1C shown in this figure is different from the processing unit 1 of the first embodiment shown in FIG. 1 in that a data generation unit 130 is provided instead of the reproduction processing unit 120. In FIG. 12, the components corresponding to those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.

データ生成部130(生成部)は、「A動画」において第1特徴点が抽出されたフレーム画像と、「B動画」において第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように変換した動画(動画データ)を生成する。   The data generation unit 130 (generation unit) reproduces the frame image from which the first feature point has been extracted in “A movie” and the frame image from which the second feature point has been extracted from “B movie” at the same timing. The converted moving image (moving image data) is generated.

例えば、データ生成部130は、「A動画」と「B動画」との互いに対応する「時刻ポイント」間のフレーム数が同じになるように、「A動画」または「B動画」に対してフレームの挿入または間引きを行った動画データを生成する。   For example, the data generation unit 130 sets a frame for “A video” or “B video” so that the number of frames between “time points” corresponding to “A video” and “B video” are the same. Generate video data that has been inserted or thinned out.

このように、信号処理部10(表示装置20)は、「A動画」と「B動画」とのそれぞれにおける所定の被写体の動き(変位の特徴点)の再生タイミングが合うような動画を生成する。なお、生成する動画は、「A動画」と「B動画」とのうちの少なくとも何れか一方であってもよいし、「A動画」と「B動画」との両方の動画をまとめた動画であってもよい。   In this way, the signal processing unit 10 (display device 20) generates a moving image in which the reproduction timing of the movement (displacement feature point) of a predetermined subject in each of the “A moving image” and the “B moving image” matches. . The generated video may be at least one of “A video” and “B video”, or a video in which both “A video” and “B video” are collected. There may be.

これにより、信号処理部10(信号処理装置)は、「時刻ポイント」に基づいた再生処理及びフレームレートを変換する再生処理を行わなくとも、上記生成した動画を再生することにより、それぞれの動画の所定の被写体の動き(変位の特徴点)のタイミングが合うように再生することができる。また、「時刻ポイント」に基づいた再生処理及びフレームレートを変換する再生処理を行う機能を持たない他の表示装置や再生装置においても、上述の信号処理部10(信号処理装置)が生成した動画を再生することにより、それぞれの動画の所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生(表示)することができる。   As a result, the signal processing unit 10 (signal processing device) reproduces the generated moving image without performing the reproduction processing based on the “time point” and the reproduction processing for converting the frame rate. Reproduction can be performed so that the timing of the movement of the predetermined subject (displacement feature point) matches. In addition, the moving image generated by the signal processing unit 10 (signal processing device) described above is also used in other display devices and playback devices that do not have a function of performing playback processing based on “time points” and playback processing for converting the frame rate. By reproducing the video, it is possible to reproduce (display) the respective moving images so that the timing of the movement of the predetermined subject of each moving image (displacement feature point) matches.

なお、図12の処理部1Cは、図1の再生処理部120をさらに備えた構成としてもよい。また、図12のタイミング処理部110に代えて、図10のタイミング処理部110Aまたは図11のタイミング処理部110Bとしてもよい。   Note that the processing unit 1C in FIG. 12 may further include the reproduction processing unit 120 in FIG. Further, instead of the timing processing unit 110 in FIG. 12, the timing processing unit 110A in FIG. 10 or the timing processing unit 110B in FIG. 11 may be used.

[第5実施形態]
次に、図13を参照して、本発明の第5実施形態について説明する。この第5実施形態は、第1から第4実施形態の何れかの信号処理部10を備えた撮像装置30の態様である。図13は、撮像装置30の構成の一例を示す概略ブロック図である。撮像装置30は、表示部4と、記憶媒体部5と、撮像部6と、操作入力部7と、画像処理部8と、制御部9と、信号処理部10と、バス12と、を備えている。なお、図13において、図1の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIG. The fifth embodiment is an aspect of the imaging device 30 including the signal processing unit 10 of any of the first to fourth embodiments. FIG. 13 is a schematic block diagram illustrating an example of the configuration of the imaging device 30. The imaging device 30 includes a display unit 4, a storage medium unit 5, an imaging unit 6, an operation input unit 7, an image processing unit 8, a control unit 9, a signal processing unit 10, and a bus 12. ing. In FIG. 13, the components corresponding to those in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.

撮像部6は、レンズ部61、撮像素子62、及びA/D変換部63を備えており、動画(動画像)または静止画(静止画像)等を撮影する。この撮像部6は、設定された撮影条件(例えば絞り値、露出等)に基づいて制御部9により制御され、レンズ部61を介して入力された光束を、撮像素子62の撮像面上に結像させる。撮像素子62は、撮像面に結像された光束を光電変換したアナログ信号を、A/D変換部63に出力する。A/D変換部63は、撮像素子62から入力されたアナログ信号をデジタル信号に変換し、この変換したデジタル信号を出力する。なお、上述したレンズ部61は、撮像装置30と一体化されている構成としてもよいし、撮像装置30に着脱可能に取り付けられている構成としてもよい。   The imaging unit 6 includes a lens unit 61, an imaging element 62, and an A / D conversion unit 63, and takes a moving image (moving image) or a still image (still image). The imaging unit 6 is controlled by the control unit 9 based on the set imaging conditions (for example, aperture value, exposure, etc.), and bundles the light beam input through the lens unit 61 on the imaging surface of the imaging element 62. Let me image. The image sensor 62 outputs an analog signal obtained by photoelectrically converting the light beam formed on the imaging surface to the A / D converter 63. The A / D converter 63 converts the analog signal input from the image sensor 62 into a digital signal, and outputs the converted digital signal. The lens unit 61 described above may be integrated with the imaging device 30 or may be detachably attached to the imaging device 30.

例えば、撮像部6は、操作入力部7に対する動画撮影操作に応じて動画を撮影し、撮影した動画の画像信号を出力する。また、撮像部6は、操作入力部7に対する静止画撮影操作に応じて静止画を撮影し、撮影した静止画の画像信号を出力する。そして、撮像部6によって撮像された動画の画像信号及び静止画の画像信号は、画像処理部8による画像処理が行われた後、画像データとして記憶媒体50に記録される。また、撮像部6は、静止画撮影又は動画撮影を行うための撮影待機状態中、所定の間隔で連続的に撮影して得られる表示用の画像(例えば画角確認用として表示部4に表示させる画像)であるスルー画像(ライブビュー画像)の画像信号を出力する。   For example, the imaging unit 6 captures a moving image in response to a moving image capturing operation on the operation input unit 7 and outputs an image signal of the captured moving image. The imaging unit 6 captures a still image according to a still image capturing operation on the operation input unit 7 and outputs an image signal of the captured still image. Then, the image signal of the moving image and the image signal of the still image captured by the imaging unit 6 are recorded in the storage medium 50 as image data after being subjected to image processing by the image processing unit 8. In addition, the imaging unit 6 displays a display image (for example, displayed on the display unit 4 for confirmation of an angle of view) obtained by continuously shooting at a predetermined interval during a shooting standby state for performing still image shooting or moving image shooting. The image signal of the through image (live view image) that is the image to be output) is output.

操作入力部7は、例えば、シャッターボタン、電源スイッチ、動作モードを選択するモードダイヤル、記録されている動画や静止画を再生する再生ボタン、拡大又は縮小ボタン、上下左右選択ボタンなどを備えている。なお、動作モードには、動画を撮影する動画撮影モード、静止画を撮影する静止画撮影モード、等が含まれる。また、操作入力部7は、ユーザによって操作された操作入力を検出し、検出した操作内容を示す操作信号を制御部9に供給する。   The operation input unit 7 includes, for example, a shutter button, a power switch, a mode dial for selecting an operation mode, a playback button for reproducing a recorded moving image or still image, an enlargement / reduction button, an up / down / left / right selection button, and the like. . The operation mode includes a moving image shooting mode for shooting a moving image, a still image shooting mode for shooting a still image, and the like. The operation input unit 7 detects an operation input operated by the user, and supplies an operation signal indicating the detected operation content to the control unit 9.

画像処理部8は、撮像部6により撮影された画像(動画または静止画)に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調補正等の画像処理を実行する。また、画像処理部8は、撮影した画像(動画または静止画)を記録する(記憶媒体50に記憶させる)際に画像圧縮処理を実行する。   The image processing unit 8 performs image processing such as white balance adjustment, sharpness adjustment, gamma correction, and gradation correction on the image (moving image or still image) captured by the imaging unit 6. The image processing unit 8 executes image compression processing when recording a captured image (moving image or still image) (stored in the storage medium 50).

制御部9は、撮像装置30が備えている各部を制御する。例えば、制御部9は、操作入力部7から受け取る操作信号、又は記憶部2に記憶されている制御条件等に基づいて、撮像装置30が備えている各部を制御する。   The control unit 9 controls each unit included in the imaging device 30. For example, the control unit 9 controls each unit included in the imaging device 30 based on an operation signal received from the operation input unit 7 or a control condition stored in the storage unit 2.

なお、信号処理部10の記憶部2は、図2に示すテンプレート画像記憶部21と、位置配列データ記憶部22と、時刻ポイント配列データ記憶部23と、が記憶する情報に加えて、撮像装置30を制御するための、予め定められた撮影制御条件、画像処理条件、再生制御条件、及び記録制御条件、等を記憶し、撮像部6、画像処理部8、制御部9等から参照される構成としてもよい。また、記憶部2は、制御部9が撮像装置30を制御する際の作業領域として利用される構成としてもよい。例えば、撮像部6によって撮影された画像、又は記憶媒体50から読み出された画像が、画像処理部8において実行する画像処理の過程において、記憶部2に一時的に記憶されてもよい。   In addition to the information stored in the template image storage unit 21, the position array data storage unit 22, and the time point array data storage unit 23 illustrated in FIG. For example, predetermined shooting control conditions, image processing conditions, reproduction control conditions, recording control conditions, and the like for controlling 30 are stored and referred to by the imaging unit 6, the image processing unit 8, the control unit 9, and the like. It is good also as a structure. The storage unit 2 may be configured to be used as a work area when the control unit 9 controls the imaging device 30. For example, an image taken by the imaging unit 6 or an image read from the storage medium 50 may be temporarily stored in the storage unit 2 in the course of image processing executed by the image processing unit 8.

バス12は、表示部4、記憶媒体部5、撮像部6、操作入力部7、画像処理部8、制御部9、及び、信号処理部10と接続され、各部から出力された画像信号、制御信号、等を転送する。なお、不図示であるが、撮像装置30は、動画撮影の際に音声(音)を収音するマイクを備えた構成としてもよく、収音した音を含む動画を記憶媒体50に記憶させてもよい。   The bus 12 is connected to the display unit 4, the storage medium unit 5, the imaging unit 6, the operation input unit 7, the image processing unit 8, the control unit 9, and the signal processing unit 10, and the image signal output from each unit and the control Transfer signals, etc. Although not shown, the imaging device 30 may be configured to include a microphone that picks up sound (sound) at the time of moving image shooting, and a moving image including the collected sound is stored in the storage medium 50. Also good.

このように構成された撮像装置30において、信号処理部10は、第1から第3実施形態を用いて説明した2つの動画のタイミングをあわせて再生する処理を実行することができる。なお、信号処理部10は、第4実施形態を用いて説明した2つの動画の再生タイミングをあわせた動画データを生成する処理を実行してもよい。   In the imaging apparatus 30 configured as described above, the signal processing unit 10 can execute a process of reproducing the timings of the two moving images described with reference to the first to third embodiments. Note that the signal processing unit 10 may execute processing for generating moving image data in which the reproduction timings of two moving images described with reference to the fourth embodiment are combined.

また、撮像部6により撮影された動画が記憶媒体50に記憶される前に、信号処理部10は、タイミング処理部110の画像特徴点抽出部111、選択部112、テンプレート登録部113、変位検出部114、または、変化特徴点抽出部115による処理を、撮影された動画に対して実行してもよい。これにより、撮像装置30は、撮像部6により撮影された動画からリアルタイムに位置配列データまたは時刻ポイント配列データを生成することができる。   In addition, before the moving image shot by the imaging unit 6 is stored in the storage medium 50, the signal processing unit 10 includes the image feature point extraction unit 111, the selection unit 112, the template registration unit 113, and the displacement detection of the timing processing unit 110. The processing by the unit 114 or the change feature point extraction unit 115 may be performed on the captured moving image. Thereby, the imaging device 30 can generate position arrangement data or time point arrangement data in real time from the moving image taken by the imaging unit 6.

なお、撮像装置30は、生成した位置配列データまたは時刻ポイント配列データを動画に関連付けて記憶部2または記憶媒体50に記憶させてもよい。   Note that the imaging device 30 may store the generated position arrangement data or time point arrangement data in the storage unit 2 or the storage medium 50 in association with the moving image.

また、撮像装置30は、撮像部6により撮影された動画を記憶媒体50に記憶させる前に、タイミング処理部110の照合部116の処理を、撮影された動画に対して実行してもよい。例えば、照合部116は、撮影された動画(例えば「B動画」)からリアルタイムに抽出した「時刻ポイント」を、記憶媒体50に記憶されている動画(例えば「A動画」)の時刻ポイントと照合して対応付けを行ってもよい。   In addition, the imaging device 30 may perform the process of the collation unit 116 of the timing processing unit 110 on the captured moving image before storing the moving image captured by the imaging unit 6 in the storage medium 50. For example, the collation unit 116 collates the “time point” extracted in real time from the captured video (for example, “B video”) with the time point of the video (for example, “A video”) stored in the storage medium 50. Thus, the association may be performed.

また、再生処理部120は、照合部116がリアルタイムに照合した結果に基づいて、撮影された動画(例えば「B動画」)に対して、記憶媒体50に記憶されている動画(例えば「A動画」)のタイミング(被写体の動きのタイミング)に合わせたフレームレート変換をリアルタイムに行って再生してもよい。また、データ生成部130は、照合部116がリアルタイムに照合した結果に基づいて、撮影された動画(例えば「B動画」)に対して、記憶媒体50に記憶されている動画(例えば「A動画」)の再生タイミングに合うように変換した動画データをリアルタイムに生成してもよい。   In addition, the reproduction processing unit 120 uses a moving image (for example, “A moving image”) stored in the storage medium 50 for a captured moving image (for example, “B moving image”) based on the result of the collation by the matching unit 116 in real time. The frame rate conversion in accordance with the timing of “)” (the timing of movement of the subject) may be performed in real time for reproduction. Further, the data generation unit 130, based on the result of the collation performed in real time by the collation unit 116, the moving image (for example, “A moving image”) stored in the storage medium 50 with respect to the captured moving image (for example, “B moving image”). )) May be generated in real time so as to match the playback timing.

これにより、撮像装置30は、撮影された動画と、記憶媒体50に記憶されている動画とのそれぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、記憶媒体50に記憶されている動画と撮影された動画とをリアルタイムに再生して表示することができる。また、撮像装置30は、撮影された動画と、記憶媒体50に記憶されている動画とのそれぞれにおける所定の被写体の動き(変位の特徴点)の再生タイミングが合うように変換した動画データをリアルタイムに生成することができる。   Thus, the imaging device 30 stores the captured moving image in the storage medium 50 so that the timing of the movement of the predetermined subject (displacement feature point) in each of the moving image stored in the storage medium 50 matches. It is possible to reproduce and display the recorded video and the captured video in real time. In addition, the imaging device 30 performs real-time moving image data obtained by converting the captured moving image and the moving image stored in the storage medium 50 so that the reproduction timing of the movement of the predetermined subject (displacement feature point) matches. Can be generated.

以上説明してきたように、上記実施形態の信号処理部10、表示装置20、または、撮像装置30は、互いに異なる動画に記録された被写体のフォーム(例えば、練習者のフォームと手本となるフォームと)を容易に比較することができる。すなわち、信号処理部10、表示装置20、または、撮像装置30は、被写体のフォームを容易に比較することができる。   As described above, the signal processing unit 10, the display device 20, or the imaging device 30 according to the above-described embodiment is configured so that the subject forms (for example, the form of the practice person and the form of the practice person) recorded in different moving images. And) can be easily compared. That is, the signal processing unit 10, the display device 20, or the imaging device 30 can easily compare the forms of the subject.

なお、上記実施形態では、「B動画」における「時刻ポイント」が「A動画」における「時刻ポイント」と同じタイミングとなるように再生する処理の例を説明したが、「A動画」における「時刻ポイント」が「B動画」における「時刻ポイント」と同じタイミングとなるように再生する処理としてもよい。   In the above-described embodiment, the example of the process of reproducing the “time point” in “B video” so as to be the same timing as “time point” in “A video” has been described. The reproduction may be performed so that the “point” has the same timing as the “time point” in the “B moving image”.

なお、上記実施形態では、「B動画」の再生タイミングを「A動画」の再生タイミングに合わせる処理を説明したが、2つの動画を対象として再生タイミングを合わせる処理に限られるものではなく、3つ以上の動画を対象として再生タイミングを合わせる処理としてもよい。例えば、信号処理部10、表示装置20、または、撮像装置30は、2つの動画(例えば、「B動画」と「C動画」)の再生タイミングそれぞれを、他の1つの動画(例えば「A動画」)と再生タイミングに合わせる処理をしてもよい。   In the above embodiment, the process of matching the playback timing of “B video” with the playback timing of “A video” has been described. However, the present invention is not limited to the process of matching the playback timing for two videos. It is good also as a process which matches reproduction timing for the above moving image. For example, the signal processing unit 10, the display device 20, or the imaging device 30 sets the playback timings of two moving images (for example, “B moving image” and “C moving image”) to one other moving image (for example, “A moving image”). )) May be performed in accordance with the reproduction timing.

なお、上記実施形態では、テンプレート登録部113がテンプレート画像をテンプレート画像記憶部21に登録する例を説明したが、これに限られるものではなく、例えば、テンプレート画像は、テンプレート画像記憶部21に予め記憶されていてもよい。また、通信部(不図示)を介して外部のサーバから取得したテンプレート画像が、テンプレート画像記憶部21に記憶されてもよい。また、テンプレート画像は、例えば顔検出用として用いられる顔画像データベースに含まれている画像または画像に基づく情報であってもよい。   In the above embodiment, the example in which the template registration unit 113 registers the template image in the template image storage unit 21 has been described. However, the present invention is not limited to this. For example, the template image is stored in the template image storage unit 21 in advance. It may be stored. Further, a template image acquired from an external server via a communication unit (not shown) may be stored in the template image storage unit 21. Further, the template image may be an image included in a face image database used for face detection or information based on the image, for example.

なお、上記第4実施形態において、信号処理部10が表示装置20または撮像装置30に備えられている構成について説明したが、信号処理部10は、例えば、携帯電話、パーソナルコンピュータ、タブレット型端末、または、電子玩具などの他の装置に備えられていてもよい。   In the fourth embodiment, the configuration in which the signal processing unit 10 is provided in the display device 20 or the imaging device 30 has been described, but the signal processing unit 10 may be, for example, a mobile phone, a personal computer, a tablet terminal, Alternatively, it may be provided in another device such as an electronic toy.

なお、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリ及びマイクロプロセッサにより実現させるものであってもよい。   The timing processing unit 110 or the reproduction processing unit 120 in FIG. 1, the timing processing unit 110 or the data generation unit 130 in FIG. 12, or the timing processing unit 110 (110A, 110B) in FIGS. Each unit may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.

なお、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、上述の各部はメモリ及びCPU(中央演算装置)により構成され、上述の各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。   The timing processing unit 110 or the reproduction processing unit 120 in FIG. 1, the timing processing unit 110 or the data generation unit 130 in FIG. 12, or the timing processing unit 110 (110A, 110B) in FIGS. Each unit may be realized by dedicated hardware, and each unit described above is configured by a memory and a CPU (central processing unit), and a program for realizing the function of each unit described above is stored in the memory. The function may be realized by loading and executing.

また、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上述の各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものとする。   Further, the timing processing unit 110 or the reproduction processing unit 120 in FIG. 1, the timing processing unit 110 or the data generation unit 130 in FIG. 12, or the timing processing unit 110 (110A, 110B) in FIGS. A program for realizing the function of each unit is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system and executed, so that the processing by each unit described above can be performed. Good. The “computer system” here includes an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a hard disk built in the computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design within a range not departing from the gist of the present invention.

2 記憶部、4 表示部、10 信号処理部(信号処理装置)、20 表示装置、30 撮像装置、111 画像特徴点抽出部(第2抽出部)、112 選択部、113 テンプレート登録部(登録部)、114 変位検出部(第1検出部)、115 変化特徴点抽出部(第1抽出部、第3抽出部)、116 照合部、117 音変化検出部(第2検出部)、120 再生処理部、130 データ生成部(生成部)   2 storage unit, 4 display unit, 10 signal processing unit (signal processing device), 20 display device, 30 imaging device, 111 image feature point extraction unit (second extraction unit), 112 selection unit, 113 template registration unit (registration unit) ), 114 displacement detection unit (first detection unit), 115 change feature point extraction unit (first extraction unit, third extraction unit), 116 collation unit, 117 sound change detection unit (second detection unit), 120 reproduction processing , 130 Data generator (generator)

Claims (10)

動画像のフレーム間の変位を検出する第1検出部と、
前記第1検出部により検出された前記変位の特徴点を抽出する第1抽出部と、
前記第1抽出部により抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける照合部と、
を備えることを特徴とする信号処理装置。
A first detector for detecting displacement between frames of the moving image;
A first extraction unit for extracting feature points of the displacement detected by the first detection unit;
The feature point in the first moving image extracted by the first extraction unit is collated with the feature point in the second moving image, and the first feature point in the first moving image and the second feature in the second moving image are compared. A matching unit that associates a second feature point corresponding to the point;
A signal processing apparatus comprising:
前記第1特徴点が抽出されたフレーム画像と前記第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、前記第1の動画および前記第2の動画を再生する再生処理部、
を備えることを特徴とする請求項1に記載の信号処理装置。
A reproduction process for reproducing the first moving image and the second moving image so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. Part,
The signal processing apparatus according to claim 1, comprising:
前記再生処理部は、
前記第1特徴点が抽出されたフレーム画像と前記第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、前記第1の動画または前記第2の動画のフレームレートを変換する
ことを特徴とする請求項2に記載の信号処理装置。
The reproduction processing unit
The frame rate of the first moving image or the second moving image is converted so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. The signal processing device according to claim 2.
前記再生処理部は、
再生した前記第1の動画および前記第2の動画を表示部に並べて表示させる
ことを特徴とする請求項2または3に記載の信号処理装置。
The reproduction processing unit
The signal processing apparatus according to claim 2, wherein the reproduced first moving image and the second moving image are displayed side by side on a display unit.
前記第1特徴点が抽出されたフレーム画像と前記第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、前記第1の動画または前記第2の動画を変換した動画を生成する生成部
を備えることを特徴とする請求項1から4の何れか一項に記載の信号処理装置。
A moving image obtained by converting the first moving image or the second moving image so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. The signal processing apparatus according to claim 1, further comprising: a generation unit that generates the signal processing unit.
前記動画像から所定の被写体を含む画像領域を選択する選択部と、
前記選択部により選択された画像領域の画像をテンプレート画像として登録する登録部と、
を備え、
前記第1検出部は、
前記登録部により登録されたテンプレート画像を用いて、前記動画の各フレーム画像に対してテンプレートマッチングを行うことにより、前記所定の被写体を含む画像領域のフレーム間の変位を検出する
ことを特徴とする請求項1から5の何れか一項に記載の信号処理装置。
A selection unit for selecting an image area including a predetermined subject from the moving image;
A registration unit for registering an image of the image area selected by the selection unit as a template image;
With
The first detection unit includes:
The template image registered by the registration unit is used to perform template matching on each frame image of the moving image, thereby detecting a displacement between frames of the image area including the predetermined subject. The signal processing device according to any one of claims 1 to 5.
前記照合部は、
前記第1特徴点と前記第2特徴点とを統合して、統合した特徴点に対して、前記第1特徴点に対応するフレーム画像および前記第2特徴点に対応するフレーム画像を対応付ける
ことを特徴とする請求項1から6の何れか一項に記載の信号処理装置。
The collation unit
Integrating the first feature point and the second feature point and associating the integrated feature point with a frame image corresponding to the first feature point and a frame image corresponding to the second feature point. The signal processing apparatus according to claim 1, wherein the signal processing apparatus is characterized in that:
前記動画においてフレーム間の音の変化を検出する第2検出部と、
前記第2検出部により検出された前記音の変化の特徴点を抽出する第3抽出部と、
を備え、
前記照合部は、
前記第3抽出部により抽出された前記第1の動画における特徴点と、前記第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と、前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける
ことを特徴とする請求項1から7の何れか一項に記載の信号処理装置。
A second detector for detecting a change in sound between frames in the moving image;
A third extraction unit for extracting feature points of the change in sound detected by the second detection unit;
With
The collation unit
The feature point in the first moving image extracted by the third extraction unit is collated with the feature point in the second moving image, and the first feature point in the first moving image and the second moving image The signal processing device according to claim 1, wherein the second feature point corresponding to the first feature point is associated.
請求項1から8の何れか一項に記載の信号処理装置、
を備えることを特徴とする表示装置。
The signal processing device according to any one of claims 1 to 8,
A display device comprising:
コンピュータに、
動画像のフレーム間の変位を検出する第1ステップと、
前記第1ステップにおいて検出された前記変位の特徴点を抽出する第2ステップと、
前記第2ステップにおいて抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける第3ステップと、
を実行させるためのプログラム。
On the computer,
A first step of detecting displacement between frames of a moving image;
A second step of extracting feature points of the displacement detected in the first step;
The feature points in the first moving image extracted in the second step are matched with the feature points in the second moving image, and the first feature points in the first moving image and the second moving image are compared. A third step of associating a second feature point corresponding to
A program for running
JP2013036794A 2013-02-27 2013-02-27 Signal process device, display device and program Pending JP2014164644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013036794A JP2014164644A (en) 2013-02-27 2013-02-27 Signal process device, display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013036794A JP2014164644A (en) 2013-02-27 2013-02-27 Signal process device, display device and program

Publications (1)

Publication Number Publication Date
JP2014164644A true JP2014164644A (en) 2014-09-08

Family

ID=51615170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013036794A Pending JP2014164644A (en) 2013-02-27 2013-02-27 Signal process device, display device and program

Country Status (1)

Country Link
JP (1) JP2014164644A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018003147A1 (en) * 2016-06-28 2019-04-11 Necソリューションイノベータ株式会社 REPRODUCTION SYSTEM, REPRODUCTION METHOD, PROGRAM, AND RECORDING MEDIUM
WO2019092956A1 (en) * 2017-11-13 2019-05-16 ソニー株式会社 Information processing device, information processing method, and program
JP2020005192A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Information processing unit, information processing method, and program
JP2021058300A (en) * 2019-10-04 2021-04-15 コニカミノルタ株式会社 Cycle motion comparison display device and cycle motion comparison display method
WO2021192143A1 (en) * 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing method, information processing device, and information processing system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018003147A1 (en) * 2016-06-28 2019-04-11 Necソリューションイノベータ株式会社 REPRODUCTION SYSTEM, REPRODUCTION METHOD, PROGRAM, AND RECORDING MEDIUM
WO2019092956A1 (en) * 2017-11-13 2019-05-16 ソニー株式会社 Information processing device, information processing method, and program
CN111295878A (en) * 2017-11-13 2020-06-16 索尼公司 Information processor, information processing method, and program
JP2020005192A (en) * 2018-06-29 2020-01-09 キヤノン株式会社 Information processing unit, information processing method, and program
JP7262937B2 (en) 2018-06-29 2023-04-24 キヤノン株式会社 Information processing device, information processing method, and program
JP2021058300A (en) * 2019-10-04 2021-04-15 コニカミノルタ株式会社 Cycle motion comparison display device and cycle motion comparison display method
WO2021192143A1 (en) * 2020-03-26 2021-09-30 ソニーグループ株式会社 Information processing method, information processing device, and information processing system

Similar Documents

Publication Publication Date Title
JP6610689B2 (en) Information processing apparatus, information processing method, and recording medium
US10070046B2 (en) Information processing device, recording medium, and information processing method
US10382704B2 (en) Image processing device that generates a composite image
JP2012510673A (en) Mobile devices for augmented reality applications
JP2014164644A (en) Signal process device, display device and program
CN105450911B (en) Image processing apparatus, image processing method
CN103888643A (en) Information Notification Apparatus That Notifies Information Of Motion Of A Subject
JP6354461B2 (en) Feedback providing method, system, and analysis apparatus
Essid et al. A multi-modal dance corpus for research into interaction between humans in virtual environments
JP6165815B2 (en) Learning system, learning method, program, recording medium
KR20140090904A (en) The billiard coaching system and method using electronic display
JP2014064110A (en) Image processing device, image processing method, and program
JP6149365B2 (en) Information generating apparatus, information generating method and program
US20140186005A1 (en) Display control apparatus that displays image corresponding to predetermined motion
JP2006181014A (en) Image analysis device and movement correction system
JP2018050884A (en) Notification device, notification method and program
US10946242B2 (en) Swing analysis device, swing analysis method, and swing analysis system
JP6508350B2 (en) Regeneration control method and regeneration control system
JP6679952B2 (en) Teaching Assist System and Teaching Assist Program
Essid et al. A multimodal dance corpus for research into real-time interaction between humans in online virtual environments
US11871082B2 (en) Methods and apparatus for media playback based on cue points
KR102196203B1 (en) three dimensions boxing exercise information service method and apparatus
JP6679951B2 (en) Teaching Assist System and Teaching Assist Program
JP6115656B2 (en) Image processing apparatus, image processing method, and program
JP2022186345A (en) Performance instruction device, performance instruction method, and performance instruction program