JP2014164644A - Signal process device, display device and program - Google Patents
Signal process device, display device and program Download PDFInfo
- Publication number
- JP2014164644A JP2014164644A JP2013036794A JP2013036794A JP2014164644A JP 2014164644 A JP2014164644 A JP 2014164644A JP 2013036794 A JP2013036794 A JP 2013036794A JP 2013036794 A JP2013036794 A JP 2013036794A JP 2014164644 A JP2014164644 A JP 2014164644A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- unit
- image
- frame
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、信号処理装置、表示装置、及びプログラムに関する。 The present invention relates to a signal processing device, a display device, and a program.
手本となるフォームと比較練習するためのフォーム練習装置が開示されている(例えば、特許文献1参照)。 A form practice device for comparison practice with a model form has been disclosed (for example, see Patent Document 1).
特許文献1に記載の装置では、それぞれのフォームのタイミングを合わせることができない場合があった。このように、従来、練習者のフォームと手本となるフォームとを容易に比較することができない場合があるという問題があった。
In the apparatus described in
本発明は、このような事情に鑑みてなされたもので、その目的は、互いに異なる被写体のフォームを容易に比較することができる信号処理装置、表示装置、及びプログラムを提供することにある。 The present invention has been made in view of such circumstances, and an object thereof is to provide a signal processing device, a display device, and a program capable of easily comparing forms of different subjects.
この発明は上述した課題を解決するためになされたもので、本発明の一態様は、動画像のフレーム間の変位を検出する第1検出部と、前記第1検出部により検出された前記変位の特徴点を抽出する第1抽出部と、前記第1抽出部により抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける照合部と、を備えることを特徴とする信号処理装置である。 The present invention has been made to solve the above-described problems, and one aspect of the present invention provides a first detection unit that detects a displacement between frames of a moving image, and the displacement detected by the first detection unit. A first extraction unit that extracts a feature point of the first moving image, a feature point in the first moving image extracted by the first extracting unit is matched with a feature point in the second moving image, and the first feature in the first moving image And a collating unit that associates a point with the second feature point corresponding to the first feature point in the second moving image.
また、本発明の一態様は、上記記載の信号処理装置、を備えることを特徴とする表示装置である。 Another embodiment of the present invention is a display device including the above-described signal processing device.
また、本発明の一態様は、コンピュータに、動画像のフレーム間の変位を検出する第1ステップと、前記第1ステップにおいて検出された前記変位の特徴点を抽出する第2ステップと、前記第2ステップにおいて抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける第3ステップと、を実行させるためのプログラムである。
According to another aspect of the present invention, a computer includes a first step of detecting a displacement between frames of a moving image, a second step of extracting a feature point of the displacement detected in the first step, and the first step. The feature points in the first video extracted in
被写体のフォームを容易に比較することができる。 The forms of the subject can be easily compared.
以下、図面を参照して、本発明の実施の形態について説明する。
[第1実施形態]
図1は、この発明の第1実施形態による表示装置20の構成の一例を示す概略ブロック図である。表示装置20は、表示部4と、記憶媒体部5と、信号処理部10(信号処理装置)と、バス11と、を備えている。
Embodiments of the present invention will be described below with reference to the drawings.
[First Embodiment]
FIG. 1 is a schematic block diagram showing an example of the configuration of the
表示部4は、画像または文字情報などを表示するディスプレイである。例えば、表示部4は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイなどを備えており、信号処理部10の制御によって入力された画像信号に基づいた画像、または、入力された文字信号に基づいた文字情報等を表示する。また、表示部4は、信号処理部10の制御によって入力された2種類の動画像(以下、動画と称する)を並べて表示する。なお、表示部4は、表示面に対するタッチ操作を検出するタッチパネルを含んで構成されてもよい。また、表示部4は、表示装置20と有線または無線により入力された画像または文字情報などを表示する外部装置としての表示装置であってもよい。
The
記憶媒体部5は、取り外しが可能な記憶媒体50(カードメモリ等)と接続され、この記憶媒体50に記憶(記録)されている画像又は情報を読み出す。例えば、記憶媒体部5は、記憶媒体50に記憶(記録)されている動画を信号処理部10の制御により読み出す。なお、記憶媒体部5は、記憶媒体50に対する画像又は情報の書込みや消去を行ってもよい。
The
記憶媒体50は、表示装置20に対して着脱可能に接続されるメモリであって、例えば、撮影された動画等を記憶する。なお、記憶媒体部5に代えて、有線または無線を介して接続される他機器が有する記憶媒体、又は記憶装置としてもよい。
The
信号処理部10は、処理部1と、記憶部2と、を備えている。処理部1は、タイミング処理部110と、再生処理部120と、を備えている。タイミング処理部110は、動画に対して信号処理を実行する。再生処理部120は、タイミング処理部110の信号処理の結果に基づいて動画を再生する。例えば、再生処理部120は、記憶媒体部5から読み出した動画を、タイミング処理部110の信号処理の結果に基づいて再生して表示部4に表示させる。記憶部2は、タイミング処理部110が動画に対して信号処理を実行する際に必要なデータ、または、信号処理の結果により生成されたデータを記憶する。
The
バス11は、表示部4、記憶媒体部5、及び、信号処理部10と接続され、各部から出力された画像信号、制御信号、等を転送する。
The
次に、図2を参照して、タイミング処理部110及び記憶部2の構成について詳しく説明する。図2は、タイミング処理部110及び記憶部2の詳細構成の一例を示す図である。まず、タイミング処理部110の詳細構成について説明する。タイミング処理部110は、選択部112と、テンプレート登録部113と、変位検出部114と、変化特徴点抽出部115と、照合部116と、を備えている。
Next, the configuration of the
選択部112は、動画から所定の被写体を含む画像領域を選択する。例えば、選択部112は、ユーザの操作に応じて、動画の画像領域のうちの所定の被写体を含む画像領域を選択する。ここで、所定の被写体とは、例えば、動画に記録されているスポーツやダンスの練習者、または、その見本となる者(先生)のことである。例えば、選択部112は、動画から、フォームを比較したい被写体を含む画像領域をユーザの操作に応じて選択する。なお、ユーザの操作とは、不図示の操作部に対する操作であってもよいし、表示部4がタッチパネルを有する場合には表示面へのタッチ操作であってもよい。
The
テンプレート登録部113(登録部)は、選択部112により選択された画像領域の画像をテンプレート画像として登録する。例えば、テンプレート登録部113(登録部)は、テンプレート画像を記憶部2に登録して記憶させる。
The template registration unit 113 (registration unit) registers the image of the image area selected by the
変位検出部114(第1検出部)は、動画のフレーム間の変位を検出する。例えば、変位検出部114は、テンプレート登録部113により登録されたテンプレート画像を用いて、動画の各フレーム画像に対してテンプレートマッチングを行うことにより、所定の被写体を含む画像領域のフレーム間の変位を検出する。
The displacement detector 114 (first detector) detects a displacement between frames of the moving image. For example, the
具体的には、変位検出部114は、動画のフレーム画像毎にフレーム画像の画像領域のうちの所定の被写体を含む画像領域の座標位置を検出するとともに、検出したフレーム画像毎の座標位置に基づいて座標位置のフレーム間の変位を検出する。また、変位検出部114は、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム順に配列した「位置配列データ」を生成する。なお、変位検出部114は、この位置配列データにおいて、例えば、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム番号と対応付けている。また、変位検出部114は、検出した座標位置のフレーム間の変位を示す情報を、変化特徴点抽出部115に供給する。
Specifically, the
変化特徴点抽出部115(第1抽出部)は、変位検出部114により検出されたフレーム間の変位の特徴点を抽出する。例えば、変化特徴点抽出部115は、フレーム間の変位のうち変化が大きいタイミングを変位の特徴点として抽出する。ここで、上述の変化が大きいタイミングとは、例えば、「変位の方向が反転したタイミング」、または、「変位の速度変化が大きいタイミング(例えば、静止状態から動き出したタイミングや動いている状態から静止したタイミング等)」等である。なお、変位の特徴点として抽出した変化の大きいタイミングを示す情報を、以下の説明において「時刻ポイント」と称する。
The change feature point extraction unit 115 (first extraction unit) extracts a feature point of displacement between frames detected by the
また、変化特徴点抽出部115は、抽出した「時刻ポイント」をフレーム番号と対応付けてフレーム順に配列した「時刻ポイント配列データ」を生成する。例えば、変化特徴点抽出部115は、変位の特徴点の有無を示すフラグ情報(例えば、有り:「1」、無し:「0」)のうち、変位の特徴点が「有り」を示すフラグ情報(例えば、有り:「1」)を「時刻ポイント」としてフレーム番号に対応付ける。なお、変化特徴点抽出部115は、変位の特徴点の種類に応じて異なるフラグ情報を「時刻ポイント」としてフレーム番号に対応付けてもよい。
Further, the change feature
照合部116は、動画における変位の特徴点を、他の動画における変位の特徴点と照合して対応付けを行う。例えば、比較する2つの動画を、「A動画」(第1の動画)と「B動画」(第2の動画)とする。この場合、変化特徴点抽出部115は、「A動画」における変位の特徴点と、「B動画」における変位の特徴点とをそれぞれ抽出して、「A動画」の時刻ポイント配列データと、「B動画」の時刻ポイント配列データとを生成する。照合部116は、「A動画」の時刻ポイント配列データと、「B動画」の時刻ポイント配列データとを参照して、「A動画」の時刻ポイントと、「B動画」の時刻ポイントとを照合する。すなわち、照合部116は、変化特徴点抽出部115により抽出された「A動画」における特徴点と、「B動画」における特徴点とを照合する。
The
そして、照合部116は、「A動画」における第1特徴点(「A動画」における「時刻ポイント」)と、「B動画」において第1特徴点に対応する第2特徴点(「B動画」において「A動画」における「時刻ポイント」に対応する「時刻ポイント」)とを対応付ける。例えば、照合部116は、「A動画」における第1特徴点(「時刻ポイント」)と、「B動画」において第1特徴点と同様の変位の特徴を示す第2特徴点(「時刻ポイント」)とを対応付ける。続いて、図3、図4を参照して、照合部116が照合して対応付けをする処理の具体例を以下に説明する。
Then, the
(照合処理の具体例)
図3は、動画(画像及び音声(声以外の音も含む))と、所定の被写体を含む画像領域の「位置」と、変位の特徴点のタイミングの「時刻ポイント」とが対応付けされたデータの一例を示す図である。なお、横軸が、動画の時間軸を示している。なお、この図では、例えば「A動画」がダンスのフォームの手本となる先生がダンスをしている動画であり、「B動画」がそのダンスを練習する練習者がダンスをしている動画であるものとする。
(Specific example of verification processing)
In FIG. 3, a moving image (image and sound (including sound other than voice)), “position” of an image region including a predetermined subject, and “time point” of the timing of a displacement feature point are associated with each other. It is a figure which shows an example of data. The horizontal axis represents the time axis of the moving image. In this figure, for example, “A video” is a video where a teacher who is a model of dance is dancing, and “B video” is a video where a practitioner who is practicing the dance is dancing Suppose that
また、この図に示す「時刻ポイント」は、ダンスの動きにおける変位の特徴点が抽出されたタイミング(動きの変化が大きいタイミング)のフレームに対応付けられている。例えば、「時刻ポイント」には、変位の特徴点が「有り」を示すフラグ情報(例えば、「1」)が対応付けられている。すなわち、変化特徴点抽出部115は、「A動画」及び「B動画」において、変位の特徴点として抽出した変化の大きいタイミングのフレームに、変位の特徴点の「有り」を示すフラグ情報(例えば、有り:「1」)を「時刻ポイント」として対応付けている。
In addition, the “time point” shown in this figure is associated with a frame at a timing at which a feature point of displacement in the dance movement is extracted (a timing when the movement change is large). For example, “time point” is associated with flag information (for example, “1”) indicating that the displacement feature point is “present”. That is, the change feature
この図では、「A動画」において、フレームfa(12)、fa(18)、fa(23)のそれぞれに、フラグ情報「1」が「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」、としてそれぞれ対応付けられている。また、「B動画」において、フレームfb(12)、fb(17)、fb(20)のそれぞれに、フラグ情報「1」が「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」、としてそれぞれ対応付けられている。 In this figure, in “A moving image”, flag information “1” is “time point (0)” and “time point (1)” in each of the frames fa (12), fa (18), and fa (23). , “Time point (2)”, respectively. In the “B moving image”, the flag information “1” is set to “time point (0)”, “time point (1)”, “figure” in each of the frames fb (12), fb (17), and fb (20). Time points (2) ”are associated with each other.
図4は、図3に示す動画データを照合して対応付けをした結果の一例を示す図である。照合部116は、動画の時間の経過の順に、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれを、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと対応付ける。すなわち、照合部116は、「A動画」における複数の第1特徴点のそれぞれと、「B動画」において複数の第1特徴点のそれぞれに対応する第2特徴点とを対応付ける。
FIG. 4 is a diagram illustrating an example of a result of collating and matching the moving image data illustrated in FIG. The
例えば、照合部116は、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれが、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと同じタイミングで再生されるように対応付ける。
For example, the
具体的には、照合部116は、「B動画」における「時刻ポイント(0)」のフレームfb(12)が、「A動画」における「時刻ポイント(0)」のフレームfa(12)と同じタイミングで再生されるように対応付ける。また、照合部116は、「B動画」における「時刻ポイント(1)」のフレームfb(17)が、「A動画」における「時刻ポイント(1)」のフレームfa(18)と同じタイミングで再生されるように対応付ける。また、照合部116は、「B動画」における「時刻ポイント(2)」のフレームfb(20)が、「A動画」における「時刻ポイント(2)」のフレームfa(23)と同じタイミングで再生されるように対応付ける。
Specifically, the
このように、照合部116は、練習生のダンスの動きにおける変位の特徴点のそれぞれを、見本となる先生のダンスの動きにおける変位の特徴点のそれぞれと同じタイミングで再生されるように対応付ける。
In this way, the collating
なお、照合部116は、「A動画」における第1特徴点(「A動画」における時刻ポイント)と、「B動画」において第1特徴点に対応する第2特徴点(「B動画」における時刻ポイント)とを統合してもよい。そして、照合部116は、統合した特徴点(時刻ポイント)に対して、第1特徴点に対応する「A動画」のフレーム画像、および、第2特徴点に対応する「B動画」のフレーム画像を対応付けてもよい。
Note that the
図5は、図3に示す動画データを照合して、「時刻ポイント」を統合した一例を示している。この図においては、照合部116は、「A動画」における「時刻ポイント(0)」と「B動画」における「時刻ポイント(0)」とを統合した「時刻ポイント(0)」に、「A動画」のフレームfa(12)と「B動画」のフレームfb(12)とを対応付ける。また、照合部116は、「A動画」における「時刻ポイント(1)」と「B動画」における「時刻ポイント(1)」とを統合した「時刻ポイント(1)」に、「A動画」のフレームfa(18)と「B動画」のフレームfb(17)とを対応付ける。また、照合部116は、「A動画」における「時刻ポイント(2)」と「B動画」における「時刻ポイント(2)」とを統合した「時刻ポイント(2)」に、「A動画」のフレームfa(23)と「B動画」のフレームfb(20)とを対応付ける。
FIG. 5 shows an example in which “time points” are integrated by collating the moving image data shown in FIG. In this figure, the
図2に戻り、次に、記憶部2の詳細構成について説明する。記憶部2は、テンプレート画像記憶部21と、位置配列データ記憶部22と、時刻ポイント配列データ記憶部23と、画像処理用バッファメモリ24と、を備えている。
Returning to FIG. 2, the detailed configuration of the
テンプレート画像記憶部21は、テンプレート登録部113が登録するテンプレート画像を記憶する。例えば、テンプレート画像記憶部21は、選択部112により選択された所定の被写体を含む画像領域の画像をテンプレート登録部113の制御によりテンプレート画像として記憶する。また、テンプレート画像記憶部21は、記憶しているテンプレート画像を、変位検出部114がテンプレートマッチングを行う際に変位検出部114の要求に応じて供給する。
The template
位置配列データ記憶部22は、変位検出部114が生成した位置配列データを記憶する。例えば、位置配列データ記憶部22は、フレーム毎の所定の被写体を含む画像領域の座標位置をフレーム番号と対応付けて記憶する。
The position array
時刻ポイント配列データ記憶部23は、変化特徴点抽出部115が生成した時刻ポイント配列データを記憶する。例えば、時刻ポイント配列データ記憶部23は、変位の特徴点として抽出した変化の大きいタイミングである「時刻ポイント」をフレーム番号と対応付けて記憶する。
The time point array
画像処理用バッファメモリ24は、信号処理部10が動画に対して信号処理を実行する際の作業領域、または、動画を再生する処理を実行する際の作業領域として利用され、動画が一時的に記憶される。例えば、画像処理用バッファメモリ24は、「A動画」に対して処理を実行する際に利用されるAバッファメモリと、「B動画」に対して処理を実行する際に利用されるBバッファメモリと、を有している。
The image
以上のように構成された信号処理部10は、照合部116が照合した結果に基づいて、「A動画」と「B動画」とのそれぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生する。すなわち、信号処理部10は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生する。また、表示装置20は、信号処理部10が再生した「A動画」と「B動画」とのそれぞれの動画を表示部4に並べて表示する。
The
よって、表示装置20は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を表示部4に並べて表示することができる。
Therefore, the
例えば、表示装置20(信号処理部10)は、図3に示す「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれとが同じタイミングで再生されるように、「A動画」と「B動画」とを表示部4に並べて表示する(再生する)ことができる。次に、この表示装置20における再生処理について詳しく説明する。
For example, the display device 20 (the signal processing unit 10) includes “time point (0)”, “time point (1)”, “time point (2)” in “A moving image” illustrated in FIG. “A movie” and “B movie” are reproduced so that “time point (0)”, “time point (1)”, and “time point (2)” in “B movie” are reproduced at the same timing. Can be displayed side by side on the display unit 4 (reproduced). Next, the reproduction process in the
(再生処理の説明)
図6は、表示装置20が動画を再生する処理の一例を説明する図である。この図において、信号処理部10は、「A動画」の時刻ポイント配列データと「B動画」の時刻ポイント配列データとをそれぞれ生成して、生成したそれぞれの時刻ポイント配列データが時刻ポイント配列データ記憶部23に記憶されているものとする。
(Description of playback processing)
FIG. 6 is a diagram illustrating an example of a process in which the
照合部116は、時刻ポイント配列データ記憶部23に記憶されている「A動画」の時刻ポイント配列データと「B動画」の時刻ポイント配列データとを参照して、「A動画」における「時刻ポイント」と、「B動画」における「時刻ポイント」とを対応付ける(符号S101参照)。
The collating
再生処理部120は、記憶媒体部5から「A動画」を読み出して、「A動画」のフレーム画像の配列(A画像配列)と、音声の配列(A音声配列)と、位置配列(A位置配列)と、のそれぞれのデータのうち所定の数フレーム分のデータをフレーム順にしたがって、画像処理用バッファメモリ24のAバッファメモリに一時的に記憶させる(符号S102参照)。また、再生処理部120は、記憶媒体部5から「B動画」を読み出して、「B動画」のフレーム画像の配列(B画像配列)と、音声の配列(B音声配列)と、位置配列(B位置配列)と、のそれぞれのデータのうち所定の数フレーム分のデータをフレーム順にしたがって、画像処理用バッファメモリ24のBバッファメモリに一時的に記憶させる(符号S103参照)。
The
次に、再生処理部120は、照合部116が照合した結果(対応付けされた時刻ポイント)に基づいて、「A動画」と「B動画」とのそれぞれの互いに対応する「時刻ポイント」の再生タイミングが同じになるように、画像処理用バッファメモリ24から「A動画」と「B動画」とを読み出して再生し(符号S104参照)、表示部4に並べて表示させる(符号S105参照)。
また、再生処理部120は、画像処理用バッファメモリ24から「A動画」と「B動画」とを読み出したことに応じて、次のフレームのデータを画像処理用バッファメモリ24に順次一時的に記憶させる。
Next, the
In addition, in response to reading “A moving image” and “B moving image” from the image
例えば、再生処理部120は、図4に示すように、「B動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれが、「A動画」における「時刻ポイント(0)」、「時刻ポイント(1)」、「時刻ポイント(2)」のそれぞれと同じタイミングで再生されるように、「A動画」と「B動画」との再生開始フレームと、「B動画」のフレームレートとを調整する。
For example, as illustrated in FIG. 4, the
具体的には、再生処理部120は、「A動画」のフレームfa(12)と「B動画」のフレームfb(12)、「A動画」のフレームfa(18)と「B動画」のフレームfb(17)、及び「A動画」のフレームfa(23)と「B動画」のフレームfb(20)、がそれぞれ同じタイミングになるように再生する。すなわち、再生処理部120は、「A動画」のフレームfa(12)からフレームfa(18)を再生する期間に、「B動画」のフレームfb(12)からフレームfb(17)を「A動画」のフレームレートよりも低いフレームレートで再生する。また、再生処理部120は、「A動画」のフレームfa(12)からフレームfa(18)を再生する期間に、「B動画」のフレームfb(12)からフレームfb(17)を「A動画」のフレームレートよりも低いフレームレートに変換して再生する。
Specifically, the
このように、再生処理部120は、「A動画」において第1特徴点が抽出されたフレーム画像と、「B動画」において第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、「A動画」および「B動画」を再生する。また、再生処理部120は、第1特徴点が抽出されたフレーム画像と第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、「A動画」または「B動画」のフレームレートを変換する。また、再生処理部120は、再生した「A動画」および「B動画」を表示部4に並べて表示する。
As described above, the
すなわち、表示装置20は、2つの動画それぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生して表示部4に並べて表示する。よって、表示装置20は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を表示することができる。
That is, the
なお、再生処理部120は、「B動画」を「A動画」のフレームレートよりも低いフレームレートに変更して再生する場合、「B動画」の1フレーム毎の再生時間を長くするように変更してもよいし、フレームレートを変更する期間内の「B動画」のフレーム数と「A動画」のフレーム数とが同じになるように、その期間内の「B動画」にフレーム(画像)を加えてもよい。例えば、この図4において「B動画」のフレームfb(12)からフレームfb(17)の期間において加える画像は、「B動画」のフレームfb(12)からフレームfb(17)の画像のうちの少なくとも一つフレームの画像であってもよいし、少なくとも一つフレームの画像に基づいて生成された画像であってもよい。同様に、「B動画」のフレームfb(17)からフレームfb(20)の期間において加える画像は、「B動画」のフレームfb(17)からフレームfb(20)の画像のうちの少なくとも一つフレームの画像であってもよいし、少なくとも一つフレームの画像に基づいて生成された画像であってもよい。
Note that the
また、上記図4及び図6を用いて説明した例では、「B動画」を「A動画」のフレームレートよりも低いフレームレートに変更して再生する例を示したが、「時刻ポイント」間のフレーム数が「A動画」よりも「B動画」の方が多い場合には、「B動画」を「A動画」のフレームレートよりも高いフレームレートに変更して再生してもよい。この場合、「B動画」の1フレーム毎の再生時間を短くするように変更してもよいし、フレームレートを変更する期間内の「B動画」のフレーム数と「A動画」のフレーム数とが同じになるように、その期間内の「B動画」のフレームを間引いてもよい。 In the example described with reference to FIG. 4 and FIG. 6, the example in which “B moving image” is changed to a frame rate lower than the frame rate of “A moving image” is shown. If “B video” is larger than “A video”, “B video” may be changed to a frame rate higher than the frame rate of “A video” and played back. In this case, the playback time for each frame of “B moving image” may be changed, or the number of frames of “B moving image” and the number of frames of “A moving image” within the period for changing the frame rate may be changed. So that the frames of “B moving image” within the period may be thinned out.
なお、表示装置20は、変位検出部114が生成した(位置配列データ記憶部22に記憶されている)位置配列データに基づいて、再生して表示するフレーム画像に対応する「位置」を示す情報を動画に重ねて表示部4に表示してもよい。また、表示装置20は、動画を再生して表示部4に表示する際に、所定の被写体を含む画像領域が含まれるフレーム画像に対してはその旨を示す情報を表示してもよい。
The
また、変位検出部114は、位置配列データを生成しなくともよい。例えば、変位検出部114は、フレーム画像毎の座標位置に基づいて、座標位置のフレーム間の変位を検出する処理を実行して、位置配列データを生成する処理を実行しなくともよい。
Further, the
なお、図3から図6を用いて説明した動画の例は画像と音声とを含む動画であるが、これに限られるものではなく、本実施形態における処理が適用される動画は音声(音)を含まない動画であってもよい。 The example of the moving image described with reference to FIGS. 3 to 6 is a moving image including an image and sound. However, the moving image is not limited to this, and the moving image to which the processing according to the present embodiment is applied is sound (sound). May not be included.
(2つの動画それぞれの再生タイミングを合わせる処理の具体例)
本実施形態によれば、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、その他の動きの変位の特徴点を対応付けることにより、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。続いて、図7、図8、及び、図9を参照して、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生する再生処理の具体例を説明する。
(Specific example of processing for matching the playback timings of two videos)
According to the present embodiment, even if there is a partial omission or a different movement in the movement of a predetermined subject in each of the two moving images, the two moving images can be associated with each other by associating feature points of other movement displacements. Each of the predetermined subjects can be played back at the same timing. Next, with reference to FIGS. 7, 8, and 9, a specific example of a reproduction process for reproducing in accordance with the timing of movement of a predetermined subject of each of the two moving images will be described.
なお、図3、図4.及び図5を用いて説明した処理と同様に、「A動画」と「B動画」との2つの動画のうち、「A動画」がダンスのフォームの手本となる先生がダンスをしている動画(手本フォームの動画)であり、「B動画」がそのダンスを練習する練習者がダンスをしている動画(練習フォームの動画)であるものとする。また、「B動画」の再生タイミングを「A動画」の再生タイミングに合わせる処理として説明する。 3 and 4. As in the process described with reference to FIG. 5, among the two videos of “A movie” and “B movie”, a teacher whose “A movie” serves as a model for dance is dancing. It is assumed that the video is a video (example form video), and the “B video” is a video (practice form video) in which a practitioner who practices the dance is dancing. Further, a description will be given of a process of matching the playback timing of “B moving image” with the playback timing of “A moving image”.
なお、図7、図8、及び、図9では、図3、図4.及び、図5に示す各フレームの「画像」、「音声」、及び、「位置」の記載を省略しており、「時刻ポイント」と「フレーム番号」とを示している。 7, 8, and 9, FIGS. 3, 4. Also, “image”, “sound”, and “position” of each frame shown in FIG. 5 are omitted, and “time point” and “frame number” are shown.
また、ここでは、所定の被写体(先生または練習者)のフレーム間の変位の特徴点を、以下に示すような変位の特徴点の種類毎に抽出する。また、変位の特徴点の種類毎に以下に示すようなフラグ情報が予め定められている。
・「変位の方向が反転」:フラグ情報「2」
・「ジャンプ」:フラグ情報「3」
・「静止状態から動く」:フラグ情報「4」
・「動いている状態から静止」:フラグ情報「5」
そして、これらの変位の特徴点が抽出されたフレームに対して、それぞれのフラグ情報が「時刻ポイント」として対応付けられているものとする。
Further, here, feature points of displacement between frames of a predetermined subject (teacher or practitioner) are extracted for each type of feature points of displacement as shown below. Further, flag information as shown below is predetermined for each type of displacement feature point.
・ "Displacement direction is reversed": Flag information "2"
・ "Jump": Flag information "3"
・ "Move from stationary state": Flag information "4"
・ "Still from moving": Flag information "5"
Then, it is assumed that each flag information is associated as a “time point” with respect to the frame in which the feature points of these displacements are extracted.
<第1例>
図7は、再生処理の具体例(第1例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれる「時刻ポイント」が、「B動画」(練習フォームの動画)において抜けている場合を示している。
<First example>
FIG. 7 is a diagram for explaining a specific example (first example) of the reproduction process. The example shown in this figure shows a case where the “time point” included in “A movie” (example form movie) is missing in “B movie” (practice form movie).
この図では、「A動画」においてフラグ情報「2」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」における最初の「時刻ポイント」であるフラグ情報「2」が、「B動画」の最初には無い。これは、例えば、練習者が、最初の動き(振り)である「変位の方向が反転」(フラグ情報「2」)の動きを行わずに、次の「ジャンプ」(フラグ情報「3」)の動きを行ってしまったような場合である。 In this figure, “time point” is associated with frames in the order of flag information “2”, “3”, “3”, “2” in “A movie”, whereas “B movie” “Time point” is associated with the frame in the order of flag information “3”, “3”, and “2”. That is, the flag information “2” that is the first “time point” in “A moving image” does not exist at the beginning of “B moving image”. This is because, for example, the practitioner does not perform the movement of “the direction of displacement is reversed” (flag information “2”), which is the first movement (swing), but the next “jump” (flag information “3”). This is the case where the movement has been performed.
図7(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(12)にフラグ情報「2」、フレームfa(14)にフラグ情報「3」、フレームfa(17)にフラグ情報「3」、及び、フレームfa(22)にフラグ情報「2」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(17)にフラグ情報「3」、フレームfb(21)にフラグ情報「3」、及び、フレームfb(25)にフラグ情報「2」がそれぞれ対応付けられている。 FIG. 7A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “2” in frame fa (12), flag information “3” in frame fa (14), flag information “3” in frame fa (17), and frame The flag information “2” is associated with fa (22). On the other hand, as “time point” of “B moving image”, flag information “3” in the frame fb (17), flag information “3” in the frame fb (21), and flag information “2” in the frame fb (25). Are associated with each other.
図7(b)は、照合部116が、図7(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。
FIG. 7B is a diagram illustrating a result of the
例えば、照合部116は、「A動画」のフレームfa(14)の「時刻ポイント」と「B動画」のフレームfb(17)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(17)の「時刻ポイント」と「B動画」のフレームfb(21)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(22)の「時刻ポイント」と「B動画」のフレームfb(25)の「時刻ポイント」とを対応付ける。なお、照合部116は、「A動画」のフレームfa(12)の「時刻ポイント」に対応する「時刻ポイント」が「B動画」にはないため、「A動画」のフレームfa(12)の「時刻ポイント」の対応付けを行わない。
For example, the
再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。
Based on the collation result of the
例えば、再生処理部120は、「A動画」のフレームfa(14)と「B動画」のフレームfb(17)、「A動画」のフレームfa(17)と「B動画」のフレームfb(21)、及び、「A動画」のフレームfa(22)と「B動画」のフレームfb(25)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」のタイミングに合わせるため、「B動画」のフレームfb(17)〜fb(21)、及び、フレームfb(21)〜fb(25)の期間のそれぞれのフレームレートを変換する。
For example, the
なお、図7(b)では、フレームfb(17)〜fb(21)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(17)〜fb(21)の期間内の何れかのフレームを間引いてもよい。また、図7(b)では、フレームfb(21)〜fb(25)の期間内の各フレームの時間の長さを長くしている例を示しているが、フレームfb(21)〜fb(25)の期間内にフレームを加えてもよい。 FIG. 7B shows an example in which the length of time of each frame in the period of the frames fb (17) to fb (21) is shortened, but the frames fb (17) to fb ( Any frame within the period 21) may be thinned out. FIG. 7B shows an example in which the length of time of each frame in the period of the frames fb (21) to fb (25) is increased, but the frames fb (21) to fb ( A frame may be added within the period of 25).
このように、表示装置20(信号処理部10)は、「A動画」における先生の手本の動きに対して、「B動画」における練習者の動きに部分的な抜けがある場合(例えば、図7(a)に示すような場合)であっても、「A動画」における先生の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図7(b)に示すように)再生することができる。 As described above, the display device 20 (signal processing unit 10) may have a partial omission in the movement of the practitioner in the “B moving image” with respect to the movement of the teacher in the “A moving image” (for example, Even in the case shown in FIG. 7A, the timing of the teacher's movement in the “A moving image” and the practice person's movement in the “B moving image” are matched (for example, as shown in FIG. 7B). Can play).
<第2例>
図8は、再生処理の具体例(第2例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれていない「時刻ポイント」が、「B動画」(練習フォームの動画)に含まれる場合を示している。
<Second example>
FIG. 8 is a diagram for explaining a specific example (second example) of the reproduction process. The example shown in this figure shows a case where “time point” that is not included in “A moving image” (exemplary form moving image) is included in “B moving image” (practice form moving image).
この図では、「A動画」においてフラグ情報「2」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「2」、「3」、「3」、「3」、「2」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」においてフラグ情報「3」の「時刻ポイント」が2つのフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「3」の「時刻ポイント」が3つのフレームに対応付けられている。これは、例えば、練習者が、手本の動き(振り)に対して「ジャンプ」(フラグ情報「3」)の回数を間違えてしまったような場合(1回多くジャンプしてしまった場合)である。 In this figure, “time point” is associated with frames in the order of flag information “2”, “3”, “3”, “2” in “A movie”, whereas “B movie” “Time point” is associated with the frame in the order of flag information “2”, “3”, “3”, “3”, “2”. That is, “time point” of flag information “3” is associated with two frames in “A movie”, whereas “time point” of flag information “3” is 3 in “B movie”. Is associated with one frame. This is the case, for example, when the practitioner makes a mistake in the number of “jumps” (flag information “3”) with respect to the movement (swing) of the model (when jumping once many times). It is.
図8(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(12)にフラグ情報「2」、フレームfa(14)にフラグ情報「3」、フレームfa(17)にフラグ情報「3」、及び、フレームfa(22)にフラグ情報「2」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(15)にフラグ情報「2」、フレームfb(17)にフラグ情報「3」、フレームfb(19)にフラグ情報「3」、フレームfb(21)にフラグ情報「3」、及び、フレームfb(25)にフラグ情報「2」がそれぞれ対応付けられている。 FIG. 8A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “2” in frame fa (12), flag information “3” in frame fa (14), flag information “3” in frame fa (17), and frame The flag information “2” is associated with fa (22). On the other hand, as “time point” of “B moving image”, flag information “2” in frame fb (15), flag information “3” in frame fb (17), flag information “3” in frame fb (19), frame Flag information “3” is associated with fb (21), and flag information “2” is associated with frame fb (25).
図8(b)は、照合部116が、図8(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。
FIG. 8B is a diagram showing a result of the
例えば、照合部116は、「A動画」のフレームfa(12)の「時刻ポイント」と「B動画」のフレームfb(15)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(14)の「時刻ポイント」と「B動画」のフレームfb(17)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(17)の「時刻ポイント」と「B動画」のフレームfb(19)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(22)の「時刻ポイント」と「B動画」のフレームfb(25)の「時刻ポイント」とを対応付ける。なお、照合部116は、「B動画」のフレームfb(21)の「時刻ポイント」に対応する「時刻ポイント」が「A動画」にはないため、「B動画」のフレームfb(21)の「時刻ポイント」の対応付けを行わない。
For example, the
再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。
Based on the collation result of the
例えば、再生処理部120は、「A動画」のフレームfa(12)と「B動画」のフレームfb(15)、「A動画」のフレームfa(14)と「B動画」のフレームfb(17)、「A動画」のフレームfa(17)と「B動画」のフレームfb(19)、及び、「A動画」のフレームfa(22)と「B動画」のフレームfb(25)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」に合わせるため、「B動画」のフレームfb(17)〜fb(19)、及び、フレームfb(19)〜fb(25)の期間のそれぞれのフレームレートを変換する。
For example, the
なお、図8(b)では、フレームfb(17)〜fb(19)の期間内の各フレームの時間の長さを長くしている例を示しているが、フレームfb(17)〜fb(19)の期間内にフレームを加えてもよい。また、図8(b)では、フレームfb(19)〜fb(25)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(19)〜fb(25)の期間内の何れかのフレームを間引いてもよい。 8B shows an example in which the length of time of each frame in the period of the frames fb (17) to fb (19) is increased, the frames fb (17) to fb ( A frame may be added within the period of 19). 8B shows an example in which the time length of each frame in the period of the frames fb (19) to fb (25) is shortened, the frames fb (19) to fb ( Any frame within the period of 25) may be thinned out.
このように、表示装置20(信号処理部10)は、「B動画」の練習者の動きにおいて部分的に「A動画」の手本の動きには含まれない動きがある場合(例えば、図8(a)に示すような場合)であっても、「A動画」における手本の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図8(b)に示すように)再生することができる。 As described above, the display device 20 (signal processing unit 10) has a movement that is not included in the movement of the “A moving image” in the movement of the practitioner of “B moving image” (for example, FIG. 8 (a), the timing of the movement of the model in “A video” and the movement of the practitioner in “B video” are matched (for example, as shown in FIG. 8B). Can play).
<第3例>
図9は、再生処理の具体例(第3例)を説明する図である。この図に示す例は、「A動画」(手本フォームの動画)に含まれる「時刻ポイント」と、「B動画」(練習フォームの動画)における「時刻ポイント」とが、部分的に異なる(動きの変位の特徴が異なる)場合を示している。
<Third example>
FIG. 9 is a diagram for explaining a specific example (third example) of reproduction processing. In the example shown in this figure, “time point” included in “A movie” (example form movie) and “time point” in “B movie” (practice form movie) are partially different ( This shows the case where the characteristics of the movement displacement are different.
この図では、「A動画」においてフラグ情報「4」、「2」、「5」、「3」の順に「時刻ポイント」がフレームに対応付けられているのに対して、「B動画」においてはフラグ情報「4」、「2」、「2」、「3」の順に「時刻ポイント」がフレームに対応付けられている。すなわち、「A動画」と「B動画」とでは部分的に「時刻ポイント」のフラグ情報が異なる。これは、例えば、練習者が、「変位の方向が反転」(フラグ情報「2」)の動きの後に、「動いている状態から静止」(フラグ情報「5」)の動きを行うはずのところを間違えて静止せずに動いてしまい、「変位の方向が反転」(フラグ情報「2」)の動きを行うことによって静止するはずであった位置に戻ってきてそのまま「ジャンプ」(フラグ情報「3」)の動きを行ったような場合である。 In this figure, “time points” are associated with frames in the order of flag information “4”, “2”, “5”, and “3” in “A movie”, whereas in “B movie” “Time point” is associated with the frame in the order of flag information “4”, “2”, “2”, “3”. That is, the flag information of “time point” is partially different between “A moving image” and “B moving image”. This is because, for example, the practitioner should perform the movement from “moving to stationary” (flag information “5”) after the movement of “displacement direction is reversed” (flag information “2”). By moving the direction of “displacement direction reversed” (flag information “2”) and returning to the position where it should have been stationary and performing “jump” (flag information “ 3)).
図9(a)は、「A動画」と「B動画」とのそれぞれの「時刻ポイント」の配列と「フレーム番号」の配列とを示している。「A動画」の「時刻ポイント」として、フレームfa(13)にフラグ情報「4」、フレームfa(16)にフラグ情報「2」、フレームfa(20)にフラグ情報「5」、及び、フレームfa(25)にフラグ情報「3」がそれぞれ対応付けられている。一方、「B動画」の「時刻ポイント」として、フレームfb(12)にフラグ情報「4」、フレームfb(15)にフラグ情報「2」、フレームfb(22)にフラグ情報「2」、及び、フレームfb(26)にフラグ情報「3」がそれぞれ対応付けられている。 FIG. 9A shows an array of “time points” and an array of “frame numbers” for “A moving image” and “B moving image”, respectively. As the “time point” of “A movie”, flag information “4” in frame fa (13), flag information “2” in frame fa (16), flag information “5” in frame fa (20), and frame The flag information “3” is associated with fa (25). On the other hand, as “time point” of “B moving image”, flag information “4” in the frame fb (12), flag information “2” in the frame fb (15), flag information “2” in the frame fb (22), and The flag information “3” is associated with the frame fb (26).
図9(b)は、照合部116が、図9(a)に示す「A動画」と「B動画」とのそれぞれの「時刻ポイント」を照合して対応付けをした結果を示す図である。照合部116は、「A動画」の「時刻ポイント」と「B動画」の「時刻ポイント」とを、動画の時間の流れにしたがった順に同じフラグ情報の「時刻ポイント」を対応付ける。
FIG. 9B is a diagram showing a result of
例えば、照合部116は、「A動画」のフレームfa(13)の「時刻ポイント」と「B動画」のフレームfb(12)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(16)の「時刻ポイント」と「B動画」のフレームfb(15)の「時刻ポイント」とを対応付ける。また、照合部116は、「A動画」のフレームfa(25)の「時刻ポイント」と「B動画」のフレームfb(26)の「時刻ポイント」とを対応付ける。なお、照合部116は、「B動画」のフレームfb(22)の「時刻ポイント」に対応する「時刻ポイント」が「A動画」にはないため、「B動画」のフレームfb(22)の「時刻ポイント」の対応付けを行わない。また、照合部116は、「A動画」のフレームfb(20)の「時刻ポイント」に対応する「時刻ポイント」が「B動画」にはないため、「A動画」のフレームfb(20)の「時刻ポイント」の対応付けを行わない。
For example, the collating
再生処理部120は、照合部116の照合結果に基づいて、「A動画」と「B動画」との互いに対応する「時刻ポイント」のフレームが同じタイミングになるように再生する。
Based on the collation result of the
例えば、再生処理部120は、「A動画」のフレームfa(13)と「B動画」のフレームfb(12)、「A動画」のフレームfa(16)と「B動画」のフレームfb(15)、及び、「A動画」のフレームfa(25)と「B動画」のフレームfb(26)、のそれぞれが同じタイミングになるように「A動画」と「B動画」とを再生して表示部4に並べて表示させる。また、再生処理部120は、「B動画」の再生タイミングを「A動画」に合わせるため、「B動画」のフレームfb(15)〜fb(26)の期間のフレームレートを変換する。なお、図9(b)では、フレームfb(15)〜fb(26)の期間内の各フレームの時間の長さを短くしている例を示しているが、フレームfb(15)〜fb(26)の期間内の何れかのフレームを間引いてもよい。
For example, the
このように、表示装置20(信号処理部10)は、「B動画」の練習者の動きにおいて部分的に「A動画」の手本の動きには含まれない動きがある場合(例えば、図9(a)に示すような場合)であっても、「A動画」における手本の動きと「B動画」における練習者の動きとのタイミングをあわせて(例えば、図9(b)に示すように)再生することができる。 As described above, the display device 20 (signal processing unit 10) has a movement that is not included in the movement of the “A moving image” in the movement of the practitioner of “B moving image” (for example, FIG. 9 (a), the timing of the movement of the model in “A movie” and the exerciser's movement in “B movie” are matched (for example, as shown in FIG. 9B). Can play).
以上、第1例から第3例において説明したように、信号処理部10は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、その他の動きの変位の特徴点を用いて対応付けを行う。これにより、信号処理部10は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。よって、信号処理部10は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を再生することができる。
As described above, as described in the first to third examples, the
また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きにおいて部分的に動きの抜けや異なる動き等があっても、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。よって、表示装置20は、互いに異なる動画に記録された被写体のフォームを容易に比較することができるように、それぞれの動画を再生して表示することができる。
In addition, the
なお、上記実施形態においてダンスのフォームを比較する例を説明したが、比較するフォームはダンスのフォームに限られるものではない。例えば、比較するフォームは、テニス、ゴルフ、体操、野球等のフォーム、空手の型、チアリーディングの振り、等のようなダンス以外のフォームであってもよい。 In addition, although the example which compares the dance form in the said embodiment was demonstrated, the form to compare is not restricted to a dance form. For example, the form to be compared may be a form other than dance such as tennis, golf, gymnastics, baseball, etc., karate type, cheerleading swing, etc.
なお、図3から図5及び図7から図9に示す時刻ポイントの間隔とフレーム数との関係は単に模式的に表したものであって実際の動きの速さを表すものではない。また、「時刻ポイント」は、1つのフレームと対応付けられていてもよいし、連続する複数のフレーム群と対応付けられていてもよい。 The relationship between the time point interval and the number of frames shown in FIG. 3 to FIG. 5 and FIG. 7 to FIG. 9 is merely schematically shown and does not represent the actual speed of movement. Further, the “time point” may be associated with one frame or may be associated with a plurality of continuous frame groups.
[第2実施形態]
次に、図10を参照して、本発明の第2実施形態による表示装置20について説明する。図10は、第2実施形態による表示装置20が備えるタイミング処理部110Aの構成の一例を示す概略ブロック図である。この図に示すタイミング処理部110Aは、画像特徴点抽出部111を備えている構成であることが図2に示す第1実施形態のタイミング処理部110に対して異なる。なお、図10において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Second Embodiment]
Next, a
画像特徴点抽出部111(第2抽出部)は、動画から所定の被写体の特徴点を抽出する。また、この第2実施形態の構成において、選択部112は、画像特徴点抽出部111により抽出された所定の被写体の特徴点を含む画像領域を選択する。そして、テンプレート登録部113は、選択部112により選択された画像領域をテンプレート画像として登録する。
The image feature point extraction unit 111 (second extraction unit) extracts feature points of a predetermined subject from the moving image. In the configuration of the second embodiment, the
すなわち、第2実施形態のタイミング処理部110Aは、所定の被写体の特徴点に基づいて、所定の被写体を含む画像領域、例えば、フォームを比較したい被写体を含む画像領域を選択する。
That is, the
ここで、所定の被写体の特徴点とは、例えば、被写体の顔、手、足、または、被写体が持っている物体(例えば、バトン、テニスラケット、ゴルフのクラブ等)、等に基づく特徴点である。 Here, the feature point of a predetermined subject is, for example, a feature point based on the subject's face, hands, feet, or an object (eg, baton, tennis racket, golf club, etc.) that the subject has. is there.
これにより、信号処理部10は、所定の被写体における注目すべき変位(フォームを比較するための変位)を適切に検出することができる。よって、信号処理部10は、2つの動画のそれぞれの所定の被写体の変位の特徴点に基づいて、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。
Thereby, the
[第3実施形態]
次に、図11を参照して、本発明の第3実施形態による表示装置20について説明する。図11は、第3実施形態による表示装置20が備えるタイミング処理部110Bの構成の一例を示す概略ブロック図である。この図に示すタイミング処理部110Bは、音変化検出部117を備えている構成であることが図2に示す第1実施形態のタイミング処理部110に対して異なる。なお、図10において、図2の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Third Embodiment]
Next, with reference to FIG. 11, the
音変化検出部117(第2検出部)は、動画においてフレーム間の音の変化を検出する。例えば、音変化検出部117は、音の大きさ(音量)の変化、音の種類の変化、または、音の有無等を検出する。また、この第3実施形態の構成において、変化特徴点抽出部115(第3抽出部)は、音変化検出部117により検出された音の変化の特徴点を抽出する。ここで、音の変化の特徴点とは、例えば、音の大きさ(音量)の変化が大きい点、音の種類が大きく変化する点、音の有無が変化する点、等である。また、変化特徴点抽出部115は、音の変化の特徴点を示す情報を「時刻ポイント」として、フレーム番号と対応付けてフレーム順に配列した「時刻ポイント配列データ」を生成する。
The sound change detection unit 117 (second detection unit) detects a change in sound between frames in a moving image. For example, the sound
そして、照合部116は、例えば、変化特徴点抽出部115により抽出された「A動画」における特徴点(音の変化の特徴点)と、「B動画」における特徴点(音の変化の特徴点)とを照合し、「A動画」における第1特徴点と、「B動画」において第1特徴点に対応する第2特徴点とを対応付ける。
Then, the
これにより、信号処理部10は、2つの動画のそれぞれの音の変化の特徴点に基づいて、2つの動画のそれぞれの音の変化の特徴点のタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの音の変化の特徴点のタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。例えば、音楽にあわせたダンスを練習している場合等において、信号処理部10は、2つの動画のそれぞれの音の変化の特徴点のタイミングを合わせることによって、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生することができる。また、表示装置20は、2つの動画のそれぞれの所定の被写体の動きのタイミングをあわせて再生して、表示部4に2つの動画を並べて表示することができる。
Thereby, the
なお、変化特徴点抽出部115は、変位検出部114により検出されたフレーム間の変位の特徴点と、音変化検出部117により検出された音の変化の特徴点とに基づいて、「時刻ポイント配列データ」を生成してもよい。また、信号処理部10(表示装置20)は、2つの動画のそれぞれの所定の被写体の変位の特徴点と、音の変化の特徴点とに基づいて、2つの動画のそれぞれのタイミングをあわせて再生してもよい。
Note that the change feature
なお、図11のタイミング処理部110Bは、図10のタイミング処理部110Aの構成と同様に、画像特徴点抽出部111を備えている構成としてもよい。
Note that the
[第4実施形態]
次に、図12を参照して、本発明の第4実施形態について説明する。図12は、第4実施形態による信号処理部10が備えている処理部1Cの構成の一例を示す概略ブロック図である。この図に示す処理部1Cは、再生処理部120に代えて、データ生成部130を備えている構成であることが図1に示す第1実施形態の処理部1に対して異なる。なお、図12において、図1の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to FIG. FIG. 12 is a schematic block diagram illustrating an example of the configuration of the processing unit 1C included in the
データ生成部130(生成部)は、「A動画」において第1特徴点が抽出されたフレーム画像と、「B動画」において第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように変換した動画(動画データ)を生成する。 The data generation unit 130 (generation unit) reproduces the frame image from which the first feature point has been extracted in “A movie” and the frame image from which the second feature point has been extracted from “B movie” at the same timing. The converted moving image (moving image data) is generated.
例えば、データ生成部130は、「A動画」と「B動画」との互いに対応する「時刻ポイント」間のフレーム数が同じになるように、「A動画」または「B動画」に対してフレームの挿入または間引きを行った動画データを生成する。
For example, the
このように、信号処理部10(表示装置20)は、「A動画」と「B動画」とのそれぞれにおける所定の被写体の動き(変位の特徴点)の再生タイミングが合うような動画を生成する。なお、生成する動画は、「A動画」と「B動画」とのうちの少なくとも何れか一方であってもよいし、「A動画」と「B動画」との両方の動画をまとめた動画であってもよい。 In this way, the signal processing unit 10 (display device 20) generates a moving image in which the reproduction timing of the movement (displacement feature point) of a predetermined subject in each of the “A moving image” and the “B moving image” matches. . The generated video may be at least one of “A video” and “B video”, or a video in which both “A video” and “B video” are collected. There may be.
これにより、信号処理部10(信号処理装置)は、「時刻ポイント」に基づいた再生処理及びフレームレートを変換する再生処理を行わなくとも、上記生成した動画を再生することにより、それぞれの動画の所定の被写体の動き(変位の特徴点)のタイミングが合うように再生することができる。また、「時刻ポイント」に基づいた再生処理及びフレームレートを変換する再生処理を行う機能を持たない他の表示装置や再生装置においても、上述の信号処理部10(信号処理装置)が生成した動画を再生することにより、それぞれの動画の所定の被写体の動き(変位の特徴点)のタイミングが合うように、それぞれの動画を再生(表示)することができる。 As a result, the signal processing unit 10 (signal processing device) reproduces the generated moving image without performing the reproduction processing based on the “time point” and the reproduction processing for converting the frame rate. Reproduction can be performed so that the timing of the movement of the predetermined subject (displacement feature point) matches. In addition, the moving image generated by the signal processing unit 10 (signal processing device) described above is also used in other display devices and playback devices that do not have a function of performing playback processing based on “time points” and playback processing for converting the frame rate. By reproducing the video, it is possible to reproduce (display) the respective moving images so that the timing of the movement of the predetermined subject of each moving image (displacement feature point) matches.
なお、図12の処理部1Cは、図1の再生処理部120をさらに備えた構成としてもよい。また、図12のタイミング処理部110に代えて、図10のタイミング処理部110Aまたは図11のタイミング処理部110Bとしてもよい。
Note that the processing unit 1C in FIG. 12 may further include the
[第5実施形態]
次に、図13を参照して、本発明の第5実施形態について説明する。この第5実施形態は、第1から第4実施形態の何れかの信号処理部10を備えた撮像装置30の態様である。図13は、撮像装置30の構成の一例を示す概略ブロック図である。撮像装置30は、表示部4と、記憶媒体部5と、撮像部6と、操作入力部7と、画像処理部8と、制御部9と、信号処理部10と、バス12と、を備えている。なお、図13において、図1の各部に対応する構成には同一の符号を付け、その説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to FIG. The fifth embodiment is an aspect of the
撮像部6は、レンズ部61、撮像素子62、及びA/D変換部63を備えており、動画(動画像)または静止画(静止画像)等を撮影する。この撮像部6は、設定された撮影条件(例えば絞り値、露出等)に基づいて制御部9により制御され、レンズ部61を介して入力された光束を、撮像素子62の撮像面上に結像させる。撮像素子62は、撮像面に結像された光束を光電変換したアナログ信号を、A/D変換部63に出力する。A/D変換部63は、撮像素子62から入力されたアナログ信号をデジタル信号に変換し、この変換したデジタル信号を出力する。なお、上述したレンズ部61は、撮像装置30と一体化されている構成としてもよいし、撮像装置30に着脱可能に取り付けられている構成としてもよい。
The imaging unit 6 includes a
例えば、撮像部6は、操作入力部7に対する動画撮影操作に応じて動画を撮影し、撮影した動画の画像信号を出力する。また、撮像部6は、操作入力部7に対する静止画撮影操作に応じて静止画を撮影し、撮影した静止画の画像信号を出力する。そして、撮像部6によって撮像された動画の画像信号及び静止画の画像信号は、画像処理部8による画像処理が行われた後、画像データとして記憶媒体50に記録される。また、撮像部6は、静止画撮影又は動画撮影を行うための撮影待機状態中、所定の間隔で連続的に撮影して得られる表示用の画像(例えば画角確認用として表示部4に表示させる画像)であるスルー画像(ライブビュー画像)の画像信号を出力する。
For example, the imaging unit 6 captures a moving image in response to a moving image capturing operation on the
操作入力部7は、例えば、シャッターボタン、電源スイッチ、動作モードを選択するモードダイヤル、記録されている動画や静止画を再生する再生ボタン、拡大又は縮小ボタン、上下左右選択ボタンなどを備えている。なお、動作モードには、動画を撮影する動画撮影モード、静止画を撮影する静止画撮影モード、等が含まれる。また、操作入力部7は、ユーザによって操作された操作入力を検出し、検出した操作内容を示す操作信号を制御部9に供給する。
The
画像処理部8は、撮像部6により撮影された画像(動画または静止画)に対して、ホワイトバランス調整、シャープネス調整、ガンマ補正、階調補正等の画像処理を実行する。また、画像処理部8は、撮影した画像(動画または静止画)を記録する(記憶媒体50に記憶させる)際に画像圧縮処理を実行する。
The
制御部9は、撮像装置30が備えている各部を制御する。例えば、制御部9は、操作入力部7から受け取る操作信号、又は記憶部2に記憶されている制御条件等に基づいて、撮像装置30が備えている各部を制御する。
The
なお、信号処理部10の記憶部2は、図2に示すテンプレート画像記憶部21と、位置配列データ記憶部22と、時刻ポイント配列データ記憶部23と、が記憶する情報に加えて、撮像装置30を制御するための、予め定められた撮影制御条件、画像処理条件、再生制御条件、及び記録制御条件、等を記憶し、撮像部6、画像処理部8、制御部9等から参照される構成としてもよい。また、記憶部2は、制御部9が撮像装置30を制御する際の作業領域として利用される構成としてもよい。例えば、撮像部6によって撮影された画像、又は記憶媒体50から読み出された画像が、画像処理部8において実行する画像処理の過程において、記憶部2に一時的に記憶されてもよい。
In addition to the information stored in the template
バス12は、表示部4、記憶媒体部5、撮像部6、操作入力部7、画像処理部8、制御部9、及び、信号処理部10と接続され、各部から出力された画像信号、制御信号、等を転送する。なお、不図示であるが、撮像装置30は、動画撮影の際に音声(音)を収音するマイクを備えた構成としてもよく、収音した音を含む動画を記憶媒体50に記憶させてもよい。
The
このように構成された撮像装置30において、信号処理部10は、第1から第3実施形態を用いて説明した2つの動画のタイミングをあわせて再生する処理を実行することができる。なお、信号処理部10は、第4実施形態を用いて説明した2つの動画の再生タイミングをあわせた動画データを生成する処理を実行してもよい。
In the
また、撮像部6により撮影された動画が記憶媒体50に記憶される前に、信号処理部10は、タイミング処理部110の画像特徴点抽出部111、選択部112、テンプレート登録部113、変位検出部114、または、変化特徴点抽出部115による処理を、撮影された動画に対して実行してもよい。これにより、撮像装置30は、撮像部6により撮影された動画からリアルタイムに位置配列データまたは時刻ポイント配列データを生成することができる。
In addition, before the moving image shot by the imaging unit 6 is stored in the
なお、撮像装置30は、生成した位置配列データまたは時刻ポイント配列データを動画に関連付けて記憶部2または記憶媒体50に記憶させてもよい。
Note that the
また、撮像装置30は、撮像部6により撮影された動画を記憶媒体50に記憶させる前に、タイミング処理部110の照合部116の処理を、撮影された動画に対して実行してもよい。例えば、照合部116は、撮影された動画(例えば「B動画」)からリアルタイムに抽出した「時刻ポイント」を、記憶媒体50に記憶されている動画(例えば「A動画」)の時刻ポイントと照合して対応付けを行ってもよい。
In addition, the
また、再生処理部120は、照合部116がリアルタイムに照合した結果に基づいて、撮影された動画(例えば「B動画」)に対して、記憶媒体50に記憶されている動画(例えば「A動画」)のタイミング(被写体の動きのタイミング)に合わせたフレームレート変換をリアルタイムに行って再生してもよい。また、データ生成部130は、照合部116がリアルタイムに照合した結果に基づいて、撮影された動画(例えば「B動画」)に対して、記憶媒体50に記憶されている動画(例えば「A動画」)の再生タイミングに合うように変換した動画データをリアルタイムに生成してもよい。
In addition, the
これにより、撮像装置30は、撮影された動画と、記憶媒体50に記憶されている動画とのそれぞれにおける所定の被写体の動き(変位の特徴点)のタイミングが合うように、記憶媒体50に記憶されている動画と撮影された動画とをリアルタイムに再生して表示することができる。また、撮像装置30は、撮影された動画と、記憶媒体50に記憶されている動画とのそれぞれにおける所定の被写体の動き(変位の特徴点)の再生タイミングが合うように変換した動画データをリアルタイムに生成することができる。
Thus, the
以上説明してきたように、上記実施形態の信号処理部10、表示装置20、または、撮像装置30は、互いに異なる動画に記録された被写体のフォーム(例えば、練習者のフォームと手本となるフォームと)を容易に比較することができる。すなわち、信号処理部10、表示装置20、または、撮像装置30は、被写体のフォームを容易に比較することができる。
As described above, the
なお、上記実施形態では、「B動画」における「時刻ポイント」が「A動画」における「時刻ポイント」と同じタイミングとなるように再生する処理の例を説明したが、「A動画」における「時刻ポイント」が「B動画」における「時刻ポイント」と同じタイミングとなるように再生する処理としてもよい。 In the above-described embodiment, the example of the process of reproducing the “time point” in “B video” so as to be the same timing as “time point” in “A video” has been described. The reproduction may be performed so that the “point” has the same timing as the “time point” in the “B moving image”.
なお、上記実施形態では、「B動画」の再生タイミングを「A動画」の再生タイミングに合わせる処理を説明したが、2つの動画を対象として再生タイミングを合わせる処理に限られるものではなく、3つ以上の動画を対象として再生タイミングを合わせる処理としてもよい。例えば、信号処理部10、表示装置20、または、撮像装置30は、2つの動画(例えば、「B動画」と「C動画」)の再生タイミングそれぞれを、他の1つの動画(例えば「A動画」)と再生タイミングに合わせる処理をしてもよい。
In the above embodiment, the process of matching the playback timing of “B video” with the playback timing of “A video” has been described. However, the present invention is not limited to the process of matching the playback timing for two videos. It is good also as a process which matches reproduction timing for the above moving image. For example, the
なお、上記実施形態では、テンプレート登録部113がテンプレート画像をテンプレート画像記憶部21に登録する例を説明したが、これに限られるものではなく、例えば、テンプレート画像は、テンプレート画像記憶部21に予め記憶されていてもよい。また、通信部(不図示)を介して外部のサーバから取得したテンプレート画像が、テンプレート画像記憶部21に記憶されてもよい。また、テンプレート画像は、例えば顔検出用として用いられる顔画像データベースに含まれている画像または画像に基づく情報であってもよい。
In the above embodiment, the example in which the
なお、上記第4実施形態において、信号処理部10が表示装置20または撮像装置30に備えられている構成について説明したが、信号処理部10は、例えば、携帯電話、パーソナルコンピュータ、タブレット型端末、または、電子玩具などの他の装置に備えられていてもよい。
In the fourth embodiment, the configuration in which the
なお、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリ及びマイクロプロセッサにより実現させるものであってもよい。
The
なお、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部は、専用のハードウェアにより実現されるものであってもよく、また、上述の各部はメモリ及びCPU(中央演算装置)により構成され、上述の各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
The
また、図1におけるタイミング処理部110或いは再生処理部120、図12におけるタイミング処理部110或いはデータ生成部130、または、図2、図10、図11におけるタイミング処理部110(110A、110B)が備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、上述の各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器などのハードウェアを含むものとする。
Further, the
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROMなどの可搬媒体、コンピュータシステムに内蔵されるハードディスクなどの記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネットなどのネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a hard disk built in the computer system. Furthermore, a “computer-readable recording medium” dynamically holds a program for a short time, like a communication line when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計なども含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes a design within a range not departing from the gist of the present invention.
2 記憶部、4 表示部、10 信号処理部(信号処理装置)、20 表示装置、30 撮像装置、111 画像特徴点抽出部(第2抽出部)、112 選択部、113 テンプレート登録部(登録部)、114 変位検出部(第1検出部)、115 変化特徴点抽出部(第1抽出部、第3抽出部)、116 照合部、117 音変化検出部(第2検出部)、120 再生処理部、130 データ生成部(生成部) 2 storage unit, 4 display unit, 10 signal processing unit (signal processing device), 20 display device, 30 imaging device, 111 image feature point extraction unit (second extraction unit), 112 selection unit, 113 template registration unit (registration unit) ), 114 displacement detection unit (first detection unit), 115 change feature point extraction unit (first extraction unit, third extraction unit), 116 collation unit, 117 sound change detection unit (second detection unit), 120 reproduction processing , 130 Data generator (generator)
Claims (10)
前記第1検出部により検出された前記変位の特徴点を抽出する第1抽出部と、
前記第1抽出部により抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける照合部と、
を備えることを特徴とする信号処理装置。 A first detector for detecting displacement between frames of the moving image;
A first extraction unit for extracting feature points of the displacement detected by the first detection unit;
The feature point in the first moving image extracted by the first extraction unit is collated with the feature point in the second moving image, and the first feature point in the first moving image and the second feature in the second moving image are compared. A matching unit that associates a second feature point corresponding to the point;
A signal processing apparatus comprising:
を備えることを特徴とする請求項1に記載の信号処理装置。 A reproduction process for reproducing the first moving image and the second moving image so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. Part,
The signal processing apparatus according to claim 1, comprising:
前記第1特徴点が抽出されたフレーム画像と前記第2特徴点が抽出されたフレーム画像とが同じタイミングで再生されるように、前記第1の動画または前記第2の動画のフレームレートを変換する
ことを特徴とする請求項2に記載の信号処理装置。 The reproduction processing unit
The frame rate of the first moving image or the second moving image is converted so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. The signal processing device according to claim 2.
再生した前記第1の動画および前記第2の動画を表示部に並べて表示させる
ことを特徴とする請求項2または3に記載の信号処理装置。 The reproduction processing unit
The signal processing apparatus according to claim 2, wherein the reproduced first moving image and the second moving image are displayed side by side on a display unit.
を備えることを特徴とする請求項1から4の何れか一項に記載の信号処理装置。 A moving image obtained by converting the first moving image or the second moving image so that the frame image from which the first feature point is extracted and the frame image from which the second feature point is extracted are reproduced at the same timing. The signal processing apparatus according to claim 1, further comprising: a generation unit that generates the signal processing unit.
前記選択部により選択された画像領域の画像をテンプレート画像として登録する登録部と、
を備え、
前記第1検出部は、
前記登録部により登録されたテンプレート画像を用いて、前記動画の各フレーム画像に対してテンプレートマッチングを行うことにより、前記所定の被写体を含む画像領域のフレーム間の変位を検出する
ことを特徴とする請求項1から5の何れか一項に記載の信号処理装置。 A selection unit for selecting an image area including a predetermined subject from the moving image;
A registration unit for registering an image of the image area selected by the selection unit as a template image;
With
The first detection unit includes:
The template image registered by the registration unit is used to perform template matching on each frame image of the moving image, thereby detecting a displacement between frames of the image area including the predetermined subject. The signal processing device according to any one of claims 1 to 5.
前記第1特徴点と前記第2特徴点とを統合して、統合した特徴点に対して、前記第1特徴点に対応するフレーム画像および前記第2特徴点に対応するフレーム画像を対応付ける
ことを特徴とする請求項1から6の何れか一項に記載の信号処理装置。 The collation unit
Integrating the first feature point and the second feature point and associating the integrated feature point with a frame image corresponding to the first feature point and a frame image corresponding to the second feature point. The signal processing apparatus according to claim 1, wherein the signal processing apparatus is characterized in that:
前記第2検出部により検出された前記音の変化の特徴点を抽出する第3抽出部と、
を備え、
前記照合部は、
前記第3抽出部により抽出された前記第1の動画における特徴点と、前記第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と、前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける
ことを特徴とする請求項1から7の何れか一項に記載の信号処理装置。 A second detector for detecting a change in sound between frames in the moving image;
A third extraction unit for extracting feature points of the change in sound detected by the second detection unit;
With
The collation unit
The feature point in the first moving image extracted by the third extraction unit is collated with the feature point in the second moving image, and the first feature point in the first moving image and the second moving image The signal processing device according to claim 1, wherein the second feature point corresponding to the first feature point is associated.
を備えることを特徴とする表示装置。 The signal processing device according to any one of claims 1 to 8,
A display device comprising:
動画像のフレーム間の変位を検出する第1ステップと、
前記第1ステップにおいて検出された前記変位の特徴点を抽出する第2ステップと、
前記第2ステップにおいて抽出された第1の動画における特徴点と第2の動画における特徴点とを照合し、前記第1の動画における第1特徴点と前記第2の動画において前記第1特徴点に対応する第2特徴点とを対応付ける第3ステップと、
を実行させるためのプログラム。 On the computer,
A first step of detecting displacement between frames of a moving image;
A second step of extracting feature points of the displacement detected in the first step;
The feature points in the first moving image extracted in the second step are matched with the feature points in the second moving image, and the first feature points in the first moving image and the second moving image are compared. A third step of associating a second feature point corresponding to
A program for running
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036794A JP2014164644A (en) | 2013-02-27 | 2013-02-27 | Signal process device, display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036794A JP2014164644A (en) | 2013-02-27 | 2013-02-27 | Signal process device, display device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014164644A true JP2014164644A (en) | 2014-09-08 |
Family
ID=51615170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013036794A Pending JP2014164644A (en) | 2013-02-27 | 2013-02-27 | Signal process device, display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014164644A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018003147A1 (en) * | 2016-06-28 | 2019-04-11 | Necソリューションイノベータ株式会社 | REPRODUCTION SYSTEM, REPRODUCTION METHOD, PROGRAM, AND RECORDING MEDIUM |
WO2019092956A1 (en) * | 2017-11-13 | 2019-05-16 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020005192A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Information processing unit, information processing method, and program |
JP2021058300A (en) * | 2019-10-04 | 2021-04-15 | コニカミノルタ株式会社 | Cycle motion comparison display device and cycle motion comparison display method |
WO2021192143A1 (en) * | 2020-03-26 | 2021-09-30 | ソニーグループ株式会社 | Information processing method, information processing device, and information processing system |
-
2013
- 2013-02-27 JP JP2013036794A patent/JP2014164644A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018003147A1 (en) * | 2016-06-28 | 2019-04-11 | Necソリューションイノベータ株式会社 | REPRODUCTION SYSTEM, REPRODUCTION METHOD, PROGRAM, AND RECORDING MEDIUM |
WO2019092956A1 (en) * | 2017-11-13 | 2019-05-16 | ソニー株式会社 | Information processing device, information processing method, and program |
CN111295878A (en) * | 2017-11-13 | 2020-06-16 | 索尼公司 | Information processor, information processing method, and program |
JP2020005192A (en) * | 2018-06-29 | 2020-01-09 | キヤノン株式会社 | Information processing unit, information processing method, and program |
JP7262937B2 (en) | 2018-06-29 | 2023-04-24 | キヤノン株式会社 | Information processing device, information processing method, and program |
JP2021058300A (en) * | 2019-10-04 | 2021-04-15 | コニカミノルタ株式会社 | Cycle motion comparison display device and cycle motion comparison display method |
WO2021192143A1 (en) * | 2020-03-26 | 2021-09-30 | ソニーグループ株式会社 | Information processing method, information processing device, and information processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6610689B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US10070046B2 (en) | Information processing device, recording medium, and information processing method | |
US10382704B2 (en) | Image processing device that generates a composite image | |
JP2012510673A (en) | Mobile devices for augmented reality applications | |
JP2014164644A (en) | Signal process device, display device and program | |
CN105450911B (en) | Image processing apparatus, image processing method | |
CN103888643A (en) | Information Notification Apparatus That Notifies Information Of Motion Of A Subject | |
JP6354461B2 (en) | Feedback providing method, system, and analysis apparatus | |
Essid et al. | A multi-modal dance corpus for research into interaction between humans in virtual environments | |
JP6165815B2 (en) | Learning system, learning method, program, recording medium | |
KR20140090904A (en) | The billiard coaching system and method using electronic display | |
JP2014064110A (en) | Image processing device, image processing method, and program | |
JP6149365B2 (en) | Information generating apparatus, information generating method and program | |
US20140186005A1 (en) | Display control apparatus that displays image corresponding to predetermined motion | |
JP2006181014A (en) | Image analysis device and movement correction system | |
JP2018050884A (en) | Notification device, notification method and program | |
US10946242B2 (en) | Swing analysis device, swing analysis method, and swing analysis system | |
JP6508350B2 (en) | Regeneration control method and regeneration control system | |
JP6679952B2 (en) | Teaching Assist System and Teaching Assist Program | |
Essid et al. | A multimodal dance corpus for research into real-time interaction between humans in online virtual environments | |
US11871082B2 (en) | Methods and apparatus for media playback based on cue points | |
KR102196203B1 (en) | three dimensions boxing exercise information service method and apparatus | |
JP6679951B2 (en) | Teaching Assist System and Teaching Assist Program | |
JP6115656B2 (en) | Image processing apparatus, image processing method, and program | |
JP2022186345A (en) | Performance instruction device, performance instruction method, and performance instruction program |