JP2006129050A - Device, method, and program for regenerating or recording animation - Google Patents

Device, method, and program for regenerating or recording animation Download PDF

Info

Publication number
JP2006129050A
JP2006129050A JP2004314305A JP2004314305A JP2006129050A JP 2006129050 A JP2006129050 A JP 2006129050A JP 2004314305 A JP2004314305 A JP 2004314305A JP 2004314305 A JP2004314305 A JP 2004314305A JP 2006129050 A JP2006129050 A JP 2006129050A
Authority
JP
Japan
Prior art keywords
image data
identification target
target image
central processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004314305A
Other languages
Japanese (ja)
Inventor
Shinya Sato
信也 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EARTH BEAT Inc
Original Assignee
EARTH BEAT Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EARTH BEAT Inc filed Critical EARTH BEAT Inc
Priority to JP2004314305A priority Critical patent/JP2006129050A/en
Priority to PCT/JP2005/003551 priority patent/WO2006046321A1/en
Publication of JP2006129050A publication Critical patent/JP2006129050A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique to allow a user to easily search a desired image, and to provide a technique to set a chapter by a novel technique and a device, method, and program for storing animation. <P>SOLUTION: The method includes steps of decoding an image data corresponding to a first regeneration time duration to extract image data corresponding to the first regeneration time duration as reference image data; displaying the reference image data as a first representative image data; decoding an image data corresponding to a second regeneration time duration to extract image data corresponding to the second regeneration time duration as image data to be identified; determining if the reference image data and the image data to be identified are different, and, when these two data are different, displaying the image data to be identified as a second representative image data; and regenerating animation data from the regeneration time duration corresponding to either the first or the second representative image data selected. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、概して、動画を再生又は記録する装置、方法及びプログラムに関連する。本発明は、より詳細には、動画を構成する画像を識別し、所定の画像から動画を再生する装置、方法及びプログラムに関連し、また、動画を構成する画像を識別し、所定の画像に対応する再生時間とともに、動画を記憶する装置、方法及びプログラムに関連する。   The present invention generally relates to an apparatus, method, and program for playing or recording a moving image. More specifically, the present invention relates to an apparatus, a method, and a program for identifying an image constituting a moving image and reproducing the moving image from a predetermined image, and identifying an image constituting the moving image to obtain the predetermined image. Relevant to devices, methods and programs for storing moving images along with corresponding playback times.

HD、DVDなどの記録媒体に記録された動画データを再生及び編集するためのプログラムは、周知の通り、プロセッサに、再生ボタン、巻き戻しボタン、早送りボタン、一時停止ボタン、停止ボタン、チャプター生成ボタン、チャプター選択ボタンをディスプレイ上に表示させ、動画データをディスプレイ上で再生させ、一時停止された動画データに対応する再生時間をチャプター・データとして記憶することができる。或いは、動画データを再生及び編集する装置及びそのリモートコントローラは、それぞれ、再生ボタン、巻き戻しボタン、早送りボタン、一時停止ボタン、停止ボタン、チャプター生成ボタン、チャプター選択ボタンを備え、動画データをテレビ上で再生し、一時停止された動画データに対応する再生時間をチャプター・データとして記憶することができる。   As is well known, a program for reproducing and editing moving image data recorded on a recording medium such as an HD or a DVD has a playback button, a rewind button, a fast forward button, a pause button, a stop button, and a chapter generation button. The chapter selection button is displayed on the display, the moving image data is reproduced on the display, and the reproduction time corresponding to the temporarily stopped moving image data can be stored as the chapter data. Alternatively, a device for reproducing and editing moving image data and a remote controller thereof include a play button, a rewind button, a fast forward button, a pause button, a stop button, a chapter generation button, and a chapter selection button, respectively, and the moving image data is displayed on the television The playback time corresponding to the video data that has been played back and paused can be stored as chapter data.

図1は、ディスプレイ上に表示されるGUIの1例を示す。図1において、符号1、2、3、4、5、9及び10は、それぞれ、再生ボタン、巻き戻しボタン、早送りボタン、一時停止ボタン、停止ボタン、チャプター生成ボタン及びチャプター選択ボタンに対応する。動画データの再生は、ユーザが、ディスプレイ上に表示されるポインタ(図示せず)を介して再生ボタン1をクリックすることで、開始される。動画データの再生が開始されると、ディスプレイ上の動画表示領域6内に画像が表示され、再生時間ボタン7が総再生時間領域8内に表示される。ユーザは、巻き戻しボタン2又は早送りボタン3をクリックし、再生時間ボタン7を移動させ、或いは、総再生時間領域8内のある位置をクリックすることで、所望の画像(シーン)を探し、その画像から動画を再生することができる。また、所望の画像(シーン)が再生されるときに、ユーザは、一時停止ボタン4をクリックし、さらにチャプター生成ボタン9をクリックすることで、その所望の画像から動画データを再生可能にさせるチャプター・データを生成することができる。   FIG. 1 shows an example of a GUI displayed on the display. In FIG. 1, reference numerals 1, 2, 3, 4, 5, 9 and 10 correspond to a play button, a rewind button, a fast forward button, a pause button, a stop button, a chapter generation button, and a chapter selection button, respectively. The reproduction of the moving image data is started when the user clicks the reproduction button 1 via a pointer (not shown) displayed on the display. When the reproduction of the moving image data is started, an image is displayed in the moving image display area 6 on the display, and a reproduction time button 7 is displayed in the total reproduction time area 8. The user clicks the rewind button 2 or the fast forward button 3 and moves the playback time button 7 or clicks a certain position in the total playback time area 8 to search for a desired image (scene). You can play a movie from an image. In addition, when a desired image (scene) is reproduced, the user clicks the pause button 4 and further clicks the chapter generation button 9 to make it possible to reproduce moving image data from the desired image.・ Data can be generated.

テレビ(図示せず)のスクリーンは、図1の動画表示領域6を表示する。動画データの再生は、ユーザが、動画データを再生及び編集する装置又はそのリモートコントローラの再生ボタン1を押すことで、開始される。動画データの再生が開始されると、テレビのスクリーン上に画像が表示される。ユーザは、巻き戻しボタン2又は早送りボタン3を押すことで、所望の画像(シーン)を探し、その画像から動画を再生することができる。また、所望の画像(シーン)が再生されるときに、ユーザは、一時停止ボタン4を押し、さらにチャプター生成ボタン9を押すことで、その所望の画像から動画データを再生可能にさせるチャプター・データを生成することができる。   A screen of a television (not shown) displays the moving image display area 6 of FIG. The reproduction of the moving image data is started when the user presses the reproduction button 1 of the device for reproducing and editing the moving image data or its remote controller. When the reproduction of the moving image data is started, an image is displayed on the television screen. The user can search for a desired image (scene) by pressing the rewind button 2 or the fast-forward button 3 and reproduce a moving image from the image. Further, when a desired image (scene) is reproduced, the user presses the pause button 4 and further presses the chapter generation button 9 so that the moving image data can be reproduced from the desired image. Can be generated.

ユーザが、巻き戻しボタン2又は早送りボタン3をクリックし又は押し、或いは、再生時間ボタン7を移動させる場合、ディスプレイ又はテレビ上には、動画を構成する画像が連続的に再生される。したがって、ユーザは、動画の内容を把握することができる反面、所望の画像を探す時間は、長くなってしまう。   When the user clicks or presses the rewind button 2 or the fast-forward button 3 or moves the playback time button 7, the images constituting the moving image are continuously played on the display or the television. Therefore, while the user can grasp the contents of the moving image, the time for searching for a desired image becomes long.

ユーザが、総再生時間領域8内のある位置をクリックする場合、ディスプレイ上の表示領域6内には、動画を構成する画像が瞬時に再生される。しかしながら、ユーザは、動画の内容を把握することができず、その結果、総再生時間領域8内の他の位置を何度もクリックしなければならない。言い換えれば、ユーザは、所望の画像を探すことが難しく、その結果、所望の画像を探す時間は、長くなってしまう。   When the user clicks a certain position in the total reproduction time area 8, the images constituting the moving image are instantaneously reproduced in the display area 6 on the display. However, the user cannot grasp the content of the moving image, and as a result, has to click another position in the total playback time area 8 many times. In other words, it is difficult for the user to search for a desired image, and as a result, the time for searching for a desired image becomes long.

ユーザが、動画にチャプターを設定する場合、一般に、複数の所望の画像を探す必要がある。従って、所望の画像を探す時間は、長くなってしまう。その結果、チャプターを設定する作業は、煩雑である。   When a user sets a chapter in a moving image, it is generally necessary to search for a plurality of desired images. Therefore, the time for searching for a desired image becomes long. As a result, the operation of setting chapters is complicated.

本発明の目的は、新規な手法によって動画を再生する装置、方法及びプログラム提供することである。
本発明のもう1つの目的は、所望の画像を探す際に、動画の内容をユーザに容易に把握させることができる手法を提供することである。
An object of the present invention is to provide an apparatus, a method, and a program for reproducing a moving image by a novel technique.
Another object of the present invention is to provide a technique that allows a user to easily grasp the contents of a moving image when searching for a desired image.

本発明の更なる目的は、所望の画像をユーザに容易に探させることができる手法を提供することである。
本発明の更なる目的は、新規な手法によってチャプターを設定する手法を提供することである。
A further object of the present invention is to provide a technique that allows a user to easily find a desired image.
A further object of the present invention is to provide a method for setting chapters by a novel method.

本発明の更なる目的は、チャプターを簡易に設定する手法を提供することである。
本発明の更なる目的は、新規な手法によって動画を記憶する装置、方法及びプログラム提供することである。
A further object of the present invention is to provide a technique for easily setting chapters.
A further object of the present invention is to provide an apparatus, a method and a program for storing a moving image by a novel method.

本発明の他の目的は、特許請求の範囲、以下に説明する発明の実施の形態、並びに、明細書に添付する図面及び特許請求の範囲を参照することにより、当業者は容易に理解することができるであろう。   Other objects of the present invention can be easily understood by those skilled in the art by referring to the claims, the embodiments of the invention described below, and the drawings and claims appended to the specification. Will be able to.

(シーンカット・モード)
本発明に従って動画を再生する装置は、中央演算処理手段(21)と、記憶媒体(22)を制御する記憶媒体制御手段(23)と、入力手段(24)を制御する入力手段制御手段(25)と、表示手段(26)を制御する表示手段制御手段(27)と、を備える。
(Scene cut mode)
The apparatus for reproducing a moving image according to the present invention comprises a central processing means (21), a storage medium control means (23) for controlling the storage medium (22), and an input means control means (25) for controlling the input means (24). ) And display means control means (27) for controlling the display means (26).

中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第1再生時間に対応する画像データをリファレンス画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データを第1の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、表示手段(26)上に表示される第1又は第2の代表画像データのうち、何れか1つの代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する。   The central processing means (21) inputs, from the storage medium control means (23), the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22). , And image data corresponding to the first reproduction time is extracted as reference image data. The central processing means (21) outputs control data for displaying the reference image data as the first representative image data on the display means (26) to the display means control means (27). The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The moving image data portion is decoded, and image data corresponding to the second reproduction time is extracted as identification target image data. The central processing means (21) determines whether or not the reference image data and the identification target image data are different, and if the reference image data and the identification target image data are different, the identification target image data is determined as the second representative image. Control data to be displayed as data on the display means (26) is output to the display means control means (27). The central processing means (21) confirms that one of the first or second representative image data displayed on the display means (26) is selected by the input means (24). Control for inputting operation data to be expressed from the input means control means (25), reproducing the moving picture data from the reproduction time corresponding to the selected representative image data, and displaying the moving picture being reproduced on the display means (26). Data is output to the display means control means (27).

好ましくは、中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが類似するか否かを判定する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1及び第2の再生時間とは異なる第3の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第3再生時間に対応する画像データを現在の識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが類似するか否かを判定する。中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似せず、且つ、リファレンス画像データと現在の識別対象画像データとが類似する場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する。中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似し、且つ、リファレンス画像データと現在の識別対象画像データとが類似しない場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する。中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが一致する程度を表す適応度を算出し、算出した適応度が第1の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定し、算出した適応度が、第1の適応度よりも大きい第2の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが類似すると判定する。   Preferably, when the reference image data and the identification target image data are not different, the central processing unit (21) sets the identification target image data as the previous identification target image data, and sets the reference image data and the previous identification target. It is determined whether the image data is similar. The central processing means (21) performs storage medium control on a moving image data portion corresponding to a third reproduction time different from the first and second reproduction times from the moving image data stored in the storage medium (22). Input from the means (23), the moving image data portion is decoded, and the image data corresponding to the third reproduction time is extracted as the current identification target image data. The central processing means (21) determines whether the reference image data and the current identification target image data are similar when the reference image data and the current identification target image data are not different. When the reference image data and the previous identification target image data are not similar and the reference image data and the current identification target image data are similar, the central processing means (21) determines the current identification target image data. Set as new reference image data. When the reference image data and the previous identification target image data are similar and the reference image data and the current identification target image data are not similar, the central processing means (21) sets the current identification target image data to a new one. Set as reference image data. The central processing means (21) calculates a fitness indicating the degree of matching between the reference image data and the identification target image data. When the calculated fitness is smaller than the first fitness, the central processing means (21) is identified from the reference image data. When it is determined that the target image data is different and the calculated fitness is smaller than the second fitness greater than the first fitness, it is determined that the reference image data and the identification target image data are similar.

さらに好ましくは、中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1及び第2の再生時間とは異なる第3の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第3再生時間に対応する画像データを現在の識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成する。中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する。中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが一致する程度を表す適応度を算出し、算出した適応度が第1の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定し、算出した適応度が、第1の適応度よりも大きい第2の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが一部類似すると判定し、算出した適応度が、第2の適応度よりも大きい第3の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが類似すると判定し、算出した適応度が、第3の適応度よりも大きい場合、リファレンス画像データと識別対象画像データとが同一であると判定する。   More preferably, the central processing means (21) sets the identification target image data as the previous identification target image data when the reference image data does not differ from the identification target image data, Previous class data representing that the target image data is the same, similar, or partially similar is generated. The central processing means (21) performs storage medium control on a moving image data portion corresponding to a third reproduction time different from the first and second reproduction times from the moving image data stored in the storage medium (22). Input from the means (23), the moving image data portion is decoded, and the image data corresponding to the third reproduction time is extracted as the current identification target image data. When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate the current class data that represents The central processing means (21) sets the current identification target image data as new reference image data when the previous class data and the current class data are different. The central processing means (21) calculates a fitness indicating the degree of matching between the reference image data and the identification target image data. When the calculated fitness is smaller than the first fitness, the central processing means (21) is identified from the reference image data. When it is determined that the target image data is different and the calculated fitness is smaller than the second fitness greater than the first fitness, it is determined that the reference image data and the identification target image data are partially similar. When the calculated fitness is smaller than the third fitness greater than the second fitness, it is determined that the reference image data and the identification target image data are similar, and the calculated fitness is the third fitness. If it is greater than the degree, it is determined that the reference image data and the identification target image data are the same.

(シーンサーチ・モード)
本発明に従って動画を再生する装置の中央演算処理手段(21)は、リファレンス画像データを設定する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第1再生時間に対応する画像データを識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異ならない場合、識別対象画像データを第1の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、表示手段(26)上に表示される第1の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する。
(Scene search mode)
The central processing means (21) of the apparatus for reproducing a moving image according to the present invention sets reference image data. The central processing means (21) inputs, from the storage medium control means (23), the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22). , And image data corresponding to the first reproduction time is extracted as identification target image data. The central processing means (21) determines whether the reference image data and the identification target image data are different from each other. If the reference image data and the identification target image data are not different, the identification target image data is determined as the first representative Control data to be displayed on the display means (26) as image data is output to the display means control means (27). The central processing means (21) inputs operation data indicating that the first representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27).

好ましくは、中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが類似するか否かを判定する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを現在の識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが類似するか否かを判定する。中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似せず、且つ、リファレンス画像データと現在の識別対象画像データとが類似する場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似し、且つ、リファレンス画像データと現在の識別対象画像データとが類似しない場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、表示手段(26)上に表示される第2の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する。   Preferably, when the reference image data and the identification target image data are not different, the central processing unit (21) sets the identification target image data as the previous identification target image data, and sets the reference image data and the previous identification target. It is determined whether the image data is similar. The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The moving image data portion is decoded, and the image data corresponding to the second reproduction time is extracted as the current identification target image data. The central processing means (21) determines whether the reference image data and the current identification target image data are similar when the reference image data and the current identification target image data are not different. When the reference image data and the previous identification target image data are not similar and the reference image data and the current identification target image data are similar, the central processing means (21) determines the current identification target image data. Control data to be displayed on the display means (26) as the second representative image data is output to the display means control means (27). When the reference image data and the previous identification target image data are similar and the reference image data and the current identification target image data are not similar, the central processing means (21) determines the current identification target image data as the first classification target image data. Control data to be displayed on the display means (26) as the second representative image data is output to the display means control means (27). The central processing means (21) inputs operation data indicating that the second representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27).

さらに好ましくは、中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成する。中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを現在の識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成する。中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力する。中央演算処理手段(21)は、表示手段(26)上に表示される第2の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する。   More preferably, the central processing means (21) sets the identification target image data as the previous identification target image data when the reference image data and the identification target image data are not different, Previous class data representing that the target image data is the same, similar, or partially similar is generated. The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The moving image data portion is decoded, and the image data corresponding to the second reproduction time is extracted as the current identification target image data. When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate the current class data that represents The central processing means (21), when the previous class data and the current class data are different, control data for displaying the current identification target image data on the display means (26) as the second representative image data. Is output to the display means control means (27). The central processing means (21) inputs operation data indicating that the second representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27).

(チャプター・モード)
本発明に従って動画を記憶する装置は、中央演算処理手段(21)と、記憶媒体(22)を制御する記憶媒体制御手段(23)と、映像信号出力手段(81)を制御する映像信号出力手段制御手段(82)とを備える。中央演算処理手段(21)は、映像信号出力手段(81)から出力される映像信号を、映像信号出力手段制御手段(82)から入力し、映像信号をエンコードして、動画データを記憶媒体(22)に記憶するための制御データを記憶媒体制御手段(23)に出力し、
中央演算処理手段(21)は、第1の記憶時間に対応する映像信号から画像データをリファレンス画像データとして抽出する。中央演算処理手段(21)は、第1の記憶時間を第1の再生時間として設定する。中央演算処理手段(21)は、第1の記憶時間とは異なる第2の記憶時間に対応する映像信号から画像データを識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、第2の記憶時間を第2の再生時間として設定する。中央演算処理手段(21)は、第1及び第2の再生時間をチャプター・データとして記憶媒体(22)に記憶するための制御データを記憶媒体制御手段(23)に出力する。
(Chapter mode)
The apparatus for storing moving images according to the present invention comprises a central processing means (21), a storage medium control means (23) for controlling the storage medium (22), and a video signal output means for controlling the video signal output means (81). Control means (82). The central processing means (21) inputs the video signal output from the video signal output means (81) from the video signal output means control means (82), encodes the video signal, and stores the moving image data in the storage medium ( 22) output control data to be stored in the storage medium control means (23),
The central processing means (21) extracts image data as reference image data from the video signal corresponding to the first storage time. The central processing means (21) sets the first storage time as the first reproduction time. The central processing means (21) extracts image data as identification target image data from a video signal corresponding to a second storage time different from the first storage time. The central processing means (21) determines whether or not the reference image data and the identification target image data are different, and when the reference image data and the identification target image data are different, the second storage time is reproduced in the second reproduction time. Set as time. The central processing means (21) outputs control data for storing the first and second reproduction times as chapter data in the storage medium (22) to the storage medium control means (23).

好ましくは、中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成する。中央演算処理手段(21)は、第1及び第2の記憶時間とは異なる第3の記憶時間に対応する映像信号から画像データを新しい識別対象画像データとして抽出する。中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成する。中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する。   Preferably, when the reference image data and the identification target image data are not different, the central processing unit (21) sets the identification target image data as the previous identification target image data, and sets the reference image data and the previous identification target. Previous class data representing that the image data is the same, similar, or partially similar is generated. The central processing means (21) extracts image data as new identification target image data from a video signal corresponding to a third storage time different from the first and second storage times. When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate the current class data that represents The central processing means (21) sets the current identification target image data as new reference image data when the previous class data and the current class data are different.

本発明に従って動画を再生する方法及びプログラムは、本発明に従って動画を再生する装置に組み込まれている。本発明に従って動画を記憶する方法及びプログラムは、本発明に従って動画を記憶する装置に組み込まれている。   A method and a program for reproducing a moving image according to the present invention are incorporated in an apparatus for reproducing a moving image according to the present invention. The method and program for storing a moving image according to the present invention is incorporated in an apparatus for storing a moving image according to the present invention.

以下に説明する発明の実施の形態は、特許請求の範囲に記載される発明の例示的な実施形態を示すものであり、本発明は、以下の実施形態に限定されるべきものではない。また、当業者は、以下の実施形態を変形し、特許請求の範囲に記載される発明を容易に構成することが可能である。   The embodiment of the invention described below shows an exemplary embodiment of the invention described in the claims, and the present invention should not be limited to the following embodiment. Further, those skilled in the art can easily configure the invention described in the claims by modifying the following embodiments.

(A.第1の実施形態)
図2は、本発明に従って動画を再生する装置の機能ブロック図を示す。本発明に従って動画を再生する装置20は、中央演算処理手段21と、記憶媒体22を制御する記憶媒体制御手段23と、入力手段24を制御する入力手段制御手段25と、表示手段26を制御する表示手段制御手段27と、記憶装置28とを備える。
(A. First Embodiment)
FIG. 2 shows a functional block diagram of an apparatus for reproducing a moving image according to the present invention. The apparatus 20 for reproducing a moving image according to the present invention controls the central processing means 21, the storage medium control means 23 for controlling the storage medium 22, the input means control means 25 for controlling the input means 24, and the display means 26. A display means control means 27 and a storage device 28 are provided.

動画を再生する装置20は、例えば、コンピュータ、HDプレーヤ、DVDプレーヤなどである。中央演算処理手段21は、例えば、CPU、MPU、DSPなどである。記憶媒体22は、例えば、HD、DVD、半導体メモリなどである。記憶媒体22には、動画データが記憶されている。動画データのフォーマットは、例えば、MPEG、VOB、DV、M−JPEGなどである。記記憶媒体制御手段23は、例えば、記憶媒体22のドライバ、記憶媒体22と中央演算処理手段21との間のインターフェースなどである。入力手段24は、例えば、マウス、キーボード、ボタン、リモートコントローラなどである。入力手段制御手段25は、例えば、入力手段24と中央演算処理手段21との間のインターフェースである。表示手段26は、例えば、ディスプレイ、テレビなどである。表示手段制御手段27は、例えば、表示手段26のドライバ、表示手段26と中央演算処理手段21との間のインターフェースなどである。記憶装置28は、例えば、半導体メモリなどである。記憶装置28には、本発明に従って画像を再生するためのプログラムが記憶されている。なお、このプログラムは、記憶媒体22に記憶されてもよい。   The apparatus 20 for reproducing a moving image is, for example, a computer, an HD player, a DVD player, or the like. The central processing means 21 is, for example, a CPU, MPU, DSP or the like. The storage medium 22 is, for example, an HD, a DVD, a semiconductor memory, or the like. The storage medium 22 stores moving image data. The format of the moving image data is, for example, MPEG, VOB, DV, M-JPEG or the like. The storage medium control means 23 is, for example, a driver for the storage medium 22, an interface between the storage medium 22 and the central processing means 21, or the like. The input unit 24 is, for example, a mouse, a keyboard, a button, a remote controller, or the like. The input means control means 25 is, for example, an interface between the input means 24 and the central processing means 21. The display means 26 is a display, a television, etc., for example. The display means control means 27 is, for example, a driver for the display means 26, an interface between the display means 26 and the central processing means 21, or the like. The storage device 28 is, for example, a semiconductor memory. The storage device 28 stores a program for reproducing an image according to the present invention. Note that this program may be stored in the storage medium 22.

中央演算処理手段21は、プログラムに従って、シーンカット・ボタン30、シーンサーチ・ボタン31、再生ボタン32、停止ボタン33、リターン・ボタン34、一時停止ボタン35、画像選択ボタン36、ポインタ37、表示領域38及び総再生時間領域39を表示手段26上に表示させるための制御データを、表示手段制御手段27に出力する。表示手段26は、表示手段制御手段27から制御データを入力し、シーンカット・ボタン30、シーンサーチ・ボタン31、再生ボタン32、停止ボタン33、リターン・ボタン34、一時停止ボタン35、画像選択ボタン36、ポインタ37、表示領域38及び総再生時間領域39を表示する。図3は、表示手段26上に表示されるGUIの1例を示す。   In accordance with the program, the central processing means 21 has a scene cut button 30, a scene search button 31, a play button 32, a stop button 33, a return button 34, a pause button 35, an image selection button 36, a pointer 37, a display area. The control data for displaying 38 and the total reproduction time area 39 on the display means 26 is output to the display means control means 27. The display means 26 receives control data from the display means control means 27, and includes a scene cut button 30, a scene search button 31, a play button 32, a stop button 33, a return button 34, a pause button 35, and an image selection button. 36, a pointer 37, a display area 38, and a total reproduction time area 39 are displayed. FIG. 3 shows an example of a GUI displayed on the display means 26.

入力手段24(例えば、マウス)は、表示手段26上に表示されるポインタ37を移動させるためのユーザの操作を入力し、ポインタ37を移動させるための操作データを入力手段制御手段25に出力する。中央演算処理手段21は、プログラムに従って、操作データを入力手段制御手段25から入力し、ポインタ37を表示手段26上で移動させるための制御データに変換し、その制御データを表示手段制御手段27に出力する。表示手段26は、表示手段制御手段27から制御データを入力し、ポインタ37の表示位置を移動させる。   The input unit 24 (for example, a mouse) inputs a user operation for moving the pointer 37 displayed on the display unit 26, and outputs operation data for moving the pointer 37 to the input unit control unit 25. . The central processing means 21 inputs operation data from the input means control means 25 in accordance with a program, converts the pointer 37 into control data for moving on the display means 26, and sends the control data to the display means control means 27. Output. The display means 26 receives control data from the display means control means 27 and moves the display position of the pointer 37.

また、入力手段24は、表示手段26上に表示されるポインタ37をクリックさせるためのユーザの操作を入力し、ポインタ37をクリックさせるための操作データを入力手段制御手段25に出力する。中央演算処理手段21は、プログラムに従って、操作データを入力手段制御手段25から入力し、表示手段26上に表示されるポインタ37の表示位置を算出する。表示手段26上に表示されるポインタ37の表示位置が、表示手段26上に表示されるシーンカット・ボタン30の表示位置に対応する場合、中央演算処理手段21は、シーンカット・ボタン30のクリックを有効と判定し、以下に説明するシーンカット・モードを実行する。   The input unit 24 inputs a user operation for clicking the pointer 37 displayed on the display unit 26, and outputs operation data for clicking the pointer 37 to the input unit control unit 25. The central processing means 21 inputs operation data from the input means control means 25 according to a program, and calculates the display position of the pointer 37 displayed on the display means 26. When the display position of the pointer 37 displayed on the display means 26 corresponds to the display position of the scene cut button 30 displayed on the display means 26, the central processing means 21 clicks the scene cut button 30. Is determined to be valid, and the scene cut mode described below is executed.

なお、表示手段26が、ボタン30、31、32、33、34、35及び36並びにポインタ37を表示する代わりに、入力手段24は、それらのボタン30、31、32、33、34、35及び36を備えることもできる。このようなボタンを備える入力手段24は、例えば、リモートコントローラである。図4は、本発明に従って動画を再生する装置をリモートコントロールする入力手段の機能ブロック図を示す。入力手段24(例えば、リモートコントローラ)は、入力手段24が備えるシーンカット・ボタン30を押すためのユーザの操作を入力し、その操作データを入力手段制御手段25に出力する。中央演算処理手段21は、プログラムに従って、操作データを入力手段制御手段25から入力し、シーンカット・ボタン30の押しを有効と判定し、以下に説明するシーンカット・モードを実行する。   Instead of the display means 26 displaying the buttons 30, 31, 32, 33, 34, 35 and 36 and the pointer 37, the input means 24 does not display the buttons 30, 31, 32, 33, 34, 35 and 36 can also be provided. The input means 24 having such buttons is, for example, a remote controller. FIG. 4 shows a functional block diagram of input means for remotely controlling an apparatus for reproducing a moving image according to the present invention. The input unit 24 (for example, a remote controller) inputs a user operation for pressing the scene cut button 30 provided in the input unit 24 and outputs the operation data to the input unit control unit 25. The central processing means 21 inputs operation data from the input means control means 25 according to the program, determines that the scene cut button 30 is pressed, and executes a scene cut mode described below.

シーンカット・モード
図5は、1つの動画データを構成する画像と、動画データを時分割によってグループ化された画像とを表す。図5に示すように、動画データは、総再生時間に対応するP個の画像(フレーム)を含む。図6は、図5に示すグループ化された画像(シーン)1〜Qの代表画像データが、表示領域38内に表示される例を示す。
( Scene cut mode )
FIG. 5 shows images constituting one moving image data and images obtained by grouping moving image data by time division. As shown in FIG. 5, the moving image data includes P images (frames) corresponding to the total reproduction time. FIG. 6 shows an example in which the representative image data of the grouped images (scenes) 1 to Q shown in FIG.

((初期設定))
中央演算処理手段21は、プログラムに従って、記憶媒体22に記憶される動画データの総再生時間データを抽出するための制御データを、記憶媒体制御手段23に出力する。記憶媒体制御手段23は、中央演算処理手段21から制御データを入力し、総再生時間データを動画データから読み出し、総再生時間データを中央演算処理手段21に出力する。中央演算処理手段21は、総再生時間データを記憶手段28に記憶する。中央演算処理手段21は、表示領域38内に表示される代表画像データの最大枚数を、例えば、12枚に設定し、その最大枚数データを記憶手段28に記憶する。さらに、中央演算処理手段21は、総再生時間データを最大枚数データで除算し、その除算した値(総再生時間/最大枚数)を、第1の所定時間間隔データとして記憶手段28に記憶する。総再生時間が、例えば、2時間(=120分)である場合、第1の所定時間間隔は、例えば、10分(=2時間/12)である。
((Initial setting))
The central processing means 21 outputs control data for extracting the total reproduction time data of the moving image data stored in the storage medium 22 to the storage medium control means 23 according to the program. The storage medium control unit 23 receives control data from the central processing unit 21, reads the total playback time data from the moving image data, and outputs the total playback time data to the central processing unit 21. The central processing means 21 stores the total reproduction time data in the storage means 28. The central processing means 21 sets the maximum number of representative image data displayed in the display area 38 to 12 sheets, for example, and stores the maximum number data in the storage means 28. Further, the central processing means 21 divides the total reproduction time data by the maximum number data, and stores the divided value (total reproduction time / maximum number) in the storage means 28 as first predetermined time interval data. For example, when the total reproduction time is 2 hours (= 120 minutes), the first predetermined time interval is, for example, 10 minutes (= 2 hours / 12).

((初期動作))
中央演算処理手段21は、プログラムに従って、再生時間0から始まり、第1の所定時間間隔で増加し、総再生時間よりも小さい1組の再生時間データを生成する。例えば、1組の再生時間は、第1〜第12の再生時間で構成され、第1の再生時間は0分であり、第2の再生時間は10分であり、第3の再生時間は20分であり、第4の再生時間は30分であり、第5の再生時間は40分であり、第6の再生時間は50分であり、第7の再生時間は60分であり、第8の再生時間は70分であり、第9の再生時間は80分であり、第10の再生時間は90分であり、第11の再生時間は100分であり、第12の再生時間は110分である。
((Initial operation))
The central processing means 21 generates a set of playback time data starting from the playback time 0, increasing at a first predetermined time interval, and smaller than the total playback time, according to the program. For example, one set of playback time is composed of first to twelfth playback times, the first playback time is 0 minutes, the second playback time is 10 minutes, and the third playback time is 20 minutes. Minutes, the fourth playback time is 30 minutes, the fifth playback time is 40 minutes, the sixth playback time is 50 minutes, the seventh playback time is 60 minutes, The playback time is 70 minutes, the ninth playback time is 80 minutes, the tenth playback time is 90 minutes, the eleventh playback time is 100 minutes, and the twelfth playback time is 110 minutes. It is.

中央演算処理手段21は、1組の再生時間に対応する画像を抽出するための制御データを、記憶媒体制御手段23に出力する。記憶媒体制御手段23は、中央演算処理手段21から制御データを入力し、1組の再生時間に対応する1組の動画データ部分を読み出し、1組の動画データ部分を中央演算処理手段21に出力する。中央演算処理手段21は、1組の動画データ部分をデコードし、カラー情報を持つ1組の画像データ(例えば、720ピクセル×480ピクセル)を抽出する。中央演算処理手段21は、カラー情報を持つ1組の画像データを記憶手段28に記憶する。図5は、このようにして第1〜第Qに抽出された画像を表す。   The central processing means 21 outputs control data for extracting an image corresponding to a set of playback times to the storage medium control means 23. The storage medium control unit 23 receives control data from the central processing unit 21, reads a set of moving image data portions corresponding to a set of playback times, and outputs a set of moving image data portions to the central processing unit 21. To do. The central processing means 21 decodes a set of moving image data portions and extracts a set of image data (for example, 720 pixels × 480 pixels) having color information. The central processing means 21 stores a set of image data having color information in the storage means 28. FIG. 5 shows the first to Qth extracted images in this way.

中央演算処理手段21は、再生時間が、抽出された画像(例えば、第1に抽出された画像)に対応する再生時間(例えば、第1の再生時間(0分))と等しい又はそれよりも大きく、且つ、次に抽出された画像(例えば、第2に抽出された画像)に対応する再生時間(例えば、第2の再生時間(10分))よりも小さいとき、この第1の条件を満たす再生時間に属する画像を1つのグループとして認識する。ただし、次に抽出された画像がない場合、中央演算処理手段21は、再生時間が、抽出された画像(例えば、第(Q−1)に抽出された画像)と等しい又はそれよりも大きく且つ、総再生時間と等しい又はそれよりも小さいとき、この第2の条件を満たす再生時間に属する画層を1つのグループ(例えば、第Qにグループ化された画像)として認識する。図5は、このようにして第1〜第Qにグループ化された画像を表す。   The central processing means 21 has a playback time equal to or longer than the playback time (for example, the first playback time (0 minutes)) corresponding to the extracted image (for example, the first extracted image). The first condition is satisfied when it is larger and smaller than the reproduction time (for example, the second reproduction time (10 minutes)) corresponding to the next extracted image (for example, the second extracted image). Images belonging to the playback time that satisfies are recognized as one group. However, when there is no next extracted image, the central processing means 21 determines that the reproduction time is equal to or greater than the extracted image (for example, the (Q-1) th extracted image) and When the total playback time is equal to or less than the total playback time, the layers belonging to the playback time satisfying the second condition are recognized as one group (for example, Qth grouped images). FIG. 5 shows the images grouped in the first to Qth in this way.

中央演算処理手段21は、第1〜第Qにグループ化された画像のそれぞれを代表する画像を決定する。中央演算処理手段21は、例えば、第1〜第Qに抽出した画像を、それぞれ、第1〜第Qにグループ化された画像を代表する画像として決定する。中央演算処理手段21は、例えば、第1の再生時間よりも大きく、且つ、第2に抽出された画像に対応する再生時間よりも小さい再生時間に対応する画像データを新たに抽出し、その画像を第1にグループ化された画像を代表する画像として決定してもよい。   The central processing means 21 determines an image representative of each of the first to Qth grouped images. The central processing means 21 determines, for example, the first to Qth extracted images as images representative of the first to Qth grouped images, respectively. For example, the central processing means 21 newly extracts image data corresponding to a reproduction time that is larger than the first reproduction time and smaller than the reproduction time corresponding to the second extracted image. May be determined as an image representative of the first grouped image.

中央演算処理手段21は、グループ化された画像を代表する画像(カラー情報を持つ画像)のサイズ(例えば、720ピクセル×480ピクセル)のそれぞれをアイコン表示用のサイズ(例えば、120ピクセル×80ピクセル)に変更し、アイコン表示用の代表画像データとして記憶手段28に記憶する。中央演算処理手段21は、第1〜第Qのアイコン表示用の代表画像データを表示手段26上の表示領域内に表示させるための制御データを、表示手段制御手段27に出力する。表示手段26は、表示手段制御手段27から制御データを入力し、第1〜第Qのアイコン表示用の代表画像データを表示領域38内に表示する(図6)。   The central processing means 21 converts each of the sizes (for example, 720 pixels × 480 pixels) of the images representing the grouped images (images having color information) (for example, 120 pixels × 80 pixels) ) And is stored in the storage means 28 as representative image data for icon display. The central processing means 21 outputs control data for displaying the representative image data for displaying the first to Qth icons in the display area on the display means 26 to the display means control means 27. The display means 26 receives control data from the display means control means 27, and displays representative image data for displaying the first to Qth icons in the display area 38 (FIG. 6).

第1〜第Qのアイコン表示用の代表画像データが表示領域38内に表示されるとき、中央演算処理手段21は、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を自動的に選択することもできる。或いは、ユーザは、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を選択することもできる。1つのアイコン表示用の代表画像データが選択されると、その代表画像データに対応する再生時間(例えば、第1の再生時間(0分))に対応する再生時間ボタン61が、総再生時間領域39内に表示される。また、選択された代表画像データに対応するグループ化された画像(例えば、第1にグループ化された画像)に対応する再生時間期間(例えば、第1の再生時間≦再生時間期間<第2の再生時間)62が、総再生時間領域39内に表示される。1つのアイコン表示用の代表画像データが選択される状態で、再生ボタンがユーザによって選択される(再生ボタン32がクリックされ又は押される)と、それにより、中央演算処理手段21は、選択された代表画像に対応する再生時間期間だけ、又は、選択された代表画像に対応する再生時間から総再生時間まで、動画データを再生し、表示手段26は、再生中の画像を表示領域38全体に表示する。   When the representative image data for displaying the first to Qth icons is displayed in the display area 38, the central processing means 21 displays the representative image data for displaying one icon (for example, for displaying the first icon). It is also possible to automatically select (representative image data). Alternatively, the user can also select representative image data for displaying one icon (for example, representative image data for displaying the first icon). When one icon display representative image data is selected, the playback time button 61 corresponding to the playback time corresponding to the representative image data (for example, the first playback time (0 minutes)) is displayed in the total playback time area. 39 is displayed. Further, a reproduction time period (for example, first reproduction time ≦ reproduction time period <second) corresponding to a grouped image (for example, first grouped image) corresponding to the selected representative image data. 62) is displayed in the total playback time area 39. When the reproduction button is selected by the user in a state where one icon display representative image data is selected (the reproduction button 32 is clicked or pressed), the central processing means 21 is thereby selected. The moving image data is reproduced only during the reproduction time period corresponding to the representative image or from the reproduction time corresponding to the selected representative image to the total reproduction time, and the display means 26 displays the image being reproduced in the entire display area 38. To do.

再生中の画像又は停止後の画像が表示領域38全体に表示される状態で、ユーザは、リターン・ボタン34を選択すると、第1〜第Qのアイコン表示用の代表画像データは、再び、表示領域38内に表示される。第1〜第Qのアイコン表示用の代表画像データが表示領域38内に再び表示されるとき、中央演算処理手段21は、選択されていた代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を再び自動的に選択することができる。ユーザは、もう1つのアイコン表示用の代表画像データ(例えば、第2のアイコン表示用の代表画像データ)を選択することもできる。例えば、ユーザは、第2のアイコン表示用の代表画像をポインタ37を介してクリックする。又は、ユーザは、画像選択ボタン36を構成する右ボタンをクリックし又は押す。   When the user selects the return button 34 in a state where the image being reproduced or the image after the stop is displayed on the entire display area 38, the representative image data for displaying the first to Qth icons is displayed again. It is displayed in the area 38. When the representative image data for displaying the first to Qth icons is displayed again in the display area 38, the central processing means 21 selects the representative image data selected (for example, the representative for displaying the first icon). Image data) can be automatically selected again. The user can also select another icon display representative image data (for example, second icon display representative image data). For example, the user clicks the representative image for displaying the second icon via the pointer 37. Alternatively, the user clicks or presses the right button constituting the image selection button 36.

アイコン表示用の代表画像データ(例えば、第2のアイコン表示用の代表画像データ)が選択された状態で、シーンカット・ボタン30がユーザによって選択されると、中央演算処理手段21は、シーンカット・モードによって画像をグループ化する。以下の説明は、第2のアイコン表示用の代表画像が選択されたと想定する。   When the scene cut button 30 is selected by the user in a state where the representative image data for icon display (for example, the representative image data for second icon display) is selected, the central processing unit 21 performs the scene cut. • Group images by mode. In the following description, it is assumed that the representative image for displaying the second icon is selected.

図7は、1つの動画データの一部を構成する画像と、シーンカット・モードによってグループ化された画像とを表す。図7に示すように、再生時間期間に対応するJ個の画像(フレーム)を含む。図8は、図7に示すグループ化された画像(シーン)1〜Mの代表画像データが、表示領域38内に表示される例を示す。   FIG. 7 shows an image constituting a part of one moving image data and an image grouped by the scene cut mode. As shown in FIG. 7, it includes J images (frames) corresponding to the playback time period. FIG. 8 shows an example in which the representative image data of the grouped images (scenes) 1 to M shown in FIG.

((初期設定))
シーンカット・ボタン30がユーザによって選択されると、中央演算処理手段21は、1組の再生時間(例えば、第1〜第12の再生時間)データを以前の1組の再生時間(以前の第1〜第12の再生時間)データとして記憶手段28に記憶する。また、第1〜第Qのアイコン表示用の代表画像データは、以前の第1〜第Qのアイコン表示用の代表画像データとして記憶される。さらに、第1〜第Qの再生時間期間データは、以前の第1〜第Qの再生時間期間データとして記憶される。
((Initial setting))
When the scene cut button 30 is selected by the user, the central processing means 21 converts a set of playback times (for example, first to twelfth playback times) data into a previous set of playback times (the previous first time). (1st to 12th reproduction time) data is stored in the storage means 28. The representative image data for displaying the first to Qth icons is stored as the previous representative image data for displaying the first to Qth icons. Further, the first to Qth reproduction time period data is stored as the previous first to Qth reproduction time period data.

中央演算処理手段21は、ユーザによって選択された代表画像データに対応する以前の第2の再生時間期間データを最大枚数データで除算し、その除算した値(以前の第2の再生時間期間/最大枚数)を所定の値(例えば、4)で除算した値を(以前の第2の再生時間期間/最大枚数/4)を、第2の所定時間間隔データとして記憶手段28に記憶する。以前の第2の再生時間期間が、例えば、10分(=600秒)であり、最大枚数が12である場合、第2の所定時間間隔は、例えば、12.5秒(=10分/12/4)である。なお、中央演算処理手段21は、表示領域38内に表示される代表画像データの最大枚数を変更してもよい。   The central processing means 21 divides the previous second reproduction time period data corresponding to the representative image data selected by the user by the maximum number of pieces of data, and the divided value (previous second reproduction time period / maximum The value obtained by dividing the number of sheets by a predetermined value (for example, 4) is stored in the storage unit 28 as the second predetermined time interval data (previous second reproduction time period / maximum number of sheets / 4). When the previous second playback time period is, for example, 10 minutes (= 600 seconds) and the maximum number of sheets is 12, the second predetermined time interval is, for example, 12.5 seconds (= 10 minutes / 12). / 4). The central processing means 21 may change the maximum number of representative image data displayed in the display area 38.

中央演算処理手段21は、以前の第2の再生時間(選択された代表画像に対応する再生時間期間の始まりの再生時間)から始まり、第2の所定時間間隔で増加し、以前の第2の再生時間から第1の所定時間間隔だけ経過した再生時間(以前の第3の再生時間)よりも小さい1組の再生時間データを生成する。1組の再生時間は、第1〜第Nの再生時間で構成される。   The central processing means 21 starts from the previous second playback time (the playback time at the start of the playback time period corresponding to the selected representative image), increases at the second predetermined time interval, and increases to the previous second playback time. A set of playback time data that is smaller than the playback time (previous third playback time) that has passed the first predetermined time interval from the playback time is generated. One set of playback times includes first to Nth playback times.

((リファレンス画像の設定))
中央演算処理手段21は、第1の再生時間(以前の第2の再生時間期間の始まりの再生時間)に対応するカラー情報を持つ画像データを抽出し、記憶手段28に記憶する。
((Reference image settings))
The central processing means 21 extracts image data having color information corresponding to the first reproduction time (the reproduction time at the beginning of the previous second reproduction time period) and stores it in the storage means 28.

中央演算処理手段21は、カラー情報を持つ画像データから、輝度情報(グレー情報)のみを持つ画像データに変換し、さらに、画像データのサイズ(例えば、720ピクセル×480ピクセル)を識別用のサイズ(例えば、80ピクセル×60ピクセル)に変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像データをリファレンス画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化処理された画像データをリファレンス画像データとして記憶手段28に記憶する。図9は、ヒストグラム分布の平坦化処理を説明するための図である。   The central processing means 21 converts the image data having color information into image data having only luminance information (gray information), and further changes the size of the image data (for example, 720 pixels × 480 pixels) to an identification size. (For example, 80 pixels × 60 pixels). The central processing means 21 stores the image data having only the luminance information changed to the identification size in the storage means 28 as reference image data. Preferably, the central processing means 21 flattenes the histogram distribution of the image data having only luminance information, and stores the flattened image data in the storage means 28 as reference image data. FIG. 9 is a diagram for explaining a histogram distribution flattening process.

((リファレンス画像のモデル判定))
好ましくは、中央演算処理手段21は、リファレンス画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。例えば、画像モデルAは、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している(1画素が8ビットで表される場合、例えば、0〜63レベル又は192〜255レベルに全画素数の70%以上が集中している)画像とし、画像モデルBは、画像モデルA以外の画像であって、輝度レベルの特定の部分にヒストグラム分布が集中している(1画素が8ビットで表される場合、例えば、32〜63レベル、64〜127レベル、96〜159レベル、128〜191レベル又は160〜223レベルに全画素数の70%以上が集中している)画像とし、画像モデルCは、画像モデルA及びB以外の画像とすることができる。図10は、画像モデルを説明するための図である。
((Model determination of reference image))
Preferably, the central processing unit 21 determines an image model from the histogram distribution of the reference image data, and stores the determined image model data in the storage unit 28. For example, in the image model A, the histogram distribution is concentrated in a dark part or a bright part of the luminance level (when one pixel is represented by 8 bits, for example, the total number of pixels in the 0-63 level or the 192-255 level). The image model B is an image other than the image model A, and the histogram distribution is concentrated on a specific portion of the luminance level (one pixel is represented by 8 bits). In this case, for example, 70% or more of the total number of pixels is concentrated on the 32-63 level, 64-127 level, 96-159 level, 128-191 level, or 160-223 level), and the image model C Can be images other than the image models A and B. FIG. 10 is a diagram for explaining the image model.

((代表画像の表示))
中央演算処理手段21は、リファレンス画像データに対応するカラー情報を持つ画像データのサイズ(例えば、720ピクセル×480ピクセル)をアイコン表示用のサイズ(例えば、120ピクセル×80ピクセル)に変更する。中央演算処理手段21は、アイコン表示用のサイズに変更されたカラー情報を持つの画像データを、第1の代表画像データとして記憶手段28に記憶し、表示手段26は、第1の代表画像データを表示領域38内に表示する(図8)。
((Display of representative image))
The central processing means 21 changes the size of the image data having color information corresponding to the reference image data (for example, 720 pixels × 480 pixels) to the icon display size (for example, 120 pixels × 80 pixels). The central processing means 21 stores the image data having the color information changed to the icon display size in the storage means 28 as the first representative image data, and the display means 26 displays the first representative image data. Is displayed in the display area 38 (FIG. 8).

((識別対象画像の設定))
中央演算処理手段21は、第2の再生時間(第1の再生時間から第2の所定時間間隔だけ経過した再生時間)に対応するカラー情報を持つ画像を抽出し、記憶手段28に記憶する。
((Identification target image setting))
The central processing means 21 extracts an image having color information corresponding to the second reproduction time (the reproduction time elapsed from the first reproduction time by the second predetermined time interval) and stores it in the storage means 28.

中央演算処理手段21は、カラー情報を持つ画像から、輝度情報のみを持つ画像に変換し、さらに、画像データのサイズを識別用のサイズに変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像を識別対象画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、リファレンス画像データと同様に、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化された画像データを識別対象画像データとして記憶手段28に記憶する。   The central processing means 21 converts an image having color information into an image having only luminance information, and further changes the size of the image data to a size for identification. The central processing means 21 stores an image having only luminance information changed to the size for identification in the storage means 28 as identification target image data. Preferably, the central processing means 21 flattenes the histogram distribution of image data having only luminance information, and stores the flattened image data in the storage means 28 as identification target image data, similarly to the reference image data. To do.

((識別対象画像のモデル判定))
好ましくは、中央演算処理手段21は、識別対象画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。
((Model judgment of identification target image))
Preferably, the central processing unit 21 determines an image model from the histogram distribution of the identification target image data, and stores the determined image model data in the storage unit 28.

((適応度の算出))
中央演算処理手段21は、リファレンス画像データの各画素の輝度レベルと識別対象画像データの対応する各画素の輝度レベルとの差の絶対値の総和を算出する。さらに、中央演算処理手段21は、1から(総和を総画素数と輝度レベルの最大値とで除算した値)を減算する。中央演算処理手段21は、得られた値を適応度データとして記憶手段28に記憶する。
((Calculation of fitness))
The central processing means 21 calculates the sum of absolute values of differences between the luminance level of each pixel of the reference image data and the luminance level of each corresponding pixel of the identification target image data. Further, the central processing means 21 subtracts (the value obtained by dividing the sum by the total number of pixels and the maximum value of the luminance level) from 1. The central processing means 21 stores the obtained value in the storage means 28 as fitness data.

適応度データを分かり易く説明するために、リファレンス及び識別対象画像データの総画素数が4であり、輝度レベルの最大値が255レベルである場合を仮定する。例えば、リファレンス画像データに関して、第1、第2、第3及び第4の画素の輝度レベルは、それぞれ0、0、0及び0であり、識別対象画像データに関して、第1、第2、第3及び第4の画素の輝度レベルは、それぞれ、255、255、255及び255である。中央演算処理手段21は、総和=|0−255|+|0−255|+|0−255|+|0−255|=1020を算出する。さらに、中央演算処理手段21は、適応度=1−(1020/4/255)=0を得る。他の例として、例えば、リファレンス画像データに関して、第1、第2、第3及び第4の画素の輝度レベルは、それぞれ0、0、0及び0であり、識別対象画像データに関して、第1、第2、第3及び第4の画素の輝度レベルは、それぞれ、0、0、0及び0である。中央演算処理手段21は、総和=|0−0|+|0−0|+|0−0|+|0−0|=0を算出し、適応度=1−(0/4/255)=1を得る。このようにして、適応度は、0〜1の範囲に規格化されており、適応度=0は、リファレンス画像データと識別対象画像データとが0%一致していることを意味し、適応度=1は、リファレンス画像データと識別対象画像データとが100%一致していることを意味する。なお、実際に使用されるリファレンス及び識別対象画像データの総画素数は、識別用のサイズ(例えば、80ピクセル×60ピクセルの場合、80×60=4800)によって定まる。   In order to easily explain the fitness data, it is assumed that the total number of pixels of the reference and identification target image data is 4, and the maximum value of the luminance level is 255 levels. For example, regarding the reference image data, the luminance levels of the first, second, third, and fourth pixels are 0, 0, 0, and 0, respectively, and for the identification target image data, the first, second, third And the luminance levels of the fourth pixels are 255, 255, 255, and 255, respectively. The central processing means 21 calculates the sum = | 0−255 | + | 0−255 | + | 0−255 | + | 0−255 | = 1020. Further, the central processing means 21 obtains fitness = 1− (1020/4/255) = 0. As another example, for example, with respect to the reference image data, the luminance levels of the first, second, third, and fourth pixels are 0, 0, 0, and 0, respectively. The luminance levels of the second, third and fourth pixels are 0, 0, 0 and 0, respectively. The central processing means 21 calculates the sum = | 0-0 | + | 0-0 | + | 0-0 | + | 0-0 | = 0, and fitness = 1− (0/4/255) = 1. In this way, the fitness is standardized in the range of 0 to 1, and fitness = 0 means that the reference image data and the identification target image data match each other by 0%. = 1 means that the reference image data and the identification target image data match 100%. Note that the total number of pixels of the reference and identification target image data actually used is determined by the size for identification (for example, 80 × 60 = 4800 in the case of 80 pixels × 60 pixels).

((識別手法1))
中央演算処理手段21は、適応度データが所定の値(例えば、0.88)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。一方、中央演算処理手段21は、プログラムに従って、適応度データが所定の値(例えば、0.88)と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとが異ならないと判定する。中央演算処理手段21は、リファレンス画像データと識別対象画像データとが異なるか否かを示す判定結果データを記憶手段28に記憶する。
((Identification method 1))
When the fitness data is smaller than a predetermined value (for example, 0.88), the central processing means 21 determines that the reference image data and the identification target image data are different. On the other hand, according to the program, the central processing means 21 determines that the reference image data and the identification target image data are not different when the fitness data is equal to or greater than a predetermined value (for example, 0.88). . The central processing means 21 stores determination result data indicating whether or not the reference image data and the identification target image data are different in the storage means 28.

リファレンス画像データと識別対象画像データとが異ならないと判定される場合、好ましくは、1〜所定の値の範囲を複数の区間に分け、その区間毎に、一致度を表すクラスデータを記憶手段28に記憶する。例えば、1〜0.88を3つの区間(1〜0.95、0.95〜0.93、0.93〜0.88)に分ける。適応度データが0.95と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは同一であると判定される。適応度データが0.95よりも小さく、且つ、0.93と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは類似であると判定する。適応度データが0.93よりも小さく、且つ、0.88と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは一部が類似であると判定する。このようにして、一致度を表すクラス(同一、類似、一部類似)を判定することが好ましい。   When it is determined that the reference image data and the identification target image data are not different, the range of 1 to a predetermined value is preferably divided into a plurality of sections, and class data representing the degree of coincidence is stored for each section. To remember. For example, 1 to 0.88 is divided into three sections (1 to 0.95, 0.95 to 0.93, and 0.93 to 0.88). When the fitness data is equal to or greater than 0.95, it is determined that the reference image data and the identification target image data are the same. When the fitness data is smaller than 0.95 and equal to or larger than 0.93, it is determined that the reference image data and the identification target image data are similar. When the fitness data is smaller than 0.93 and equal to or larger than 0.88, it is determined that the reference image data and the identification target image data are partially similar. In this way, it is preferable to determine a class (identical, similar, or partially similar) representing the degree of coincidence.

((識別手法2))
好ましくは、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している画像モデルAでない場合であって、適応度データが第1の所定の値(例えば、0.88)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一、類似、一部類似)を判定する。
((Identification method 2))
Preferably, the central processing means 21 is a case where the image model data of the reference image data is not the image model A in which the histogram distribution is concentrated in a dark part or a bright part of the brightness level, and the fitness data is the first one. When it is smaller than a predetermined value of 1 (for example, 0.88), it is determined that the reference image data and the identification target image data are different. Preferably, a class (identical, similar, partially similar) representing the degree of coincidence is determined.

また、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している画像モデルAである場合であって、適応度データが第2の所定の値(例えば、0.982)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一(適応度≧0.994)、類似(0.994>適応度≧0.988)、一部類似(0.988>適応度≧0.982))を判定する。   Further, the central processing means 21 is a case where the image model data of the reference image data is the image model A in which the histogram distribution is concentrated on a dark part or a bright part of the brightness level, and the fitness data is the first. When it is smaller than a predetermined value of 2 (for example, 0.982), it is determined that the reference image data and the identification target image data are different. Preferably, classes representing the degree of coincidence (identical (fitness ≧ 0.994), similar (0.994> fitness ≧ 0.988), partially similar (0.988> fitness ≧ 0.982)) are used. judge.

((識別手法3))
さらに好ましくは、中央演算処理手段21は、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが異なり、且つ、リファレンス画像データの画像モデル・データが、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している画像モデルAでない場合であって、適応度データが第1の所定の値(例えば、0.88)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一、類似、一部類似)を判定する。
((Identification method 3))
More preferably, the central processing means 21 is different from the image model data of the reference image data and the image model data of the identification target image data, and the image model data of the reference image data is a portion having a dark luminance level. Alternatively, if the image model A is not the image model A in which the histogram distribution is concentrated in a bright part and the fitness data is smaller than a first predetermined value (for example, 0.88), the reference image data and the identification target image data Are determined to be different. Preferably, a class (identical, similar, partially similar) representing the degree of coincidence is determined.

また、中央演算処理手段21は、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが異なり、且つ、リファレンス画像データの画像モデル・データが、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している画像モデルAである場合であって、適応度データが第2の所定の値(例えば、0.982)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一、類似、一部類似)を判定する。   Further, the central processing means 21 is different from the image model data of the reference image data and the image model data of the identification target image data, and the image model data of the reference image data is dark or bright in the luminance level. In the case of the image model A in which the histogram distribution is concentrated in the portion, and the fitness data is smaller than a second predetermined value (for example, 0.982), the reference image data, the identification target image data, Are determined to be different. Preferably, a class (identical, similar, partially similar) representing the degree of coincidence is determined.

さらに、中央演算処理手段21は、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致する場合であって、適応度データが第3の所定の値(例えば、0.86)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一(適応度≧0.95)、類似(0.95>適応度≧0.93)、一部類似(0.93>適応度≧0.86))を判定する。   Further, the central processing means 21 is a case where the image model data of the reference image data matches the image model data of the identification target image data, and the fitness data is a third predetermined value (for example, 0). . 86), it is determined that the reference image data is different from the identification target image data. Preferably, classes representing the degree of coincidence (identical (fitness ≧ 0.95), similar (0.95> fitness ≧ 0.93), partially similar (0.93> fitness ≧ 0.86)) are used. judge.

((識別対象画像の更新))
リファレンス画像データと識別対象画像データとが異なるか否かを表す判定結果データ、及び、リファレンス画像データと識別対象画像データとが一致する度合いを表すクラスデータは、それぞれ、以前の判定結果データ及び以前のクラスデータとして、記憶手段28に記憶される。
((Update of identification target image))
The determination result data indicating whether or not the reference image data and the identification target image data are different, and the class data indicating the degree of matching between the reference image data and the identification target image data are the previous determination result data and the previous determination data, respectively. Is stored in the storage means 28 as class data.

判定結果データ及びクラスデータの内容に拘わらず、中央演算処理手段21は、1組の再生時間の中から次の再生時間(第3の再生時間)に対応するカラー情報を持つ画像を抽出する。   Regardless of the contents of the determination result data and the class data, the central processing means 21 extracts an image having color information corresponding to the next reproduction time (third reproduction time) from one set of reproduction times.

中央演算処理手段21は、次の再生時間に対応するカラー情報を持つ画像データから、識別対象画像データ、画像モデル・データ及び適応度データを生成し、判定結果データ及びクラスデータを求める。   The central processing means 21 generates identification target image data, image model data, and fitness data from image data having color information corresponding to the next reproduction time, and obtains determination result data and class data.

((リファレンス画像の更新))
リファレンス画像データと識別対象画像データとが異なると判定される場合、中央演算処理手段21は、識別対象画像データ(識別用のサイズに変更された輝度情報のみを持つ画像データ)を、新しいリファレンス画像データとして記憶手段28に記憶する。また、中央演算処理手段21は、識別対象画像データの画像モデル・データを、リファレンス画像データの新しい画像モデル・データとして記憶手段28に記憶する。
((Update reference image))
When it is determined that the reference image data and the identification target image data are different, the central processing means 21 uses the identification target image data (image data having only luminance information changed to the size for identification) as a new reference image. The data is stored in the storage unit 28 as data. The central processing means 21 stores the image model data of the identification target image data in the storage means 28 as new image model data of the reference image data.

好ましくは、リファレンス画像データと識別対象画像データとが異ならないと判定される場合、中央演算処理手段21は、以前のクラスデータと現在のクラスデータとが一致するか否かを判定する。リファレンス画像データと識別対象画像データとが異ならないと判定される場合であっても、以前のクラスデータと現在のクラスデータとが異なる場合、中央演算処理手段21は、現在の識別対象画像データを、新しいリファレンス画像データとして記憶手段28に記憶する。また、中央演算処理手段21は、現在の識別対象画像データの画像モデル・データを、リファレンス画像データの新しい画像モデル・データとして記憶手段28に記憶する。   Preferably, when it is determined that the reference image data is not different from the identification target image data, the central processing unit 21 determines whether the previous class data and the current class data match. Even when it is determined that the reference image data and the identification target image data are not different, if the previous class data and the current class data are different, the central processing unit 21 stores the current identification target image data. Then, it is stored in the storage means 28 as new reference image data. The central processing means 21 stores the image model data of the current identification target image data in the storage means 28 as new image model data of the reference image data.

例えば、第1の再生時間に対応する画像データがリファレンス画像データであり、第2の再生時間に対応する画像データが以前の識別対象画像データであり、第3の再生時間に対応する画像データが現在の識別対象画像データである状態を想定する。この状態において、リファレンス画像データと以前の識別対象画像データとは異ならず、且つリファレンス画像データと以前の識別対象画像データとは同一であると判定され、さらに、リファレンス画像データと現在の識別対象画像データとは異ならず、且つリファレンス画像データと現在の識別対象画像データとは類似すると判定される場合、現在の識別対象画像(第3の再生時間に対応する画像)データは、新しいリファレンス画像データとして記憶される。   For example, the image data corresponding to the first reproduction time is the reference image data, the image data corresponding to the second reproduction time is the previous identification target image data, and the image data corresponding to the third reproduction time is Assume that the current identification target image data is in a state. In this state, it is determined that the reference image data and the previous identification target image data are not different, and the reference image data and the previous identification target image data are the same. If it is determined that the reference image data and the current identification target image data are similar to each other, the current identification target image (image corresponding to the third reproduction time) data is used as new reference image data. Remembered.

((代表画像の表示))
リファレンス画像データと識別対象画像データとが異なると判定され、それにより、リファレンス画像が更新される毎に、中央演算処理手段21は、更新されたリファレンス画像データに対応するカラー情報を持つ画像データのサイズをアイコン表示用のサイズに変更し、代表画像データとして記憶手段28に記憶する。表示手段26は、このように生成された第2〜第Mの代表画像データを表示領域38内に表示する(図8)。
((Display of representative image))
When it is determined that the reference image data and the identification target image data are different, each time the reference image is updated, the central processing unit 21 calculates the image data having color information corresponding to the updated reference image data. The size is changed to a size for icon display and stored in the storage means 28 as representative image data. The display means 26 displays the second to Mth representative image data generated in this way in the display area 38 (FIG. 8).

((シーンカット・モードの利点))
M個にグループ化された画像のそれぞれの代表画像データが、図8に示すように、表示領域38内に表示される。表示領域38内には、異なると判定された複数の代表画像データが表示されるため、ユーザは、動画の内容を容易に把握することができる。言い換えれば、所望の画像(シーン)を容易に探すことができる。また、表示領域38内には、異なると判定された複数の代表画像データを瞬時に表示することができるため、動画の内容を瞬時に把握することができる。
((Advantages of scene cut mode))
The representative image data of each of the M grouped images is displayed in the display area 38 as shown in FIG. Since a plurality of representative image data determined to be different are displayed in the display area 38, the user can easily grasp the contents of the moving image. In other words, a desired image (scene) can be easily searched. Further, since a plurality of representative image data determined to be different can be displayed instantaneously in the display area 38, the contents of the moving image can be grasped instantaneously.

さらに、リファレンス画像データと識別対象画像データとが異ならないと判定される場合であっても、以前のクラスデータと現在のクラスデータとが異なる場合、リファレンス画像データを更新する。このため、動きのあるシーンを別々のグループとして認識するのではなく、1つのグループとして認識することができる。その結果、ユーザは、動画の内容をより容易に把握することができる。   Further, even when it is determined that the reference image data and the identification target image data are not different, the reference image data is updated when the previous class data and the current class data are different. For this reason, a scene with motion can be recognized as one group, not as separate groups. As a result, the user can more easily grasp the content of the moving image.

((画像の再生))
第1〜第Mのアイコン表示用の代表画像データが表示領域38内に表示されるとき、中央演算処理手段21は、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を自動的に選択することもできる。或いは、ユーザは、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を選択することもできる。1つのアイコン表示用の代表画像データが選択されると、その代表画像データに対応する再生時間に対応する再生時間ボタン61が、総再生時間領域39内に表示される。また、選択された代表画像データに対応するグループ化された画像(例えば、第1にグループ化された画像)に対応する再生時間期間(例えば、第1の代表画像データに対応する再生時間≦再生時間期間<第2の代表画像データに対応する再生時間)62が、総再生時間領域39内に表示される。1つのアイコン表示用の代表画像データが選択される状態で、再生ボタンがユーザによって選択されると、それにより、中央演算処理手段21は、選択された代表画像に対応する再生時間期間だけ、又は、選択された代表画像に対応する再生時間から総再生時間まで、動画データを再生し、表示手段26は、再生中の画像を表示領域38全体に表示する。
((Image playback))
When the representative image data for displaying the first to Mth icons is displayed in the display area 38, the central processing means 21 displays the representative image data for displaying one icon (for example, for displaying the first icon). It is also possible to automatically select (representative image data). Alternatively, the user can also select representative image data for displaying one icon (for example, representative image data for displaying the first icon). When one representative image data for icon display is selected, a playback time button 61 corresponding to the playback time corresponding to the representative image data is displayed in the total playback time area 39. In addition, a playback time period (for example, playback time corresponding to the first representative image data ≦ playback) corresponding to the grouped images (for example, first grouped images) corresponding to the selected representative image data Time period <reproduction time corresponding to the second representative image data) 62 is displayed in the total reproduction time area 39. When the reproduction button is selected by the user in a state where one icon display representative image data is selected, the central processing unit 21 thereby allows the reproduction time period corresponding to the selected representative image, or The moving image data is reproduced from the reproduction time corresponding to the selected representative image to the total reproduction time, and the display means 26 displays the image being reproduced in the entire display area 38.

((サブ・グループ化))
第1〜第Mのアイコン表示用の代表画像データうち、1つの代表画像データが選択された状態で、シーンカット・ボタン30がユーザによってさらに選択されると、中央演算処理手段21は、シーンカット・モードによって画像をサブ・グループ化することができる。
((Sub-grouping))
When the scene cut button 30 is further selected by the user in a state where one representative image data is selected from the representative image data for displaying the first to Mth icons, the central processing means 21 performs the scene cut. • Images can be sub-grouped by mode.

サブ・グループ化された画像(シーン)の代表画像データが、表示領域38内に表示され、1つの代表画像データが選択される態で、再生ボタンがユーザによって選択されると、それにより、中央演算処理手段21は、選択された代表画像に対応する再生時間期間だけ、又は、選択された代表画像に対応する再生時間から総再生時間まで、動画データを再生し、表示手段26は、再生中の画像を表示領域38全体に表示する。   If the representative image data of the sub-grouped image (scene) is displayed in the display area 38 and one representative image data is selected, the playback button is selected by the user, thereby The arithmetic processing means 21 reproduces the moving image data only during the reproduction time period corresponding to the selected representative image or from the reproduction time corresponding to the selected representative image to the total reproduction time, and the display means 26 is reproducing Are displayed on the entire display area 38.

サブ・グループ化された画像(シーン)の代表画像データが、表示領域38内に表示される状態で、リターン・ボタン34がユーザによって選択されると、以前のグループ化された画像(シーン)1〜Mの代表画像データは、再び、表示領域38内に表示される。   When the representative button of the sub-grouped image (scene) is displayed in the display area 38 and the return button 34 is selected by the user, the previous grouped image (scene) 1 is displayed. The representative image data of .about.M are displayed in the display area 38 again.

シーンサーチ・モード
ユーザは、シーンカット・モードを利用するか否かに拘わらず、再生ボタン32を選択して、動画を再生することができる。また、ユーザは、一時停止ボタン35を選択して、再生中の動画をある画像(シーン)で停止することができる。その後、ユーザがシーンサーチ・ボタン31を選択すると、以下に説明するシーンサーチ・モードが実行される。
( Scene search mode )
Regardless of whether or not the scene cut mode is used, the user can select the playback button 32 to play back the moving image. Further, the user can select the pause button 35 to stop the moving image being reproduced at a certain image (scene). Thereafter, when the user selects the scene search button 31, a scene search mode described below is executed.

図11は、1つの動画データを構成する画像と、一時停止された画像(リファレンス画像)と、シーンサーチ・モードによってグループ化された画像とを表す。図12は、一時停止された画像データと、図11に示すグループ化された画像(シーン)1〜Tの代表画像データが、表示領域38内に表示される例を示す。   FIG. 11 shows images constituting one moving image data, paused images (reference images), and images grouped by the scene search mode. FIG. 12 shows an example in which the temporarily stopped image data and the representative image data of the grouped images (scenes) 1 to T shown in FIG.

((初期設定))
中央演算処理手段21は、プログラムに従って、例えば0.1秒を、所定時間間隔データとして記憶手段28に記憶する。
((Initial setting))
The central processing means 21 stores, for example, 0.1 seconds in the storage means 28 as predetermined time interval data according to the program.

((リファレンス画像の生成))
中央演算処理手段21は、プログラムに従って、一時停止された画像(カラー情報を持つの画像)データから、輝度情報のみを持つ画像データに変換し、さらに、画像データのサイズ(例えば、720ピクセル×480ピクセル)を識別用のサイズ(例えば、80ピクセル×60ピクセル)に変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像データをリファレンス画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化処理された画像データをリファレンス画像データとして記憶手段28に記憶する。
((Generate reference image))
The central processing means 21 converts the temporarily stopped image (image having color information) data into image data having only luminance information according to the program, and further, the size of the image data (for example, 720 pixels × 480). Pixel) is changed to a size for identification (for example, 80 pixels × 60 pixels). The central processing means 21 stores the image data having only the luminance information changed to the identification size in the storage means 28 as reference image data. Preferably, the central processing means 21 flattenes the histogram distribution of the image data having only luminance information, and stores the flattened image data in the storage means 28 as reference image data.

((リファレンス画像のモデル判定))
好ましくは、中央演算処理手段21は、リファレンス画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。例えば、画像モデルAは、輝度レベルの暗い部分又は明るい部分にヒストグラム分布が集中している画像とし、画像モデルBは、画像モデルA以外の画像であって、輝度レベルの特定の部分にヒストグラム分布が集中している画像とし、画像モデルCは、画像モデルA及びB以外の画像とすることができる。
((Model determination of reference image))
Preferably, the central processing unit 21 determines an image model from the histogram distribution of the reference image data, and stores the determined image model data in the storage unit 28. For example, the image model A is an image in which the histogram distribution is concentrated in a dark part or a bright part with a luminance level, and the image model B is an image other than the image model A, and the histogram distribution is in a specific part with a luminance level. The image model C can be an image other than the image models A and B.

((リファレンス画像の表示))
中央演算処理手段21は、一時停止された画像(カラー情報を持つの画像)データのサイズ(例えば、720ピクセル×480ピクセル)をアイコン表示用のサイズ(例えば、120ピクセル×80ピクセル)に変更し、記憶手段28に記憶する。表示手段26は、アイコン表示用のサイズに変更されたカラー情報を持つ画像データを表示領域38内に表示する(図12)。
((Display reference image))
The central processing means 21 changes the size of the temporarily stopped image (image with color information) data (for example, 720 pixels × 480 pixels) to the icon display size (for example, 120 pixels × 80 pixels). And stored in the storage means 28. The display means 26 displays the image data having the color information changed to the icon display size in the display area 38 (FIG. 12).

((識別対象画像の設定))
中央演算処理手段21は、再生時間0から始まり、所定時間間隔(例えば、0.1秒)で増加する1組の再生時間データを生成する。例えば、1組の再生時間は、第1〜第Cの再生時間で構成される。
((Identification target image setting))
The central processing means 21 generates a set of reproduction time data starting from the reproduction time 0 and increasing at a predetermined time interval (for example, 0.1 second). For example, one set of playback times includes first to Cth playback times.

中央演算処理手段21は、第1の再生時間(例えば、0秒)に対応する画像データをするカラー情報を持つ画像を抽出し、記憶手段28に記憶する。中央演算処理手段21は、カラー情報を持つ画像から、輝度情報のみを持つ画像に変換し、さらに、画像データのサイズを識別用のサイズに変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像を識別対象画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、リファレンス画像データと同様に、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化された画像データを識別対象画像データとして記憶手段28に記憶する。   The central processing means 21 extracts an image having color information for image data corresponding to the first reproduction time (for example, 0 seconds) and stores it in the storage means 28. The central processing means 21 converts an image having color information into an image having only luminance information, and further changes the size of the image data to a size for identification. The central processing means 21 stores an image having only luminance information changed to the size for identification in the storage means 28 as identification target image data. Preferably, the central processing means 21 flattens the histogram distribution of the image data having only luminance information, and stores the flattened image data in the storage means 28 as identification target image data, similarly to the reference image data. To do.

((識別対象画像のモデル判定))
中央演算処理手段21は、識別対象画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。
((Model judgment of identification target image))
The central processing means 21 determines an image model from the histogram distribution of the identification target image data, and stores the determined image model data in the storage means 28.

((識別手法の前処理))
中央演算処理手段21は、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致するか否かを判定する。
((Pre-processing of identification method))
The central processing means 21 determines whether or not the image model data of the reference image data matches the image model data of the identification target image data.

((適応度の算出))
リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致する場合、中央演算処理手段21は、リファレンス画像データの各画素の輝度レベルと識別対象画像データの対応する各画素の輝度レベルとの差の絶対値の総和を算出する。さらに、中央演算処理手段21は、1から(総和を総画素数と輝度レベルの最大値とで除算した値)を減算する。中央演算処理手段21は、得られた値を適応度データとして記憶手段28に記憶する。
((Calculation of fitness))
When the image model data of the reference image data matches the image model data of the identification target image data, the central processing means 21 determines the luminance level of each pixel of the reference image data and each corresponding pixel of the identification target image data. The sum of the absolute values of the differences from the luminance level is calculated. Further, the central processing means 21 subtracts (the value obtained by dividing the sum by the total number of pixels and the maximum value of the luminance level) from 1. The central processing means 21 stores the obtained value in the storage means 28 as fitness data.

リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致しない場合、中央演算処理手段21は、適応度データを求める必要がない。
((識別手法1))
リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致する場合、中央演算処理手段21は、適応度データが所定の値(例えば、0.895)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。一方、中央演算処理手段21は、プログラムに従って、適応度データが所定の値(例えば、0.895)と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとが異ならないと判定する。中央演算処理手段21は、リファレンス画像データと識別対象画像データとが異なるか否かを示す判定結果データを記憶手段28に記憶する。
When the image model data of the reference image data does not match the image model data of the identification target image data, the central processing means 21 does not need to obtain fitness data.
((Identification method 1))
When the image model data of the reference image data matches the image model data of the identification target image data, the central processing means 21 determines that the fitness data is smaller than a predetermined value (for example, 0.895), It is determined that the reference image data and the identification target image data are different. On the other hand, according to the program, the central processing means 21 determines that the reference image data and the identification target image data are not different when the fitness data is equal to or greater than a predetermined value (for example, 0.895). . The central processing means 21 stores determination result data indicating whether or not the reference image data and the identification target image data are different in the storage means 28.

リファレンス画像データと識別対象画像データとが異ならないと判定される場合、好ましくは、1〜所定の値の範囲を複数の区間に分け、その区間毎に、一致度を表すクラスデータを記憶手段28に記憶する。例えば、1〜0.895を3つの区間(1〜0.95、0.95〜0.93、0.93〜0.895)に分ける。適応度データが0.95と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは同一であると判定される。適応度データが0.95よりも小さく、且つ、0.93と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは類似であると判定する。適応度データが0.93よりも小さく、且つ、0.895と等しい又はそれよりも大きい場合、リファレンス画像データと識別対象画像データとは一部が類似であると判定する。このようにして、一致度を表すクラス(同一、類似、一部類似)を判定することが好ましい。   When it is determined that the reference image data and the identification target image data are not different, the range of 1 to a predetermined value is preferably divided into a plurality of sections, and class data representing the degree of coincidence is stored for each section. To remember. For example, 1 to 0.895 is divided into three sections (1 to 0.95, 0.95 to 0.93, and 0.93 to 0.895). When the fitness data is equal to or greater than 0.95, it is determined that the reference image data and the identification target image data are the same. When the fitness data is smaller than 0.95 and equal to or larger than 0.93, it is determined that the reference image data and the identification target image data are similar. When the fitness data is smaller than 0.93 and equal to or larger than 0.895, it is determined that the reference image data and the identification target image data are partially similar. In this way, it is preferable to determine a class (identical, similar, or partially similar) representing the degree of coincidence.

((識別手法2))
好ましくは、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致する場合、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、画像モデルA及びBでない場合であって、適応度データが第1の所定の値(例えば、0.895)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一、類似、一部類似)を判定する。
((Identification method 2))
Preferably, when the image model data of the reference image data matches the image model data of the identification target image data, the central processing unit 21 determines that the image model data of the reference image data is not the image models A and B. If the fitness data is smaller than a first predetermined value (for example, 0.895), it is determined that the reference image data and the identification target image data are different. Preferably, a class (identical, similar, partially similar) representing the degree of coincidence is determined.

また、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、画像モデルA又はBである場合であって、適応度データが第2の所定の値(例えば、0.982)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一(適応度≧0.994)、類似(0.994>適応度≧0.988)、一部類似(0.988>適応度≧0.982))を判定する。   The central processing means 21 is a case where the image model data of the reference image data is the image model A or B, and the fitness data is more than a second predetermined value (for example, 0.982). If it is smaller, it is determined that the reference image data and the identification target image data are different. Preferably, classes representing the degree of coincidence (identical (fitness ≧ 0.994), similar (0.994> fitness ≧ 0.988), partially similar (0.988> fitness ≧ 0.982)) are used. judge.

((識別手法3))
さらに好ましくは、リファレンス画像データの画像モデル・データと識別対象画像データの画像モデル・データとが一致する場合、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、画像モデルA及びBでない場合であって、適応度データが第1の所定の値(例えば、0.895)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一、類似、一部類似)を判定する。
((Identification method 3))
More preferably, when the image model data of the reference image data matches the image model data of the identification target image data, the central processing unit 21 determines that the image model data of the reference image data is the image models A and B. If the fitness data is smaller than a first predetermined value (for example, 0.895), it is determined that the reference image data and the identification target image data are different. Preferably, a class (identical, similar, partially similar) representing the degree of coincidence is determined.

また、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、画像モデルBである場合であって、適応度データが第2の所定の値(例えば、0.982)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラスを判定する。   Further, the central processing means 21 is a case where the image model data of the reference image data is the image model B, and the fitness data is smaller than a second predetermined value (for example, 0.982). It is determined that the reference image data and the identification target image data are different. Preferably, a class representing the degree of coincidence is determined.

さらに、中央演算処理手段21は、リファレンス画像データの画像モデル・データが、画像モデルAである場合であって、適応度データが第3の所定の値(例えば、0.994)よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定する。好ましくは、一致度を表すクラス(同一(適応度≧0.998)、類似(0.998>適応度≧0.996)、一部類似(0.996>適応度≧0.994))を判定する。   Further, the central processing means 21 is a case where the image model data of the reference image data is the image model A and the fitness data is smaller than a third predetermined value (for example, 0.994). It is determined that the reference image data and the identification target image data are different. Preferably, a class representing the degree of coincidence (identical (fitness ≧ 0.998), similar (0.998> fitness ≧ 0.996), partially similar (0.996> fitness ≧ 0.994)) is used. judge.

((識別対象画像の更新))
リファレンス画像データと識別対象画像データとが異なるか否かを表す判定結果データ、及び、リファレンス画像データと識別対象画像データとが一致する度合いを表すクラスデータは、それぞれ、以前の判定結果データ及び以前のクラスデータとして、記憶手段28に記憶される。
((Update of identification target image))
The determination result data indicating whether or not the reference image data and the identification target image data are different, and the class data indicating the degree of matching between the reference image data and the identification target image data are the previous determination result data and the previous determination data, respectively. Is stored in the storage means 28 as class data.

判定結果データ及びクラスデータの内容に拘わらず、中央演算処理手段21は、1組の再生時間の中から次の再生時間(第2の再生時間)に対応するカラー情報を持つ画像を抽出する。   Regardless of the contents of the determination result data and the class data, the central processing means 21 extracts an image having color information corresponding to the next reproduction time (second reproduction time) from one set of reproduction times.

中央演算処理手段21は、次の再生時間に対応するカラー情報を持つ画像データから、識別対象画像データ、画像モデル・データ及び適応度データを生成し、判定結果データ及びクラスデータを求める。   The central processing means 21 generates identification target image data, image model data, and fitness data from image data having color information corresponding to the next reproduction time, and obtains determination result data and class data.

((代表画像の表示))
リファレンス画像データと識別対象画像データとが異ならないと判定される場合、中央演算処理手段21は、その識別対象画像データに対応するカラー情報を持つ画像データのサイズをアイコン表示用のサイズに変更し、代表画像データとして記憶手段28に記憶する。
((Display of representative image))
When it is determined that the reference image data and the identification target image data are not different, the central processing means 21 changes the size of the image data having color information corresponding to the identification target image data to the size for icon display. Then, it is stored in the storage means 28 as representative image data.

好ましくは、リファレンス画像データと識別対象画像データとが異ならないと判定される場合、中央演算処理手段21はさらに、以前のクラスデータの内容と現在のクラスデータの内容とを判定する。リファレンス画像データと識別対象画像データとが異ならないと判定される場合であっても、現在のクラスデータの内容が同一であり、且つ、以前のクラスデータの内容が同一である場合、現在の識別対象画像データから、代表画像データは生成しない。また、リファレンス画像データと識別対象画像データとが異ならないと判定される場合であっても、現在のクラスデータの内容が類似又は一部類似であり、且つ、以前のクラスデータの内容が類似又は一部類似である場合、現在の識別対象画像データから、代表画像データは生成しない。   Preferably, when it is determined that the reference image data and the identification target image data are not different, the central processing means 21 further determines the content of the previous class data and the content of the current class data. Even if it is determined that the reference image data and the identification target image data are not different, if the current class data content is the same and the previous class data content is the same, the current identification No representative image data is generated from the target image data. Even if it is determined that the reference image data and the identification target image data are not different, the contents of the current class data are similar or partially similar, and the contents of the previous class data are similar or If they are partially similar, no representative image data is generated from the current identification target image data.

例えば、リファレンス画像データと第2の再生時間に対応する識別対象画像データとが異ならないと判定される場合を想定する。
この状態において、リファレンス画像データと第2の再生時間に対応する識別対象画像データとが同一と判定され、さらに、リファレンス画像データと第1の再生時間に対応する識別対象画像データとが同一と判定される場合、第2の再生時間に対応する識別対象画像データから、代表画像データは生成されない。一方、リファレンス画像データと第2の再生時間に対応する識別対象画像データとが同一と判定され、さらに、リファレンス画像データと第1の再生時間に対応する識別対象画像データとが類似すると判定される場合、第2の再生時間に対応する識別対象画像データから、代表画像データは生成される。
For example, a case is assumed in which it is determined that the reference image data and the identification target image data corresponding to the second reproduction time are not different.
In this state, it is determined that the reference image data and the identification target image data corresponding to the second reproduction time are the same, and further, the reference image data and the identification target image data corresponding to the first reproduction time are determined to be the same. In such a case, the representative image data is not generated from the identification target image data corresponding to the second reproduction time. On the other hand, it is determined that the reference image data and the identification target image data corresponding to the second reproduction time are the same, and it is further determined that the reference image data and the identification target image data corresponding to the first reproduction time are similar. In this case, the representative image data is generated from the identification target image data corresponding to the second reproduction time.

また、この状態において、リファレンス画像データと第2の再生時間に対応する識別対象画像データとが類似と判定され、さらに、リファレンス画像データと第1の再生時間に対応する識別対象画像データとが一部類似と判定される場合、第2の再生時間に対応する識別対象画像データから、代表画像データは生成されない。一方、リファレンス画像データと第2の再生時間に対応する識別対象画像データとが類似すると判定され、さらに、リファレンス画像データと第1の再生時間に対応する識別対象画像データとが同一であると判定される場合、第2の再生時間に対応する識別対象画像データから、代表画像データは生成される。   In this state, it is determined that the reference image data and the identification target image data corresponding to the second reproduction time are similar, and further, the reference image data and the identification target image data corresponding to the first reproduction time are one. If it is determined that the images are similar, representative image data is not generated from the identification target image data corresponding to the second reproduction time. On the other hand, it is determined that the reference image data and the identification target image data corresponding to the second reproduction time are similar, and further, the reference image data and the identification target image data corresponding to the first reproduction time are determined to be the same. In this case, the representative image data is generated from the identification target image data corresponding to the second reproduction time.

表示手段26は、このように生成された第1〜第Tの代表画像データを表示領域38内に表示する(図12)。
さらに好ましくは、表示手段26は、代表画像データのクラスデータ(同一、類似、一部類似)の内容を表す表示70を表示する。
The display means 26 displays the first to Tth representative image data generated in this way in the display area 38 (FIG. 12).
More preferably, the display means 26 displays a display 70 representing the contents of the class data (same, similar, partially similar) of the representative image data.

((画像の再生))
第1〜第Tのアイコン表示用の代表画像データが表示領域38内に表示されるとき、中央演算処理手段21は、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を自動的に選択することもできる。或いは、ユーザは、1つのアイコン表示用の代表画像データ(例えば、第1のアイコン表示用の代表画像データ)を選択することもできる。1つのアイコン表示用の代表画像データが選択されると、その代表画像データに対応する再生時間に対応する再生時間ボタン61が、総再生時間領域39内に表示される。また、選択された代表画像データに対応するグループ化された画像(例えば、第1にグループ化された画像)に対応する再生時間期間(例えば、第1の代表画像データに対応する再生時間≦再生時間期間<第2の代表画像データに対応する再生時間)62が、総再生時間領域39内に表示される。1つのアイコン表示用の代表画像データが選択される状態で、再生ボタンがユーザによって選択されると、それにより、中央演算処理手段21は、選択された代表画像に対応する再生時間期間だけ、又は、選択された代表画像に対応する再生時間から総再生時間まで、動画データを再生し、表示手段26は、再生中の画像を表示領域38全体に表示する。
((Image playback))
When the representative image data for displaying the first to Tth icons is displayed in the display area 38, the central processing means 21 displays the representative image data for displaying one icon (for example, for displaying the first icon). It is also possible to automatically select (representative image data). Alternatively, the user can also select representative image data for displaying one icon (for example, representative image data for displaying the first icon). When one representative image data for icon display is selected, a playback time button 61 corresponding to the playback time corresponding to the representative image data is displayed in the total playback time area 39. In addition, a playback time period (for example, playback time corresponding to the first representative image data ≦ playback) corresponding to the grouped images (for example, first grouped images) corresponding to the selected representative image data Time period <reproduction time corresponding to the second representative image data) 62 is displayed in the total reproduction time area 39. When the reproduction button is selected by the user in a state where one icon display representative image data is selected, the central processing unit 21 thereby allows the reproduction time period corresponding to the selected representative image, or The moving image data is reproduced from the reproduction time corresponding to the selected representative image to the total reproduction time, and the display means 26 displays the image being reproduced in the entire display area 38.

((シーンサーチ・モードの利点))
図12に示すように、表示領域38内には、リファレンス画像データと同一である画像が表示されるため、ユーザは、所望の画像(シーン)を容易に探すことができる。
((Advantages of scene search mode))
As shown in FIG. 12, since the same image as the reference image data is displayed in the display area 38, the user can easily find a desired image (scene).

また、表示領域38内には、リファレンス画像データと類似である又は一部類似である画像が表示されるため、ユーザは、所望の画像(例えば、リファレンス画像の一部が異なる又は拡大された画像)を容易に探すことができる。   In addition, since an image similar to or partially similar to the reference image data is displayed in the display area 38, the user can select a desired image (for example, an image in which a part of the reference image is different or enlarged). ) Can be easily found.

((リファレンス画像の変形))
中央演算処理手段21は、プログラムに従って、一時停止された画像(カラー情報を持つの画像)データだけでなく、一時停止された画像から数フレームだけ前の画像と、一時停止された画像から数フレームだけ後の画像とから、リファレンス画像データを生成してもよい。図13は、一時停止された画像と、一時停止された画像から1フレームだけ前の画像と、一時停止された画像から1フレームだけ後の画像とから、1組のリファレンス画像データを生成した例を示す。図13に示すように、複数のリファレンス画像を生成する場合、より多くの代表画像が表示されるため、代表画像の中に、ユーザの所望の画像が含まれる確率は、高くなる。
((Transformation of reference image))
In accordance with the program, the central processing means 21 not only pauses image (image with color information) data, but also an image several frames before the paused image and a few frames from the paused image. The reference image data may be generated from the later image. FIG. 13 shows an example in which a set of reference image data is generated from a paused image, an image that is one frame before the paused image, and an image that is one frame after the paused image. Indicates. As shown in FIG. 13, when a plurality of reference images are generated, more representative images are displayed, so that the probability that the user's desired image is included in the representative images is high.

(B.第2の実施形態)
図14は、本発明に従って動画を記憶する装置の機能ブロック図を示す。本発明に従って動画を記憶する装置80は、中央演算処理手段21と、記憶媒体22を制御する記憶媒体制御手段23と、入力手段24を制御する入力手段制御手段25と、表示手段26を制御する表示手段制御手段27と、記憶装置28と、映像信号出力手段81を制御する映像信号出力手段制御手段82とを備える。
(B. Second Embodiment)
FIG. 14 shows a functional block diagram of an apparatus for storing moving images according to the present invention. The apparatus 80 for storing moving images according to the present invention controls the central processing means 21, the storage medium control means 23 for controlling the storage medium 22, the input means control means 25 for controlling the input means 24, and the display means 26. A display means control means 27, a storage device 28, and a video signal output means control means 82 for controlling the video signal output means 81 are provided.

記憶媒体22には、動画データが予め記憶されておらず、本発明に従って動画データが記憶される。記憶装置28には、本発明に従って画像を記憶するためのプログラムが記憶されている。なお、このプログラムは、記憶媒体22に記憶されてもよい。映像信号出力手段81は、例えば、TVチューナー、ビデオカメラ、コンピュータ、HDプレーヤ、DVDプレーヤなどである。映像信号出力手段制御手段82は、例えば、映像信号出力手段81と中央演算処理手段21との間のインターフェース、映像信号の入力端子などである。   The storage medium 22 does not store moving image data in advance, and stores moving image data according to the present invention. The storage device 28 stores a program for storing images according to the present invention. Note that this program may be stored in the storage medium 22. The video signal output means 81 is, for example, a TV tuner, a video camera, a computer, an HD player, a DVD player, or the like. The video signal output means control means 82 is, for example, an interface between the video signal output means 81 and the central processing means 21, an input terminal for video signals, and the like.

中央演算処理手段21は、プログラムに従って、録画ボタン90、停止ボタン33、画像入力選択ボタン91、ポインタ37及び表示領域38を表示手段26上に表示させるための制御データを、表示手段制御手段27に出力する。表示手段26は、表示手段制御手段27から制御データを入力し、録画ボタン90、停止ボタン33、動画入力選択ボタン91、ポインタ37及び表示領域38を表示する。図15は、表示手段26上に表示されるGUIの1例を示す。なお、図15において、動画入力選択ボタン91は、1〜6のチャンネルボタンと、外部入力ボタンとを備える。   The central processing means 21 sends control data for displaying the recording button 90, the stop button 33, the image input selection button 91, the pointer 37 and the display area 38 on the display means 26 in accordance with the program. Output. The display means 26 receives control data from the display means control means 27 and displays a recording button 90, a stop button 33, a moving image input selection button 91, a pointer 37 and a display area 38. FIG. 15 shows an example of a GUI displayed on the display means 26. In FIG. 15, the moving image input selection button 91 includes channel buttons 1 to 6 and an external input button.

表示手段26が、ボタン90、33及び91並びにポインタ37を表示する代わりに、入力手段24(例えば、リモートコントローラ)は、それらのボタン90、33及び91を備えることもできる。   Instead of the display means 26 displaying the buttons 90, 33 and 91 and the pointer 37, the input means 24 (for example, a remote controller) can also include these buttons 90, 33 and 91.

動画入力選択ボタン91(例えば、1チャンネルボタン、外部入力ボタンなど)がユーザによって選択されると、中央演算処理手段21は、対応する映像信号を入力するための制御データを映像信号出力手段制御手段82に出力する。映像信号出力手段81は、映像信号出力手段制御手段82から制御データを入力し、対応する映像信号を映像信号出力手段制御手段82に出力する。中央演算処理手段21は、対応する映像信号を映像信号出力手段制御手段82から入力し、映像信号を表示手段26上に表示するための制御データを表示手段制御手段27に出力する。表示手段26は、映像を表示領域38全体に表示する。   When a moving image input selection button 91 (for example, 1 channel button, external input button, etc.) is selected by the user, the central processing means 21 sends control data for inputting the corresponding video signal to the video signal output means control means. 82. The video signal output means 81 receives control data from the video signal output means control means 82 and outputs a corresponding video signal to the video signal output means control means 82. The central processing means 21 inputs a corresponding video signal from the video signal output means control means 82 and outputs control data for displaying the video signal on the display means 26 to the display means control means 27. The display means 26 displays the video on the entire display area 38.

映像が表示領域38に表示される状態で、録画ボタン90がユーザによって選択される(録画ボタン90がクリックされ又は押される)と、それにより、中央演算処理手段21は、以下に説明するチャプター・モードを実行する。停止ボタン33がユーザによって選択されると、それにより、中央演算処理手段21は、チャプター・モードを終了する。   When the recording button 90 is selected by the user in a state where the video is displayed in the display area 38 (the recording button 90 is clicked or pressed), the central processing means 21 thereby causes the chapter processing described below to be performed. Run the mode. When the stop button 33 is selected by the user, the central processing means 21 thereby ends the chapter mode.

チャプター・モード
図16は、1つの動画データを構成する画像と、チャプター・モードによってグループ化された画像の代表画像とを表す。図16に示すように、本発明に従って記憶される動画データは、総記憶時間に対応するH個の画像(フレーム)を含む。なお、チャプター・モードは、先に述べたシーンカット・モードと同様の手法で、代表画像を生成する。
( Chapter mode )
FIG. 16 shows images constituting one moving image data and representative images of images grouped by chapter mode. As shown in FIG. 16, the moving image data stored according to the present invention includes H images (frames) corresponding to the total storage time. In the chapter mode, a representative image is generated by the same method as the scene cut mode described above.

((初期設定))
中央演算処理手段21は、例えば0.033秒を、所定時間間隔データとして記憶手段28に記憶する。
((Initial setting))
The central processing means 21 stores, for example, 0.033 seconds in the storage means 28 as predetermined time interval data.

((動画データの記憶の開始))
録画ボタン90がユーザによって選択されると、中央演算処理手段21は、プログラムに従って、映像信号を所定のレート(例えば、30画像フレーム/秒)でエンコードし、動画データを記憶媒体22に記憶するための制御データを記憶媒体制御手段23に出力する。
((Start of video data storage))
When the recording button 90 is selected by the user, the central processing means 21 encodes the video signal at a predetermined rate (for example, 30 image frames / second) according to the program and stores the moving image data in the storage medium 22. Is output to the storage medium control means 23.

((リファレンス画像の設定))
中央演算処理手段21は、第1の記憶時間(例えば、0秒)に対応する映像信号から、カラー情報を持つ画像データを抽出し、記憶手段28に記憶する。中央演算処理手段21は、カラー情報を持つ画像データから、輝度情報(グレー情報)のみを持つ画像データに変換し、さらに、画像データのサイズ(例えば、720ピクセル×480ピクセル)を識別用のサイズ(例えば、80ピクセル×60ピクセル)に変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像データをリファレンス画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化処理された画像データをリファレンス画像データとして記憶手段28に記憶する。
((Reference image settings))
The central processing means 21 extracts image data having color information from the video signal corresponding to the first storage time (for example, 0 seconds) and stores it in the storage means 28. The central processing means 21 converts the image data having color information into image data having only luminance information (gray information), and further changes the size of the image data (for example, 720 pixels × 480 pixels) to an identification size. (For example, 80 pixels × 60 pixels). The central processing means 21 stores the image data having only the luminance information changed to the identification size in the storage means 28 as reference image data. Preferably, the central processing means 21 flattenes the histogram distribution of the image data having only luminance information, and stores the flattened image data in the storage means 28 as reference image data.

((リファレンス画像のモデル判定))
好ましくは、中央演算処理手段21は、リファレンス画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。
((Model determination of reference image))
Preferably, the central processing unit 21 determines an image model from the histogram distribution of the reference image data, and stores the determined image model data in the storage unit 28.

((代表画像の設定))
中央演算処理手段21は、リファレンス画像データに対応するカラー情報を持つ画像データを、第1の代表画像データとして記憶手段28に記憶する。
((Representative image settings))
The central processing means 21 stores image data having color information corresponding to the reference image data in the storage means 28 as first representative image data.

((識別対象画像の設定))
中央演算処理手段21は、第2の記憶時間(第1の記憶時間から所定時間間隔だけ経過した記憶時間)に対応する映像信号から、カラー情報を持つ画像データを抽出し、記憶手段28に記憶する。中央演算処理手段21は、カラー情報を持つ画像から、輝度情報のみを持つ画像に変換し、さらに、画像データのサイズを識別用のサイズに変更する。中央演算処理手段21は、識別用のサイズに変更された輝度情報のみを持つ画像を識別対象画像データとして記憶手段28に記憶する。好ましくは、中央演算処理手段21は、リファレンス画像データと同様に、輝度情報のみを持つ画像データのヒストグラム分布を平坦化処理し、平坦化された画像データを識別対象画像データとして記憶手段28に記憶する。
((Identification target image setting))
The central processing means 21 extracts image data having color information from the video signal corresponding to the second storage time (a storage time that has passed a predetermined time interval from the first storage time) and stores it in the storage means 28. To do. The central processing means 21 converts an image having color information into an image having only luminance information, and further changes the size of the image data to a size for identification. The central processing means 21 stores an image having only luminance information changed to the size for identification in the storage means 28 as identification target image data. Preferably, the central processing means 21 flattens the histogram distribution of the image data having only luminance information, and stores the flattened image data in the storage means 28 as identification target image data, similarly to the reference image data. To do.

((識別対象画像のモデル判定))
好ましくは、中央演算処理手段21は、識別対象画像データのヒストグラム分布から画像モデルを判定し、判定された画像モデル・データを記憶手段28に記憶する。
((Model judgment of identification target image))
Preferably, the central processing unit 21 determines an image model from the histogram distribution of the identification target image data, and stores the determined image model data in the storage unit 28.

((適応度の算出))
中央演算処理手段21は、リファレンス画像データの各画素の輝度レベルと識別対象画像データの対応する各画素の輝度レベルとの差の絶対値の総和を算出する。さらに、中央演算処理手段21は、1から(総和を総画素数と輝度レベルの最大値とで除算した値)を減算する。中央演算処理手段21は、得られた値を適応度データとして記憶手段28に記憶する。
((Calculation of fitness))
The central processing means 21 calculates the sum of absolute values of differences between the luminance level of each pixel of the reference image data and the luminance level of each corresponding pixel of the identification target image data. Further, the central processing means 21 subtracts (the value obtained by dividing the sum by the total number of pixels and the maximum value of the luminance level) from 1. The central processing means 21 stores the obtained value in the storage means 28 as fitness data.

((識別手法))
中央演算処理手段21は、先に説明したシーンカット・モードと同じ手法(識別手法1〜3の何れか)で、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、判定結果データを記憶手段28に記憶する。リファレンス画像データと識別対象画像データとが異ならないと判定される場合、好ましくは、リファレンス画像データと識別対象画像データとの間の一致度(同一、類似、一部類似)が判定され、クラスデータが記憶手段28に記憶される。
((Identification method))
The central processing means 21 determines whether the reference image data and the identification target image data are different by the same method (any one of the identification methods 1 to 3) as the scene cut mode described above, and the determination result Data is stored in the storage means 28. When it is determined that the reference image data and the identification target image data are not different, preferably, the degree of coincidence (identical, similar, or partly similar) between the reference image data and the identification target image data is determined, and the class data Is stored in the storage means 28.

((識別対象画像の更新))
リファレンス画像データと識別対象画像データとが異なるか否かを表す判定結果データ、及び、リファレンス画像データと識別対象画像データとが一致する度合いを表すクラスデータは、それぞれ、以前の判定結果データ及び以前のクラスデータとして、記憶手段28に記憶される。
((Update of identification target image))
The determination result data indicating whether or not the reference image data and the identification target image data are different, and the class data indicating the degree of matching between the reference image data and the identification target image data are the previous determination result data and the previous determination data, respectively. Is stored in the storage means 28 as class data.

判定結果データ及びクラスデータの内容に拘わらず、中央演算処理手段21は、次の記憶時間(第2の記憶時間から所定時間間隔だけ経過した記憶時間)に対応する映像信号から、識別対象画像データ、画像モデル・データ及び適応度データを生成し、判定結果データ及びクラスデータを求める。   Regardless of the contents of the determination result data and the class data, the central processing means 21 determines the image data to be identified from the video signal corresponding to the next storage time (the storage time elapsed by a predetermined time interval from the second storage time). Then, image model data and fitness data are generated, and determination result data and class data are obtained.

((リファレンス画像の更新))
リファレンス画像データと識別対象画像データとが異なると判定される場合、中央演算処理手段21は、識別対象画像データを、新しいリファレンス画像データとして記憶手段28に記憶する。また、中央演算処理手段21は、識別対象画像データの画像モデル・データを、リファレンス画像データの新しい画像モデル・データとして記憶手段28に記憶する。
((Update reference image))
When it is determined that the reference image data and the identification target image data are different, the central processing unit 21 stores the identification target image data in the storage unit 28 as new reference image data. The central processing means 21 stores the image model data of the identification target image data in the storage means 28 as new image model data of the reference image data.

好ましくは、リファレンス画像データと識別対象画像データとが異ならないと判定される場合であっても、以前のクラスデータと現在のクラスデータとが異なる場合、中央演算処理手段21は、現在の識別対象画像データを、新しいリファレンス画像データとして記憶手段28に記憶する。また、中央演算処理手段21は、現在の識別対象画像データの画像モデル・データを、リファレンス画像データの新しい画像モデル・データとして記憶手段28に記憶する。   Preferably, even if it is determined that the reference image data and the identification target image data are not different, if the previous class data and the current class data are different, the central processing means 21 determines the current identification target. The image data is stored in the storage means 28 as new reference image data. The central processing means 21 stores the image model data of the current identification target image data in the storage means 28 as new image model data of the reference image data.

((代表画像の設定))
リファレンス画像データと識別対象画像データとが異なると判定され、それにより、リファレンス画像が更新される毎に、中央演算処理手段21は、更新されたリファレンス画像データに対応するカラー情報を持つ画像データを、代表画像データとして記憶手段28に記憶する。
((Representative image settings))
When it is determined that the reference image data and the identification target image data are different, each time the reference image is updated, the central processing unit 21 obtains image data having color information corresponding to the updated reference image data. Then, it is stored in the storage means 28 as representative image data.

((動画データの記憶の終了))
停止ボタン33がユーザによって選択されると、中央演算処理手段21は、映像信号をエンコードすることを停止し、記憶媒体22は、動画データを記憶することを停止する。
((End of video data storage))
When the stop button 33 is selected by the user, the central processing means 21 stops encoding the video signal, and the storage medium 22 stops storing moving image data.

((チャプター・データの生成))
中央演算処理手段21は、第1〜第Gの代表画像に対応する1組の記憶時間データ(すなわち、1組の再生時間データ)を、チャプター・データとして、記憶媒体22に記憶する。
((Chapter data generation))
The central processing means 21 stores a set of storage time data (that is, a set of playback time data) corresponding to the first to Gth representative images in the storage medium 22 as chapter data.

((チャプター・モードの利点))
動画データを記憶する際に、チャプターは、自動的に設定される。その結果、チャプターを設定する作業は、煩雑でない。
((Advantages of chapter mode))
When storing moving image data, chapters are automatically set. As a result, the work of setting chapters is not complicated.

ディスプレイ上に表示される従来のGUIの1例を示す。An example of the conventional GUI displayed on a display is shown. 本発明に従って動画を再生する装置の機能ブロック図を示す。1 shows a functional block diagram of an apparatus for reproducing a moving image according to the present invention. FIG. 表示手段上に表示される本発明に従ったGUIの1例を示す。An example of a GUI according to the present invention displayed on a display means is shown. 本発明に従って動画を再生する装置をリモートコントロールする入力手段の機能ブロック図を示す。FIG. 2 shows a functional block diagram of input means for remotely controlling an apparatus for reproducing a moving image according to the present invention. 1つの動画データを構成する画像と、本発明に従って動画データを時分割によってグループ化された画像とを表す。The image which comprises one moving image data and the image which grouped moving image data by the time division according to this invention are represented. 図5に示すグループ化された画像(シーン)1〜Qの代表画像データが、図3の表示領域38内に表示される例を示す。An example in which the representative image data of the grouped images (scenes) 1 to Q shown in FIG. 5 is displayed in the display area 38 of FIG. 1つの動画データの一部を構成する画像と、本発明に従ってシーンカット・モードによってグループ化された画像とを表す。The image which comprises a part of one moving image data, and the image grouped by the scene cut mode according to this invention are represented. 図7に示すグループ化された画像(シーン)1〜Mの代表画像データが、表示領域38内に表示される例を示す。An example in which the representative image data of the grouped images (scenes) 1 to M shown in FIG. ヒストグラム分布の平坦化処理を説明するための図である。It is a figure for demonstrating the flattening process of histogram distribution. 画像モデルを説明するための図である。It is a figure for demonstrating an image model. 1つの動画データを構成する画像と、一時停止された画像(リファレンス画像)と、本発明に従ってシーンサーチ・モードによってグループ化された画像とを表す。The image which comprises one moving image data, the image paused (reference image), and the image grouped by the scene search mode according to this invention are represented. 一時停止された画像データと、図11に示すグループ化された画像(シーン)1〜Tの代表画像が、表示領域38内に表示される例を示す。An example in which the temporarily stopped image data and the representative images of the grouped images (scenes) 1 to T shown in FIG. 1つの動画データを構成する画像と、一時停止された画像及びその前後の画像(1組のリファレンス画像)と、本発明に従ってシーンサーチ・モードによってグループ化された画像とを表す。An image constituting one moving image data, an image paused and images before and after (a set of reference images), and an image grouped by a scene search mode according to the present invention are shown. は、本発明に従って動画を記憶する装置の機能ブロック図を示す。Shows a functional block diagram of an apparatus for storing moving images according to the present invention. 表示手段上に表示される本発明に従ったGUIの1例を示す。An example of a GUI according to the present invention displayed on a display means is shown. 1つの動画データを構成する画像と、本発明に従ってチャプター・モードによってグループ化された画像の代表画像とを表す。The image which comprises one moving image data, and the representative image of the image grouped by the chapter mode according to this invention are represented.

Claims (16)

中央演算処理手段(21)と、記憶媒体(22)を制御する記憶媒体制御手段(23)と、入力手段(24)を制御する入力手段制御手段(25)と、表示手段(26)を制御する表示手段制御手段(27)と、を備える動画を再生する装置(20)であって、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第1再生時間に対応する画像データをリファレンス画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データを第1の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、表示手段(26)上に表示される第1又は第2の代表画像データのうち、何れか1つの代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する、装置(20)。
The central processing means (21), the storage medium control means (23) for controlling the storage medium (22), the input means control means (25) for controlling the input means (24), and the display means (26) are controlled. An apparatus (20) for playing back a moving image comprising display means control means (27),
The central processing means (21) inputs, from the storage medium control means (23), the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22). And extracting image data corresponding to the first reproduction time as reference image data,
The central processing means (21) outputs control data for displaying the reference image data as the first representative image data on the display means (26) to the display means control means (27),
The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The video data portion is decoded, and image data corresponding to the second reproduction time is extracted as identification target image data,
The central processing means (21) determines whether or not the reference image data and the identification target image data are different, and if the reference image data and the identification target image data are different, the identification target image data is determined as the second representative image. Control data to be displayed on the display means (26) as data is output to the display means control means (27);
The central processing means (21) confirms that one of the first or second representative image data displayed on the display means (26) is selected by the input means (24). Control for inputting operation data to be expressed from the input means control means (25), reproducing the moving picture data from the reproduction time corresponding to the selected representative image data, and displaying the moving picture being reproduced on the display means (26). An apparatus (20) for outputting data to the display means control means (27).
請求項1に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが類似するか否かを判定し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1及び第2の再生時間とは異なる第3の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第3再生時間に対応する画像データを現在の識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが類似するか否かを判定し、
中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似せず、且つ、リファレンス画像データと現在の識別対象画像データとが類似する場合、現在の識別対象画像データを新しいリファレンス画像データとして設定し、
中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似し、且つ、リファレンス画像データと現在の識別対象画像データとが類似しない場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する、装置(20)。
The device (20) according to claim 1, comprising:
When the reference image data and the identification target image data are not different, the central processing means (21) sets the identification target image data as the previous identification target image data, and sets the reference image data, the previous identification target image data, and Are similar or not,
The central processing means (21) performs storage medium control on a moving image data portion corresponding to a third reproduction time different from the first and second reproduction times from the moving image data stored in the storage medium (22). Input from the means (23), decode the moving image data portion, and extract the image data corresponding to the third reproduction time as the current identification target image data;
When the reference image data and the current identification target image data are not different, the central processing means (21) determines whether the reference image data and the current identification target image data are similar,
When the reference image data and the previous identification target image data are not similar and the reference image data and the current identification target image data are similar, the central processing means (21) determines the current identification target image data. Set as new reference image data,
When the reference image data and the previous identification target image data are similar and the reference image data and the current identification target image data are not similar, the central processing means (21) sets the current identification target image data to a new one. An apparatus (20) set as reference image data.
請求項2に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが一致する程度を表す適応度を算出し、算出した適応度が第1の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定し、算出した適応度が、第1の適応度よりも大きい第2の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが類似すると判定する、装置(20)。
A device (20) according to claim 2, comprising:
The central processing means (21) calculates a fitness indicating the degree of matching between the reference image data and the identification target image data. When the calculated fitness is smaller than the first fitness, the central processing means (21) is identified from the reference image data. An apparatus that determines that the target image data is different and determines that the reference image data and the identification target image data are similar when the calculated fitness is smaller than the second fitness greater than the first fitness (20).
請求項1に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1及び第2の再生時間とは異なる第3の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第3再生時間に対応する画像データを現在の識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成し、
中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する、装置(20)。
The device (20) according to claim 1, comprising:
When the reference image data and the identification target image data are not different, the central processing means (21) sets the identification target image data as the previous identification target image data, and sets the reference image data, the previous identification target image data, and Generate previous class data representing the same, similar, or partially similar,
The central processing means (21) performs storage medium control on a moving image data portion corresponding to a third reproduction time different from the first and second reproduction times from the moving image data stored in the storage medium (22). Input from the means (23), decode the moving image data portion, and extract the image data corresponding to the third reproduction time as the current identification target image data;
When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate current class data to represent
The central processing means (21) is an apparatus (20) for setting the current identification target image data as new reference image data when the previous class data and the current class data are different.
請求項4に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが一致する程度を表す適応度を算出し、算出した適応度が第1の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが異なると判定し、算出した適応度が、第1の適応度よりも大きい第2の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが一部類似すると判定し、算出した適応度が、第2の適応度よりも大きい第3の適応度よりも小さい場合、リファレンス画像データと識別対象画像データとが類似すると判定し、算出した適応度が、第3の適応度よりも大きい場合、リファレンス画像データと識別対象画像データとが同一であると判定する、装置(20)。
Device (20) according to claim 4, comprising:
The central processing means (21) calculates a fitness indicating the degree of matching between the reference image data and the identification target image data. When the calculated fitness is smaller than the first fitness, the central processing means (21) is identified from the reference image data. When it is determined that the target image data is different and the calculated fitness is smaller than the second fitness greater than the first fitness, it is determined that the reference image data and the identification target image data are partially similar. When the calculated fitness is smaller than the third fitness greater than the second fitness, it is determined that the reference image data and the identification target image data are similar, and the calculated fitness is the third fitness. The apparatus (20) which determines that the reference image data and the identification target image data are the same when the degree is greater than the degree.
中央演算処理手段(21)と、記憶媒体(22)を制御する記憶媒体制御手段(23)と、入力手段(24)を制御する入力手段制御手段(25)と、表示手段(26)を制御する表示手段制御手段(27)と、を備える動画を再生する装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データを設定し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第1再生時間に対応する画像データを識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異ならない場合、識別対象画像データを第1の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、表示手段(26)上に表示される第1の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する、装置(20)。
The central processing means (21), the storage medium control means (23) for controlling the storage medium (22), the input means control means (25) for controlling the input means (24), and the display means (26) are controlled. An apparatus (20) for playing back a moving image comprising display means control means (27),
The central processing means (21) sets reference image data,
The central processing means (21) inputs, from the storage medium control means (23), the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22). And extracting image data corresponding to the first reproduction time as identification target image data,
The central processing means (21) determines whether the reference image data and the identification target image data are different from each other. If the reference image data and the identification target image data are not different, the identification target image data is determined as the first representative image data. Control data to be displayed on the display means (26) as image data is output to the display means control means (27);
The central processing means (21) inputs operation data indicating that the first representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27). Device (20).
請求項6に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが類似するか否かを判定し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを現在の識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが類似するか否かを判定し、
中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似せず、且つ、リファレンス画像データと現在の識別対象画像データとが類似する場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、リファレンス画像データと以前の識別対象画像データとが類似し、且つ、リファレンス画像データと現在の識別対象画像データとが類似しない場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、表示手段(26)上に表示される第2の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する、装置(20)。
The device (20) according to claim 6, comprising:
When the reference image data and the identification target image data are not different, the central processing means (21) sets the identification target image data as the previous identification target image data, and sets the reference image data, the previous identification target image data, and Are similar or not,
The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The video data portion is decoded, and the image data corresponding to the second playback time is extracted as the current identification target image data,
When the reference image data and the current identification target image data are not different, the central processing means (21) determines whether the reference image data and the current identification target image data are similar,
When the reference image data and the previous identification target image data are not similar and the reference image data and the current identification target image data are similar, the central processing means (21) determines the current identification target image data. Control data to be displayed on the display means (26) as the second representative image data is output to the display means control means (27);
When the reference image data and the previous identification target image data are similar and the reference image data and the current identification target image data are not similar, the central processing means (21) calculates the current identification target image data. Control data to be displayed on the display means (26) as the representative image data of 2 is output to the display means control means (27);
The central processing means (21) inputs operation data indicating that the second representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27). Device (20).
請求項6に記載の装置(20)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成し、
中央演算処理手段(21)は、記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分を、記憶媒体制御手段(23)から入力し、動画データ部分をデコードして、第2再生時間に対応する画像データを現在の識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成し、
中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するための制御データを表示手段制御手段(27)に出力し、
中央演算処理手段(21)は、表示手段(26)上に表示される第2の代表画像データが入力手段(24)によって選択されたことを表す操作データを入力手段制御手段(25)から入力し、選択された代表画像データに対応する再生時間から動画データを再生し、再生中の動画を表示手段(26)上で表示するための制御データを表示手段制御手段(27)に出力する、装置(20)。
The device (20) according to claim 6, comprising:
When the reference image data and the identification target image data are not different, the central processing means (21) sets the identification target image data as the previous identification target image data, and sets the reference image data, the previous identification target image data, and Generate previous class data representing the same, similar, or partially similar,
The central processing means (21) converts the moving image data portion corresponding to the second reproduction time different from the first reproduction time from the moving image data stored in the storage medium (22) to the storage medium control means (23). ), The video data portion is decoded, and the image data corresponding to the second playback time is extracted as the current identification target image data,
When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate current class data to represent
The central processing means (21), when the previous class data and the current class data are different, control data for displaying the current identification target image data on the display means (26) as the second representative image data. Is output to the display means control means (27),
The central processing means (21) inputs operation data indicating that the second representative image data displayed on the display means (26) is selected by the input means (24) from the input means control means (25). Then, the moving image data is reproduced from the reproduction time corresponding to the selected representative image data, and the control data for displaying the moving image being reproduced on the display means (26) is output to the display means control means (27). Device (20).
中央演算処理手段(21)と、記憶媒体(22)を制御する記憶媒体制御手段(23)と、映像信号出力手段(81)を制御する映像信号出力手段制御手段(82)とを備える動画を記憶する装置(80)であって、
中央演算処理手段(21)は、映像信号出力手段(81)から出力される映像信号を、映像信号出力手段制御手段(82)から入力し、映像信号をエンコードして、動画データを記憶媒体(22)に記憶するための制御データを記憶媒体制御手段(23)に出力し、
中央演算処理手段(21)は、第1の記憶時間に対応する映像信号から画像データをリファレンス画像データとして抽出し、
中央演算処理手段(21)は、第1の記憶時間を第1の再生時間として設定し、
中央演算処理手段(21)は、第1の記憶時間とは異なる第2の記憶時間に対応する映像信号から画像データを識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、第2の記憶時間を第2の再生時間として設定し、
中央演算処理手段(21)は、第1及び第2の再生時間をチャプター・データとして記憶媒体(22)に記憶するための制御データを記憶媒体制御手段(23)に出力する、装置(80)。
A moving image comprising a central processing means (21), a storage medium control means (23) for controlling the storage medium (22), and a video signal output means control means (82) for controlling the video signal output means (81). A device (80) for storing,
The central processing means (21) inputs the video signal output from the video signal output means (81) from the video signal output means control means (82), encodes the video signal, and stores the moving image data in the storage medium ( 22) output control data to be stored in the storage medium control means (23),
The central processing means (21) extracts image data as reference image data from the video signal corresponding to the first storage time,
The central processing means (21) sets the first storage time as the first reproduction time,
The central processing means (21) extracts image data as identification target image data from a video signal corresponding to a second storage time different from the first storage time,
The central processing means (21) determines whether or not the reference image data and the identification target image data are different, and when the reference image data and the identification target image data are different, the second storage time is reproduced in the second reproduction time. Set as time,
The central processing means (21) outputs control data for storing the first and second reproduction times as chapter data in the storage medium (22) to the storage medium control means (23). .
請求項9に記載の装置(80)であって、
中央演算処理手段(21)は、リファレンス画像データと識別対象画像データとが異らない場合、識別対象画像データを以前の識別対象画像データとして設定し、リファレンス画像データと以前の識別対象画像データとが同一である、類似する、又は一部類似することを表す以前のクラスデータを生成し、
中央演算処理手段(21)は、第1及び第2の記憶時間とは異なる第3の記憶時間に対応する映像信号から画像データを新しい識別対象画像データとして抽出し、
中央演算処理手段(21)は、リファレンス画像データと現在の識別対象画像データとが異らない場合、リファレンス画像データと現在の識別対象画像データとが同一である、類似する、又は一部類似することを表す現在のクラスデータを生成し、
中央演算処理手段(21)は、以前のクラスデータと現在のクラスデータとが異なる場合、現在の識別対象画像データを新しいリファレンス画像データとして設定する、装置(80)。
The apparatus (80) of claim 9, comprising:
When the reference image data and the identification target image data are not different, the central processing means (21) sets the identification target image data as the previous identification target image data, and sets the reference image data, the previous identification target image data, and Generate previous class data representing the same, similar, or partially similar,
The central processing means (21) extracts image data as new identification target image data from a video signal corresponding to a third storage time different from the first and second storage times,
When the reference image data and the current identification target image data are not different, the central processing means (21) has the same, similar, or partly similar reference image data and current identification target image data. Generate current class data to represent
The central processing means (21) is an apparatus (80) for setting the current identification target image data as new reference image data when the previous class data and the current class data are different.
動画を再生する方法であって、
記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分をデコードして、第1再生時間に対応する画像データをリファレンス画像データとして抽出するステップと、
リファレンス画像データを第1の代表画像データとして表示手段(26)上に表示するステップと、
記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分をデコードして、第2再生時間に対応する画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するステップと、
表示手段(26)上に表示される第1又は第2の代表画像データのうち、何れか1つが選択された代表画像データに対応する再生時間から動画データを再生するステップと、
を含む方法。
A method of playing a video,
Decoding the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22) and extracting the image data corresponding to the first reproduction time as reference image data;
Displaying reference image data on the display means (26) as first representative image data;
Of the moving image data stored in the storage medium (22), the moving image data portion corresponding to the second reproduction time different from the first reproduction time is decoded, and the image data corresponding to the second reproduction time is identified. Extracting as image data;
It is determined whether the reference image data and the identification target image data are different. If the reference image data and the identification target image data are different, the identification target image data is displayed on the display means (26) as second representative image data. Steps to display;
Replaying moving image data from a replay time corresponding to the representative image data in which one of the first or second representative image data displayed on the display means (26) is selected;
Including methods.
動画を再生する方法であって、
リファレンス画像データを設定するステップと、
記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分をデコードして、第1再生時間に対応する画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異ならない場合、識別対象画像データを第1の代表画像データとして表示手段(26)上に表示するステップと、
選択された第1の代表画像データに対応する再生時間から動画データを再生するステップと、
を含む方法。
A method of playing a video,
Setting reference image data; and
Decoding the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22) and extracting the image data corresponding to the first reproduction time as identification target image data;
It is determined whether the reference image data and the identification target image data are different. If the reference image data and the identification target image data are not different, the identification target image data is displayed on the display means (26) as the first representative image data. Steps to display in
Reproducing moving image data from a reproduction time corresponding to the selected first representative image data;
Including methods.
動画を記憶する方法であって、
映像信号出力手段(81)から出力される映像信号をエンコードして、動画データを記憶媒体(22)に記憶するステップと、
第1の記憶時間に対応する映像信号から画像データをリファレンス画像データとして抽出するステップと、
第1の記憶時間を第1の再生時間として設定するステップと、
第1の記憶時間とは異なる第2の記憶時間に対応する映像信号から画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、第2の記憶時間を第2の再生時間として設定するステップと、
第1及び第2の再生時間をチャプター・データとして記憶媒体(22)に記憶するステップと、
を含む方法。
A method for storing videos,
Encoding the video signal output from the video signal output means (81) and storing the moving image data in the storage medium (22);
Extracting image data as reference image data from a video signal corresponding to the first storage time;
Setting the first storage time as the first playback time;
Extracting image data as identification target image data from a video signal corresponding to a second storage time different from the first storage time;
Determining whether or not the reference image data and the identification target image data are different, and if the reference image data and the identification target image data are different, setting the second storage time as the second reproduction time;
Storing the first and second playback times in the storage medium (22) as chapter data;
Including methods.
記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分をデコードして、第1再生時間に対応する画像データをリファレンス画像データとして抽出するステップと、
リファレンス画像データを第1の代表画像データとして表示手段(26)上に表示するステップと、
記憶媒体(22)に記憶される動画データのうち、第1の再生時間とは異なる第2の再生時間に対応する動画データ部分をデコードして、第2再生時間に対応する画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、識別対象画像データを第2の代表画像データとして表示手段(26)上に表示するステップと、
表示手段(26)上に表示される第1又は第2の代表画像データのうち、何れか1つが選択された代表画像データに対応する再生時間から動画データを再生するステップと、
を中央演算処理手段(21)に実行させるためのプログラム。
Decoding the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22) and extracting the image data corresponding to the first reproduction time as reference image data;
Displaying reference image data on the display means (26) as first representative image data;
Of the moving image data stored in the storage medium (22), the moving image data portion corresponding to the second reproduction time different from the first reproduction time is decoded, and the image data corresponding to the second reproduction time is identified. Extracting as image data;
It is determined whether the reference image data and the identification target image data are different. If the reference image data and the identification target image data are different, the identification target image data is displayed on the display means (26) as second representative image data. Steps to display;
Replaying moving image data from a replay time corresponding to the representative image data in which one of the first or second representative image data displayed on the display means (26) is selected;
For causing the central processing means (21) to execute.
リファレンス画像データを設定するステップと、
記憶媒体(22)に記憶される動画データのうち、第1の再生時間に対応する動画データ部分をデコードして、第1再生時間に対応する画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異ならない場合、識別対象画像データを第1の代表画像データとして表示手段(26)上に表示するステップと、
選択された第1の代表画像データに対応する再生時間から動画データを再生するステップと、
を中央演算処理手段(21)に実行させるためのプログラム。
Setting reference image data; and
Decoding the moving image data portion corresponding to the first reproduction time out of the moving image data stored in the storage medium (22) and extracting the image data corresponding to the first reproduction time as identification target image data;
It is determined whether the reference image data and the identification target image data are different. If the reference image data and the identification target image data are not different, the identification target image data is displayed on the display means (26) as the first representative image data. Steps to display in
Reproducing moving image data from a reproduction time corresponding to the selected first representative image data;
For causing the central processing means (21) to execute.
映像信号出力手段(81)から出力される映像信号をエンコードして、動画データを記憶媒体(22)に記憶するステップと、
第1の記憶時間に対応する映像信号から画像データをリファレンス画像データとして抽出するステップと、
第1の記憶時間を第1の再生時間として設定するステップと、
第1の記憶時間とは異なる第2の記憶時間に対応する映像信号から画像データを識別対象画像データとして抽出するステップと、
リファレンス画像データと識別対象画像データとが異なるか否かを判定し、リファレンス画像データと識別対象画像データとが異なる場合、第2の記憶時間を第2の再生時間として設定するステップと、
第1及び第2の再生時間をチャプター・データとして記憶媒体(22)に記憶するステップと、
を中央演算処理手段(21)に実行させるためのプログラム。
Encoding the video signal output from the video signal output means (81) and storing the moving image data in the storage medium (22);
Extracting image data as reference image data from a video signal corresponding to the first storage time;
Setting the first storage time as the first playback time;
Extracting image data as identification target image data from a video signal corresponding to a second storage time different from the first storage time;
Determining whether or not the reference image data and the identification target image data are different, and if the reference image data and the identification target image data are different, setting the second storage time as the second reproduction time;
Storing the first and second playback times in the storage medium (22) as chapter data;
For causing the central processing means (21) to execute.
JP2004314305A 2004-10-28 2004-10-28 Device, method, and program for regenerating or recording animation Pending JP2006129050A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004314305A JP2006129050A (en) 2004-10-28 2004-10-28 Device, method, and program for regenerating or recording animation
PCT/JP2005/003551 WO2006046321A1 (en) 2004-10-28 2005-02-24 Apparatus, method, and program product for reproducing or recording moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004314305A JP2006129050A (en) 2004-10-28 2004-10-28 Device, method, and program for regenerating or recording animation

Publications (1)

Publication Number Publication Date
JP2006129050A true JP2006129050A (en) 2006-05-18

Family

ID=36227572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004314305A Pending JP2006129050A (en) 2004-10-28 2004-10-28 Device, method, and program for regenerating or recording animation

Country Status (2)

Country Link
JP (1) JP2006129050A (en)
WO (1) WO2006046321A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185526A (en) * 2007-01-31 2008-08-14 Nec Corp Color discrimination device and method
JP2010075587A (en) * 2008-09-29 2010-04-08 Sanyo Product Co Ltd Game machine
JP2018114398A (en) * 2018-05-07 2018-07-26 株式会社三洋物産 Game machine

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0963176A (en) * 1995-08-28 1997-03-07 Sony Corp Video cd reproducing device and method thereof
JP2003037796A (en) * 2001-07-24 2003-02-07 Hitachi Ltd Information recording and reproducing device
JP2004297399A (en) * 2003-03-26 2004-10-21 Sharp Corp Portable equipment
JP2004297658A (en) * 2003-03-28 2004-10-21 Fuji Photo Film Co Ltd Image processing program and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008185526A (en) * 2007-01-31 2008-08-14 Nec Corp Color discrimination device and method
JP2010075587A (en) * 2008-09-29 2010-04-08 Sanyo Product Co Ltd Game machine
JP2018114398A (en) * 2018-05-07 2018-07-26 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
WO2006046321A1 (en) 2006-05-04

Similar Documents

Publication Publication Date Title
EP3185539B1 (en) Information processing apparatus, imaging apparatus, image display control method and computer program
US7634004B2 (en) Method and apparatus for displaying video
EP2107568A1 (en) Methods and device for reproducing images
US9071806B2 (en) Reproducing apparatus
MX2008011587A (en) Video browsing based on thumbnail image.
WO2008018670A1 (en) Method of controlling receiver and receiver using the same
JP2008048279A (en) Video-reproducing device, method, and program
US20080267576A1 (en) Method of displaying moving image and image playback apparatus to display the same
JP2010288015A (en) Information processing device, information processing method, and information processing program
US8837912B2 (en) Information processing apparatus, information processing method and program
KR101323331B1 (en) Method and apparatus of reproducing discontinuous AV data
JP2003283993A (en) Video information recording/reproducing apparatus and video information recording/reproducing method
JP2007189473A (en) Moving picture reproducing device
JP2006303746A (en) Moving picture processor
JP2007060060A (en) Reproduction system, reproducing apparatus, reproducing method, information processing apparatus, information processing method, and program
JP4296145B2 (en) Playback apparatus and method
JP2002354406A (en) Dynamic image reproducing equipment
JP2006129050A (en) Device, method, and program for regenerating or recording animation
US8627400B2 (en) Moving image reproducing apparatus and control method of moving image reproducing apparatus
JP2017126856A (en) Information processing apparatus
KR20090041832A (en) Apparatus and method for playing
JP2007116472A (en) Recording and reproducing device
JP2002262240A (en) Method for retrieving video recorded scene and recording and reproducing device
JP4539884B2 (en) Reproducing apparatus, program, and method for constructing electronic screen
JP2021166363A (en) Video reproduction device and video reproduction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100215