JP2008039890A - Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program - Google Patents

Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program Download PDF

Info

Publication number
JP2008039890A
JP2008039890A JP2006210776A JP2006210776A JP2008039890A JP 2008039890 A JP2008039890 A JP 2008039890A JP 2006210776 A JP2006210776 A JP 2006210776A JP 2006210776 A JP2006210776 A JP 2006210776A JP 2008039890 A JP2008039890 A JP 2008039890A
Authority
JP
Japan
Prior art keywords
image
image data
frame
data
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006210776A
Other languages
Japanese (ja)
Inventor
Kesatoshi Takeuchi
啓佐敏 竹内
Takahiro Sagawa
隆博 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2006210776A priority Critical patent/JP2008039890A/en
Publication of JP2008039890A publication Critical patent/JP2008039890A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To display an image of high quality with less moving picture blurring and screen flickering on a display device. <P>SOLUTION: Image data wherein images of a predetermined time section including a moving picture are generated through processes mentioned below. Namely, the image data including data representing frame images constituting at least part of the images of the predetermined time section including the moving picture and data made to correspond to the data representing the frame images, and also representing frame rates are generated. In this configuration, the image data for the image display of high quality with less moving picture blurring and screen flickering can be generated without increasing the amount of the data by suitably setting the frame rates according to the contents of the moving picture. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、表示装置に画像を表示するための画像データの生成および表示に関する。   The present invention relates to generation and display of image data for displaying an image on a display device.

従来より、表示装置に画像を表示する際には、規格に沿った所定のフレームレートで画像が表示されていた。たとえば、NTSC方式の場合は、29.97fpsであり、PAL方式の場合は25fpsであった。なお、「fps」は「Frames Per Sec(フレーム/秒)」の略であり、単位時間あたりに表示されるフレーム数を表す。動画を表示する際には、少しづつ異なる静止画が所定のフレームレートによって順に表示される。   Conventionally, when an image is displayed on a display device, the image is displayed at a predetermined frame rate in accordance with a standard. For example, it was 29.97 fps for the NTSC system and 25 fps for the PAL system. “Fps” is an abbreviation of “Frames Per Sec (frame / second)” and represents the number of frames displayed per unit time. When a moving image is displayed, different still images are displayed in order at a predetermined frame rate.

しかし、次の映像信号によって表示が更新されるまでほぼ一定の表示が保たれるホールド型の表示装置においては、動画を表示する際に、次のような問題が生じる。すなわち、動画を表示する際に、少しづつ異なる静止画像が、画面内で順に切り換えられて表示されることに起因して、看取者に動画ぼけが感じられることがある。一方、表示されている静止画像と次の静止画像との間の時間に黒画像を挿入して動画ぼけを低減する技術が存在する。しかし、そのような態様においては、看取者に画面がちらついて見えることがある。   However, in a hold-type display device that maintains a substantially constant display until the display is updated by the next video signal, the following problem occurs when displaying a moving image. That is, when a moving image is displayed, a still image may be slightly blurred by a caretaker because different still images are displayed by being sequentially switched on the screen. On the other hand, there is a technique for reducing motion blur by inserting a black image at a time between a displayed still image and the next still image. However, in such an aspect, the screen may appear to flicker to the viewer.

このような問題を取り扱うために、特許文献1の技術においては、静止画を表示する場合には黒画像を挿入せず、動画を表示する場合に黒画像を挿入して、画像の表示を行う。その結果、もともと動画ぼけの生じない静止画像の表示においては、画面のちらつきの問題が解消される。また、特許文献2の技術においては、表示装置の表示領域中において、静止画を表示する領域には黒画像を挿入せず、動画を表示する領域には黒画像を挿入して、画像の表示を行う。その結果、やはり、もともと動画ぼけの生じない静止画像の表示において、画面のちらつきの問題が解消される。   In order to deal with such a problem, in the technique of Patent Document 1, a black image is not inserted when displaying a still image, and a black image is inserted when displaying a moving image, and the image is displayed. . As a result, the problem of flickering on the screen is solved in the display of a still image that originally does not cause moving image blur. Further, in the technique of Patent Document 2, a black image is not inserted into a region for displaying a still image in a display region of a display device, and a black image is inserted into a region for displaying a moving image. I do. As a result, the problem of flickering on the screen is solved in the display of a still image that does not cause motion blur.

特開2003−262846号公報JP 2003-262846 A 特開2002−123223号公報JP 2002-123223 A

しかし、上記の技術は、動画を含む画像における動画ぼけと画面のちらつきの問題を同時に解決するものではない。   However, the above technique does not solve the problem of moving image blur and screen flicker in an image including a moving image at the same time.

本発明は、表示装置において、動画を含む画像について、動画ぼけや画面のちらつきの少ない高品質な画像表示を行うことを目的とする。   It is an object of the present invention to display a high-quality image with less moving image blur and screen flickering on an image including a moving image in a display device.

上記目的を達成するために、本発明は、動画を含む所定の時間区間の画像を記録した画像データを生成する際に、以下のような処理を行う。すなわち、動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを生成する。   In order to achieve the above object, the present invention performs the following processing when generating image data in which an image of a predetermined time interval including a moving image is recorded. That is, image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image and data representing a frame rate associated with the data representing the frame image is generated.

このような態様とすれば、動画の内容に応じてフレームレートを適切に設定することで、データ量を大きくすることなく、動画ぼけや画面のちらつきの少ない高品質な画像表示が行える画像データを生成することができる。なお、「フレームレート」とは、フレーム画像を単位時間あたり何枚表示すべきかを実質的に表す情報とすることができる。   With such an aspect, by appropriately setting the frame rate according to the content of the video, image data that can display high-quality images with less video blur and screen flickering without increasing the amount of data. Can be generated. The “frame rate” can be information that substantially represents how many frame images should be displayed per unit time.

なお、画像データを生成する際には、以下のような処理を行うことが好ましい。すなわち、複数の画像を第1の時間間隔で取得して複数の第1のフレーム画像データを生成する。そして、第1のフレーム画像データの画像の基準画像からの動き量を計算する。その後、動き量に基づいて、複数の第1のフレーム画像データの中から一部のフレーム画像データを選択する。そして、選択された第1のフレーム画像データの画像を表す第2のフレーム画像データと、フレームレートを表すデータとしての再生用データであって、画像データの再生時に第2のフレーム画像データの画像を表示すべき表示時間を表す再生用データと、を含むデータを、画像データとして生成する。   Note that the following processing is preferably performed when generating image data. That is, a plurality of images are acquired at a first time interval to generate a plurality of first frame image data. Then, the amount of motion of the first frame image data image from the reference image is calculated. Thereafter, a part of the frame image data is selected from the plurality of first frame image data based on the motion amount. Then, the second frame image data representing the image of the selected first frame image data and the reproduction data as the data representing the frame rate, the image of the second frame image data at the time of reproducing the image data Is generated as image data.

このような態様とすれば、値が異なるフレームレートのデータを、第2のフレーム画像データにそれぞれ対応づけて画像データに格納することができる。なお、第2のフレーム画像データは、第1のフレーム画像データと同一のデータとすることができる。また、第2のフレーム画像データは、対応する第1のフレーム画像データに基づいて生成されたデータであって、その第1のフレーム画像データとは異なるデータとすることもできる。   According to such an aspect, data of frame rates having different values can be stored in the image data in association with the second frame image data. Note that the second frame image data can be the same data as the first frame image data. The second frame image data is data generated based on the corresponding first frame image data, and may be data different from the first frame image data.

なお、動き量を計算する際には、動き量を計算する第1のフレーム画像データに対する基準画像として、それまでにフレーム選択部によって選択された第1のフレーム画像データのうちの一つの画像を使用して、動き量を計算することが好ましい。   When calculating the motion amount, one image of the first frame image data selected by the frame selection unit so far is used as a reference image for the first frame image data for calculating the motion amount. Preferably used to calculate the amount of motion.

このような態様においては、生成する画像データのフレーム画像データとして使用されることがすでに決まっているフレーム画像データの画像を基準として、検討対象の第1のフレーム画像データの動き量が計算される。そして、その動き量に基づいて、第1のフレーム画像データを選択すべきか否かが決定される。このため、このような態様によれば、看取者にとって動画の動きが自然に見える画像データを生成することができる。   In such an aspect, the motion amount of the first frame image data to be examined is calculated with reference to the image of the frame image data that is already determined to be used as the frame image data of the image data to be generated. . Then, based on the amount of motion, it is determined whether or not the first frame image data should be selected. For this reason, according to such an aspect, it is possible to generate image data in which the motion of the moving image looks natural for the viewer.

なお、基準画像は、それまでにフレーム選択部によって選択された第1のフレーム画像データのうち、第1のフレームデータ生成部によって画像が取得された時刻が最も遅い第1のフレーム画像データの画像とすることが好ましい。ただし、それまでに選択された第1のフレーム画像データのうち他の第1のフレーム画像データの画像を、基準画像とすることもできる。   The reference image is the image of the first frame image data with the latest time when the image was acquired by the first frame data generation unit among the first frame image data selected by the frame selection unit so far. It is preferable that However, the image of the other first frame image data among the first frame image data selected so far can be used as the reference image.

また、画像データを生成する際には、以下のような処理を行うことが好ましい。すなわち、表示時間に基づいて、第2のフレーム画像データを生成する際の圧縮率を決定する。そして、選択された第1のフレーム画像データをその圧縮率に応じて圧縮して、第2のフレーム画像データを生成する。そして、画像データとして、それぞれの第2のフレーム画像データの圧縮率を表し、それら第2のフレーム画像データにそれぞれ対応づけられた圧縮率データをさらに含む画像データを生成する。このような態様とすれば、画像データのデータ量を少なくすることができる。   In addition, when generating image data, it is preferable to perform the following processing. That is, the compression rate for generating the second frame image data is determined based on the display time. Then, the selected first frame image data is compressed in accordance with the compression ratio to generate second frame image data. Then, as the image data, the compression rate of each of the second frame image data is represented, and image data further including compression rate data respectively associated with the second frame image data is generated. With such an aspect, the amount of image data can be reduced.

なお、選択された第1のフレーム画像データF1と、選択された第1のフレーム画像データF0であって第1のフレーム画像データF1の直前に画像が取得された第1のフレーム画像データF0と、の画像の取得時刻の差に基づいて、第1のフレーム画像データF0に対応する第2のフレーム画像データの画像の表示時間を決定することが好ましい。   Note that the selected first frame image data F1 and the first frame image data F0 which is the selected first frame image data F0 and an image is acquired immediately before the first frame image data F1. Preferably, the display time of the image of the second frame image data corresponding to the first frame image data F0 is determined based on the difference between the image acquisition times.

このような態様とすれば、第2のフレーム画像データの画像の表示時間を適切に設定することができる。なお、「直前に画像が取得された」とは、選択された第1のフレーム画像データの集合の中で、画像の取得時刻がある第1のフレーム画像データF1より早く、かつ、その第1のフレーム画像データF1の画像の取得時刻に最も近いことを意味する。   With such an aspect, it is possible to appropriately set the display time of the image of the second frame image data. Note that “an image has been acquired immediately before” means that the first frame image data F1 having an image acquisition time in the selected set of first frame image data is earlier than the first frame image data F1. This means that it is closest to the acquisition time of the image of the frame image data F1.

また、第1の時間間隔は1/(300×n)秒(nは、正の整数)であることが好ましい。このような態様とすれば、NTSC方式とPAL方式の両方の映像信号に基づいて、容易に画像データを生成することができる。   The first time interval is preferably 1 / (300 × n) seconds (n is a positive integer). With such an aspect, it is possible to easily generate image data based on both NTSC and PAL video signals.

なお、動画を含む所定の時間区間の画像を記録した画像データに基づいて画像を再生する際には、以下のような処理を行うことが好ましい。すなわち、まず、フレーム画像を表すデータと、フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを取得する。そして、フレーム画像を表すデータに基づいて、フレームレートに応じた時間だけフレーム画像を表示して、画像データを再生する。このような態様とすれば、表示装置において、動画ぼけや画面のちらつきの少ない高品質な画像表示を行うことができる。   In addition, when reproducing an image based on image data in which an image of a predetermined time interval including a moving image is recorded, it is preferable to perform the following processing. That is, first, image data including data representing a frame image and data representing a frame rate associated with the data representing the frame image is acquired. Then, based on the data representing the frame image, the frame image is displayed for a time corresponding to the frame rate, and the image data is reproduced. With such an aspect, it is possible to perform high-quality image display with less moving image blur and screen flickering in the display device.

フレーム画像を表すデータが、その画像を表す他のデータを圧縮して生成されたデータであり、画像データが、さらに、その圧縮の際の圧縮率を表しフレーム画像を表すデータに対応づけられたデータを含む態様においては、以下のような処理を行うことが好ましい。すなわち、フレーム画像を表すデータを、圧縮率を表すデータに基づいて解凍する。そして、画像をフレームレートに応じた時間だけ表示する際に、解凍されたデータに基づいて画像を表示する。このような対応とすれば、データ量の小さい画像データに基づいて、動画ぼけや画面のちらつきの少ない高品質な画像表示を行うことができる。   The data representing the frame image is data generated by compressing other data representing the image, and the image data is further correlated with the data representing the frame image representing the compression rate at the time of the compression. In an aspect including data, it is preferable to perform the following processing. That is, the data representing the frame image is decompressed based on the data representing the compression rate. Then, when displaying the image for a time corresponding to the frame rate, the image is displayed based on the decompressed data. With such a correspondence, it is possible to perform high-quality image display with less moving image blur and screen flicker based on image data with a small data amount.

なお、本発明は、種々の形態で実現することが可能であり、例えば、画像データ生成方法および画像データ生成装置、画像再生方法および画像再生装置、それらの方法または装置の機能を実現するためのコンピュータプログラム、そのコンピュータプログラムを記録した記録媒体、そのコンピュータプログラムを含み搬送波内に具現化されたデータ信号、画像データを記録した記録媒体等の形態で実現することができる。   The present invention can be realized in various forms, for example, an image data generation method and an image data generation device, an image reproduction method and an image reproduction device, and a function of those methods or devices. The present invention can be realized in the form of a computer program, a recording medium recording the computer program, a data signal including the computer program and embodied in a carrier wave, a recording medium recording image data, and the like.

A.第1実施例:
A1.装置の構成:
図1は、本発明の実施例であるデジタルビデオカメラ10の構成を示すブロック図である。デジタルビデオカメラ10は、画像データの処理を行う映像処理エンジン部100と、撮像素子200と、メモリ部300と、表示デバイス500と、を備えている。
A. First embodiment:
A1. Device configuration:
FIG. 1 is a block diagram showing the configuration of a digital video camera 10 that is an embodiment of the present invention. The digital video camera 10 includes a video processing engine unit 100 that processes image data, an image sensor 200, a memory unit 300, and a display device 500.

撮像素子200は、CCD(電荷結合素子:Charge Coupled Device)である。撮像素子200は、外部から光を取り込んで、その光に応じて電気信号を発し、映像処理エンジン部100に伝えることができる。表示デバイス500は、液晶ディスプレイである。表示デバイス500は、映像処理エンジン部100に制御されて画像を表示することができる。メモリ部300は、半導体メモリである。映像処理エンジン部100は、メモリ部300内において撮像素子200から送られてきた信号に基づいて画像データを生成し、その画像データの処理を行う。   The image sensor 200 is a CCD (Charge Coupled Device). The imaging device 200 can take in light from the outside, emit an electric signal in accordance with the light, and transmit the electric signal to the video processing engine unit 100. The display device 500 is a liquid crystal display. The display device 500 can be controlled by the video processing engine unit 100 to display an image. The memory unit 300 is a semiconductor memory. The video processing engine unit 100 generates image data based on a signal transmitted from the image sensor 200 in the memory unit 300 and processes the image data.

また、デジタルビデオカメラ10は、記録媒体400を挿入できるスロットを備えている。デジタルビデオカメラ10は、この記録媒体400に格納されたデータを読み取ることができ、かつ、記録媒体400にデータを書き込むことができる。記録媒体400は、SDカード(商標)である。記録媒体400は、デジタルビデオカメラ10に設けられたカードスロットに挿入され、映像処理エンジン部100によって、画像データを書き込まれる。また、映像処理エンジン部100は、カードスロットに挿入された記録媒体400からデータを読み出すことができる。   The digital video camera 10 also has a slot into which the recording medium 400 can be inserted. The digital video camera 10 can read data stored in the recording medium 400 and can write data to the recording medium 400. The recording medium 400 is an SD card (trademark). The recording medium 400 is inserted into a card slot provided in the digital video camera 10, and image data is written by the video processing engine unit 100. Further, the video processing engine unit 100 can read data from the recording medium 400 inserted in the card slot.

デジタルビデオカメラ10は、さらに、入出力端子600を備えている。この入出力端子600を介して、デジタルビデオカメラ10は、外部の映像再生機器20,30から映像信号を受け取ることができる。   The digital video camera 10 further includes an input / output terminal 600. Via this input / output terminal 600, the digital video camera 10 can receive video signals from the external video playback devices 20 and 30.

A2.動画データの記録:
図2は、デジタルビデオカメラ10によって動画を記録する際の処理を示すフローチャートである。これらの処理は、具体的には、映像処理エンジン部100がデジタルビデオカメラ10の各部(図1参照)を制御して行う。
A2. Recording video data:
FIG. 2 is a flowchart showing processing when a moving image is recorded by the digital video camera 10. Specifically, the video processing engine unit 100 controls these units (see FIG. 1) of the digital video camera 10.

ステップS10においては、映像処理エンジン部100は、所定の時間、動画を記録する。このときメモリ部300に生成される動画データを「第1の動画データD1」と呼ぶ。これに対して、第1の動画データD1に基づいて生成され、最終的に記録媒体400に格納される動画データを、「第2の動画データD2」と呼ぶ。第2の動画データD2のデータ量は、第1の動画データD1以下である。   In step S10, the video processing engine unit 100 records a moving image for a predetermined time. The moving image data generated in the memory unit 300 at this time is referred to as “first moving image data D1”. On the other hand, the moving image data generated based on the first moving image data D1 and finally stored in the recording medium 400 is referred to as “second moving image data D2”. The data amount of the second moving image data D2 is not more than the first moving image data D1.

ステップS10では、具体的には、撮像素子200からの信号に基づいて、たとえば、300fpsのフレームレート(1/300の時間間隔)で、複数のフレーム画像が取得され、第1の動画データD1の一部としてメモリ部300に格納される。   In step S10, specifically, based on the signal from the image sensor 200, for example, a plurality of frame images are acquired at a frame rate of 300 fps (time interval of 1/300), and the first moving image data D1 It is stored in the memory unit 300 as a part.

図3は、図2のステップS10において生成される第1の動画データD1の内容を示す図である。第1の動画データD1は、垂直同期信号VSと、水平同期信号HSと、フレーム画像データFD1とを含んでいる。垂直同期信号VSは、表示機器のディスプレイ上において1画面の走査を開始するタイミングを表す信号である。水平同期信号HSは、表示機器のディスプレイ上において1個の走査線の走査を開始するタイミングを表す信号である。フレーム画像データFD1は、それぞれYCrCb表色系で一定の画素数の1枚の静止画像を表す画像データである。   FIG. 3 is a diagram showing the contents of the first moving image data D1 generated in step S10 of FIG. The first moving image data D1 includes a vertical synchronization signal VS, a horizontal synchronization signal HS, and frame image data FD1. The vertical synchronization signal VS is a signal representing the timing at which scanning of one screen is started on the display of the display device. The horizontal synchronization signal HS is a signal indicating the timing at which scanning of one scanning line is started on the display of the display device. The frame image data FD1 is image data representing one still image having a certain number of pixels in the YCrCb color system.

第1の動画データD1においては、垂直同期信号VSの一つのパルスが、フレーム画像データFD1の一つのフレーム画像データの表示を開始するタイミングを表す。図2のステップS10では、1/300秒の時間間隔で各フレーム画像データF1−0、F1−1、F1−2等の画像が取得されることから、動画を再生するときに記録時と同じ速さで再生できるように、垂直同期信号VSの周波数は、300Hzである。なお、図3において、水平同期信号HSのパルス幅は実際の信号の時間を表すものではない。以下、他の図面に置いて示される水平同期信号HSのパルス幅についても同様である。   In the first moving image data D1, one pulse of the vertical synchronization signal VS represents the timing at which display of one frame image data of the frame image data FD1 is started. In step S10 in FIG. 2, images such as the respective frame image data F1-0, F1-1, F1-2, etc. are acquired at a time interval of 1/300 seconds. The frequency of the vertical synchronization signal VS is 300 Hz so that it can be reproduced at a high speed. In FIG. 3, the pulse width of the horizontal synchronizing signal HS does not represent the actual signal time. The same applies to the pulse width of the horizontal synchronizing signal HS shown in other drawings.

図4は、ステップS10で記録されたのフレーム画像の例を示す図である。図4では、第1の動画データD1の最初の10枚のフレーム画像データF1−0〜F1−9の画像(以下「フレーム画像」という)が示されている。フレーム画像F1−0〜F1−9は、その順に、1/300秒の間隔をあけて記録された画像である。なお、理解を容易にするために、各フレーム画像の右上には、フレーム画像の番号F1−0〜F1−9と、直前に記録されたフレーム画像との間の取得時間の間隔(1/300秒)が示されている。フレーム画像F1−0〜F1−9においては、フレーム内を人物が左から右に移動している(特に、フレーム画像F1−0およびF1−9、ならびにフレーム画像F1−6ないしF1−8参照)。   FIG. 4 is a diagram showing an example of the frame image recorded in step S10. In FIG. 4, images of the first 10 pieces of frame image data F1-0 to F1-9 of the first moving image data D1 (hereinafter referred to as “frame images”) are shown. Frame images F1-0 to F1-9 are images recorded in that order with an interval of 1/300 seconds. For easy understanding, an acquisition time interval (1/300 between the frame image numbers F1-0 to F1-9 and the frame image recorded immediately before is displayed at the upper right of each frame image. Seconds). In the frame images F1-0 to F1-9, the person is moving from left to right in the frame (particularly, refer to the frame images F1-0 and F1-9 and the frame images F1-6 to F1-8). .

なお、ステップS10の機能を実現するのは、映像処理エンジン部100の機能部としての第1のフレームデータ生成部111である。第1のフレームデータ生成部111(第1のFD生成部111)を図1に示す。   Note that the function of step S10 is realized by the first frame data generation unit 111 as a function unit of the video processing engine unit 100. The first frame data generation unit 111 (first FD generation unit 111) is shown in FIG.

図2のステップS20では、生成した複数のフレーム画像データのうち、最初のフレーム画像データF1−0が「基準フレームデータ」とされる。基準フレームデータは、以下のステップS30で使用される。なお、第1の動画データD1のフレーム画像データのうち基準フレームデータに決定されたフレーム画像データは、第2の動画データのフレーム画像データのもととなるフレーム画像データである。ステップS20の機能を実現するのは、映像処理エンジン部100の機能部としてのフレーム選択部113である(図1参照)。   In step S20 of FIG. 2, the first frame image data F1-0 among the generated plurality of frame image data is set as “reference frame data”. The reference frame data is used in the following step S30. Of the frame image data of the first moving image data D1, the frame image data determined as the reference frame data is frame image data that is the basis of the frame image data of the second moving image data. The function of step S20 is realized by the frame selection unit 113 as a function unit of the video processing engine unit 100 (see FIG. 1).

ステップS30では、動画データが記録された際に、基準フレームデータの次に記録されたフレーム画像データの動き量Vmが計算される。最初にステップS30の処理が行われる際には、動き量Vmが計算されるのは、フレーム画像データF1−1である(図4参照)。   In step S30, when moving image data is recorded, the motion amount Vm of the frame image data recorded next to the reference frame data is calculated. When the process of step S30 is first performed, it is the frame image data F1-1 that calculates the motion amount Vm (see FIG. 4).

動き量Vmは、フレーム画像データの画像同士の相違を表す量である。たとえば、動き量Vmは、基準フレームデータとフレーム画像データのそれぞれに含まれる画素の輝度の重心位置のずれ量とすることができる。なお、「フレームデータの画素の輝度の重心位置」は、フレームデータに含まれる各画素の横方向の位置および縦方向の位置を輝度で重み付け平均することによって、得ることができる。なお、動き量Vmの単位は画素数[pixel/frame]とすることができる。ステップS30の機能を実現するのは、映像処理エンジン部100の機能部としての動き量計算部112である(図1参照)。   The motion amount Vm is an amount representing the difference between the images of the frame image data. For example, the motion amount Vm can be a shift amount of the barycentric position of the luminance of the pixels included in each of the reference frame data and the frame image data. It should be noted that the “center position of the luminance of the pixel of the frame data” can be obtained by weighted averaging the horizontal position and the vertical position of each pixel included in the frame data with the luminance. The unit of the motion amount Vm can be the number of pixels [pixel / frame]. The function of step S30 is realized by the motion amount calculation unit 112 as a function unit of the video processing engine unit 100 (see FIG. 1).

図2のステップS35では、動き量Vmを計算したフレーム画像データが、第1の動画データD1における最後のフレーム画像データであるか否かが判定される。動き量Vmを計算したフレーム画像データが最後のフレーム画像データではない場合には、処理はステップS40に進む。動き量Vmを計算したフレーム画像データが、最後のフレーム画像データである場合には、処理はステップS50に進む。   In step S35 of FIG. 2, it is determined whether or not the frame image data for which the motion amount Vm has been calculated is the last frame image data in the first moving image data D1. If the frame image data for which the motion amount Vm has been calculated is not the last frame image data, the process proceeds to step S40. If the frame image data for which the motion amount Vm has been calculated is the last frame image data, the process proceeds to step S50.

ステップS40では、フレーム画像データの基準フレームデータからの動き量Vmが、所定のしきい値Thを超えているか否かが判断される。動き量Vmがしきい値Thを超えている場合には、処理はステップS50に進む。動き量Vmがしきい値Th以下である場合には、処理はステップS30に戻る。   In step S40, it is determined whether or not the motion amount Vm of the frame image data from the reference frame data exceeds a predetermined threshold value Th. If the amount of movement Vm exceeds the threshold value Th, the process proceeds to step S50. If the amount of movement Vm is less than or equal to the threshold value Th, the process returns to step S30.

ステップS30では、前回、検討対象であったフレーム画像データの次に記録されたフレーム画像データの動き量Vmが計算される。動き量Vmが、所定のしきい値を超えるまで、各フレーム画像データについて順にステップS40、およびS30の処理が行われる。図4の例では、処理がフレーム画像データF1−6に達するまでステップS40、およびS30が繰り返されたものとする。   In step S30, the motion amount Vm of the frame image data recorded next to the frame image data that was the subject of the previous examination is calculated. Until the amount of movement Vm exceeds a predetermined threshold value, the processes of steps S40 and S30 are performed in order for each frame image data. In the example of FIG. 4, it is assumed that steps S40 and S30 are repeated until the processing reaches the frame image data F1-6.

すなわち、ステップS40において、第1の動画データD1のフレーム画像データのうち動き量Vmがしきい値Thを超えているものが、順に選択される。図4において、ステップS40で選択される画像を二重枠で囲って示す。なお、ステップS35およびS40の機能を実現するのは、映像処理エンジン部100の機能部としてのフレーム選択部113である(図1参照)。   That is, in step S40, the frame image data of the first moving image data D1 whose motion amount Vm exceeds the threshold value Th is sequentially selected. In FIG. 4, the image selected in step S40 is shown surrounded by a double frame. Note that the function of steps S35 and S40 is realized by the frame selection unit 113 as a functional unit of the video processing engine unit 100 (see FIG. 1).

図2のステップS50では、基準フレームデータの画像(以下「基準フレーム画像」という)の表示時間Tdを決定する。表示時間Tdは、第2の動画データD2が再生される際、基準フレームデータの画像が表示される時間を表す。具体的には、ステップS40で動き量Vmがしきい値を超えると判定されたフレーム画像データと、基準フレームデータと、のそれぞれの取得時刻の間隔が、基準フレーム画像の表示時間Tdとされる。表示時間Tdは、[ステップS10におけるフレーム画像の取得間隔]×[基準フレームデータとフレーム画像データの取得時刻の間のフレーム数+1]で得られる。ここでは、基準フレームデータF1−0とフレーム画像データF1−6の取得時間の間隔は、1/300[秒]×6[フレーム]、すなわち、6/300[秒]である。なお、ステップS50の機能を実現するのは、映像処理エンジン部100の機能部としての表示時間決定部114である(図1参照)。   In step S50 of FIG. 2, the display time Td of the image of the reference frame data (hereinafter referred to as “reference frame image”) is determined. The display time Td represents the time during which the image of the reference frame data is displayed when the second moving image data D2 is reproduced. Specifically, the interval between the acquisition times of the frame image data determined that the motion amount Vm exceeds the threshold value in step S40 and the reference frame data is set as the reference frame image display time Td. . The display time Td is obtained by [frame image acquisition interval in step S10] × [number of frames between reference frame data and frame image data acquisition time + 1]. Here, the interval between the acquisition times of the reference frame data F1-0 and the frame image data F1-6 is 1/300 [seconds] × 6 [frames], that is, 6/300 [seconds]. The function of step S50 is realized by the display time determination unit 114 as a function unit of the video processing engine unit 100 (see FIG. 1).

記録媒体400に格納される第2の動画データD2は、第1の動画データD1の一部のフレーム画像データをそれぞれデータ圧縮して生成されたフレーム画像データを含む。図2のステップS60では、そのデータ圧縮の際の圧縮率Rcpが決定される。なお、ステップS60の機能を実現するのは、映像処理エンジン部100の機能部としての圧縮率決定部115である(図1参照)。   The second moving image data D2 stored in the recording medium 400 includes frame image data generated by compressing a part of the frame image data of the first moving image data D1. In step S60 of FIG. 2, a compression rate Rcp at the time of data compression is determined. The function of step S60 is realized by the compression rate determination unit 115 as a function unit of the video processing engine unit 100 (see FIG. 1).

図5は、表示時間Tdと圧縮率Rcpの関係を示すグラフである。図5のグラフにおいては、横軸が表示時間Tdであり、縦軸が圧縮率Rcpである。ステップS60では、図5のグラフC1を参照して基準フレームデータの圧縮率Rcpが決定される。図5のグラフは、具体的には、圧縮率テーブル116として映像処理エンジン部100が保持している。   FIG. 5 is a graph showing the relationship between the display time Td and the compression rate Rcp. In the graph of FIG. 5, the horizontal axis represents the display time Td, and the vertical axis represents the compression rate Rcp. In step S60, the compression rate Rcp of the reference frame data is determined with reference to the graph C1 in FIG. Specifically, the video processing engine unit 100 holds the graph of FIG. 5 as the compression rate table 116.

図5から分かるように、ステップS60においては、ステップS50で定めた基準フレームデータの表示時間Tdが長いほど、圧縮率Rcpが低く、すなわち、画像の品質が高くなるように、圧縮率が決定される。一般に、短時間しか表示されない画像の品質が低くてもユーザは気づきにくいのに対して、長時間表示される画像の品質が低いと、その品質の低さはユーザの目に付きやすい。本実施例によれば、図5のように圧縮率を設定することで、生成する第2の動画データのデータ量の削減とユーザの目から見た画像の品質との両立を図ることができる。   As can be seen from FIG. 5, in step S60, the compression rate Rcp is determined such that the compression rate Rcp is lower, that is, the image quality is higher as the display time Td of the reference frame data determined in step S50 is longer. The In general, even if the quality of an image that is displayed for only a short time is low, the user is not likely to notice. On the other hand, if the quality of an image that is displayed for a long time is low, the low quality is likely to be noticed by the user. According to the present embodiment, by setting the compression rate as shown in FIG. 5, it is possible to achieve both reduction in the data amount of the second moving image data to be generated and image quality viewed from the user's eyes. .

図2のステップS70では、ステップS40で動き量Vmがしきい値を超えると判定されたフレーム画像データを、新たに基準フレームデータに設定する。図4の例では、フレーム画像データF1−0に代わって、フレーム画像データF1−6が新たに基準フレームデータに設定される(図4参照)。ステップS70の機能を実現するのは、映像処理エンジン部100の機能部としてのフレーム選択部113である(図1参照)。   In step S70 of FIG. 2, the frame image data determined that the motion amount Vm exceeds the threshold value in step S40 is newly set as reference frame data. In the example of FIG. 4, instead of the frame image data F1-0, frame image data F1-6 is newly set as reference frame data (see FIG. 4). The function of step S70 is realized by the frame selection unit 113 as a function unit of the video processing engine unit 100 (see FIG. 1).

なお、第1の動画データD1のフレーム画像データのうち、ステップS20およびS70で基準フレームデータに決定されたフレーム画像データは、それに基づいて第2の動画データのフレーム画像データが生成されるフレーム画像データである。そして、ステップS70で新たに基準フレームデータに決定されたフレーム画像データは、それまでに基準フレームデータに決定されたフレーム画像データのうちで、ステップS10で画像が取得された時刻がもっとも遅いフレーム画像データである。   Of the frame image data of the first moving image data D1, the frame image data determined as the reference frame data in steps S20 and S70 is a frame image from which frame image data of the second moving image data is generated based on the frame image data. It is data. The frame image data newly determined as the reference frame data in step S70 is the latest frame image data that has been acquired in step S10 among the frame image data determined as reference frame data. It is data.

ステップS80では、新たに基準フレームデータとされたフレーム画像データが、第1の動画データD1における最後のフレーム画像データであるか否かが判定される。「新たに基準フレームデータとされたフレーム画像データが、第1の動画データD1における最後のフレーム画像データである場合」とは、ステップS35の判定結果がYesであり、ステップS40の処理がスキップされた場合である。   In step S80, it is determined whether or not the frame image data newly set as the reference frame data is the last frame image data in the first moving image data D1. When “the frame image data newly set as the reference frame data is the last frame image data in the first moving image data D1,” the determination result in step S35 is Yes, and the process in step S40 is skipped. This is the case.

ステップS80において、新たに基準フレームデータとされたフレーム画像データが、最後のフレーム画像データではなかった場合は、処理はステップS30に戻る。新たに基準フレームデータとされたフレーム画像データが、最後のフレーム画像データである場合は、処理はステップS90に進む。なお、以上で説明したステップS10〜S80の処理は、映像処理エンジン部100の機能部としての動画解析部110が行う。動画解析部110を図1に示す。   In step S80, when the frame image data newly set as the reference frame data is not the last frame image data, the process returns to step S30. If the frame image data newly set as the reference frame data is the last frame image data, the process proceeds to step S90. Note that the processing in steps S <b> 10 to S <b> 80 described above is performed by the moving image analysis unit 110 as a functional unit of the video processing engine unit 100. The moving image analysis unit 110 is shown in FIG.

ステップS90では、ステップS20〜S70の処理において基準フレームデータに設定されたフレーム画像データが(ステップS20、S70参照)、それぞれの圧縮率Rcpと(ステップS60参照)に応じて圧縮される。図4において二重枠で囲って示されているフレーム画像データが、図2の処理が実行される間にステップS70において基準フレームデータとなるデータである。なお、第1の動画データD1の最後のフレーム画像データの圧縮率Rcpは最小値(2)とされる(図5参照)。   In step S90, the frame image data set as the reference frame data in the processing of steps S20 to S70 (see steps S20 and S70) is compressed according to the respective compression ratios Rcp (see step S60). The frame image data surrounded by a double frame in FIG. 4 is data that becomes the reference frame data in step S70 while the processing of FIG. 2 is executed. Note that the compression rate Rcp of the last frame image data of the first moving image data D1 is set to the minimum value (2) (see FIG. 5).

ステップS90の機能を実現するのは、映像処理エンジン部100の機能部としての第2のフレームデータ生成部122である。第2のフレームデータ生成部122(第2のFD生成部122)を図1に示す。   The function of step S90 is realized by the second frame data generation unit 122 as a function unit of the video processing engine unit 100. The second frame data generation unit 122 (second FD generation unit 122) is shown in FIG.

図2のステップS100において、圧縮されたフレーム画像データと(ステップS90参照)、それぞれの表示時間Tdと(ステップS50参照)、それぞれの圧縮率Rcpと(ステップS60参照)、を含む第2の動画データD2が生成され、記録媒体400に格納される。なお、第1の動画データD1の最後のフレーム画像データの表示時間Tdは、最小値(1/300秒)とされる。このステップS100の機能を実現するのは、映像処理エンジン部100の機能部としての記録データ生成部124である(図1参照)。   2 includes the compressed frame image data (see step S90), the respective display times Td (see step S50), and the respective compression rates Rcp (see step S60). Data D2 is generated and stored in the recording medium 400. The display time Td of the last frame image data of the first moving image data D1 is set to the minimum value (1/300 seconds). The function of step S100 is realized by the recording data generation unit 124 as a functional unit of the video processing engine unit 100 (see FIG. 1).

ステップS90およびS100の処理は、映像処理エンジン部100の機能部としての動画生成部120が行う。動画生成部120を図1に示す。また、ステップS100においてフレーム画像データを記録する際、映像処理エンジン部100は、画像の明るさやコントラストを補正することができる。このような機能を奏する映像処理エンジン部100の機能部を、画質補正部126として図1に示す。   The processing in steps S90 and S100 is performed by the moving image generation unit 120 as a functional unit of the video processing engine unit 100. The moving image generating unit 120 is shown in FIG. Further, when recording the frame image data in step S100, the video processing engine unit 100 can correct the brightness and contrast of the image. A functional unit of the video processing engine unit 100 having such a function is shown in FIG.

図6は、ステップS20〜S70の処理において基準フレームデータに設定されたフレーム画像データと、第2の動画データD2に格納される圧縮されたフレーム画像データと、の例を示す図である。第1実施例においては、図6の上段に示すように、フレーム画像データF1−0、F1−6,F1−7,F1−8,F1−9等が基準フレームデータに設定されたものとする(図4参照)。そして、それぞれの表示時間Tdが、6/300,1/300,1/300,1/300,1/300,5/300秒であったものとする。図6の上段には、これらの基準フレームデータの画像と、番号と、表示時間Tdを示す。   FIG. 6 is a diagram illustrating an example of the frame image data set as the reference frame data in the processes of steps S20 to S70 and the compressed frame image data stored in the second moving image data D2. In the first embodiment, it is assumed that frame image data F1-0, F1-6, F1-7, F1-8, F1-9, etc. are set as reference frame data as shown in the upper part of FIG. (See FIG. 4). The respective display times Td are 6/300, 1/300, 1/300, 1/300, 1/300, and 5/300 seconds. The upper part of FIG. 6 shows images of these reference frame data, numbers, and display time Td.

フレーム画像データF1−0、F1−6,F1−7,F1−8,F1−9の圧縮率Rcpは、それぞれの表示時間Tdに基づいて、20,50,50,50,25となる(図5参照)。よって、図2のステップS90では、フレーム画像データF1−0、F1−6,F1−7,F1−8,F1−9は、それぞれ1/20,1/50,1/50,1/50,1/25のデータ量に圧縮される。なお、圧縮されたフレーム画像データもYCrCb表色系で各画素の色を表す。   The compression rate Rcp of the frame image data F1-0, F1-6, F1-7, F1-8, F1-9 is 20, 50, 50, 50, 25 based on the respective display times Td (FIG. 5). Therefore, in step S90 of FIG. 2, the frame image data F1-0, F1-6, F1-7, F1-8, and F1-9 are respectively 1/20, 1/50, 1/50, 1/50, The data amount is compressed to 1/25. Note that the compressed frame image data also represents the color of each pixel in the YCrCb color system.

このようにして圧縮されたフレーム画像データが、第2の動画データD2のフレーム画像データF2−0,F2−1,F2−2,F2−3,F2−4として、第2の動画データD2の一部を構成する(図6参照)。第2の動画データD2においては、フレーム画像データF2−0、F2−1,F2−2,F2−3,F2−4に対応づけられて、それぞれ表示時間Tdを表すデータと、圧縮率Rcpを表すデータと、が格納される。   The frame image data compressed in this way is the frame image data F2-0, F2-1, F2-2, F2-3, and F2-4 of the second moving image data D2. A part is configured (see FIG. 6). In the second moving image data D2, the data representing the display time Td and the compression rate Rcp are respectively associated with the frame image data F2-0, F2-1, F2-2, F2-3, and F2-4. And data to be stored are stored.

なお、図6の下段において各フレーム画像の右上に示す数値は、上段から順に、第2の動画データD2におけるフレーム番号、対応する第1の動画データD1におけるフレームのフレーム番号、表示時間Td、圧縮率Rcpである。   Note that the numerical values shown at the upper right of each frame image in the lower part of FIG. 6 are the frame number in the second moving image data D2, the frame number of the corresponding frame in the first moving image data D1, the display time Td, the compression in order from the upper part. The rate Rcp.

図7は、ステップS100において生成される第2の動画データD2の内容を示す図である。第2の動画データD2は、垂直同期信号VSと、水平同期信号HSと、フレーム画像データFD2と、継続フレーム数Nfcと、圧縮率Rcpと、を含んでいる。   FIG. 7 is a diagram showing the contents of the second moving image data D2 generated in step S100. The second moving image data D2 includes a vertical synchronization signal VS, a horizontal synchronization signal HS, frame image data FD2, the number of continuation frames Nfc, and a compression rate Rcp.

第2の動画データD2においても、垂直同期信号VSの一つのパルスが、フレーム画像データFD2の一つのフレーム画像データの表示を開始するタイミングを表す。前述のように、フレーム画像データFD2の各フレーム画像データは、第1の動画データD1の各フレーム画像データF1−0、F1−1、F1−2等から選択され、さらに圧縮されて生成されたデータである。図7においては、各フレーム画像データの番号F2−0、F2−1、F2−2等の下に、それぞれ対応する第1の動画データD1の各フレーム画像データの番号F1−0、F1−6、F1−7等をカッコを付して示す。   Also in the second moving image data D2, one pulse of the vertical synchronization signal VS represents the timing at which display of one frame image data of the frame image data FD2 is started. As described above, each frame image data of the frame image data FD2 is selected from each frame image data F1-0, F1-1, F1-2, etc. of the first moving image data D1, and is further compressed and generated. It is data. In FIG. 7, the frame image data numbers F1-0 and F1-6 of the corresponding first moving image data D1 are respectively below the frame image data numbers F2-0, F2-1, and F2-2. , F1-7, etc. are shown in parentheses.

継続フレーム数Nfcは、第2の動画データD2の各フレーム画像が第1の動画データD1の何フレーム分の時間区間だけ表示されるかを表すデータである。継続フレーム数Nfcの各データは、フレーム画像データFD2の一つの各フレーム画像データF2−0、F2−1、F2−2等に対応づけられている。   The continuation frame number Nfc is data representing how many frames of the first moving image data D1 each frame image of the second moving image data D2 is displayed. Each data of the continuation frame number Nfc is associated with one frame image data F2-0, F2-1, F2-2, etc. of the frame image data FD2.

また、継続フレーム数Nfcを表すデータの先頭には、第2の動画データD2の各フレーム画像が1秒間に最大何枚表示され得るかを示すデータNfcmaxが格納される。第1実施例においては、動画記録時(図2のステップS10参照)に1/300秒間隔で各フレーム画像が取得されるため、Nfcmax=300である。なお、第1実施例においては、NfcはNfcmax以下である。   Further, data Nfcmax indicating how many frame images of the second moving image data D2 can be displayed per second is stored at the head of the data representing the number of continuation frames Nfc. In the first embodiment, Nfcmax = 300 because each frame image is acquired at 1/300 second intervals when recording a moving image (see step S10 in FIG. 2). In the first embodiment, Nfc is Nfcmax or less.

フレーム画像データF2−0の画像の表示時間Tdは、6/300秒であることから(図6左下参照)、フレーム画像データF2−0に対応する継続フレーム数Nfcは、図7に示すように6フレームである。また、フレーム画像データF2−1の画像の表示時間Tdは、1/300秒であることから、フレーム画像データF2−1に対応する継続フレーム数Nfcは、1フレームである。継続フレーム数Nfcは、単位時間当たりの最大フレーム数Nfcmaxとともに、実質的に、各フレーム画像データの画像の表示時間Tdを表す。また、継続フレーム数Nfcは、単位時間当たりの最大フレーム数Nfcmaxとともに、実質的に、各フレーム画像データに対応づけられたフレームレートを表してもいる。   Since the image display time Td of the frame image data F2-0 is 6/300 seconds (see the lower left in FIG. 6), the number of continuation frames Nfc corresponding to the frame image data F2-0 is as shown in FIG. 6 frames. Further, since the image display time Td of the frame image data F2-1 is 1/300 second, the number of continuation frames Nfc corresponding to the frame image data F2-1 is one frame. The continuation frame number Nfc substantially represents the display time Td of each frame image data together with the maximum frame number Nfcmax per unit time. Further, the continuation frame number Nfc substantially represents the frame rate associated with each frame image data together with the maximum frame number Nfcmax per unit time.

第2の動画データD2が含む圧縮率Rcpは、図2のステップS60で決定された各フレーム画像データの圧縮率である。圧縮率Rcpの各データは、フレーム画像データFD2の一つの各フレーム画像データF2−0、F2−1、F2−2等に対応づけられている。   The compression rate Rcp included in the second moving image data D2 is the compression rate of each frame image data determined in step S60 of FIG. Each data of the compression rate Rcp is associated with one frame image data F2-0, F2-1, F2-2, etc. of the frame image data FD2.

図3および図7から分かるように、第2の動画データD2は、第1の動画データD1に比べて格納しているフレーム画像データの数が少ない。このため、第2の動画データD2は、第1の動画データD1に比べてデータ量が少い。   As can be seen from FIGS. 3 and 7, the second moving image data D2 has a smaller number of stored frame image data than the first moving image data D1. For this reason, the second moving image data D2 has a smaller data amount than the first moving image data D1.

また、第2の動画データD2が保持している各フレーム画像データF2−0、F2−1、F2−2等は、対応する第1の動画データD1の各フレーム画像データF1−0、F1−6、F1−7等を圧縮して生成されたデータである(図2のステップS90参照)。よって、この点からも、第2の動画データD2は、第1の動画データD1に比べてデータ量が少ない。   The frame image data F2-0, F2-1, F2-2, etc. held by the second moving image data D2 are the frame image data F1-0, F1- of the corresponding first moving image data D1. 6, data generated by compressing F1-7 and the like (see step S90 in FIG. 2). Therefore, also from this point, the second moving image data D2 has a smaller data amount than the first moving image data D1.

A3.動画データの再生:
図8は、記録媒体400内の第2の動画データD2を、デジタルビデオカメラ10が表示デバイス500上で再生する際の処理を示すフローチャートである。この第1実施例では、デジタルビデオカメラ10で画像データを再生する場合について説明する。しかし、他のデジタルビデオプレーヤーなどの映像再生機器において画像データを再生する場合も、同様の処理が行われる。
A3. Playback of video data:
FIG. 8 is a flowchart showing processing when the digital video camera 10 reproduces the second moving image data D2 in the recording medium 400 on the display device 500. In the first embodiment, a case where image data is reproduced by the digital video camera 10 will be described. However, similar processing is performed when image data is played back on a video playback device such as another digital video player.

まず、ステップS210で、第2の動画データD2(図7参照)を記録媒体400から読み出す。そして、ステップS220で、第2の動画データD2を解析する。具体的には、第2の動画データD2が保持している各フレーム画像データF2−0、F2−1、F2−2等に対応する圧縮率Rcpを特定する。また、各フレーム画像データF2−0、F2−1、F2−2等に対応する継続フレーム数Nfcと、単位時間当たりの最大フレーム数Nfcmaxと、に基づいて、各フレーム画像データの表示時間Tdが計算される。このステップS210およびS220の処理は、映像処理エンジン部100の機能部としての画像データ解析部132が行う。画像データ解析部132を図1に示す。   First, in step S210, the second moving image data D2 (see FIG. 7) is read from the recording medium 400. In step S220, the second moving image data D2 is analyzed. Specifically, the compression rate Rcp corresponding to each frame image data F2-0, F2-1, F2-2, etc. held by the second moving image data D2 is specified. Further, the display time Td of each frame image data is based on the continuation frame number Nfc corresponding to each frame image data F2-0, F2-1, F2-2, etc. and the maximum frame number Nfcmax per unit time. Calculated. The processing in steps S210 and S220 is performed by the image data analysis unit 132 as a functional unit of the video processing engine unit 100. The image data analysis unit 132 is shown in FIG.

図8のステップS230では、それぞれ対応する圧縮率Rcpに基づいて、フレーム画像データF2−0、F2−1、F2−2等が解凍され、フレーム画像データF3−0、F3−1、F3−2等が生成される。なお、これらのフレーム画像データF3−0、F3−1、F3−2等もYCrCb表色系で各画素の色を表す。ステップS230の機能を実現するのは、映像処理エンジン部100の機能部としての解凍部134である(図1参照)。   In step S230 of FIG. 8, the frame image data F2-0, F2-1, F2-2, etc. are decompressed based on the corresponding compression ratios Rcp, and the frame image data F3-0, F3-1, F3-2 are decompressed. Etc. are generated. These frame image data F3-0, F3-1, F3-2, etc. also represent the color of each pixel in the YCrCb color system. The function of step S230 is realized by the decompression unit 134 as a functional unit of the video processing engine unit 100 (see FIG. 1).

図8のステップS240では、垂直同期信号VSと、水平同期信号HSと、個々のフレーム画像データF3−0、F3−1、F3−2等を含むフレーム画像データFD3と、を含む第3の動画データD3が、メモリ部300上に生成される。なお、ステップS240の機能を実現するのは、映像処理エンジン部100の機能部としての再生データ生成部136である(図1参照)。さらに、ステップS230およびS240の処理は、映像処理エンジン部100の機能部としての動画再生部130が行う。動画再生部130を図1に示す。   In step S240 of FIG. 8, a third moving image including a vertical synchronization signal VS, a horizontal synchronization signal HS, and frame image data FD3 including individual frame image data F3-0, F3-1, F3-2, and the like. Data D <b> 3 is generated on the memory unit 300. The function of step S240 is realized by the reproduction data generation unit 136 as a functional unit of the video processing engine unit 100 (see FIG. 1). Further, the processing of steps S230 and S240 is performed by the moving image reproduction unit 130 as a functional unit of the video processing engine unit 100. The moving image playback unit 130 is shown in FIG.

図9は、第2の動画データD2に基づいてメモリ部300上に生成される第3の動画データD3を示す図である。図9においては、各フレーム画像データの番号F3−0、F3−1、F3−2等の下に、それぞれ対応する第2の動画データD2のフレーム画像データの番号F2−0、F2−1、F2−2等、および第1の動画データD1のフレーム画像データの番号F1−0、F1−6、F1−7等を、カッコを付して示す。   FIG. 9 is a diagram showing third moving image data D3 generated on the memory unit 300 based on the second moving image data D2. In FIG. 9, the frame image data numbers F2-0, F2-1, and the like corresponding to the second moving image data D2, respectively, under the frame image data numbers F3-0, F3-1, and F3-2. F2-2 etc. and the frame image data numbers F1-0, F1-6, F1-7 etc. of the first moving image data D1 are shown in parentheses.

第3の動画データD3においても、垂直同期信号VSの一つのパルスが、フレーム画像データFD3の一つのフレーム画像データの表示を開始するタイミングを表す。第3の動画データD3においては、垂直同期信号VSの間隔は、ステップS220において得られた表示時間Tdに基づいて定められる。たとえば、図9の例において垂直同期信号VSの二つ目のパルスと一つ目のパルスとの間隔は、6/300秒である。これは、フレーム画像データF2−0の表示時間Tdと等しい。すなわち、垂直同期信号VSのパルス同士の間隔は、第2の動画データD2に格納されていた単位時間当たりの最大フレーム数Nfcmaxと、継続フレーム数Nfcに基づいて、Nfc/Nfcmaxにより計算され得る。なお、図9の上段に各フレーム画像データに対応する表示時間Tdを示す。   Also in the third moving image data D3, one pulse of the vertical synchronization signal VS represents the timing at which display of one frame image data of the frame image data FD3 is started. In the third moving image data D3, the interval of the vertical synchronization signal VS is determined based on the display time Td obtained in step S220. For example, in the example of FIG. 9, the interval between the second pulse and the first pulse of the vertical synchronization signal VS is 6/300 seconds. This is equal to the display time Td of the frame image data F2-0. That is, the interval between pulses of the vertical synchronization signal VS can be calculated by Nfc / Nfcmax based on the maximum number of frames Nfcmax per unit time stored in the second moving image data D2 and the number of continuation frames Nfc. The upper part of FIG. 9 shows the display time Td corresponding to each frame image data.

表示デバイス500は液晶ディスプレイであり、いったん表示した画像は、新たな映像信号によって書き換えられない限りディスプレイ上に継続的に表示される。よって、第3の動画データD3においては、いったんフレーム画像データの画像を表示デバイス500上に表示した後、その表示を継続する場合には、次の画像を表示するまでの期間Ph中、走査線の走査を開始するタイミングを表す水平同期信号HSは、ONとならない。   The display device 500 is a liquid crystal display, and an image once displayed is continuously displayed on the display unless rewritten by a new video signal. Therefore, in the third moving image data D3, when the image of the frame image data is once displayed on the display device 500 and then continues to be displayed, during the period Ph until the next image is displayed, the scanning line is displayed. The horizontal synchronization signal HS indicating the timing to start scanning is not turned on.

図8のステップS250では、メモリ部300上に生成された第3の動画データD3に基づいて、表示デバイス500上に画像が表示される。具体的には、垂直同期信号VSのパルスと同期して、フレーム画像データF3−0、F3−1、F3−2等の画像が表示デバイス500上に描画される。その際、たとえば、フレーム画像データF3−0は、描画後、6/300秒だけ表示され、フレーム画像データF3−1に書き換えられる。フレーム画像データF3−1は、描画後、1/300秒だけ表示され、フレーム画像データF3−2に書き換えられる。   In step S250 of FIG. 8, an image is displayed on the display device 500 based on the third moving image data D3 generated on the memory unit 300. Specifically, images such as frame image data F3-0, F3-1, F3-2, and the like are drawn on the display device 500 in synchronization with the pulse of the vertical synchronization signal VS. At this time, for example, the frame image data F3-0 is displayed for 6/300 seconds after drawing and is rewritten to the frame image data F3-1. The frame image data F3-1 is displayed for 1/300 second after drawing and is rewritten to the frame image data F3-2.

なお、表示デバイス500上に画像を表示する際には、表示デバイス500の画素数に応じてフレーム画像データF3−0、F3−1、F3−2等が変換される。この処理は、映像処理エンジン部100の機能部としてのリサイズ部140が行う。また、YCrCb表色系で表されたデータを各表示機器に応じたRGB表色系に変換し、表示デバイス500に電気信号を送って表示デバイス500を制御するのは、映像処理エンジン部100の機能部としての表示ドライバ部150である。リサイズ部140、および表示ドライバ部150を図1に示す。   When an image is displayed on the display device 500, the frame image data F3-0, F3-1, F3-2, and the like are converted according to the number of pixels of the display device 500. This processing is performed by the resizing unit 140 as a functional unit of the video processing engine unit 100. The video processing engine unit 100 controls the display device 500 by converting the data expressed in the YCrCb color system into an RGB color system corresponding to each display device and sending an electric signal to the display device 500. This is a display driver unit 150 as a functional unit. The resizing unit 140 and the display driver unit 150 are shown in FIG.

以上で説明したような態様によれば、最初に画像を記録する際に十分に短い時間間隔で画像を取得し、フレーム画像データFD1を生成することにより、看取者が動画ぼけやフリッカを感じにくい動画を表示することができる。また、静止画や動きの少ない動画については、単位時間当たりに表示する異なるフレーム画像の数を少なくすることで(図7参照)、記録媒体上に記録する動画データのデータ量を少なくすることができる。   According to the aspect described above, when an image is first recorded, the image is acquired at a sufficiently short time interval, and the frame image data FD1 is generated, so that a viewer feels moving image blur and flicker. It is possible to display difficult videos. For still images and moving images with little motion, the number of different frame images displayed per unit time (see FIG. 7) can be reduced to reduce the amount of moving image data recorded on the recording medium. it can.

B.第2実施例:
第1実施例においては、再生時に生成される第3の動画データD3の垂直同期信号VSは、継続フレーム数Nfcおよび単位時間当たりの最大フレーム数Nfcmaxに基づいて定められた様々な時間間隔でONとなる(図9参照)。しかし、第2実施例においては、再生時に生成される第3の動画データD4の垂直同期信号VSは、一定の時間間隔でONとなる。そして、第3の動画データD4の垂直同期信号VSの各パルスに対応するフレーム画像データが準備される。第2実施例の他の点は、第1実施例と同じである。
B. Second embodiment:
In the first embodiment, the vertical synchronization signal VS of the third moving image data D3 generated at the time of reproduction is ON at various time intervals determined based on the number of continuing frames Nfc and the maximum number of frames per unit time Nfcmax. (See FIG. 9). However, in the second embodiment, the vertical synchronizing signal VS of the third moving image data D4 generated at the time of reproduction is turned on at a constant time interval. Then, frame image data corresponding to each pulse of the vertical synchronization signal VS of the third moving image data D4 is prepared. The other points of the second embodiment are the same as those of the first embodiment.

図10は、第2の動画データD2に基づいてメモリ部300上に生成される第3の動画データD4を示す図である。図10においては、各フレーム画像データの番号F4−0、F4−1、F4−2等の下に、それぞれ対応する第2の動画データD2のフレーム画像データの番号F2−0、F2−1、F2−2等、および第1の動画データD1のフレーム画像データの番号F1−0、F1−6、F1−7等を、カッコを付して示す。図11における他の要素の表記方法は図9と同じである。   FIG. 10 is a diagram showing third moving image data D4 generated on the memory unit 300 based on the second moving image data D2. In FIG. 10, under the frame image data numbers F4-0, F4-1, F4-2, etc., the frame image data numbers F2-0, F2-1, F2-2 etc. and the frame image data numbers F1-0, F1-6, F1-7 etc. of the first moving image data D1 are shown in parentheses. The notation of other elements in FIG. 11 is the same as in FIG.

第2実施例においては、第2の動画データD2の各フレーム画像データは、解凍後、それぞれ対応する継続フレーム数Nfc(図7参照)だけ複製される。そのようにして生成されたデータが、第3の動画データD4のフレーム画像データFD4となる。たとえば、第3の動画データD4のフレーム画像データF4−0〜F4−5までは、同一のデータである。フレーム画像データF4−0〜F4−5は、第2の動画データD2のフレーム画像データF2−0を解凍し、複製することによって得られる。   In the second embodiment, each frame image data of the second moving image data D2 is duplicated by the corresponding number of continuous frames Nfc (see FIG. 7) after decompression. The data thus generated becomes frame image data FD4 of the third moving image data D4. For example, the frame image data F4-0 to F4-5 of the third moving image data D4 are the same data. The frame image data F4-0 to F4-5 are obtained by decompressing and duplicating the frame image data F2-0 of the second moving image data D2.

第3の動画データD4の垂直同期信号VSは、一定の時間間隔1/300秒でONとなる。第3の動画データD4においても、垂直同期信号VSの一つのパルスが、フレーム画像データFD4の一つのフレーム画像データの表示を開始するタイミングを表す。すなわち、表示デバイス500上に画像を再生する際には、第3の動画データD4のフレーム画像データF4−0、F4−1、D4−2等は、垂直同期信号VSに基づいて、順に1/300秒間、表示される。   The vertical synchronization signal VS of the third moving image data D4 is turned ON at a constant time interval of 1/300 seconds. Also in the third moving image data D4, one pulse of the vertical synchronization signal VS represents the timing at which one frame image data of the frame image data FD4 starts to be displayed. That is, when the image is reproduced on the display device 500, the frame image data F4-0, F4-1, D4-2, etc. of the third moving image data D4 are sequentially 1/1 / based on the vertical synchronization signal VS. Displayed for 300 seconds.

このような態様としても、記録媒体上に保存する動画データの量を少なくしつつ、看取者が動画ぼけやフリッカを感じにくい動画を表示することができる。   Even in such an aspect, it is possible to display a moving image in which the viewer does not feel moving image blur or flicker while reducing the amount of moving image data stored on the recording medium.

C.第3実施例:
第3実施例では、撮像素子200からの信号ではなく、他の映像再生機器から受け取る映像信号に基づいて第2の動画データを記録媒体に記録する処理について説明する。他の映像再生機器から映像信号を受け取る点、その映像信号で入力される動画データが特定のフレームレートで各フレーム画像を記録している点、そして図2のステップS30〜S40の処理が行われない点以外は、第3実施例は、第1実施例と同じである。
C. Third embodiment:
In the third embodiment, a process of recording the second moving image data on a recording medium based on a video signal received from another video playback device, not a signal from the image sensor 200 will be described. The point at which a video signal is received from another video playback device, the point that the moving image data input by the video signal records each frame image at a specific frame rate, and the processes of steps S30 to S40 in FIG. 2 are performed. Except for the absence, the third embodiment is the same as the first embodiment.

外部の第1の映像再生機器20から出力され、入出力端子600を介してデジタルビデオカメラ10に入力される第1の外部映像信号Sv1は(図1参照)、NTSC方式の映像信号である。NTSC方式においては、フレームレートは29.97fpsである。そして、表示機器における画像の表示はインターレース方式で行われる。このため、1本おきの走査線で表示され、1個の「フレーム」の半分の情報量を有する「フィールド」の周波数は、29.97Hzの2倍の59.94Hz、すなわち、約60Hzである。   The first external video signal Sv1 output from the first external video playback device 20 and input to the digital video camera 10 via the input / output terminal 600 (see FIG. 1) is an NTSC video signal. In the NTSC system, the frame rate is 29.97 fps. And the display of the image in a display apparatus is performed by the interlace system. For this reason, the frequency of the “field” that is displayed by every other scanning line and has half the amount of information of one “frame” is 59.94 Hz that is twice 29.97 Hz, that is, about 60 Hz. .

図11は、第3実施例において、図2のステップS10で第1の外部映像信号Sv1に基づいて生成される第1の動画データD1nの内容を示す図である。図11における各要素の表記方法は図3と同じである。垂直同期信号VSの周波数は、第1実施例で説明したとおり300Hzである。一方、NTSC方式の外部映像信号Sv1において第1の動画データD1nのフレーム画像データに相当するのは、フィールドの画像データである。このフィールドの画像データは、外部映像信号Sv1においては、前述のように約60Hzの頻度でしか存在しない。このため、ステップS10で外部からの映像信号に基づいて生成される第1の動画データD1nには、各フレーム画像データF1−0,F1−1等が、垂直同期信号VSのパルスのうち5個に1個の周期を有するパルスに対応づけられて記録される。   FIG. 11 is a diagram showing the contents of the first moving image data D1n generated based on the first external video signal Sv1 in step S10 of FIG. 2 in the third embodiment. The notation of each element in FIG. 11 is the same as in FIG. The frequency of the vertical synchronization signal VS is 300 Hz as described in the first embodiment. On the other hand, in the NTSC external video signal Sv1, the image data of the field corresponds to the frame image data of the first moving image data D1n. The image data of this field exists only at a frequency of about 60 Hz as described above in the external video signal Sv1. For this reason, in the first moving image data D1n generated based on the video signal from the outside in step S10, each frame image data F1-0, F1-1, etc. includes five of the pulses of the vertical synchronization signal VS. Are recorded in association with pulses having one period.

外部からの映像信号に基づいて、図2の処理によって第2の動画データを生成する場合には、図2の処理のうち、ステップS30〜S40の処理が行われない。そして、第1の動画データが格納しているフレーム画像データF1−0,F1−1等はすべて、ステップS20およびS70において順に基準フレームデータとして選択される。その結果、第1の動画データが格納しているすべてのフレーム画像データに対して、ステップS50およびS60で、表示時間Tdと圧縮率Rcpが決定される。   When the second moving image data is generated by the process of FIG. 2 based on the video signal from the outside, steps S30 to S40 of the process of FIG. 2 are not performed. All the frame image data F1-0, F1-1 and the like stored in the first moving image data are sequentially selected as the reference frame data in steps S20 and S70. As a result, the display time Td and the compression rate Rcp are determined in steps S50 and S60 for all the frame image data stored in the first moving image data.

第1の動画データD1nにおいてはフレーム画像データF1−0,F1−1等は、垂直同期信号VSのパルス5個に1個の割合で等間隔で存在する。このため、各フレーム画像データの表示時間Tdは一定値5/300秒である。また、図5のグラフを参照して表示時間Tdに基づいて定められる圧縮率Rcpも一定値25となる。   In the first moving image data D1n, the frame image data F1-0, F1-1, and the like are present at equal intervals at a rate of one for every five pulses of the vertical synchronization signal VS. For this reason, the display time Td of each frame image data is a fixed value of 5/300 seconds. In addition, the compression rate Rcp determined based on the display time Td with reference to the graph of FIG.

図12は、図2のステップS100で第1の外部映像信号Sv1に基づいて生成される第2の動画データD2nの内容を示す図である。図12における各要素の表記方法は図7と同じである。第1の動画データD1nのフレーム画像データF1−0,F1−1等が垂直同期信号VSのパルス5個に1個の割合で等間隔で存在することから(図11参照)、第2の動画データD2nにおいては、各フレーム画像データに対応する継続フレーム数Nfcは、一定値5である。   FIG. 12 is a diagram showing the contents of the second moving image data D2n generated based on the first external video signal Sv1 in step S100 of FIG. The notation method of each element in FIG. 12 is the same as FIG. Since the frame image data F1-0, F1-1, and the like of the first moving image data D1n are present at equal intervals at a rate of one for every five pulses of the vertical synchronization signal VS (see FIG. 11), the second moving image In the data D2n, the continuation frame number Nfc corresponding to each frame image data is a fixed value 5.

また、図12の下段に示すように、第1の動画データD1nのフレーム画像データF1−0,F1−1等に対応する圧縮率Rcpは、一定値25である。そして、図12の中段に示す第2の動画データD2nのフレーム画像データF2−0,F2−1等は、第1の動画データD1nのフレーム画像データF1−0,F1−1等をそれぞれ1/25にデータ圧縮して生成されたものである。   As shown in the lower part of FIG. 12, the compression rate Rcp corresponding to the frame image data F1-0, F1-1, etc. of the first moving image data D1n is a constant value 25. The frame image data F2-0, F2-1, etc. of the second moving image data D2n shown in the middle part of FIG. 25 is generated by data compression.

次に、PAL方式の映像信号が入力される場合について説明する。外部の第2の映像再生機器30から出力され、入出力端子600を介してデジタルビデオカメラ10に入力される第2の外部映像信号Sv2は(図1参照)、PAL方式の映像信号である。PAL方式においては、フレームレートは25fpsである。そして、表示機器における画像の表示はインターレース方式で行われる。このため、フィールドの周波数は、25Hzの2倍の50Hzである。   Next, a case where a PAL video signal is input will be described. The second external video signal Sv2 output from the external second video playback device 30 and input to the digital video camera 10 via the input / output terminal 600 (see FIG. 1) is a PAL video signal. In the PAL system, the frame rate is 25 fps. And the display of the image in a display apparatus is performed by the interlace system. For this reason, the frequency of the field is 50 Hz, which is twice 25 Hz.

図13は、第3実施例において、図2のステップS10で第2の外部映像信号Sv2に基づいて生成される第1の動画データD1pの内容を示す図である。図13における各要素の表記方法は図3と同じである。垂直同期信号VSの周波数は300Hzである。一方、PAL方式の外部映像信号Sv2においては、フレーム画像データが25Hzで格納されている。このため、第1の動画データD1pのフレーム画像データに相当するフィールドの画像データは、外部映像信号Sv2においては、50Hzの頻度でしか存在しない。このため、ステップS10で生成される第1の動画データD1pには、各フレーム画像データF1−0,F1−1等が、垂直同期信号VSのパルスのうち6個に1個の周期を有するパルスに対応づけられて記録される。   FIG. 13 is a diagram showing the contents of the first moving image data D1p generated based on the second external video signal Sv2 in step S10 of FIG. 2 in the third embodiment. The notation method of each element in FIG. 13 is the same as FIG. The frequency of the vertical synchronization signal VS is 300 Hz. On the other hand, frame image data is stored at 25 Hz in the PAL external video signal Sv2. For this reason, the image data of the field corresponding to the frame image data of the first moving image data D1p exists only at a frequency of 50 Hz in the external video signal Sv2. Therefore, in the first moving image data D1p generated in step S10, each frame image data F1-0, F1-1, etc. is a pulse having a cycle of one out of six pulses of the vertical synchronization signal VS. Corresponding to and recorded.

第2の動画データを生成する際には、前述のように、第1の動画データD1pが格納しているフレーム画像データF1−0,F1−1等はすべて基準フレームデータとして選択される。その結果、第1の動画データD1pが格納しているすべてのフレーム画像データに対して、図2のステップS50およびS60で、表示時間Tdと圧縮率Rcpが決定される。フレーム画像データF1−0,F1−1等は、垂直同期信号VSのパルス6個に1個の割合で等間隔で存在することから、各フレーム画像データの表示時間Tdは一定値6/300秒である。また、圧縮率Rcpも一定値20となる。   When generating the second moving image data, the frame image data F1-0, F1-1, etc. stored in the first moving image data D1p are all selected as the reference frame data as described above. As a result, the display time Td and the compression rate Rcp are determined in steps S50 and S60 of FIG. 2 for all the frame image data stored in the first moving image data D1p. Since the frame image data F1-0, F1-1, and the like are present at equal intervals at a rate of one for every six pulses of the vertical synchronization signal VS, the display time Td of each frame image data is a fixed value 6/300 seconds. It is. The compression rate Rcp is also a constant value 20.

図14は、第2の外部映像信号Sv2に基づいて生成される第2の動画データD2pの内容を示す図である。図12における各要素の表記方法は図7と同じである。第1の動画データD1pのフレーム画像データF1−0,F1−1等が垂直同期信号VSのパルス6個に1個の割合で等間隔で存在することから(図13参照)、第2の動画データD2pにおいては、各フレーム画像データに対応する継続フレーム数Nfcは、一定値6である。   FIG. 14 is a diagram showing the contents of the second moving image data D2p generated based on the second external video signal Sv2. The notation method of each element in FIG. 12 is the same as FIG. Since the frame image data F1-0, F1-1, etc. of the first moving image data D1p are present at equal intervals at a ratio of 1 to 6 pulses of the vertical synchronization signal VS (see FIG. 13), the second moving image data In the data D2p, the continuation frame number Nfc corresponding to each frame image data is a fixed value 6.

また、図14の下段に示すように、第1の動画データD1pのフレーム画像データF1−0,F1−1等に対応する圧縮率Rcpは、一定値20である。そして、図14の中段に示す第2の動画データD2pのフレーム画像データF2−0,F2−1等は、第1の動画データD1pのフレーム画像データF1−0,F1−1等をそれぞれ1/20にデータ圧縮して生成されたものである。   As shown in the lower part of FIG. 14, the compression rate Rcp corresponding to the frame image data F1-0, F1-1, etc. of the first moving image data D1p is a constant value 20. The frame image data F2-0, F2-1, etc. of the second moving image data D2p shown in the middle part of FIG. 14 is 1 / frame frame data F1-0, F1-1, etc. of the first moving image data D1p, respectively. 20 is generated by data compression.

第3実施例の実施例においては、第1の動画データは、300Hzの周波数(頻度)でフレーム画像データF1−0,F1−1等を保持することができる。このため、NTSC方式の映像信号に基づいて第2の動画データを生成する場合にも、PAL方式の映像信号に基づいて第2の動画データを生成する場合にも、新たなフレーム画像を合成することなく、容易に第2の動画データを生成することができる。   In the third embodiment, the first moving image data can hold frame image data F1-0, F1-1, etc. at a frequency (frequency) of 300 Hz. Therefore, a new frame image is synthesized both when generating the second moving image data based on the NTSC video signal and when generating the second moving image data based on the PAL video signal. Therefore, the second moving image data can be easily generated.

D.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
D. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

D1.変形例1:
上記実施例では、第1の動画データにおいては、フレーム画像データは300Hzで記録された。しかし、第1の動画データにおいて、フレーム画像データは他の周波数(頻度)で記録することもできる。ただし、フレーム画像データを(300×n)Hzで記録できる態様とすれば(nは正の整数)、NTSC方式の映像信号にもPAL方式方式の映像信号にも対応することができる。また、nを2以上とすれば、ホールド型の表示装置において動画を再生する場合にも、看取者にほとんど動画ぼけやフリッカを感じさせることがない。
D1. Modification 1:
In the above embodiment, the frame image data is recorded at 300 Hz in the first moving image data. However, in the first moving image data, the frame image data can be recorded at other frequencies (frequency). However, if the frame image data can be recorded at (300 × n) Hz (n is a positive integer), both the NTSC video signal and the PAL video signal can be handled. Further, when n is 2 or more, even when a moving image is reproduced on the hold type display device, the viewer hardly feels moving image blur or flicker.

D2.変形例2:
上記実施例では、第2の動画データは、1秒当たりの最大フレーム数Nfcmaxと、継続フレーム数Nfcと、によって、各フレーム画像を表示すべき表示時間Tdの情報を保持していた。しかし、各フレーム画像を表示すべき表示時間Tdの情報は、生成される動画データにおいて、直接、表示時間Tdのデータを保持するなどの他の方法で保持することもできる。すなわち、第2の動画データは、実質的にフレームレートの情報を保持する様々な態様とすることができる。たとえば、フレームレートは、単位時間(たとえば、1秒や1分)あたりに記録されまたは表示されるフレームの数とすることができる。また、フレームレートは、上述のように、フレーム画像の表示時間とすして保持することができる。そして、フレームレートは、単位時間の情報と、その単位時間の何倍だけフレーム画像を表示すべきかの情報(たとえば、継続フレーム数Nfc)として保持することもできる。
D2. Modification 2:
In the above-described embodiment, the second moving image data holds information on the display time Td in which each frame image is to be displayed based on the maximum frame number Nfcmax per second and the continuation frame number Nfc. However, the information of the display time Td for displaying each frame image can be held by other methods such as holding the data of the display time Td directly in the generated moving image data. In other words, the second moving image data can be in various forms that substantially hold information on the frame rate. For example, the frame rate can be the number of frames recorded or displayed per unit time (eg, 1 second or 1 minute). Further, as described above, the frame rate can be held as the display time of the frame image. The frame rate can also be held as information on unit time and information on how many times the unit time should display the frame image (for example, the number of continuous frames Nfc).

D3.変形例3:
上記実施例では、図5のグラフを参照して、表示時間Tdに応じて圧縮率Rcpが定められていた。しかし、圧縮率Rcpは、他の方法で定めることもできる。たとえば、表示時間Tdと圧縮率Rcpの関係は、表示時間Tdの大きさによるより大まかな複数の区分(たとえば4〜8区分)に応じて圧縮率Rcpが定められている「表」の形で、保持されることができる。また、表示時間Tdと圧縮率Rcpの関係は、数式の形で保持されることができる。さらに、表示時間Tdと圧縮率Rcpの関係は、継続フレーム数Nfcと圧縮率Rcpとの関係として、グラフ、表、または数式の形で保持されることができる。
D3. Modification 3:
In the above embodiment, the compression rate Rcp is determined according to the display time Td with reference to the graph of FIG. However, the compression rate Rcp can be determined by other methods. For example, the relationship between the display time Td and the compression rate Rcp is in the form of a “table” in which the compression rate Rcp is determined according to a plurality of sections (for example, 4 to 8 sections) roughly based on the size of the display time Td. Can be held. Further, the relationship between the display time Td and the compression rate Rcp can be held in the form of a mathematical expression. Furthermore, the relationship between the display time Td and the compression rate Rcp can be held in the form of a graph, a table, or an equation as the relationship between the number of continuing frames Nfc and the compression rate Rcp.

上記実施例では、表示時間Tdの増加に対して圧縮率Rcpは下に凸の単調減少であった。しかし、表示時間Tdまたは継続フレーム数Nfcに対する圧縮率Rcpの関係は、他の関係とすることができる。すなわち、図5において破線で示すグラフC2のように、圧縮率Rcpが、表示時間Tdまたは継続フレーム数Nfcの増加に対して、直線的に減少する関係とすることができる。また、図5において一点鎖線で示すグラフC3のように、圧縮率Rcpが、表示時間Tdまたは継続フレーム数Nfcの増加に対して、上に凸の曲線で減少する関係とすることもできる。   In the above embodiment, the compression rate Rcp was a monotonously decreasing convex with increasing display time Td. However, the relationship of the compression rate Rcp to the display time Td or the number of continuing frames Nfc can be another relationship. That is, as indicated by a broken line C2 in FIG. 5, the compression rate Rcp can be linearly decreased with respect to the increase in the display time Td or the number of continuous frames Nfc. Further, as indicated by a dashed line C3 in FIG. 5, the compression rate Rcp can be set so as to decrease with an upwardly convex curve as the display time Td or the number of continuous frames Nfc increases.

ただし、圧縮率Rcpが、表示時間Tdまたは継続フレーム数Nfcの増加に対して、同じ値を保つかまたは減少する関係であることが好ましい。継続して表示される時間が長いほど、画像の品質が低いと看取者の目に付くためである。   However, it is preferable that the compression rate Rcp maintain the same value or decrease as the display time Td or the number of continuing frames Nfc increases. This is because the longer the continuous display time, the more noticeable that the image quality is low.

D4.変形例4:
上記実施例においては、継続フレーム数Nfcの値は、1秒当たりの最大フレーム数Nfcmax以下である。すなわち、第2の動画データの一つのフレーム画像は、最大1秒間、表示される。しかし、一つのフレーム画像を継続して表示する時間は、1秒未満の時間区間とすることもでき、1秒未満の時間区間とすることもできる。すなわち、継続フレーム数Nfcの最大数は任意の値に設定することができる。
D4. Modification 4:
In the above embodiment, the value of the continuation frame number Nfc is equal to or less than the maximum frame number Nfcmax per second. That is, one frame image of the second moving image data is displayed for a maximum of 1 second. However, the time for continuously displaying one frame image can be a time interval of less than 1 second, or a time interval of less than 1 second. That is, the maximum number of continuing frames Nfc can be set to an arbitrary value.

D5.変形例5:
上記第3実施例においては、第1の外部映像信号Sv1や第2の外部映像信号Sv2が有しているフィールドのデータを、第1の動画データのフレーム画像データとして、垂直同期信号VSの5個または6個おきのパルスと対応づけて記録した(図11および図13参照)。しかし、外部からの映像信号に基づいて第1の動画データを生成する際には、他の態様で生成することもできる。
D5. Modification 5:
In the third embodiment, the field data included in the first external video signal Sv1 and the second external video signal Sv2 is used as the frame image data of the first moving image data, and 5 of the vertical synchronization signal VS. Recording was performed in association with every other or every sixth pulse (see FIGS. 11 and 13). However, when the first moving image data is generated based on the video signal from the outside, it can be generated in another manner.

たとえば、もとの映像信号Svにおいて画像データがFs[Hz]で記録されており、生成する画像データD1の垂直同期信号VSの周波数がFvsであるときには、映像信号Svが保持しているそれぞれのフィールドの画像データを(Fvs/Fs)個だけ複製する。そして、図3のように、それらの画像データを垂直同期信号VSの各パルスと対応づけて、第1の動画データのフィールド画像データとすることもできる。そのような態様においては、垂直同期信号VSの各パルスについて、対応するフィールド画像データF1−0,F1−1等が存在する。また、そのような態様においては、第2の動画データを生成する処理のうち(図2参照)、ステップS20以下の処理は、第1実施例で説明した内容と同じようにして実行することができる。   For example, when image data is recorded in Fs [Hz] in the original video signal Sv and the frequency of the vertical synchronization signal VS of the generated image data D1 is Fvs, each of the video signals Sv holds. Duplicate field image data (Fvs / Fs). Then, as shown in FIG. 3, the image data can be associated with each pulse of the vertical synchronization signal VS to be field image data of the first moving image data. In such an aspect, corresponding field image data F1-0, F1-1, etc. exist for each pulse of the vertical synchronization signal VS. Moreover, in such an aspect, among the processes for generating the second moving image data (see FIG. 2), the processes after step S20 can be executed in the same manner as described in the first embodiment. it can.

D6.変形例6:
上記第1実施例では、記録媒体400内の第2の動画データD2を、デジタルビデオカメラ10が表示デバイス500上で再生する際の処理について説明した。しかし、他の映像再生機器において映像を再生する場合にも、第1実施例と同様の処理によって再生することができる。そのような映像再生機器は、撮像素子200、ならびに映像処理エンジン部100の機能部としての動画解析部110および動画生成部120を備えない態様とすることができる。
D6. Modification 6:
In the first embodiment, the processing when the digital video camera 10 reproduces the second moving image data D2 in the recording medium 400 on the display device 500 has been described. However, when video is played back on other video playback devices, it can be played back by the same processing as in the first embodiment. Such a video reproduction device can be configured to include no image sensor 200, and the moving image analysis unit 110 and the moving image generation unit 120 as functional units of the video processing engine unit 100.

D7.変形例7:
上記実施例では、表示デバイス500は、液晶ディスプレイであった。しかし、画像データに基づく画像を表示する表示部は、ELディスプレイ、プラズマディスプレイなどの他の構成とすることができる。ただし、本発明は、画像が書き換えられるまで、前の画像を表示し続けるホールド型の表示装置に適用すれば、より効果的である。ホールド型の表示装置において動画を表示する場合に看取者(ユーザ)が感じる動きぼけやフリッカ(ちらつき)を低減することができるためである。
D7. Modification 7:
In the above embodiment, the display device 500 is a liquid crystal display. However, the display unit that displays an image based on the image data can have another configuration such as an EL display or a plasma display. However, the present invention is more effective when applied to a hold-type display device that continues to display the previous image until the image is rewritten. This is because motion blur and flicker (flicker) felt by a viewer (user) when displaying a moving image on a hold-type display device can be reduced.

E8.変形例8:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、映像処理エンジン部100(図1)の機能の一部を、デジタルビデオカメラ10等の撮影機器に接続されたコンピュータが実行するようにすることもできる。
E8. Modification 8:
In the above embodiment, a part of the configuration realized by hardware may be replaced with software, and conversely, a part of the configuration realized by software may be replaced by hardware. For example, some of the functions of the video processing engine unit 100 (FIG. 1) may be executed by a computer connected to a photographing device such as the digital video camera 10.

このような機能を実現するコンピュータプログラムは、フロッピディスクやCD−ROM等の、コンピュータ読み取り可能な記録媒体に記録された形態で提供される。コンピュータは、その記録媒体からコンピュータプログラムを読み取って内部記憶装置または外部記憶装置に転送する。あるいは、通信経路を介してプログラム供給装置からコンピュータにコンピュータプログラムを供給するようにしてもよい。コンピュータプログラムの機能を実現する時には、内部記憶装置に格納されたコンピュータプログラムがコンピュータのマイクロプロセッサによって実行される。また、記録媒体に記録されたコンピュータプログラムをコンピュータが直接実行するようにしてもよい。   A computer program for realizing such a function is provided in a form recorded on a computer-readable recording medium such as a floppy disk or a CD-ROM. The computer reads the computer program from the recording medium and transfers it to an internal storage device or an external storage device. Or you may make it supply a computer program to a computer from a program supply apparatus via a communication path. When realizing the function of the computer program, the computer program stored in the internal storage device is executed by the microprocessor of the computer. The computer program recorded on the recording medium may be directly executed by the computer.

この明細書において、コンピュータとは、ハードウェア装置とオペレーションシステムとを含む概念であり、オペレーションシステムの制御の下で動作するハードウェア装置を意味している。コンピュータプログラムは、このようなコンピュータに、上述の各部の機能を実現させる。なお、上述の機能の一部は、アプリケーションプログラムでなく、オペレーションシステムによって実現されていても良い。   In this specification, the computer is a concept including a hardware device and an operation system, and means a hardware device that operates under the control of the operation system. The computer program causes such a computer to realize the functions of the above-described units. Note that some of the functions described above may be realized by an operation system instead of an application program.

なお、この発明において、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。   In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, An external storage device fixed to a computer such as a hard disk is also included.

図1は、本発明の実施例であるデジタルビデオカメラ10の構成を示すブロック図。FIG. 1 is a block diagram showing the configuration of a digital video camera 10 that is an embodiment of the present invention. デジタルビデオカメラ10によって動画を記録する際の処理を示すフローチャート。4 is a flowchart showing processing when a moving image is recorded by the digital video camera 10. 図2のステップS10において生成される第1の動画データD1の内容を示す図。The figure which shows the content of the 1st moving image data D1 produced | generated in step S10 of FIG. ステップS10で記録されたのフレーム画像の例を示す図。The figure which shows the example of the frame image recorded by step S10. 表示時間Tdと圧縮率Rcpの関係を示すグラフ。The graph which shows the relationship between display time Td and compression rate Rcp. 基準フレームデータに設定されたフレーム画像データと、第2の動画データD2に格納される圧縮されたフレーム画像データと、の例を示す図。The figure which shows the example of the frame image data set to the reference | standard frame data, and the compressed frame image data stored in the 2nd moving image data D2. ステップS100において生成される第2の動画データD2の内容を示す図。The figure which shows the content of the 2nd moving image data D2 produced | generated in step S100. 記録媒体400内の第2の動画データD2を、デジタルビデオカメラ10が表示デバイス500上で再生する際の処理を示すフローチャート。7 is a flowchart showing processing when the digital video camera 10 plays back the second moving image data D2 in the recording medium 400 on the display device 500. 第2の動画データD2に基づいてメモリ部300上に生成される第3の動画データD3を示す図。The figure which shows the 3rd moving image data D3 produced | generated on the memory part 300 based on the 2nd moving image data D2. 第2の動画データD2に基づいてメモリ部300上に生成される第3の動画データD4を示す図。The figure which shows the 3rd moving image data D4 produced | generated on the memory part 300 based on the 2nd moving image data D2. 第3実施例において、図2のステップS10で第1の外部映像信号Sv1に基づいて生成される第1の動画データD1nの内容を示す図。The figure which shows the content of the 1st moving image data D1n produced | generated based on 1st external video signal Sv1 in FIG.2 S10 in 3rd Example. 図2のステップS100で第1の外部映像信号Sv1に基づいて生成される第2の動画データD2nの内容を示す図。The figure which shows the content of the 2nd moving image data D2n produced | generated based on 1st external video signal Sv1 by step S100 of FIG. 第3実施例において、図2のステップS10で第2の外部映像信号Sv2に基づいて生成される第1の動画データD1pの内容を示す図。The figure which shows the content of the 1st moving image data D1p produced | generated based on 2nd external video signal Sv2 in FIG.2 S10 in 3rd Example. 第2の外部映像信号Sv2に基づいて生成される第2の動画データD2pの内容を示す図。The figure which shows the content of the 2nd moving image data D2p produced | generated based on 2nd external video signal Sv2.

符号の説明Explanation of symbols

10…デジタルビデオカメラ
20…第1の映像再生機器
30…第2の映像再生機器
100…映像処理エンジン部
110…動画解析部
120…動画記録部
130…画質補正部
140…画像伸長部
150…リサイズ部
160…フレーム解析部
170…表示ドライバ部
200…撮像素子
300…メモリ部
400…記録媒体
500…表示デバイス
600…入出力端子
C1…表示時間Tdに対する圧縮率Rcpの関係を示すグラフ
D1…第1の動画データ
D1n…NTSC方式の映像データに基づいて生成された第1の動画データ
D1p…PAL方式の映像データに基づいて生成された第1の動画データ
D2…第2の動画データ
D2n…NTSC方式の映像データに基づいて生成された第2の動画データ
D2p…PAL方式の映像データに基づいて生成された第2の動画データ
D3,D4…第3の動画データ
F1−0〜F1−9…第1の動画データのフレーム画像データ
F2−0〜F2−4…第2の動画データのフレーム画像データ
F3−0〜F3−4…第3の動画データのフレーム画像データ
F4−0〜F3−9…第4の動画データのフレーム画像データ
FD1…第1の動画データD1のフレーム画像データの集合
FD2…第2の動画データD2のフレーム画像データの集合
FD3…第3の動画データD3のフレーム画像データの集合
FD4…第3の動画データD4のフレーム画像データの集合
HS…水平同期信号
Nfc…継続フレーム数
Nfcmax…1秒あたりの最大フレーム数
Ph…前の画像の表示を終えてから次の画像を表示するまでの期間
Rcp…圧縮率
Sv1…第1の外部映像信号
Sv2…第2の外部映像信号
Td…表示時間
VS…垂直同期信号
Vm…動き量
DESCRIPTION OF SYMBOLS 10 ... Digital video camera 20 ... 1st video reproduction apparatus 30 ... 2nd video reproduction apparatus 100 ... Video processing engine part 110 ... Movie analysis part 120 ... Movie recording part 130 ... Image quality correction part 140 ... Image decompression part 150 ... Resizing Unit 160 ... frame analysis unit 170 ... display driver unit 200 ... imaging device 300 ... memory unit 400 ... recording medium 500 ... display device 600 ... input / output terminal C1 ... graph showing the relationship of compression rate Rcp to display time Td D1 ... first Video data D1n: first video data generated based on NTSC video data D1p: first video data generated based on PAL video data D2: second video data D2n: NTSC format Second video data generated based on the video data of D2p: PAL video data Second moving image data D3, D4 generated based on the third moving image data F1-0 to F1-9 frame image data of the first moving image data F2-0 to F2-4 second moving image data Frame image data F3-0 to F3-4 ... frame image data of third moving image data F4-0 to F3-9 ... frame image data of fourth moving image data FD1 ... frame image data of first moving image data D1 FD2 ... A set of frame image data of the second moving image data D2 FD3 ... A set of frame image data of the third moving image data D3 FD4 ... A set of frame image data of the third moving image data D4 HS ... Horizontal synchronization signal Nfc ... number of continuous frames Nfcmax ... maximum number of frames per second Ph ... period from display of previous image to display of next image Rcp ... compression Sv1 ... first external video signal Sv2 ... second external video signal Td ... display time VS ... vertical sync signal Vm ... motion amount

Claims (13)

動画を含む所定の時間区間の画像を記録した画像データを生成する画像データ生成装置であって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを生成する画像データ生成装置。
An image data generation device that generates image data in which an image of a predetermined time interval including a moving image is recorded,
Image data generation for generating image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image and data representing a frame rate associated with the data representing the frame image apparatus.
請求項1記載の装置であって、
複数の画像を第1の時間間隔で取得して複数の第1のフレーム画像データを生成する第1のフレームデータ生成部と、
前記第1のフレーム画像データの画像の基準画像からの動き量を計算する動き量計算部と、
前記動き量に基づいて、前記複数の第1のフレーム画像データの中から一部のフレーム画像データを選択するフレーム選択部と、
前記選択された第1のフレーム画像データの画像を表す第2のフレーム画像データと、前記フレームレートを表すデータとしての再生用データであって、前記画像データの再生時に前記第2のフレーム画像データの画像を表示すべき表示時間を表す再生用データと、を含むデータを、前記画像データとして生成する画像データ生成部と、を含む装置。
The apparatus of claim 1, comprising:
A first frame data generating unit that acquires a plurality of images at a first time interval and generates a plurality of first frame image data;
A motion amount calculation unit for calculating a motion amount from a reference image of the image of the first frame image data;
A frame selection unit that selects a part of the frame image data from the plurality of first frame image data based on the amount of movement;
Second frame image data representing an image of the selected first frame image data, and reproduction data as data representing the frame rate, wherein the second frame image data is reproduced when the image data is reproduced. An image data generation unit that generates data including reproduction data representing display time for displaying the image as the image data.
請求項2記載の装置であって、
前記動き量計算部は、前記動き量を計算する第1のフレーム画像データに対する前記基準画像として、それまでに前記フレーム選択部によって選択された第1のフレーム画像データのうちの一つの画像を使用して、前記動き量を計算する、装置。
The apparatus of claim 2, comprising:
The motion amount calculation unit uses one image of the first frame image data selected by the frame selection unit so far as the reference image for the first frame image data for calculating the motion amount. An apparatus for calculating the amount of movement.
請求項2記載の装置であって、さらに、
前記表示時間に基づいて、前記第2のフレーム画像データを生成する際の圧縮率を決定する圧縮率決定部と、
前記選択された第1のフレーム画像データを前記圧縮率に応じて圧縮して、前記第2のフレーム画像データを生成する第2のフレームデータ生成部と、を含み、
前記画像データ生成部は、前記画像データとして、前記圧縮率を表し前記第2のフレーム画像データに対応づけられた圧縮率データをさらに含む画像データを生成する、装置。
The apparatus of claim 2, further comprising:
A compression rate determination unit that determines a compression rate when generating the second frame image data based on the display time;
A second frame data generation unit that compresses the selected first frame image data according to the compression ratio and generates the second frame image data;
The image data generation unit generates image data that further includes compression rate data representing the compression rate and associated with the second frame image data as the image data.
請求項2記載の装置であって、さらに、
前記選択された第1のフレーム画像データF1と、前記選択された第1のフレーム画像データF0であって前記第1のフレーム画像データF1の直前に画像が取得された第1のフレーム画像データF0と、の前記画像の取得時刻の差に基づいて、前記第1のフレーム画像データF0に対応する前記第2のフレーム画像データの画像の前記表示時間を決定する表示時間決定部を備える装置。
The apparatus of claim 2, further comprising:
The selected first frame image data F1 and the first frame image data F0 which is the selected first frame image data F0 and an image is acquired immediately before the first frame image data F1. And a display time determining unit that determines the display time of the image of the second frame image data corresponding to the first frame image data F0 based on the difference in acquisition time of the image.
請求項2ないし5記載の装置であって、
前記第1の時間間隔は1/(300×n)秒(nは、正の整数)である、装置。
An apparatus according to claims 2-5, comprising:
The first time interval is 1 / (300 × n) seconds (n is a positive integer).
動画を含む所定の時間区間の画像を記録した画像データに基づいて画像を再生する画像再生装置であって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを取得する画像データ取得部と、
前記フレーム画像を表すデータに基づいて、前記フレームレートに応じた時間だけ前記フレーム画像を表示して、前記画像データを再生する画像データ再生部と、を備える装置。
An image reproduction device for reproducing an image based on image data in which an image of a predetermined time interval including a moving image is recorded,
Image data acquisition for acquiring image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image And
An image data reproducing unit that displays the frame image for a time corresponding to the frame rate based on data representing the frame image, and reproduces the image data.
請求項7記載の装置であって、
前記フレーム画像を表すデータは、前記フレーム画像を表す他のデータを圧縮して生成されたデータであり、
前記画像データは、さらに、前記圧縮の際の圧縮率を表し、前記フレーム画像を表すデータに対応づけられたデータを含み、
前記画像再生装置は、さらに、
前記フレーム画像を表すデータを、前記圧縮率を表すデータに基づいて解凍する解凍部を含み、
前記画像データ再生部は、前記画像を前記フレームレートに応じた時間だけ表示する際に、前記解凍されたデータに基づいて画像を表示する、装置。
The apparatus of claim 7, wherein
The data representing the frame image is data generated by compressing other data representing the frame image,
The image data further represents a compression rate at the time of compression, and includes data associated with data representing the frame image,
The image playback device further includes:
A decompression unit for decompressing the data representing the frame image based on the data representing the compression ratio;
The image data reproduction unit displays an image based on the decompressed data when displaying the image for a time corresponding to the frame rate.
動画を含む所定の時間区間の画像を記録した画像データを生成する方法であって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを生成する方法。
A method for generating image data in which an image of a predetermined time interval including a moving image is recorded,
A method for generating image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image.
動画を含む所定の時間区間の画像を記録した画像データに基づいて画像を再生する方法であって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを取得する工程と、
前記フレーム画像を表すデータに基づいて、前記フレームレートに応じた時間だけ前記フレーム画像を表示して、前記画像データを再生する工程と、含む方法。
A method of reproducing an image based on image data in which an image of a predetermined time interval including a moving image is recorded,
Obtaining image data including data representing a frame image constituting at least a part of an image of a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image;
Displaying the frame image for a time corresponding to the frame rate based on the data representing the frame image, and reproducing the image data.
動画を含む所定の時間区間の画像を記録した画像データを記録した記録媒体であって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを記録した記録媒体。
A recording medium recording image data in which an image of a predetermined time interval including a moving image is recorded,
A recording medium recording image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image.
コンピュータを備えた画像データ生成装置に、動画を含む所定の時間区間の画像を記録した画像データを生成させるためのコンピュータプログラムであって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを生成する機能を前記コンピュータに実現させるコンピュータプログラム。
A computer program for causing an image data generation device including a computer to generate image data in which an image of a predetermined time interval including a moving image is recorded,
A function of generating image data including data representing a frame image constituting at least a part of an image of a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image; A computer program to be realized by a computer.
コンピュータを備えた画像データ再生装置に、動画を含む所定の時間区間の画像を記録した画像データに基づいて画像を再生させるためのコンピュータプログラムであって、
動画を含む所定の時間区間の画像の少なくとも一部を構成するフレーム画像を表すデータと、前記フレーム画像を表すデータに対応づけられフレームレートを表すデータと、を含む画像データを取得する機能と、
前記フレーム画像を表すデータに基づいて、前記フレームレートに応じた時間だけ前記フレーム画像を表示して、前記画像データを再生する機能と、を前記コンピュータに実現させるコンピュータプログラム。
A computer program for causing an image data reproduction device provided with a computer to reproduce an image based on image data in which an image of a predetermined time interval including a moving image is recorded,
A function of obtaining image data including data representing a frame image constituting at least a part of an image in a predetermined time interval including a moving image, and data representing a frame rate associated with the data representing the frame image;
A computer program for causing the computer to realize a function of displaying the frame image for a time corresponding to the frame rate and reproducing the image data based on data representing the frame image.
JP2006210776A 2006-08-02 2006-08-02 Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program Withdrawn JP2008039890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006210776A JP2008039890A (en) 2006-08-02 2006-08-02 Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006210776A JP2008039890A (en) 2006-08-02 2006-08-02 Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program

Publications (1)

Publication Number Publication Date
JP2008039890A true JP2008039890A (en) 2008-02-21

Family

ID=39175006

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006210776A Withdrawn JP2008039890A (en) 2006-08-02 2006-08-02 Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program

Country Status (1)

Country Link
JP (1) JP2008039890A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197597A (en) * 2009-02-24 2010-09-09 Canon Inc Display control device and display control method
WO2012132624A1 (en) * 2011-03-29 2012-10-04 ルネサスエレクトロニクス株式会社 Display equipment and display equipment control circuit

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010197597A (en) * 2009-02-24 2010-09-09 Canon Inc Display control device and display control method
WO2012132624A1 (en) * 2011-03-29 2012-10-04 ルネサスエレクトロニクス株式会社 Display equipment and display equipment control circuit
CN103443843A (en) * 2011-03-29 2013-12-11 瑞萨电子株式会社 Display equipment and display equipment control circuit
US9691339B2 (en) 2011-03-29 2017-06-27 Renesas Electronics Corporation Display apparatus and display apparatus control circuit
US9959796B2 (en) 2011-03-29 2018-05-01 Renesas Electronics Corporation Display apparatus and display apparatus control circuit

Similar Documents

Publication Publication Date Title
KR100834567B1 (en) Video display device and method for video display
JP4306671B2 (en) Moving image display device and moving image display method
US8077258B2 (en) Image display apparatus, signal processing apparatus, image processing method, and computer program product
US8593575B2 (en) Video display apparatus for shortened-delay processing of a video signal and video processing method
WO2012107985A1 (en) Image signal processing device and image signal processing method
JP2006246307A (en) Image data processing apparatus
JP2009296081A (en) Video image reproducer
JP4103356B2 (en) Hold-type image display device
JP5023355B2 (en) Liquid crystal display device, liquid crystal display method and program
JP2008039890A (en) Image data generating device, image reproducing device, image data generating method, image reproducing method, recording medium, and computer program
JP4561452B2 (en) IMAGING DEVICE, VIDEO OUTPUT METHOD, AND VIDEO REPRODUCTION PROGRAM
JP5003063B2 (en) Moving image display apparatus and moving image display method.
JP6103850B2 (en) Display device and control method thereof
JP2008058483A (en) Animation image display device and method
JP2005026885A (en) Television receiver and its control method
JP2000115694A (en) Image data recording method and device thereof, image data reproducing method and device thereof information recording medium and computer-readable recording medium
JP2014216668A (en) Imaging apparatus
JP5259867B2 (en) Video display device and video processing method
JP3882548B2 (en) Video display device
JP2006270160A (en) Image data processing apparatus
JP2007240735A (en) Setting of adjustment processing for moving image
JPH11146234A (en) Digital camera
JP2003102006A (en) Method and apparatus for compressing moving picture
EP1990803A1 (en) Method of high speed video playback and video playback apparatus using the same
JP3430278B2 (en) Electronic imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090529

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20111128