JP2010136387A - Still image generator, still-image generating program and method for generating still image - Google Patents

Still image generator, still-image generating program and method for generating still image Download PDF

Info

Publication number
JP2010136387A
JP2010136387A JP2009286047A JP2009286047A JP2010136387A JP 2010136387 A JP2010136387 A JP 2010136387A JP 2009286047 A JP2009286047 A JP 2009286047A JP 2009286047 A JP2009286047 A JP 2009286047A JP 2010136387 A JP2010136387 A JP 2010136387A
Authority
JP
Japan
Prior art keywords
image
still image
still
processing
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009286047A
Other languages
Japanese (ja)
Other versions
JP5120369B2 (en
Inventor
Keiichi Imamura
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009286047A priority Critical patent/JP5120369B2/en
Publication of JP2010136387A publication Critical patent/JP2010136387A/en
Application granted granted Critical
Publication of JP5120369B2 publication Critical patent/JP5120369B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a still image composed of proper image quality from a frame image constituting an animation. <P>SOLUTION: A first contrast curve A1 for a still image is read from a ROM, while a second contrast curve A2 for an animation is read. The reversed curve of the read second contrast curve A2 is calculated, and the calculated reversed curve is used as a third contrast curve. The third contrast curve A3 is multiplied by the first contrast curve A1, and the obtained value is used as a fourth contrast curve. Accordingly, the fourth contrast curve A4 is obtained. The fourth contrast curve A4 is applied to the frame signal of the previously read and expanded animation, and the still image is generated by carrying out a contrast-conversion processing (step S7). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画を構成する任意のフレーム画像から静止画を生成する静止画生成装置、静止画生成プログラム及び静止画生成方法に関する。   The present invention relates to a still image generation device, a still image generation program, and a still image generation method that generate a still image from an arbitrary frame image constituting a moving image.

従来、予め動画撮影してメモリに記憶した動画から静止画を生成する静止画生成装置が提案されるに至っている。この静止画生成装置は、ユーザがメモリに記憶されている動画データ中の印刷すべきフレームを指定すると、この指定された印刷すべきフレームの位置情報が保存される。そして、この保存されたフレームの位置情報に基づいて、メモリから動画データを読み出し、動画データ中のフレーム位置情報により特定されるフレームの動画データから静止画データを生成する。この生成された静止画データを、インターフェイスを介してプリンタに送ることにより、動画データ中の任意のフレーム画像を静止画として印刷出力することを可能にするものである(例えば、特許文献1参照。)。   2. Description of the Related Art Conventionally, a still image generating apparatus that generates a still image from a moving image that has been captured in advance and stored in a memory has been proposed. When the user designates a frame to be printed in the moving image data stored in the memory, the still image generating apparatus stores the position information of the designated frame to be printed. Then, the moving image data is read from the memory based on the stored frame position information, and still image data is generated from the moving image data of the frame specified by the frame position information in the moving image data. By sending the generated still image data to a printer via an interface, any frame image in the moving image data can be printed and output as a still image (see, for example, Patent Document 1). ).

特開2004−179823号公報JP 2004-179823 A

しかしながら、動画撮影してメモリに動画データを記憶させる際には、これが動画として家庭用のTV画面に投影された際、該家庭用のTV画面上で最適画質となるように各種画像処理が施される。すなわち、家庭用のTVの画質は、モデルやその調整値により一概には言えないものの、概してハイキー/ハイコントラストで高彩度、つまり派手目の絵作りがなされるように、工場初期値が調整されて出荷されている。したがって、このような家庭用のTV画面上で再生された場合に、最適画質となるように動画の各種画質パラメータが調整されてメモリに記憶されており、例えば動画のコントラスト、彩度、シャープネスといった画質パラメータは静止画のそれに比較すると低めの値をとっている。つまり、家庭用のTV画面上で派手目に演出再生されてしまうことを予め想定し、地味目の絵作りがなされているのである。   However, when a moving image is shot and the moving image data is stored in the memory, various image processing is performed so that when the moving image is projected as a moving image on a home TV screen, the image quality is optimized on the home TV screen. Is done. In other words, although the image quality of a TV for home use cannot be generally defined by the model and its adjustment value, the factory default value is adjusted so that high saturation / high-saturation, that is, flashy image creation, is generally achieved with high key / high contrast. It has been shipped. Therefore, when played on such a home TV screen, various image quality parameters of the moving image are adjusted and stored in the memory so that the optimum image quality is obtained. For example, the contrast, saturation, sharpness of the moving image, etc. The image quality parameter has a lower value than that of a still image. In other words, it is assumed that it will be produced and reproduced on the home TV screen in advance.

したがって、予め画質調整された動画のフレームを前述した従来の静止画生成装置のように、そのまま静止画として印刷出力したり、パソコンの画面に表示出力した場合、画像が「暗い」「ぼやっとしている」「鮮やかさが足りない」といった印象を与える結果となり、適正な画質からなる静止画が得られないこととなる。   Therefore, when a frame of a moving image whose image quality has been adjusted in advance is printed and output as a still image as it is like the conventional still image generation device described above, or displayed on a personal computer screen, the image is "dark" This results in the impression that “there is a lack of vividness”, and still images with appropriate image quality cannot be obtained.

本発明は、かかる従来の課題に鑑みてなされたものであり、動画を構成するフレーム画像から適正な画質からなる静止画を生成することのできる静止画生成装置、静止画生成プログラム及び静止画生成方法を提供することを目的とする。   The present invention has been made in view of such a conventional problem, and is a still image generation device, a still image generation program, and a still image generation capable of generating a still image having an appropriate image quality from frame images constituting a moving image. It aims to provide a method.

前記課題を解決するために請求項1記載の発明に係る静止画生成装置は、複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得手段と、この取得手段により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成手段とを備える。したがって、任意のフレーム画像から静止画を得ようとする動画に如何なる画質パラメータで動画用の画像処理が施されていても、取得手段により取得したフレーム画像に所定の画像処理が施されることにより、静止画用の画像処理が施された適正な画質からなる静止画を生成することができる。   In order to solve the above-mentioned problem, the still image generating apparatus according to the first aspect of the present invention is an acquisition unit that acquires a frame image from a moving image that is composed of a plurality of frame images and that has been subjected to image processing for moving images; And still image generation means for generating a still image subjected to image processing for still images by performing predetermined image processing on the frame image subjected to the image processing for moving image acquired by the means. Therefore, no matter what image quality parameters are applied to a moving image for which a still image is to be obtained from an arbitrary frame image, predetermined image processing is performed on the frame image acquired by the acquiring means. It is possible to generate a still image having an appropriate image quality that has been subjected to image processing for a still image.

また、請求項2記載の発明に係る静止画生成装置は、動画を撮影して前記動画用の画像処理を施す動画撮影手段と、静止画を撮影して前記静止画用の画像処理を施す静止画撮影手段と、前記各撮影手段により撮影されて前記各画像処理が施された動画及び静止画を記録する記録手段とを備え、前記取得手段は、前記記録手段に記録された動画から前記フレーム画像を取得し、前記記録手段は、前記静止画生成手段により生成された静止画を更に記録する。したがって、動画を撮影して動画用の画像処理を施す動画撮影手段と静止画を撮影して静止画用の画像処理を施す静止画撮影手段とを有するデジタルカメラ等において、動画撮影手段により撮影された動画を構成するフレーム画像から、当該デジタルカメラの静止画撮影手段により撮影した静止画と同等の画質特性を有する静止画を生成することができる。   According to a second aspect of the present invention, there is provided a still image generating device that captures a moving image and performs image processing for the moving image, and a still image that captures the still image and performs image processing for the still image. Image capturing means; and a recording means for recording a moving image and a still image captured by each of the capturing means and subjected to each of the image processing, wherein the acquiring means is configured to record the frame from the moving image recorded in the recording means. The image is acquired, and the recording unit further records the still image generated by the still image generating unit. Therefore, in a digital camera or the like having a moving image capturing unit that captures a moving image and performs image processing for the moving image and a still image capturing unit that captures a still image and performs image processing for the still image, the image is captured by the moving image capturing unit. It is possible to generate a still image having image quality characteristics equivalent to that of the still image captured by the still image capturing means of the digital camera from the frame image constituting the moving image.

また、請求項3記載の発明に係る静止画生成装置は、前記各画像処理はガンマ処理であり、前記静止画生成手段は、前記動画用のガンマ処理が施された前記動画の前記フレーム画像に所定のガンマ処理を施すことにより静止画用のガンマ処理が施された静止画を生成する。したがって、任意のフレーム画像から静止画を得ようとする動画に如何なる動画用のガンマ処理が施されていても、取得手段により取得したフレーム画像に所定のガンマ処理が施されることにより、静止画用のガンマ処理が施された適正な画質からなる静止画を生成することができる。   In the still image generating device according to a third aspect of the present invention, each of the image processing is gamma processing, and the still image generating means applies the frame image of the moving image to which the moving image gamma processing is applied. By performing predetermined gamma processing, a still image subjected to gamma processing for a still image is generated. Therefore, no matter what gamma processing for moving images is applied to a moving image for which a still image is to be obtained from an arbitrary frame image, the predetermined gamma processing is applied to the frame image acquired by the acquisition means, It is possible to generate a still image having an appropriate image quality that has been subjected to the gamma processing.

また、請求項4記載の発明に係る静止画生成装置は、前記動画用のガンマ処理が施された前記動画の前記フレーム画像を静止画用のガンマ処理が施された静止画に変換するためのガンマカーブを記憶する記憶手段を含み、前記静止画生成手段は、前記動画用のガンマ処理が施された前記動画の前記フレーム画像に前記記憶手段に記憶されたガンマカーブに基づくガンマ処理を施すことにより静止画用のガンマ処理が施された静止画を生成するしたがって、記憶されているガンマカーブに基づき、簡単な処理でかつ確実に適正なガンマ特性からなる静止画を生成することができる。   According to a fourth aspect of the present invention, there is provided a still image generating device for converting the frame image of the moving image subjected to the moving image gamma processing into a still image subjected to the still image gamma processing. Storage means for storing a gamma curve, wherein the still image generation means performs gamma processing based on the gamma curve stored in the storage means on the frame image of the moving image that has been subjected to gamma processing for the moving image. Thus, a still image subjected to gamma processing for a still image is generated. Therefore, based on the stored gamma curve, a still image having an appropriate gamma characteristic can be surely generated by simple processing.

また、請求項5記載の発明に係る静止画生成装置は、前記静止画生成手段は、前記静止画用の画像処理を施すための第1の画像処理情報と、前記動画用の画像処理を施すための第2の画像処理情報とを記憶する記憶手段を含み、この記憶手段に記憶された各画像処理情報に基づき、画像処理を施すことにより静止画用の画像処理が施された静止画を生成する。したがって、記憶されている第1及び第2の画像処理情報に基づき、簡単な処理でかつ確実に適正な画質からなる静止画を生成することができる。   Further, in the still image generation device according to the fifth aspect, the still image generation means performs first image processing information for performing image processing for the still image and image processing for moving image. And a second image processing information for storing a still image subjected to image processing for a still image by performing image processing based on each image processing information stored in the storage device. Generate. Therefore, based on the stored first and second image processing information, it is possible to generate a still image having an appropriate image quality with a simple process.

また、請求項6記載の発明に係る静止画生成装置は、前記静止画生成手段は、前記静止画生成手段は、前記第2の画像処理情報に基づき逆特性を有する第3の画像処理情報を算定し、この算定した第3の画像処理情報と前記第1の画像処理情報とに基づき第4の画像処理情報を算定する算定手段を更に含み、前記第2の画像処理情報に基づく画像処理が施された前記動画の前記フレーム画像に、前記第4の画像処理情報に基づく画像処理を施すことにより静止画用の画像処理が施された静止画を生成する。   Further, in the still image generating device according to the invention of claim 6, the still image generating means includes the third image processing information having reverse characteristics based on the second image processing information. And calculating means for calculating the fourth image processing information based on the calculated third image processing information and the first image processing information. The image processing based on the second image processing information includes: The frame image of the applied moving image is subjected to image processing based on the fourth image processing information to generate a still image that has been subjected to image processing for a still image.

つまり、動画に施された前記第2のコントラスト情報に対し逆特性を有する第3の画像処理情報を動画中のフレーム画像に適用すると(第1の適用)、当該フレーム画像は一旦平衡特性となる。したがって、この平衡特性となったフレーム画像に第1の画像処理情報を適用すれば(第2の適用)、当該フレーム画像は静止画用の最適な画質に変化したこととなる。よって、第2の画像処理情報に対し逆特性を有する第3の画像処理情報と前記第1の画像処理情報とを重ね合わせて第4の画像処理情報を予め算定して、第4の画像処理情報を適用すれば、前記第1及び第2の適用を同時に行うこととなり、前記フレーム画像は静止画用の最適な画質に変化することとなる。   That is, when the third image processing information having a reverse characteristic to the second contrast information applied to the moving image is applied to the frame image in the moving image (first application), the frame image once has the equilibrium characteristic. . Therefore, if the first image processing information is applied to the frame image having the balanced characteristics (second application), the frame image is changed to the optimum image quality for still images. Therefore, the fourth image processing information is calculated in advance by superimposing the first image processing information and the third image processing information having a reverse characteristic with respect to the second image processing information. If the information is applied, the first and second applications are performed at the same time, and the frame image changes to an optimum image quality for still images.

また、請求項7記載の発明に係る静止画生成装置は、前記各画像処理は彩度調整処理であり、前記静止画生成手段は、前記動画用の彩度調整処理が施された前記動画の前記フレーム画像に所定の彩度調整処理を施すことにより静止画用の彩度調整処理が施された静止画を生成する。したがって、任意のフレーム画像から静止画を得ようとする動画に如何なる動画用の彩度調整処理が施されていても、取得手段により取得したフレーム画像に所定の彩度調整処理が施されることにより、静止画用の彩度調整処理が施された適正な画質からなる静止画を生成することができる。   Further, in the still image generation device according to claim 7, each of the image processes is a saturation adjustment process, and the still image generation unit is configured to process the moving image subjected to the saturation adjustment process for the moving image. A still image that has been subjected to saturation adjustment processing for a still image is generated by performing predetermined saturation adjustment processing on the frame image. Therefore, regardless of the moving picture saturation adjustment processing that is performed on a moving image for which a still image is to be obtained from an arbitrary frame image, the predetermined saturation adjustment processing is performed on the frame image acquired by the acquisition means. Thus, it is possible to generate a still image having an appropriate image quality that has been subjected to saturation adjustment processing for the still image.

また、請求項8記載の発明に係る静止画生成装置は、前記各画像処理はフィルタ処理であり、前記静止画生成手段は、前記動画用のフィルタ処理が施された前記動画の前記フレーム画像に所定のフィルタ処理を施すことにより静止画用のフィルタ処理が施された静止画を生成する。したがって、任意のフレーム画像から静止画を得ようとする動画に如何なる動画用のフィルタ処理が施されていても、取得手段により取得したフレーム画像に所定のフィルタ処理が施されることにより、静止画用のフィルタ処理が施された適正な画質からなる静止画を生成することができる。   Further, in the still image generation device according to an eighth aspect of the invention, each of the image processes is a filter process, and the still image generation unit applies the frame image of the moving image to which the moving image filter process has been performed. A still image subjected to still image filter processing is generated by performing predetermined filter processing. Therefore, no matter what kind of moving image filter processing is applied to a moving image for which a still image is to be obtained from an arbitrary frame image, a predetermined filtering process is performed on the frame image acquired by the acquisition unit, thereby It is possible to generate a still image having an appropriate image quality that has been subjected to the filtering process.

また、請求項9記載の発明に係る静止画生成装置は、前記各画像処理は露出調整処理であり、前記静止画生成手段は、前記動画用の露出調整処理が施された前記動画の前記フレーム画像に所定の露出調整処理を施すことにより静止画用の露出調整処理が施された静止画を生成する。したがって、任意のフレーム画像から静止画を得ようとする動画に如何なる動画用の露出調整処理が施されていても、取得手段により取得したフレーム画像に所定の露出調整処理が施されることにより、静止画用の露出調整処理が施された適正な画質からなる静止画を生成することができる。   Further, in the still image generation device according to the ninth aspect of the present invention, each of the image processes is an exposure adjustment process, and the still image generation unit includes the frame of the moving image that has been subjected to the exposure adjustment process for the moving image. By performing a predetermined exposure adjustment process on the image, a still image subjected to the exposure adjustment process for the still image is generated. Therefore, even if exposure adjustment processing for any moving image is performed on a moving image to obtain a still image from an arbitrary frame image, by performing predetermined exposure adjustment processing on the frame image acquired by the acquisition unit, It is possible to generate a still image having an appropriate image quality that has been subjected to exposure adjustment processing for the still image.

また、請求項10記載の発明に係る静止画生成装置は、前記取得手段は、前記動画からフレーム画像を選択して取得する第1の取得手段と、この第1の取得手段により取得されたフレーム画像と時間的に近接する複数のフレーム画像を取得する第2の取得手段とを含み、前記静止画生成手段は、前記第1の取得手段により取得されたフレーム画像に対応する静止画と、前記第2の取得手段により取得されたフレーム画像に対応する静止画とを含む単一の静止画を生成する。したがって、動画から所望のフレーム画像を選択すれば、自動的に当該フレーム画像と時間的に近接する複数のフレーム画像が選択されて、最適な画質を有する複数の静止画を含む静止画が生成される。   Further, in the still image generation device according to the invention of claim 10, the acquisition unit selects a frame image from the moving image and acquires the frame, and the frame acquired by the first acquisition unit A second acquisition unit that acquires a plurality of frame images that are temporally close to the image, wherein the still image generation unit includes a still image corresponding to the frame image acquired by the first acquisition unit, A single still image including the still image corresponding to the frame image acquired by the second acquisition unit is generated. Therefore, if a desired frame image is selected from a moving image, a plurality of frame images that are temporally close to the frame image are automatically selected, and a still image including a plurality of still images having optimum image quality is generated. The

また、請求項11記載の発明に係る静止画生成プログラムは、静止画生成装置が有するコンピュータを、複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得手段と、この取得手段により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成手段として機能させる。したがって、前記コンピュータがこのプログラムに従って処理を実行することにより、請求項1記載の発明と同様の作用効果を奏する。   According to an eleventh aspect of the present invention, there is provided a still image generation program for acquiring a frame image from a moving image that is composed of a plurality of frame images and subjected to image processing for moving images. And still image generating means for generating a still image subjected to image processing for still images by performing predetermined image processing on the frame image subjected to the image processing for moving image acquired by the acquiring means. Make it work. Therefore, when the computer executes processing according to this program, the same effects as those of the first aspect of the invention can be obtained.

また、請求項12記載の発明に係る静止画生成方法は、複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得工程と、この取得工程により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成工程とを含む。したがって、記載した工程に従って処理を実行することにより、請求項1記載の発明と同様の作用効果を奏する。   A still image generation method according to the invention of claim 12 is obtained by an acquisition step of acquiring a frame image from a moving image that is composed of a plurality of frame images and subjected to image processing for moving images, and acquired by this acquisition step. A still image generating step of generating a still image subjected to still image processing by performing predetermined image processing on the frame image subjected to the moving image processing. Therefore, by performing the processing according to the described steps, the same effects as those of the first aspect of the invention can be achieved.

以上説明したように本発明によれば、任意のフレーム画像から静止画を得ようとする動画に如何なる画質パラメータで動画用の画像処理が施されていても、取得手段により取得したフレーム画像に所定の画像処理が施されることにより、静止画用の画像処理が施された適正な画質からなる静止画を生成することができる。   As described above, according to the present invention, a frame image acquired by the acquisition unit is predetermined even if image processing for a moving image is performed with any image quality parameter on a moving image for which a still image is to be obtained from an arbitrary frame image. By performing this image processing, it is possible to generate a still image having an appropriate image quality subjected to still image processing.

本発明の一実施の形態に係るデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 同実施の形態において用いたコントラスト特性を示す図である。It is a figure which shows the contrast characteristic used in the same embodiment. 同実施の形態において用いた彩度特性を示す図である。It is a figure which shows the saturation characteristic used in the same embodiment. (a)は、静止画用のシャープネスフィルタ特性を示す図であり、(b)は、動画用のシャープネスフィルタ特性を示す図である。(A) is a figure which shows the sharpness filter characteristic for still images, (b) is a figure which shows the sharpness filter characteristic for moving images. 同実施の形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the embodiment. 実施の形態の変形例において用いた露出特性を示す図である。It is a figure which shows the exposure characteristic used in the modification of embodiment.

以下、本発明の一実施の形態を図にしたがって説明する。
図1は、本発明の一実施の形態に係るデジタルカメラ1の回路構成を示すブロック図である。このデジタルカメラ1は、静止画撮影機能と動画撮影機能とを備えるものであって、CCD2とDSP/CPU3とを有しており、CCD2は、感光部にベイヤー配列の原色フィルターが設けられたものである。DSP/CPU3は、画像データの圧縮・伸張、音声データの処理を含む各種のデジタル信号処理機能を有するとともにデジタルカメラ1の各部を制御するワンチップマイコンである。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a circuit configuration of a digital camera 1 according to an embodiment of the present invention. This digital camera 1 has a still image shooting function and a moving image shooting function, and has a CCD 2 and a DSP / CPU 3, and the CCD 2 is provided with a primary color filter of a Bayer arrangement in a photosensitive portion. It is. The DSP / CPU 3 is a one-chip microcomputer that has various digital signal processing functions including image data compression / decompression and audio data processing and controls each part of the digital camera 1.

DSP/CPU3には、CCD2を駆動するTG(Timing Generator)4が接続されており、TG4には、CCD2から出力される被写体の光学像に応じたアナログの撮像信号が入力するユニット回路5が接続されている。ユニット回路5は、CCD2から出力された撮像信号に含まれるCCD2の駆動ノイズを減少させる相関二重サンプリング回路(CDS回路)と、ノイズ低減後における信号のゲインを調整する自動利得制御回路(AGC回路)、ゲイン調整後の信号をデジタル信号に変換するA/D変換器を含み、CCD2から入力したアナログの撮像信号をデジタルの画像信号、すなわちベイヤーデータに変換し、DSP/CPU3に送る。   A TG (Timing Generator) 4 that drives the CCD 2 is connected to the DSP / CPU 3, and a unit circuit 5 that receives an analog imaging signal corresponding to the optical image of the subject output from the CCD 2 is connected to the TG 4. Has been. The unit circuit 5 includes a correlated double sampling circuit (CDS circuit) that reduces drive noise of the CCD 2 included in the imaging signal output from the CCD 2, and an automatic gain control circuit (AGC circuit) that adjusts the gain of the signal after noise reduction. ), Including an A / D converter that converts the gain-adjusted signal into a digital signal, converts an analog imaging signal input from the CCD 2 into a digital image signal, that is, Bayer data, and sends it to the DSP / CPU 3.

DSP/CPU3には、表示装置6、キー入力部7が接続されるとともに、アドレス・データバス10を介してバッファメモリ(DRAM)11、ROM12、保存メモリ13、及び入出力インターフェース14が接続されている。バッファメモリ11は、前記ベイヤーデータ等を一時保存するバッファであるとともに、DSP/CPU3のワーキングメモリとしても使用される。   A display device 6 and a key input unit 7 are connected to the DSP / CPU 3, and a buffer memory (DRAM) 11, a ROM 12, a storage memory 13, and an input / output interface 14 are connected via an address / data bus 10. Yes. The buffer memory 11 is a buffer for temporarily storing the Bayer data and the like, and is also used as a working memory for the DSP / CPU 3.

すなわち、DSP/CPU3は、ユニット回路5から送られてきた前記ベイヤーデータに、ペデスタルクランプ等の処理を施した後、RGBデータに変換し、更にRGBデータを輝度(Y)信号及び色差(UV)信号に変換する。このDSP/CPU3で変換されたYUVデータは、1フレーム分のデータがバッファメモリ11に格納される。バッファメモリ11に格納された1フレーム分のYUVデータは表示装置6へ送られ、そこでビデオ信号に変換された後、スルー画像として表示される。   That is, the DSP / CPU 3 performs processing such as pedestal clamping on the Bayer data sent from the unit circuit 5 and then converts the data into RGB data, and further converts the RGB data into a luminance (Y) signal and a color difference (UV). Convert to signal. The YUV data converted by the DSP / CPU 3 stores data for one frame in the buffer memory 11. One frame of YUV data stored in the buffer memory 11 is sent to the display device 6, where it is converted into a video signal and then displayed as a through image.

また、静止画撮影モードにおいて使用者によるシャッターキー操作が検出されると、CCD2及びユニット回路5をスルー画像撮像時とは異なる静止画撮影用の駆動方式や駆動タイミングに切り替えることにより静止画撮影処理を実行し、この静止画撮影処理によりバッファメモリ11に格納された1フレーム分のYUVデータは、DSP/CPU3でJPEG方式等によるデータ圧縮後コード化され、バッファメモリ11内でファイル化された後、アドレス・データバス10を介して保存メモリ13に静止画データとして記録される。   Further, when a shutter key operation by the user is detected in the still image shooting mode, the still image shooting process is performed by switching the CCD 2 and the unit circuit 5 to a still image shooting driving method and drive timing different from those for through image shooting. The YUV data for one frame stored in the buffer memory 11 by this still image shooting processing is encoded after being compressed by the DSP / CPU 3 using the JPEG method or the like and converted into a file in the buffer memory 11. The still image data is recorded in the storage memory 13 via the address / data bus 10.

また、動画撮影モードにおいて使用者によるシャッターキー操作により録画開始指示が検出されると、CCD2及びユニット回路5をスルー画像撮像時とは異なる動画撮影用の駆動方式や駆動タイミングに切り替えることにより動画撮影処理を開始し、この動画撮影処理によりバッファメモリ11に格納されたYUVデータは順次DSP/CPU3へ送られ、所定のMPEGのコーデックによりデータ圧縮後コード化されて、バッファメモリ11及びアドレス・データバス10を介してフレームデータ(ビデオデータ)として保存メモリ13に順次書き込まれる。係る一連の動作はフレーム毎に繰り返し実行され、バッファメモリ11内のYUVデータ(圧縮データ)は順次書き換えられる。つまりストリーム記録される。また、DSP/CPU3は、静止画又は動画の再生時には保存メモリ13から読み出された静止画や動画のデータを伸張し、静止画データや動画像のフレームデータとしてバッファメモリ11の画像データ作業領域に展開する。   In addition, when a recording start instruction is detected by a user operating a shutter key in the moving image shooting mode, the moving image shooting is performed by switching the CCD 2 and the unit circuit 5 to a driving method and driving timing for moving image shooting different from those at the time of through image shooting. The processing starts, and the YUV data stored in the buffer memory 11 by the moving image photographing process is sequentially sent to the DSP / CPU 3 and is encoded after data compression by a predetermined MPEG codec. The buffer memory 11 and the address / data bus 10 are sequentially written in the storage memory 13 as frame data (video data). Such a series of operations is repeatedly executed for each frame, and YUV data (compressed data) in the buffer memory 11 is rewritten sequentially. That is, stream recording is performed. Further, the DSP / CPU 3 expands the still image or moving image data read from the storage memory 13 when reproducing the still image or moving image, and the image data work area of the buffer memory 11 as still image data or moving image frame data. Expand to.

表示装置6は、カラーLCDとその駆動回路とを含み、撮影待機状態にあるときにはCCD2によって撮像された被写体画像をスルー画像として表示し、記録画像の再生時には保存メモリ13から読み出されて伸張された記録画像を表示する。キー入力部7は、シャッターキー、電源キー等の複数の操作キーを含み、使用者によるキー操作に応じたキー入力信号をDSP/CPU3に出力する。なお、シャッタキーは動画撮影時には録画開始/終了ボタンとしても機能する。   The display device 6 includes a color LCD and its driving circuit, and displays the subject image captured by the CCD 2 as a through image when in the shooting standby state, and is read out from the storage memory 13 and expanded when the recorded image is played back. The recorded image is displayed. The key input unit 7 includes a plurality of operation keys such as a shutter key and a power key, and outputs a key input signal corresponding to the key operation by the user to the DSP / CPU 3. The shutter key also functions as a recording start / end button when shooting a moving image.

また、ROM12には静止画撮影時、動画撮影時、スルー画撮影時等の各撮影時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表も格納されている。そして、DSP/CPU3がプログラム線図により設定されるシャッタースピードに基づき設定した電荷蓄積時間はシャッターパルスとして、TG4を介してCCD2に供給され、これに従いCCD2が動作することにより電荷蓄積時間すなわち露光時間が制御される。つまりCCD2は電子シャッターとして機能する。   The ROM 12 is a program diagram showing combinations of aperture values (F) and shutter speeds corresponding to appropriate exposure values (EV) at the time of shooting such as still image shooting, moving image shooting, and through image shooting. Are also stored. The charge accumulation time set by the DSP / CPU 3 based on the shutter speed set by the program diagram is supplied as a shutter pulse to the CCD 2 via the TG 4, and the charge accumulation time, that is, the exposure time is obtained by operating the CCD 2 in accordance with this. Is controlled. That is, the CCD 2 functions as an electronic shutter.

さらに、ROM12には、後述するフローチャートに示すプログラム及びデジタルカメラとして機能するに必要な各種プログラムが格納されているとともに、図2に示す静止画用である第1のコントラストカーブ(ガンマカーブ)A1及び動画用である第2のコントラストカーブ(ガンマカーブ)A2、図3に示す静止画用である第1の彩度カーブB1及び動画用である第2の彩度カーブB2、図4に示した静止画用のシャープネスフィルタC1及び動画用のシャープネスフィルタC2が記憶されている。   Further, the ROM 12 stores a program shown in a flowchart to be described later and various programs necessary for functioning as a digital camera, and a first contrast curve (gamma curve) A1 for a still image shown in FIG. A second contrast curve (gamma curve) A2 for moving images, a first saturation curve B1 for still images shown in FIG. 3, a second saturation curve B2 for movies, and the stillness shown in FIG. A sharpness filter C1 for images and a sharpness filter C2 for moving images are stored.

なお、このデジタルカメラ1は、前記入出力インターフェース14を備えており、よって、この入出力インターフェース14を介してプリンタやパソコンやTV受像機等の外部機器に接続することが可能である。   Note that the digital camera 1 includes the input / output interface 14, and thus can be connected to an external device such as a printer, a personal computer, or a TV receiver via the input / output interface 14.

以上の構成に係る本実施の形態において、静止画撮影モードが設定されている状態で使用者によりシャッターキーが操作されると、CCD2及びユニット回路5を静止画撮影用の駆動方式や駆動タイミングに切り替えることにより静止画撮影処理を実行し、この静止画撮影処理によりバッファメモリ11に格納された1フレーム分のYUVデータは、DSP/CPU3で、第1のコントラストカーブA1、第1の彩度カーブB1、静止画用のシャープネスフィルタC1を適用して画像処理される。しかる後に、JPEG方式でデータ圧縮した後コード化され、バッファメモリ11内でファイル化された後、アドレス・データバス10を介して保存メモリ13に静止画データ(静止画ファイル)として記録される。   In the present embodiment having the above configuration, when the user operates the shutter key in the state where the still image shooting mode is set, the CCD 2 and the unit circuit 5 are set to the drive method and drive timing for still image shooting. The still image shooting process is executed by switching, and the YUV data for one frame stored in the buffer memory 11 by the still image shooting process is converted by the DSP / CPU 3 into the first contrast curve A1 and the first saturation curve. B1, image processing is performed by applying a stillness sharpness filter C1. Thereafter, the data is compressed after being compressed by the JPEG method, coded into a file in the buffer memory 11, and then recorded as still image data (still image file) in the storage memory 13 via the address / data bus 10.

また、動画撮影モードが設定されている状態において、使用者によるシャッターキー操作により録画開始操作があると、CCD2及びユニット回路5を動画撮影用の駆動方式や駆動タイミングに切り替えることにより動画撮影処理を開始し、この動画撮影処理によりバッファメモリ11に格納されたYUVデータは順次DSP/CPU3へ送られ、第2のコントラストカーブA2、第2の彩度カーブB2、動画用のシャープネスフィルタC2を適用して画像処理される。しかる後に、MPEG方式のコーデックによりデータ圧縮した後コード化され、最終的にはアドレス・データバス10を介して動画ファイルとして保存メモリ13に記録される。   In addition, when a recording start operation is performed by a shutter key operation by a user in a state where the moving image shooting mode is set, moving image shooting processing is performed by switching the CCD 2 and the unit circuit 5 to a driving method and driving timing for moving image shooting. The YUV data stored in the buffer memory 11 by the moving image shooting process is sequentially sent to the DSP / CPU 3, and the second contrast curve A2, the second saturation curve B2, and the sharpness filter C2 for moving images are applied. Image processing. Thereafter, the data is compressed after being compressed by the MPEG codec, and finally encoded, and recorded as a moving image file in the storage memory 13 via the address / data bus 10.

そして、このように保存メモリ13に動画ファイルが格納されている状態において、ユーザによるキー入力部7の所定の操作により、静止画作成モードが設定されると、DSP/CPU3は、前記プログラムに基づき、図5のフローチャートに示す処理を実行する。すなわち、ユーザはキー入力部7の操作により、保存メモリ13に格納されているいずれかの動画ファイルを選択して再生し、任意のフレーム画像を選択して動画フレームからの静止画像の生成を指示する(ステップS1)。するとDSP/CPU3は、動画ファイルから選択指示されたフレームの動画フレーム信号を読み出して、バッファメモリ11内にて伸張処理して、YUVデータに変換する(ステップS2)。   When the moving image file is stored in the storage memory 13 as described above, when the still image creation mode is set by a predetermined operation of the key input unit 7 by the user, the DSP / CPU 3 is based on the program. The processing shown in the flowchart of FIG. 5 is executed. That is, the user selects and plays back any moving image file stored in the storage memory 13 by operating the key input unit 7, selects an arbitrary frame image, and instructs to generate a still image from the moving image frame. (Step S1). Then, the DSP / CPU 3 reads out the moving image frame signal of the frame instructed to be selected from the moving image file, decompresses it in the buffer memory 11, and converts it into YUV data (step S2).

引き続き、ROM12から前記静止画用の第1のコントラストカーブA1を読み出すとともに(ステップS3)、前記動画用の第2のコントラストカーブA2を読み出す(ステップS4)。そして、このステップS4で読み出した第2のコントラストカーブA2の逆カーブを算定して、これを第3のコントラストカーブとする(ステップS5)。したがって、このステップS5での処理により、図2に示すように、第2のコントラストカーブA2の逆カーブである第3のコントラストカーブA3が得られることとなる。   Subsequently, the first contrast curve A1 for the still image is read from the ROM 12 (step S3), and the second contrast curve A2 for the moving image is read (step S4). Then, the inverse curve of the second contrast curve A2 read in step S4 is calculated, and this is used as the third contrast curve (step S5). Therefore, as a result of the process in step S5, as shown in FIG. 2, a third contrast curve A3, which is an inverse curve of the second contrast curve A2, is obtained.

さらに、第3のコントラストカーブA3に第1のコントラストカーブA1を乗じて、これを第4のコントラストカーブとする(ステップS6)。このステップS6での処理により、図2に示すように、第4のコントラストカーブA4が得られることとなる。そして、前記ステップS2で読み出して伸張した動画フレーム信号、つまり1フレーム分のYUVデータに、前記第4のコントラストカーブA4を適用してコントラスト変換する処理を施す(ステップS7)。   Further, the third contrast curve A3 is multiplied by the first contrast curve A1 to obtain a fourth contrast curve (step S6). As a result of the processing in step S6, a fourth contrast curve A4 is obtained as shown in FIG. The moving image frame signal read out and expanded in step S2, that is, YUV data for one frame, is subjected to a contrast conversion process by applying the fourth contrast curve A4 (step S7).

つまり、前述のように動画撮影時において、適用された第2のコントラストカーブA2に対し逆特性を有する第3のコントラストカーブA3を、伸張した動画フレーム信号(フレーム画像)に適用すると(第1の適用)、図2に示すように、当該動画フレーム信号のガンマ特性(ガンマカーブ)は一旦平衡ガンマE1となる。したがって、この平衡ガンマE1となった動画フレーム信号に第1のコントラストカーブA1を適用すれば(第2の適用)、当該動画フレーム信号のガンマ特性(ガンマカーブ)は静止画用の最適なコントラストである第1のコントラストカーブA1に変化したこととなる。よって、第2のコントラストカーブA2に対し逆特性を有する第3のコントラストカーブA3と前記第1のコントラストカーブA1とを重ね合わせて、第4のコントラストカーブA4を予め算定し(ステップS6)、この第4のコントラストカーブA4を適用すれば(ステップS7)、前記第1及び第2の適用を同時に行うこととなり、前記フレーム画像のガンマ特性(ガンマカーブ)は静止画用の最適なコントラストである第1のコントラストカーブA1に変化する。   In other words, as described above, when the third contrast curve A3 having a reverse characteristic with respect to the applied second contrast curve A2 is applied to the expanded moving image frame signal (frame image) at the time of moving image shooting (first image). Application), as shown in FIG. 2, the gamma characteristic (gamma curve) of the moving picture frame signal once becomes a balanced gamma E1. Therefore, if the first contrast curve A1 is applied to the moving image frame signal having the balanced gamma E1 (second application), the gamma characteristic (gamma curve) of the moving image frame signal is the optimum contrast for still images. That is, it changes to a certain first contrast curve A1. Therefore, the fourth contrast curve A4 is calculated in advance by superimposing the third contrast curve A3 having the opposite characteristic to the second contrast curve A2 and the first contrast curve A1 (step S6). If the fourth contrast curve A4 is applied (step S7), the first and second applications are performed simultaneously, and the gamma characteristic (gamma curve) of the frame image is the optimum contrast for still images. 1 to a contrast curve A1.

また、それぞれのコントラストカーブを伝達関数で示すと、
第1のコントラストカーブA1=H(S)
第2のコントラストカーブA2=G(S)
と仮におくと、
F(S)=(1/G(S))×H(S)
となるF(S)のようなガンマを動画の信号に、一挙に適用すればよい。そのカーブが第4のコントラストカーブA4となるのである。
Moreover, when each contrast curve is shown by a transfer function,
First contrast curve A1 = H (S)
Second contrast curve A2 = G (S)
Assuming that
F (S) = (1 / G (S)) × H (S)
A gamma such as F (S) can be applied to a moving image signal all at once. This curve is the fourth contrast curve A4.

なお、本実施の形態においては、ステップS3〜ステップS6の処理を行うことによって、第4のコントラストカーブA4を算定するようにしたが、ROM12に第4のコントラストカーブA4を記憶させておき、単一のステップでROM12から第4のコントラストカーブA4を読み出して、ステップS7でこれを動画フレーム信号に適用するようにしてもよい。このようにすれば、ステップS3〜ステップS6の処理を行うことなく、単にROM12から第4のコントラストカーブA4を読み出すだけで済み、処理を簡単化することができる。また、ROM12に第3のコントラストカーブA3を記憶させておくようにしてもよい。このようにすれば、ステップS4およびステップS5の処理を行う必要がなくなるので、この場合も処理を簡単化することができる。   In the present embodiment, the fourth contrast curve A4 is calculated by performing the processing of step S3 to step S6. However, the fourth contrast curve A4 is stored in the ROM 12 and is simply stored. The fourth contrast curve A4 may be read from the ROM 12 in one step and applied to the moving image frame signal in step S7. In this way, it is only necessary to read out the fourth contrast curve A4 from the ROM 12 without performing the processing of steps S3 to S6, and the processing can be simplified. Further, the third contrast curve A3 may be stored in the ROM 12. In this case, it is not necessary to perform the processing of step S4 and step S5, so that the processing can be simplified also in this case.

引き続き、ROM12から前記静止画用の第1の彩度カーブB1を読み出すとともに(ステップS8)、前記動画用の第2の彩度カーブB2を読み出す(ステップS9)。そして、このステップS9で読み出した第2の彩度カーブB2の逆カーブを算定して、これを第3の彩度カーブとする(ステップS10)。さらに、第3の彩度カーブに第1の彩度カーブB1を乗じて、これを第4の彩度カーブとする(ステップS11)。このステップS11での処理により、図3に示すように、第4の彩度カーブB4が得られることとなる。そして、前記ステップS7で第4のコントラストカーブA4が適用された1フレーム分のYUVデータに、前記第4の彩度カーブB4を適用して彩度変換する処理を施す(ステップS12)。   Subsequently, the first saturation curve B1 for still image is read from the ROM 12 (step S8), and the second saturation curve B2 for moving image is read (step S9). Then, an inverse curve of the second saturation curve B2 read out in step S9 is calculated and used as a third saturation curve (step S10). Further, the third saturation curve is multiplied by the first saturation curve B1 to obtain a fourth saturation curve (step S11). As a result of the processing in step S11, a fourth saturation curve B4 is obtained as shown in FIG. Then, a process of applying saturation conversion to the one frame of YUV data to which the fourth contrast curve A4 is applied in step S7 by applying the fourth saturation curve B4 is performed (step S12).

つまり、前述のように動画撮影時において、適用された第2の彩度カーブB2に対し逆特性を有する第3の彩度カーブを、伸張した動画フレーム信号(フレーム画像)に適用すると(第1の適用)、図3に示すように、当該動画フレーム信号の彩度特性(彩度カーブ)は一旦平衡彩度E2となる。したがって、この平衡彩度E2となった動画フレーム信号に第1の彩度カーブB1を適用すれば(第2の適用)、当該動画フレーム信号の彩度特性(彩度カーブ)は静止画用の最適な彩度である第1の彩度カーブB1に変化したこととなる。よって、第2の彩度カーブB2に対し逆特性を有する第3の彩度カーブB3と前記第1の彩度カーブB1とを重ね合わせて、第4の彩度カーブB4を予め算定し(ステップS11)、この第4の彩度カーブB4を適用すれば(ステップS12)、前記第1及び第2の適用を同時に行うこととなり、前記フレーム画像は静止画用の最適な彩度である第1の彩度カーブB1に変化する。   That is, as described above, when a third saturation curve having a reverse characteristic to the applied second saturation curve B2 is applied to the expanded moving image frame signal (frame image) at the time of moving image shooting (first image). As shown in FIG. 3, the saturation characteristic (saturation curve) of the moving image frame signal once becomes the equilibrium saturation E2. Therefore, if the first saturation curve B1 is applied to the moving image frame signal having the equilibrium saturation E2 (second application), the saturation characteristic (saturation curve) of the moving image frame signal is for a still image. That is, the first saturation curve B1 which is the optimum saturation is changed. Therefore, the fourth saturation curve B4 is calculated in advance by superimposing the third saturation curve B3 having the opposite characteristic to the second saturation curve B2 and the first saturation curve B1 (step S4). S11) If this fourth saturation curve B4 is applied (step S12), the first and second applications are performed simultaneously, and the frame image has the first saturation that is the optimum saturation for still images. Changes to the saturation curve B1.

なお、本実施の形態においては、ステップS8〜ステップS11の処理を行うことによって、第4の彩度カーブB4を算定するようにしたが、ROM12に第4の彩度カーブB4を記憶させておき、単一のステップでROM12から第4の彩度カーブB4を読み出して、ステップS12でこれを動画フレーム信号に適用するようにしてもよい。このようにすれば、ステップS8〜ステップS11の処理を行うことなく、単にROM12から第4の彩度カーブB4を読み出すだけで済み、処理を簡単化することができる。また、ROM12に第3の彩度カーブを記憶させておくようにしてもよい。このようにすれば、ステップS9およびステップS10の処理を行う必要がなくなるので、この場合も処理を簡単化することができる。   In the present embodiment, the fourth saturation curve B4 is calculated by performing the processing from step S8 to step S11. However, the fourth saturation curve B4 is stored in the ROM 12 in advance. Alternatively, the fourth saturation curve B4 may be read from the ROM 12 in a single step, and applied to the moving image frame signal in step S12. In this way, it is only necessary to read out the fourth saturation curve B4 from the ROM 12 without performing the processing of steps S8 to S11, and the processing can be simplified. Further, the third saturation curve may be stored in the ROM 12. In this way, it is not necessary to perform the processing of step S9 and step S10, so that in this case as well, the processing can be simplified.

引き続き、ROM12から前記静止画用の第1のシャープネスフィルタカーブC1を読み出すとともに(ステップS13)、前記動画用の第2のシャープネスフィルタカーブC2を読み出す(ステップS14)。そして、このステップS14で読み出した第2のシャープネスフィルタカーブC2の逆カーブを算定して、これを第3のシャープネスフィルタカーブとする(ステップS15)。さらに、第3のシャープネスフィルタカーブに第1のシャープネスフィルタカーブC1を乗じて、これを第4のシャープネスフィルタカーブとする(ステップS16)。そして、前記ステップS7で第4のコントラストカーブA4が適用され、かつ前記ステップS12で第4の彩度カーブB4が適用された1フレーム分のYUVデータに、前記第4のシャープネスフィルタカーブを適用してシャープネスフィルタ処理を施す(ステップS17)。   Subsequently, the first sharpness filter curve C1 for still images is read from the ROM 12 (step S13), and the second sharpness filter curve C2 for moving images is read (step S14). Then, the inverse curve of the second sharpness filter curve C2 read out in step S14 is calculated, and this is used as the third sharpness filter curve (step S15). Further, the third sharpness filter curve is multiplied by the first sharpness filter curve C1 to obtain a fourth sharpness filter curve (step S16). Then, the fourth sharpness filter curve is applied to one frame of YUV data to which the fourth contrast curve A4 is applied in step S7 and the fourth saturation curve B4 is applied in step S12. Then, sharpness filter processing is performed (step S17).

つまり、前述のように動画撮影時において、適用された第2のシャープネスフィルタカーブC2に対し逆特性を有する第3のシャープネスフィルタカーブを、伸張した動画フレーム信号(フレーム画像)に適用すると(第1の適用)、当該動画フレーム信号のシャープネスフィルタ特性(シャープネスフィルタカーブ)は一旦平衡となる。したがって、この平衡となった動画フレーム信号に第1のシャープネスフィルタカーブC1を適用すれば(第2の適用)、当該動画フレーム信号のシャープネスフィルタ特性(シャープネスフィルタカーブ)は静止画用の最適なシャープネスである第1のシャープネスフィルタカーブC1に変化したこととなる。よって、第2のシャープネスフィルタカーブC2に対し逆特性を有する第3のシャープネスフィルタカーブと前記第1のシャープネスフィルタカーブC1とを重ね合わせて、第4のシャープネスフィルタカーブを予め算定し(ステップS16)、この第4のシャープネスフィルタカーブを適用すれば(ステップS17)、前記第1及び第2の適用を同時に行うこととなり、前記フレーム画像のシャープネスフィルタ特性(シャープネスフィルタカーブ)は静止画用の最適なシャープネスである第1のシャープネスフィルタカーブC1に変化する。   That is, as described above, when a third sharpness filter curve having a reverse characteristic with respect to the applied second sharpness filter curve C2 is applied to the expanded moving image frame signal (frame image) at the time of moving image shooting (first image). And the sharpness filter characteristic (sharpness filter curve) of the moving image frame signal is once balanced. Therefore, if the first sharpness filter curve C1 is applied to the balanced moving image frame signal (second application), the sharpness filter characteristic (sharpness filter curve) of the moving image frame signal is the optimum sharpness for still images. That is, the first sharpness filter curve C1 is changed. Therefore, the fourth sharpness filter curve is calculated in advance by superimposing the third sharpness filter curve having the reverse characteristic to the second sharpness filter curve C2 and the first sharpness filter curve C1 (step S16). If this fourth sharpness filter curve is applied (step S17), the first and second applications are performed simultaneously, and the sharpness filter characteristic (sharpness filter curve) of the frame image is optimal for still images. It changes to the first sharpness filter curve C1 which is the sharpness.

すなわち、静止画に適用しているフィルタの伝達関数をH(S)とし、動画に適用しているフィルタの伝達関数をG(S)とする。このとき、F(S)=(1/G(S))×H(S)となるような伝達関数F(S)を動画のフレームに対して適用すれば、静止画最適のシャープネスとなるのである。   That is, the transfer function of the filter applied to the still image is H (S), and the transfer function of the filter applied to the moving image is G (S). At this time, if a transfer function F (S) such that F (S) = (1 / G (S)) × H (S) is applied to the frame of the moving image, the optimum sharpness of the still image is obtained. is there.

なお、本実施の形態においては、ステップS13〜ステップS16の処理を行うことによって、第4のシャープネスフィルタカーブを算定するようにしたが、ROM12に第4のシャープネスフィルタカーブを記憶させておき、単一のステップでROM12から第4のシャープネスフィルタカーブを読み出して、ステップS17でこれを動画フレーム信号に適用するようにしてもよい。このようにすれば、ステップS13〜ステップS16の処理を行うことなく、単にROM12から第4のシャープネスフィルタカーブを読み出すだけで済み、処理を簡単化することができる。また、ROM12に第3のシャープネスフィルタカーブを記憶させておくようにしてもよい。このようにすれば、ステップS14およびステップS15の処理を行う必要がなくなるので、この場合も処理を簡単化することができる。   In the present embodiment, the fourth sharpness filter curve is calculated by performing the processing of step S13 to step S16. However, the fourth sharpness filter curve is stored in the ROM 12 and is simply stored. The fourth sharpness filter curve may be read from the ROM 12 in one step and applied to the moving image frame signal in step S17. In this way, it is only necessary to read out the fourth sharpness filter curve from the ROM 12 without performing the processing of steps S13 to S16, and the processing can be simplified. Further, the third sharpness filter curve may be stored in the ROM 12. In this way, it is not necessary to perform the processing of step S14 and step S15, so that in this case as well, the processing can be simplified.

引き続き、静止画信号に変換するに必要な処理やレイアウト上の配置処理を行う(ステップS18)。ここで、本実施の形態は、前記ステップS1でユーザが選択した動画フレームとともに、その直前の4フレームと直後の4フレームとを含む計9枚の静止画をレイアウトし一つの静止画ファイルにして保存するものである。したがって、このステップS18では、以上に説明したステップS2〜S17の処理により最適なコントラスト等に変換された静止画を所定の領域内にレイアウトする。   Subsequently, processing necessary for conversion into a still image signal and layout processing on the layout are performed (step S18). Here, in the present embodiment, a total of nine still images including the immediately preceding 4 frames and the immediately following 4 frames together with the moving image frame selected by the user in step S1 are laid out into one still image file. It is something to save. Therefore, in this step S18, the still image converted into the optimum contrast or the like by the processing in steps S2 to S17 described above is laid out in a predetermined area.

次に、前記9枚分のフレームにおける最後のフレームに対する処理が完了したか否かを判断する(ステップS19)。これら9枚分のフレームにおける最後のフレームに対する処理が完了していない場合には、このステップS19での判断はNOとなる。よって、この場合には次の処理対象のフレームを選択した後(ステップS20)、ステップS2からの処理を繰り返す。   Next, it is determined whether or not the processing for the last frame in the nine frames has been completed (step S19). If the process for the last frame among these nine frames is not completed, the determination in step S19 is NO. Therefore, in this case, after the next processing target frame is selected (step S20), the processing from step S2 is repeated.

そして、9枚分のフレームにおける最後のフレームに対する処理が完了すると、ステップS19の判断がYESとなり、9枚分の静止画データ(YUVデータ)を合成してレイアウトした合成静止画データをJPEG変換し、保存メモリ13に保存する(ステップS21)。したがって、この保存メモリ13に保存した静止画ファイルを、入出力インターフェース14を介してプリンタやパソコンに供給することにより、画像が「暗い」「ぼやっとしている」「鮮やかさが足りない」といった印象を与えることのない静止画を印刷あるいは表示することができる。   When the processing for the last frame in nine frames is completed, the determination in step S19 is YES, and the combined still image data obtained by combining and laying out nine still image data (YUV data) is JPEG converted. Then, it is stored in the storage memory 13 (step S21). Therefore, when the still image file stored in the storage memory 13 is supplied to the printer or the personal computer via the input / output interface 14, the impression that the image is “dark”, “hazy”, or “not enough vividness”. Still images can be printed or displayed.

(本実施の形態の変形例)   (Modification of this embodiment)

図6は、本実施の形態の変形例を示すものであり、前記ROM12には、図2に示した静止画用である第1のコントラストカーブA1と同様の静止画用である第1のコントラストカーブ(ガンマカーブ)F1と図2に示した動画用である第2のコントラストカーブA2に加えて静止画作成モードにおいて使用される第2のコントラストカーブ(ガンマカーブ)F2が記憶されている。この第2のコントラストカーブF2は、図2に示した動画用である第2のコントラストカーブA2に、動画用の適正露出を加味したものである。すなわち、前述したように、家庭用のTVの画質は、ハイキー/ハイコントラストで高彩度、つまり派手目の絵作りがなされるように、調整されて出荷されている。したがって、動画用のコントラストカーブは、このような家庭用のTV画面上で再生された場合に、最適画質となるように静止画のそれに比較すると低めの値をとっている。さらに、コントラストカーブのみならず、「適正露出」と判定する露出の判定値も静止画のそれとは異なる場合がある。つまり、動画撮影時には静止画撮影時よりも露出アンダーな状態にして、静止画のそれに比較すると低めの値をとる場合がある。しかして、この変形例における静止画作成用である第2のコントラストカーブF2は、前記第2のコントラストカーブA2(図2)に動画用の露出補正分(露出アンダー)のゲインアップを加味した特性とされているのである。   FIG. 6 shows a modification of the present embodiment, and the ROM 12 has a first contrast for the still image similar to the first contrast curve A1 for the still image shown in FIG. In addition to the curve (gamma curve) F1 and the second contrast curve A2 for moving picture shown in FIG. 2, a second contrast curve (gamma curve) F2 used in the still image creation mode is stored. The second contrast curve F2 is obtained by adding appropriate exposure for moving images to the second contrast curve A2 for moving images shown in FIG. In other words, as described above, the image quality of a home TV is adjusted and shipped so that high-key / high-contrast and high-saturation, that is, flashy picture creation is made. Therefore, the contrast curve for moving images has a lower value than that of a still image so as to obtain an optimum image quality when reproduced on such a home TV screen. Further, not only the contrast curve, but also the exposure determination value determined as “appropriate exposure” may be different from that of the still image. In other words, when shooting a moving image, the exposure may be underexposed than when shooting a still image and take a lower value than that of a still image. Therefore, the second contrast curve F2 for creating a still image in this modified example is a characteristic in which the gain of the exposure correction amount for moving images (underexposure) is added to the second contrast curve A2 (FIG. 2). It is said that.

したがって、動画撮影モードが設定されている状態において、使用者によるシャッターキー操作により録画開始操作があると、CCD2及びユニット回路5を動画撮影用の駆動方式や駆動タイミングに切り替えることにより動画撮影処理を開始し、この動画撮影処理によりバッファメモリ11に格納されたYUVデータは順次DSP/CPU3へ送られ、第2のコントラストカーブA2を適用して画像処理される。しかる後に、MPEG方式のコーデックによりデータ圧縮した後コード化され、最終的にはアドレス・データバス10を介して動画ファイルとして保存メモリ13に記録される。   Therefore, in the state in which the moving image shooting mode is set, when a recording start operation is performed by a user's shutter key operation, the moving image shooting process is performed by switching the CCD 2 and the unit circuit 5 to a moving image shooting driving method and drive timing. The YUV data stored in the buffer memory 11 by the moving image shooting process is sequentially sent to the DSP / CPU 3 and is subjected to image processing by applying the second contrast curve A2. Thereafter, the data is compressed after being compressed by the MPEG codec, and finally encoded, and recorded as a moving image file in the storage memory 13 via the address / data bus 10.

また、この保存メモリ13に保存されている動画ファイルにおいて、任意のフレーム画像から静止画を生成するに際しては、前述した図5のフローチャートにおけるステップS3〜ステップS7と同様の処理を行えばよい。すなわち、ROM12から前記静止画用の第1のコントラストカーブF1を読み出すとともに(ステップS3)、前記静止画作成用の第2のコントラストカーブF2を読み出す(ステップS4)。そして、このステップS4で読み出した第2のコントラストカーブF2の逆カーブを算定して、これを第3のコントラストカーブとする(ステップS5)。したがって、このステップS5での処理により、図6に示すように、第2のコントラストカーブF2の逆カーブである第3のコントラストカーブF3が得られることとなる。   In addition, when generating a still image from an arbitrary frame image in the moving image file stored in the storage memory 13, the same processing as that in steps S3 to S7 in the flowchart of FIG. 5 described above may be performed. That is, the first contrast curve F1 for the still image is read from the ROM 12 (step S3), and the second contrast curve F2 for creating the still image is read (step S4). Then, an inverse curve of the second contrast curve F2 read out in step S4 is calculated and used as a third contrast curve (step S5). Therefore, by the process in step S5, as shown in FIG. 6, a third contrast curve F3, which is an inverse curve of the second contrast curve F2, is obtained.

さらに、第3のコントラストカーブF3に第1のコントラストカーブF1を乗じて、これを第4のコントラストカーブとする(ステップS6)。このステップS6での処理により、図6に示すように、第4のコントラストカーブF4が得られることとなる。そして、前記ステップS2で読み出して伸張した動画フレーム信号、つまり1フレーム分のYUVデータに、前記第4のコントラストカーブF4を適用してコントラスト変換する処理を施す(ステップS7)。   Further, the third contrast curve F3 is multiplied by the first contrast curve F1 to obtain a fourth contrast curve (step S6). As a result of the processing in step S6, a fourth contrast curve F4 is obtained as shown in FIG. Then, the moving image frame signal read and expanded in step S2, that is, YUV data for one frame, is subjected to a contrast conversion process by applying the fourth contrast curve F4 (step S7).

なお、この変形例においても、ROM12に第4のコントラストカーブF4を記憶させておき、単一のステップでROM12から第4のコントラストカーブF4を読み出して、ステップS7でこれを動画フレーム信号に適用するようにしてもよい。また、ROM12に第3のコントラストカーブF3を記憶させておくようにしてもよい。   In this modification as well, the fourth contrast curve F4 is stored in the ROM 12, the fourth contrast curve F4 is read from the ROM 12 in a single step, and this is applied to the moving image frame signal in step S7. You may do it. Further, the third contrast curve F3 may be stored in the ROM 12.

また、この変形例においては動画用の露出補正分を加味したコントラストカーブを用いて静止画生成処理する場合を示したが、コントラストカーブに露出補正分を加味することなく、別途露出補正分のみに対して変換処理を実行して静止画を生成するようにしてもよい。   Also, in this modification, the case where still image generation processing is performed using a contrast curve that takes exposure correction for moving images into account has been shown. However, only exposure correction is separately added without adding exposure correction to the contrast curve. Alternatively, a conversion process may be executed to generate a still image.

また、実施の形態及び変形例においては、動画用の画質特性とは逆の特性を用い、フレーム画像から生成された静止画の画質パラメータを撮影された静止画の画質パラメータと完全に一致させるようにしたが、「動画は先鋭度が足りないのでやや味付けする」などの目的のために、逆特性とは異なるパラメータを適用するようにしてもよい。   In the embodiment and the modification, the image quality parameter of the still image generated from the frame image is completely matched with the image quality parameter of the captured still image by using a characteristic opposite to the image quality characteristic for moving images. However, a parameter different from the reverse characteristic may be applied for the purpose of “slightly seasoning the moving image because of insufficient sharpness”.

また、実施の形態においては、複数のフレーム画像に対応する複数枚分の静止画を自動的に合成して静止画ファイルを作成するようにしたが、単一の静止画のみを生成するようにしてもよい。   In the embodiment, a still image file is created by automatically combining a plurality of still images corresponding to a plurality of frame images. However, only a single still image is generated. May be.

さらに、実施の形態においては、動画は固定的な特性カーブで画像処理されるものとしたが、固定的ではなくガンマカーブを変更しつつ動画撮影を行うカメラにおいては、各フレームと関連付けてどのようなガンマカーブが適用されたのかを示す関連情報を記録しておき、静止画生成時に前記関連情報を参照して適用する逆ガンマカーブを決定するといった方法も考えられる。また、フレーム毎に関連情報を記録することは記録に要する処理負担が大きくなってしまうので、動画ファイル毎に当該動画において最も適用頻度が高いガンマカーブ等を記録しておくようにしてもよい。   Furthermore, in the embodiment, the moving image is processed with a fixed characteristic curve. However, in a camera that shoots a moving image while changing the gamma curve instead of being fixed, how is it associated with each frame? It is also conceivable to record related information indicating whether a gamma curve is applied and determine an inverse gamma curve to be applied with reference to the related information when generating a still image. Also, since recording related information for each frame increases the processing load required for recording, a gamma curve or the like most frequently applied to the moving image may be recorded for each moving image file.

加えて、前述した実施の形態においては、YUVデータの状態で図5のフローチャートに示した処理を実行するようにしたり、静止画撮影時及び動画撮影時にYUVデータの状態(段階)でコントラスト変換処理、彩度変換処理、シャープネスフィルタ処理、露出変換処理等を実行するようにしたが、ベイヤーデータあるいはRGBデータの状態(段階)で同様の処理を実行するようにしてもよい。   In addition, in the above-described embodiment, the processing shown in the flowchart of FIG. 5 is executed in the state of YUV data, or contrast conversion processing is performed in the state (stage) of YUV data during still image shooting and moving image shooting. The saturation conversion process, the sharpness filter process, the exposure conversion process, and the like are executed, but the same process may be executed according to the state (stage) of the Bayer data or the RGB data.

1 デジタルカメラ
2 CCD
3 DSP/CPU
4 TG
5 ユニット回路
6 表示装置
7 キー入力部
10 データバス
11 バッファメモリ
12 ROM
13 保存メモリ
14 入出力インターフェース
1 Digital camera 2 CCD
3 DSP / CPU
4 TG
5 Unit Circuit 6 Display Device 7 Key Input Unit 10 Data Bus 11 Buffer Memory 12 ROM
13 Storage memory 14 Input / output interface

Claims (12)

複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得手段と、
この取得手段により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成手段と
を備えることを特徴とする静止画生成装置。
An acquisition unit configured to acquire a frame image from a moving image that includes a plurality of frame images and that has been subjected to image processing for the moving image;
Still image generation means for generating a still image subjected to image processing for still images by performing predetermined image processing on the frame image subjected to the image processing for moving image acquired by the acquisition means. Still image generating apparatus characterized by that.
動画を撮影して前記動画用の画像処理を施す動画撮影手段と、
静止画を撮影して前記静止画用の画像処理を施す静止画撮影手段と、
前記各撮影手段により撮影されて前記各画像処理が施された動画及び静止画を記録する記録手段とを備え、
前記取得手段は、前記記録手段に記録された動画から前記フレーム画像を取得し、
前記記録手段は、前記静止画生成手段により生成された静止画を更に記録することを特徴とする請求項1記載の静止画生成装置。
Movie shooting means for shooting a movie and performing image processing for the movie,
Still image photographing means for photographing a still image and performing image processing for the still image;
A recording unit that records a moving image and a still image that have been imaged by each of the imaging units and subjected to the image processing;
The acquisition unit acquires the frame image from the moving image recorded in the recording unit,
The still image generating apparatus according to claim 1, wherein the recording unit further records the still image generated by the still image generating unit.
前記各画像処理はガンマ処理であり、
前記静止画生成手段は、前記動画用のガンマ処理が施された前記動画の前記フレーム画像に所定のガンマ処理を施すことにより静止画用のガンマ処理が施された静止画を生成することを特徴とする請求項1又は2記載の静止画生成装置。
Each image processing is gamma processing,
The still image generating means generates a still image subjected to gamma processing for still images by performing predetermined gamma processing on the frame image of the moving images subjected to gamma processing for the moving images. The still image generating device according to claim 1 or 2.
前記動画用のガンマ処理が施された前記動画の前記フレーム画像を静止画用のガンマ処理が施された静止画に変換するためのガンマカーブを記憶する記憶手段を含み、
前記静止画生成手段は、前記動画用のガンマ処理が施された前記動画の前記フレーム画像に前記記憶手段に記憶されたガンマカーブに基づくガンマ処理を施すことにより静止画用のガンマ処理が施された静止画を生成することを特徴とする請求項1、2又は3記載の静止画生成装置。
Storage means for storing a gamma curve for converting the frame image of the moving image subjected to the gamma processing for the moving image into a still image subjected to the gamma processing for the still image;
The still image generating unit performs gamma processing for still images by performing gamma processing based on the gamma curve stored in the storage unit on the frame image of the moving image that has been subjected to gamma processing for moving images. 4. The still image generating apparatus according to claim 1, wherein the still image is generated.
前記静止画生成手段は、前記静止画用の画像処理を施すための第1の画像処理情報と、前記動画用の画像処理を施すための第2の画像処理情報とを記憶する記憶手段を含み、
この記憶手段に記憶された各画像処理情報に基づき、画像処理を施すことにより静止画用の画像処理が施された静止画を生成することを特徴とする請求項1、2又は3記載の静止画生成装置。
The still image generation means includes storage means for storing first image processing information for performing image processing for the still image and second image processing information for performing image processing for the moving image. ,
The still image according to claim 1, 2 or 3, wherein a still image subjected to image processing for a still image is generated by performing image processing based on each image processing information stored in the storage means. Image generation device.
前記静止画生成手段は、前記第2の画像処理情報に基づき逆特性を有する第3の画像処理情報を算定し、この算定した第3の画像処理情報と前記第1の画像処理情報とに基づき第4の画像処理情報を算定する算定手段を更に含み、
前記第2の画像処理情報に基づく画像処理が施された前記動画の前記フレーム画像に、前記第4の画像処理情報に基づく画像処理を施すことにより静止画用の画像処理が施された静止画を生成することを特徴とする請求項5記載の静止画生成装置。
The still image generation means calculates third image processing information having reverse characteristics based on the second image processing information, and based on the calculated third image processing information and the first image processing information. A calculation means for calculating the fourth image processing information;
Still images obtained by performing image processing for still images by performing image processing based on the fourth image processing information on the frame images of the moving image subjected to image processing based on the second image processing information The still image generation device according to claim 5, wherein:
前記各画像処理は彩度調整処理であり、
前記静止画生成手段は、前記動画用の彩度調整処理が施された前記動画の前記フレーム画像に所定の彩度調整処理を施すことにより静止画用の彩度調整処理が施された静止画を生成することを特徴とする請求項1から6にいずれか記載の静止画生成装置。
Each of the image processes is a saturation adjustment process,
The still image generation means performs a predetermined saturation adjustment process on the frame image of the moving image that has been subjected to the saturation adjustment process for the moving image, thereby performing a still image subjected to the saturation adjustment process for the still image The still image generating device according to claim 1, wherein the still image generating device generates a still image.
前記各画像処理はフィルタ処理であり、
前記静止画生成手段は、前記動画用のフィルタ処理が施された前記動画の前記フレーム画像に所定のフィルタ処理を施すことにより静止画用のフィルタ処理が施された静止画を生成することを特徴とする請求項1から7にいずれか記載の静止画生成装置。
Each of the image processes is a filter process,
The still image generation means generates a still image subjected to still image filter processing by performing predetermined filter processing on the frame image of the moving image subjected to the moving image filter processing. The still image generating device according to claim 1.
前記各画像処理は露出調整処理であり、
前記静止画生成手段は、前記動画用の露出調整処理が施された前記動画の前記フレーム画像に所定の露出調整処理を施すことにより静止画用の露出調整処理が施された静止画を生成することを特徴とする請求項1から8にいずれか記載の静止画生成装置。
Each of the image processes is an exposure adjustment process,
The still image generation means generates a still image subjected to exposure adjustment processing for a still image by performing predetermined exposure adjustment processing on the frame image of the moving image subjected to exposure adjustment processing for the moving image. The still image generating apparatus according to claim 1, wherein
前記取得手段は、前記動画からフレーム画像を選択して取得する第1の取得手段と、
この第1の取得手段により取得されたフレーム画像と時間的に近接する複数のフレーム画像を取得する第2の取得手段とを含み、
前記静止画生成手段は、前記第1の取得手段により取得されたフレーム画像に対応する静止画と、前記第2の取得手段により取得されたフレーム画像に対応する静止画とを含む単一の静止画を生成することを特徴とする請求項1から9にいずれか記載の静止画生成装置。
The acquisition means includes first acquisition means for selecting and acquiring a frame image from the moving image;
A second acquisition means for acquiring a plurality of frame images that are temporally close to the frame image acquired by the first acquisition means;
The still image generation unit includes a single still image including a still image corresponding to the frame image acquired by the first acquisition unit and a still image corresponding to the frame image acquired by the second acquisition unit. 10. The still image generating apparatus according to claim 1, wherein the image is generated.
静止画生成装置が有するコンピュータを、
複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得手段と、
この取得手段により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成手段と
して機能させることを特徴とする静止画生成プログラム。
A computer included in the still image generation device,
An acquisition unit configured to acquire a frame image from a moving image that includes a plurality of frame images and that has been subjected to image processing for the moving image;
By performing predetermined image processing on the frame image subjected to the image processing for moving image acquired by the acquiring unit, the functioning as a still image generating unit that generates a still image subjected to image processing for still image is performed. Still image generation program characterized by that.
複数のフレーム画像で構成され動画用の画像処理が施された動画からフレーム画像を取得する取得工程と、
この取得工程により取得された前記動画用の画像処理が施されたフレーム画像に所定の画像処理を施すことにより静止画用の画像処理が施された静止画を生成する静止画生成工程と
を含むことを特徴とする静止画生成方法。
An acquisition step of acquiring a frame image from a moving image that is composed of a plurality of frame images and subjected to image processing for the moving image;
A still image generation step of generating a still image subjected to the image processing for the still image by performing predetermined image processing on the frame image subjected to the image processing for the moving image acquired by the acquisition step. Still image generation method characterized by the above.
JP2009286047A 2009-12-17 2009-12-17 Still image generating apparatus, still image generating program, and still image generating method Expired - Fee Related JP5120369B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009286047A JP5120369B2 (en) 2009-12-17 2009-12-17 Still image generating apparatus, still image generating program, and still image generating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286047A JP5120369B2 (en) 2009-12-17 2009-12-17 Still image generating apparatus, still image generating program, and still image generating method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005121912A Division JP4604814B2 (en) 2005-04-20 2005-04-20 Still image generating apparatus, still image generating program, and still image generating method

Publications (2)

Publication Number Publication Date
JP2010136387A true JP2010136387A (en) 2010-06-17
JP5120369B2 JP5120369B2 (en) 2013-01-16

Family

ID=42347117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286047A Expired - Fee Related JP5120369B2 (en) 2009-12-17 2009-12-17 Still image generating apparatus, still image generating program, and still image generating method

Country Status (1)

Country Link
JP (1) JP5120369B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180125410A (en) * 2018-10-19 2018-11-23 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
KR101919132B1 (en) * 2017-05-15 2019-02-08 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
KR20200018559A (en) * 2020-02-13 2020-02-19 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0286451A (en) * 1988-09-22 1990-03-27 Victor Co Of Japan Ltd Video printer
JP2003198902A (en) * 2001-12-25 2003-07-11 Sony Corp Panoramic picture generator
WO2005032125A1 (en) * 2003-09-26 2005-04-07 Sharp Kabushiki Kaisha Panorama image creation device and panorama image imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0286451A (en) * 1988-09-22 1990-03-27 Victor Co Of Japan Ltd Video printer
JP2003198902A (en) * 2001-12-25 2003-07-11 Sony Corp Panoramic picture generator
WO2005032125A1 (en) * 2003-09-26 2005-04-07 Sharp Kabushiki Kaisha Panorama image creation device and panorama image imaging device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101919132B1 (en) * 2017-05-15 2019-02-08 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
US10425594B2 (en) 2017-05-15 2019-09-24 Twoeyes Tech, Inc. Video processing apparatus and method and computer program for executing the video processing method
KR20180125410A (en) * 2018-10-19 2018-11-23 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
KR102079227B1 (en) * 2018-10-19 2020-02-19 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
KR20200018559A (en) * 2020-02-13 2020-02-19 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method
KR102158357B1 (en) * 2020-02-13 2020-09-22 주식회사 뷰오 Apparatus, method for processing video and computer program for implementing the method

Also Published As

Publication number Publication date
JP5120369B2 (en) 2013-01-16

Similar Documents

Publication Publication Date Title
US8218026B2 (en) Imaging apparatus, imaging method, reproducing apparatus and reproducing method, and recording medium for associating sound data with image data
JP5092983B2 (en) Movie playback device, imaging device, and program
JP2007221570A (en) Imaging apparatus and its program
JP2006324808A (en) Image processing apparatus and image processing method
JP2008078837A (en) Imaging apparatus, image display control program, and image display control method
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP5873380B2 (en) Image processing apparatus and control method thereof
JP2014167609A (en) Image processing apparatus, control method thereof, program, and storage medium
JP2002300372A (en) Image processing device, recording medium for recording image processing program, and image reproducing device
JP2009194770A (en) Imaging device, moving image reproducing apparatus, and program thereof
JP2012119761A (en) Electronic apparatus, image processing method and program
JP2007142851A (en) Image processor and processing method, imaging apparatus, and program
JP2006352229A (en) Digital camera
JP2006340067A (en) Image display device
JP2015195582A (en) Image processing device, control method thereof, imaging apparatus, control method thereof, and recording medium
JP5120369B2 (en) Still image generating apparatus, still image generating program, and still image generating method
JP2008160291A (en) Image signal processor, image signal processing program, and imaging apparatus
JP4439173B2 (en) Digital camera and information terminal
JP4268891B2 (en) Imaging apparatus and image generation method thereof
JP4992963B2 (en) Still image generating apparatus, still image generating program, and still image generating method
JP2009118052A (en) Image signal processing method and apparatus
JP4604814B2 (en) Still image generating apparatus, still image generating program, and still image generating method
JP2014049882A (en) Imaging apparatus
JP2008160290A (en) Imaging apparatus, and imaging method
JP4306584B2 (en) Digital camera

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5120369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees