JP2005129996A - Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images - Google Patents

Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images Download PDF

Info

Publication number
JP2005129996A
JP2005129996A JP2003360289A JP2003360289A JP2005129996A JP 2005129996 A JP2005129996 A JP 2005129996A JP 2003360289 A JP2003360289 A JP 2003360289A JP 2003360289 A JP2003360289 A JP 2003360289A JP 2005129996 A JP2005129996 A JP 2005129996A
Authority
JP
Japan
Prior art keywords
correction amount
images
image
pixel
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003360289A
Other languages
Japanese (ja)
Inventor
Kenji Matsuzaka
健治 松坂
Makoto Ouchi
真 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003360289A priority Critical patent/JP2005129996A/en
Publication of JP2005129996A publication Critical patent/JP2005129996A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten the processing time, when a static image of high resolution is generated from a plurality of low-resolution images. <P>SOLUTION: A correction amount for correcting a positional deviation between respective images represented by a plurality of first image data is estimated. A plurality of the first image data are corrected, on the basis of the estimated correction amount, and second image data representing a higher resolution image than the resolution of the image represented by the first image data are generated as static image data on the basis of a plurality of the corrected first image data are generated as static image data. However, when estimating the correction amount, first designation of a prescribed partial shared region by a user is permitted, with respect to the respective images represented by a plurality of the first image data. A correction amount estimate range to be utilized for estimating the correction amount is set, on the basis of the designated prescribed partial region, with respect to a plurality of the first images. Then the correction amount is estimated, on the basis of image data included in the correction amount estimate range, among a plurality of the first image data. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、複数の低解像度の画像から高解像度の画像を生成する技術に関するものである。   The present invention relates to a technique for generating a high-resolution image from a plurality of low-resolution images.

従来、ディジタルビデオカメラ等(以下、単に「ビデオカメラ」とも呼ぶ。)で撮影された動画像を再生してその1シーンをキャプチャし、キャプチャした1フレームの画像(以下、「フレーム画像」とも呼ぶ。)よりも高解像度の画像を生成することが行われている。ここで、解像度とは、1枚の画像を構成する画素の密度あるいは画素数を意味している。   Conventionally, a moving image shot by a digital video camera or the like (hereinafter also simply referred to as “video camera”) is reproduced to capture one scene, and the captured one frame image (hereinafter also referred to as “frame image”). .)) Is generated. Here, the resolution means the density or the number of pixels constituting one image.

このような高解像度の画像の生成方法としては、複数の低解像度の画像を重ね合わせて合成することによって生成する方法が考えられている。このように複数の画像を重ね合わせて合成する方法は、単純に1つの画像を解像度変換する方法に比べて高画質化が期待できる。   As a method for generating such a high-resolution image, a method of generating a plurality of low-resolution images by superimposing and synthesizing them is considered. In this way, the method of superimposing and synthesizing a plurality of images can be expected to have higher image quality than the method of simply converting the resolution of one image.

例えば、特許文献1には、連続する(n+1)枚のフレーム画像から1枚のフレーム画像を基準フレーム画像として選択し、この基準フレーム画像に対する他のn枚のフレーム画像(対象フレーム画像)の動きベクトルをそれぞれ算出し、各動きベクトルに基づいて、(n+1)枚のフレーム画像を合成して1枚の高解像度な画像を生成する技術が開示されている。   For example, in Patent Document 1, one frame image is selected as a reference frame image from consecutive (n + 1) frame images, and the movement of other n frame images (target frame images) with respect to the reference frame image. A technique is disclosed in which vectors are calculated and (n + 1) frame images are synthesized based on each motion vector to generate one high-resolution image.

特開2000−244851号公報Japanese Patent Laid-Open No. 2000-244851

しかしながら、従来技術のように、複数の低解像度の画像を合成して1枚の高解像度な画像を生成する場合、1つの画像から1枚の高解像度の画像を生成する場合に比べて、生成に利用される画像のデータ量が多くなり、これに応じて処理時間が長くなってしまうという問題があった。   However, when a single high-resolution image is generated by synthesizing a plurality of low-resolution images as in the prior art, it is generated as compared with a case where a single high-resolution image is generated from one image. There is a problem that the amount of data of an image used for the process increases, and the processing time increases accordingly.

本発明は、上述の課題を解決するためになされたものであり、複数の低解像度な画像から高解像度の画像を生成する場合の処理時間を短くすることが可能な技術を提供することを目的とする。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a technique capable of shortening the processing time when a high-resolution image is generated from a plurality of low-resolution images. And

上述の課題の少なくとも一部を解決するため、本発明では、比較的低解像度の複数の第1の画像から比較的高解像度の第2の画像を生成する際に、以下の処理を行う。まず、前記複数の第1の画像間の位置ずれを補正するための補正量を推定する。そして、推定した前記補正量に基づいて前記複数の第1の画像の位置ずれを補正するとともに、補正された前記複数の第1の画像を合成することにより前記第2の画像を生成する。ただし、補正量を推定する際には、まず、 前記複数の第1の画像中の所定の部分領域をユーザが指定することを許容するとともに、前記複数の第1の画像の範囲に対し、指定された前記所定の部分領域に基づいて前記補正量の推定に利用されるべき補正量推定範囲を設定する。そして、設定された前記補正量推定範囲に対応する前記複数の第1の画像に基づいて前記補正量を推定する。   In order to solve at least a part of the above-described problems, the present invention performs the following processing when generating a second image having a relatively high resolution from a plurality of first images having a relatively low resolution. First, a correction amount for correcting a positional shift between the plurality of first images is estimated. Then, the positional deviation of the plurality of first images is corrected based on the estimated correction amount, and the second image is generated by synthesizing the plurality of corrected first images. However, when estimating the correction amount, first, the user is allowed to specify a predetermined partial area in the plurality of first images, and is specified for the range of the plurality of first images. A correction amount estimation range to be used for estimation of the correction amount is set based on the predetermined partial area. Then, the correction amount is estimated based on the plurality of first images corresponding to the set correction amount estimation range.

以上のようにすれば、設定された補正量推定範囲に対応する複数の第1の画像に基づいて補正量を推定することができるので、複数の第1の画像の全てに基づいて補正量を推定する場合に比べて処理時間を短くすることができる。   According to the above configuration, the correction amount can be estimated based on the plurality of first images corresponding to the set correction amount estimation range. Therefore, the correction amount can be calculated based on all of the plurality of first images. The processing time can be shortened compared to the case of estimation.

なお、前記複数の第1の画像は、動画像の中から取得された時系列に連続する複数の画像であってもよい。   Note that the plurality of first images may be a plurality of images that are acquired in time series from a moving image.

こうすれば、動画像に含まれる複数の低解像度な画像から高解像度の画像を生成する場合の処理時間を短くすることができる。   In this way, it is possible to shorten the processing time when a high-resolution image is generated from a plurality of low-resolution images included in the moving image.

また、第1の画像には、フレーム画像やフィールド画像が含まれる。フレーム画像とは、プログレッシブ方式(ノンインタレース方式と呼ぶ)で表示可能な静止画像を意味しており、フィールド画像とは、インタレース方式において、ノンインタレース方式のフレーム画像に相当する画像を構成する奇数フィールドの静止画像と偶数フィールドの静止画像を意味している。   The first image includes a frame image and a field image. A frame image means a still image that can be displayed by a progressive method (referred to as a non-interlace method), and a field image constitutes an image corresponding to a frame image of a non-interlace method in an interlace method. This means an odd field still image and an even field still image.

ここで、前記補正量推定範囲として前記所定の部分領域を設定するようにしてもよい。また、前記補正量推定範囲として前記所定の部分領域以外の領域を設定するようにしてもよい。さらに、前記補正量推定範囲として、前記所定の部分領域と、前記所定の部分領域以外の領域のいずれを設定するか、ユーザが選択することができるようにしてもよい。   Here, the predetermined partial area may be set as the correction amount estimation range. An area other than the predetermined partial area may be set as the correction amount estimation range. Furthermore, the user may be able to select which of the predetermined partial area and an area other than the predetermined partial area is set as the correction amount estimation range.

特に、部分領域以外の領域を補正量推定範囲として設定する場合には、例えば、複数の第1の画像間で局所的な画像の変化、いわゆる「動き」が発生するような場合に、この動きの部分を部分領域として指定することにより、動きのない領域の画像データのみを用いて補正量の推定を高精度に行うことができる。   In particular, when a region other than the partial region is set as the correction amount estimation range, for example, when a local image change, that is, a so-called “movement” occurs between the plurality of first images, this movement is performed. By designating this part as a partial area, it is possible to estimate the correction amount with high accuracy using only the image data of the area without motion.

なお、本発明は、以下に示すような種々の態様で実現することが可能である。
(1)画像生成方法、画像処理方法、画像データ生成方法。
(2)画像生成装置、画像処理装置、画像データ生成装置。
(3)上記の装置や方法を実現するためのコンピュータプログラム。
(4)上記の装置や方法を実現するためのコンピュータプログラムを記録した記憶媒体。
(5)上記の装置や方法を実現するためのコンピュータプログラムを含み搬送波内で具現化されたデータ信号。
Note that the present invention can be realized in various modes as described below.
(1) An image generation method, an image processing method, and an image data generation method.
(2) An image generation device, an image processing device, and an image data generation device.
(3) A computer program for realizing the above apparatus and method.
(4) A storage medium storing a computer program for realizing the above-described apparatus and method.
(5) A data signal embodied in a carrier wave including a computer program for realizing the above apparatus and method.

本発明をコンピュータプログラムまたはそのプログラムを記録した記憶媒体等として構成する場合には、上記装置の動作を制御するプログラム全体として構成するものとしてもよいし、本発明の機能を果たす部分のみを構成するものとしてもよい。また、記憶媒体としては、フレキシブルディスクやCD−ROM、DVD−ROM/RAM、光磁気ディスク、ICカード、ROMカートリッジ、パンチカード、バーコードなどの符号が印刷された印刷物、コンピュータの内部記憶装置(RAMやROMなどのメモリ)および外部記憶装置などコンピュータが読み取り可能な種々の媒体を利用できる。   When the present invention is configured as a computer program or a storage medium storing the program, the entire program for controlling the operation of the apparatus may be configured, or only the portion that performs the functions of the present invention is configured. It may be a thing. The storage medium includes a flexible disk, a CD-ROM, a DVD-ROM / RAM, a magneto-optical disk, an IC card, a ROM cartridge, a punch card, a printed matter on which a code such as a barcode is printed, an internal storage device of a computer ( A variety of computer-readable media such as a memory such as a RAM and a ROM and an external storage device can be used.

以下では、本発明の実施の形態を実施例に基づいて以下の手順で説明する。
A.静止画像生成装置の構成:
B.静止画像生成の手順:
B1.フレーム画像取得処理:
B2.補正量推定処理
B2.1.ずれ補正の概要:
B2.2.補正量の推定手法:
B2.3.実施例の補正量推定:
B3.動き対応合成処理:
B3.1.動き非対応合成処理:
B3.2.動き対応合成処理:
C.効果:
D.変形例:
Hereinafter, the embodiment of the present invention will be described based on the following procedure.
A. Configuration of still image generator:
B. Still image generation procedure:
B1. Frame image acquisition processing:
B2. Correction amount estimation processing B2.1. Outline of displacement correction:
B2.2. Correction amount estimation method:
B2.3. Example correction amount estimation:
B3. Motion compatible composition processing:
B3.1. Non-motion compatible composition processing:
B3.2. Motion compatible composition processing:
C. effect:
D. Variation:

A.静止画像生成装置の構成:
図1は、本発明の一実施例としての静止画像生成装置の概略構成を示す説明図である。この静止画像生成装置は、汎用のパーソナルコンピュータであり、コンピュータ100に情報を入力する装置としてのキーボード130およびマウス140と、情報を出力する装置としてのディスプレイ120およびプリンタ200と、を備えている。また、コンピュータ100に動画像を表す画像データ(以下、「動画像データ」とも呼ぶ。)を入力する装置としてディジタルビデオカメラ300およびCD−R/RWドライブ150を備えている。なお、動画像データを入力する装置としては、CD−R/RWドライブの他DVDドライブ、ハードディスクドライブ等の種々の情報記憶媒体からデータを読み出すことが可能な駆動装置を備えることも可能である。
A. Configuration of still image generator:
FIG. 1 is an explanatory diagram showing a schematic configuration of a still image generating apparatus as an embodiment of the present invention. This still image generation device is a general-purpose personal computer, and includes a keyboard 130 and a mouse 140 as devices for inputting information to the computer 100, and a display 120 and a printer 200 as devices for outputting information. Further, a digital video camera 300 and a CD-R / RW drive 150 are provided as devices for inputting image data representing moving images (hereinafter also referred to as “moving image data”) to the computer 100. As a device for inputting moving image data, it is possible to provide a drive device capable of reading data from various information storage media such as a DVD drive and a hard disk drive in addition to a CD-R / RW drive.

コンピュータ100は、所定のオペレーティングシステムの下で、静止画像を生成するためのアプリケーションプログラムを実行することにより、静止画像生成装置として機能する。特に、図に示したように、表示制御部104、フレーム画像取得部106、補正量推定部108、高解像度化処理部110、印刷制御部112、および保存制御部114として機能する。なお、補正量推定部108には、補正量推定範囲設定部108aおよび補正量推定処理部108bとが含まれている。   The computer 100 functions as a still image generation device by executing an application program for generating a still image under a predetermined operating system. In particular, as shown in the figure, it functions as a display control unit 104, a frame image acquisition unit 106, a correction amount estimation unit 108, a resolution enhancement processing unit 110, a print control unit 112, and a storage control unit 114. The correction amount estimation unit 108 includes a correction amount estimation range setting unit 108a and a correction amount estimation processing unit 108b.

フレーム画像取得部106は、ユーザの所望する動画像の選択の指示がキーボード130やマウス140から入力されると、CD−R/RWドライブ150やビデオカメラ300などから、図示しないメモリ内に動画像を表す動画像データを読み込む。この動画像データには、それぞれ静止画像を表す複数フレームの画像データ(以下、「フレーム画像データ」とも呼ぶ。)が含まれている。   When an instruction to select a moving image desired by the user is input from the keyboard 130 or the mouse 140, the frame image acquisition unit 106 receives a moving image in a memory (not shown) from the CD-R / RW drive 150 or the video camera 300. Is read. This moving image data includes a plurality of frames of image data each representing a still image (hereinafter also referred to as “frame image data”).

そして、フレーム画像取得部106は、キーボード130やマウス140からユーザによって動画像の再生の指示が入力されると、メモリに格納されている各フレームのフレーム画像データを順に読み出す。このとき、表示制御部104は、読み出された各フレームのフレーム画像データの表す静止画像をディスプレイ120に順に表示する。これにより、ディスプレイ120上で動画像が表示される。   When the user inputs a moving image playback instruction from the keyboard 130 or mouse 140, the frame image acquisition unit 106 sequentially reads the frame image data of each frame stored in the memory. At this time, the display control unit 104 sequentially displays still images represented by the read frame image data of each frame on the display 120. Thereby, a moving image is displayed on the display 120.

また、フレーム画像取得部106は、キーボード130やマウス140からユーザによってフレーム画像取得の指示が入力されると、複数のフレーム画像データを取得して、動画像データとは別のメモリ領域に格納する。また、キーボード130やマウス140からユーザによって静止画像生成の指示が入力されると、後述するように、補正量推定部108は複数のフレーム画像間の位置ずれの補正量を推定し、高解像度化処理部110は推定された補正量に基づいて複数のフレーム画像間の位置ずれを補正するとともに、補正後の低解像度な複数フレームのフレーム画像を表す複数のフレーム画像データから高解像度な静止画像(以下、「高解像度静止画像」とも呼ぶ。)を表す画像データ(以下、「高解像度静止画像データ」とも呼ぶ。)を生成する。表示制御部104は、生成された高解像度静止画像データの表す高解像度静止画像をディスプレイ120に表示する。さらに、キーボード130やマウス140からユーザによって印刷の指示が入力されると、印刷制御部112は生成された高解像度静止画像データに基づいて印刷データを生成し、プリンタ200で印刷させることもできる。また、キーボード130やマウス140からユーザによって保存の指示が入力されると、保存制御部114は生成された高解像度静止画像データを、CD−RWやハードディスク等の記憶媒体に格納することもできる。   Also, when a user inputs a frame image acquisition instruction from the keyboard 130 or mouse 140, the frame image acquisition unit 106 acquires a plurality of frame image data and stores them in a memory area separate from the moving image data. . Further, when a still image generation instruction is input by the user from the keyboard 130 or the mouse 140, the correction amount estimation unit 108 estimates the correction amount of the positional deviation between the plurality of frame images and increases the resolution as will be described later. The processing unit 110 corrects misalignment between a plurality of frame images based on the estimated correction amount, and also uses a plurality of frame image data representing the corrected low-resolution frame images as a high-resolution still image ( Hereinafter, image data (hereinafter also referred to as “high resolution still image data”) representing “high resolution still image”) is generated. The display control unit 104 displays a high-resolution still image represented by the generated high-resolution still image data on the display 120. Furthermore, when a printing instruction is input by the user from the keyboard 130 or the mouse 140, the print control unit 112 can generate print data based on the generated high-resolution still image data, and can cause the printer 200 to print the print data. In addition, when a save instruction is input from the keyboard 130 or the mouse 140 by the user, the save control unit 114 can store the generated high-resolution still image data in a storage medium such as a CD-RW or a hard disk.

B.静止画像生成の手順:
高解像度な静止画像を生成するためのアプリケーションプログラムが実行されると、まず、静止画像生成の対象として指定するフレーム画像が含まれている動画像として、ディジタルビデオカメラ300から供給される動画像データの表す動画像を選択するか、動画ファイルとしてCD−RW等の記憶媒体に格納されている動画像データの表す動画像を選択するかの選択が促される。ユーザによって、いずれかの選択がなされると、これに応じた処理が開始される。なお、以下では、CD−RWに格納されている動画像データの表す動画像を選択した場合の処理を例に説明する。
B. Still image generation procedure:
When an application program for generating a high-resolution still image is executed, first, moving image data supplied from the digital video camera 300 as a moving image including a frame image specified as a still image generation target. Is selected, or a moving image represented by moving image data stored in a storage medium such as a CD-RW is selected as a moving image file. When one of the selections is made by the user, processing corresponding to this is started. In the following, an example of processing when a moving image represented by moving image data stored in a CD-RW is selected will be described.

図2は、高解像度静止画像データの生成手順を示す説明図である。この高解像度静止画像データの生成手順では、フレーム画像取得(ステップS10)、補正量推定(ステップS20)、動き対応合成(ステップS30)の各処理が順に実行されて、高解像度静止画像データが生成される。そして、生成された高解像度静止画像データの表す高解像度静止画像の表示や印刷が可能となる。また、生成された高解像度静止画像データの保存が可能となる。以下では、各処理を順に説明する。   FIG. 2 is an explanatory diagram showing a procedure for generating high-resolution still image data. In this high-resolution still image data generation procedure, frame image acquisition (step S10), correction amount estimation (step S20), and motion correspondence synthesis (step S30) are sequentially executed to generate high-resolution still image data. Is done. The high-resolution still image represented by the generated high-resolution still image data can be displayed and printed. In addition, the generated high-resolution still image data can be saved. Below, each process is demonstrated in order.

B1.フレーム画像取得処理:
ステップS10のフレーム画像取得処理では、再生表示される動画像から高解像度静止画像を生成したいフレーム画像(以下、「高解像度化対象画像」とも呼ぶ。)を指定し、以下で説明するように複数フレームのフレーム画像を表す画像データ(フレーム画像データ)を取得する。
B1. Frame image acquisition processing:
In the frame image acquisition process in step S10, a frame image (hereinafter, also referred to as “high resolution target image”) for which a high resolution still image is to be generated from a moving image to be reproduced and displayed is designated, and a plurality of frames are described as described below. Image data (frame image data) representing a frame image of the frame is acquired.

図3は、ユーザが動画像の再生中に高解像度化対象画像を指定するためのユーザインタフェース画面を示す説明図である。なお、このユーザインタフェース画面NW0(以下、単に「高解像度化対象指定画面NW0」とも呼ぶ。)は、表示制御部104(図1参照)によってディスプレイ120に表示される。   FIG. 3 is an explanatory diagram showing a user interface screen for the user to specify a high resolution target image during playback of a moving image. The user interface screen NW0 (hereinafter also simply referred to as “high resolution target designation screen NW0”) is displayed on the display 120 by the display control unit 104 (see FIG. 1).

ユーザがキーボード130あるいはマウス140を通じてカーソルCsを操作することにより、「ファイル」ボタンA0を押すと、ファイルを開くための操作画面(不図示)が表示される。なお、以下では、「キーボード130あるいはマウス140を通じてカーソルCsを操作する」なる記載は、単に「カーソルCsを操作する」のように記載する。この操作画面において、再生したい動画像を示す動画ファイルを動画ファイル一覧の中から選択指定すると、指定された動画ファイルの動画像データが、格納されている記憶媒体(ここではCD−RW)から読み込まれて、図示しないメモリに格納される。そして、読み込まれた動画像データの表す動画像は、自動的に、あるいはユーザがカーソルCsを操作して「再生」ボタンA1を押すことにより、高解像度化対象指定画面NW0中の画像表示欄SW0に再生表示される。なお、本例は、動画ファイルとしてCD−RWに格納されている動画像データの表す動画像が選択された場合を例に説明しているが、ディジタルビデオカメラ300から供給される動画像データの表す動画像が選択された場合には、上記のように、再生したい動画像を示す動画ファイルを動画ファイル一覧の中から選択指定する処理は省略される。   When the user operates the cursor Cs through the keyboard 130 or the mouse 140 and presses the “file” button A0, an operation screen (not shown) for opening the file is displayed. In the following, the description “operating the cursor Cs through the keyboard 130 or the mouse 140” is simply described as “operating the cursor Cs”. In this operation screen, when a moving image showing a moving image to be reproduced is selected and specified from the moving image file list, moving image data of the specified moving image file is read from a storage medium (here, a CD-RW). And stored in a memory (not shown). Then, the moving image represented by the read moving image data is automatically or when the user operates the cursor Cs and presses the “play” button A1, the image display field SW0 in the high resolution target designation screen NW0. Will be displayed. In this example, a case where a moving image represented by moving image data stored in a CD-RW as a moving image file is selected as an example is described. However, moving image data supplied from the digital video camera 300 is selected. When the moving image to be displayed is selected, as described above, the process of selecting and specifying the moving image file indicating the moving image to be reproduced from the moving image file list is omitted.

ここで、動画像の再生中に、ユーザがカーソルCsを操作して「停止」ボタンA2あるいは「一時停止」ボタンA3を押すことにより、動画像の再生が停止あるいは一時停止されると、その時点において画像表示欄SW0に表示されていたフレーム画像が高解像度化対象画像として指定される。   Here, when the reproduction of the moving image is stopped or paused by the user operating the cursor Cs and pressing the “stop” button A2 or the “pause” button A3 during the reproduction of the moving image, The frame image displayed in the image display field SW0 is designated as the resolution enhancement target image.

そして、この高解像度化対象画像として指定されたフレーム画像を基準のフレーム画像(以下、「基準フレーム画像」とも呼ぶ。)として、時系列に連続する複数フレームのフレーム画像データが、後述する静止画像生成のために取得され、メモリ内に格納される。なお、以下の実施例では、基準フレーム画像を先頭に時系列に連続する4フレームのフレーム画像データが取得されるものとする。   Then, the frame image designated as the resolution enhancement target image is used as a reference frame image (hereinafter also referred to as “reference frame image”), and a plurality of frames of frame image data continuous in time series are still images to be described later. Obtained for generation and stored in memory. In the following embodiments, it is assumed that four frames of frame image data are acquired in chronological order starting with the reference frame image.

なお、ユーザがカーソルCsを操作して「コマ送り」ボタンA4や「コマ戻し」ボタンA5を押すことによって、一時停止あるいは停止時に画像表示欄SW0に表示されている画像からコマ送りあるいはコマ戻しされ画像が表示される。この場合にも、コマ送りまたはコマ戻し後に表示されているフレーム画像を高解像度化対象画像として指定し、これを基準として複数フレームのフレーム画像データを取得することもできる。   Note that when the user operates the cursor Cs and presses the “frame advance” button A4 or the “frame return” button A5, the frame displayed on the image display field SW0 at the time of pause or stop is moved forward or backward. An image is displayed. Also in this case, a frame image displayed after frame advance or frame return can be designated as a high resolution target image, and frame image data of a plurality of frames can be acquired based on this.

また、指定された高解像度化対象画像を表す画像データについては、「保存」ボタンA12を押すことにより、保存制御部114によって、CD−RWやハードディスク等の記憶装置に格納することができる。また、「プリント」ボタンA13を押すことにより、印刷制御部112によって、指定された高解像度化対象画像を表す画像データに基づいて印刷データが生成されて、プリンタ200(図1参照)で印刷することもできる。   Further, the image data representing the designated resolution enhancement target image can be stored in a storage device such as a CD-RW or a hard disk by the save control unit 114 by pressing the “Save” button A12. When the “print” button A13 is pressed, the print control unit 112 generates print data based on the image data representing the designated resolution-enhanced image and prints it with the printer 200 (see FIG. 1). You can also

以上のように、画像表示欄SW0に動画像を表示する機能は表示制御部104によって実行され、動画像の再生中に複数のフレーム画像データを取得する機能はフレーム画像取得部106(図1参照)によって実行される。   As described above, the function of displaying a moving image in the image display field SW0 is executed by the display control unit 104, and the function of acquiring a plurality of frame image data during playback of a moving image is the frame image acquiring unit 106 (see FIG. 1). ) Is executed.

なお、フレーム画像データは、ドットマトリクス状の各画素の階調値(以下、「画素値」とも呼ぶ。)を示す階調データ(以下、「画素データ」とも呼ぶ。)で構成されている。画素データは、Y(輝度)、Cb(ブルーの色差)、Cr(レッドの色差)からなるYCbCrデータや、R(レッド)、G(グリーン)、B(ブルー)からなるRGBデータ等である。   Note that the frame image data is composed of gradation data (hereinafter also referred to as “pixel data”) indicating the gradation value (hereinafter also referred to as “pixel value”) of each pixel in the dot matrix form. The pixel data is YCbCr data composed of Y (luminance), Cb (blue color difference), Cr (red color difference), RGB data composed of R (red), G (green), and B (blue).

高解像度化対象画像の指定後、カーソルCsを操作して「高解像度化」ボタンA11を押すと、高解像度静止画像データを生成する処理が開始され、補正量推定処理(図2のステップS20)および動き対応合成処理(ステップS30)が順に実行される。   After designating the image to be increased in resolution, when the cursor Cs is operated and the “enhance resolution” button A11 is pressed, processing for generating high-resolution still image data is started, and correction amount estimation processing (step S20 in FIG. 2). And a motion corresponding | compatible synthesis process (step S30) is performed in order.

B2.補正量推定処理:
ステップS20の補正量推定処理では、取得した4フレームの各フレーム間において発生しているずれ(位置ずれ)を補正するための補正量の推定処理が実行される。この補正量の推定では、4フレームのうち、1つの基準フレームを除く他の3フレームを対象フレームとし、各対象フレームについて、基準フレームに対する位置ずれを補正するための補正量がそれぞれ推定される。なお、以上のように、補正量を推定する機能は、補正量推定部108(図1参照)によって実行される。
B2. Correction amount estimation processing:
In the correction amount estimation process in step S20, a correction amount estimation process for correcting a deviation (positional deviation) occurring between the acquired four frames is executed. In the estimation of the correction amount, the other three frames other than one reference frame among the four frames are set as target frames, and the correction amount for correcting the positional deviation with respect to the reference frame is estimated for each target frame. As described above, the function of estimating the correction amount is executed by the correction amount estimation unit 108 (see FIG. 1).

以下では、実施例の補正量推定処理についての説明を容易にするために、まず、ずれ補正の概要および補正量推定手法について説明し、その後で実施例の補正量推定処理について説明する。   In the following, in order to facilitate the description of the correction amount estimation processing of the embodiment, first, an outline of the shift correction and the correction amount estimation method will be described, and then the correction amount estimation processing of the embodiment will be described.

B2.1.ずれ補正の概要:
図4は、基準フレームのフレーム画像と対象フレームのフレーム画像との間の位置ずれについて示す説明図である。また、図5は、基準フレーム画像と対象フレーム画像との間の位置ずれの補正について示す説明図である。
B2.1. Outline of displacement correction:
FIG. 4 is an explanatory diagram showing a positional shift between the frame image of the reference frame and the frame image of the target frame. FIG. 5 is an explanatory diagram showing correction of positional deviation between the reference frame image and the target frame image.

なお、以下の説明では、取得した4フレームの番号(以下、「フレーム番号」とも呼ぶ。)をa(a=0,1,2,3)とし、フレーム番号aのフレームをフレームaと呼び、フレームaの画像をフレーム画像Faと呼ぶこととする。例えば、フレーム番号aが0のフレームはフレーム0と呼び、その画像をフレーム画像F0と呼ぶ。なお、フレーム0を基準フレームとし、フレーム1〜3を対象フレームとする。また、基準フレームのフレーム画像F0を基準フレーム画像とも呼び、対象フレームのフレーム画像F1〜F3を対象フレーム画像とも呼ぶこととする。   In the following description, the acquired number of four frames (hereinafter also referred to as “frame number”) is a (a = 0, 1, 2, 3), the frame with frame number a is called frame a, The image of frame a is referred to as frame image Fa. For example, a frame with frame number a 0 is referred to as frame 0, and its image is referred to as frame image F0. Note that frame 0 is a reference frame, and frames 1 to 3 are target frames. The frame image F0 of the reference frame is also referred to as a reference frame image, and the frame images F1 to F3 of the target frame are also referred to as target frame images.

図4および図5では、対象フレーム画像F1〜F3のうち、対象フレーム画像F3の基準フレーム画像F0に対する位置ずれ及び位置ずれの補正を例に説明する。   4 and 5, a description will be given taking as an example the positional deviation and the correction of the positional deviation of the target frame image F3 relative to the reference frame image F0 among the target frame images F1 to F3.

画像の位置ずれは、並進(横方向または縦方向)のずれと、回転のずれとの組み合わせで表される。図4では、基準フレーム画像F0に対する、対象フレーム画像F3のずれ量を分かり易く示すため、基準フレーム画像F0の縁と、対象フレーム画像F3の縁とを重ねて示すとともに、基準フレーム画像F0上の中心位置に仮想の十字画像X0を追記し、この十字画像X0が、対象フレーム画像F3と同様にずれたとして、対象フレーム画像F3上に、ずれた結果の画像である十字画像X3を示すようにしている。更に、このずれ量を、より分かり易く示すために、基準フレーム画像F0、および十字画像X0を太い実線で示すとともに、対象フレーム画像F3、および十字画像X3を細い破線で示すようにしている。   The positional deviation of the image is represented by a combination of translational (horizontal or vertical) deviation and rotational deviation. In FIG. 4, in order to easily show the shift amount of the target frame image F3 with respect to the reference frame image F0, the edge of the reference frame image F0 and the edge of the target frame image F3 are shown in an overlapping manner, and on the reference frame image F0. Assuming that a virtual cross image X0 is added at the center position and this cross image X0 is shifted in the same manner as the target frame image F3, the cross image X3, which is the shifted image, is shown on the target frame image F3. ing. Further, in order to show the shift amount more easily, the reference frame image F0 and the cross image X0 are indicated by thick solid lines, and the target frame image F3 and the cross image X3 are indicated by thin broken lines.

本実施例では、並進ずれ量として横方向を「um」、縦方向を「vm」と表し、回転ずれ量を「δm」と表し、対象フレーム画像Fa(a=1,2,3)についてのずれ量を「uma」、「vma」、「δma」と表すこととする。例えば、図4に示すように、対象フレーム画像F3は、基準フレーム画像F0に対して、並進ずれ、および回転ずれが生じており、そのずれ量は、um3、vm3、δm3と表される。   In the present embodiment, the translational displacement amount is represented by “um” in the horizontal direction, “vm” in the vertical direction, “δm” in the vertical direction, and the target frame image Fa (a = 1, 2, 3). The deviation amounts are represented as “uma”, “vma”, and “δma”. For example, as shown in FIG. 4, the target frame image F3 has a translational shift and a rotational shift with respect to the reference frame image F0, and the shift amounts are expressed as um3, vm3, and δm3.

ここで、対象フレーム画像F1〜F3を基準フレーム画像F0と合成するためには、対象フレーム画像F1〜F3が基準フレーム画像F0と一致するように、対象フレーム画像F1からF3の各画素の位置ずれを補正することとなる。このために用いられる並進補正量として横方向を「u」、縦方向を「v」、回転補正量を「δ」と表し、対象フレーム画像Fa(a=1,2,3)についての補正量を「ua」、「va」、「δa」と表すこととする。例えば、対象フレーム画像F3についての補正量は、um3、vm3、δm3と表される。   Here, in order to synthesize the target frame images F1 to F3 with the reference frame image F0, the positional displacement of each pixel of the target frame images F1 to F3 so that the target frame images F1 to F3 coincide with the reference frame image F0. Will be corrected. As the translation correction amount used for this purpose, the horizontal direction is “u”, the vertical direction is “v”, the rotation correction amount is “δ”, and the correction amount for the target frame image Fa (a = 1, 2, 3). Are represented as “ua”, “va”, and “δa”. For example, the correction amounts for the target frame image F3 are expressed as um3, vm3, and δm3.

ここで、補正とは、対象フレーム画像Fa(a=1,2,3)の各画素の位置を、横方向にuaの移動、縦方向にvaの移動、およびδaの回転を施した位置に移動させることを意味する。従って、対象フレーム画像Fa(a=1,2,3)についての補正量ua、va、δaは、ua=−uma、va=−vma、δa=−δmaの関係で表される。例えば、対象フレーム画像F3についての補正量u3、v3、δ3は、u3=−um3、v3=−vm3、δ3=−δm3で表される。   Here, the correction means that the position of each pixel of the target frame image Fa (a = 1, 2, 3) is a position where the movement of ua in the horizontal direction, the movement of va in the vertical direction, and the rotation of δa are performed. It means to move. Therefore, the correction amounts ua, va, δa for the target frame image Fa (a = 1, 2, 3) are expressed by the relationship of ua = −uma, va = −vma, δa = −δma. For example, the correction amounts u3, v3, and δ3 for the target frame image F3 are represented by u3 = −um3, v3 = −vm3, and δ3 = −δm3.

以上のことから、例えば、図5に示すように、補正量u3、v3、δ3を用いて、対象フレーム画像F3の各画素の位置を補正することにより、対象フレーム画像F3を基準フレーム画像F0に一致させることができる。このとき、補正後の対象フレーム画像F3と、基準フレーム画像F0と、をディスプレイ120で表示させると、図5に示すように、対象フレーム画像F3は、基準フレーム画像F0に対して部分一致すると推定される。なお、この補正の結果を分かり易く示すため、図5においても、図4と同じ仮想の十字画像X0および十字画像X3を表記しており、図5に示すように、補正の結果として、十字画像X3は十字画像X0と一致することとなる。   From the above, for example, as shown in FIG. 5, by correcting the position of each pixel of the target frame image F3 using the correction amounts u3, v3, and δ3, the target frame image F3 is changed to the reference frame image F0. Can be matched. At this time, when the corrected target frame image F3 and the reference frame image F0 are displayed on the display 120, as shown in FIG. 5, it is estimated that the target frame image F3 partially matches the reference frame image F0. Is done. In order to show the correction result in an easy-to-understand manner, the same virtual cross image X0 and cross image X3 as in FIG. 4 are shown in FIG. 5, and as shown in FIG. X3 coincides with the cross image X0.

同様に、対象フレーム画像F1,F2についても、補正量u1、v1、δ1、およびu2、v2、δ2、の各値を用いて補正が施され、対象フレーム画像F1,F2の各画素の位置を置き換えることができる。   Similarly, the target frame images F1 and F2 are also corrected using the values of the correction amounts u1, v1, δ1, and u2, v2, δ2, and the positions of the pixels of the target frame images F1 and F2 are determined. Can be replaced.

なお、上述の「部分一致する」とは、以下のことを意味するものである。すなわち、図5に示すように、例えば、ハッチングを施した領域P1は、対象フレーム画像F3にのみ存在する領域の画像であり、基準フレーム画像F0には、該当する領域の画像は存在しない。このように、上述の補正を行ったとしても、ずれに起因して、基準フレーム画像F0にのみ、または、対象フレーム画像F3にのみ存在する領域の画像が生じてしまうため、対象フレーム画像F3は、基準フレーム画像F0に対して完全一致することはなく、部分一致することとなる。   Note that the above-mentioned “partial match” means the following. That is, as shown in FIG. 5, for example, the hatched area P1 is an image of an area that exists only in the target frame image F3, and no image of the corresponding area exists in the reference frame image F0. As described above, even if the above correction is performed, an image of an area that exists only in the reference frame image F0 or only in the target frame image F3 is generated due to the shift. The reference frame image F0 is not completely matched but is partially matched.

ところで、各対象フレーム画像Fa(a=1,2,3)についての補正量ua、va、δaは、補正量推定部108(図1参照)、特に、補正量推定処理部108bにおいて、基準フレーム画像F0の画像データと対象フレーム画像F1〜F3の画像データとに基づき、パターンマッチ法や勾配法等による所定の算出式を用いて、推定量として算出される。そして、算出された補正量ua、va、δaは、並進補正量データと回転補正量データとして、図示しないメモリ内の所定の領域に記憶される。以下では、補正量の推定手法について説明する。   By the way, the correction amounts ua, va, and δa for each target frame image Fa (a = 1, 2, 3) are the reference frame in the correction amount estimation unit 108 (see FIG. 1), in particular, the correction amount estimation processing unit 108b. Based on the image data of the image F0 and the image data of the target frame images F1 to F3, it is calculated as an estimated amount using a predetermined calculation formula such as a pattern matching method or a gradient method. The calculated correction amounts ua, va, δa are stored in a predetermined area in a memory (not shown) as translation correction amount data and rotation correction amount data. Hereinafter, a correction amount estimation method will be described.

B2.2.補正量の推定手法:
図6は、基準フレーム画像に対する対象フレーム画像の補正量について示す説明図である。図は、対象フレーム画像Ftが、基準フレーム画像Frに対して並進ずれおよび回転ずれを補正して重ね合わせるように配置された状態を示している。対象フレーム画像Ftの中心を原点とし、横方向をx2軸、縦方向をy2軸とする直交座標(x2、y2)が、基準フレーム画像Frの中心を原点とし、横方向をx1軸、縦方向をy1軸とする直交座標(x1、y1)に対してずれており、このときの横方向の並進補正量はu、縦方向の並進補正量はv、回転補正量は対象フレーム画像Ftの中心を原点としてδであるとする。このとき、対象フレーム画像Ftの座標を基準フレーム画像Fr上の座標に変換する変換式は、並進補正量(u,v)および回転補正量δを変数として、下式により表される。
B2.2. Correction amount estimation method:
FIG. 6 is an explanatory diagram showing the correction amount of the target frame image with respect to the reference frame image. The figure shows a state where the target frame image Ft is arranged so as to be superimposed on the reference frame image Fr by correcting translational deviation and rotational deviation. Orthogonal coordinates (x2, y2) with the center of the target frame image Ft as the origin, the horizontal direction as the x2 axis, and the vertical direction as the y2 axis, the center of the reference frame image Fr as the origin, the horizontal direction as the x1 axis, and the vertical direction Is offset with respect to the Cartesian coordinates (x1, y1) with the y1 axis as the horizontal translation correction amount at this time, u is the translation correction amount in the vertical direction, v is the translation correction amount in the vertical direction, and the rotation correction amount is the center of the target frame image Ft. Let δ be the origin. At this time, the conversion equation for converting the coordinates of the target frame image Ft into the coordinates on the reference frame image Fr is expressed by the following equation using the translation correction amount (u, v) and the rotation correction amount δ as variables.

x1=cosδ・(x2+u)−sinδ・(y2+v) ...(1)
y1=sinδ・(x2+u)+cosδ・(y2+v) ...(2)
x1 = cosδ ・ (x2 + u) −sinδ ・ (y2 + v) ... (1)
y1 = sinδ ・ (x2 + u) + cosδ ・ (y2 + v) ... (2)

なお、基準フレームと対象フレームとの時間差はごく僅かであるため、δは微小量と考えられる。このとき、COSδ≒1、sinδ≒δであるため、上式を以下のように置き換えることができる。   Since the time difference between the reference frame and the target frame is very small, δ is considered to be a minute amount. At this time, since COSδ≈1 and sinδ≈δ, the above equation can be replaced as follows.

x1=(x2+u)−δ・(y2+v) ...(3)
y1=δ・(x2+u)+(y2+v) ...(4)
x1 = (x2 + u) −δ · (y2 + v) (3)
y1 = δ · (x2 + u) + (y2 + v) (4)

従って、上述したように、対象フレーム画像Ftと基準フレーム画像Frとを重ね合わせて配置するためには、対象フレーム画像Ftが基準フレーム画像Frと一致するように、上記式(3),(4)を用いて、対象フレーム画像Ftの各画素の座標データを基準フレーム画像Fr上の座標データに変換すればよい。   Therefore, as described above, in order to arrange the target frame image Ft and the reference frame image Fr so as to overlap each other, the above formulas (3) and (4) are set so that the target frame image Ft matches the reference frame image Fr. ) To convert the coordinate data of each pixel of the target frame image Ft into coordinate data on the reference frame image Fr.

ここで、上記式(3),(4)の変数U,V,δは、以下で説明するように、基準フレーム画像Frと対象フレーム画像Ftとの間の各画素の画素値(画素データ)、例えば輝度の階調値(階調データ)を用いて、1画素よりも細かい単位で画素の位置を推定する勾配法(グラディエント法)に基づいて、最小自乗法により推定することができる。   Here, the variables U, V, and δ in the above formulas (3) and (4) are the pixel values (pixel data) of each pixel between the reference frame image Fr and the target frame image Ft, as described below. For example, it can be estimated by the least square method based on a gradient method (gradient method) that estimates the position of a pixel in units smaller than one pixel using a gradation value (gradation data) of luminance.

図7は、勾配法による並進補正量の推定方法を示す説明図である。図7(a)には、基準フレーム画像Frおよび対象フレーム画像Ftの画素および輝度を示した。図7(a)において、例えば、(x1i,y1i)は、基準フレーム画像Fr上の画素の座標を表しており、B1(x1i,y1i)は、その輝度を表している。ただし、iは補正量の推定に利用される各画素を区別する番号である。また、図7(b)には、勾配法の原理を示した。   FIG. 7 is an explanatory diagram illustrating a translation correction amount estimation method using a gradient method. FIG. 7A shows the pixels and brightness of the reference frame image Fr and the target frame image Ft. In FIG. 7A, for example, (x1i, y1i) represents the coordinates of a pixel on the reference frame image Fr, and B1 (x1i, y1i) represents the luminance thereof. Here, i is a number for distinguishing each pixel used for estimating the correction amount. FIG. 7B shows the principle of the gradient method.

ここでは、対象フレーム画像Ft上の座標(x2i,y2i)の画素が、基準フレーム画像Frの座標(x1i〜x1i+1,y1i〜y1i+1)の間、すなわち、画素間の座標(x1i+Δx,y1i+Δy)にあるものとして説明する。   Here, the pixel at the coordinates (x2i, y2i) on the target frame image Ft is between the coordinates (x1i to x1i + 1, y1i to y1i + 1) of the reference frame image Fr, that is, the coordinates (x1i + Δx, y1i + Δy) between the pixels. It will be explained as a thing.

図7(b)の左側に示すように、対象フレーム画像Ftにおける座標(x2i,y2i)の画素が、基準フレーム画像Frの座標(x1i〜x1i+1,y1i)の間、すなわち、画素間の座標である(x1i+Δx,y1i)にあるものとし、
Px=B1(x1i+1,y1i)−B1(x1i,y1i) ...(5)
とすると、
Px・Δx=B2(x2i,y2i)−B1(x1i,y1i) ...(6)
の関係が成り立つはずである。この場合、B1(x1i,y1i)およびB2(x2i,y2i)を単にB1,B2で表すこととして、
{Px・Δx−(B2−B1)}=0 ...(7)
が成り立つようなΔxを求めれば、対象フレーム画像Ftの横方向の並進補正量(Δx=u)を求めることができる。実際には、各画素についてΔxを算出し、全体で平均をとることになる。
As shown on the left side of FIG. 7B, the pixel of the coordinate (x2i, y2i) in the target frame image Ft is between the coordinates (x1i to x1i + 1, y1i) of the reference frame image Fr, that is, the coordinates between the pixels. Suppose that (x1i + Δx, y1i)
Px = B1 (x1i + 1, y1i)-B1 (x1i, y1i) ... (5)
Then,
Px · Δx = B2 (x2i, y2i)-B1 (x1i, y1i) ... (6)
This relationship should hold. In this case, B1 (x1i, y1i) and B2 (x2i, y2i) are simply represented by B1, B2,
{Px · Δx− (B2−B1)} 2 = 0 (7)
If Δx that satisfies is obtained, the lateral translation correction amount (Δx = u) of the target frame image Ft can be obtained. Actually, Δx is calculated for each pixel, and an average is obtained as a whole.

同様に、図7(b)の左側に示すように、対象フレーム画像Ftにおける座標(x2i,y2i)の画素が、基準フレーム画像Frの座標(x1i,y1i〜y1i+1)の間、すなわち、画素間の座標である(xi1,y1i+Δy)にあるものとし、
Py=B1(x1i,y1i+1)−B1(x1i,y1i) ...(8)
とすると、
Py・Δy=B2(x2i,y2i)−B1(x1i,y1i) ...(9)
の関係が成り立つはずである。従って、B1(x1i,y1i)およびB2(x2i,y2i)を単にB1,B2で表すこととして、
{Py・Δy−(B2−B1)}=0 ...(10)
が成り立つようなΔyを求めれば、対象フレーム画像Ftの縦方向の並進補正量(Δy=v)を求めることができる。実際には、各画素についてΔyを算出し、全体で平均をとることになる。
Similarly, as shown on the left side of FIG. 7B, the pixel at the coordinates (x2i, y2i) in the target frame image Ft is between the coordinates (x1i, y1i to y1i + 1) of the reference frame image Fr, that is, between the pixels. And (xi1, y1i + Δy)
Py = B1 (x1i, y1i + 1)-B1 (x1i, y1i) ... (8)
Then,
Py · Δy = B2 (x2i, y2i)-B1 (x1i, y1i) ... (9)
This relationship should hold. Therefore, B1 (x1i, y1i) and B2 (x2i, y2i) are simply expressed as B1, B2,
{Py · Δy− (B2−B1)} 2 = 0 (10)
If Δy that satisfies is obtained, the translational correction amount (Δy = v) in the vertical direction of the target frame image Ft can be obtained. Actually, Δy is calculated for each pixel, and the average is taken as a whole.

以上の説明は、x軸方向(横方向)あるいはy軸方向(縦方向)のいずれか一方向のみを考慮した場合を説明している。x軸方向およびy軸方向の両方向を考慮する場合には、これを拡張して、
=Σ{Px・Δx+Py・Δy−(B2−B1)} ...(11)
を最小にするΔx、Δyを最小自乗法により求めればよい。こうして求められた(Δx,Δy)が並進補正量(u,v)に相当する。
In the above description, the case where only one of the x-axis direction (horizontal direction) and the y-axis direction (vertical direction) is considered is described. When considering both the x-axis direction and the y-axis direction, expand this,
S 2 = Σ {Px · Δx + Py · Δy− (B2−B1)} 2 (11)
[Delta] x and [Delta] y that minimize the value may be obtained by the method of least squares. The (Δx, Δy) thus obtained corresponds to the translation correction amount (u, v).

以上、勾配法により、対象フレーム画像Ftが基準フレーム画像Frに対して、x軸方向およびy軸方向に平行移動させて重ね合わせたとした場合の並進補正量(u,v)を求める手法を説明した。本発明では、さらに、対象フレーム画像Ftを基準フレーム画像Frに対して、回転移動させて重ね合わせる場合も考慮している。以下、その回転補正量を求める手法について説明する。   The method for obtaining the translational correction amount (u, v) when the target frame image Ft is overlapped with the reference frame image Fr by being translated in the x-axis direction and the y-axis direction by the gradient method is described above. did. The present invention further considers the case where the target frame image Ft is rotated and superimposed on the reference frame image Fr. Hereinafter, a method for obtaining the rotation correction amount will be described.

図8は、画素の回転補正量を模式的に示す説明図である。基準フレーム画像Frの座標(x1,y1)の原点Oからの距離をrとし、x1軸からの回転角度をθとすると、r,θは、下式で表される。
r=(x1+y11/2 ...(12)
θ=tan−1(y1/x1) ...(13)
FIG. 8 is an explanatory diagram schematically showing the amount of pixel rotation correction. If the distance from the origin O of the coordinates (x1, y1) of the reference frame image Fr is r and the rotation angle from the x1 axis is θ, r and θ are expressed by the following equations.
r = (x1 2 + y1 2 ) 1/2 (12)
θ = tan −1 (y1 / x1) ... (13)

ここで、対象フレーム画像Ftの基準フレーム画像Frに対する並進ずれはなく、回転ずれのみが発生しているものとし、対象フレーム画像Ftにおける座標(x2,y2)の画素が、基準フレーム画像Fr上の座標(x1,y1)の位置から回転補正量δだけ回転した座標(x1',y1')にあるとする。この回転補正量δによるx1軸方向の移動量Δxとy1軸方向の移動量Δyは、下式により求められる。
Δx=x1'−x1≒−r・δ・sinθ=−δ・y1 ...(14)
Δy=y1'−y1≒r・δ・cosθ=δ・x1 ...(15)
Here, it is assumed that there is no translational shift of the target frame image Ft with respect to the reference frame image Fr, and only a rotational shift has occurred, and the pixel at the coordinates (x2, y2) in the target frame image Ft is on the reference frame image Fr. Assume that the coordinates (x1 ′, y1 ′) are rotated by the rotation correction amount δ from the position of the coordinates (x1, y1). The movement amount Δx in the x1 axis direction and the movement amount Δy in the y1 axis direction based on the rotation correction amount δ can be obtained by the following equations.
Δx = x1′−x1 ≒ −r · δ · sinθ = −δ · y1 (14)
Δy = y1′−y1 ≒ r · δ · cosθ = δ · x1 (15)

そこで、上記式(11)におけるΔx、Δyは、並進補正量(u,v)だけでなく回転補正量δによる上記式(14),(15)を加味すると、下式のように表すことができる。
Δx=u−δ・y1 ...(16)
Δy=v+δ・x1 ...(17)
Therefore, Δx and Δy in the above equation (11) can be expressed as the following equations, considering not only the translation correction amount (u, v) but also the above equations (14) and (15) based on the rotation correction amount δ. it can.
Δx = u−δ · y1 (16)
Δy = v + δ · x1 (17)

上記式(16),(17)を上記式(11)に代入すると、下式が得られる。
=Σ{Px・(u−δ・y)+ Py(v+δ・x)−(B2−B1)} ...(18)
Substituting the above equations (16) and (17) into the above equation (11), the following equation is obtained.
S 2 = Σ {Px · (u−δ · y) + Py (v + δ · x) − (B2−B1)} 2 (18)

すなわち、基準フレーム画像Frの座標を(x1i,y1i)として、対象フレーム画像Ftの全画素の座標値と輝度値を式(18)に代入したときに、Sを最小にする補正量u,v,δを最小自乗法によって求めることができる。ただし、iは補正量の推定に利用される各画素を区別する番号である。なお、補正量u,v,δは、以下の式で表される。 That is, the coordinates of the reference frame image Fr (x1i, y1i) as the coordinate values and brightness values of all pixels of the subject frame image Ft when substituted into equation (18), the correction quantity u of the S 2 to minimize, v and δ can be obtained by the method of least squares. Here, i is a number for distinguishing each pixel used for estimating the correction amount. The correction amounts u, v, and δ are expressed by the following equations.

Figure 2005129996
また、M02,M11,M20,m,m,mδ,c,c,cδ,dは、以下の式で表される。
Figure 2005129996
Further, M02, M11, M20, m u , m v , m δ , c u , c v , c δ , and d are expressed by the following equations.

Figure 2005129996
Figure 2005129996

従って、基準フレーム画像Frと対象フレーム画像Ftとの間の1画素未満の並進ずれおよび回転ずれを補正するための並進補正量(u,v)および回転補正量(δ)は、上記式(18)〜(33)に、基準フレーム画像Frと対象フレーム画像Ftの各画素の画素値(輝度値)を代入して求めることができる。   Therefore, the translational correction amount (u, v) and the rotational correction amount (δ) for correcting the translational deviation and rotational deviation of less than one pixel between the reference frame image Fr and the target frame image Ft are expressed by the above equation (18). ) To (33) can be obtained by substituting the pixel value (luminance value) of each pixel of the reference frame image Fr and the target frame image Ft.

なお、上記並進補正量および回転補正量の推定は、基準フレーム画像Frと対象フレーム画像Ftとの間の並進ずれが1画素未満である場合について説明している。そこで、画素単位での並進ずれについては、上記推定を行う前に、一般的なパターンマッチ法等による推定手法を用いて大雑把に補正しておくことが好ましい。   The translation correction amount and the rotation correction amount are estimated in the case where the translational deviation between the reference frame image Fr and the target frame image Ft is less than one pixel. Therefore, it is preferable that the translational deviation in units of pixels is roughly corrected using an estimation method such as a general pattern matching method before performing the above estimation.

B2.3.実施例の補正量推定:
以上説明したように、基準フレーム画像Frと対象フレーム画像Ftとの間の1画素未満の並進ずれおよび回転ずれを補正するための並進補正量(u,v)および回転補正量(δ)は、上記式(18)〜(33)に、基準フレーム画像Frと対象フレーム画像Ftの各画素の画素値(輝度値)を代入して求めることができる。
B2.3. Example correction amount estimation:
As described above, the translation correction amount (u, v) and the rotation correction amount (δ) for correcting the translational deviation and rotational deviation of less than one pixel between the reference frame image Fr and the target frame image Ft are: It can be obtained by substituting the pixel values (luminance values) of the respective pixels of the reference frame image Fr and the target frame image Ft into the above equations (18) to (33).

ここで、従来の補正量の推定処理においては、その対象である基準フレーム画像および対象フレーム画像の全ての画素を利用して補正量の推定を行っており、補正量の推定に利用される情報量(データ量)が非常に多くなるため、補正量の推定の処理に時間がかかっていた。そして、この結果として高解像度静止画像データの生成に要する処理時間が長くなっていた。   Here, in the conventional correction amount estimation processing, the correction amount is estimated using all the pixels of the target reference frame image and the target frame image, and information used for estimating the correction amount Since the amount (data amount) becomes very large, it takes time to estimate the correction amount. As a result, the processing time required for generating the high-resolution still image data is long.

そこで、本実施例の補正量推定処理では、以下で説明するようにして補正量の推定処理に要する時間の短縮化を図っている。   Therefore, in the correction amount estimation process of the present embodiment, the time required for the correction amount estimation process is shortened as described below.

図9は、図2のステップS20における補正量推定処理を具体的に示す説明図である。ステップS210では、補正量の推定のために利用される画像の範囲、すなわち、上記式(18)〜(33)による補正量の算出に利用される画像値を表す画素データの範囲(以下、「補正量推定範囲」とも呼ぶ。)を指定する。   FIG. 9 is an explanatory diagram specifically showing the correction amount estimation processing in step S20 of FIG. In step S210, a range of image data used for estimation of the correction amount, that is, a range of pixel data representing an image value used for calculation of the correction amount according to the above formulas (18) to (33) (hereinafter, “ It is also referred to as “correction amount estimation range”.

図10は、ユーザが補正量推定範囲を指定するためのユーザインタフェース画面を示す説明図である。なお、このユーザインタフェース画面NW1(以下では、「補正量推定範囲指定画面NW1」と呼ぶ。)は、表示制御部104(図1参照)によってディスプレイ120に表示される。   FIG. 10 is an explanatory diagram showing a user interface screen for the user to specify the correction amount estimation range. The user interface screen NW1 (hereinafter referred to as “correction amount estimation range designation screen NW1”) is displayed on the display 120 by the display control unit 104 (see FIG. 1).

まず、ユーザはカーソルCsを操作して、範囲指定対象選択欄SW2の選択ボタンA23を押すことにより、範囲指定対象として「背景」と「動いているもの」のいずれかを選択する。図10(A)は「背景」を指定している状態を示しており、図10(B)は「動いているもの」を指定している状態を示している。   First, the user operates the cursor Cs and presses the selection button A23 in the range designation target selection field SW2, thereby selecting either “background” or “moving” as the range designation target. FIG. 10A shows a state in which “background” is designated, and FIG. 10B shows a state in which “moving thing” is designated.

次に、カーソルCsを操作して、範囲指定方法選択欄SW1に示されている2つの選択ボタンA21,A22のどちらかを押すことにより、範囲指定方法として「中心指定」と「始点/終点指定」のいずれかを選択する。これにより、カーソルCsを画像表示欄SW0中で操作して、画像表示欄SW0に表示されている高解像度化対象画像の中から、選択した範囲指定方法に従って補正量推定範囲を指定することができる。図10(A)は「中心指定」を選択している状態を示しており、図10(B)は「始点/終点指定」を選択している状態を示している。もちろん、図10(A)の「背景」をしている状態において「始点/終点指定」を選択してもよく、図10(B)の「動いているもの」をしている状態において「中心指定」を選択してもよい。なお、「動き」とは、主に、動画像中における局所的な画像の変化であり、動画像中の対象物の動きを意味している。   Next, by operating the cursor Cs and pressing one of the two selection buttons A21 and A22 shown in the range designation method selection field SW1, the “center designation” and “start / end designation” are designated as the range designation methods. ”Is selected. As a result, the cursor Cs can be operated in the image display field SW0, and the correction amount estimation range can be designated in accordance with the selected range designation method from the resolution enhancement target images displayed in the image display field SW0. . FIG. 10A shows a state in which “center designation” is selected, and FIG. 10B shows a state in which “start point / end point designation” is selected. Of course, “start / end point designation” may be selected in the state of “background” in FIG. 10A, and “center” in the state of “moving” in FIG. 10B. “Specify” may be selected. Note that “movement” is mainly a local image change in a moving image, and means a movement of an object in the moving image.

第1の選択ボタンA21によって選択された範囲指定方法は、画像表示欄SW0に表示されている高解像度化対象画像中において、カーソルCsを操作して、指定したい範囲指定領域の中心位置を指定する方法である。この方法では、指定された位置を中心として、あらかじめ設定されている所定の大きさの矩形枠で示された領域(以下、単に「矩形領域」とも呼ぶ。)が範囲指定領域として指定される。   In the range designation method selected by the first selection button A21, the center position of the range designation area to be designated is designated by operating the cursor Cs in the resolution enhancement target image displayed in the image display field SW0. Is the method. In this method, an area (hereinafter, also simply referred to as “rectangular area”) indicated by a rectangular frame having a predetermined size centered on a designated position is designated as a range designation area.

第2の選択ボタンA22によって選択された範囲指定方法は、画像表示欄SW0に表示されている高解像度化対象画像中において、カーソルCsを操作して、範囲指定領域として設定したい矩形領域を示す矩形枠の対角線上の始点と終点を指定する方法である。この方法では、対角線上の2点で表される任意の大きさの矩形領域が範囲指定領域として指定される。   In the range designation method selected by the second selection button A22, a rectangle indicating a rectangular area to be set as a range designation area by operating the cursor Cs in the high resolution target image displayed in the image display field SW0. This is a method for designating the start and end points on the diagonal of the frame. In this method, a rectangular area having an arbitrary size represented by two points on the diagonal line is designated as the range designation area.

ここで、図10(A)に示すように、範囲指定対象として「背景」が指定されている場合には、指定された範囲指定領域が補正量推定範囲に設定される。この場合、4つのフレーム画像のそれぞれについて、範囲指定領域に対応する部分の画像を表す画像データ(各画素の画素値を表す画素データ)が補正量推定に利用される。   Here, as shown in FIG. 10A, when “background” is designated as the range designation target, the designated range designation area is set as the correction amount estimation range. In this case, for each of the four frame images, image data representing a portion of the image corresponding to the range designation region (pixel data representing the pixel value of each pixel) is used for correction amount estimation.

一方、図10(B)に示すように、「動いているもの」が指定されている場合には、範囲指定領域を除く領域が補正量推定範囲として設定される。この場合、4つのフレーム画像のそれぞれについて、範囲指定領域を除く領域に対応する部分の画像を表す画像データ(各画素の画素値を表す画素データ)が補正量推定に利用される。   On the other hand, as shown in FIG. 10B, when “moving” is designated, a region excluding the range designated region is set as the correction amount estimation range. In this case, for each of the four frame images, image data representing a portion of the image corresponding to the region excluding the range designation region (pixel data representing the pixel value of each pixel) is used for correction amount estimation.

なお、上述の例では、範囲指定対象として「背景」と「動いているもの」のいずれか一方を選択できる場合を示しているが、これに限定されるものではなく、補正指定対象としていずれか一方のみしか選択できないようになっていてもよい。   In the above example, the case where either “background” or “moving” can be selected as the range specification target is shown, but the present invention is not limited to this, and any one of the correction specification targets Only one side may be selected.

以上のように、補正量推定範囲を指定して補正量推定範囲を設定する機能は、補正量推定範囲設定部108a(図1参照)によって実行される。   As described above, the function of setting the correction amount estimation range by specifying the correction amount estimation range is executed by the correction amount estimation range setting unit 108a (see FIG. 1).

そして、カーソルCsを操作して「実行」ボタンA14を押すと、図9のステップS220では、上記式(18)〜(33)を用いて、4フレームの各フレーム画像間において発生しているずれ(位置ずれ)を補正するための補正量の算出が実行される。この補正量の算出では、各フレーム画像の画像データのうち、ステップS210で設定された補正量推定範囲に対応する部分の画像データのみを、上記式(18)〜(33)にそれぞれ代入することにより、基準フレームに対する各対象フレームの位置ずれを補正するための補正量が算出される。なお、以上のように、補正量を算出する機能は、補正量推定処理部108b(図1参照)によって実行される。   Then, when the “execute” button A14 is pressed by operating the cursor Cs, in step S220 in FIG. 9, using the above equations (18) to (33), a shift occurring between the four frame images. Calculation of a correction amount for correcting (positional deviation) is executed. In the calculation of the correction amount, only the image data of the portion corresponding to the correction amount estimation range set in step S210 out of the image data of each frame image is substituted into the equations (18) to (33), respectively. Thus, the correction amount for correcting the positional deviation of each target frame with respect to the reference frame is calculated. As described above, the function of calculating the correction amount is executed by the correction amount estimation processing unit 108b (see FIG. 1).

B3.動き対応合成処理:
図2のステップS20における補正量推定処理の終了後、ステップS30では、4フレームのフレーム画像データに、それぞれ求められた補正量の補正を施して重ね合わせ、重ねあわされた4フレームのフレーム画像データを合成して高解像度静止画像データを生成する。ただし、後述するように、各フレーム間において「動き」が発生しているか否かが判定されて、これに応じた静止画像データの生成が実行される。なお、以上のように、動きに対応して画像データを生成する機能は、高解像度化処理部110(図1参照)によって実行される。
B3. Motion compatible composition processing:
After completion of the correction amount estimation processing in step S20 in FIG. 2, in step S30, the four frame image data is superimposed and superimposed on the four frame image data by correcting each of the obtained correction amounts. Are combined to generate high-resolution still image data. However, as will be described later, it is determined whether or not “movement” has occurred between the frames, and generation of still image data corresponding to this is executed. As described above, the function of generating image data corresponding to the motion is executed by the high resolution processing unit 110 (see FIG. 1).

以下では、実施例の動き対応合成処理の説明を容易にするために、まず、動きに対応していない合成処理(動き非対応合成処理)について説明し、その後で、実施例の動き対応合成処理について説明する。   In the following, in order to facilitate the description of the motion corresponding synthesis process of the embodiment, first, a synthesis process that does not correspond to motion (motion non-corresponding synthesis process) will be described, and then the motion corresponding synthesis process of the embodiment. Will be described.

B3.1.動き非対応合成処理:
基本的に、動き非対応合成処理では、対象フレームの画像データを、推定された補正量に基づいて基準フレームの画像データに対してずれがなくなるように補正し、基準フレームの画像データと対象フレームの画像データとを重ね合わせて合成することにより、高解像度静止画像データを生成する。また、生成される高解像度静止画像(以下、「生成画像」とも呼ぶ。)を構成する各画素(以下、「生成画素」とも呼ぶ。)のうち、基準フレームおよび対象フレームのいずれにも存在しない画素については、その生成画素の周辺に存在する画素の画素値を表す画素データ(階調値を表す階調データ)を用いて所定の補間処理を行う。以下では、図11および図12を用いてこの合成処理について簡単に説明する。
B3.1. Non-motion compatible composition processing:
Basically, in the motion non-corresponding synthesis processing, the image data of the target frame is corrected based on the estimated correction amount so that there is no deviation from the image data of the reference frame, and the image data of the reference frame and the target frame are corrected. High-resolution still image data is generated by superimposing and synthesizing the image data. Further, among each pixel (hereinafter also referred to as “generated pixel”) that constitutes the generated high-resolution still image (hereinafter also referred to as “generated image”), it does not exist in either the reference frame or the target frame. For a pixel, a predetermined interpolation process is performed using pixel data representing pixel values of pixels existing around the generated pixel (gradation data representing gradation values). Hereinafter, this combining process will be briefly described with reference to FIGS. 11 and 12.

図11は、基準フレーム画像F0と対象フレーム画像F1〜F3とを、ずれを補正して配置した様子を拡大して示す説明図である。図11では、生成画像Gの各画素が黒丸で示されているとともに、基準フレーム画像F0の各画素が白抜きの四辺形で示され、補正後の対象フレーム画像F1〜F3の各画素が、ハッチングを施した四辺形で示されている。なお、以下で説明する動き非対応合成処理および動き対応合成処理では、生成画像Gの画素密度は、基準フレーム画像F0に対して、縦横1.5倍密の画素密度に高解像度化されるものとする。また、生成画像Gの各画素は、2画素おきに基準フレーム画像F0の各画素に重なるような位置にあるものとする。ただし、生成画像Gの画素が、必ずしも基準フレーム画像F0の各画素に重なるように位置している必要はない。例えば、生成画像G0の各画素のすべてが、基準フレーム画像F0の各画素の中間に位置するものでもよく、種々の位置とすることが可能である。また、高解像度化の倍率も、縦横1.5倍密に限定されるものではなく、種々の倍率とすることができる。   FIG. 11 is an explanatory view showing, in an enlarged manner, a state in which the reference frame image F0 and the target frame images F1 to F3 are arranged with the deviation corrected. In FIG. 11, each pixel of the generated image G is indicated by a black circle, each pixel of the reference frame image F0 is indicated by a white quadrilateral, and each pixel of the target frame images F1 to F3 after correction is Shown as hatched quadrilaterals. Note that, in the motion non-corresponding synthesis processing and the motion correspondence synthesis processing described below, the pixel density of the generated image G is increased to a pixel density 1.5 times as high as that of the reference frame image F0. And Further, it is assumed that each pixel of the generated image G is in a position where it overlaps with each pixel of the reference frame image F0 every two pixels. However, the pixel of the generated image G does not necessarily need to be positioned so as to overlap each pixel of the reference frame image F0. For example, all the pixels of the generated image G0 may be located in the middle of the pixels of the reference frame image F0, and can be in various positions. Also, the magnification for increasing the resolution is not limited to 1.5 times in length and width, and various magnifications can be used.

以下では、生成画像G内のある画素G(j)に注目して説明する。ここで、変数jは、生成画像Gの全画素を区別する番号を示しており、例えば、左上の画素から開始して順番に右上の画素までとし、その後1つずつ下の左端の画素から順番に右端の画素までとして、最後に右下の画素とされる。各フレーム画像F0,F1,F2,F3において、この画素(以下、「注目画素」と呼ぶ。)G(j)に対して、それぞれ最も近い4つの画素(以下、「近傍画素」と呼ぶ。)F(0),F(1),F(2),F(3)と、注目画素G(j)との距離L0,L1,L2,L3を算出する。そして、最も近い距離にある近傍画素(以下、「最近傍画素」と呼ぶ。)を決定する。図11の例では、L3<L1<L0<L2であるので、対象フレーム画像F3の画素F(3)が、注目画素G(j)の最近傍画素として決定される。なお、この注目画素G(j)に対する最近傍画素が、対象フレーム画像F3のi番目の画素であったとして、以下、最近傍画素F(3,i)と表記する。ただし、ここでいうiは、上記補正量推定処理における基準フレーム画像Frの注目画素の番号iとは異なるものである。   Hereinafter, description will be given focusing on a pixel G (j) in the generated image G. Here, the variable j indicates a number for distinguishing all the pixels of the generated image G. For example, the variable j starts from the upper left pixel and continues to the upper right pixel in order, and thereafter, from the lower left pixel in turn. To the rightmost pixel, and finally the lower right pixel. In each of the frame images F0, F1, F2, and F3, four pixels (hereinafter referred to as “neighboring pixels”) that are closest to this pixel (hereinafter referred to as “target pixel”) G (j). Distances L0, L1, L2, and L3 between F (0), F (1), F (2), and F (3) and the target pixel G (j) are calculated. Then, a neighboring pixel at the nearest distance (hereinafter referred to as “nearest neighbor pixel”) is determined. In the example of FIG. 11, since L3 <L1 <L0 <L2, the pixel F (3) of the target frame image F3 is determined as the nearest pixel of the target pixel G (j). Note that the nearest pixel to the target pixel G (j) is hereinafter referred to as the nearest pixel F (3, i) assuming that it is the i-th pixel of the target frame image F3. However, i here is different from the number i of the target pixel of the reference frame image Fr in the correction amount estimation processing.

そして、以上の手順が、注目画素G(j)の番号であるj=1,2,3,...の順に、生成画像G内の全ての画素について実行されて、それぞれの画素について最近傍画素が決定されることになる。   The above procedure is executed for all the pixels in the generated image G in the order of j = 1, 2, 3,... That is the number of the pixel of interest G (j), and the nearest neighbor for each pixel. The pixel will be determined.

注目画素G(j)の画素データは、決定された最近傍画素と、この最近傍画素を含むフレーム画像中において注目画素G(j)を囲む他の画素それぞれの画素データを用いて、バイ・リニア法、バイ・キュービック法等の種々の補間処理によって生成される。   Pixel data of the target pixel G (j) is obtained by using pixel data of the determined nearest neighbor pixel and each of the other pixels surrounding the target pixel G (j) in the frame image including the nearest neighbor pixel. It is generated by various interpolation processes such as a linear method and a bi-cubic method.

図12は、バイ・リニア法による補間処理について示す説明図である。注目画素G(j)は、基準フレーム画像F0および位置ずれ補正後の対象フレーム画像F1〜F3のいずれにも存在しない画素であるので、画素データが存在していない。そこで、上述のように、対象フレーム画像F3の画素F(3)を、注目画素G(j)の最近傍画素F(3,i)として決定した場合、図12に示すように、最近傍画素F(3,i)のほか、注目画素G(j)を囲む3つの画素F(3,i+1)、F(3,k)、F(3,k+1)で区画される領域を、注目画素G(j)で4つの区画に分割し、その面積比で対角位置の画素データをそれぞれ重み付けして加算することにより、注目画素G(j)の画素データを補間することができる。ただし、kはi番目の画素にフレーム画像F3の横方向の画素数を加えた画素の番号を示している。   FIG. 12 is an explanatory diagram showing interpolation processing by the bi-linear method. Since the target pixel G (j) is a pixel that does not exist in any of the reference frame image F0 and the target frame images F1 to F3 after the positional deviation correction, there is no pixel data. Therefore, as described above, when the pixel F (3) of the target frame image F3 is determined as the nearest pixel F (3, i) of the target pixel G (j), as shown in FIG. In addition to F (3, i), an area defined by three pixels F (3, i + 1), F (3, k), and F (3, k + 1) surrounding the target pixel G (j) The pixel data of the target pixel G (j) can be interpolated by dividing into four sections in (j) and adding the weighted pixel data at the diagonal positions according to the area ratio. Here, k represents a pixel number obtained by adding the number of pixels in the horizontal direction of the frame image F3 to the i-th pixel.

なお、補間処理の方法については、バイ・リニア法の他、バイ・キュービック法、二アレストネイバ法等の種々の補間方法を用いることができる。   In addition to the bi-linear method, various interpolation methods such as a bi-cubic method and a two-arrest neighbor method can be used for the interpolation processing method.

ここで、以上説明した動き非対応合成処理では、以下に示す点が考慮されていない。図13は、複数のフレーム画像間で動きが発生していた場合に、上記動き非対応合成処理を実行した場合の説明図である。図の下段は、上段の4つのフレーム画像F0〜F3を合成した場合の生成画像Gを示している。4つのフレーム画像F0〜F3は、画面の左から右に移動する自動車が撮影された動画像を示しており、自動車の位置が順に移動しているものである。上記動き非対応合成処理では、決定された最近傍画素がフレーム間で動きのある画素であるか否かに関わらす、この最近傍画素を用いて注目画素の補間処理を行うため、図13に示すように、生成画像G中の自動車の画像が多重画像となってしまう場合がある。   Here, the following points are not taken into consideration in the motion non-corresponding synthesis process described above. FIG. 13 is an explanatory diagram in a case where the motion non-corresponding synthesis process is executed when a motion has occurred between a plurality of frame images. The lower part of the figure shows a generated image G when the upper four frame images F0 to F3 are combined. The four frame images F0 to F3 show moving images in which a car moving from the left to the right of the screen is photographed, and the positions of the cars are moving sequentially. In the motion non-corresponding synthesis processing, since the nearest pixel is used to perform interpolation processing of the pixel of interest regardless of whether or not the determined nearest pixel is a pixel that moves between frames, FIG. As shown, the car image in the generated image G may be a multiple image.

動き対応合成処理は、以下で説明するように、上記のような多重画像を発生する原因である「動き」を考慮して、複数のフレーム画像を合成するものである。   As described below, the motion-corresponding synthesis process synthesizes a plurality of frame images in consideration of “motion” that is a cause of generating the above-described multiple images.

B3.2.動き対応合成処理:
動き対応合成処理においても、生成画像Gは、図13の4つのフレーム画像F0〜F3を推定された補正量に基づいて補正することにより、補正された4つのフレーム画像F0〜F3を重ね合わせて合成して、基準フレーム画像F0に対して、縦横1.5倍密の画素密度に高解像度化されるものとする。
B3.2. Motion compatible composition processing:
Also in the motion corresponding synthesis process, the generated image G is obtained by superimposing the corrected four frame images F0 to F3 by correcting the four frame images F0 to F3 in FIG. 13 based on the estimated correction amount. It is assumed that the resolution is increased to a pixel density 1.5 times as long and wide as the reference frame image F0.

まず、生成画像Gの各生成画素のうち、注目画素G(j)に対して、各フレーム画像F0〜F3のそれぞれにおいて、各近傍画素が求められるとともに、求められた4つの近傍画素の中から最近傍画素が求められる。   First, among the generated pixels of the generated image G, for each target image G (j), each neighboring pixel is obtained in each of the frame images F0 to F3, and from among the obtained four neighboring pixels. The nearest neighbor pixel is determined.

続いて、求められた最近傍画素と基準フレーム画像F0に対する動きの判定が行われる。ただし、最近傍画素が基準フレーム画像F0の画素である場合は、動きの判定は行われず、注目画素G(j)の画素データは、注目画素G(j)を囲む基準フレーム画像F0の画素を用いて、バイ・リニア法、バイ・キュービック法、ニアレストネイバ法等の種々の補間処理によって生成される。一方、最近傍画素が対象フレーム画像F1〜F3の画素である場合には、以下で説明する動きの判定手法により動きの判定が行われる。   Subsequently, a motion determination is performed on the obtained nearest neighbor pixel and the reference frame image F0. However, when the nearest pixel is the pixel of the reference frame image F0, the motion is not determined, and the pixel data of the target pixel G (j) is the pixel of the reference frame image F0 surrounding the target pixel G (j). And generated by various interpolation processes such as a bi-linear method, a bi-cubic method, and a nearest neighbor method. On the other hand, when the nearest pixel is a pixel of the target frame images F1 to F3, the motion is determined by the motion determination method described below.

以下、動きの判定手法についてわかりやすくするため、基準フレーム画像をFr、対象フレーム画像をFtとして説明する。図14は、動きの判定手法を説明するための前提条件を示す説明図である。図中1つの塗りつぶしの四辺形は、対象フレーム画像Ft中において、動きの判定を行う画素、すなわち、上記最近傍画素に相当する画素(以下、「判定画素」とも呼ぶ。)Fptを示している。また、格子状に並ぶ4つの白抜きの四辺形は、基準フレーム画像Fr中において、判定画素Fptを囲む4つの画素Fp1,Fp2,Fp3,Fp4を示している。判定画素Fptの輝度値をVtestとし、4つの画素Fp1,Fp2,Fp3,Fp4の画素の輝度値をV1,V2,V3,V4とする。また、4つの画素Fp1,Fp2,Fp3,Fp4で形成される格子内での位置(Δx,Δy)は、左上の画素Fp1の位置を基準とし、横方向をx軸、縦方向をy軸とした座標であり、それぞれ0〜1の間の値のみを取りうることとする。   Hereinafter, for easy understanding of the motion determination method, the reference frame image is assumed to be Fr and the target frame image is assumed to be Ft. FIG. 14 is an explanatory diagram showing preconditions for explaining a motion determination method. In the figure, one filled quadrilateral indicates a pixel in which motion is determined in the target frame image Ft, that is, a pixel corresponding to the nearest pixel (hereinafter also referred to as “determination pixel”) Fpt. . Further, the four open quadrilaterals arranged in a grid form indicate the four pixels Fp1, Fp2, Fp3, and Fp4 surrounding the determination pixel Fpt in the reference frame image Fr. The luminance value of the determination pixel Fpt is Vtest, and the luminance values of the four pixels Fp1, Fp2, Fp3, and Fp4 are V1, V2, V3, and V4. The position (Δx, Δy) in the lattice formed by the four pixels Fp1, Fp2, Fp3, and Fp4 is based on the position of the upper left pixel Fp1, with the horizontal direction being the x axis and the vertical direction being the y axis. It is possible to take only values between 0 and 1, respectively.

また、以下で説明する図15では、図の説明をわかりやすくするため、判定画素Fptの位置が、上記格子内において、1次元の位置、すなわち、x方向に並ぶ2つの画素Fp1,Fp2の間の座標(Δx、0)にある場合を例に描くこととする。   Further, in FIG. 15 described below, for easy understanding of the description, the position of the determination pixel Fpt is a one-dimensional position, that is, between two pixels Fp1 and Fp2 arranged in the x direction in the lattice. A case where the coordinates are at the coordinates (Δx, 0) is drawn as an example.

図15は、動き判定手法の一例について示す説明図である。判定画素Fptに動きがない場合には、判定画素Fptの輝度値Vtestは、基準フレーム画像Fr内において判定画素Fptを囲む周囲の画素を基に、例えばバイ・リニア法により求めた推定輝度値V'と等しくなる。一方、判定画素Fptに動きがあるとすると、判定画素Fptの輝度値Vtestは、その動き量に応じて推定輝度値V'とは異なった値となる。そこで、以上の点を考慮して、以下に示すように、判定画素Fptの動きを判定することができる。   FIG. 15 is an explanatory diagram illustrating an example of a motion determination method. When the determination pixel Fpt does not move, the luminance value Vtest of the determination pixel Fpt is an estimated luminance value V obtained by, for example, the bilinear method based on surrounding pixels surrounding the determination pixel Fpt in the reference frame image Fr. Equals'. On the other hand, if there is a motion in the determination pixel Fpt, the luminance value Vtest of the determination pixel Fpt is a value different from the estimated luminance value V ′ according to the amount of movement. Therefore, considering the above points, the movement of the determination pixel Fpt can be determined as described below.

まず、推定輝度値V'は、基準フレーム画像Fr内において判定画素Fptの両側に位置する画素Fp1,Fp2の輝度値から、例えば1次元の線形補間を表す下式により求めることができる。
V'=(1−Δx)・V1+Δx・V2 ...(34)
ただし、V1、V2は、判定画素Fptの両側に位置する基準フレームの画素Fp1,Fp2の輝度値を示している。また、Δxは、2つの画素Fp1、Fp2の間の判定画素において、左側の画素Fp1を基準とするx軸方向の位置を示している。
First, the estimated luminance value V ′ can be obtained from the luminance values of the pixels Fp1 and Fp2 located on both sides of the determination pixel Fpt in the reference frame image Fr by, for example, the following expression representing one-dimensional linear interpolation.
V ′ = (1−Δx) · V1 + Δx · V2 (34)
However, V1 and V2 indicate the luminance values of the pixels Fp1 and Fp2 of the reference frame located on both sides of the determination pixel Fpt. Δx indicates a position in the x-axis direction with respect to the left pixel Fp1 in the determination pixel between the two pixels Fp1 and Fp2.

そして、判定画素Fptの輝度値Vtestと推定輝度値V'との差が、閾値ΔVthよりも大きい場合、この判定画素Fptには動きがあると判定される。すなわち、下式を満たす場合には動きがないと判定され、下式を満たさない場合には動きがあると判定される。
|Vtest−V'|<ΔVth ...(35)
When the difference between the luminance value Vtest of the determination pixel Fpt and the estimated luminance value V ′ is larger than the threshold value ΔVth, it is determined that the determination pixel Fpt has a motion. That is, when the following expression is satisfied, it is determined that there is no movement, and when the following expression is not satisfied, it is determined that there is movement.
| Vtest−V ′ | <ΔVth (35)

なお、上記式(35)のように、輝度値Vtestと推定輝度値V'との差の絶対値が閾値ΔVthよりも小さい場合において、動きがないと判定されるようにしたのは、以下の理由による。すなわち、上述したように、判定画素を含む対象フレーム画像Ftは、基準フレーム画像Frに対する位置ずれを補正するための補正量を求め、この補正量に応じて位置ずれを補正し、基準フレーム画像Frに重ね合わせるようにしている。このフレーム間の位置ずれは理想的には完全に補正されていることが好ましいが、実際にはこのずれを完全に無くすことは困難である場合が多く、重ね合わせの誤差等のノイズが発生する。このため、仮に判定画素に全く動きが無かったとしても、推定輝度値V'と判定画素の輝度値Vtestとの間には差が発生する場合がある。   In addition, as in the above equation (35), when the absolute value of the difference between the luminance value Vtest and the estimated luminance value V ′ is smaller than the threshold value ΔVth, it is determined that there is no movement as follows. Depending on the reason. That is, as described above, for the target frame image Ft including the determination pixel, a correction amount for correcting the positional deviation with respect to the reference frame image Fr is obtained, the positional deviation is corrected according to the correction amount, and the reference frame image Fr is corrected. Are superimposed on each other. Ideally, the displacement between the frames is ideally corrected completely. However, in practice, it is often difficult to completely eliminate the displacement, and noise such as an overlay error occurs. . For this reason, even if the determination pixel does not move at all, a difference may occur between the estimated luminance value V ′ and the luminance value Vtest of the determination pixel.

そこで、このノイズにより発生する差を動きとして検出しないようにするために、推定輝度値V'から上下方向に閾値ΔVthの幅の領域を、動きがないと判定する範囲とすることとしている。   Therefore, in order not to detect a difference caused by this noise as a motion, an area having a threshold ΔVth in the vertical direction from the estimated luminance value V ′ is set as a range in which there is no motion.

なお、閾値ΔVthの大きさは、例えば、輝度値が8ビットの階調、すなわち、0〜255の値をとりうるとした場合において、ΔVth=3程度に設定されることが好ましい。ただし、これに限定されるものではなく、輝度値の階調数、位置ずれ補正の精度等に応じて種々の値に設定することが好ましい。   Note that the magnitude of the threshold ΔVth is preferably set to about ΔVth = 3, for example, when the luminance value can take a gradation of 8 bits, that is, a value of 0 to 255. However, the present invention is not limited to this, and it is preferable to set various values according to the number of gradations of the luminance value, the accuracy of positional deviation correction, and the like.

なお、以上の説明では、判定画素Fptの座標が基準フレーム画像Frの画素Fp1を原点とする座標(Δx,0)の場合を例に説明しているが、判定画素Fptの座標が(0,Δy)の場合も同様である。   In the above description, the case where the coordinate of the determination pixel Fpt is the coordinate (Δx, 0) with the pixel Fp1 of the reference frame image Fr as the origin is described as an example, but the coordinate of the determination pixel Fpt is (0, The same applies to Δy).

また、判定画素Fptの座標が2次元の座標(Δx,Δy)の場合には、推定輝度値V'を、例えば、バイ・リニア法による2次元の線形補間を表す下式により求めるようにすればよい。
V'=(1−Δx)・(1−Δy)・V1+Δx・(1−Δy)・V2+(1−Δx)・Δy・V3+Δx・Δy・V4 ...(36)
In addition, when the coordinates of the determination pixel Fpt are two-dimensional coordinates (Δx, Δy), the estimated luminance value V ′ is obtained by, for example, the following expression representing two-dimensional linear interpolation by the bilinear method. That's fine.
V ′ = (1−Δx) · (1−Δy) · V1 + Δx · (1−Δy) · V2 + (1−Δx) · Δy · V3 + Δx · Δy · V4 (36)

以上説明した動きの判定手法による動き判定で、最近傍画素に動きがないと判定されると、注目画素G(j)の画素データは、最近傍画素と、この最近傍画素を含む対象フレーム画像中において注目画素G(j)を囲む他の画素の、各々の画素データを用いて、バイ・リニア法、バイ・キュービック法、二アレストネイバ法等の種々の補間処理によって生成される。   If it is determined in the motion determination by the motion determination method described above that there is no motion in the nearest pixel, the pixel data of the pixel of interest G (j) is the nearest pixel and the target frame image including the nearest pixel. It is generated by various interpolation processes such as the bi-linear method, the bi-cubic method, and the two-arrest neighbor method using the pixel data of other pixels surrounding the pixel of interest G (j).

一方、動き判定で、最近傍画素に動きがあると判定された場合には、注目画素G(j)に対して、最近傍画素の次に近い近傍画素(以下、次近傍画素とも呼ぶ。)について、上述した動き判定を行う。その判定で、次近傍画素に動きがないと判定された場合には、前述と同様、注目画素G(j)の画素データが、次近傍画素と、この次近傍画素を含む対象フレーム画像中において注目画素G(j)を囲む他の画素の、各々の画素データを用いて、バイ・リニア法、バイ・キュービック法、二アレストネイバ法等の種々の補間処理によって生成される。   On the other hand, if it is determined in the motion determination that the nearest pixel is in motion, the nearest neighbor pixel next to the nearest pixel with respect to the target pixel G (j) (hereinafter also referred to as the next neighborhood pixel). The above-described motion determination is performed. If it is determined that there is no movement in the next neighboring pixel, the pixel data of the pixel of interest G (j) is included in the next neighboring pixel and the target frame image including this next neighboring pixel as described above. Using each pixel data of other pixels surrounding the target pixel G (j), it is generated by various interpolation processes such as a bi-linear method, a bi-cubic method, and a two-arrest neighbor method.

また、次近傍画素についての動き判定で、次近傍画素に動きがあると判定された場合には、次近傍画素の次に近い画素を求め、その画素について、同様の動き判定が行われる。   If it is determined in the motion determination for the next neighboring pixel that the next neighboring pixel has a motion, a pixel next to the next neighboring pixel is obtained, and the same motion determination is performed for the pixel.

以上の手順を繰り返し、注目画素G(j)に対する対象フレーム画像F1〜F3のすべての近傍画素で、動きがあると判定されると、注目画素G(j)の画素データは、注目画素G(j)を囲む基準フレーム画像F0の画素の画素データを用いて、バイ・リニア法、バイ・キュービック法、二アレストネイバ法等の種々の補間処理によって生成される。   When the above procedure is repeated and it is determined that there is movement in all neighboring pixels of the target frame images F1 to F3 with respect to the target pixel G (j), the pixel data of the target pixel G (j) j) is generated by various interpolation processes such as the bi-linear method, the bi-cubic method, and the two-arrest neighbor method, using the pixel data of the pixels of the reference frame image F0 that surrounds j).

このようにして、注目画素G(j)について補間処理が行われ、さらに、同様の補間処理が、注目画素G(j)の番号であるj=1,2,3,...の順に、生成画像G内の全ての画素について行われる。   In this way, the interpolation process is performed on the target pixel G (j), and the same interpolation process is performed in the order of j = 1, 2, 3,. This is performed for all the pixels in the generated image G.

以上のように、動き対応合成処理においては、注目画素G(j)の近傍に位置する対象フレーム画像の近傍画素について、近い順に動き判定を行い、その画素に動きがないと判定された場合のみ、その動きがないと判定された画素と、この画素を含む対象フレーム画像中において注目画素G(j)を囲む他の画素の、各々の画素データを用いて、注目画素G(j)の補間処理が行われる。また、注目画素G(j)の近傍に位置する対象フレーム画像のすべての画素について、動きがあると判定されると、注目画素G(j)を囲む基準フレーム画像の画素の画像データを用いて、注目画素G(j)の補間処理が行われる。   As described above, in the motion correspondence synthesis process, the motion determination is performed on the neighboring pixels of the target frame image located in the vicinity of the target pixel G (j) in the closest order, and only when it is determined that the pixel has no motion. Interpolation of the pixel of interest G (j) using each pixel data of the pixel determined not to move and the other pixels surrounding the pixel of interest G (j) in the target frame image including this pixel Processing is performed. Further, when it is determined that all the pixels of the target frame image located in the vicinity of the target pixel G (j) are in motion, the image data of the pixels of the reference frame image surrounding the target pixel G (j) is used. , Interpolation processing of the target pixel G (j) is performed.

従って、この動き対応合成処理においては、動きのある画素を含む対象フレーム画像を補間処理に利用するフレームの対象から除外することができるので、図13の生成画像Gにおいて発生している自動車の多重画像のように、動きのある部分が多重画像となることを防止して、高解像度静止画像データを生成することができる。することができる。   Therefore, in this motion correspondence synthesis process, the target frame image including the moving pixels can be excluded from the target of the frame used for the interpolation process, so that the multiplexing of the automobiles generated in the generated image G in FIG. It is possible to generate high-resolution still image data by preventing a moving part from becoming a multiple image like an image. can do.

なお、以上説明した動き対応合成処理においては、注目画素に近い近傍画素の順に選択して、選択した画素の基準画像に対する動きを判定する場合を例に説明しているが、これに限定されるものではなく、例えば、単純にフレーム0、1、2、3の順に選択して動きを判定するようにしてもよい。すなわち、いずれの順番に動きを判定するようにしてもよい。また、以上説明した動き対応合成処理においては、選択した最近傍画素を含むフレームが基準フレームであった場合には、動きの判定を行わないようにしているが、この場合にも動きの判定を行うようにしてもよい。   In the above-described motion-corresponding synthesis process, an example has been described in which selection is performed in the order of neighboring pixels close to the target pixel, and the movement of the selected pixel with respect to the reference image is determined. For example, the motion may be determined by simply selecting frames 0, 1, 2, and 3 in this order. That is, the movement may be determined in any order. Further, in the motion corresponding composition processing described above, when the frame including the selected nearest pixel is a reference frame, the motion is not determined. In this case, the motion is also determined. You may make it perform.

ところで、図16は、高解像度静止画像データの生成処理中において表示されるインタフェース画面を示す説明図である。図16に示すように、上述したステップS20(図2参照)の補正量推定中のステップS210(図9参照)における補正量算出処理およびステップS40(図2参照)の動き対応合成処理が実行されている場合には、図16に示すように、補正量推定範囲指定画面NW1中のいずれかの位置に処理の進行度を示すプログレスバーSW3が表示される。これにより、ユーザは、処理の高解像度化処理の進行度を知ることができる。   Incidentally, FIG. 16 is an explanatory diagram showing an interface screen displayed during the high-resolution still image data generation process. As shown in FIG. 16, the correction amount calculation process in step S210 (see FIG. 9) during the correction amount estimation in step S20 (see FIG. 2) and the motion correspondence synthesis process in step S40 (see FIG. 2) are executed. If so, a progress bar SW3 indicating the progress of the process is displayed at any position in the correction amount estimation range designation screen NW1, as shown in FIG. Thereby, the user can know the progress of the high resolution processing.

そして、高解像度化処理が終了すると、このプログレスバーSW3の表示が停止され、生成された高解像度静止画像データは図示しないメモリ内に格納される。そして、表示制御部104(図1)によって、生成された高解像度静止画像データの表す画像が画像表示欄SW0に表示される。   When the high resolution processing is completed, the display of the progress bar SW3 is stopped, and the generated high resolution still image data is stored in a memory (not shown). Then, the display controller 104 (FIG. 1) displays an image represented by the generated high-resolution still image data in the image display field SW0.

なお、補正量推定範囲指定画面NW1中の「保存」ボタンA12を押すことにより、生成された高解像度静止画像データを、保存制御部114によって、CD−RWやハードディスク等の記憶媒体に格納することができる。また、「プリント」ボタンA13を押すことにより、印刷制御部112によって、生成された高解像度静止画像データに基づいて印刷データを生成し、プリンタ200(図1参照)で印刷することもできる。   Note that the storage controller 114 stores the generated high-resolution still image data in a storage medium such as a CD-RW or a hard disk by pressing the “save” button A12 in the correction amount estimation range designation screen NW1. Can do. In addition, by pressing the “print” button A13, the print control unit 112 can generate print data based on the generated high-resolution still image data and print it with the printer 200 (see FIG. 1).

C.効果:
以上のように、本実施例の静止画像生成装置では、補正量推定処理において、高解像度化対象画像の一部分が補正量推定範囲として設定される。そして、設定された補正量推定範囲に対応する各フレーム画像の画像データを利用して補正量を求めている。これにより、補正量の推定に利用される情報量を少なくすることができるので、補正量推定のための処理時間を短くすることができる。そして、補正量推定処理における処理時間の短縮化によって、複数のフレーム画像データに基づいて高解像度静止画像データを生成する処理時間を短縮化することが可能となる。
C. effect:
As described above, in the still image generating apparatus according to the present embodiment, a part of the high resolution target image is set as the correction amount estimation range in the correction amount estimation processing. Then, the correction amount is obtained using image data of each frame image corresponding to the set correction amount estimation range. As a result, the amount of information used for estimating the correction amount can be reduced, and the processing time for estimating the correction amount can be shortened. Then, by shortening the processing time in the correction amount estimation processing, it is possible to shorten the processing time for generating high-resolution still image data based on a plurality of frame image data.

また、上述したように、範囲指定対象として「動くもの」を指定して補正量推定範囲を指定する場合には、動きのある部分を範囲指定領域として指定することにより、この動きのある部分を補正量推定範囲から除外することができるので、補正量推定をより精度よく実行することもできる。   In addition, as described above, when specifying the correction amount estimation range by specifying “moving” as the range specification target, the moving portion is specified by specifying the moving portion as the range specifying region. Since it can exclude from a correction amount estimation range, correction amount estimation can also be performed more accurately.

D.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
D. Variation:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

(1)上記実施例では、高解像度化対象画像中の範囲指定領域として、矩形枠によって表される矩形領域により指定する場合を例に説明しているが、これに限定されるものではなく、矩形以外の種々の形状を有する枠の表す領域により範囲指定領域を指定するようにしてもよい。また、範囲指定領域を指定するための枠として複数種類の枠(例えば、矩形、円、星等)を、ユーザが任意に選択できるようにしてもよい。 (1) In the above-described embodiment, the case where the range designation area in the high resolution target image is designated by a rectangular area represented by a rectangular frame is described as an example, but the present invention is not limited to this. You may make it designate the range designation | designated area | region with the area | region which the frame which has various shapes other than a rectangle represents. In addition, a user may arbitrarily select a plurality of types of frames (for example, rectangles, circles, stars, etc.) as frames for specifying the range specifying area.

(2)上記実施例では、高解像度化処理部110(図1参照)によって実行される高解像度静止画像データを生成する処理として、動き対応合成処理を実行する場合を例に説明しているが、これに限定されるものではなく、動き非対応合成処理を実行するようにしてもよい。すなわち、本発明は、比較的低解像度の複数の画像を取得し、取得した複数の画像間のずれを補正し、補正された複数の画像を重ね合わせ合成して比較的高解像度の画像を生成するものに対して適用可能である。 (2) In the above embodiment, the case where the motion correspondence synthesis process is executed as an example of the process for generating the high resolution still image data executed by the high resolution processing unit 110 (see FIG. 1) has been described. However, the present invention is not limited to this, and motion non-corresponding synthesis processing may be executed. That is, the present invention acquires a plurality of relatively low-resolution images, corrects a shift between the acquired images, and generates a relatively high-resolution image by superimposing and combining the corrected images. It is applicable to what you do.

(3)上記実施例では、動画像再生期間中の特定の瞬間が指定されると、フレーム画像取得部106(図1参照)によって、その瞬間のフレームを基準フレームとして、この基準フレームを含んで後側に時系列に並ぶ4フレームのフレーム画像データを取得している。もちろん、前側に時系列に並ぶ4フレームのフレーム画像データを取得するようにしてもよく、また、前後に合わせて4フレームのフレーム画像データを取得するようにしてもよい。また、必ずしも4フレームである必要はなく、2フレーム以上の複数フレームを取得し、取得した複数フレームのフレーム画像データから静止画像データを生成するようにしてもよい。 (3) In the above embodiment, when a specific moment in the moving image playback period is specified, the frame image acquisition unit 106 (see FIG. 1) uses the frame at that moment as a reference frame, and includes this reference frame. The frame image data of 4 frames arranged in time series on the rear side is acquired. Of course, frame image data of 4 frames arranged in time series on the front side may be acquired, or frame image data of 4 frames may be acquired in accordance with the front and back. Further, the number of frames is not necessarily four, and two or more frames may be acquired, and still image data may be generated from the acquired frame image data of the plurality of frames.

(4)上記実施例では、複数フレームのフレーム画像データを取得し、取得した複数フレームのフレーム画像データから静止画像データを生成する場合を例に説明しているが、これに限定されるものではない。例えば、1フレームを構成する複数フィールドの画像データ(以下、「フィールド画像データ」とも呼ぶ。)の形式で複数フレーム分の画像データを取得し、取得した複数フィールドのフィールド画像データから静止画像データを生成するようにしてもよい。 (4) In the above embodiment, a case where frame image data of a plurality of frames is acquired and still image data is generated from the acquired frame image data of the plurality of frames has been described as an example. However, the present invention is not limited to this. Absent. For example, image data for a plurality of frames is acquired in the form of image data of a plurality of fields constituting one frame (hereinafter also referred to as “field image data”), and still image data is obtained from the acquired field image data of the plurality of fields. You may make it produce | generate.

(5)上記実施例では、生成画像を複数のフレーム画像から合成する合成処理の過程において、生成画像中のある画素の画素値を算出して画素データを生成する際に、動きを判定して、その画素データの生成に利用可能なフレーム画像を決定しているが、これに限定されるものではない。例えば、生成画像の各画素について、先に、それぞれの生成に利用可能なフレーム画像を動きの判定によって決定しておき、その後、生成画像の各画素の画素値を算出して画素データを生成する際に、先に決定されたそれぞれのフレーム画像に基づいて画素値を算出するようにしてもよい。 (5) In the above-described embodiment, in the process of synthesizing the generated image from a plurality of frame images, the motion is determined when calculating the pixel value of a certain pixel in the generated image and generating the pixel data. The frame image that can be used to generate the pixel data is determined, but the present invention is not limited to this. For example, for each pixel of the generated image, a frame image that can be used for each generation is first determined by motion determination, and then pixel data of each pixel of the generated image is calculated to generate pixel data. At this time, the pixel value may be calculated based on the previously determined frame images.

(6)上記実施例では、動画像(この動画像は、動画像データによって表される。)の中から取得された時系列に連続する複数フレームの画像(この画像は、画像データによって表される。)を合成して、1枚の高解像度な静止画像(この静止画像は、静止画像データで表される。)を生成する場合を例に説明している。しかしながら、これに限定されるものではなく、単に、時系列に連続する複数の低解像度の画像を合成して、1枚の高解像度の画像を生成することも可能である。時系列に連続する複数の低解像度の画像としては、例えば、ディジタルカメラで連写された複数の画像であってもよい。
また、必ずしも時系列に連続する複数の低解像度の画像(フレーム画像を含む。)である必要はなく、時系列に並んだ複数の低解像度の画像であってもよい。
(6) In the above embodiment, time-sequential images of a plurality of frames acquired from a moving image (this moving image is represented by moving image data) (this image is represented by image data). In this example, a single high-resolution still image (this still image is represented by still image data) is generated. However, the present invention is not limited to this, and it is also possible to generate a single high-resolution image by simply synthesizing a plurality of low-resolution images that are continuous in time series. The plurality of low-resolution images that are continuous in time series may be, for example, a plurality of images continuously shot by a digital camera.
Further, it is not always necessary to use a plurality of low-resolution images (including frame images) that are continuous in time series, and may be a plurality of low-resolution images arranged in time series.

(7)上記実施例における動きの判定手法は一例であって、これに限定されるものでなく、種々の動きの判定手法を利用することが可能である。例えば、判定画素Fptの輝度値に等しい推定輝度値V'を有する画素の位置(推定位置)を求めて、判定画素Fptの位置と推定位置とのずれ量が所定の範囲内にあるか否かで動きを判定する手法を用いることも可能である。 (7) The motion determination method in the above-described embodiment is an example, and is not limited to this, and various motion determination methods can be used. For example, the position (estimated position) of a pixel having an estimated brightness value V ′ equal to the brightness value of the determination pixel Fpt is obtained, and whether or not the deviation amount between the position of the determination pixel Fpt and the estimated position is within a predetermined range. It is also possible to use a method for determining the movement by the above.

(8)上記実施例では、背景部分を範囲指定領域として指定し、指定された部分を補正量推定範囲に設定して、補正量推定を実行する場合や、動きのある部分を、範囲指定領域として指定することにより、指定された動きのある部分を補正量推定範囲から除外して、補正量推定を実行する場合を例に説明しているが、これに限定されるものではない。例えば、範囲指定領域として指定された動きのある部分のみを、基準フレーム画像に基づいてバイ・リニア法、バイ・キュービック法等を用いて単純に高解像度化するようにしてもよい。また、範囲指定領域として指定された動きのある部分以外の部分を動き非対応合成して高解像度化することもできる。すなわち、範囲指定領域として指定された部分、あるいは、範囲指定領域として指定された部分以外の部分を、種々の処理の対象領域として指定することができる。 (8) In the above embodiment, when the background portion is designated as the range designation region, the designated portion is set as the correction amount estimation range, and the correction amount estimation is executed, or the moving portion is designated as the range designation region. As an example, the case where the portion with the specified movement is excluded from the correction amount estimation range and the correction amount estimation is executed is specified as an example. However, the present invention is not limited to this. For example, only a portion having movement designated as the range designation region may be simply increased in resolution using a bi-linear method, a bi-cubic method, or the like based on the reference frame image. Further, it is possible to increase the resolution by synthesizing a part other than the part having a motion designated as the range designation area in a non-motion compatible manner. That is, a part designated as a range designation area or a part other than a part designated as a range designation area can be designated as a target area for various processes.

また、上記実施例では、背景部分を範囲指定領域として指定し、指定された部分を補正量推定範囲に設定して、補正量推定を実行する場合を例に説明しているが、これに限定されるものではなく、範囲指定領域として指定した部分について種々の処理を実行することができる。   In the above-described embodiment, the background portion is designated as the range designation region, the designated portion is set as the correction amount estimation range, and the correction amount estimation is executed as an example. However, the present invention is limited to this. Instead, various processes can be executed for the portion designated as the range designation region.

(9)上記実施例では、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆にソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、図1に示したような静止画像生成制御部、補正量推定部、動き対応合成部による処理をハードウェア回路で行うこととしてもよい。 (9) In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. For example, the processing by the still image generation control unit, the correction amount estimation unit, and the motion correspondence synthesis unit as illustrated in FIG. 1 may be performed by a hardware circuit.

(10)上記実施例では、パーソナルコンピュータを本発明の静止画像生成装置として動作させる場合を例に説明しているが、これに限定されるものではない。例えば、ディジタルビデオカメラ、ディジタルカメラ、プリンタ等の種々のコンピュータシステムを、本発明の静止画像生成装置とすることができる。特に、ディジタルビデオカメラを本発明の静止画像生成装置とした場合には、動画像を撮影しながら、あるいは、撮影した結果を確認しながら、動画像に含まれる複数のフレーム画像から1枚の高解像度な静止画像を生成することが可能となる。また、ディジタルカメラを本発明の静止画像生成装置とした場合にも、被写体を連写しながら、あるいは、連写した結果を確認しながら、複数の撮像画像から1枚の高解像度な静止画像を生成することができる。 (10) In the above embodiment, the case where the personal computer is operated as the still image generating apparatus of the present invention is described as an example, but the present invention is not limited to this. For example, various computer systems such as a digital video camera, a digital camera, and a printer can be used as the still image generation apparatus of the present invention. In particular, when a digital video camera is used as the still image generation apparatus of the present invention, a single image is taken from a plurality of frame images included in the moving image while shooting the moving image or confirming the shooting result. A resolution still image can be generated. Even when the digital camera is a still image generation device of the present invention, a single high-resolution still image is generated from a plurality of captured images while continuously shooting a subject or checking the result of continuous shooting. can do.

本発明の一実施例としての静止画像生成装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the still image generation device as one Example of this invention. 高解像度静止画像データの生成手順を示す説明図である。It is explanatory drawing which shows the production | generation procedure of high resolution still image data. ユーザが動画像の再生中に高解像度化対象画像を指定するためのユーザインタフェース画面を示す説明図である。It is explanatory drawing which shows the user interface screen for a user to designate the high resolution object image during reproduction | regeneration of a moving image. 基準フレームのフレーム画像と対象フレームのフレーム画像との間の位置ずれについて示す説明図である。It is explanatory drawing shown about the position shift between the frame image of a reference | standard frame, and the frame image of an object frame. 基準フレーム画像と対象フレーム画像との間の位置ずれの補正について示す説明図である。It is explanatory drawing shown about correction | amendment of the position shift between a reference | standard frame image and an object frame image. 基準フレーム画像に対する対象フレーム画像の補正量について示す説明図である。It is explanatory drawing shown about the corrected amount of the object frame image with respect to a reference | standard frame image. 勾配法による並進補正量の推定方法を示す説明図である。It is explanatory drawing which shows the estimation method of the translation correction amount by the gradient method. 画素の回転補正量を模式的に示す説明図である。It is explanatory drawing which shows typically the rotation correction amount of a pixel. 図2のステップS20における補正量推定処理を具体的に示す説明図である。It is explanatory drawing which shows the correction amount estimation process in step S20 of FIG. 2 concretely. ユーザが補正量推定範囲を指定するためのユーザインタフェース画面を示す説明図である。It is explanatory drawing which shows the user interface screen for a user to specify the correction amount estimation range. 基準フレーム画像F0と対象フレーム画像F1〜F3とをずれを補正して配置した様子を拡大して示す説明図である。It is explanatory drawing which expands and shows a mode that the reference | standard frame image F0 and object frame image F1-F3 were correct | amended and arrange | positioned. バイ・リニア法による補間処理について示す説明図である。It is explanatory drawing shown about the interpolation process by a bilinear method. 複数のフレーム画像間で動きが発生していた場合に動き非対応合成処理を実行した場合の説明図である。It is explanatory drawing at the time of performing a motion non-corresponding synthetic | combination process when the motion generate | occur | produced between several frame images. 動きの判定手法を説明するための前提条件を示す説明図である。It is explanatory drawing which shows the precondition for demonstrating the determination method of a motion. 動き判定手法の一例について示す説明図である。It is explanatory drawing shown about an example of a motion determination method. 高解像度静止画像データの生成処理中において表示されるインタフェース画面を示す説明図である。It is explanatory drawing which shows the interface screen displayed during the production | generation process of high resolution still image data.

符号の説明Explanation of symbols

100...コンピュータ
102...制御部
104...表示制御部
106...フレーム画像取得部
108...補正量推定部
108a...補正量推定範囲設定部
108b...補正量推定処理部
110...高解像度化処理部
112...印刷制御部
120...ディスプレイ
130...キーボード
140...マウス
200...プリンタ
300...ディジタルビデオカメラ
A0...「ファイル」ボタン
A1...「再生」ボタン
A2...「停止」ボタン
A3...「一時停止」ボタン
A4...「コマ送り」ボタン
A5...「コマ戻し」ボタン
A11...「高解像度化」ボタン
A12...「保存」ボタン
A13...「プリント」ボタン
A14...「実行」ボタン
A23...選択ボタン
A21,A22,A23...選択ボタン
Cs...カーソル
Fa...フレーム画像
F0〜F3...フレーム画像
NW0...ユーザインタフェース画面
NW1...ユーザインタフェース画面
SW0...画像表示欄
SW1...範囲指定方法選択欄
SW2...範囲指定対象選択欄
SW3...プログレスバー
Ft...対象フレーム画像
Fr...基準フレーム画像
DESCRIPTION OF SYMBOLS 100 ... Computer 102 ... Control part 104 ... Display control part 106 ... Frame image acquisition part 108 ... Correction amount estimation part 108a ... Correction amount estimation range setting part 108b ... Correction amount Estimating processing unit 110 ... High resolution processing unit 112 ... Print control unit 120 ... Display 130 ... Keyboard 140 ... Mouse 200 ... Printer 300 ... Digital video camera A0 ... "File" button A1 ... "Play" button A2 ... "Stop" button A3 ... "Pause" button A4 ... "Frame advance" button A5 ... "Frame reverse" button A11 .. "Resolution" button A12 ... "Save" button A13 ... "Print" button A14 ... "Execute" button A23 ... Select button A21, A22, A23 ... Select button Cs .. Cursor Fa ... Frame image F0-F3 ... Frame image NW0 ... The interface screen NW1 ... User interface screen SW0 ... Image display field SW1 ... Range designation method selection field SW2 ... Range designation target selection field SW3 ... Progress bar Ft ... Target frame image Fr. ..Reference frame image

Claims (11)

比較的低解像度の複数の第1の画像から比較的高解像度の第2の画像を生成する高解像度画像生成装置であって、
前記複数の第1の画像間の位置ずれを補正するための補正量を推定する補正量推定部と、
推定した前記補正量に基づいて前記複数の第1の画像の位置ずれを補正するとともに、補正された前記複数の第1の画像を合成することにより前記第2の画像を生成する高解像度化処理部と、
を備え、
前記補正量推定部は、
前記複数の第1の画像中の所定の部分領域をユーザが指定することを許容するとともに、前記複数の第1の画像の範囲に対し、指定された前記所定の部分領域に基づいて前記補正量の推定に利用されるべき補正量推定範囲を設定する補正量推定範囲設定部と、
設定された前記補正量推定範囲に対応する前記複数の第1の画像に基づいて前記補正量を推定する補正量推定処理部と、
を備えることを特徴とする高解像度画像生成装置。
A high-resolution image generation device that generates a relatively high-resolution second image from a plurality of relatively low-resolution first images,
A correction amount estimator for estimating a correction amount for correcting misalignment between the plurality of first images;
A high resolution processing for correcting the positional deviation of the plurality of first images based on the estimated correction amount and generating the second image by combining the corrected first images. And
With
The correction amount estimation unit
The user is allowed to designate a predetermined partial area in the plurality of first images, and the correction amount is based on the designated predetermined partial area for the range of the plurality of first images. A correction amount estimation range setting unit for setting a correction amount estimation range to be used for estimation of
A correction amount estimation processing unit that estimates the correction amount based on the plurality of first images corresponding to the set correction amount estimation range;
A high-resolution image generation apparatus comprising:
前記複数の第1の画像は、動画像の中から取得された時系列に連続する複数の画像である請求項1記載の高解像度画像生成装置。   The high-resolution image generation apparatus according to claim 1, wherein the plurality of first images are a plurality of time-series consecutive images acquired from a moving image. 前記補正量推定範囲設定部は、前記所定の部分領域を前記補正量推定範囲として設定する請求項1または請求項2記載の高解像度画像生成装置。   The high-resolution image generation apparatus according to claim 1, wherein the correction amount estimation range setting unit sets the predetermined partial region as the correction amount estimation range. 前記補正量推定範囲設定部は、前記所定の部分領域以外の領域を前記補正量推定範囲として設定する請求項1または請求項2記載の高解像度画像生成装置。   The high-resolution image generation apparatus according to claim 1, wherein the correction amount estimation range setting unit sets a region other than the predetermined partial region as the correction amount estimation range. 前記補正量推定範囲設定部は、前記所定の部分領域と、前記所定の部分領域以外の領域とのいずれを前記補正量推定範囲として設定するか、ユーザが選択することを許容する請求項1または請求項2記載の高解像度画像生成装置。   The correction amount estimation range setting unit allows a user to select which of the predetermined partial region and a region other than the predetermined partial region is set as the correction amount estimation range. The high-resolution image generation apparatus according to claim 2. 比較的低解像度の複数の第1の画像から比較的高解像度の第2の画像を生成する高解像度画像生成方法であって、
(a)前記複数の第1の画像間の位置ずれを補正するための補正量を推定する工程と、
(b)推定した前記補正量に基づいて前記複数の第1の画像の位置ずれを補正するとともに、補正された前記複数の第1の画像を合成することにより前記第2の画像を生成する工程と、
を備え、
前記工程(b)は、
(b1)前記複数の第1の画像中の所定の部分領域をユーザが指定することを許容するとともに、前記複数の第1の画像の範囲に対し、指定された前記所定の部分領域に基づいて前記補正量の推定に利用されるべき補正量推定範囲を設定する工程と、
(b2)設定された前記補正量推定範囲に対応する前記複数の第1の画像に基づいて前記補正量を推定する工程と、
を備えることを特徴とする高解像度画像生成方法。
A high-resolution image generation method for generating a relatively high-resolution second image from a plurality of relatively low-resolution first images,
(A) estimating a correction amount for correcting a positional shift between the plurality of first images;
(B) correcting the positional deviation of the plurality of first images based on the estimated correction amount and generating the second image by combining the corrected first images. When,
With
The step (b)
(B1) The user is allowed to specify a predetermined partial area in the plurality of first images, and based on the specified predetermined partial area with respect to the range of the plurality of first images. Setting a correction amount estimation range to be used for estimating the correction amount;
(B2) estimating the correction amount based on the plurality of first images corresponding to the set correction amount estimation range;
A high-resolution image generation method comprising:
前記複数の第1の画像は、動画像の中から取得された時系列に連続する複数の画像である請求項6記載の高解像度画像生成方法。   The high-resolution image generation method according to claim 6, wherein the plurality of first images are a plurality of images consecutive in time series acquired from a moving image. 前記工程(b1)は、前記所定の部分領域を前記補正量推定範囲として設定する請求項6または請求項7記載の高解像度画像生成方法。   The high-resolution image generation method according to claim 6 or 7, wherein the step (b1) sets the predetermined partial region as the correction amount estimation range. 前記工程(b1)は、前記所定の部分領域以外の領域を前記補正量推定範囲として設定する請求項6または請求項7記載の高解像度画像生成方法。   The high-resolution image generation method according to claim 6 or 7, wherein the step (b1) sets an area other than the predetermined partial area as the correction amount estimation range. 前記工程(b1)は、前記所定の部分領域と、前記所定の部分領域以外の領域とのいずれを前記補正量推定範囲として設定するか、ユーザが選択することを許容する請求項6または請求項7記載の高解像度画像生成方法。   The step (b1) allows the user to select which of the predetermined partial area and an area other than the predetermined partial area is set as the correction amount estimation range. 8. The high-resolution image generation method according to 7. 比較的低解像度の複数の第1の画像から比較的高解像度の第2の画像を生成するためのプログラムであって、
前記複数の第1の画像間の位置ずれを補正するための補正量を推定する第1の機能と、
推定した前記補正量に基づいて前記複数の第1の画像の位置ずれを補正するとともに、補正された前記複数の第1の画像を合成することにより前記第2の画像を生成する第2の機能と、
をコンピュータに実現させると共に、
前記第1の機能は、
前記複数の第1の画像中の所定の部分領域をユーザが指定することを許容するとともに、前記補正量の推定に利用されるべき前記複数の第1の画像の範囲を、指定された前記所定の部分領域に基づいて補正量推定範囲として設定する機能と、
設定された前記補正量推定範囲に対応する前記複数の第1の画像に基づいて前記補正量を推定する機能と、
を含むことを特徴とするプログラム。
A program for generating a relatively high-resolution second image from a plurality of relatively low-resolution first images,
A first function for estimating a correction amount for correcting a positional shift between the plurality of first images;
A second function of correcting the positional deviation of the plurality of first images based on the estimated correction amount and generating the second image by combining the corrected first images. When,
Is realized on a computer,
The first function is:
The user is allowed to specify a predetermined partial region in the plurality of first images, and the range of the plurality of first images to be used for the estimation of the correction amount is specified as the specified predetermined region. A function for setting a correction amount estimation range based on the partial area of
A function of estimating the correction amount based on the plurality of first images corresponding to the set correction amount estimation range;
The program characterized by including.
JP2003360289A 2003-10-21 2003-10-21 Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images Pending JP2005129996A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003360289A JP2005129996A (en) 2003-10-21 2003-10-21 Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003360289A JP2005129996A (en) 2003-10-21 2003-10-21 Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images

Publications (1)

Publication Number Publication Date
JP2005129996A true JP2005129996A (en) 2005-05-19

Family

ID=34640638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003360289A Pending JP2005129996A (en) 2003-10-21 2003-10-21 Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images

Country Status (1)

Country Link
JP (1) JP2005129996A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288347A (en) * 2006-04-13 2007-11-01 Seiko Epson Corp Reproduction of still image position in moving image
WO2007142109A1 (en) * 2006-05-31 2007-12-13 Nec Corporation Image resolution increasing device, image resolution increasing method, and program
JP2008020674A (en) * 2006-07-13 2008-01-31 Sharp Corp Electronic book display device, electronic book display control method, program and recording medium
JP2008268725A (en) * 2007-04-24 2008-11-06 Toshiba Corp Information processing apparatus and method of increasing resolution of image data
CN108629726A (en) * 2017-03-23 2018-10-09 精工爱普生株式会社 Information processing unit, method for displaying image, display system and recording medium
JP2020187645A (en) * 2019-05-16 2020-11-19 株式会社モルフォ Image processing apparatus, image processing method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007288347A (en) * 2006-04-13 2007-11-01 Seiko Epson Corp Reproduction of still image position in moving image
WO2007142109A1 (en) * 2006-05-31 2007-12-13 Nec Corporation Image resolution increasing device, image resolution increasing method, and program
JP4968259B2 (en) * 2006-05-31 2012-07-04 日本電気株式会社 Image high resolution device, image high resolution method and program
US8374464B2 (en) 2006-05-31 2013-02-12 Nec Corporation Method, apparatus and program for enhancement of image resolution
JP2008020674A (en) * 2006-07-13 2008-01-31 Sharp Corp Electronic book display device, electronic book display control method, program and recording medium
JP2008268725A (en) * 2007-04-24 2008-11-06 Toshiba Corp Information processing apparatus and method of increasing resolution of image data
CN108629726A (en) * 2017-03-23 2018-10-09 精工爱普生株式会社 Information processing unit, method for displaying image, display system and recording medium
CN108629726B (en) * 2017-03-23 2023-12-15 精工爱普生株式会社 Information processing device, image display method, display system, and recording medium
JP2020187645A (en) * 2019-05-16 2020-11-19 株式会社モルフォ Image processing apparatus, image processing method, and program
US10853954B1 (en) 2019-05-16 2020-12-01 Morpho, Inc. Image processing apparatus, image processing method and storage media

Similar Documents

Publication Publication Date Title
JP4461937B2 (en) Generation of high-resolution images based on multiple low-resolution images
JP4120677B2 (en) Generation of still images from multiple frame images
US20050157949A1 (en) Generation of still image
JP2010122934A (en) Image processing apparatus, image processing method, and program
JP2005354124A (en) Production of high pixel density image from a plurality of low pixel density images
JP2004234623A (en) Image generating device and method, image deviation value detecting device and method, image generating program and image deviation value detecting program
US20050200706A1 (en) Generation of static image data from multiple image data
JP2006033062A (en) Image processor, image processing method and image processing program
JP4871820B2 (en) Video display system and parameter generation method for the system
JP4701598B2 (en) Still image generating apparatus, still image generating method, still image generating program, and recording medium on which still image generating program is recorded
JP4360177B2 (en) Still image generating apparatus, still image generating method, still image generating program, and recording medium on which still image generating program is recorded
JP2005129996A (en) Efficiency enhancement for generation of high-resolution image from a plurality of low resolution images
JP4513357B2 (en) Generation of image data suitable for output devices used for image output
JP2006221221A (en) Generation of high resolution image using two or more low resolution image
JP2004272751A (en) Creation of still image from plurality of frame images
JP2005141614A (en) Shortening of processing time for generation image of high resolution based on a plurality of images of low resolution
JP4292995B2 (en) Generation of still images of specific scenes in movies
JP2005122601A (en) Image processing apparatus, image processing method and image processing program
JP4419500B2 (en) Still image generating apparatus, still image generating method, still image generating program, and recording medium on which still image generating program is recorded
JP2006033232A (en) Image processing apparatus
JP2005252739A (en) Static image generating device and method thereof
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP2005348221A (en) Image generating apparatus, still image generating apparatus, image deviation quantity detecting apparatus, image aligning apparatus, image generating method, image generating program and recording medium with image generating program recorded thereon
US8078008B2 (en) Device, method and program for processing image
JP2009027397A (en) Apparatus, method and program for image processing