JP2009194896A - Image processing device and method, and imaging apparatus - Google Patents

Image processing device and method, and imaging apparatus Download PDF

Info

Publication number
JP2009194896A
JP2009194896A JP2008306297A JP2008306297A JP2009194896A JP 2009194896 A JP2009194896 A JP 2009194896A JP 2008306297 A JP2008306297 A JP 2008306297A JP 2008306297 A JP2008306297 A JP 2008306297A JP 2009194896 A JP2009194896 A JP 2009194896A
Authority
JP
Japan
Prior art keywords
image
resolution
low
images
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008306297A
Other languages
Japanese (ja)
Inventor
Seiji Okada
誠司 岡田
Satoru Takeuchi
悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008306297A priority Critical patent/JP2009194896A/en
Priority to US12/353,447 priority patent/US8315474B2/en
Publication of JP2009194896A publication Critical patent/JP2009194896A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the quality of a high-resolution image obtained by super-resolving processing. <P>SOLUTION: A super-resolving portion (50) for creating a high-resolution image from a plurality of low-resolution images by super-resolving processing, includes a blur-amount estimation portion (52) for estimating the magnitude of blur contained in each low-resolution image, a reference image setting portion (53) for setting as a reference image a low-resolution image whose magnitude of blur is the smallest based on the estimation results, and setting the other low-resolution images as comparison images, and a position-shift detection portion (54) for finding position shift amounts between the reference image and the comparison images with sub-pixel accuracy. By using the found position shift amounts and the plurality of low-resolution images, and performing resolution enhancement using the reference image as the reference, a higher-resolution image is created. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理を行う画像処理装置及び画像処理方法並びにそれらを利用した撮像装置に関する。特に本発明は、複数の低解像度画像から高解像度画像を生成する超解像処理技術に関する。   The present invention relates to an image processing apparatus that performs image processing, an image processing method, and an imaging apparatus that uses them. In particular, the present invention relates to a super-resolution processing technique for generating a high-resolution image from a plurality of low-resolution images.

低い解像度の画像を高解像度化する画像処理技術として超解像処理が提案されている。超解像処理を行う装置は、位置ずれのある複数の低解像度画像を参照し、複数の低解像度画像間の位置ずれ量と複数の低解像度画像の画像データに基づいて低解像度画像の高解像度化を行うことにより1枚の高解像度画像を生成する。この高解像度化は、複数の低解像度画像の中から選択された基準画像を基準として行なわれ、位置ずれ量算出などは、基準画像を基準として行われる。このため、得られる高解像度画像の内容(画質や構図を含む)は、基準画像に大きく依存する。尚、基準画像は、基準フレーム、ターゲットフレーム又は対象画像などとも呼ばれる。   Super-resolution processing has been proposed as an image processing technique for increasing the resolution of a low-resolution image. A device that performs super-resolution processing refers to a plurality of low-resolution images with positional deviation, and based on the amount of positional deviation between the plurality of low-resolution images and the image data of the plurality of low-resolution images, By performing the conversion, one high-resolution image is generated. This high resolution is performed with reference to a reference image selected from a plurality of low resolution images, and the amount of misalignment is calculated with reference to the reference image. For this reason, the content (including image quality and composition) of the obtained high-resolution image greatly depends on the reference image. The reference image is also called a reference frame, a target frame, a target image, or the like.

一般的には、基準画像は、連続的な撮影によって得られた時系列で並ぶ画像列の内の、最も早く生成された画像とされる(例えば、特許文献1参照)。   In general, the reference image is an image generated earliest in an image sequence arranged in a time series obtained by continuous photographing (see, for example, Patent Document 1).

特開2005−197910号公報JP 2005-197910 A 特開2007−151080号公報JP 2007-151080 A

上述したように、高解像度化によって得られる高解像度画像の内容は基準画像に大きく依存するため、より望ましい高解像度画像を得るためには、基準画像の選択方法に工夫が必要である。   As described above, the content of the high-resolution image obtained by increasing the resolution greatly depends on the reference image. Therefore, in order to obtain a more desirable high-resolution image, it is necessary to devise a method for selecting the reference image.

そこで本発明は、望ましい高解像度画像の生成に寄与する画像処理装置及び画像処理方法並びに撮像装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing method, and an imaging apparatus that contribute to generation of a desirable high-resolution image.

本発明に係る画像処理装置は、複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理装置において、前記複数の低解像度画像の画像情報に基づいて前記複数の低解像度画像の中から基準画像を選択する基準画像設定手段を備え、前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成することを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that generates a high-resolution image having a higher resolution than a resolution of the low-resolution image from a plurality of low-resolution images, based on image information of the plurality of low-resolution images. A reference image setting means for selecting a reference image from the plurality of low-resolution images, and executing a resolution increasing process for increasing the resolution with respect to the plurality of low-resolution images based on the reference image; The high-resolution image is generated.

具体的には例えば、当該画像処理装置は、前記画像情報に基づいて各低解像度画像に含まれるぼけの大きさを推定するぼけ量推定手段を更に備え、前記基準画像設定手段は、前記ぼけ量推定手段の推定結果に基づいて前記基準画像を選択する。   Specifically, for example, the image processing apparatus further includes a blur amount estimation unit that estimates a blur size included in each low-resolution image based on the image information, and the reference image setting unit includes the blur amount The reference image is selected based on the estimation result of the estimation means.

これにより、得られる高解像度画像の画質向上が期待される。   This is expected to improve the image quality of the resulting high resolution image.

更に具体的には例えば、前記ぼけ量推定手段は、各低解像度画像における高域周波数成分の量に基づいて、各低解像度画像に含まれるぼけの大きさを推定する。   More specifically, for example, the blur amount estimation means estimates the size of blur included in each low resolution image based on the amount of high frequency components in each low resolution image.

或いは具体的には例えば、前記複数の低解像度画像は、撮像装置による順次撮影にて得られた時系列に並ぶ低解像度画像列を形成し、前記ぼけ量推定手段は、前記低解像度画像列中の時間的に隣接する低解像度画像間の位置ずれ量に基づいて前記低解像度画像列の撮影期間中における前記撮像装置のぶれの状態を検出し、前記ぶれの状態の検出結果から、前記複数の低解像度画像間における、前記ぼけの大きさの大小関係を推定する。   Alternatively, specifically, for example, the plurality of low-resolution images form a low-resolution image sequence arranged in time series obtained by sequential shooting by an imaging device, and the blur amount estimation unit includes the low-resolution image sequence in the low-resolution image sequence Detecting a shake state of the imaging device during the shooting period of the low-resolution image sequence based on a positional deviation amount between temporally adjacent low-resolution images, and from the detection result of the shake state, Estimating the magnitude relationship of the blur size between low resolution images.

そして例えば、前記基準画像設定手段は、前記複数の低解像度画像の内、推定されたぼけの大きさが最も小さい低解像度画像を前記基準画像として選択する。   For example, the reference image setting unit selects a low resolution image having the smallest estimated blur size as the reference image from among the plurality of low resolution images.

高解像度化の基準となる基準画像としてぼけの小さい画像を選択するようにすれば、無作為に基準画像を選択した場合と比べて、得られる高解像度画像の画質を向上させることができる。   If an image with a small blur is selected as a reference image that serves as a reference for increasing the resolution, the image quality of the obtained high-resolution image can be improved as compared with the case where the reference image is randomly selected.

また例えば、各低解像度画像は撮像装置の撮影によって得られ、前記画像情報は、各低解像度画像の露光期間中における前記撮像装置のぶれの状態を検出するセンサの検出データを含み、前記基準画像設定手段は、前記センサの検出データに基づいて前記基準画像を選択する。   Further, for example, each low-resolution image is obtained by photographing with an imaging device, and the image information includes detection data of a sensor that detects a blurring state of the imaging device during an exposure period of each low-resolution image, and the reference image The setting means selects the reference image based on the detection data of the sensor.

そして例えば、前記基準画像設定手段は、前記複数の低解像度画像の内、露光期間中における前記撮像装置のぶれの大きさが最も小さい低解像度画像を前記基準画像として選択する。   For example, the reference image setting unit selects, as the reference image, a low-resolution image having the smallest blurring of the imaging device during the exposure period among the plurality of low-resolution images.

高解像度化の基準となる基準画像として露光期間中における撮像装置のぶれが小さい画像を選択するようにすれば、無作為に基準画像を選択した場合と比べて、得られる高解像度画像の画質を向上させることができる。   If an image with a small blur of the imaging device during the exposure period is selected as a reference image that becomes a reference for high resolution, the image quality of the obtained high resolution image can be improved compared to the case where the reference image is selected at random. Can be improved.

また例えば、当該画像処理装置は、前記画像情報に基づいて、各低解像度画像に含まれる特定被写体の、画像上の大きさを検出する被写体サイズ検出手段を更に備え、前記基準画像設定手段は、検出された前記特定被写体の大きさに基づいて前記基準画像を選択するようにしてもよい。   In addition, for example, the image processing apparatus further includes subject size detection means for detecting a size on the image of a specific subject included in each low-resolution image based on the image information, and the reference image setting means includes: The reference image may be selected based on the detected size of the specific subject.

或いは例えば、当該画像処理装置は、前記画像情報に基づいて各低解像度画像の中から人物の顔を検出するとともに前記顔の状態を検出する顔状態検出手段を更に備え、前記基準画像設定手段は、前記顔状態検出手段の検出結果に基づいて前記基準画像を選択するようにしてもよい。   Alternatively, for example, the image processing apparatus further includes a face state detection unit that detects a human face from each low-resolution image based on the image information and detects the face state, and the reference image setting unit includes: The reference image may be selected based on the detection result of the face state detection means.

また具体的には例えば、前記基準画像設定手段は、前記複数の低解像度画像の内の、前記基準画像以外の低解像度画像を参照画像として設定し、当該画像処理装置は、前記基準画像と前記参照画像との間の位置ずれ量を前記基準画像の画素間隔よりも高い分解能で求める位置ずれ検出手段と、求められた位置ずれ量と前記複数の低解像度画像を用い、前記基準画像を基準として前記高解像度化処理を行うことにより前記高解像度画像を生成する高解像度画像生成手段と、を更に備えている。   More specifically, for example, the reference image setting unit sets a low resolution image other than the reference image among the plurality of low resolution images as a reference image, and the image processing apparatus includes the reference image and the reference image. A positional deviation detecting means for obtaining a positional deviation amount with respect to a reference image with a resolution higher than a pixel interval of the standard image, and using the obtained positional deviation quantities and the plurality of low resolution images, with the standard image as a reference A high-resolution image generation unit configured to generate the high-resolution image by performing the high-resolution processing.

本発明に係る第1の撮像装置は、順次撮影によって時系列に並ぶ複数の低解像度画像を取得する撮像手段と、前記複数の低解像度画像に対する高解像度化処理によって高解像度画像を生成する上記の画像処理装置と、を備えたことを特徴とする。   According to a first imaging apparatus of the present invention, an imaging unit that acquires a plurality of low-resolution images arranged in time series by sequential shooting, and a high-resolution image generated by high-resolution processing on the plurality of low-resolution images. And an image processing apparatus.

本発明に係る第2の撮像装置は、撮像素子及び被写体に応じた光学像を前記撮像素子上に結像させるための光学系を有して撮影によって撮影画像を得る撮像手段と、前記撮影画像内に設けられた焦点評価領域の映像信号に基づいて焦点評価値を導出する焦点評価値導出手段とを備え、前記焦点評価値に基づいて前記光学系を駆動制御してオートフォーカス制御を行う撮像装置において、前記撮像手段から得た複数の撮影画像を複数の低解像度画像として参照して、前記複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理装置を更に備え、前記画像処理装置は、各低解像度画像に対して導出された前記合焦評価値に基づいて前記複数の低解像度画像の中から基準画像を選択する基準画像設定手段を備え、前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成することを特徴とする。   The second image pickup apparatus according to the present invention includes an image pickup unit having an image pickup element and an optical system for forming an optical image corresponding to a subject on the image pickup element to obtain a shot image by shooting, and the shot image A focus evaluation value deriving unit for deriving a focus evaluation value based on a video signal in a focus evaluation region provided in the image pickup, and performing autofocus control by driving and controlling the optical system based on the focus evaluation value In the apparatus, an image for generating a high-resolution image having a resolution higher than the resolution of the low-resolution image from the plurality of low-resolution images by referring to the plurality of captured images obtained from the imaging unit as a plurality of low-resolution images. A processing device, wherein the image processing device selects a reference image from the plurality of low-resolution images based on the focus evaluation value derived for each low-resolution image. Comprising a setting means, based on the reference image, and generates the high resolution image by performing a resolution enhancement process to increase the resolution with respect to the plurality of low-resolution images.

これにより、ユーザにとってより望ましい内容の高解像度画像を生成することが可能となる。   As a result, it is possible to generate a high-resolution image having contents more desirable for the user.

具体的には例えば、前記オートフォーカス制御では、前記焦点評価値が極大値をとるように前記光学系が駆動制御され、前記基準画像設定手段は、前記複数の低解像度画像の内、最大の合焦評価値に対応する低解像度画像を前記基準画像として選択する。   Specifically, for example, in the autofocus control, the optical system is driven and controlled so that the focus evaluation value takes a maximum value, and the reference image setting unit is configured to perform a maximum alignment among the plurality of low resolution images. A low resolution image corresponding to the focus evaluation value is selected as the reference image.

これにより、ユーザの着目被写体が焦点評価領域に配置された構図を有する低解像度画像が基準画像として選択されやすくなる。結果、ユーザにとってより望ましい構図の高解像度画像を生成することが可能となる。   As a result, a low-resolution image having a composition in which the subject of interest of the user is arranged in the focus evaluation area can be easily selected as the reference image. As a result, it is possible to generate a high-resolution image having a composition that is more desirable for the user.

また具体的には例えば、第2の撮像装置において、前記基準画像設定手段は、前記複数の低解像度画像の内の、前記基準画像以外の低解像度画像を参照画像として設定し、前記画像処理装置は、前記基準画像と前記参照画像との間の位置ずれ量を前記基準画像の画素間隔よりも高い分解能で求める位置ずれ検出手段と、求められた位置ずれ量と前記複数の低解像度画像を用い、前記基準画像を基準として前記高解像度化処理を行うことにより前記高解像度画像を生成する高解像度画像生成手段と、を更に備えている。   More specifically, for example, in the second imaging device, the reference image setting unit sets a low-resolution image other than the reference image among the plurality of low-resolution images as a reference image, and the image processing device Uses a displacement detection means for obtaining a displacement amount between the reference image and the reference image with a resolution higher than a pixel interval of the reference image, and uses the obtained displacement amounts and the plurality of low-resolution images. And high-resolution image generation means for generating the high-resolution image by performing the high-resolution processing on the basis of the reference image.

本発明に係る画像処理方法は、複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理方法において、前記複数の低解像度画像の画像情報に基づいて前記複数の低解像度画像の中から基準画像を選択し、前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成することを特徴とする。   An image processing method according to the present invention is an image processing method for generating a high resolution image having a resolution higher than the resolution of the low resolution image from a plurality of low resolution images, based on image information of the plurality of low resolution images. A reference image is selected from the plurality of low-resolution images, and the high-resolution image is generated by executing, on the plurality of low-resolution images, high-resolution processing that increases the resolution based on the reference image. It is characterized by doing.

尚、本発明に係る低解像度画像の画像情報は、低解像度画像の各画素の輝度及び/又は色を表す画像データを含み、更に、上述の検出データを含みうる。   Note that the image information of the low-resolution image according to the present invention includes image data representing the luminance and / or color of each pixel of the low-resolution image, and may further include the detection data described above.

本発明によれば、望ましい高解像度画像の生成に寄与する画像処理装置及び画像処理方法並びに撮像装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the image processing apparatus, the image processing method, and imaging device which contribute to the production | generation of a desirable high resolution image can be provided.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第8実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to eighth embodiments will be described later. First, matters that are common to each embodiment or items that are referred to in each embodiment will be described.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画及び静止画を撮影可能となっていると共に、動画撮影中に静止画を同時に撮影することも可能となっている。尚、動画撮影機能を省略し、撮像装置1を静止画のみを撮影可能なデジタルスチルカメラとすることも可能である。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital video camera, for example. The imaging device 1 can shoot moving images and still images, and can also shoot still images simultaneously during moving image shooting. Note that the moving image shooting function may be omitted, and the imaging apparatus 1 may be a digital still camera capable of shooting only a still image.

[基本的な構成の説明]
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク14と、音声信号処理部15と、圧縮処理部16と、SDRAM(Synchronous Dynamic Random Access Memory)などの内部メモリ17と、SD(Secure Digital)カードや磁気ディスクなどの外部メモリ18と、伸張処理部19と、VRAM(Video Random Access Memory)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
[Description of basic configuration]
The imaging device 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a video signal processing unit 13, a microphone 14, an audio signal processing unit 15, a compression processing unit 16, and an SDRAM (Synchronous Dynamic Random Access Memory). ), An external memory 18 such as an SD (Secure Digital) card or a magnetic disk, a decompression processing unit 19, a VRAM (Video Random Access Memory) 20, an audio output circuit 21, and a TG (timing generator). ) 22, a CPU (Central Processing Unit) 23, a bus 24, a bus 25, an operation unit 26, a display unit 27, and a speaker 28. The operation unit 26 includes a recording button 26a, a shutter button 26b, an operation key 26c, and the like. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25.

TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)を内部メモリ17に記録する。   The TG 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and provides the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The CPU 23 comprehensively controls the operation of each unit in the imaging apparatus 1. The operation unit 26 receives an operation by a user. The operation content given to the operation unit 26 is transmitted to the CPU 23. Each unit in the imaging apparatus 1 temporarily records various data (digital signals) in the internal memory 17 during signal processing as necessary.

撮像部11は、撮像素子(イメージセンサ)33の他、光学系、絞り及びドライバ(図1において不図示)を備える。被写体からの入射光は、光学系及び絞りを介して、撮像素子33に入射する。光学系を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。   The imaging unit 11 includes an optical system, an aperture, and a driver (not shown in FIG. 1) in addition to the imaging element (image sensor) 33. Incident light from the subject enters the image sensor 33 via the optical system and the stop. Each lens constituting the optical system forms an optical image of the subject on the image sensor 33. The TG 22 generates a drive pulse for driving the image sensor 33 in synchronization with the timing control signal, and applies the drive pulse to the image sensor 33.

撮像素子33は、例えばCCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる。撮像素子33は、光学系及び絞りを介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の画素(受光画素;不図示)を備え、各撮影において、各画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。   The image sensor 33 is composed of, for example, a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor 33 photoelectrically converts an optical image incident through the optical system and the diaphragm, and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the imaging device 33 includes a plurality of pixels (light receiving pixels; not shown) that are two-dimensionally arranged in a matrix, and in each photographing, each pixel receives a signal charge having a charge amount corresponding to the exposure time. store. The electrical signal from each pixel having a magnitude proportional to the amount of the stored signal charge is sequentially output to the subsequent AFE 12 in accordance with the drive pulse from the TG 22.

AFE12は、撮像素子33から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して各種画像処理を施し、画像処理後の画像についての映像信号を生成する。映像信号は、画像の輝度を表す輝度信号Yと、画像の色を表す色差信号U及びVと、から構成される。   The AFE 12 amplifies the analog signal output from the image sensor 33, converts the amplified analog signal into a digital signal, and outputs the digital signal to the video signal processing unit 13. The degree of amplification of signal amplification in the AFE 12 is controlled by the CPU 23. The video signal processing unit 13 performs various types of image processing on the image represented by the output signal of the AFE 12, and generates a video signal for the image after the image processing. The video signal is composed of a luminance signal Y representing the luminance of the image and color difference signals U and V representing the color of the image.

マイク14は撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The microphone 14 converts the peripheral sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画または静止画の撮影及び記録時において、圧縮された映像信号は外部メモリ18に記録される。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画撮影及び記録時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらは外部メモリ18に記録される。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 using a predetermined compression method. The compressed video signal is recorded in the external memory 18 at the time of shooting and recording a moving image or a still image. The compression processing unit 16 compresses the audio signal from the audio signal processing unit 15 using a predetermined compression method. At the time of moving image shooting and recording, the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 are compressed while being correlated with each other in time by the compression processing unit 16, and those after compression are externally transmitted. Recorded in the memory 18.

録画ボタン26aは、動画の撮影及び記録の開始/終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、静止画の撮影及び記録を指示するための押しボタンスイッチである。   The recording button 26a is a push button switch for instructing the start / end of moving image shooting and recording, and the shutter button 26b is a push button switch for instructing shooting and recording of a still image.

撮像装置1の動作モードには、動画及び静止画の撮影が可能な撮影モードと、外部メモリ18に格納された動画及び静止画を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。撮影モードでは、所定のフレーム周期にて順次撮影が行われ、撮像素子33から時系列で並ぶ画像列が取得される。この画像列を形成する各画像を「フレーム画像」と呼ぶ。   The operation modes of the imaging apparatus 1 include a shooting mode in which moving images and still images can be shot, and a playback mode in which moving images and still images stored in the external memory 18 are played back and displayed on the display unit 27. Transition between the modes is performed according to the operation on the operation key 26c. In the shooting mode, shooting is sequentially performed at a predetermined frame period, and an image sequence arranged in time series is acquired from the image sensor 33. Each image forming this image sequence is called a “frame image”.

撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後に得られる各フレーム画像の映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介して外部メモリ18に記録される。動画撮影の開始後、再度ユーザが録画ボタン26aを押下すると、映像信号及び音声信号の外部メモリ18への記録は終了し、1つの動画の撮影は完了する。また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画の撮影及び記録が行われる。   When the user presses the recording button 26a in the shooting mode, under the control of the CPU 23, the video signal of each frame image and the corresponding audio signal obtained after the pressing are sequentially sent via the compression processing unit 16 to the external memory 18. To be recorded. When the user presses the recording button 26a again after starting the moving image shooting, the recording of the video signal and the audio signal in the external memory 18 is finished, and the shooting of one moving image is completed. In the shooting mode, when the user presses the shutter button 26b, a still image is shot and recorded.

再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、外部メモリ18に記録された動画又は静止画を表す圧縮された映像信号は、伸張処理部19にて伸張されてからVRAM20に書き込まれる。尚、撮影モードにおいては、通常、録画ボタン26a及びシャッタボタン26bに対する操作内容に関係なく、映像信号処理13による映像信号の生成が逐次行われており、その映像信号は順次VRAM20に書き込まれる。   When the user performs a predetermined operation on the operation key 26c in the reproduction mode, a compressed video signal representing a moving image or a still image recorded in the external memory 18 is expanded by the expansion processing unit 19 and then written to the VRAM 20. It is. In the shooting mode, normally, video signals are generated sequentially by the video signal processing 13 regardless of the operation contents of the recording button 26a and the shutter button 26b, and the video signals are sequentially written in the VRAM 20.

表示部27は、液晶ディスプレイなどの表示装置であり、VRAM20に書き込まれた映像信号に応じた画像を表示する。また、再生モードにおいて動画を再生する際、外部メモリ18に記録された動画に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。   The display unit 27 is a display device such as a liquid crystal display, and displays an image corresponding to the video signal written in the VRAM 20. In addition, when a moving image is reproduced in the reproduction mode, a compressed audio signal corresponding to the moving image recorded in the external memory 18 is also sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received audio signal and sends it to the audio output circuit 21. The audio output circuit 21 converts a given digital audio signal into an audio signal in a format that can be output by the speaker 28 (for example, an analog audio signal) and outputs the audio signal to the speaker 28. The speaker 28 outputs the sound signal from the sound output circuit 21 to the outside as sound (sound).

映像信号処理部13は、CPU23と協働しつつ、超解像処理を実施することが可能に形成されている。超解像処理によって、複数の低解像度画像から1枚の高解像度画像が生成される。この高解像度画像の映像信号を、圧縮処理部16を介して外部メモリ18に記録することができる。高解像度画像の解像度は、低解像度画像のそれよりも高く、高解像度画像の水平方向及び垂直方向の画素数は、低解像度画像のそれよりも多い。例えば、静止画の撮影指示がなされた時に、複数の低解像度画像としての複数のフレーム画像を取得し、それらに対して超解像処理を実施することにより高解像度画像を生成する。或いは例えば、動画撮影時に得られた複数の低解像度画像としての複数のフレーム画像に対して、超解像処理は実施される。   The video signal processing unit 13 is configured to be able to perform super-resolution processing in cooperation with the CPU 23. Through the super-resolution processing, one high-resolution image is generated from a plurality of low-resolution images. The video signal of the high resolution image can be recorded in the external memory 18 via the compression processing unit 16. The resolution of the high resolution image is higher than that of the low resolution image, and the number of pixels in the horizontal and vertical directions of the high resolution image is larger than that of the low resolution image. For example, when an instruction to capture a still image is given, a plurality of frame images as a plurality of low resolution images are acquired, and a high resolution image is generated by performing super-resolution processing on them. Alternatively, for example, the super-resolution processing is performed on a plurality of frame images as a plurality of low resolution images obtained at the time of moving image shooting.

超解像処理の基本概念について簡単に説明する。例として、再構成型方式を用いた超解像処理を説明する。図2に、再構成型方式の一種であるMAP(Maximum A Posterior)方式を用いた超解像処理の概念図を示す。この超解像処理では、実際の撮影によって得られた複数の低解像度画像から1枚の高解像度画像を推定し、この推定した高解像度画像を劣化させることによって元の複数の低解像度画像を推定する。実際の撮影によって得られた低解像度画像を特に「観測低解像度画像」と呼び、推定された低解像度画像を特に「推定低解像度画像」と呼ぶ。その後、観測低解像度画像と推定低解像度画像との誤差が最小化されるように、高解像度画像と低解像度画像を反復推定し、最終的に取得される高解像度画像を出力する。   The basic concept of super-resolution processing will be briefly described. As an example, super-resolution processing using a reconstruction method will be described. FIG. 2 is a conceptual diagram of super-resolution processing using a MAP (Maximum A Posterior) method, which is a kind of reconfigurable method. In this super-resolution processing, one high-resolution image is estimated from a plurality of low-resolution images obtained by actual shooting, and the original plurality of low-resolution images are estimated by degrading the estimated high-resolution image. To do. A low resolution image obtained by actual photographing is particularly called an “observation low resolution image”, and an estimated low resolution image is particularly called an “estimated low resolution image”. Thereafter, the high resolution image and the low resolution image are repeatedly estimated so that the error between the observed low resolution image and the estimated low resolution image is minimized, and the finally acquired high resolution image is output.

図3に、超解像処理の流れをフローチャートにて表す。まず、ステップS11にて初期高解像度画像が生成される。この初期高解像度画像は、後述の基準画像から生成される。続くステップS12にて、現時点の高解像度画像を構築する元の観測低解像度画像を推定する。推定された画像を、上述したように推定低解像度画像と呼ぶ。続くステップS13では、観測低解像度画像と推定低解像度画像との差分画像に基づいて現時点の高解像度画像に対する更新量を導出する。この更新量は、ステップS12〜S14の各処理の反復実行によって観測低解像度画像と推定低解像度画像との誤差が最小化されるように導出される。そして、続くステップS14にて、その更新量を用いて現時点の高解像度画像を更新し、新たな高解像度画像を生成する。この後、ステップS12に戻り、新たに生成された高解像度画像を現時点の高解像度画像と捉えて、ステップS12〜S14の各処理が反復実行される。基本的に、ステップS12〜S14の各処理の反復回数が増大するほど、得られる高解像度画像の解像度が実質的に向上し、理想に近い高解像度画像が得られる。   FIG. 3 is a flowchart showing the flow of super-resolution processing. First, in step S11, an initial high resolution image is generated. This initial high resolution image is generated from a reference image described later. In the subsequent step S12, the original observed low resolution image for constructing the current high resolution image is estimated. The estimated image is referred to as an estimated low resolution image as described above. In the subsequent step S13, an update amount for the current high resolution image is derived based on the difference image between the observed low resolution image and the estimated low resolution image. This update amount is derived so that an error between the observed low-resolution image and the estimated low-resolution image is minimized by repeatedly executing the processes in steps S12 to S14. In the subsequent step S14, the current high resolution image is updated using the updated amount, and a new high resolution image is generated. Thereafter, the process returns to step S12, and the newly generated high resolution image is regarded as the current high resolution image, and the processes of steps S12 to S14 are repeatedly executed. Basically, as the number of repetitions of each process of steps S12 to S14 increases, the resolution of the obtained high-resolution image is substantially improved, and an ideal high-resolution image is obtained.

上述した動作の流れを基本とする超解像処理が、撮像装置1内にて実施される。撮像装置1にて実施される超解像処理は、どのような方式の超解像処理であっても構わないが、本実施形態では再構成型方式の超解像処理を採用した場合を説明する。再構成型方式は、ML(Maximum-Likelihood)法、MAP(Maximum A Posterior)法、POCS(Projection Onto Convex Set)法、IBP(Iterative Back Projection)法などを含むが、本実施形態では、MAP法を採用した構成を例にとる。   Super-resolution processing based on the above-described operation flow is performed in the imaging apparatus 1. The super-resolution processing performed in the imaging apparatus 1 may be any type of super-resolution processing, but in the present embodiment, a description will be given of a case where a reconfiguration type super-resolution processing is adopted. To do. The reconfiguration method includes an ML (Maximum-Likelihood) method, a MAP (Maximum A Posterior) method, a POCS (Projection Onto Convex Set) method, an IBP (Iterative Back Projection) method, and the like. In this embodiment, the MAP method is used. Take the configuration using as an example.

超解像処理に関する実施例として、以下に第1〜第8実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用可能される。   As examples relating to the super-resolution processing, first to eighth examples will be described below. The matters described in one embodiment can be applied to other embodiments as long as no contradiction arises.

<<第1実施例>>
まず、第1実施例について説明する。図4は、超解像処理を担う超解像部50の内部ブロック図である。符号51、52及び54〜57にて参照される各部位は図1の映像信号処理部13内に設けられ、第1、第2、第3、第4のフレームメモリ61、62、63及び64は図1の内部メモリ17内に設けられる。基準画像設定部53の機能はCPU23にて実現される。但し、基準画像設定部53の機能を映像信号処理部13にて実現させるようにしてもよい。以下、第1、第2、第3、第4のフレームメモリを、単に、フレームメモリと略記する。フレームメモリ61〜63は、観測低解像度画像としてのフレーム画像の画像データを記憶するためのメモリであり、フレームメモリ64は、高解像度画像の画像データを記憶するためのメモリである。図5は、図4の各部位の動作の流れを時系列的に示した図であり、図5の横方向が時間方向に対応する。尚、或る注目した画像の画像データとは、その注目した画像の輝度及び色を表すデータ(例えば、RGB信号やYUV信号)である。
<< First Example >>
First, the first embodiment will be described. FIG. 4 is an internal block diagram of the super-resolution unit 50 responsible for the super-resolution processing. Reference numerals 51, 52, and 54 to 57 refer to the respective parts provided in the video signal processing unit 13 of FIG. 1, and the first, second, third, and fourth frame memories 61, 62, 63, and 64 are provided. Are provided in the internal memory 17 of FIG. The function of the reference image setting unit 53 is realized by the CPU 23. However, the function of the reference image setting unit 53 may be realized by the video signal processing unit 13. Hereinafter, the first, second, third, and fourth frame memories are simply referred to as frame memories. The frame memories 61 to 63 are memories for storing image data of frame images as observed low resolution images, and the frame memory 64 is a memory for storing image data of high resolution images. FIG. 5 is a diagram showing the flow of operation of each part of FIG. 4 in time series, and the horizontal direction of FIG. 5 corresponds to the time direction. Note that the image data of a noticed image is data (for example, an RGB signal or a YUV signal) representing the luminance and color of the noticed image.

第1実施例では、3枚の観測低解像度画像から1枚の高解像度画像を生成する場合を例にとる。3枚の観測低解像度画像は、連続して撮影された3つのフレーム画像である。この3枚の観測低解像度画像をL1、L2及びL3にて表すこととし、観測低解像度画像L1、L2及びL3の順番で撮影がなされたものとする。以下の説明において、観測低解像度画像L1、L2及びL3をそれぞれ画像L1、L2及びL3と略記することもある(後述のL4等についても同様)。画像L1、L2及びL3の内、異なる2枚の画像間には、手ぶれ等に由来する位置ずれが生じているものとする。 In the first embodiment, a case where one high-resolution image is generated from three observed low-resolution images is taken as an example. The three observed low-resolution images are three frame images taken in succession. These three observation low-resolution images are represented by L 1 , L 2, and L 3 , and the observation low-resolution images L 1 , L 2, and L 3 are taken in this order. In the following description, (the same is true for L 4 described later or the like) that the observed low-resolution image L 1, is L 2 and L 3 each image L 1, L also 2 and L 3 and the abbreviated. It is assumed that a positional shift caused by camera shake or the like occurs between two different images among the images L 1 , L 2 and L 3 .

画像L1、L2及びL3の順番で撮影が行われるため、選択部51及びぼけ量推定部52に、まず画像L1を表す画像データが入力され、次に画像L2を表す画像データが入力され、更にその次に画像L3を表す画像データが入力される。選択部51は、入力された観測低解像度画像の画像データが記憶されるフレームメモリを選択する。具体的には、選択部51は、画像L1の画像データ、画像L2の画像データ及び画像L3の画像データを、夫々、フレームメモリ61、62及び63に送って記憶させる。 Since shooting is performed in the order of the images L 1 , L 2, and L 3 , first, image data representing the image L 1 is input to the selection unit 51 and the blur amount estimation unit 52, and then image data representing the image L 2. There are input, the input is further image data representing the image L 3 to the next. The selection unit 51 selects a frame memory in which image data of the input observation low-resolution image is stored. Specifically, the selection unit 51 sends the image data of the image L 1 , the image data of the image L 2 , and the image data of the image L 3 to the frame memories 61, 62, and 63 and stores them.

ぼけ量推定部52は、入力された画像に含まれるぼけの大きさ(以下、ぼけ量という)を推定するための部位であり、ぼけ量に応じたぼけ量評価値を算出する。ぼけ量推定部52は、最初に画像L1の画像データに基づいて画像L1のぼけ量に応じたぼけ量評価値を算出し、次に画像L2の画像データに基づいて画像L2のぼけ量に応じたぼけ量評価値を算出し、更にその次に画像L3の画像データに基づいて画像L3のぼけ量に応じたぼけ量評価値を算出する。各ぼけ量評価値は、順次、基準画像設定部53に伝達される。 The blur amount estimation unit 52 is a part for estimating the size of blur (hereinafter referred to as blur amount) included in the input image, and calculates a blur amount evaluation value corresponding to the blur amount. Blur estimation unit 52 first calculates the blur evaluation value corresponding to the blur of the image L 1 on the basis of the image data of the image L 1, the image L 2 and then based on the image data of the image L 2 A blur amount evaluation value corresponding to the blur amount is calculated, and then a blur amount evaluation value corresponding to the blur amount of the image L 3 is calculated based on the image data of the image L 3 . Each blur amount evaluation value is sequentially transmitted to the reference image setting unit 53.

撮像装置1を手で支持する場合などにおいては、観測低解像度画像の露光期間中に、撮像装置1の筐体に所謂手ぶれが作用しうる。また、所謂被写体ぶれが生じる場合もある。被写体ぶれとは、露光期間中に被写体が実空間上で動くことによって生じる、画像上における被写体のぶれのことを意味する。着目した観測低解像度画像に関して手ぶれや被写体ぶれが生じると、着目した観測低解像度画像の全体又は一部が手ぶれや被写体ぶれに由来してぼける。ぼけ量推定部52は、観測低解像度画像の画像データに基づいて、この手ぶれや被写体ぶれに由来するぼけの大きさを推定する。   When the imaging apparatus 1 is supported by hand, so-called camera shake can act on the casing of the imaging apparatus 1 during the exposure period of the observed low-resolution image. In addition, so-called subject shake may occur. Subject blur means blurring of a subject on an image caused by the subject moving in real space during the exposure period. When camera shake or subject blur occurs in the observed low-resolution image, the entire observed low-resolution image or part of the observed low-resolution image is blurred due to camera shake or subject blur. The blur amount estimation unit 52 estimates the size of the blur derived from the camera shake or the subject blur based on the image data of the observed low resolution image.

ぼけ量推定部52は、例えば、手ぶれや被写体ぶれが生じると画像内の高域周波数成分が減衰するという特性を利用してぼけ量を推定する。つまり、観測低解像度画像における所定の高域周波数成分を抽出し、抽出した高域周波数成分の量に基づいてぼけ量を推定する。高域周波数成分の量は、高域周波数成分の強度とも換言される。   The blur amount estimation unit 52 estimates the blur amount using a characteristic that, for example, when a camera shake or a subject blur occurs, a high frequency component in the image is attenuated. That is, a predetermined high frequency component in the observed low resolution image is extracted, and the amount of blur is estimated based on the amount of the extracted high frequency component. The amount of the high frequency component is also referred to as the intensity of the high frequency component.

図6を参照して、1枚の観測低解像度画像に対するぼけ量評価値の算出方法を説明する。図6は、ぼけ量推定部52として利用可能なぼけ量推定部の内部ブロック図である。図6のぼけ量推定部は、抽出部71、HPF(ハイパスフィルタ)72及び積算部73を有して構成される。   With reference to FIG. 6, a method of calculating the blur amount evaluation value for one observation low-resolution image will be described. FIG. 6 is an internal block diagram of a blur amount estimation unit that can be used as the blur amount estimation unit 52. The blur amount estimation unit in FIG. 6 includes an extraction unit 71, an HPF (high pass filter) 72, and an integration unit 73.

抽出部71には、観測低解像度画像の映像信号が与えられる。抽出部71は、その映像信号の中から、観測低解像度画像内に定義された評価領域内の輝度信号を抽出する。評価領域は、例えば、観測低解像度画像内の全体領域である。但し、観測低解像度画像内の一部領域(例えば、後述の第5実施例にて述べる主要被写体領域)を評価領域として設定することも可能である。HPF72は、抽出部71によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。例えば、HPF72を、図7に示すような空間フィルタとしての、3×3のフィルタサイズを有するラプラシアンフィルタにて形成し、そのラプラシアンフィルタを評価領域内の各画素に作用させる空間フィルタリングを行う。そうすると、HPF72からは、そのラプラシアンフィルタのフィルタ特性に応じた出力値が順次得られる。尚、HPF72を周波数フィルタにて形成するようにし、フーリエ変換を用いて周波数領域上で高域周波数成分を抽出するようにしてもよい。   The extraction unit 71 is provided with a video signal of the observed low resolution image. The extraction unit 71 extracts the luminance signal in the evaluation area defined in the observed low resolution image from the video signal. The evaluation area is, for example, the entire area in the observed low resolution image. However, it is also possible to set a partial area in the observed low-resolution image (for example, a main subject area described in a fifth embodiment described later) as an evaluation area. The HPF 72 extracts only a predetermined high frequency component from the luminance signal extracted by the extraction unit 71. For example, the HPF 72 is formed by a Laplacian filter having a 3 × 3 filter size as a spatial filter as shown in FIG. 7, and spatial filtering is performed so that the Laplacian filter acts on each pixel in the evaluation region. Then, output values corresponding to the filter characteristics of the Laplacian filter are sequentially obtained from the HPF 72. The HPF 72 may be formed by a frequency filter, and a high frequency component may be extracted on the frequency domain using Fourier transform.

積算部73は、HPF72によって抽出された高域周波数成分の大きさ(即ち、HPF72の出力値の絶対値)を積算し、積算値をぼけ量評価値として出力する。或る観測低解像度画像に対するぼけ量評価値は、その観測低解像度画像におけるぼけ量が小さくなるに従って増大する。   The integrating unit 73 integrates the magnitude of the high frequency component extracted by the HPF 72 (that is, the absolute value of the output value of the HPF 72), and outputs the integrated value as a blur amount evaluation value. The blur amount evaluation value for a certain observed low resolution image increases as the blur amount in the observed low resolution image decreases.

3枚の観測低解像度画像L1〜L3を高解像度化することによって1枚の高解像度画像を生成する際、3枚の画像L1〜L3の内の1枚が高解像度化の基準となる基準画像として設定され、他の2枚が参照画像として設定される。基準画像を、基準フレーム又は基準フレーム画像と読み替えることもでき、参照画像を、参照フレーム又は参照フレーム画像と読み替えることもできる。高解像度画像を生成するために必要な位置ずれ量は基準画像を基準にして算出される。また、基準画像は初期高解像度画像の生成の元ともされる。このため、最終的に得られる高解像度画像の画質は基準画像に大きく依存する。そこで、基準画像設定部53は、ぼけ量評価値に基づいて基準画像及び参照画像を設定する処理を行う。具体的には、観測低解像度画像L1〜L3の内、最もぼけ量が小さいと推定された観測低解像度画像を基準画像として設定すると共に残りの2枚の観測低解像度画像を参照画像として設定する。ぼけ量が小さいとぼけ量評価値は大きくなるため、ぼけ量評価値が最も大きい観測低解像度画像が基準画像として設定される。 Three observation low-resolution images L 1 ~L 3 when generating one high-resolution image by the resolution of the reference one of the three images L 1 ~L 3 is a high-resolution And the other two images are set as reference images. The reference image can be read as a reference frame or a reference frame image, and the reference image can be read as a reference frame or a reference frame image. The amount of displacement necessary for generating a high resolution image is calculated with reference to the reference image. The reference image is also used as a source for generating an initial high-resolution image. For this reason, the image quality of the finally obtained high-resolution image greatly depends on the reference image. Therefore, the standard image setting unit 53 performs processing for setting the standard image and the reference image based on the blur amount evaluation value. Specifically, among the observed low-resolution images L 1 to L 3 , an observed low-resolution image estimated to have the smallest blur is set as a reference image, and the remaining two observed low-resolution images are used as reference images. Set. When the amount of blur is small, the blur amount evaluation value becomes large. Therefore, the observation low-resolution image having the largest blur amount evaluation value is set as the reference image.

今、基準画像に対応する観測低解像度画像の番号をaで表し、且つ、2枚の参照画像に対応する観測低解像度画像の番号をb及びcで表す。基準画像が画像L1である場合はa=1且つb=2且つc=3であり、基準画像が画像L2である場合はa=2且つb=1且つc=3であり、基準画像が画像L3である場合はa=3且つb=1且つc=2である。基準画像の設定後、図4の基準画像設定部53は、a、b及びcの値に基づいて、位置ずれ検出部54、初期高解像度画像生成部55及び超解像度処理部57が読み出すべき観測低解像度画像の順番を制御する。つまり、それらが、どのタイミングでどのフレームメモリの画像データを読み出すべきかを制御する。 Now, the number of the observed low resolution image corresponding to the standard image is represented by a, and the number of the observed low resolution image corresponding to the two reference images is represented by b and c. When the reference image is the image L 1 , a = 1 and b = 2 and c = 3, and when the reference image is the image L 2 , a = 2, b = 1 and c = 3, Is image L 3 , a = 3, b = 1 and c = 2. After setting the reference image, the reference image setting unit 53 in FIG. 4 performs an observation to be read out by the misregistration detection unit 54, the initial high-resolution image generation unit 55, and the super-resolution processing unit 57 based on the values a, b, and c. Control the order of low-resolution images. That is, they control which frame memory image data should be read at which timing.

位置ずれ検出部54は、代表点マッチング法やブロックマッチング法、勾配法などを用いて、2枚の観測低解像度画像間の位置ずれ量を算出する。ここで算出される位置ずれ量は、観測低解像度画像の画素間隔よりも分解能の高い、所謂サブピクセルの分解能を有している。つまり、観測低解像度画像内の隣接する2つの画素の間隔よりも短い距離を最小単位として位置ずれ量が算出される。位置ずれ量は、水平成分及び垂直成分を含む二次元量であり、動き量又は動きベクトルとも呼ばれる。   The misregistration detection unit 54 calculates the misregistration amount between two observation low-resolution images using a representative point matching method, a block matching method, a gradient method, or the like. The amount of displacement calculated here has a so-called sub-pixel resolution having a resolution higher than the pixel interval of the observed low-resolution image. That is, the amount of positional deviation is calculated with a distance shorter than the interval between two adjacent pixels in the observed low resolution image as the minimum unit. The positional deviation amount is a two-dimensional amount including a horizontal component and a vertical component, and is also called a motion amount or a motion vector.

位置ずれ検出部54は、基準画像を基準とし、基準画像と各参照画像との間における位置ずれ量を算出する。従って、基準画像の設定後、位置ずれ検出部54には、まず観測低解像度画像La及びLbの画像データが入力され、観測低解像度画像Laを基準とした、観測低解像度画像LaとLbとの間の位置ずれ量Vabが算出される(図5参照)。次に、位置ずれ検出部54には、観測低解像度画像La及びLcの画像データが入力され、観測低解像度画像Laを基準とした、観測低解像度画像LaとLcとの間の位置ずれ量Vacが算出される。 The misregistration detection unit 54 calculates the misregistration amount between the standard image and each reference image using the standard image as a standard. Therefore, after setting the reference image, the position shift detecting unit 54, first observed image data of the low resolution image L a and L b are input, relative to the observed low-resolution image L a, the observed low-resolution image L a A displacement amount V ab between L and L b is calculated (see FIG. 5). Next, the positional shift detection unit 54, the observed image data of the low resolution image L a and L c are input, relative to the observed low-resolution image L a, between the observed low-resolution image L a and L c position deviation amount V ac of is calculated.

一方において、基準画像の設定後、初期高解像度画像生成部55(以下、生成部55と略記する)は、基準画像である観測低解像度画像Laに基づいて初期高解像度画像H0を生成する(図5参照)。この生成処理は、図3のステップS11の処理に相当する。初期高解像度画像H0は、最終的に生成されるべき高解像度画像の初期画像に相当する。以下、初期高解像度画像H0を、単に高解像度画像H0又は画像H0と呼ぶこともある。例えば、線形補間やバイキュービック補間を用いて観測低解像度画像Laの水平及び垂直方向の画素数を増大させた画像を画像H0として生成する。生成された画像H0の画像データはフレームメモリ64に記憶される。 On the other hand, after setting the reference image, the initial high resolution image generation unit 55 (hereinafter, abbreviated as generator 55) generates an initial high resolution image H 0 on the basis of a reference image observed low-resolution image L a (See FIG. 5). This generation process corresponds to the process in step S11 of FIG. The initial high resolution image H 0 corresponds to an initial image of a high resolution image to be finally generated. Hereinafter, the initial high resolution image H 0 may be simply referred to as a high resolution image H 0 or an image H 0 . For example, to generate an image with an increased number of pixels in the horizontal and vertical directions of the observed low-resolution image L a using linear interpolation or bicubic interpolation as the image H 0. The generated image data of the image H 0 is stored in the frame memory 64.

図4の選択部56は、生成部55にて生成された画像(即ち、画像H0)及びフレームメモリ64に記憶されている画像の内の一方を選択し、選択した画像の画像データを超解像処理部57に与える。画像H0が生成された直後は画像H0が選択部56にて選択され、画像H0と異なる高解像度画像が超解像処理部57にて生成された後は、フレームメモリ64に記憶されている画像が選択部56にて選択される。 The selection unit 56 in FIG. 4 selects one of the image generated by the generation unit 55 (that is, the image H 0 ) and the image stored in the frame memory 64, and exceeds the image data of the selected image. This is given to the resolution processing unit 57. Immediately after the image H 0 is generated, the image H 0 is selected by the selection unit 56, and after a high resolution image different from the image H 0 is generated by the super-resolution processing unit 57, it is stored in the frame memory 64. The selected image is selected by the selection unit 56.

また、超解像処理部57には、フレームメモリ61〜63から観測低解像度画像La、Lb及びLcの画像データが入力される。超解像処理部57は、MAP法に基づき、画像H0と観測低解像度画像La、Lb及びLcと位置ずれ量Vab及びVacを用い、推定低解像度画像の生成を介して画像H0に対する更新量を求める。この処理は、1回目のステップS12及びS13の処理に相当する(図3参照)。そして、画像H0を該更新量にて更新することにより高解像度画像H1(以下、画像H1と略記することがある)を生成する。これは、1回目のステップS14の処理に相当する(図3参照)。尚、画像H1が生成された後は、図4において太線で示されたラインだけが有意に機能する。 In addition, the super-resolution processing unit 57, observed from the frame memory 61 to 63 low-resolution image L a, the image data of the L b and L c are input. Based on the MAP method, the super-resolution processing unit 57 uses the image H 0 , the observed low-resolution images L a , L b and L c and the misregistration amounts V ab and V ac and generates an estimated low-resolution image. An update amount for the image H 0 is obtained. This process corresponds to the first process of steps S12 and S13 (see FIG. 3). Then, the image H 0 is updated with the update amount to generate a high-resolution image H 1 (hereinafter sometimes abbreviated as image H 1 ). This corresponds to the first step S14 (see FIG. 3). Note that after the image H 1 is generated, only the lines indicated by bold lines in FIG. 4 function significantly.

生成された画像H1の画像データはフレームメモリ64に上書き記憶されると共に選択部56を介して超解像処理部57に再度入力される。超解像処理部57は、画像H0から画像H1を生成したのと同様の方法にて画像H1を更新することにより高解像度画像H2(以下、画像H2と略記することがある)を生成する。画像H2の画像データはフレームメモリ64に上書き記憶される。画像H1から画像H2が生成される処理は、2回目のステップS12〜S14の処理に相当する。 The generated image data of the image H 1 is overwritten and stored in the frame memory 64 and is input again to the super-resolution processing unit 57 via the selection unit 56. The super-resolution processing unit 57 may update the image H 1 by a method similar to that used to generate the image H 1 from the image H 0 to abbreviate the high-resolution image H 2 (hereinafter abbreviated as image H 2 ). ) Is generated. The image data of the image H 2 is overwritten and stored in the frame memory 64. The process of generating the image H 2 from the image H 1 corresponds to the second process of steps S12 to S14.

このように、超解像処理部57にて、高解像度画像を更新して新たな高解像度画像を生成するための、ステップS12〜S14の各処理から成る演算処理が反復実行される。この演算処理を、以下、超解像演算処理と呼ぶ。nを自然数とした場合、n回目の超解像演算処理によって高解像度画像Hn-1から高解像度画像Hnが生成される。以下の説明では、nは0以上の整数であるとする。 As described above, the super-resolution processing unit 57 repeatedly executes the arithmetic processing including the processes of steps S12 to S14 for updating the high-resolution image and generating a new high-resolution image. Hereinafter, this calculation processing is referred to as super-resolution calculation processing. When n is a natural number, a high resolution image H n is generated from the high resolution image H n −1 by the n-th super-resolution calculation process. In the following description, n is an integer of 0 or more.

図8に、超解像処理部57の内部ブロック図を示す。今、行列表現された高解像度画像Hnをxnで表し、行列表現された観測低解像度画像Lkをykで表す。即ち例えば、行列xnは、高解像度画像Hnを形成する各画素の画素値を書き並べたものである。kは1、2又は3の値をとる。 FIG. 8 shows an internal block diagram of the super-resolution processing unit 57. Now, the matrix-represented high-resolution image H n is represented by x n , and the matrix-represented observed low-resolution image L k is represented by y k . That is, for example, the matrix x n is a line-up of pixel values of pixels forming the high resolution image H n . k takes a value of 1, 2 or 3.

そうすると、高解像度画像Hn+1に対する行列xn+1は下記式(A−1)に従って導出され、この導出によって高解像度画像Hn+1が生成される。式(A−1)の右辺第2項は、超解像処理部57によって算出されるべき、高解像度画像Hnに対する更新量を表している。kNUMは観測低解像度画像の枚数を表し、今の例においてkNUM=3である。式(A−1)に基づいて高解像度画像を更新していくことにより、下記式(A−2)に表す、MAP法における評価関数Iが最小化されることになる。式(A−2)におけるxは、或る回数分だけ超解像演算処理を行った時の、行列表現された高解像度画像を表している。 Then, the matrix x n + 1 with respect to the high-resolution image H n + 1 is derived according to the following formula (A-1), high-resolution image H n + 1 are produced by this derivation. The second term on the right side of Expression (A-1) represents the update amount for the high-resolution image H n that should be calculated by the super-resolution processing unit 57. k NUM represents the number of observed low-resolution images, and in the present example, k NUM = 3. By updating the high resolution image based on the equation (A-1), the evaluation function I in the MAP method represented by the following equation (A-2) is minimized. X in the formula (A-2) represents a high-resolution image expressed in a matrix when the super-resolution calculation process is performed a certain number of times.

行列Wkと行列xnとの積によって、観測低解像度画像Lkの推定画像としての推定低解像度画像が表される。Wkは、高解像度画像Hnから観測低解像度画像Lkの推定画像を生成するための行列であって、位置ずれ検出部54で算出した位置ずれ量、高解像度画像から低解像度画像への低解像度化によって生じる画像ぼけを表す点広がり関数(Point Spread Function)、及び、高解像度画像から低解像度画像へのダウンサンプリングを含めた画像変換行列である。(yk−Wkn)は、観測低解像度画像Lkとそれの推定画像に相当する推定低解像度画像との差分画像を表している。尚、添え字Tが付された行列は、元の行列の転置行列を表す。従って例えば、Wk Tは行列Wkの転置行列を表す。 The product of the matrix W k and the matrix x n represents an estimated low resolution image as an estimated image of the observed low resolution image L k . W k is a matrix for generating an estimated image of the observed low-resolution image L k from the high-resolution image H n, the amount of positional deviation calculated by the positional deviation detection unit 54, and from the high-resolution image to the low-resolution image. It is an image conversion matrix including a point spread function representing image blur caused by the reduction in resolution and downsampling from a high resolution image to a low resolution image. (Y k −W k x n ) represents a difference image between the observed low resolution image L k and the estimated low resolution image corresponding to the estimated image. Note that the matrix with the subscript T represents the transposed matrix of the original matrix. Thus, for example, W k T represents a transposed matrix of the matrix W k .

また、Cは正則化のための行列であり、αは正則化パラメータである。行列Cは、例えば「高解像度画像には高域成分が少ない」という事前知識に基づき設定され、行列表現されたラプラシアンフィルタなどによって形成される。また、βは、フィードバック量を制御するためのパラメータである。   C is a matrix for regularization, and α is a regularization parameter. The matrix C is set based on prior knowledge that “a high-resolution image has few high-frequency components”, for example, and is formed by a Laplacian filter expressed in a matrix. Β is a parameter for controlling the feedback amount.

超解像処理部57における超解像演算処理の反復回数が規定回数に達すると、規定回数分の超解像演算処理によって得られた最新の高解像度画像が、最終的に求められるべき高解像度画像として超解像処理部57から出力される。また、超解像演算処理の反復回数に関わらず、最新の高解像度画像に対する更新量が十分に小さくなり更新量が収束したと判断される場合は、その最新の高解像度画像を最終的に求められるべき高解像度画像として超解像処理部57から出力するようにしてもよい。   When the number of iterations of the super-resolution calculation process in the super-resolution processing unit 57 reaches the specified number, the latest high-resolution image obtained by the specified number of super-resolution calculation processes is the high resolution that should be finally obtained. The image is output from the super-resolution processing unit 57 as an image. If it is determined that the update amount for the latest high-resolution image is sufficiently small and the update amount has converged regardless of the number of times of super-resolution calculation processing, the latest high-resolution image is finally obtained. The super-resolution processing unit 57 may output the high-resolution image to be obtained.

ぼけ量の大きな画像を基準画像として設定すると、算出される位置ずれ量の精度が悪くなる。超解像処理では、算出された位置ずれ量に基づいて高解像度化が図られるため、位置ずれ量の精度劣化は高解像度画像の画質劣化に繋がる。また、ぼけ量の大きな画像を基準画像として設定すると、最終的に得るべき高解像度画像の初期状態(即ち、初期高解像度画像)の画質が悪くなり、理想的な高解像度画像を得がたくなる。本実施例では、ぼけ量の小さい画像を基準画像として選択するようにしているため、得られる高解像度画像の画質が向上する。   If an image with a large amount of blur is set as a reference image, the accuracy of the calculated positional deviation amount is deteriorated. In the super-resolution processing, the resolution is increased based on the calculated amount of misregistration, so that the accuracy degradation of the misregistration amount leads to the image quality degradation of the high resolution image. If an image with a large amount of blur is set as a reference image, the image quality of the initial high-resolution image to be obtained (ie, the initial high-resolution image) is deteriorated, making it difficult to obtain an ideal high-resolution image. . In this embodiment, an image with a small amount of blur is selected as the reference image, so that the image quality of the obtained high-resolution image is improved.

ぼけ量が比較的大きい図9(a)の画像201とぼけ量が比較的小さい図9(b)の画像202を用い、ぼけ量の小さい画像を基準画像として選択することによる効果を実験によって検証した。この実験では、用意した理想的な高解像度画像の解像度を縮小率50%の間引き処理によって低下させることで3枚の画像を生成し、3枚の画像の内の1つを意図的にぼけさせることで、その画像に大きなぼけを含ませた。そして、ぼけの少ない2枚の画像を2枚の観測低解像度画像として且つぼけの多い1枚の画像を1枚の観測低解像度画像として取り扱い、観測低解像度画像の2倍の解像度を有する高解像度画像を超解像処理によって再構成した。ぼけの少ない2枚の観測低解像度画像は図9(b)の画像202に相当し、ぼけの多い1枚の観測低解像度画像は図9(a)の画像201に相当する。また、異なる2枚の観測低解像度画像間に位置ずれを生じさせた。   Using the image 201 in FIG. 9A having a relatively large amount of blur and the image 202 in FIG. 9B having a relatively small amount of blur, the effect of selecting an image having a small amount of blur as a reference image was verified by experiments. . In this experiment, three images are generated by reducing the resolution of the prepared ideal high-resolution image by a thinning process with a reduction ratio of 50%, and one of the three images is intentionally blurred. That was the reason why the image was greatly blurred. Then, two images with less blur are treated as two observed low-resolution images and one image with more blur is treated as one observed low-resolution image, and the resolution is twice as high as the observed low-resolution image. The image was reconstructed by super-resolution processing. Two observation low-resolution images with less blur correspond to the image 202 in FIG. 9B, and one observation low-resolution image with more blur corresponds to the image 201 in FIG. 9A. Also, a positional shift was caused between two different observed low-resolution images.

図10(a)及び(b)は、夫々、画像201及び202にハイパスフィルタ(図7のラプラシアンフィルタ)を適用した場合に得られる画像201及び202の高域抽出画像211及び212を表している。図10(a)及び(b)では、高域抽出画像における画素値が小さい画素ほど黒く示している。画像201に含まれる大きなぼけに起因して、高域抽出画像211の全体が黒くなっている。画像201及び202を図6のぼけ量推定部に与えた時、画像201に対して算出されるぼけ量評価値(HPF積算値)は、画像202に対して算出されるそれの1/20程度であった。   FIGS. 10A and 10B show high-frequency extracted images 211 and 212 of the images 201 and 202 obtained when the high-pass filter (the Laplacian filter in FIG. 7) is applied to the images 201 and 202, respectively. . In FIGS. 10A and 10B, the pixels with smaller pixel values in the high-frequency extracted image are shown in black. Due to the large blur included in the image 201, the entire high-frequency extracted image 211 is black. When the images 201 and 202 are given to the blur amount estimation unit in FIG. 6, the blur amount evaluation value (HPF integrated value) calculated for the image 201 is about 1/20 of that calculated for the image 202. Met.

実験では、図4の超解像処理部57から出力される高解像度画像と理想的な高解像度画像とのPSNR(Peak Signal to Noise Ratio)を求めた。周知の如く、PSNRは対比される画像間の類似性を表す指標であり、その類似性が高いほどPSNRは高くなる。図11は、このPSNRの、超解像演算処理の反復回数依存性を表すグラフである。図11の折れ線221は、画像201に対応するぼけの多い観測低解像度画像を基準画像に設定した場合におけるPSNRの反復回数依存性を表し、図11の折れ線222は、画像202に対応するぼけの少ない観測低解像度画像を基準画像に設定した場合におけるPSNRの反復回数依存性を表している。ぼけの多い画像を基準画像に設定する場合と比べてぼけの少ない画像を基準画像に設定した方が、2dBほどPSNRが高くなっている。この実験からも、ぼけ量の小さい画像を基準画像として選択することの優位性が理解される。   In the experiment, the PSNR (Peak Signal to Noise Ratio) between the high-resolution image output from the super-resolution processing unit 57 in FIG. 4 and the ideal high-resolution image was obtained. As is well known, PSNR is an index representing the similarity between contrasted images, and the higher the similarity, the higher the PSNR. FIG. 11 is a graph showing the dependence of this PSNR on the number of iterations of super-resolution calculation processing. A broken line 221 in FIG. 11 represents the dependence of the PSNR on the number of iterations when an observed low-resolution image with many blurs corresponding to the image 201 is set as a reference image, and a broken line 222 in FIG. This shows the dependence of the PSNR on the number of iterations when a small number of observed low-resolution images are set as reference images. The PSNR is higher by about 2 dB when the image with less blur is set as the reference image than when the image with more blur is set as the reference image. Also from this experiment, the superiority of selecting an image with a small amount of blur as a reference image is understood.

尚、フレームメモリ61〜64を含む内部メモリ17に対する画像データの読み書きタイミングについて補足説明を加える。図12を参照する(図5も参照)。図12は、画像データの読み書きタイミングについて特に着目した、超解像処理の動作の流れを表すフローチャートである。   A supplementary explanation will be given regarding the read / write timing of image data with respect to the internal memory 17 including the frame memories 61 to 64. Reference is made to FIG. 12 (see also FIG. 5). FIG. 12 is a flowchart showing the flow of super-resolution processing with particular attention to image data read / write timing.

最初に、ステップS21において、観測低解像度画像L1〜L3の画像データが順次内部メモリ17に書き込まれる。画像L1〜L3から基準画像が選択された後、ステップS21からステップS22に移行する。ステップS22では、位置ずれ検出部54が、基準画像としての画像La及び参照画像としての画像Lbの各画像データを内部メモリ17から読み出して位置ずれ量Vabを算出し、続いて、基準画像としての画像La及び参照画像としての画像Lcの各画像データを内部メモリ17から読み出して位置ずれ量Vacを算出する。一方、ステップS23において、生成部55は、画像Laの画像データを内部メモリ17から読み出して初期高解像度画像を生成する。生成された初期高解像度画像の画像データは内部メモリ17に書き込まれる。その後、続くステップS24では、画像L1〜L3と現時点の高解像度画像の各画像データが内部メモリ17から読み出され、上述の超解像演算処理によって高解像度画像が更新され、且つ、更新された高解像度画像の画像データが内部メモリ17に書き込まれる。超解像演算処理を反復実行する場合は、ステップS24の処理が繰り返し実行される。尚、ステップS22、S23及びS24における内部メモリ17からの同一の画像データの読み出しを同時に行うようにしても構わない。例えば、ステップS22における画像Laの画像データの読み出しとステップS23におけるそれを同時に行っても構わない。 First, in step S21, the image data of the observed low resolution images L 1 to L 3 are sequentially written in the internal memory 17. After the reference image is selected from the images L 1 to L 3, the process proceeds from step S21 to step S22. In step S22, the position shift detection unit 54, reads the image data of the image L b as the image L a and the reference image as a reference image from the internal memory 17 to calculate the positional shift amount V ab, followed by the reference It reads each image data of the image L c as an image L a and the reference image as an image from the internal memory 17 and calculates the position deviation amount V ac with. On the other hand, in step S23, generating unit 55 reads the image data of the image L a from the internal memory 17 to generate an initial high resolution image. The generated image data of the initial high resolution image is written in the internal memory 17. Then, in subsequent step S24, the image data of the image L 1 ~L 3 and the current high-resolution image is read out from the internal memory 17, the high-resolution image is updated by the super-resolution processing described above, and update The image data of the high resolution image is written in the internal memory 17. When the super-resolution calculation process is repeatedly executed, the process of step S24 is repeatedly executed. Note that the same image data may be read from the internal memory 17 in steps S22, S23, and S24 at the same time. For example, it may be performed that simultaneously the image L a reading of the image data and step S23 in the step S22.

上述の如く、画像L1〜L3から基準画像が選択された後に位置ずれ量の算出処理を実行する場合は、ステップS22の段階で、内部メモリ17から観測低解像度画像の画像データを4回(4枚分)読み出す必要がある(画像La及びLbの画像データの読み出しと、画像La及びLcの画像データの読み出し)。 As described above, when the position shift amount calculation process is executed after the reference image is selected from the images L 1 to L 3 , the image data of the observed low resolution image is obtained from the internal memory 17 four times in the step S 22. (4 sheets) must be read (and reading of the image data of the image L a and L b, the image data of the image L a and L c read).

この読み出し回数の低減に寄与すべく、基準画像の選択処理と位置ずれ量の算出処理を並行して行うようにしても良い。この場合、観測低解像度画像が得られる度に、時間的に隣接する2枚の観測低解像度画像間で位置ずれ量(後述のV12及びV23)の算出を行うようにし、基準画像が設定された後に、算出しておいた位置ずれ量を、基準画像と各参照画像との間の位置ずれ量(上述のVab及びVac)に変換すればよい。 In order to contribute to the reduction of the number of readings, the reference image selection process and the positional deviation amount calculation process may be performed in parallel. In this case, every time an observed low-resolution image is obtained, a positional deviation amount (V 12 and V 23 described later) is calculated between two temporally adjacent low-resolution images, and a reference image is set. After that, the calculated misregistration amount may be converted into misregistration amounts (V ab and V ac described above) between the base image and each reference image.

具体的には以下のように処理する。画像L1が取得されて画像L1の画像データが内部メモリ17に書き込まれた後、画像L2が取得されると、画像L2の画像データが内部メモリ17に書き込まれ且つ位置ずれ検出部54に送られる。これと同時に、画像L1の画像データが内部メモリ17から読み出されて位置ずれ検出部54に送られる(この段階で、1回目の画像データ読み出しが実行される)。そして、位置ずれ検出部54は、画像L1を基準とした、画像L1と画像L2との間の位置ずれ量V12を算出する。 Specifically, the processing is as follows. After the image L 1 is acquired and the image data of the image L 1 is written in the internal memory 17, when the image L 2 is acquired, the image data of the image L 2 is written in the internal memory 17 and the position shift detection unit 54. At the same time, the image data of the image L 1 is read from the internal memory 17 and sent to the misregistration detection unit 54 (at this stage, the first image data reading is executed). Then, the displacement detection unit 54 calculates a displacement V 12 between the image L 1 and the image L 2 with the image L 1 as a reference.

この後、画像L3が取得されると、画像L3の画像データが内部メモリ17に書き込まれ且つ位置ずれ検出部54に送られる。これと同時に、画像L2の画像データが内部メモリ17から読み出されて位置ずれ検出部54に送られる(この段階で、2回目の画像データ読み出しが実行される)。そして、位置ずれ検出部54は、画像L2を基準とした、画像L2と画像L3との間の位置ずれ量V23を算出する。 Thereafter, when the image L 3 is acquired, the image data of the image L 3 is written in the internal memory 17 and sent to the misalignment detection unit 54. At the same time, the image data of the image L 2 is read from the internal memory 17 and sent to the misregistration detection unit 54 (at this stage, the second image data reading is executed). Then, the displacement detection unit 54 calculates a displacement V 23 between the image L 2 and the image L 3 with the image L 2 as a reference.

他方、位置ずれ量V12及びV23の算出と並行し、ぼけ量推定部52によって画像L1〜画像L3に対するぼけ量評価値の算出が行われ、算出されたぼけ量評価値に基づいて基準画像が設定される。位置ずれ検出部54は、設定された基準画像が画像L1〜L3の何れであるかに基づいて、位置ずれ量V12及びV23を基準画像からみた参照画像の位置ずれ量Vab及びVacに変換する。この変換によってVab及びVacが求められた後の動作は、上述してきた通りである。例えば、V12=(0.5,0.5)且つV23=(−0.25,−0.25)であると共にa=3、b=1且つc=2である時は、Vab=V31=V32+V21=−V23−V12=(0.25,0.25)−(0.5,0.5)=(−0.25,−0.25)に従ってVabが求められ、Vac=V32=−V23=(0.25,0.25)に従ってVacが求められる。 On the other hand, in parallel with the calculation of the positional deviation amounts V 12 and V 23 , the blur amount estimation unit 52 calculates the blur amount evaluation values for the images L 1 to L 3, and based on the calculated blur amount evaluation values. A reference image is set. The misregistration detection unit 54 determines the misregistration amount V ab of the reference image when the misregistration amounts V 12 and V 23 are viewed from the standard image, based on which of the images L 1 to L 3 is the set standard image. Convert to V ac . The operation after V ab and V ac are obtained by this conversion is as described above. For example, when V 12 = (0.5, 0.5) and V 23 = (− 0.25, −0.25) and a = 3, b = 1 and c = 2, V ab = V 31 = V 32 + V 21 = −V 23 −V 12 = (0.25,0.25) − (0.5,0.5) = (− 0.25, −0.25) according to V ab is determined, V ac is calculated according to V ac = V 32 = -V 23 = (0.25,0.25).

このように、基準画像の選択処理と位置ずれ量の算出処理を並行して行うことにより、位置ずれ量の変換処理が必要となることに由来して位置ずれ量Vab及びVacの検出精度が若干劣化するものの、画像データの読み出し回数が2回分低減され、消費電力の低減が図られる。尚、基準画像の選択処理と位置ずれ量の算出処理を並行して行うことは、後述の他の実施例にも適用可能である。 Thus, by performing the selection process of the reference image and the calculation process of the positional deviation amount in parallel, the positional deviation amount V ab and V ac are detected because the positional deviation amount conversion process is required. Although the image quality is slightly deteriorated, the number of times of reading out the image data is reduced by 2 times, and the power consumption can be reduced. Note that performing the reference image selection process and the positional deviation amount calculation process in parallel can also be applied to other embodiments described later.

<<第2実施例>>
次に、第2実施例を説明する。第2実施例においても図4の超解像部50を用いることができるが、第1及び第2実施例間でぼけ量の推定方法が異なる。この相違点について説明する。第2実施例において特に述べない事項は、第1実施例に記載の事項が適用される。
<< Second Example >>
Next, a second embodiment will be described. Although the super-resolution unit 50 of FIG. 4 can also be used in the second embodiment, the blur amount estimation method differs between the first and second embodiments. This difference will be described. Items described in the first embodiment are applied to items not particularly described in the second embodiment.

説明の便宜上、第2実施例では、4枚の観測低解像度画像から1枚の高解像度画像を生成する場合を例にとる。4枚の観測低解像度画像は、連続して撮影された4つのフレーム画像である。この4枚の観測低解像度画像をL1、L2、L3及びL4にて表すこととし、画像L1、L2、L3及びL4の順番で撮影がなされたものとする。尚、超解像処理に利用される観測低解像度画像の枚数が4枚であることに鑑み、超解像部50のフレームメモリの個数は図4のそれから変更される。 For convenience of explanation, in the second embodiment, a case where one high-resolution image is generated from four observed low-resolution images is taken as an example. The four observed low-resolution images are four frame images taken in succession. These four observed low-resolution images are represented by L 1 , L 2 , L 3 and L 4 , and the images L 1 , L 2 , L 3 and L 4 are taken in this order. Note that the number of frame memories in the super-resolution unit 50 is changed from that in FIG. 4 in view of the fact that the number of observed low-resolution images used for the super-resolution processing is four.

第2実施例において、図4の位置ずれ検出部54は、時間的に隣接する2枚の観測低解像度画像間の位置ずれ量(所謂フレーム間動きベクトル)を順次算出する。即ち、第1実施例でも述べた位置ずれ量V12及びV23と、画像L3を基準とした、画像L3と画像L4との間の位置ずれ量V34を算出する。ぼけ量推定部52は、算出された位置ずれ量V12、V23及びV34に基づき、画像列L1〜L4の撮影期間中において撮像装置1に作用した手ぶれの状態(換言すれば、撮像装置1のぶれの状態)を推定し、その推定結果に基づいて観測低解像度画像L1〜L4のぼけ量の大小関係を推定する。基準画像設定部53は、ぼけ量推定部52の推定結果に基づき、最小のぼけ量に対応する観測低解像度画像を基準画像として設定し、残りの3枚の観測低解像度画像を参照画像として設定する。 In the second embodiment, the misalignment detector 54 in FIG. 4 sequentially calculates the misalignment amount (so-called interframe motion vector) between two temporally adjacent low-resolution images. In other words, it calculates a position deviation amount V 12 and V 23 described in the first embodiment, the image L 3 as a reference, the position shift amount V 34 between the image L 3 and the image L 4. Based on the calculated displacement amounts V 12 , V 23, and V 34 , the blur amount estimation unit 52 is the state of camera shake that has acted on the imaging device 1 during the imaging period of the image sequences L 1 to L 4 (in other words, The shake state of the image pickup apparatus 1 is estimated, and the magnitude relationship between the blur amounts of the observed low-resolution images L 1 to L 4 is estimated based on the estimation result. Based on the estimation result of the blur amount estimation unit 52, the reference image setting unit 53 sets the observed low resolution image corresponding to the minimum blur amount as a reference image, and sets the remaining three observed low resolution images as reference images. To do.

図13等を参照して、より具体的に説明する。図13の曲線240は、第1具体例における、位置ずれ量の大きさの変化の様子を示している。図13及び後述の図14のグラフにおいて、横軸は時間を表し且つ縦軸は位置ずれ量の大きさを表しており、横軸はフレーム番号にも対応している。画像L1〜L4のフレーム番号は、夫々、1〜4である。 A more specific description will be given with reference to FIG. A curve 240 in FIG. 13 shows a change in the amount of misalignment in the first specific example. In the graphs of FIG. 13 and FIG. 14 to be described later, the horizontal axis represents time and the vertical axis represents the amount of positional deviation, and the horizontal axis also corresponds to the frame number. The frame numbers of the images L 1 to L 4 are 1 to 4, respectively.

点241、242及び243は、夫々、第1具体例における位置ずれ量V12、V23及びV34の大きさを表す点である。二次元量である位置ずれ量V12、V23及びV34の大きさを、夫々、|V12|、|V23|及び|V34|にて表現する。点241〜243が曲線240上にのるように補間法を用いて曲線240が形成される。曲線240のような、補間法を用いて位置ずれ量V12、V23及びV34の大きさを繋ぎ合わせて形成される線を手ぶれ量軌跡と呼ぶ。手ぶれ量軌跡は、画像L1〜L4の撮影期間(それらの露光期間を含む)中において撮像装置1に作用した手ぶれの大きさ(換言すれば、手ぶれに由来する撮像装置1のぶれの大きさ)の時間変化を表すものである、と解釈することができる。図13に示す例の如く不等式「|V12|>|V23|<|V34|」が成立する場合、スプライン補間等によって手ぶれ量軌跡が描かれる。 Points 241, 242 and 243 are points representing the magnitudes of the positional deviation amounts V 12 , V 23 and V 34 in the first specific example, respectively. The magnitudes of the positional deviation amounts V 12 , V 23, and V 34 that are two-dimensional quantities are expressed by | V 12 |, | V 23 |, and | V 34 |, respectively. The curve 240 is formed using interpolation so that the points 241 to 243 are on the curve 240. A line formed by connecting the magnitudes of the positional deviation amounts V 12 , V 23, and V 34 using an interpolation method, such as a curve 240, is called a camera shake amount locus. The camera shake amount trajectory is the size of the camera shake that has acted on the imaging device 1 during the imaging periods (including the exposure periods) of the images L 1 to L 4 (in other words, the size of the camera shake caused by the camera shake). It can be interpreted that it represents a change in the time). When the inequality “| V 12 |> | V 23 | <| V 34 |” is satisfied as in the example shown in FIG. 13, a camera shake amount locus is drawn by spline interpolation or the like.

尚、補間法を用いて手ぶれ量軌跡を形成するに際し、位置ずれ量V12、V23及びV34の大きさに加えて、画像L1の撮影直前に撮影されるフレーム画像L0と画像L1との間の位置ずれ量V01、及び、画像L4と画像L4の撮影直後に撮影されるフレーム画像L5との間の位置ずれ量V45をも利用するようにしてもよい。 It should be noted that, when the hand movement amount trajectory is formed using the interpolation method, in addition to the magnitudes of the positional deviation amounts V 12 , V 23, and V 34 , the frame image L 0 and the image L that are captured immediately before the image L 1 is captured. 1 position shift amount V 01 between, and may be also used a positional deviation amount V 45 between the frame image L 5 which is immediately after shooting an image L 4 and the image L 4.

点245は、手ぶれ量軌跡240上の位置ずれ量の大きさが極小となる点を表している。ぼけ量推定部52は、この極小点245の、時間方向における位置に最も近いフレーム番号を最小手ぶれフレーム番号として特定する。そして、最小手ぶれフレーム番号に対応する観測低解像度画像の露光期間中に作用した手ぶれの大きさが他の何れの観測低解像度画像のそれよりも小さく、結果、最小手ぶれフレーム番号に対応する観測低解像度画像のぼけ量(手ぶれに由来するぼけ量)が他の何れの観測低解像度画像のそれよりも小さいと推定する。   A point 245 represents a point where the magnitude of the positional deviation amount on the hand movement amount locus 240 is minimized. The blur amount estimation unit 52 specifies the frame number closest to the position of the local minimum point 245 in the time direction as the minimum camera shake frame number. Then, the size of the camera shake that acted during the exposure period of the observed low resolution image corresponding to the minimum camera shake frame number is smaller than that of any other observed low resolution image, and as a result, the observation low resolution corresponding to the minimum camera shake frame number is reduced. It is estimated that the amount of blur of the resolution image (the amount of blur due to camera shake) is smaller than that of any other observed low-resolution image.

基準画像設定部53は、最小手ぶれフレーム番号に対応する観測低解像度画像を基準画像として設定し且つ残りの3枚の観測低解像度画像を参照画像として設定する。図13の例においては、点245は点242と点243の間に位置するため、最小手ぶれフレーム番号は「3」であると共に最小手ぶれフレーム番号に対応する観測低解像度画像はL3である。故に、画像L3が基準画像に設定され、画像L1、L2及びL4が参照画像に設定される。 The reference image setting unit 53 sets the observed low resolution image corresponding to the minimum camera shake frame number as a reference image, and sets the remaining three observed low resolution images as reference images. In the example of FIG. 13, the point 245 to a position between the point 242 and the point 243, the minimum camera shake frame number observed low-resolution image corresponding to the frame number blur minimum hand with a "3" is L 3. Thus, the image L 3 is set to the reference image, the image L 1, L 2 and L 4 is set to the reference image.

不等式「|V12|>|V23|<|V34|」が成立しない場合における最小手ぶれフレーム番号の決定方法を説明する。図14の手ぶれ量軌跡250は、第2具体例における、位置ずれ量の大きさの変化の様子を示している。点251、252及び253は、夫々、第2具体例における位置ずれ量V12、V23及びV34の大きさを表す点であり、補間法を用いて点251〜253を繋ぎ合わせることにより手ぶれ量軌跡250が形成される。 A method of determining the minimum camera shake frame number when the inequality “| V 12 |> | V 23 | <| V 34 |” is not satisfied will be described. A hand movement amount locus 250 in FIG. 14 shows a change in the amount of positional deviation in the second specific example. Points 251, 252, and 253 are points representing the magnitudes of the positional deviation amounts V 12 , V 23, and V 34 in the second specific example, respectively, and are shaken by connecting the points 251 to 253 using an interpolation method. A quantity trajectory 250 is formed.

図14に対応する第2具体例においては、不等式「|V12|>|V23|>|V34|」が成立しているため、画像L1〜L4の撮影期間(それらの露光期間を含む)中において撮像装置1に作用した手ぶれの大きさは徐々に減少していたことが分かる。この場合、最小手ぶれフレーム番号は「4」であると決定される。逆に、不等式「|V12|<|V23|<|V34|」が成立している場合は、最小手ぶれフレーム番号は「1」であると決定される。また、不等式「|V12|<|V23|>|V34|」及び「|V12|>|V34|」が成立する場合は最小手ぶれフレーム番号を「4」に決定し、不等式「|V12|<|V23|>|V34|」及び「|V12|<|V34|」が成立する場合は最小手ぶれフレーム番号を「1」に決定すればよい。最小手ぶれフレーム番号が決定された後の処理内容は、上述した通りである。 In the second specific example corresponding to FIG. 14, since the inequality “| V 12 |> | V 23 |> | V 34 |” is established, the shooting periods of the images L 1 to L 4 (the exposure periods thereof) It can be seen that the size of the camera shake that acted on the imaging device 1 gradually decreased. In this case, the minimum camera shake frame number is determined to be “4”. Conversely, when the inequality “| V 12 | <| V 23 | <| V 34 |” is satisfied, the minimum camera shake frame number is determined to be “1”. When the inequalities “| V 12 | <| V 23 |> | V 34 |” and “| V 12 |> | V 34 |” are satisfied, the minimum camera shake frame number is determined as “4”, and the inequalities “ When | V 12 | <| V 23 |> | V 34 | ”and“ | V 12 | <| V 34 | ”are satisfied, the minimum camera shake frame number may be determined as“ 1 ”. The processing content after the minimum camera shake frame number is determined is as described above.

尚、以下のようにして最小手ぶれフレーム番号を決定するようにしてもよい。位置ずれ量V01及びV12の大きさの和、位置ずれ量V12及びV23の大きさの和、位置ずれ量V23及びV34の大きさの和、及び、位置ずれ量V34及びV45の大きさの和を、夫々、フレーム番号1、2、3及び4に対応付けて求め、それらの4つの和の内の最小値に対応するフレーム番号を最小手ぶれフレーム番号に決定する。 Note that the minimum camera shake frame number may be determined as follows. The sum of the magnitudes of the displacement amounts V 01 and V 12 , the sum of the magnitudes of the displacement amounts V 12 and V 23 , the sum of the magnitudes of the displacement amounts V 23 and V 34 , and the displacement amount V 34 and The sum of the magnitudes of V 45 is obtained in association with the frame numbers 1, 2, 3 and 4, respectively, and the frame number corresponding to the minimum value of these four sums is determined as the minimum camera shake frame number.

<<第3実施例>>
第1及び第2実施例で述べたぼけ量の推定方法は一例であって、それらと異なる方法にてぼけ量の推定を行っても構わない。ぼけ量の推定方法の変形例を示す実施例として第3実施例を説明する。第3実施例は第1実施例と組み合わせて実施される。
<< Third Example >>
The blur amount estimation method described in the first and second embodiments is an example, and the blur amount may be estimated by a different method. A third embodiment will be described as an embodiment showing a modification of the blur amount estimation method. The third embodiment is implemented in combination with the first embodiment.

例えば、観測低解像度画像の輝度値のヒストグラムにおける分散に基づいてぼけ量の推定を行うようにしてもよい。この方法を用いる場合、図4のぼけ量推定部52は、観測低解像度画像の各画素の輝度信号を抽出して観測低解像度画像の輝度値(即ち、輝度信号の値)のヒストグラムを生成する。そして、そのヒストグラムの分散をぼけ量評価値として算出する。ヒストグラムの生成及び分散の算出は、観測低解像度画像ごとに行われる。尚、ヒストグラムを形成する輝度信号は、観測低解像度画像の全体領域から抽出されてもよいし、観測低解像度画像の一部領域から抽出されてもよい。   For example, the blur amount may be estimated based on the variance in the histogram of the luminance value of the observed low resolution image. When this method is used, the blur estimation unit 52 in FIG. 4 extracts the luminance signal of each pixel of the observed low resolution image and generates a histogram of the luminance value (that is, the value of the luminance signal) of the observed low resolution image. . Then, the variance of the histogram is calculated as a blur amount evaluation value. The generation of the histogram and the calculation of the variance are performed for each observed low resolution image. Note that the luminance signal forming the histogram may be extracted from the entire area of the observed low-resolution image, or may be extracted from a partial area of the observed low-resolution image.

3枚の観測低解像度画像L1〜L3は連続して撮影された3つのフレーム画像であるため、基本的にそれらの構図は同じである。同じ構図の画像であれば、露光期間中に生じた手ぶれが大きいほど隣接画素間の輝度が平滑化され、中間階調の画素の割合が増加して輝度値のヒストグラムにおける分布が中間階調に集中化する。上記の平滑化の程度が大きいほどヒストグラムにおける分散が小さくなってぼけ量評価値が小さくなるため、ぼけ量評価値が大きいほど、それに対応する観測低解像度画像のぼけ量は小さいと推定できる。従って、図4の基準画像設定部53は、ヒストグラムの分散に基づく、観測低解像度画像L1〜L3のぼけ量評価値の内、最も大きなぼけ量評価値に対応する観測低解像度画像を基準画像として設定し、残りの2枚の観測低解像度画像を参照画像として設定する。 Since the three observation low-resolution images L 1 to L 3 are three frame images taken in succession, their composition is basically the same. For images with the same composition, the greater the camera shake that occurs during the exposure period, the smoother the luminance between adjacent pixels, and the proportion of pixels in the intermediate gradation increases, and the distribution of luminance values in the histogram becomes intermediate gradation. Centralize. The greater the degree of smoothing, the smaller the variance in the histogram and the smaller the blur amount evaluation value. Therefore, it can be estimated that the larger the blur amount evaluation value, the smaller the blur amount of the observed low-resolution image. Therefore, the reference image setting unit 53 in FIG. 4 uses the observed low resolution image corresponding to the largest blur amount evaluation value as the reference among the blur amount evaluation values of the observed low resolution images L 1 to L 3 based on the variance of the histogram. Set as images, and set the remaining two observed low-resolution images as reference images.

観測低解像度画像の例として、図15(a)に画像261を示すと共に図15(b)に画像262を示す。画像261は鮮明な画像である一方、画像262の露光期間中に大きな手ぶれが生じたことにより画像262には大きなぼけが含まれている。また、図16(a)及び(b)に、夫々、画像261及び262に対して生成されたヒストグラムを示す。画像261のヒストグラムとの対比おいて(図16(a)参照)、画像262のヒストグラム(図16(b)参照)では中間階調への分布の集中化が見られる。この集中化によって、分散は小さくなる。   As an example of the observed low resolution image, an image 261 is shown in FIG. 15A and an image 262 is shown in FIG. The image 261 is a clear image, but the image 262 includes a large blur due to a large camera shake during the exposure period of the image 262. FIGS. 16A and 16B show histograms generated for the images 261 and 262, respectively. Contrasting with the histogram of the image 261 (see FIG. 16A), the histogram of the image 262 (see FIG. 16B) shows a concentration of distribution to intermediate gradations. This concentration reduces the variance.

この他、画像のぼけ量を推定する任意の方法を用いることが可能である。例えば、特開平11−27574号公報に記載の方法を用いて、観測低解像度画像のぼけ量を推定するようにしてもよい。この場合、着目した観測低解像度画像をフーリエ変換することによって2次元周波数領域上の変換画像を生成し、周波数座標の原点を中心とした円に変換画像を投影する。そして、その投影データから、着目した観測低解像度画像のぼけ量を推定する。尚、特開平11−27574号公報における「手ぶれの大きさ」が、ぼけ量に相当する。   In addition, any method for estimating the blur amount of an image can be used. For example, the blur amount of the observed low-resolution image may be estimated using the method described in JP-A-11-27574. In this case, a transformed image on a two-dimensional frequency domain is generated by Fourier transforming the observed low resolution image, and the transformed image is projected onto a circle centered on the origin of the frequency coordinates. Then, the blur amount of the observed low-resolution image is estimated from the projection data. Note that “the size of camera shake” in JP-A-11-27574 corresponds to the amount of blur.

<<第4実施例>>
次に、第4実施例を説明する。図17は、第4実施例に係る超解像部50aの内部ブロック図である。超解像部50aに設けられる符号51、54〜57及び61〜64によって参照される各部位は、図4のそれらと同じものである。超解像部50aに設けられる基準画像設定部53aの機能は、図1のCPU23又は映像信号処理部13にて実現される。基準画像の設定方法が異なる点を除き、超解像部50aと第1実施例に係る超解像部50(図4)は同様である。故に、以下では、第4実施例に係る基準画像の設定方法を説明する。第4実施例では、第1実施例と同様、3枚の観測低解像度画像L1〜L3から1枚の高解像度画像を生成することを想定する。
<< 4th Example >>
Next, a fourth embodiment will be described. FIG. 17 is an internal block diagram of the super-resolution unit 50a according to the fourth embodiment. Each part referred by the codes | symbols 51, 54-57, and 61-64 provided in the super-resolution part 50a is the same as those of FIG. The function of the reference image setting unit 53a provided in the super-resolution unit 50a is realized by the CPU 23 or the video signal processing unit 13 in FIG. The super-resolution unit 50a and the super-resolution unit 50 according to the first embodiment (FIG. 4) are the same except that the reference image setting method is different. Therefore, a reference image setting method according to the fourth embodiment will be described below. In the fourth embodiment, as in the first embodiment, it is assumed that one high-resolution image is generated from the three observed low-resolution images L 1 to L 3 .

第4実施例において、撮像装置1には、図18のセンサ部75が設けられている。基準画像設定部53aは、センサ部75から出力されるセンサ検出データに基づき、観測低解像度画像L1〜L3の中から基準画像を設定する。センサ部75は、手ぶれ等に由来する撮像装置1のぶれ(撮像装置1の筐体のぶれ)を検出する。具体的には、センサ部75は、撮像装置1のヨー方向(水平方向)の角速度を検出して、その検出結果を表す信号を出力する角速度センサ75Aと、撮像装置1のピッチ方向(垂直方向)の角速度を検出して、その検出結果を表す信号を出力する角速度センサ75Bとを備え、角速度センサ75A及び75Bの出力信号がセンサ検出データとして出力される。 In the fourth embodiment, the image pickup apparatus 1 is provided with the sensor unit 75 of FIG. The reference image setting unit 53 a sets a reference image from among the observed low resolution images L 1 to L 3 based on the sensor detection data output from the sensor unit 75. The sensor unit 75 detects a shake of the image pickup apparatus 1 (a shake of the casing of the image pickup apparatus 1) due to a camera shake or the like. Specifically, the sensor unit 75 detects the angular velocity in the yaw direction (horizontal direction) of the imaging device 1 and outputs a signal representing the detection result, and the pitch direction (vertical direction) of the imaging device 1. ) And outputs a signal representing the detection result, and output signals of the angular velocity sensors 75A and 75B are output as sensor detection data.

センサ検出データによって、撮像装置1のぶれ(撮像装置1の筐体のぶれ)の大きさ及び方向が示される。基準画像設定部53aは、観測低解像度画像L1〜L3の夫々の露光期間中におけるセンサ検出データに基づいて基準画像を設定する。具体的には、画像L1〜L3の夫々の露光期間中におけるセンサ検出データから、画像L1の露光期間中における撮像装置1のぶれの大きさQ1、画像L2の露光期間中における撮像装置1のぶれの大きさQ2及び画像L3の露光期間中における撮像装置1のぶれの大きさQ3を求め、大きさQ1〜Q3の内の最小の大きさに対応する観測低解像度画像を基準画像に設定すると共に残りの2枚の観測低解像度画像を参照画像に設定する。例えば、図19に示す如く、不等式「Q1>Q3>Q2」が成立する場合は、画像L2が基準画像に設定されると共に画像L1及びL3が参照画像に設定される。 The magnitude and direction of the shake of the image pickup apparatus 1 (the shake of the casing of the image pickup apparatus 1) are indicated by the sensor detection data. The reference image setting unit 53a sets a reference image based on sensor detection data during each exposure period of the observed low resolution images L 1 to L 3 . Specifically, from the sensor detection data during the exposure period of each of the images L 1 to L 3 , the blur magnitude Q 1 of the imaging device 1 during the exposure period of the image L 1 and the exposure period of the image L 2 are detected. obtains the magnitude Q 3 of the shake of the image pickup apparatus 1 in the size of the exposure period of the Q 2 and the image L 3 of the shake of the image pickup apparatus 1, corresponds to the minimum size of the magnitude Q 1 to Q 3 observation The low resolution image is set as a standard image, and the remaining two observed low resolution images are set as reference images. For example, as shown in FIG. 19, when the inequality “Q 1 > Q 3 > Q 2 ” is established, the image L 2 is set as a reference image, and the images L 1 and L 3 are set as reference images.

大きさQ1は、例えば、実空間上で静止した点光源からの光による点像が、画像L1の露光期間中における撮像装置1のぶれによって、画像L1上で描く軌跡の長さ(又は該軌跡の始点と終点との間の距離)を表す。大きさQ2及びQ3についても同様である。 The size Q 1 is, for example, a point image with light from the point light source is stationary in the real space, the blur of the image pickup apparatus 1 during the exposure period of the image L 1, a locus drawn on the image L 1 length ( Or the distance between the start point and the end point of the trajectory). The same applies to the magnitudes Q 2 and Q 3 .

尚、超解像部50aに、ぼけ量推定部(不図示)が内在していると考えることも可能である。この場合、超解像部50aにおけるぼけ量推定部は、画像L1〜L3の夫々の露光期間中におけるセンサ検出データから撮像装置1のぶれの大きさQ1〜Q3を求めて、撮像装置1のぶれの大きさが大きいほど、対応する観測低解像度画像のぼけ量は大きいと推定し、その推定結果を基準画像設定部53aに与える。基準画像設定部53aは、この推定結果に基づいて基準画像を設定することができる。従って例えば、不等式「Q1>Q3>Q2」が成立する場合は、画像L1〜L3のぼけ量の内、画像L1のぼけ量が最も大きく且つ画像L2のぼけ量が最も小さいと推定され、その推定結果が基準画像設定部53aに与えられることによって画像L2が基準画像に設定されると共に画像L1及びL3が参照画像に設定される。 Note that it is possible to assume that the super-resolution unit 50a includes a blur amount estimation unit (not shown). In this case, the blur amount estimating section in the super-resolution unit 50a is seeking image L 1 from the sensor detection data during the exposure period of each of ~L 3 of the shake of the image pickup apparatus 1 size Q 1 to Q 3, imaging It is estimated that the blur amount of the corresponding observed low-resolution image is larger as the blur of the device 1 is larger, and the estimation result is given to the reference image setting unit 53a. The reference image setting unit 53a can set a reference image based on the estimation result. Therefore, for example, when the inequality “Q 1 > Q 3 > Q 2 ” is satisfied, the blur amount of the image L 1 and the blur amount of the image L 2 are the largest among the blur amounts of the images L 1 to L 3. is estimated to be small, the image L 1 and L 3 are set in the reference image with the image L 2 is set in the reference image by the estimation result is supplied to the reference image setting section 53a.

また、センサ部75を角速度センサにて構成する例を上述したが、撮像装置1のぶれを表す、角速度以外の物理量を検出するセンサにて、センサ部75を構成しても良い。例えば、撮像装置1の加速度を検出する加速度センサ又は撮像装置1の角加速度を検出する角加速度センサにてセンサ部75を形成するようにしてもよい。   Moreover, although the example which comprises the sensor part 75 with an angular velocity sensor was mentioned above, you may comprise the sensor part 75 with the sensor which detects the physical quantity other than the angular velocity which represents the blurring of the imaging device 1. FIG. For example, the sensor unit 75 may be formed by an acceleration sensor that detects the acceleration of the imaging device 1 or an angular acceleration sensor that detects the angular acceleration of the imaging device 1.

ところで、画像L1が撮影された場合、画像L1の輝度及び色を表す画像データと共に画像L1の露光期間中におけるセンサ検出データが取得され、それらのデータは互いに関連付けられて必要に応じて外部メモリ18(図1参照)に記録される。画像L1に関するそれらのデータが外部メモリ18に記録される場合、例えば、本体領域とヘッダ領域から成る1つの画像ファイルが外部メモリ18内に設けられ、該画像ファイルの本体領域に画像データが格納される共にヘッダ領域にセンサ検出データが格納される。画像L1のセンサ検出データは、画像L1の画像データに付随する、画像L1の撮影条件を表す情報であると考えることができる。画像L1以外の画像(L2など)についても同様である。 Incidentally, when the image L 1 is captured, the sensor detection data during the exposure period of the image L 1 together with the image data representing the luminance and color of the image L 1 is obtained, these data are optionally associated with each other It is recorded in the external memory 18 (see FIG. 1). When those data relating to the image L 1 are recorded in the external memory 18, for example, one image file including a main body area and a header area is provided in the external memory 18, and the image data is stored in the main body area of the image file. In addition, sensor detection data is stored in the header area. Sensor detection data of the image L 1 is attached to the image data of the image L 1, imaging conditions of the image L 1 can be considered to be information representing. The same applies to images other than the image L 1 (such as L 2 ).

本明細書では、図20に示す如く、画像データ及びセンサ検出データを含む情報を画像情報と呼ぶ。画像L1の画像情報は、画像L1の撮影条件をも含めた、画像L1の特徴を表している(画像L2等についても同様)。 In this specification, as shown in FIG. 20, information including image data and sensor detection data is referred to as image information. Image information of the image L 1 has also including an imaging condition of the image L 1, (same for the image L 2, etc.) representing the characteristics of the image L 1.

<<第5実施例>>
次に、第5実施例を説明する。撮影者が注目する主要被写体の、画像上における大きさが大きいほど、画像上で主要被写体をより詳細に表現することができる。従って、主要被写体がより大きく現れている画像を、撮影者を含むユーザに提供することが望ましい。一方、超解像処理によって得られる高解像度画像は、基準画像としての観測低解像度画像を基準にして生成されるため、基準画像上における主要被写体の大きさが比較的大きければ高解像度画像上におけるそれも比較的大きくなる。これを考慮し、第5実施例では、主要被写体がより大きく現れている観測低解像度画像を基準画像として設定する。
<< 5th Example >>
Next, a fifth embodiment will be described. The larger the size of the main subject focused on by the photographer on the image, the more detailed the main subject can be expressed on the image. Therefore, it is desirable to provide an image in which the main subject appears larger to users including the photographer. On the other hand, since the high resolution image obtained by the super-resolution processing is generated based on the observed low resolution image as the reference image, if the size of the main subject on the reference image is relatively large, It is also relatively large. Considering this, in the fifth embodiment, an observed low resolution image in which the main subject appears larger is set as the reference image.

図21は、第5実施例に係る超解像部50bの内部ブロック図である。超解像部50bに設けられる符号51、54〜57及び61〜64によって参照される各部位は、図4のそれらと同じものである。超解像部50bに設けられる基準画像設定部53b及び被写体サイズ検出部76の機能は、図1のCPU23又は映像信号処理部13にて実現される。基準画像の設定方法が異なる点を除き、超解像部50bと第1実施例に係る超解像部50(図4)は同様である。故に、以下では、基準画像の設定に関わる基準画像設定部53b及び被写体サイズ検出部76の機能について説明する。第5実施例では、第1実施例と同様、3枚の観測低解像度画像L1〜L3から1枚の高解像度画像を生成することを想定する。 FIG. 21 is an internal block diagram of the super-resolution unit 50b according to the fifth embodiment. Each part referred by the codes | symbols 51, 54-57, and 61-64 provided in the super-resolution part 50b is the same as those of FIG. The functions of the reference image setting unit 53b and the subject size detection unit 76 provided in the super-resolution unit 50b are realized by the CPU 23 or the video signal processing unit 13 in FIG. The super-resolution unit 50b and the super-resolution unit 50 according to the first embodiment (FIG. 4) are the same except that the reference image setting method is different. Therefore, hereinafter, functions of the reference image setting unit 53b and the subject size detection unit 76 related to the setting of the reference image will be described. In the fifth embodiment, as in the first embodiment, it is assumed that one high-resolution image is generated from the three observed low-resolution images L 1 to L 3 .

被写体サイズ検出部76は、観測低解像度画像ごとに、観測低解像度画像の画像データに基づいて観測低解像度画像上における主要被写体の大きさを検出する。基準画像設定部53bは、観測低解像度画像L1〜L3の内、主要被写体の大きさが最も大きくなる観測低解像度画像を基準画像に設定すると共に他の2枚の観測低解像度画像を参照画像に設定する。 The subject size detection unit 76 detects the size of the main subject on the observed low resolution image based on the image data of the observed low resolution image for each observed low resolution image. The reference image setting unit 53b sets the observation low resolution image in which the size of the main subject is the largest among the observation low resolution images L 1 to L 3 as the reference image and refers to the other two observation low resolution images. Set to image.

具体例を挙げて、被写体サイズ検出部76の検出方法を説明する。まず、第1の検出方法として、被写体サイズ検出部76が顔検出処理を実行可能に形成されている場合を説明する。顔検出処理は、観測低解像度画像の画像データに基づいて、人物の顔の画像データが存在している画像領域を顔領域として観測低解像度画像の全体画像領域から抽出する処理である。第1の検出方法において、被写体サイズ検出部76は、画像L1〜L3の夫々に対して顔検出処理を実行することにより画像L1〜L3の夫々から顔領域を抽出する。顔領域の大きさは、その顔領域内に存在する顔の大きさが増大するにつれて増大する。 The detection method of the subject size detection unit 76 will be described by giving a specific example. First, as a first detection method, a case where the subject size detection unit 76 is formed so as to be able to perform face detection processing will be described. The face detection process is a process of extracting, from the entire image area of the observed low resolution image, an image area in which image data of a human face exists based on the image data of the observed low resolution image. In the first detection method, subject size detection unit 76 extracts a face region from each of the image L 1 ~L 3 by executing the face detection processing for each of the image L 1 ~L 3. The size of the face area increases as the size of the face present in the face area increases.

第1の検出方法において、被写体サイズ検出部76は、顔領域の大きさを表す情報を含む顔検出結果を基準画像設定部53bに送り、基準画像設定部53bは、その顔検出結果に基づき、最も大きな顔領域が抽出された観測低解像度画像を基準画像に設定する。例えば、画像L1〜L3として図22の画像301〜303が取得されると共に画像301〜303から顔領域311〜313が抽出され、画像上における顔領域312の大きさが顔領域311及び313の大きさよりも大きい場合、画像302及び顔領域312に対応する画像L2が基準画像に設定される。上述の例では、人物の顔又は人物そのものが主要被写体であると考えられる。 In the first detection method, the subject size detection unit 76 sends a face detection result including information representing the size of the face area to the reference image setting unit 53b, and the reference image setting unit 53b is based on the face detection result. An observed low-resolution image from which the largest face area is extracted is set as a reference image. For example, the images 301 to 303 in FIG. 22 are acquired as the images L 1 to L 3 , and the face areas 311 to 313 are extracted from the images 301 to 303, and the size of the face area 312 on the image is the face areas 311 and 313. for larger than the size, the image L 2 corresponding to the image 302 and the face region 312 is set as the reference image. In the above example, the person's face or the person itself is considered to be the main subject.

ところで、画像301〜303のような顔領域の大きさが不揃いの画像列が取得される原因の一つとして、画像301〜303の撮影期間中に撮像装置1が撮影方向に沿って動く(即ち前後に動く)ことが考えられる。このような場合は、画像301〜303間で顔領域の大きさが一致するように画像301及び303の全体に対して線形変換(所謂電子ズーム)を施し、線形変換後の画像301及び303を参照画像として用いて超解像処理を行うようにすると良い。   By the way, as one of the causes of acquiring an image sequence having uneven face area sizes such as the images 301 to 303, the imaging apparatus 1 moves along the shooting direction during the shooting period of the images 301 to 303 (that is, Moving back and forth). In such a case, linear transformation (so-called electronic zoom) is performed on the entire images 301 and 303 so that the size of the face area is the same between the images 301 to 303, and the images 301 and 303 after the linear transformation are obtained. Super-resolution processing may be performed using the reference image.

但し、画像301〜303の撮影期間中に撮像装置1ではなく顔領域311〜313に対応する人物が撮影方向に沿って動くことも考えられる。このような場合においても、上記線形変換後の画像301及び303を参照画像として用いて超解像処理を行えばよいが、人物が動いた場合は、基準画像としての画像302と線形変換後の画像301及び303との間で、顔領域の大きさは一致するものの背景領域の大きさが一致しなくなる。背景領域の大きさが不揃いの画像列を用いて超解像処理を行うと、背景領域において二重像が生じうる。   However, it is also conceivable that a person corresponding to the face areas 311 to 313 moves along the shooting direction instead of the imaging device 1 during the shooting period of the images 301 to 303. Even in such a case, super-resolution processing may be performed using the images 301 and 303 after the linear conversion as reference images. However, when a person moves, the image 302 as the reference image and the linearly-converted image are used. Between the images 301 and 303, the size of the face region matches, but the size of the background region does not match. When super-resolution processing is performed using an image sequence in which the sizes of the background areas are not uniform, a double image can be generated in the background area.

一方において、このような不一致が発生すると位置ずれ検出部54による位置ずれ量算出の信頼度が低下するため、該信頼度を位置ずれ量と共に算出するようにしておけば上記不一致の発生を検出可能である。例えば、公知の如く、位置ずれ量算出時に生成されるデータ(例えば、ブロックマッチング法にて位置ずれ量を求める際に導出されるSSD(Sum of squared difference)の値)から上記信頼度を求めることが可能である。   On the other hand, if such a mismatch occurs, the reliability of the positional deviation amount calculation by the positional deviation detection unit 54 decreases. Therefore, if the reliability is calculated together with the positional deviation amount, the occurrence of the mismatch can be detected. It is. For example, as is well known, the reliability is obtained from data generated when calculating the positional deviation amount (for example, an SSD (Sum of squared difference) value derived when obtaining the positional deviation amount by the block matching method). Is possible.

従って、上記不一致が検出された場合は、人物が動いたと判断して、線形変換後の画像301及び303内の画像領域であって且つ顔領域(又は人物の画像データが存在する画像領域)以外の画像領域を超解像処理に用いないようにすればよい。例えば、画像302の全体画像領域と線形変換後の画像301及び303の顔領域311及び313のみを用いて高解像度画像を生成するようにする。そのようにすると、高解像度画像内の顔領域は3枚の低解像度画像の顔領域から生成される一方で、高解像度画像内の顔領域以外の部分は画像302のみから生成されることになるが、主要被写体としての顔の高解像度化が図られるため十分に有益である。尚、高解像度画像の生成に必要となる、画像302の顔領域311と線形変換後の画像301及び303の顔領域311及び313との間における位置ずれ量は、顔検出処理の実行時に求められる各顔領域の位置から決定することができる。このような、線形変換後の観測低解像度画像内の一部画像領域を超解像処理に用いないという方法は、後述の第2の検出方法に対しても適用可能である。   Therefore, when the above-mentioned inconsistency is detected, it is determined that the person has moved, and is an image area in the images 301 and 303 after the linear conversion and other than the face area (or the image area where the person's image data exists). The image area may not be used for the super-resolution processing. For example, a high-resolution image is generated using only the entire image area of the image 302 and the face areas 311 and 313 of the images 301 and 303 after linear transformation. By doing so, the face area in the high-resolution image is generated from the face areas of the three low-resolution images, while the portion other than the face area in the high-resolution image is generated only from the image 302. However, it is sufficiently useful because the resolution of the face as the main subject can be increased. Note that the amount of misalignment between the face area 311 of the image 302 and the face areas 311 and 313 of the linearly transformed images 301 and 303, which is necessary for generating a high-resolution image, is obtained when the face detection process is executed. It can be determined from the position of each face region. Such a method of not using a partial image region in the observed low-resolution image after linear conversion for the super-resolution processing is also applicable to a second detection method described later.

被写体サイズ検出部76による第2の検出方法を説明する。第2の検出方法において、被写体サイズ検出部76は、各観測低解像度画像に対して主要被写体領域を設定する。主要被写体領域とは、観測低解像度画像の一部画像領域であって且つ主要被写体の画像データが存在していると推測される画像領域である。例えば、一般的に主要被写体が画像の中央付近に存在している可能性が高いとことに鑑み、観測低解像度画像の中央付近に位置する、予め設定された画像領域を主要被写体領域として用いることができる。或いは、後述の第7実施例にて述べられるAF評価領域を主要被写体領域として用いるようにしてもよい。更に或いは、ピントの合っている被写体の画像データが存在する画像領域を主要被写体領域として用いるようにしてもよい。ピントの合っている被写体の画像データが存在する画像領域の位置を、観測低解像度画像の高域周波数成分から決定することが可能である。   A second detection method by the subject size detection unit 76 will be described. In the second detection method, the subject size detection unit 76 sets a main subject region for each observed low resolution image. The main subject region is an image region that is a partial image region of the observed low-resolution image and in which image data of the main subject exists. For example, considering that there is a high possibility that the main subject is generally present near the center of the image, a preset image region located near the center of the observed low-resolution image is used as the main subject region. Can do. Alternatively, an AF evaluation area described in a seventh embodiment described later may be used as the main subject area. Further alternatively, an image area where image data of a focused subject exists may be used as the main subject area. The position of the image area where the image data of the subject in focus is present can be determined from the high frequency component of the observed low resolution image.

今、画像L1〜L3として図23の画像321〜323が取得されると共に画像321〜323に対して主要被写体領域331〜333が設定された場合を考える。被写体サイズ検出部76は、主要被写体領域331〜333の中央付近に、夫々、基準領域341〜343を設定する。主要被写体領域の位置及び大きさ並びに基準領域の位置及び大きさは、画像321〜323間で同じである。 Consider a case where the images 321 to 323 in FIG. 23 are acquired as the images L 1 to L 3 and the main subject areas 331 to 333 are set for the images 321 to 323. The subject size detection unit 76 sets reference regions 341 to 343 near the center of the main subject regions 331 to 333, respectively. The position and size of the main subject area and the position and size of the reference area are the same between the images 321 to 323.

被写体サイズ検出部76は、画像321〜323の画像データに基づいて、画像321の基準領域341内の色、画像322の基準領域342内の色及び画像323の基準領域343内の色を、夫々、第1〜第3の基準色として求める。基準領域341内の色は、例えば、基準領域341内に属する各画素の平均色である(基準領域342内の色及び基準領域343内の色についても同様)。画像データがRGB形式の信号で表されている場合は、基準領域341内に属する各画素の色信号であるR、G及びB信号から第1の基準色を求めればよく、画像データがYUV形式の信号で表されている場合は、基準領域341内に属する各画素の色差信号であるU及V信号から第1の基準色を求めればよい(第2及び第3の基準色についても同様)。或る画素に関し、R、G及びB信号は、その画素の赤、緑及び青の強度を表す。尚、第1〜第3の基準色を全て同じ色に設定してもよい。この場合、第1〜第3の基準色を、基準領域341、342又は343内の色に設定することができる。   Based on the image data of the images 321 to 323, the subject size detection unit 76 determines the color in the reference region 341 of the image 321, the color in the reference region 342 of the image 322, and the color in the reference region 343 of the image 323, respectively. The first to third reference colors are obtained. The color in the reference area 341 is, for example, the average color of each pixel belonging to the reference area 341 (the same applies to the color in the reference area 342 and the color in the reference area 343). When the image data is represented by RGB format signals, the first reference color may be obtained from the R, G, and B signals that are the color signals of the pixels belonging to the reference area 341, and the image data is in the YUV format. In this case, the first reference color may be obtained from the U and V signals that are the color difference signals of the pixels belonging to the reference region 341 (the same applies to the second and third reference colors). . For a pixel, the R, G, and B signals represent the red, green, and blue intensities of that pixel. The first to third reference colors may all be set to the same color. In this case, the first to third reference colors can be set to colors in the reference region 341, 342, or 343.

被写体サイズ検出部76は、観測低解像度画像ごとに、基準色と同一又は類似する画素が主要被写体領域内に幾つ存在しているかを計数することによって、観測低解像度画像上の主要被写体の大きさを検出する。   The subject size detection unit 76 counts the number of pixels that are the same or similar to the reference color in the main subject region for each observed low resolution image, thereby determining the size of the main subject on the observed low resolution image. Is detected.

具体的には、観測低解像度画像ごとに以下の処理を行う。基準色の、RGB色空間上における位置を基準位置として設定する一方で、主要被写体領域内に属する各画素の色の、RGB色空間上における位置を検出し、前者の位置(基準位置)と後者の位置とのユークリッド距離を求める。そして、主要被写体領域内の画素の内、ユークリッド距離が所定の閾値DTH以下となる画素の個数を、主要被写体の大きさとして検出する。図23に示す例の場合、画像L2に対して計数される上記個数は、画像L1及びL3に対するそれらよりも大きくなり、結果、画像L2が基準画像に設定される。 Specifically, the following processing is performed for each observed low resolution image. While the position of the reference color in the RGB color space is set as the reference position, the position of the color of each pixel belonging to the main subject area in the RGB color space is detected, and the former position (reference position) and the latter Euclidean distance from the position of. Then, the number of pixels whose Euclidean distance is equal to or smaller than a predetermined threshold value DTH among the pixels in the main subject area is detected as the size of the main subject. In the example shown in FIG. 23, the number counted for the image L 2 is larger than those for the images L 1 and L 3, and as a result, the image L 2 is set as the reference image.

第5実施例によれば、主要被写体が大きく表れた、ユーザにとって好ましい高解像度画像を生成することが可能となる。   According to the fifth embodiment, it is possible to generate a high-resolution image preferable for the user in which the main subject appears large.

<<第6実施例>>
次に、第6実施例を説明する。ユーザにとって好ましくない、目のつぶっている画像や表情の良くない画像を基準画像として選択すると、高解像度画像も好ましい画像とならない。そこで、第6実施例では、顔の状態を考慮して基準画像の設定を行う。
<< Sixth Example >>
Next, a sixth embodiment will be described. If an image with a closed eye or an unsatisfactory expression, which is not preferable for the user, is selected as the reference image, the high-resolution image is not preferable. Therefore, in the sixth embodiment, the reference image is set in consideration of the face state.

図24は、第6実施例に係る超解像部50cの内部ブロック図である。超解像部50cに設けられる符号51、54〜57及び61〜64によって参照される各部位は、図4のそれらと同じものである。超解像部50cに設けられる基準画像設定部53c及び顔状態検出部77の機能は、図1のCPU23又は映像信号処理部13にて実現される。基準画像の設定方法が異なる点を除き、超解像部50cと第1実施例に係る超解像部50(図4)は同様である。故に、以下では、基準画像の設定に関わる基準画像設定部53c及び顔状態検出部77の機能について説明する。第6実施例では、第1実施例と同様、3枚の観測低解像度画像L1〜L3から1枚の高解像度画像を生成することを想定する。 FIG. 24 is an internal block diagram of the super-resolution unit 50c according to the sixth embodiment. Each part referred by the codes | symbols 51, 54-57, and 61-64 provided in the super-resolution part 50c is the same as those of FIG. The functions of the reference image setting unit 53c and the face state detection unit 77 provided in the super-resolution unit 50c are realized by the CPU 23 or the video signal processing unit 13 in FIG. The super-resolution unit 50c and the super-resolution unit 50 according to the first embodiment (FIG. 4) are the same except that the reference image setting method is different. Therefore, the functions of the reference image setting unit 53c and the face state detection unit 77 related to the setting of the reference image will be described below. In the sixth embodiment, as in the first embodiment, it is assumed that one high-resolution image is generated from the three observed low-resolution images L 1 to L 3 .

顔状態検出部77は、第5実施例で述べた顔検出処理を各観測低解像度画像に対して実行して、観測低解像度画像上における人物の顔領域を抽出する。その後、顔状態検出部77は、観測低解像度画像の画像データに基づき、顔領域内から眼が存在する眼領域を抽出し、更に眼の開閉状態を検出する瞬き検出処理を実行する。瞬き検出処理に、公知の方法を含む任意の方法を利用可能である。例えば、標準的な瞳孔を表す画像をテンプレートとして用いたテンプレートマッチングを行うことで眼領域内における瞳孔の有無を検出し、その有無検出結果から眼が開いているか否かを検出することができる。   The face state detection unit 77 performs the face detection process described in the fifth embodiment on each observed low resolution image, and extracts a human face region on the observed low resolution image. Thereafter, the face state detection unit 77 extracts an eye region where an eye exists from the face region based on the image data of the observed low-resolution image, and further performs blink detection processing for detecting the open / closed state of the eye. Any method including a known method can be used for the blink detection processing. For example, by performing template matching using an image representing a standard pupil as a template, the presence or absence of a pupil in the eye region can be detected, and whether or not the eye is open can be detected from the detection result.

基準画像設定部53cは、観測低解像度画像L1〜L3の内、瞬き検出処理によって眼が開いていると判断された観測低解像度画像を基準画像に設定する。例えば、画像L2及びL3上の眼が開いており且つ画像L1上の眼が閉じていると判断された場合、画像L2又はL3を基準画像に設定すると共に残りの2枚(画像L1及びL2、又は、画像L1及びL3)を参照画像に設定する。 Reference image setting unit 53c, the observation of the low-resolution image L 1 ~L 3, sets the observed low-resolution image is judged with the eye is opened by the blink detection process in the reference image. For example, when it is determined that the eyes on the images L 2 and L 3 are open and the eyes on the image L 1 are closed, the image L 2 or L 3 is set as the reference image and the remaining two images ( The images L 1 and L 2 or the images L 1 and L 3 ) are set as reference images.

尚、画像L2及びL3上の眼が開いており且つ画像L1上の眼が閉じていると判断された場合、高解像度画像上に二重像が現れることを防止すべく、画像L1の眼領域(又は顔領域全体)を超解像処理に用いないようにするとよい。この場合、高解像度画像の眼領域(又は顔領域全体)以外の部分は画像L1〜L3から生成される一方で、高解像度画像の眼領域(又は顔領域全体)は画像L2及びL3のみから生成されることになる。 When it is determined that the eyes on the images L 2 and L 3 are open and the eyes on the image L 1 are closed, the image L is prevented from appearing on the high resolution image. It is preferable not to use one eye area (or the entire face area) for super-resolution processing. In this case, a portion other than the eye region (or the entire face region) of the high resolution image is generated from the images L 1 to L 3 , while the eye region (or the entire face region) of the high resolution image is the images L 2 and L 3. It will be generated only from 3 .

観測低解像度画像上における顔領域を抽出した後、顔状態検出部77に、瞬き検出処理ではなく笑顔検出処理を行わせるようにしてもよい。笑顔検出処理は、観測低解像度画像ごとに実行される。笑顔検出処理では、観測低解像度画像の画像データに基づき、顔領域内における顔が笑顔であるか否かが判断される。笑顔検出処理に、公知の方法を含む任意の方法を利用可能である。   After extracting the face area on the observed low-resolution image, the face state detection unit 77 may perform a smile detection process instead of the blink detection process. The smile detection process is executed for each observed low resolution image. In the smile detection process, it is determined whether or not the face in the face area is a smile based on the image data of the observed low resolution image. Any method including a known method can be used for the smile detection process.

笑顔検出処理が実行された場合、基準画像設定部53cは、観測低解像度画像L1〜L3の内、笑顔検出処理によって顔領域内の顔が笑顔であると判断された観測低解像度画像を基準画像に設定する。例えば、画像L2及びL3上の顔が笑顔であって且つ画像L1上の顔が笑顔でないと判断された場合、画像L2又はL3を基準画像に設定すると共に残りの2枚(画像L1及びL2、又は、画像L1及びL3)を参照画像に設定する。 If smile detection process is performed, the reference image setting unit 53c of the observed low-resolution image L 1 ~L 3, the observed low-resolution image by smile detection process is the face in the face region is determined to be smiling Set to the reference image. For example, when it is determined that the faces on the images L 2 and L 3 are smiling and the face on the image L 1 is not smiling, the image L 2 or L 3 is set as a reference image and the remaining two images ( The images L 1 and L 2 or the images L 1 and L 3 ) are set as reference images.

尚、画像L2及びL3上の顔が笑顔であって且つ画像L1上の顔が笑顔でないと判断された場合、高解像度画像上に二重像が現れることを防止すべく、画像L1の顔領域全体を超解像処理に用いないようにするとよい。この場合、高解像度画像の顔領域以外の部分は画像L1〜L3から生成される一方で、高解像度画像の顔領域は画像L2及びL3のみから生成されることになる。 When it is determined that the faces on the images L 2 and L 3 are smiling and the face on the image L 1 is not smiling, the image L is prevented from appearing on the high-resolution image. It is better not to use the entire face area of 1 for super-resolution processing. In this case, the portions other than the face area of the high resolution image are generated from the images L 1 to L 3 , while the face area of the high resolution image is generated only from the images L 2 and L 3 .

また、上述の瞬き検出処理と笑顔検出処理の双方を用いて基準画像を設定することも可能である。この場合、瞬き検出処理によって眼が開いていると判断され且つ笑顔検出処理によって顔領域内の顔が笑顔であると判断された観測低解像度画像を基準画像に設定すればよい。   It is also possible to set a reference image using both the blink detection process and the smile detection process described above. In this case, an observed low-resolution image in which it is determined that the eyes are open by the blink detection process and the face in the face area is determined to be a smile by the smile detection process may be set as the reference image.

第6実施例によれば、顔の状態の良い、ユーザにとって好ましい高解像度画像を生成することが可能となる。   According to the sixth embodiment, it is possible to generate a high-resolution image that is good for the user and that is favorable for the user.

<<第7実施例>>
次に、第7実施例を説明する。第7実施例では、オートフォーカス制御に用いられるAF評価値に基づいて基準画像を設定する。
<< Seventh Embodiment >>
Next, a seventh embodiment will be described. In the seventh embodiment, a reference image is set based on an AF evaluation value used for autofocus control.

まず、図25を参照して、図1の撮像部11の内部構成を詳細に説明する。図25は、撮像部11の内部構成図である。撮像部11は、光学系35と、絞り32と、撮像素子33と、ドライバ34を有している。光学系35は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される。ズームレンズ30及びフォーカスレンズ31は光軸方向に移動可能である。   First, with reference to FIG. 25, the internal configuration of the imaging unit 11 of FIG. 1 will be described in detail. FIG. 25 is an internal configuration diagram of the imaging unit 11. The imaging unit 11 includes an optical system 35, a diaphragm 32, an imaging element 33, and a driver 34. The optical system 35 includes a plurality of lenses including the zoom lens 30 and the focus lens 31. The zoom lens 30 and the focus lens 31 are movable in the optical axis direction.

ドライバ34は、CPU23からの制御信号に基づいて、ズームレンズ30及びフォーカスレンズ31の移動を制御し、光学系35のズーム倍率や焦点位置を制御する。また、ドライバ34は、CPU23からの制御信号に基づいて絞り32の開度(開口部の大きさ)を制御する。被写体からの入射光は、光学系35を構成する各レンズ及び絞り32を介して、撮像素子33に入射する。光学系35を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。撮像素子33を駆動するための駆動パルスがTG22から与えられる。   The driver 34 controls the movement of the zoom lens 30 and the focus lens 31 based on a control signal from the CPU 23, and controls the zoom magnification and the focal position of the optical system 35. Further, the driver 34 controls the opening degree (size of the opening) of the diaphragm 32 based on a control signal from the CPU 23. Incident light from the subject enters the image sensor 33 through the lenses and the diaphragm 32 constituting the optical system 35. Each lens constituting the optical system 35 forms an optical image of the subject on the image sensor 33. A driving pulse for driving the image sensor 33 is given from the TG 22.

撮像装置1では、TTL(Through The Lens)方式によるオートフォーカス制御が行われる。このオートフォーカス制御を行うために、図1の映像信号処理部13にはAF評価部(焦点評価値導出手段)が設けられる。図26は、映像信号処理部13に設けられたAF評価部80の内部ブロック図である。   In the imaging apparatus 1, autofocus control is performed by a TTL (Through The Lens) method. In order to perform this autofocus control, the video signal processing unit 13 of FIG. 1 is provided with an AF evaluation unit (focus evaluation value deriving means). FIG. 26 is an internal block diagram of the AF evaluation unit 80 provided in the video signal processing unit 13.

AF評価部80は、抽出部81、HPF(ハイパスフィルタ)82及び積算部83を有して構成される。AF評価部80は、1つのフレーム画像について1つのAF評価値(焦点評価値)を算出する。   The AF evaluation unit 80 includes an extraction unit 81, an HPF (high pass filter) 82, and an integration unit 83. The AF evaluation unit 80 calculates one AF evaluation value (focus evaluation value) for one frame image.

抽出部81には、フレーム画像の映像信号が与えられる。抽出部81は、その映像信号の中から、フレーム画像内に定義されたAF評価領域(焦点評価領域)内の輝度信号を抽出する。AF評価領域は、互いに分離した複数の要素領域から形成される。図27(a)にAF評価領域の設定例を示す。例えば、フレーム画像を垂直方向及び水平方向に夫々3等分することでフレーム画像内に9つの分割領域を定義する。そして、図27(a)に示す如く、その9つの分割領域の内、フレーム画像の中央に位置する分割領域の全体又は一部を要素領域AR1とし、要素領域AR1の上下左右に位置する分割領域の全体又は一部を要素領域AR2〜AR5とする。この場合、要素領域AR1〜AR5の合計領域がAF評価領域に相当する。尚、1つの要素領域にてAF評価領域を形成することも可能である。例えば、要素領域AR1そのものをAF評価領域としても構わない。以下の説明では、AF評価領域が要素領域AR1〜AR5から形成されていることを想定する。   A video signal of a frame image is given to the extraction unit 81. The extraction unit 81 extracts a luminance signal in an AF evaluation area (focus evaluation area) defined in the frame image from the video signal. The AF evaluation area is formed from a plurality of element areas separated from each other. FIG. 27A shows an example of setting the AF evaluation area. For example, nine divided regions are defined in the frame image by dividing the frame image into three equal parts in the vertical direction and the horizontal direction. Then, as shown in FIG. 27A, among the nine divided areas, the whole or a part of the divided area located at the center of the frame image is defined as an element area AR1, and the divided areas located above, below, left and right of the element area AR1. Are all or part of element regions AR2 to AR5. In this case, the total area of the element areas AR1 to AR5 corresponds to the AF evaluation area. It is also possible to form the AF evaluation area with one element area. For example, the element area AR1 itself may be used as the AF evaluation area. In the following description, it is assumed that the AF evaluation area is formed from the element areas AR1 to AR5.

HPF82は、抽出部81によって抽出された輝度信号中の所定の高域周波数成分のみを抽出する。例えば、HPF82を図7に示すような3×3のフィルタサイズを有するラプラシアンフィルタにて形成し、そのラプラシアンフィルタをAF評価領域内の各画素に作用させる空間フィルタリングを行う。そうすると、HPF82からは、そのラプラシアンフィルタのフィルタ特性に応じた出力値が順次得られる。   The HPF 82 extracts only a predetermined high frequency component from the luminance signal extracted by the extraction unit 81. For example, the HPF 82 is formed by a Laplacian filter having a filter size of 3 × 3 as shown in FIG. 7, and spatial filtering is performed so that the Laplacian filter acts on each pixel in the AF evaluation area. Then, output values corresponding to the filter characteristics of the Laplacian filter are sequentially obtained from the HPF 82.

積算部83は、HPF82によって抽出された高域周波数成分の大きさ(即ち、HPF82の出力値の絶対値)を積算する。この積算は、要素領域ごとに個別に行われる。従って、要素領域AR1〜AR5についての各積算値が算出される。積算部83は、事前に定められた重み付け係数に従って各積算値を重み付け加算することによりAF評価値を算出する。要素領域AR1に対する重み付け係数が、他の要素領域に対するそれよりも高いことを想定する。例えば、図27(b)に示す如く、要素領域AR1に対する重み付け係数が2.0であって且つ他の要素領域AR2〜AR5に対する重み付け係数が1.0である場合を考える。そうすると、要素領域AR1に対して算出された積算値に2を乗じた値と、要素領域AR2〜AR5に対して算出された積算値との総和がAF評価値として算出される。   The accumulating unit 83 accumulates the magnitude of the high frequency component extracted by the HPF 82 (that is, the absolute value of the output value of the HPF 82). This integration is performed individually for each element region. Therefore, each integrated value for the element regions AR1 to AR5 is calculated. The integrating unit 83 calculates an AF evaluation value by weighting and adding each integrated value according to a predetermined weighting coefficient. Assume that the weighting factor for element region AR1 is higher than that for other element regions. For example, as shown in FIG. 27B, consider a case where the weighting coefficient for the element area AR1 is 2.0 and the weighting coefficient for the other element areas AR2 to AR5 is 1.0. Then, the sum of the value obtained by multiplying the integrated value calculated for the element region AR1 by 2 and the integrated value calculated for the element regions AR2 to AR5 is calculated as the AF evaluation value.

順次得られるフレーム画像に対して算出された各AF評価値は、図1のCPU23に逐次伝達される。或るフレーム画像についてのAF評価値は、そのフレーム画像のAF評価領域内の高域周波数成分の量に概ね比例し、その量が増大するにつれて増大する。高域周波数成分の量は、高域周波数成分の強度とも換言される。   The AF evaluation values calculated for the sequentially obtained frame images are sequentially transmitted to the CPU 23 in FIG. The AF evaluation value for a certain frame image is approximately proportional to the amount of the high frequency component in the AF evaluation region of the frame image, and increases as the amount increases. The amount of the high frequency component is also referred to as the intensity of the high frequency component.

オートフォーカス制御の実行時には、フォーカスレンズ31を少しずつ動かしながら順次AF評価値が求められ、AF評価値が最大(或いは極大)となるフォーカスレンズ31の位置を合焦レンズ位置として求める。そして、例えば、フォーカスレンズ31を合焦レンズ位置に配置した状態で連続して撮影された3枚のフレーム画像を、上述の観測低解像度画像L1〜L3として取り扱う。 When executing the autofocus control, the AF evaluation values are sequentially obtained while moving the focus lens 31 little by little, and the position of the focus lens 31 at which the AF evaluation value is maximized (or maximum) is obtained as the focus lens position. Then, for example, three frame images taken continuously with the focus lens 31 placed at the focusing lens position are handled as the above-described observed low-resolution images L 1 to L 3 .

この観測低解像度画像L1〜L3もAF評価部80に与えられ、観測低解像度画像L1〜L3の夫々に対するAF評価値も上述のようにして求められる。そして、第7実施例では、観測低解像度画像L1〜L3のAF評価値の内、最大のAF評価値に対応する観測低解像度画像を基準画像として設定するようにする。 The observed low resolution images L 1 to L 3 are also given to the AF evaluation unit 80, and the AF evaluation values for the observed low resolution images L 1 to L 3 are also obtained as described above. In the seventh embodiment, the observed low resolution image corresponding to the maximum AF evaluation value among the AF evaluation values of the observed low resolution images L 1 to L 3 is set as the reference image.

図28は、第7実施例に係る超解像処理を担う超解像部50dの内部ブロック図である。超解像部50dは、符号51、80、53d及び54〜57にて参照される各部位と、フレームメモリ61〜64とを備えて構成される。即ち、図4の超解像部50におけるぼけ量推定部52及び基準画像設定部53をAF評価部80及び基準画像設定部53dに置換することによって超解像部50dは形成される。超解像部50d内の、AF評価部80及び基準画像設定部53d以外の部位の動作は、図4の超解像部50のそれと同じであるため、共通部位に対する重複する説明を割愛する。基準画像設定部53dはCPU23によって実現される。但し、基準画像設定部53dの機能を映像信号処理部13に担わせるようにしても構わない。   FIG. 28 is an internal block diagram of a super-resolution unit 50d that performs super-resolution processing according to the seventh embodiment. The super-resolution unit 50d is configured to include each part referred to by reference numerals 51, 80, 53d, and 54 to 57, and frame memories 61 to 64. That is, the super-resolution unit 50d is formed by replacing the blur amount estimation unit 52 and the reference image setting unit 53 in the super-resolution unit 50 of FIG. 4 with the AF evaluation unit 80 and the reference image setting unit 53d. Since the operations of the parts other than the AF evaluation part 80 and the reference image setting part 53d in the super-resolution part 50d are the same as those of the super-resolution part 50 in FIG. 4, the overlapping description for the common part is omitted. The reference image setting unit 53d is realized by the CPU 23. However, the video signal processing unit 13 may have the function of the reference image setting unit 53d.

AF評価値80は、観測低解像度画像L1〜L3についてのAF評価値を基準画像設定部53dに送る。基準画像設定部53dは、画像L1〜L3についてのAF評価値に基づいて基準画像及び参照画像を設定する処理を行う。具体的には、画像L1〜L3に対して求められた3つのAF評価値の内の最大のAF評価値を特定し、その最大のAF評価値に対応する観測低解像度画像を基準画像として設定する一方で残りの2枚の観測低解像度画像を参照画像として設定する。基準画像及び参照画像が設定された後の動作は、第1実施例と同じである。 As the AF evaluation value 80, the AF evaluation values for the observed low resolution images L 1 to L 3 are sent to the reference image setting unit 53d. Reference image setting unit 53d performs processing for setting the reference image and the reference image on the basis of the AF evaluation value for the image L 1 ~L 3. Specifically, the maximum AF evaluation value among the three AF evaluation values obtained for the images L 1 to L 3 is specified, and the observed low-resolution image corresponding to the maximum AF evaluation value is used as the reference image. On the other hand, the remaining two observation low-resolution images are set as reference images. The operation after the reference image and the reference image are set is the same as that in the first embodiment.

今、撮像装置1の視野内に動被写体が含まれている場合を考える。動被写体とは、実空間上で移動する被写体を意味する。そして、図29のフレーム画像361、362及び363が取得され、フレーム画像361、362及び363がそれぞれ観測低解像度画像L1、L2及びL3であった場合を想定する。フレーム画像361〜363には動被写体としての動物が含まれており、その動物が撮像装置1に対して相対的に移動することにより、その動物はフレーム画像361内では右側よりに描画され、フレーム画像362内では略中央に描画され、フレーム画像363内では左側よりに描画されている。また、フレーム画像361〜363の撮影時において、その動物にピントが合うようにフォーカスレンズ31のレンズ位置が固定されているものとする。 Consider a case where a moving subject is included in the field of view of the imaging apparatus 1. A moving subject means a subject that moves in real space. Then, it is assumed that the frame images 361, 362, and 363 of FIG. 29 are acquired and the frame images 361, 362, and 363 are the observed low resolution images L 1 , L 2, and L 3 , respectively. The frame images 361 to 363 include an animal as a moving subject. When the animal moves relative to the imaging device 1, the animal is drawn from the right side in the frame image 361, and the frame image In the image 362, the image is drawn at substantially the center, and in the frame image 363, the image is drawn from the left side. It is assumed that the lens position of the focus lens 31 is fixed so that the animal is in focus when the frame images 361 to 363 are captured.

この場合、AF評価値の算出方法から理解されるように、画像L1、L2及びL3に対するAF評価値の内、画像L2に対するAF評価値が最大となる可能性が高い。そして実際に画像L2に対するAF評価値が最大となっていると、画像L2が基準画像として設定されて超解像処理がなされるので、画像L2と同様、得られる高解像度画像内において着目した動物は略中央に位置することとなる。 In this case, as understood from the AF evaluation value calculation method, the AF evaluation value for the image L 2 is likely to be the maximum among the AF evaluation values for the images L 1 , L 2 and L 3 . When the actual AF evaluation value for the image L 2 is the largest, since the image L 2 is set as the reference image super-resolution processing is performed, similar to the image L 2, in the high-resolution image obtained The focused animal will be located approximately in the center.

本実施例によれば、撮影者が着目した動被写体(即ち、ピントの合っている動被写体)が中央に配置された高解像度画像が得られることとなる。つまり、撮影者の意図に合致した、望ましい構図の高解像度画像を自動的に得ることが可能となる。   According to the present embodiment, a high-resolution image in which a moving subject focused by the photographer (that is, a moving subject in focus) is arranged at the center is obtained. That is, it is possible to automatically obtain a high-resolution image having a desirable composition that matches the photographer's intention.

尚、本実施形態における超解像処理では、線形補間等を用いて基準画像から初期高解像度画像が生成される。そして、基準画像を基準とする基準画像と各参照画像との位置ずれ量に従って高解像度画像(最初は、初期高解像度画像)から推定低解像度画像が生成され、その推定低解像度画像と観測低解像度画像との誤差が最小化されるように高解像度画像が更新される。このため、最終的に得られる高解像度画像は、基準画像の解像度を向上させた画像と言える(参照画像は、その解像度の向上のために参照される画像である)。故に、図29のフレーム画像362が基準画像として設定されると、得られる高解像度画像内において、着目した動物は略中央に位置することとなる。   In the super-resolution processing in the present embodiment, an initial high resolution image is generated from the reference image using linear interpolation or the like. Then, an estimated low-resolution image is generated from the high-resolution image (initially the initial high-resolution image) according to the amount of positional deviation between the standard image based on the standard image and each reference image, and the estimated low-resolution image and the observed low-resolution image The high resolution image is updated so that the error from the image is minimized. Therefore, it can be said that the finally obtained high-resolution image is an image in which the resolution of the standard image is improved (the reference image is an image that is referred to for improving the resolution). Therefore, when the frame image 362 shown in FIG. 29 is set as the reference image, the focused animal is positioned substantially at the center in the obtained high-resolution image.

<<第8実施例>>
次に、第8実施例を説明する。第8実施例では、複数の観測低解像度画像から高解像度画像を得るための要素技術を詳細に説明する。第8実施例に記載した事項を、上述の第1〜第7実施例に適用することができる。
<< Eighth Example >>
Next, an eighth embodiment will be described. In the eighth embodiment, elemental techniques for obtaining a high resolution image from a plurality of observed low resolution images will be described in detail. The matters described in the eighth embodiment can be applied to the first to seventh embodiments described above.

第8実施例では、説明の簡略化上、3×3の画像サイズを有する2枚の観測低解像度画像から6×6の画像サイズを有する1枚の高解像度画像を生成する場合を例にとる。2枚の観測低解像度画像の内、一方を第1の観測低解像度画像と呼び、他方を第2の観測低解像度画像と呼ぶ。第1の観測低解像度画像が基準画像として、第2の観測低解像度画像が参照画像として設定されたものとする。尚、以下の説明において、第1及び第2の観測低解像度画像を、夫々、第1及び第2の観測画像と略記することがある。   In the eighth embodiment, for simplification of description, a case where one high-resolution image having an image size of 6 × 6 is generated from two observed low-resolution images having an image size of 3 × 3 is taken as an example. . One of the two observed low resolution images is called a first observed low resolution image, and the other is called a second observed low resolution image. It is assumed that the first observed low resolution image is set as a reference image and the second observed low resolution image is set as a reference image. In the following description, the first and second observed low-resolution images may be abbreviated as the first and second observed images, respectively.

図30(a)及び(b)に第1及び第2の観測画像の画素配列を表し、図30(c)に高解像度画像の画素配列を示す。図30(c)の画素配列は、初期高解像度画像H0を含む高解像度画像Hnの画素配列である(nは0以上の整数)。また、超解像演算処理の過程において高解像度画像から推定低解像度画像及び差分画像が生成されるが(図8参照)、第kの観測画像に対応する推定低解像度画像及び差分画像の画素配列も第kの観測画像のそれと同じである(第8実施例において、kは1又は2)。第kの観測画像に対応する推定低解像度画像及び差分画像を、以下、夫々、第kの推定低解像度画像及び差分画像と呼ぶ。 30A and 30B show the pixel arrangement of the first and second observation images, and FIG. 30C shows the pixel arrangement of the high-resolution image. The pixel array in FIG. 30C is a pixel array of the high resolution image H n including the initial high resolution image H 0 (n is an integer of 0 or more). In addition, an estimated low-resolution image and a difference image are generated from the high-resolution image in the process of the super-resolution calculation process (see FIG. 8), and the pixel array of the estimated low-resolution image and the difference image corresponding to the kth observation image Is the same as that of the k-th observation image (in the eighth embodiment, k is 1 or 2). The estimated low resolution image and difference image corresponding to the kth observed image are hereinafter referred to as the kth estimated low resolution image and difference image, respectively.

図30(a)〜(c)並びに後述の図32、図33(a)及び(b)及び図35において、黒く塗りつぶされた四角形は第1の観測画像又は第1の推定低解像度画像又は第1の差分画像の画素が配置される点を表し、黒く塗りつぶされた三角形は第2の観測画像又は第2の推定低解像度画像又は第2の差分画像の画素が配置される点を表し、黒く塗りつぶされた丸は高解像動画像の画素が配置される点を表している。   30 (a) to 30 (c) and FIGS. 32, 33 (a) and (b) and FIG. 35 to be described later, the black squares represent the first observed image, the first estimated low-resolution image, or the first image. 1 represents a point at which pixels of the difference image are arranged, and a black-filled triangle represents a point at which pixels of the second observation image, the second estimated low-resolution image, or the second difference image are arranged, and is black A filled circle represents a point where a pixel of a high resolution moving image is arranged.

各画像において画素は行列状に配置されている。1枚の観測画像(又は推定低解像度画像又は差分画像)における合計9個の画素の位置を表す座標を、0≦i≦2且つ0≦j≦2の範囲内のi及びjを用いて(i,j)で表す。但し、i及びjは整数である。高解像度画像における合計36個の画素の位置を表す座標を、0≦i≦5且つ0≦j≦5の範囲内のi及びjを用いて(i,j)で表す。iは行方向(換言すれば垂直方向)の座標値を表し、jは列方向(換言すれば水平方向)の座標値を表している。   In each image, the pixels are arranged in a matrix. Coordinates representing the positions of a total of nine pixels in one observation image (or estimated low-resolution image or difference image) are used using i and j within the range of 0 ≦ i ≦ 2 and 0 ≦ j ≦ 2 ( i, j). However, i and j are integers. Coordinates representing the positions of a total of 36 pixels in the high-resolution image are represented by (i, j) using i and j within the range of 0 ≦ i ≦ 5 and 0 ≦ j ≦ 5. i represents the coordinate value in the row direction (in other words, the vertical direction), and j represents the coordinate value in the column direction (in other words, the horizontal direction).

更に、行列表現された第1及び第2の観測画像を夫々y1及びy2で表す。また、第1実施例で述べたように、行列表現された高解像度画像Hnをxnで表す。そして、第1の観測画像内の座標(i,j)における画素の画素値をy1(i,j)で表し、且つ、第2の観測画像内の座標(i,j)における画素の画素値をy2(i,j)で表し、且つ、高解像度画像Hn内の座標(i,j)における画素の画素値をxn(i,j)で表す。そうすると、y1、y2及びxnは、式(B−1)、(B−2)及び(B−3)によって表される。尚、上述したように、添え字Tが付された行列は元の行列の転置行列を表す。 Further, the first and second observation images expressed in matrix are represented by y 1 and y 2 , respectively. Further, as described in the first embodiment, the high-resolution image H n expressed in a matrix is represented by x n . The pixel value of the pixel at the coordinates (i, j) in the first observation image is represented by y 1 (i, j), and the pixel of the pixel at the coordinates (i, j) in the second observation image The value is represented by y 2 (i, j), and the pixel value of the pixel at the coordinate (i, j) in the high resolution image H n is represented by x n (i, j). Then, y 1 , y 2 and x n are represented by the formulas (B-1), (B-2) and (B-3). As described above, the matrix with the subscript T represents the transposed matrix of the original matrix.

[サブピクセル精度の位置ずれ量の算出方法]
まず、基準画像としての第1の観測画像を基準とした、第1及び第2の観測画像間の位置ずれ量の算出方法を説明する。第1実施例で述べたように、位置ずれ量は、代表点マッチング法やブロックマッチング法、勾配法などを用いて、サブピクセルの分解能を有するように算出される。例として、代表点マッチング法を用いる場合を説明する。
[Calculation method of sub-pixel accuracy misalignment]
First, a method for calculating the amount of positional deviation between the first and second observation images using the first observation image as the reference image as a reference will be described. As described in the first embodiment, the positional deviation amount is calculated so as to have sub-pixel resolution by using a representative point matching method, a block matching method, a gradient method, or the like. As an example, a case where the representative point matching method is used will be described.

第1の観測画像に設定された代表点が座標(0,0)における画素であり、代表点マッチング法における検出ブロックサイズを1×1とした場合、位置(i,j)に対応する相関値E(i,j)は式(B−4)で表される。(i,j)=(0,0)、(0,1)、・・・(2,2)の夫々に対して相関値E(i,j)を求め、得られた合計9個の相関値E(0,0)〜E(2,2)の内、最小の相関値を特定する。この最小の相関値をE(iO,jO)で表すとすると、iO及びjOによって、第1及び第2の観測画像間の、整数精度における位置ずれ量が定まる。 When the representative point set in the first observation image is a pixel at coordinates (0, 0) and the detection block size in the representative point matching method is 1 × 1, the correlation value corresponding to the position (i, j) E (i, j) is represented by Formula (B-4). Correlation values E (i, j) are obtained for (i, j) = (0,0), (0,1),... (2,2), and a total of nine correlations are obtained. Among the values E (0,0) to E (2,2), the minimum correlation value is specified. If this minimum correlation value is represented by E (i O , j O ), the amount of positional deviation between the first and second observation images in integer precision is determined by i O and j O.

位置ずれ量の小数点部分は、最小の相関値E(iO,jO)を与える画素の上下左右の画素に対する相関値及び相関値E(iO,jO)に基づき、例えば図31に示すような放物線近似を利用して算出する。例えば、iO=1且つjO=1である場合、位置ずれ量の小数点部分の行方向成分iSUB及び列方向成分jSUBは、下記式(B−5)及び(B−6)に従って求められる。但し、線形近似を用いる等、公知の任意の方法を用いて小数点部分の位置ずれ量を導出するようにしても構わない。 Decimal portion of the positional deviation amount on the basis of the minimum correlation value E (i O, j O) correlation values and correlation values E for vertical and horizontal pixels of the pixel which gives a (i O, j O), shown in FIG. 31 for example It calculates using such parabolic approximation. For example, when i O = 1 and j O = 1, the row direction component i SUB and the column direction component j SUB of the decimal point portion of the misregistration amount are obtained according to the following formulas (B-5) and (B-6). It is done. However, the positional deviation amount of the decimal point portion may be derived using any known method such as linear approximation.

最終的に第1及び第2の観測画像間の位置ずれ量は、iO及びjOとiSUB及びjSUBとによって表現されることとなる。つまり、その位置ずれ量の行方向成分及び列方向成分(換言すれば、垂直成分及び水平成分)は、夫々、(iO+iSUB)及び(jO+jSUB)で表される。 Finally, the amount of positional deviation between the first and second observation images is expressed by i O and j O and i SUB and j SUB . That is, the row-direction component and the column-direction component (in other words, the vertical component and the horizontal component) of the positional deviation amount are represented by (i O + i SUB ) and (j O + j SUB ), respectively.

[初期高解像度画像の生成方法]
初期高解像度画像H0は、線形補間やバイキュービック補間を用い、基準画像としての第1の観測画像から生成する。例えば、y1(0,0)=x0(0,0)とし、線形補間を用いて第1の観測画像を2倍の拡大率にて拡大することで初期高解像度画像H0を生成する場合、図32の星型マークで表された、画像H0内の座標(1,3)における画素値x0(1,3)は、下記式(B−7)に従って算出される。
[Method for generating initial high-resolution image]
The initial high-resolution image H 0 is generated from the first observation image as the reference image using linear interpolation or bicubic interpolation. For example, y 1 (0,0) = x 0 (0,0) is set, and an initial high-resolution image H 0 is generated by enlarging the first observed image at a magnification of 2 using linear interpolation. In this case, the pixel value x 0 (1,3) at the coordinates (1,3) in the image H 0 represented by the star mark in FIG. 32 is calculated according to the following formula (B-7).

[推定低解像度画像及び差分画像の生成方法]
図4等の超解像処理部57にて実行される超解像演算処理では、高解像度画像に行列Wkを作用させることによって低解像度画像(上述の推定低解像度画像)を再構成する(図8参照)。行列Wkは、上述したように、位置ずれ検出部54で算出した位置ずれ量、高解像度画像から低解像度画像への低解像度化によって生じる画像ぼけを表す点広がり関数(Point Spread Function)、及び、高解像度画像から低解像度画像へのダウンサンプリングを含めた画像変換行列である。この行列Wkに含められる点広がり関数として、例えば、下記式(B−8)で表されるガウス関数PSFk(i,j)が用いられる。
[Method of generating estimated low-resolution image and difference image]
In the super-resolution calculation process executed by the super-resolution processing unit 57 in FIG. 4 and the like, the low-resolution image (the above-described estimated low-resolution image) is reconstructed by applying the matrix W k to the high-resolution image ( (See FIG. 8). As described above, the matrix W k is the amount of misregistration calculated by the misregistration detection unit 54, a point spread function (Point Spread Function) representing image blur caused by the reduction in resolution from a high resolution image to a low resolution image, and An image conversion matrix including downsampling from a high resolution image to a low resolution image. As the point spread function included in the matrix W k , for example, a Gaussian function PSF k (i, j) represented by the following formula (B-8) is used.

ここで、vk x及びvk yは、高解像度画像に対する第kの観測画像の位置ずれ量の小数点部分を表し、vk x及びvk yは、夫々、その位置ずれ量の行方向成分及び列方向成分の小数点部分である。但し、vk x及びvk yは、高解像度画像上の値として表現される。即ち例えば、高解像度画像上における、0.5画素分の行方向成分の位置ずれをvk x=0.5で表す。 Here, v k x and v k y represent the decimal part of the positional deviation amount of the k-th observation image with respect to the high-resolution image, and v k x and v k y are the row direction components of the positional deviation amount, respectively. And the decimal part of the column direction component. However, v k x and v k y are expressed as values on the high-resolution image. That is, for example, the position shift of the row direction component for 0.5 pixels on the high resolution image is represented by v k x = 0.5.

x及びsyは、高解像度画像から推定低解像度画像を生成する時に高解像度画像に作用させる空間フィルタの大きさ(フィルタ台の大きさ)を表す。sx及びsyは、整数値をとる。今の例において、sx=sy=2とされる。vk x又はvk yの値が小数部を含まないときは、その空間フィルタの行方向及び列方向のタップ数は夫々(2sx+1)及び(2sy+1)とされ、vk x又はvk yの値が小数部を含むときは、その空間フィルタの行方向及び列方向のタップ数は夫々3sx及び3syとされる。また、σ2は、ガウス関数における分散を表す。 s x and s y represent the size of the spatial filter (the size of the filter stage) that acts on the high resolution image when generating the estimated low resolution image from the high resolution image. s x and s y take integer values. In the present example, s x = s y = 2. When the value of v k x or v k y does not include a fractional part, the number of taps in the row direction and column direction of the spatial filter is (2s x +1) and (2s y +1), respectively, and v k x or When the value of v k y includes a fractional part, the number of taps in the row direction and column direction of the spatial filter is 3s x and 3s y , respectively. Σ 2 represents the variance in the Gaussian function.

例として、高解像度画像に対する第1及び第2の観測画像の位置ずれ量の整数部分がゼロであって且つv1 x=0、v1 y=0、v2 x=0.5、v2 y=0.5である場合において、高解像度画像から第1及び第2の推定低解像度画像の座標(1,1)の画素を生成することを考える。 As an example, the integer part of the positional deviation amount of the first and second observation images with respect to the high-resolution image is zero and v 1 x = 0, v 1 y = 0, v 2 x = 0.5, v 2 Consider that the pixel at the coordinates (1, 1) of the first and second estimated low-resolution images is generated from the high-resolution image when y = 0.5.

この場合、第1の推定低解像度画像に関しては、v1 x=0且つv1 y=0であるため、高解像度画像に作用させる空間フィルタの行方向及び列方向におけるタップ数は共に5(=2×2+1)とされる。図33(a)の正方形411は、第1の推定低解像度画像内における座標(1,1)の画素412を生成するために高解像度画像に作用させるべき空間フィルタのフィルタ台(フィルタのインパルス応答がゼロでない範囲)を示している。再構成によって画素412を生成するために、フィルタ台411内に位置する、高解像度画像の25画素(即ち、座標(0,0)〜(4,4)の画素)の画素値が参照されることになる。図33(a)の下側に、この25画素に作用させる行列W1における点広がり関数(低解像度画像を基準とした点広がり関数)を示す。 In this case, since v 1 x = 0 and v 1 y = 0 for the first estimated low resolution image, the number of taps in the row direction and the column direction of the spatial filter applied to the high resolution image is 5 (= 2 × 2 + 1). A square 411 in FIG. 33 (a) is a filter stage (filter impulse response of the filter) to be applied to the high-resolution image to generate the pixel 412 having the coordinates (1, 1) in the first estimated low-resolution image. Is a non-zero range). In order to generate the pixel 412 by reconstruction, the pixel values of the 25 pixels (that is, the pixels at coordinates (0,0) to (4,4)) of the high resolution image located in the filter base 411 are referred to. It will be. The lower part of FIG. 33A shows a point spread function (point spread function based on a low-resolution image) in the matrix W 1 that acts on the 25 pixels.

また、第2の推定低解像度画像に関しては、v2 x=0.5且つv2 y=0.5であるため、高解像度画像に作用させる空間フィルタの行方向及び列方向におけるタップ数は共に6(=3×2)とされる。図33(b)の正方形421は、第2の推定低解像度画像内における座標(1,1)の画素422を生成するために高解像度画像に作用させるべき空間フィルタのフィルタ台を示している。再構成によって画素422を生成するために、フィルタ台421内に位置する、高解像度画像の36画素(即ち、座標(0,0)〜(5,5)の画素)の画素値が参照されることになる。図33(b)の下側に、この36画素に作用させる行列W2における点広がり関数(低解像度画像を基準とした点広がり関数)を示す。 For the second estimated low-resolution image, since v 2 x = 0.5 and v 2 y = 0.5, the number of taps in the row direction and the column direction of the spatial filter applied to the high-resolution image is both 6 (= 3 × 2). A square 421 in FIG. 33B indicates a filter stage of a spatial filter that should be applied to the high-resolution image in order to generate the pixel 422 at the coordinate (1, 1) in the second estimated low-resolution image. In order to generate the pixel 422 by reconstruction, the pixel values of 36 pixels (that is, pixels of coordinates (0,0) to (5,5)) of the high resolution image located in the filter base 421 are referred to. It will be. The lower part of FIG. 33B shows a point spread function (point spread function based on a low-resolution image) in the matrix W 2 that acts on the 36 pixels.

knは、高解像度画像Hnから再構成された第kの推定低解像度画像を行列表現したものであり、下記式(B−9)によって表される。図34に、行列W1の例を示す。今の例の場合、行列W1は9×36の行列となる。そして、第kの観測画像の各画素値から第kの推定低解像度画像の各画素値を差し引くことによって第kの差分画像が生成される(図8参照)。第kの差分画像を表す行列(yk−Wkn)は、下記式(B−10)によって表される。 W k xn is a matrix representation of the k-th estimated low-resolution image reconstructed from the high-resolution image H n , and is represented by the following equation (B-9). FIG. 34 shows an example of the matrix W 1 . In the present example, the matrix W 1 is a 9 × 36 matrix. Then, a kth difference image is generated by subtracting each pixel value of the kth estimated low resolution image from each pixel value of the kth observation image (see FIG. 8). A matrix (y k −W k x n ) representing the kth difference image is represented by the following equation (B-10).

[差分画像に基づく高解像度画像の更新]
各低解像度画像に対する差分画像が得られた後、各差分画像を高解像度画像の座標面上にフィードバックすることで高解像度画像を更新する。
[Updating high-resolution images based on difference images]
After the difference image for each low-resolution image is obtained, the high-resolution image is updated by feeding back each difference image onto the coordinate plane of the high-resolution image.

例えば、図35に示す如く、高解像度画像上の座標(2,3)の画素432にフィードバックされる、第1の差分画像内の画素は四角枠431内の6画素(黒四角の画素)であり、画素432にフィードバックされる、第2の差分画像内の画素は四角枠431内の9画素(黒三角の画素)である。但し、上述したように、高解像度画像に対する第1及び第2の観測画像の位置ずれ量の整数部分がゼロであって且つv1 x=0、v1 y=0、v2 x=0.5、v2 y=0.5であるものとする。 For example, as shown in FIG. 35, the pixels in the first difference image fed back to the pixel 432 at the coordinates (2, 3) on the high resolution image are 6 pixels (black square pixels) in the square frame 431. Yes, the pixels in the second difference image fed back to the pixel 432 are 9 pixels (black triangular pixels) in the square frame 431. However, as described above, the integer part of the positional deviation amount of the first and second observation images with respect to the high-resolution image is zero and v 1 x = 0, v 1 y = 0, v 2 x = 0. 5. Let v 2 y = 0.5.

画素432に対応するフィードバック値error(2,3)は、下記式(B−11)にて表されることとなる。ここで、PSF1(0,1)等の値は上記式(B−8)に従う。図36(a)及び(b)に、error(2,3)を算出する時に使用される転置行列W1 T及びW2 Tにおける点広がり関数(高解像度画像を基準とした点広がり関数)を示す。 The feedback value error (2, 3) corresponding to the pixel 432 is expressed by the following formula (B-11). Here, values such as PSF 1 (0, 1) follow the above formula (B-8). 36 (a) and 36 (b) show point spread functions (point spread functions based on high-resolution images) in the transposed matrices W 1 T and W 2 T used when calculating error (2, 3). Show.

フィードバック値は高解像度画像を形成する各画素に対して求められる。求められた全フィードバック値を表す行列errorは、下記式(B−12)に示す如く、第kの差分画像を表す行列(yk−Wkn)とWkの転置行列との積和演算によって求められる。尚、図37に、図34の行列W1の転置行列を示す。行列errorが求められた後、式(B−13)に従って行列xnを更新して行列xn+1を生成する。即ち、高解像度画像Hnを更新して高解像度画像Hn+1を生成する。式(B−13)は、第1実施例で述べた式(A−1)と等価である。 A feedback value is obtained for each pixel forming the high resolution image. The matrix error representing all the obtained feedback values is the sum of products of the matrix (y k −W k x n ) representing the kth difference image and the transposed matrix of W k as shown in the following formula (B-12). Calculated by calculation. FIG. 37 shows a transposed matrix of the matrix W 1 in FIG. After the matrix error is obtained, the matrix x n is updated according to the equation (B-13) to generate the matrix x n + 1 . That is, the high resolution image H n is updated to generate the high resolution image H n + 1 . Formula (B-13) is equivalent to Formula (A-1) described in the first embodiment.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈6を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 6 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
2枚、3枚又は4枚の低解像度画像から1枚の高解像度画像を生成する例を上述したが、高解像度画像を生成するための低解像度画像の枚数は2以上であれば何枚でも良い。
[Note 1]
Although an example of generating one high-resolution image from two, three, or four low-resolution images has been described above, any number of low-resolution images for generating a high-resolution image can be used as long as the number is two or more. good.

[注釈2]
上述の実施形態では、超解像処理として再構成型方式の一種であるMAP方式を用いた超解像処理を例示したが、本発明にて利用可能な超解像処理はどのような方式の超解像処理であっても構わない。上述の実施形態では、初期高解像度画像を生成した後、更新量の算出及び該更新量による高解像度画像の更新を含む超解像演算処理を繰り返し実行しているが、この超解像演算処理の繰り返しは必須ではなく、1回だけ超解像演算処理を行って得た高解像度画像H1を最終的に求めるべき高解像度画像として取り扱うことも可能である。
[Note 2]
In the above-described embodiment, the super-resolution processing using the MAP method, which is a kind of reconstruction method, is exemplified as the super-resolution processing. However, what kind of super-resolution processing can be used in the present invention? Super-resolution processing may be used. In the above-described embodiment, after the initial high-resolution image is generated, the super-resolution calculation process including the calculation of the update amount and the update of the high-resolution image based on the update amount is repeatedly performed. The repetition of is not essential, and the high-resolution image H 1 obtained by performing the super-resolution calculation process only once can be handled as a high-resolution image to be finally obtained.

[注釈3]
上述の各実施例において、基準画像の選択に用いる様々な指標を個別に説明した。例えば、この指標として、第1〜第3実施例では低解像度画像のぼけ量を用い、第4実施例ではセンサ検出データを用い、第5実施例では画像上における主要被写体の大きさを用い、第6実施例では顔領域内の顔の状態(眼の開閉状態や顔の表情)を用いている。
[Note 3]
In each of the above-described embodiments, various indexes used for selecting the reference image have been individually described. For example, as the index, the blur amount of the low resolution image is used in the first to third embodiments, the sensor detection data is used in the fourth embodiment, and the size of the main subject on the image is used in the fifth embodiment. In the sixth embodiment, the state of the face in the face area (opening / closing state of eyes and facial expression) is used.

これらの様々な指標の内、任意の2以上の指標を組み合わせて用いて基準画像の選択を行うことも可能である。例えば、ぼけ量と顔領域内の顔の状態とに基づいて基準画像の選択を行うようにしても良い。より具体的には例えば、瞬き検出処理により眼が開いていると判断された観測低解像度画像が複数ある場合、眼が開いていると判断された複数の観測低解像度画像の内、ぼけ量が最も少ない観測低解像度画像を基準画像に設定するようにしてもよい。ぼけ量と顔領域内の顔の状態とに基づいて基準画像の選択を行う方法は、当然、ぼけ量に基づいて基準画像の選択を行う方法でもあるし、顔領域内の顔の状態に基づいて基準画像の選択を行う方法でもある。   It is also possible to select a reference image using a combination of any two or more of these various indexes. For example, the reference image may be selected based on the amount of blur and the state of the face in the face area. More specifically, for example, when there are a plurality of observed low-resolution images determined to have eyes open by blink detection processing, the amount of blur among the plurality of observed low-resolution images determined to have eyes open The smallest observed low resolution image may be set as the reference image. The method of selecting the reference image based on the amount of blur and the state of the face in the face region is naturally also a method of selecting the reference image based on the amount of blur, and based on the state of the face in the face region. This is also a method of selecting a reference image.

[注釈4]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図4、図17、図21、図24又は図28の超解像部50、50a、50b、50c又は50d内で実行される演算処理の一部又は全部を、ソフトウェアを用いて実現することも可能である。勿論、超解像部50、50a、50b、50c又は50dをハードウェアのみで形成することも可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 4]
The imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, a part or all of the arithmetic processing executed in the super-resolution unit 50, 50a, 50b, 50c, or 50d in FIG. 4, FIG. 17, FIG. 21, FIG. 24, or FIG. It is also possible. Of course, it is possible to form the super-resolution section 50, 50a, 50b, 50c or 50d only by hardware. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

[注釈5]
超解像部50、50a、50b、50c又は50dの機能を撮像装置1と異なる外部機器(例えば、パーソナルコンピュータ;不図示)にて実現することも可能である。この場合、その外部機器内に超解像部50、50a、50b、50c又は50dと同等の超解像部を設けるようにし、撮像装置1にて複数の低解像度画像を取得した後、その複数の低解像度画像の画像情報を無線又は有線にて或いは記録媒体を介して上記外部機器に供給すればよい。
[Note 5]
The functions of the super-resolution unit 50, 50a, 50b, 50c, or 50d can be realized by an external device (for example, a personal computer; not shown) different from the imaging device 1. In this case, a super-resolution unit equivalent to the super-resolution unit 50, 50a, 50b, 50c, or 50d is provided in the external device, and a plurality of low-resolution images are acquired by the imaging device 1, and then the plurality of The image information of the low-resolution image may be supplied to the external device wirelessly or by wire or via a recording medium.

[注釈6]
例えば、以下のように考えることができる。超解像部50、50a、50b、50c又は50dを、画像処理装置と呼ぶこともできる。超解像処理部57は、高解像度画像生成手段として機能する。この高解像度画像生成手段に、生成部55が含まれていると考えることもできる。
[Note 6]
For example, it can be considered as follows. The super-resolution unit 50, 50a, 50b, 50c, or 50d can also be called an image processing apparatus. The super-resolution processing unit 57 functions as a high-resolution image generation unit. It can be considered that the generation unit 55 is included in the high-resolution image generation means.

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. MAP方式を用いた超解像処理の概念図である。It is a conceptual diagram of the super-resolution process using a MAP system. 本発明の実施形態に係る超解像処理の流れを表すフローチャートである。It is a flowchart showing the flow of the super-resolution process which concerns on embodiment of this invention. 本発明の第1実施例に係る超解像処理を担う超解像部の内部ブロック図である。It is an internal block diagram of the super-resolution part which bears the super-resolution process based on 1st Example of this invention. 図4の各部位の動作の流れを時系列的に示した図である。It is the figure which showed the flow of operation | movement of each site | part of FIG. 4 in time series. 本発明の第1実施例に係るぼけ量推定部の内部ブロック図である。It is an internal block diagram of the blur amount estimation part which concerns on 1st Example of this invention. 図6のハイパスフィルタ(HPF)の例としてのラプラシアンフィルタを表す図である。It is a figure showing the Laplacian filter as an example of the high pass filter (HPF) of FIG. 図4の超解像処理部の内部ブロック図である。FIG. 5 is an internal block diagram of a super-resolution processing unit in FIG. 4. 本発明の第1実施例に係る実験内容を説明する図であって、実験で用いたぼけ量の大きい画像(a)とぼけ量の小さい画像(b)を示す図である。It is a figure explaining the experiment content concerning 1st Example of this invention, Comprising: It is a figure which shows the image (a) with large blur amount used in experiment, and the image (b) with small blur amount. 図9(a)及び(b)の各画像の高域抽出画像を示す図である。It is a figure which shows the high region extraction image of each image of Fig.9 (a) and (b). 本発明の第1実施例の実験に係り、超解像演算処理の反復回数と、実験によって得た高解像度画像と理想的な高解像度画像とのPSNRと、の関係を示す図である。It is a figure which shows the relationship between the repetition frequency of super-resolution calculation processing, and PSNR of the high resolution image obtained by experiment, and an ideal high resolution image in connection with experiment of 1st Example of this invention. 本発明の第1実施例に係り、画像データの読み書きタイミングについて特に着目した、超解像処理の動作の流れを表すフローチャートである。6 is a flowchart illustrating the flow of super-resolution processing according to the first embodiment of the present invention, with special attention paid to the read / write timing of image data. 本発明の第2実施例に係り、位置ずれ量の大きさの変化の様子を示す図である。It is a figure which shows the mode of the magnitude | size change of the magnitude | size of position shift amount concerning 2nd Example of this invention. 本発明の第2実施例に係り、位置ずれ量の大きさの変化の様子を示す図である。It is a figure which shows the mode of the magnitude | size change of the magnitude | size of position shift amount concerning 2nd Example of this invention. 本発明の第3実施例に係るぶれ量推定方法を説明するための図であって、ぼけの小さい画像(a)とぼけの大きい画像(b)を示す図である。It is a figure for demonstrating the blurring amount estimation method which concerns on 3rd Example of this invention, Comprising: It is a figure which shows an image (a) with small blur, and an image (b) with large blur. 図15(a)及び(b)に示された各画像の輝度ヒストグラムを示す図である。It is a figure which shows the brightness | luminance histogram of each image shown by Fig.15 (a) and (b). 本発明の第4実施例に係る超解像処理を担う超解像部の内部ブロック図である。It is an internal block diagram of the super-resolution part which bears the super-resolution process based on 4th Example of this invention. 本発明の第4実施例に係る撮像装置に設けられたセンサ部の内部ブロック図である。It is an internal block diagram of the sensor part provided in the imaging device which concerns on 4th Example of this invention. 図18のセンサ部によって検出された、撮像装置のぶれの大きさを表す図である。It is a figure showing the magnitude | size of the blur of an imaging device detected by the sensor part of FIG. 画像情報が画像データとセンサ検出データを含むことを明示した図である。It is the figure which specified that image information contains image data and sensor detection data. 本発明の第5実施例に係る超解像処理を担う超解像部の内部ブロック図である。It is an internal block diagram of the super-resolution part which bears the super-resolution process based on 5th Example of this invention. 本発明の第5実施例に係る3枚の観測低解像度画像の第1例を示す図である。It is a figure which shows the 1st example of the three observation low-resolution images which concern on 5th Example of this invention. 本発明の第5実施例に係る3枚の観測低解像度画像の第2例を示す図である。It is a figure which shows the 2nd example of the three observation low-resolution images which concern on 5th Example of this invention. 本発明の第6実施例に係る超解像処理を担う超解像部の内部ブロック図である。It is an internal block diagram of the super-resolution part which bears the super-resolution process based on 6th Example of this invention. 図1の撮像部の内部構成図である。It is an internal block diagram of the imaging part of FIG. 図1の映像信号処理部内に設けられるAF評価部の内部ブロック図である。FIG. 2 is an internal block diagram of an AF evaluation unit provided in the video signal processing unit of FIG. 1. 図26のAF評価部によってフレーム画像内に定義されるAF評価領域と、AF評価値算出の際に設定される重み付け係数を表す図である。FIG. 27 is a diagram illustrating an AF evaluation area defined in a frame image by an AF evaluation unit in FIG. 26 and a weighting coefficient set when calculating an AF evaluation value. 本発明の第7実施例に係る超解像処理を担う超解像部の内部ブロック図である。It is an internal block diagram of the super-resolution part which bears the super-resolution process based on 7th Example of this invention. 本発明の第7実施例に係る3枚の観測低解像度画像の例を示す図である。It is a figure which shows the example of the three observation low-resolution images which concern on 7th Example of this invention. 本発明の第8実施例に係り、第1及び第2の観測低解像度画像の画素配列と高解像度画像の画素配列を示す図である。It is a figure which concerns on 8th Example of this invention and shows the pixel arrangement | sequence of the 1st and 2nd observation low resolution image, and the pixel arrangement | sequence of a high resolution image. 本発明の第8実施例に係り、放物線近似によって位置ずれ量がサブピクセル精度で算出される様子を示す図である。It is a figure which shows a mode that the amount of position shifts is calculated with a subpixel precision by parabola approximation in connection with 8th Example of this invention. 本発明の第8実施例に係り、第1の観測低解像度画像から初期高解像度画像が生成される様子を示す図である。It is a figure which shows a mode that an initial stage high resolution image is produced | generated from the 1st observation low resolution image concerning 8th Example of this invention. 本発明の第8実施例に係り、高解像度画像から低解像度画像を再構成するために、高解像度画像に空間フィルタを作用させる様子を示す図である。FIG. 20 is a diagram illustrating a state in which a spatial filter is applied to a high resolution image in order to reconstruct a low resolution image from the high resolution image according to the eighth embodiment of the present invention. 本発明の第8実施例に係り、高解像度画像から低解像度画像を再構成するための行列の例を示す図である。FIG. 25 is a diagram illustrating an example of a matrix for reconstructing a low resolution image from a high resolution image according to the eighth embodiment of the present invention. 本発明の第8実施例に係り、更新されるべき高解像度画像の画素配列と、その更新に用いられる低解像度画像の画素配列と、の関係を示す図である。It is a figure which concerns on 8th Example of this invention and shows the relationship between the pixel arrangement | sequence of the high resolution image which should be updated, and the pixel arrangement | sequence of the low resolution image used for the update. 本発明の第8実施例に係り、フィードバック値を算出する時に使用される転置行列W1 T及びW2 Tにおける点広がり関数を示す図である。It relates to the eighth embodiment of the present invention, showing a point spread function in the transposed matrix W 1 T and W 2 T, which is used when calculating the feedback value. 図34の行列の転置行列を示す図である。It is a figure which shows the transposed matrix of the matrix of FIG.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
13 映像信号処理部
23 CPU
50、50a、50b、50c、50d 超解像部
51 選択部
52 ぼけ量推定部
53、53a、53b、53c、53d 基準画像設定部
54 位置ずれ検出部
55 初期高解像度画像生成部
56 選択部
57 超解像処理部
75 センサ部
76 被写体サイズ検出部
77 顔状態検出部
80 AF評価部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 13 Video signal processing part 23 CPU
50, 50a, 50b, 50c, 50d Super-resolution unit 51 Selection unit 52 Blur amount estimation unit 53, 53a, 53b, 53c, 53d Reference image setting unit 54 Position shift detection unit 55 Initial high-resolution image generation unit 56 Selection unit 57 Super-resolution processing unit 75 Sensor unit 76 Subject size detection unit 77 Face state detection unit 80 AF evaluation unit

Claims (15)

複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理装置において、
前記複数の低解像度画像の画像情報に基づいて前記複数の低解像度画像の中から基準画像を選択する基準画像設定手段を備え、
前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成する
ことを特徴とする画像処理装置。
In an image processing apparatus that generates a high-resolution image having a resolution higher than the resolution of the low-resolution image from a plurality of low-resolution images,
A reference image setting means for selecting a reference image from the plurality of low resolution images based on image information of the plurality of low resolution images;
An image processing apparatus that generates the high-resolution image by executing a high-resolution process for increasing the resolution with respect to the plurality of low-resolution images on the basis of the reference image.
前記画像情報に基づいて各低解像度画像に含まれるぼけの大きさを推定するぼけ量推定手段を更に備え、
前記基準画像設定手段は、前記ぼけ量推定手段の推定結果に基づいて前記基準画像を選択する
ことを特徴とする請求項1に記載の画像処理装置。
A blur amount estimating means for estimating the size of blur included in each low-resolution image based on the image information;
The image processing apparatus according to claim 1, wherein the reference image setting unit selects the reference image based on an estimation result of the blur amount estimation unit.
前記ぼけ量推定手段は、各低解像度画像における高域周波数成分の量に基づいて、各低解像度画像に含まれるぼけの大きさを推定する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the blur amount estimation unit estimates a blur size included in each low resolution image based on an amount of a high frequency component in each low resolution image. .
前記複数の低解像度画像は、撮像装置による順次撮影にて得られた時系列に並ぶ低解像度画像列を形成し、
前記ぼけ量推定手段は、前記低解像度画像列中の時間的に隣接する低解像度画像間の位置ずれ量に基づいて前記低解像度画像列の撮影期間中における前記撮像装置のぶれの状態を検出し、前記ぶれの状態の検出結果から、前記複数の低解像度画像間における、前記ぼけの大きさの大小関係を推定する
ことを特徴とする請求項2に記載の画像処理装置。
The plurality of low-resolution images form a low-resolution image sequence arranged in time series obtained by sequential shooting by an imaging device,
The blur amount estimation means detects a blurring state of the imaging device during a shooting period of the low resolution image sequence based on a positional deviation amount between temporally adjacent low resolution images in the low resolution image sequence. The image processing apparatus according to claim 2, wherein a size relationship between the blur sizes between the plurality of low-resolution images is estimated from a detection result of the blur state.
前記基準画像設定手段は、前記複数の低解像度画像の内、推定されたぼけの大きさが最も小さい低解像度画像を前記基準画像として選択する
ことを特徴とする請求項2〜請求項4の何れかに記載の画像処理装置。
The reference image setting means selects a low resolution image having the smallest estimated blur size as the reference image from the plurality of low resolution images. An image processing apparatus according to claim 1.
各低解像度画像は撮像装置の撮影によって得られ、
前記画像情報は、各低解像度画像の露光期間中における前記撮像装置のぶれの状態を検出するセンサの検出データを含み、
前記基準画像設定手段は、前記センサの検出データに基づいて前記基準画像を選択する
ことを特徴とする請求項1に記載の画像処理装置。
Each low-resolution image is obtained by shooting with an imaging device,
The image information includes detection data of a sensor that detects a blurring state of the imaging device during an exposure period of each low-resolution image,
The image processing apparatus according to claim 1, wherein the reference image setting unit selects the reference image based on detection data of the sensor.
前記基準画像設定手段は、前記複数の低解像度画像の内、露光期間中における前記撮像装置のぶれの大きさが最も小さい低解像度画像を前記基準画像として選択する
ことを特徴とする請求項6に記載の画像処理装置。
The reference image setting unit selects, as the reference image, a low-resolution image having the smallest blurring of the imaging device during an exposure period among the plurality of low-resolution images. The image processing apparatus described.
前記画像情報に基づいて、各低解像度画像に含まれる特定被写体の、画像上の大きさを検出する被写体サイズ検出手段を更に備え、
前記基準画像設定手段は、検出された前記特定被写体の大きさに基づいて前記基準画像を選択する
ことを特徴とする請求項1に記載の画像処理装置。
Subject size detection means for detecting the size of the specific subject included in each low-resolution image on the image based on the image information,
The image processing apparatus according to claim 1, wherein the reference image setting unit selects the reference image based on the detected size of the specific subject.
前記画像情報に基づいて各低解像度画像の中から人物の顔を検出するとともに前記顔の状態を検出する顔状態検出手段を更に備え、
前記基準画像設定手段は、前記顔状態検出手段の検出結果に基づいて前記基準画像を選択する
ことを特徴とする請求項1に記載の画像処理装置。
A face state detecting means for detecting a face of the person from each low-resolution image based on the image information and detecting the face state;
The image processing apparatus according to claim 1, wherein the reference image setting unit selects the reference image based on a detection result of the face state detection unit.
前記基準画像設定手段は、前記複数の低解像度画像の内の、前記基準画像以外の低解像度画像を参照画像として設定し、
当該画像処理装置は、
前記基準画像と前記参照画像との間の位置ずれ量を前記基準画像の画素間隔よりも高い分解能で求める位置ずれ検出手段と、
求められた位置ずれ量と前記複数の低解像度画像を用い、前記基準画像を基準として前記高解像度化処理を行うことにより前記高解像度画像を生成する高解像度画像生成手段と、を更に備えた
ことを特徴とする請求項1〜請求項9の何れかに記載の画像処理装置。
The standard image setting means sets a low resolution image other than the standard image among the plurality of low resolution images as a reference image,
The image processing apparatus
A displacement detection means for obtaining a displacement amount between the reference image and the reference image with a resolution higher than a pixel interval of the reference image;
A high-resolution image generation unit configured to generate the high-resolution image by performing the high-resolution processing using the obtained positional deviation amount and the plurality of low-resolution images as a reference, based on the reference image; The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
順次撮影によって時系列に並ぶ複数の低解像度画像を取得する撮像手段と、
前記複数の低解像度画像に対する高解像度化処理によって高解像度画像を生成する、請求項1〜請求項10の何れかに記載の画像処理装置と、を備えた
ことを特徴とする撮像装置。
Imaging means for acquiring a plurality of low resolution images arranged in time series by sequential shooting;
An image processing apparatus comprising: the image processing apparatus according to claim 1, wherein the image processing apparatus generates a high resolution image by performing high resolution processing on the plurality of low resolution images.
撮像素子及び被写体に応じた光学像を前記撮像素子上に結像させるための光学系を有して撮影によって撮影画像を得る撮像手段と、前記撮影画像内に設けられた焦点評価領域の映像信号に基づいて焦点評価値を導出する焦点評価値導出手段とを備え、前記焦点評価値に基づいて前記光学系を駆動制御してオートフォーカス制御を行う撮像装置において、
前記撮像手段から得た複数の撮影画像を複数の低解像度画像として参照して、前記複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理装置を更に備え、
前記画像処理装置は、各低解像度画像に対して導出された前記合焦評価値に基づいて前記複数の低解像度画像の中から基準画像を選択する基準画像設定手段を有し、前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成する
ことを特徴とする撮像装置。
An image pickup means having an optical system for forming an optical image corresponding to the image pickup element and the subject on the image pickup element and obtaining a shot image by shooting, and a video signal of a focus evaluation area provided in the shot image A focus evaluation value deriving means for deriving a focus evaluation value based on the imaging evaluation device, and performing an autofocus control by driving the optical system based on the focus evaluation value.
An image processing device that generates a high-resolution image having a resolution higher than the resolution of the low-resolution image from the plurality of low-resolution images by referring to the plurality of captured images obtained from the imaging unit as a plurality of low-resolution images. In addition,
The image processing apparatus includes reference image setting means for selecting a reference image from the plurality of low resolution images based on the focus evaluation value derived for each low resolution image, and the reference image is An imaging apparatus characterized by generating the high-resolution image by executing, on a basis, a resolution enhancement process for increasing the resolution for the plurality of low-resolution images.
前記オートフォーカス制御では、前記焦点評価値が極大値をとるように前記光学系が駆動制御され、
前記基準画像設定手段は、前記複数の低解像度画像の内、最大の合焦評価値に対応する低解像度画像を前記基準画像として選択する
ことを特徴とする請求項12に記載の撮像装置。
In the autofocus control, the optical system is driven and controlled so that the focus evaluation value takes a maximum value,
13. The imaging apparatus according to claim 12, wherein the reference image setting unit selects a low resolution image corresponding to a maximum focus evaluation value among the plurality of low resolution images as the reference image.
前記基準画像設定手段は、前記複数の低解像度画像の内の、前記基準画像以外の低解像度画像を参照画像として設定し、
前記画像処理装置は、
前記基準画像と前記参照画像との間の位置ずれ量を前記基準画像の画素間隔よりも高い分解能で求める位置ずれ検出手段と、
求められた位置ずれ量と前記複数の低解像度画像を用い、前記基準画像を基準として前記高解像度化処理を行うことにより前記高解像度画像を生成する高解像度画像生成手段と、を更に備えた
ことを特徴とする請求項12又は請求項13に記載の撮像装置。
The standard image setting means sets a low resolution image other than the standard image among the plurality of low resolution images as a reference image,
The image processing apparatus includes:
A displacement detection means for obtaining a displacement amount between the reference image and the reference image with a resolution higher than a pixel interval of the reference image;
A high-resolution image generation unit configured to generate the high-resolution image by performing the high-resolution processing using the obtained positional deviation amount and the plurality of low-resolution images as a reference, based on the reference image; The imaging device according to claim 12 or 13,
複数の低解像度画像から前記低解像度画像の解像度よりも高い解像度を有する高解像度画像を生成する画像処理方法において、
前記複数の低解像度画像の画像情報に基づいて前記複数の低解像度画像の中から基準画像を選択し、
前記基準画像を基準として、解像度を増大させる高解像度化処理を前記複数の低解像度画像に対して実行することにより前記高解像度画像を生成する
ことを特徴とする画像処理方法。
In an image processing method for generating a high-resolution image having a resolution higher than the resolution of the low-resolution image from a plurality of low-resolution images,
Selecting a reference image from the plurality of low resolution images based on image information of the plurality of low resolution images;
An image processing method comprising: generating a high-resolution image by executing, on the plurality of low-resolution images, a high-resolution process that increases resolution with reference to the reference image.
JP2008306297A 2008-01-18 2008-12-01 Image processing device and method, and imaging apparatus Pending JP2009194896A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008306297A JP2009194896A (en) 2008-01-18 2008-12-01 Image processing device and method, and imaging apparatus
US12/353,447 US8315474B2 (en) 2008-01-18 2009-01-14 Image processing device and method, and image sensing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008009242 2008-01-18
JP2008306297A JP2009194896A (en) 2008-01-18 2008-12-01 Image processing device and method, and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009194896A true JP2009194896A (en) 2009-08-27

Family

ID=40891097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008306297A Pending JP2009194896A (en) 2008-01-18 2008-12-01 Image processing device and method, and imaging apparatus

Country Status (2)

Country Link
JP (1) JP2009194896A (en)
CN (1) CN101488216A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003584A (en) * 2010-06-18 2012-01-05 Hoya Corp Moving image emphasis processing system and method
JP2012003503A (en) * 2010-06-16 2012-01-05 Canon Inc Image processing device, method for controlling the same, and program
WO2012018282A1 (en) * 2010-08-06 2012-02-09 Shmunk Dmitry Valerievich Method for producing super-resolution images and nonlinear digital filter for implementing same
JP2012044510A (en) * 2010-08-20 2012-03-01 Ricoh Co Ltd Imaging device, imaging method and program
JP2012065125A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Imaging device, electronic apparatus, image processing system, and computer readable recording medium
EP2793186A2 (en) 2013-04-15 2014-10-22 Omron Corporation Image processing apparatus, method of controlling image processing apparatus, and non-transitory computer-readable recording medium
US10049432B2 (en) 2014-09-10 2018-08-14 Mitsubishi Electric Corporation Image processing apparatus, image processing method, program and recording medium
JPWO2019176177A1 (en) * 2018-03-16 2021-01-07 ソニー株式会社 Information processing equipment, information processing methods, and programs
CN112639838A (en) * 2018-10-12 2021-04-09 奥林巴斯株式会社 Arithmetic processing device
WO2021220444A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Skin evaluation coefficient learning device, skin evaluation index estimation device, skin evaluation coefficient learning method, skin evaluation index estimation method, focus value acquisition method, and skin smoothness acquisition method

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5339954B2 (en) * 2009-02-17 2013-11-13 キヤノン株式会社 Focus adjustment device and focus adjustment method
JP5505007B2 (en) * 2010-03-18 2014-05-28 富士通株式会社 Image processing apparatus, image processing method, and computer program for image processing
BR112013013356A2 (en) * 2010-12-03 2016-09-13 Sharp Kk image processing device, image processing method and image processing program
CN102186016B (en) * 2011-04-27 2013-03-20 西安电子科技大学 Super-resolution imaging method based on spherical aberration aliasing observation
JP5847228B2 (en) * 2014-04-16 2016-01-20 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
CN104392411B (en) * 2014-12-12 2017-06-16 中国农业大学 Image processing method and device based on Shannon Blackman small echo sparse expressions
JP6719104B2 (en) * 2015-08-28 2020-07-08 パナソニックIpマネジメント株式会社 Image output device, image transmission device, image reception device, image output method, and recording medium
CN105719236B (en) * 2016-01-14 2018-08-14 北京师范大学 The method for generating complete high-resolution vegetation cover degree image seasonal variations sequence
CN106101545B (en) * 2016-06-30 2019-10-15 维沃移动通信有限公司 A kind of image processing method and mobile terminal
WO2018168571A1 (en) * 2017-03-15 2018-09-20 ソニー株式会社 Imaging device, video signal processing device, and video signal processing method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210288A (en) * 2004-01-21 2005-08-04 Fuji Photo Film Co Ltd Imaging device and method, and program
WO2006068292A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method and image processing program
JP2006270238A (en) * 2005-03-22 2006-10-05 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2007013269A (en) * 2005-06-28 2007-01-18 Olympus Corp Imaging apparatus
JP2007074114A (en) * 2005-09-05 2007-03-22 Olympus Imaging Corp Electronic camera
JP2007251626A (en) * 2006-03-16 2007-09-27 Olympus Imaging Corp Camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210288A (en) * 2004-01-21 2005-08-04 Fuji Photo Film Co Ltd Imaging device and method, and program
WO2006068292A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method and image processing program
JP2006270238A (en) * 2005-03-22 2006-10-05 Nikon Corp Image processing apparatus, electronic camera, and image processing program
JP2007013269A (en) * 2005-06-28 2007-01-18 Olympus Corp Imaging apparatus
JP2007074114A (en) * 2005-09-05 2007-03-22 Olympus Imaging Corp Electronic camera
JP2007251626A (en) * 2006-03-16 2007-09-27 Olympus Imaging Corp Camera

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003503A (en) * 2010-06-16 2012-01-05 Canon Inc Image processing device, method for controlling the same, and program
JP2012003584A (en) * 2010-06-18 2012-01-05 Hoya Corp Moving image emphasis processing system and method
US9020302B2 (en) 2010-08-06 2015-04-28 Dmitry Valerievich Shmunk Method for producing super-resolution images and nonlinear digital filter for implementing same
WO2012018282A1 (en) * 2010-08-06 2012-02-09 Shmunk Dmitry Valerievich Method for producing super-resolution images and nonlinear digital filter for implementing same
US20130156345A1 (en) * 2010-08-06 2013-06-20 Dmitry Valerievich Shmunk Method for producing super-resolution images and nonlinear digital filter for implementing same
JP2012044510A (en) * 2010-08-20 2012-03-01 Ricoh Co Ltd Imaging device, imaging method and program
JP2012065125A (en) * 2010-09-15 2012-03-29 Ricoh Co Ltd Imaging device, electronic apparatus, image processing system, and computer readable recording medium
JP2014206926A (en) * 2013-04-15 2014-10-30 オムロン株式会社 Image processor, method for controlling image processor, image processing program and recording medium therefor
EP2793186A2 (en) 2013-04-15 2014-10-22 Omron Corporation Image processing apparatus, method of controlling image processing apparatus, and non-transitory computer-readable recording medium
US9230307B2 (en) 2013-04-15 2016-01-05 Omron Corporation Image processing apparatus and method for generating a high resolution image
US10049432B2 (en) 2014-09-10 2018-08-14 Mitsubishi Electric Corporation Image processing apparatus, image processing method, program and recording medium
JPWO2019176177A1 (en) * 2018-03-16 2021-01-07 ソニー株式会社 Information processing equipment, information processing methods, and programs
JP6996616B2 (en) 2018-03-16 2022-01-17 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
US11379961B2 (en) 2018-03-16 2022-07-05 Sony Corporation Information processing apparatus, information processing method, and program
CN112639838A (en) * 2018-10-12 2021-04-09 奥林巴斯株式会社 Arithmetic processing device
WO2021220444A1 (en) * 2020-04-28 2021-11-04 ソニーグループ株式会社 Skin evaluation coefficient learning device, skin evaluation index estimation device, skin evaluation coefficient learning method, skin evaluation index estimation method, focus value acquisition method, and skin smoothness acquisition method

Also Published As

Publication number Publication date
CN101488216A (en) 2009-07-22

Similar Documents

Publication Publication Date Title
JP2009194896A (en) Image processing device and method, and imaging apparatus
US8315474B2 (en) Image processing device and method, and image sensing apparatus
US9094648B2 (en) Tone mapping for low-light video frame enhancement
US9307212B2 (en) Tone mapping for low-light video frame enhancement
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
US9325918B2 (en) Image processing apparatus, imaging apparatus, solid-state imaging device, image processing method and program
JP5222472B2 (en) Image processing apparatus, image restoration method, and program
JP5319415B2 (en) Image processing apparatus and image processing method
US20100265353A1 (en) Image Processing Device, Image Sensing Device And Image Reproduction Device
US8036481B2 (en) Image processing apparatus and image restoration method and program
EP2560375B1 (en) Image processing device, image capture device, program, and image processing method
WO2011148760A1 (en) Image processing device, image capturing device, program and image processing method
JP2012186593A (en) Image processing system, image processing method, and program
JP6120665B2 (en) Imaging apparatus, image processing apparatus, image processing method, and image processing program
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP4930277B2 (en) Imaging apparatus and computer program therefor
JP2009111596A (en) Imaging apparatus
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
WO2010032649A1 (en) Image display device and imaging apparatus
JP2009237650A (en) Image processor and imaging device
CN114339030B (en) Network live video image stabilizing method based on self-adaptive separable convolution
JP2012235198A (en) Imaging apparatus
JP2013126123A (en) Image processing device, imaging apparatus, and image processing method
JP2009153046A (en) Blur correcting device and method, and imaging apparatus
Yue et al. Hdr video reconstruction with a large dynamic dataset in raw and srgb domains

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130125

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130515

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130605