JP2008306608A - Image processing method, image processing apparatus, and electronic device with the image processing apparatus - Google Patents

Image processing method, image processing apparatus, and electronic device with the image processing apparatus Download PDF

Info

Publication number
JP2008306608A
JP2008306608A JP2007153477A JP2007153477A JP2008306608A JP 2008306608 A JP2008306608 A JP 2008306608A JP 2007153477 A JP2007153477 A JP 2007153477A JP 2007153477 A JP2007153477 A JP 2007153477A JP 2008306608 A JP2008306608 A JP 2008306608A
Authority
JP
Japan
Prior art keywords
resolution
image
low
unit
resolution image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007153477A
Other languages
Japanese (ja)
Inventor
Norikazu Tsunekawa
法和 恒川
Seiji Okada
誠司 岡田
Akihiro Maenaka
章弘 前中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007153477A priority Critical patent/JP2008306608A/en
Publication of JP2008306608A publication Critical patent/JP2008306608A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and image processing apparatus capable of acquiring a high-precision and high-resolution image by performing on a still picture and a moving picture, respectively, super-resolution processing for acquiring a high-resolution image from a low-resolution image. <P>SOLUTION: A high-resolution updating amount calculation section 443 determines a gradient based on a differential between a low-resolution estimated image estimated from a high-resolution image and a low-resolution real image given from frame memories 41, 42, thereby calculating an updating amount to be subtracted from the high-resolution image. At such a time, the number of times of operations in the high-resolution updating amount calculation section 443 based on the high-resolution image stored in a frame memory 45 is set in such a way that the number of times of moving picture photographing becomes less than the number of times of still picture photographing. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、高解像度画像を生成する画像処理方法及び画像処理装置に関するもので、特に、複数の低解像度画像から高解像度画像を生成する超解像処理を行う画像処理方法及び画像処理装置に関する。又、この画像処理装置により生成された高解像度画像を記録又は再生する電子機器に関する。   The present invention relates to an image processing method and an image processing apparatus for generating a high resolution image, and more particularly to an image processing method and an image processing apparatus for performing a super-resolution process for generating a high resolution image from a plurality of low resolution images. The present invention also relates to an electronic device that records or reproduces a high resolution image generated by the image processing apparatus.

近年、各種デジタル技術の発展に伴い、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子によりデジタル画像を撮影するデジタルカメラやデジタルビデオなどといった撮像装置や、デジタル画像を表示する液晶ディスプレイやプラズマテレビなどといった表示装置が、広く普及されつつある。そして、このような撮像装置や表示装置で処理されるデジタル画像において、異なる時間に撮影された複数のデジタル画像を用いて、その解像度を高解像度に変換する画像処理技術が提案されている。   In recent years, with the development of various digital technologies, imaging devices such as digital cameras and digital videos that take digital images with solid-state imaging devices such as CCD (Charge Coupled Device) and CMOS (Complimentary Metal Oxide Semiconductor) sensors, Display devices such as liquid crystal displays and plasma televisions for displaying are becoming widespread. An image processing technique for converting the resolution of a digital image processed by such an imaging apparatus or display apparatus into a high resolution using a plurality of digital images taken at different times has been proposed.

この高解像度変換方法として、位置ズレのある複数の低解像度画像より1つの高解像度画像を推定する超解像処理が提案されている(非特許文献1参照)。そして、この超解像処理において、生成された高解像度画像を逆変換して、高解像度画像を構築するための元の低解像度画像を推定した後、実際の低解像度画像との比較を行うことで、更に、実際の値に近い高解像度画像を生成する再構成型と呼ばれる方式が提案されている。   As this high-resolution conversion method, super-resolution processing for estimating one high-resolution image from a plurality of low-resolution images with positional deviation has been proposed (see Non-Patent Document 1). In this super-resolution processing, the generated high-resolution image is inversely transformed to estimate the original low-resolution image for constructing the high-resolution image, and then compared with the actual low-resolution image. In addition, a method called a reconstruction type that generates a high-resolution image close to an actual value has been proposed.

この再構成型方式による超解像処理では、まず、複数の低解像度画像より取得される高解像度画像を仮定する(STEP1)。この仮定した高解像度画像に基づいて、高解像度画像を構築するための複数の低解像度画像それぞれに逆変換して推定する(STEP2)。そして、逆変換後の低解像度画像と元の低解像度画像とを比較した後(STEP3)、その比較結果より、変換後の低解像度画像と元の低解像度画像との間における各画素位置での値の差が小さくなるように、高解像度画像を生成する(STEP4)。そして、変換後の低解像度画像と元の低解像度画像との間における各画素位置での値(以下、「画素値」と呼ぶ)の差が収束するように、STEP2〜STEP4の処理を繰り返すことにより、最終的に取得される高解像度画像を実画像に近い画像とすることができる。   In the super-resolution processing by the reconstruction type method, first, a high resolution image acquired from a plurality of low resolution images is assumed (STEP 1). Based on the assumed high resolution image, estimation is performed by performing inverse transform to each of a plurality of low resolution images for constructing the high resolution image (STEP 2). Then, after comparing the low-resolution image after the inverse conversion and the original low-resolution image (STEP 3), the comparison result shows that the pixel position between the converted low-resolution image and the original low-resolution image is the same at each pixel position. A high-resolution image is generated so that the difference in values is small (STEP 4). Then, the processing of STEP 2 to STEP 4 is repeated so that the difference in the value at each pixel position (hereinafter referred to as “pixel value”) between the converted low-resolution image and the original low-resolution image converges. Thus, the finally obtained high resolution image can be made an image close to the real image.

この再構成型方式として、ML(Maximum-Likelihood)法や、MAP(Maximum A Posterior)法や、POCS(Projection Onto Convex Set)法や、IBP(Iterative Back Projection)法などが、提案されている。ML法では、高解像度画像から推定した低解像度画像(以下、「低解像度推定画像」と呼ぶ)の画素値と実際の低解像度画像(以下、「低解像度実画像」と呼ぶ)の画素値との二乗誤差を評価関数とし、この評価関数を最小化する高解像度画像を生成する方法である(非特許文献2参照)。即ち、このML法による超解像処理は、最尤推定の原理に基づく処理方法である。   As this reconstruction type method, ML (Maximum-Likelihood) method, MAP (Maximum A Posterior) method, POCS (Projection Onto Convex Set) method, IBP (Iterative Back Projection) method, etc. are proposed. In the ML method, a pixel value of a low resolution image (hereinafter referred to as “low resolution estimated image”) estimated from a high resolution image and a pixel value of an actual low resolution image (hereinafter referred to as “low resolution actual image”) Is a method for generating a high-resolution image that minimizes the evaluation function (see Non-Patent Document 2). That is, the super-resolution processing by the ML method is a processing method based on the principle of maximum likelihood estimation.

又、MAP法では、低解像度推定画像と低解像度実画像それぞれの画素値の二乗誤差に高解像度画像の確率情報を付加したものを、評価関数とし、この評価関数を最小化する高解像度画像を生成する方法である(非特許文献3,4参照)。即ち、MAP法では、低解像度実画像に対する先見情報に基づく事後確率分布における出現確率を最大とするときの高解像度画像を推定することによって、最適な高解像度画像が取得される。   In the MAP method, a high-resolution image that minimizes the evaluation function is obtained by adding the probability information of the high-resolution image to the square error of the pixel values of the low-resolution estimated image and the low-resolution real image. It is the method of producing | generating (refer nonpatent literature 3, 4). That is, in the MAP method, an optimal high resolution image is acquired by estimating a high resolution image when the appearance probability in the posterior probability distribution based on the foresight information for the low resolution real image is maximized.

更に、POCS法では、高解像度画像と低解像度画像のそれぞれの画素値に関する連立方程式を作成し、その連立方程式を逐次的に解くことにより、高解像度画像の画素値の最適値を取得して高解像度画像を生成する方法である(非特許文献5参照)。又、IBP法では、撮影位置が異なるが被写体の画素位置に重なりをもつ複数の低解像度画像から高解像度を生成する方法、即ち、反復逆投影法を用いた超解像処理方法である(非特許文献6参照)。   Furthermore, in the POCS method, simultaneous equations relating to the pixel values of the high-resolution image and the low-resolution image are created, and the simultaneous equations are sequentially solved to obtain the optimum value of the pixel value of the high-resolution image. This is a method for generating a resolution image (see Non-Patent Document 5). The IBP method is a method for generating a high resolution from a plurality of low resolution images that have different shooting positions but have overlapping pixel positions of a subject, that is, a super-resolution processing method using an iterative backprojection method (non-resolution method). (See Patent Document 6).

このような超解像処理を用いて高解像度画像を取得する画像処理装置として、高解像度画像を所定の小領域に分割し、各小領域内に属する全ての画素に対する推定値を、各小領域における代表点となる画素に対する推定値で近似することで、超解像処理の高速化を図るものが提案されている(特許文献1参照)。即ち、高解像度画像から低解像度画像を推定する際、高解像度画像の1つの小領域から推定される低解像度画像の各画素の推定値が、その小領域内の代表点から推定される推定値で一定であるものとされる。これにより、高解像度画像から低解像度画像を推定する際の演算処理にかかる演算量を抑えることができ、超解像処理の高速化を図ることができる。
特許第3337575号公報 Sung, C. P. Min, K. P. Moon, G. K. 共著 "Super-resolution image reconstruction: a technical overview", (Signal processing Magazine, IEEE on Volume 26,Issue 3, May 2003, P.21-36) Tom, B.C. Katsaggelos, A.K. 共著 "Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images", (Image Processing, Proceedings, International Conference on Volume 2, Oct 1995, P.23-26) Schultz, R.R. Stevenson, R.L. 共著 "Extraction of high-resolution frames from video sequences" (Image Processing, IEEE Transactions on Volume 5, Issue 6, June 1996, P.996-1011) Hardie R.C. Barnard K.J. Armstrong E.E. 共著 "Joint MAP registration and high-resolution image estimation using a sequence of undersampled images" (Image Processing, IEEE Transactions on Volume 6, Issue 12, Dec. 1997 P.1621-1633) Stark, H. Oskoui, P. 共著 "High resolution image recovery from image-plane arrays, using convex projections" (J. Opt. Soc. Am. A, on vol. 6. P.1715-1726, 1989) Michel, I. Peleg, S. 共著 "Improving Resolution by Image Registration" (CVGIP: Graph Models Image Process, on vol. 53. P.231-239, Mar. 1991)
As an image processing apparatus that acquires a high-resolution image using such super-resolution processing, the high-resolution image is divided into predetermined small regions, and the estimated values for all the pixels belonging to each small region are In order to increase the speed of the super-resolution processing by approximating the estimated value for the pixel serving as the representative point in (see Patent Document 1). That is, when estimating a low-resolution image from a high-resolution image, the estimated value of each pixel of the low-resolution image estimated from one small region of the high-resolution image is estimated from the representative points in the small region. It is assumed that it is constant. Thereby, it is possible to suppress the amount of calculation required for calculation processing when estimating a low-resolution image from a high-resolution image, and it is possible to increase the speed of super-resolution processing.
Japanese Patent No. 3337575 Sung, CP Min, KP Moon, GK "Super-resolution image reconstruction: a technical overview", (Signal processing Magazine, IEEE on Volume 26, Issue 3, May 2003, P.21-36) Tom, BC Katsaggelos, AK "Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images", (Image Processing, Proceedings, International Conference on Volume 2, Oct 1995, P.23-26 ) "Extraction of high-resolution frames from video sequences" by Schultz, RR Stevenson, RL (Image Processing, IEEE Transactions on Volume 5, Issue 6, June 1996, P.996-1011) Hardie RC Barnard KJ Armstrong EE "Joint MAP registration and high-resolution image estimation using a sequence of undersampled images" (Image Processing, IEEE Transactions on Volume 6, Issue 12, Dec. 1997 P.1621-1633) Stark, H. Oskoui, P. "High resolution image recovery from image-plane arrays, using convex projections" (J. Opt. Soc. Am. A, on vol. 6. P.1715-1726, 1989) Michel, I. Peleg, S. "Improving Resolution by Image Registration" (CVGIP: Graph Models Image Process, on vol. 53. P.231-239, Mar. 1991)

しかしながら、上述で説明した超解像処理は、高解像度画像から推定される低解像度画像(変換後の低解像度画像)と元の低解像度画像との差分が小さくなるように、上述したSTEP2〜STEP4の処理を反復させて繰り返す必要がある。このSTEP2〜STEP4の処理を繰り返す反復回数によって、取得される高解像度画像を実際の画像に近い高精度の画像とすることができる。しかしながら、このような超解像処理は、静止画撮影を対象とするものであり、撮影動作にかかる時間に制限がある動画撮影を対象としていない。   However, in the super-resolution processing described above, the above-described STEP2 to STEP4 are performed so that the difference between the low-resolution image estimated from the high-resolution image (the converted low-resolution image) and the original low-resolution image becomes small. It is necessary to repeat the process. The acquired high-resolution image can be made to be a high-precision image close to the actual image by repeating the steps 2 to 4 repeatedly. However, such super-resolution processing is intended for still image shooting and is not intended for moving image shooting in which the time required for the shooting operation is limited.

又、高解像度画像を推定するための低解像度画像のフレーム数を多くすることで、高精度の高解像度画像を生成することができるが、高解像度画像推定用の低解像度画像のフレーム数に応じた数のフレームメモリが必要となる。このようにフレームメモリの数を増やすことで超解像処理における反復回数を少なくすることができるが、装置として構成した場合、フレームメモリ数が増加するため、装置が大型化してしまう。   In addition, by increasing the number of frames of the low-resolution image for estimating the high-resolution image, a high-precision high-resolution image can be generated, but depending on the number of frames of the low-resolution image for high-resolution image estimation A large number of frame memories are required. By increasing the number of frame memories in this way, the number of iterations in super-resolution processing can be reduced. However, when configured as an apparatus, the number of frame memories increases, and the apparatus becomes large.

又、特許文献1においては、超解像処理の高速化を図るものとして、領域分割して代表点による低解像度画像の推定を行うものとしている。しかしながら、低解像度画像への推定にかかる処理時間については高速化されるものの、超解像処理における反復処理は、従来のものと同様、行う必要がある。よって、特許文献1による超解像処理においても、静止画撮影を対象とするものであり、撮影動作にかかる時間に制限がある動画撮影を対象としていない。   In Japanese Patent Laid-Open No. 2004-228561, in order to increase the speed of super-resolution processing, a low-resolution image is estimated based on representative points by segmentation. However, although the processing time required for estimation of a low resolution image is increased, iterative processing in super-resolution processing needs to be performed as in the conventional method. Therefore, the super-resolution processing according to Patent Document 1 is also intended for still image shooting, and not for moving image shooting in which the time required for the shooting operation is limited.

このような問題を鑑みて、本発明は、低解像度画像から高解像度画像を取得する超解像処理を静止画及び動画それぞれに対して行って、精度の高い高解像度画像を取得することができる画像処理方法及び画像処理装置を提供することを目的とする。又、本発明は、低解像度画像から高解像度画像を取得する超解像処理を静止画及び動画それぞれに対して行って、精度の高い高解像度画像を取得する画像処理装置を備えた電子機器を提供することを目的とする。   In view of such a problem, the present invention can acquire a high-resolution image with high accuracy by performing super-resolution processing for acquiring a high-resolution image from a low-resolution image for each of a still image and a moving image. An object is to provide an image processing method and an image processing apparatus. In addition, the present invention provides an electronic apparatus including an image processing device that performs high-resolution image acquisition from a low-resolution image for each of a still image and a moving image and acquires a high-resolution image with high accuracy. The purpose is to provide.

上記目的を達成するために、本発明の画像処理装置は、複数フレームの低解像度画像から高解像度画像を生成する高解像度画像生成部を備える画像処理装置において、前記低解像度画像を一時的に記憶する複数の第1フレームメモリと、前記高解像度画像生成部で生成された前記高解像度画像を一時的に記憶する第2フレームメモリと、を備え、前記高解像度画像生成部が、前記第1フレームメモリに記憶された複数フレームの前記低解像度画像に基づいて前記高解像度画像を生成するとともに、生成した前記高解像度画像を前記第2フレームメモリに出力した後、前記第2フレームメモリに記憶された前記高解像度画像を用いて、前記高解像度画像を更新する反復演算処理を行い、単一フレームの前記高解像度画像を生成して出力するとき、前記高解像度画像生成部における前記第2フレームメモリを利用した前記反復演算処理の反復回数を第1回数とし、複数フレームの前記高解像度画像を連続で生成して出力するとき、前記高解像度画像生成部における前記第2フレームメモリを利用した前記反復演算処理の反復回数を、前記第1回数よりも少なく、且つ0回以上となる第2回数とすることを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention temporarily stores the low-resolution image in an image processing apparatus including a high-resolution image generation unit that generates a high-resolution image from a plurality of frames of low-resolution images. A plurality of first frame memories, and a second frame memory for temporarily storing the high resolution image generated by the high resolution image generation unit, wherein the high resolution image generation unit includes the first frame. The high-resolution image is generated based on the low-resolution images of a plurality of frames stored in the memory, and the generated high-resolution image is output to the second frame memory and then stored in the second frame memory. When the high-resolution image is used to perform an iterative calculation process for updating the high-resolution image, and the high-resolution image of a single frame is generated and output The high-resolution image generation unit generates the high-resolution image when the iterative calculation process using the second frame memory in the high-resolution image generation unit is the first number of repetitions, and the high-resolution image of a plurality of frames is generated and output continuously. The number of iterations of the iterative calculation process using the second frame memory in the unit is a second number that is less than the first number and equal to or more than zero.

このような画像処理装置において、複数の前記第1フレームメモリが直列に接続され、連続して入力される前記低解像度画像が1フレーム毎に記憶され、前記高解像度画像生成部に対して、複数の前記第1フレームメモリに記憶された前記低解像度画像が並列して出力される。   In such an image processing apparatus, a plurality of the first frame memories are connected in series, and the continuously input low resolution images are stored for each frame, and a plurality of the first resolution memories are stored in the high resolution image generation unit. The low-resolution images stored in the first frame memory are output in parallel.

このとき、前記第1フレームメモリの後段に配置されるとともに、前記第1及び第2フレームメモリとして共通に使用される第3フレームメモリと、前記第1フレームメモリの最後段からの前記低解像度画像と、前記高解像度画像生成部で生成された前記高解像度画像とを選択して、前記第3フレームメモリに出力する選択部と、を備え、単一フレームの前記高解像度画像を生成して出力するとき、前記選択部が前記高解像度画像生成部からの前記高解像度画像を選択して前記第3フレームメモリに出力し、複数フレームの前記高解像度画像を連続で生成して出力するとき、前記選択部が前記第1フレームメモリの最後段からの前記低解像度画像を選択して前記第3フレームメモリに出力するものとしても構わない。   At this time, a third frame memory that is arranged at a subsequent stage of the first frame memory and is commonly used as the first and second frame memories, and the low-resolution image from the last stage of the first frame memory. And a selection unit that selects the high resolution image generated by the high resolution image generation unit and outputs it to the third frame memory, and generates and outputs the high resolution image of a single frame When the selection unit selects the high resolution image from the high resolution image generation unit and outputs the high resolution image to the third frame memory, and continuously generates and outputs the high resolution image of a plurality of frames, The selection unit may select the low resolution image from the last stage of the first frame memory and output it to the third frame memory.

又、前記高解像度画像生成部が、前記複数の低解像度実画像から前記高解像度画像を生成するとともに、前記第2フレームメモリをその一部とする高解像度化処理部と、該高解像度化処理部によって取得した前記高解像度画像より複数の前記低解像度実画像それぞれと同等となるように推定することで複数の低解像度推定画像を取得する低解像度推定部と、該低解像度推定部によって得られた前記低解像度推定画像と前記低解像度実画像の差分値に基づいて前記高解像度化処理部で生成する前記高解像度画像の更新量を算出する更新量算出部と、を備え、前記高解像度化部において、前回の処理で生成した前記高解像度画像に対して、前記更新量算出部で得た前記更新量による更新を行うことで、前記高解像度画像を更新する。   The high-resolution image generation unit generates the high-resolution image from the plurality of low-resolution real images, and the high-resolution processing unit includes the second frame memory as a part thereof, and the high-resolution processing A low-resolution estimation unit that acquires a plurality of low-resolution estimation images by estimating to be equal to each of the plurality of low-resolution actual images from the high-resolution image acquired by the unit, and obtained by the low-resolution estimation unit An update amount calculation unit that calculates an update amount of the high-resolution image generated by the high-resolution processing unit based on a difference value between the low-resolution estimated image and the low-resolution actual image. In the unit, the high-resolution image is updated by updating the high-resolution image generated in the previous process with the update amount obtained by the update-amount calculating unit.

このような画像処理装置において、前記更新量算出部が、前記低解像度実画像それぞれに対して、対応する前記低解像度推定画像との差分値を求めることで、前記低解像度実画像の各画素位置における低解像度更新量を算出する低解像度更新量算出部と、前記低解像度実画像それぞれに対して、同一画素位置における前記低解像度実画像及び前記低解像度推定画像それぞれの画素値に含まれる画像成分を比較し、当該画像成分の比較結果に基づいて、前記低解像度更新量に乗算する重み係数を生成する重み係数算出部と、前記低解像度更新量算出部で算出された前記低解像度更新量に、前記重み係数算出部で算出された前記重み係数を乗算した後、前記重み係数が乗算された前記低解像度更新量に基づいて、前記高解像度画像の画素数に合わせた前記高解像度更新量を算出する高解像度更新量算出部と、を備え、前記高解像度化処理部において、前回の処理で生成した前記高解像度画像に対して、前記高解像度更新量算出部で算出された前記高解像度更新量による更新を行うことで、前記高解像度画像を更新するものとしても構わない。   In such an image processing device, the update amount calculation unit obtains a difference value between each low-resolution actual image and the corresponding low-resolution estimated image, so that each pixel position of the low-resolution actual image is obtained. A low-resolution update amount calculation unit that calculates a low-resolution update amount in the image, and an image component included in each pixel value of the low-resolution actual image and the low-resolution estimated image at the same pixel position for each of the low-resolution actual images And based on the comparison result of the image components, a weighting factor calculation unit that generates a weighting factor for multiplying the low-resolution update amount, and the low-resolution update amount calculated by the low-resolution update amount calculation unit Then, after multiplying the weighting factor calculated by the weighting factor calculating unit, the number of pixels of the high-resolution image is adjusted based on the low-resolution update amount multiplied by the weighting factor. A high-resolution update amount calculation unit that calculates the high-resolution update amount, and in the high-resolution processing unit, the high-resolution update amount calculation unit applies the high-resolution image generated in the previous process. The high-resolution image may be updated by performing the update with the calculated high-resolution update amount.

このとき、前記重み係数算出部における、前記画像成分の比較結果が、前記低解像度実画像の画素値の前記画像成分を前記低解像度推定画像の画素値の前記画像成分で除算して得られる画像成分の比であり、当該画像成分の比が1以上の所定値に近い値となると、前記重み係数を1に近い値とし、当該画像成分の比が前記所定値より遠い値となると、前記重み係数を0に近い値とする。   At this time, an image obtained by dividing the image component of the pixel value of the low-resolution real image by the image component of the pixel value of the low-resolution estimated image is obtained by comparing the image components in the weighting coefficient calculation unit. If the image component ratio becomes a value close to a predetermined value of 1 or more, the weight coefficient is set to a value close to 1, and if the image component ratio becomes a value farther than the predetermined value, the weight The coefficient is set to a value close to 0.

そして、前記画像成分の比較結果を、前記低解像度実画像及び前記低解像度推定画像それぞれの画素値に含まれる高周波成分の比としても構わないし、前記低解像度実画像及び前記低解像度推定画像それぞれの画素値による標準偏差の比としても構わないし、前記低解像度実画像及び前記低解像度推定画像それぞれの画素値に含まれるエッジ方向成分の比としても構わない。   The comparison result of the image components may be a ratio of high-frequency components included in pixel values of the low-resolution actual image and the low-resolution estimated image, or the low-resolution actual image and the low-resolution estimated image, respectively. It may be a ratio of standard deviations depending on pixel values, or may be a ratio of edge direction components included in pixel values of the low resolution actual image and the low resolution estimated image.

本発明の電子機器は、外部入力又は撮像により複数フレームとなる画像による画像信号が与えられるとともに、該画像信号による画像を高解像度の画像に変換する高解像度化機能を備えた電子機器において、前記高解像度化機能を実現する画像処理部として、上述のいずれの画像処理装置を備え、前記画像信号による画像を前記低解像度画像として高解像度画像化処理を行うことで、所望の前記高解像度画像が生成されることを特徴とする。   The electronic apparatus according to the present invention is an electronic apparatus provided with an image signal based on an image that becomes a plurality of frames by external input or imaging, and having a high resolution function for converting an image based on the image signal into a high resolution image. As an image processing unit that realizes a high resolution function, any of the above-described image processing apparatuses is provided, and by performing high resolution imaging processing using the image based on the image signal as the low resolution image, a desired high resolution image is obtained. It is generated.

又、本発明の画像処理方法は、複数フレームの低解像度画像に基づいて高解像度画像を生成する第1ステップと、前記第1ステップで生成した前記高解像度画像の更新量を生成する第2ステップと、を備え、前記第1ステップ及び前記第2ステップを繰り返し行うことで、前記第1ステップで生成される前記高解像度画像を前記第2ステップでの更新量によって更新する画像処理方法であって、単一フレームの前記高解像度画像を生成して出力するとき、前記第1ステップ及び前記第2ステップによる反復演算処理の反復回数を第1回数とし、複数フレームの前記高解像度画像を連続で生成して出力するとき、前記第1ステップ及び前記第2ステップによる反復演算処理の反復回数を、前記第1回数よりも少なく、且つ0回以上となる第2回数とすることを特徴とする。   The image processing method of the present invention includes a first step of generating a high-resolution image based on a plurality of frames of low-resolution images, and a second step of generating an update amount of the high-resolution image generated in the first step. An image processing method for updating the high-resolution image generated in the first step according to the update amount in the second step by repeatedly performing the first step and the second step. When the high-resolution image of a single frame is generated and output, the number of repetitions of the iterative calculation process in the first step and the second step is set to the first number, and the high-resolution image of a plurality of frames is continuously generated. The second iteration in which the number of iterations of the iterative calculation process in the first step and the second step is less than the first number and equal to or greater than zero. Characterized by a.

そして、単一フレームの前記高解像度画像を生成して出力するとき、前記第1ステップで前記高解像度画像を生成するために使用する前記低解像度画像のフレーム数を、第1フレーム数とし、複数フレームの前記高解像度画像を連続で生成して出力するとき、前記第1ステップで前記高解像度画像を生成するために使用する前記低解像度画像のフレーム数を、第1フレーム数よりも多い第2フレーム数とするものとしても構わない。   When generating and outputting the high-resolution image of a single frame, the number of frames of the low-resolution image used for generating the high-resolution image in the first step is a first frame number, When continuously generating and outputting the high-resolution image of the frame, the second number of frames of the low-resolution image used for generating the high-resolution image in the first step is greater than the first frame number. The number of frames may be used.

本発明によると、単一フレームの高解像度画像を出力する場合と、複数フレームの高解像度画像を短時間に連続で出力する場合とで、高解像度化処理における反復演算処理の反復回数を異なるものとする。これにより、静止画に対する高解像度化処理と、動画に対する高解像度化処理とを、共通の高解像度化処理を行う回路構成を利用して行うことができる。よって、静止画及び動画それぞれに対して専用の回路構成を必要とせず、装置の大型化を防ぐことができる。   According to the present invention, when the high-resolution image of a single frame is output and when the high-resolution image of a plurality of frames is output continuously in a short time, the number of repetitions of the iterative calculation processing in the high-resolution processing is different. And As a result, it is possible to perform resolution enhancement processing for still images and resolution enhancement processing for moving images using a circuit configuration that performs common resolution enhancement processing. Therefore, a dedicated circuit configuration is not required for each of the still image and the moving image, and an increase in the size of the apparatus can be prevented.

又、低解像度画像及び高解像度画像それぞれを記憶する第1及び第2フレームメモリとして共通に使用される第3フレームメモリを備えるものとすることで、単一フレームの前記高解像度画像を出力する場合と、複数フレームの高解像度画像を短時間に連続で出力する場合とで、高解像度化処理に使用する低解像度画像のフレーム数を異なるものとすることができる。   In the case of outputting the high resolution image of a single frame by providing a third frame memory that is commonly used as the first and second frame memories for storing the low resolution image and the high resolution image, respectively. The number of frames of the low-resolution image used for the high-resolution processing can be different between the case where a plurality of high-resolution images are continuously output in a short time.

即ち、動画に対する高解像度化処理を行うときの方が、使用する低解像度画像のフレーム数を多くすることで、反復演算処理の反復回数が少なくなることによる精度の低下を補うことができる。又、静止画に対する高解像度化処理を行うときは、動画に対する高解像度化処理を行うときに低解像度画像を記憶する第1フレームメモリとして利用していた第3フレームメモリを、高解像度画像を記憶する第2フレームメモリとして利用することができる。これにより、フレームメモリを新たに追加する必要がないため、装置を小型化することができる。   That is, when the resolution enhancement process is performed on the moving image, the number of frames of the low-resolution image to be used is increased, so that a decrease in accuracy due to a decrease in the number of iterations of the iterative calculation process can be compensated. In addition, when performing high resolution processing for still images, the third frame memory used as the first frame memory for storing low resolution images when performing high resolution processing for moving images is stored as high resolution images. It can be used as a second frame memory. As a result, it is not necessary to add a new frame memory, and the apparatus can be downsized.

本発明の実施の形態について、図面を参照して説明する。尚、以下では、本発明における画像処理方法を行う画像処理装置(以下では、「画像処理部」に相当する)を備えたデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて、説明する。又、後述するが、同様の画像処理装置を備えるものであれば、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置であっても構わない。   Embodiments of the present invention will be described with reference to the drawings. In the following description, an image pickup apparatus such as a digital camera or a digital video provided with an image processing apparatus (hereinafter referred to as “image processing unit”) that performs the image processing method according to the present invention will be described as an example. Further, as will be described later, a display device that performs digital processing of an image, such as a liquid crystal display or a plasma television, may be used as long as it has a similar image processing device.

(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus.

図1の撮像装置は、被写体のから入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog FrontEnd)2と、外部から入力された音声を電気信号に変換するマイク3と、AFE2からのデジタル信号となる画像信号に対して超解像処理を含む各種画像処理を施す画像処理部4と、マイク3からのアナログ信号である音声信号をデジタル信号に変換する音声処理部5と、画像処理部4からの画像信号と音声処理部5からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮符号方式などの圧縮符号化処理を施す圧縮処理部6と、圧縮処理部6で圧縮符号化された圧縮符号化信号を外部メモリ15に記録するドライバ部7と、ドライバ部7で外部メモリ20から読み出した圧縮符号化信号を伸長して復号する伸長処理部8と、伸長処理部8で復号されて得られた画像信号による画像の表示を行うディスプレイ部9と、伸長処理部8からの音声信号をアナログ信号に変換する音声出力回路部10と、音声出力回路部10からの音声信号に基づいて音声を再生出力するスピーカ部11と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ12と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)13と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ14と、ユーザからの指示が入力される操作部15と、CPU13と各ブロックとの間でデータのやりとりを行うためのバス回線16と、メモリ14と各ブロックとの間でデータのやりとりを行うためのバス回線17と、を備える。   The imaging apparatus of FIG. 1 receives a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts light incident from a subject into an electrical signal, and an image signal that is an analog signal output from the image sensor 1. AFE (Analog FrontEnd) 2 for converting to a digital signal, a microphone 3 for converting sound input from the outside into an electric signal, and various image processing including super-resolution processing for an image signal to be a digital signal from the AFE 2 The image processing unit 4 that performs the processing, the audio processing unit 5 that converts the audio signal that is an analog signal from the microphone 3 into a digital signal, the image signal from the image processing unit 4, and the audio signal from the audio processing unit 5 The compression processing unit 6 that performs compression encoding processing such as the MPEG (Moving Picture Experts Group) compression encoding method, and the compression encoded signal that has been compression encoded by the compression processing unit 6 The driver unit 7 to be recorded in the memory 15, the decompression processing unit 8 that decompresses and decodes the compressed encoded signal read from the external memory 20 by the driver unit 7, and the image signal obtained by decoding by the decompression processing unit 8 A display unit 9 for displaying an image, an audio output circuit unit 10 that converts an audio signal from the expansion processing unit 8 into an analog signal, and a speaker unit that reproduces and outputs audio based on the audio signal from the audio output circuit unit 10 11, a timing generator 12 that outputs a timing control signal for matching the operation timing of each block, a CPU (Central Processing Unit) 13 that controls the drive operation of the entire imaging apparatus, and each program for each operation A memory 14 for temporarily storing data during program execution, an operation unit 15 for inputting an instruction from a user, Comprises a PU13 a bus line 16 for exchanging data with each block, a memory 14 and a bus line 17 for exchanging data with each block.

(1)動画撮影動作
この撮像装置において、動画撮影動作を行うことが操作部15によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE2に出力される。このとき、イメージセンサ1では、タイミングジェネレータ12からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE2において、アナログ信号となる画像信号がデジタル信号に変換されて、画像処理部4に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。
(1) Moving Image Shooting Operation In this imaging apparatus, when the operation unit 15 instructs to perform a moving image shooting operation, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is output to the AFE 2. . At this time, the image sensor 1 is supplied with a timing control signal from the timing generator 12 to perform horizontal scanning and vertical scanning, and output an image signal as data for each pixel. In the AFE 2, when an image signal that is an analog signal is converted into a digital signal and input to the image processing unit 4, various image processing such as signal conversion processing for generating a luminance signal and a color difference signal is performed. .

又、この画像処理部4では、操作部15によってデジタルズームにより、イメージセンサ1より得られた画像信号の高解像度化が求められると、イメージセンサ1からの複数フレーム分の画像信号に基づく超解像処理が施される。更に、この超解像処理が成された画像信号に基づいて、輝度信号及び色差信号が生成される。又、超解像処理が施されるために、後述するが、複数フレームの画像信号の動き量が算出され、その動き量に応じて各フレームの位置合わせが行われる。   Further, in the image processing unit 4, when the operation unit 15 is required to increase the resolution of the image signal obtained from the image sensor 1 by digital zoom, super-resolution based on the image signals for a plurality of frames from the image sensor 1. Processing is performed. Further, a luminance signal and a color difference signal are generated based on the image signal that has been subjected to the super-resolution processing. Further, since the super-resolution processing is performed, as described later, the motion amount of the image signal of a plurality of frames is calculated, and the alignment of each frame is performed according to the motion amount.

そして、画像処理部4で画像処理が施された画像信号が圧縮処理部6に与えられる。このとき、マイク3に音声入力されることで得られたアナログ信号である音声信号が、音声処理部5でデジタル信号に変換されて、圧縮処理部6に与えられる。これにより、圧縮処理部6では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部7に与えて、外部メモリ20に記録させる。又、このとき、外部メモリ20に記録された圧縮信号がドライバ部7によって読み出されて伸長処理部8に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部9に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。   Then, the image signal subjected to the image processing by the image processing unit 4 is given to the compression processing unit 6. At this time, an audio signal which is an analog signal obtained by inputting the sound into the microphone 3 is converted into a digital signal by the audio processing unit 5 and given to the compression processing unit 6. As a result, the compression processing unit 6 compresses and encodes the image signal and the audio signal, which are digital signals, based on the MPEG compression encoding method, gives the image signal and the audio signal to the driver unit 7, and records them in the external memory 20. At this time, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and applied to the expansion processing unit 8 to be subjected to expansion processing to obtain an image signal. This image signal is given to the display unit 9 to display a subject image that is currently photographed through the image sensor 1.

(2)静止画撮影動作
静止画撮影が指示された場合においても、動画撮影が指示された場合と異なり、マイク3による音声信号の取得がなく、画像信号のみの圧縮信号が圧縮処理部6においてJPEG(Joint Photographic Experts Group)圧縮符号方式などの圧縮符号方式によって得られ、外部メモリ20に記録されるだけとなり、その基本動作については動画撮影時の動作と同様である。又、この静止画撮影の場合、操作部15によって撮影された静止画像に対する圧縮信号が外部メモリ20に記録されるだけでなく、イメージセンサ1によって撮影されている現時点の画像に対する圧縮信号も外部メモリ20に一時的に記録される。これにより、現在撮影されている画像に対する圧縮信号が伸長処理部8で伸長されることで、イメージセンサ1によって撮影されている現時点の画像がディスプレイ部9に表示され、ユーザが確認することができる。
(2) Still Image Shooting Operation Even when a still image shooting is instructed, unlike a case where a moving image shooting is instructed, there is no acquisition of an audio signal by the microphone 3, and a compression signal of only an image signal is received in the compression processing unit 6. It is obtained by a compression code method such as a JPEG (Joint Photographic Experts Group) compression code method, and is only recorded in the external memory 20, and its basic operation is the same as that during moving image shooting. Further, in the case of this still image shooting, not only the compressed signal for the still image shot by the operation unit 15 is recorded in the external memory 20, but also the compressed signal for the current image shot by the image sensor 1 is also stored in the external memory. 20 is temporarily recorded. As a result, the compression signal for the currently captured image is expanded by the expansion processing unit 8 so that the current image captured by the image sensor 1 is displayed on the display unit 9 and can be confirmed by the user. .

上述のように、静止画像及び動画それぞれに対する撮像動作を行うとき、タイミングジェネレータ12によって、AFE2、映像処理部4、音声処理部5、圧縮処理部6、及び伸長処理部8に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。又、静止画撮影のときは、操作部15によるシャッタ動作に基づいて、タイミングジェネレータ12より、イメージセンサ1、AFE2、映像処理部4、及び、圧縮処理部6それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させる。   As described above, the timing generator 12 performs timing control signals to the AFE 2, the video processing unit 4, the audio processing unit 5, the compression processing unit 6, and the decompression processing unit 8 when performing an imaging operation for each of a still image and a moving image. Is performed, and an operation synchronized with the imaging operation for each frame by the image sensor 1 is performed. Further, at the time of still image shooting, a timing control signal is given from the timing generator 12 to the image sensor 1, the AFE 2, the video processing unit 4, and the compression processing unit 6 based on the shutter operation by the operation unit 15. The operation timing of each unit is synchronized.

(3)動画又は静止画像の再生
又、外部メモリ20に記録された動画又は静止画像を再生することが、操作部15を通じて指示されると、外部メモリ20に記録された圧縮信号は、ドライバ部7によって読み出されて伸長処理部8に与えられる。そして、動画の場合は、伸長処理部8において、MPEG圧縮符号方式に基づいて伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部9に与えられて画像が再生されるとともに、音声信号が音声出力回路部10を介してスピーカ部11に与えられて音声が再生される。これにより、外部メモリ20に記録された圧縮信号に基づく動画が音声とともに再生される。
(3) Reproduction of moving image or still image When reproduction of a moving image or still image recorded in the external memory 20 is instructed through the operation unit 15, the compressed signal recorded in the external memory 20 is 7 and read to the decompression processing unit 8. In the case of a moving image, the decompression processing unit 8 decompresses and decodes the image based on the MPEG compression encoding method to obtain an image signal and an audio signal. Then, the image signal is given to the display unit 9 to reproduce the image, and the audio signal is given to the speaker unit 11 via the audio output circuit unit 10 to reproduce the audio. Thereby, the moving image based on the compressed signal recorded in the external memory 20 is reproduced together with the sound.

又、静止画像の場合は、伸長処理部8において、JPEG圧縮符号方式に基づいて伸長復号されて、画像信号が取得される。そして、画像信号がディスプレイ部9に与えられて画像が再生される。これにより、外部メモリ20に記録された圧縮信号に基づく静止画像が再生される。   In the case of a still image, the decompression processing unit 8 decompresses and decodes the image signal based on the JPEG compression code method, and acquires an image signal. Then, the image signal is given to the display unit 9 to reproduce the image. Thereby, a still image based on the compressed signal recorded in the external memory 20 is reproduced.

(超解像処理の基本概念)
次に、上述の撮像装置内の画像処理部4において実行される超解像処理の基本概念について、簡単に説明する。尚、超解像処理の基本概念を説明するにあたって、その説明を簡単にするために、画像データを1次元方向に並んだ複数画素の画素値によるものとするとともに、異なる時間に撮像された2フレームの画像データによる超解像処理が成されるものとする。又、以下の説明における画素値は、輝度値を示す。そして、図2(a)に、イメージセンサ1により撮像される被写体の輝度分布を示し、図2(b)〜(d)に、この被写体が異なる時間にイメージセンサ1により撮像された際の画像データ(低解像度実画像)を示す。又、図3に、図2における低解像度実画像により高解像度画像となる画像データを生成する際のフローチャートを示す。更に、図3では、各フローにおける信号の変遷を模式的に示す。
(Basic concept of super-resolution processing)
Next, the basic concept of super-resolution processing executed in the image processing unit 4 in the above-described imaging apparatus will be briefly described. In describing the basic concept of super-resolution processing, in order to simplify the description, image data is based on pixel values of a plurality of pixels lined up in a one-dimensional direction, and 2 taken at different times. It is assumed that super-resolution processing is performed using frame image data. The pixel value in the following description indicates a luminance value. FIG. 2A shows the luminance distribution of the subject imaged by the image sensor 1, and FIGS. 2B to 2D show images when the subject is imaged by the image sensor 1 at different times. Data (low-resolution actual image) is shown. FIG. 3 is a flowchart for generating image data that becomes a high-resolution image from the low-resolution real image in FIG. Further, FIG. 3 schematically shows signal transition in each flow.

図2(a)に示す輝度分布の被写体に対して、時間T1にイメージセンサ1によって撮像されたときの第1フレームのサンプル点がS1、S1+ΔS、S1+2ΔSであり、時間T2(T1≠T2)にイメージセンサ1によって撮像されたときの第2フレームのサンプル点がS2、S2+ΔS、S2+2ΔSであるものとする。又、このとき、第1フレームのサンプル点S1と第2フレームのサンプル点S2は、手ブレなどが原因となり、その位置にズレが生じているものとする。   For the subject with the luminance distribution shown in FIG. 2A, the sample points of the first frame when imaged by the image sensor 1 at time T1 are S1, S1 + ΔS, S1 + 2ΔS, and at time T2 (T1 ≠ T2). Assume that the sample points of the second frame when imaged by the image sensor 1 are S2, S2 + ΔS, and S2 + 2ΔS. Further, at this time, it is assumed that the sample point S1 of the first frame and the sample point S2 of the second frame are misaligned due to camera shake or the like.

そして、サンプル点S1、S1+ΔS、S1+2ΔSは、被写体上のサンプル点を示し、図2(b)に示す第1フレームとなる低解像度実画像Faでは、このサンプル点S1、S1+ΔS、S1+2ΔSで撮像された輝度値が、画素P1,P2,P3における画素値pa1,pa2,pa3となる。又、サンプル点S2、S2+ΔS、S2+2ΔSは、被写体上のサンプル点を示し、図2(c)に示す第2フレームとなる低解像度実画像Fbでは、このサンプル点S2、S2+ΔS、S2+2ΔSで撮像された輝度値が、画素P1,P2,P3における画素値pb1,pb2,pb3となる。   Sample points S1, S1 + ΔS, and S1 + 2ΔS indicate sample points on the subject. In the low-resolution real image Fa that is the first frame shown in FIG. 2B, the sample points S1, S1 + ΔS, and S1 + 2ΔS are captured. The luminance values are the pixel values pa1, pa2, pa3 in the pixels P1, P2, P3. Sample points S2, S2 + ΔS, and S2 + 2ΔS indicate sample points on the subject. In the low-resolution real image Fb that is the second frame shown in FIG. 2C, the sample points S2, S2 + ΔS, and S2 + 2ΔS are captured. The luminance values are the pixel values pb1, pb2, and pb3 in the pixels P1, P2, and P3.

これにより、第1フレームとなる低解像度実画像Faの画素P1,P2,P3における画素値pa1,pa2,pa3が図2(b)のような関係となり、又、第2フレームとなる低解像度実画像Fbの画素P1,P2,P3における画素値pb1,pb2,pb3が図2(c)のような関係となる。このように、図2(b)による低解像度実画像Fa及び図2(c)による低解像度実画像Fbそれぞれは、図中の被写体の位置を基準にすると、画素位置が(S1−S2)だけずれた状態の画像となる。そして、低解像度実画像Faの画素P1,P2,P3を基準として低解像度実画像Fbを表した場合(即ち、低解像度実画像Fbを低解像度実画像Faに対する動き量(S1−S2)分だけ位置ズレ補正した場合)、低解像度実画像Fbが図2(d)のように表される。   Accordingly, the pixel values pa1, pa2, and pa3 of the pixels P1, P2, and P3 of the low-resolution real image Fa that becomes the first frame have the relationship as shown in FIG. 2B, and the low-resolution real image that becomes the second frame. The pixel values pb1, pb2, and pb3 in the pixels P1, P2, and P3 of the image Fb have a relationship as shown in FIG. As described above, the low-resolution real image Fa shown in FIG. 2B and the low-resolution real image Fb shown in FIG. 2C each have a pixel position of only (S1-S2) based on the position of the subject in the drawing. The image is shifted. When the low-resolution real image Fb is represented with reference to the pixels P1, P2, and P3 of the low-resolution real image Fa (that is, the low-resolution real image Fb is the amount of motion (S1-S2) relative to the low-resolution real image Fa). When the positional deviation is corrected), the low-resolution real image Fb is represented as shown in FIG.

そして、図3(a)に示すように、位置ズレを補正した図2(b)及び図2(c)のような低解像度実画像Fa,Fbを組み合わせることで、高解像度画像Fx1を推定する(STEP31)。このとき、以下の説明を簡単にするために、例えば、解像度を1次元方向に対して2倍にするものとする。即ち、高解像度画像Fx1の画素として、低解像度実画像Fa,Fbの画素P1,P2,P3に加えて更に、画素P1,P2の中間位置に位置する画素P4と、画素P2,P3の中間位置に位置する画素P5とが設定されるものとする。   Then, as shown in FIG. 3A, the high-resolution image Fx1 is estimated by combining the low-resolution real images Fa and Fb as shown in FIGS. 2B and 2C with the positional deviation corrected. (STEP 31). At this time, in order to simplify the following description, for example, it is assumed that the resolution is doubled in the one-dimensional direction. That is, as pixels of the high-resolution image Fx1, in addition to the pixels P1, P2, and P3 of the low-resolution real images Fa and Fb, a pixel P4 that is located at an intermediate position between the pixels P1 and P2, and an intermediate position between the pixels P2 and P3 It is assumed that the pixel P5 located at is set.

低解像度実画像Faが基準である注目フレームとされると、画素P1,P2,P3での画素値が、低解像度実画像Faにおける画素値pa1,pa2,pa3とされる。又、画素P4については、画素P4との画素位置(画素の中心位置)の距離が、低解像度実画像Faにおける画素P1,P2の画素位置からの距離よりも低解像度実画像Fbにおける画素P1の画素位置からの距離の方が近いことより、画素値pb1とされるものとする。同様に、画素P5については、画素P5との画素位置(画素の中心位置)の距離が、低解像度実画像Faにおける画素P2,P3の画素位置からの距離よりも低解像度実画像Fbにおける画素P2の画素位置からの距離の方が近いことより、画素値pb2とされるものとする。このように、画素P1〜P5の画素値をpa1,pa2,pa3,pb1,pb2と設定して得られた高解像度画像を、高解像度画像Fx1として推定されるものとしても構わない。   If the low-resolution actual image Fa is the reference frame, the pixel values at the pixels P1, P2, and P3 are set to the pixel values pa1, pa2, and pa3 in the low-resolution actual image Fa. For the pixel P4, the distance of the pixel position (center position of the pixel) from the pixel P4 is greater than the distance from the pixel positions of the pixels P1 and P2 in the low-resolution real image Fa to the pixel P1 in the low-resolution real image Fb. Since the distance from the pixel position is closer, the pixel value pb1 is assumed. Similarly, for the pixel P5, the distance between the pixel position (pixel center position) and the pixel P5 is smaller than the distance from the pixel positions of the pixels P2 and P3 in the low-resolution real image Fa, and the pixel P2 in the low-resolution real image Fb. It is assumed that the pixel value pb2 is obtained because the distance from the pixel position is shorter. As described above, a high resolution image obtained by setting the pixel values of the pixels P1 to P5 as pa1, pa2, pa3, pb1, and pb2 may be estimated as the high resolution image Fx1.

その後、STEP31で得られた高解像度画像Fx1に対して、ダウンサンプリング量やぼけ量や位置ズレ量(動き量に相当)などをパラメータとして備えた変換式による演算を行うことで、図3(b)のように、低解像度実画像Fa,Fbそれぞれに対する推定画像となる低解像度推定画像Fa1,Fb1を生成する(STEP32)。尚、図3(b)では、n回目の処理によって推定された低解像度推定画像、即ち、高解像度画像Fxnより推定された低解像度実画像Fa,Fbに相当する低解像度推定画像Fan,Fbnを示す。   Thereafter, the high-resolution image Fx1 obtained in STEP 31 is subjected to calculation using a conversion equation having parameters such as a down-sampling amount, a blur amount, and a positional shift amount (corresponding to a motion amount) as shown in FIG. ), The low-resolution estimated images Fa1 and Fb1 that are the estimated images for the low-resolution actual images Fa and Fb are generated (STEP 32). In FIG. 3B, low-resolution estimated images estimated by the n-th processing, that is, low-resolution estimated images Fan and Fbn corresponding to the low-resolution actual images Fa and Fb estimated from the high-resolution image Fxn are shown. Show.

即ち、高解像度画像Fx1に基づいて、サンプル点S1、S1+ΔS、S1+2ΔSにおける画素値を推定して、取得した画素値pa11〜pa31を画素P1〜P3の画素値とする低解像度推定画像Fa1を生成する。同様に、高解像度画像Fx1に基づいて、サンプル点S2、S2+ΔS、S2+2ΔSにおける画素値を推定して、取得した画素値pb11〜pb31を画素P1〜P3の画素値とする低解像度推定画像Fb1を生成する。   That is, based on the high-resolution image Fx1, the pixel values at the sample points S1, S1 + ΔS, S1 + 2ΔS are estimated, and the low-resolution estimated image Fa1 having the acquired pixel values pa11 to pa31 as the pixel values of the pixels P1 to P3 is generated. . Similarly, based on the high-resolution image Fx1, the pixel values at the sample points S2, S2 + ΔS, S2 + 2ΔS are estimated, and the low-resolution estimated image Fb1 that uses the acquired pixel values pb11 to pb31 as the pixel values of the pixels P1 to P3 is generated. To do.

そして、図3(c)に示すように、このようにして得られた低解像度推定画像Fa1,Fb1それぞれと、低解像度実画像Fa,Fbそれぞれとの間における差分を求め、この差分を合成することで、高解像度画像Fx1に対する差分画像ΔFx1を取得する(STEP33)。尚、図3(c)では、n回目の処理によって取得された高解像度画像Fxnに対する差分画像ΔFxn、即ち、低解像度推定画像Fan,Fbnと低解像度実画像Fa,Fbとによる差分画像ΔFan、ΔFbnを合成することで得られた差分画像ΔFxnを示す。   Then, as shown in FIG. 3C, the difference between the low resolution estimated images Fa1 and Fb1 thus obtained and the low resolution actual images Fa and Fb is obtained, and the differences are synthesized. Thus, the difference image ΔFx1 with respect to the high resolution image Fx1 is acquired (STEP 33). In FIG. 3C, the difference image ΔFxn with respect to the high-resolution image Fxn acquired by the n-th process, that is, the difference images ΔFan and ΔFbn between the low-resolution estimated images Fan and Fbn and the low-resolution actual images Fa and Fb. A difference image ΔFxn obtained by combining the images is shown.

この図3(c)の処理によって、低解像度推定画像Fa1と低解像度実画像Faにおける画素P1,P2,P3での差分(pa11−pa1)、(pa21−pa2)、(pa31−pa3)による差分画像ΔFa1、低解像度推定画像Fa2と低解像度実画像Fbにおける画素P1,P2,P3での差分(pb11−pb1)、(pb21−pb2)、(pb31−pb3)による差分画像ΔFb1をそれぞれ求める。即ち、差分画像ΔFa1では、差分値(pa11−pa1)、(pa21−pa2)、(pa31−pa3)が画素値となり、差分画像ΔFb1では、差分値(pb11−pb1)、(pb21−pb2)、(pb31−pb3)が画素値となる。   By the process of FIG. 3C, the difference (pa11−pa1), (pa21−pa2), and (pa31−pa3) between the pixels P1, P2, and P3 in the low resolution estimated image Fa1 and the low resolution actual image Fa. A difference image ΔFb1 is obtained from the differences (pb11−pb1), (pb21−pb2), and (pb31−pb3) at the pixels P1, P2, and P3 in the image ΔFa1, the low resolution estimated image Fa2, and the low resolution actual image Fb. That is, in the difference image ΔFa1, the difference values (pa11−pa1), (pa21−pa2), and (pa31−pa3) are pixel values, and in the difference image ΔFb1, the difference values (pb11−pb1), (pb21−pb2), (Pb31-pb3) is the pixel value.

そして、差分画像ΔFa1,ΔFb1の画素値を合成することによって、画素F1〜F5それぞれにおける差分値を算出して、高解像度画像Fx1に対する差分画像ΔFx1を取得する。この差分画像ΔFa1,ΔFb1の画素値を合成によって差分画像ΔFx1を取得する際、例えば、ML法やMAP法では、二乗誤差を評価関数として用いる。即ち、ML法やMAP法の評価関数が、差分画像ΔFa1,ΔFb1の画素値を二乗してフレーム間で加算した値となる。よって、この評価関数の微分値である勾配は、差分画像ΔFa1,ΔFb1の画素値を2倍した値となるため、高解像度画像Fx1に対する差分画像ΔFx1は、差分画像ΔFa1,ΔFb1それぞれの画素値を2倍した値を用いて高解像度化することで算出される。   Then, by combining the pixel values of the difference images ΔFa1 and ΔFb1, the difference values in the pixels F1 to F5 are calculated, and the difference image ΔFx1 with respect to the high resolution image Fx1 is acquired. When obtaining the difference image ΔFx1 by combining the pixel values of the difference images ΔFa1 and ΔFb1, for example, in the ML method or the MAP method, a square error is used as an evaluation function. That is, the evaluation function of the ML method or the MAP method becomes a value obtained by squaring the pixel values of the difference images ΔFa1 and ΔFb1 and adding them between frames. Therefore, the gradient, which is the differential value of the evaluation function, is a value obtained by doubling the pixel values of the difference images ΔFa1 and ΔFb1, so that the difference image ΔFx1 with respect to the high resolution image Fx1 has the pixel values of the difference images ΔFa1 and ΔFb1. It is calculated by increasing the resolution using the doubled value.

その後、図3(d)に示すように、得られた差分画像ΔFx1における画素P1〜P5の画素値(差分値)が、STEP1で推定された高解像度画像Fx1における画素P1〜P5の画素値より減算されることで、図2(a)に示す輝度分布の被写体に近い画素値となる高解像度画像Fx2が再構成される(STEP34)。尚、図3(d)では、n回目の処理によって取得された高解像度画像Fx(n+1)、即ち、高解像度推定画像Fxnより差分画像ΔFxnが減算されて得られた高解像度画像Fx(n+1)を示す。   Thereafter, as shown in FIG. 3D, the pixel values (difference values) of the pixels P1 to P5 in the obtained difference image ΔFx1 are obtained from the pixel values of the pixels P1 to P5 in the high resolution image Fx1 estimated in STEP1. By subtracting, the high-resolution image Fx2 having a pixel value close to the subject having the luminance distribution shown in FIG. 2A is reconstructed (STEP 34). In FIG. 3D, the high-resolution image Fx (n + 1) obtained by the n-th processing, that is, the high-resolution image Fx (n + 1) obtained by subtracting the difference image ΔFxn from the high-resolution estimated image Fxn. Indicates.

そして、上述のSTEP32〜STEP34の処理を繰り返すことによって、STEP33で得られる差分画像ΔFxnの画素値が小さくなり、高解像度画像Fxnの画素値が、図2(a)に示す輝度分布の被写体に近い画素値に収束される。尚、n回目の処理におけるSTEP32及びSTEP34では、前回(n−1回目)の処理におけるSTEP34で得られた高解像度画像Fxnによって、低解像度推定画像Fan,Fbn及び高解像度推定画像Fx(n+1)が取得される。そして、差分画像ΔFxnの画素値(差分値)が所定値より小さくなったときや、差分画像ΔFxnの画素値(差分値)が収束されたとき、前の処理(n−1回目の処理)におけるSTEP34で得られた高解像度画像Fxnを、目的の高解像度画像として超解像処理を終了する。   Then, by repeating the processing of STEP 32 to STEP 34 described above, the pixel value of the difference image ΔFxn obtained in STEP 33 is reduced, and the pixel value of the high-resolution image Fxn is close to the subject having the luminance distribution shown in FIG. Converges to pixel values. In STEP 32 and STEP 34 in the n-th process, the low-resolution estimated images Fan and Fbn and the high-resolution estimated image Fx (n + 1) are obtained by the high-resolution image Fxn obtained in STEP 34 in the previous (n−1) -th process. To be acquired. Then, when the pixel value (difference value) of the difference image ΔFxn becomes smaller than a predetermined value, or when the pixel value (difference value) of the difference image ΔFxn is converged, in the previous process (n-1th process). The super-resolution processing is terminated with the high-resolution image Fxn obtained in STEP 34 as the target high-resolution image.

そして、本発明の以下の各実施形態において、動画撮影時に超解像処理を行う場合は、上述のSTEP32〜STEP34の処理の反復回数を少ない回数に設定し、静止画撮影時に超解像処理を行う場合は、上述のSTEP32〜STEP34の処理の反復回数を、動画撮影時に比べて多い回数に設定する。即ち、例えば、動画撮影時における上述のSTEP32〜STEP34の処理の反復回数をN1としたとき、静止画撮影時における上述のSTEP32〜STEP34の処理の反復回数を、N1よりも多いN2とする。又、動画撮影時においては、上述のSTEP32〜STEP34の処理の反復回数N1を1とし、上述のSTEP32〜STEP34の処理を1度だけ行うものとし、初期設定画像Fx1によって高解像度画像Fx2を推定するものとしても構わない。   In each of the following embodiments of the present invention, when super-resolution processing is performed during moving image shooting, the number of repetitions of the above-described STEP 32 to STEP 34 is set to a small number, and super-resolution processing is performed during still image shooting. In the case of performing the above, the number of repetitions of the above STEP 32 to STEP 34 is set to a larger number than the time of moving image shooting. That is, for example, when the number of repetitions of the above-described STEP 32 to STEP 34 during moving image shooting is N1, the number of repetitions of the above-described STEP 32 to STEP 34 during still image shooting is N2, which is larger than N1. Further, at the time of moving image shooting, the number of repetitions N1 of the above-described STEP32 to STEP34 is set to 1, the above-described STEP32 to STEP34 are performed only once, and the high-resolution image Fx2 is estimated from the initial setting image Fx1. It does n’t matter.

上述したフローを基本とする超解像処理として、[背景技術]で挙げたML法や、MAP法や、POCS法や、IBP法などが、画像処理部4で利用される。例えば、MAP法が利用される場合、STEP33において取得される高解像度画像Fxnに対する差分画像ΔFxnが、MAP法における評価関数を勾配法によって微分した値を画素値とする勾配画像で構成されるものとする。   As the super-resolution processing based on the above-described flow, the ML method, the MAP method, the POCS method, the IBP method, and the like mentioned in [Background Art] are used in the image processing unit 4. For example, when the MAP method is used, the difference image ΔFxn with respect to the high-resolution image Fxn acquired in STEP 33 is configured by a gradient image having a pixel value as a value obtained by differentiating the evaluation function in the MAP method by the gradient method. To do.

即ち、各画素位置での二乗誤差を画素値とする最小二乗法によって得られた差分画像ΔFan、ΔFbnを合成した高解像度画像Fxnの差分画像に、事後確率分布により拘束される高解像度画像Fxnの高速画像を加えた後、勾配法によって微分を行うことで、STEP33における差分画像ΔFxnに相当する勾配画像を取得する。そして、STEP34において、この勾配画像による差分画像ΔFxnを高解像度画像Fxnより減算することで、高解像度画像Fx(n+1)を再構築する。   That is, the high-resolution image Fxn constrained by the posterior probability distribution is added to the differential image of the high-resolution image Fxn obtained by combining the differential images ΔFan and ΔFbn obtained by the least square method using the square error at each pixel position as the pixel value. After adding the high-speed image, the gradient image corresponding to the difference image ΔFxn in STEP 33 is acquired by performing differentiation using the gradient method. In STEP 34, the high-resolution image Fx (n + 1) is reconstructed by subtracting the difference image ΔFxn based on the gradient image from the high-resolution image Fxn.

このような超解像処理を行う画像処理部4を備えた撮像装置の実施形態について、以下に説明する。尚、以下の各実施形態では、画像処理部4の超解像処理の詳細を特徴とするものであり、動画撮影動作、静止画撮影動作、動画再生動作、静止画再生動作それぞれについては、上述の動作で説明した動作を基本とするため、その詳細な説明は省略する。又、以下の各実施形態において、MAP法を代表して、画像処理部4による超解像動作について説明する。   An embodiment of an imaging device including the image processing unit 4 that performs such super-resolution processing will be described below. In the following embodiments, the details of the super-resolution processing of the image processing unit 4 are characterized. The moving image shooting operation, the still image shooting operation, the moving image playback operation, and the still image playback operation are described above. Therefore, the detailed description thereof is omitted. In each of the following embodiments, the super-resolution operation by the image processing unit 4 will be described on behalf of the MAP method.

<第1の実施形態>
本発明の第1の実施形態について、図面を参照して説明する。図4は、本実施形態の撮像装置における画像処理部の構成を示すブロック図である。
<First Embodiment>
A first embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram illustrating a configuration of an image processing unit in the imaging apparatus according to the present embodiment.

本実施形態の撮像装置における画像処理部4は、図4に示すように、AFE2でデジタル信号とされた1フレーム分の低解像度実画像となる画像信号を一時的に記憶するフレームメモリ41と、フレームメモリ41に記憶された1フレーム分の低解像度実画像が与えられた同様に1フレーム分の低解像度実画像を一時的に記憶するフレームメモリ42と、AFE2より入力される現フレームの低解像度実画像による画像信号とフレームメモリ41に記憶された現フレームより1フレーム前の低解像度実画像による画像信号とが与えられて動き量(位置ズレ量)を算出する動き量算出部43と、動き量算出部43で検出された動き量に基づいてフレームメモリ41,42に記憶された2フレームの低解像度実画像に対して超解像処理を行って高解像度画像を生成する超解像処理部44と、超解像処理部44で得られた高解像度画像を一時的に記憶して再び超解像処理部44に与えるフレームメモリ45と、超解像処理部44で超解像処理が施された高解像度画像による画像信号又はAFE2から直接与えられた画像信号より輝度信号及び色差信号を生成する信号処理部46と、を備える。   As shown in FIG. 4, the image processing unit 4 in the imaging apparatus according to the present embodiment includes a frame memory 41 that temporarily stores an image signal that is a low-resolution real image for one frame that has been converted into a digital signal by the AFE 2; Similarly, a frame memory 42 for temporarily storing a low-resolution real image for one frame, given a low-resolution real image for one frame stored in the frame memory 41, and a low-resolution for the current frame input from the AFE 2 A motion amount calculation unit 43 for calculating a motion amount (position shift amount) given an image signal based on an actual image and an image signal based on a low-resolution actual image one frame before the current frame stored in the frame memory 41; Based on the amount of motion detected by the amount calculation unit 43, super-resolution processing is performed on the low-resolution real images of two frames stored in the frame memories 41 and 42 to obtain a high A super-resolution processing unit 44 that generates an image image, a frame memory 45 that temporarily stores the high-resolution image obtained by the super-resolution processing unit 44, and supplies the high-resolution image to the super-resolution processing unit 44 again; And a signal processing unit 46 that generates a luminance signal and a color difference signal from an image signal based on a high-resolution image subjected to super-resolution processing in the image processing unit 44 or an image signal directly given from the AFE 2.

更に、超解像処理部44は、フレームメモリ41,42に記憶された2フレーム分の低解像度実画像(図3(a)の低解像度実画像Fa,Fbに相当)より初期高解像度画像となる高解像度画像(図3(a)の高解像度画像Fx1に相当)を推定する初期高解像度推定部441と、初期高解像度推定部441で推定されて得られた高解像度画像とフレームメモリ45に一時記憶された高解像度画像のいずれか1つを選択して後段に与える選択部442と、選択部442で選択された高解像度画像とフレームメモリ41,42に記憶された2フレーム分の低解像度実画像によって高解像画像の更新量(図3(d)の差分画像ΔFxnに相当)を求める高解像度更新量算出部443と、選択部442で選択された高解像度画像から高解像度更新量算出部443で得られた更新量を減算する減算部444と、を備える。   Further, the super-resolution processing unit 44 generates an initial high-resolution image from two frames of low-resolution real images (corresponding to the low-resolution real images Fa and Fb in FIG. 3A) stored in the frame memories 41 and 42. The initial high resolution estimation unit 441 that estimates the high resolution image (corresponding to the high resolution image Fx1 in FIG. 3A), the high resolution image estimated by the initial high resolution estimation unit 441, and the frame memory 45 A selection unit 442 that selects any one of the temporarily stored high-resolution images and gives it to the subsequent stage; the high-resolution image selected by the selection unit 442; and the low-resolution for two frames stored in the frame memories 41 and 42 A high-resolution update amount calculation unit 443 that obtains an update amount of the high-resolution image (corresponding to the difference image ΔFxn in FIG. 3D) from the actual image, and a high-resolution update amount from the high-resolution image selected by the selection unit 442 It includes a subtracting unit 444 subtracts the update amount obtained by the detection section 443, a.

(動き量検出部の動作)
まず、動き量検出部43の動作について簡単に説明する。まず、動き量検出部43には、現フレームとなる低解像度実画像FaがAFE2から与えられるとともに、現フレームの1フレーム前の低解像度実画像Fbがフレームメモリ41から与えられて、位置ズレとなる動き量が検出される。この動き量(位置ズレ量)の検出は、時間的に連続した2フレームの低解像度実画像Fa,Fbのうち、現フレームである低解像度実画像Faを非基準画像とし、もう一方の低解像度実画像Fbを基準画像として検出される。尚、本実施形態では、現フレームでないもう一方の低解像度実画像Fbを基準画像とするものとして説明するが、現フレームとなる低解像度実画像Faを基準画像としても構わない。
(Operation of the motion detection unit)
First, the operation of the motion amount detection unit 43 will be briefly described. First, the motion amount detection unit 43 is provided with the low-resolution real image Fa that is the current frame from the AFE 2 and the low-resolution real image Fb that is one frame before the current frame is provided from the frame memory 41, so Is detected. The detection of the amount of movement (positional shift amount) is performed by setting the current low-resolution real image Fa as a non-reference image out of two temporally continuous low-resolution real images Fa and Fb, and using the other low-resolution image. The actual image Fb is detected as a reference image. In the present embodiment, the other low-resolution actual image Fb that is not the current frame is described as the reference image. However, the low-resolution actual image Fa that is the current frame may be the reference image.

この動き量検出については、例えば、周知の代表点マッチング法によって、画像間における画素単位の動き量が検出され、その後、1画素内における動き量について、画素単位の位置ズレ補正された近隣画素の画素値の関係に基づいて検出されるものとしても構わない。以下に、代表点マッチング法と、1画素内における位置ズレ検出とについて、簡単に説明する。   For this motion amount detection, for example, the motion amount in units of pixels between images is detected by a well-known representative point matching method, and then, for the motion amount in one pixel, the positional displacement correction of pixel units is performed. It may be detected based on the relationship between pixel values. In the following, the representative point matching method and the positional deviation detection within one pixel will be briefly described.

(1)代表点マッチング法
基準画像及び非基準画像それぞれに対して、例えば、図5に示すように、a×bの画素群(例えば、36×36の画素群)を1つの小領域eとして分割し、更に、このp×q領域の小領域e群(例えば、6×8の小領域e群)を1つの検出領域Eとして分割する。そして、基準画像では、各小領域eにおいて、図6(a)のように、小領域eを構成するa×bの画素から1つの画素が代表点Rとして設定され、又、非基準画像では、各小領域eにおいて、図6(b)のように、小領域eを構成するa×bの画素のうちの複数の画素がサンプリング点Sとして設定される(例えば、a×bの画素全てをサンプリング点Sとしても構わない)。
(1) Representative Point Matching Method For each of the reference image and the non-reference image, for example, as shown in FIG. 5, an a × b pixel group (for example, a 36 × 36 pixel group) is set as one small region e. Further, the small region e group (for example, 6 × 8 small region e group) of the p × q region is further divided as one detection region E. In the reference image, in each small region e, as shown in FIG. 6A, one pixel is set as the representative point R from the a × b pixels constituting the small region e. In the non-reference image, In each small region e, as shown in FIG. 6B, a plurality of pixels among a × b pixels constituting the small region e are set as sampling points S (for example, all the pixels of a × b May be used as the sampling point S).

このように、小領域e及び検出領域Eを設定すると、基準画像と非基準画像の同一位置となる小領域eについて、非基準画像の各サンプリング点Sの画素値と基準画像の代表点Rの画素値との差が、各サンプリング点Sでの相関値として求められる。そして、検出領域E毎に、各小領域e間で代表点Rとの相対位置が同一となるサンプリング点Sの相関値を、検出領域Eを構成する全ての小領域e分だけ累積加算することで、各サンプリング点Sにおける累積相関値を取得する。これにより、検出領域E毎に、代表点Rとの相対位置が同一となるp×q個のサンプリング点Sの相関値が累積加算されることで、サンプリング点の個数分の累積相関値が得られる(例えば、a×bの画素全てをサンプリング点Sとする場合、a×b個の累積相関値が得られることとなる)。   Thus, when the small area e and the detection area E are set, the pixel value of each sampling point S of the non-reference image and the representative point R of the reference image for the small area e at the same position of the reference image and the non-reference image. A difference from the pixel value is obtained as a correlation value at each sampling point S. Then, for each detection region E, the correlation values of the sampling points S whose relative positions to the representative point R are the same among the small regions e are cumulatively added for all the small regions e constituting the detection region E. Thus, the cumulative correlation value at each sampling point S is acquired. Thus, for each detection region E, the correlation values of p × q sampling points S having the same relative position to the representative point R are cumulatively added, so that cumulative correlation values for the number of sampling points are obtained. (For example, when all the pixels of a × b are set as the sampling point S, a × b cumulative correlation values are obtained).

このようにして、各検出領域Eに対して、各サンプリング点Sに対する累積相関値が求められると、各検出領域Eにおいて、代表点Rと相関性が最も高いと考えられる累積相関値が最小となるサンプリング点Sが検出される。そして、各検出領域Eでは、累積相関値が最小となるサンプリング点Sと代表点Rとの動き量が、それぞれの画素位置によって求められる。その後、各検出領域Eそれぞれに対して求められた動き量を平均することで、この平均値を、基準画像と非基準画像との間の画素単位による動き量として検出する。   In this way, when the cumulative correlation value for each sampling point S is obtained for each detection region E, the cumulative correlation value considered to have the highest correlation with the representative point R in each detection region E is the minimum. A sampling point S is detected. In each detection region E, the amount of motion between the sampling point S and the representative point R that minimizes the cumulative correlation value is obtained from each pixel position. Thereafter, by averaging the motion amounts obtained for each detection region E, this average value is detected as a motion amount in pixel units between the reference image and the non-reference image.

(2)1画素内の動き量検出
上述のように、画素単位による動き量を検出すると、更に、1画素内における動き量が検出される。このとき、例えば、まず、図5に示す小領域e毎に、基準画像の代表点Rとなる画素の画素値と、上述の代表点マッチング法によって得られた動き量によって代表点Rと相関性の高いサンプリング点Sxとなる画素及び周辺画素それぞれの画素値との関係によって、1画素内における動き量を検出する。
(2) Motion amount detection within one pixel As described above, when a motion amount in pixel units is detected, a motion amount within one pixel is further detected. At this time, for example, for each small region e shown in FIG. 5, first, the correlation between the representative point R and the representative point R is determined based on the pixel value of the pixel serving as the representative point R of the reference image and the amount of motion obtained by the above-described representative point matching method. The amount of motion in one pixel is detected based on the relationship between the pixel value of the high sampling point Sx and the pixel values of the surrounding pixels.

即ち、各小領域eにおいて、基準画像で画素位置(ar,br)となる代表点Rの画素値La(図7(a)参照)と、非基準画像において画素位置(as,bs)となるサンプル点Sxの画素値Lbと、サンプル点Sxと水平方向に隣接する画素位置(as+1,bs)の画素値Lc(図7(b)参照)と、サンプル点Sxと垂直方向に隣接する画素位置(as,bs+1)の画素値Ld(図7(b)参照)との関係によって、1画素内における動き量が検出される。このとき、代表点マッチング法により、基準画素から非基準画像への画素単位の動き量が、(as−ar,bs−br)となるベクトル量で表される値となる。   That is, in each small region e, the pixel value La (see FIG. 7A) of the representative point R, which is the pixel position (ar, br) in the reference image, and the pixel position (as, bs) in the non-reference image. The pixel value Lb of the sample point Sx, the pixel value Lc (see FIG. 7B) of the pixel position (as + 1, bs) adjacent to the sample point Sx in the horizontal direction, and the pixel position adjacent to the sample point Sx in the vertical direction The amount of motion in one pixel is detected based on the relationship with the pixel value Ld (see FIG. 7B) of (as, bs + 1). At this time, according to the representative point matching method, the amount of movement of the pixel unit from the reference pixel to the non-reference image becomes a value represented by a vector amount of (as-ar, bs-br).

又、図8(a)のように、サンプル点Sxとなる画素から水平方向に1画素ずれることで、画素値Lbから画素値Lcに線形的に変化するものとし、図8(b)のように、サンプル点Sxとなる画素から垂直方向に1画素ずれることで、画素値Lbから画素値Ldに線形的に変化するものとする。そして、図7(a)及び図7(b)のような関係より、画素値Lb,Lcの間で画素値Laとなる水平方向の位置Δx(=(La−Lb)/(Lc−Lb))を求めるとともに、画素値Lb,Ldの間で画素値Laとなる垂直方向の位置Δy(=(La−Lb)/(Ld−Lb))を求める。即ち、(Δx,Δy)で表されるベクトル量が、基準画素と非基準画素との間における、1画素内での動き量として求められる。   Further, as shown in FIG. 8A, the pixel value Lb is changed linearly from the pixel value Lb by shifting one pixel in the horizontal direction from the pixel that is the sample point Sx, as shown in FIG. 8B. Furthermore, it is assumed that the pixel value Lb changes linearly from the pixel value Ld by shifting one pixel in the vertical direction from the pixel that becomes the sample point Sx. 7A and 7B, the horizontal position Δx (= (La−Lb) / (Lc−Lb) where the pixel value La is between the pixel values Lb and Lc. ) And a vertical position Δy (= (La−Lb) / (Ld−Lb)) that is the pixel value La between the pixel values Lb and Ld. That is, the vector amount represented by (Δx, Δy) is obtained as the amount of motion within one pixel between the reference pixel and the non-reference pixel.

このようにして、小領域eそれぞれにおける1画素内での動き量を求めると、求めた動き量を平均することで、この平均値を、基準画像Fbと非基準画像Faとの間の画素単位による動き量として検出する。そして、代表点マッチング法によって得られた画素単位による動き量に、求めた1画素内での動き量を加えることによって、基準画像Fbと非基準画像Faとの間における動き量を算出することができる。   Thus, when the motion amount within one pixel in each of the small regions e is obtained, the obtained motion amount is averaged, and this average value is obtained as a pixel unit between the reference image Fb and the non-reference image Fa. It is detected as the amount of movement by. Then, the motion amount between the reference image Fb and the non-reference image Fa can be calculated by adding the obtained motion amount within one pixel to the motion amount in pixel units obtained by the representative point matching method. it can.

上記の方法による動き量検出によって取得された動き量によって、超解像処理に最適となる低解像度画像の選択を行うことができるとともに、フレームメモリ41に記憶された低解像度実画像Faに対して、フレームメモリ42に記憶された低解像度実画像Fbを基準とした位置ズレ補正を行うことができる。尚、動き量検出部43における動き量検出については、上記の方法を例に挙げて説明したが、画素内における動き量まで検出できるものであれば、他の方法を用いることによって、連続する2フレーム分の低解像度実画像間の動き量を検出するようにしても構わない。   The low resolution image that is optimal for the super-resolution processing can be selected based on the motion amount acquired by the motion amount detection by the above method, and the low resolution real image Fa stored in the frame memory 41 can be selected. Thus, it is possible to perform positional deviation correction based on the low-resolution real image Fb stored in the frame memory 42. The motion amount detection in the motion amount detection unit 43 has been described by taking the above method as an example. However, if the motion amount within the pixel can be detected, other methods can be used to detect the motion amount. You may make it detect the amount of motion between the low-resolution real images for a frame.

(超解像処理部の動作)
次に、このように構成される超解像処理部44の動作について、図3を参照して説明する。尚、低解像度実画像を含む低解像度画像の画素数をuとし、初期高解像度画像を含む高解像度画像の画素数をvとする。そして、u画素による低解像度実画像Faの各画素値がYa=[ya1,ya2,…,yau]となり、u画素による低解像度実画像Fbの各画素値がYb=[yb1,yb2,…,ybu]となる。画像処理部4における超解像処理が行われるとき、フレームメモリ41,42に記憶された2フレーム分の低解像度実画像Fa,Fbが初期高解像度推定部441及び高解像度更新量算出部443に与えられる。
(Operation of super-resolution processor)
Next, the operation of the super-resolution processing unit 44 configured as described above will be described with reference to FIG. Note that u is the number of pixels of the low-resolution image including the low-resolution real image, and v is the number of pixels of the high-resolution image including the initial high-resolution image. Then, each pixel value of the low-resolution real image Fa using u pixels is Ya = [ya1, ya2,..., Au], and each pixel value of the low-resolution real image Fb using u pixels is Yb = [yb1, yb2,. ybu]. When super-resolution processing is performed in the image processing unit 4, the low-resolution real images Fa and Fb for two frames stored in the frame memories 41 and 42 are sent to the initial high-resolution estimation unit 441 and the high-resolution update amount calculation unit 443. Given.

(1)初期高解像画像による処理
低解像度実画像Fa,Fbが与えられる初期高解像度推定部441では、図3(a)に示すSTEP31のように、動き量算出部43で得られた動き量に基づいて、2フレームの低解像度実画像Fa,Fb間の位置ズレを検出する。そして、低解像度実画像Fa,Fbの各画素値Ya,Ybに対して、動き量により確認された位置ズレを利用した補間処理を施すことで、v画素による初期高解像度画像Fx1を取得する。尚、高解像度画像Fx1〜Fxnそれぞれの各画素値を、X=[x1,x2,…,xv]となるものとする。この初期高解像度推定部441で初期高解像度画像Fx1を生成する際、高解像度画像生成用のフィルタの一部にメディアンフィルタなどによるノイズ低減処理を行うフィルタを用いることや、高解像度画像生成用のフィルタのタップ数を広げることで、S/N比(信号/ノイズ比)を高くすることが好ましい。
(1) Processing by Initial High-Resolution Image In the initial high-resolution estimation unit 441 to which the low-resolution real images Fa and Fb are given, the motion obtained by the motion amount calculation unit 43 as in STEP 31 shown in FIG. Based on the amount, a positional shift between the low-resolution real images Fa and Fb of two frames is detected. Then, an initial high-resolution image Fx1 with v pixels is obtained by performing an interpolation process using a positional shift confirmed by the amount of motion on the pixel values Ya and Yb of the low-resolution real images Fa and Fb. It is assumed that the pixel values of the high resolution images Fx1 to Fxn are X = [x1, x2,..., Xv]. When the initial high-resolution image Fx1 is generated by the initial high-resolution estimation unit 441, a filter that performs noise reduction processing using a median filter or the like is used as a part of the high-resolution image generation filter, or a high-resolution image generation It is preferable to increase the S / N ratio (signal / noise ratio) by increasing the number of taps of the filter.

このようにして初期高解像度推定部441から初期高解像度画像Fx1が出力されると、選択部442によって、この初期高解像度画像Fx1が選択されて、高解像度更新量算出部443に与えられる。この高解像度更新量算出部443では、動き量算出部43で得られた動き量が与えられることで、動き量に基づいて、高解像実画像Fxに対する低解像度実画像Fa,Fbそれぞれの位置ズレや低解像化によるぼけが算出される。この動き量より得られる位置ズレやぼけと、v画素の高解像度画像Fxnからu画素の低解像度実画像Fa,Fbに相当する低解像度推定画像Fan,Fbnへのダウンサンプリング量とを含むカメラパラメータ行列Wa,Wbが求められる。   When the initial high resolution image Fx1 is output from the initial high resolution estimation unit 441 as described above, the selection unit 442 selects the initial high resolution image Fx1 and provides it to the high resolution update amount calculation unit 443. In the high-resolution update amount calculation unit 443, the position of each of the low-resolution real images Fa and Fb with respect to the high-resolution real image Fx based on the amount of motion is given by the motion amount obtained by the motion amount calculation unit 43. Displacement and blur due to low resolution are calculated. Camera parameters including positional deviation and blur obtained from the amount of motion, and down-sampling amounts from v-pixel high-resolution image Fxn to low-resolution estimated images Fan and Fbn corresponding to u-pixel low-resolution actual images Fa and Fb Matrixes Wa and Wb are obtained.

そして、選択部442を通じて与えられた初期高解像度画像Fx1に対して、カメラパラメータ行列Wa,Wbが乗算されることで、図3(b)に示すSTEP32のように、低解像度実画像Fa,Fbに擬似的に類似させた低解像度推定画像Fa1(=Wa・X),Fb1(=Wb・X)が推定される。又、この高解像度更新量算出部443は、フレームメモリ41,42に記憶された2フレーム分の低解像度実画像Fa,Fbが与えられることで、推定した低解像度推定画像Fa1,Fb1と低解像度実画像Fa,Fbとの二乗誤差による差分|Wa・X−Ya|2、|Wb・X−Yb|2が求められる。 Then, the initial high resolution image Fx1 given through the selection unit 442 is multiplied by the camera parameter matrices Wa and Wb, so that the low resolution real images Fa and Fb are obtained as in STEP32 shown in FIG. Low-resolution estimated images Fa1 (= Wa · X) and Fb1 (= Wb · X) are estimated. Further, the high-resolution update amount calculation unit 443 is provided with the low-resolution actual images Fa and Fb for two frames stored in the frame memories 41 and 42, so that the estimated low-resolution estimated images Fa1 and Fb1 and the low-resolution Differences | Wa · X−Ya | 2 and | Wb · X−Yb | 2 due to square errors with the actual images Fa and Fb are obtained.

この低解像度推定画像Fa1,Fb1と低解像度実画像Fa,Fbとの差分による評価関数Iが、それぞれの差分の加算値に、選択部442で選択された高解像度画像によって得られる拘束項が付加された形で求められる。即ち、求められる評価関数Iは、|Wa・X−Ya|2+|Wb・X−Yb|2+γ|CX|2となる。尚、この評価関数Iの拘束項γ|CX|2において、行列Cが、事前確率モデルに基づく行列であり、「高解像度画像には高域成分が少ない」という事前知識に基づき、例えば、ラプラシアンフィルタなどのハイパスフィルタによって構成される。又、係数γは、拘束項の評価関数Iにおける重みの強さを表すパラメータである。 The evaluation function I based on the difference between the low-resolution estimated images Fa1, Fb1 and the low-resolution actual images Fa, Fb is added with a constraint term obtained by the high-resolution image selected by the selection unit 442 to the added value of each difference. It is required in the form. That is, the obtained evaluation function I is | Wa · X−Ya | 2 + | Wb · X−Yb | 2 + γ | CX | 2 . In the constraint term γ | CX | 2 of the evaluation function I, the matrix C is a matrix based on the prior probability model, and based on the prior knowledge that “the high-resolution image has few high-frequency components”, for example, Laplacian It is composed of a high-pass filter such as a filter. The coefficient γ is a parameter representing the strength of the weight in the evaluation function I of the constraint term.

このようにして求められた評価関数Iに対して勾配法によって最小化を行うため、評価関数Iに対する勾配∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+γCT・C・X})が求められる。尚、添え字である「T」は、転置行列を表す。この更新量となる勾配∂I/∂Xを求めることで、高解像度更新量算出部443において、図3(c)によって示すSTEP33における差分画像ΔFx1が求められることとなる。 To perform a minimization with respect to the way the obtained evaluation function I by the gradient method, the gradient ∂I / ∂X for the evaluation function I (= 2 × {Wa T · (Wa · X-Ya) + Wb T · (Wb · X−Yb) + γC T · C · X}). The subscript “T” represents a transposed matrix. By obtaining the gradient ∂I / ∂X that is the update amount, the high-resolution update amount calculation unit 443 obtains the difference image ΔFx1 in STEP 33 shown in FIG.

このようにして算出した勾配∂I/∂Xによる更新量が、高解像度更新量算出部443より減算部444に与えられると、減算部444では、図3(d)におけるSTEP34のように、選択部442を介して初期高解像度推定部441より与えられる初期高解像度画像Fx1より、勾配∂I/∂Xによる更新量を減算する。この減算部444の減算結果により、v画素の画素値それぞれが(X−∂I/∂X)となる高解像度画像Fx2が得られる。そして、この新たに得られた高解像度画像Fx2が減算部444より出力されて、フレームメモリ45に与えられて、一時的に記憶される。   When the update amount based on the gradient ∂I / ∂X calculated in this way is given from the high resolution update amount calculation unit 443 to the subtraction unit 444, the subtraction unit 444 selects as shown in STEP 34 in FIG. The update amount by the gradient ∂I / ∂X is subtracted from the initial high-resolution image Fx1 provided from the initial high-resolution estimation unit 441 via the unit 442. As a result of the subtraction by the subtracting unit 444, a high-resolution image Fx2 in which the pixel values of the v pixels are (X−∂I / ∂X) is obtained. Then, the newly obtained high resolution image Fx2 is output from the subtracting unit 444, given to the frame memory 45, and temporarily stored.

(2)生成後の高解像画像による処理
上述のように、初期高解像度画像Fx1を取得して、高解像度画像の更新量を勾配∂I/∂Xとし、新たな高解像度画像Fx2を取得すると、選択部442は、フレームメモリ45に格納された高解像度画像を選択して高解像度更新量算出部443に与える。即ち、n(n≧2の整数)回目の演算処理の場合、フレームメモリ45に格納された高解像度画像Fxnが選択部442によって読み出されて、高解像度更新量算出部443に与えられる。
(2) Processing by high-resolution image after generation As described above, the initial high-resolution image Fx1 is acquired, and the update amount of the high-resolution image is set as the gradient ∂I / ∂X, and a new high-resolution image Fx2 is acquired. Then, the selection unit 442 selects the high-resolution image stored in the frame memory 45 and gives it to the high-resolution update amount calculation unit 443. That is, in the case of the nth (n ≧ 2) arithmetic processing, the high-resolution image Fxn stored in the frame memory 45 is read by the selection unit 442 and provided to the high-resolution update amount calculation unit 443.

よって、高解像度更新量算出部443では、フレームメモリ45に格納された高解像度画像Fxnによって、低解像度推定画像Fan(=Wa・X),Fbn(=Wb・X)を推定する。そして、低解像度実画像Fa,Fb及び低解像度推定画像Fan,Fbnそれぞれにおける二乗誤差による差分|Wa・X−Ya|2、|Wb・X−Yb|2が求められる。これにより、評価関関数Iに対する勾配∂I/∂Xが、n回目の演算処理における更新量として算出される。 Accordingly, the high resolution update amount calculation unit 443 estimates the low resolution estimated images Fan (= Wa · X) and Fbn (= Wb · X) from the high resolution image Fxn stored in the frame memory 45. Then, differences | Wa · X−Ya | 2 and | Wb · X−Yb | 2 due to square errors in the low resolution actual images Fa and Fb and the low resolution estimated images Fan and Fbn are obtained. As a result, the gradient ∂I / に 対 す る X with respect to the evaluation function I is calculated as the update amount in the nth arithmetic processing.

即ち、低解像度推定画像Fan,Fbnと、入力される低解像実画像Fa,Fb及び高解像度画像Fxnとによって、更新量となる∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+γCT・C・X})による差分画像ΔFxnが、高解像度更新量算出部443で求められる。そして、減算部445において、高解像度更新量算出部443で求められた差分画像ΔFxnが、選択部442を介してフレームメモリ45から与えられる高解像度画像Fxnより減算されて、即ち、X−∂I/∂Xの演算が行われることで、新たに高解像度画像Fx(n+1)が得られる。 That is, the estimated low-resolution images Fan, and Fbn, low-resolution real image Fa that is input by the Fb and high resolution image Fxn, the update amount ∂I / ∂X (= 2 × { Wa T · (Wa · X−Ya) + Wb T · (Wb · X−Yb) + γC T · C · X}) is obtained by the high-resolution update amount calculation unit 443. Then, in the subtraction unit 445, the difference image ΔFxn obtained by the high resolution update amount calculation unit 443 is subtracted from the high resolution image Fxn given from the frame memory 45 via the selection unit 442, that is, X−∂I When the calculation of / X is performed, a new high-resolution image Fx (n + 1) is obtained.

そして、超解像処理部44内において、高解像度更新量算出部443による演算処理回数をn回に設定している場合は、減算部445で新たに得られた高解像度画像Fx(n+1)を、減算部445から信号処理部46に出力する。又、超解像処理部44内において、高解像度更新量算出部443による演算処理回数をn+1回以上に設定している場合は、高解像度画像Fx(n+1)をフレームメモリ45に与えて一時記憶して、n+1回目の演算処理を行う。   Then, in the super-resolution processing unit 44, when the number of times of arithmetic processing by the high-resolution update amount calculation unit 443 is set to n times, the high-resolution image Fx (n + 1) newly obtained by the subtraction unit 445 is used. The signal is output from the subtracting unit 445 to the signal processing unit 46. Further, in the super-resolution processing unit 44, when the number of arithmetic processings by the high-resolution update amount calculation unit 443 is set to n + 1 or more, the high-resolution image Fx (n + 1) is given to the frame memory 45 and temporarily stored. Then, the (n + 1) th arithmetic processing is performed.

(動画撮影時の超解像処理動作)
上述のように超解像処理部44が動作する撮像装置において、動画撮影が指示されると、1フレームの撮影処理時間が短時間となるため、超解像処理部44における超解像処理動作にかかる時間を短時間とする必要がある。よって、本実施形態において、動画撮影時に超解像処理が要求された場合、高解像度画像生成処理が初期高解像度画像Fx1によってのみ生成されるものとし、その処理時間を短時間に設定する。これにより、フレームメモリ45による高解像度画像の記憶動作を省略することができる。
(Super-resolution processing operation during movie shooting)
In the imaging device in which the super-resolution processing unit 44 operates as described above, when a moving image shooting is instructed, the imaging processing time of one frame becomes short, so the super-resolution processing operation in the super-resolution processing unit 44 It is necessary to shorten the time required for the above. Therefore, in this embodiment, when super-resolution processing is requested during moving image shooting, the high-resolution image generation processing is generated only by the initial high-resolution image Fx1, and the processing time is set to a short time. Thereby, the storage operation of the high resolution image by the frame memory 45 can be omitted.

即ち、イメージセンサ1から出力された画像信号がAFE2でデジタル信号に変換されて画像処理部4に与えられると、現フレームとなる低解像実画像Faがフレームメモリ41に格納される。このとき、フレームメモリ41に格納された1フレーム前のフレームによる低解像実画像Fbが、フレームメモリ42に格納される。又、AFE2からの低解像度実画像Faは動き量検出部43にも与えられ、フレームメモリ41に格納されている低解像度実画像Fbとの動き量が検出される。   That is, when the image signal output from the image sensor 1 is converted into a digital signal by the AFE 2 and applied to the image processing unit 4, the low-resolution real image Fa that becomes the current frame is stored in the frame memory 41. At this time, the low-resolution real image Fb of the previous frame stored in the frame memory 41 is stored in the frame memory 42. The low resolution actual image Fa from the AFE 2 is also supplied to the motion amount detection unit 43, and the motion amount with the low resolution actual image Fb stored in the frame memory 41 is detected.

そして、フレームメモリ41,42に格納された低解像度実画像Fa,Fbと、動き検出部43で検出された動き量とが、超解像処理部44に与えられて、超解像処理が成される。超解像処理部44では、初期高解像度推定部441において、動き量算出部43で得られた動き量に基づいて、低解像度実画像Fa,Fbにより初期高解像度画像Fx1を取得する。この初期高解像度画像Fx1が、選択部442を介して高解像度更新量算出部443に与えられると、低解像度実画像Fa,Fbとによって、更新量∂I/∂Xによる差分画像ΔFx1が求められる。そして、減算部444において、初期高解像度画像Fx1から差分画像ΔFx1による更新量∂I/∂Xが減算されることで、高解像度画像Fx2が取得される。   Then, the low-resolution real images Fa and Fb stored in the frame memories 41 and 42 and the motion amount detected by the motion detection unit 43 are given to the super-resolution processing unit 44 to perform super-resolution processing. Is done. In the super-resolution processing unit 44, the initial high resolution estimation unit 441 acquires the initial high resolution image Fx1 from the low resolution real images Fa and Fb based on the motion amount obtained by the motion amount calculation unit 43. When the initial high-resolution image Fx1 is given to the high-resolution update amount calculation unit 443 via the selection unit 442, a difference image ΔFx1 with the update amount ∂I / ∂X is obtained from the low-resolution actual images Fa and Fb. . Then, the subtraction unit 444 subtracts the update amount ∂I / ∂X based on the difference image ΔFx1 from the initial high resolution image Fx1, thereby obtaining the high resolution image Fx2.

このようにして超解像処理部44で得られた高解像度画像Fx2は、減算部444より信号処理部46に出力されることで、輝度信号及び色差信号が生成される。この画像処理部4の信号処理部46で生成された高解像度画像に対する輝度信号及び色差信号が、圧縮処理部6に与えられる。この輝度信号及び色差信号による画像信号が、音声処理部5からの音声信号とともに、MPEG圧縮符号化方式によって圧縮符号化処理がなされて、動画用の圧縮符号化信号が生成される。   The high-resolution image Fx2 obtained by the super-resolution processing unit 44 in this way is output from the subtraction unit 444 to the signal processing unit 46, thereby generating a luminance signal and a color difference signal. The luminance signal and the color difference signal for the high resolution image generated by the signal processing unit 46 of the image processing unit 4 are given to the compression processing unit 6. The image signal based on the luminance signal and the color difference signal is compression-encoded by the MPEG compression encoding method together with the audio signal from the audio processing unit 5 to generate a compressed encoded signal for moving images.

(静止画撮影時の超解像処理動作)
又、静止画撮影が指示される場合は、動画撮影時と異なり、撮影処理時間が短時間となることがないため、超解像処理部44における超解像処理動作にかかる時間を長時間とすることができる。よって、動画撮影時に超解像処理が要求された場合と同様、高解像度画像生成処理が初期高解像度画像Fx1を推定した後、フレームメモリ45を用いて高解像度画像の設定処理を繰り返す。
(Super-resolution processing when shooting still images)
Also, when still image shooting is instructed, unlike the time of moving image shooting, the shooting processing time does not become short, so the time taken for the super-resolution processing operation in the super-resolution processing unit 44 is long. can do. Therefore, as in the case where super-resolution processing is requested during moving image shooting, the high-resolution image generation processing estimates the initial high-resolution image Fx1, and then repeats the setting processing for the high-resolution image using the frame memory 45.

即ち、超解像処理部44で生成された高解像度画像をフレームメモリ45に記憶した後、このフレームメモリ45に記憶した高解像度画像に基づいて更新量を算出して、この更新量に基づいた新たな高解像度画像を生成する動作を、複数回繰り返す。尚、この反復回数については、予め設定した回数であっても構わないし、更新量が所定値よりも小さくなるまで繰り返し行う回数であっても構わない。   That is, after the high-resolution image generated by the super-resolution processing unit 44 is stored in the frame memory 45, an update amount is calculated based on the high-resolution image stored in the frame memory 45, and based on this update amount The operation of generating a new high resolution image is repeated a plurality of times. The number of iterations may be a preset number, or may be repeated until the update amount becomes smaller than a predetermined value.

動画撮影時と同様、イメージセンサ1から出力された画像信号がAFE2でデジタル信号に変換されて画像処理部4に与えられると、現フレームとなる低解像実画像Faがフレームメモリ41に格納されるとともに、フレームメモリ41に格納された1フレーム前のフレームによる低解像実画像Fbが、フレームメモリ42に格納される。又、AFE2及びフレームメモリ41のそれぞれから低解像度実画像Fa,Fbが動き量検出部43に与えられて、動き量が算出される。   As in the case of moving image shooting, when the image signal output from the image sensor 1 is converted into a digital signal by the AFE 2 and given to the image processing unit 4, the low-resolution real image Fa that becomes the current frame is stored in the frame memory 41. At the same time, the low-resolution real image Fb of the previous frame stored in the frame memory 41 is stored in the frame memory 42. Further, the low-resolution real images Fa and Fb are supplied from the AFE 2 and the frame memory 41 to the motion amount detection unit 43, and the motion amount is calculated.

そして、フレームメモリ41,42に格納された低解像度実画像Fa,Fbと、動き量検出部43からの動き量とが、超解像処理部44に与えられると、初期高解像度推定部441で初期高解像度画像Fx1が推定される。更に、高解像度更新量算出部443で初期高解像度画像Fx1と低解像度実画像Fa,Fbとによる更新量∂I/∂Xが算出されて、減算部444で初期高解像度画像Fx1より減算することで、高解像度画像Fx2が得られる。   When the low-resolution real images Fa and Fb stored in the frame memories 41 and 42 and the motion amount from the motion amount detection unit 43 are given to the super-resolution processing unit 44, the initial high-resolution estimation unit 441 An initial high resolution image Fx1 is estimated. Further, the update amount ∂I / ∂X between the initial high resolution image Fx1 and the low resolution actual images Fa and Fb is calculated by the high resolution update amount calculation unit 443, and subtracted from the initial high resolution image Fx1 by the subtraction unit 444. Thus, a high resolution image Fx2 is obtained.

このようにして超解像処理部44で得られた高解像度画像Fx2は、フレームメモリ45に与えられて、一時的に記憶されると、選択部442を介して高解像度更新量算出部443に与えられることとなる。その後、上述したように、高解像度更新量算出部443では、フレームメモリ45に格納された高解像度画像Fxnと、フレームメモリ41,42からの低解像度画像Fa,Fbとによって、更新量∂I/∂Xによる差分画像ΔFxnを算出する。   When the high resolution image Fx2 obtained by the super-resolution processing unit 44 in this way is given to the frame memory 45 and temporarily stored, the high resolution update amount calculation unit 443 is passed through the selection unit 442. Will be given. Thereafter, as described above, the high-resolution update amount calculation unit 443 uses the high-resolution image Fxn stored in the frame memory 45 and the low-resolution images Fa and Fb from the frame memories 41 and 42 to update the amount ∂I / A difference image ΔFxn by ∂X is calculated.

そして、減算部444によって、高解像度画像Fxnから差分画像ΔFxnによる更新量∂I/∂Xを減算して、高解像度画像Fx(n+1)を取得する。このとき、n回となる演算処理回数が、予め設定した反復回数となった場合、又は、高解像度更新量算出部443で算出された更新量∂I/∂Xが所定値以下となった場合、取得した高解像度画像Fx(n+1)を信号処理部46に出力する。逆に、これらの条件を満たしていない場合は、更に、演算処理を繰り返すために、取得した高解像度画像Fx(n+1)をフレームメモリ45に出力する。   Then, the subtraction unit 444 subtracts the update amount ∂I / ∂X based on the difference image ΔFxn from the high resolution image Fxn to obtain the high resolution image Fx (n + 1). At this time, when the number of calculation processing times n is a preset number of iterations, or when the update amount ∂I / ∂X calculated by the high-resolution update amount calculation unit 443 is equal to or less than a predetermined value. The acquired high resolution image Fx (n + 1) is output to the signal processing unit 46. Conversely, when these conditions are not satisfied, the acquired high-resolution image Fx (n + 1) is output to the frame memory 45 in order to repeat the arithmetic processing.

このようにして超解像処理部44内で演算処理が繰り返し行われて得られた高解像度画像が、信号処理部46に出力されると、高解像度画像による輝度信号及び色差信号が生成される。この画像処理部4の信号処理部46で生成された高解像度画像に対する輝度信号及び色差信号が、圧縮処理部6に与えられる。この輝度信号及び色差信号による画像信号が、JPEG圧縮符号化方式によって圧縮符号化処理がなされて、静止画像用の圧縮符号化信号が生成される。   When a high-resolution image obtained by repeatedly performing arithmetic processing in the super-resolution processing unit 44 in this manner is output to the signal processing unit 46, a luminance signal and a color difference signal based on the high-resolution image are generated. . The luminance signal and the color difference signal for the high resolution image generated by the signal processing unit 46 of the image processing unit 4 are given to the compression processing unit 6. The image signal based on the luminance signal and the color difference signal is subjected to compression encoding processing by the JPEG compression encoding method, and a compressed encoded signal for a still image is generated.

尚、本実施形態においては、動画撮影時において、超解像処理部44で生成された高解像度画像がフレームメモリ45に一時記憶されて、再度、超解像のための演算処理が繰り返されずに、信号処理部46に出力されるものとした。しかしながら、静止画撮影時と同様、フレームメモリ45に一時記憶して、超解像処理部44での演算処理を複数回繰り返して得られた高解像度画像を出力するものとしても構わない。このように、動画撮影時において、超解像処理部44での演算処理を複数回繰り返す場合、上述したように、その反復回数が1フレーム毎の撮影期間に応じた回数に設定され、静止画撮影時における反復回数よりも少ない回数に設定される。   In this embodiment, the high-resolution image generated by the super-resolution processing unit 44 is temporarily stored in the frame memory 45 at the time of moving image shooting, and the arithmetic processing for super-resolution is not repeated again. , And output to the signal processing unit 46. However, as in the case of still image shooting, the frame memory 45 may be temporarily stored and a high-resolution image obtained by repeating the arithmetic processing in the super-resolution processing unit 44 a plurality of times may be output. As described above, when the calculation process in the super-resolution processing unit 44 is repeated a plurality of times during moving image shooting, the number of repetitions is set to the number corresponding to the shooting period for each frame as described above, and the still image The number is set to be smaller than the number of repetitions at the time of shooting.

又、動画撮影時において、静止画撮影時に比べて、超解像処理における演算処理の反復回数を少なくするものとしたが、複数フレームを連続に撮影する連続撮影時においても、同様に、超解像処理における演算処理の反復回数を少なくするものとしても構わない。   In addition, the number of iterations of the calculation process in the super-resolution processing is reduced during moving image shooting compared to still image shooting. However, super-resolution is similarly applied during continuous shooting of a plurality of frames. It is also possible to reduce the number of iterations of arithmetic processing in image processing.

更に、本実施形態において、超解像処理部44において、連続して撮像された2フレーム分の低解像度実画像から高解像度画像を取得するものとしたが、3フレーム以上の低解像度実画像によって高解像度画像を生成するものとしても構わない。このとき、高解像度画像生成に使用する低解像度実画像のフレーム数だけフレームメモリを必要とする。又、連続する2フレーム毎に検出された低解像度実画像の動き量を記憶する動き量記憶部を、フレーム数から1つ少ない個数だけ必要とする。   Furthermore, in the present embodiment, the super-resolution processing unit 44 acquires a high-resolution image from low-resolution real images for two frames that are continuously captured. A high-resolution image may be generated. At this time, as many frame memories as the number of frames of the low-resolution real image used for generating the high-resolution image are required. In addition, a motion amount storage unit that stores the motion amount of the low-resolution real image detected every two consecutive frames is required by one less than the number of frames.

(3フレームによる超解像処理を行う場合の構成)
以下に、3フレーム以上の低解像度実画像から高解像度画像を取得できるものとしたときの、画像処理部4の構成例として、3フレームの低解像度実画像を用いる場合の構成を示す。図9は、本例の画像処理部の構成を示すブロック図である。図9に示す画像処理部の構成において、図4の構成と同一の部分については、同一の符号を付してその詳細な説明は省略する。
(Configuration for super-resolution processing with 3 frames)
Hereinafter, as a configuration example of the image processing unit 4 when a high-resolution image can be acquired from a low-resolution real image of 3 frames or more, a configuration in the case of using a 3-frame low-resolution real image is shown. FIG. 9 is a block diagram showing the configuration of the image processing unit of this example. In the configuration of the image processing unit shown in FIG. 9, the same parts as those in the configuration of FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.

図9に示す画像処理部4は、図4の構成と同様、フレームメモリ41,42と、動き量検出部43と、超解像処理部44と、フレームメモリ45と、信号処理部46とを、備え、更に、フレームメモリ42に記憶された低解像度実画像が与えられて一時的に記憶するフレームメモリ47と、動き量検出部43で検出された動き量が与えられて一時的に記憶する動き量記憶部48と、を備える。   The image processing unit 4 shown in FIG. 9 includes frame memories 41 and 42, a motion amount detection unit 43, a super-resolution processing unit 44, a frame memory 45, and a signal processing unit 46, as in the configuration of FIG. In addition, a frame memory 47 is provided for temporarily storing a low-resolution real image stored in the frame memory 42, and a motion amount detected by the motion amount detection unit 43 is provided for temporary storage. A movement amount storage unit 48.

このように構成されるとき、AFE2より現フレームとなる低解像度実画像Faが画像処理部4に与えられるとき、フレームメモリ41に格納されている1フレーム前の低解像度実画像Fbがフレームメモリ42に与えられるとともに、フレームメモリ42に格納されている2フレーム前の低解像度実画像Fcがフレームメモリ47に与えられる。又、AFE2からの低解像度実画像Faが動き量検出部43に与えられることで、低解像度実画像Fa,Fb間の動き量が検出される。   In such a configuration, when the low-resolution real image Fa that is the current frame is supplied from the AFE 2 to the image processing unit 4, the low-resolution real image Fb one frame before stored in the frame memory 41 is the frame memory 42. And the low-resolution real image Fc two frames before stored in the frame memory 42 is supplied to the frame memory 47. Further, the low-resolution actual image Fa from the AFE 2 is given to the motion amount detection unit 43, so that the motion amount between the low-resolution actual images Fa and Fb is detected.

このとき、既に検出された低解像度実画像Fb,Fc間の動き量が、動き量記憶部48に与えられて一時的に記憶される。更に、動き量検出部43では、低解像度実画像Fb,Fc間の動き量と、低解像度実画像Fa,Fb間の動き量とを加算することにより、低解像度実画像Fa,Fc間の動き量を算出する。そして、動き量検出部43で検出された低解像度実画像Fa,Fc間の動き量と、動き量記憶部48に記憶されている低解像度実画像Fb,Fc間の動き量とが、超解像処理部44に与えられる。   At this time, the motion amount between the low-resolution real images Fb and Fc already detected is given to the motion amount storage unit 48 and temporarily stored. Further, the motion amount detection unit 43 adds the motion amount between the low-resolution actual images Fb and Fc and the motion amount between the low-resolution actual images Fa and Fb, thereby moving the motion between the low-resolution actual images Fa and Fc. Calculate the amount. Then, the motion amount between the low-resolution actual images Fa and Fc detected by the motion amount detection unit 43 and the motion amount between the low-resolution actual images Fb and Fc stored in the motion amount storage unit 48 are super solutions. This is given to the image processing unit 44.

そして、フレームメモリ41,42,47に格納された低解像度実画像Fa,Fb,Fcと、動き量検出部43及び動き量記憶部48それぞれからの動き量とが、超解像処理部44に与えられて、超解像処理が成される。この超解像処理部44では、初期高解像度推定部441において、動き量検出部43及び動き量記憶部48それぞれからの動き量に基づいて、連続する3フレームの低解像度実画像Fa〜Fcにより初期高解像度画像Fx1を取得する。   Then, the low-resolution real images Fa, Fb, Fc stored in the frame memories 41, 42, 47 and the motion amounts from the motion amount detection unit 43 and the motion amount storage unit 48 are stored in the super-resolution processing unit 44. Given this, super-resolution processing is performed. In the super-resolution processing unit 44, the initial high-resolution estimation unit 441 uses three consecutive low-resolution real images Fa to Fc based on the motion amounts from the motion amount detection unit 43 and the motion amount storage unit 48. An initial high resolution image Fx1 is acquired.

又、高解像度更新量算出部443では、連続した3フレームの低解像度実画像Fa〜Fcと、選択部442で選択された高解像度画像とによって、更新量∂I/∂Xで構成される差分画像が求められる。これにより、減算部444より、選択部442で選択された高解像度画像から、高解像度更新量算出部443で取得された差分画像による更新量∂I/∂Xが減算されることで、高解像度画像が生成される。このようにして超解像処理部44で得られた高解像度画像が、減算部444より信号処理部46に出力されることで、輝度信号及び色差信号が生成されると、圧縮処理部6で圧縮符号化処理がなされて、動画用又は静止画像用の圧縮符号化信号が生成される。   The high-resolution update amount calculation unit 443 also includes a difference constituted by the update amount ∂I / ∂X by the continuous three frames of low-resolution real images Fa to Fc and the high-resolution image selected by the selection unit 442. An image is required. As a result, the subtraction unit 444 subtracts the update amount ∂I / ∂X based on the difference image acquired by the high resolution update amount calculation unit 443 from the high resolution image selected by the selection unit 442. An image is generated. When the high-resolution image obtained by the super-resolution processing unit 44 in this way is output from the subtraction unit 444 to the signal processing unit 46, and the luminance signal and the color difference signal are generated, the compression processing unit 6 A compression encoding process is performed to generate a compression encoding signal for a moving image or a still image.

<第2の実施形態>
本発明の第2の実施形態について、図面を参照して説明する。図10は、本実施形態の撮像装置における画像処理部の構成を示すブロック図である。図10に示す画像処理部の構成において、図9の構成と同一の部分については、同一の符号を付してその詳細な説明は省略する。
<Second Embodiment>
A second embodiment of the present invention will be described with reference to the drawings. FIG. 10 is a block diagram illustrating a configuration of an image processing unit in the imaging apparatus of the present embodiment. In the configuration of the image processing unit shown in FIG. 10, the same parts as those in the configuration of FIG. 9 are denoted by the same reference numerals and detailed description thereof is omitted.

本実施形態の撮像装置における画像処理部4は、図10に示すように、図9の構成におけるフレームメモリ47が省かれた構成とされるとともに、フレームメモリ42に記録された1フレームの低解像度実画像と超解像処理部44で生成された高解像度画像とのいずれかを選択してフレームメモリ45に与える選択部49を備える。   As shown in FIG. 10, the image processing unit 4 in the imaging apparatus of the present embodiment has a configuration in which the frame memory 47 in the configuration in FIG. 9 is omitted, and one frame of low resolution recorded in the frame memory 42. A selection unit 49 is provided that selects either the real image or the high-resolution image generated by the super-resolution processing unit 44 and supplies the selected image to the frame memory 45.

このように構成される画像処理部4を備える撮像装置において、選択部49では、撮影動作が動画撮影時及び静止画撮影時のいずれかによって、選択してフレームメモリ45に出力する画像が設定される。即ち、動画撮影が指示されると、選択部49では、フレームメモリ42からの低解像度実画像が選択される。一方、静止画撮影が指示されると、選択部49では、超解像処理部44で生成された高解像度画像が選択される。   In the imaging apparatus including the image processing unit 4 configured as described above, the selection unit 49 sets an image to be selected and output to the frame memory 45 depending on whether the shooting operation is a moving image shooting or a still image shooting. The That is, when moving image shooting is instructed, the selection unit 49 selects a low-resolution real image from the frame memory 42. On the other hand, when still image shooting is instructed, the selection unit 49 selects the high-resolution image generated by the super-resolution processing unit 44.

よって、動画撮影時においては、フレームメモリ45が、現フレームの2フレーム前の低解像度実画像を記憶するためのフレームメモリ(図9におけるフレームメモリ47に相当)として利用され、超解像処理部44において、図9の構成の画像処理部4と同様、連続する3フレームの低解像度実画像によって高解像度画像が生成される。このとき、フレームメモリ45は、超解像処理部44で生成された高解像度画像を再び超解像処理部44に帰還させるためには使用されない。よって、超解像処理部44における演算処理は繰り返されることなく、一度だけ行われることとなる。   Therefore, at the time of moving image shooting, the frame memory 45 is used as a frame memory (corresponding to the frame memory 47 in FIG. 9) for storing a low-resolution real image two frames before the current frame, and a super-resolution processing unit. At 44, as in the image processing unit 4 having the configuration shown in FIG. 9, a high-resolution image is generated from three consecutive low-resolution real images. At this time, the frame memory 45 is not used for returning the high-resolution image generated by the super-resolution processing unit 44 to the super-resolution processing unit 44 again. Therefore, the arithmetic processing in the super-resolution processing unit 44 is performed only once without being repeated.

このように動作するため、AFE2より低解像度実画像Faが入力されると、フレームメモリ41,42,45それぞれに、連続する3フレームの低解像度実画像Fa,Fb,Fcが与えられて、一時的に記憶されることとなる。そして、動き量検出部43では、低解像度実画像Fb,Fc間の動き量を動き量記憶部48に与えて一時的に記憶させるとともに、低解像度実画像Fa,Fb間の動き量を検出する。更に、この動き量検出部43では、低解像度実画像Fa,Fb間の動き量と低解像度実画像Fb,Fc間の動き量とを加算することで、低解像度実画像Fa,Fc間の動き量を算出する。そして、フレームメモリ41,42,45からの低解像度実画像Fa〜Fcと、動き量検出部43及び動き量記憶部48からの動き量とが、超解像処理部44に与えられる。   Because of this operation, when a low-resolution real image Fa is input from the AFE 2, three consecutive low-resolution real images Fa, Fb, and Fc are given to the frame memories 41, 42, and 45, respectively. Will be memorized. Then, the motion amount detection unit 43 gives the motion amount between the low resolution actual images Fb and Fc to the motion amount storage unit 48 for temporary storage, and detects the motion amount between the low resolution actual images Fa and Fb. . Further, the motion amount detection unit 43 adds the motion amount between the low-resolution actual images Fa and Fb and the motion amount between the low-resolution actual images Fb and Fc, thereby moving the motion between the low-resolution actual images Fa and Fc. Calculate the amount. Then, the low-resolution real images Fa to Fc from the frame memories 41, 42, and 45 and the motion amounts from the motion amount detection unit 43 and the motion amount storage unit 48 are given to the super-resolution processing unit 44.

よって、超解像処理部44では、初期高解像度推定部441(図9参照)において、連続する3フレームの低解像度実画像Fa〜Fcにより初期高解像度画像Fx1を取得し、又、高解像度更新量算出部443(図9参照)において、初期高解像度画像Fx1と低解像度実画像Fa〜Fcにより更新量∂I/∂Xで構成される差分画像ΔFx1が求められる。このようにして得られた初期高解像度画像Fx1と差分画像ΔFx1とが減算部444(図9参照)に与えられることで、信号処理部46に出力する高解像度画像Fx2が取得される。   Therefore, in the super-resolution processing unit 44, the initial high-resolution estimation unit 441 (see FIG. 9) acquires the initial high-resolution image Fx1 from the continuous three frames of the low-resolution real images Fa to Fc, and updates the high resolution. In the amount calculation unit 443 (see FIG. 9), a difference image ΔFx1 composed of the update amount ∂I / ∂X is obtained from the initial high-resolution image Fx1 and the low-resolution real images Fa to Fc. The initial high resolution image Fx1 and the difference image ΔFx1 obtained in this way are given to the subtraction unit 444 (see FIG. 9), whereby the high resolution image Fx2 to be output to the signal processing unit 46 is acquired.

一方、静止画撮影時においては、フレームメモリ45が、超解像処理部44で生成された高解像度画像を記憶するためのフレームメモリ(図4におけるフレームメモリ45に相当)として利用され、超解像処理部44において、図4の構成の画像処理部4と同様、連続する2フレームの低解像度実画像によって高解像度画像が生成される。よって、フレームメモリ45によって、超解像処理部44で生成された高解像度画像を、超解像処理部44の入力側に帰還させて、超解像処理部44における演算処理が繰り返し行われることとなる。   On the other hand, at the time of still image shooting, the frame memory 45 is used as a frame memory (corresponding to the frame memory 45 in FIG. 4) for storing the high-resolution image generated by the super-resolution processing unit 44. In the image processing unit 44, similarly to the image processing unit 4 configured as shown in FIG. 4, a high-resolution image is generated from two consecutive low-resolution real images. Therefore, the high-resolution image generated by the super-resolution processing unit 44 is fed back to the input side of the super-resolution processing unit 44 by the frame memory 45, and the arithmetic processing in the super-resolution processing unit 44 is repeatedly performed. It becomes.

このように動作するため、AFE2より低解像度実画像Faが入力されると、フレームメモリ41,42それぞれに、連続する2フレームの低解像度実画像Fa,Fbが与えられて、一時的に記憶されることとなる。そして、動き量検出部43では、低解像度実画像低解像度実画像Fa,Fb間の動き量が検出される。そして、フレームメモリ41,42それぞれからの低解像度実画像Fa,Fbと、動き量検出部43からの動き量とが、超解像処理部44に与えられる。   Because of this operation, when a low-resolution real image Fa is input from the AFE 2, two consecutive low-resolution real images Fa and Fb are given to the frame memories 41 and 42 and temporarily stored. The Rukoto. Then, the motion amount detection unit 43 detects the motion amount between the low-resolution real image and the low-resolution real images Fa and Fb. Then, the low-resolution real images Fa and Fb from the frame memories 41 and 42 and the motion amount from the motion amount detection unit 43 are given to the super-resolution processing unit 44.

よって、超解像処理部44では、まず、初期高解像度推定部441(図4参照)において、連続する2フレームの低解像度実画像Fa,Fbにより初期高解像度画像Fx1を取得し、又、高解像度更新量算出部443(図4参照)において、初期高解像度画像Fx1と低解像度実画像Fa,Fbにより更新量∂I/∂Xで構成される差分画像ΔFx1が求められる。このようにして得られた初期高解像度画像Fx1と差分画像ΔFx1とが減算部444(図4参照)に与えられることで、高解像度画像Fx2が取得されて、フレームメモリ45に一時記憶される。   Therefore, in the super-resolution processing unit 44, first, the initial high-resolution estimation unit 441 (see FIG. 4) acquires the initial high-resolution image Fx1 from the low-resolution real images Fa and Fb of two consecutive frames. In the resolution update amount calculation unit 443 (see FIG. 4), a difference image ΔFx1 composed of the update amount ∂I / ∂X is obtained from the initial high-resolution image Fx1 and the low-resolution real images Fa and Fb. The initial high resolution image Fx1 and the difference image ΔFx1 obtained in this way are given to the subtraction unit 444 (see FIG. 4), whereby the high resolution image Fx2 is acquired and temporarily stored in the frame memory 45.

その後、超解像処理部44における演算処理回数が設定された反復回数に達するまで、又は、高解像度更新量算出部443(図4参照)で算出された更新量∂I/∂Xが所定値以下となるまで、高解像度画像Fxn及び低解像度実画像Fa,Fbによる高解像度画像Fx(n+1)の生成動作が行われる。そして、n回となる演算処理回数が、予め設定した反復回数となった場合、又は、高解像度更新量算出部443(図4参照)で算出された更新量∂I/∂Xが所定値以下となった場合、取得した高解像度画像Fx(n+1)を信号処理部46に出力する。   Thereafter, the update amount 処理 I / ∂X calculated by the high-resolution update amount calculation unit 443 (see FIG. 4) is a predetermined value until the number of calculation processes in the super-resolution processing unit 44 reaches the set number of iterations. The operation of generating the high-resolution image Fx (n + 1) from the high-resolution image Fxn and the low-resolution real images Fa and Fb is performed until the following. Then, when the number of calculation processing times n is a preset number of iterations, or the update amount ∂I / ∂X calculated by the high-resolution update amount calculation unit 443 (see FIG. 4) is equal to or less than a predetermined value. When it becomes, the acquired high resolution image Fx (n + 1) is output to the signal processing unit 46.

このように、本実施形態においては、フレームメモリ45を、動画撮影時における低解像度実画像記憶用のフレームメモリとして利用するとともに、又、静止画撮影時における高解像度画像記憶用のフレームメモリとして利用することができる。よって、動画撮影時においては、超解像処理に使用する低解像度実画像のフレーム数を多くすることで、再現性の高い高解像度画像を生成することができる。一方、静止画撮影時においては、超解像処理における演算の繰り返すことにより、少ないフレーム数の低解像度実画像により再現性の高い高解像度画像を生成することができる。   As described above, in this embodiment, the frame memory 45 is used as a frame memory for storing a low-resolution real image at the time of moving image shooting, and also as a frame memory for storing a high-resolution image at the time of still image shooting. can do. Therefore, at the time of moving image shooting, a high-resolution image with high reproducibility can be generated by increasing the number of frames of the low-resolution real image used for the super-resolution processing. On the other hand, at the time of still image shooting, by repeating the calculation in the super-resolution processing, a high-resolution image with high reproducibility can be generated from a low-resolution real image with a small number of frames.

尚、本実施形態においては、動画撮影時に連続する3フレームの低解像度実画像によって高解像度画像が生成されるものとしたが、4フレーム以上の低解像度実画像によって生成されるものとしても構わない。このとき、フレームメモリの数を、動画撮影時の超解像処理に利用する低解像度実画像のフレーム数と同数とするとともに、動画撮影時の超解像処理に利用する低解像度実画像のフレーム数より1フレーム少ない低解像度実画像によって、静止画撮影時の超解像処理が実現される。   In this embodiment, a high-resolution image is generated by three consecutive low-resolution real images during moving image shooting. However, the high-resolution image may be generated by four or more low-resolution real images. . At this time, the number of frame memories is the same as the number of frames of the low-resolution real image used for the super-resolution processing at the time of moving image shooting, and the frame of the low-resolution real image used for the super-resolution processing at the time of moving image shooting. Super-resolution processing at the time of still image shooting is realized by a low-resolution real image that is one frame less than the number.

<第3の実施形態>
本発明の第3の実施形態について、図面を参照して説明する。尚、本実施形態の撮像装置における画像処理装置の構成は、第1の実施形態と同様、図4のブロック図に示す構成とする。又、本実施形態では、第1の実施形態と同様の構成とするが、第2の実施形態の構成と同様としても構わない。
<Third Embodiment>
A third embodiment of the present invention will be described with reference to the drawings. The configuration of the image processing apparatus in the imaging apparatus of the present embodiment is the same as that shown in the block diagram of FIG. 4 as in the first embodiment. In this embodiment, the configuration is the same as that of the first embodiment, but it may be the same as the configuration of the second embodiment.

本実施形態の撮像装置における画像処理部4は、第1の実施形態と異なり、図3の動作フローにおいて、STEP33で差分画像ΔFxnを求める際、エッジ成分を多く含むエッジ領域と、エッジ成分の少ない平坦領域とが判断され、そのエッジ成分に応じた係数が領域毎に差分画像ΔFxnに乗算される。即ち、エッジ領域では、求められた差分画像ΔFxnが反映されるようにSTEP34での演算が成されるとともに、平坦領域では、求められた差分画像ΔFxnの影響が小さくなるようにSTEP34での演算が成される。   Unlike the first embodiment, the image processing unit 4 in the imaging apparatus of the present embodiment has an edge region that contains a large amount of edge components and a small number of edge components when the difference image ΔFxn is obtained in STEP 33 in the operation flow of FIG. A flat region is determined, and a coefficient corresponding to the edge component is multiplied by the difference image ΔFxn for each region. That is, the calculation in STEP 34 is performed so that the obtained difference image ΔFxn is reflected in the edge region, and the calculation in STEP 34 is performed in the flat region so that the influence of the obtained difference image ΔFxn is reduced. Made.

よって、以下では、このようにエッジ領域及び平坦領域の検出が成され、この検出した各領域の状況を考慮した超解像処理動作部分、即ち、差分画像ΔFxnの算出動作について、詳細に説明するものとし、第1の実施形態で同一となる動作部分に説明については省略する。   Therefore, in the following, the detection of the edge region and the flat region is performed in this way, and the super-resolution processing operation part considering the state of each detected region, that is, the calculation operation of the difference image ΔFxn will be described in detail. It is assumed that the description of the same operation part in the first embodiment is omitted.

第1の実施形態における画像処理部4と同様、超解像処理部44では、初期高解像度推定部441において、低解像度実画像Fa,Fbが与えられることで、初期高解像度画像Fx1が取得される。又、高解像度更新量算出部443では、選択部442で選択された高解像度実画像Fxn(n≧1とし、初期高解像度画像Fx1も含む)と、低解像度実画像Fa,Fbとによって、評価関数Iに対する勾配∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+γCT・C・X})が求められる。 Similar to the image processing unit 4 in the first embodiment, in the super-resolution processing unit 44, the initial high-resolution estimation unit 441 receives the low-resolution real images Fa and Fb, thereby acquiring the initial high-resolution image Fx1. The The high-resolution update amount calculation unit 443 evaluates the high-resolution actual image Fxn (n ≧ 1 and includes the initial high-resolution image Fx1) selected by the selection unit 442 and the low-resolution actual images Fa and Fb. gradient for the function I ∂I / ∂X (= 2 × {Wa T · (Wa · X-Ya) + Wb T · (Wb · X-Yb) + γC T · C · X}) is obtained.

更に、このようにして、勾配∂I/∂Xが求められるとき、本実施形態では、更に、低解像度実画像Fa,Fb及び低解像度推定画像Fan,Fbnそれぞれにおける画像成分を確認することで、低解像度実画像Fa,Fbそれぞれに対して、ノイズが多く含まれると推定される領域やエッジ部分の相関性が低い領域が確認される。例えば、低解像度実画像Fa及び低解像度推定画像Fanそれぞれの画像成分の相関を確認することで、低解像度実画像Faにおける各領域での、ノイズが確認されやすい平坦部分と、誤ってノイズと検出されるエッジを含むエッジ部分との比率を検出する。同様に、低解像度実画像Fb及び低解像度推定画像Fbnそれぞれの画像成分の相関を確認することで、低解像度実画像Fbにおける平坦部分とエッジ部分とを検出する。   Furthermore, when the gradient ∂I / ∂X is obtained in this way, in the present embodiment, by further confirming the image components in the low resolution actual images Fa and Fb and the low resolution estimated images Fan and Fbn, For each of the low-resolution real images Fa and Fb, a region that is estimated to contain a lot of noise and a region that has a low correlation between edge portions are confirmed. For example, by confirming the correlation between the image components of the low-resolution actual image Fa and the low-resolution estimated image Fan, a flat portion where noise is easily confirmed in each region in the low-resolution actual image Fa, and erroneously detecting noise The ratio with the edge part including the edge to be detected is detected. Similarly, the flat part and the edge part in the low-resolution actual image Fb are detected by confirming the correlation between the image components of the low-resolution actual image Fb and the low-resolution estimated image Fbn.

そして、低解像度実画像及び低解像度推定画像それぞれについて各領域で推定されるエッジ部分と平坦部分との成分比率に対する相関性(例えば、低解像度実画像及び低解像度推定画像それぞれの画像成分の相関)に応じて、勾配∂I/∂Xにおける、低解像度実画像と低解像度推定画像との間の二乗誤差による差分に与える重み係数kを設定する。このとき、エッジ部分と平坦部分との成分比率に対する相関性が低いものと推定される領域(低解像度実画像及び低解像度推定画像それぞれの画像成分の相関がない領域)については、重み係数kが0に近い値に設定される。逆に、エッジ部分と平坦部分との成分比率に対する相関性が高いものと推定される領域(低解像度実画像及び低解像度推定画像それぞれの画像成分の相関が大きい領域)については、重み係数kが1に近い値に設定される。   Then, for each of the low-resolution actual image and the low-resolution estimated image, the correlation with the component ratio between the edge portion and the flat portion estimated in each region (for example, the correlation between the image components of the low-resolution actual image and the low-resolution estimated image) Accordingly, a weighting coefficient k to be given to the difference due to the square error between the low-resolution actual image and the low-resolution estimated image at the gradient ∂I / ∂X is set. At this time, the weight coefficient k is determined for a region that is estimated to have a low correlation with the component ratio between the edge portion and the flat portion (a region in which there is no correlation between the image components of the low-resolution actual image and the low-resolution estimated image). A value close to 0 is set. On the other hand, for a region that is estimated to have a high correlation with the component ratio between the edge portion and the flat portion (region where the correlation between the image components of the low-resolution actual image and the low-resolution estimated image is large), the weighting factor k is A value close to 1 is set.

即ち、エッジ部分と平坦部分との成分比率に対する相関性が低いものと推定される領域については、勾配∂I/∂Xにおける、低解像度実画像と低解像度推定画像との間の二乗誤差による差分の影響が小さくなるように、重み係数kが設定される。この重み係数kは、低解像度実画像Fa,Fbそれぞれの各画素に対して設定される。又、重み係数kは、0≦k≦1となる値であり、重み係数kが1に近い値となる場合、高解像度画像の更新時において、エッジ成分を含む差分(勾配∂I/∂X)の影響を大きく与える。更に、重み係数が0に近い値となる場合、高解像度画像の更新時において、ノイズが低減された初期高解像度画像の値をそのまま利用する。   That is, for a region that is estimated to have a low correlation with the component ratio between the edge portion and the flat portion, the difference due to the square error between the low-resolution actual image and the low-resolution estimated image in the gradient ∂I / ∂X. The weighting factor k is set so as to reduce the influence of. This weighting factor k is set for each pixel of each of the low resolution real images Fa and Fb. The weighting factor k is a value satisfying 0 ≦ k ≦ 1, and when the weighting factor k is a value close to 1, a difference (gradient ∂I / ∂X) including an edge component when the high-resolution image is updated. ). Further, when the weight coefficient is a value close to 0, the value of the initial high resolution image with reduced noise is used as it is when the high resolution image is updated.

よって、低解像度実画像Faの画素値Ya及び低解像度推定画像Fanの画素値Wa・Xそれぞれの画像成分の関係から、低解像度実画像Faに対する係数が、Ka=[ka1,ka2,…,kau]として求められる。同様に、低解像度実画像Fbの画素値Yb及び低解像度推定画像Fbnの画素値Wb・Xそれぞれの画像成分の関係から、低解像度実画像Fbに対する係数が、Kb=[kb1,kb2,…,kbu]として求められる。   Therefore, from the relationship between the image components of the pixel value Ya of the low-resolution actual image Fa and the pixel value Wa · X of the low-resolution estimated image Fan, the coefficient for the low-resolution actual image Fa is Ka = [ka1, ka2,. ]. Similarly, from the relationship between the image components of the pixel value Yb of the low resolution actual image Fb and the pixel value Wb · X of the low resolution estimated image Fbn, the coefficient for the low resolution actual image Fb is Kb = [kb1, kb2,. kbu].

このようにして、低解像度実画像Fa,Fbに対して係数Ka,Kbを設定すると、高解像度更新量算出部443では、設定した係数を勾配∂I/∂Xにおける(Wa・X−Ya)、(Wb・X−Yb)に乗算することで、ノイズを考慮した勾配∂J/∂X(=2×{WaT・Ka・(Wa・X−Ya)+WbT・Kb・(Wb・X−Yb)+γCT・C・X})を高解像度画像の更新量として算出する。この更新量となる勾配∂J/∂Xを求めることで、高解像度更新量算出部443において、図3(c)によって示すSTEP33における差分画像ΔFxnが求められることとなる。 In this way, when the coefficients Ka and Kb are set for the low-resolution real images Fa and Fb, the high-resolution update amount calculation unit 443 uses the set coefficients as (Wa · X−Ya) in the gradient ∂I / ∂X. , (Wb · X-Yb) by multiplying the gradient considering noise ∂J / ∂X (= 2 × { Wa T · Ka · (Wa · X-Ya) + Wb T · Kb · (Wb · X −Yb) + γC T · C · X}) is calculated as the update amount of the high resolution image. By obtaining the gradient ∂J / ∂X as the update amount, the high-resolution update amount calculation unit 443 obtains the difference image ΔFxn in STEP 33 shown in FIG.

このようにして算出した勾配∂J/∂Xによる更新量が、高解像度更新量算出部443より減算部444に与えられると、減算部444では、図3(d)におけるSTEP34のように、選択部442より与えられる高解像度画像Fxnより、勾配∂J/∂Xによる更新量を減算する。この減算部444の減算結果により、v画素の画素値それぞれが(X−∂J/∂X)となる高解像度画像Fx(n+1)が得られる。そして、この新たに得られた高解像度画像Fx(n+1)が減算部444より出力されて、フレームメモリ45又は信号処理部46に与えられる。   When the update amount based on the gradient ∂J / ∂X calculated in this way is given from the high resolution update amount calculation unit 443 to the subtraction unit 444, the subtraction unit 444 selects as shown in STEP 34 in FIG. The update amount by the gradient ∂J / よ り X is subtracted from the high-resolution image Fxn given from the unit 442. As a result of the subtraction by the subtracting unit 444, a high-resolution image Fx (n + 1) in which each pixel value of the v pixel is (X−∂J / ∂X) is obtained. Then, the newly obtained high-resolution image Fx (n + 1) is output from the subtraction unit 444 and provided to the frame memory 45 or the signal processing unit 46.

このように超解像処理部44において、低解像度実画像における各領域で推定されるノイズの含有量に応じた演算処理がなされることで、超解像処理により得られた高解像画像におけるノイズを低減することができる。そして、動画撮影時における超解像処理部44での演算処理の反復回数を、静止画撮影時に比べて少ないものに設定し、1フレームの撮影処理時間内で処理可能とする。このとき、例えば、第1及び第2の実施形態で説明したように、繰り返すことなく、初期高解像度画像Fx1より設定された高解像画像Fx2が信号処理部46に出力されるものとしても構わない。又、静止画撮影時においては、超解像処理でのn回となる演算処理回数が予め設定した反復回数となった場合、又は、高解像度更新量算出部443で算出された更新量∂J/∂Xが所定値以下となった場合、取得した高解像度画像Fx(n+1)を信号処理部46に出力する。   As described above, the super-resolution processing unit 44 performs arithmetic processing according to the noise content estimated in each region in the low-resolution real image, so that in the high-resolution image obtained by the super-resolution processing, Noise can be reduced. Then, the number of iterations of the arithmetic processing in the super-resolution processing unit 44 at the time of moving image shooting is set to be smaller than that at the time of still image shooting, and processing can be performed within the shooting processing time of one frame. At this time, for example, as described in the first and second embodiments, the high-resolution image Fx2 set from the initial high-resolution image Fx1 may be output to the signal processing unit 46 without repeating. Absent. Further, at the time of still image shooting, when the number of arithmetic processing times n in the super-resolution processing is a preset number of iterations, or the update amount ∂J calculated by the high-resolution update amount calculation unit 443 When ∂X is equal to or less than a predetermined value, the acquired high resolution image Fx (n + 1) is output to the signal processing unit 46.

又、上述の構成では、動画撮影時に連続する2フレームの低解像度実画像によって高解像度画像が生成されるものとしたが、3フレーム以上の低解像度実画像によって生成されるものとしても構わない。更に、第2の実施形態の構成と同様の構成として、超解像処理部44で生成される高解像度画像を一時的に記憶するフレームメモリ45が、動画撮影時に、AFE2から与えられて超解像処理部44での高解像度画像の生成に使用される低解像度実画像を記憶されるフレームメモリとして使用されるものとしても構わない。   In the above-described configuration, a high-resolution image is generated using two consecutive low-resolution real images during moving image shooting. However, the high-resolution image may be generated using three or more low-resolution real images. Furthermore, as a configuration similar to the configuration of the second embodiment, a frame memory 45 that temporarily stores a high-resolution image generated by the super-resolution processing unit 44 is supplied from the AFE 2 during supervision and is super-resolution. The image processing unit 44 may be used as a frame memory for storing a low-resolution real image used for generating a high-resolution image.

更に、超解像処理部44の高解像度更新量算出部443で成される、低解像度実画像における各領域のノイズとエッジの成分比率の相関性を推定するための演算処理の詳細例について、以下で説明する。   Further, a detailed example of the arithmetic processing for estimating the correlation between the noise of each region and the component ratio of the edge in the low-resolution real image, which is performed by the high-resolution update amount calculation unit 443 of the super-resolution processing unit 44, This will be described below.

(ノイズ含有量推定に対する演算処理の第1例)
高解像度更新量算出部443での、低解像度実画像における各領域のノイズの含有量を推定するための演算処理の詳細の第1例について説明する。本例では、高解像度更新量算出部443内において、選択部442で選択された高解像度画像Fxnの高周波成分を通過させる不図示のハイパスフィルタ(HPF)と、フレームメモリ41,42それぞれからの低解像度実画像Fa,Fbの高周波成分を通過させるHPF(不図示)とが備えられる。
(First example of calculation processing for noise content estimation)
A first example of details of calculation processing for estimating the noise content of each region in the low-resolution actual image in the high-resolution update amount calculation unit 443 will be described. In this example, a high-pass filter (HPF) (not shown) that passes a high-frequency component of the high-resolution image Fxn selected by the selection unit 442 in the high-resolution update amount calculation unit 443 and low-frequency signals from the frame memories 41 and 42, respectively. An HPF (not shown) that allows high-frequency components of the resolution real images Fa and Fb to pass therethrough is provided.

このような高解像度更新量算出部443では、更に、高解像度画像Fxnの高周波成分より、低解像度推定画像Fan,Fbnそれぞれの高周波成分を取得する。そして、この低解像度推定画像Fan,Fbnそれぞれの高周波成分と、低解像度実画像Fa,Fbそれぞれの高周波成分との相関関係に基づいて、低解像度実画像と低解像度推定画像との間の二乗誤差による差分に与える係数Ka,Kbが設定される。   The high-resolution update amount calculation unit 443 further acquires high-frequency components of the low-resolution estimated images Fan and Fbn from the high-frequency components of the high-resolution image Fxn. Then, based on the correlation between the high-frequency components of the low-resolution estimated images Fan and Fbn and the high-frequency components of the low-resolution actual images Fa and Fb, the square error between the low-resolution actual image and the low-resolution estimated image Coefficients Ka and Kb to be given to the difference are set.

即ち、高解像度更新量算出部443に設置される不図示のHPFによって、v画素の高解像度画像Fxnの高周波成分HX(=[hx1,hx2,…,hxv])が抽出され、u画素の低解像度実画像Faの高周波成分HYa(=[hya1,hya2,…,hyau])が抽出され、u画素の低解像度実画像Fbの高周波成分HYb(=[hyb1,hyb2,…,hybu])が抽出される。そして、高解像度画像Fxnの高周波成分HXに対しては、カメラパラメータ行列Wa,Wbが乗算される。これにより、u画素の低解像度推定画像Faxの高周波成分Wa・HX(=[whxa1,whxa2,…,whxau])と、u画素の低解像度推定画像Fbxの高周波成分Wb・HX(=[whxb1,whxb2,…,whxbu])とが、算出される。   That is, the high-frequency component HX (= [hx1, hx2,..., Hxv]) of the v-pixel high-resolution image Fxn is extracted by the HPF (not shown) installed in the high-resolution update amount calculation unit 443, and the u-pixel low The high frequency components HYa (= [hya1, hy2,..., Hyau]) of the resolution real image Fa are extracted, and the high frequency components HYb (= [hyb1, hyb2,..., Hybu]) of the u resolution low resolution real image Fb are extracted. Is done. The high frequency component HX of the high resolution image Fxn is multiplied by camera parameter matrices Wa and Wb. As a result, the high-frequency components Wa · HX (= [whxa1, whxa2,... Whxau]) of the u-pixel low-resolution estimated image Fax and the high-frequency components Wb · HX (= [whxb1, whxb2, ..., whxbu]).

その後、低解像度実画像Fa及び低解像度推定画像Faxそれぞれの高周波成分HYa,Wa・Hxについて、同一画素位置における高周波成分の比率行列Ra(=[ra1,ra2,…,rau])が求められる。同様に、低解像度実画像Fb及び低解像度推定画像Fbxそれぞれの高周波成分HYb,Wb・Hxについて、同一画素位置における高周波成分の比率行列Rb(=[rb1,rb2,…,rbu])が求められる。このとき、比率行列Raにおける要素となる値raiが以下の(1)式で算出され、又、比率行列Rbにおける要素となる値rbiが以下の(2)式で算出される。尚、(1)式及び(2)式におけるiは、1≦i≦uの整数である。   Thereafter, a high-frequency component ratio matrix Ra (= [ra1, ra2,..., Ra]) at the same pixel position is obtained for the high-frequency components HYa, Wa.Hx of the low-resolution actual image Fa and the low-resolution estimated image Fax. Similarly, a high frequency component ratio matrix Rb (= [rb1, rb2,..., Rbu]) at the same pixel position is obtained for the high frequency components HYb, Wb, and Hx of the low resolution actual image Fb and the low resolution estimated image Fbx. . At this time, a value rai that is an element in the ratio matrix Ra is calculated by the following equation (1), and a value rbi that is an element in the ratio matrix Rb is calculated by the following equation (2). Note that i in the expressions (1) and (2) is an integer satisfying 1 ≦ i ≦ u.

Figure 2008306608
Figure 2008306608

そして、このように算出した比率Raを、低解像度実画像Faと低解像度推定画像Fanとの相関値として扱う。即ち、比率Raにおける値raiが所定値th1に近い値となるi番目の画素については、低解像度実画像Faと低解像度推定画像Fanとの相関が強いものとし、エッジ部分の構成を多く含む領域の画素であることを確認する。よって、このi番目の画素に対する重み係数kaiを1に近い値に決定する。逆に、比率Raにおける値raiが所定値th1から離れた値となるi番目の画素については、低解像度実画像Faと低解像度推定画像Fanとの相関が弱いものとし、ノイズが確認されやすい平坦部分の構成を多く含む領域又はエッジ部分はあるが低解像度実画像と低解像度推定画像との間の相関がとれない領域の画素であることを確認する。よって、このi番目の画素に対する重み係数kaiを0に近い値に決定する。このように、比率Raにおける値raiと所定値th1との差の大きさが大きいものほど、重み係数kaiの値が0に近づき、比率Raにおける値raiと所定値th1との差の大きさが小さいものほど、重み係数kaiの値が1に近づくように、u画素の低解像度実画像Faに対する係数行列Ka(=[ka1,ka2,…,kau])が設定される。   The ratio Ra thus calculated is treated as a correlation value between the low resolution actual image Fa and the low resolution estimated image Fan. That is, for the i-th pixel in which the value rai in the ratio Ra is close to the predetermined value th1, the low-resolution actual image Fa and the low-resolution estimated image Fan have a strong correlation, and an area that includes many edge portions. Confirm that it is a pixel. Therefore, the weight coefficient kai for this i-th pixel is determined to be a value close to 1. On the other hand, for the i-th pixel in which the value rai in the ratio Ra is a value away from the predetermined value th1, the correlation between the low-resolution actual image Fa and the low-resolution estimated image Fan is weak, and the flatness where noise is easily confirmed It is confirmed that the pixel is in a region where there is a region or an edge portion that includes a large portion of the structure but the correlation between the low-resolution actual image and the low-resolution estimated image cannot be obtained. Therefore, the weight coefficient kai for this i-th pixel is determined to be a value close to zero. As described above, the larger the difference between the value rai and the predetermined value th1 in the ratio Ra, the closer the value of the weighting factor kai is to 0, and the larger the difference between the value rai and the predetermined value th1 in the ratio Ra is. The coefficient matrix Ka (= [ka1, ka2,..., Kau]) for the u-resolution low-resolution real image Fa is set so that the smaller the value, the value of the weighting coefficient kai approaches 1.

同様に、上述のように算出した比率Rbを、低解像度実画像Fbと低解像度推定画像Fbnとの相関値として扱い、比率Rbにおける値rbiと所定値th1との比較を行って、このi番目の画素に対する重み係数kbiの値を決定する。よって、比率Rbにおける値rbiと所定値th1との差の大きさが大きいものほど、重み係数kbiの値が0に近づき、比率Rbにおける値rbiと所定値th1との差の大きさが小さいものほど、重み係数kbiの値が1に近づくように、u画素の低解像度実画像Fbに対する係数行列Kb(=[kb1,kb2,…,kbu])が設定される。   Similarly, the ratio Rb calculated as described above is treated as a correlation value between the low-resolution actual image Fb and the low-resolution estimated image Fbn, the value rbi in the ratio Rb is compared with the predetermined value th1, and this i th The value of the weighting coefficient kbi for the pixels is determined. Therefore, the larger the difference between the value rbi and the predetermined value th1 in the ratio Rb, the closer the value of the weighting factor kbi is to 0, and the smaller the difference between the value rbi and the predetermined value th1 in the ratio Rb. The coefficient matrix Kb (= [kb1, kb2,..., Kbu]) for the u-resolution low-resolution real image Fb is set so that the value of the weighting coefficient kbi approaches 1 as the value becomes.

尚、比率Ra,Rbにおける値rai,rbiと、係数行列Ka,Kbにおける重み係数kai,kbiとの間の関係については、図11のように表される。尚、以下では、説明を簡単にするために、図11に示すように、値rai,rbiを共通のrとし、重み係数kai,kbiを共通のkとする。即ち、上述の所定値th1を1≦th1としたとき、高周波成分の比率rと重み係数kの関係が以下のようになる。又、低解像度実画像と低解像度推定画像に同量のエッジ成分が含まれていた場合、低解像度推定画像はボケを有する画像となるため、分子部分に低解像度実画像の画像成分を備える比率Ra,Rbの値rai,rbiが1以上となるため、所定値th1を1≦th1に設定する。   Note that the relationship between the values rai and rbi in the ratios Ra and Rb and the weighting coefficients kai and kbi in the coefficient matrices Ka and Kb is expressed as shown in FIG. In the following, for simplicity of explanation, as shown in FIG. 11, the values rai and rbi are set to a common r, and the weighting factors kai and kbi are set to a common k. That is, when the predetermined value th1 is 1 ≦ th1, the relationship between the high-frequency component ratio r and the weighting coefficient k is as follows. In addition, when the same amount of edge component is included in the low-resolution actual image and the low-resolution estimated image, the low-resolution estimated image becomes a blurred image. Since Ra and Rb values rai and rbi are 1 or more, the predetermined value th1 is set to 1 ≦ th1.

(1)0≦|r−th1|≦t0(0≦t0≦1−th1)の場合
重み係数kの値が、k=1とされる。
(2)t0<|r−th1|≦t1(t0<t1)の場合
重み係数kの値が、k=t0+1−|r−th1|とされる。
(3)t1<|r−th1|の場合
重み係数kの値が、k=0とされる。
(1) In the case of 0 ≦ | r−th1 | ≦ t0 (0 ≦ t0 ≦ 1-th1) The value of the weighting factor k is k = 1.
(2) When t0 <| r−th1 | ≦ t1 (t0 <t1) The value of the weighting factor k is k = t0 + 1− | r−th1 |.
(3) In the case of t1 <| r−th1 | The value of the weighting factor k is k = 0.

このようにして、u画素分の係数行列Ka,Kbが算出されることで、ノイズを考慮した勾配∂J/∂X(=2×{WaT・Ka・(Wa・X−Ya)+WbT・Kb・(Wb・X−Yb)+γCT・C・X})を高解像度画像の更新量として算出することができる。よって、低解像度実画像Fa,Fbそれぞれにおいてノイズ含有率の大きい平坦部を多く含む領域における二乗誤差による微分値が、求められる更新量(勾配∂J/∂X)に与える影響を小さくすることができる。 In this way, by u pixels of the coefficient matrix Ka, Kb are calculated, the gradient considering noise ∂J / ∂X (= 2 × { Wa T · Ka · (Wa · X-Ya) + Wb T Kb · (Wb · X−Yb) + γC T · C · X}) can be calculated as the update amount of the high-resolution image. Therefore, it is possible to reduce the influence of the differential value due to the square error in the region including many flat portions having a large noise content in each of the low-resolution real images Fa and Fb on the obtained update amount (gradient ∂J / ∂X). it can.

このように、本例においては、HPFを利用して、低解像度実画像及び低解像度推定画像それぞれの高周波成分を抽出し、この高周波成分の比率によって、低解像度実画像内のエッジ部分と平坦部分との比率の検出を行うことができる。そして、それぞれの画像における高周波成分の頻度が同等となる部分をエッジ部分とすることで、ノイズと判定される成分を含むか又はエッジ部分の相関性が低いと推定される領域の画素に対する更新量を抑制し、超解像処理により得られる高解像度画像のノイズを抑制することができる。   As described above, in this example, the HPF is used to extract the high-frequency components of the low-resolution real image and the low-resolution estimated image, and the edge portion and the flat portion in the low-resolution real image are extracted according to the ratio of the high-frequency components. And the ratio can be detected. The amount of update for the pixel in the region that includes the component determined to be noise or is estimated to have low correlation in the edge portion by setting the portion where the frequency of the high-frequency component in each image is the same as the edge portion. And high-resolution image noise obtained by super-resolution processing can be suppressed.

(ノイズ含有量推定に対する演算処理の第2例)
高解像度更新量算出部443での、低解像度実画像における各領域のノイズの含有量を推定するための演算処理の詳細の第2例について説明する。本例では、高解像度更新量算出部443内において、第1例と異なり、係数行列Ka,Kbを算出するために、低解像度実画像と低解像度推定画像の相関関係を確認する際に利用する画像成分として、標準偏差を用いる。よって、以下では、標準偏差による低解像度実画像と低解像度推定画像の相関関係に基づく、係数行列Ka,Kbの算出動作について、詳細に説明する。
(Second example of calculation processing for noise content estimation)
A second example of the details of the calculation processing for estimating the noise content of each region in the low-resolution actual image in the high-resolution update amount calculation unit 443 will be described. In this example, unlike the first example, the high-resolution update amount calculation unit 443 is used to check the correlation between the low-resolution actual image and the low-resolution estimated image in order to calculate the coefficient matrices Ka and Kb. Standard deviation is used as an image component. Therefore, the calculation operation of the coefficient matrices Ka and Kb based on the correlation between the low-resolution actual image and the low-resolution estimated image based on the standard deviation will be described in detail below.

本例では、高解像度更新量算出部443において、高解像実画像Fxn及び低解像度実画像Fa,Fbそれぞれの標準偏差が算出される。即ち、標準偏差を求めるための注目画素と、この注目画素の周囲に近接する複数の周辺画素とによる複数の画素の画素値を用いることによって、画像内の各画素の標準偏差を求める。よって、例えば、3×3の行列配置された9画素が用いられる場合、図12に示すように、注目画素G00に対する標準偏差σを求めるとき、注目画素G00を中央に配置した3×3の行列配置された画素G(-1)(-1)〜G11の画素値z(-1)(-1)〜z11に対して以下の(3)式による演算処理が施される。尚、(3)式において、画素Gijの画素値がzijであり、画素G(-1)(-1)〜G11の画素値の平均がzである。   In this example, the high resolution update amount calculation unit 443 calculates standard deviations of the high resolution real image Fxn and the low resolution real images Fa and Fb. That is, the standard deviation of each pixel in the image is obtained by using pixel values of a plurality of pixels including a pixel of interest for obtaining the standard deviation and a plurality of peripheral pixels adjacent to the periphery of the pixel of interest. Therefore, for example, when 9 pixels arranged in a 3 × 3 matrix are used, as shown in FIG. 12, when obtaining the standard deviation σ for the pixel of interest G00, a 3 × 3 matrix in which the pixel of interest G00 is arranged in the center. Arithmetic processing according to the following expression (3) is performed on the pixel values z (-1) (-1) to z11 of the arranged pixels G (-1) (-1) to G11. In the equation (3), the pixel value of the pixel Gij is zij, and the average of the pixel values of the pixels G (-1) (-1) to G11 is z.

Figure 2008306608
Figure 2008306608

よって、v画素の高解像度画像Fxnの各画素の画素値X(=[x1,x2,…,xv])に対して上述の演算処理が成されることで、v画素の各画素に対する標準偏差SX(=[sx1,sx2,…,sxv])が算出される。そして、この標準偏差SXに対してカメラパラメータ行列Wa,Wbが乗算されることで、低解像度推定画像Fanの標準偏差Wa・SX(=[wsxa1,wsxa2,…,wsxau])、及び、低解像度推定画像Fbnの標準偏差Wb・SX(=[wsxb1,wsxb2,…,wsxbu])が得られる。   Therefore, the standard deviation of the v pixel with respect to each pixel is obtained by performing the above-described arithmetic processing on the pixel value X (= [x1, x2,..., Xv]) of each pixel of the high resolution image Fxn of v pixels. SX (= [sx1, sx2,..., Sxv]) is calculated. Then, the standard deviation Wa · SX (= [wsxa1, wsxa2,..., Wsxau]) of the low resolution estimated image Fan and the low resolution are obtained by multiplying the standard deviation SX by the camera parameter matrix Wa, Wb. A standard deviation Wb · SX (= [wsxb1, wsxb2,..., Wsxbu]) of the estimated image Fbn is obtained.

又、u画素の低解像度実画像Faにおける各画素の画素値Ya(=[ya1,ya2,…,yau])に対して上述の演算処理が成されることで、u画素の各画素に対する標準偏差SYa(=[sya1,sya2,…,syau])が算出される。同様に、u画素の低解像度実画像Fbにおける各画素の画素値Yb(=[yb1,yb2,…,ybu])に対して上述の演算処理が成されることで、u画素の各画素に対する標準偏差SYb(=[syb1,syb2,…,sybu])が算出される。   In addition, the above-described arithmetic processing is performed on the pixel value Ya (= [ya1, ya2,..., Yau]) of each pixel in the u-pixel low-resolution real image Fa, so that the standard for each pixel of the u pixel. The deviation Sya (= [sya1, sya2,... Syau]) is calculated. Similarly, the above-described arithmetic processing is performed on the pixel value Yb (= [yb1, yb2,..., Ybu]) of each pixel in the low-resolution actual image Fb of u pixels, so that A standard deviation SYb (= [syb1, syb2,..., Sybu]) is calculated.

そして、第1例と同様、低解像度実画像Fa及び低解像度推定画像Faxそれぞれの標準偏差SYa,Wa・Sxにより、同一画素位置における標準偏差の比率行列Ea(=[ea1,ea2,…,eau])が求められるとともに、低解像度実画像Fb及び低解像度推定画像Fbxそれぞれの標準偏差SYb,Wb・Sxにより、同一画素位置における標準偏差の比率行列Eb(=[eb1,eb2,…,ebu])が求められる。このとき、比率行列Eaにおける要素となる値eaiが以下の(4)式で算出され、又、比率行列Ebにおける要素となる値ebiが以下の(5)式で算出される。尚、(4)式及び(5)式におけるiは、1≦i≦uの整数である。   Then, as in the first example, the standard deviation ratio matrix Ea (= [ea1, ea2,..., Eau) at the same pixel position based on the standard deviations Sya, Wa and Sx of the low resolution actual image Fa and the low resolution estimated image Fax, respectively. ]), And the standard deviation ratio matrix Eb (= [eb1, eb2,..., Ebu] at the same pixel position based on the standard deviations SYb, Wb and Sx of the low-resolution actual image Fb and the low-resolution estimated image Fbx, respectively. ) Is required. At this time, a value eai as an element in the ratio matrix Ea is calculated by the following equation (4), and a value ebi as an element in the ratio matrix Eb is calculated by the following equation (5). Note that i in the expressions (4) and (5) is an integer satisfying 1 ≦ i ≦ u.

Figure 2008306608
Figure 2008306608

そして、第1例の比率Raと同様、比率Eaを低解像度実画像Faと低解像度推定画像Fanとの相関値として扱う。即ち、比率Eaにおける値eaiと所定値th1との比較を行って、このi番目の画素に対する重み係数kaiの値を決定する。よって、比率Eaにおける値eaiと所定値th1との差の大きさが大きいものほど、重み係数kaiの値が0に近づき、比率Ebにおける値eaiと所定値th1との差の大きさが小さいものほど、重み係数kaiの値が1に近づくように、u画素の低解像度実画像Faに対する係数行列Ka(=[ka1,ka2,…,kau])が設定される。   Then, like the ratio Ra in the first example, the ratio Ea is treated as a correlation value between the low resolution actual image Fa and the low resolution estimated image Fan. That is, the value eai at the ratio Ea is compared with the predetermined value th1 to determine the value of the weight coefficient kai for the i-th pixel. Therefore, the larger the difference between the value ea at the ratio Ea and the predetermined value th1, the closer the value of the weighting factor kai is to 0, and the smaller the difference between the value ei at the ratio Eb and the predetermined value th1. The coefficient matrix Ka (= [ka1, ka2,..., Kau]) for the u-resolution low-resolution actual image Fa is set so that the value of the weighting coefficient kai approaches 1.

同様に、比率Ebについても、低解像度実画像Fbと低解像度推定画像Fbnとの相関値として扱い、比率Ebにおける値ebiと所定値th1との比較を行って、このi番目の画素に対する重み係数kbiの値を決定する。よって、比率Ebにおける値ebiと所定値th1との差の大きさが大きいものほど、重み係数kbiの値が0に近づき、比率Ebにおける値ebiと所定値th1との差の大きさが小さいものほど、重み係数kbiの値が1に近づくように、u画素の低解像度実画像Fbに対する係数行列Kb(=[kb1,kb2,…,kbu])が設定される。   Similarly, the ratio Eb is also treated as a correlation value between the low resolution actual image Fb and the low resolution estimated image Fbn, the value ebi in the ratio Eb is compared with the predetermined value th1, and the weighting coefficient for the i th pixel is calculated. Determine the value of kbi. Therefore, the larger the difference between the value ebi and the predetermined value th1 at the ratio Eb, the closer the value of the weighting factor kbi approaches 0, and the smaller the difference between the value ebi and the predetermined value th1 at the ratio Eb. The coefficient matrix Kb (= [kb1, kb2,..., Kbu]) for the u-resolution low-resolution real image Fb is set so that the value of the weighting coefficient kbi approaches 1 as the value becomes.

尚、比率Ea,Ebにおける値eai,ebiと、係数行列Ka,Kbにおける重み係数kai,kbiとの間の関係については、図13のように表される。尚、以下では、説明を簡単にするために、図13に示すように、値eai,ebiを共通のeとし、重み係数kai,kbiを共通のkとする。即ち、上述の所定値th1を1≦th1(実施例1と同様の理由により、所定値th1を1≦th1に設定する。)としたとき、高周波成分の比率rと重み係数kの関係と同様、標準偏差の比率eと重み係数kの関係が以下のようになる。   Note that the relationship between the values ea, ebi at the ratios Ea, Eb and the weighting coefficients kai, kbi in the coefficient matrices Ka, Kb is expressed as shown in FIG. In the following, for ease of explanation, as shown in FIG. 13, the values ea and ebi are assumed to be common e, and the weighting factors kai and kbi are assumed to be common k. That is, when the above-mentioned predetermined value th1 is 1 ≦ th1 (for the same reason as in the first embodiment, the predetermined value th1 is set to 1 ≦ th1), it is the same as the relationship between the high-frequency component ratio r and the weighting factor k. The relationship between the standard deviation ratio e and the weighting coefficient k is as follows.

(1)0≦|e−th1|≦t0(0≦t0≦1−th1)の場合
重み係数kの値が、k=1とされる。
(2)t0<|e−th1|≦t1(t0<t1)の場合
重み係数kの値が、k=t0+1−|e−th1|とされる。
(3)t1<|e−th1|の場合
重み係数kの値が、k=0とされる。
(1) When 0 ≦ | e−th1 | ≦ t0 (0 ≦ t0 ≦ 1-th1) The value of the weighting factor k is k = 1.
(2) When t0 <| e−th1 | ≦ t1 (t0 <t1) The value of the weighting factor k is k = t0 + 1− | e−th1 |.
(3) When t1 <| e−th1 | The value of the weighting factor k is k = 0.

このu画素分の係数行列Ka,Kbが算出されると、第1例と同様、演算処理を行うことで、減算部444に与える更新量∂J/∂Xが得られる。このように、本例では、低解像度実画像及び低解像度推定画像それぞれに対して算出した標準偏差の比率によって、低解像度実画像内のエッジ部分と平坦部分との比率の検出を行う。そして、それぞれの画像における標準偏差が同等となる部分をエッジ部分とすることで、ノイズと判定される成分を含むか又はエッジ部分の相関性が低いと推定される領域の画素に対する更新量を抑制し、超解像処理により得られる高解像度画像のノイズを抑制することができる。   When the coefficient matrices Ka and Kb for the u pixels are calculated, the update amount ∂J / ∂X to be given to the subtracting unit 444 is obtained by performing arithmetic processing as in the first example. As described above, in this example, the ratio between the edge portion and the flat portion in the low-resolution actual image is detected based on the ratio of the standard deviation calculated for each of the low-resolution actual image and the low-resolution estimated image. Then, by setting the portion where the standard deviation in each image is equivalent to the edge portion, the amount of update for the pixels in the region that includes the component determined to be noise or is estimated to have low correlation in the edge portion is suppressed. In addition, it is possible to suppress noise in a high-resolution image obtained by super-resolution processing.

(ノイズ含有量推定に対する演算処理の第3例)
高解像度更新量算出部443での、低解像度実画像における各領域のノイズの含有量を推定するための演算処理の詳細の第3例について説明する。本例では、高解像度更新量算出部443内において、第1例及び第2例と異なり、係数行列Ka,Kbを算出するために、低解像度実画像と低解像度推定画像の相関関係を確認する際に利用する画像成分として、エッジ方向成分を用いる。よって、以下では、エッジ方向成分による低解像度実画像と低解像度推定画像の相関関係に基づく、係数行列Ka,Kbの算出動作について、詳細に説明する。
(Third example of calculation processing for noise content estimation)
A third example of the details of the calculation processing for estimating the noise content of each region in the low-resolution actual image in the high-resolution update amount calculation unit 443 will be described. In this example, unlike the first example and the second example, the correlation between the low-resolution actual image and the low-resolution estimated image is confirmed in the high-resolution update amount calculation unit 443 in order to calculate the coefficient matrices Ka and Kb. An edge direction component is used as an image component used at this time. Therefore, the calculation operation of the coefficient matrices Ka and Kb based on the correlation between the low-resolution actual image and the low-resolution estimated image based on the edge direction component will be described in detail below.

本例では、高解像度更新量算出部443において、高解像実画像Fxn及び低解像度実画像Fa,Fbそれぞれに対して、各エッジ方向成分に対応した複数種類のエッジ方向フィルタが設けられる。尚、以下では、水平方向のエッジ方向成分を算出する水平エッジ方向フィルタと、垂直方向のエッジ方向成分を算出する垂直エッジ方向とが、高解像実画像Fxn及び低解像度実画像Fa,Fbそれぞれに対して設けられるものとする。   In this example, the high-resolution update amount calculation unit 443 is provided with a plurality of types of edge direction filters corresponding to each edge direction component for each of the high-resolution real image Fxn and the low-resolution real images Fa and Fb. In the following description, the horizontal edge direction filter for calculating the edge direction component in the horizontal direction and the vertical edge direction for calculating the edge direction component in the vertical direction are respectively the high resolution real image Fxn and the low resolution real images Fa and Fb. Shall be provided.

まず、水平エッジ方向フィルタ及び垂直エッジ方向フィルタについて、以下に簡単に説明する。この水平エッジ方向フィルタ及び垂直エッジ方向フィルタでは、水平方向及び垂直方向となるエッジ方向成分を求めるための注目画素と、この注目画素の周囲に近接する複数の周辺画素とによる複数の画素の画素値を用いることによって、画像内の各画素の水平方向及び垂直方向となるエッジ方向成分を求める。尚、以下では、例えば、図14(a)に示す3×3の行列配置された9画素G(-1)(-1)〜G11の画素値z(-1)(-1)〜z11が用いられることで、水平方向及び垂直方向となるエッジ方向成分が算出されるものとして説明する。このとき、注目画素G00に対するエッジ方向成分を求められる。   First, the horizontal edge direction filter and the vertical edge direction filter will be briefly described below. In the horizontal edge direction filter and the vertical edge direction filter, pixel values of a plurality of pixels including a pixel of interest for obtaining edge direction components in the horizontal direction and the vertical direction and a plurality of peripheral pixels adjacent to the periphery of the pixel of interest. Is used to determine the edge direction components of the horizontal and vertical directions of each pixel in the image. In the following, for example, pixel values z (-1) (-1) to z11 of 9 pixels G (-1) (-1) to G11 arranged in a 3 * 3 matrix shown in FIG. The description will be made on the assumption that the edge direction components in the horizontal direction and the vertical direction are calculated by being used. At this time, an edge direction component for the target pixel G00 is obtained.

まず、水平エッジ方向フィルタにおいては、図14(b)に示すフィルタによって、注目画素G00に対して垂直方向で上側に配置される画素G(-1)(-1),G0(-1),G1(-1)の画素値z(-1)(-1),z0(-1),z1(-1)に対して、「−1」を乗算し、注目画素G00に対して垂直方向で下側に配置される画素G(-1)1,G01,G11の画素値z(-1)1,z01,z11に対して、「1」を乗算し、注目画素G00に対して垂直方向で同一位置に配置される画素G(-1)0,G00,G10の画素値z(-1)0,z00,z10に対して、「0」を乗算することで得られた値が、水平方向のエッジ成分hとされる。即ち、この水平方向のエッジ成分hは、(6)式によって算出される。   First, in the horizontal edge direction filter, pixels G (-1) (-1), G0 (-1), G0 (-1), G0 (-1), G0 (-1), The pixel value z (-1) (-1), z0 (-1), z1 (-1) of G1 (-1) is multiplied by "-1", and in the vertical direction with respect to the target pixel G00. The pixel values z (-1) 1, z01, and z11 of the pixels G (-1) 1, G01, and G11 arranged on the lower side are multiplied by "1", and the pixel value G00 is perpendicular to the target pixel G00. The value obtained by multiplying the pixel values z (-1) 0, z00, z10 of the pixels G (-1) 0, G00, G10 arranged at the same position by "0" is the horizontal direction. Edge component h. That is, the horizontal edge component h is calculated by the equation (6).

Figure 2008306608
Figure 2008306608

よって、このような水平エッジ方向フィルタによって、v画素の高解像度画像Fxnにおける各画素の画素値X(=[x1,x2,…,xv])に対して上述の演算処理が成されることで、v画素の各画素に対する水平方向のエッジ方向成分OhX(=[ohx1,ohx2,…,ohxv])が算出される。そして、このエッジ方向成分OhXに対してカメラパラメータ行列Wa,Wbが乗算されることで、低解像度推定画像Fanの水平方向のエッジ方向成分Wa・OhX(=[wohxa1,wohxa2,…,wohxau])、及び、低解像度推定画像Fbnの水平方向のエッジ方向成分Wb・OhX(=[wohxb1,wohxb2,…,wohxbu])が得られる。   Therefore, the above-described arithmetic processing is performed on the pixel value X (= [x1, x2,..., Xv]) of each pixel in the v-pixel high-resolution image Fxn by such a horizontal edge direction filter. , Horizontal edge direction component OhX (= [ohx1, ohx2,..., Ohxv]) for each pixel of v pixels is calculated. Then, by multiplying the edge direction component OhX by the camera parameter matrix Wa, Wb, the horizontal edge direction component Wa · OhX (= [wohxa1, wohxa2,..., Wohxau]) of the low resolution estimated image Fan. , And the horizontal edge direction component Wb · OhX (= [woxb1, whxb2,..., Whxbu]) of the low resolution estimated image Fbn is obtained.

そして、u画素の低解像度実画像Faにおける各画素の画素値Ya(=[ya1,ya2,…,yau])に対して、水平エッジ方向フィルタによる同様の演算処理が成されることで、u画素の各画素に対する水平方向のエッジ方向成分OhYa(=[ohya1,ohya2,…,ohyau])が算出される。同様に、u画素の低解像度実画像Fbにおける各画素の画素値Yb(=[yb1,yb2,…,ybu])に対して、水平エッジ方向フィルタによる同様の演算処理が成されることで、u画素の各画素に対する水平方向のエッジ方向成分OhYb(=[ohyb1,ohyb2,…,ohybu])が算出される。   Then, the same arithmetic processing by the horizontal edge direction filter is performed on the pixel value Ya (= [ya1, ya2,..., Yau]) of each pixel in the low-resolution real image Fa of u pixels. A horizontal edge direction component OhYa (= [ohya1, ohya2,..., Ohyau]) for each pixel is calculated. Similarly, the same arithmetic processing by the horizontal edge direction filter is performed on the pixel value Yb (= [yb1, yb2,..., Ybu]) of each pixel in the low-resolution real image Fb of u pixels, A horizontal edge direction component OhYb (= [ohyb1, ohyb2,..., ohybu]) for each pixel of the u pixel is calculated.

又、垂直エッジ方向フィルタにおいては、図14(c)に示すフィルタによって、注目画素G00に対して水平方向で左側に配置される画素G(-1)(-1),G(-1)0,G(-1)1の画素値z(-1)(-1),z(-1)0,z(-1)1に対して、「−1」を乗算し、注目画素G00に対して水平方向で右側に配置される画素G1(-1),G10,G11の画素値z1(-1),z10,z11に対して、「1」を乗算し、注目画素G00に対して水平方向で同一位置に配置される画素G0(-1),G00,G01の画素値z0(-1),z00,z01に対して、「0」を乗算することで得られた値が、垂直方向のエッジ成分pとされる。即ち、この垂直方向のエッジ成分pは、(7)式によって算出される。   In the vertical edge direction filter, pixels G (-1) (-1) and G (-1) 0 arranged on the left side in the horizontal direction with respect to the target pixel G00 by the filter shown in FIG. , G (-1) 1 pixel values z (-1) (-1), z (-1) 0, and z (-1) 1 are multiplied by "-1" to obtain the target pixel G00. The pixel values z1 (-1), z10, and z11 of the pixels G1 (-1), G10, and G11 arranged on the right side in the horizontal direction are multiplied by “1”, and the horizontal direction is applied to the target pixel G00. The values obtained by multiplying the pixel values z0 (-1), z00, z01 of the pixels G0 (-1), G00, G01 arranged at the same position by “0” in the vertical direction The edge component is p. That is, the edge component p in the vertical direction is calculated by the equation (7).

Figure 2008306608
Figure 2008306608

よって、このような垂直エッジ方向フィルタによって、v画素の高解像度画像Fxnにおける各画素の画素値Xに対して上述の演算処理が成されることで、v画素の各画素に対する垂直方向のエッジ方向成分OpX(=[opx1,opx2,…,opxv])が算出される。そして、このエッジ方向成分OpXに対してカメラパラメータ行列Wa,Wbが乗算されることで、低解像度推定画像Fanの垂直方向のエッジ方向成分Wa・OpX(=[wopxa1,wopxa2,…,wopxau])、及び、低解像度推定画像Fbnの垂直方向のエッジ方向成分Wb・OpX(=[wopxb1,wopxb2,…,wopxbu])が得られる。   Therefore, the vertical edge direction with respect to each pixel of the v pixel is obtained by performing the above-described arithmetic processing on the pixel value X of each pixel in the high resolution image Fxn of the v pixel by such a vertical edge direction filter. The component OpX (= [opx1, opx2,..., Opxv]) is calculated. Then, by multiplying the edge direction component OpX by camera parameter matrices Wa and Wb, the vertical edge direction component Wa · OpX (= [wopxa1, wopxa2, ..., wopxau]) of the low resolution estimated image Fan is obtained. , And the vertical edge direction component Wb · OpX (= [wopxb1, wopxb2,..., Wopxbu]) of the low-resolution estimated image Fbn is obtained.

そして、u画素の低解像度実画像Faにおける各画素の画素値Ya(=[ya1,ya2,…,yau])に対して、垂直エッジ方向フィルタによる同様の演算処理が成されることで、u画素の各画素に対する垂直方向のエッジ方向成分OpYa(=[opya1,opya2,…,opyau])が算出される。同様に、u画素の低解像度実画像Fbにおける各画素の画素値Yb(=[yb1,yb2,…,ybu])に対して、垂直エッジ方向フィルタによる同様の演算処理が成されることで、u画素の各画素に対する垂直方向のエッジ方向成分OpYb(=[opyb1,opyb2,…,opybu])が算出される。   Then, the same arithmetic processing by the vertical edge direction filter is performed on the pixel value Ya (= [ya1, ya2,..., Yau]) of each pixel in the low-resolution real image Fa of u pixels. A vertical edge direction component OpYa (= [opya1, opya2,..., Opyau]) of each pixel is calculated. Similarly, the same arithmetic processing by the vertical edge direction filter is performed on the pixel value Yb (= [yb1, yb2,..., Ybu]) of each pixel in the low-resolution real image Fb of u pixels, A vertical edge direction component OpYb (= [opyb1, opyb2,..., opybu]) of each u pixel is calculated.

このようにして水平方向及び垂直方向のエッジ方向成分が算出されると、低解像度実画像Fa及び低解像度推定画像Faxそれぞれの同一画素位置における水平方向及び垂直方向それぞれのエッジ成分Wa・OhX,Wa・OpX,OhYa,OpYaによって、エッジ成分の比率行列Da(=[da1,da2,…,dau])が求められる。同様に、低解像度実画像Fb及び低解像度推定画像Fbxそれぞれの同一画素位置における水平方向及び垂直方向それぞれのエッジ成分Wb・OhX,Wb・OpX,OhYb,OpYbによって、エッジ成分の比率行列Db(=[db1,db2,…,dbu])が求められる。このとき、比率行列Daにおける要素となる値daiが以下の(8)式で算出され、又、比率行列Dbにおける要素となる値dbiが以下の(9)式で算出される。尚、(8)式及び(9)式におけるiは、1≦i≦uの整数である。   When the edge direction components in the horizontal direction and the vertical direction are calculated in this way, the edge components Wa, OhX, Wa in the horizontal direction and the vertical direction at the same pixel position in the low resolution actual image Fa and the low resolution estimated image Fax, respectively. The edge component ratio matrix Da (= [da1, da2,..., Dau]) is obtained from OpX, OhYa, OpYa. Similarly, the edge component ratio matrix Db (=) by the horizontal and vertical edge components Wb.OhX, Wb.OpX, OhYb, OpYb at the same pixel position in each of the low resolution actual image Fb and the low resolution estimated image Fbx. [Db1, db2,..., Dbu]). At this time, a value dai which is an element in the ratio matrix Da is calculated by the following equation (8), and a value dbi which is an element in the ratio matrix Db is calculated by the following equation (9). Note that i in the equations (8) and (9) is an integer satisfying 1 ≦ i ≦ u.

Figure 2008306608
Figure 2008306608

そして、第1例の比率Raと同様、比率Daを低解像度実画像Faと低解像度推定画像Fanとの相関値として扱う。即ち、比率Daにおける値daiと所定値th1との比較を行って、このi番目の画素に対する重み係数kaiの値を決定する。よって、比率Daにおける値daiと所定値th1との差の大きさが大きいものほど、重み係数kaiの値が0に近づき、比率Dbにおける値daiと所定値th1との差の大きさが小さいものほど、重み係数kaiの値が1に近づくように、u画素の低解像度実画像Faに対する係数行列Ka(=[ka1,ka2,…,kau])が設定される。   Then, like the ratio Ra of the first example, the ratio Da is treated as a correlation value between the low-resolution actual image Fa and the low-resolution estimated image Fan. That is, the value dai at the ratio Da is compared with the predetermined value th1 to determine the value of the weight coefficient kai for the i-th pixel. Accordingly, the larger the difference between the value dai and the predetermined value th1 in the ratio Da, the closer the value of the weighting factor kai is to 0, and the smaller the difference between the value dai and the predetermined value th1 in the ratio Db. The coefficient matrix Ka (= [ka1, ka2,..., Kau]) for the u-resolution low-resolution actual image Fa is set so that the value of the weighting coefficient kai approaches 1.

同様に、比率Dbについても、低解像度実画像Fbと低解像度推定画像Fbnとの相関値として扱い、比率Dbにおける値dbiと所定値th1との比較を行って、このi番目の画素に対する重み係数kbiの値を決定する。よって、比率Dbにおける値dbiと所定値th1との差の大きさが大きいものほど、重み係数kbiの値が0に近づき、比率Dbにおける値dbiと所定値th1との差の大きさが小さいものほど、重み係数kbiの値が1に近づくように、u画素の低解像度実画像Fbに対する係数行列Kb(=[kb1,kb2,…,kbu])が設定される。   Similarly, the ratio Db is also treated as a correlation value between the low-resolution actual image Fb and the low-resolution estimated image Fbn, the value dbi in the ratio Db is compared with the predetermined value th1, and the weight coefficient for the i-th pixel Determine the value of kbi. Therefore, the larger the difference between the value dbi in the ratio Db and the predetermined value th1, the closer the value of the weighting factor kbi is to 0, and the smaller the difference between the value dbi in the ratio Db and the predetermined value th1. The coefficient matrix Kb (= [kb1, kb2,..., Kbu]) for the u-resolution low-resolution real image Fb is set so that the value of the weighting coefficient kbi approaches 1 as the value becomes.

尚、比率Da,Dbにおける値dai,dbiと、係数行列Ka,Kbにおける重み係数kai,kbiとの間の関係については、図15のように表される。尚、以下では、説明を簡単にするために、図15に示すように、値dai,dbiを共通のdとし、重み係数kai,kbiを共通のkとする。即ち、上述の所定値th1を1≦th1(実施例1と同様の理由により、所定値th1を1≦th1に設定する。)としたとき、高周波成分の比率rと重み係数kの関係と同様、エッジ方向成分の比率dと重み係数kの関係が以下のようになる。   Note that the relationship between the values dai and dbi in the ratios Da and Db and the weighting coefficients kai and kbi in the coefficient matrices Ka and Kb is expressed as shown in FIG. In the following, for simplicity of explanation, as shown in FIG. 15, the values dai and dbi are assumed to be common d, and the weighting factors kai and kbi are assumed to be common k. That is, when the above-mentioned predetermined value th1 is 1 ≦ th1 (for the same reason as in the first embodiment, the predetermined value th1 is set to 1 ≦ th1), it is the same as the relationship between the high-frequency component ratio r and the weighting factor k. The relationship between the edge direction component ratio d and the weighting factor k is as follows.

(1)0≦|d−th1|≦t0(0≦t0≦1−th1)の場合
重み係数kの値が、k=1とされる。
(2)t0<|d−th1|≦t1(t0<t1)の場合
重み係数kの値が、k=t0+1−|d−th1|とされる。
(3)t1<|d−th1|の場合
重み係数kの値が、k=0とされる。
(1) When 0 ≦ | d−th1 | ≦ t0 (0 ≦ t0 ≦ 1-th1) The value of the weighting factor k is k = 1.
(2) When t0 <| d−th1 | ≦ t1 (t0 <t1) The value of the weighting factor k is k = t0 + 1− | d−th1 |.
(3) In the case of t1 <| d−th1 | The value of the weighting factor k is k = 0.

このu画素分の係数行列Ka,Kbが算出されると、第1例と同様、演算処理を行うことで、減算部444に与える更新量∂J/∂Xが得られる。このように、本例では、低解像度実画像及び低解像度推定画像それぞれに対して算出したエッジ方向成分の比率によって、低解像度実画像内のエッジ部分と平坦部分との比率の検出を行う。そして、それぞれの画像におけるエッジ方向成分の値が同等となる部分をエッジ部分とすることで、ノイズと判定される成分を含むか又はエッジ部分の相関性が低いと推定される領域の画素に対する更新量を抑制し、超解像処理により得られる高解像度画像のノイズを抑制することができる。   When the coefficient matrices Ka and Kb for the u pixels are calculated, the update amount ∂J / ∂X to be given to the subtracting unit 444 is obtained by performing arithmetic processing as in the first example. Thus, in this example, the ratio between the edge portion and the flat portion in the low-resolution actual image is detected based on the ratio of the edge direction component calculated for each of the low-resolution actual image and the low-resolution estimated image. Then, by updating the portion of each image where the value of the edge direction component is the same as the edge portion, the update is performed on the pixel in the region that includes the component determined to be noise or the edge portion is estimated to have low correlation. The amount of noise can be suppressed, and noise in a high-resolution image obtained by super-resolution processing can be suppressed.

尚、本例において、検出するエッジ方向成分を水平方向及び垂直方向を例に挙げて説明したが、水平方向及び垂直方向に限らず、別の方向のエッジ方向成分も検出するものとしても構わない。更に、水平方向及び垂直方向を含む異なる方向のエッジ方向成分を複数検出することで、エッジ部分と平坦部分との比率との検出をより正確に行うことができる。   In this example, the edge direction component to be detected is described by taking the horizontal direction and the vertical direction as examples. However, the edge direction component is not limited to the horizontal direction and the vertical direction, and the edge direction component in another direction may be detected. . Furthermore, by detecting a plurality of edge direction components in different directions including the horizontal direction and the vertical direction, the ratio between the edge portion and the flat portion can be detected more accurately.

又、上述の各実施形態において、超解像処理部44において超解像処理が成される各フレーム間の位置ズレ補正について、超解像処理部44内で高解像度画像生成を行う際に、動き量検出部43や動き量記憶部48からの動き量に基づいて成されるものとして説明した。しかしながら、各フレーム間の位置ズレ補正を行うための各フレーム毎の位置ズレ補正部が、超解像処理部44外部に設置される構成としても構わない。   Further, in each of the above-described embodiments, when the high-resolution image generation is performed in the super-resolution processing unit 44 with respect to the positional deviation correction between the frames in which the super-resolution processing is performed in the super-resolution processing unit 44, The description has been made assuming that the movement amount is based on the movement amount from the movement amount detection unit 43 and the movement amount storage unit 48. However, the positional deviation correction unit for each frame for performing positional deviation correction between the frames may be installed outside the super-resolution processing unit 44.

即ち、図4の構成のように、フレームメモリ41,42を備え、連続する2フレームの低解像度画像Fa,Fbが超解像処理部44に与えられて、高解像度画像Fxを取得する場合、図16に示す構成のように、図4の構成に位置ズレ補正部50を追加した構成となる。この位置ズレ補正部50は、動き量検出部43の動き量検出動作により、連続する2フレームの低解像度画像Fa,Fb間における動き量が検出されると、検出された動き量が与えられる。   That is, as in the configuration of FIG. 4, when the frame memories 41 and 42 are provided and two consecutive low-resolution images Fa and Fb are given to the super-resolution processing unit 44 to obtain the high-resolution image Fx, As in the configuration illustrated in FIG. 16, the position shift correction unit 50 is added to the configuration in FIG. 4. When the motion amount between the two consecutive low-resolution images Fa and Fb is detected by the motion amount detection operation of the motion amount detection unit 43, the position shift correction unit 50 is provided with the detected motion amount.

そして、位置ズレ補正部50は、フレームメモリ41に記憶された現フレームの低解像度実画像Faが与えられることにより、この低解像度実画像Faに対して、動き量検出部43で算出された動き量に基づいて位置ズレ補正を施す。これにより、フレームメモリ42に記憶された1フレーム前の低解像度実画像Fbを基準として、低解像度実画像Faの画素位置が補正される。即ち、低解像度実画像Faの画素位置が、基準となる低解像度実画像Fbの画素位置に基づく位置に変更される。このように位置ズレ補正部50で位置ズレ補正が成された低解像度実画像Faが、フレームメモリ42からの低解像度実画像Fbとともに超解像処理部44に与えられて、高解像度画像Fxが生成される。   Then, the positional deviation correction unit 50 is provided with the low-resolution real image Fa of the current frame stored in the frame memory 41, and the motion calculated by the motion amount detection unit 43 with respect to the low-resolution real image Fa. A positional deviation correction is performed based on the amount. As a result, the pixel position of the low-resolution actual image Fa is corrected using the low-resolution actual image Fb one frame before stored in the frame memory 42 as a reference. That is, the pixel position of the low-resolution actual image Fa is changed to a position based on the pixel position of the reference low-resolution actual image Fb. The low-resolution real image Fa that has been subjected to the positional shift correction by the positional shift correction unit 50 in this way is given to the super-resolution processing unit 44 together with the low-resolution real image Fb from the frame memory 42, and the high-resolution image Fx is converted into the high-resolution image Fx. Generated.

又、図9の構成のように、フレームメモリ41,42,47を備え、連続する3フレームの低解像度画像Fa〜Fcが超解像処理部44に与えられて、高解像度画像Fxを取得する場合、図17に示す構成のように、図9の構成に位置ズレ補正部50,51を追加した構成となる。このとき、動き量検出部43で検出された低解像度実画像Fa,Fc間の動き量が位置ズレ補正部50に与えられるとともに、動き量記憶部48に記憶されている低解像度実画像Fb,Fc間の動き量が位置ズレ補正部51に与えられる。   Further, as in the configuration of FIG. 9, the frame memory 41, 42, 47 is provided, and three consecutive low-resolution images Fa to Fc are given to the super-resolution processing unit 44 to acquire the high-resolution image Fx. In this case, as in the configuration shown in FIG. 17, the configuration in which the position shift correction units 50 and 51 are added to the configuration in FIG. 9 is obtained. At this time, the motion amount between the low-resolution real images Fa and Fc detected by the motion amount detection unit 43 is given to the positional deviation correction unit 50 and the low-resolution real images Fb and Fb stored in the motion amount storage unit 48 The amount of motion between Fc is given to the positional deviation correction unit 51.

これにより、位置ズレ補正部50では、フレームメモリ41に格納された低解像度実画像Faが与えられ、動き量検出部43で取得された低解像度実画像Fa,Fc間の動き量に基づいて、低解像度実画像Fcを基準とする位置ズレ補正が成される。又、位置ズレ補正部51では、フレームメモリ42に格納された低解像度実画像Fbが与えられ、動き量記憶部48で取得された低解像度実画像Fb,Fc間の動き量に基づいて、低解像度実画像Fcを基準とする位置ズレ補正が成される。このように位置ズレ補正部50,51で位置ズレ補正が成された低解像度実画像Fa,Fbが、フレームメモリ47からの低解像度実画像Fcとともに超解像処理部44に与えられて、高解像度画像Fxが生成される。   Thereby, the positional deviation correction unit 50 is given the low-resolution real image Fa stored in the frame memory 41, and based on the motion amount between the low-resolution real images Fa and Fc acquired by the motion amount detection unit 43, A positional deviation correction based on the low resolution real image Fc is performed. Further, the positional deviation correction unit 51 is provided with the low resolution actual image Fb stored in the frame memory 42, and based on the motion amount between the low resolution actual images Fb and Fc acquired by the motion amount storage unit 48, A positional deviation correction is performed with the resolution actual image Fc as a reference. The low-resolution real images Fa and Fb that have been subjected to the positional shift correction by the positional shift correction units 50 and 51 in this way are supplied to the super-resolution processing unit 44 together with the low-resolution real image Fc from the frame memory 47, and the high-resolution processing unit 44 A resolution image Fx is generated.

又、図10の構成のように、選択部49を設けることによって、フレームメモリ45に低解像度実画像又は高解像度画像のいずれかを選択して記憶させる場合、図18に示す構成のように、図10の構成に位置ズレ補正部50,51と選択部52とを追加した構成となる。尚、図17の構成と同様、位置ズレ補正部50では、フレームメモリ41に格納された低解像度実画像Faに対して、動き量検出部43で取得された動き量による位置ズレ補正が成される。又、位置ズレ補正部51では、フレームメモリ42に格納された低解像度実画像Fbに対して、動き量記憶部48で取得された動き量による位置ズレ補正が成される。   Further, when the selection unit 49 is provided as shown in FIG. 10 to select and store either the low resolution real image or the high resolution image in the frame memory 45, as shown in FIG. The configuration shown in FIG. 10 is obtained by adding position shift correction units 50 and 51 and a selection unit 52. As in the configuration of FIG. 17, the positional deviation correction unit 50 performs positional deviation correction on the low-resolution real image Fa stored in the frame memory 41 based on the motion amount acquired by the motion amount detection unit 43. The Further, the positional deviation correction unit 51 performs positional deviation correction on the low-resolution actual image Fb stored in the frame memory 42 based on the motion amount acquired by the motion amount storage unit 48.

そして、動画撮影時においては、選択部49でフレームメモリ42からの低解像度実画像Fbが選択されて、フレームメモリ45に出力されるとともに、選択部52では、位置ズレ補正部51からの低解像度実画像Fbが選択される。又、位置ズレ補正部50では、低解像度実画像Fa,Fc間の動き量が動き量検出部43によって検出されるため、低解像度実画像Faに対して、低解像度実画像Fcを基準とする位置ズレ補正が成される。更に、位置ズレ補正部51では、低解像度実画像Fb,Fc間の動き量が動き量記憶部48に記憶されているため、低解像度実画像Fbに対して、低解像度実画像Fcを基準とする位置ズレ補正が成される。   At the time of moving image shooting, the selection unit 49 selects the low resolution real image Fb from the frame memory 42 and outputs it to the frame memory 45, and the selection unit 52 receives the low resolution from the positional deviation correction unit 51. The actual image Fb is selected. Further, in the positional deviation correction unit 50, the amount of motion between the low resolution actual images Fa and Fc is detected by the motion amount detection unit 43, so that the low resolution actual image Fc is used as a reference for the low resolution actual image Fa. Misalignment correction is performed. Furthermore, since the amount of motion between the low resolution actual images Fb and Fc is stored in the motion amount storage unit 48 in the positional deviation correction unit 51, the low resolution actual image Fb is used as a reference for the low resolution actual image Fb. The positional deviation correction is performed.

一方、静止画撮影時においては、選択部49で超解像処理部44からの高解像度画像Fxが選択されて、フレームメモリ45に出力されるとともに、選択部52では、フレームメモリ42からの低解像度実画像Fbが選択される。又、位置ズレ補正部50では、低解像度実画像Fa,Fb間の動き量が動き量検出部43によって検出されるため、低解像度実画像Faに対して、低解像度実画像Fbを基準とする位置ズレ補正が成される。   On the other hand, at the time of still image shooting, the selection unit 49 selects the high-resolution image Fx from the super-resolution processing unit 44 and outputs it to the frame memory 45, and the selection unit 52 selects the low-resolution image Fx from the frame memory 42. The resolution actual image Fb is selected. In the positional deviation correction unit 50, the amount of motion between the low resolution actual images Fa and Fb is detected by the motion amount detection unit 43, so that the low resolution actual image Fb is used as a reference for the low resolution actual image Fa. Misalignment correction is performed.

又、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明における画像処理方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明における画像処理方法を利用可能である。図19に、本発明における画像処理方法を行う画像処理装置(「画像処理部」に相当)を備えた表示装置を示す。   In the above description, the image processing method according to the present invention has been described using the image pickup apparatus having the configuration shown in FIG. 1 as an example. However, the image processing method is not limited to the image pickup apparatus, and digital images such as liquid crystal displays and plasma televisions are used. The image processing method according to the present invention can also be used in a display device that performs processing. FIG. 19 shows a display device provided with an image processing device (corresponding to an “image processing unit”) that performs the image processing method of the present invention.

図19に示す表示装置は、図1に示す撮像装置と同様、画像処理部4、伸長処理部8、ディスプレイ部9、音声出力回路部10、スピーカ部11、タイミングジェネレータ12、CPU13、メモリ14、操作部15、及び、バス回線16,17を備える。そして、外部で受信した放送信号を選局するチューナ部21と、チューナ部21で選局した放送信号を復調する復調部22と、外部から入力されたデジタル信号となる圧縮信号が入力されるインターフェース23とを、更に備える。   The display device shown in FIG. 19 is similar to the image pickup device shown in FIG. 1 in that the image processing unit 4, the expansion processing unit 8, the display unit 9, the audio output circuit unit 10, the speaker unit 11, the timing generator 12, the CPU 13, the memory 14, An operation unit 15 and bus lines 16 and 17 are provided. A tuner unit 21 that selects a broadcast signal received externally, a demodulator unit 22 that demodulates a broadcast signal selected by the tuner unit 21, and an interface to which a compressed signal that is a digital signal input from the outside is input. 23.

この図19の表示装置は、放送信号を受信する場合は、チューナ部21で所望のチャンネルの放送信号を選局した後、復調部22で放送信号を復調することで、動画再生時には、MPEG圧縮符号方式による圧縮信号となるデジタル信号が得られる。又、静止画像再生時には、JPEG圧縮符号方式による圧縮信号となるデジタル信号が得られる。このデジタル信号が伸長処理部8に与えられると、圧縮信号であるデジタル信号に対して、MPEG圧縮符号方式又はJPEG圧縮符号方式による伸長処理が施される。   In the case of receiving a broadcast signal, the display device of FIG. 19 selects a broadcast signal of a desired channel by the tuner unit 21 and then demodulates the broadcast signal by the demodulation unit 22, so that MPEG compression is performed at the time of moving image reproduction. A digital signal which is a compressed signal by the encoding method is obtained. In addition, when a still image is reproduced, a digital signal that is a compressed signal by the JPEG compression code method is obtained. When this digital signal is given to the decompression processing unit 8, the digital signal which is a compressed signal is subjected to decompression processing by the MPEG compression code method or the JPEG compression code method.

そして、操作部15によって画像の高解像度化が指示されると、伸長処理部8で伸長処理して得られた画像信号が、画像処理部4に与えられて、上述の低解像度実画像の選択処理や超解像処理が行われることで、高解像度画像が生成される。その後、生成された高解像度画像による画像信号がディスプレイ部9に与えられて、画像再生がなされる。又、動画再生時においては、伸長処理部8の伸長処理で得られた音声信号が、音声出力回路部10を通じてスピーカ部11に与えられることで、音声が再生出力される。   Then, when the operation unit 15 instructs to increase the resolution of the image, the image signal obtained by the expansion processing by the expansion processing unit 8 is given to the image processing unit 4 to select the above-described low-resolution real image. By performing the processing and the super-resolution processing, a high resolution image is generated. Thereafter, an image signal based on the generated high-resolution image is given to the display unit 9, and image reproduction is performed. Further, when reproducing a moving image, the audio signal obtained by the expansion processing of the expansion processing unit 8 is given to the speaker unit 11 through the audio output circuit unit 10 so that the sound is reproduced and output.

本発明は、超解像処理による画像の高解像度化を行う画像処理装置を備えた撮像装置や表示装置に適用することができる。   The present invention can be applied to an imaging device or a display device that includes an image processing device that increases the resolution of an image by super-resolution processing.

は、本発明の画像処理装置となる画像処理部を備えた撮像装置の内部構成を示すブロック図である。These are the block diagrams which show the internal structure of the imaging device provided with the image process part used as the image processing apparatus of this invention. は、被写体の輝度分布と撮影時間の異なるフレームにおける画像データとの関係を示す図である。These are diagrams showing the relationship between the luminance distribution of a subject and image data in frames with different shooting times. は、超解像処理におけるフローの概要を説明するための図である。These are the figures for demonstrating the outline | summary of the flow in a super-resolution process. は、本発明の第1の実施形態となる撮像装置の超解像処理部の構成を示すブロック図である。These are block diagrams which show the structure of the super-resolution process part of the imaging device which becomes the 1st Embodiment of this invention. は、代表点マッチング法における検出領域の関係を示す図である。These are figures which show the relationship of the detection area in a representative point matching method. は、基準画像の代表点と非基準画像のサンプリング点との関係を示す図である。These are figures which show the relationship between the representative point of a reference | standard image, and the sampling point of a non-reference | standard image. は、1画素以内の位置ズレ検出を行う際の基準画像の代表点と非基準画像のサンプリング点との関係を示す図である。FIG. 5 is a diagram illustrating a relationship between a representative point of a reference image and a sampling point of a non-reference image when position shift detection within one pixel is performed. は、1画素以内の位置ズレ検出を行う際の基準画像の代表点及び非基準画像のサンプリング点それぞれの画素値の関係を示す図である。FIG. 5 is a diagram illustrating a relationship between pixel values of a representative point of a reference image and a sampling point of a non-reference image when position shift detection within one pixel is performed. は、本発明の第1の実施形態となる撮像装置の超解像処理部の別の構成例を示すブロック図である。These are block diagrams which show another example of a structure of the super-resolution process part of the imaging device which becomes the 1st Embodiment of this invention. は、本発明の第2の実施形態となる撮像装置の超解像処理部の構成を示すブロック図である。These are block diagrams which show the structure of the super-resolution process part of the imaging device which becomes the 2nd Embodiment of this invention. は、ノイズ含有量推定に対する演算処理の第1例における、重み係数と高周波成分の比率との関係を示すグラフである。These are the graphs which show the relationship between the weighting factor and the ratio of a high frequency component in the 1st example of the arithmetic processing with respect to noise content estimation. は、ノイズ含有量推定に対する演算処理の第2例において成される標準偏差算出時の演算処理動作を説明するための図である。These are figures for demonstrating the arithmetic processing operation | movement at the time of the standard deviation calculation made in the 2nd example of the arithmetic processing with respect to noise content estimation. は、ノイズ含有量推定に対する演算処理の第2例における、重み係数と標準偏差の比率との関係を示すグラフである。These are graphs which show the relationship between the weighting factor and the ratio of the standard deviation in the second example of the arithmetic processing for noise content estimation. は、ノイズ含有量推定に対する演算処理の第3例において成されるエッジ方向フィルタでの演算処理動作を説明するための図である。These are the figures for demonstrating the arithmetic processing operation | movement by the edge direction filter comprised in the 3rd example of the arithmetic processing with respect to noise content estimation. は、ノイズ含有量推定に対する演算処理の第3例における、重み係数とエッジ方向の比率との関係を示すグラフである。These are graphs which show the relationship between the weighting factor and the ratio of the edge direction in the third example of the arithmetic processing for noise content estimation. は、本発明の第1の実施形態となる撮像装置の超解像処理部の別の構成例を示すブロック図である。These are block diagrams which show another example of a structure of the super-resolution process part of the imaging device which becomes the 1st Embodiment of this invention. は、本発明の第1の実施形態となる撮像装置の超解像処理部の別の構成例を示すブロック図である。These are block diagrams which show another example of a structure of the super-resolution process part of the imaging device which becomes the 1st Embodiment of this invention. は、本発明の第2の実施形態となる撮像装置の超解像処理部の別の構成例を示すブロック図である。These are block diagrams which show another example of a structure of the super-resolution process part of the imaging device which becomes the 2nd Embodiment of this invention. は、本発明の画像処理装置となる画像処理部を備えた表示装置の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the display apparatus provided with the image processing part used as the image processing apparatus of this invention.

符号の説明Explanation of symbols

1 イメージセンサ
2 AFE
3 マイク
4 画像処理部
5 音声処理部
6 圧縮処理部
7 ドライバ部
8 伸長処理部
9 ディスプレイ部
10 音声出力回路部
11 スピーカ部
12 タイミングジェネレータ
13 CPU
14 メモリ
15 操作部
16,17 バス回線
20 外部メモリ
41,42,45,47 フレームメモリ
43 動き量算出部
44 超解像処理部
46 信号処理部
48 動き量記憶部
49,52 選択部
50,51 位置ズレ補正部
1 Image sensor 2 AFE
Reference Signs List 3 microphone 4 image processing unit 5 audio processing unit 6 compression processing unit 7 driver unit 8 expansion processing unit 9 display unit 10 audio output circuit unit 11 speaker unit 12 timing generator 13 CPU
DESCRIPTION OF SYMBOLS 14 Memory 15 Operation part 16, 17 Bus line 20 External memory 41, 42, 45, 47 Frame memory 43 Motion amount calculation part 44 Super-resolution processing part 46 Signal processing part 48 Motion amount storage part 49,52 Selection part 50,51 Position shift correction unit

Claims (9)

複数フレームの低解像度画像から高解像度画像を生成する高解像度画像生成部を備える画像処理装置において、
前記低解像度画像を一時的に記憶する複数の第1フレームメモリと、
前記高解像度画像生成部で生成された前記高解像度画像を一時的に記憶する第2フレームメモリと、
を備え、
前記高解像度画像生成部が、
前記第1フレームメモリに記憶された複数フレームの前記低解像度画像に基づいて前記高解像度画像を生成するとともに、
生成した前記高解像度画像を前記第2フレームメモリに出力した後、前記第2フレームメモリに記憶された前記高解像度画像を用いて、前記高解像度画像を更新する反復演算処理を行い、
単一フレームの前記高解像度画像を生成して出力するとき、前記高解像度画像生成部における前記第2フレームメモリを利用した前記反復演算処理の反復回数を第1回数とし、
複数フレームの前記高解像度画像を連続で生成して出力するとき、前記高解像度画像生成部における前記第2フレームメモリを利用した前記反復演算処理の反復回数を、前記第1回数よりも少なく、且つ0回以上となる第2回数とすることを特徴とする画像処理装置。
In an image processing apparatus including a high resolution image generation unit that generates a high resolution image from a plurality of frames of low resolution images,
A plurality of first frame memories for temporarily storing the low resolution images;
A second frame memory that temporarily stores the high-resolution image generated by the high-resolution image generation unit;
With
The high-resolution image generation unit;
Generating the high resolution image based on the low resolution image of a plurality of frames stored in the first frame memory;
After the generated high resolution image is output to the second frame memory, the high resolution image stored in the second frame memory is used to perform an iterative calculation process for updating the high resolution image,
When generating and outputting the high-resolution image of a single frame, the number of iterations of the iterative calculation process using the second frame memory in the high-resolution image generation unit is a first number of times,
When continuously generating and outputting the high-resolution image of a plurality of frames, the number of iterations of the iterative calculation process using the second frame memory in the high-resolution image generation unit is less than the first number, and An image processing apparatus characterized in that the second number of times is zero or more.
複数の前記第1フレームメモリが直列に接続され、連続して入力される前記低解像度画像が1フレーム毎に記憶され、
前記高解像度画像生成部に対して、複数の前記第1フレームメモリに記憶された前記低解像度画像が並列して出力されることを特徴とする請求項1に記載の画像処理装置。
A plurality of the first frame memories are connected in series, and the continuously input low resolution image is stored for each frame.
The image processing apparatus according to claim 1, wherein the low-resolution images stored in the plurality of first frame memories are output in parallel to the high-resolution image generation unit.
前記第1フレームメモリの後段に配置されるとともに、前記第1及び第2フレームメモリとして共通に使用される第3フレームメモリと、
前記第1フレームメモリの最後段からの前記低解像度画像と、前記高解像度画像生成部で生成された前記高解像度画像とを選択して、前記第3フレームメモリに出力する選択部と、
を備え、
単一フレームの前記高解像度画像を生成して出力するとき、前記選択部が前記高解像度画像生成部からの前記高解像度画像を選択して前記第3フレームメモリに出力し、
複数フレームの前記高解像度画像を連続で生成して出力するとき、前記選択部が前記第1フレームメモリの最後段からの前記低解像度画像を選択して前記第3フレームメモリに出力することを特徴とする請求項2に記載の画像処理装置。
A third frame memory that is disposed downstream of the first frame memory and is commonly used as the first and second frame memories;
A selection unit that selects the low resolution image from the last stage of the first frame memory and the high resolution image generated by the high resolution image generation unit, and outputs the selected high resolution image to the third frame memory;
With
When generating and outputting the high resolution image of a single frame, the selection unit selects the high resolution image from the high resolution image generation unit and outputs the high resolution image to the third frame memory,
When continuously generating and outputting the high-resolution images of a plurality of frames, the selection unit selects the low-resolution images from the last stage of the first frame memory and outputs them to the third frame memory. The image processing apparatus according to claim 2.
前記高解像度画像生成部が、
前記複数の低解像度実画像から前記高解像度画像を生成するとともに、前記第2フレームメモリをその一部とする高解像度化処理部と、
該高解像度化処理部によって取得した前記高解像度画像より複数の前記低解像度実画像それぞれと同等となるように推定することで複数の低解像度推定画像を取得する低解像度推定部と、
該低解像度推定部によって得られた前記低解像度推定画像と前記低解像度実画像の差分値に基づいて前記高解像度化処理部で生成する前記高解像度画像の更新量を算出する更新量算出部と、
を備え、
前記高解像度化部において、前回の処理で生成した前記高解像度画像に対して、前記更新量算出部で得た前記更新量による更新を行うことで、前記高解像度画像を更新することを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
The high-resolution image generation unit;
Generating a high-resolution image from the plurality of low-resolution real images, and a high-resolution processing unit including the second frame memory as a part thereof;
A low-resolution estimation unit that acquires a plurality of low-resolution estimated images by estimating to be equivalent to each of the plurality of low-resolution actual images from the high-resolution image acquired by the high-resolution processing unit;
An update amount calculation unit that calculates an update amount of the high resolution image generated by the high resolution processing unit based on a difference value between the low resolution estimation image and the low resolution actual image obtained by the low resolution estimation unit; ,
With
In the high-resolution part, the high-resolution image is updated by updating the high-resolution image generated in the previous process with the update amount obtained in the update amount calculation unit. The image processing apparatus according to any one of claims 1 to 3.
前記更新量算出部が、
前記低解像度実画像それぞれに対して、対応する前記低解像度推定画像との差分値を求めることで、前記低解像度実画像の各画素位置における低解像度更新量を算出する低解像度更新量算出部と、
前記低解像度実画像それぞれに対して、同一画素位置における前記低解像度実画像及び前記低解像度推定画像それぞれの画素値に含まれる画像成分を比較し、当該画像成分の比較結果に基づいて、前記低解像度更新量に乗算する重み係数を生成する重み係数算出部と、
前記低解像度更新量算出部で算出された前記低解像度更新量に、前記重み係数算出部で算出された前記重み係数を乗算した後、前記重み係数が乗算された前記低解像度更新量に基づいて、前記高解像度画像の画素数に合わせた前記高解像度更新量を算出する高解像度更新量算出部と、
を備え、
前記高解像度化処理部において、前回の処理で生成した前記高解像度画像に対して、前記高解像度更新量算出部で算出された前記高解像度更新量による更新を行うことで、前記高解像度画像を更新することを特徴とする請求項4に記載の画像処理装置。
The update amount calculation unit
A low-resolution update amount calculation unit that calculates a low-resolution update amount at each pixel position of the low-resolution actual image by obtaining a difference value from the corresponding low-resolution estimated image for each of the low-resolution actual images. ,
For each of the low-resolution real images, image components included in the pixel values of the low-resolution real image and the low-resolution estimated image at the same pixel position are compared, and based on the comparison result of the image components, the low-resolution real image A weighting factor calculation unit for generating a weighting factor for multiplying the resolution update amount;
After the low resolution update amount calculated by the low resolution update amount calculation unit is multiplied by the weighting factor calculated by the weighting factor calculation unit, based on the low resolution update amount multiplied by the weighting factor A high-resolution update amount calculation unit that calculates the high-resolution update amount according to the number of pixels of the high-resolution image;
With
In the high resolution processing unit, the high resolution image generated by the high resolution update amount calculated by the high resolution update amount calculation unit is updated with respect to the high resolution image generated in the previous process. The image processing apparatus according to claim 4, wherein the image processing apparatus is updated.
前記重み係数算出部における、前記画像成分の比較結果が、前記低解像度実画像の画素値の前記画像成分を前記低解像度推定画像の画素値の前記画像成分で除算して得られる画像成分の比であり、
当該画像成分の比が1以上の所定値に近い値となると、前記重み係数を1に近い値とし、
当該画像成分の比が前記所定値より遠い値となると、前記重み係数を0に近い値とすることを特徴とする請求項5に記載の画像処理装置。
The comparison result of the image components in the weight coefficient calculation unit is a ratio of image components obtained by dividing the image component of the pixel value of the low-resolution actual image by the image component of the pixel value of the low-resolution estimated image. And
When the ratio of the image components becomes a value close to a predetermined value of 1 or more, the weight coefficient is set to a value close to 1,
The image processing apparatus according to claim 5, wherein the weight coefficient is set to a value close to 0 when the ratio of the image components becomes a value farther than the predetermined value.
外部入力又は撮像により複数フレームとなる画像による画像信号が与えられるとともに、該画像信号による画像を高解像度の画像に変換する高解像度化機能を備えた電子機器において、
前記高解像度化機能を実現する画像処理部として、請求項1〜請求項6のいずれに記載の画像処理装置を備え、前記画像信号による画像を前記低解像度画像として高解像度化処理を行うことで、所望の前記高解像度画像が生成されることを特徴とする電子機器。
In an electronic device provided with an image signal based on an image that becomes a plurality of frames by external input or imaging, and having a high resolution function that converts an image based on the image signal into a high resolution image,
The image processing unit according to any one of claims 1 to 6 is provided as an image processing unit that realizes the high resolution function, and the high resolution processing is performed using the image based on the image signal as the low resolution image. An electronic apparatus, wherein the desired high-resolution image is generated.
複数フレームの低解像度画像に基づいて高解像度画像を生成する第1ステップと、前記第1ステップで生成した前記高解像度画像の更新量を生成する第2ステップと、を備え、前記第1ステップ及び前記第2ステップを繰り返し行うことで、前記第1ステップで生成される前記高解像度画像を前記第2ステップでの更新量によって更新する画像処理方法であって、
単一フレームの前記高解像度画像を生成して出力するとき、前記第1ステップ及び前記第2ステップによる反復演算処理の反復回数を第1回数とし、
複数フレームの前記高解像度画像を連続で生成して出力するとき、前記第1ステップ及び前記第2ステップによる反復演算処理の反復回数を、前記第1回数よりも少なく、且つ0回以上となる第2回数とすることを特徴とする画像処理方法。
A first step of generating a high resolution image based on a plurality of frames of low resolution images, and a second step of generating an update amount of the high resolution image generated in the first step, wherein the first step and An image processing method for updating the high-resolution image generated in the first step by an update amount in the second step by repeatedly performing the second step,
When generating and outputting the high-resolution image of a single frame, the number of iterations of the iterative calculation process by the first step and the second step is set as the first number of times,
When the high-resolution images of a plurality of frames are continuously generated and output, the number of iterations of the iterative calculation process in the first step and the second step is less than the first number and more than zero. An image processing method characterized in that the number of times is two.
単一フレームの前記高解像度画像を生成して出力するとき、前記第1ステップで前記高解像度画像を生成するために使用する前記低解像度画像のフレーム数を、第1フレーム数とし、
複数フレームの前記高解像度画像を連続で生成して出力するとき、前記第1ステップで前記高解像度画像を生成するために使用する前記低解像度画像のフレーム数を、第1フレーム数よりも多い第2フレーム数とすることを特徴とする請求項8に記載の画像処理方法。
When generating and outputting the high-resolution image of a single frame, the number of frames of the low-resolution image used for generating the high-resolution image in the first step is a first frame number,
When continuously generating and outputting the high-resolution image of a plurality of frames, the number of frames of the low-resolution image used for generating the high-resolution image in the first step is greater than the first frame number. The image processing method according to claim 8, wherein the number of frames is two.
JP2007153477A 2007-06-11 2007-06-11 Image processing method, image processing apparatus, and electronic device with the image processing apparatus Pending JP2008306608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007153477A JP2008306608A (en) 2007-06-11 2007-06-11 Image processing method, image processing apparatus, and electronic device with the image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007153477A JP2008306608A (en) 2007-06-11 2007-06-11 Image processing method, image processing apparatus, and electronic device with the image processing apparatus

Publications (1)

Publication Number Publication Date
JP2008306608A true JP2008306608A (en) 2008-12-18

Family

ID=40234896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007153477A Pending JP2008306608A (en) 2007-06-11 2007-06-11 Image processing method, image processing apparatus, and electronic device with the image processing apparatus

Country Status (1)

Country Link
JP (1) JP2008306608A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011043960A (en) * 2009-08-20 2011-03-03 Canon Inc Image processing apparatus and image processing method
JP2013025368A (en) * 2011-07-15 2013-02-04 Tokyo Institute Of Technology Noise level estimation device, noise level estimation method and program
JP2015216644A (en) * 2010-03-26 2015-12-03 アンバレラ・インコーポレイテッド Architecture for video processing, fast still picture processing and high quality still picture processing

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011043960A (en) * 2009-08-20 2011-03-03 Canon Inc Image processing apparatus and image processing method
JP2015216644A (en) * 2010-03-26 2015-12-03 アンバレラ・インコーポレイテッド Architecture for video processing, fast still picture processing and high quality still picture processing
US9979887B1 (en) 2010-03-26 2018-05-22 Ambarella, Inc. Architecture for video, fast still and high quality still picture processing
JP2013025368A (en) * 2011-07-15 2013-02-04 Tokyo Institute Of Technology Noise level estimation device, noise level estimation method and program

Similar Documents

Publication Publication Date Title
JP4879261B2 (en) Imaging apparatus, high resolution processing method, high resolution processing program, and recording medium
US9094648B2 (en) Tone mapping for low-light video frame enhancement
JP4646146B2 (en) Image processing apparatus, image processing method, and program
JP4745388B2 (en) Double path image sequence stabilization
US9307212B2 (en) Tone mapping for low-light video frame enhancement
JP2009037460A (en) Image processing method, image processor, and electronic equipment equipped with image processor
JP2010063088A (en) Imaging apparatus
US20090273717A1 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
US11356604B2 (en) Methods and systems for image processing with multiple image sources
WO2011129249A1 (en) Image processing device, image capture device, program, and image processing method
JP2010009417A (en) Image processing apparatus, image processing method, program and recording medium
WO2008047664A1 (en) Image creating device and image creating method
JP2012222674A (en) Image processing apparatus, image processing method, and program
JP2011097246A (en) Image processing apparatus, method, and program
JP2013020527A (en) Image processing device, method, and program
US11710223B2 (en) Methods and systems for image processing with multiple image sources
WO2011148760A1 (en) Image processing device, image capturing device, program and image processing method
JP2011114823A (en) Image processing apparatus, and imaging apparatus
JP2012142829A (en) Image processing device and image processing method
JP2008294950A (en) Image processing method and device, and electronic device with the same
JP2018037857A (en) Image processing system, image processing method and program
JP4942563B2 (en) Image processing method, image processing apparatus, and electronic apparatus including the image processing apparatus
JP2008293388A (en) Image processing method, image processor, and electronic equipment comprising image processor
US20080107358A1 (en) Image Processing Apparatus, Image Processing Method, and Computer Program
JP2008306608A (en) Image processing method, image processing apparatus, and electronic device with the image processing apparatus