JP2008294950A - Image processing method and device, and electronic device with the same - Google Patents

Image processing method and device, and electronic device with the same Download PDF

Info

Publication number
JP2008294950A
JP2008294950A JP2007140724A JP2007140724A JP2008294950A JP 2008294950 A JP2008294950 A JP 2008294950A JP 2007140724 A JP2007140724 A JP 2007140724A JP 2007140724 A JP2007140724 A JP 2007140724A JP 2008294950 A JP2008294950 A JP 2008294950A
Authority
JP
Japan
Prior art keywords
resolution
image
low
pixel
resolution image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007140724A
Other languages
Japanese (ja)
Inventor
Norikazu Tsunekawa
法和 恒川
Seiji Okada
誠司 岡田
Akihiro Maenaka
章弘 前中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007140724A priority Critical patent/JP2008294950A/en
Priority to US12/127,318 priority patent/US8068700B2/en
Publication of JP2008294950A publication Critical patent/JP2008294950A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and device where a low resolution image is selected by determining a reference position when selecting a low resolution image used for obtaining a high resolution image and by referencing the relation between a pixel position of the low resolution image and reference position. <P>SOLUTION: By allowing the middle position between each pixel of the real low resolution image Fa forming a remarkable frame to be a reference position, the real low resolution image of the frame close to a sample point (pixel position) is selected as a real low resolution image so that super-resolution processing is carried out. Further, a high resolution image Fx is obtained by selecting the real low resolution images Fa, Fc and Fd comprised of three frames from the real low resolution images Fa-Fd comprised of four frames and by carrying out super-resolution processing therefor. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、高解像度画像を生成する画像処理方法及び画像処理装置に関するもので、特に、複数の低解像度画像から高解像度画像を生成する超解像処理を行う画像処理方法及び画像処理装置に関する。又、この画像処理装置により生成された高解像度画像を記録又は再生する電子機器に関する。   The present invention relates to an image processing method and an image processing apparatus for generating a high resolution image, and more particularly to an image processing method and an image processing apparatus for performing a super-resolution process for generating a high resolution image from a plurality of low resolution images. The present invention also relates to an electronic device that records or reproduces a high resolution image generated by the image processing apparatus.

近年、各種デジタル技術の発展に伴い、CCD(Charge Coupled Device)やCMOS(Complimentary Metal Oxide Semiconductor)センサなどの固体撮像素子によりデジタル画像を撮影するデジタルカメラやデジタルビデオなどといった撮像装置や、デジタル画像を表示する液晶ディスプレイやプラズマテレビなどといった表示装置が、広く普及されつつある。そして、このような撮像装置や表示装置で処理されるデジタル画像において、異なる時間に撮影された複数のデジタル画像を用いて、その解像度を高解像度に変換する画像処理技術が提案されている。   In recent years, with the development of various digital technologies, imaging devices such as digital cameras and digital videos that take digital images with solid-state imaging devices such as CCD (Charge Coupled Device) and CMOS (Complimentary Metal Oxide Semiconductor) sensors, Display devices such as liquid crystal displays and plasma televisions for displaying are becoming widespread. An image processing technique for converting the resolution of a digital image processed by such an imaging apparatus or display apparatus into a high resolution using a plurality of digital images taken at different times has been proposed.

この高解像度変換方法として、位置ズレのある複数の低解像度画像より1つの高解像度画像を推定する超解像処理が提案されている(非特許文献1参照)。そして、この超解像処理において、生成された高解像度画像を逆変換して、高解像度画像を構築するための元の低解像度画像を推定した後、実際の低解像度画像との比較を行うことで、更に、実際の値に近い高解像度画像を生成する再構成型と呼ばれる方式が提案されている。   As this high-resolution conversion method, super-resolution processing for estimating one high-resolution image from a plurality of low-resolution images with positional deviation has been proposed (see Non-Patent Document 1). In this super-resolution processing, the generated high-resolution image is inversely transformed to estimate the original low-resolution image for constructing the high-resolution image, and then compared with the actual low-resolution image. In addition, a method called a reconstruction type that generates a high-resolution image close to an actual value has been proposed.

この再構成型方式による超解像処理では、まず、複数の低解像度画像より取得される高解像度画像を仮定する(STEP1)。この仮定した高解像度画像に基づいて、高解像度画像を構築するための複数の低解像度画像それぞれに逆変換して推定する(STEP2)。そして、逆変換後の低解像度画像と元の低解像度画像とを比較した後(STEP3)、その比較結果より、変換後の低解像度画像と元の低解像度画像との間における各画素位置での値の差が小さくなるように、高解像度画像を生成する(STEP4)。そして、変換後の低解像度画像と元の低解像度画像との間における各画素位置での値(以下、「画素値」と呼ぶ)の差が収束するように、STEP2〜STEP4の処理を繰り返すことにより、最終的に取得される高解像度画像を実画像に近い画像とすることができる。   In the super-resolution processing by the reconstruction type method, first, a high resolution image acquired from a plurality of low resolution images is assumed (STEP 1). Based on the assumed high resolution image, estimation is performed by performing inverse transform to each of a plurality of low resolution images for constructing the high resolution image (STEP 2). Then, after comparing the low-resolution image after the inverse conversion and the original low-resolution image (STEP 3), the comparison result shows that the pixel position between the converted low-resolution image and the original low-resolution image is the same at each pixel position. A high-resolution image is generated so that the difference in values is small (STEP 4). Then, the processing of STEP 2 to STEP 4 is repeated so that the difference in the value at each pixel position (hereinafter referred to as “pixel value”) between the converted low-resolution image and the original low-resolution image converges. Thus, the finally obtained high resolution image can be made an image close to the real image.

この再構成型方式として、ML(Maximum-Likelihood)法や、MAP(Maximum A Posterior)法や、POCS(Projection Onto Convex Set)法や、IBP(Iterative Back Projection)法などが、提案されている。ML法では、高解像度画像から推定した低解像度画像(以下、「低解像度推定画像」と呼ぶ)の画素値と実際の低解像度画像(以下、「低解像度実画像」と呼ぶ)の画素値との二乗誤差を評価関数とし、この評価関数を最小化する高解像度画像を生成する方法である(非特許文献2参照)。即ち、このML法による超解像処理は、最尤推定の原理に基づく処理方法である。   As this reconstruction type method, ML (Maximum-Likelihood) method, MAP (Maximum A Posterior) method, POCS (Projection Onto Convex Set) method, IBP (Iterative Back Projection) method, etc. are proposed. In the ML method, a pixel value of a low resolution image (hereinafter referred to as “low resolution estimated image”) estimated from a high resolution image and a pixel value of an actual low resolution image (hereinafter referred to as “low resolution actual image”) Is a method for generating a high-resolution image that minimizes the evaluation function (see Non-Patent Document 2). That is, the super-resolution processing by the ML method is a processing method based on the principle of maximum likelihood estimation.

又、MAP法では、低解像度推定画像と低解像度実画像それぞれの画素値の二乗誤差に高解像度画像の確率情報を付加したものを、評価関数とし、この評価関数を最小化する高解像度画像を生成する方法である(非特許文献3,4参照)。即ち、MAP法では、低解像度実画像に対する先見情報に基づく事後確率分布における出現確率を最大とするときの高解像度画像を推定することによって、最適な高解像度画像が取得される。   In the MAP method, a high-resolution image that minimizes the evaluation function is obtained by adding the probability information of the high-resolution image to the square error of the pixel values of the low-resolution estimated image and the low-resolution real image. It is the method of producing | generating (refer nonpatent literature 3, 4). That is, in the MAP method, an optimal high resolution image is acquired by estimating a high resolution image when the appearance probability in the posterior probability distribution based on the foresight information for the low resolution real image is maximized.

更に、POCS法では、高解像度画像と低解像度画像のそれぞれの画素値に関する連立方程式を作成し、その連立方程式を逐次的に解くことにより、高解像度画像の画素値の最適値を取得して高解像度画像を生成する方法である(非特許文献5参照)。又、IBP法では、撮影位置が異なるが被写体の画素位置に重なりをもつ複数の低解像度画像から高解像度を生成する方法、即ち、反復逆投影法を用いた超解像処理方法である(非特許文献6参照)。   Furthermore, in the POCS method, simultaneous equations relating to the pixel values of the high-resolution image and the low-resolution image are created, and the simultaneous equations are sequentially solved to obtain the optimum value of the pixel value of the high-resolution image. This is a method for generating a resolution image (see Non-Patent Document 5). The IBP method is a method for generating a high resolution from a plurality of low resolution images that have different shooting positions but have overlapping pixel positions of a subject, that is, a super-resolution processing method using an iterative backprojection method (non-resolution method). (See Patent Document 6).

上述のような超解像処理において、高解像度画像を取得するために、時系列に連続した複数の低解像度画像が用いられる。そして、この高解像度画像を取得するのに最適となる低解像度画像を複数の低解像度画像から選択して、超解像処理を行う画像処理方法が提案されている(特許文献1参照)。特許文献1における画像処理方法では、低解像度画像による画像データには、撮像装置などの画像生成装置の動きに関する動き情報が付加されており、この動き情報に基づいて、高解像度画像の生成に適しているか否かが判定される。更に、低解像度画像を構成する各画像フレームにおける画素の動き量が画素値より算出され、この動き量に基づいて、高解像度画像の生成に適しているか否かが判定される。
特開2006−41603号公報 Sung, C. P. Min, K. P. Moon, G. K. 共著 "Super-resolution image reconstruction: a technical overview", (Signal processing Magazine, IEEE on Volume 26,Issue 3, May 2003, P.21-36) Tom, B.C. Katsaggelos, A.K. 共著 "Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images", (Image Processing, Proceedings, International Conference on Volume 2, Oct 1995, P.23-26) Schultz, R.R. Stevenson, R.L. 共著 "Extraction of high-resolution frames from video sequences" (Image Processing, IEEE Transactions on Volume 5, Issue 6, June 1996, P.996-1011) Hardie R.C. Barnard K.J. Armstrong E.E. 共著 "Joint MAP registration and high-resolution image estimation using a sequence of undersampled images" (Image Processing, IEEE Transactions on Volume 6, Issue 12, Dec. 1997 P.1621-1633) Stark, H. Oskoui, P. 共著 "High resolution image recovery from image-plane arrays, using convex projections" (J. Opt. Soc. Am. A, on vol. 6. P.1715-1726, 1989) Michel, I. Peleg, S. 共著 "Improving Resolution by Image Registration" (CVGIP: Graph Models Image Process, on vol. 53. P.231-239, Mar. 1991)
In the super-resolution processing as described above, a plurality of low-resolution images that are continuous in time series are used to acquire a high-resolution image. Then, an image processing method has been proposed in which a low-resolution image that is optimal for acquiring this high-resolution image is selected from a plurality of low-resolution images and super-resolution processing is performed (see Patent Document 1). In the image processing method in Patent Document 1, motion information related to the motion of an image generation device such as an imaging device is added to image data of a low resolution image, and suitable for generating a high resolution image based on this motion information. It is determined whether or not. Further, the motion amount of the pixel in each image frame constituting the low resolution image is calculated from the pixel value, and based on this motion amount, it is determined whether or not it is suitable for generating the high resolution image.
JP 2006-41603 A Sung, CP Min, KP Moon, GK "Super-resolution image reconstruction: a technical overview", (Signal processing Magazine, IEEE on Volume 26, Issue 3, May 2003, P.21-36) Tom, BC Katsaggelos, AK "Reconstruction of a high-resolution image by simultaneous registration, restoration, and interpolation of low-resolution images", (Image Processing, Proceedings, International Conference on Volume 2, Oct 1995, P.23-26 ) "Extraction of high-resolution frames from video sequences" by Schultz, RR Stevenson, RL (Image Processing, IEEE Transactions on Volume 5, Issue 6, June 1996, P.996-1011) Hardie RC Barnard KJ Armstrong EE "Joint MAP registration and high-resolution image estimation using a sequence of undersampled images" (Image Processing, IEEE Transactions on Volume 6, Issue 12, Dec. 1997 P.1621-1633) Stark, H. Oskoui, P. "High resolution image recovery from image-plane arrays, using convex projections" (J. Opt. Soc. Am. A, on vol. 6. P.1715-1726, 1989) Michel, I. Peleg, S. "Improving Resolution by Image Registration" (CVGIP: Graph Models Image Process, on vol. 53. P.231-239, Mar. 1991)

しかしながら、特許文献1の画像処理方法においては、高解像度画像を生成するための低解像度画像となる画像フレームを選択する際に、低解像度画像による画像データに付加された動き情報を確認する必要があるため、この画像データに動き情報が付加されていない場合には適用できない。更に、画像間の位置ズレ量に相当する動き量によっては、高解像度画像における補間画素位置付近の画素値が取得可能となる場合も多いが、特許文献1のように動き量の大きさによって選択の可否を設定する場合、このような動き量を有する低解像度画像の画像フレームも非選択となることがある。そのため、高解像度画像を生成するための効率が悪くなることがある。   However, in the image processing method disclosed in Patent Document 1, it is necessary to check motion information added to image data of a low-resolution image when selecting an image frame that is a low-resolution image for generating a high-resolution image. Therefore, it cannot be applied when motion information is not added to the image data. Furthermore, depending on the amount of motion corresponding to the amount of positional deviation between images, pixel values near the interpolation pixel position in a high-resolution image can often be acquired. In the case of setting whether to permit or not, an image frame of a low-resolution image having such a motion amount may not be selected. Therefore, the efficiency for generating a high-resolution image may deteriorate.

このような問題を鑑みて、本発明は、高解像度画像を取得するために使用する低解像度画像を選択する際に、選択するための基準位置を設定し、低解像度画像の画素位置と基準位置との相対関係により低解像度画像を選択する画像処理方法及び画像処理装置を提供することを目的とする。又、本発明は、高解像度画像を取得するために使用する低解像度画像を選択する際に、選択するための基準位置を設定し、低解像度画像の画素位置と基準位置との相対関係により低解像度画像を選択する画像処理装置を備えた電子機器を提供することを目的とする。   In view of such problems, the present invention sets a reference position for selection when selecting a low-resolution image to be used for acquiring a high-resolution image, and sets the pixel position and the reference position of the low-resolution image. It is an object to provide an image processing method and an image processing apparatus that select a low-resolution image based on the relative relationship between the image and the image processing apparatus. Further, according to the present invention, when selecting a low resolution image to be used for acquiring a high resolution image, a reference position for selection is set, and the relative position between the pixel position of the low resolution image and the reference position is low. It is an object of the present invention to provide an electronic apparatus including an image processing apparatus that selects a resolution image.

上記目的を達成するために、本発明の画像処理装置は、注目フレームとなる第1低解像度画像とM(1以上の整数)フレームの第2低解像度画像とから高解像度画像を生成する高解像度化部を備える画像処理装置において、N(N>Mとなる整数)フレームの第3低解像度画像それぞれと、前記第1低解像度画像との間の動き量を検出する動き量検出部と、前記動き量検出部で得られた前記第3低解像度画像における前記動き量を考慮し、Nフレームの前記第3低解像度画像から、前記第1低解像度画像の画素位置に基づいて設定された基準位置に対して画素位置がより近いMフレームの前記第3低解像度画像を、前記第2低解像度画像として選択する画像評価部と、を備え、前記画像評価部によって前記第2低解像度画像とされた前記第3低解像度画像が前記高解像度化部に与えられ、前記高解像度画像が生成されることを特徴とする。   In order to achieve the above object, an image processing apparatus according to the present invention generates a high resolution image from a first low resolution image that is a frame of interest and a second low resolution image that is an M (an integer greater than or equal to 1) frame. In the image processing apparatus including the conversion unit, a motion amount detection unit that detects a motion amount between each of the third low resolution images of N (an integer satisfying N> M) frames and the first low resolution image; A reference position set based on the pixel position of the first low-resolution image from the third low-resolution image of N frames in consideration of the amount of movement in the third low-resolution image obtained by the motion amount detection unit An image evaluation unit that selects, as the second low-resolution image, the third low-resolution image having an M frame closer in pixel position to the second low-resolution image by the image evaluation unit. The third Resolution image is given to the resolution increasing section, wherein the high-resolution image is generated.

そして、前記基準位置を、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に設定するものとしても構わないし、前記基準位置を、前記高解像度画像における前記第1低解像度画像に対する補間画素となる画素位置に設定するものとしても構わない。又、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に対して画素位置が近い前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   The reference position may be set to a position that is an intermediate position between adjacent pixel positions in the vertical direction and the horizontal direction in the first low-resolution image, and the reference position may be set in the high-resolution image. The pixel position may be set as an interpolation pixel for the first low-resolution image. Further, when the third low resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the position is an intermediate position between adjacent pixel positions in the vertical direction and the horizontal direction in the first low resolution image. The third low-resolution image whose pixel position is close to the image may be selected as the second low-resolution image.

このような画像処理装置に置いて、前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、その画素位置と前記基準位置との水平方向における距離が短い前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   In such an image processing apparatus, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames in the image evaluation unit, the horizontal position between the pixel position and the reference position is set. The third low resolution image having a short distance in the direction may be selected as the second low resolution image.

又、前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、時間的に隣接した前フレームとの動き量が小さい前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   Further, in the image evaluation unit, when the third low resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the third low resolution with a small amount of motion with respect to a temporally adjacent previous frame. An image may be selected as the second low-resolution image.

更に、前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記超解像ステップで水平方向及び垂直方向それぞれにおける解像度の拡大率が異なるとき、その画素位置と前記基準位置との拡大率が大きい方向における距離が短い前記低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   Further, in the image evaluation unit, when the third low resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the resolution enlargement ratio in each of the horizontal direction and the vertical direction is determined in the super-resolution step. When they are different, the low-resolution image having a short distance in the direction in which the enlargement ratio between the pixel position and the reference position is large may be selected as the second low-resolution image.

このような画像処理装置において、前記画像評価部で前記第2低解像度画像として前記フレームメモリより選択された前記第3低解像度画像それぞれについて、前記動き量検出部で得られた前記動き量に基づいて前記第1低解像度画像を基準としてその画素位置を補正する位置ズレ補正部を備える。   In such an image processing apparatus, for each of the third low resolution images selected from the frame memory as the second low resolution image by the image evaluation unit, based on the motion amount obtained by the motion amount detection unit. And a positional deviation correction unit that corrects the pixel position on the basis of the first low-resolution image.

本発明の電子機器は、外部入力又は撮像により複数フレームとなる画像による画像信号が与えられるとともに、該画像信号による画像を高解像度の画像に変換する高解像度化機能を備えた電子機器において、前記高解像度化機能を実現する画像処理部として、上述のいずれの画像処理装置を備え、前記画像信号による画像を前記低解像度画像として高解像度化処理を行うことで、所望の前記高解像度画像が生成されることを特徴とする。   The electronic apparatus according to the present invention is an electronic apparatus provided with an image signal based on an image that becomes a plurality of frames by external input or imaging, and having a high resolution function for converting an image based on the image signal into a high resolution image. As an image processing unit that realizes the high resolution function, any of the above-described image processing devices is provided, and the desired high resolution image is generated by performing high resolution processing using the image based on the image signal as the low resolution image. It is characterized by being.

又、本発明の画像処理方法は、注目フレームとなる第1低解像度画像とM(1以上の整数)フレームの第2低解像度画像とから高解像度画像を生成する高解像度化ステップを備える画像処理方法において、N(N>Mとなる整数)フレームの第3低解像度画像それぞれと、前記第1低解像度画像との間の動き量を検出する動き量検出ステップと、前記動き量検出ステップより得られた前記第3低解像度画像における前記動き量を考慮し、Nフレームの前記第3低解像度画像から、前記第1低解像度画像の画素位置に基づいて設定された基準位置に対して画素位置がより近いMフレームの前記第3低解像度画像を、前記第2低解像度画像として選択する低解像度画像選択ステップと、を備え、前記高解像度化ステップにおいて、前記低解像度画像選択ステップで前記第2低解像度画像とされた前記第3低解像度画像と前記第1低解像度画像とに基づいて前記高解像度画像を生成することを特徴とする。   The image processing method according to the present invention further includes an image processing step including a resolution increasing step for generating a high resolution image from the first low resolution image serving as the frame of interest and the second low resolution image including M (an integer greater than or equal to 1). In the method, a motion amount detection step of detecting a motion amount between each of the third low resolution images of N (an integer satisfying N> M) frames and the first low resolution image, and the motion amount detection step In consideration of the amount of motion in the third low-resolution image, the pixel position is determined from the third low-resolution image of N frames with respect to a reference position set based on the pixel position of the first low-resolution image. A low-resolution image selection step of selecting the third low-resolution image of M frames closer as the second low-resolution image, and in the high-resolution step, the low-resolution image And generating the high-resolution image based and the third low-resolution image and the second low-resolution image in the selection step and the first low-resolution images.

このような画像処理方法が、前記低解像度画像選択ステップにおいて、前記基準位置を、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に設定するものとしても構わないし、前記基準位置を、前記高解像度画像における前記第1低解像度画像に対する補間画素となる画素位置に設定するものとしても構わない。そして、前記低解像度画像選択ステップにおいて、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に対して画素位置が近い前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   In such an image processing method, in the low resolution image selection step, the reference position is set to a position that is an intermediate position between adjacent pixel positions in the vertical direction and the horizontal direction in the first low resolution image. Alternatively, the reference position may be set to a pixel position that becomes an interpolation pixel for the first low-resolution image in the high-resolution image. In the low-resolution image selection step, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, they are adjacent in the vertical direction and the horizontal direction in the first low-resolution image. The third low-resolution image whose pixel position is close to a position that is an intermediate position of the pixel positions may be selected as the second low-resolution image.

又、前記低解像度画像選択ステップにおいて、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、その画素位置と前記基準位置との水平方向における距離が短い前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わないし、時間的に隣接した前フレームとの動き量が小さい前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   In the low-resolution image selection step, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the horizontal distance between the pixel position and the reference position is short. The third low-resolution image may be selected as the second low-resolution image, and the third low-resolution image having a small amount of motion with respect to the temporally adjacent previous frame may be selected as the second low-resolution image. It doesn't matter if you choose.

更に、前記低解像度画像選択ステップにおいて、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記超解像ステップで水平方向及び垂直方向それぞれにおける解像度の拡大率が異なるとき、その画素位置と前記基準位置との拡大率が大きい方向における距離が短い前記第3低解像度画像を、前記第2低解像度画像として選択するものとしても構わない。   Further, in the low-resolution image selection step, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the resolution is expanded in each of the horizontal direction and the vertical direction in the super-resolution step. When the rates are different, the third low-resolution image having a short distance in the direction in which the enlargement rate between the pixel position and the reference position is large may be selected as the second low-resolution image.

本発明によると、従来のように、動き量の大きい低解像度画像を非選択するものではなく、基準位置を設定して、その基準位置に画素位置が近い低解像度画像を選択するものとしている。これにより、高解像度画像を生成するために注目フレームとなる低解像度画像以外の低解像度画像を選択する際に、その補間画素位置に近い画素位置となる低解像度画像を選択することができる。よって、超解像処理によって選択した低解像度画像に基づいて生成された高解像度画像が、実際の被写体による画像に近い高解像度画像とすることができ、その信頼性の高い高解像度画像とすることができる。   According to the present invention, a low-resolution image with a large amount of motion is not unselected as in the prior art, but a reference position is set and a low-resolution image whose pixel position is close to the reference position is selected. Thereby, when selecting a low resolution image other than the low resolution image that is the frame of interest in order to generate a high resolution image, it is possible to select a low resolution image that has a pixel position close to the interpolation pixel position. Therefore, the high-resolution image generated based on the low-resolution image selected by the super-resolution processing can be a high-resolution image close to the image of the actual subject, and the highly-reliable high-resolution image. Can do.

本発明の実施の形態について、図面を参照して説明する。尚、以下では、本発明における画像処理方法を行う画像処理装置(以下では、「画像処理部」に相当する)を備えたデジタルカメラやデジタルビデオなどの撮像装置を例に挙げて、説明する。又、後述するが、同様の画像処理装置を備えるものであれば、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置であっても構わない。   Embodiments of the present invention will be described with reference to the drawings. In the following description, an image pickup apparatus such as a digital camera or a digital video provided with an image processing apparatus (hereinafter referred to as “image processing unit”) that performs the image processing method according to the present invention will be described as an example. Further, as will be described later, a display device that performs digital processing of an image, such as a liquid crystal display or a plasma television, may be used as long as it has a similar image processing device.

(撮像装置の構成)
まず、撮像装置の内部構成について、図面を参照して説明する。図1は、撮像装置の内部構成を示すブロック図である。
(Configuration of imaging device)
First, the internal configuration of the imaging apparatus will be described with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus.

図1の撮像装置は、被写体のから入射される光を電気信号に変換するCCD又はCMOSセンサなどの固体撮像素子(イメージセンサ)1と、イメージセンサ1から出力されるアナログ信号である画像信号をデジタル信号に変換するAFE(Analog FrontEnd)2と、外部から入力された音声を電気信号に変換するマイク3と、AFE2からのデジタル信号となる画像信号に対して超解像処理を含む各種画像処理を施す画像処理部4と、マイク3からのアナログ信号である音声信号をデジタル信号に変換する音声処理部5と、画像処理部4からの画像信号と音声処理部5からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部6と、圧縮処理部6で圧縮符号化された圧縮符号化信号を外部メモリ15に記録するドライバ部7と、ドライバ部7で外部メモリ20から読み出した圧縮符号化信号を伸長して復号する伸長処理部8と、伸長処理部8で復号されて得られた画像信号による画像の表示を行うディスプレイ部9と、伸長処理部8からの音声信号をアナログ信号に変換する音声出力回路部10と、音声出力回路部10からの音声信号に基づいて音声を再生出力するスピーカ部11と、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するタイミングジェネレータ12と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)13と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ14と、ユーザからの指示が入力される操作部15と、CPU13と各ブロックとの間でデータのやりとりを行うためのバス回線16と、メモリ14と各ブロックとの間でデータのやりとりを行うためのバス回線17と、を備える。   The imaging apparatus of FIG. 1 receives a solid-state imaging device (image sensor) 1 such as a CCD or CMOS sensor that converts light incident from a subject into an electrical signal, and an image signal that is an analog signal output from the image sensor 1. AFE (Analog FrontEnd) 2 for converting to a digital signal, a microphone 3 for converting sound input from the outside into an electric signal, and various image processing including super-resolution processing for an image signal to be a digital signal from the AFE 2 The image processing unit 4 that performs the processing, the audio processing unit 5 that converts the audio signal that is an analog signal from the microphone 3 into a digital signal, the image signal from the image processing unit 4, and the audio signal from the audio processing unit 5 A compression processing unit 6 that performs compression encoding processing such as MPEG (Moving Picture Experts Group) compression method, and the compression encoded signal compressed by the compression processing unit 6 in an external memory 15, the driver unit 7 to be recorded, the decompression processing unit 8 that decompresses and decodes the compressed encoded signal read from the external memory 20 by the driver unit 7, and the image by the image signal obtained by decoding by the decompression processing unit 8 A display unit 9 that displays the sound, an audio output circuit unit 10 that converts the audio signal from the decompression processing unit 8 into an analog signal, and a speaker unit 11 that reproduces and outputs audio based on the audio signal from the audio output circuit unit 10 A timing generator 12 that outputs a timing control signal for matching the operation timing of each block, a CPU (Central Processing Unit) 13 that controls the drive operation of the entire imaging apparatus, and each program for each operation A memory 14 for storing data and temporarily storing data during program execution, an operation unit 15 for inputting an instruction from a user, and a CP Comprising 13 and bus line 16 for exchanging data with each block, a memory 14 and a bus line 17 for exchanging data with each block.

この撮像装置において、撮像動作を行うことが操作部15によって指示されると、イメージセンサ1の光電変換動作によって得られたアナログ信号である画像信号がAFE2に出力される。このとき、イメージセンサ1では、タイミングジェネレータ12からのタイミング制御信号が与えられることによって、水平走査及び垂直走査が行われて、画素毎のデータとなる画像信号が出力される。そして、AFE2において、アナログ信号となる画像信号がデジタル信号に変換されて、画像処理部4に入力されると、輝度信号及び色差信号の生成を行う信号変換処理などの各種画像処理が施される。   In this imaging apparatus, when the operation unit 15 instructs to perform an imaging operation, an image signal that is an analog signal obtained by the photoelectric conversion operation of the image sensor 1 is output to the AFE 2. At this time, the image sensor 1 is supplied with a timing control signal from the timing generator 12 to perform horizontal scanning and vertical scanning, and output an image signal as data for each pixel. In the AFE 2, when an image signal that is an analog signal is converted into a digital signal and input to the image processing unit 4, various image processing such as signal conversion processing for generating a luminance signal and a color difference signal is performed. .

又、この画像処理部4では、操作部15によってデジタルズームにより、イメージセンサ1より得られた画像信号の高解像度化が求められると、イメージセンサ1からの複数フレーム分の画像信号に基づく超解像処理が施される。更に、この超解像処理が成された画像信号に基づいて、輝度信号及び色差信号が生成される。又、超解像処理が施されるために、後述するが、複数フレームの画像信号の動き量が算出され、その動き量に応じて各フレームの位置合わせが行われる。   Further, in the image processing unit 4, when the operation unit 15 is required to increase the resolution of the image signal obtained from the image sensor 1 by digital zoom, super-resolution based on the image signals for a plurality of frames from the image sensor 1. Processing is performed. Further, a luminance signal and a color difference signal are generated based on the image signal that has been subjected to the super-resolution processing. Further, since the super-resolution processing is performed, as described later, the motion amount of the image signal of a plurality of frames is calculated, and the alignment of each frame is performed according to the motion amount.

そして、画像処理部4で画像処理が施された画像信号が圧縮処理部6に与えられる。このとき、マイク3に音声入力されることで得られたアナログ信号である音声信号が、音声処理部5でデジタル信号に変換されて、圧縮処理部6に与えられる。これにより、圧縮処理部6では、デジタル信号である画像信号及び音声信号に対して、MPEG圧縮符号方式に基づいて、圧縮符号化してドライバ部7に与えて、外部メモリ20に記録させる。又、このとき、外部メモリ20に記録された圧縮信号がドライバ部7によって読み出されて伸長処理部8に与えられて、伸長処理が施されて画像信号が得られる。この画像信号がディスプレイ部9に与えられて、現在、イメージセンサ1を通じて撮影されている被写体画像が表示される。   Then, the image signal subjected to the image processing by the image processing unit 4 is given to the compression processing unit 6. At this time, an audio signal which is an analog signal obtained by inputting the sound into the microphone 3 is converted into a digital signal by the audio processing unit 5 and given to the compression processing unit 6. As a result, the compression processing unit 6 compresses and encodes the image signal and the audio signal, which are digital signals, based on the MPEG compression encoding method, gives the image signal and the audio signal to the driver unit 7, and records them in the external memory 20. At this time, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and applied to the expansion processing unit 8 to be subjected to expansion processing to obtain an image signal. This image signal is given to the display unit 9 to display a subject image that is currently photographed through the image sensor 1.

尚、上述では、動画撮影時の動作について説明したが、静止画像撮影が指示された場合においても、マイク3による音声信号の取得がなく、画像信号のみの圧縮信号が外部メモリ20に記録されるだけとなり、その基本動作については動画撮影時の動作と同様である。又、この静止画像撮影の場合、操作部15によって撮影された静止画像に対する圧縮信号が外部メモリ20に記録されるだけでなく、イメージセンサ1によって撮影されている現時点の画像に対する圧縮信号も外部メモリ20に一時的に記録される。これにより、現在撮影されている画像に対する圧縮信号が伸長処理部8で伸長されることで、イメージセンサ1によって撮影されている現時点の画像がディスプレイ部9に表示され、ユーザが確認することができる。   In the above description, the operation at the time of moving image shooting has been described. However, even when a still image shooting is instructed, the audio signal is not acquired by the microphone 3 and a compressed signal of only the image signal is recorded in the external memory 20. The basic operation is the same as that during moving image shooting. In the case of this still image shooting, not only the compressed signal for the still image shot by the operation unit 15 is recorded in the external memory 20, but also the compressed signal for the current image shot by the image sensor 1 is also stored in the external memory. 20 is temporarily recorded. As a result, the compression signal for the currently captured image is expanded by the expansion processing unit 8 so that the current image captured by the image sensor 1 is displayed on the display unit 9 and can be confirmed by the user. .

このように撮像動作を行うとき、タイミングジェネレータ12によって、AFE2、映像処理部4、音声処理部5、圧縮処理部6、及び伸長処理部8に対してタイミング制御信号が与えられ、イメージセンサ1による1フレームごとの撮像動作に同期した動作が行われる。又、静止画像撮影のときは、操作部15によるシャッタ動作に基づいて、タイミングジェネレータ12より、イメージセンサ1、AFE2、映像処理部4、及び、圧縮処理部6それぞれに対してタイミング制御信号が与えられ、各部の動作タイミングを同期させる。   When performing the imaging operation in this way, the timing generator 12 gives a timing control signal to the AFE 2, the video processing unit 4, the audio processing unit 5, the compression processing unit 6, and the expansion processing unit 8, and the image sensor 1 An operation synchronized with the imaging operation for each frame is performed. Further, when taking a still image, a timing control signal is given from the timing generator 12 to the image sensor 1, the AFE 2, the video processing unit 4, and the compression processing unit 6 based on the shutter operation by the operation unit 15. The operation timing of each unit is synchronized.

又、外部メモリ20に記録された動画又は画像を再生することが、操作部15を通じて指示されると、外部メモリ20に記録された圧縮信号は、ドライバ部7によって読み出されて伸長処理部8に与えられる。そして、伸長処理部8において、MPEG圧縮符号方式に基づいて、伸長復号されて、画像信号及び音声信号が取得される。そして、画像信号がディスプレイ部9に与えられて画像が再生されるとともに、音声信号が音声出力回路部10を介してスピーカ部11に与えられて音声が再生される。これにより、外部メモリ20に記録された圧縮信号に基づく動画が音声とともに再生される。又、圧縮信号が画像信号のみより成るときは、ディスプレイ部9に画像のみが再生されることとなる。   When an instruction to reproduce a moving image or an image recorded in the external memory 20 is given through the operation unit 15, the compressed signal recorded in the external memory 20 is read out by the driver unit 7 and is decompressed by the decompression processing unit 8. Given to. Then, the decompression processing unit 8 decompresses and decodes the image signal and the audio signal based on the MPEG compression encoding method. Then, the image signal is given to the display unit 9 to reproduce the image, and the audio signal is given to the speaker unit 11 via the audio output circuit unit 10 to reproduce the audio. Thereby, the moving image based on the compressed signal recorded in the external memory 20 is reproduced together with the sound. Further, when the compressed signal is composed of only the image signal, only the image is reproduced on the display unit 9.

(超解像処理の基本概念)
次に、上述の撮像装置内の画像処理部4において実行される超解像処理の基本概念について、簡単に説明する。尚、超解像処理の基本概念を説明するにあたって、その説明を簡単にするために、画像データを1次元方向に並んだ複数画素の画素値によるものとするとともに、異なる時間に撮像された2フレームの画像データによる超解像処理が成されるものとする。又、以下の説明における画素値は、輝度値を示す。そして、図2(a)に、イメージセンサ1により撮像される被写体の輝度分布を示し、図2(b)〜(d)に、この被写体が異なる時間にイメージセンサ1により撮像された際の画像データ(低解像度実画像)を示す。又、図3に、図2における低解像度実画像により高解像度画像となる画像データを生成する際のフローチャートを示す。更に、図3では、各フローにおける信号の変遷を模式的に示す。
(Basic concept of super-resolution processing)
Next, the basic concept of super-resolution processing executed in the image processing unit 4 in the above-described imaging apparatus will be briefly described. In describing the basic concept of super-resolution processing, in order to simplify the description, image data is based on pixel values of a plurality of pixels lined up in a one-dimensional direction, and 2 taken at different times. It is assumed that super-resolution processing is performed using frame image data. The pixel value in the following description indicates a luminance value. FIG. 2A shows the luminance distribution of the subject imaged by the image sensor 1, and FIGS. 2B to 2D show images when the subject is imaged by the image sensor 1 at different times. Data (low-resolution actual image) is shown. FIG. 3 is a flowchart for generating image data that becomes a high-resolution image from the low-resolution real image in FIG. Further, FIG. 3 schematically shows signal transition in each flow.

図2(a)に示す輝度分布の被写体に対して、時間T1にイメージセンサ1によって撮像されたときの第1フレームのサンプル点がS1、S1+ΔS、S1+2ΔSであり、時間T2(T1≠T2)にイメージセンサ1によって撮像されたときの第2フレームのサンプル点がS2、S2+ΔS、S2+2ΔSであるものとする。又、このとき、第1フレームのサンプル点S1と第2フレームのサンプル点S2は、手ブレなどが原因となり、その位置にズレが生じているものとする。   For the subject with the luminance distribution shown in FIG. 2A, the sample points of the first frame when imaged by the image sensor 1 at time T1 are S1, S1 + ΔS, S1 + 2ΔS, and at time T2 (T1 ≠ T2). Assume that the sample points of the second frame when imaged by the image sensor 1 are S2, S2 + ΔS, and S2 + 2ΔS. Further, at this time, it is assumed that the sample point S1 of the first frame and the sample point S2 of the second frame are misaligned due to camera shake or the like.

そして、サンプル点S1、S1+ΔS、S1+2ΔSは、被写体上のサンプル点を示し、図2(b)に示す第1フレームとなる低解像度実画像Faでは、このサンプル点S1、S1+ΔS、S1+2ΔSで撮像された輝度値が、画素P1,P2,P3における画素値pa1,pa2,pa3となる。又、サンプル点S2、S2+ΔS、S2+2ΔSは、被写体上のサンプル点を示し、図2(c)に示す第2フレームとなる低解像度実画像Fbでは、このサンプル点S2、S2+ΔS、S2+2ΔSで撮像された輝度値が、画素P1,P2,P3における画素値pb1,pb2,pb3となる。   Sample points S1, S1 + ΔS, and S1 + 2ΔS indicate sample points on the subject. In the low-resolution real image Fa that is the first frame shown in FIG. 2B, the sample points S1, S1 + ΔS, and S1 + 2ΔS are captured. The luminance values are the pixel values pa1, pa2, pa3 in the pixels P1, P2, P3. Sample points S2, S2 + ΔS, and S2 + 2ΔS indicate sample points on the subject. In the low-resolution real image Fb that is the second frame shown in FIG. 2C, the sample points S2, S2 + ΔS, and S2 + 2ΔS are captured. The luminance values are the pixel values pb1, pb2, and pb3 in the pixels P1, P2, and P3.

これにより、第1フレームとなる低解像度実画像Faの画素P1,P2,P3における画素値pa1,pa2,pa3が図2(b)のような関係となり、又、第2フレームとなる低解像度実画像Fbの画素P1,P2,P3における画素値pb1,pb2,pb3が図2(c)のような関係となる。このように、図2(b)による低解像度実画像Fa及び図2(c)による低解像度実画像Fbそれぞれは、図中の被写体の位置を基準にすると、画素位置が(S1−S2)だけずれた状態の画像となる。そして、低解像度実画像Faの画素P1,P2,P3を基準として低解像度実画像Fbを表した場合(即ち、低解像度実画像Fbを低解像度実画像Faに対する動き量(S1−S2)分だけ位置ズレ補正した場合)、低解像度実画像Fbが図2(d)のように表される。   Accordingly, the pixel values pa1, pa2, and pa3 of the pixels P1, P2, and P3 of the low-resolution real image Fa that becomes the first frame have the relationship as shown in FIG. 2B, and the low-resolution real image that becomes the second frame. The pixel values pb1, pb2, and pb3 in the pixels P1, P2, and P3 of the image Fb have a relationship as shown in FIG. As described above, the low-resolution real image Fa shown in FIG. 2B and the low-resolution real image Fb shown in FIG. 2C each have a pixel position of only (S1-S2) based on the position of the subject in the drawing. The image is shifted. When the low-resolution real image Fb is represented with reference to the pixels P1, P2, and P3 of the low-resolution real image Fa (that is, the low-resolution real image Fb is the amount of motion (S1-S2) relative to the low-resolution real image Fa). When the positional deviation is corrected), the low-resolution real image Fb is represented as shown in FIG.

そして、図3(a)に示すように、位置ズレを補正した図2(b)及び図2(d)のような低解像度実画像Fa,Fbを組み合わせることで、高解像度画像Fx1を推定する(STEP31)。このとき、以下の説明を簡単にするために、例えば、解像度を1次元方向に対して2倍にするものとする。即ち、高解像度画像Fx1の画素として、低解像度実画像Fa,Fbの画素P1,P2,P3に加えて更に、画素P1,P2の中間位置に位置する画素P4と、画素P2,P3の中間位置に位置する画素P5とが設定されるものとする。   Then, as shown in FIG. 3A, the high-resolution image Fx1 is estimated by combining the low-resolution real images Fa and Fb as shown in FIG. 2B and FIG. (STEP 31). At this time, in order to simplify the following description, for example, it is assumed that the resolution is doubled in the one-dimensional direction. That is, as pixels of the high-resolution image Fx1, in addition to the pixels P1, P2, and P3 of the low-resolution real images Fa and Fb, a pixel P4 that is located at an intermediate position between the pixels P1 and P2, and an intermediate position between the pixels P2 and P3 It is assumed that the pixel P5 located at is set.

低解像度実画像Faが基準である注目フレームとされると、画素P1,P2,P3での画素値が、低解像度実画像Faにおける画素値pa1,pa2,pa3とされる。又、画素P4については、画素P4との画素位置(画素の中心位置)の距離が、低解像度実画像Faにおける画素P1,P2の画素位置からの距離よりも低解像度実画像Fbにおける画素P1の画素位置からの距離の方が近いことより、画素値pb1とされるものとする。同様に、画素P5については、画素P5との画素位置(画素の中心位置)の距離が、低解像度実画像Faにおける画素P2,P3の画素位置からの距離よりも低解像度実画像Fbにおける画素P2の画素位置からの距離の方が近いことより、画素値pb2とされるものとする。このように、画素P1〜P5の画素値をpa1,pa2,pa3,pb1,pb2と設定して得られた高解像度画像を、高解像度画像Fx1として推定されるものとしても構わない。   If the low-resolution actual image Fa is the reference frame, the pixel values at the pixels P1, P2, and P3 are set to the pixel values pa1, pa2, and pa3 in the low-resolution actual image Fa. For the pixel P4, the distance of the pixel position (center position of the pixel) from the pixel P4 is greater than the distance from the pixel positions of the pixels P1 and P2 in the low-resolution real image Fa to the pixel P1 in the low-resolution real image Fb. Since the distance from the pixel position is closer, the pixel value pb1 is assumed. Similarly, for the pixel P5, the distance between the pixel position (pixel center position) and the pixel P5 is smaller than the distance from the pixel positions of the pixels P2 and P3 in the low-resolution real image Fa, and the pixel P2 in the low-resolution real image Fb. It is assumed that the pixel value pb2 is obtained because the distance from the pixel position is shorter. As described above, a high resolution image obtained by setting the pixel values of the pixels P1 to P5 as pa1, pa2, pa3, pb1, and pb2 may be estimated as the high resolution image Fx1.

その後、STEP31で得られた高解像度画像Fx1に対して、ダウンサンプリング量やぼけ量や位置ズレ量(動き量に相当)などをパラメータとして備えた変換式による演算を行うことで、図3(b)のように、低解像度実画像Fa,Fbそれぞれに対する推定画像となる低解像度推定画像Fa1,Fb1を生成する(STEP32)。尚、図3(b)では、n回目の処理によって推定された低解像度推定画像、即ち、高解像度画像Fxnより推定された低解像度実画像Fa,Fbに相当する低解像度推定画像Fan,Fbnを示す。   Thereafter, the high-resolution image Fx1 obtained in STEP 31 is subjected to calculation using a conversion equation having parameters such as a down-sampling amount, a blur amount, and a positional shift amount (corresponding to a motion amount) as shown in FIG. ), The low-resolution estimated images Fa1 and Fb1 that are the estimated images for the low-resolution actual images Fa and Fb are generated (STEP 32). In FIG. 3B, low-resolution estimated images estimated by the n-th processing, that is, low-resolution estimated images Fan and Fbn corresponding to the low-resolution actual images Fa and Fb estimated from the high-resolution image Fxn are shown. Show.

即ち、高解像度画像Fx1に基づいて、サンプル点S1、S1+ΔS、S1+2ΔSにおける画素値を推定して、取得した画素値pa11〜pa31を画素P1〜P3の画素値とする低解像度推定画像Fa1を生成する。同様に、高解像度画像Fx1に基づいて、サンプル点S2、S2+ΔS、S2+2ΔSにおける画素値を推定して、取得した画素値pb11〜pb31を画素P1〜P3の画素値とする低解像度推定画像Fb1を生成する。   That is, based on the high-resolution image Fx1, the pixel values at the sample points S1, S1 + ΔS, S1 + 2ΔS are estimated, and the low-resolution estimated image Fa1 having the acquired pixel values pa11 to pa31 as the pixel values of the pixels P1 to P3 is generated. . Similarly, based on the high-resolution image Fx1, the pixel values at the sample points S2, S2 + ΔS, S2 + 2ΔS are estimated, and the low-resolution estimated image Fb1 that uses the acquired pixel values pb11 to pb31 as the pixel values of the pixels P1 to P3 is generated. To do.

そして、図3(c)に示すように、このようにして得られた低解像度推定画像Fa1,Fb1それぞれと、低解像度実画像Fa,Fbそれぞれとの間における差分を求め、この差分を合成することで、高解像度画像Fx1に対する差分画像ΔFx1を取得する(STEP33)。尚、図3(c)では、n回目の処理によって取得された高解像度画像Fxnに対する差分画像ΔFxn、即ち、低解像度推定画像Fan,Fbnと低解像度実画像Fa,Fbとによる差分画像ΔFan、ΔFbnを合成することで得られた差分画像ΔFxnを示す。   Then, as shown in FIG. 3C, the difference between the low resolution estimated images Fa1 and Fb1 thus obtained and the low resolution actual images Fa and Fb is obtained, and the differences are synthesized. Thus, the difference image ΔFx1 with respect to the high resolution image Fx1 is acquired (STEP 33). In FIG. 3C, the difference image ΔFxn with respect to the high-resolution image Fxn acquired by the n-th process, that is, the difference images ΔFan and ΔFbn between the low-resolution estimated images Fan and Fbn and the low-resolution actual images Fa and Fb. A difference image ΔFxn obtained by combining the images is shown.

この図3(c)の処理によって、低解像度推定画像Fa1と低解像度実画像Faにおける画素P1,P2,P3での差分(pa11−pa1)、(pa21−pa2)、(pa31−pa3)による差分画像ΔFa1、低解像度推定画像Fa2と低解像度実画像Fbにおける画素P1,P2,P3での差分(pb11−pb1)、(pb21−pb2)、(pb31−pb3)による差分画像ΔFb1をそれぞれ求める。即ち、差分画像ΔFa1では、差分値(pa11−pa1)、(pa21−pa2)、(pa31−pa3)が画素値となり、差分画像ΔFb1では、差分値(pb11−pb1)、(pb21−pb2)、(pb31−pb3)が画素値となる。   By the process of FIG. 3C, the difference (pa11−pa1), (pa21−pa2), and (pa31−pa3) between the pixels P1, P2, and P3 in the low resolution estimated image Fa1 and the low resolution actual image Fa. A difference image ΔFb1 is obtained from the differences (pb11−pb1), (pb21−pb2), and (pb31−pb3) at the pixels P1, P2, and P3 in the image ΔFa1, the low resolution estimated image Fa2, and the low resolution actual image Fb. That is, in the difference image ΔFa1, the difference values (pa11−pa1), (pa21−pa2), and (pa31−pa3) are pixel values, and in the difference image ΔFb1, the difference values (pb11−pb1), (pb21−pb2), (Pb31-pb3) is the pixel value.

そして、差分画像ΔFa1,ΔFb1の画素値を合成することによって、画素F1〜F5それぞれにおける差分値を算出して、高解像度画像Fx1に対する差分画像ΔFx1を取得する。この差分画像ΔFa1,ΔFb1の画素値を合成によって差分画像ΔFx1を取得する際、例えば、ML法やMAP法では、二乗誤差を評価関数として用いる。即ち、ML法やMAP法の評価関数が、差分画像ΔFa1,ΔFb1の画素値を二乗してフレーム間で加算した値となる。よって、この評価関数の微分値である勾配は、差分画像ΔFa1,ΔFb1の画素値を2倍した値となるため、高解像度画像Fx1に対する差分画像ΔFx1は、差分画像ΔFa1,ΔFb1それぞれの画素値を2倍した値を用いて高解像度化することで算出される。   Then, by combining the pixel values of the difference images ΔFa1 and ΔFb1, the difference values in the pixels F1 to F5 are calculated, and the difference image ΔFx1 with respect to the high resolution image Fx1 is acquired. When obtaining the difference image ΔFx1 by combining the pixel values of the difference images ΔFa1 and ΔFb1, for example, in the ML method or the MAP method, a square error is used as an evaluation function. That is, the evaluation function of the ML method or the MAP method becomes a value obtained by squaring the pixel values of the difference images ΔFa1 and ΔFb1 and adding them between frames. Therefore, the gradient, which is the differential value of the evaluation function, is a value obtained by doubling the pixel values of the difference images ΔFa1 and ΔFb1, so that the difference image ΔFx1 with respect to the high resolution image Fx1 has the pixel values of the difference images ΔFa1 and ΔFb1. It is calculated by increasing the resolution using the doubled value.

その後、図3(d)に示すように、得られた差分画像ΔFx1における画素P1〜P5の画素値(差分値)が、STEP1で推定された高解像度画像Fx1における画素P1〜P5の画素値より減算されることで、図2(a)に示す輝度分布の被写体に近い画素値となる高解像度画像Fx2が再構成される(STEP34)。尚、図3(d)では、n回目の処理によって取得された高解像度画像Fx(n+1)、即ち、高解像度推定画像Fxnより差分画像ΔFxnが減算されて得られた高解像度画像Fx(n+1)を示す。   Thereafter, as shown in FIG. 3D, the pixel values (difference values) of the pixels P1 to P5 in the obtained difference image ΔFx1 are obtained from the pixel values of the pixels P1 to P5 in the high resolution image Fx1 estimated in STEP1. By subtracting, the high-resolution image Fx2 having a pixel value close to the subject having the luminance distribution shown in FIG. 2A is reconstructed (STEP 34). In FIG. 3D, the high-resolution image Fx (n + 1) obtained by the n-th processing, that is, the high-resolution image Fx (n + 1) obtained by subtracting the difference image ΔFxn from the high-resolution estimated image Fxn. Indicates.

そして、上述のSTEP32〜STEP34の処理を繰り返すことによって、STEP33で得られる差分画像ΔFxnの画素値が小さくなり、高解像度画像Fxnの画素値が、図2(a)に示す輝度分布の被写体に近い画素値に収束される。尚、n回目の処理におけるSTEP32及びSTEP34では、前回(n−1回目)の処理におけるSTEP34で得られた高解像度画像Fxnによって、低解像度推定画像Fan,Fbn及び高解像度推定画像Fx(n+1)が取得される。そして、差分画像ΔFxnの画素値(差分値)が所定値より小さくなったときや、差分画像ΔFxnの画素値(差分値)が収束されたとき、前の処理(n−1回目の処理)におけるSTEP34で得られた高解像度画像Fxnを、目的の高解像度画像として超解像処理を終了する。   Then, by repeating the processing of STEP 32 to STEP 34 described above, the pixel value of the difference image ΔFxn obtained in STEP 33 is reduced, and the pixel value of the high-resolution image Fxn is close to the subject having the luminance distribution shown in FIG. Converges to pixel values. In STEP 32 and STEP 34 in the n-th process, the low-resolution estimated images Fan and Fbn and the high-resolution estimated image Fx (n + 1) are obtained by the high-resolution image Fxn obtained in STEP 34 in the previous (n−1) -th process. To be acquired. Then, when the pixel value (difference value) of the difference image ΔFxn becomes smaller than a predetermined value, or when the pixel value (difference value) of the difference image ΔFxn is converged, in the previous process (n-1th process). The super-resolution processing is terminated with the high-resolution image Fxn obtained in STEP 34 as the target high-resolution image.

上述したフローを基本とする超解像処理として、[背景技術]で挙げたML法や、MAP法や、POCS法や、IBP法などが、画像処理部4で利用される。例えば、MAP法が利用される場合、STEP33において取得される高解像度画像Fxnに対する差分画像ΔFxnが、MAP法における評価関数を勾配法によって微分した値を画素値とする勾配画像で構成されるものとする。即ち、各画素位置での二乗誤差を画素値とする最小二乗法によって得られた差分画像ΔFan、ΔFbnを合成した高解像度画像Fxnの差分画像に、事後確率分布により拘束される高解像度画像Fxnの高速画像を加えた後、勾配法によって微分を行うことで、STEP33における差分画像ΔFxnに相当する勾配画像を取得する。そして、STEP34において、この勾配画像による差分画像ΔFxnを高解像度画像Fxnより減算することで、高解像度画像Fx(n+1)を再構築する。   As the super-resolution processing based on the above-described flow, the ML method, the MAP method, the POCS method, the IBP method, and the like mentioned in [Background Art] are used in the image processing unit 4. For example, when the MAP method is used, the difference image ΔFxn with respect to the high-resolution image Fxn acquired in STEP 33 is configured by a gradient image having a pixel value as a value obtained by differentiating the evaluation function in the MAP method by the gradient method. To do. That is, the high-resolution image Fxn constrained by the posterior probability distribution is added to the differential image of the high-resolution image Fxn obtained by combining the differential images ΔFan and ΔFbn obtained by the least square method using the square error at each pixel position as the pixel value. After adding the high-speed image, the gradient image corresponding to the difference image ΔFxn in STEP 33 is acquired by performing differentiation using the gradient method. In STEP 34, the high-resolution image Fx (n + 1) is reconstructed by subtracting the difference image ΔFxn based on the gradient image from the high-resolution image Fxn.

このような超解像処理が行う際に、上述したように、まず、STEP31のように、イメージセンサ1で撮影された複数フレームの低解像度実画像から高解像画像を推定することで、最適となる高解像画像の取得が可能となる。そして、このSTEP31の高解像画像の推定を行う際に最適となる低解像度実画像を、注目フレームを含む複数フレームの低解像度実画像より選択する必要がある。この最適な低解像度実画像の選択により、高解像画像の取得速度が高速化できるとともに、フレーム数を制限することで、超解像処理における演算にかかる画像処理部4での負荷を低減することができる。又、選択した複数フレームの低解像度実画像それぞれの間に発生する位置ズレ量となる動き量が検出され、検出された動き量に対する補正が成される。尚、この位置ズレ補正については、後述する。   When such super-resolution processing is performed, as described above, first, as shown in STEP 31, the high-resolution image is estimated from a plurality of frames of low-resolution real images photographed by the image sensor 1, so that the optimum It becomes possible to acquire a high resolution image. Then, it is necessary to select a low-resolution real image that is optimal when estimating the high-resolution image in STEP 31 from a plurality of low-resolution real images including the frame of interest. By selecting this optimum low-resolution real image, the acquisition speed of the high-resolution image can be increased, and the number of frames is limited, thereby reducing the load on the image processing unit 4 related to the calculation in the super-resolution processing. be able to. Further, a motion amount that is a positional shift amount generated between each of the selected low-resolution actual images of a plurality of frames is detected, and correction for the detected motion amount is performed. This positional deviation correction will be described later.

(低解像度実画像の選択)
以下では、上述の超解像処理において最適とされる低解像度実画像の選択の基本概念について、説明する。尚、低解像度実画像の選択の基本概念を説明するにあたって、その説明を簡単にするために、画像データが1次元方向に並んだ複数画素の画素値によるものとするとともに、撮像時間の異なる4フレームの低解像度実画像から3フレームの低解像度実画像が選択されるものとする。図4に、イメージセンサ1により撮像される被写体の輝度分布と、この被写体を異なる時間にイメージセンサ1により撮像された際の低解像度実画像とを示す。又、図5及び図6に、選択した3フレームの低解像度実画像による超解像処理結果を示す。
(Selection of low-resolution real image)
Hereinafter, a basic concept of selecting a low-resolution real image that is optimal in the above-described super-resolution processing will be described. In describing the basic concept of selecting a low-resolution real image, in order to simplify the description, image data is based on pixel values of a plurality of pixels arranged in a one-dimensional direction, and has different imaging times. It is assumed that a low resolution real image of 3 frames is selected from the low resolution real image of the frame. FIG. 4 shows a luminance distribution of a subject imaged by the image sensor 1 and a low-resolution real image when the subject is imaged by the image sensor 1 at different times. FIGS. 5 and 6 show the results of super-resolution processing using the selected three-frame low-resolution real images.

図4(a)に示すように、時間T1にイメージセンサ1によって撮像されたときの第1フレームのサンプル点がS1、S1+ΔSであり、時間T2(T1≠T2)にイメージセンサ1によって撮像されたときの第2フレームのサンプル点がS2、S2+ΔSであり、時間T3(T3≠T2、T3≠T1)にイメージセンサ1によって撮像されたときの第3フレームのサンプル点がS3、S3+ΔSであり、時間T4(T4≠T3、T4≠T2、T4≠T1)にイメージセンサ1によって撮像されたときの第4フレームのサンプル点がS4、S4+ΔSであるものとする。又、このとき、第1〜第4フレームのサンプル点S1〜S4は、手ブレなどが原因となり、その位置にズレが生じているものとする。   As shown in FIG. 4A, the sample points of the first frame when imaged by the image sensor 1 at time T1 are S1 and S1 + ΔS, and imaged by the image sensor 1 at time T2 (T1 ≠ T2). The sample points of the second frame at the time are S2, S2 + ΔS, the sample points of the third frame when imaged by the image sensor 1 at time T3 (T3 ≠ T2, T3 ≠ T1) are S3, S3 + ΔS, and time Assume that the sample points of the fourth frame when imaged by the image sensor 1 at T4 (T4 ≠ T3, T4 ≠ T2, T4 ≠ T1) are S4 and S4 + ΔS. At this time, it is assumed that the sample points S1 to S4 of the first to fourth frames are caused to shift due to camera shake or the like.

これにより、第1フレームとなる低解像度実画像Faの画素P1,P2における画素値pa1,pa2が図4(b)のような関係となり、又、第2フレームとなる低解像度実画像Fbの画素P1,P2における画素値pb1,pb2が図4(c)のような関係となり、第3フレームとなる低解像度実画像Fcの画素P1,P2における画素値pc1,pc2が図4(d)のような関係となり、又、第4フレームとなる低解像度実画像Fdの画素P1,P2における画素値pd1,pd2が図4(e)のような関係となる。   Thereby, the pixel values pa1 and pa2 in the pixels P1 and P2 of the low-resolution real image Fa that becomes the first frame have the relationship as shown in FIG. 4B, and the pixels of the low-resolution real image Fb that becomes the second frame. The pixel values pb1 and pb2 in P1 and P2 have the relationship shown in FIG. 4C, and the pixel values pc1 and pc2 in the pixels P1 and P2 of the low-resolution real image Fc that is the third frame are as shown in FIG. Further, the pixel values pd1 and pd2 in the pixels P1 and P2 of the low-resolution actual image Fd that is the fourth frame are as shown in FIG.

尚、図4(b)〜(e)による低解像度実画像Fa〜Fdそれぞれは、低解像度実画像Fa〜Fdそれぞれのサンプル点S1〜S4,S1+ΔS〜S4+ΔSに相当する画素P1,P2を基準としている。又、このように、図4(b)〜図4(e)のような4フレームの低解像度実画像Fa〜Fdを異なる撮像時間に取得したとき、低解像度実画像Faを注目フレームとして超解像処理が成されるものとする。   Each of the low resolution real images Fa to Fd shown in FIGS. 4B to 4E is based on the pixels P1 and P2 corresponding to the sample points S1 to S4 and S1 + ΔS to S4 + ΔS of the low resolution real images Fa to Fd. Yes. In addition, as described above, when four frames of low resolution real images Fa to Fd as shown in FIGS. 4B to 4E are acquired at different imaging times, the low resolution real image Fa is used as a frame of interest. Assume that image processing is performed.

(1)2倍の解像度とする場合
1次元方向で、低解像度実画像の2倍の解像度の高解像度画像を取得する場合、低解像度実画像Fa〜Fdそれぞれの画素位置の中間点となる位置(中間位置)を、画素位置として追加設定される。即ち、図5(b)に示すように、高解像度画像Fxでは、画素P1,P2に加えて更に、画素P1,P2の中間点における画素Pxのように、低解像度実画像における画素間の中間点となる画素が補間画素として追加されて、高解像度画像Fxが2倍の画素数の画像とされる。即ち、補間画素は、高解像度画像を生成する際において、低解像度画像の画素間に補間される画素のことであり、図5の例においては、高解像度画像Fxの画素Pxに相当する。
(1) When the resolution is doubled When a high-resolution image having a resolution twice that of the low-resolution real image is acquired in a one-dimensional direction, a position that is an intermediate point between the pixel positions of the low-resolution real images Fa to Fd (Intermediate position) is additionally set as the pixel position. That is, as shown in FIG. 5B, in the high-resolution image Fx, in addition to the pixels P1 and P2, an intermediate between pixels in the low-resolution real image is further obtained, such as a pixel Px at an intermediate point between the pixels P1 and P2. Pixels to be dots are added as interpolation pixels, and the high-resolution image Fx is an image having twice the number of pixels. That is, the interpolation pixel is a pixel that is interpolated between the pixels of the low resolution image when generating the high resolution image, and corresponds to the pixel Px of the high resolution image Fx in the example of FIG.

図5(b)に示す高解像度画像Fxを超解像処理によって取得するとき、まず、図5(a)のように、低解像度実画像Faの画素P1,P2を基準として、低解像度実画像Fa〜Fdにおける位置ズレを補正し、低解像度実画像Fa〜Fdの位置合わせ(「位置ズレ補正」に相当する)を行う。図5(a)のように動き量に基づく位置ズレを補正すると、低解像度実画像Faの画素P1,P2に対して、低解像度実画像Fb〜Fdの画素P1,P2の位置が、図4(c)〜図4(e)に示すサンプリング点S2〜S4と図4(a)に示すサンプリング点S1との間にできる動き量(S2−S1)、(S3−S1)、(S4−S1)だけずれることとなる。   When the high-resolution image Fx shown in FIG. 5B is acquired by super-resolution processing, first, as shown in FIG. 5A, the low-resolution real image is based on the pixels P1 and P2 of the low-resolution real image Fa. The positional deviations in Fa to Fd are corrected, and the low-resolution actual images Fa to Fd are aligned (corresponding to “positional deviation correction”). When the positional deviation based on the amount of motion is corrected as shown in FIG. 5A, the positions of the pixels P1 and P2 of the low-resolution real images Fb to Fd with respect to the pixels P1 and P2 of the low-resolution real image Fa are as shown in FIG. The amount of movement (S2-S1), (S3-S1), (S4-S1) between the sampling points S2 to S4 shown in (c) to FIG. 4 (e) and the sampling point S1 shown in FIG. ).

即ち、図5(a)に示すように、低解像度実画像Fa〜Fdを組み合わせたとき、画素P1,P2の画素値が、低解像度実画像Faの画素P1,P2の画素値pa1,pa2となる。そして、画素位置が画素P1,P2からS2−S1だけずれた画素位置PB1,PB2の画素値が、低解像度実画像Fbの画素P1,P2の画素値pb1,pb2(図4(c)参照)となる。同様に、画素位置が画素P1,P2からS3−S1だけずれた画素位置PC1,PC2の画素値が、低解像度実画像Fcの画素P1,P2の画素値pc1,pc2(図4(d)参照)となり、又、画素位置が画素P1,P2からS4−S1だけずれた画素位置PD1,PD2の画素値が、低解像度実画像Fdの画素P1,P2の画素値pd1,pd2(図4(e)参照)となる。   That is, as shown in FIG. 5A, when the low resolution real images Fa to Fd are combined, the pixel values of the pixels P1 and P2 are the pixel values pa1 and pa2 of the pixels P1 and P2 of the low resolution real image Fa. Become. The pixel values PB1 and PB2 whose pixel positions are shifted from the pixels P1 and P2 by S2-S1 are the pixel values pb1 and pb2 of the pixels P1 and P2 of the low-resolution real image Fb (see FIG. 4C). It becomes. Similarly, pixel values PC1 and PC2 whose pixel positions are shifted from the pixels P1 and P2 by S3-S1 are pixel values pc1 and pc2 of the pixels P1 and P2 of the low-resolution real image Fc (see FIG. 4D). The pixel values of the pixel positions PD1 and PD2 whose pixel positions are shifted from the pixels P1 and P2 by S4-S1 are the pixel values pd1 and pd2 of the pixels P1 and P2 of the low-resolution real image Fd (FIG. 4 (e)). ))).

この低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量に基づく位置ズレが補正されると、注目フレームとなる低解像度実画像Faの画素P1,P2との位置関係によって、超解像処理として最適となる2フレームの低解像度実画像が、3フレームの低解像度実画像Fb〜Fdから選択される。そして、3フレームの低解像度実画像Fb〜Fdのうち、低解像度実画像Faの各画素間の中間位置(図5(a)の場合、画素Pxの画素位置に相当)に近い位置にサンプル点となる画素を備える低解像度実画像が選択される。   When the positional deviation based on the amount of motion between each of the low-resolution actual images Fb to Fd and the low-resolution actual image Fa is corrected, the super-relationship between the pixels P1 and P2 of the low-resolution actual image Fa serving as the frame of interest is Two frames of low-resolution real images that are optimal for resolution processing are selected from the three frames of low-resolution real images Fb to Fd. Of the three frames of the low resolution real images Fb to Fd, the sample point is located at a position close to the intermediate position between the pixels of the low resolution real image Fa (corresponding to the pixel position of the pixel Px in the case of FIG. 5A). A low-resolution real image including the pixels to be selected is selected.

即ち、図5(a)のように、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)、(S4−S1)と画素間の距離ΔSとの関係が、|ΔS/2−|S2−S1||>|ΔS/2−|S4−S1||>|ΔS/2−|S3−S1||となるとき、低解像度実画像Fb〜Fdのサンプル点による画素位置が、低解像度実画像Faの各画素間の中間位置に対して、Fc,Fd,Fbの順に近いものとなる。尚、図5(a)中では、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)、(S4−S1)と中間位置までの距離ΔS/2との大小関係が、(S2−S1)<(S3−S1)<ΔS/2<(S4−S1)となるものとする。   That is, as shown in FIG. 5A, the amount of motion (S2-S1), (S3-S1), (S4-S1) between each of the low-resolution actual images Fb to Fd and the low-resolution actual image Fa is between the pixels. When the relationship with the distance ΔS is | ΔS / 2− | S2-S1 ||> | ΔS / 2− | S4-S1 ||> | ΔS / 2− | S3-S1 || The pixel positions of the sample points Fb to Fd are closer to the intermediate positions between the pixels of the low-resolution real image Fa in the order of Fc, Fd, and Fb. In FIG. 5A, the movement amounts (S2-S1), (S3-S1), (S4-S1) between the low-resolution actual images Fb to Fd and the low-resolution actual image Fa and the intermediate positions are shown. The magnitude relationship with the distance ΔS / 2 is (S2−S1) <(S3−S1) <ΔS / 2 <(S4−S1).

これにより、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量の関係に基づいて、低解像度実画像Fb〜Fdそれぞれが、Fc,Fd,Fbの順に、超解像処理に適しているものと判断される。よって、注目フレームとなる低解像度実画像Faを含む3フレームの低解像度実画像が選択されるため、低解像度実画像Fa,Fc,Fdが選択される。そして、選択された低解像度実画像Fa,Fc,Fdに基づいて上述の超解像処理が成されることにより、図5(b)のような高解像度画像Fxが得られる。   Thereby, based on the relationship between the amount of motion between each of the low resolution actual images Fb to Fd and the low resolution actual image Fa, each of the low resolution actual images Fb to Fd is subjected to super-resolution processing in the order of Fc, Fd, and Fb. Judged to be suitable. Therefore, since three frames of low-resolution real images including the low-resolution real image Fa serving as the target frame are selected, the low-resolution real images Fa, Fc, and Fd are selected. Then, the above-described super-resolution processing is performed based on the selected low-resolution real images Fa, Fc, and Fd, whereby a high-resolution image Fx as shown in FIG. 5B is obtained.

尚、上述では説明を簡単にするために、低解像度実画像Fa〜Fdの位置ズレ補正(「位置合わせ」と同意)後の関係によって低解像度実画像の選択が行われるものとした。しかしながら、低解像度実画像Fa〜Fdそれぞれのサンプル点により得られる動き量に基づいて、注目フレームとなる低解像度実画像Faの各画素間の中間位置と距離を算出し、算出した距離が短いもの低解像度実画像から選択するものとしても構わない。   In the above description, in order to simplify the description, it is assumed that the low-resolution actual image is selected according to the relationship after the positional deviation correction (agreement with “alignment”) of the low-resolution actual images Fa to Fd. However, based on the amount of motion obtained from each sample point of the low resolution real images Fa to Fd, the intermediate position and distance between each pixel of the low resolution real image Fa serving as the frame of interest is calculated, and the calculated distance is short. It may be selected from low-resolution real images.

このように、解像度を2倍とする場合、注目フレームとなる低解像度画像を基準として、複数の低解像度画像の位置ズレ補正をしたときに、注目フレームとなる低解像度画像における各画素間の中間位置、即ち、補間画素位置に近い位置に画素を備える低解像度画像を選択することで、超解像処理が成される。これにより、高解像度画像を取得する際の補間画素位置に近い画素位置における実画像の画素値を取得できるため、補間画素の画素値に近い値に基づいて補間画素の画素値が取得され、実際の被写体の輝度値に近い値とすることができる。   As described above, when the resolution is doubled, when the positional deviation correction of a plurality of low resolution images is performed on the basis of the low resolution image serving as the frame of interest, an intermediate between pixels in the low resolution image serving as the frame of interest. Super-resolution processing is performed by selecting a low-resolution image including pixels at a position, that is, a position close to the interpolation pixel position. Thereby, since the pixel value of the real image at the pixel position close to the interpolation pixel position when acquiring the high resolution image can be acquired, the pixel value of the interpolation pixel is acquired based on the value close to the pixel value of the interpolation pixel. It can be set to a value close to the luminance value of the subject.

更に、解像度を2倍とする場合、上述の例では、4フレームの低解像度実画像から注目フレームを含む3フレームの低解像度実画像を選択するものとしたが、n(nは、3以上の整数)フレームの低解像度実画像から注目フレームを含むm(mは、2以上n−1以下の整数)フレームの低解像度実画像を選択するものとであれば、そのフレーム数を限定するものではない。尚、画像処理部4での演算処理における負荷を軽減するために、選択対象となるnフレームの低解像度実画像、及び、選択されるmフレームの低解像度実画像それぞれのフレーム数を少なくすることが望ましい。   Further, when the resolution is doubled, in the above example, the low-resolution real image of 3 frames including the target frame is selected from the low-resolution real image of 4 frames, but n (n is 3 or more). If a low-resolution real image of m (m is an integer of 2 to n-1) frames including the target frame is selected from the low-resolution real image of frames, the number of frames is not limited. Absent. In order to reduce the load on the arithmetic processing in the image processing unit 4, the number of frames of the low-resolution actual image of n frames to be selected and the low-resolution actual image of m frames to be selected is reduced. Is desirable.

(2)3倍の解像度とする場合
1次元方向で、低解像度実画像の3倍の解像度の高解像度画像を取得する場合、低解像度実画像Fa〜Fdそれぞれの画素位置の間を三等分する位置を、画素位置として追加設定される。即ち、図6(b)に示すように、高解像度画像Fy,Fzでは、画素P1,P2に加えて更に、画素P1,P2を三等分する位置における画素Px1,Px2のように、低解像度実画像における画素間を三等分する位置となる画素が補間画素として追加されて、高解像度画像Fyが3倍の画素数の画像とされる。
(2) When the resolution is three times When acquiring a high resolution image having a resolution three times that of the low resolution real image in one dimension, the pixel positions of the low resolution real images Fa to Fd are divided into three equal parts. This position is additionally set as a pixel position. That is, as shown in FIG. 6B, in the high resolution images Fy and Fz, in addition to the pixels P1 and P2, the pixels P1 and Px2 are further divided into three equal parts, in addition to the pixels P1 and P2. Pixels that are positions that divide the pixels in the real image into three equal parts are added as interpolation pixels, and the high-resolution image Fy is made an image with three times the number of pixels.

図6(b)に示す高解像度画像Fyを超解像処理によって取得するとき、解像度を2倍とするときと同様、まず、図6(a)のように、低解像度実画像Faの画素P1,P2を基準として、低解像度実画像Fa〜Fdにおける動き量に基づく位置ズレを補正し、低解像度実画像Fa〜Fdの位置合わせを行う。尚、この位置合わせ(位置ズレ補正)は、解像度を2倍としたときの図5(a)と同様であり、注目フレームの低解像度実画像Faとの位置ズレ量(動き量)が同じ値となる。   When the high resolution image Fy shown in FIG. 6B is acquired by super-resolution processing, as in the case where the resolution is doubled, first, as shown in FIG. 6A, the pixel P1 of the low resolution real image Fa is obtained. , P2 as a reference, the positional deviation based on the motion amount in the low-resolution real images Fa to Fd is corrected, and the low-resolution real images Fa to Fd are aligned. This alignment (correction of positional deviation) is the same as that in FIG. 5A when the resolution is doubled, and the positional deviation amount (motion amount) of the target frame with the low-resolution actual image Fa is the same value. It becomes.

図6(a)のように、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの位置ズレが補正されると、注目フレームとなる低解像度実画像Faの画素P1,P2との位置関係によって、超解像処理として最適となる低解像度実画像が、3フレームの低解像度実画像Fb〜Fdから選択される。このとき、選択するフレーム数によって、その選択する際の基準となる画素位置が異なる。即ち、上述の解像度を2倍とする場合の例では、低解像度実画像における画素間の中間位置と補間画素位置とが同一の位置であったため、判定の基準を、低解像度実画像における画素間の中間位置ともなる補間画素位置としたが、解像度を3倍とする場合は、低解像度実画像における画素間の中間位置と補間画素位置とが異なる。よって、(1−a)注目フレームとなる低解像度実画像Faの各画素間の中間位置を判定の基準とする場合と、(1−b)高解像度画像における補間画素位置を判定の基準とする場合とが、選択する低解像度実画像のフレーム数によって決定される。   As shown in FIG. 6A, when the positional deviation between each of the low-resolution real images Fb to Fd and the low-resolution real image Fa is corrected, the positions of the pixels P1 and P2 of the low-resolution real image Fa serving as the frame of interest. Depending on the relationship, the low-resolution real image that is optimal as the super-resolution processing is selected from the three-frame low-resolution real images Fb to Fd. At this time, the pixel position serving as a reference for selection differs depending on the number of frames to be selected. That is, in the example in which the resolution is doubled, the intermediate position between the pixels in the low-resolution actual image and the interpolation pixel position are the same position. However, when the resolution is tripled, the intermediate position between the pixels and the interpolated pixel position in the low-resolution real image are different. Therefore, (1-a) a case where the intermediate position between each pixel of the low-resolution real image Fa serving as the target frame is used as a reference for determination, and (1-b) an interpolation pixel position in the high-resolution image is used as a reference for determination. The case is determined by the number of frames of the low-resolution real image to be selected.

(1−a)注目フレームの各画素間の中間位置を基準とする例
本例におけるフレーム選択用の基準は、例えば、注目フレームとなる低解像度実画像Fa以外に、別の1フレームの低解像度実画像が、3フレームの低解像度実画像Fb〜Fdから選択されるように、超解像処理として最適となる低解像度実画像として選択するフレーム数が、低解像度実画像における画素間に配置される補間画素数(本例のように、解像度を3倍とする場合は補間画素が、低解像度実画像における画素間に2画素ずつ補間されるため、補間画素数は2となる)よりも少ないときに主に使用されることが好ましい。
(1-a) Example based on an intermediate position between each pixel of the target frame The reference for frame selection in this example is, for example, a low resolution of another frame other than the low-resolution real image Fa that is the target frame. The number of frames to be selected as the low-resolution real image that is optimal as the super-resolution processing is arranged between the pixels in the low-resolution real image so that the real image is selected from the three-frame low-resolution real images Fb to Fd. Less than the number of interpolation pixels (when the resolution is tripled as in this example, the interpolation pixels are interpolated by two pixels between pixels in the low-resolution real image, so the number of interpolation pixels is 2). It is sometimes preferred that it is mainly used.

このように、注目フレームとなる低解像度実画像Faの各画素間の中間位置を基準として、超解像処理において最適な低解像度画像を選択するとき、解像度を2倍にするときと同様、そのサンプル点が低解像度実画像Faの各画素間の中間位置に近い低解像度実画像が選択されることとなる。即ち、例えば、注目フレームとなる低解像度実画像Fa以外に、3フレームの低解像度実画像Fb〜Fdから1フレームを選択する場合、上述したように、低解像度実画像Fb〜Fdのサンプル点による画素位置が、低解像度実画像Faの各画素間の中間位置に対して、Fc,Fd,Fbの順に近いため(図5(a)及び図6(a)参照)、低解像度実画像Fcが選択される。よって、低解像度実画像Fa,Fcによって、上述の超解像処理が行われて、図6(b)のような高解像度画像Fyが得られる。   As described above, when selecting the optimum low resolution image in the super-resolution processing with reference to the intermediate position between the pixels of the low resolution real image Fa as the target frame, as in the case of doubling the resolution, The low-resolution real image whose sample point is close to the intermediate position between the pixels of the low-resolution real image Fa is selected. That is, for example, when one frame is selected from the three low-resolution real images Fb to Fd in addition to the low-resolution real image Fa serving as the target frame, as described above, depending on the sample points of the low-resolution real images Fb to Fd. Since the pixel position is close to the intermediate position between the pixels of the low-resolution real image Fa in the order of Fc, Fd, and Fb (see FIGS. 5A and 6A), the low-resolution real image Fc is Selected. Therefore, the super-resolution processing described above is performed using the low-resolution real images Fa and Fc, and a high-resolution image Fy as shown in FIG. 6B is obtained.

尚、本例のように基準を設定するとき、超解像処理として最適となる低解像度実画像の選択するフレーム数が多い場合でも、その選択動作に対する演算処理の負荷を低減する場合にも有効である。よって、注目フレームとなる低解像度実画像Fa以外に、3フレームの低解像度実画像Fb〜Fdから2フレームを選択する場合、上述したように、低解像度実画像Fb〜Fdのサンプル点による画素位置が、低解像度実画像Faの各画素間の中間位置に対して、Fc,Fd,Fbの順に近いため(図5(a)及び図6(a)参照)、低解像度実画像Fc,Fdが選択される。よって、低解像度実画像Fa,Fc,Fdによって、上述の超解像処理が行われて、図6(c)のような高解像度画像Fzが得られる。   Note that when setting the standard as in this example, even if the number of frames to be selected for a low-resolution real image that is optimal for super-resolution processing is large, it is effective for reducing the processing load on the selection operation. It is. Therefore, in the case where two frames are selected from the three low-resolution real images Fb to Fd in addition to the low-resolution real image Fa serving as the target frame, as described above, the pixel positions based on the sample points of the low-resolution real images Fb to Fd However, since the intermediate positions between the pixels of the low-resolution real image Fa are close to the order of Fc, Fd, and Fb (see FIGS. 5A and 6A), the low-resolution real images Fc and Fd are Selected. Therefore, the above-described super-resolution processing is performed on the low-resolution real images Fa, Fc, and Fd, and a high-resolution image Fz as shown in FIG. 6C is obtained.

(1−b)高解像度画像における補間画素位置を判定の基準とする例
本例におけるフレーム選択用の基準は、例えば、注目フレームとなる低解像度実画像Fa以外に、別の2フレームの低解像度実画像が、3フレームの低解像度実画像Fb〜Fdから選択されるように、超解像処理として最適となる低解像度実画像として選択するフレーム数が、低解像度実画像における画素間に配置される補間画素数(本例のように、解像度を3倍とする場合は補間画素が、低解像度実画像における画素間に2画素ずつ補間されるため、補間画素数は2となる)以上とされるときに使用されることが好ましい。
(1-b) An example in which the interpolation pixel position in the high-resolution image is used as a criterion for determination In this example, the criterion for frame selection is, for example, a low resolution of two frames other than the low-resolution real image Fa serving as the frame of interest. The number of frames to be selected as the low-resolution real image that is optimal as the super-resolution processing is arranged between the pixels in the low-resolution real image so that the real image is selected from the three-frame low-resolution real images Fb to Fd. The number of interpolated pixels (in this example, when the resolution is tripled, the interpolated pixels are interpolated by two pixels between pixels in the low-resolution real image, so the number of interpolated pixels is 2). It is preferably used when

このように、生成される高解像度画像の補間画素位置を基準として、超解像処理において最適な低解像度画像を選択するとき、そのサンプル点が低解像度実画像Faの各画素間において1/3又は2/3となる位置に近解像度実画像が選択されることとなる。即ち、低解像度実画像Faの各画素との距離がΔS/3又は2ΔS/3となる位置(図6(b)の高解像度画像Fy,Fzにおける補間画素Px1,Px2の画素位置に相当する)を基準とし、この基準に対してそのサンプル点が近くなる低解像度画像から順に選択する。   As described above, when an optimal low resolution image is selected in the super-resolution processing based on the interpolation pixel position of the generated high resolution image, the sample point is 1/3 between each pixel of the low resolution real image Fa. Alternatively, the near-resolution real image is selected at a position that is 2/3. That is, a position where the distance from each pixel of the low-resolution real image Fa is ΔS / 3 or 2ΔS / 3 (corresponding to the pixel positions of the interpolation pixels Px1 and Px2 in the high-resolution images Fy and Fz in FIG. 6B). Are selected in order from a low-resolution image whose sample points are close to the reference.

即ち、図6(a)のように、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)、(S4−S1)と画素間の距離ΔSとの関係が、|ΔS/3−|S2−S1||=|ΔS/3−|S3−S1||>|2ΔS/3−|S4−S1||となるとき、低解像度実画像Fb〜Fdのサンプル点による画素位置が、低解像度実画像Faの各画素との距離がΔS/3又は2ΔS/3となる位置に対して、低解像度実画像Fdのサンプル点が最も近いものとなる。そして、低解像度実画像Faの各画素との距離がΔS/3となる位置に対して、低解像度実画像Fb,Fcそれぞれのサンプル点が等しい位置となる。   That is, as shown in FIG. 6A, the motion amounts (S2-S1), (S3-S1), (S4-S1) between the low-resolution actual images Fb to Fd and the low-resolution actual image Fa are between the pixels. When the relationship with the distance ΔS is | ΔS / 3− | S2−S1 || = | ΔS / 3− | S3−S1 ||> | 2ΔS / 3− | S4−S1 || The pixel position by the sample points of Fb to Fd is closest to the sample point of the low-resolution real image Fd with respect to the position where the distance from each pixel of the low-resolution real image Fa is ΔS / 3 or 2ΔS / 3 Become. Then, the sample points of the low-resolution actual images Fb and Fc are equal to the position where the distance from each pixel of the low-resolution actual image Fa is ΔS / 3.

尚、図6(a)中では、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)、(S4−S1)と補間画素までの距離ΔS/3、2ΔS/3との大小関係が、(S2−S1)<ΔS/3<(S3−S1)<(S4−S1)<2ΔS/3となるものとする。又、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)と中間位置までの距離ΔS/2との大小関係が、(S2−S1)<(S3−S1)<ΔS/2となる。即ち、低解像度画像Fb,Fcについては、低解像度実画像Faの各画素間の中間位置に対して、Fc,Fbの順に近いものとなる。   In FIG. 6A, the motion amounts (S2-S1), (S3-S1), (S4-S1) and the interpolation pixels between the low-resolution actual images Fb to Fd and the low-resolution actual image Fa are shown. The magnitude relationship between the distances ΔS / 3 and 2ΔS / 3 is (S2−S1) <ΔS / 3 <(S3−S1) <(S4−S1) <2ΔS / 3. The magnitude relationship between the amount of motion (S2-S1) and (S3-S1) between the low-resolution actual images Fb to Fd and the low-resolution actual image Fa and the distance ΔS / 2 to the intermediate position is (S2-S1). ) <(S3-S1) <ΔS / 2. That is, the low resolution images Fb and Fc are close to the order of Fc and Fb with respect to the intermediate position between the pixels of the low resolution actual image Fa.

これにより、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量の関係に基づいて、まず、高解像度画像における補間画素位置に最も近い位置をサンプル点とする低解像度実画像Fdが、超解像処理に適しているものと判断される。そして、そのサンプル点が補間画素位置に次に近い低解像度実画像が、低解像度実画像Fb,Fcの2フレームとなるため、この2フレームから1フレームを選択する必要がある。このとき、そのサンプル点が低解像度実画像Faの各画素間の中間位置に近い低解像度実画像Fcが選択される。このようにすることで、低解像度実画像Fc,Fdが選択され、低解像度実画像Fa,Fc,Fdによって、上述の超解像処理が行われて、図6(c)のような高解像度画像Fzが得られる。   Thus, based on the relationship between the amount of motion between each of the low-resolution actual images Fb to Fd and the low-resolution actual image Fa, first, the low-resolution actual image Fd having the position closest to the interpolation pixel position in the high-resolution image as a sample point. Is determined to be suitable for super-resolution processing. Since the low-resolution actual image whose sample point is next to the interpolation pixel position is two frames of the low-resolution actual images Fb and Fc, it is necessary to select one frame from these two frames. At this time, the low-resolution real image Fc whose sample point is close to the intermediate position between the pixels of the low-resolution real image Fa is selected. In this way, the low-resolution real images Fc and Fd are selected, and the above-described super-resolution processing is performed using the low-resolution real images Fa, Fc, and Fd, and a high resolution as shown in FIG. An image Fz is obtained.

図6(a)の場合と異なる場合についても、図7を参照して以下に説明する。尚、図7は、低解像度実画像Fa〜Fdそれぞれのサンプル点S1〜S4の位置関係を示す図である。例えば、図7(a)のように、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faとの動き量(S2−S1)、(S3−S1)、(S4−S1)と画素間の距離ΔSとの関係が、|ΔS/3−|S2−S1||>|ΔS/3−|S3−S1||>|2ΔS/3−|S4−S1||となるときは、そのサンプル点と高解像度画像の補間画素との距離によってのみ選択される。即ち、図7(a)の場合では、そのサンプル点と高解像度画像の補間画素との距離が、Fd,Fc,Fbの順に近くなるため、低解像度実画像Fd,Fcが選択される。   A case different from the case of FIG. 6A will be described below with reference to FIG. FIG. 7 is a diagram illustrating the positional relationship between the sample points S1 to S4 of the low-resolution real images Fa to Fd. For example, as shown in FIG. 7A, the motion amounts (S2-S1), (S3-S1), and (S4-S1) between the low-resolution actual images Fb to Fd and the low-resolution actual image Fa are between the pixels. When the relationship with the distance ΔS is | ΔS / 3− | S2-S1 ||> | ΔS / 3− | S3-S1 ||> | 2ΔS / 3− | S4-S1 || And the distance between the interpolated pixels of the high resolution image. That is, in the case of FIG. 7A, since the distance between the sample point and the interpolation pixel of the high resolution image is close to Fd, Fc, and Fb in this order, the low resolution real images Fd and Fc are selected.

又、図7(b)のように、|ΔS/3−|S3−S1||>|ΔS/3−|S2−S1||>|2ΔS/3−|S4−S1||となるときは、そのサンプル点と高解像度画像の補間画素との距離が、Fd,Fb,Fcの順に近くなるため、低解像度実画像Fd,Fbが選択される。尚、図7(a)及び図7(b)において、低解像度実画像Fb〜Fdそれぞれと低解像度実画像Faと動き量(S2−S1)、(S3−S1)、(S4−S1)と補間画素までの距離ΔS/3、2ΔS/3との大小関係が、(S2−S1)<ΔS/3<(S3−S1)<ΔS/2<(S4−S1)<2ΔS/3となるものとする。   In addition, as shown in FIG. 7B, when | ΔS / 3− | S3-S1 ||> | ΔS / 3− | S2−S1 |||| 2−ΔS / 3− | S4−S1 || Since the distance between the sample point and the interpolation pixel of the high resolution image is closer to Fd, Fb, and Fc in this order, the low resolution real images Fd and Fb are selected. 7A and 7B, the low-resolution actual images Fb to Fd, the low-resolution actual image Fa, and the motion amounts (S2-S1), (S3-S1), (S4-S1) The relationship between the distances to the interpolation pixels ΔS / 3 and 2ΔS / 3 is such that (S2−S1) <ΔS / 3 <(S3−S1) <ΔS / 2 <(S4−S1) <2ΔS / 3. And

又、図7(c)及び図7(d)のように、|ΔS/3−|S2−S1||=|2ΔS/3−|S3−S1||>|2ΔS/3−|S4−S1||となるときは、まず、そのサンプル点と高解像度画像の補間画素との距離が最も近い低解像度実画像Fdが選択される。そして、図7(c)のように、ΔS/3<(S2−S1)<ΔS/2<(S3−S1)<(S4−S1)<2ΔS/3となるとき、低解像度実画像Faの画素との距離が2ΔS/3となる補間画素(補間画素Px2に相当)に近い位置をサンプル点とする低解像度実画像Fdが既に選択されているため、低解像度実画像Faの画素との距離がΔS/3となる補間画素(補間画素Px1に相当)に近い位置をサンプル点とする低解像度実画像Fbが選択されることとなる。   Further, as shown in FIGS. 7C and 7D, | ΔS / 3− | S2−S1 || = | 2ΔS / 3− | S3−S1 ||> | 2ΔS / 3− | S4−S1 When || becomes, first, the low-resolution real image Fd having the shortest distance between the sample point and the interpolation pixel of the high-resolution image is selected. Then, as shown in FIG. 7C, when ΔS / 3 <(S2−S1) <ΔS / 2 <(S3−S1) <(S4−S1) <2ΔS / 3, the low-resolution real image Fa Since the low-resolution real image Fd whose sample point is a position close to the interpolation pixel (corresponding to the interpolation pixel Px2) whose distance from the pixel is 2ΔS / 3 has already been selected, the distance from the pixel of the low-resolution real image Fa A low-resolution real image Fb having a sample point at a position close to an interpolation pixel (corresponding to the interpolation pixel Px1) having a ΔS / 3 is selected.

更に、図7(d)のように、(S2−S1)<ΔS/3<ΔS/2<(S3−S1)<(S4−S1)<2ΔS/3となるとき、図7(c)の場合のように、低解像度実画像Faの画素との距離がΔS/3となる補間画素(補間画素Px1に相当)に近い位置をサンプル点とする低解像度実画像Fbが選択されるものとしても構わないし、図6(a)の場合のように、低解像度実画像Faの各画素間の中間位置に近い位置をサンプル点とする低解像度実画像Fcが選択されるものとしても構わない。   Furthermore, as shown in FIG. 7D, when (S2-S1) <ΔS / 3 <ΔS / 2 <(S3-S1) <(S4-S1) <2ΔS / 3, As in the case, the low-resolution real image Fb having a sample point at a position close to an interpolation pixel (corresponding to the interpolation pixel Px1) whose distance from the pixel of the low-resolution real image Fa is ΔS / 3 may be selected. Alternatively, as in the case of FIG. 6A, the low-resolution real image Fc having a sample point at a position close to the intermediate position between the pixels of the low-resolution real image Fa may be selected.

又、図7(d)の場合、低解像度実画像Fb,Fcのいずれを選択するかの基準について、補間画素との距離の長さによって変更するものとしても構わない。即ち、補間画素と低解像度実画像Fb,Fcのサンプル点との距離が所定値より短い場合は、低解像度実画像Faの画素との距離がΔS/3となる補間画素に近い位置をサンプル点とする低解像度実画像Fbを選択する。逆に、補間画素と低解像度実画像Fb,Fcのサンプル点との距離が所定値より長い場合は、低解像度実画像Faの各画素間の中間位置に近い位置をサンプル点とする低解像度実画像Fcを選択する。   In the case of FIG. 7D, the reference for selecting which of the low-resolution actual images Fb and Fc is selected may be changed depending on the length of the distance to the interpolation pixel. That is, when the distance between the interpolation pixel and the sample point of the low-resolution actual images Fb and Fc is shorter than a predetermined value, the position near the interpolation pixel where the distance from the pixel of the low-resolution actual image Fa is ΔS / 3 is the sample point. A low resolution real image Fb is selected. On the other hand, when the distance between the interpolation pixel and the sample point of the low-resolution real images Fb and Fc is longer than a predetermined value, the low-resolution real image with the position close to the intermediate position between the pixels of the low-resolution real image Fa as the sample point. Select the image Fc.

このように、低解像度実画像の3倍の解像度の高解像度画像を取得する場合について説明したが、解像度を4倍以上に設定する場合も同様に、超解像処理に適した低解像度実画像を選択することができる。即ち、選択するフレーム数が少ない場合や選択動作における演算処理を簡単なものとする場合は、注目フレームとなる低解像度実画像の各画素間の中間位置に近い位置を基準とすることで、超解像処理を行うための低解像度実画像の選択が行われる。   As described above, a case has been described in which a high-resolution image having a resolution three times that of the low-resolution actual image has been obtained. Can be selected. In other words, when the number of frames to be selected is small or when the calculation process in the selection operation is simplified, a position close to the intermediate position between each pixel of the low-resolution real image that is the frame of interest is used as a reference. A low-resolution real image for performing the resolution process is selected.

又、選択するフレーム数が多くなる場合は、まず、高解像度画像の補間画素位置を基準とすることで選択する。そして、補間画素位置とサンプル点との距離が等しい低解像度実画像が存在する場合は、選択した低解像度実画像のサンプル点との距離を求めるための対象とされていない補間画素位置と、注目フレームとなる低解像度実画像の各画素間の中間位置とサンプル点との距離との関係に基づいて、超解像処理を行うための低解像度実画像の選択が行われる。   When the number of frames to be selected is increased, the selection is first made based on the interpolation pixel position of the high resolution image. When there is a low-resolution real image in which the distance between the interpolation pixel position and the sample point is equal, the interpolation pixel position that is not the target for obtaining the distance from the sample point of the selected low-resolution real image, Based on the relationship between the intermediate position between each pixel of the low-resolution real image to be a frame and the distance between the sample points, the low-resolution real image for performing the super-resolution processing is selected.

(位置ズレ補正)
以下では、位置ズレ補正動作について簡単に説明する。この位置ズレ補正は、低解像度実画像に対して成されるものであり、超解像処理における注目フレームとなる低解像度実画像を基準として行われる。即ち、超解像処理に最適な低解像度実画像として選択した注目フレーム以外の低解像度実画像が、基準となる注目フレームとなる低解像度実画像に対する位置ズレ補正が成される。このとき、連続する2つの低解像度画像毎に動き量を検出した後、検出した動き量の総和を求めることで、注目フレームとなる低解像度実画像との動き量を求める。そして、求めた動き量に基づいて、注目フレーム以外の超解像処理に最適な低解像度画像の位置ズレ補正が成される。
(Position misalignment correction)
Hereinafter, the positional deviation correction operation will be briefly described. This misalignment correction is performed on the low-resolution real image, and is performed with reference to the low-resolution real image that is the frame of interest in the super-resolution processing. That is, the low-resolution actual image other than the target frame selected as the optimal low-resolution real image for the super-resolution processing is corrected for the positional deviation with respect to the low-resolution actual image serving as the reference target frame. At this time, after detecting the amount of motion for each of two consecutive low-resolution images, the amount of motion with the low-resolution actual image serving as the frame of interest is obtained by obtaining the sum of the detected amounts of motion. Then, based on the obtained amount of motion, position shift correction of the low-resolution image optimal for super-resolution processing other than the frame of interest is performed.

即ち、動き量の検出は、まず、時間的に連続した2フレームの低解像度画像の一方を基準画像とし、他方を非基準画像として検出される。そして、注目フレームから数えてnフレーム目となる低解像度画像の場合、注目フレームとなる低解像度画像との動き量が、nフレームの低解像度画像間における動き量の総和を求めることで検出される。尚、この動き量の検出については、超解像処理に最適な低解像度実画像を選択する際においても利用される。   That is, in detecting the amount of motion, first, one of two temporally continuous low-resolution images is detected as a reference image, and the other is detected as a non-reference image. In the case of a low-resolution image that is the n-th frame counted from the target frame, the amount of motion with the low-resolution image that is the target frame is detected by calculating the total amount of motion between the low-resolution images of n frames. . This detection of the amount of motion is also used when selecting a low-resolution real image optimal for super-resolution processing.

そして、この動き量の検出において、連続する2フレームの低解像度画像である基準画像と非基準画像との間における動き量が検出されるが、この動き量検出については、例えば、周知の代表点マッチング法によって、画像間における画素単位の動き量が検出され、その後、1画素内における動き量について、画素単位の位置ズレ補正された近隣画素の画素値の関係に基づいて検出されるものとしても構わない。以下に、代表点マッチング法と、1画素内における動き量検出とについて、簡単に説明する。   In this motion amount detection, the motion amount between the reference image and the non-reference image, which are two consecutive low-resolution images, is detected. For this motion amount detection, for example, a well-known representative point is used. The amount of motion in pixels between images is detected by the matching method, and then the amount of motion in one pixel is detected based on the relationship between the pixel values of neighboring pixels that have been corrected for positional deviation in pixels. I do not care. Hereinafter, the representative point matching method and the motion amount detection within one pixel will be briefly described.

(1)代表点マッチング法
基準画像及び非基準画像それぞれに対して、例えば、図8に示すように、a×bの画素群(例えば、36×36の画素群)を1つの小領域eとして分割し、更に、このp×q領域の小領域e群(例えば、6×8の小領域e群)を1つの検出領域Eとして分割する。そして、基準画像では、各小領域eにおいて、図9(a)のように、小領域eを構成するa×bの画素から1つの画素が代表点Rとして設定され、又、非基準画像では、各小領域eにおいて、図9(b)のように、小領域eを構成するa×bの画素のうちの複数の画素がサンプリング点Sとして設定される(例えば、a×bの画素全てをサンプリング点Sとしても構わない)。
(1) Representative Point Matching Method For each of the reference image and the non-reference image, for example, as shown in FIG. 8, an a × b pixel group (for example, a 36 × 36 pixel group) is set as one small region e. Further, the small region e group (for example, 6 × 8 small region e group) of the p × q region is further divided as one detection region E. In the reference image, in each small area e, as shown in FIG. 9A, one pixel is set as the representative point R from the a × b pixels constituting the small area e. In the non-reference image, In each small region e, as shown in FIG. 9B, a plurality of pixels among a × b pixels constituting the small region e are set as sampling points S (for example, all the pixels of a × b May be used as the sampling point S).

このように、小領域e及び検出領域Eを設定すると、基準画像と非基準画像の同一位置となる小領域eについて、非基準画像の各サンプリング点Sの画素値と基準画像の代表点Rの画素値との差が、各サンプリング点Sでの相関値として求められる。そして、検出領域E毎に、各小領域e間で代表点Rとの相対位置が同一となるサンプリング点Sの相関値を、検出領域Eを構成する全ての小領域e分だけ累積加算することで、各サンプリング点Sにおける累積相関値を取得する。これにより、検出領域E毎に、代表点Rとの相対位置が同一となるp×q個のサンプリング点Sの相関値が累積加算されることで、サンプリング点の個数分の累積相関値が得られる(例えば、a×bの画素全てをサンプリング点Sとする場合、a×b個の累積相関値が得られることとなる)。   Thus, when the small area e and the detection area E are set, the pixel value of each sampling point S of the non-reference image and the representative point R of the reference image for the small area e at the same position of the reference image and the non-reference image. A difference from the pixel value is obtained as a correlation value at each sampling point S. Then, for each detection region E, the correlation values of the sampling points S whose relative positions to the representative point R are the same among the small regions e are cumulatively added for all the small regions e constituting the detection region E. Thus, the cumulative correlation value at each sampling point S is acquired. Thus, for each detection region E, the correlation values of p × q sampling points S having the same relative position to the representative point R are cumulatively added, so that cumulative correlation values for the number of sampling points are obtained. (For example, when all the pixels of a × b are set as the sampling point S, a × b cumulative correlation values are obtained).

このようにして、各検出領域Eに対して、各サンプリング点Sに対する累積相関値が求められると、各検出領域Eにおいて、代表点Rと相関性が最も高いと考えられる累積相関値が最小となるサンプリング点Sが検出される。そして、各検出領域Eでは、累積相関値が最小となるサンプリング点Sと代表点Rとの動き量が、それぞれの画素位置によって求められる。その後、各検出領域Eそれぞれに対して求められた動き量を平均することで、この平均値を、基準画像と非基準画像との間の画素単位による動き量として検出する。   In this way, when the cumulative correlation value for each sampling point S is obtained for each detection region E, the cumulative correlation value considered to have the highest correlation with the representative point R in each detection region E is the minimum. A sampling point S is detected. In each detection region E, the amount of motion between the sampling point S and the representative point R that minimizes the cumulative correlation value is obtained from each pixel position. Thereafter, by averaging the motion amounts obtained for each detection region E, this average value is detected as a motion amount in pixel units between the reference image and the non-reference image.

(2)1画素内の動き量検出
上述のように、画素単位による動き量を検出すると、更に、1画素内における動き量が検出される。このとき、例えば、まず、図8に示す小領域e毎に、基準画像の代表点Rとなる画素の画素値と、上述の代表点マッチング法によって得られた動き量によって代表点Rと相関性の高いサンプリング点Sxとなる画素及び周辺画素それぞれの画素値との関係によって、1画素内における動き量を検出する。
(2) Motion amount detection within one pixel As described above, when a motion amount in pixel units is detected, a motion amount within one pixel is further detected. At this time, for example, for each small region e shown in FIG. 8, first, the correlation between the representative point R and the representative point R based on the pixel value of the pixel that becomes the representative point R of the reference image and the amount of motion obtained by the representative point matching method described above. The amount of motion in one pixel is detected based on the relationship between the pixel value of the high sampling point Sx and the pixel values of the surrounding pixels.

即ち、各小領域eにおいて、基準画像で画素位置(ar,br)となる代表点Rの画素値La(図10(a)参照)と、非基準画像において画素位置(as,bs)となるサンプル点Sxの画素値Lbと、サンプル点Sxと水平方向に隣接する画素位置(as+1,bs)の画素値Lc(図10(b)参照)と、サンプル点Sxと垂直方向に隣接する画素位置(as,bs+1)の画素値Ld(図10(b)参照)との関係によって、1画素内における動き量が検出される。このとき、代表点マッチング法により、基準画素から非基準画像への画素単位の動き量が、(as−ar,bs−br)となるベクトル量で表される値となる。   That is, in each small region e, the pixel value La (see FIG. 10A) of the representative point R that becomes the pixel position (ar, br) in the reference image and the pixel position (as, bs) in the non-reference image. The pixel value Lb of the sample point Sx, the pixel value Lc (see FIG. 10B) of the pixel position (as + 1, bs) adjacent to the sample point Sx in the horizontal direction, and the pixel position adjacent to the sample point Sx in the vertical direction The amount of motion within one pixel is detected based on the relationship with the pixel value Ld (see FIG. 10B) of (as, bs + 1). At this time, according to the representative point matching method, the amount of movement of the pixel unit from the reference pixel to the non-reference image becomes a value represented by a vector amount of (as-ar, bs-br).

又、図11(a)のように、サンプル点Sxとなる画素から水平方向に1画素ずれることで、画素値Lbから画素値Lcに線形的に変化するものとし、図11(b)のように、サンプル点Sxとなる画素から垂直方向に1画素ずれることで、画素値Lbから画素値Ldに線形的に変化するものとする。そして、図10(a)及び図10(b)のような関係より、画素値Lb,Lcの間で画素値Laとなる水平方向の位置Δx(=(La−Lb)/(Lc−Lb))を求めるとともに、画素値Lb,Ldの間で画素値Laとなる垂直方向の位置Δy(=(La−Lb)/(Ld−Lb))を求める。即ち、(Δx,Δy)で表されるベクトル量が、基準画素と非基準画素との間における、1画素内での動き量として求められる。   Further, as shown in FIG. 11A, the pixel value Lb is changed linearly from the pixel value Lb by shifting one pixel in the horizontal direction from the pixel that becomes the sample point Sx, as shown in FIG. Furthermore, it is assumed that the pixel value Lb changes linearly from the pixel value Ld by shifting one pixel in the vertical direction from the pixel that is the sample point Sx. 10A and 10B, the horizontal position Δx (= (La−Lb) / (Lc−Lb) where the pixel value La is between the pixel values Lb and Lc. ) And a vertical position Δy (= (La−Lb) / (Ld−Lb)) that is the pixel value La between the pixel values Lb and Ld. That is, the vector amount represented by (Δx, Δy) is obtained as the amount of motion within one pixel between the reference pixel and the non-reference pixel.

このようにして、小領域eそれぞれにおける1画素内での動き量を求めると、求めた動き量を平均することで、この平均値を、基準画像と非基準画像との間の画素単位による動き量として検出する。そして、代表点マッチング法によって得られた画素単位による動き量に、求めた1画素内での動き量を加えることによって、基準画像と非基準画像との間における動き量を算出することができる。   In this way, when the motion amount within one pixel in each of the small regions e is obtained, the obtained motion amount is averaged, and this average value is obtained as a motion in pixel units between the reference image and the non-reference image. Detect as quantity. The motion amount between the reference image and the non-reference image can be calculated by adding the motion amount in one pixel obtained to the motion amount in units of pixels obtained by the representative point matching method.

そして、この動き量検出により、連続する2フレームの低解像度画像間における動き量が検出されると、注目フレームとなる低解像度画像までの複数フレームの低解像度画像間の動き量の総和を算出することで、注目フレームとなる低解像度画像との動き量が検出される。上記の方法による動き量検出によって取得された動き量によって、超解像処理に最適となる低解像度画像の選択を行うことができるとともに、選択した低解像度画像に対して、注目フレームとなる低解像度画像を基準とした位置ズレ補正を行うことができる。尚、動き量検出については、上記の方法を例に挙げて説明したが、画素内における動き量まで検出できるものであれば、他の方法を用いることによって、注目フレームとなる低解像度画像(基準画像)と他の低解像度画像(非基準画像)との動き量を検出するようにしても構わない。   When the amount of motion between two consecutive low-resolution images is detected by this amount-of-motion detection, the sum of the amounts of motion between the low-resolution images of a plurality of frames up to the low-resolution image serving as the frame of interest is calculated. Thus, the amount of motion with the low-resolution image that is the frame of interest is detected. The low-resolution image that is optimal for super-resolution processing can be selected based on the amount of motion acquired by detecting the amount of motion using the above method, and the low-resolution image that is the frame of interest for the selected low-resolution image It is possible to perform positional deviation correction based on the image. Note that the motion amount detection has been described by taking the above method as an example, but as long as the motion amount within a pixel can be detected, another method is used to detect a low-resolution image (reference frame) that becomes a frame of interest. The amount of motion between the image) and another low-resolution image (non-reference image) may be detected.

(画像処理部の構成例)
上述のようにして、超解像処理や、低解像度画像の選択処理や、動き量検出及び位置ズレ補正処理を行う画像処理部4の構成例を、図12に示す。以下に、この図12のブロック図に示す画像処理部4の構成について、簡単に説明する。
(Configuration example of image processing unit)
FIG. 12 shows a configuration example of the image processing unit 4 that performs super-resolution processing, low-resolution image selection processing, motion amount detection, and positional deviation correction processing as described above. The configuration of the image processing unit 4 shown in the block diagram of FIG. 12 will be briefly described below.

図12に示す画像処理部4は、AFE2でデジタル信号とされた複数フレーム分の低解像度実画像となる画像信号を一時的に記憶するフレームメモリ41と、AFE2より入力される現フレームの低解像度実画像による画像信号とフレームメモリ41に記憶された現フレームより1フレーム前の低解像度実画像による画像信号とが与えられて動き量を算出する動き量算出部42と、動き量算出部42で検出された動き量に基づいてAFE2からの現フレームの低解像度実画像に対する超解像処理を行うのに最適な低解像度実画像の選択を行う画像評価部43と、画像評価部43によって選択が指示された低解像度実画像がフレームメモリ41から与えられて現フレームの低解像度実画像との位置ズレが補正される位置ズレ補正部44と、AFE2からの現フレームの低解像度実画像と位置ズレ補正部44で位置ズレが補正された画像評価部43により選択された低解像度実画像とが与えられて超解像処理を行う超解像演算部45と、超解像演算部45で超解像処理が施された高解像度画像による画像信号又はAFE2から直接与えられた画像信号より輝度信号及び色差信号を生成する信号処理部46と、を備える。   The image processing unit 4 shown in FIG. 12 includes a frame memory 41 that temporarily stores an image signal that is a low-resolution real image for a plurality of frames converted into digital signals by the AFE 2, and a low resolution of the current frame that is input from the AFE 2. A motion amount calculation unit 42 that calculates an amount of motion given an image signal based on an actual image and an image signal based on a low-resolution actual image one frame before the current frame stored in the frame memory 41, and a motion amount calculation unit 42 Based on the detected amount of motion, an image evaluation unit 43 that selects an optimal low-resolution real image for performing super-resolution processing on the low-resolution real image of the current frame from the AFE 2, and the image evaluation unit 43 selects the image. A position shift correction unit 44 that receives the instructed low resolution actual image from the frame memory 41 and corrects the position shift of the current frame with the low resolution actual image; and AF The super-resolution calculation is performed by providing the low-resolution real image of the current frame from 2 and the low-resolution real image selected by the image evaluation unit 43 whose positional deviation has been corrected by the positional deviation correcting unit 44. Unit 45, and a signal processing unit 46 that generates a luminance signal and a color difference signal from an image signal based on a high-resolution image that has been subjected to super-resolution processing by the super-resolution calculation unit 45 or an image signal that is directly given from the AFE 2. Prepare.

このように構成される画像処理部4の動作について説明する。操作部15による高解像度化が要求されていない場合は、AFE2でデジタル信号に変換された画像信号が1フレーム毎に信号処理部46に与えられる。そして、信号処理部46において、与えられた画像信号から輝度信号及び色差信号を生成し、1フレーム毎、取得された輝度信号及び色差信号を、圧縮処理部6に与えることによって、圧縮処理部6で圧縮符号化される。   The operation of the image processing unit 4 configured as described above will be described. When high resolution by the operation unit 15 is not required, the image signal converted into a digital signal by the AFE 2 is given to the signal processing unit 46 for each frame. Then, the signal processing unit 46 generates a luminance signal and a color difference signal from the given image signal, and gives the acquired luminance signal and color difference signal to the compression processing unit 6 for each frame, whereby the compression processing unit 6 Is compressed and encoded.

又、操作部15によって高解像度化が要求されると、AFE2でデジタル信号に変換された画像信号が1フレーム毎に、フレームメモリ41、動き量算出部42、及び、超解像演算部45に与えられる。そして、画像評価部43では、指定された解像度と、選択する低解像度実画像のフレーム数とによって、上述したように、選択するための基準を設定する。即ち、超解像処理に適した低解像度実画像を選択するための基準位置を、低解像度実画像の画素位置の中間点となる位置及び高解像度実画像の補間画素位置から決定する。   When a higher resolution is requested by the operation unit 15, the image signal converted into a digital signal by the AFE 2 is sent to the frame memory 41, the motion amount calculation unit 42, and the super-resolution calculation unit 45 for each frame. Given. Then, the image evaluation unit 43 sets a selection criterion as described above according to the designated resolution and the number of frames of the low-resolution real image to be selected. That is, a reference position for selecting a low-resolution real image suitable for super-resolution processing is determined from a position that is an intermediate point between pixel positions of the low-resolution real image and an interpolation pixel position of the high-resolution real image.

このようにして、各ブロックの設定が行われると、AFE2から与えられる現フレームの低解像度実画像が超解像演算部45に与えられ、超解像処理を行うための注目フレームとされる。又、動き量算出部42では、現フレームの低解像度実画像と現フレームの1フレーム前の低解像度実画像との間における動き量が、上述の動き量検出処理によって求められる。そして、この連続した2フレームの低解像度実画像間の動き量は、画像評価部43に与えられて記憶される。   When each block is set in this way, the low-resolution real image of the current frame given from the AFE 2 is given to the super-resolution computing unit 45, and is used as a frame of interest for performing super-resolution processing. Also, the motion amount calculation unit 42 obtains the motion amount between the low-resolution actual image of the current frame and the low-resolution actual image one frame before the current frame by the above-described motion amount detection process. Then, the amount of motion between the two consecutive low-resolution real images is given to the image evaluation unit 43 and stored therein.

画像評価部43では、上述したように、連続した2フレーム毎に求められた低解像度実画像間の動き量を加算することで、フレームメモリ41内に一時的に記憶された複数フレームの低解像度実画像それぞれにおける、AFE2より与えられた現フレームの低解像度実画像との間における動き量を求める。そして、フレームメモリ41内に一時的に記憶された複数フレームの低解像度実画像全てに対して求められた、現フレームの低解像度実画像との間における動き量に基づいて、超解像処理に適した低解像度実画像を選択する。即ち、超解像演算部45でNフレームの低解像度実画像が使用される場合、画像評価部43では、上述した低解像度実画像の選択処理を行うことで、注目フレームとなる現フレームの低解像度実画像との間における動き量によって、フレームメモリ41に記憶された低解像度実画像より、N−1フレームの低解像度実画像を選択する。   As described above, the image evaluation unit 43 adds the amount of motion between the low-resolution real images obtained every two consecutive frames, so that the low-resolution of a plurality of frames temporarily stored in the frame memory 41 is obtained. The amount of motion between each real image and the low-resolution real image of the current frame given by the AFE 2 is obtained. Then, the super-resolution processing is performed on the basis of the amount of motion between the low-resolution real image of the current frame, which is obtained for all the low-resolution real images of a plurality of frames temporarily stored in the frame memory 41. Select a suitable low-resolution real image. That is, when an N-frame low-resolution real image is used in the super-resolution calculation unit 45, the image evaluation unit 43 performs the above-described low-resolution real-image selection process to reduce the current frame that is the target frame. A low resolution actual image of N−1 frames is selected from the low resolution actual images stored in the frame memory 41 according to the amount of motion between the resolution actual images.

このようにして、画像評価部43での低解像度実画像の選択が成されると、位置ズレ補正部44に与えるフレームをフレームメモリ41に通知するとともに、選択したフレームに対して算出した動き量を位置ズレ補正部44に通知する。よって、フレームメモリ41では、画像評価部43より超解像処理のために選択されたことが通知されたフレームの低解像度実画像となる画像信号を、位置ズレ補正部44に送出する。   In this way, when the low-resolution real image is selected by the image evaluation unit 43, the frame given to the positional deviation correction unit 44 is notified to the frame memory 41, and the amount of motion calculated for the selected frame Is notified to the positional deviation correction unit 44. Therefore, the frame memory 41 sends an image signal, which is a low-resolution real image of the frame notified from the image evaluation unit 43 to be selected for the super-resolution processing, to the positional deviation correction unit 44.

そして、フレームメモリ41では、画像評価部43によって選択されなかったフレームの低解像度実画像となる画像信号を削除する。尚、選択されなかったフレームの画像信号をフレームメモリ41より削除するとき、AFE2より入力された現フレーム(注目フレームに相当)となる画像信号については、削除の対象から除かれるため、フレームメモリ41に記憶され、次のフレームにおいて選択の対象となる。このように、選択されなかったフレームの画像信号が削除されるため、次のフレームの画像信号がAFE2より入力されると、画像評価部43では、削除されずにフレームメモリ41に記憶されたままのフレームの画像信号の中から、超解像処理に最適となるフレームの画像信号が選択される。   Then, the frame memory 41 deletes an image signal that becomes a low-resolution real image of a frame that is not selected by the image evaluation unit 43. When an image signal of a frame that has not been selected is deleted from the frame memory 41, the image signal that is the current frame (corresponding to the frame of interest) input from the AFE 2 is excluded from the deletion target. And becomes a selection target in the next frame. As described above, since the image signal of the frame not selected is deleted, when the image signal of the next frame is input from the AFE 2, the image evaluation unit 43 remains stored in the frame memory 41 without being deleted. The image signal of the frame that is optimal for the super-resolution processing is selected from the image signals of the current frame.

又、超解像処理に使用するために選択されたフレームの低解像度実画像となる画像信号がフレーム毎に位置ズレ補正部44に与えられると、与えられたフレームに対する現フレーム(注目フレームに相当)からの動き量も、画像評価部43より位置ズレ補正部44に与えられる。そして、位置ズレ補正部44では、画像評価部43からの動き量に基づいて、上述の位置ズレ補正動作を行い、その画素位置が、基準となる現フレームの低解像度実画像の画素位置に基づく位置に変更される。そして、位置ズレ補正部44で位置ズレ補正が成された低解像度実画像の画像信号は、超解像演算部45に与えられる。   In addition, when an image signal that becomes a low-resolution real image of a frame selected for use in super-resolution processing is given to the positional deviation correction unit 44 for each frame, the current frame (corresponding to the frame of interest) with respect to the given frame. ) From the image evaluation unit 43 is also provided to the positional deviation correction unit 44. Then, the position shift correction unit 44 performs the above-described position shift correction operation based on the amount of motion from the image evaluation unit 43, and the pixel position is based on the pixel position of the low-resolution real image of the current frame as a reference. Changed to position. Then, the image signal of the low-resolution real image that has been subjected to the position shift correction by the position shift correction unit 44 is supplied to the super-resolution calculation unit 45.

超解像演算部45では、画像評価部43で超解像処理用に選択された全てのフレームの低解像度実画像となる画像信号が、位置ズレ補正部44で位置ズレ補正が成されて与えられるとともに、AFE2より、注目フレームとなる現フレームの低解像度実画像となる画像信号が与えられる。そして、AFE2及び位置ズレ補正部44それぞれから与えられた画像信号に対して、上述した超解像処理を施すことによって、元の低解像度実画像から高解像化された高解像度画像が得られる。このようにして得られた高解像度画像による画像信号が信号処理部46に与えられる。そして、信号処理部46では、与えられた1フレームの高解像度画像となる画像信号から輝度信号及び色差信号を生成した後、圧縮処理部6に送出する。   In the super-resolution calculation unit 45, the image signal that becomes the low-resolution real images of all the frames selected for the super-resolution processing by the image evaluation unit 43 is subjected to the positional shift correction by the positional shift correction unit 44 and given. At the same time, the AFE 2 gives an image signal that is a low-resolution real image of the current frame that is the frame of interest. Then, by applying the above-described super-resolution processing to the image signals given from the AFE 2 and the positional deviation correction unit 44, a high-resolution image that has been made high-resolution from the original low-resolution real image is obtained. . An image signal based on the high-resolution image obtained in this way is supplied to the signal processing unit 46. Then, the signal processing unit 46 generates a luminance signal and a color difference signal from the given image signal that is a high-resolution image of one frame, and then sends it to the compression processing unit 6.

尚、本例において、フレームメモリ41では、超解像処理に選択されなかったフレームの低解像度実画像となる画像信号が削除されるものとしたが、AFE2から入力される画像信号のフレームが更新される度に、1フレームずつ、最も古くに記憶された低解像度実画像となる画像信号が削除されるものとしても構わない。   In this example, in the frame memory 41, the image signal that becomes the low-resolution real image of the frame not selected for the super-resolution processing is deleted, but the frame of the image signal input from the AFE 2 is updated. Each time, the image signal that becomes the oldest low-resolution real image stored for each frame may be deleted.

又、AFE2に入力されたばかりの現フレームの低解像度実画像を、超解像演算部45での超解像処理における注目フレームとしたが、フレームメモリ41に記憶された最も古いフレームの低解像度実画像を、超解像演算部45での超解像処理における注目フレームとするものとしても構わない。このとき、AFE2から入力される画像信号のフレームが更新される度に、フレームメモリ41では、超解像処理が終了したフレームの低解像度実画像となる画像信号が削除される。   The low resolution actual image of the current frame that has just been input to the AFE 2 is set as the frame of interest in the super resolution processing in the super resolution calculation unit 45. The image may be a frame of interest in the super-resolution processing in the super-resolution calculation unit 45. At this time, every time the frame of the image signal input from the AFE 2 is updated, the frame memory 41 deletes the image signal that becomes the low-resolution real image of the frame for which the super-resolution processing is completed.

(超解像演算部の第1例)
更に、このような画像処理部4における超解像演算部45の第1例について、MAP法による超解像演算を行うものを例に挙げて、以下に説明する。図13は、超解像演算部45の内部構成を示すブロック図である。又、図13の構成例では、超解像演算部45が、フレームメモリ41より2フレーム分の低解像度実画像が選択されることで、高解像度画像の生成を行うものとする。
(First example of super-resolution operation unit)
Further, a first example of the super-resolution calculation unit 45 in the image processing unit 4 will be described below by taking as an example a super-resolution calculation by the MAP method. FIG. 13 is a block diagram showing an internal configuration of the super-resolution calculation unit 45. In the configuration example of FIG. 13, it is assumed that the super-resolution calculation unit 45 generates a high-resolution image by selecting a low-resolution real image for two frames from the frame memory 41.

図13に示す超解像演算部45は、AFE2からの現フレームとなる低解像度実画像及び位置ズレ補正部44で位置ズレ補正が成された2フレーム分の低解像度実画像が与えられて初期高解像度画像となる高解像度画像を推定する初期高解像度推定部451と、初期高解像度推定部451で推定されて得られた高解像度画像とフレームメモリ455に一時記憶された高解像度画像のいずれか1つを選択して後段に与える選択部452と、選択部452で選択された高解像度画像と3フレーム分の低解像度実画像とによって高解像画像の更新量を求める高解像度更新量算出部453と、選択部452で選択された高解像度画像から高解像度更新量算出部453で得られた更新量を減算する減算部454と、減算部454で生成された高解像度画像を記憶するフレームメモリ455と、を備える。尚、選択部452では、1回目の選択動作において、初期高解像度推定部451で推定された初期高解像度画像を選択し、2回目以降の選択動作において、フレームメモリ455に一時記憶された高解像度画像を選択する。   The super-resolution calculation unit 45 shown in FIG. 13 is provided with a low-resolution real image that is the current frame from the AFE 2 and a low-resolution real image for two frames that have been subjected to position shift correction by the position shift correction unit 44. One of an initial high resolution estimation unit 451 that estimates a high resolution image to be a high resolution image, a high resolution image estimated by the initial high resolution estimation unit 451, and a high resolution image temporarily stored in the frame memory 455 A selection unit 452 that selects one to give to the subsequent stage, and a high-resolution update amount calculation unit that obtains an update amount of the high-resolution image from the high-resolution image selected by the selection unit 452 and the low-resolution real image for three frames 453, a subtraction unit 454 for subtracting the update amount obtained by the high resolution update amount calculation unit 453 from the high resolution image selected by the selection unit 452, and the high resolution image generated by the subtraction unit 454 It includes a frame memory 455 for storing, for a. The selection unit 452 selects the initial high resolution image estimated by the initial high resolution estimation unit 451 in the first selection operation, and the high resolution temporarily stored in the frame memory 455 in the second and subsequent selection operations. Select an image.

次に、このように構成される超解像演算部45の動作について、図3を参照して説明する。尚、低解像度実画像を含む低解像度画像の画素数をuとし、初期高解像度画像を含む高解像度画像の画素数をvとする。そして、u画素による低解像度実画像Faの各画素値がYa=[ya1,ya2,…,yau]となり、u画素による低解像度実画像Fbの各画素値がYb=[yb1,yb2,…,ybu]となり、u画素による低解像度実画像Fbの各画素値がYc=[yc1,yc2,…,ycu]となる。画像処理部4における超解像処理が行われるとき、AFE2より現フレームとなる低解像度実画像Faが初期高解像度推定部451に与えられる。このとき、画像評価部43によってフレームメモリ41より選択されるとともに位置ズレ補正部44で位置ズレ補正が成された2フレーム分の低解像度実画像Fb,Fcも、初期高解像度推定部451に与えられる。   Next, the operation of the super-resolution calculation unit 45 configured as described above will be described with reference to FIG. Note that u is the number of pixels of the low-resolution image including the low-resolution real image, and v is the number of pixels of the high-resolution image including the initial high-resolution image. Then, each pixel value of the low-resolution actual image Fa using u pixels is Ya = [ya1, ya2,..., Au], and each pixel value of the low-resolution actual image Fb using u pixels is Yb = [yb1, yb2,. ybu], and each pixel value of the low-resolution real image Fb with u pixels becomes Yc = [yc1, yc2,..., ycu]. When the super-resolution processing in the image processing unit 4 is performed, the low-resolution real image Fa that is the current frame is supplied from the AFE 2 to the initial high-resolution estimation unit 451. At this time, the low-resolution actual images Fb and Fc for two frames selected by the image evaluation unit 43 from the frame memory 41 and subjected to the position shift correction by the position shift correction unit 44 are also given to the initial high resolution estimation unit 451. It is done.

(1)初期高解像画像による処理
これにより、初期高解像度推定部451では、図3(a)に示すSTEP31のように、動き量算出部42で得られた動き量に基づいて、3フレームの低解像度実画像Fa〜Fc間の位置ズレを検出する。そして、低解像度実画像Fa〜Fcの各画素値Ya〜Ycに対して、動き量により確認された位置ズレを利用した補間処理を施すことで、v画素による初期高解像度画像Fx1を取得する。尚、高解像度画像Fx1〜Fxnそれぞれの各画素値を、X=[x1,x2,…,xv]となるものとする。この初期高解像度推定部451で初期高解像度画像Fx1を生成する際、高解像度画像生成用のフィルタの一部にメディアンフィルタなどによるノイズ低減処理を行うフィルタを用いることや、高解像度画像生成用のフィルタのタップ数を広げることで、S/N比(信号/ノイズ比)を高くすることが好ましい。
(1) Processing by Initial High-Resolution Image As a result, the initial high-resolution estimation unit 451 generates 3 frames based on the motion amount obtained by the motion amount calculation unit 42 as in STEP 31 shown in FIG. The positional deviation between the low-resolution real images Fa to Fc is detected. Then, an initial high-resolution image Fx1 with v pixels is obtained by performing an interpolation process using a positional shift confirmed by the amount of motion on the pixel values Ya to Yc of the low-resolution real images Fa to Fc. It is assumed that the pixel values of the high resolution images Fx1 to Fxn are X = [x1, x2,..., Xv]. When the initial high-resolution image Fx1 is generated by the initial high-resolution estimation unit 451, a filter that performs noise reduction processing using a median filter or the like is used as a part of the high-resolution image generation filter, It is preferable to increase the S / N ratio (signal / noise ratio) by increasing the number of taps of the filter.

このようにして初期高解像度推定部451から初期高解像度画像Fx1が出力されると、選択部452によって、この初期高解像度画像Fx1が選択されて、高解像度更新量算出部453に与えられる。この高解像度更新量算出部453では、動き量算出部42で得られた動き量が与えられることで、動き量に基づいて、高解像実画像Fxに対する低解像度実画像Fa〜Fcそれぞれの位置ズレや低解像化によるぼけが算出される。この動き量より得られる位置ズレやぼけと、v画素の高解像度画像Fxnからu画素の低解像度実画像Fa〜Fcに相当する低解像度推定画像Fan〜Fcnへのダウンサンプリング量とを含むカメラパラメータ行列Wa〜Wcが求められる。   When the initial high resolution image Fx1 is output from the initial high resolution estimation unit 451 in this way, the initial high resolution image Fx1 is selected by the selection unit 452 and provided to the high resolution update amount calculation unit 453. In the high-resolution update amount calculation unit 453, the position of each of the low-resolution real images Fa to Fc with respect to the high-resolution real image Fx is given based on the amount of motion by being given the motion amount obtained by the motion amount calculation unit 42. Displacement and blur due to low resolution are calculated. Camera parameters including positional deviation and blur obtained from the amount of motion, and down-sampling amounts from v-pixel high-resolution image Fxn to low-resolution estimated images Fan-Fcn corresponding to u-pixel low-resolution actual images Fa-Fc Matrixes Wa to Wc are obtained.

そして、選択部452を通じて与えられた初期高解像度画像Fx1に対して、カメラパラメータ行列Wa〜Wcが乗算されることで、図3(b)に示すSTEP32のように、低解像度実画像Fa,Fb,Fcに擬似的に類似させた低解像度推定画像Fa1(=Wa・X),Fb1(=Wb・X),Fc1(=Wc・X)が推定される。又、この高解像度更新量算出部453は、AFE2及び位置ズレ補正部44からの3フレーム分の低解像度実画像Fa〜Fcが与えられることで、推定した低解像度推定画像Fa1〜Fc1と低解像度実画像Fa〜Fcとの二乗誤差による差分|Wa・X−Ya|2〜|Wc・X−Yc|2が求められる。 Then, the initial high resolution image Fx1 given through the selection unit 452 is multiplied by the camera parameter matrix Wa to Wc, so that the low resolution real images Fa and Fb are obtained as in STEP32 shown in FIG. 3B. , Fc1 (= Wa · X), Fb1 (= Wb · X), and Fc1 (= Wc · X) are estimated. Further, the high-resolution update amount calculation unit 453 is provided with the low-resolution actual images Fa to Fc for three frames from the AFE 2 and the positional deviation correction unit 44, so that the estimated low-resolution estimated images Fa1 to Fc1 and the low resolution Differences | Wa · X−Ya | 2 to | Wc · X−Yc | 2 due to square errors with the actual images Fa to Fc are obtained.

この低解像度推定画像Fa1〜Fc1と低解像度実画像Fa〜Fcとの差分による評価関数Iが、それぞれの差分の加算値に、選択部452で選択された高解像度画像によって得られる拘束項が付加された形で求められる。即ち、求められる評価関数Iは、|Wc・X−Yc|2+|Wb・X−Yb|2+|Wc・X−Yc|2+γ|CX|2となる。尚、この評価関数Iの拘束項γ|CX|2において、行列Cが、事前確率モデルに基づく行列であり、「高解像度画像には高域成分が少ない」という事前知識に基づき、例えば、ラプラシアンフィルタなどのハイパスフィルタによって構成される。又、係数γは、拘束項の評価関数Iにおける重みの強さを表すパラメータである。 The evaluation function I based on the difference between the low-resolution estimated images Fa1 to Fc1 and the low-resolution actual images Fa to Fc is added with a constraint term obtained by the high-resolution image selected by the selection unit 452 to the added value of each difference. It is required in the form. That is, the obtained evaluation function I is | Wc · X−Yc | 2 + | Wb · X−Yb | 2 + | Wc · X−Yc | 2 + γ | CX | 2 . In the constraint term γ | CX | 2 of the evaluation function I, the matrix C is a matrix based on the prior probability model, and based on the prior knowledge that “the high-resolution image has few high-frequency components”, for example, Laplacian It is composed of a high-pass filter such as a filter. The coefficient γ is a parameter representing the strength of the weight in the evaluation function I of the constraint term.

このようにして求められた評価関数Iに対して勾配法によって最小化を行うため、評価関数Iに対する勾配∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+WcT・(Wc・X−Yc)+γCT・C・X})が求められる。この更新量となる勾配∂I/∂Xを求めることで、高解像度更新量算出部453において、図3(c)によって示すSTEP33における差分画像ΔFx1が求められることとなる。尚、添え字である「T」は、転置行列を表す。   Since the evaluation function I thus obtained is minimized by the gradient method, the gradient ∂I / ∂X (= 2 × {WaT · (Wa · X−Ya) + WbT · (Wb (X−Yb) + WcT · (Wc · X−Yc) + γCT · C · X}). By obtaining the gradient ∂I / ∂X that is the update amount, the high-resolution update amount calculation unit 453 obtains the difference image ΔFx1 in STEP 33 shown in FIG. The subscript “T” represents a transposed matrix.

このようにして算出した勾配∂I/∂Xによる更新量が、高解像度更新量算出部453より減算部454に与えられると、減算部454では、図3(d)におけるSTEP34のように、選択部452を介して初期高解像度推定部451より与えられる初期高解像度画像Fx1より、勾配∂I/∂Xによる更新量を減算する。この減算部454の減算結果により、v画素の画素値それぞれが(X−∂I/∂X)となる高解像度画像Fx2が得られる。そして、この新たに得られた高解像度画像Fx2が減算部454より出力されて、フレームメモリ455に与えられて、一時的に記憶される。   When the update amount based on the gradient ∂I / ∂X calculated in this way is given from the high-resolution update amount calculation unit 453 to the subtraction unit 454, the subtraction unit 454 selects as shown in STEP 34 in FIG. The update amount by the gradient ∂I / ∂X is subtracted from the initial high resolution image Fx1 given from the initial high resolution estimation unit 451 via the unit 452. As a result of the subtraction by the subtraction unit 454, a high-resolution image Fx2 in which the pixel values of the v pixels are (X−∂I / ∂X) is obtained. Then, the newly obtained high-resolution image Fx2 is output from the subtracting unit 454, given to the frame memory 455, and temporarily stored.

(2)生成後の高解像画像による処理
上述のように、初期高解像度画像Fx1を取得して、高解像度画像の更新量を勾配∂I/∂Xし、新たな高解像度画像Fx2を取得すると、選択部452は、フレームメモリ455に格納された高解像度画像を選択して高解像度更新量算出部453に与える。即ち、n(n≧2の整数)回目の演算処理の場合、フレームメモリ455に格納された高解像度画像Fxnが選択部452によって読み出されて、高解像度更新量算出部453に与えられる。
(2) Processing by high-resolution image after generation As described above, the initial high-resolution image Fx1 is acquired, the update amount of the high-resolution image is gradient ∂I / ∂X, and a new high-resolution image Fx2 is acquired. Then, the selection unit 452 selects the high-resolution image stored in the frame memory 455 and gives it to the high-resolution update amount calculation unit 453. That is, in the case of n (n ≧ 2) arithmetic processing, the high-resolution image Fxn stored in the frame memory 455 is read by the selection unit 452 and provided to the high-resolution update amount calculation unit 453.

よって、高解像度更新量算出部453では、フレームメモリ455に格納された高解像度画像Fxnによって、低解像度推定画像Fan(=Wa・X)〜Fcn(=Wc・X)を推定する。このようにして求められた低解像度推定画像Fan〜Fcnと、入力される低解像実画像Fa〜Fc及び高解像度画像Fxnとによって、更新量となる∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+WcT・(Wc・X−Yc)+γCT・C・X})による差分画像ΔFxnが、高解像度更新量算出部453で求められる。そして、減算部454において、高解像度更新量算出部453で求められた差分画像ΔFxnが、選択部452を介してフレームメモリ455から与えられる高解像度画像Fxnより減算されて、即ち、X−∂I/∂Xの演算が行われることで、新たに高解像度画像Fx(n+1)が得られる。   Therefore, the high resolution update amount calculation unit 453 estimates the low resolution estimated images Fan (= Wa · X) to Fcn (= Wc · X) from the high resolution image Fxn stored in the frame memory 455. Based on the low-resolution estimated images Fan to Fcn thus obtained, the input low-resolution real images Fa to Fc, and the high-resolution image Fxn, 更新 I / ∂X (= 2 × {WaT The difference image ΔFxn by (Wa · X−Ya) + WbT · (Wb · X−Yb) + WcT · (Wc · X−Yc) + γCT · C · X}) is obtained by the high resolution update amount calculation unit 453. Then, in the subtraction unit 454, the difference image ΔFxn obtained by the high resolution update amount calculation unit 453 is subtracted from the high resolution image Fxn given from the frame memory 455 via the selection unit 452, that is, X−∂I When the calculation of / X is performed, a new high-resolution image Fx (n + 1) is obtained.

そして、超解像演算部45において、高解像度更新量算出部453による演算処理回数をn回に設定している場合は、減算部454で新たに得られた高解像度画像Fx(n+1)を、減算部454から信号処理部46に出力する。又、超解像演算部45内において、高解像度更新量算出部453による演算処理回数をn+1回以上に設定している場合は、高解像度画像Fx(n+1)をフレームメモリ455に与えて一時記憶して、n+1回目の演算処理を行う。   In the super-resolution calculation unit 45, when the number of calculation processes by the high-resolution update amount calculation unit 453 is set to n, the high-resolution image Fx (n + 1) newly obtained by the subtraction unit 454 is The signal is output from the subtraction unit 454 to the signal processing unit 46. Further, in the super-resolution calculation unit 45, when the number of calculation processes by the high-resolution update amount calculation unit 453 is set to n + 1 or more, the high-resolution image Fx (n + 1) is given to the frame memory 455 and temporarily stored. Then, the (n + 1) th arithmetic processing is performed.

この超解像演算部45内における高解像度更新量算出部453及び減算部454による演算処理の繰り返し回数については、動画撮影や静止画の連続撮影などのように、1フレームの撮影間隔が短い場合は、その回数が少なくなるように設定される。又、連続撮影以外の通常の静止画撮影の場合は、その回数が、動画撮影や静止画の連続撮影の場合よりも多くなるように設定されるものとしても構わない。   Regarding the number of repetitions of arithmetic processing by the high-resolution update amount calculation unit 453 and the subtraction unit 454 in the super-resolution calculation unit 45, when the shooting interval of one frame is short, such as moving image shooting or continuous shooting of still images Is set so that the number of times decreases. In addition, in the case of normal still image shooting other than continuous shooting, the number of times may be set to be larger than in the case of moving image shooting or still image continuous shooting.

(超解像演算部の第2例)
上述の画像処理部4における超解像演算部45の第2例について、MAP法による超解像演算を行うものを例に挙げて、以下に説明する。図14は、超解像演算部45の内部構成を示すブロック図である。
(Second example of super-resolution operation unit)
A second example of the super-resolution operation unit 45 in the image processing unit 4 described above will be described below by taking as an example a super-resolution operation by the MAP method. FIG. 14 is a block diagram showing an internal configuration of the super-resolution calculation unit 45. As shown in FIG.

図14に示す超解像演算部45は、図13に示す超解像演算部45の構成における選択部452、高解像度更新量算出部453、減算部454、及びフレームメモリ455の代わりに、上述の第1例における超解像演算部45内での高解像度画像の更新処理を2回反復する高解像度画像更新部456を備える。この高解像度画像更新部456には、AFE2からの現フレームとなる低解像度実画像Faと、位置ズレ補正部44で位置ズレ補正が成された低解像度実画像Fb,Fcとが与えられるとともに、初期高解像度推定部451で推定された高解像度画像Fx1が与えられる。そして、上述の第1例と同様、u画素による低解像度実画像Fa〜Fcの画素値を、Ya〜Ycとするとともに、v画素による高解像度画像Fx1の画素値を、Xとする。   14 is replaced with the selection unit 452, the high-resolution update amount calculation unit 453, the subtraction unit 454, and the frame memory 455 in the configuration of the super-resolution calculation unit 45 illustrated in FIG. The high-resolution image update part 456 which repeats the update process of the high-resolution image in the super-resolution calculating part 45 in the 1st example of 2 times is provided. The high-resolution image update unit 456 is provided with the low-resolution actual image Fa that is the current frame from the AFE 2 and the low-resolution actual images Fb and Fc that have been subjected to the positional shift correction by the positional shift correction unit 44. A high resolution image Fx1 estimated by the initial high resolution estimation unit 451 is given. As in the first example described above, the pixel values of the low-resolution real images Fa to Fc with u pixels are set to Ya to Yc, and the pixel value of the high-resolution image Fx1 with v pixels is set to X.

本例における超解像演算部45は、第1例の場合と同様、初期高解像度推定部453において、AFE2からの低解像度実画像Faと、位置ズレ補正部44で位置ズレ補正が成された低解像度実画像Fb,Fcとによって、初期高解像度画像Fx1が生成される。そして、超高解像度画像更新部456に対して、初期高解像度画像Fx1の画素値Xと、低解像度実画像Fa〜Fcそれぞれの画素値Ya〜Ycとが与えられる。   As in the case of the first example, the super-resolution calculation unit 45 in this example is the initial high-resolution estimation unit 453 in which the low-resolution real image Fa from the AFE 2 and the positional deviation correction unit 44 have been subjected to positional deviation correction. The initial high resolution image Fx1 is generated by the low resolution real images Fb and Fc. Then, the pixel value X of the initial high resolution image Fx1 and the pixel values Ya to Yc of the low resolution actual images Fa to Fc are given to the ultra high resolution image updating unit 456.

超高解像度画像更新部456では、まず、上述した勾配∂I/∂X(=2×{WaT・(Wa・X−Ya)+WbT・(Wb・X−Yb)+WcT・(Wc・X−Yc)+γCT・C・X})が求められる。次に、この勾配∂I/∂Xに基づいて、新たな高解像度画像Fx2の画素値X1(=X−∂I/∂X)が求められる。その後、この画素値X1に対する勾配∂I/∂X1(=2×{WaT・(Wa・X1−Ya)+WbT・(Wb・X1−Yb)+WcT・(Wc・X1−Yc)+γCT・C・X1})が求められ、この勾配∂I/∂X1を画素値X1より減算することで、2回の更新動作による高解像度画像Fx3の画素値X2(=X1−∂I/∂X1)が得られる。   First, the super high-resolution image update unit 456 has the gradient ∂I / ∂X (= 2 × {WaT · (Wa · X−Ya) + WbT · (Wb · X−Yb) + WcT · (Wc · X−Yc). ) + ΓCT · C · X}). Next, based on the gradient (I / ∂X, a pixel value X1 (= X−∂I / ∂X) of a new high-resolution image Fx2 is obtained. Thereafter, the gradient ∂I / ∂X1 (= 2 × {WaT · (Wa · X1−Ya) + WbT · (Wb · X1−Yb) + WcT · (Wc · X1−Yc) + γCT · C · X1) with respect to the pixel value X1 }) Is subtracted from the pixel value X1 to obtain the pixel value X2 (= X1-∂I / ∂X1) of the high-resolution image Fx3 by two update operations. .

この超高解像度画像更新部456は、FIR(Finite Impulse Response)フィルタによって構成することができる。超高解像度画像更新部456をFIRフィルタによって構成するときのフィルタ係数の算出方法について、図面を参照して、以下に説明する。尚、説明を簡単にするために、超解像演算部45において、低解像度実画像の2倍となる解像度の高解像度画像が生成されるものとする。又、フレームメモリ41より選択される2フレーム分の低解像度実画像Fb,Fcがそれぞれ、現フレームとなる低解像度実画像Faに対して、水平方向又は垂直方向のいずれか一方向において高解像度画像における画素単位での動き量が発生しているものとする。   The ultra-high resolution image update unit 456 can be configured by a FIR (Finite Impulse Response) filter. A filter coefficient calculation method when the ultra-high resolution image update unit 456 is configured by an FIR filter will be described below with reference to the drawings. In order to simplify the description, it is assumed that the super-resolution calculation unit 45 generates a high-resolution image having a resolution that is twice that of the low-resolution real image. Further, the low-resolution real images Fb and Fc for two frames selected from the frame memory 41 are respectively high-resolution images in either the horizontal direction or the vertical direction with respect to the low-resolution real image Fa serving as the current frame. It is assumed that the amount of motion in pixel units in is generated.

更に、高解像度画像より低解像度推定画像を生成するためのPSF(Point Spread Function)関数(点広がり関数)が、図15(a)のような3×3のぼけフィルタによって与えられるとともに、拘束γ|CX|2が「0」であるものとする。そして、高解像度画像における注目画素を、図15(b)に示すように、xpq(p、qは自然数)としたとき、図15(a)に示す3×3の行列によるPSFボケ関数における係数k11〜k33がそれぞれ、高解像度画像の3×3の画素x(p-1)(q-1)〜x(p+1)(q+1)に乗算される。 Further, a PSF (Point Spread Function) function (point spread function) for generating a low-resolution estimated image from a high-resolution image is given by a 3 × 3 blur filter as shown in FIG. It is assumed that | CX | 2 is “0”. When the pixel of interest in the high-resolution image is xpq (p and q are natural numbers) as shown in FIG. 15B, the coefficient in the PSF blur function by the 3 × 3 matrix shown in FIG. k11 to k33 are respectively multiplied by 3 × 3 pixels x (p−1) (q−1) to x (p + 1) (q + 1) of the high resolution image.

図16(a)に示すように、低解像度実画像Fbが、低解像度実画像Faに対して、高解像度画像の1画素分だけ水平方向への動き量を備え、又、図16(b)に示すように、低解像度実画像Fcが、低解像度実画像Faに対して、高解像度画像の1画素分だけ垂直方向への動き量を備える。即ち、図17(a)に示すように、低解像度実画像Faの画素ya11と初期高解像度画像Fx1の画素x11とが、その中心位置で重なっているとき、図17(b)に示すように、低解像度実画像Fbの画素yb11と初期高解像度画像Fx1の画素x21とが、その中心位置で重なり、又、図17(c)に示すように、低解像度実画像Fcの画素yc11と初期高解像度画像Fx1の画素x12とが、その中心位置で重なる。   As shown in FIG. 16A, the low-resolution real image Fb has a horizontal movement amount corresponding to one pixel of the high-resolution image with respect to the low-resolution real image Fa, and FIG. As shown in FIG. 5, the low-resolution real image Fc has a motion amount in the vertical direction by one pixel of the high-resolution image with respect to the low-resolution real image Fa. That is, as shown in FIG. 17A, when the pixel ya11 of the low-resolution real image Fa and the pixel x11 of the initial high-resolution image Fx1 overlap at the center position, as shown in FIG. The pixel yb11 of the low-resolution real image Fb and the pixel x21 of the initial high-resolution image Fx1 overlap at the center position, and as shown in FIG. 17C, the pixel yc11 of the low-resolution real image Fc and the initial height The pixel x12 of the resolution image Fx1 overlaps at the center position.

そして、図17(a)に示すように、低解像度実画像Faの画素yapq(p、qは自然数)の中心位置が、初期高解像度画像Fx1の画素x(2p-1)(2q-1)の中心位置に重なる。又、図17(b)に示すように、低解像度実画像Fbの画素ybpq(p、qは自然数)の中心位置が、初期高解像度画像Fx1の画素x2p(2q-1)の中心位置に重なる。又、図17(c)に示すように、低解像度実画像Fcの画素ycpq(p、qは自然数)の中心位置が、初期高解像度画像Fx1の画素x(2p-1)2qの中心位置に重なる。   Then, as shown in FIG. 17A, the center position of the pixel yapq (p and q are natural numbers) of the low resolution real image Fa is the pixel x (2p-1) (2q-1) of the initial high resolution image Fx1. It overlaps with the center position. Further, as shown in FIG. 17B, the center position of the pixel ybpq (p and q are natural numbers) of the low-resolution real image Fb overlaps the center position of the pixel x2p (2q-1) of the initial high-resolution image Fx1. . Further, as shown in FIG. 17C, the center position of the pixel ycpq (p and q are natural numbers) of the low-resolution real image Fc is the center position of the pixel x (2p-1) 2q of the initial high-resolution image Fx1. Overlap.

(1)低解像度推定画像の画素値
低解像度実画像Fa〜Fcの各画素と初期高解像度画像Fx1の各画素の位置関係が図17に示される関係となるとき、初期高解像度実画像Fx1より推定される低解像度推定画像Fa1〜Fc1それぞれの各画素値Apq〜Cpq(Wa・X〜Wc・Xによる画素値)がそれぞれ、以下の(1)〜(3)式で表される。
Apq=k11・x(2p-2)(2q-2)+k21・x(2p-1)(2q-2)+k31・x2p(2q-2)
+k12・x(2p-2)(2q-1)+k22・x(2p-1)(2q-1)+k32・x2p(2q-1)
+ k13・x(2p-2)2q + k23・x(2p-1)2q + k33・x2p2q …(1)
Bpq=k11・x(2p-1)(2q-2)+k21・x2p(2q-2)+k31・x(2p+1)(2q-2)
+k12・x(2p-1)(2q-1)+k22・x2p(2q-1)+k32・x(2p+1)(2q-1)
+ k13・x(2p-1)2q + k23・x2p2q + k33・x(2p+1)2q …(2)
Cpq=k11・x(2p-2)(2q-1)+k21・x(2p-1)(2q-1)+k31・x2p(2q-1)
+ k12・x(2p-2)2q + k22・x(2p-1)2q + k32・x2p2q
+k13・x(2p-2)(2q+1)+k23・x(2p-1)(2q+1)+k33・x2p(2q+1) …(3)
(1) Pixel Value of Low-Resolution Estimated Image When the positional relationship between each pixel of the low-resolution actual images Fa to Fc and each pixel of the initial high-resolution image Fx1 is as shown in FIG. 17, the initial high-resolution actual image Fx1 The respective pixel values Apq to Cpq (pixel values based on Wa · X to Wc · X) of the estimated low resolution estimated images Fa1 to Fc1 are expressed by the following equations (1) to (3), respectively.
Apq = k11 · x (2p-2) (2q-2) + k21 · x (2p-1) (2q-2) + k31 · x2p (2q-2)
+ K12 ・ x (2p-2) (2q-1) + k22 ・ x (2p-1) (2q-1) + k32 ・ x2p (2q-1)
+ K13 · x (2p-2) 2q + k23 · x (2p-1) 2q + k33 · x2p2q (1)
Bpq = k11 ・ x (2p-1) (2q-2) + k21 ・ x2p (2q-2) + k31 ・ x (2p + 1) (2q-2)
+ K12 · x (2p-1) (2q-1) + k22 · x2p (2q-1) + k32 · x (2p + 1) (2q-1)
+ K13 · x (2p-1) 2q + k23 · x2p2q + k33 · x (2p + 1) 2q (2)
Cpq = k11 · x (2p-2) (2q-1) + k21 · x (2p-1) (2q-1) + k31 · x2p (2q-1)
+ K12 · x (2p-2) 2q + k22 · x (2p-1) 2q + k32 · x2p2q
+ K13 · x (2p-2) (2q + 1) + k23 · x (2p-1) (2q + 1) + k33 · x2p (2q + 1) (3)

(2)高解像度画像の各画素位置における勾配
上述のようにして低解像度推定画像Fa1〜Fc1の画素値が得られると、この低解像度実画像Fa〜Fcの画素値との差によって、初期高解像度画像Fx1に対する勾配∂I/∂Xが算出される。以下に、高解像度画像の注目画素が画素x(2p-1)(2q-1)、x2p(2q-1)、x(2p-1)2qとなる3つの場合の算出方法それぞれについて、説明する。
(2) Gradient at each pixel position of the high-resolution image When the pixel values of the low-resolution estimated images Fa1 to Fc1 are obtained as described above, the initial height is determined by the difference from the pixel values of the low-resolution actual images Fa to Fc. The gradient ∂I / ∂X for the resolution image Fx1 is calculated. Hereinafter, calculation methods in three cases in which the target pixel of the high-resolution image is the pixel x (2p-1) (2q-1), x2p (2q-1), and x (2p-1) 2q will be described. .

(2−a)注目画素が画素x(2p-1)(2q-1)であるとき
図18(a)に示すように、初期高解像度画像Fx1において、注目画素となる画素x(2p-1)(2q-1)を中心とした3×3の画素x(2p-2)(2q-2)〜x2p2qによる領域Rに対してフィルタ処理が施される。よって、その中心位置が領域R内に位置する低解像度実画像Fa〜Fc及び低解像度推定画像Fa1〜Fc1の画素値を用いて、画素x(2p-1)(2q-1)の勾配∂I/∂Xが算出される。
(2-a) When the pixel of interest is a pixel x (2p-1) (2q-1) As shown in FIG. 18 (a), the pixel x (2p-1) that is the pixel of interest in the initial high-resolution image Fx1. ) Filter processing is performed on the region R by 3 × 3 pixels x (2p−2) (2q−2) to x2p2q centering on (2q−1). Therefore, using the pixel values of the low-resolution real images Fa to Fc and the low-resolution estimated images Fa1 to Fc 1 whose center positions are located in the region R, the gradient ∂I of the pixel x (2p−1) (2q−1) is used. / ∂X is calculated.

即ち、図18(a)に示すように、領域R内において、初期高解像度画像Fx1の画素x(2p-1)(2q-1)、x(2p-2)(2q-1)、x2p(2q-1)、x(2p-1)(2q-2)、x(2p-1)2qそれぞれに、低解像度実画像Faの画素yapq、低解像度実画像Fbの画素yb(p-1)q、ybpq、低解像度実画像Fcの画素ycp(q-1)、ycpqそれぞれが、その中心位置に重なるように位置している。よって、低解像度実画像Fa〜Fcにおける画素値yapq、yb(p-1)q、ybpq、ycp(q-1)、ycpqと、低解像度推定画像Fa1〜Fc1における画素値Apq、B(p-1)q、Bpq、Cp(q-1)、Cpqと、図15に示すボケ関数によって、(4)式のように、画素x(2p-1)(2q-1)の勾配∂I/∂Xが算出される。
∂I/∂X(x(2p-1)(2q-1))=k22・( Apq - yapq )/K1
+k12・(B(p-1)q-yb(p-1)q)/K1
+k32・( Bpq - ybpq )/K1
+k21・(Cp(q-1)-ycp(q-1))/K1
+k23・( Cpq - ycpq )/K1 …(4)
(K1=k12+k22+k32+k11+k13+k31+k33)
That is, as shown in FIG. 18A, in the region R, the pixels x (2p-1) (2q-1), x (2p-2) (2q-1), x2p ( 2q-1), x (2p-1) (2q-2), and x (2p-1) 2q, respectively, a pixel yapq of the low-resolution real image Fa and a pixel yb (p-1) q of the low-resolution real image Fb , Ybpq, and the pixels ycp (q-1) and ycpq of the low-resolution real image Fc are positioned so as to overlap the center position. Therefore, the pixel values yapq, yb (p-1) q, ybpq, ycp (q-1), ycpq in the low-resolution real images Fa-Fc and the pixel values Apq, B (p- in the low-resolution estimated images Fa1-Fc1 1) Using q, Bpq, Cp (q-1), Cpq and the blur function shown in FIG. 15, the gradient ∂I / ∂ of the pixel x (2p-1) (2q-1) X is calculated.
∂I / ∂X (x (2p-1) (2q-1)) = k22 ・ (Apq-yapq) / K1
+ K12 ・ (B (p-1) q-yb (p-1) q) / K1
+ K32 ・ (Bpq-ybpq) / K1
+ K21 ・ (Cp (q-1) -ycp (q-1)) / K1
+ K23 ・ (Cpq-ycpq) / K1 (4)
(K1 = k12 + k22 + k32 + k11 + k13 + k31 + k33)

(2−b)注目画素が画素x2p(2q-1)であるとき
図18(b)に示すように、初期高解像度画像Fx1において、注目画素となる画素x2p(2q-1)を中心とした3×3の画素x(2p-1)(2q-2)〜x(2p+1)2qによる領域Rに対してフィルタ処理が施される。よって、その中心位置が領域R内に位置する低解像度実画像Fa〜Fc及び低解像度推定画像Fa1〜Fc1の画素値を用いて、画素x2p(2q-1)の勾配∂I/∂Xが算出される。
(2-b) When the target pixel is the pixel x2p (2q-1) As shown in FIG. 18B, in the initial high resolution image Fx1, the pixel x2p (2q-1) as the target pixel is the center. Filter processing is performed on the region R formed by 3 × 3 pixels x (2p−1) (2q−2) to x (2p + 1) 2q. Therefore, the gradient ∂I / ∂X of the pixel x2p (2q-1) is calculated using the pixel values of the low-resolution actual images Fa to Fc and the low-resolution estimated images Fa1 to Fc1 whose center positions are located in the region R. Is done.

即ち、図18(b)に示すように、領域R内において、初期高解像度画像Fx1の画素x(2p-1)(2q-1)、x(2p+1)(2q-1)、x2p(2q-1)、x(2p-1)(2q-2)、x(2p-1)2q、x(2p+1)(2q-2)、x(2p+1)2qそれぞれに、低解像度実画像Faの画素yapq、ya(p+1)q、低解像度実画像Fbの画素ybpq、低解像度実画像Fcの画素ycp(q-1)、ycpq、yc(p+1)(q-1)、yc(p+1)qそれぞれが、その中心位置に重なるように位置している。よって、低解像度実画像Fa〜Fcにおける画素値yapq、ya(p+1)q、ybpq、ycp(q-1)、ycpq、yc(p+1)(q-1)、yc(p+1)qと、低解像度推定画像Fa1〜Fc1における画素値Apq、A(p+1)q、Bpq、Cp(q-1)、Cpq、C(p+1)(q-1)、C(p+1)qと、図15に示すボケ関数によって、(5)式のように、画素x2p(2q-1)の勾配∂I/∂Xが算出される。
∂I/∂X(x2p(2q-1))=k22・( Bpq - ybpq )/K2
+k12・( Apq - yapq )/K2
+k32・(A(p+1)q-ya(p+1)q)/K2
+k11・(Cp(q-1)-ycp(q-1))/K2
+k13・( Cpq - ycpq )/K2
+k31・(C(p+1)(q-1)-yc(p+1)(q-1))/K2
+k33・( C(p+1)q - yc(p+1)q )/K2 …(5)
(K2=k12+k22+k32+k11+k13+k31+k33)
That is, as shown in FIG. 18B, within the region R, the pixels x (2p-1) (2q-1), x (2p + 1) (2q-1), x2p ( 2q-1), x (2p-1) (2q-2), x (2p-1) 2q, x (2p + 1) (2q-2), x (2p + 1) 2q Pixels yapq and ya (p + 1) q of the image Fa, pixels ybpp of the low-resolution real image Fb, pixels ycp (q-1), ycpq and yc (p + 1) (q-1) of the low-resolution real image Fc , Yc (p + 1) q are positioned so as to overlap the center position. Therefore, the pixel values yapq, ya (p + 1) q, ybpq, ycp (q-1), ycpq, yc (p + 1) (q-1), yc (p + 1) in the low resolution real images Fa-Fc. ) q and pixel values Apq, A (p + 1) q, Bpq, Cp (q-1), Cpq, C (p + 1) (q-1), C (p) in the low resolution estimated images Fa1 to Fc1 The gradient ∂I / ∂X of the pixel x2p (2q-1) is calculated by (+1) q and the blur function shown in FIG.
∂I / ∂X (x2p (2q-1)) = k22 ・ (Bpq-ybpq) / K2
+ K12 ・ (Apq-yapq) / K2
+ K32 ・ (A (p + 1) q-ya (p + 1) q) / K2
+ K11 ・ (Cp (q-1) -ycp (q-1)) / K2
+ K13 ・ (Cpq-ycpq) / K2
+ K31 ・ (C (p + 1) (q-1) -yc (p + 1) (q-1)) / K2
+ K33 ・ (C (p + 1) q-yc (p + 1) q) / K2 (5)
(K2 = k12 + k22 + k32 + k11 + k13 + k31 + k33)

(2−c)注目画素が画素x(2p-1)2qであるとき
図18(c)に示すように、初期高解像度画像Fx1において、注目画素となる画素x(2p-1)2qを中心とした3×3の画素x(2p-2)(2q-1)〜x2p(2q+1)による領域Rに対してフィルタ処理が施される。よって、その中心位置が領域R内に位置する低解像度実画像Fa〜Fc及び低解像度推定画像Fa1〜Fc1の画素値を用いて、画素x(2p-1)2qの勾配∂I/∂Xが算出される。
(2-c) When the pixel of interest is the pixel x (2p-1) 2q As shown in FIG. 18C, the pixel x (2p-1) 2q that is the pixel of interest is centered in the initial high-resolution image Fx1. A filtering process is performed on the region R including the 3 × 3 pixels x (2p−2) (2q−1) to x2p (2q + 1). Therefore, using the pixel values of the low-resolution real images Fa to Fc and the low-resolution estimated images Fa1 to Fc 1 whose center positions are located in the region R, the gradient ∂I / ∂X of the pixel x (2p-1) 2q is Calculated.

即ち、図18(c)に示すように、領域R内において、初期高解像度画像Fx1の画素x(2p-1)(2q-1)、x(2p-1)(2q+1)、x(2p-2)(2q-1)、x2p(2q-1)、x(2p-2)(2q+1)、x2p(2q+1)、x(2p+1)2qそれぞれに、低解像度実画像Faの画素yapq、yap(q+1)、低解像度実画像Fbの画素yb(p-1)q、ybpq、yb(p-1)(q+1)、ybp(q+1)、低解像度実画像Fcの画素ycpqそれぞれが、その中心位置に重なるように位置している。よって、低解像度実画像Fa〜Fcにおける画素値yapq、yap(q+1)、yb(p-1)q、ybpq、yb(p-1)(q+1)、ybp(q+1)、ycpqと、低解像度推定画像Fa1〜Fc1における画素値Apq、Ap(q+1)、B(p-1)q、Bpq、B(p-1)(q+1)、Bp(q+1)、Cpqと、図15に示すボケ関数によって、(6)式のように、画素x2p(2q-1)の勾配∂I/∂Xが算出される。
∂I/∂X(x(2p-1)2q)=k22・( Cpq - ycpq )/K3
+k21・( Apq - yapq )/K3
+k23・(Ap(q+1)-yap(q+1))/K3
+k11・(B(p-1)q-yb(p-1)q)/K3
+k31・( Bpq - ybpq )/K3
+k13・(B(p-1)(q+1)-yb(p-1)(q+1))/K3
+k33・( Bp(q+1) - ybp(q+1) )/K2 …(6)
(K2=k21+k22+k23+k11+k13+k31+k33)
That is, as shown in FIG. 18C, in the region R, the pixels x (2p-1) (2q-1), x (2p-1) (2q + 1), x ( 2p-2) (2q-1), x2p (2q-1), x (2p-2) (2q + 1), x2p (2q + 1), x (2p + 1) 2q Fa pixels yapq, yap (q + 1), low resolution real image Fb pixels yb (p-1) q, ybpq, yb (p-1) (q + 1), ybp (q + 1), low resolution Each pixel ycpq of the actual image Fc is positioned so as to overlap the center position. Therefore, the pixel values yapq, yap (q + 1), yb (p-1) q, ybpq, yb (p-1) (q + 1), ybp (q + 1), ybp (q + 1), ycpq and pixel values Apq, Ap (q + 1), B (p-1) q, Bpq, B (p-1) (q + 1), Bp (q + 1) in the low resolution estimated images Fa1 to Fc1 , Cpq and the blur function shown in FIG. 15, the gradient ∂I / ∂X of the pixel x2p (2q-1) is calculated as in equation (6).
∂I / ∂X (x (2p-1) 2q) = k22 ・ (Cpq-ycpq) / K3
+ K21 ・ (Apq-yapq) / K3
+ K23 ・ (Ap (q + 1) -yap (q + 1)) / K3
+ K11 ・ (B (p-1) q-yb (p-1) q) / K3
+ K31 ・ (Bpq-ybpq) / K3
+ K13 ・ (B (p-1) (q + 1) -yb (p-1) (q + 1)) / K3
+ K33 ・ (Bp (q + 1)-ybp (q + 1)) / K2 (6)
(K2 = k21 + k22 + k23 + k11 + k13 + k31 + k33)

(3)高解像度画像の各画素位置における更新
上述のようにして、高解像度画像の各画素位置における勾配∂I/∂Xが算出されると、この勾配が初期高解像度画像Fx1の各画素値から減算されることで、更新された高解像度画像の画素値が算出される。即ち、画素xpqにおける画素値が、勾配∂I/∂X(xpq)によって更新されることで、高解像度画像Fx2の画素値x1pq(=xpq−∂I/∂X(xpq))が算出されることとなる。
(3) Update at each pixel position of the high-resolution image When the gradient ∂I / ∂X at each pixel position of the high-resolution image is calculated as described above, this gradient is used to calculate each pixel value of the initial high-resolution image Fx1. Is subtracted from the pixel value of the updated high-resolution image. That is, the pixel value at the pixel xpq is updated with the gradient ∂I / ∂X (xpq), whereby the pixel value x1pq (= xpq−∂I / ∂X (xpq)) of the high-resolution image Fx2 is calculated. It will be.

このように、上述の(1)〜(3)の各処理動作を行うことによって、高解像度画像の更新が行われる。よって、2回目の更新時には、上述の(1)〜(3)式によって低解像度推定画像Fa2〜Fc2の画素値を求める際、更新後の高解像度画像Fx2の画素値が代入される。即ち、低解像度推定画像Fa2〜Fc2それぞれの各画素値Apq〜Cpq(Wa・X1〜Wc・X1による画素値)がそれぞれ、以下の(7)〜(9)式で表される。
Apq=k11・x1(2p-2)(2q-2)+k21・x1(2p-1)(2q-2)+k31・x1(2p)(2q-2)
+k12・x1(2p-2)(2q-1)+k22・x1(2p-1)(2q-1)+k32・x1(2p)(2q-1)
+ k13・x1(2p-2)(2q) + k23・x1(2p-1)(2q) + k33・x1(2p)(2q) …(7)
Bpq=k11・x1(2p-1)(2q-2)+k21・x1(2p)(2q-2)+k31・x1(2p+1)(2q-2)
+k12・x1(2p-1)(2q-1)+k22・x1(2p)(2q-1)+k32・x1(2p+1)(2q-1)
+ k13・x1(2p-1)(2q) + k23・x1(2p)(2q) + k33・x1(2p+1)(2q) …(8)
Cpq=k11・x1(2p-2)(2q-1)+k21・x1(2p-1)(2q-1)+k31・x(2p)(2q-1)
+ k12・x1(2p-2)(2q) + k22・x1(2p-1)(2q) + k32・x1(2p)(2q)
+k13・x1(2p-2)(2q+1)+k23・x (2p-1)(2q+1)+k33・x(2p)(2q+1) …(9)
Thus, the high-resolution image is updated by performing the processing operations (1) to (3) described above. Therefore, at the time of the second update, the pixel values of the updated high resolution image Fx2 are substituted when the pixel values of the low resolution estimated images Fa2 to Fc2 are obtained by the above equations (1) to (3). That is, the respective pixel values Apq to Cpq (pixel values based on Wa · X1 to Wc · X1) of the low resolution estimated images Fa2 to Fc2 are respectively expressed by the following equations (7) to (9).
Apq = k11 · x1 (2p-2) (2q-2) + k21 · x1 (2p-1) (2q-2) + k31 · x1 (2p) (2q-2)
+ K12 ・ x1 (2p-2) (2q-1) + k22 ・ x1 (2p-1) (2q-1) + k32 ・ x1 (2p) (2q-1)
+ K13 · x1 (2p-2) (2q) + k23 · x1 (2p-1) (2q) + k33 · x1 (2p) (2q)… (7)
Bpq = k11 ・ x1 (2p-1) (2q-2) + k21 ・ x1 (2p) (2q-2) + k31 ・ x1 (2p + 1) (2q-2)
+ K12 ・ x1 (2p-1) (2q-1) + k22 ・ x1 (2p) (2q-1) + k32 ・ x1 (2p + 1) (2q-1)
+ K13 · x1 (2p-1) (2q) + k23 · x1 (2p) (2q) + k33 · x1 (2p + 1) (2q)… (8)
Cpq = k11 · x1 (2p-2) (2q-1) + k21 · x1 (2p-1) (2q-1) + k31 · x (2p) (2q-1)
+ K12 x1 (2p-2) (2q) + k22 x1 (2p-1) (2q) + k32 x1 (2p) (2q)
+ K13 · x1 (2p-2) (2q + 1) + k23 · x (2p-1) (2q + 1) + k33 · x (2p) (2q + 1)… (9)

このようにして、低解像度推定画像Fa2〜Fc2それぞれの各画素値を求めると、上述の(4)〜(6)式により、高解像度画像の各画素に対する勾配∂I/∂X1を算出した後、この勾配∂I/∂X1を高解像度画像Fx1の画素値から減算することで、2回目の更新処理が行われて、高解像度画像Fx2が生成される。   When the pixel values of the low-resolution estimated images Fa2 to Fc2 are obtained in this way, the gradient ∂I / ∂X1 for each pixel of the high-resolution image is calculated by the above-described equations (4) to (6). The gradient ∂I / ∂X1 is subtracted from the pixel value of the high resolution image Fx1, whereby the second update process is performed to generate the high resolution image Fx2.

このように、3×3の行列によるPSFボケ関数による演算が行われるとき、1回目の更新処理動作において、初期高解像度画像Fx1における注目画素1画素に対して、高解像度画像Fxにおける注目画素xpqを中心とした3×3画素x(p-1)(q-1)〜x(p+1)(q+1)によって構成される画素領域R(図19(a)参照)内に位置する低解像度実画像及び低解像度推定画像の画素値が必要となる。   As described above, when the calculation by the PSF blur function using the 3 × 3 matrix is performed, in the first update processing operation, the pixel of interest xpq in the high resolution image Fx is compared with the pixel of interest in the initial high resolution image Fx1. Is located within a pixel region R (see FIG. 19A) composed of 3 × 3 pixels x (p−1) (q−1) to x (p + 1) (q + 1) centered on The pixel values of the low resolution actual image and the low resolution estimated image are required.

更に、低解像度推定画像の画素値については、上述したように、初期高解像度画像Fx1における3×3画素をPSFボケ関数に代入することで得られる。そして、画素領域Rにおける注目画素xpq以外の画素位置に位置する低解像度推定画像の画素を取得するために、初期高解像度画像Fx1における3×3画素の画素値を利用する。よって、1回目の更新処理動作において、図19(b)に示すように、初期高解像度画像Fx1における5×5画素x(p-2)(q-2)〜x(p+2)(q+2)が使用されることとなる。   Further, as described above, the pixel value of the low resolution estimated image can be obtained by substituting 3 × 3 pixels in the initial high resolution image Fx1 into the PSF blur function. In order to acquire a pixel of the low resolution estimated image located at a pixel position other than the target pixel xpq in the pixel region R, a pixel value of 3 × 3 pixels in the initial high resolution image Fx1 is used. Therefore, in the first update processing operation, as shown in FIG. 19B, 5 × 5 pixels x (p−2) (q−2) to x (p + 2) (q) in the initial high resolution image Fx1. +2) will be used.

即ち、初期高解像度画像Fx1を1回更新するために、初期高解像度画像Fx1内の注目画素xpqに対して、初期高解像度画像Fx1における5×5画素x(p-2)(q-2)〜x(p+2)(q+2)の画素値と、初期高解像度画像Fx1における3×3画素x(p-1)(q-1)〜x(p+1)(q+1)によって構成される画素領域R内に位置する低解像度実画像Fa〜Fcにおける画素の画素値とが必要となる。   That is, in order to update the initial high resolution image Fx1 once, for the target pixel xpq in the initial high resolution image Fx1, 5 × 5 pixels x (p−2) (q−2) in the initial high resolution image Fx1. To x (p + 2) (q + 2) and 3 × 3 pixels x (p−1) (q−1) to x (p + 1) (q + 1) in the initial high-resolution image Fx1 The pixel values of the pixels in the low-resolution real images Fa to Fc located in the pixel region R constituted by

このように更新されて得られた高解像度画像Fx2を更新する場合は、更新後の画素値を用いた処理となる。即ち、高解像度画像Fx2内の注目画素x1pqに対して、高解像度画像Fx2における5×5画素x1(p-2)(q-2)〜x1(p+2)(q+2)の画素値と、高解像度画像Fx2における3×3画素x1(p-1)(q-1)〜x1(p+1)(q+1)によって構成される画素領域Rに位置する低解像度実画像Fa〜Fcにおける画素の画素値とが必要となる。   When the high-resolution image Fx2 obtained by updating in this way is updated, the process is performed using the updated pixel values. That is, the pixel value of 5 × 5 pixels x1 (p−2) (q−2) to x1 (p + 2) (q + 2) in the high resolution image Fx2 with respect to the target pixel x1pq in the high resolution image Fx2. And the low-resolution actual image Fa located in the pixel region R constituted by 3 × 3 pixels x1 (p−1) (q−1) to x1 (p + 1) (q + 1) in the high-resolution image Fx2 The pixel value of the pixel in Fc is required.

しかしながら、初期高解像度画像Fx1から高解像度画像Fx2に画素値を更新したとき、各画素に対して、初期高解像度画像Fx1における5×5画素の画素値と、初期高解像度画像Fx1における3×3画素で構成される画素領域Rに位置する低解像度実画像Fa〜Fcにおける画素の画素値とが必要とされる。即ち、高解像度画像Fx2内の注目画素x1pqに対して使用される高解像度画像Fx2における5×5画素x1(p-2)(q-2)〜x1(p+2)(q+2)それぞれの画素値が、1回目の更新処理において、初期高解像度画像Fx1における5×5画素の画素値と、初期高解像度画像Fx1における3×3画素で構成される画素領域Rに位置する低解像度実画像Fa〜Fcにおける画素の画素値とを用いて、算出されている。   However, when the pixel values are updated from the initial high resolution image Fx1 to the high resolution image Fx2, for each pixel, the pixel value of 5 × 5 pixels in the initial high resolution image Fx1 and the 3 × 3 in the initial high resolution image Fx1 The pixel values of the pixels in the low-resolution real images Fa to Fc located in the pixel region R composed of pixels are required. That is, 5 × 5 pixels x1 (p−2) (q−2) to x1 (p + 2) (q + 2) in the high resolution image Fx2 used for the target pixel x1pq in the high resolution image Fx2 respectively. In the first update process, the pixel value of 5 × 5 pixels in the initial high-resolution image Fx1 and the low-resolution actual pixel value located in the pixel region R composed of 3 × 3 pixels in the initial high-resolution image Fx1 It is calculated using the pixel values of the pixels in the images Fa to Fc.

よって、初期高解像度画像Fx1を2回更新する場合は、注目画素xpqに対して、5×5画素x(p-2)(q-2)〜x(p+2)(q+2)それぞれにおける更新された画素値を用いて更に更新することとなる。即ち、5×5画素x(p-2)(q-2)〜x(p+2)(q+2)それぞれを中心として、初期高解像度画像Fx1における5×5画素の画素値と、初期高解像度画像Fx1における3×3画素で構成される画素領域Rに位置する低解像度実画像Fa〜Fcにおける画素の画素値とが用いられる。このように、初期高解像度画像Fx1を2回更新する場合は、図20に示すように、初期高解像度画像Fx1内の注目画素xpqに対して、初期高解像度画像Fx1における9×9画素x(p-4)(q-4)〜x(p+4)(q+4)の画素値と、初期高解像度画像Fx1における7×7画素x(p-3)(q-3)〜x(p+3)(q+3)によって構成される画素領域R1に位置する低解像度実画像Fa〜Fcにおける画素の画素値とが必要となる。   Therefore, when the initial high-resolution image Fx1 is updated twice, 5 × 5 pixels x (p−2) (q−2) to x (p + 2) (q + 2) for each pixel of interest xpq Further updating is performed using the updated pixel value in. That is, the pixel value of 5 × 5 pixels in the initial high resolution image Fx1 with the 5 × 5 pixels x (p−2) (q−2) to x (p + 2) (q + 2) as the center, and the initial value The pixel values of the pixels in the low-resolution real images Fa to Fc located in the pixel region R configured by 3 × 3 pixels in the high-resolution image Fx1 are used. In this way, when the initial high resolution image Fx1 is updated twice, as shown in FIG. 20, the 9 × 9 pixels x (in the initial high resolution image Fx1 are compared with the target pixel xpq in the initial high resolution image Fx1. p-4) (q-4) to x (p + 4) (q + 4) and 7 × 7 pixels x (p-3) (q-3) to x ( The pixel values of the pixels in the low-resolution real images Fa to Fc located in the pixel region R1 constituted by p + 3) (q + 3) are required.

従って、超高解像度画像更新部456を構成するFIRフィルタは、初期高解像度画像Fx1における9×9画素の画素値と、初期高解像度画像Fx1における7×7画素によって構成される画素領域R1に位置する低解像度実画像Fa〜Fcにおける画素の画素値とが入力されて、注目画素の画素値を出力するフィルタとして構成される。   Therefore, the FIR filter constituting the ultra-high resolution image update unit 456 is located in the pixel region R1 including the pixel value of 9 × 9 pixels in the initial high resolution image Fx1 and the 7 × 7 pixels in the initial high resolution image Fx1. The pixel value of the pixel in the low-resolution real images Fa to Fc to be input is input and the pixel value of the pixel of interest is output.

そして、このFIRフィルタの係数については、まず、上述したように、(1)〜(3)式により得られた低解像度推定画像の画素値を(4)〜(6)式に代入して勾配を求める。その後、(4)〜(6)式により得られた勾配により更新した高解像度画像の画素値を(7)〜(9)式に代入し、これにより得られた低解像度推定画像の画素値を(4)〜(6)式に代入して2回目の勾配を求める。そして、(4)〜(6)式により得られた勾配により更新する際の減算式を展開することで、初期高解像度画像Fx1における9×9画素の画素値に乗算された係数と、初期高解像度画像Fx1における7×7画素によって構成される画素領域R1に位置する低解像度実画像Fa〜Fcにおける画素の画素値とに乗算される係数とを、FIRフィルタの係数として取得することができる。   As for the coefficients of the FIR filter, first, as described above, the pixel value of the low resolution estimated image obtained by the equations (1) to (3) is substituted into the equations (4) to (6), and the gradient is obtained. Ask for. Then, the pixel value of the high resolution image updated by the gradient obtained by the equations (4) to (6) is substituted into the equations (7) to (9), and the pixel value of the low resolution estimated image obtained thereby is calculated. Substituting into equations (4) to (6), the second gradient is obtained. Then, by developing a subtraction formula used when updating with the gradient obtained by the equations (4) to (6), the coefficient multiplied by the pixel value of 9 × 9 pixels in the initial high resolution image Fx1 and the initial high The coefficient multiplied by the pixel value of the pixel in the low-resolution real images Fa to Fc located in the pixel region R1 configured by 7 × 7 pixels in the resolution image Fx1 can be acquired as the coefficient of the FIR filter.

尚、本例において、高解像度更新量算出部453において、上述の第1例における超解像演算部45内で反復される更新動作が2回行われたときの更新量が算出されるものとしたが、上述の第1例における超解像演算部45内での更新動作が3回以上反復して行われたときの更新量が算出されるものとしても構わない。そして、超解像演算部45内での更新動作がH回反復して行われるとともに、PSFボケ関数が(2K+1)×(2K+1)の行列により成るものとする。このとき、高解像度更新量算出部453を構成するFIRフィルタは、初期高解像度画像Fx1における(4H×K+1)×(4H×K+1)画素の画素値と、初期高解像度画像Fx1における(2(2H−1)×K+1)×(2(2H−1)×K−1)画素によって構成される画素領域R1に位置する低解像度実画像Fa〜Fcにおける画素の画素値とが入力されて、注目画素の画素値を出力する。又、本例において、第1例における超解像演算部45と同様、選択部452及びフレームメモリ455を備えた構成として、超解像演算処理が反復されるものとしても構わない。   In this example, the high-resolution update amount calculation unit 453 calculates the update amount when the update operation repeated in the super-resolution operation unit 45 in the first example is performed twice. However, the update amount when the update operation in the super-resolution calculation unit 45 in the first example described above is repeated three or more times may be calculated. It is assumed that the updating operation in the super-resolution calculation unit 45 is repeated H times and the PSF blur function is composed of a (2K + 1) × (2K + 1) matrix. At this time, the FIR filter constituting the high-resolution update amount calculation unit 453 has a pixel value of (4H × K + 1) × (4H × K + 1) pixels in the initial high-resolution image Fx1 and (2 (2H) in the initial high-resolution image Fx1. −1) × K + 1) × (2 (2H−1) × K−1) pixels and pixel values of the pixels in the low-resolution real images Fa to Fc located in the pixel region R1 are input, and the target pixel The pixel value of is output. Further, in this example, like the super-resolution calculation unit 45 in the first example, the super-resolution calculation process may be repeated as a configuration including the selection unit 452 and the frame memory 455.

尚、上述の説明において、図1に示すような構成の撮像装置を例に挙げて、本発明における画像処理方法について説明したが、撮像装置に限らず、液晶ディスプレイやプラズマテレビなどの画像のデジタル処理を行う表示装置においても、本発明における画像処理方法を利用可能である。図21に、本発明における画像処理方法を行う画像処理装置(「画像処理部」に相当)を備えた表示装置を示す。   In the above description, the image processing method according to the present invention has been described using the image pickup apparatus having the configuration shown in FIG. 1 as an example. The image processing method according to the present invention can also be used in a display device that performs processing. FIG. 21 shows a display device including an image processing apparatus (corresponding to an “image processing unit”) that performs the image processing method according to the present invention.

図21に示す表示装置は、図1に示す撮像装置と同様、画像処理部4、伸長処理部8、ディスプレイ部9、音声出力回路部10、スピーカ部11、タイミングジェネレータ12、CPU13、メモリ14、操作部15、及び、バス回線16,17を備える。そして、外部で受信した放送信号を選局するチューナ部21と、チューナ部21で選局した放送信号を復調する復調部22と、外部から入力されたデジタル信号となる圧縮信号が入力されるインターフェース23とを、更に備える。   The display device shown in FIG. 21 is similar to the image pickup device shown in FIG. 1 in that the image processing unit 4, the expansion processing unit 8, the display unit 9, the audio output circuit unit 10, the speaker unit 11, the timing generator 12, the CPU 13, the memory 14, An operation unit 15 and bus lines 16 and 17 are provided. A tuner unit 21 that selects a broadcast signal received externally, a demodulator unit 22 that demodulates a broadcast signal selected by the tuner unit 21, and an interface to which a compressed signal that is a digital signal input from the outside is input. 23.

この図21の表示装置は、放送信号を受信する場合は、チューナ部21で所望のチャンネルの放送信号を選局した後、復調部22で放送信号を復調することで、MPEG圧縮符号方式による圧縮信号となるデジタル信号が得られる。このデジタル信号が伸長処理部8に与えられると、圧縮信号であるデジタル信号に対して、MPEG圧縮符号方式による伸長処理が施される。   In the case of receiving a broadcast signal, the display device of FIG. 21 selects a broadcast signal of a desired channel by the tuner unit 21, and then demodulates the broadcast signal by the demodulation unit 22, thereby compressing by the MPEG compression coding method. A digital signal is obtained as a signal. When this digital signal is given to the decompression processing unit 8, the digital signal which is a compressed signal is subjected to decompression processing by the MPEG compression coding method.

そして、操作部15によって画像の高解像度化が指示されると、伸長処理部8で伸長処理して得られた画像信号が、画像処理部4に与えられて、上述の低解像度実画像の選択処理や超解像処理が行われることで、高解像度画像が生成される。その後、生成された高解像度画像による画像信号がディスプレイ部9に与えられて、画像再生がなされる。又、伸長処理部8の伸長処理で得られた音声信号が、音声出力回路部10を通じてスピーカ部11に与えられることで、音声が再生出力される。   Then, when the operation unit 15 instructs to increase the resolution of the image, the image signal obtained by the expansion processing by the expansion processing unit 8 is given to the image processing unit 4 to select the above-described low-resolution real image. By performing the processing and the super-resolution processing, a high resolution image is generated. Thereafter, an image signal based on the generated high-resolution image is given to the display unit 9, and image reproduction is performed. Also, the audio signal obtained by the expansion processing of the expansion processing unit 8 is given to the speaker unit 11 through the audio output circuit unit 10, so that the sound is reproduced and output.

又、図1の撮像装置又は図21の表示装置において、画像処理部4で超解像処理が成される画像について、動画像であっても構わないし、静止画像であっても構わない。尚、上述では、動画像となる画像信号が入力されたときの動作を中心に、各処理動作の説明を行っている。   Further, in the imaging device of FIG. 1 or the display device of FIG. 21, the image that is subjected to the super-resolution processing by the image processing unit 4 may be a moving image or a still image. In the above description, each processing operation has been described focusing on the operation when an image signal to be a moving image is input.

上述の説明において、超解像処理を行うための低解像度実画像の選択処理について、1次元画像の場合を説明したが、以下において、2次元画像に対する、超解像処理を行うための低解像度実画像の選択処理の実施例について、以下に説明する。尚、以下の各実施例では、説明を簡単にするため、解像度を2倍とする際の超解像処理における動作について説明する。即ち、以下の各実施例では、イメージセンサ1から取得される2次元画像となる画像信号に対して超解像処理を行う際に、画像処理部4で超解像処理を行うための低解像度実画像の選択処理動作の実施例を説明する。   In the above description, the low-resolution real image selection process for performing the super-resolution processing has been described for the case of a one-dimensional image. An example of real image selection processing will be described below. In the following embodiments, for the sake of simplicity of explanation, operations in super-resolution processing when the resolution is doubled will be described. That is, in each of the following embodiments, a low resolution for performing super-resolution processing in the image processing unit 4 when performing super-resolution processing on an image signal that is a two-dimensional image acquired from the image sensor 1. An example of an actual image selection processing operation will be described.

本実施例における低解像度実画像の選択処理動作について、図22を参照して説明する。図22は、注目フレームを含む複数フレームの低解像度実画像の位置ズレ補正後の画素位置の関係を示す図である。又、本実施例では、注目フレームを含む3フレームの低解像度実画像より、注目フレームを含む2フレームの低解像度実画像が選択される場合を説明する。そして、注目フレームの低解像度実画像をF1、他の2フレームの低解像度実画像をF2,F3とし、図22において、黒塗りの丸による点を低解像度実画像F1における画素位置を、黒塗りの三角による点を低解像度実画像F2における画素位置を、黒塗りの四角による点を低解像度実画像F3における画素位置を、それぞれ表す。   The selection processing operation of the low resolution real image in the present embodiment will be described with reference to FIG. FIG. 22 is a diagram illustrating the relationship between the pixel positions after positional deviation correction of a plurality of low-resolution real images including the target frame. In the present embodiment, a case where a low-resolution real image of two frames including a target frame is selected from a low-resolution real image of three frames including the target frame will be described. Then, the low-resolution real image of the target frame is F1, the low-resolution real images of the other two frames are F2 and F3, and the pixel positions in the low-resolution real image F1 are indicated by black dots in FIG. A point by a triangle represents a pixel position in the low-resolution real image F2, and a point by a black square represents a pixel position in the low-resolution real image F3.

まず、図22に示すように、低解像度実画像F2,F3を選択するための基準位置を、注目フレームF1の低解像度実画像における隣接する4画素の中心位置O(図22において、白抜きの丸で示す)とする。又、図22では、その画素位置と中心位置Oとの距離が、低解像度実画像F2では距離d2となり、低解像度実画像F3では距離d3(d3>d2)となる。尚、図22では、点線で示す中心位置Oを中心とする円によって、中心位置Oからの距離がd2となる位置を示す。   First, as shown in FIG. 22, the reference position for selecting the low-resolution real images F2 and F3 is set to the center position O of four adjacent pixels in the low-resolution real image of the frame of interest F1 (in FIG. (Indicated by a circle). In FIG. 22, the distance between the pixel position and the center position O is the distance d2 in the low-resolution real image F2, and the distance d3 (d3> d2) in the low-resolution real image F3. In FIG. 22, a position where the distance from the center position O is d2 is indicated by a circle centered on the center position O indicated by a dotted line.

そして、選択の基準となる中心位置Oに画素位置が近くなる低解像度実画像が、超解像処理に使用される低解像度実画像として選択される。即ち、低解像度実画像F2における画素位置の中心位置Oとの距離d2が、低解像度実画像F3における画素位置の中心位置Oとの距離d3より短いため、低解像度実画像F2が、超解像処理に適した低解像度実画像として選択される。よって、注目フレームとなる低解像度実画像F1と、選択された低解像度実画像F2とによって、超解像処理が成されることで、高解像度画像が取得される。   Then, a low-resolution real image whose pixel position is close to the center position O serving as a selection criterion is selected as a low-resolution real image used for super-resolution processing. That is, since the distance d2 from the pixel position center position O in the low resolution real image F2 is shorter than the distance d3 from the pixel position center position O in the low resolution real image F3, the low resolution real image F2 is super-resolved. A low-resolution real image suitable for processing is selected. Therefore, a high-resolution image is acquired by performing super-resolution processing by the low-resolution real image F1 used as the attention frame and the selected low-resolution real image F2.

本実施例における低解像度実画像の選択処理動作について、図23を参照して説明する。図23は、図22と同様、注目フレームを含む複数フレームの低解像度実画像の位置ズレ補正後の画素位置の関係を示す図である。又、本実施例においても、実施例1と同様、注目フレームを含む3フレームの低解像度実画像F1〜F3より、注目フレームを含む2フレームの低解像度実画像が選択される場合を説明する。尚、図23においても、低解像度実画像F1〜F3それぞれの画素位置について、図22と同様の形式で表す。   The low resolution real image selection processing operation in this embodiment will be described with reference to FIG. FIG. 23 is a diagram illustrating the relationship between the pixel positions after the positional deviation correction of the low-resolution real images of a plurality of frames including the target frame, as in FIG. Also in the present embodiment, similarly to the first embodiment, a case where a two-frame low-resolution real image including the target frame is selected from the three low-resolution real images F1 to F3 including the target frame will be described. In FIG. 23, the pixel positions of the low-resolution real images F1 to F3 are represented in the same format as in FIG.

本実施例では、実施例1の場合と異なり、低解像度実画像F2,F3それぞれにおいて、その画素位置が、選択の基準となる中心位置Oから等しい距離dだけ離れた位置となる。そして、低解像度実画像F2の画素位置が、中心位置Oに対して、水平方向にdx2、垂直方向にdy2だけ離れた位置に位置するとともに、低解像度実画像F3の画素位置が、中心位置Oに対して、水平方向にdx3(|dx2|<|dx3|)、垂直方向にdy3(|dy2|>|dy3|)だけ離れた位置に位置するものとする。尚、距離dが、d=((dx2)2+(dy2)21/2=((dx3)2+(dy3)21/2となる。 In the present embodiment, unlike the case of the first embodiment, in each of the low-resolution real images F2 and F3, the pixel position is a position separated by an equal distance d from the center position O serving as a selection reference. Then, the pixel position of the low-resolution real image F2 is located at a position away from the center position O by dx2 in the horizontal direction and dy2 in the vertical direction, and the pixel position of the low-resolution real image F3 is at the center position O. On the other hand, it is assumed that it is located at a position separated by dx3 (| dx2 | <| dx3 |) in the horizontal direction and dy3 (| dy2 |> | dy3 |) in the vertical direction. The distance d is d = ((dx2) 2 + (dy2) 2 ) 1/2 = ((dx3) 2 + (dy3) 2 ) 1/2 .

このように、低解像度実画像F2,F3それぞれの画素位置と中心位置Oとの距離がdとなって等しいため、中心位置Oとの距離に基づいて選択した場合、低解像度実画像F2,F3のいずれも選択可能となる。よって、低解像度実画像F2,F3のいずれか選択するために、本実施例では更に、中心位置Oとの水平方向の距離が短くなる低解像度実画像が選択される。即ち、図23の例では、低解像度実画像F2の画素位置と中心位置Oとの間における水平方向の距離|dx2|が、低解像度実画像F3の画素位置と中心位置Oとの間における水平方向の距離|dx3|よりも短いため、超解像処理に使用される低解像度実画像として、低解像度実画像F2が選択される。   Thus, since the distance between the pixel position of each of the low-resolution real images F2 and F3 and the center position O is equal to d, the low-resolution real images F2 and F3 are selected when selected based on the distance to the center position O. Either of these can be selected. Therefore, in order to select one of the low-resolution real images F2 and F3, in this embodiment, a low-resolution real image that further shortens the horizontal distance from the center position O is selected. That is, in the example of FIG. 23, the horizontal distance | dx2 | between the pixel position of the low-resolution actual image F2 and the center position O is the horizontal distance between the pixel position of the low-resolution actual image F3 and the center position O. Since the distance in the direction is shorter than | dx3 |, the low-resolution real image F2 is selected as the low-resolution real image used for the super-resolution processing.

このように、本実施例においては、中心位置Oのような基準位置と画素位置との距離が等しくなる低解像度実画像が複数ある場合、基準位置と画素位置との水平方向における距離が短い低解像度実画像を選択する。これにより、垂直方向に視認性が高いという視覚特性に対して、水平方向の解像度を高める低解像度実画像を選択して、超解像処理を行うことができる。   As described above, in this embodiment, when there are a plurality of low resolution real images in which the distance between the reference position such as the center position O and the pixel position is equal, the distance in the horizontal direction between the reference position and the pixel position is short. Select a resolution real image. As a result, a super-resolution process can be performed by selecting a low-resolution real image that increases the resolution in the horizontal direction with respect to the visual characteristic of high visibility in the vertical direction.

本実施例における低解像度実画像の選択処理動作について、図24を参照して説明する。図24は、図22と同様、注目フレームを含む複数フレームの低解像度実画像の位置ズレ補正後の画素位置の関係を示す図である。又、本実施例においても、実施例1と同様、注目フレームを含む3フレームの低解像度実画像F1〜F3より、注目フレームを含む2フレームの低解像度実画像が選択される場合を説明する。尚、図24においても、低解像度実画像F1〜F3それぞれの画素位置について、図22と同様の形式で表す。   The low resolution real image selection processing operation in this embodiment will be described with reference to FIG. FIG. 24 is a diagram illustrating the relationship between the pixel positions after the positional deviation correction of the low-resolution real images of a plurality of frames including the target frame, as in FIG. Also in the present embodiment, similarly to the first embodiment, a case where a two-frame low-resolution real image including the target frame is selected from the three low-resolution real images F1 to F3 including the target frame will be described. In FIG. 24, the pixel positions of the low-resolution real images F1 to F3 are represented in the same format as in FIG.

本実施例では、実施例2の場合と同様、低解像度実画像F2,F3それぞれにおいて、その画素位置が、選択の基準となる中心位置Oから等しい距離dだけ離れた位置となる。又、時間軸上において、低解像度実画像F1〜F3が、F1,F2,F3の順に取得されるとともに、低解像度実画像のF1,F2それぞれの画素位置間の距離(低解像度実画像F1,F2間の動き量)d4が、低解像度実画像のF2,F3それぞれの画素位置間の距離(低解像度実画像F2,F3間の動き量)d5よりも長いものとする。   In the present embodiment, as in the case of the second embodiment, the pixel positions of the low-resolution real images F2 and F3 are separated by the same distance d from the center position O serving as a selection reference. On the time axis, the low resolution real images F1 to F3 are acquired in the order of F1, F2, and F3, and the distances between the pixel positions of the low resolution real images F1, F2 (low resolution real images F1, F2 The amount of motion between F2) d4 is longer than the distance between the pixel positions of F2 and F3 of the low-resolution actual image (the amount of motion between the low-resolution actual images F2 and F3) d5.

このように、本実施例においても、実施例2と同様、低解像度実画像F2,F3それぞれの画素位置と中心位置Oとの距離がdとなって等しいため、中心位置Oとの距離に基づいて選択した場合、低解像度実画像F2,F3のいずれも選択可能となる。よって、低解像度実画像F2,F3のいずれか選択するために、本実施例では更に、フレーム間の動き量を比較し、その動き量が小さいフレームを選択する。即ち、図24の例では、低解像度実画像のF2,F3それぞれの画素位置間の距離d5が、低解像度実画像のF1,F2それぞれの画素位置間の距離d4よりも短いため、超解像処理に使用される低解像度実画像として、低解像度実画像F3が選択される。   Thus, in the present embodiment as well, as in the second embodiment, the distance between the pixel position of each of the low-resolution real images F2 and F3 and the center position O is equal to d, and thus is based on the distance from the center position O. In this case, both the low resolution real images F2 and F3 can be selected. Therefore, in order to select one of the low-resolution real images F2 and F3, in this embodiment, the amount of motion between the frames is further compared, and a frame with a small amount of motion is selected. That is, in the example of FIG. 24, since the distance d5 between the pixel positions of F2 and F3 of the low-resolution real image is shorter than the distance d4 between the pixel positions of F1 and F2 of the low-resolution real image, super-resolution The low-resolution real image F3 is selected as the low-resolution real image used for processing.

このように、本実施例においては、中心位置Oのような基準位置と画素位置との距離が等しくなる低解像度実画像が複数ある場合、時間的に連続する低解像度実画像間の動き量が小さくなる低解像度実画像を選択する。即ち、前のフレームとなる低解像度実画像との動き量が小さい低解像度実画像を選択することで、動き量による影響の少ない低解像度実画像を選択して、超解像処理を行うことができる。   As described above, in this embodiment, when there are a plurality of low-resolution real images having the same distance between the reference position such as the center position O and the pixel position, the amount of motion between the low-resolution real images that are temporally continuous is determined. Select a smaller low-resolution real image. That is, by selecting a low-resolution real image that has a small amount of motion with the low-resolution real image that is the previous frame, it is possible to select a low-resolution real image that is less affected by the amount of motion and perform super-resolution processing. it can.

尚、基準位置と画素位置との距離が等しくなる低解像度実画像が複数ある場合においても、超解像処理に使用する低解像度実画像が選択できる条件として、上述の実施例2及び実施例3における条件を挙げたが、これらの条件について選択できるものとしても構わない。   Note that, in the case where there are a plurality of low-resolution real images in which the distance between the reference position and the pixel position is equal, the above-described second and third embodiments are the conditions for selecting the low-resolution real image used for the super-resolution processing. However, it may be possible to select these conditions.

又、高解像度化する際において、垂直方向と水平方向とで拡大率が異なる場合、その拡大率が高い(補間画素数が多い)方向に対して、基準位置と画素位置との距離が短くなる低解像度実画像を、超解像処理に適した低解像度実画像として選択しても構わない。即ち、水平方向の拡大率がm倍であり、垂直方向の拡大率がn(m>n)倍となるとき、拡大率が水平方向の方が大きいため、図23のような関係にある場合、水平方向において、基準位置と画素位置との距離が短くなる低解像度実画像F2を選択する。   In addition, when the resolution is increased, if the enlargement ratio differs between the vertical direction and the horizontal direction, the distance between the reference position and the pixel position becomes shorter with respect to the direction in which the enlargement ratio is high (the number of interpolation pixels is large). A low-resolution real image may be selected as a low-resolution real image suitable for super-resolution processing. That is, when the horizontal enlargement ratio is m times and the vertical enlargement ratio is n (m> n) times, the enlargement ratio is larger in the horizontal direction, and therefore the relationship is as shown in FIG. In the horizontal direction, the low-resolution real image F2 in which the distance between the reference position and the pixel position is shortened is selected.

本発明は、超解像処理による画像の高解像度化を行う画像処理装置を備えた撮像装置や表示装置に適用することができる。   The present invention can be applied to an imaging device or a display device that includes an image processing device that increases the resolution of an image by super-resolution processing.

は、本発明の画像処理装置となる画像処理部を備えた撮像装置の内部構成を示すブロック図である。These are the block diagrams which show the internal structure of the imaging device provided with the image process part used as the image processing apparatus of this invention. は、被写体の輝度分布と撮影時間の異なるフレームにおける画像データとの関係を示す図である。These are diagrams showing the relationship between the luminance distribution of a subject and image data in frames with different shooting times. は、超解像処理におけるフローの概要を説明するための図である。These are the figures for demonstrating the outline | summary of the flow in a super-resolution process. は、被写体の輝度分布と撮影時間の異なるフレームにおける画像データとの関係を示す図である。These are diagrams showing the relationship between the luminance distribution of a subject and image data in frames with different shooting times. は、解像度を2倍とする超解像処理における、低解像度実画像の選択処理について説明するための図である。These are the figures for demonstrating the selection process of the low-resolution real image in the super-resolution process which makes a resolution 2 times. は、解像度を3倍とする超解像処理における、低解像度実画像の選択処理について説明するための図である。These are the figures for demonstrating the selection process of the low-resolution real image in the super-resolution process which makes a resolution 3 times. は、解像度を3倍とする超解像処理における、低解像度実画像の選択処理における基準との関係例を示す図である。These are figures which show the example of a relationship with the reference | standard in the selection process of the low-resolution real image in the super-resolution process which makes a resolution 3 times. は、代表点マッチング法における検出領域の関係を示す図である。These are figures which show the relationship of the detection area in a representative point matching method. は、基準画像の代表点と非基準画像のサンプリング点との関係を示す図である。These are figures which show the relationship between the representative point of a reference | standard image, and the sampling point of a non-reference | standard image. は、1画素以内の動き量検出を行う際の基準画像の代表点と非基準画像のサンプリング点との関係を示す図である。FIG. 4 is a diagram illustrating a relationship between a representative point of a reference image and a sampling point of a non-reference image when detecting a motion amount within one pixel. は、1画素以内の動き量検出を行う際の基準画像の代表点及び非基準画像のサンプリング点それぞれの画素値の関係を示す図である。FIG. 10 is a diagram illustrating a relationship between pixel values of representative points of a reference image and sampling points of a non-reference image when detecting a motion amount within one pixel. は、図1に示す撮像装置における画像処理部の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the image processing part in the imaging device shown in FIG. は、図12に示す画像処理部における超解像演算部の内部構成の第1例を示すブロック図である。FIG. 13 is a block diagram illustrating a first example of an internal configuration of a super-resolution calculation unit in the image processing unit illustrated in FIG. 12. は、図12に示す画像処理部における超解像演算部の内部構成の第2例を示すブロック図である。FIG. 13 is a block diagram showing a second example of the internal configuration of the super-resolution calculation unit in the image processing unit shown in FIG. 12. は、PSFボケ関数の係数と高解像度画像の画素位置との関係を示す図である。These are figures which show the relationship between the coefficient of a PSF blur function, and the pixel position of a high resolution image. は、低解像度実画像Fb,Fcそれぞれと、現フレームとなる低解像度実画像Faとの位置関係を示す図である。These are diagrams showing the positional relationship between the low-resolution actual images Fb and Fc and the low-resolution actual image Fa that is the current frame. は、低解像度実画像Fa〜Fcそれぞれと、初期高解像度画像Fx1との位置関係を示す図である。These are figures which show the positional relationship of each of the low-resolution real images Fa-Fc and the initial high-resolution image Fx1. は、初期高解像度画像Fx1に対して勾配を算出する際の注目画素に対して使用される画素値を示す図である。These are figures which show the pixel value used with respect to the attention pixel at the time of calculating a gradient with respect to the initial high-resolution image Fx1. は、1回目の更新処理動作で利用される高解像度画像における画素範囲を示す図である。FIG. 4 is a diagram illustrating a pixel range in a high-resolution image used in the first update processing operation. は、2回の更新処理動作で利用される高解像度画像における画素範囲を示す図である。FIG. 5 is a diagram illustrating a pixel range in a high-resolution image used in two update processing operations. は、本発明の画像処理装置となる画像処理部を備えた表示装置の内部構成を示すブロック図である。These are block diagrams which show the internal structure of the display apparatus provided with the image processing part used as the image processing apparatus of this invention. は、実施例1における低解像度画像の選択処理動作を説明するための3フレーム間の関係を示す図である。These are the figures which show the relationship between 3 frames for demonstrating the selection processing operation | movement of the low resolution image in Example 1. FIG. は、実施例2における低解像度画像の選択処理動作を説明するための3フレーム間の関係を示す図である。These are the figures which show the relationship between 3 frames for demonstrating the selection processing operation | movement of the low resolution image in Example 2. FIG. は、実施例3における低解像度画像の選択処理動作を説明するための3フレーム間の関係を示す図である。These are the figures which show the relationship between 3 frames for demonstrating the selection processing operation | movement of the low resolution image in Example 3. FIG.

符号の説明Explanation of symbols

1 イメージセンサ
2 AFE
3 マイク
4 画像処理部
5 音声処理部
6 圧縮処理部
7 ドライバ部
8 伸長処理部
9 ディスプレイ部
10 音声出力回路部
11 スピーカ部
12 タイミングジェネレータ
13 CPU
14 メモリ
15 操作部
16,17 バス回線
20 外部メモリ
41 フレームメモリ
42 動き量算出部
43 画像評価部
44 位置ズレ補正部
45 超解像演算部
46 信号処理部
1 Image sensor 2 AFE
Reference Signs List 3 microphone 4 image processing unit 5 audio processing unit 6 compression processing unit 7 driver unit 8 expansion processing unit 9 display unit 10 audio output circuit unit 11 speaker unit 12 timing generator 13 CPU
DESCRIPTION OF SYMBOLS 14 Memory 15 Operation part 16, 17 Bus line 20 External memory 41 Frame memory 42 Motion amount calculation part 43 Image evaluation part 44 Position shift correction part 45 Super-resolution operation part 46 Signal processing part

Claims (9)

注目フレームとなる第1低解像度画像とM(1以上の整数)フレームの第2低解像度画像とから高解像度画像を生成する高解像度化部を備える画像処理装置において、
N(N>Mとなる整数)フレームの第3低解像度画像それぞれと、前記第1低解像度画像との間の動き量を検出する動き量検出部と、
前記動き量検出部で得られた前記第3低解像度画像における前記動き量を考慮し、Nフレームの前記第3低解像度画像から、前記第1低解像度画像の画素位置に基づいて設定された基準位置に対して画素位置がより近いMフレームの前記第3低解像度画像を、前記第2低解像度画像として選択する画像評価部と、
を備え、
前記画像評価部によって前記第2低解像度画像とされた前記第3低解像度画像が前記高解像度化部に与えられ、前記高解像度画像が生成されることを特徴とする画像処理装置。
In an image processing apparatus including a high-resolution part that generates a high-resolution image from a first low-resolution image serving as a frame of interest and a second low-resolution image of M (an integer of 1 or more) frame
A motion amount detection unit that detects a motion amount between each of the third low resolution images of N (an integer satisfying N> M) frames and the first low resolution image;
In consideration of the amount of motion in the third low-resolution image obtained by the motion amount detection unit, a reference set based on the pixel position of the first low-resolution image from the third low-resolution image of N frames An image evaluation unit that selects the third low-resolution image of the M frame whose pixel position is closer to the position as the second low-resolution image;
With
The image processing apparatus, wherein the third low-resolution image that has been made the second low-resolution image by the image evaluation unit is provided to the high-resolution unit, and the high-resolution image is generated.
前記基準位置を、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reference position is set to a position that is an intermediate position between adjacent pixel positions in the vertical direction and the horizontal direction in the first low-resolution image. 前記基準位置を、前記高解像度画像における前記第1低解像度画像に対する補間画素となる画素位置に設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reference position is set to a pixel position that is an interpolation pixel for the first low-resolution image in the high-resolution image. 前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記第1低解像度画像における垂直方向及び水平方向それぞれにおいて隣接する画素位置の中間位置となる位置に対して画素位置が近い前記第3低解像度画像を、前記第2低解像度画像として選択することを特徴とする請求項3に記載の画像処理装置。   In the image evaluation unit, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, an intermediate between adjacent pixel positions in the vertical direction and the horizontal direction in the first low-resolution image. The image processing apparatus according to claim 3, wherein the third low-resolution image whose pixel position is close to a position to be a position is selected as the second low-resolution image. 前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、その画素位置と前記基準位置との水平方向における距離が短い前記第3低解像度画像を、前記第2低解像度画像として選択することを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。   In the image evaluation unit, when the third low resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the third low resolution with a short distance in the horizontal direction between the pixel position and the reference position. The image processing apparatus according to claim 1, wherein an image is selected as the second low-resolution image. 前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、時間的に隣接した前フレームとの動き量が小さい前記第3低解像度画像を、前記第2低解像度画像として選択することを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。   In the image evaluation unit, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the third low-resolution image having a small amount of motion with respect to the previous frame temporally adjacent is selected. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected as the second low-resolution image. 前記画像評価部において、前記基準位置と画素位置との距離が等しい前記第3低解像度画像が複数フレームとなる場合、前記超解像ステップで水平方向及び垂直方向それぞれにおける解像度の拡大率が異なるとき、その画素位置と前記基準位置との拡大率が大きい方向における距離が短い前記低解像度画像を、前記第2低解像度画像として選択することを特徴とする請求項1〜請求項4のいずれかに記載の画像処理装置。   In the image evaluation unit, when the third low-resolution image having the same distance between the reference position and the pixel position is a plurality of frames, the resolution enlargement ratios in the horizontal direction and the vertical direction are different in the super-resolution step. The low-resolution image having a short distance in the direction in which the enlargement ratio between the pixel position and the reference position is large is selected as the second low-resolution image. The image processing apparatus described. 外部入力又は撮像により複数フレームとなる画像による画像信号が与えられるとともに、該画像信号による画像を高解像度の画像に変換する高解像度化機能を備えた電子機器において、
前記高解像度化機能を実現する画像処理部として、請求項1〜請求項7のいずれに記載の画像処理装置を備え、前記画像信号による画像を前記低解像度画像として高解像度化処理を行うことで、所望の前記高解像度画像が生成されることを特徴とする電子機器。
In an electronic device provided with an image signal based on an image that becomes a plurality of frames by external input or imaging, and having a high resolution function that converts an image based on the image signal into a high resolution image,
The image processing unit according to any one of claims 1 to 7 is provided as an image processing unit that realizes the high resolution function, and the high resolution processing is performed using the image based on the image signal as the low resolution image. An electronic apparatus, wherein the desired high-resolution image is generated.
注目フレームとなる第1低解像度画像とM(1以上の整数)フレームの第2低解像度画像とから高解像度画像を生成する高解像度化ステップを備える画像処理方法において、
N(N>Mとなる整数)フレームの第3低解像度画像それぞれと、前記第1低解像度画像との間の動き量を検出する動き量検出ステップと、
前記動き量検出ステップより得られた前記第3低解像度画像における前記動き量を考慮し、Nフレームの前記第3低解像度画像から、前記第1低解像度画像の画素位置に基づいて設定された基準位置に対して画素位置がより近いMフレームの前記第3低解像度画像を、前記第2低解像度画像として選択する低解像度画像選択ステップと、
を備え、
前記高解像度化ステップにおいて、前記低解像度画像選択ステップで前記第2低解像度画像とされた前記第3低解像度画像と前記第1低解像度画像とに基づいて前記高解像度画像を生成することを特徴とする画像処理方法。
In an image processing method comprising a high-resolution step of generating a high-resolution image from a first low-resolution image serving as a frame of interest and a second low-resolution image of M (an integer of 1 or more) frame,
A motion amount detecting step for detecting a motion amount between each of the third low resolution images of N (an integer satisfying N> M) frames and the first low resolution image;
Considering the amount of motion in the third low-resolution image obtained from the motion amount detection step, a reference set from the third low-resolution image of N frames based on the pixel position of the first low-resolution image A low-resolution image selection step of selecting the third low-resolution image of the M frame whose pixel position is closer to the position as the second low-resolution image;
With
In the high-resolution step, the high-resolution image is generated based on the third low-resolution image and the first low-resolution image that are made the second low-resolution image in the low-resolution image selection step. An image processing method.
JP2007140724A 2007-05-28 2007-05-28 Image processing method and device, and electronic device with the same Pending JP2008294950A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007140724A JP2008294950A (en) 2007-05-28 2007-05-28 Image processing method and device, and electronic device with the same
US12/127,318 US8068700B2 (en) 2007-05-28 2008-05-27 Image processing apparatus, image processing method, and electronic appliance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007140724A JP2008294950A (en) 2007-05-28 2007-05-28 Image processing method and device, and electronic device with the same

Publications (1)

Publication Number Publication Date
JP2008294950A true JP2008294950A (en) 2008-12-04

Family

ID=40169204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007140724A Pending JP2008294950A (en) 2007-05-28 2007-05-28 Image processing method and device, and electronic device with the same

Country Status (1)

Country Link
JP (1) JP2008294950A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009005119A (en) * 2007-06-22 2009-01-08 Sanyo Electric Co Ltd Image processing method, image processing apparatus, and electronic appliance with image processing apparatus
CN101860708A (en) * 2009-04-03 2010-10-13 夏普株式会社 Mobile terminal device, image output device, captured image processing system
JP2013090204A (en) * 2011-10-19 2013-05-13 Oki Electric Ind Co Ltd Image processing device and program
US8441537B2 (en) 2009-04-03 2013-05-14 Sharp Kabushiki Kaisha Portable terminal apparatus for capturing only one image, and captured image processing system for obtaining high resolution image data based on the captured only one image and outputting high resolution image
US8502875B2 (en) 2010-01-13 2013-08-06 Sharp Kabushiki Kaisha Captured image processing system, portable terminal apparatus, image output apparatus, and method for controlling captured image processing system
US8520099B2 (en) 2010-05-14 2013-08-27 Panasonic Corporation Imaging apparatus, integrated circuit, and image processing method
US9179092B2 (en) 2009-09-22 2015-11-03 Samsung Electronics Co., Ltd. System and method producing high definition video from low definition video

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009005119A (en) * 2007-06-22 2009-01-08 Sanyo Electric Co Ltd Image processing method, image processing apparatus, and electronic appliance with image processing apparatus
CN101860708A (en) * 2009-04-03 2010-10-13 夏普株式会社 Mobile terminal device, image output device, captured image processing system
JP2010245787A (en) * 2009-04-03 2010-10-28 Sharp Corp Portable terminal apparatus, image output apparatus, captured image processing system, control method of the portable terminal apparatus, image output method, program, and recording medium
CN101860708B (en) * 2009-04-03 2012-09-26 夏普株式会社 Portable terminal device, image output device and captured image processing system
US8310550B2 (en) 2009-04-03 2012-11-13 Sharp Kabushiki Kaisha Portable terminal apparatus for capturing more than one image of identical object, and captured image processing system for obtaining high resolution image data based on the captured images and outputting high resolution image
US8441537B2 (en) 2009-04-03 2013-05-14 Sharp Kabushiki Kaisha Portable terminal apparatus for capturing only one image, and captured image processing system for obtaining high resolution image data based on the captured only one image and outputting high resolution image
US9179092B2 (en) 2009-09-22 2015-11-03 Samsung Electronics Co., Ltd. System and method producing high definition video from low definition video
US8502875B2 (en) 2010-01-13 2013-08-06 Sharp Kabushiki Kaisha Captured image processing system, portable terminal apparatus, image output apparatus, and method for controlling captured image processing system
US8520099B2 (en) 2010-05-14 2013-08-27 Panasonic Corporation Imaging apparatus, integrated circuit, and image processing method
JP2013090204A (en) * 2011-10-19 2013-05-13 Oki Electric Ind Co Ltd Image processing device and program

Similar Documents

Publication Publication Date Title
JP2009037460A (en) Image processing method, image processor, and electronic equipment equipped with image processor
JP4356777B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4879261B2 (en) Imaging apparatus, high resolution processing method, high resolution processing program, and recording medium
JP4646146B2 (en) Image processing apparatus, image processing method, and program
JP5529293B2 (en) A method for edge enhancement for time scaling with metadata
JP4877090B2 (en) Image processing apparatus, image processing method, and program
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
JP2008294950A (en) Image processing method and device, and electronic device with the same
KR101049922B1 (en) Image processing apparatus, image processing method and program
JP2009194896A (en) Image processing device and method, and imaging apparatus
JP2009124621A (en) Super-resolution processing apparatus and method, and imaging apparatus
WO2011148760A1 (en) Image processing device, image capturing device, program and image processing method
JP2010161760A (en) Image processing apparatus, and electronic appliance
WO2012147523A1 (en) Imaging device and image generation method
WO2010092835A1 (en) Image processing device, image capture device, image processing method, image processing program and recording medium
JP2009111596A (en) Imaging apparatus
JP4942563B2 (en) Image processing method, image processing apparatus, and electronic apparatus including the image processing apparatus
WO2010032649A1 (en) Image display device and imaging apparatus
JP4810807B2 (en) Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program
JP4780222B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP2008293388A (en) Image processing method, image processor, and electronic equipment comprising image processor
JP2008306608A (en) Image processing method, image processing apparatus, and electronic device with the image processing apparatus
JP6516695B2 (en) Image processing system and image processing apparatus
JP5024300B2 (en) Image processing apparatus, image processing method, and program
JP2017200199A (en) Video compression device, video decoding device, and program