JP2006350562A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2006350562A
JP2006350562A JP2005174295A JP2005174295A JP2006350562A JP 2006350562 A JP2006350562 A JP 2006350562A JP 2005174295 A JP2005174295 A JP 2005174295A JP 2005174295 A JP2005174295 A JP 2005174295A JP 2006350562 A JP2006350562 A JP 2006350562A
Authority
JP
Japan
Prior art keywords
image
resolution image
edge
low
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005174295A
Other languages
Japanese (ja)
Inventor
Satoru Takeuchi
悟 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005174295A priority Critical patent/JP2006350562A/en
Publication of JP2006350562A publication Critical patent/JP2006350562A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor and an image processing program for preventing the blur of an edge even on a re-configured super-resolution image, and for holding sharpness when an edge exists in an observed low resolution image. <P>SOLUTION: The reference frame of a low resolution image frame string inputted to an image data input part 1 is selected by a reference frame selection part 4, and a high resolution image for edge decision is prepared by using the image data on the reference frame by a high resolution image generation part 5. Edge pixels are detected based on the high resolution image for edge decision, and edge information is generated. The luminance value of the reconfigured image is calculated by using the image data mapped by a projection converting part 8, and the reference range of the mapping data used when calculating a luminance value is changed to a direction where the range is reduced according to the edge information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、位置ずれのある複数の低解像度画像から高解像度画像を生成する超解像処理を用いた画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program using super-resolution processing for generating a high-resolution image from a plurality of low-resolution images with positional deviation.

同一シーンを位置をずらしながら撮影して得られる複数枚の低解像度画像列から高解像度画像を構成する超解像処理と呼ばれる方法がある。広く利用されている再構成型超解像処理では、まず観測された低解像度画像列から初期の高解像度画像を推定し、そこからカメラモデルに基づき観測画像である低解像度画像列の各画素値を推定する。推定された画素値と実際の観測画素値の誤差を最小にするように高解像度画像を更新する。収束するまで更新処理を繰り返すことにより、最終的な超解像度画像を求めている。上記、再構成型超解像処理では、最終的な超解像度画像を得るために、一般的にバックプロジェクション(逆投影)法が用いられている。
特開2004−272895号公報
There is a method called super-resolution processing that constructs a high-resolution image from a plurality of low-resolution image sequences obtained by photographing the same scene while shifting the position. In widely used reconstruction-type super-resolution processing, an initial high-resolution image is first estimated from the observed low-resolution image sequence, and each pixel value of the low-resolution image sequence, which is an observed image, based on the camera model. Is estimated. The high resolution image is updated so as to minimize the error between the estimated pixel value and the actual observed pixel value. The final super-resolution image is obtained by repeating the update process until convergence. In the above reconstruction super-resolution processing, a back projection (back projection) method is generally used to obtain a final super-resolution image.
JP 2004-272895 A

バックプロジェクション法では、初期高解像度画像の生成時や推定された画素値と実際の観測画素値の誤差を画像再構成領域に逆投影する場合に、バックプロジェクション関数(BPF)を用いているが、このバックプロジェクション関数は、高解像度画像を生成するために画像再構成領域に設定された構成点の近傍の所定領域の画素を参照して重み付けを行い、画像再構成領域の構成点の輝度値を生成するようにしているので、低解像度画像列の画素値が平均化されたものとなり、エッジが存在している場合は、再構成された超解像度画像ではそのエッジに明瞭さはなく、ぼけが生じていた。   In the back projection method, a back projection function (BPF) is used when an initial high-resolution image is generated or when an error between an estimated pixel value and an actual observed pixel value is back-projected onto an image reconstruction area. This back-projection function performs weighting with reference to pixels in a predetermined area in the vicinity of the composition point set in the image reconstruction area to generate a high-resolution image, and calculates the luminance value of the composition point in the image reconstruction area. As a result, the pixel values of the low-resolution image sequence are averaged, and if an edge exists, the reconstructed super-resolution image has no clarity and is blurred. It was happening.

本発明は、上述した課題を解決するために創案されたものであり、観測された低解像度画像にエッジ部分が存在する場合に、再構成された超解像度画像上でもエッジのぼけを防ぎ、鋭敏さを保持できるような画像処理装置及び画像処理プログラムを提供することを目的としている。   The present invention was devised to solve the above-described problem. When an edge portion exists in the observed low-resolution image, the edge blur is prevented even on the reconstructed super-resolution image, and sharpness is achieved. An object of the present invention is to provide an image processing apparatus and an image processing program that can maintain the image quality.

上記目的を達成するために、請求項1記載の発明は、同一シーンを撮影して得られる低解像度画像フレーム列を画像再構成領域に逆投影して初期高解像度画像を推定し、この初期高解像度画像から推定されるシミュレーション低解像度画像フレーム列と前記低解像度画像フレーム列との誤差を画像再構成領域に逆投影して超高解像度画像を再構成する画像処理装置において、前記低解像度画像フレーム列の基準となる画像を基準フレームとして選択する基準フレーム選択部と、前記基準フレーム選択部で選択された基準フレーム上の画像データを用いてエッジ判定用高解像度画像を生成する高解像度画像生成部と、前記高解像度画像生成部で生成されたエッジ判定用高解像度画像におけるエッジ判定対象画素とこの画素の近傍画素における輝度値の変化度合いに基づいてエッジ判定対象画素がエッジ画素か否かを判定してエッジ情報を生成するエッジ検出部と、前記低解像度画像フレーム列の複数フレームの画像データや前記シミュレーション低解像度画像フレーム列と低解像度画像フレーム列との誤差を基準フレーム座標上に写像して前記画像再構成領域を形成する射影変換部と、前記画像再構成領域に設定される再構成画像における構成点の輝度値を前記射影変換部で写像された画像データを用いて生成する際に、構成点を中心に設定された参照領域内に存在する写像された画素の輝度値を用いて該構成点の輝度値を生成する画像再構成部と、前記画像再構成部で画像を再構成する際に、エッジ検出部の結果を参照し、射影変換部で写像された画素の周囲に存在する再構成画像の構成点群中のうちエッジ情報を有する構成点については、該構成点を中心とする参照領域の大きさを縮小するように変更する再構成参照領域設定部とを備えたことを特徴とする画像処理装置である。   In order to achieve the above object, according to the first aspect of the present invention, an initial high-resolution image is estimated by back-projecting a low-resolution image frame sequence obtained by photographing the same scene onto an image reconstruction area. In the image processing apparatus for reconstructing an ultra-high resolution image by back projecting an error between a simulation low resolution image frame sequence estimated from a resolution image and the low resolution image frame sequence onto an image reconstruction area, the low resolution image frame A reference frame selection unit that selects an image serving as a reference of a column as a reference frame, and a high resolution image generation unit that generates a high resolution image for edge determination using image data on the reference frame selected by the reference frame selection unit And the edge determination target pixel in the edge determination high-resolution image generated by the high-resolution image generation unit and the brightness of pixels near the pixel. An edge detection unit that determines whether or not an edge determination target pixel is an edge pixel based on a degree of change in value and generates edge information; image data of a plurality of frames of the low-resolution image frame sequence; and the simulation low-resolution image frame A projection conversion unit that maps an error between a sequence and a low-resolution image frame sequence on a reference frame coordinate to form the image reconstruction area; and a luminance value of a component point in the reconstructed image set in the image reconstruction area Is generated using the image data mapped by the projective transformation unit, the luminance value of the component point is calculated using the luminance value of the mapped pixel existing in the reference region set around the component point. An image reconstructing unit to be generated, and a reconstructed image existing around the pixels mapped by the projective transformation unit with reference to the result of the edge detecting unit when reconstructing the image by the image reconstructing unit An image comprising a reconstructed reference area setting unit for changing a size of a reference area centered on the constituent point for a constituent point having edge information in the constituent point group It is a processing device.

また、請求項2記載の発明は、前記再構成参照領域設定部は、前記エッジ情報が水平方向のエッジである場合には参照領域の垂直方向の大きさを縮小するようにしたことを特徴とする請求項1記載の画像処理装置ある。   Further, the invention according to claim 2 is characterized in that the reconstructed reference area setting unit reduces the size of the reference area in the vertical direction when the edge information is a horizontal edge. The image processing apparatus according to claim 1.

また、請求項3記載の発明は、前記再構成参照領域設定部は、前記エッジ情報が垂直方向のエッジである場合には参照領域の水平方向の大きさを縮小するようにしたことを特徴とする請求項1記載の画像処理装置である。   The invention according to claim 3 is characterized in that the reconstruction reference area setting unit reduces the horizontal size of the reference area when the edge information is an edge in the vertical direction. The image processing apparatus according to claim 1.

また、請求項4記載の発明は、同一シーンを撮影して得られる低解像度画像フレーム列を画像再構成領域に逆投影して初期高解像度画像を推定し、この初期高解像度画像から推定されるシミュレーション低解像度画像フレーム列と前記低解像度画像フレーム列との誤差を画像再構成領域に逆投影して超高解像度画像を再構成する画像処理プログラムにおいて、コンピュータを、前記低解像度画像フレーム列の基準となる画像を基準フレームとして選択する基準フレーム選択手段と、前記基準フレーム選択手段で選択された基準フレーム上の画像データを用いてエッジ判定用高解像度画像を生成する高解像度画像生成手段と、前記高解像度画像生成手段で生成されたエッジ判定用高解像度画像におけるエッジ判定対象画素とこの画素の近傍画素における輝度値の変化度合いに基づいてエッジ判定対象画素がエッジ画素か否かを判定してエッジ情報を生成するエッジ検出手段と、前記低解像度画像フレーム列の複数フレームの画像データや前記シミュレーション低解像度画像フレーム列と低解像度画像フレーム列との誤差を基準フレーム座標上に写像して前記画像再構成領域を形成する射影変換手段と、前記画像再構成領域に設定される再構成画像の構成点の輝度値を前記射影変換手段で写像された画像データを用いて生成する際に、構成点を中心に設定された参照領域内に存在する写像された画素の輝度値を用いて該構成点の輝度値を生成する画像再構成手段と、前記画像再構成部で画像を再構成する際に、エッジ検出部の結果を参照し、射影変換手段で写像された画素の周囲に存在する再構成画像の構成点群中のうちエッジ情報を有する構成点については、該構成点を中心とする参照領域の大きさを縮小するように変更する再構成参照領域設定手段として機能させるための画像処理プログラムである。   According to the fourth aspect of the present invention, an initial high-resolution image is estimated by back projecting a low-resolution image frame sequence obtained by photographing the same scene onto an image reconstruction area, and is estimated from the initial high-resolution image. In an image processing program for reconstructing an ultra-high resolution image by back-projecting an error between a simulation low-resolution image frame sequence and the low-resolution image frame sequence onto an image reconstruction area, a computer is used as a reference for the low-resolution image frame sequence A reference frame selection unit that selects an image to be a reference frame, a high resolution image generation unit that generates a high resolution image for edge determination using image data on the reference frame selected by the reference frame selection unit, and Edge-determined pixel in the high-resolution image for edge determination generated by the high-resolution image generating means and pixels near this pixel Edge detection means for generating edge information by determining whether or not an edge determination target pixel is an edge pixel based on the degree of change in luminance value, image data of a plurality of frames of the low resolution image frame sequence, and the simulation low resolution Projection transformation means for mapping the error between the image frame sequence and the low-resolution image frame sequence on the reference frame coordinates to form the image reconstruction region, and the component points of the reconstructed image set in the image reconstruction region When the luminance value is generated using the image data mapped by the projective transformation means, the luminance value of the component point is calculated using the luminance value of the mapped pixel existing in the reference area set around the component point. An image reconstructing unit that generates a value, and the image reconstructing unit refers to the result of the edge detecting unit when reconstructing the image, and exists around the pixel mapped by the projective transforming unit. For the component points having edge information in the component point group of the reconstructed image to function as reconstruction reference region setting means for changing the size of the reference region around the component point to be reduced An image processing program.

本発明によれば、超解像度画像を再構成する過程で、画像再構成領域に設定された再構成画像の構成点の輝度値を求めるときに、構成点の輝度値を算出するために用いる低解像度画像の画素の領域を参照領域として設定しているが、基準フレーム座標上に写像された低解像度画像の画素の周囲に存在する再構成画像の構成点がエッジ情報を有する場合、すなわちエッジを形成している場合であって、その構成点の参照領域内に当該の写像された画素が含まれる場合には、当該構成点を中心として設定された参照領域を減少させるようにしているので、構成点の輝度値を算出するときには、当該低解像度画像の画素の輝度値の寄与を減少させることができ、エッジの鋭さを保存することができる。   According to the present invention, when the luminance value of the constituent point of the reconstructed image set in the image reconstruction area is obtained in the process of reconstructing the super-resolution image, the low value used for calculating the luminance value of the constituent point is used. The pixel area of the resolution image is set as the reference area, but when the constituent points of the reconstructed image existing around the pixel of the low resolution image mapped on the standard frame coordinates have edge information, that is, the edge If the mapped pixel is included in the reference area of the constituent point, the reference area set around the constituent point is reduced. When calculating the luminance value of the constituent point, the contribution of the luminance value of the pixel of the low-resolution image can be reduced, and the sharpness of the edge can be preserved.

また、エッジ情報のエッジ方向が垂直方向のエッジならば、参照領域の水平方向の長さを縮小し、エッジ情報のエッジ方向が水平方向のエッジならば、参照領域の垂直方向の長さを縮小することで、エッジの方向に合わせた適切な処理が行える。   If the edge direction of the edge information is a vertical edge, the horizontal length of the reference area is reduced. If the edge direction of the edge information is a horizontal edge, the vertical length of the reference area is reduced. By doing so, it is possible to perform appropriate processing according to the direction of the edge.

以下、図面を参照して本発明の一実施形態を説明する。図1は本発明による画像処理装置の構成を示す。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows the configuration of an image processing apparatus according to the present invention.

画像処理装置は、画像データ入力部1、記憶部2、処理条件設定部3、基準フレーム選択部4、高解像度画像生成部5、エッジ検出部6、再構成参照領域設定部7、射影変換部8、画像再構成部9等で構成されており、観測された画像列や撮影された画像フレーム列などが画像データ入力部1に入力され、所定の画像処理が行われた後、画像再構成部9より、画像データが出力される。図示はしていないが、画像処理装置の各構成部分は、CPU等の制御部によりコントロールされるか、各構成部分内設けられた制御部により制御される。また、図1の各構成部は、プログラムとして動作させることもでき、この場合は、コンピュータにより制御される。   The image processing apparatus includes an image data input unit 1, a storage unit 2, a processing condition setting unit 3, a reference frame selection unit 4, a high resolution image generation unit 5, an edge detection unit 6, a reconstruction reference region setting unit 7, and a projective conversion unit. 8. The image reconstruction unit 9 and the like are configured. The observed image sequence, the captured image frame sequence, and the like are input to the image data input unit 1 and subjected to predetermined image processing. Image data is output from the unit 9. Although not shown, each component of the image processing apparatus is controlled by a control unit such as a CPU or controlled by a control unit provided in each component. 1 can also be operated as a program, and in this case, is controlled by a computer.

まず、異なる角度、距離、時間等の変位をもって同一の対象物(同一のシーン)を撮影した複数フレームの画像や、ビデオ映像における一連のシーケンス等、若干の相違を持つ画像列(観測画像列)を取得する。これらの画像列を低解像度画像フレーム列として画像データ入力部1に入力する。入力された低解像度画像フレーム列は記憶部2に記憶される。   First, an image sequence (observation image sequence) with slight differences such as multiple frames of images of the same object (same scene) taken at different angles, distances, time, etc., or a series of sequences in video images To get. These image sequences are input to the image data input unit 1 as low-resolution image frame sequences. The input low resolution image frame sequence is stored in the storage unit 2.

次に、超解像処理に使用する低解像度画像のフレーム数Nを決定し、基準フレームを決定する。本実施例では、観測画像列の中間に位置するフレーム(N/2)を基準フレームとするが、低解像度画像列の最初に位置する画像を基準フレームとしても良く、N枚の画像のうち、いずれを基準フレームにしても良い。   Next, the number N of low-resolution images used for the super-resolution processing is determined, and the reference frame is determined. In this embodiment, the frame (N / 2) located in the middle of the observed image sequence is set as the reference frame, but the image positioned at the beginning of the low resolution image sequence may be used as the reference frame. Either may be used as a reference frame.

また、低解像度画像から高解像度画像への拡大率rを決定する。これらのデータを処理条件設定部3に入力する。処理条件設定部3は、フレーム数N、拡大率rを記憶部2に、基準フレーム番号を記憶部2と基準フレーム選択部4に送信する。記憶部2は入力された低解像度画像フレーム列の内、N枚のフレームを射影変換部8へ出力する。また、記憶部2は、拡大率r、基準フレーム番号等も、射影変換部8へ出力する。   Further, the enlargement ratio r from the low resolution image to the high resolution image is determined. These data are input to the processing condition setting unit 3. The processing condition setting unit 3 transmits the number of frames N and the enlargement ratio r to the storage unit 2 and the reference frame number to the storage unit 2 and the reference frame selection unit 4. The storage unit 2 outputs N frames of the input low-resolution image frame sequence to the projective conversion unit 8. The storage unit 2 also outputs the enlargement ratio r, the reference frame number, and the like to the projective conversion unit 8.

図2の上段は、選択されたN枚の低解像度画像の一例を示す。上述したように、これら一連の低解像度画像のうち、低解像度画像列の中間に位置するフレーム(N/2)を基準フレームとしている。   The upper part of FIG. 2 shows an example of N selected low-resolution images. As described above, the frame (N / 2) located in the middle of the low-resolution image sequence among the series of low-resolution images is used as the reference frame.

選択されたN枚の低解像度画像と拡大率rは、記憶部2から基準フレーム選択部4に送られる。基準フレーム選択部4は入力されたN枚の低解像度画像のうち基準フレーム(低解像度画像N/2)の画像を選択して高解像度画像生成部5に出力する。   The selected N low-resolution images and the enlargement ratio r are sent from the storage unit 2 to the reference frame selection unit 4. The reference frame selection unit 4 selects an image of a reference frame (low resolution image N / 2) from the N pieces of input low resolution images and outputs the selected image to the high resolution image generation unit 5.

高解像度画像生成部5では、エッジ判定用高解像度画像を基準フレーム上の画像データのみを用いて作成する。まず、拡大率rにより基準フレームの画像を拡大し、補間処理により画素を補間していく。図3に補間処理によりエッジ判定用高解像度画像を作成する一例を示す。図3に表示された黒丸が基準フレーム上の画素であり、白丸が補間により生成される画素(補間画素)を示す。また、拡大率r=2となっている。補間の方法としては、補間画素と補間画素の周囲に存在する基準フレーム上の画素との距離の比で求めた画素値で補間する線形補間を用いるようにしても良く、その他バイキュービック補間、Sinc関数による補間等を用いるようにしても良い。   The high resolution image generation unit 5 creates a high resolution image for edge determination using only image data on the reference frame. First, the image of the reference frame is enlarged by the enlargement ratio r, and the pixels are interpolated by interpolation processing. FIG. 3 shows an example of creating a high resolution image for edge determination by interpolation processing. Black circles displayed in FIG. 3 are pixels on the reference frame, and white circles indicate pixels (interpolated pixels) generated by interpolation. Further, the enlargement ratio r = 2. As an interpolation method, linear interpolation in which interpolation is performed with a pixel value obtained by a ratio of a distance between an interpolation pixel and a pixel on a reference frame existing around the interpolation pixel may be used. In addition, bicubic interpolation, Sinc You may make it use the interpolation by a function.

上記のように生成されたエッジ判定用高解像度画像は、高解像度画像生成部5からエッジ検出部6に出力されて、エッジ領域の検出が行われる。エッジ検出部6では、エッジ判定用高解像度画像の各画素についてエッジ検出を行うために所定のエッジ検出方法が用いられる。   The edge determination high-resolution image generated as described above is output from the high-resolution image generation unit 5 to the edge detection unit 6 to detect an edge region. The edge detection unit 6 uses a predetermined edge detection method to perform edge detection for each pixel of the edge determination high-resolution image.

例えば、Prewittフィルタを用いてテンプレートマッチングを行い、エッジを検出する方法を図4に示す。図4(a)に示す9点の画素(黒丸部分)のうち、中心の画素がエッジ判定対象画素となる。また、図4(b)は水平方向のエッジ検出用のPrewittフィルタを、図4(c)は垂直方向のエッジ検出用のPrewittフィルタを示し、各フィルタに表示されている9個の数値の位置は、図4(a)の9点の画素の位置に対応している。   For example, FIG. 4 shows a method for detecting an edge by performing template matching using a Prewitt filter. Of the nine pixels (black circles) shown in FIG. 4A, the center pixel is the edge determination target pixel. FIG. 4B shows a Prewitt filter for edge detection in the horizontal direction, and FIG. 4C shows a Prewitt filter for edge detection in the vertical direction, and the positions of nine numerical values displayed on each filter. Corresponds to the positions of the nine pixels in FIG.

図4(a)の9点の画素の輝度値(画素値)に、各画素位置に対応する図4(b)のフィルタの各数値を掛け算し、9個の算出値の和を計算する。また、図4(a)の9点の画素の輝度値(画素値)に、各画素位置に対応する図4(c)のフィルタの各数値を掛け算し、9個の算出値の和を計算する。そして、和の絶対値が所定の閾値Lを超える場合にエッジと判定するようにする。例えば、図4(b)のフィルタを掛けた結果の値が閾値Lを超える場合には、エッジ判定対象画素は水平方向のエッジであると判定され、エッジの位置と方向が記録される。一方、図4(c)のフィルタを掛けた結果の値が閾値Lを超える場合には、エッジ判定対象画素は垂直方向のエッジであると判定され、エッジの位置と方向が記録される。   The luminance values (pixel values) of the nine pixels in FIG. 4A are multiplied by the numerical values of the filter in FIG. 4B corresponding to the pixel positions, and the sum of the nine calculated values is calculated. Also, the luminance values (pixel values) of the nine pixels in FIG. 4A are multiplied by the numerical values of the filter in FIG. 4C corresponding to each pixel position, and the sum of the nine calculated values is calculated. To do. Then, when the absolute value of the sum exceeds a predetermined threshold value L, the edge is determined. For example, when the value obtained by applying the filter of FIG. 4B exceeds the threshold value L, the edge determination target pixel is determined to be a horizontal edge, and the position and direction of the edge are recorded. On the other hand, when the value obtained by applying the filter of FIG. 4C exceeds the threshold value L, the edge determination target pixel is determined to be an edge in the vertical direction, and the position and direction of the edge are recorded.

エッジ判定の方法としては、上記のようにエッジ検出フィルタを用いるのではなく、ウェーブレット変換を用いても良い。ウェーブレット変換については、以下のようなことが知られている。   As an edge determination method, instead of using an edge detection filter as described above, wavelet transform may be used. The following is known about the wavelet transform.

多重スケ−ル輝度勾配平面M(f(x,y))の各値は、スケールパラメータjが十分小さいとき、あるK>0が存在し、次式のようになる。   Each value of the multi-scale luminance gradient plane M (f (x, y)) has a certain K> 0 when the scale parameter j is sufficiently small, and is expressed by the following equation.

(f(x,y))=K×2jα
また、水平方向のウェーブレット変換W(f(x,y))の各値は、スケールパラメータjが十分小さいとき、あるK>0が存在し、以下のようになる。
M j (f (x, y)) = K × 2
Each value of the horizontal wavelet transform W 1 (f (x, y)) has a certain K 1 > 0 when the scale parameter j is sufficiently small, and is as follows.

(f(x,y))=K×2jα
また、垂直方向のウェーブレット変換W(f(x,y))の各値は、スケールパラメータjが十分小さいとき、あるK>0が存在し、以下のようになる。
W 1 j (f (x, y)) = K 1 × 2
Each value of the wavelet transform W 2 (f (x, y)) in the vertical direction has a certain K 2 > 0 when the scale parameter j is sufficiently small, and is as follows.

(f(x,y))=K×2jα
ここで、αはリプシッツ指数と呼ばれ、fはαを超えない最大の整数と等しい回数だけ連続微分可能となる。エッジ判定対象画素(x,y)でのリプシッツ指数を計算すれば、連続微分可能回数を推定することができる。一般的には、輝度値の変化が滑らかであるほど、リプシッツ指数が大きくなる。したがって、リプシッツ指数が所定の閾値以下の場合、すなわち連続微分可能回数が所定の閾値以下の場合に、エッジを構成する画素であると判定でき、垂直方向のエッジか水平方向のエッジかの判定も行うことができる。
W 2 j (f (x, y)) = K 2 × 2
Here, α is called a Lipschitz exponent, and f can be continuously differentiated a number of times equal to the maximum integer not exceeding α. If the Lipschitz exponent at the edge determination target pixel (x, y) is calculated, the number of continuously differentiable values can be estimated. In general, the smoother the change in luminance value, the larger the Lipschitz index. Therefore, when the Lipschitz index is less than or equal to a predetermined threshold value, that is, when the number of consecutive differentials is less than or equal to a predetermined threshold value, it can be determined that the pixel constitutes an edge, and whether it is a vertical edge or a horizontal edge It can be carried out.

このような、検出処理が図3の例で示されたエッジ判定用高解像度画像の各画素について行われ、すべての画素についてエッジ判定が行われ、エッジ位置とエッジ方向が記憶されるとエッジ検出処理は終了する。   Such detection processing is performed for each pixel of the high-resolution image for edge determination shown in the example of FIG. 3, edge determination is performed for all the pixels, and edge detection and edge direction are stored to detect the edge. The process ends.

一方、記憶部2で選択されたN枚の低解像度画像は、射影変換部8に入力され、各低解像度画像フレーム上の画素が基準フレーム上へ写像される。低解像度画像フレーム列中の画素を基準フレームの座標上に写像(投影)して、すべての画素を基準フレーム上に集約することを考える。基準フレーム上の座標(x,y)とk番目のフレーム上の座標(x,y)には、以下の関係が成り立つことが知られている。 On the other hand, the N low resolution images selected by the storage unit 2 are input to the projective conversion unit 8, and the pixels on each low resolution image frame are mapped onto the reference frame. Consider mapping (projecting) the pixels in the low-resolution image frame sequence onto the coordinates of the reference frame and consolidating all the pixels on the reference frame. It is known that the following relationship holds between the coordinates (x, y) on the reference frame and the coordinates (x k , y k ) on the kth frame.

x=(cx+dy+e)/(ax+by+1)
y=(fx+gy+h)/(ax+by+1)
これらの式は射影変換と呼ばれa〜hの8個のパラメータにより表される。パラメータ a〜hは基準フレーム上の特徴点列を例えば Tomsai らの方法(Carlo Tomasi and Takeo Kanade, Detection and Tracking of Point Features, Carnegie Mellon University Technical Report CMU-CS, April 1991) を用いて各低解像度画像上で追跡し、8個以上の対応関係を得ることで求められる。8個のパラメータを求めることで、射影変換式が決定する。決定された射影変換式に従って基準フレーム上に、各低解像度画像フレーム列中の画素をすべて写像する。
x = (cx k + dy k + e) / (ax k + by k +1)
y = (fx k + gy k + h) / (ax k + by k +1)
These equations are called projective transformations and are represented by eight parameters a to h. Parameters a to h represent the feature point sequence on the reference frame for each low resolution using the method of Tomsai et al. (Carlo Tomasi and Takeo Kanade, Detection and Tracking of Point Features, Carnegie Mellon University Technical Report CMU-CS, April 1991). It is obtained by tracking on the image and obtaining 8 or more correspondences. By obtaining eight parameters, a projective transformation formula is determined. All the pixels in each low-resolution image frame sequence are mapped onto the reference frame according to the determined projective transformation formula.

次に、処理条件設定部3に入力された拡大倍率rを用いて基準フレーム上に写像された画像データと最初から基準フレーム上に存在していた画像データを拡大する。低解像度画像フレームの大きさを幅w、高さtとすると、再構成画像(超解像度画像)の幅Wと高さTは、W=r×w、H=r×tとなり、高解像度画像生成部5で生成されたエッジ判定用高解像度画像と同じ大きさになる。   Next, the image data mapped onto the reference frame and the image data existing on the reference frame from the beginning are enlarged using the enlargement magnification r input to the processing condition setting unit 3. Assuming that the size of the low resolution image frame is width w and height t, the width W and height T of the reconstructed image (super resolution image) are W = r × w and H = r × t. It becomes the same size as the edge determination high resolution image generated by the generation unit 5.

図2は、低解像度画像フレーム列の画像データを基準フレーム上に写像し、拡大した状態を示す。拡大率rは、2倍の拡大率としている。白丸は基準フレーム上の画素であり、格子の交差点上に位置している。斜線付の丸は、基準フレーム上の画素以外の低解像度画像フレーム上の画素を示している。図では、低解像度画像(N/2)+1と低解像度画像Nの画素の写像のみについて例示しているが、基準フレーム(低解像度画像N/2)を除く低解像度画像1〜低解像度画像Nまでに含まれる画素についてすべてが基準フレーム上に写像される。白三角は、画像再構成領域における再構成画像の構成点を示し、この構成点の輝度値(画素値)が、基準フレーム座標上の画像データ、すなわち基準フレームを含む低解像度画像1〜低解像度画像Nの画素から算出される。   FIG. 2 shows a state in which the image data of the low-resolution image frame sequence is mapped onto the reference frame and enlarged. The enlargement ratio r is a double enlargement ratio. White circles are pixels on the reference frame and are located on the intersections of the grid. Circles with diagonal lines indicate pixels on the low-resolution image frame other than the pixels on the reference frame. In the figure, only the mapping of the pixels of the low resolution image (N / 2) +1 and the low resolution image N is illustrated, but the low resolution image 1 to the low resolution image excluding the reference frame (low resolution image N / 2). All pixels contained up to N are mapped onto the reference frame. The white triangles indicate the constituent points of the reconstructed image in the image reconstruction area, and the luminance values (pixel values) of the constituent points are the image data on the reference frame coordinates, that is, the low resolution image 1 to the low resolution including the reference frame. Calculated from the pixels of the image N.

射影変換部8で写像拡大された画像データは、画像再構成部9に送られる。画像再構成部9では、超解像処理により超解像度画像を復元する。超解像処理のフローを示すのが、図6である。低解像度画像の複数フレームの画素を用いて超解像度画像を作成するため、基本的な超解像法の一つであるバックプロジェクション法(逆投影法)を用いる。   The image data enlarged by the projection conversion unit 8 is sent to the image reconstruction unit 9. The image reconstruction unit 9 restores a super-resolution image by super-resolution processing. FIG. 6 shows a flow of super-resolution processing. In order to create a super-resolution image using pixels of a plurality of frames of a low-resolution image, a back projection method (back projection method) which is one of basic super-resolution methods is used.

まず、反復回数の初期化、誤差の和の最小値の初期化等を行っておく(S1)。次に、バックプロジェクション関数(BPF:Back Projection Function)と点拡がり関数(PSF:Point Spread Function)を決定する(S2)。バックプロジェクション関数は、観測された低解像度画像列から初期の再構成画像(高解像度画像)を生成するとき、観測された低解像度画像列とシミュレーションにより得られる低解像度画像列間の誤差を再構成画像上に逆投影するときに用いられる。また、点拡がり関数は、カメラモデルと言われるもので、複雑なカメラ(撮像装置)の特性、例えば、カメラのMTF(Modulation Transfer Function)値、CCDのローパスフィルターの振る舞い、ピクセル密度やAD変換等の電気的作用などを抽象化したものであり、再構成画像から推定されるシミュレーション低解像度画像フレーム列を生成するときに用いられる。   First, the number of iterations is initialized, the minimum value of the sum of errors is initialized (S1). Next, a back projection function (BPF) and a point spread function (PSF) are determined (S2). The backprojection function reconstructs the error between the observed low-resolution image sequence and the low-resolution image sequence obtained by simulation when generating the initial reconstructed image (high-resolution image) from the observed low-resolution image sequence. Used when back projecting onto an image. The point spread function is called a camera model. The characteristics of a complicated camera (imaging device), such as the MTF (Modulation Transfer Function) value of the camera, the behavior of a low-pass filter of a CCD, pixel density, AD conversion, etc. This is an abstraction of the electrical action and the like, and is used when generating a simulation low-resolution image frame sequence estimated from the reconstructed image.

例えば、BPFとしては、高域の保存特性に優れるミッチェルフィルタ、PSFとしてはガウシアンフィルタを選択することができる。これらのフィルタの例を図11に示す。実線で表示されているのがガウシアンフィルタであり、破線で表示されているのがミッチェルフィルタである。また、図11の横軸はフィルタ中心からの距離(ピクセル)、縦軸は各フィルタの返す値を示す。各フィルタが値を返せる範囲、すなわちグラフが描かれている範囲を見ると、ガウシアンフィルタは−1.25ピクセルから1.25ピクセルまで描かれているので長さとしては2.5ピクセルとなる。他方、ミッチェルフィルタでは、−2ピクセルから2ピクセルまでであり、その長さは4ピクセルとなる。各フィルタが値を返せる範囲は台の大きさと呼ばれており、台の大きさは上記のようにミッチェルフィルタでS=4、ガウシアンフィルタでR=2.5である。   For example, a Mitchell filter having excellent high-frequency storage characteristics can be selected as the BPF, and a Gaussian filter can be selected as the PSF. Examples of these filters are shown in FIG. The Gaussian filter is displayed with a solid line, and the Mitchell filter is displayed with a broken line. In addition, the horizontal axis of FIG. 11 indicates the distance (pixel) from the filter center, and the vertical axis indicates the value returned by each filter. Looking at the range where each filter can return a value, that is, the range where the graph is drawn, the Gaussian filter is drawn from -1.25 pixels to 1.25 pixels, so the length is 2.5 pixels. On the other hand, in the Mitchell filter, the length is −2 pixels to 2 pixels, and the length is 4 pixels. The range in which each filter can return a value is called the size of the table, and the size of the table is S = 4 for the Mitchell filter and R = 2.5 for the Gaussian filter as described above.

このBPFとPSFの2次元的な台の概念を示すのが、図12と図13である。図12では、バックプロジェクションカーネルの台と示されている円形状の範囲が、再構成画像の構成点(白丸)が影響を受ける範囲であり、その範囲内に存在している低解像度画像の画素(斜線付きの丸)から前記再構成画像の構成点に関する重みが算出される。この台の範囲外に存在する低解像度画像の画素には影響を受けない。円形状の台の中心に存在する再構成画像の構成点を中心として参照する低解像度画像の画素が2次元的に分布している状態となっている。   FIG. 12 and FIG. 13 show the concept of the two-dimensional stand of BPF and PSF. In FIG. 12, the circular range indicated as the back projection kernel base is a range where the constituent points (white circles) of the reconstructed image are affected, and the pixels of the low-resolution image existing within the range. A weight related to the constituent points of the reconstructed image is calculated from the circles with diagonal lines. The pixels of the low-resolution image existing outside the range of the table are not affected. The pixels of the low-resolution image that are referenced around the constituent point of the reconstructed image existing at the center of the circular platform are two-dimensionally distributed.

台の範囲内に存在する低解像度画像の画素と再構成画像の構成点(白丸)との距離に応じてBPFから異なる値が返され、この返された値が重み付け値となる。この重み付け値と重み付けを算出するのに使用された低解像度画像の画素値との積が構成点の輝度を算出する際に寄与することになる。このように、台の範囲は、構成点の輝度値を算出する場合に、構成点を中心として輝度値を算出するために用いる低解像度画像の画素を参照する領域である。   A different value is returned from the BPF according to the distance between the pixel of the low-resolution image existing in the range of the table and the constituent point (white circle) of the reconstructed image, and this returned value becomes the weighting value. The product of the weight value and the pixel value of the low-resolution image used to calculate the weight contributes to the calculation of the luminance of the constituent points. As described above, the range of the platform is an area that refers to the pixel of the low-resolution image used for calculating the luminance value around the component point when calculating the luminance value of the component point.

また、図13に示されている点拡がり関数の台と表されている範囲(参照領域)が、低解像度画像の画素(斜線付きの丸)が影響を受ける範囲であり、BPFとは逆に、再構成画像上の画素(白丸)から低解像度画像の画素に関する重みが算出される。   In addition, a range (reference region) represented as a point spread function platform shown in FIG. 13 is a range in which pixels of a low-resolution image (circles with diagonal lines) are affected, contrary to BPF. Then, the weight related to the pixel of the low-resolution image is calculated from the pixel (white circle) on the reconstructed image.

BPFの台の設定については、図12の例のように円形状の台を設定しても良いが、本実施例では、X方向の長さS1=S、Y方向の長さS2=Sの正方形状の台(参照領域)を設定することとする。   Regarding the setting of the BPF platform, a circular platform may be set as in the example of FIG. 12, but in this embodiment, the length S1 = S in the X direction and the length S2 = S in the Y direction are set. A square base (reference area) is set.

上記BPF、PSFの設定については、例えば、処理条件設定部3から上記のようにPSFとBPFの関数の選択ができるような構成としておけば、適宜他の関数にPSFとBPFを変更することができる。このようにして、PSFとBPFの設定を行う(S2)。次に再構成画像の全ての構成点Xに関するBPFの重みの総和を算出する(S3)。重みの総和を算出する処理(S3)のフローを示すのが図7である。まず、重みの総和の初期化を行い(S31)、写像拡大画像データを射影変換部8より取得する(S32)。   Regarding the setting of the BPF and PSF, for example, if the processing condition setting unit 3 can select the PSF and BPF functions as described above, the PSF and BPF can be appropriately changed to other functions. it can. In this way, PSF and BPF are set (S2). Next, the sum of the BPF weights for all the constituent points X of the reconstructed image is calculated (S3). FIG. 7 shows a flow of processing (S3) for calculating the sum of weights. First, the sum of weights is initialized (S31), and the enlarged map image data is acquired from the projective transformation unit 8 (S32).

一方、エッジ位置とエッジ方向が記録されたエッジ検出データがエッジ検出部6から再構成参照領域設定部7に送られてきており、このエッジ検出データに基づいて参照領域を変更する(S33)。この再構成参照領域の設定(台S1、S2)の手順を示すのが、図10である。上述したように、BPFの参照領域は、初期値は正方形の台に設定されているので、その値に初期化する(S21)。低解像度画像上の点yの再構成画像領域での座標をZとすると、Z(I,J)の近傍を囲む4つの構成点についてエッジが存在するかどうかをチェックする(S22)。 On the other hand, the edge detection data in which the edge position and the edge direction are recorded is sent from the edge detection unit 6 to the reconstruction reference region setting unit 7, and the reference region is changed based on the edge detection data (S33). FIG. 10 shows the procedure for setting the reconstruction reference area (bases S1 and S2). As described above, since the initial value of the BPF reference area is set to a square base, it is initialized to that value (S21). If the coordinates of the point y on the low-resolution image in the reconstructed image area are Z y , it is checked whether or not there are edges at the four constituent points surrounding the vicinity of Z y (I, J) (S22).

この判定には、エッジ検出部6からのエッジ領域データを用いる。高解像度画像生成部5で作成されたエッジ判定用高解像度画像の画素と、再構成画像の構成点とは位置や大きさが完全に一致するので、エッジ判定用高解像度画像でエッジと判定された画素に対応する構成点についてはエッジが存在するものと判断される。S22でエッジが存在する場合には、垂直方向のエッジか(S23)、水平方向のエッジか(S25)判断される。   For this determination, edge region data from the edge detector 6 is used. Since the positions and sizes of the pixels of the edge determination high-resolution image created by the high-resolution image generation unit 5 and the constituent points of the reconstructed image are completely the same, it is determined as an edge in the edge determination high-resolution image. It is determined that an edge exists for the configuration point corresponding to the pixel. If there is an edge in S22, it is determined whether it is a vertical edge (S23) or a horizontal edge (S25).

垂直方向のエッジである場合には(S23 YES)、4つの構成点のうちエッジが存在すると判断された構成点を中心とした台の水平方向の長さを半分のS/2にし(S24)、水平方向のエッジである場合には(S25 YES)、台の垂直方向の長さを半分のS/2にする(S26)。垂直方向のエッジでもあり、水平方向のエッジでもある場合には、水平方向の台の長さと垂直方向の台の長さを共に半分のS/2にする。他方、Z(I,J)の近傍を囲む4つの構成点にエッジが存在しない場合には、台の大きさを変更せずに処理を終了する(S22 NO)。 If the edge is a vertical edge (S23 YES), the horizontal length of the table centering on the component point determined to be present among the four component points is reduced to half S / 2 (S24). If the edge is in the horizontal direction (S25 YES), the vertical length of the table is set to half S / 2 (S26). In the case of both the vertical edge and the horizontal edge, both the horizontal base length and the vertical base length are set to half S / 2. On the other hand, if there are no edges at the four composing points surrounding the vicinity of Z y (I, J), the process is terminated without changing the size of the table (NO in S22).

図10の処理の状態を具体的に示すのが、図14、15である。図14は垂直方向にエッジが存在する場合の参照領域の変化を示し、図15は水平方向にエッジが存在する場合の参照領域の変化を示す。図14に表示されているA、B、C、Dの黒丸は再構成画像の構成点を示すものであり、高解像度画像生成部5で作成されたエッジ判定用高解像度画像を再構成画像の構成点に重ね合わせた状態を示す。また、構成点A、B、C、Dは、低解像度画像上の点yを再構成画像領域に写像拡大した点Z(I,J)を格子状に囲む最小の面積を形成する構成点である。このような関係にある構成点を抽出した後、各構成点位置についてエッジが検出されているかどうかをエッジ検出部6からのエッジ検出データに基づき確認する。 FIGS. 14 and 15 specifically show the processing state of FIG. FIG. 14 shows the change of the reference area when an edge exists in the vertical direction, and FIG. 15 shows the change of the reference area when an edge exists in the horizontal direction. The black circles A, B, C, and D displayed in FIG. 14 indicate the constituent points of the reconstructed image, and the edge determination high-resolution image created by the high-resolution image generation unit 5 is the reconstructed image. The state of being superimposed on the constituent points is shown. The constituent points A, B, C, and D are constituent points that form a minimum area that encloses a point Z y (I, J) obtained by mapping and enlarging the point y on the low-resolution image in the reconstructed image area. It is. After extracting the component points having such a relationship, it is confirmed based on the edge detection data from the edge detection unit 6 whether or not an edge is detected for each component point position.

エッジ判定用高解像度画像のデータより、画素A、B、C、Dの各々の輝度が、例えばI=100、I=50、I=100、I=50とすると、垂直方向(Y方向)にエッジがあるとエッジ判定部6で判定される。このエッジ検出データに基づいて、エッジ情報を有する構成点については、エッジの方向に基づき参照領域の大きさを縮小する方向に変更し、再設定する。 From the high resolution image data for edge determination, if the luminance of each of the pixels A, B, C, and D is, for example, I A = 100, I B = 50, I C = 100, and I D = 50, The edge determination unit 6 determines that there is an edge in the (Y direction). Based on the edge detection data, the component points having the edge information are changed and set again in the direction of reducing the size of the reference area based on the edge direction.

例えば、構成点Bについて考察すると、構成点Bは垂直方向のエッジ情報を有しているので、構成点Bを中心とするBPFの台(参照領域)が、初期に設定されたS×Sの正方形領域から(S/2)×Sの長方形領域に変更される。また、図示はしていないが、構成点A、C、Dのいずれも垂直方向のエッジ情報を有するので、参照領域の水平方向の長さがS/2となる。このようにすることにより、少なくとも構成点B、Dの各参照領域には点Z(I,J)が入らないので、構成点B、Dの輝度値を生成する際に点Z(I,J)の輝度値が寄与することがなくなり、エッジの鋭敏さが保存される。 For example, considering the configuration point B, since the configuration point B has edge information in the vertical direction, the base (reference region) of the BPF centering on the configuration point B is an S × S of the initial setting. The square area is changed to a rectangular area of (S / 2) × S. Although not shown, since all of the configuration points A, C, and D have edge information in the vertical direction, the horizontal length of the reference area is S / 2. In this way, at least the structural point B, since the point in each reference area D Z y (I, J) from entering, constituting point B, the point when generating the luminance value of D Z y (I , J) does not contribute, and the sharpness of the edge is preserved.

図15についても同様に、A、B、C、Dの黒丸は再構成画像の構成点を示すものであり、高解像度画像生成部5で作成されたエッジ判定用高解像度画像を再構成画像の構成点に重ね合わせた状態を示す。また、構成点A、B、C、Dは、再構成画像領域上の低解像度画像の点Z(I,J)を格子状に囲む最小の面積を形成する構成点である。エッジ判定用高解像度画像のデータより、画素A、B、C、Dの各々の輝度が、例えばI=100、I=100、I=50、I=50とすると、水平方向(X方向)にエッジがあるとエッジ判定部6で判定される。 Similarly in FIG. 15, the black circles of A, B, C, and D indicate the constituent points of the reconstructed image, and the edge determination high-resolution image created by the high-resolution image generation unit 5 is used as the reconstructed image. The state of being superimposed on the constituent points is shown. Further, the configuration points A, B, C, and D are configuration points that form a minimum area surrounding the point Z y (I, J) of the low-resolution image on the reconstructed image area in a grid pattern. If the brightness of each of the pixels A, B, C, and D is, for example, I A = 100, I B = 100, I C = 50, and I D = 50 from the edge determination high-resolution image data, The edge determination unit 6 determines that there is an edge in the (X direction).

このエッジ検出データに基づいて、エッジ情報を有する構成点については、エッジの方向に基づき参照領域の大きさを縮小する方向に変更し、再設定する。構成点Bについて考察すると、構成点Bは水平方向のエッジ情報を有しているので、構成点Bを中心とするBPFの台(参照領域)が、初期に設定されたS×Sの正方形領域からS×(S/2)の長方形領域に変更される。   Based on the edge detection data, the component points having the edge information are changed and set again in the direction of reducing the size of the reference area based on the edge direction. Considering the configuration point B, since the configuration point B has edge information in the horizontal direction, the base of the BPF (reference region) centering on the configuration point B is an initially set S × S square region. To S × (S / 2) rectangular area.

また、図示はしていないが、構成点A、C、Dのいずれも水平方向のエッジ情報を有するので、参照領域の垂直方向の長さがS/2となる。このようにすることにより、構成点A、Bの各参照領域には点Z(I,J)が入ることにはなるが、他方、構成点C、Dの各参照領域には点Z(I,J)が入らずに、輝度値を生成する際に点Z(I,J)の輝度値が寄与することがなくなり、エッジの鋭敏さが保存される。 Although not shown, since all of the configuration points A, C, and D have edge information in the horizontal direction, the length of the reference area in the vertical direction is S / 2. By this way, control points A, Point Z y (I, J) to each reference area B becomes the the entering, while constituting point C, the point in each reference area D Z y The luminance value at the point Z y (I, J) does not contribute to the generation of the luminance value without (I, J) being entered, and the sharpness of the edge is preserved.

なお、図14、15において、仮に初期設定の参照領域の大きさSの値が小さくて、点Z(I,J)が構成点Bの参照領域に最初から入っていない場合には、構成点Bがエッジ情報を有していても、初期の参照領域の大きさを変更する必要はなく、初期設定のまま使用する。これは、すべての構成点について適用される。 14 and 15, if the value of the size S of the default reference area is small and the point Z y (I, J) does not enter the reference area of the constituent point B from the beginning, the configuration Even if the point B has edge information, it is not necessary to change the size of the initial reference area, and the initial setting is used. This applies for all configuration points.

上記実施例では、点Z(I,J)の近傍の構成点がエッジ情報を有する場合に、参照領域の大きさを初期設定から半分に変更するようにしているが、Sの大きさに応じて半分の縮小比率ではなく他の比率により縮小するようにしても良い。 In the above embodiment, when the constituent point near the point Z y (I, J) has edge information, the size of the reference area is changed from the initial setting to half. Accordingly, the image may be reduced by another ratio instead of the half reduction ratio.

ところで、BPFをHとし、BPFの重みの総和をS(X)、低解像度画像上の点yの再構成画像領域での座標をZとすると、S(X)=ΣH(X−Z)となる。例えば、低解像度画像上の点y=(i,j)について、まず射影変換部5の射影変換を用いて、基準フレーム上の座標(i’,j’)に変換する。その後(i’,j’)をそれぞれr倍して再構成画像領域上の点Zに移す。 By the way, assuming that BPF is H B , the sum of the BPF weights is S (X), and the coordinates of the point y on the low resolution image in the reconstructed image area are Z y , S (X) = ΣH B (X− Z y ). For example, the point y = (i, j) on the low-resolution image is first converted into coordinates (i ′, j ′) on the reference frame using the projective transformation of the projective transformation unit 5. Thereafter, (i ′, j ′) is multiplied by r and moved to the point Z y on the reconstructed image area.

点Zを格子状に囲む最小の面積を形成する再構成画像の構成点がエッジ情報を有する場合には、上記のように参照領域の大きさを変更し、エッジ情報を有さない場合には初期設定の参照領域のままで、構成点X(p,q)に関してHにより重みを算出して、S(X)に加算する(S34)。このようにして、各低解像度画像フレームの画素値を用いて再構成画像上のすべての構成点Xに関する重みを算出してS(X)に加算する(S35)。 When the constituent points of the reconstructed image forming the minimum area surrounding the point Zy in a grid form have edge information, the size of the reference area is changed as described above, and the edge information is not included. remains the reference region of the initial setting, and calculates the weight by H B with respect to configuration point X (p, q), is added to S (X) (S34). In this way, the weights for all the constituent points X on the reconstructed image are calculated using the pixel values of each low-resolution image frame and added to S (X) (S35).

次に、初期高解像度画像を算出する(S4)。初期高解像度画像の生成処理のフローを図8に示す。再構成画像の初期化を行った後(S41)、射影変換部8より写像拡大画像データを取得する(S42)。初期高解像度画像上の点Xの輝度値(画素値)F(X)は、低解像度画像上の点yの輝度値をf(y)、正規化のための定数をcとすると、F(X)=Σ(f(y)×(H(X−Z))/cS(X))となる。この演算式により、初期高解像度画像を生成する(S44)。上記のように生成の過程でH(X−Z)が使用されるが、このバックプロジェクション関数の参照領域(台)を図10のフローにしたがって変更する(S43)。 Next, an initial high resolution image is calculated (S4). FIG. 8 shows the flow of the initial high-resolution image generation process. After the reconstructed image is initialized (S41), the enlarged map image data is acquired from the projective transformation unit 8 (S42). The luminance value (pixel value) F (X) of the point X on the initial high resolution image is F (y), where f (y) is the luminance value of the point y on the low resolution image and c is a constant for normalization. X) = Σ (f (y) × (H B (X−Z y )) 2 / cS (X)). An initial high resolution image is generated by this arithmetic expression (S44). As described above, H B (X−Z y ) is used in the generation process, but the reference area (table) of this back projection function is changed according to the flow of FIG. 10 (S43).

図10、14、15については既に説明したので省略するが、点Zを格子状に囲む最小の面積を形成する再構成画像の構成点がエッジ情報を有する場合には、参照領域の大きさを変更し、エッジ情報を有さない場合には初期設定の参照領域のままで、構成点X(p,q)に関してHにより重みを算出して、それを二乗したものと輝度値f(y)と掛け算し、cS(X)により正規化することにより構成点Xに寄与する輝度値が算出される。そして、構成点Xを中心とする参照領域に存在するすべての点Zについて構成点Xに寄与する輝度値が算出されると、これらの和が構成点Xの輝度値となる。再構成画像のすべての構成点について輝度値が算出された場合に図8の処理は終了する(S45)。 10, 14, and 15 have already been described and will be omitted. However, when the constituent points of the reconstructed image forming the minimum area surrounding the point Z y in a grid form have edge information, the size of the reference region change, remaining reference region of the default when no edge information, constituting point X (p, q) to calculate the weight by H B respect, those obtained by squaring it with luminance values f ( The luminance value contributing to the component point X is calculated by multiplying by y) and normalizing by cS (X). When the luminance values contributing to the constituent point X are calculated for all the points Z y existing in the reference region centered on the constituent point X, the sum of these values becomes the luminance value of the constituent point X. When the luminance values are calculated for all the constituent points of the reconstructed image, the process in FIG. 8 ends (S45).

次に、再び図6を参照して、S4で生成された高解像度画像から低解像度画像フレーム列を推定する(S5)。このシミュレーション低解像度画像フレーム列の算出は次式により行われる。PSFをH、反復演算の回数nとすると、n+1回目の反復演算中のk番目の低解像度フレーム
(n)は、f (n)(y)=ΣF(n)(X)H(X−Z)となる。
Next, referring to FIG. 6 again, a low-resolution image frame sequence is estimated from the high-resolution image generated in S4 (S5). The simulation low resolution image frame sequence is calculated by the following equation. The PSF H P, when the number n of the iterative operation, n + 1-th k-th low-resolution frame f k during iterative operation of (n) is, f k (n) (y ) = ΣF (n) (X) H P (X- Zy ).

S4、S5の処理(画像再構成)の概念図を図5に示す。図5(a)、(b)に示すように、低解像度画像フレームをすべて基準フレーム上に写像して拡大処理を行い、バックプロジェクション法を用いて再構成画像を構成する構成点を補間していく。構成点の一部は、図2に示すように、基準フレーム上の画素と重なっている場合があり、この場合には、再構成画像の構成点が補間されるというよりは、基準フレーム上の画素の輝度値の補正処理が行われたと言える。他方、図5(b)のように、1枚の初期高解像度画像が構成された後は、この高解像度画像を点拡がり関数を用いてダウンサンプリングして、図5(c)のようなシミュレーション低解像度画像1〜Nを得る。   FIG. 5 shows a conceptual diagram of the processing of S4 and S5 (image reconstruction). As shown in FIGS. 5A and 5B, all the low-resolution image frames are mapped onto the reference frame and enlarged, and the constituent points constituting the reconstructed image are interpolated using the back projection method. Go. As shown in FIG. 2, some of the constituent points may overlap with pixels on the reference frame. In this case, the constituent points of the reconstructed image are not interpolated, but on the reference frame. It can be said that the correction processing of the luminance value of the pixel has been performed. On the other hand, as shown in FIG. 5B, after one initial high-resolution image is constructed, the high-resolution image is down-sampled using a point spread function, and a simulation as shown in FIG. 5C is performed. Low resolution images 1 to N are obtained.

このダウンサンプリングにより得られた低解像度画像フレーム列と観測された(撮影された)低解像度画像フレーム列との差(誤差)をとり、バックプロジェクション関数Hにより重み付けして、再構成画像上での誤差値を算出する(S6)。図9に誤差算出(S6)のフローを示す。誤差の和e(X)を初期化(S61)した後、観測低解像度画像1〜Nとシミュレーション低解像度画像1〜Nの各フレームの対応する画素の輝度値の差をとり、これらのデータを射影変換部8に送信する。射影変換部8では、送信されてきた誤差データを射影変換式を用いて基準フレーム上へ写像し(S62)、写像データをr倍に拡大する(S63)。写像拡大された誤差データは、画像再構成部9に送られ、参照領域の設定が行われる(S64)。 The difference (error) between the low-resolution image frame sequence obtained by this down-sampling and the observed (captured) low-resolution image frame sequence is taken, weighted by the back projection function H B , and displayed on the reconstructed image. Is calculated (S6). FIG. 9 shows a flow of error calculation (S6). After the error sum e (X) is initialized (S61), the difference between the luminance values of the corresponding pixels in each frame of the observed low resolution images 1 to N and the simulation low resolution images 1 to N is obtained, and these data are obtained. It transmits to the projective conversion unit 8. The projection conversion unit 8 maps the transmitted error data onto the reference frame using the projection conversion formula (S62), and expands the mapping data to r times (S63). The enlarged error data is sent to the image reconstruction unit 9 and a reference area is set (S64).

写像拡大された誤差データは再構成画像領域上に集約されていることになり、再構成画像上の構成点Xにおける誤差e(X)は、
e(X)=Σ((f(y)−f (n)(y))×(H(X−Z))/cS(X))
となる。(f(y)−f (n)(y))の部分は、図5で説明すると、図5(a)の低解像度画像1〜Nと図5(c)のシミュレーション低解像度画像1〜Nとの各対応するフレームの対応する画素間で誤差を算出することに相当する。
The error data subjected to the mapping expansion is aggregated on the reconstructed image area, and the error e (X) at the constituent point X on the reconstructed image is
e (X) = Σ ((f k (y) −f k (n) (y)) × (H B (X−Z y )) 2 / cS (X))
It becomes. The portions (f k (y) −f k (n) (y)) will be described with reference to FIG. 5. The low resolution images 1 to N in FIG. 5A and the simulation low resolution image 1 in FIG. This corresponds to calculating an error between corresponding pixels of each corresponding frame of .about.N.

また、上記のように誤差e(X)算出の過程でH(X−Z)が使用されるが、このバックプロジェクション関数の参照領域(台)の設定(S64)は、既述したように図10、14、15に示すように行われる。点Zを格子状に囲む最小の面積を形成する再構成画像の構成点がエッジ情報を有する場合には、参照領域の大きさを変更し、エッジ情報を有さない場合には初期設定の参照領域のままで、構成点Xに関してHにより重みを算出して、それを二乗したものと誤差(f(y)−f (n)(y))と掛け算し、cS(X)により正規化することにより構成点Xに寄与する誤差の輝度値が算出される(S65)。 Further, as described above, H B (X−Z y ) is used in the process of calculating the error e (X), and the setting (S64) of the reference region (table) of this back projection function is as described above. As shown in FIGS. If the constituent points of the reconstructed image forming the minimum area surrounding the point Z y in a grid form have edge information, the size of the reference area is changed, and if there is no edge information, the initial setting is changed. It remains the reference region, to calculate the weight by H B with respect to configuration point X, multiplies it with those obtained by squaring the error (f k (y) -f k (n) (y)), cS (X) The luminance value of the error contributing to the component point X is calculated by normalizing by (S65).

そして、構成点Xを中心とする参照領域に存在するすべての点Zについて構成点Xに寄与する誤差の輝度値が算出されると、これらの和が構成点Xの誤差となる。再構成画像のすべての構成点について誤差が算出された場合に図9の処理は終了する(S66)。 When the luminance values of errors that contribute to the constituent point X are calculated for all points Z y existing in the reference region centered on the constituent point X, the sum of these values becomes the error of the constituent point X. When errors have been calculated for all the constituent points of the reconstructed image, the processing in FIG. 9 ends (S66).

再び図6を参照し、再構成画像上のすべての構成点における誤差の総和E=Σe(X)を求め(S7)、これを一旦、誤差の最小値Eminとして取り扱い、誤差を再構成画像上へ逆投影する(S10)。誤差の再構成画像上への逆投影は、誤差e(X)を一つ前に再構成された再構成画像に加算することにより行われる。誤差の再構成画像上への逆投影は、反復演算の回数n=1のときは、上記誤差e(X)を初期高解像度画像に加算することにより行われる。   Referring to FIG. 6 again, the total error E = Σe (X) at all the constituent points on the reconstructed image is obtained (S7), which is once treated as the minimum error value Emin, and the error is displayed on the reconstructed image. Back projection is performed (S10). Back projection of the error onto the reconstructed image is performed by adding the error e (X) to the previous reconstructed image. The back projection of the error onto the reconstructed image is performed by adding the error e (X) to the initial high resolution image when the number of iterations n = 1.

次に、誤差が加算された再構成画像から再びシミュレーション低解像度画像列を生成し(S5)、前記同様、観測低解像度画像列との差(誤差)をとって写像拡大した後、再構成画像のすべての構成点Xにおける誤差を算出し(S6)、再構成画像上での誤差の総和Eを算出する(S7)。この誤差の総和EがEminと比較して小さい場合は(S8YES)、このときの誤差の総和EをEminとする(S9)。そして誤差を再構成画像上へ逆投影する(S10)。   Next, a simulation low-resolution image sequence is generated again from the reconstructed image to which the error has been added (S5), and, similarly to the above, taking the difference (error) from the observed low-resolution image sequence, (S6), and the total error E on the reconstructed image is calculated (S7). When the total error E is smaller than Emin (S8 YES), the total error E at this time is set to Emin (S9). Then, the error is back-projected onto the reconstructed image (S10).

誤差の高解像度画像上への逆投影は、誤差e(X)を一つ前に再構成された高解像度画像に加算することにより行われ、誤差e(X)を高解像度画像上への逆投影するn回目の反復処理は、
(n)(X)=F(n−1)(X)+e(X) となる。
Back projection of the error onto the high resolution image is performed by adding the error e (X) to the previously reconstructed high resolution image, and the error e (X) is back onto the high resolution image. The nth iteration to project is
F (n) (X) = F (n-1) (X) + e (X).

誤差の総和Eが最小になるまで、S5〜S10までを繰り返す。誤差の総和Eが最小になったときは、F(n−1)を超解像度画像として処理を終了する。 S5 to S10 are repeated until the total error E becomes minimum. When the error sum E is minimized, the processing is terminated with F (n−1) as the super-resolution image.

上述の実施例では、複数毎の低解像度画像フレームから1枚の超解像度画像を生成することについて説明したが、これを複数枚の低解像度画像フレームから複数枚の超解像度画像を生成する場合にも応用することができ、エッジのぼけを防ぐことができる。   In the above-described embodiment, generation of one super-resolution image from a plurality of low-resolution image frames has been described. However, when generating a plurality of super-resolution images from a plurality of low-resolution image frames. Can also be applied and edge blurring can be prevented.

また、上述の実施例では再構成参照領域設定部で参照領域の大きさを縮小したが、参照領域を定義するバックプロジェクション関数を切り替えてもよい。 例えば、エッジ情報を有する再構成画像の構成点では低次の多項式を、エッジ情報を有しない該構成点では高次の多項式をバックプロジェクション関数として設定してもよい。
In the above-described embodiment, the size of the reference area is reduced by the reconstruction reference area setting unit. However, the back projection function that defines the reference area may be switched. For example, a low-order polynomial may be set as a back projection function at a constituent point of a reconstructed image having edge information, and a high-order polynomial may be set at a constituent point not having edge information.

本発明の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of this invention. 低解像度画像フレームの各画素を基準フレーム上に写像した様子を示す図である。It is a figure which shows a mode that each pixel of the low resolution image frame was mapped on the reference | standard frame. 補間処理によりエッジ判定用高解像度画像を作成する状態を示す図である。It is a figure which shows the state which produces the high-resolution image for edge determination by an interpolation process. エッジ検出用フィルタの構成を示す図である。It is a figure which shows the structure of the filter for edge detection. 画像再構成の概念を示す図である。It is a figure which shows the concept of an image reconstruction. 超解像処理を示すフローチャート図である。It is a flowchart figure which shows a super-resolution process. BPFの重みの総和の算出を示すフローチャート図である。It is a flowchart figure which shows calculation of the sum total of the weight of BPF. 初期高解像度画像の算出を示すフローチャート図である。It is a flowchart figure which shows calculation of an initial high-resolution image. 観測低解像度画像列とシミュレーション低解像度画像列との誤差の算出を示すフローチャート図である。It is a flowchart figure which shows calculation of the error of an observation low resolution image sequence and a simulation low resolution image sequence. 再構成参照領域設定を示すの概念を示すフローチャート図である。It is a flowchart figure which shows the concept of showing a reconstruction reference area setting. BPFとPSFの一例を示す図である。It is a figure which shows an example of BPF and PSF. バックプロジェクションカーネルの台の概念を示す図である。It is a figure which shows the concept of the stand of a back projection kernel. 点拡がり関数の台の概念を示す図である。It is a figure which shows the concept of the stand of a point spread function. 垂直方向にエッジがある場合の参照領域の変更を示す図である。It is a figure which shows the change of a reference area | region when there exists an edge in a perpendicular direction. 水平方向にエッジがある場合の参照領域の変更を示す図である。It is a figure which shows the change of a reference area when there exists an edge in a horizontal direction.

符号の説明Explanation of symbols

1 画像データ入力部
2 記憶部
3 処理条件設定部
4 基準フレーム選択部
5 高解像度画像生成部
6 エッジ検出部
7 再構成参照領域設定部
8 射影変換部
9 画像再構成部
DESCRIPTION OF SYMBOLS 1 Image data input part 2 Storage part 3 Processing condition setting part 4 Reference frame selection part 5 High resolution image generation part 6 Edge detection part 7 Reconstruction reference area setting part 8 Projection conversion part 9 Image reconstruction part

Claims (4)

同一シーンを撮影して得られる低解像度画像フレーム列を画像再構成領域に逆投影して初期高解像度画像を推定し、この初期高解像度画像から推定されるシミュレーション低解像度画像フレーム列と前記低解像度画像フレーム列との誤差を画像再構成領域に逆投影して超高解像度画像を再構成する画像処理装置において、
前記低解像度画像フレーム列の基準となる画像を基準フレームとして選択する基準フレーム選択部と、
前記基準フレーム選択部で選択された基準フレーム上の画像データを用いてエッジ判定用高解像度画像を生成する高解像度画像生成部と、
前記高解像度画像生成部で生成されたエッジ判定用高解像度画像におけるエッジ判定対象画素とこの画素の近傍画素における輝度値の変化度合いに基づいてエッジ判定対象画素がエッジ画素か否かを判定してエッジ画素に関するエッジ情報を生成するエッジ検出部と、
前記低解像度画像フレーム列の複数フレームの画像データや前記シミュレーション低解像度画像フレーム列と低解像度画像フレーム列との誤差を基準フレーム座標上に写像して前記画像再構成領域を形成する射影変換部と、
前記画像再構成領域に設定される再構成画像における構成点の輝度値を前記射影変換部で写像された画像データを用いて生成する際に、構成点を中心に設定された参照領域内に存在する写像された画素の輝度値を用いて該構成点の輝度値を生成する画像再構成部と、
前記画像再構成部で画像を再構成する際に、エッジ検出部の結果を参照し、射影変換部で写像された画素の周囲に存在する再構成画像の構成点群中のうちエッジ情報を有する構成点については該構成点を中心とする参照領域の大きさを縮小するように変更する再構成参照領域設定部とを備えたことを特徴とする画像処理装置。
A low-resolution image frame sequence obtained by photographing the same scene is back-projected onto an image reconstruction area to estimate an initial high-resolution image, and a simulation low-resolution image frame sequence estimated from the initial high-resolution image and the low-resolution image In an image processing apparatus for reconstructing an ultra-high resolution image by back projecting an error from an image frame sequence to an image reconstruction area,
A reference frame selection unit that selects a reference image of the low-resolution image frame sequence as a reference frame;
A high-resolution image generation unit that generates a high-resolution image for edge determination using image data on the reference frame selected by the reference frame selection unit;
It is determined whether or not the edge determination target pixel is an edge pixel based on the edge determination target pixel in the edge determination high resolution image generated by the high resolution image generation unit and the degree of change in the luminance value in the neighboring pixels of the pixel. An edge detector for generating edge information relating to edge pixels;
A projective transformation unit that maps image data of a plurality of frames of the low-resolution image frame sequence and an error between the simulation low-resolution image frame sequence and the low-resolution image frame sequence onto reference frame coordinates to form the image reconstruction area; ,
When generating the luminance value of the component point in the reconstructed image set in the image reconstruction region using the image data mapped by the projective transformation unit, it exists in the reference region set around the component point An image reconstruction unit that generates a luminance value of the component point using the luminance value of the mapped pixel to be
When reconstructing an image with the image reconstruction unit, reference is made to the result of the edge detection unit, and edge information is included in the constituent points of the reconstructed image existing around the pixels mapped by the projective transformation unit. An image processing apparatus comprising: a reconfiguration reference area setting unit that changes a configuration point so that a size of a reference area centering on the configuration point is reduced.
前記再構成参照領域設定部は、前記エッジ情報が水平方向のエッジである場合には参照領域の垂直方向の大きさを縮小するようにしたことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reconstruction reference area setting unit reduces the size of the reference area in the vertical direction when the edge information is a horizontal edge. 前記再構成参照領域設定部は、前記エッジ情報が垂直方向のエッジである場合には参照領域の水平方向の大きさを縮小するようにしたことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the reconstruction reference area setting unit reduces the size of the reference area in the horizontal direction when the edge information is an edge in the vertical direction. 同一シーンを撮影して得られる低解像度画像フレーム列を画像再構成領域に逆投影して初期高解像度画像を推定し、この初期高解像度画像から推定されるシミュレーション低解像度画像フレーム列と前記低解像度画像フレーム列との誤差を画像再構成領域に逆投影して超高解像度画像を再構成する画像処理プログラムにおいて、
コンピュータを、前記低解像度画像フレーム列の基準となる画像を基準フレームとして選択する基準フレーム選択手段と、
前記基準フレーム選択手段で選択された基準フレーム上の画像データを用いてエッジ判定用高解像度画像を生成する高解像度画像生成手段と、
前記高解像度画像生成手段で生成されたエッジ判定用高解像度画像におけるエッジ判定対象画素とこの画素の近傍画素における輝度値の変化度合いに基づいてエッジ判定対象画素がエッジ画素か否かを判定してエッジ情報を生成するエッジ検出手段と、
前記低解像度画像フレーム列の複数フレームの画像データや前記シミュレーション低解像度画像フレーム列と低解像度画像フレーム列との誤差を基準フレーム座標上に写像して前記画像再構成領域を形成する射影変換手段と、
前記画像再構成領域に設定される再構成画像の構成点の輝度値を前記射影変換手段で写像された画像データを用いて生成する際に、構成点を中心に設定された参照領域内に存在する写像された画素の輝度値を用いて該構成点の輝度値を生成する画像再構成手段と、
前記画像再構成部で画像を再構成する際に、エッジ検出部の結果を参照し、射影変換手段で写像された画素の周囲に存在する再構成画像の構成点群中のうちエッジ情報を有する構成点については、該構成点を中心とする参照領域の大きさを縮小するように変更する再構成参照領域設定手段として機能させるための画像処理プログラム。
A low-resolution image frame sequence obtained by photographing the same scene is back-projected onto an image reconstruction area to estimate an initial high-resolution image, and a simulation low-resolution image frame sequence estimated from the initial high-resolution image and the low-resolution image In an image processing program for reconstructing an ultra-high resolution image by back projecting an error from an image frame sequence to an image reconstruction area,
A reference frame selecting means for selecting, as a reference frame, an image serving as a reference for the low-resolution image frame sequence;
High-resolution image generation means for generating a high-resolution image for edge determination using image data on the reference frame selected by the reference frame selection means;
It is determined whether or not the edge determination target pixel is an edge pixel based on the edge determination target pixel in the edge determination high resolution image generated by the high resolution image generation means and the degree of change in the luminance value in the neighboring pixels of the pixel. Edge detection means for generating edge information;
Projection conversion means for mapping the image data of a plurality of frames of the low resolution image frame sequence and an error between the simulation low resolution image frame sequence and the low resolution image frame sequence onto reference frame coordinates to form the image reconstruction area; ,
When the luminance value of the constituent point of the reconstructed image set in the image reconstruction area is generated using the image data mapped by the projective transformation means, it exists in the reference area set around the constituent point Image reconstructing means for generating the luminance value of the constituent point using the luminance value of the mapped pixel to be
When the image reconstruction unit reconstructs an image, it refers to the result of the edge detection unit, and has edge information among the constituent points of the reconstructed image existing around the pixels mapped by the projective transformation means. An image processing program for causing a component point to function as a reconstructed reference region setting unit that changes so as to reduce the size of a reference region centered on the component point.
JP2005174295A 2005-06-14 2005-06-14 Image processor and image processing program Withdrawn JP2006350562A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005174295A JP2006350562A (en) 2005-06-14 2005-06-14 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005174295A JP2006350562A (en) 2005-06-14 2005-06-14 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2006350562A true JP2006350562A (en) 2006-12-28

Family

ID=37646352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005174295A Withdrawn JP2006350562A (en) 2005-06-14 2005-06-14 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2006350562A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079883A (en) * 2008-08-29 2010-04-08 Toshiba Corp Information processing apparatus, image processing method, and program
CN101571947B (en) * 2007-04-26 2012-09-12 株式会社东芝 Image processing device and image processing method
US8780034B2 (en) 2009-04-08 2014-07-15 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device including super-resolution processing
KR20150134119A (en) * 2014-05-21 2015-12-01 주식회사 에이티엠 Apparatus and method for restorating of high resolution image
CN112669227A (en) * 2020-12-16 2021-04-16 Tcl华星光电技术有限公司 Icon edge processing method and device and computer readable storage medium
JP7401768B2 (en) 2020-03-26 2023-12-20 日本製鉄株式会社 Gas analysis method and gas analysis device

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101571947B (en) * 2007-04-26 2012-09-12 株式会社东芝 Image processing device and image processing method
JP4686624B2 (en) * 2008-08-29 2011-05-25 株式会社東芝 Information processing apparatus, image processing method, and program
JP2010079883A (en) * 2008-08-29 2010-04-08 Toshiba Corp Information processing apparatus, image processing method, and program
US11030966B2 (en) 2009-04-08 2021-06-08 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US8780034B2 (en) 2009-04-08 2014-07-15 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device including super-resolution processing
US11670251B2 (en) 2009-04-08 2023-06-06 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US9343018B2 (en) 2009-04-08 2016-05-17 Semiconductor Energy Laboratory Co., Ltd. Method for driving a liquid crystal display device at higher resolution
US9978320B2 (en) 2009-04-08 2018-05-22 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US10657910B2 (en) 2009-04-08 2020-05-19 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
US11450291B2 (en) 2009-04-08 2022-09-20 Semiconductor Energy Laboratory Co., Ltd. Method for driving semiconductor device
KR101644411B1 (en) * 2014-05-21 2016-08-01 주식회사 에이티엠 Apparatus and method for restorating of high resolution image
KR20150134119A (en) * 2014-05-21 2015-12-01 주식회사 에이티엠 Apparatus and method for restorating of high resolution image
JP7401768B2 (en) 2020-03-26 2023-12-20 日本製鉄株式会社 Gas analysis method and gas analysis device
CN112669227A (en) * 2020-12-16 2021-04-16 Tcl华星光电技术有限公司 Icon edge processing method and device and computer readable storage medium
CN112669227B (en) * 2020-12-16 2023-10-17 Tcl华星光电技术有限公司 Icon edge processing method, icon edge processing device and computer readable storage medium

Similar Documents

Publication Publication Date Title
JP2007193508A (en) Image processor and image processing program
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
JP2003274157A (en) Image processor, image processing method, image processing program, and computer readable recording medium with image processing program recorded
JP6453694B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium
JP2009070123A (en) Image processing device and method
JP2011504682A (en) Resize image sequence
CN103985085A (en) Image super-resolution amplifying method and device
JP2008146643A (en) Method and device for reducing blur caused by movement in image blurred by movement, and computer-readable medium executing computer program for reducing blur caused by movement in image blurred by movement
JP2008512767A (en) General two-dimensional spatial transformation expression system and method
JP2010218271A (en) Parameter control processing apparatus and image processing apparatus
JP2006350562A (en) Image processor and image processing program
Tian et al. Joint image registration and super-resolution from low-resolution images with zooming motion
JP5987114B2 (en) High resolution image generation apparatus, high resolution image generation method, and high resolution image generation program
WO2013089261A1 (en) Image processing system, and image processing method
JP2009501966A (en) Image composition by rank-1 lattice
US10540735B2 (en) Information processing device, information processing method, and recording medium
JP2005063097A (en) Image signal processing device and method, program, and recording media
US20130120461A1 (en) Image processor and image processing method
KR101341617B1 (en) Apparatus and method for super-resolution based on error model of single image
JP4594848B2 (en) Inscribed rectangle detection apparatus and inscribed rectangle detection program
Yap et al. A Nonlinear $ L _ {1} $-Norm Approach for Joint Image Registration and Super-Resolution
JP5478200B2 (en) Image processing apparatus, image processing method, and image processing program
JP2005312014A (en) Resolution converting method
JP2010257179A (en) Image processing apparatus and image processing program
JP2009064193A (en) Resolution converter and method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080118

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20080201

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902