JP2017072954A - Image conversion device and image conversion method - Google Patents

Image conversion device and image conversion method Download PDF

Info

Publication number
JP2017072954A
JP2017072954A JP2015198852A JP2015198852A JP2017072954A JP 2017072954 A JP2017072954 A JP 2017072954A JP 2015198852 A JP2015198852 A JP 2015198852A JP 2015198852 A JP2015198852 A JP 2015198852A JP 2017072954 A JP2017072954 A JP 2017072954A
Authority
JP
Japan
Prior art keywords
image
target image
point spread
line
spread function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015198852A
Other languages
Japanese (ja)
Inventor
佐藤 真樹
Maki Sato
真樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015198852A priority Critical patent/JP2017072954A/en
Publication of JP2017072954A publication Critical patent/JP2017072954A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image conversion technique for reducing the number of calculations required for convolution integration.SOLUTION: A super-resolution processing unit 30 reads an observation image captured by an optical system from a memory, and uses convolution integration with a point spread function representing a transfer function of the optical system to perform super-resolution processing on the observation image, thereby generating a high-resolution image with higher resolution than the observation image. When performing convolution integration of the point spread function and a target image which is a high-resolution image obtained by subjecting the observation image to reconfiguration super-resolution processing, the super-resolution processing unit 30 sequentially reads pixels of the target image by each line, buffers by each line in a FIFO form a current product-sum operation value of the target image obtained by delay adding, by each line, a pixel value of the target image obtained by multiplying a coefficient value of a coefficient matrix of the point spread function, and reuses the product-sum operation value as product-sum operation value of a future target image. The convolution integration of the point spread function and the target image is thus calculated.SELECTED DRAWING: Figure 1

Description

本発明は、画像変換技術に関し、特に画像の解像度を変換する技術に関する。   The present invention relates to an image conversion technique, and more particularly to a technique for converting the resolution of an image.

撮影された画像を拡大する解像度変換処理の際、バイリニア法などの既存の拡大手法では、画像を撮影した光学系や撮像センサの特性により失われた成分を復元することは難しく、結果的にぼけた拡大画像になる。劣化成分を復元する手法として、再構成型超解像処理がある。再構成型超解像処理では、観測された低解像度画像から初期の高解像度画像を推定し、推定された高解像度画像から劣化モデルに基づき観測画像である低解像度画像を推定した「シミュレーション画像」を生成する。シミュレーション画像と実際の観測された低解像度画像の誤差を最小にするように高解像度画像を更新する。収束するまでこの更新処理を繰り返すことにより、最終的な高解像度画像を求める。この再構成型超解像処理の古典的な手法として逆投影法が広く知られている。   When performing resolution conversion processing for enlarging a captured image, it is difficult to restore components lost due to the characteristics of the optical system or image sensor that captured the image using existing magnification methods such as the bilinear method, resulting in blurring. Enlarged image. As a method for restoring the degradation component, there is a reconstruction type super-resolution process. In the reconstruction-type super-resolution processing, the initial high-resolution image is estimated from the observed low-resolution image, and the low-resolution image that is the observed image is estimated based on the degradation model from the estimated high-resolution image. Is generated. The high resolution image is updated to minimize the error between the simulation image and the actual observed low resolution image. By repeating this updating process until convergence, a final high-resolution image is obtained. The back projection method is widely known as a classic method of the reconstruction type super-resolution processing.

特開2012−65187号公報JP 2012-65187 A

再構成型超解像処理の場合、劣化モデルにもとづくシミュレーション画像と実際の観測された低解像度画像との誤差分を逆投影することで、画像の先鋭化によるぼけ除去が可能である。しかし、想定した劣化モデルが実際の撮像光学特性を正確に反映していない場合、充分な効果が期待できない。劣化モデルにおいて最も重要な要素は、光学系の伝達関数を表す「点広がり関数」(Point Spreading Function)である。画像における点広がり関数は、ある点光源を撮影したときに、その点がどれだけ広がるかを示すものであり、二次元の係数行列により表すことができる。   In the case of the reconstruction type super-resolution processing, blurring can be removed by sharpening the image by back-projecting the error between the simulation image based on the degradation model and the actually observed low-resolution image. However, if the assumed deterioration model does not accurately reflect actual imaging optical characteristics, a sufficient effect cannot be expected. The most important element in the degradation model is a “Point Spreading Function” that represents the transfer function of the optical system. A point spread function in an image indicates how much the point spreads when a certain point light source is photographed, and can be represented by a two-dimensional coefficient matrix.

一般に、低コストの光学系の伝達関数を表す点広がり関数は点光源の像の広がりが大きく、それを表現する係数行列の要素数も大きくなる。畳み込み積分は要素数分の積和算に相当し、点広がり関数の係数行列が大きくなれば、畳み込み積分のための乗算器の数が増加し、処理規模が大きくなるという問題が生じる。更に、再構成型超解像処理の場合、点広がり関数と同じ大きさ、若しくはそれ以上の大きさの逆投影関数との畳み込み積分も必要となるため、こちらの処理も同様に畳み込み積分のための乗算器の数を増やす必要がある。   In general, the point spread function representing the transfer function of a low-cost optical system has a large spread of the image of the point light source, and the number of elements of the coefficient matrix representing it is also large. Convolution integration corresponds to product-sum operation for the number of elements. If the coefficient matrix of the point spread function increases, the number of multipliers for convolution integration increases, resulting in a problem that the processing scale increases. Furthermore, in the case of reconstruction-type super-resolution processing, it is necessary to perform convolution integration with a backprojection function of the same size as the point spread function or larger, so this processing is also for convolution integration. It is necessary to increase the number of multipliers.

さらに、畳み込み積分時に計算対象となる画素を格納メモリから読み出す際、画素位置に応じたアドレス算出が必要であり、全対象画素の読み出し時間を考慮に入れた設計が必要となる。   Further, when reading out the pixel to be calculated at the time of convolution integration from the storage memory, it is necessary to calculate an address according to the pixel position, and it is necessary to design in consideration of the reading time of all the target pixels.

本発明はこうした状況に鑑みてなされたものであり、その目的は、畳み込み積分に必要な乗算回数を削減することのできる画像変換技術を提供することにある。また、別の目的は、アドレス計算およびメモリアクセス待機時間を削減することのできる画像変換技術を提供することにある。   The present invention has been made in view of such a situation, and an object thereof is to provide an image conversion technique capable of reducing the number of multiplications necessary for convolution integration. Another object is to provide an image conversion technique capable of reducing address calculation and memory access waiting time.

上記課題を解決するために、本発明のある態様の画像変換装置は、光学系により撮影された観測画像をメモリに格納する画像入力部と、前記光学系の伝達関数を示す点広がり関数との畳み込み積分を利用して前記観測画像を超解像処理し、前記観測画像よりも解像度の高い高解像度画像を生成する超解像処理部とを含む。前記超解像処理部は、前記点広がり関数と、前記観測画像に対して再構成型の超解像処理を行った高解像度画像である対象画像とを畳み込み積分する際、前記対象画像の画素をライン単位で順次読み出し、前記点広がり関数の係数行列の係数値を乗算した前記対象画像の画素値をライン毎に遅延加算して得られる現在の対象画像の積和演算値をライン単位でFIFO形式でバッファリングして将来の対象画像の積和演算値として再度利用することにより、前記点広がり関数と前記対象画像の畳み込み積分を算出する。   In order to solve the above problems, an image conversion apparatus according to an aspect of the present invention includes an image input unit that stores an observation image captured by an optical system in a memory, and a point spread function that indicates a transfer function of the optical system. A super-resolution processing unit that performs super-resolution processing on the observed image using convolution integration and generates a high-resolution image having a higher resolution than the observed image. When the super-resolution processing unit convolves and integrates the point spread function and a target image, which is a high-resolution image obtained by performing reconstruction-type super-resolution processing on the observed image, pixels of the target image Are sequentially read in line units, and the product-sum operation value of the current target image obtained by delay-adding the pixel values of the target image obtained by multiplying the coefficient values of the coefficient matrix of the point spread function for each line by FIFO. The convolution integral of the point spread function and the target image is calculated by buffering in the format and using it again as the product-sum operation value of the future target image.

本発明の別の態様は、画像変換方法である。この方法は、光学系により撮影された観測画像をメモリに格納する画像入力ステップと、前記光学系の伝達関数を示す点広がり関数との畳み込み積分を利用して前記観測画像を超解像処理し、前記観測画像よりも解像度の高い高解像度画像を生成する超解像処理ステップとを含む。前記超解像処理ステップは、前記点広がり関数と、前記観測画像に対して再構成型の超解像処理を行った高解像度画像である対象画像とを畳み込み積分する際、前記対象画像の画素をライン単位で順次読み出し、前記点広がり関数の係数行列の係数値を乗算した前記対象画像の画素値をライン毎に遅延加算して得られる現在の対象画像の積和演算値をライン単位でFIFO形式でバッファリングして将来の対象画像の積和演算値として再度利用することにより、前記点広がり関数と前記対象画像の畳み込み積分を算出する。   Another aspect of the present invention is an image conversion method. In this method, the observation image is super-resolved using a convolution integral between an image input step of storing an observation image taken by the optical system in a memory and a point spread function indicating a transfer function of the optical system. And a super-resolution processing step of generating a high-resolution image having a higher resolution than the observed image. In the super-resolution processing step, the pixel of the target image is convolved with the point spread function and the target image that is a high-resolution image obtained by performing a reconstruction-type super-resolution processing on the observed image. Are sequentially read in line units, and the product-sum operation value of the current target image obtained by delay-adding the pixel values of the target image obtained by multiplying the coefficient values of the coefficient matrix of the point spread function for each line by FIFO. The convolution integral of the point spread function and the target image is calculated by buffering in the format and using it again as the product-sum operation value of the future target image.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a representation of the present invention converted between a method, an apparatus, a system, a recording medium, and the like are also effective as an aspect of the present invention.

本発明によれば、畳み込み積分に必要な乗算回数を削減することができる。また、アドレス計算およびメモリアクセス待機時間を削減することができる。   According to the present invention, the number of multiplications necessary for convolution integration can be reduced. In addition, address calculation and memory access waiting time can be reduced.

本実施の形態に係る画像変換装置の構成図である。It is a block diagram of the image conversion apparatus which concerns on this Embodiment. 点広がり関数の係数行列による一般的な畳み込み積分の構成例を示す図である。It is a figure which shows the structural example of the general convolution integral by the coefficient matrix of a point spread function. 図3(a)および図3(b)は、回転対称の点広がり関数の係数行列の係数値を説明する図である。FIG. 3A and FIG. 3B are diagrams for explaining the coefficient values of the coefficient matrix of the rotationally symmetric point spread function. 図4(a)〜図4(c)は、ライン順次走査による画素の入力と畳み込み積分の関係を説明する図である。FIG. 4A to FIG. 4C are diagrams for explaining the relationship between pixel input and convolution integral by line sequential scanning. ライン順次走査による画素の入力を前提とした畳み込み積分演算部の構成図である。It is a block diagram of the convolution integral calculating part on the assumption of the input of the pixel by line sequential scanning.

本発明の実施の形態を説明するにあたり、最初に再構成型超解像処理のアルゴリズムについて簡単に説明した上で、再構成型超解像処理の畳み込み積分の乗算回数を削減する方法を説明する。その後、当該方法を利用した実施例を説明する。   In describing the embodiment of the present invention, first, the algorithm of the reconstruction super-resolution processing will be briefly described, and then a method of reducing the number of multiplications of the convolution integral of the reconstruction super-resolution processing will be described. . Then, the Example using the said method is described.

光学系を通した撮影により得られる観測画像gは、式(1)のようにモデル化することができる。   An observation image g obtained by photographing through the optical system can be modeled as shown in Expression (1).

Figure 2017072954
Figure 2017072954

ここで、fは正解の高解像度画像であり、gからfを復元することが超解像処理の目的となる。hは光学系の劣化に起因する演算子で、一般的には点広がり関数を意味する。σはセンサによる標本化を示すダウンサンプリング演算子である。nは加法性ノイズ項である。   Here, f is a correct high-resolution image, and the purpose of super-resolution processing is to restore f from g. h is an operator caused by deterioration of the optical system, and generally means a point spread function. σ is a downsampling operator indicating sampling by the sensor. n is an additive noise term.

この劣化モデルを用いて、式(2)に示すように、第n回目の再構成反復結果の高解像度画像f(n)から観測画像を推定したシミュレーション画像g(n)を生成する。 Using this degradation model, as shown in Expression (2), a simulation image g (n) in which an observation image is estimated from the high-resolution image f (n) obtained as a result of the n-th reconstruction iteration is generated.

Figure 2017072954
Figure 2017072954

ここで、↓sは1/sにダウンサンプリングすることを示す演算子であり、*は点広がり関数hとの畳み込み積分を示す。式(2)は高解像度画像f(n)に対し、hで光学系のぼけを加味し、センサの解像度にまでダウンサンプリングした結果であり、撮影光学系をシミュレーションした結果が得られる。従って、式(2)で用いた演算子が完全に撮影光学系を表現していた場合、f(n)が正解の高解像度画像ならば、式(3)が成り立つ。 Here, ↓ s is an operator indicating downsampling to 1 / s, and * indicates a convolution integral with the point spread function h. Expression (2) is a result of down-sampling the high resolution image f (n) with the blur of the optical system at h and down to the sensor resolution, and a result of simulating the imaging optical system is obtained. Therefore, when the operator used in Expression (2) completely represents the photographing optical system, Expression (3) is established if f (n) is a correct high-resolution image.

Figure 2017072954
Figure 2017072954

次に、第n回目の反復再構成処理は、シミュレーション画像と実際の観測画像の誤差を最小にするように高解像度画像を更新することであり、式(4)の漸化式で与えられる。   Next, the n-th iterative reconstruction process is to update the high-resolution image so as to minimize the error between the simulation image and the actual observation image, and is given by the recurrence formula of Equation (4).

Figure 2017072954
Figure 2017072954

ここで↑sはs倍にアップサンプリングすることを示す演算子であり、pは逆投影関数であり、一般的には点広がり関数から計算できる。式(4)に示すように、第n回反復結果である高解像度画像f(n)から求めたシミュレーション画像g(n)と観測画像gとの誤差(g−g(n))をアップサンプリングして、逆投影関数pと畳み込み積分する処理が必要になる。 Here, ↑ s is an operator indicating upsampling by s times, p is a back projection function, and can be generally calculated from a point spread function. As shown in equation (4), the error (g−g (n)) between the simulation image g (n) and the observed image g obtained from the high-resolution image f (n) as the nth iteration result is upsampled. Thus, a process for convolution integration with the backprojection function p is required.

式(2)および式(4)を収束するまで繰り返すことにより、最終的な高解像度画像fが得られる。このように、再構成型超解像処理では、式(2)において点広がり関数hとの畳み込み積分が必要であり、式(4)において逆投影関数pとの畳み込み積分が必要である。   By repeating Expression (2) and Expression (4) until convergence, a final high-resolution image f is obtained. As described above, in the reconfiguration type super-resolution processing, the convolution integration with the point spread function h is necessary in the equation (2), and the convolution integration with the back projection function p is necessary in the equation (4).

ここで、点広がり関数と画像信号との畳み込み積分について説明する。説明を簡略するためここでは一次元の畳み込み積分を説明する。一次元画像fのxの位置の画素値をf(x)で表すとすると、画像f(x)と点広がり関数h(n)の畳み込み積分は式(5)で与えられる。   Here, the convolution integral of the point spread function and the image signal will be described. In order to simplify the description, a one-dimensional convolution integral will be described here. If the pixel value at the position x in the one-dimensional image f is represented by f (x), the convolution integral of the image f (x) and the point spread function h (n) is given by equation (5).

Figure 2017072954
Figure 2017072954

ここで要素数5の点広がり関数h(n)を式(6)で表す。   Here, the point spread function h (n) having 5 elements is expressed by Expression (6).

Figure 2017072954
Figure 2017072954

式(6)の画像f(x)と点広がり関数hの畳み込み積分(f*h)は式(7)で与えられる。   The convolution integral (f * h) of the image f (x) of the equation (6) and the point spread function h is given by the equation (7).

Figure 2017072954
Figure 2017072954

ここで、要素数5の点広がり関数hが式(8)のように中心に関して対称である場合を考える。   Here, let us consider a case where the point spread function h having 5 elements is symmetric with respect to the center as shown in equation (8).

Figure 2017072954
Figure 2017072954

式(8)の点広がり関数hの場合、式(7)の畳み込み積分(f*h)は式(9)のように変形することができる。   In the case of the point spread function h in Expression (8), the convolution integral (f * h) in Expression (7) can be modified as in Expression (9).

Figure 2017072954
Figure 2017072954

ここでは簡単のため、一次元の畳み込み積分を説明したが、二次元の畳み込み積分の場合も同様である。   Here, for the sake of simplicity, one-dimensional convolution integration has been described, but the same applies to two-dimensional convolution integration.

一般に光学系のぼけ特性を示す点広がり関数を表現する係数行列はガウシアン系の同心円状の係数パターンを取るため、係数行列は回転対称である。ここで「回転対称」とは、同心円上の係数値は同じ値を取ることを意味する。一般に光学系では点光源の像は光源の位置を中心として回転対称となることから、点広がり関数を表現する係数行列の係数値も回転対称となる。   In general, a coefficient matrix expressing a point spread function indicating the blur characteristic of an optical system takes a Gaussian concentric coefficient pattern, and thus the coefficient matrix is rotationally symmetric. Here, “rotational symmetry” means that the coefficient values on concentric circles have the same value. In general, in an optical system, an image of a point light source is rotationally symmetric about the position of the light source, so that the coefficient value of a coefficient matrix expressing a point spread function is also rotationally symmetric.

以上は、点広がり関数hとの畳み込み積分を説明したが、逆投影関数pとの畳み込み積分の場合も同様に点広がり関数を表現する係数行列の回転対称性を利用することができる。   The convolution integral with the point spread function h has been described above, but the rotational symmetry of the coefficient matrix expressing the point spread function can be used similarly in the case of the convolution integral with the back projection function p.

逆投影関数pは点広がり関数hの逆関数として与えられる。一般に回転対称の関数の逆関数もまた回転対称であり、ノイズの影響を考慮し、定数値を加えるウイナーフィルタ型の逆関数の場合も回転対称性は保持される。   The backprojection function p is given as an inverse function of the point spread function h. In general, the inverse function of a rotationally symmetric function is also rotationally symmetric, and the rotational symmetry is maintained even in the case of a Wiener filter type inverse function to which a constant value is added in consideration of the influence of noise.

また、式(10)に示すように、点広がり関数hを表現する係数行列の各係数値を二乗することで、点広がり関数hの逆関数である逆投影関数pの係数行列を近似することがよく用いられている。   Further, as shown in Expression (10), by approximating each coefficient value of the coefficient matrix expressing the point spread function h, the coefficient matrix of the backprojection function p that is an inverse function of the point spread function h is approximated. Is often used.

Figure 2017072954
Figure 2017072954

この場合も点広がり関数hが回転対称ならば、近似逆関数pも回転対称となる。   Also in this case, if the point spread function h is rotationally symmetric, the approximate inverse function p is also rotationally symmetric.

画像をライン毎に走査して画素を順次読み取る構成を前提にした場合、各画素に点広がり関数の係数行列の係数値をあらかじめ乗算した値を遅延させて再度利用することにより、乗算回数を削減し、かつ、アドレス計算およびメモリアクセス待機時間を削減することができる。以下では、この方法を利用した実施例を詳しく説明する。   When it is assumed that the image is scanned line by line and the pixels are read sequentially, the number of multiplications is reduced by delaying and reusing the value previously multiplied by the coefficient value of the coefficient matrix of the point spread function for each pixel. In addition, address calculation and memory access waiting time can be reduced. Below, the Example using this method is described in detail.

図1は、本実施の形態に係る画像変換装置100の構成図である。画像変換装置100は、画像入力部10と、記憶部20と、超解像処理部30と、表示部40とを含む。これらの構成は、ハードウェア、ソフトウェア、またはそれらの組合せにより実現される。   FIG. 1 is a configuration diagram of an image conversion apparatus 100 according to the present embodiment. The image conversion apparatus 100 includes an image input unit 10, a storage unit 20, a super-resolution processing unit 30, and a display unit 40. These configurations are realized by hardware, software, or a combination thereof.

画像入力部10は、静止画像または動画像を取得し、記憶部20に格納する。入力される画像は、たとえばカメラなどにより撮影された画像であり、光学系や撮像センサの特性により劣化した観測画像である。   The image input unit 10 acquires a still image or a moving image and stores it in the storage unit 20. The input image is an image taken by, for example, a camera or the like, and is an observation image deteriorated due to the characteristics of the optical system or the image sensor.

超解像処理部30は、記憶部20に格納された観測画像に対して超解像処理を施し、観測画像よりも解像度の高い高解像度画像に変換し、記憶部20に格納する。表示部40は、記憶部20に格納された高解像度画像を表示する。   The super-resolution processing unit 30 performs super-resolution processing on the observation image stored in the storage unit 20, converts the observation image into a high-resolution image having a higher resolution than the observation image, and stores the high-resolution image in the storage unit 20. The display unit 40 displays the high resolution image stored in the storage unit 20.

超解像処理部30は、入力された観測画像に対して、再構成型の超解像処理を行い、高解像画像に変換する。具体的には、n回目の高解像度画像から点広がり関数を用いて「シミュレーション画像」を算出し、シミュレーション画像と観測画像の誤差を逆投影関数を用いてn回目の高解像度画像に逆投影することにより(n+1)回目の高解像度画像に更新する。この処理を繰り返して高解像度画像を再構成する。   The super-resolution processing unit 30 performs reconstruction-type super-resolution processing on the input observation image and converts it into a high-resolution image. Specifically, a “simulation image” is calculated from the n-th high-resolution image using a point spread function, and an error between the simulation image and the observed image is back-projected to the n-th high-resolution image using a back-projection function. As a result, the image is updated to the (n + 1) -th high-resolution image. This process is repeated to reconstruct a high resolution image.

ここで、超解像処理部30は、点広がり関数を中心に関して回転対称の形状に限定することで、点広がり関数との畳み込み積分および逆投影関数との畳み込み積分に必要な乗算器の個数を削減する。   Here, the super-resolution processing unit 30 limits the point spread function to a rotationally symmetric shape with respect to the center, thereby reducing the number of multipliers necessary for the convolution integration with the point spread function and the convolution integration with the back projection function. Reduce.

ここでは、一例として、縦3画素、横3画素の点広がり関数および逆投影関数との畳み込み積分を用いた再構成型超解像処理において、本実施の形態の畳み込み積分の構成例を説明するが、一般に縦N画素、横N画素(Nは自然数)の場合にも同様の構成を適用することができる。   Here, as an example, a configuration example of convolution integration according to the present embodiment will be described in reconstruction super-resolution processing using convolution integration with a point spread function and back projection function of three vertical pixels and three horizontal pixels. However, in general, the same configuration can be applied to vertical N pixels and horizontal N pixels (N is a natural number).

図2は、比較のため、点広がり関数の係数行列による一般的な畳み込み積分の構成例を示す図である。   FIG. 2 is a diagram illustrating a configuration example of a general convolution integral using a coefficient matrix of a point spread function for comparison.

3×3の点広がり関数Aの係数行列は9個の係数値A0〜A8で与えられる(符号200)。3×3の対象画像Bは9個の画素値B0〜B8で与えられる(符号210)。   The coefficient matrix of the 3 × 3 point spread function A is given by nine coefficient values A0 to A8 (reference numeral 200). The 3 × 3 target image B is given by nine pixel values B0 to B8 (reference numeral 210).

ここで対象画像Bは、式(2)の第n回目の再構成反復結果の高解像度画像である。   Here, the target image B is a high-resolution image as a result of the n-th reconstruction iteration of Equation (2).

対象画像Bを取得するには、全体画像24を格納した画像メモリである記憶部20に対して、読み出しアドレス計算部22が読み出しアドレスを指定して、指定されたアドレスから3×3の画像領域を対象画像Bとして読み出す必要がある。そのため、対象画像Bを読み出す度に、読み出しアドレスの計算が必要になり、メモリアクセス待機時間がかかる。   In order to acquire the target image B, the read address calculation unit 22 designates a read address for the storage unit 20 which is an image memory storing the entire image 24, and a 3 × 3 image area from the designated address. Must be read out as the target image B. For this reason, every time the target image B is read, it is necessary to calculate a read address, which takes a memory access standby time.

畳み込み積分の乗算を並列に行う場合、点広がり関数の係数行列の係数の個数分、すなわち9個の乗算器が必要となる(符号220)。各乗算器は係数値Anと画素値Bnの乗算を行い、乗算の結果Xn=An×Bn(n=0,1,2,…8)を出力する。   When performing the multiplication of the convolution integral in parallel, the number of coefficients of the coefficient matrix of the point spread function, that is, nine multipliers are required (reference numeral 220). Each multiplier performs multiplication of the coefficient value An and the pixel value Bn, and outputs a multiplication result Xn = An × Bn (n = 0, 1, 2,... 8).

加算器230は、9個の乗算器の出力値Xn(n=0,1,2,…8)の総和ΣXnを計算し、点広がり関数Aと対象画像Bの畳み込み積分A*Bとして出力する。   The adder 230 calculates the sum ΣXn of the output values Xn (n = 0, 1, 2,... 8) of the nine multipliers, and outputs the result as a convolution integral A * B of the point spread function A and the target image B. .

図3(a)および図3(b)は、回転対称の点広がり関数Fの係数行列の係数値を説明する図である。3×3の点広がり関数Fが中心について回転対称である場合、9個の係数値A0〜A8(符号300)について、第1の同心円301上の4個の係数値A0、A2、A6、A8は同じ値であり、第2の同心円302上の4個の係数値A1、A3、A5、A7は同じ値であり、中心303の係数はA4である(図3(a))。よって、3×3の回転対称の点広がり関数Fの係数行列の係数値は以下の3種類の値A、B、Cをもつことになる(図3(b))。
C=A0=A2=A6=A8、
B=A1=A3=A5=A7、および
A=A4
FIGS. 3A and 3B are diagrams for explaining the coefficient values of the coefficient matrix of the rotationally symmetric point spread function F. FIG. When the 3 × 3 point spread function F is rotationally symmetric about the center, four coefficient values A0, A2, A6, A8 on the first concentric circle 301 are obtained for nine coefficient values A0 to A8 (reference numeral 300). Are the same value, the four coefficient values A1, A3, A5, A7 on the second concentric circle 302 are the same value, and the coefficient at the center 303 is A4 (FIG. 3A). Therefore, the coefficient value of the coefficient matrix of the 3 × 3 rotationally symmetric point spread function F has the following three types of values A, B, and C (FIG. 3B).
C = A0 = A2 = A6 = A8,
B = A1 = A3 = A5 = A7, and A = A4

図4(a)〜図4(c)は、ライン順次走査による画素の入力と畳み込み積分の関係を説明する図である。本実施例では、画素をライン単位で順次読み込んで畳み込み積分を実行する。ここで、この畳み込み積分に入力される画像を4×4の大きさとし、画素値をPijとする(図4(a))。ただし、iは垂直方向画素位置(0≦i≦3)、jは水平方向画素位置(0≦j≦3)とする。添字iは画像の画素を走査するラインの番号を示す。4×4の入力画像の場合、ライン数は4、各ラインの画素数は4である。   FIG. 4A to FIG. 4C are diagrams for explaining the relationship between pixel input and convolution integral by line sequential scanning. In this embodiment, the pixels are sequentially read in units of lines and convolution integration is executed. Here, it is assumed that the image input to the convolution integral is 4 × 4 and the pixel value is Pij (FIG. 4A). Here, i is a vertical pixel position (0 ≦ i ≦ 3), and j is a horizontal pixel position (0 ≦ j ≦ 3). The subscript i indicates the number of the line that scans the pixels of the image. In the case of a 4 × 4 input image, the number of lines is 4, and the number of pixels in each line is 4.

ライン順次走査の場合、図4(a)の4×4の入力画像をライン単位で順次走査して画素を読み込む。すなわち、第0ラインを走査して画素P00、P01、P02、P03を順次読み込み、第1ラインを走査して画素P10、P11、P12、P13を順次読み込み、第2ラインを走査して画素P20、P21、P22、P23を順次読み込み、最後に第3ラインを走査して画素P30、P31、P32、P33を順次読み込む。   In the case of line sequential scanning, pixels are read by sequentially scanning the 4 × 4 input image of FIG. That is, the pixels P00, P01, P02, and P03 are sequentially read by scanning the 0th line, the pixels P10, P11, P12, and P13 are sequentially read by scanning the first line, and the pixels P20, P20 are scanned by scanning the second line. P21, P22, and P23 are sequentially read. Finally, the third line is scanned to sequentially read pixels P30, P31, P32, and P33.

例えば、画素P11の画素位置における対象画像は図4(c)のように画素P11を中心とする3×3の画像であり、これに乗算される点広がり関数Fの係数行列の係数値は図4(b)のようであるから、対象画像と点広がり関数Fの畳み込み積分は以下のようになる。
A×P11+B×(P10+P12+P01+P21)+C×(P00+P02+P20+P22) (11)
For example, the target image at the pixel position of the pixel P11 is a 3 × 3 image centered on the pixel P11 as shown in FIG. 4C, and the coefficient value of the coefficient matrix of the point spread function F multiplied by this is shown in FIG. 4 (b), the convolution integral of the target image and the point spread function F is as follows.
A × P11 + B × (P10 + P12 + P01 + P21) + C × (P00 + P02 + P20 + P22) (11)

式(11)を対象画像のライン毎の演算に書き換えると、以下のようになる。
B×P01+C×(P00+P02)・・・・・・第0ライン
+A×P11+B×(P10+P12)・・・・・・第1ライン
+B×P21+C×(P20+P22)・・・・・・第2ライン (12)
When Equation (11) is rewritten into the calculation for each line of the target image, the following is obtained.
B × P01 + C × (P00 + P02) ···· 0th line + A × P11 + B × (P10 + P12) ······· First line + B × P21 + C × (P20 + P22) ······ Second line (12 )

式(12)からわかるように、点広がり関数が回転対称形状のため、画素値と係数値の積和算は、第1ラインを挟んで第0ラインと第2ラインが上下対称の係数値を用いたものとなる。そのため、4×4の入力画像をライン毎に走査する過程で、現在の対象画像のライン毎の演算結果をライン単位のFIFOでバッファリングしておき、将来の対象画像のラインの演算結果として再度利用することが可能になる。   As can be seen from equation (12), since the point spread function has a rotationally symmetric shape, the product-sum operation of the pixel value and the coefficient value is such that the 0th line and the 2nd line have vertically symmetrical coefficient values across the 1st line. It will be used. Therefore, in the process of scanning the 4 × 4 input image line by line, the calculation result for each line of the current target image is buffered by a FIFO in units of lines, and again as the calculation result of the line of the future target image. It becomes possible to use.

図5は、ライン順次走査による画素の入力を前提とした畳み込み積分演算部の構成図である。   FIG. 5 is a configuration diagram of a convolution integral calculation unit on the premise of pixel input by line sequential scanning.

畳み込み積分演算部には所定サイズの画像の画素がライン単位で入力される。ここでは4×4のサイズの画像400の第0ライン、第1ライン、第2ライン、第3ラインの順に各ラインの左端から画素が一つずつ読み出される。第0ラインについてはP00、P01、P02、P03の順に読み出され、第1ラインについてはP10、P11、P12、P13の順に読み出され、第2ラインについてはP20、P21、P22、P23の順に読み出され、第3ラインについてはP30、P31、P32、P33の順に読み出される。図5では、ライン順次入力に画素P22が入力された時点(以下「現時点」という)での入出力状態を示している(S1)。   Pixels of an image having a predetermined size are input to the convolution integral calculation unit in units of lines. Here, pixels are read one by one from the left end of each line in the order of the 0th line, the 1st line, the 2nd line, and the 3rd line of the image 400 of 4 × 4 size. The 0th line is read in the order of P00, P01, P02 and P03, the 1st line is read in the order of P10, P11, P12 and P13, and the 2nd line is read in the order of P20, P21, P22 and P23. The third line is read in the order of P30, P31, P32, and P33. FIG. 5 shows an input / output state when the pixel P22 is input for line sequential input (hereinafter referred to as “current time”) (S1).

3つの乗算器50a、50b、50cは、入力画素に点広がり関数Fの係数行列の係数値A、B、Cを乗算する。第1乗算器50aは入力画素P22に係数値Aを乗算し、A×P22を出力する(S2)。第2乗算器50bは入力画素P22に係数値Bを乗算し、B×P22を出力する(S4)。第3乗算器50cは入力画素P22に係数値Cを乗算し、C×P22を出力する(S7)。   The three multipliers 50a, 50b, and 50c multiply the input pixels by coefficient values A, B, and C of the coefficient matrix of the point spread function F. The first multiplier 50a multiplies the input pixel P22 by the coefficient value A and outputs A × P22 (S2). The second multiplier 50b multiplies the input pixel P22 by the coefficient value B and outputs B × P22 (S4). The third multiplier 50c multiplies the input pixel P22 by the coefficient value C and outputs C × P22 (S7).

第1乗算器50aからの出力値A×P22は遅延器52aに入力され、1画素分の入力タイミングだけ遅延して出力される。したがって現時点では遅延器52aは一つ前のタイミングの乗算結果A×P21を出力する(S3)。   The output value A × P22 from the first multiplier 50a is input to the delay unit 52a and output after being delayed by the input timing of one pixel. Therefore, at the present time, the delay unit 52a outputs the multiplication result A × P21 at the previous timing (S3).

第2乗算器50bからの出力値B×P22は遅延器52bに入力されて1画素分遅延して出力される。現時点では遅延器52bは入力値B×P22より一つ前の乗算結果B×P21を出力する(S5)。この乗算結果B×P21はさらに遅延器54bに入力されて1画素分遅延して出力される。現時点では遅延器54bは入力値B×P21より一つ前の乗算結果B×P20を出力する(S6)。   The output value B × P22 from the second multiplier 50b is input to the delay unit 52b and output after being delayed by one pixel. At this time, the delay unit 52b outputs the multiplication result B × P21 immediately before the input value B × P22 (S5). The multiplication result B × P21 is further input to the delay unit 54b and output after being delayed by one pixel. At the present time, the delay unit 54b outputs the multiplication result B × P20 immediately before the input value B × P21 (S6).

第1加算器56は、遅延器52aにより1画素分だけ遅延された係数値Aの乗算結果A×P21と、係数値Bの乗算結果B×P22と、二つの遅延器52b、54bにより2画素分だけ遅延された係数値Bの乗算結果B×P20とを加算し、加算結果A×P21+B×(P20+P22)を出力する(S9)。   The first adder 56 includes a multiplication result A × P21 of the coefficient value A delayed by one pixel by the delay device 52a, a multiplication result B × P22 of the coefficient value B, and two pixels by the two delay devices 52b and 54b. The multiplication result B × P20 of the coefficient value B delayed by the amount is added, and the addition result A × P21 + B × (P20 + P22) is output (S9).

第1、第2、第3ラインFIFO(First In First Out)バッファ60、62、64は、ライン単位の画素値の積和演算結果を保持してライン画素分(ここでは4画素分)だけ遅延させてFIFO方式で出力するバッファである。   First, second, and third line FIFO (First In First Out) buffers 60, 62, and 64 hold product-sum operation results of pixel values in units of lines, and are delayed by line pixels (here, four pixels). This is a buffer that outputs in the FIFO manner.

第1ラインFIFOバッファ60には、第1加算器56による第2ラインにおける画素P21についての積和演算結果A×P21+B×(P20+P22)が入力される。第1ラインFIFOバッファ60には、このような積和演算結果が1ライン分すなわち4画画素分だけバッファされており、現時点で第1ラインFIFOバッファ60は画素P21より4画素前の画素P11についての第1ラインにおける積和演算結果A×P11+B×(P10+P12)を出力する(S11)。   The product-sum operation result A × P21 + B × (P20 + P22) for the pixel P21 in the second line by the first adder 56 is input to the first line FIFO buffer 60. In the first line FIFO buffer 60, such a product-sum operation result is buffered for one line, that is, for four picture pixels. At this time, the first line FIFO buffer 60 has a pixel P11 four pixels before the pixel P21. The product-sum operation result A × P11 + B × (P10 + P12) in the first line is output (S11).

第3乗算器50cからの出力値C×P22は遅延器52cに入力されて1画素分遅延して出力される。現時点では遅延器52cは入力値C×P22より一つ前の乗算結果C×P21を出力する。この乗算結果C×P21はさらに遅延器54cに入力されて1画素分遅延して出力される。現時点では遅延器54cは入力値C×P21より一つ前の乗算結果C×P20を出力する(S8)。   The output value C × P22 from the third multiplier 50c is input to the delay unit 52c and output after being delayed by one pixel. At this time, the delay unit 52c outputs the multiplication result C × P21 immediately before the input value C × P22. The multiplication result C × P21 is further input to the delay unit 54c and output after being delayed by one pixel. At this time, the delay unit 54c outputs the multiplication result C × P20 immediately before the input value C × P21 (S8).

第2加算器58は、遅延器52bにより1画素分だけ遅延された係数値Bの乗算結果B×P21と、係数値Cの乗算結果C×P22と、二つの遅延器52c、54cにより2画素分だけ遅延された係数値Cの乗算結果C×P20とを加算し、加算結果B×P21+C×(P20+P22)を出力する(S10)。   The second adder 58 includes a multiplication result B × P21 of the coefficient value B delayed by one pixel by the delay device 52b, a multiplication result C × P22 of the coefficient value C, and two pixels by the two delay devices 52c and 54c. The multiplication result C × P20 of the coefficient value C delayed by the amount is added, and the addition result B × P21 + C × (P20 + P22) is output (S10).

第2ラインFIFOバッファ62には、第2加算器58による第2ラインにおける画素P21についての積和演算結果B×P21+C×(P20+P22)が入力される。現時点で第2ラインFIFOバッファ62は画素P21より4画素前の画素P11についての第1ラインにおける積和演算結果B×P11+C×(P10+P12)を出力する。この積和演算結果B×P11+C×(P10+P12)はさらに第3ラインFIFOバッファ64に入力される。現時点で第3ラインFIFOバッファ64は画素P11より4画素前の画素P01についての第0ラインにおける積和演算結果B×P01+C×(P00+P02)を出力する(S12)。   The product-sum operation result B × P21 + C × (P20 + P22) for the pixel P21 in the second line by the second adder 58 is input to the second line FIFO buffer 62. At this time, the second line FIFO buffer 62 outputs the product-sum operation result B × P11 + C × (P10 + P12) in the first line for the pixel P11 four pixels before the pixel P21. The product-sum operation result B × P11 + C × (P10 + P12) is further input to the third line FIFO buffer 64. At this time, the third line FIFO buffer 64 outputs the product-sum operation result B × P01 + C × (P00 + P02) in the 0th line for the pixel P01 four pixels before the pixel P11 (S12).

第3加算器66は、第1ラインFIFOバッファ60からの第1ラインにおける積和演算結果A×P11+B×(P10+P12)と、第2加算器58からの第2ラインにおける積和演算結果B×P21+C×(P20+P22)と、第3ラインFIFOバッファ64からの第0ラインにおける積和演算結果B×P01+C×(P00+P02)とを加算し、加算結果B×P01+C×(P00+P02)+A×P11+B×(P10+P12)+B×P21+C×(P20+P22)を出力する。この加算結果は、画素P11を中心とする3×3の画像と点広がり関数Fとの畳み込み積分の演算結果である。   The third adder 66 calculates the product-sum operation result A × P11 + B × (P10 + P12) in the first line from the first line FIFO buffer 60 and the product-sum operation result B × P21 + C in the second line from the second adder 58. X (P20 + P22) and the product-sum operation result B * P01 + C * (P00 + P02) in the 0th line from the third line FIFO buffer 64 are added, and the addition result B * P01 + C * (P00 + P02) + A * P11 + B * (P10 + P12) + B × P21 + C × (P20 + P22) is output. This addition result is a calculation result of the convolution integral of the 3 × 3 image centered on the pixel P11 and the point spread function F.

上述のように、畳み込み積分演算部では、ライン単位で順次入力される画素Pijについて、点広がり関数Fの係数行列の係数値A、B、Cを乗算し、各係数値との乗算結果A×Pij,B×Pij,C×Pijをシフトレジスタなどの遅延器によって点広がり関数の水平方向サイズ分だけ遅延させる。さらに、遅延された係数値との乗算結果を加算することでライン毎の積和演算値を求め、ラインFIFOバッファでライン画素分だけ積和演算値をバッファリングし、必要なライン遅延分だけラインFIFOバッファをカスケード接続する。ここで、3×3の点広がり関数の係数行列の係数値は中央のラインを中心に上下対称であり、第2ラインの積和演算値は第0ラインの積和演算値を流用可能であることから、ラインFIFOバッファは2ライン分だけカスケード接続される。最後に各ラインの積和演算値を加算することで畳み込み積分が計算される。   As described above, the convolution integral calculation unit multiplies the pixel values Pij sequentially input in units of lines by the coefficient values A, B, and C of the coefficient matrix of the point spread function F, and the multiplication result A × Pij, B × Pij, and C × Pij are delayed by the horizontal size of the point spread function by a delay device such as a shift register. Further, the product-sum operation value for each line is obtained by adding the multiplication result with the delayed coefficient value, and the product-sum operation value is buffered by the line pixel in the line FIFO buffer, and the line by the required line delay is obtained. Cascade the FIFO buffers. Here, the coefficient values of the coefficient matrix of the 3 × 3 point spread function are vertically symmetrical about the center line, and the product-sum operation value of the second line can be used as the product-sum operation value of the second line. Therefore, the line FIFO buffer is cascade-connected for two lines. Finally, the convolution integral is calculated by adding the product-sum operation values of each line.

なお、3×3の点広がり関数Fを用いる場合、4×4の入力画像400において画素P11、P12、P21、P22以外の画素については、フィルタ計算に必要な3×3の対象画像の画素がすべて揃わないため例外処理を行う。   When the 3 × 3 point spread function F is used, for the pixels other than the pixels P11, P12, P21, and P22 in the 4 × 4 input image 400, the pixels of the 3 × 3 target image necessary for the filter calculation are the same. Exception handling is performed because not all are available.

以上の構成により、乗算器は点広がり関数の係数行列の係数値の種類数分にまで削減することができる。本例では本来は3×3の対象画像の畳み込み積分に9個の乗算器が必要であったのが3個の乗算器まで削減することができる。また、点広がり関数の係数行列の係数値の上下対称性を利用し、FIFOによるライン単位の遅延によって畳み込み積分に必要な積和演算値のタイミング管理が可能である。   With the above configuration, the multiplier can be reduced to the number of types of coefficient values of the coefficient matrix of the point spread function. In the present example, nine multipliers were originally required for the convolution integration of the 3 × 3 target image, but the number of multipliers can be reduced to three. In addition, by using the vertical symmetry of the coefficient values of the coefficient matrix of the point spread function, it is possible to manage the timing of the product-sum operation values necessary for the convolution integration by the delay in line units by FIFO.

上記の畳み込み積分を電子回路で実現する場合は、上記の方法により乗算器の電子回路の個数を削減すれば、回路規模を小さくすることができる。   When the above convolution integration is realized by an electronic circuit, the circuit scale can be reduced by reducing the number of electronic circuits of the multiplier by the above method.

上記の実施例では、3×3の点広がり関数の例で説明したが、高画質映像を前提とする場合、たとえば4×4〜10×10といった要素数の多い点広がり関数を用いることになるため、乗算器の削減効果は非常に大きなものとなる。   In the above embodiment, an example of a 3 × 3 point spread function has been described. However, when a high-quality image is assumed, a point spread function having a large number of elements such as 4 × 4 to 10 × 10 is used. Therefore, the reduction effect of the multiplier is very large.

点広がり関数の逆関数である逆投影関数も回転対称であることから、本構成を逆投影関数の畳み込み積分処理にも使うことができる。その場合、逆投影画像と畳み込み積分される対象画像は、式(4)の第n回再構成反復結果の高解像度画像から求めたシミュレーション画像と観測画像との誤差である。   Since the inverse projection function, which is the inverse function of the point spread function, is also rotationally symmetric, this configuration can also be used for convolution integration processing of the inverse projection function. In this case, the target image to be subjected to convolution integration with the backprojection image is an error between the simulation image and the observation image obtained from the high-resolution image of the nth reconstruction iteration result of Equation (4).

点広がり関数との畳み込み積分と、逆投影画像との畳み込み積分の両方において、上記の方法で乗算器の個数を削減すれば、超解像処理全体としてさらに処理コストを削減できる。この場合、点広がり関数との畳み込み積分と、逆投影関数との畳み込み積分とを並列に実行するために、それぞれの畳み込み積分用に3個の乗算器を用意してもよい。あるいは、点広がり関数との畳み込み積分と、逆投影関数との畳み込み積分とで同じ3個の乗算器を共有することで、再構成型の超解像処理全体の乗算器の個数を減らしてもよい。   In both the convolution integration with the point spread function and the convolution integration with the backprojection image, if the number of multipliers is reduced by the above method, the processing cost can be further reduced as the whole super-resolution processing. In this case, in order to execute the convolution integration with the point spread function and the convolution integration with the back projection function in parallel, three multipliers may be prepared for each convolution integration. Alternatively, the same three multipliers are shared by the convolution integral with the point spread function and the convolution integral with the backprojection function, so that the number of multipliers in the entire reconstruction type super-resolution processing can be reduced. Good.

以上述べたように、本発明の実施の形態によれば、光学系の点広がり関数を中心に関して回転対称形状に限定することにより、点広がり関数との畳み込み積分に必要な乗算器の個数を削減することができる。さらに、点広がり関数の逆関数である逆投影関数も点広がり関数と同様に回転対称となることから、同様に逆投影関数との畳み込み積分に必要な乗算器の個数を削減することができる。さらに、あらかじめ点広がり関数の係数との乗算を施した画素値を遅延させて利用することにより、アドレス計算およびメモリアクセス待機時間を削減することができる。これにより、要素数の大きい点広がり関数を持つ低コストの光学系をモデル化する場合であっても、処理規模の増大を回避しながら、充分なぼけ回復効果のある良好な解像度変換画像を得ることができる。   As described above, according to the embodiment of the present invention, the number of multipliers required for convolution integration with the point spread function is reduced by limiting the point spread function of the optical system to a rotationally symmetric shape with respect to the center. can do. Furthermore, since the inverse projection function, which is an inverse function of the point spread function, is also rotationally symmetric like the point spread function, the number of multipliers necessary for convolution integration with the inverse projection function can be reduced in the same manner. Furthermore, by delaying and using the pixel value that has been previously multiplied by the coefficient of the point spread function, the address calculation and memory access standby time can be reduced. As a result, even when modeling a low-cost optical system having a point spread function with a large number of elements, a good resolution-converted image having a sufficient blur recovery effect can be obtained while avoiding an increase in processing scale. be able to.

また、点広がり関数の逆関数である逆投影関数を近似的に求める方法として、点広がり関数を表す係数行列の対応する各要素を2乗して逆投影関数を表す係数行列の対応する要素を求める方法がある。この近似方法による場合でも、逆投影関数は点広がり関数と同様に回転対称となることから、逆投影関数との畳み込み積分に必要な乗算器の個数を削減することができる。   In addition, as a method of approximately obtaining a back projection function that is an inverse function of the point spread function, each corresponding element of the coefficient matrix representing the point spread function is squared to obtain a corresponding element of the coefficient matrix representing the back projection function. There is a way to ask. Even in this approximation method, the backprojection function is rotationally symmetric like the point spread function, so that the number of multipliers necessary for convolution integration with the backprojection function can be reduced.

以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. The embodiments are exemplifications, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are within the scope of the present invention. .

10 画像入力部、 20 記憶部、 30 超解像処理部、 40 表示部、 50a、50b、50c 乗算器、 52a、52b、52c、54b、54c 遅延器、 56、58、66 加算器、 60、62、64 ラインFIFOバッファ。   10 image input unit, 20 storage unit, 30 super-resolution processing unit, 40 display unit, 50a, 50b, 50c multiplier, 52a, 52b, 52c, 54b, 54c delay unit, 56, 58, 66 adder, 60, 62, 64 line FIFO buffer.

Claims (4)

光学系により撮影された観測画像をメモリに格納する画像入力部と、
前記光学系の伝達関数を示す点広がり関数との畳み込み積分を利用して前記観測画像を超解像処理し、前記観測画像よりも解像度の高い高解像度画像を生成する超解像処理部とを含み、
前記超解像処理部は、前記点広がり関数と、前記観測画像に対して再構成型の超解像処理を行った高解像度画像である第1の対象画像とを畳み込み積分する際、前記第1の対象画像の画素をライン単位で順次読み出し、前記点広がり関数の係数行列の係数値を乗算した前記第1の対象画像の画素値をライン毎に遅延加算して得られる現在の対象画像の積和演算値をライン単位でFIFO形式でバッファリングして将来の対象画像の積和演算値として再度利用することにより、前記点広がり関数と前記第1の対象画像の畳み込み積分を算出することを特徴とする画像変換装置。
An image input unit that stores observation images captured by the optical system in a memory;
A super-resolution processing unit that performs super-resolution processing on the observed image using a convolution integral with a point spread function indicating a transfer function of the optical system, and generates a high-resolution image having a higher resolution than the observed image; Including
The super-resolution processing unit performs the convolution integration of the point spread function and a first target image that is a high-resolution image obtained by performing a reconstruction-type super-resolution process on the observed image. The pixels of one target image are sequentially read out line by line, and the pixel values of the first target image obtained by multiplying the coefficient values of the coefficient matrix of the point spread function are delayed and added for each line. Calculating the convolution integral of the point spread function and the first target image by buffering the product-sum calculation value in a FIFO format in units of lines and using it again as a product-sum calculation value of a future target image. A featured image conversion apparatus.
前記超解像処理部は、さらに、前記点広がり関数の逆関数である逆投影関数との畳み込み積分を利用して前記観測画像を超解像処理するものであり、前記逆投影関数と、前記点広がり関数と前記第1の対象画像との畳み込み積分により算出されたシミュレーション画像と前記観測画像との誤差である第2の対象画像とを畳み込み積分する際、前記第2の対象画像の画素をライン単位で順次読み出し、前記点広がり関数の係数行列の係数値を乗算した前記第2の対象画像の画素値をライン毎に遅延加算して得られる現在の対象画像の積和演算値をライン単位でFIFO形式でバッファリングして将来の対象画像の積和演算値として再度利用することにより、前記逆投影関数と前記第2の対象画像の畳み込み積分を算出することを特徴とする請求項1に記載の画像変換装置。   The super-resolution processing unit further performs super-resolution processing on the observed image using a convolution integral with a back projection function that is an inverse function of the point spread function, and the back projection function, When convolution integration is performed on a second target image, which is an error between the simulation image calculated by convolution integration of the point spread function and the first target image, and the observed image, pixels of the second target image are calculated. The product-sum operation value of the current target image obtained by delay-adding the pixel values of the second target image obtained by sequentially reading line by line and multiplying the coefficient values of the coefficient matrix of the point spread function by line. And calculating the convolution integral of the back projection function and the second target image by buffering in the FIFO format and reusing the result as a product-sum operation value of a future target image. Image converter according to 1. 前記超解像処理部は、
前記対象画像の画素をライン単位で順次読み出す入力部と、
前記対象画像の画素値と前記点広がり関数の係数行列の係数値との乗算値を求める乗算部と、
前記乗算値を所定の画素分の入力タイミングだけ遅延させて出力する遅延部と、
前記乗算部により出力された乗算値と、前記遅延部により遅延された乗算値とを加算して積和演算値を出力する加算部と、
前記加算部により出力された積和演算値をライン単位でバッファしてFIFO形式で出力するラインFIFOバッファと、
前記加算部により出力された積和演算値と、前記ラインFIFOバッファにより出力された積和演算値とを加算して畳み込み積分結果を出力する出力部とを含むことを特徴とする請求項1または2に記載の画像変換装置。
The super-resolution processor
An input unit that sequentially reads out pixels of the target image in line units;
A multiplication unit for obtaining a multiplication value of a pixel value of the target image and a coefficient value of a coefficient matrix of the point spread function;
A delay unit that outputs the multiplied value by delaying the input timing for a predetermined pixel; and
An addition unit that adds the multiplication value output by the multiplication unit and the multiplication value delayed by the delay unit and outputs a product-sum operation value;
A line FIFO buffer for buffering the product-sum operation value output by the adding unit in a line unit and outputting it in a FIFO format;
The output part which adds the product-sum operation value output by the said addition part, and the product-sum operation value output by the said line FIFO buffer, and outputs a convolution integration result, It is characterized by the above-mentioned. The image conversion apparatus according to 2.
光学系により撮影された観測画像をメモリに格納する画像入力ステップと、
前記光学系の伝達関数を示す点広がり関数との畳み込み積分を利用して前記観測画像を超解像処理し、前記観測画像よりも解像度の高い高解像度画像を生成する超解像処理ステップとを含み、
前記超解像処理ステップは、前記点広がり関数と、前記観測画像に対して再構成型の超解像処理を行った高解像度画像である対象画像とを畳み込み積分する際、前記対象画像の画素をライン単位で順次読み出し、前記点広がり関数の係数行列の係数値を乗算した前記対象画像の画素値をライン毎に遅延加算して得られる現在の対象画像の積和演算値をライン単位でFIFO形式でバッファリングして将来の対象画像の積和演算値として再度利用することにより、前記点広がり関数と前記対象画像の畳み込み積分を算出することを特徴とする画像変換方法。
An image input step of storing an observation image captured by the optical system in a memory;
A super-resolution processing step of super-resolution processing the observed image using a convolution integral with a point spread function indicating a transfer function of the optical system, and generating a high-resolution image having a higher resolution than the observed image; Including
In the super-resolution processing step, the pixel of the target image is convolved with the point spread function and the target image that is a high-resolution image obtained by performing a reconstruction-type super-resolution processing on the observed image. Are sequentially read in line units, and the product-sum operation value of the current target image obtained by delay-adding the pixel values of the target image obtained by multiplying the coefficient values of the coefficient matrix of the point spread function for each line by FIFO. An image conversion method characterized by calculating a convolution integral between the point spread function and the target image by buffering in a format and reusing it as a product-sum operation value of a future target image.
JP2015198852A 2015-10-06 2015-10-06 Image conversion device and image conversion method Pending JP2017072954A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015198852A JP2017072954A (en) 2015-10-06 2015-10-06 Image conversion device and image conversion method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015198852A JP2017072954A (en) 2015-10-06 2015-10-06 Image conversion device and image conversion method

Publications (1)

Publication Number Publication Date
JP2017072954A true JP2017072954A (en) 2017-04-13

Family

ID=58537761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198852A Pending JP2017072954A (en) 2015-10-06 2015-10-06 Image conversion device and image conversion method

Country Status (1)

Country Link
JP (1) JP2017072954A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198125A (en) * 2017-12-29 2018-06-22 深圳云天励飞技术有限公司 A kind of image processing method and device
EP4242919A1 (en) * 2022-03-07 2023-09-13 Siemens Aktiengesellschaft Efficient deep learning inference of a neural network for line camera data

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198125A (en) * 2017-12-29 2018-06-22 深圳云天励飞技术有限公司 A kind of image processing method and device
CN108198125B (en) * 2017-12-29 2021-10-08 深圳云天励飞技术有限公司 Image processing method and device
EP4242919A1 (en) * 2022-03-07 2023-09-13 Siemens Aktiengesellschaft Efficient deep learning inference of a neural network for line camera data
WO2023169771A1 (en) * 2022-03-07 2023-09-14 Siemens Aktiengesellschaft Efficient deep learning inference of a neural network for line camera data

Similar Documents

Publication Publication Date Title
US8620109B2 (en) Image processing apparatus, image processing method and image processing program
Farsiu et al. Fast and robust super-resolution
US20230316456A1 (en) Panoramic video frame interpolation method and apparatus, and corresponding storage medium
EP2164040B1 (en) System and method for high quality image and video upscaling
KR101839617B1 (en) Method and apparatus for removing non-uniform motion blur using multiframe
JP2016058081A (en) Method and device for generating sharp image on the basis of blurry image
CN106780336B (en) Image reduction method and device
JP2011237998A (en) Image processing device, and image processing method and program
US8712175B2 (en) Image processing system, image processing method and program for image processing
Bowen et al. Real-time image super resolution using an FPGA
JP2017072954A (en) Image conversion device and image conversion method
Zomet et al. Super-resolution from multiple images having arbitrary mutual motion
Mery et al. A fast non-iterative algorithm for the removal of blur caused by uniform linear motion in X-ray images
JP2016167736A (en) Image conversion device, image conversion method and image conversion program
GB2475716A (en) Providing a super-resolution image
JP6532151B2 (en) Super-resolution device and program
JP5846048B2 (en) Image processing apparatus and imaging apparatus
JPH1074258A (en) Image processing method and device therefor
JP6632434B2 (en) Image processing apparatus, image processing method, and program
JP5133070B2 (en) Signal processing device
EP0511606B1 (en) Parallel interpolator for high speed digital image enlargement
JP5181345B2 (en) Image processing apparatus and image processing method
KR102126916B1 (en) Apparatus and method for reconstructing blurred image
JP6677565B2 (en) Image processing device and program
JP2010257179A (en) Image processing apparatus and image processing program