JP5493191B2 - Image restoration apparatus and image restoration method - Google Patents

Image restoration apparatus and image restoration method Download PDF

Info

Publication number
JP5493191B2
JP5493191B2 JP2010028278A JP2010028278A JP5493191B2 JP 5493191 B2 JP5493191 B2 JP 5493191B2 JP 2010028278 A JP2010028278 A JP 2010028278A JP 2010028278 A JP2010028278 A JP 2010028278A JP 5493191 B2 JP5493191 B2 JP 5493191B2
Authority
JP
Japan
Prior art keywords
time
observation
calculation unit
matrix
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010028278A
Other languages
Japanese (ja)
Other versions
JP2011165013A (en
Inventor
造 田邉
利博 古川
龍 長保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo University of Science
Original Assignee
Tokyo University of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo University of Science filed Critical Tokyo University of Science
Priority to JP2010028278A priority Critical patent/JP5493191B2/en
Publication of JP2011165013A publication Critical patent/JP2011165013A/en
Application granted granted Critical
Publication of JP5493191B2 publication Critical patent/JP5493191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像復元装置および画像復元方法に関する。   The present invention relates to an image restoration apparatus and an image restoration method.

近年、画像工学の分野において、劣化した画像から原画像を復元する技術の研究開発が多くなされている。すなわち、原画像(所望情報、クリアな画像)に不必要な情報(ぼけと雑音)が混在した劣化画像(受信情報)から不必要な情報(ぼけと雑音)を取り除き、原画像(所望情報)のみを抽出することは、画像復元の分野において必要不可欠な技術であり、近年盛んに研究開発が行われている。例えば、デジタルカメラ(デジタルスチルカメラおよびデジタルビデオカメラの総称)や携帯電話などで撮影された画像は、手ぶれや焦点ずれなどに起因する「ぼけ」と、暗電流や熱雑音などに起因するガウス性またはインパルス性の「雑音」との影響から、実物と比較して画質が劣化することは避けられない。「画像復元」とは、このように劣化した画像からできるだけ原画像に近い画像を復元することである。   In recent years, in the field of image engineering, much research and development of techniques for restoring original images from degraded images has been performed. That is, unnecessary information (blur and noise) is removed from a deteriorated image (received information) in which unnecessary information (blur and noise) is mixed in the original image (desired information and clear image), and the original image (desired information) Extracting only the image is an indispensable technique in the field of image restoration, and research and development have been actively conducted in recent years. For example, images taken with a digital camera (a generic name for digital still cameras and digital video cameras) and mobile phones are “blurred” due to camera shake and defocus, and Gaussian due to dark current and thermal noise. Or, due to the influence of impulsive “noise”, it is inevitable that the image quality deteriorates compared to the actual product. “Image restoration” is to restore an image as close to the original image as possible from the image thus deteriorated.

現在一般に市場で普及している画像復元技術の多くは、例えば、手ぶれ補正や顔認識、色補正、様々なフィルタなどを用いて、予めぼけと雑音の影響を軽減させる予防的な技術が主流となっている。この結果、近年、特にデジタルカメラの分野では、デジタルカメラの多機能化・高性能化により鮮明な画像が気軽に手に入れられるようになってきている。   Many of the image restoration techniques that are currently popular in the market are mainly preventive techniques that reduce the effects of blur and noise in advance using, for example, camera shake correction, face recognition, color correction, and various filters. It has become. As a result, in recent years, especially in the field of digital cameras, clear images can be easily obtained due to the increase in functionality and performance of digital cameras.

しかし、これらの予防的な技術は、何度も画像を撮り直せる状況下では問題ないが、古文書などの既に劣化している画像や、スポーツや医療などの分野における瞬間的に変化する画像など、撮り直しが許されない画像に対する復元は、いまだ困難な問題である。ここで、スポーツと医療の分野における瞬間的に変化する画像は、例えば、選手の瞬間的な動作や、肺や心臓などの臓器の瞬間的な様子などである。したがって、今日、特に、撮り直しが許されない状況下における画像復元の重要性が高まってきている。   However, these preventive technologies do not pose a problem in situations where you can retake the image many times, but images that have already deteriorated, such as old documents, and images that change instantaneously in fields such as sports and medical care, etc. Restoring images that cannot be retaken is still a difficult problem. Here, the images that change instantaneously in the fields of sports and medicine are, for example, the instantaneous movements of athletes and the instantaneous appearance of organs such as the lungs and heart. Therefore, the importance of image restoration is increasing today, particularly in situations where re-taking is not permitted.

撮り直しが許されない状況下における従来の画像復元技術として、ウィナーフィルタ(Wiener Filter)を用いた画像復元手法が広く知られている(非特許文献1、非特許文献2)。この手法は、フィルタを通して得られる復元画像と原画像との平均2乗誤差を最小にするフィルタであって、最小2乗フィルタとも呼ばれている。この手法は、周波数領域で処理を行うため、確率過程の定常性と半無限長の画像のサイズとを前提にした画像復元手法である。   An image restoration technique using a Wiener filter is widely known as a conventional image restoration technique in a situation where re-shooting is not permitted (Non-patent Documents 1 and 2). This method is a filter that minimizes the mean square error between the restored image obtained through the filter and the original image, and is also called a least square filter. Since this method performs processing in the frequency domain, it is an image restoration method on the premise of the continuity of a stochastic process and the size of a semi-infinite image.

また、他の画像復元技術として、射影フィルタを用いた画像復元手法も知られている(非特許文献3、非特許文献4)。射影フィルタは、原画像と復元画像との近さを直接原画像の空間で評価しており、復元画像の雑音の画像成分が個々の原画像の最良近似、つまり、個々の原画像の正射影となるものの中で、復元画像の雑音成分の2乗平均を最小にするものである。また、この性質から、射影フィルタは、出現頻度に無関係に、最良近似画像を復元する手法である。   As another image restoration technique, an image restoration method using a projection filter is also known (Non-Patent Document 3 and Non-Patent Document 4). The projection filter evaluates the closeness of the original image and the restored image directly in the space of the original image, and the noise image component of the restored image is the best approximation of each original image, that is, the orthogonal projection of each original image. Among these, the mean square of the noise component of the restored image is minimized. From this property, the projection filter is a technique for restoring the best approximate image regardless of the appearance frequency.

また、さらに他の画像復元技術として、カルマンフィルタ(Kalman Filter)を用いた画像復元手法も知られている(非特許文献5、非特許文献6)。この手法は、まずステップ1で、劣化画像を用いて原画像のAR(Auto Regressive:自己回帰)システムのパラメータ(以下「AR係数」という)を推定した後、ステップ2で、ステップ1で推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成し、これにカルマンフィルタ理論(カルマンフィルタアルゴリズム)を適用することによって、高性能な画像復元を実現している。さらには、このような2段階処理を行うカルマンフィルタを2次元カルマンフィルタに拡張した画像復元手法も知られている(非特許文献7、非特許文献8)。この手法は、2次元に拡張した状態空間モデルを用いて、劣化画像を復元するカルマンフィルタを実現している。なお、非特許文献7および非特許文献8に示す2次元カルマンフィルタと区別するため、適宜、非特許文献5および非特許文献6に示すカルマンフィルタを「1次元カルマンフィルタ」と称する。   As another image restoration technique, an image restoration method using a Kalman filter is also known (Non-Patent Documents 5 and 6). In this method, first, in step 1, parameters of the AR (Auto Regressive) system (hereinafter referred to as “AR coefficient”) of the original image are estimated using the degraded image, and then estimated in step 1 in step 2. A state space model (state equation and observation equation) is formed using the AR coefficient, and Kalman filter theory (Kalman filter algorithm) is applied to the state space model, thereby realizing high-performance image restoration. Furthermore, an image restoration method in which the Kalman filter that performs such two-stage processing is expanded to a two-dimensional Kalman filter is also known (Non-Patent Document 7 and Non-Patent Document 8). This method realizes a Kalman filter that restores a deteriorated image using a state space model expanded in two dimensions. In order to distinguish from the two-dimensional Kalman filters shown in Non-Patent Document 7 and Non-Patent Document 8, the Kalman filters shown in Non-Patent Document 5 and Non-Patent Document 6 are appropriately referred to as “one-dimensional Kalman filters”.

西宮亮平、外1名、「複数のウィーナーフィルタによる画像復元」(Image Restoration by Using Multiple Wiener Filters)、電子情報通信学会論文誌、A、Vol.J83−A、No.7、pp.892−902、2000年7月Ryohei Nishinomiya, 1 other person, “Image Restoration by Using Multiple Wiener Filters”, IEICE Transactions, A, Vol. J83-A, no. 7, pp. 892-902, July 2000 山根延元、外3名、「画像の局所定常ガウス混合モデルに基づく適応的ウィーナーフィルタを用いた最適雑音除去」(An Optimal Noise Removal Using Adaptive Wiener Filter Based on Locally Stationary Gaussian Mixture Distribution Model for Images)、電子情報通信学会論文誌、A、Vol.J85−A、No.9、pp.993−1004、2002年9月Nobumoto Yamane and three others, “Optimal Noise Removal Using Adaptive Wiener Filter Based on Locally Stationary Gaussian Mixture Distribution Model for Images”, IEICE Transactions, A, Vol. J85-A, no. 9, pp. 993-1004, September 2002 小川 英光 、外1名、「部分射影フィルタの諸性質」(Properties of Partial Projection Filter)、電子情報通信学会論文誌、A、Vol.J71−A、No.2、pp.527−534、1988年2月Hidemitsu Ogawa, 1 other, “Properties of Partial Projection Filter”, IEICE Transactions, A, Vol. J71-A, no. 2, pp. 527-534, February 1988 小出 裕司、外2名、「信号・画像推定のための射影フィルタ族の統一理論」(A Unified Theory of the Family of Projection Filters for Signal and Image Estimation)、電子情報通信学会論文誌、D−II、Vol.J77−D−II、No.7、pp.1293−1301、1994年7月Yuji Koide and two others, “A Unified Theory of the Family of Projection Filters for Signal and Image Estimation”, IEICE Transactions, D-II Vol. J77-D-II, no. 7, pp. 1293-1301, July 1994 城崇、外2名、「カルマンフィルタによる高精度画像復元のための画像のモデリングとパラメータ推定」(Image Modeling and Parameter Identification for Image Restoration Using a Kalman Filter)、電子情報通信学会論文誌、D−II、Vol.J80−D−II、No.11、pp.2912−2919、1997年11月Takashi Shiro and two others, “Image Modeling and Parameter Identification for Image Restoration Using a Kalman Filter”, IEICE Transactions, D-II, Vol. J80-D-II, no. 11, pp. 2912-2919, November 1997 松村淳、外2名、「効果的な雑音除去のための適応的な画像のモデル化によるカルマンフィルタ」(A Kalman Filter Using Adaptive Image Modeling for Noise Reduction)、電子情報通信学会論文誌、D−II、Vol.J86−D−II、No.2、pp.212−222、2003年2月Satoshi Matsumura and two others, “A Kalman Filter Using Adaptive Image Modeling for Noise Reduction”, IEICE Transactions, D-II, Vol. J86-D-II, no. 2, pp. 212-222, February 2003 Mahmood R Azimi-Sadjadi and Ping Wong, "Two-Dimensional Block Kalman Filtering for Image Restoration," IEEE Trans. On Signal Process, vol.ASSP-35, no.12, Dec. 1987Mahmood R Azimi-Sadjadi and Ping Wong, "Two-Dimensional Block Kalman Filtering for Image Restoration," IEEE Trans. On Signal Process, vol.ASSP-35, no.12, Dec. 1987 Stuart Citrin and Mahmood R. Azimi-Sadjadi, "A Full-Plane Block Kalman Filter for Image Restoration," IEEE Trans. on Image Processing, vol.1, no.4, Oct. 1992Stuart Citrin and Mahmood R. Azimi-Sadjadi, "A Full-Plane Block Kalman Filter for Image Restoration," IEEE Trans. On Image Processing, vol.1, no.4, Oct. 1992

しかしながら、ウィナーフィルタを用いた画像復元手法は、画像の劣化状態によらず復元が可能であるという利点を有する反面、非定常性(画像の分散が変化していること)が強い自然画像(加工されていない撮影されたままの画像)に対する復元精度が低いという欠点がある。   However, the image restoration method using the Wiener filter has the advantage that restoration is possible regardless of the degradation state of the image, but on the other hand, it is a natural image (processed) that has a strong non-stationarity (change in image dispersion). However, there is a drawback in that the restoration accuracy is low for an image that has not been shot).

すなわち、ウィナーフィルタを用いた画像復元手法は、上記のように、周波数領域で処理を行うため、確率過程の定常性と半無限長の画像のサイズとを前提にしているが、現実には、実環境においてこの前提条件が成り立つことは困難であるため、適切に復元されない場合が存在する(自然画像の非定常性の問題)。また、この手法は、最小2乗誤差を評価量とした一括処理であるため、復元画像にぼけが残るという問題が生じる可能性もある(評価量の問題)。   In other words, the image restoration method using the Wiener filter performs processing in the frequency domain as described above, and therefore assumes the stationary nature of the stochastic process and the size of the semi-infinite image, but in reality, Since it is difficult to satisfy this precondition in a real environment, there are cases where it cannot be properly restored (the problem of non-stationarity of natural images). Further, since this method is a batch process using the least square error as an evaluation amount, there is a possibility that the restored image remains blurred (evaluation amount problem).

具体的には、ウィナーフィルタを用いた画像復元手法では、画像の出現頻度が低くなると、復元精度が低下する、つまり、画像においては、出現頻度が低いエッジ部分の復元に影響するという問題がある。換言すれば、例えば、カメラで撮影された画像は、エッジ部分が多く非定常性が強いため、特にエッジ部分において最適に復元できないという問題がある。ただし、階調や色などが変化していない、つまり、画像の分散が変化していない、単調な背景部分などは、定常性が強いため、通常、良好な復元精度を得ることができる。   Specifically, in the image restoration method using the Wiener filter, when the appearance frequency of the image is lowered, the restoration accuracy is lowered, that is, in the image, there is a problem that the restoration of the edge portion having the low appearance frequency is affected. . In other words, for example, an image photographed with a camera has a problem that it cannot be optimally restored especially at the edge portion because it has many edge portions and strong non-stationarity. However, since the tone, color, or the like does not change, that is, the monotonous background portion in which the dispersion of the image does not change has high steadiness, usually, good restoration accuracy can be obtained.

また、カルマンフィルタを用いた画像復元手法は、ウィナーフィルタを用いた画像復元手法の問題点(自然画像の非定常性の問題と評価量の問題)を解決するための手法であって、ウィナーフィルタを用いた画像復元手法の問題点を解決可能であるという利点を有する反面、処理対象画像(観測画像・劣化画像)にぼけに基づく劣化があると、復元精度が低いという問題がある。   The image restoration method using the Kalman filter is a method for solving the problems of the image restoration method using the Wiener filter (the problem of unsteadiness of natural images and the problem of the evaluation amount). While having the advantage of being able to solve the problems of the used image restoration technique, there is a problem that the restoration accuracy is low when the processing target image (observed image / degraded image) is deteriorated due to blur.

すなわち、カルマンフィルタを用いた画像復元手法は、ステップ1で、注目画素とその周囲の画素との相関を考慮すべく、前処理として注目画素とその周囲の画素に対して原画像のAR係数を推定した後、ステップ2で、ステップ1で推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成し、具体的には、ステップ1で推定したAR係数と原画像から状態方程式を構成し、原画像とぼけ関数と雑音から観測方程式を構成することにより、カルマンフィルタ理論(カルマンフィルタアルゴリズム)を用いて画像を復元している。したがって、カルマンフィルタを用いた画像復元手法は、定常性を前提としない時間領域のみの処理であり、かつ、推定誤差の分散を評価量とする逐次的処理であるため、ウィナーフィルタを用いた画像復元手法の問題点を解決することができる。なお、このような2段階処理を必要とする点は、1次元カルマンフィルタを用いた手法も2次元カルマンフィルタを用いた手法も同様である。   That is, in the image restoration method using the Kalman filter, in step 1, the AR coefficient of the original image is estimated with respect to the target pixel and the surrounding pixels as preprocessing so as to consider the correlation between the target pixel and the surrounding pixels. After that, in step 2, a state space model (state equation and observation equation) is constructed using the AR coefficient estimated in step 1, and specifically, the state equation is obtained from the AR coefficient estimated in step 1 and the original image. The image is reconstructed using the Kalman filter theory (Kalman filter algorithm) by configuring the observation equation from the original image, the blur function, and the noise. Therefore, the image restoration method using the Kalman filter is a process only in the time domain that does not assume stationarity, and is a sequential process using the variance of the estimation error as an evaluation amount. The problem of the method can be solved. Note that the two-step process is necessary in the same way using the one-dimensional Kalman filter and the two-dimensional Kalman filter.

しかしながら、一方で、カルマンフィルタを用いた手法は、1次元カルマンフィルタであれ2次元カルマンフィルタであれ、ステップ1で推定したAR係数を用いてステップ2のカルマンフィルタアルゴリズムを実行するため、ステップ1でのAR係数の推定精度に劣化画像の復元精度が大きく依存してしまうという問題を有している(ARシステムの問題)。例えば、デジタルカメラの場合、処理対象画像にぼけ(焦点ずれなど)に基づく劣化が含まれると、ステップ1でのAR次数の決定およびAR係数の推定が困難となるため、ステップ2でのカルマンフィルタによる画像復元の精度に影響が出てしまう。   However, on the other hand, the method using the Kalman filter, whether it is a one-dimensional Kalman filter or a two-dimensional Kalman filter, executes the Kalman filter algorithm in Step 2 using the AR coefficient estimated in Step 1, and therefore, the AR coefficient in Step 1 is determined. There is a problem that the restoration accuracy of the degraded image greatly depends on the estimation accuracy (problem of the AR system). For example, in the case of a digital camera, if the image to be processed includes deterioration based on blurring (such as defocus), it is difficult to determine the AR order and estimate the AR coefficient in step 1, so that the Kalman filter in step 2 is used. The accuracy of image restoration will be affected.

この点、一般には、AR係数の正確な推定は困難である。AR係数の正確な推定は、例えば、画像復元であれば、クリアな画像(原画像)に依存しているからである。このことは、原画像が既知でなければならないことを意味しているため、リアルタイム処理は困難となる。また、仮に何らかの手法でリアルタイムにAR係数を正確に推定することが可能になったとしても、処理が増加するため演算量の問題は避けられない。また、そもそも、AR係数の推定はAR係数の次数を決定した後に行われるが、AR係数の次数を決定するのは非常に困難であり、この点からもAR係数の正確な推定は困難であるといえる。   In this respect, generally, it is difficult to accurately estimate the AR coefficient. This is because accurate estimation of the AR coefficient depends on a clear image (original image) in the case of image restoration, for example. This means that the original image must be known, so real-time processing becomes difficult. Also, even if it becomes possible to accurately estimate the AR coefficient in real time by any method, the problem of computational complexity is inevitable because the processing increases. In the first place, the estimation of the AR coefficient is performed after determining the order of the AR coefficient. However, it is very difficult to determine the order of the AR coefficient, and it is difficult to accurately estimate the AR coefficient from this point. It can be said.

したがって、今日、ウィナーフィルタを用いた画像復元手法の問題点およびカルマンフィルタを用いた画像復元手法の問題点の両方を解決しうる、シンプルで実用的な高性能の画像復元手法、つまり、シンプルな構成を有し、かつ、実環境でも使用可能であり、しかも劣化画像の復元性能(つまり、画像復元能力)が高い画像復元手法が求められている。特に、劣化画像の復元性能(画像復元能力)としては、クリアな画像にぼけと雑音が含まれた劣化画像に対して、ぼけと雑音を同時に取り除くことができる高い性能(能力)が求められている。   Therefore, a simple and practical high-performance image restoration method that can solve both the problems of the image restoration method using the Wiener filter and the image restoration method using the Kalman filter, that is, a simple configuration today. There is a need for an image restoration technique that has high image restoration performance and that can be used in a real environment and has high restoration performance (that is, image restoration capability) for degraded images. In particular, the degraded image restoration performance (image restoration capability) requires high performance (capability) that can remove blur and noise at the same time for degraded images that contain blur and noise in a clear image. Yes.

本発明の目的は、ぼけと雑音を同時に除去することができる高い画像復元能力を実現することができるシンプルで実用的な画像復元装置および画像復元方法を提供することである。   An object of the present invention is to provide a simple and practical image restoration apparatus and image restoration method capable of realizing a high image restoration capability capable of simultaneously removing blur and noise.

本発明の画像復元装置は、原画像情報に不必要な情報が混在した劣化画像情報のみから前記原画像情報を推定する画像復元装置であって、時刻nのみの劣化画像情報に対して、時刻nまたは時刻n+1までの情報により前記原画像情報を含む時刻n+1でのシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算部と、時刻nのみの劣化画像情報に対して、前記相関演算部によって算出された相関値を用いて、時刻n+1までの情報による時刻n+1での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記劣化画像情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出部と、時刻nのみの劣化画像情報に対して、前記重み係数算出部によって算出された重み係数を用いて、時刻nまたは時刻n+1までの情報による時刻n+1での前記状態量の最適推定値を算出する最適推定値算出部と、を有する構成を採る。   The image restoration device of the present invention is an image restoration device that estimates the original image information only from the deteriorated image information in which unnecessary information is mixed in the original image information. a correlation calculation unit that calculates a correlation value of an estimation error when the state quantity of the system at time n + 1 including the original image information is estimated from information up to n or time n + 1, and deteriorated image information only at time n , Using the correlation value calculated by the correlation calculation unit, the optimal estimated value of the state quantity at time n + 1 based on the information up to time n + 1 and the optimal estimation of the state quantity at time n + 1 based on the information up to time n A weighting factor calculating unit that calculates a weighting factor for defining the relationship between the value and the estimation error of the observation amount including the deteriorated image information, and the weighting factor calculating unit for the deteriorated image information only at time n In Using a weighting factor calculated, employs a configuration having a best estimate calculation unit for calculating an optimal estimate of the state quantity at time n + 1 by the information until time n or time n + 1.

本発明の画像復元方法は、原画像情報に不必要な情報が混在した劣化画像情報のみから前記原画像情報を推定する画像復元方法であって、時刻nのみの劣化画像情報に対して、時刻nまたは時刻n+1までの情報により前記原画像情報を含む時刻n+1でのシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算工程と、時刻nのみの劣化画像情報に対して、前記相関演算工程で算出した相関値を用いて、時刻n+1までの情報による時刻n+1での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記劣化画像情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、時刻nのみの劣化画像情報に対して、前記重み係数算出工程で算出した重み係数を用いて、時刻nまたは時刻n+1までの情報による時刻n+1での前記状態量の最適推定値を算出する最適推定値算出工程と、を有するようにした。   The image restoration method of the present invention is an image restoration method for estimating the original image information only from the deteriorated image information in which unnecessary information is mixed in the original image information. a correlation calculation step of calculating a correlation value of an estimation error when the state quantity of the system at time n + 1 including the original image information is estimated from information up to n or time n + 1, and deterioration image information only at time n , Using the correlation value calculated in the correlation calculation step, the optimal estimated value of the state quantity at time n + 1 based on the information up to time n + 1 and the optimal estimated value of the state quantity at time n + 1 based on the information up to time n And a weighting factor calculating step for calculating a weighting factor for defining the relationship between the estimated error of the observation amount including the deteriorated image information, and the weighting factor calculating step for the deteriorated image information only at time n. Using the weight coefficients out, and to have, and the optimum estimated value calculation step of calculating the optimum estimated values of the state quantity at time n + 1 by the information until time n or time n + 1.

本発明によれば、ぼけと雑音を同時に除去することができる高い画像復元能力を実現することができるシンプルで実用的な画像復元装置および画像復元方法を得ることができる。   According to the present invention, it is possible to obtain a simple and practical image restoration apparatus and image restoration method capable of realizing a high image restoration capability capable of simultaneously removing blur and noise.

本発明の実施の形態1に係る画像復元装置の構成を示すブロック図1 is a block diagram showing a configuration of an image restoration apparatus according to Embodiment 1 of the present invention. (A)は、図1の画像復元処理部の構成を示すブロック図、(B)は、図2(A)の第1復元処理部の構成を示すブロック図(A) is a block diagram showing the configuration of the image restoration processing unit in FIG. 1, and (B) is a block diagram showing the configuration of the first restoration processing unit in FIG. 2 (A). 画像の劣化の過程を説明するための図Diagram for explaining the process of image degradation 発明手法1の状態空間モデルのシステム構成を表すブロック線図Block diagram showing the system configuration of the state space model of Invention Method 1 発明手法1の状態方程式の定式化の具体例を説明するための図であり、特に、(A)は、状態空間モデルの状態過程を示す図、(B)は、処理対象ブロックおよびその時間変化の一例を示す図、(C)は、状態方程式の具体例を示す図It is a figure for demonstrating the specific example of formulation of the state equation of invention method 1, especially (A) is a figure which shows the state process of a state space model, (B) is a process target block and its time change The figure which shows an example, (C) is a figure which shows the specific example of a state equation 発明手法1の状態方程式の構成を説明するための図The figure for demonstrating the structure of the state equation of invention method 1 発明手法1の観測方程式の定式化の具体例を説明するための図であり、特に、(A)は、状態空間モデルの観測過程を示す図、(B)は、観測方程式の具体例を示す図It is a figure for demonstrating the specific example of formulation of the observation equation of invention method 1, and especially (A) is a figure which shows the observation process of a state space model, (B) shows the specific example of an observation equation. Figure 従来一般的な観測方程式の構成(一般例)を説明するための図であり、特に、(A)は、従来の観測方程式の定義を示す図、(B)は、観測量に影響する状態量の範囲を視覚的に示す図It is a figure for demonstrating the structure (general example) of a conventional general observation equation, (A) is a figure which shows the definition of the conventional observation equation, (B) is a state quantity which affects an observation amount. Figure visually showing the range of 発明手法1の観測方程式の構成を説明するための図であり、特に、(A)は、発明手法1の観測方程式の定義を示す図、(B)は、観測量に影響する状態量の範囲を視覚的に示す図It is a figure for demonstrating the structure of the observation equation of invention method 1, and (A) is a figure which shows the definition of the observation equation of invention method 1, and (B) is the range of the state quantity which affects an observation amount. Visually showing the 観測遷移行列を構成する係数の割り当て方法を説明するための図Diagram for explaining how to assign the coefficients that make up the observed transition matrix 図9(A)に示す観測遷移行列に基づく、各観測量に影響する状態量の範囲を、割り当てられた係数と共に示す図The figure which shows the range of the state quantity which influences each observation amount based on the observation transition matrix shown to FIG. 9 (A) with the allocated coefficient 発明手法1のアルゴリズムの一例を示す図The figure which shows an example of the algorithm of invention method 1 図12のアルゴリズムを実行する処理手順を示すフローチャートThe flowchart which shows the process sequence which performs the algorithm of FIG. 発明手法1を視覚的にまとめた説明図Explanatory diagram summarizing invention method 1 visually シミュレーション条件を説明するための図Diagram for explaining simulation conditions 原画像「カメラマン」を説明するための図Illustration for explaining the original image "Cameraman" 従来手法との対比において原画像「カメラマン」に対する発明手法1のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 1 with respect to the original image "cameraman" in contrast with the conventional method 図17中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral area of the circle of the broken line in FIG. 図17と同様のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) similar to FIG. 図19中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 従来手法との対比において原画像「レナ」に対する発明手法1のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 1 with respect to the original image "Lena" in contrast with the conventional method 図21中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 従来手法との対比において原画像に対する発明手法1のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 1 with respect to an original image in contrast with the conventional method 従来手法との対比において原画像に対する発明手法1のシミュレーション結果(主観評価)を示す図The figure which shows the simulation result (subjective evaluation) of the invention method 1 with respect to an original image in contrast with the conventional method 図1の画像復元装置の動作の一例を示すフローチャートThe flowchart which shows an example of operation | movement of the image restoration apparatus of FIG. 図25のステップS2300の検出方法の一例を説明するための図The figure for demonstrating an example of the detection method of step S2300 of FIG. 復元モードの実装の一例を説明するための図The figure for explaining an example of implementation of restoration mode 復元モードの実装の他の例を説明するための図Diagram for explaining another example of implementation of the restoration mode 劣化画像モデルを視覚的に説明するための図Diagram for visually explaining the degraded image model 発明手法1の状態空間モデルを視覚的に説明するための図The figure for demonstrating the state space model of invention method 1 visually 発明手法1の状態過程を視覚的に説明するための図The figure for demonstrating the state process of invention method 1 visually 発明手法1の観測過程を視覚的に説明するための図The figure for demonstrating the observation process of invention method 1 visually 発明手法1の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing showing the state equation and observation equation of Invention Method 1 together 発明手法1のアルゴリズムを説明するための図The figure for demonstrating the algorithm of invention method 1 図34のアルゴリズムを実行する処理手順を示すフローチャートThe flowchart which shows the process sequence which performs the algorithm of FIG. 発明手法1の課題を視覚的に説明するための図The figure for demonstrating the subject of the invention method 1 visually 発明手法2の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法1の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図It is explanatory drawing which shows the structure of the state equation of the invention method 2 visually, Especially, (A) is a figure which shows the specific example of the state equation of the invention method 1, and (B) is a process target accompanying the change of time. Diagram showing block changes 発明手法2の観測方程式の構成を視覚的に示す説明図Explanatory drawing visually showing the structure of the observation equation of Invention Method 2 発明手法2の観測方程式の構成を視覚的に示す他の説明図Other explanatory drawing which shows visually the composition of the observation equation of invention method 2 発明手法2の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing showing the state equation and observation equation of Invention Method 2 together 発明手法2のアルゴリズムを説明するための図The figure for demonstrating the algorithm of the invention method 2 図41のアルゴリズムを実行する処理手順を示すフローチャートThe flowchart which shows the process sequence which performs the algorithm of FIG. 発明手法1と発明手法2のアルゴリズムを比較した説明図Explanatory diagram comparing algorithms of Invention Method 1 and Invention Method 2 発明手法2の演算量評価を説明するための図The figure for demonstrating the computational complexity evaluation of the invention method 2 発明手法2の復元処理速度評価を説明するための図The figure for demonstrating the restoration processing speed evaluation of the method 2 of invention シミュレーション条件を説明するための図Diagram for explaining simulation conditions 比較対象手法との対比において原画像「カメラマン」に対する発明手法2のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of invention method 2 with respect to the original image "cameraman" in contrast with the comparison object method 図47中の破線の円の周辺領域を拡大した図FIG. 47 is an enlarged view of the peripheral area of the broken-line circle in FIG. 比較対象手法との対比において原画像「レナ」に対する発明手法2のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 2 with respect to the original image "Lena" in contrast with the comparison object method 図49中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral area of the broken-line circle in FIG. 比較対象手法との対比において原画像に対する発明手法2のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 2 with respect to an original image in contrast with a comparison object method 発明手法2の課題を視覚的に説明するための図The figure for demonstrating the subject of the invention method 2 visually 発明手法3の観測方程式の構成を視覚的に示す説明図Explanatory drawing visually showing the structure of the observation equation of Invention Method 3 発明手法3の状態空間モデルを視覚的に説明するための図The figure for demonstrating the state space model of invention method 3 visually 発明手法3の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing which shows the state equation and observation equation of Invention Method 3 together 発明手法3のアルゴリズムを説明するための図The figure for demonstrating the algorithm of the invention method 3 図56のアルゴリズムを実行する処理手順を示すフローチャートThe flowchart which shows the process sequence which performs the algorithm of FIG. 発明手法3の演算量評価を説明するための図The figure for demonstrating the calculation amount evaluation of the invention method 3 発明手法3の復元処理速度評価を説明するための図The figure for demonstrating the restoration processing speed evaluation of the invention method 3 比較対象手法との対比において原画像「カメラマン」に対する発明手法3のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 3 with respect to the original image "cameraman" in contrast with the method for comparison 図60中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral area of the broken-line circle in FIG. 比較対象手法との対比において原画像「レナ」に対する発明手法3のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 3 with respect to the original image "Lena" in contrast with the comparison object method 図62中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral area of the circle of the broken line in FIG. 比較対象手法との対比において原画像に対する発明手法3のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 3 with respect to an original image in contrast with a comparison object method 1次元の画像復元手法の特徴を説明するための図The figure for explaining the feature of the one-dimensional image restoration technique 2次元の画像復元手法の特徴を説明するための図The figure for demonstrating the characteristic of the two-dimensional image restoration method 発明手法4の状態空間モデルを視覚的に説明するための図The figure for demonstrating the state space model of invention method 4 visually 発明手法4の状態過程を視覚的に説明するための図The figure for demonstrating the state process of invention method 4 visually 発明手法4の状態方程式の構成を視覚的に示す説明図Explanatory drawing which shows the structure of the state equation of invention method 4 visually 発明手法4の観測過程を視覚的に説明するための図Diagram for visually explaining the observation process of Invention Method 4 発明手法4の観測方程式の構成を視覚的に示す説明図Explanatory drawing visually showing the structure of the observation equation of Invention Method 4 発明手法4の観測遷移行列の具体例を示す図The figure which shows the specific example of the observation transition matrix of invention method 4. 図72の観測遷移行列の構成を視覚的に示す説明図Explanatory drawing visually showing the structure of the observed transition matrix in FIG. 図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す図The figure which shows the specific example of the allocation method of the coefficient which comprises the observation transition matrix of FIG. 図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す他の図FIG. 72 is another diagram showing a specific example of a method for assigning coefficients constituting the observation transition matrix of FIG. 図72の観測遷移行列を構成する係数の割り当て方法の具体例を示すさらに他の図Still another diagram showing a specific example of a method for assigning coefficients constituting the observation transition matrix of FIG. 発明手法4の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing which shows the state equation and observation equation of Invention Method 4 together 発明手法4のアルゴリズムを説明するための図The figure for demonstrating the algorithm of the invention method 4 図78のアルゴリズムを実行する処理手順を示すフローチャートThe flowchart which shows the process sequence which performs the algorithm of FIG. 発明手法4の演算量評価を説明するための図The figure for demonstrating the calculation amount evaluation of the invention method 4 発明手法4の復元処理速度評価を説明するための図The figure for demonstrating the restoration processing speed evaluation of the invention method 4 比較対象手法との対比において原画像「カメラマン」に対する発明手法4のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 4 with respect to the original image "cameraman" in contrast with the comparison object method 図82中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral area of the broken-line circle in FIG. 比較対象手法との対比において原画像「レナ」に対する発明手法4のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 4 with respect to the original image "Lena" in contrast with the comparison object method 図84中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 比較対象手法との対比において原画像に対する発明手法4のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 4 with respect to an original image in contrast with a comparison object method 発明手法4の課題を視覚的に説明するための図The figure for demonstrating the subject of the invention method 4 visually 発明手法5の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法4の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図It is explanatory drawing which shows the structure of the state equation of the invention method 5 visually, Especially, (A) is a figure which shows the specific example of the state equation of the invention method 4, and (B) is a process target accompanying the change of time. Diagram showing block changes 発明手法5の観測方程式の構成を視覚的に示す説明図Explanatory drawing visually showing the structure of the observation equation of Invention Method 5 発明手法5の観測方程式の構成を視覚的に示す他の説明図Other explanatory drawing which shows visually the composition of the observation equation of invention method 5 発明手法5の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing which shows the state equation and observation equation of Invention Method 5 together 発明手法5のアルゴリズムを説明するための図The figure for demonstrating the algorithm of the invention method 5 図92のアルゴリズムを実行する処理手順を示すフローチャート92 is a flowchart showing a processing procedure for executing the algorithm of FIG. 発明手法4と発明手法5のアルゴリズムを比較した説明図Explanatory diagram comparing algorithms of Invention Method 4 and Invention Method 5 発明手法5の演算量評価を説明するための図The figure for demonstrating the calculation amount evaluation of the invention method 5 発明手法5の復元処理速度評価を説明するための図The figure for demonstrating the restoration processing speed evaluation of the invention method 5 比較対象手法との対比において原画像「カメラマン」に対する発明手法5のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 5 with respect to the original image "cameraman" in contrast with the comparison object method 図97中の破線の円の周辺領域を拡大した図Fig. 97 is an enlarged view of the area around the dashed circle in Fig. 97 比較対象手法との対比において原画像「レナ」に対する発明手法5のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 5 with respect to the original image "Lena" in contrast with the comparison object method 図99中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 比較対象手法との対比において原画像に対する発明手法5のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 5 with respect to an original image in contrast with a comparison object method 発明手法5の課題を視覚的に説明するための図The figure for demonstrating the subject of the invention method 5 visually 発明手法6の観測方程式の構成を視覚的に示す説明図Explanatory drawing which shows visually the composition of the observation equation of invention method 6 発明手法6の状態空間モデルを視覚的に説明するための図The figure for demonstrating the state space model of invention method 6 visually 発明手法6の状態方程式と観測方程式をまとめて示す説明図Explanatory drawing which shows the state equation and observation equation of Invention Method 6 together 発明手法6のアルゴリズムを説明するための図The figure for demonstrating the algorithm of the invention method 6 図106のアルゴリズムを実行する処理手順を示すフローチャート106 is a flowchart showing a processing procedure for executing the algorithm of FIG. 発明手法6の演算量評価を説明するための図The figure for demonstrating the computational complexity evaluation of the invention method 6 発明手法6の復元処理速度評価を説明するための図The figure for demonstrating restoration processing speed evaluation of the invention method 6 比較対象手法との対比において原画像「カメラマン」に対する発明手法6のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 6 with respect to the original image "cameraman" in contrast with the comparison object method 図110中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 比較対象手法との対比において原画像「レナ」に対する発明手法6のシミュレーション結果(視覚評価)を示す図The figure which shows the simulation result (visual evaluation) of the invention method 6 with respect to the original image "Lena" in contrast with the comparison object method 図112中の破線の円の周辺領域を拡大した図The figure which expanded the peripheral region of the circle of the broken line in FIG. 比較対象手法との対比において原画像に対する発明手法6のシミュレーション結果(客観評価)を示す図The figure which shows the simulation result (objective evaluation) of the invention method 6 with respect to an original image in contrast with a comparison object method 本発明の実施の形態2に係る画像復元装置の構成を示すブロック図Block diagram showing the configuration of an image restoration apparatus according to Embodiment 2 of the present invention 図115の復元モード指定部によって指定可能な復元モードの具体例を示す図The figure which shows the specific example of the restoration mode which can be designated by the restoration mode designation | designated part of FIG. 図115の画像復元装置の動作の一例を示すフローチャートFIG. 115 is a flowchart showing an example of the operation of the image restoration apparatus.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る画像復元装置の構成を示すブロック図である。ここでは、本発明の画像復元方法を適用した好適な画像復元装置について、特に各種の用途に対応可能な汎用的な画像復元装置を例にとって説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image restoration apparatus according to Embodiment 1 of the present invention. Here, a suitable image restoration apparatus to which the image restoration method of the present invention is applied will be described by taking a general-purpose image restoration apparatus that can handle various applications as an example.

図1に示す画像復元装置100は、コンピュータで構成されており、大別して、画像入力装置110、入力インタフェース部120、操作部130、内部インタフェース部140、記憶部150、画像復元処理部160、出力インタフェース部170、および画像出力装置180を有する。   The image restoration apparatus 100 shown in FIG. 1 is configured by a computer, and is roughly divided into an image input apparatus 110, an input interface unit 120, an operation unit 130, an internal interface unit 140, a storage unit 150, an image restoration processing unit 160, and an output. An interface unit 170 and an image output device 180 are included.

画像入力装置110は、復元処理の対象となる画像データ(劣化画像)をデジタルデータとしてコンピュータに入力するための入力装置である。入力する画像は、静止画像でも動画像でもよい。画像入力装置110としては、例えば、カメラ112やスキャナ114、記録メディア116、モデム118などを用いることができる。カメラ112は、撮像機能を有するすべての装置を意味し、例えば、デジタルカメラ(デジタルスチルカメラとデジタルビデオカメラ)のほかに、カメラ機能を搭載した携帯電話や、防犯カメラ(監視カメラ)、画像診断を行うための医療機器(内視鏡、レントゲン、エコー、CT、MRIなど)などを含むことができる。スキャナ114は、代表的な画像入力装置の1つであり、ネガやポジといったファイルからの読み込みを専用に行うフィルムスキャナなども含んでいる。記録メディア116は、画像データを記録可能な記録媒体を広く意味し、例えば、磁気ディスク(HDDやFDなど)や、光ディスク(CDやDVD、BDなど)、光磁気ディスク(MO)、フラッシュメモリ(メモリカードやUSBメモリなど)などである。モデム118は、外部の通信ネットワーク(例えば、電話回線やLAN、インターネットなど)と接続するための装置である。なお、画像入力装置110の種類は、画像復元装置100の用途に応じて適宜選択すればよい。   The image input device 110 is an input device for inputting image data (degraded image) to be restored to a computer as digital data. The input image may be a still image or a moving image. As the image input device 110, for example, a camera 112, a scanner 114, a recording medium 116, a modem 118, or the like can be used. The camera 112 means all devices having an imaging function. For example, in addition to a digital camera (digital still camera and digital video camera), a mobile phone equipped with a camera function, a security camera (surveillance camera), an image diagnosis Medical equipment (endoscope, X-ray, echo, CT, MRI, etc.), etc. The scanner 114 is one of typical image input devices, and includes a film scanner that exclusively reads from files such as negatives and positives. The recording medium 116 broadly means a recording medium capable of recording image data. For example, a magnetic disk (HDD, FD, etc.), an optical disk (CD, DVD, BD, etc.), a magneto-optical disk (MO), a flash memory ( Memory card, USB memory, etc.). The modem 118 is a device for connecting to an external communication network (for example, a telephone line, a LAN, the Internet, etc.). Note that the type of the image input device 110 may be appropriately selected according to the application of the image restoration device 100.

入力インタフェース部120は、画像入力装置110から提供される画像データをコンピュータで処理可能なデータ形式に変換するなどの入力処理を行う。図示しないが、入力インタフェース部120は、画像入力装置110の種類に応じて別個独立に設けられる。例えば、記録メディア116の入力インタフェース部120は、ドライブとも呼ばれ、記録メディア116の種類に応じて様々な種類のドライブが使用可能である。なお、ドライブは、記録メディアを読み書きする装置であり、記録メディアに関する限り、通常は、入力インタフェース部120と出力インタフェース部170は一体化されている。また、通常、モデム118は、画像入力装置110としても画像出力装置180としても機能しうるため、モデム118に関しても、通常、入力インタフェース部120と出力インタフェース部170は一体化されている。入力インタフェース部120は、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部140を介して接続された外部設置型機器であってもよい。   The input interface unit 120 performs input processing such as converting image data provided from the image input device 110 into a data format that can be processed by a computer. Although not shown, the input interface unit 120 is provided separately and independently according to the type of the image input device 110. For example, the input interface unit 120 of the recording medium 116 is also called a drive, and various types of drives can be used depending on the type of the recording medium 116. The drive is a device that reads and writes recording media. As far as the recording media are concerned, the input interface unit 120 and the output interface unit 170 are usually integrated. In general, the modem 118 can function as both the image input device 110 and the image output device 180. Therefore, the input interface unit 120 and the output interface unit 170 are usually integrated with respect to the modem 118 as well. The input interface unit 120 may be a built-in card (board) stored inside the computer main body, or may be an externally installed device connected via the internal interface unit 140.

なお、画像入力装置110が画像情報をアナログデータとして出力する場合、対応する入力インタフェース部120は、サンプリング部およびA/D変換部(共に図示せず)を有する。サンプリング部は、所定のサンプリング周波数で、入力されたアナログ信号をサンプリング処理し、A/D変換部に出力する。サンプリング周波数は、復元処理対象(情報源)の種類に応じて変更可能である。A/D変換部は、サンプリングされた信号の振幅値を所定の分解能でA/D変換処理する。   When the image input device 110 outputs image information as analog data, the corresponding input interface unit 120 includes a sampling unit and an A / D conversion unit (both not shown). The sampling unit samples the input analog signal at a predetermined sampling frequency and outputs the sampled analog signal to the A / D conversion unit. The sampling frequency can be changed according to the type of restoration process target (information source). The A / D converter performs A / D conversion processing on the amplitude value of the sampled signal with a predetermined resolution.

操作部130は、典型的にはキーボートやマウス、タッチパネルなどであるが、音声認識装置などを用いてもよい。使用者は、操作部130を用い、例えば、後述するディスプレイ182で確認をしながらコンピュータを操作することができる。また、操作部130は、パラメータ設定部132、領域指定部134、および復元モード指定部136を有する。パラメータ設定部132は、使用者の入力操作により、後で詳述する本実施の形態における画像復元処理に必要な各種パラメータの値を設定する。領域指定部134は、使用者の入力操作により、入力された画像に対して画像復元処理の対象となる領域(画像の特定の範囲)を指定する。復元モード指定部136は、使用者の入力操作により、後述する復元モードを指定する。   The operation unit 130 is typically a keyboard, a mouse, a touch panel, or the like, but a voice recognition device or the like may be used. The user can operate the computer using the operation unit 130 while confirming on a display 182 to be described later, for example. Further, the operation unit 130 includes a parameter setting unit 132, an area specifying unit 134, and a restoration mode specifying unit 136. The parameter setting unit 132 sets various parameter values necessary for image restoration processing according to the present embodiment, which will be described in detail later, by a user input operation. The area designating unit 134 designates an area (a specific range of an image) to be subjected to image restoration processing for the input image by a user input operation. The restoration mode designating unit 136 designates a restoration mode to be described later by a user input operation.

内部インタフェース部140は、コンピュータ本体の内部にあって、入力インタフェース部120、操作部130、記憶部150、画像復元処理部160、および出力インタフェース部170を相互に接続する機能を有する。コンピュータの内部における各種信号のやり取りは、内部インタフェース部140を介して行われる。   The internal interface unit 140 is inside the computer main body and has a function of connecting the input interface unit 120, the operation unit 130, the storage unit 150, the image restoration processing unit 160, and the output interface unit 170 to each other. Various signals are exchanged inside the computer via the internal interface unit 140.

記憶部150は、主記憶装置152および補助記憶装置154を有する。主記憶装置152は、コンピュータの本体を構成する一要素であって、主にプログラムとデータを格納する。補助記憶装置154は、主記憶装置152の容量の不足を補う記憶装置である。補助記憶装置154は、典型的にはハードディスク(HD)であるが、CD−ROMやDVD、SSD(Solid State Drive)、フラッシュメモリなどの可搬性のあるものであってもよいし、また、それらの組み合わせであってもよい。本実施の形態における画像復元処理を実行させるプログラム(画像復元アルゴリズム)は、予め記憶部150(主記憶装置152または補助記憶装置154)に格納されていてもよいし、記録メディア116から両インタフェース部120、140を介して記憶部150にインストールしたり、モデム118および両インタフェース部120、140を介して外部から記憶部150にダウンロードしたりしてもよい。   The storage unit 150 includes a main storage device 152 and an auxiliary storage device 154. The main storage device 152 is an element constituting the main body of the computer, and mainly stores programs and data. The auxiliary storage device 154 is a storage device that compensates for the lack of capacity of the main storage device 152. The auxiliary storage device 154 is typically a hard disk (HD), but may be a portable device such as a CD-ROM, DVD, SSD (Solid State Drive), flash memory, or the like. A combination of these may be used. The program (image restoration algorithm) for executing the image restoration process in the present embodiment may be stored in advance in the storage unit 150 (the main storage device 152 or the auxiliary storage device 154), or both the interface units from the recording medium 116. It may be installed in the storage unit 150 via 120 and 140, or may be downloaded to the storage unit 150 from the outside via the modem 118 and both interface units 120 and 140.

なお、画像入力装置110から画像データを取り込み、取り込んだ画像データに対して画像復元処理を行い、復元処理後の画像データを画像出力装置180から取り出すという一連の処理を実行するためには、取り込んだ画像データを格納しておく記憶領域と、データ処理の上で一時的に必要な記憶領域(作業領域または作業用メモリと呼ばれる)と、出力すべき画像データを格納しておく記憶領域とが必要である。これらの記憶領域は、主記憶装置152または補助記憶装置154の上に取られるが、ここでは、説明の便宜上、復元処理後の画像データを後述するディスプレイ182に出力する場合を想定して、特に表示メモリ156を図面上に別途表記している。   In order to execute a series of processes in which image data is captured from the image input device 110, image restoration processing is performed on the captured image data, and the restored image data is retrieved from the image output device 180. A storage area for storing image data, a storage area temporarily necessary for data processing (called a work area or a work memory), and a storage area for storing image data to be output is necessary. These storage areas are allocated on the main storage device 152 or the auxiliary storage device 154. Here, for convenience of explanation, it is assumed that image data after restoration processing is output to a display 182 to be described later. The display memory 156 is shown separately on the drawing.

画像復元処理部160は、本発明の特徴的な構成要素であり、後述する内蔵された画像復元アルゴリズムを実行する。例えば、カルマンフィルタを用いた従来の画像復元手法では、2段階処理、つまり、AR次数を決定し、AR係数を推定した後、この推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成してカルマンフィルタを実行することによって、画像復元を実現しているのに対し、本発明の画像復元方法(以下「発明手法」という)では、状態方程式と観測方程式から構成される新しい予測法によって画像復元を実現している。具体的には、発明手法では、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成することによって、より具体的には、状態方程式をクリアな画像情報(原画像情報)のみで構成し、かつ、観測方程式を劣化画像情報、クリアな画像情報(原画像情報)、ぼけ情報、および雑音で構成した新たな状態空間モデルを用いることによって、画像復元を実現している。画像復元の対象となる画像は、静止画像でも動画像でもよい。なお、本発明の画像復元方法については、後で詳細に説明する。   The image restoration processing unit 160 is a characteristic component of the present invention, and executes a built-in image restoration algorithm described later. For example, in a conventional image restoration method using a Kalman filter, a two-step process, that is, an AR order is determined, an AR coefficient is estimated, and then a state space model (state equation and observation equation) is used using the estimated AR coefficient. The image restoration is realized by executing the Kalman filter by configuring the image, whereas the image restoration method of the present invention (hereinafter referred to as “invention method”) is a new prediction method composed of the state equation and the observation equation. The image restoration is realized. Specifically, in the inventive method, by constructing a new state space model (state equation and observation equation) that does not require the concept of the AR system, more specifically, the state equation is clear image information (original image). Information), and using a new state space model consisting of degraded image information, clear image information (original image information), blur information, and noise in the observation equation, image restoration is realized. Yes. The image to be restored may be a still image or a moving image. The image restoration method of the present invention will be described later in detail.

画像出力装置180は、コンピュータ(画像復元処理部160)で復元処理された画像データ(復元画像)を所定の出力形態で外部に取り出すための出力装置である。画像出力装置180としては、例えば、ディスプレイ182やプリンタ184、記録メディア186、モデム188などを用いることができる。記録メディア186およびモデム188は、画像入力装置110としての記録メディア116およびモデム118とそれぞれ共用してもよい。なお、画像出力装置180の種類は、画像復元装置100の用途に応じて適宜選択すればよい。   The image output device 180 is an output device for taking out image data (restored image) restored by the computer (image restoration processing unit 160) to the outside in a predetermined output form. As the image output device 180, for example, a display 182, a printer 184, a recording medium 186, a modem 188, or the like can be used. The recording medium 186 and the modem 188 may be shared with the recording medium 116 and the modem 118 as the image input device 110, respectively. Note that the type of the image output device 180 may be appropriately selected according to the application of the image restoration device 100.

出力インタフェース部170は、コンピュータ(画像復元処理部160)で復元処理された画像データ(復元画像)を画像出力装置180に出力可能なデータ形式に変換するなどの出力処理を行う。図示しないが、出力インタフェース部170は、画像出力装置180の種類に応じて別個独立に設けられる。上記のように、記録メディアおよびモデムに関しては、通常、入力インタフェース部120と出力インタフェース部170は一体化されている。出力インタフェース部170も、入力インタフェース部120と同様に、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部140を介して接続された外部設置型機器であってもよい。   The output interface unit 170 performs output processing such as converting image data (restored image) restored by the computer (image restoration processing unit 160) into a data format that can be output to the image output device 180. Although not shown, the output interface unit 170 is provided separately and independently according to the type of the image output device 180. As described above, regarding the recording medium and the modem, the input interface unit 120 and the output interface unit 170 are usually integrated. Similarly to the input interface unit 120, the output interface unit 170 may be a built-in card (board) stored inside the computer main body, or an externally installed device connected via the internal interface unit 140. May be.

図2(A)は、図1の画像復元処理部160の構成を示すブロック図であり、図2(B)は、図2(A)の第1復元処理部160aの構成を示すブロック図である。   2A is a block diagram showing the configuration of the image restoration processing unit 160 in FIG. 1, and FIG. 2B is a block diagram showing the configuration of the first restoration processing unit 160a in FIG. 2A. is there.

本実施の形態では、図2(A)に示すように、画像復元処理部160は、第1復元処理部160aと第2復元処理部160bを有する。第1復元処理部160aは、本発明の画像復元方法を実施する。第2復元処理部160bは、本発明の画像復元方法以外の画像復元方法、例えば、ウィナーフィルタを用いた画像復元手法やカルマンフィルタを用いた画像復元手法などの従来の画像復元方法を実施する。これによって、第1復元処理部160aと第2復元処理部160bとを用いた画像復元処理が可能となる。なお、以下では、第2復元処理部160bで実施する従来の画像復元方法として、例えば、ウィナーフィルタを用いた画像復元手法(以下「従来手法1」という)を例にとって説明する。   In the present embodiment, as shown in FIG. 2A, the image restoration processing unit 160 includes a first restoration processing unit 160a and a second restoration processing unit 160b. The first restoration processing unit 160a performs the image restoration method of the present invention. The second restoration processing unit 160b performs an image restoration method other than the image restoration method of the present invention, for example, a conventional image restoration method such as an image restoration method using a Wiener filter or an image restoration method using a Kalman filter. As a result, image restoration processing using the first restoration processing unit 160a and the second restoration processing unit 160b can be performed. Hereinafter, as a conventional image restoration method performed by the second restoration processing unit 160b, for example, an image restoration method using a Wiener filter (hereinafter referred to as “conventional method 1”) will be described as an example.

第1復元処理部160aは、図2(B)に示すように、初期設定部162、相関演算部164、重み係数算出部166、および最適推定値算出部168を有する。第1復元処理部160aは、各部162〜168の協働の下、内蔵された画像復元アルゴリズム(発明手法)を実行することによって、取り込んだ画像データ(劣化画像)のみからクリアな画像(原画像)を復元する。このとき、初期設定部162は、発明手法の画像復元アルゴリズムの初期設定を行い、相関演算部164は、原画像(所望情報、クリアな画像)の推定誤差の相関演算を行い、重み係数算出部166は、原画像(所望情報)の最適推定値の算出に必要な重み係数の算出を行い、最適推定値算出部168は、原画像(所望情報)の最適推定値の算出を行う。なお、各部162〜168の具体的な処理内容は、後で詳細に説明する。   As shown in FIG. 2B, the first restoration processing unit 160a includes an initial setting unit 162, a correlation calculation unit 164, a weight coefficient calculation unit 166, and an optimum estimated value calculation unit 168. The first restoration processing unit 160a executes a built-in image restoration algorithm (invention technique) in cooperation with each of the units 162 to 168, so that a clear image (original image) is obtained only from the captured image data (degraded image). ). At this time, the initial setting unit 162 performs initial setting of the image restoration algorithm of the inventive method, and the correlation calculation unit 164 performs correlation calculation of the estimation error of the original image (desired information, clear image), and the weight coefficient calculation unit 166 calculates a weighting coefficient necessary for calculating the optimum estimated value of the original image (desired information), and the optimum estimated value calculating unit 168 calculates the optimum estimated value of the original image (desired information). The specific processing contents of the units 162 to 168 will be described later in detail.

以下、第1復元処理部160aで行われる画像復元処理動作について詳細に説明するが、ここでは、まず、画像復元の理論となる劣化画像モデルについて説明しておく。   Hereinafter, the image restoration processing operation performed by the first restoration processing unit 160a will be described in detail. Here, first, a degraded image model serving as a theory of image restoration will be described.

劣化した画像は、一般的に、原画像とぼけの点拡がり関数(PSF:Point Spread Function、以下単に「ぼけ関数」ともいう)の畳み込み(コンボリューション)に雑音を加えたモデルによって得られる。すなわち、イメージングシステム(対象物を撮像する装置や画像を生成するシステムなど)によって得られる劣化画像g(x,y)は、対象物を表す原画像をf(n,m)、ぼけの点拡がり関数をh(x,y)、雑音をn(x,y)でそれぞれ表すと、次の式(1)で表される。なお、ぼけの点拡がり関数h(x,y)は、撮影条件なども含めたイメージングシステムの特性を表している。   In general, a deteriorated image is obtained by a model obtained by adding noise to a convolution of an original image and a blurred point spread function (PSF: Point Spread Function). That is, a degraded image g (x, y) obtained by an imaging system (an apparatus that captures an object, a system that generates an image, etc.) is f (n, m) representing the original image representing the object, and the point spread of the blur is increased. When the function is represented by h (x, y) and the noise is represented by n (x, y), it is represented by the following equation (1). Note that the blurred point spread function h (x, y) represents the characteristics of the imaging system including imaging conditions.

Figure 0005493191
Figure 0005493191

図3は、画像の劣化の過程を説明するための図である。   FIG. 3 is a diagram for explaining the process of image degradation.

例えば、図3の左端に示す原画像にぼけが生じると、図3の中央に示す画像となり、この画像にさらに雑音が加わると、図3の右端に示す劣化画像となる。ぼけは、ある画素がその周囲の画素に影響することによって生じるが、雑音は、画素に関係なく発生する。上記のように、カメラなどで撮影された画像の場合、ぼけは、手ぶれや焦点ずれなどに起因して生じ、雑音は、暗電流や熱雑音などに起因して不可避的に発生する。図3に示すように、劣化画像の復元は、劣化画像からぼけと雑音を取り除くことにほかならない。   For example, when the original image shown at the left end of FIG. 3 is blurred, the image shown at the center of FIG. 3 is obtained, and when noise is further added to this image, the deteriorated image shown at the right end of FIG. Blur is caused by a pixel affecting its surrounding pixels, but noise occurs regardless of the pixel. As described above, in the case of an image taken with a camera or the like, blur is caused by camera shake or defocus, and noise is unavoidably caused by dark current or thermal noise. As shown in FIG. 3, restoration of a degraded image is nothing but removing blur and noise from the degraded image.

発明手法では、上記のように、ARシステムのコンセプトを用いないようにするために、新しい状態空間モデル(状態方程式と観測方程式)を構成する。すなわち、クリアな画像情報(原画像情報)のみを用いて状態方程式を構成し、かつ、劣化画像情報、クリアな画像情報(原画像情報)、ぼけ情報、および雑音を用いて観測方程式を構成する。なお、本実施の形態では、発明手法として、6つの具体的な手法を提示する。ここでは、便宜上、第1の発明手法から第6の発明手法を、発明手法1、発明手法2、発明手法3、発明手法4、発明手法5、発明手法6とそれぞれ称し、順次説明する。   In the inventive method, as described above, in order not to use the concept of the AR system, a new state space model (state equation and observation equation) is configured. That is, the state equation is configured using only clear image information (original image information), and the observation equation is configured using degraded image information, clear image information (original image information), blur information, and noise. . In the present embodiment, six specific techniques are presented as inventive techniques. Here, for convenience, the first to sixth invention methods will be referred to as invention method 1, invention method 2, invention method 3, invention method 4, invention method 5, and invention method 6, respectively, and will be described sequentially.

発明手法1〜6は、いずれも、AR係数を用いない画像復元手法であって、ぼけと雑音を同時に除去することができる、シンプルで実用的な高性能の画像復元手法である。ただし、発明手法1〜6は、互いに、アルゴリズムの違いに応じて、演算量や復元処理速度、画像復元能力などが異なる。ここでは、各発明手法1〜6を詳細に説明する前に、各発明手法1〜6の特徴、長所、短所をまとめておく。   Invention methods 1 to 6 are all image restoration methods that do not use an AR coefficient, and are simple, practical, and high-performance image restoration methods that can simultaneously remove blur and noise. However, the inventive methods 1 to 6 are different from each other in the calculation amount, the restoration processing speed, the image restoration capability, and the like depending on the algorithm. Here, before explaining each invention method 1-6 in detail, the characteristics, advantages, and disadvantages of each invention method 1-6 will be summarized.

発明手法1〜3は、1次元の画像復元手法であり、発明手法4〜6は、発明手法1〜3をそれぞれ2次元に拡張した2次元の画像復元手法である。発明手法1は、本発明に係る画像復元方法の基本型である。発明手法1は、AR係数を用いない画像復元手法であって、有色性駆動源を持つ状態空間モデルを構成している。発明手法1は、従来技術に対して、高性能な劣化画像復元が可能であるという長所を有する反面、他の発明手法2、3に比べて、演算量が多いという短所を有する。発明手法2は、発明手法1に対して、注目画素領域のみ考慮した状態空間モデルを再構成した手法であって、注目画素領域のみ用いることで、演算量を大幅に軽減している。発明手法2は、高速(低演算量)な劣化画像復元が可能であるという長所を有する(画像復元能力は発明手法1とほぼ同等である)。発明手法3は、発明手法1、2に対して、有色駆動源の影響も考慮した状態空間モデルを再構成した手法である。発明手法3は、演算量の軽減、復元処理速度の向上、有色性駆動源にも適用可能、および画像復元能力の向上といった長所を有し、画像復元能力を向上しながら高速(低演算量)な劣化画像復元が可能な手法である。   Invention methods 1 to 3 are one-dimensional image restoration methods, and invention methods 4 to 6 are two-dimensional image restoration methods obtained by extending invention methods 1 to 2 to two dimensions. Invention method 1 is a basic type of the image restoration method according to the present invention. Invention method 1 is an image restoration method that does not use an AR coefficient, and constitutes a state space model having a colored drive source. Inventive method 1 has the advantage that high-performance degraded image restoration is possible compared to the prior art, but has the disadvantage that the amount of calculation is larger than other inventive methods 2 and 3. Invention method 2 is a method of reconstructing a state space model that takes into account only the pixel region of interest in comparison with method 1, and uses only the pixel region of interest to significantly reduce the amount of computation. Invention method 2 has the advantage that it is possible to restore a deteriorated image at high speed (low computational complexity) (image restoration capability is almost equivalent to that of invention method 1). Invention method 3 is a method in which a state space model is reconstructed in consideration of the influence of a colored drive source, compared to invention methods 1 and 2. Invention Method 3 has advantages such as reduction in the amount of computation, improvement in restoration processing speed, application to a colored drive source, and improvement in image restoration capability, and high speed (low computation amount) while improving image restoration capability. This is a technique that can restore a deteriorated image.

上記のように、発明手法1は、AR係数を用いない1次元の画像復元手法であって、従来技術に対して、高性能な劣化画像復元が可能であるという特徴を有する。発明手法4〜6は、2次元の画像復元手法であって、発明手法1に対して、柔軟な処理効率の向上が図られるという特徴を有する。発明手法4は、発明手法1を2次元に拡張した画像復元手法であって、注目画素領域と周辺画素領域をそれぞれ任意にとることにより処理効率の向上が図られるという長所を有する反面、他の発明手法1〜3、5、6に比べて、演算量が多いという短所を有する。発明手法5は、発明手法4に対して、注目画素領域のみ考慮した状態空間モデルを再構成した手法であって、注目画素領域のみ用いることで、発明手法4に対して、演算量を大幅に軽減している。発明手法5は、高速(低演算量)な劣化画像復元が可能であるという長所を有する反面、発明手法4よりも若干復元精度が低下するという短所を有する。発明手法6は、発明手法4、5に対して、有色駆動源の影響も考慮した状態空間モデルを再構成した手法であって、発明手法5の短所を改善したものである。発明手法6は、良好な画像復元能力、有色性駆動源にも適用可能、演算量の軽減、復元する画素に適した復元処理が可能といった長所を有し、処理効率性を考慮した実用的な劣化画像復元手法である。特に、発明手法1〜3を2次元に拡張した発明手法4〜6は、注目画素領域と周辺画素領域をそれぞれ任意に選択することができるため、劣化画像の状態と使用者の要望(処理速度または処理品質)に応じて、1次元の発明手法1〜3に適応することも可能であるし、あるいは、若干の変更により2次元の発明手法4〜6に適応することも可能である、という特徴を有する。   As described above, Invention Method 1 is a one-dimensional image restoration method that does not use an AR coefficient, and has a feature that a high-performance degraded image restoration is possible compared to the prior art. Invention methods 4 to 6 are two-dimensional image restoration methods, and have a feature that the processing efficiency can be improved more flexibly than invention method 1. Invention method 4 is an image restoration method obtained by extending invention method 1 two-dimensionally, and has the advantage that the processing efficiency can be improved by arbitrarily taking the pixel region of interest and the peripheral pixel region, while other methods are available. Compared with the inventive methods 1 to 3, 5 and 6, there is a disadvantage that the amount of calculation is large. Invention method 5 is a method of reconstructing a state space model that takes into account only the pixel region of interest in comparison with method 4, and uses only the pixel region of interest to significantly increase the amount of computation compared to method 4. It is mitigating. Inventive method 5 has the advantage of being able to restore a degraded image at high speed (low computational complexity), but has the disadvantage that the restoration accuracy is slightly lower than in inventive method 4. Invention method 6 is a method of reconstructing a state space model that takes into account the influence of the colored drive source as compared with invention methods 4 and 5, and is an improvement of the disadvantage of invention method 5. The invention method 6 has advantages such as good image restoration capability, application to a colored drive source, reduction of calculation amount, and restoration processing suitable for the pixel to be restored, and practical use considering processing efficiency. This is a degraded image restoration technique. In particular, the inventive methods 4 to 6 in which the inventive methods 1 to 3 are expanded two-dimensionally can arbitrarily select the target pixel region and the peripheral pixel region, so that the state of the deteriorated image and the user's request (processing speed) It is also possible to adapt to the one-dimensional invention methods 1 to 3 according to the processing quality), or to the two-dimensional invention methods 4 to 6 by a slight change. Has characteristics.

具体的には、発明手法では、新しい状態空間モデル(状態方程式と観測方程式)を構成し、この新しい状態空間モデルは、次の式(2)で表される。ただし、状態方程式において、ベクトルxp1(n)は状態ベクトル(原画像情報)、行列Φp1は状態遷移行列、ベクトルδp1(n)は駆動源ベクトルである。また、観測方程式において、ベクトルyp1(n)は観測ベクトル(観測画像情報、劣化画像情報)、行列Mp1は観測遷移行列、ベクトルεp1(n)は観測雑音ベクトルである。また、「n」とは、装置の時刻nである。時刻nは、注目画素(または注目画素領域)と複数の周辺画素(または周辺画素領域)とからなる処理対象ブロックの処理の順番(n番目)を表している。なお、ここでは、説明の便宜上、発明手法として、例えば、基本型である発明手法1を提示する。以下の説明において、添え字「p1」は、発明手法1に係るものであることを示している。また、ここでは、注目画素領域および周辺画素領域における「画素領域」は、1つの画素のみを含む場合と、複数の画素を含む場合の両方を意味する。すなわち、ぼけと雑音が含まれる劣化画像を復元する際の復元処理対象として、1つの画素を「注目画素」と称し、少なくとも1つ以上の画素を含む領域を「注目画素領域」と称する。また、注目画素に隣接する画素を「周辺画素」と称し、注目画素に隣接する画素を含む領域、または、注目画素に隣接する画素および注目画素に隣接しないがその周辺の画素を含む領域を、「周辺画素領域」と称する。 Specifically, in the inventive method, a new state space model (state equation and observation equation) is constructed, and this new state space model is expressed by the following equation (2). However, in the state equation, the vector x p1 (n) is a state vector (original image information), the matrix Φ p1 is a state transition matrix, and the vector δ p1 (n) is a drive source vector. In the observation equation, the vector y p1 (n) is an observation vector (observation image information and degraded image information), the matrix M p1 is an observation transition matrix, and the vector ε p1 (n) is an observation noise vector. “N” is the time n of the apparatus. The time n represents the processing order (nth) of the processing target block including the target pixel (or target pixel region) and a plurality of peripheral pixels (or peripheral pixel regions). Here, for convenience of explanation, for example, Invention Method 1 which is a basic type is presented as an invention method. In the following description, the subscript “p1” indicates that the invention method 1 is concerned. In addition, here, the “pixel region” in the target pixel region and the peripheral pixel region means both a case where only one pixel is included and a case where a plurality of pixels are included. That is, as a restoration processing target when restoring a degraded image including blur and noise, one pixel is referred to as a “target pixel”, and a region including at least one or more pixels is referred to as a “target pixel region”. Further, a pixel adjacent to the target pixel is referred to as a “peripheral pixel”, and a region including the pixel adjacent to the target pixel, or a region adjacent to the target pixel and a region that is not adjacent to the target pixel but includes the surrounding pixels, This is referred to as “peripheral pixel region”.

Figure 0005493191
Figure 0005493191

図4は、この状態空間モデルにおけるシステム構成をブロック線図で表したものである。   FIG. 4 is a block diagram showing the system configuration in this state space model.

図4に示すように、この状態空間モデルは、状態過程と観測過程とで構成される。状態過程は、状態方程式によって記述され、観測過程は、観測方程式によって記述される。図4において、「201」は時刻nにおける状態ベクトルxp1(n)、「202」は時刻n+1における状態ベクトルxp1(n+1)、「203」は時刻nにおける観測ベクトルyp1(n)、「204」は時刻nにおける観測雑音ベクトルεp1(n)、「205」は時刻n+1における駆動源ベクトルδp1(n+1)、「206」は状態遷移行列Φp1、「207」は観測遷移行列Mp1である。式(2)における状態方程式は、観測対象のシステムを状態空間モデルで記述したものであり、内部状態つまり状態変数(ここでは、状態ベクトルxp1(n)、xp1(n+1))の時間に対する生成過程を表している。また、式(2)における観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測結果(ここでは、観測ベクトルyp1(n))が、被観測量つまり入力(ここでは、状態ベクトルxp1(n))に依存して生成される様子を示している。 As shown in FIG. 4, this state space model is composed of a state process and an observation process. A state process is described by a state equation, and an observation process is described by an observation equation. In FIG. 4, “201” is a state vector x p1 (n) at time n, “202” is a state vector x p1 (n + 1) at time n + 1, “203” is an observation vector y p1 (n) at time n, “ 204 ”is the observed noise vector ε p1 (n) at time n,“ 205 ”is the drive source vector δ p1 (n + 1) at time n + 1,“ 206 ”is the state transition matrix Φ p1 , and“ 207 ”is the observed transition matrix M p1. It is. The state equation in equation (2) describes the system to be observed with a state space model, and is an internal state, that is, a state variable (here, state vectors x p1 (n), x p1 (n + 1)) with respect to time. It shows the generation process. The observation equation in equation (2) describes the process of observation through some kind of observation device, and the observation result (here, the observation vector y p1 (n)) is the observed quantity, that is, the input (here, It shows how it is generated depending on the state vector x p1 (n)).

図5は、発明手法1の状態方程式の定式化の具体例を説明するための図であり、特に、図5(A)は、状態空間モデルの状態過程を示す図、図5(B)は、処理対象ブロックおよびその時間変化の一例を示す図、図5(C)は、状態方程式の具体例を示す図である。   FIG. 5 is a diagram for explaining a specific example of the formulation of the state equation according to the method 1 of the invention. In particular, FIG. 5A shows a state process of the state space model, and FIG. FIG. 5C is a diagram showing an example of the processing target block and its time change, and FIG. 5C is a diagram showing a specific example of the state equation.

発明手法1では、劣化画像の復元処理は、復元対象である注目画素のみを用いるのではなく、その周辺の画素も含めて処理を行う。すなわち、J×Jの大きさの画像のある注目画素を中心にして、その周辺K×K(ただし、J>K)の領域を処理対象ブロックとし、この処理対象ブロックの中の画素情報を用いて、画像の復元処理を行う。このように、処理対象ブロックとは、画像復元においてK×Kの画素を用いて処理を行う範囲を意味する。   In Invention Method 1, in the degraded image restoration process, not only the target pixel to be restored is used, but also the surrounding pixels are processed. That is, an area of K × K (where J> K) around a pixel of interest in an image of J × J size is set as a processing target block, and pixel information in the processing target block is used. To restore the image. Thus, the processing target block means a range in which processing is performed using K × K pixels in image restoration.

例えば、J=256、K=3とした場合、図5に示すように、256×256の大きさの画像のある注目画素を中心にして、その周辺3×3の画素領域が処理対象ブロックとなる。図面上、処理対象ブロックは、網かけされている。画像復元処理は、この3×3の処理対象ブロックの中の画素情報を用いて行われる。単に説明の便宜上、図5(B)に示すように、256×256の大きさの画像の一部の画素に1〜36の番号を付したとすると、時刻nにおける状態ベクトルxp1(n)に対応する処理対象ブロックは、番号が1、2、3、7、8、9、13、14、15の3×3の9個の画素を構成要素とし、次の時刻n+1における状態ベクトルxp1(n+1)に対応する処理対象ブロックは、番号が7、8、9、13、14、15、19、20、21の3×3の9個の画素を構成要素としている。 For example, when J = 256 and K = 3, as shown in FIG. 5, the pixel area of 3 × 3 around the pixel of interest in the 256 × 256 size image is the processing target block. Become. In the drawing, the block to be processed is shaded. The image restoration process is performed using pixel information in the 3 × 3 processing target block. For convenience of explanation, as shown in FIG. 5B, assuming that some pixels of an image having a size of 256 × 256 are numbered 1 to 36, the state vector x p1 (n) at time n The processing target block corresponding to is composed of 9 pixels of 3 × 3 with numbers 1, 2, 3, 7, 8, 9, 13, 14, 15, and the state vector x p1 at the next time n + 1. The processing target block corresponding to (n + 1) includes 9 pixels of 3 × 3 with numbers 7, 8, 9, 13, 14, 15, 19, 20, and 21 as constituent elements.

このとき、式(2)における状態方程式は、図5(C)にも示す次の式(3)で定義される。ここで、状態ベクトルxp1(n)は、原画像情報を含む状態量として3×3の処理対象ブロックに含まれる9個の画素情報x(n)、x(n)、x(n)、x(n)、x(n)、x(n)、x(n)、x(n)、x(n)を要素とする9×1次のベクトルである。また、状態遷移行列Φp1は、式(3)で定義された9×9次の行列であり、駆動源ベクトルδp1(n)は、同じく式(3)で定義された9×1次のベクトルである。 At this time, the state equation in the equation (2) is defined by the following equation (3) also shown in FIG. Here, the state vector x p1 (n) is nine pieces of pixel information x 1 (n), x 2 (n), and x 3 (x 3 (n) included in a 3 × 3 processing target block as a state quantity including original image information. n), x 4 (n), x 5 (n), x 6 (n), x 7 (n), x 8 (n), x 9 (n), a 9 × first-order vector . The state transition matrix Φ p1 is a 9 × 9 order matrix defined by the equation (3), and the drive source vector δ p1 (n) is a 9 × 1 order matrix similarly defined by the equation (3). Is a vector.

Figure 0005493191
Figure 0005493191

図6は、式(3)で表される状態方程式の構成を説明するための図である。   FIG. 6 is a diagram for explaining the configuration of the state equation represented by Expression (3).

式(3)で表される状態方程式の特徴は、状態遷移行列Φp1の一部の要素を「1」に設定し、残りの要素をすべて「0」に設定した点、および、駆動源ベクトルδp1(n)の一部の要素を有色信号である状態量x(n)(i=7,8,9)で表した点にある。これは、図6に示すように、現在の時刻n+1における処理対象ブロックと過去の時刻nにおける処理対象ブロックとが重なる部分において、現在の状態量(原画像の画素情報)x(n+1)、x(n+1)、x(n+1)、x(n+1)、x(n+1)、x(n+1)と過去の状態量(原画像の画素情報)x(n)、x(n)、x(n)、x(n)、x(n)、x(n)とを対応させるためである。この結果、xp1(n)とxp1(n+1)の関係を表す状態方程式は、クリアな画像からなる状態ベクトルxp1(n)と、0と1からなる状態遷移行列Φp1と、有色信号であるクリアな画像からなる駆動源ベクトルδp1(n)とから構成されるため、所望の状態量(原画像の画素情報)、つまり、クリアな画像情報(原画像情報)のみで構成されることになる。 The feature of the state equation represented by the equation (3) is that a part of the state transition matrix Φ p1 is set to “1” and the remaining elements are all set to “0”, and the drive source vector A part of δ p1 (n) is a point represented by a state quantity x i (n) (i = 7, 8, 9) which is a colored signal. As shown in FIG. 6, the current state quantity (pixel information of the original image) x 1 (n + 1), in the portion where the processing target block at the current time n + 1 and the processing target block at the past time n overlap. x 2 (n + 1), x 3 (n + 1), x 4 (n + 1), x 5 (n + 1), x 6 (n + 1) and past state quantities (pixel information of the original image) x 4 (n), x 5 ( This is because n), x 6 (n), x 7 (n), x 8 (n), and x 9 (n) are associated with each other. As a result, the state equation representing the relationship between x p1 (n) and x p1 (n + 1) includes a state vector x p1 (n) composed of a clear image, a state transition matrix Φ p1 composed of 0 and 1, and a colored signal. Since it is composed of a drive source vector δ p1 (n) consisting of a clear image, it is composed only of a desired state quantity (original pixel information), that is, clear image information (original image information). It will be.

図7は、発明手法1の観測方程式の定式化の具体例を説明するための図であり、特に、図7(A)は、状態空間モデルの観測過程を示す図、図7(B)は、観測方程式の具体例を示す図である。   FIG. 7 is a diagram for explaining a specific example of the formulation of the observation equation of the invention method 1. In particular, FIG. 7A is a diagram showing the observation process of the state space model, and FIG. It is a figure which shows the specific example of an observation equation.

図5および図6の例に対応して、式(2)における観測方程式は、図7(B)にも示す次の式(4)で定義される。ここで、観測ベクトルyp1(n)は、劣化画像情報を含む観測量として3×3の処理対象ブロックに含まれる9個の画素情報y(n)、y(n)、y(n)、y(n)、y(n)、y(n)、y(n)、y(n)、y(n)を要素とする9×1次のベクトルである。また、観測遷移行列Mp1は、式(4)で定義された9×9次の行列であって、画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応している。観測遷移行列Mp1を構成する各要素hr,s(r,sはhの座標であり、r,s=−1,0,1)は、既知であって、予めデータ化して適切に設定されている。また、観測雑音ベクトルεp1(n)は、3×3の処理対象ブロックに含まれる9個の画素に対応する観測雑音ε(n)、ε(n)、ε(n)、ε(n)、ε(n)、ε(n)、ε(n)、ε(n)、ε(n)を要素とする9×1次のベクトルである。 Corresponding to the examples of FIGS. 5 and 6, the observation equation in the equation (2) is defined by the following equation (4) also shown in FIG. Here, the observation vector y p1 (n) is nine pieces of pixel information y 1 (n), y 2 (n), y 3 (y) included in the 3 × 3 processing target block as an observation amount including degraded image information. n), y 4 (n), y 5 (n), y 6 (n), y 7 (n), y 8 (n), y 9 (n), a 9 × 1 order vector . The observed transition matrix M p1 is a 9 × 9 order matrix defined by the equation (4), and corresponds to the blur point spread function (PSF) in the image degradation model. Each element h r, s (r, s is the coordinate of h, r, s = -1, 0, 1) constituting the observation transition matrix M p1 is known and is appropriately set in advance as data. Has been. The observation noise vector ε p1 (n) is the observation noise ε 1 (n), ε 2 (n), ε 3 (n), ε corresponding to nine pixels included in the 3 × 3 processing target block. 4 (n), ε 5 (n), ε 6 (n), ε 7 (n), ε 8 (n), and ε 9 (n) are 9 × 1 order vectors.

Figure 0005493191
Figure 0005493191

図8は、従来一般的な観測方程式の構成(一般例)を説明するための図であり、図9は、式(4)で表される発明手法1の観測方程式の構成を説明するための図である。特に、図8(A)は、従来一般的な観測方程式の定義を示す図、図8(B)は、観測量に影響する状態量の範囲を視覚的に示す図である。また、図9(A)は、発明手法1の観測方程式の定義を示す図、図9(B)は、観測量に影響する状態量の範囲を視覚的に示す図である。なお、図8および図9の説明においては、便宜上、観測雑音ベクトルεp1(n)は省略する。 FIG. 8 is a diagram for explaining the configuration (general example) of a conventional general observation equation, and FIG. 9 is a diagram for explaining the configuration of the observation equation of Invention Method 1 represented by Expression (4). FIG. In particular, FIG. 8A is a diagram showing the definition of a conventional general observation equation, and FIG. 8B is a diagram visually showing the range of state quantities that affect the observed quantity. FIG. 9A is a diagram showing the definition of the observation equation of Invention Method 1, and FIG. 9B is a diagram visually showing the range of state quantities that affect the observed quantity. In the description of FIGS. 8 and 9, the observation noise vector ε p1 (n) is omitted for convenience.

画像においてぼけに基づく劣化とは、上記のように、ある画素がその周囲の画素の影響を受けて劣化することである。そこで、従来は、一般的に、図8(A)に示すように観測方程式を定義していた。この場合、ぼけは、周囲のすべての画素の影響を受けることに起因して生じる。すなわち、処理対象ブロックの中の各画素は、処理対象ブロックの中のすべての画素の影響を受けることになる。言い換えれば、各観測量y(i=1,2,…,9)は、すべての状態量x(i=1,2,…,9)の影響を受けて成り立つ。これを視覚的に示すと、例えば、図8(B)に示すようになる。すなわち、図8(B)に示すように、例えば、観測量がyの場合もyの場合も、3×3(=9)個のすべての状態量x〜xの影響を受けることになる。 Deterioration due to blur in an image means that a certain pixel deteriorates under the influence of surrounding pixels as described above. Therefore, conventionally, an observation equation is generally defined as shown in FIG. In this case, the blur is caused by being affected by all surrounding pixels. That is, each pixel in the processing target block is affected by all the pixels in the processing target block. In other words, each observation amount y i (i = 1, 2,..., 9) is affected by all the state amounts x i (i = 1, 2,..., 9). When this is shown visually, for example, it is as shown in FIG. That is, as shown in FIG. 8B, for example, both the observation amount y 1 and y 2 are affected by all 3 × 3 (= 9) state quantities x 1 to x 9. It will be.

これに対し、式(4)で表される発明手法1の観測方程式の特徴は、観測遷移行列Mp1の一部の要素を、3×3(=9)個の係数hr,s(座標r,s=−1,0,1)を用いて規則的に設定し、残りの要素をすべて「0」に設定した点にある。例えば、図9(A)は、観測方程式を展開して得られる一部の式(y(n)、y(n)に関する式)を示している。観測遷移行列Mp1に対する係数hr,sの割り当て方法は、次の通りである。すなわち、9個の係数hr,s(r,s=−1,0,1)を図10に示すようにマトリックス状に配列し(以下「係数マトリックス」という)、係数マトリックスの中央(つまり、係数h0,0)の位置を観測量y(i=1,2,…,9)の注目画素iの位置に合わせたときの、その係数マトリックスに従って、観測遷移行列Mp1の一部の要素に係数hr,s(r,s=−1,0,1)を割り当てる。これを視覚的に示すと、例えば、図9(B)に示すようになる。すなわち、図9(B)に示すように、例えば、観測量がyの場合は、3×3(=9)個の状態量x〜xのうち、5個のx〜xの影響を受け、観測量がyの場合は、6個のx〜xの影響を受けることになる。 On the other hand, the characteristic of the observation equation of the invention method 1 represented by the equation (4) is that some elements of the observation transition matrix M p1 are expressed by 3 × 3 (= 9) coefficients h r, s (coordinates). r, s = −1, 0, 1), and the remaining elements are all set to “0”. For example, FIG. 9A shows a part of expressions (expressions relating to y 1 (n), y 2 (n)) obtained by expanding the observation equation. The method for assigning the coefficients h r, s to the observed transition matrix M p1 is as follows. That is, nine coefficients h r, s (r, s = −1, 0, 1) are arranged in a matrix as shown in FIG. 10 (hereinafter referred to as “coefficient matrix”), and the center of the coefficient matrix (that is, When the position of the coefficient h 0,0 ) is matched with the position of the target pixel i of the observation amount y i (i = 1, 2,..., 9), a part of the observed transition matrix M p1 Factors h r, s (r, s = -1, 0, 1) are assigned to the elements. This is shown visually in FIG. 9B, for example. That is, as shown in FIG. 9 (B), for example, if the observed amount of y 1, 3 × 3 (= 9) of the number of state quantities x 1 ~x 9, 5 pieces of x 1 ~x 5 When the observation amount is y 2 , it is affected by six x 1 to x 6 .

図11は、図9(A)に示す観測遷移行列Mp1に基づく、各観測量yに影響する状態量xの範囲を、割り当てられた係数hr,s(r,s=−1,0,1)と共に示す図である。なお、ここでは、説明の便宜上、図11(A)〜図11(I)の各図において、左側の処理対象ブロックには、注目する観測量yのみを示し、右側の処理対象ブロックには、影響を与える各状態量xの場所に、この状態量xに乗算されるhr,sのみを示している。 FIG. 11 shows the range of state quantities x i that affect each observed quantity y i based on the observed transition matrix M p1 shown in FIG. 9 (A), and assigned coefficients h r, s (r, s = −1). , 0, 1). Here, for convenience of explanation, in each of FIGS. 11 (A) to 11 (I), the left processing target block shows only the observation amount y i of interest, and the right processing target block shows , Only h r, s to be multiplied by this state quantity x i is shown at the location of each state quantity x i that has an influence.

式(4)で表される観測方程式では、観測量yは、図11(A)に示すように、5個の状態量x〜xの影響を受け、観測量yは、図11(B)に示すように、6個の状態量x〜xの影響を受け、観測量yは、図11(C)に示すように、7個の状態量x〜xの影響を受ける。また、観測量yは、図11(D)に示すように、8個の状態量x〜xの影響を受け、観測量yは、図11(E)に示すように、9個すべての状態量x〜xの影響を受け、観測量yは、図11(F)に示すように、8個の状態量x〜xの影響を受ける。また、観測量yは、図11(G)に示すように、7個の状態量x〜xの影響を受け、観測量yは、図11(H)に示すように、6個の状態量x〜xの影響を受け、観測量yは、図11(I)に示すように、5個の状態量x〜xの影響を受ける。 In the observation equation of the formula (4), the observed quantity y 1, as shown in FIG. 11 (A), influenced by the five state quantities x 1 ~x 5, observation quantity y 2, as shown in FIG. As shown in FIG. 11 (B), the observation quantity y 3 is affected by the six state quantities x 1 to x 6 , and the observed quantity y 3 is changed into seven state quantities x 1 to x 7 as shown in FIG. Affected by. Further, as shown in FIG. 11D, the observation quantity y 4 is affected by eight state quantities x 1 to x 8 , and the observation quantity y 5 is 9 as shown in FIG. 11E. affected all state quantity x 1 ~x 9 pieces, observation quantity y 6, as shown in FIG. 11 (F), influenced by the eight state quantity x 2 ~x 9. Further, as shown in FIG. 11 (G), the observation amount y 7 is affected by seven state quantities x 3 to x 9 , and the observation amount y 8 is 6 as shown in FIG. 11 (H). affected by number of state quantities x 4 ~x 9, observation quantity y 9, as shown in FIG. 11 (I), influenced by the five state quantities x 5 ~x 9.

図12は、発明手法1のアルゴリズムの一例を示す図である。なお、このアルゴリズムは、画像の種類を問わず、静止画像のみならず動画像にも適用可能である。   FIG. 12 is a diagram showing an example of the algorithm of Invention Method 1. This algorithm can be applied not only to still images but also to moving images, regardless of the type of image.

発明手法1のアルゴリズムは、図12に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。   As shown in FIG. 12, the algorithm of the invention method 1 is roughly divided into an initialization process and an iteration process, and the iterative process is a new state space model (state equation and observation equation). It is composed based on. In the iteration process, steps 1 to 6 are repeated sequentially.

図13は、図12のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 13 is a flowchart showing a processing procedure for executing the algorithm of FIG.

まず、初期設定部162で、初期設定を行う(S1000)。具体的には、初期設定部162において、状態ベクトル、つまり、状態量である所望信号(原画像信号)ベクトルの最適推定値(以下「所望信号の最適推定値ベクトル」という)の初期値xp1(0|0)、所望信号ベクトルの推定誤差(以下「所望信号の推定誤差ベクトル」という)の相関行列の初期値Pp1(0|0)、駆動源ベクトルの共分散の値Rδp1(n)[i,j]、および、観測雑音ベクトルの共分散の値Rεp1(n)[i,j]を、次の式(5)に示すようにそれぞれ設定する。また、図12では図示しないが、状態遷移行列Φp1および観測遷移行列Mp1を、式(3)および式(4)に示すようにそれぞれ設定する。なお、ここでは、時刻nのカウンタの初期値を「0」に設定している。また、ベクトルと行列の要素を示す場合、ベクトルa(n)のi番目の要素をa(n)[i]と表記し、行列A(n)のi行j列の要素をA(n)[i,j]と表記することとする。また、図12において、所望信号の最適推定値ベクトルxp1は、ハットxp1と表記する。 First, the initial setting unit 162 performs initial setting (S1000). Specifically, in the initial setting unit 162, an initial value x p1 of an optimum estimated value of a state vector, that is, a desired signal (original image signal) vector that is a state quantity (hereinafter referred to as an “optimum estimated value vector of a desired signal”). (0 | 0), the initial value P p1 (0 | 0) of the correlation matrix of the estimation error of the desired signal vector (hereinafter referred to as “estimation error vector of the desired signal”), and the covariance value R δp1 (n ) [I, j] and the covariance value R εp1 (n) [i, j] of the observed noise vector are set as shown in the following equation (5). Although not shown in FIG. 12, the state transition matrix Φ p1 and the observed transition matrix M p1 are set as shown in Expression (3) and Expression (4), respectively. Here, the initial value of the counter at time n is set to “0”. In addition, when a vector and a matrix element are indicated, the i-th element of the vector a (n) is expressed as a (n) [i], and the i-th row and j-th column element of the matrix A (n) is A (n). It shall be written as [i, j]. In FIG. 12, the optimum estimated value vector x p1 of the desired signal is expressed as a hat x p1 .

Figure 0005493191
Figure 0005493191

ただし、ベクトル0は、K次元の零ベクトルであり、行列Iは、K次の単位行列である。また、Kは、K×Kの大きさの処理対象ブロック(注目画素領域と周辺画素領域)のその次元である。K=3の場合、K−K=6となり、「i,j>K−K」は、「i,j=7,8,9」に対応している。また、E[δp1(n),δp1 (n)]は、駆動源ベクトルδp1(n)の自己相関行列である。E[εp1(n)εp1 (n)][i,j]は、観測雑音ベクトルεp1の自己相関行列であり、ここではσ ε[i,j]と等しく、既知と仮定している。ここでいう「既知」とは、別の任意の方法(アルゴリズム)で求められて与えられることを意味する。もし観測雑音ベクトルεp1(n)が白色雑音であり零平均であれば、σ εは所定のサンプル数の分散で与えられる。 However, the vector 0 K is a K-dimensional zero vector, and the matrix I K is a K-th order unit matrix. K is the dimension of the processing target block (the target pixel region and the peripheral pixel region) having a size of K × K. In the case of K = 3, K 2 −K = 6, and “i, j> K 2 −K” corresponds to “i, j = 7, 8, 9”. E [δ p1 (n), δ p1 T (n)] is an autocorrelation matrix of the drive source vector δ p1 (n). E [ε p1 (n) ε p1 T (n)] [i, j] is an autocorrelation matrix of the observed noise vector ε p1 , here it is equal to σ 2 ε [i, j] and is assumed to be known. ing. “Known” here means obtained and given by another arbitrary method (algorithm). If the observed noise vector ε p1 (n) is white noise and is zero average, σ 2 ε is given by a variance of a predetermined number of samples.

次に、相関演算部164で、n→(n+1)の誤差共分散行列、つまり、n→(n+1)の推定誤差の相関値(行列)(以下「相関行列」ともいう)を計算する(S1100)。具体的には、相関演算部164において、時刻nまでの情報により時刻n+1での所望信号ベクトルを推定した場合の誤差(所望信号の推定誤差ベクトル)の相関行列Pp1(n+1|n)を計算する。この計算は、ステップS1000でそれぞれ設定した状態遷移行列Φp1および駆動源ベクトルの共分散Rδp1(n+1)[i,j]の値、ならびに、ステップS1000で設定した(n=0の場合)または前回のステップS1600で計算した(n≧1の場合)所望信号の推定誤差ベクトルの相関行列Pp1(n|n)を用いて、次の式(6)により行う。なお、このステップS1100は、図12の反復過程の手順1に相当する。 Next, the correlation calculation unit 164 calculates an error covariance matrix of n → (n + 1), that is, a correlation value (matrix) (hereinafter also referred to as “correlation matrix”) of an estimation error of n → (n + 1) (S1100). ). Specifically, the correlation calculation unit 164 calculates a correlation matrix P p1 (n + 1 | n) of an error (estimated error vector of a desired signal) when a desired signal vector at time n + 1 is estimated from information up to time n. To do. This calculation is performed by setting the value of the state transition matrix Φ p1 and the covariance R δp1 (n + 1) [i, j] of the state transition matrix Φ p1 and the driving source vector set in Step S1000, and the value set in Step S1000 (when n = 0) or Using the correlation matrix P p1 (n | n) of the estimation error vector of the desired signal calculated in the previous step S1600 (when n ≧ 1), the following equation (6) is used. This step S1100 corresponds to procedure 1 of the iterative process of FIG.

Figure 0005493191
Figure 0005493191

次に、重み係数算出部166で、重み係数(行列)の計算を行う(S1200)。具体的には、重み係数算出部166において、観測量である観測信号ベクトルの推定誤差(以下「観測信号の推定誤差ベクトル」という)に重み係数(行列)をかけて、時刻nまでの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n)を加えたものが、時刻n+1までの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n+1)になるような、その重み係数行列Kp1(n+1)を計算する。この計算は、ステップS1100で計算した所望信号の推定誤差ベクトルの相関行列Pp1(n+1|n)、ならびに、ステップS1000でそれぞれ設定した観測遷移行列Mp1および観測雑音ベクトルの共分散Rεp1(n+1)[i,j]の値を用いて、次の式(7)により行う。なお、このステップS1200は、図12の反復過程の手順2に相当する。 Next, the weighting factor calculation unit 166 calculates a weighting factor (matrix) (S1200). Specifically, the weighting factor calculation unit 166 multiplies the estimation error of the observation signal vector that is an observation amount (hereinafter referred to as “estimation error vector of the observation signal”) by a weighting factor (matrix), and uses the information up to time n. The addition of the optimum estimated value vector x p1 (n + 1 | n) of the desired signal at time n + 1 becomes the optimum estimated value vector x p1 (n + 1 | n + 1) of the desired signal at time n + 1 based on the information up to time n + 1. The weight coefficient matrix K p1 (n + 1) is calculated. This calculation is performed by calculating the correlation matrix P p1 (n + 1 | n) of the estimation error vector of the desired signal calculated in step S1100, and the covariance R εp1 (n + 1) of the observation transition matrix M p1 and the observation noise vector set in step S1000, respectively. ) Using the value of [i, j], the following equation (7) is used. This step S1200 corresponds to procedure 2 of the iterative process of FIG.

Figure 0005493191
Figure 0005493191

次に、最適推定値算出部168で、n→(n+1)の状態量(所望信号)の最適推定値(ベクトル)を計算する(S1300)。具体的には、最適推定値算出部168において、時刻nまでの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n)を計算する。この計算は、ステップS1000で設定した状態遷移行列Φp1、および、前回のステップS1400で計算した所望信号の最適推定値ベクトルxp1(n|n)を用いて、次の式(8)により行う。なお、このステップS1300は、図12の反復過程の手順3に相当する。 Next, the optimum estimated value calculation unit 168 calculates the optimum estimated value (vector) of the state quantity (desired signal) of n → (n + 1) (S1300). Specifically, the optimum estimated value calculation unit 168 calculates an optimum estimated value vector x p1 (n + 1 | n) of the desired signal at time n + 1 based on information up to time n. This calculation is performed by the following equation (8) using the state transition matrix Φ p1 set in step S1000 and the optimum estimated value vector x p1 (n | n) of the desired signal calculated in the previous step S1400. . This step S1300 corresponds to procedure 3 of the iterative process of FIG.

Figure 0005493191
Figure 0005493191

次に、同じく最適推定値算出部168で、(n+1)→(n+1)の状態量(所望信号)の最適推定値(ベクトル)を計算する(S1400)。具体的には、最適推定値算出部168において、時刻n+1までの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n+1)を計算する。この計算は、ステップS1300で計算した所望信号の最適推定値ベクトルxp1(n+1|n)、ステップS1200で計算した重み係数行列Kp1(n+1)、ステップS1000で設定した観測遷移行列Mp1、および時刻n+1における観測信号ベクトルyp1(n+1)を用いて、次の式(9)により行う。なお、このステップS1400は、図12の反復過程の手順4に相当する。 Next, the optimum estimated value calculation unit 168 calculates the optimum estimated value (vector) of the state quantity (desired signal) from (n + 1) → (n + 1) (S1400). Specifically, the optimum estimated value calculation unit 168 calculates an optimum estimated value vector x p1 (n + 1 | n + 1) of a desired signal at time n + 1 based on information up to time n + 1. This calculation includes an optimal estimated value vector x p1 (n + 1 | n) of the desired signal calculated in step S1300, a weight coefficient matrix K p1 (n + 1) calculated in step S1200, an observation transition matrix M p1 set in step S1000, and Using the observation signal vector y p1 (n + 1) at time n + 1, the following equation (9) is used. This step S1400 corresponds to procedure 4 of the iterative process of FIG.

Figure 0005493191
Figure 0005493191

次に、処理を終了するか否かを判断する(S1500)。この判断は、例えば、時刻nが所定のサンプル数Nに達したか否かを判定することによって行う。この判断の結果として、時刻nが所定のサンプル数Nに達していない場合は(S1500:NO)、ステップS1600に進み、時刻nが所定のサンプル数Nに達した場合は(S1500:YES)、ステップS1800に進む。なお、判断の基準は、上記の例に限定されない。例えば、リアルタイムで処理を行う場合は、時刻nが所定のサンプル数Nに達していなくても、サンプルがなくなった時点で処理を終了するようにしてもよい。   Next, it is determined whether or not to end the process (S1500). This determination is made, for example, by determining whether the time n has reached a predetermined number N of samples. As a result of this determination, when the time n has not reached the predetermined number of samples N (S1500: NO), the process proceeds to step S1600, and when the time n has reached the predetermined number of samples N (S1500: YES), The process proceeds to step S1800. Note that the criterion for determination is not limited to the above example. For example, when processing is performed in real time, the processing may be terminated when there are no more samples even if the time n has not reached the predetermined number of samples N.

ステップS1600では、相関演算部164で、(n+1)→(n+1)の誤差共分散行列、つまり、(n+1)→(n+1)の推定誤差の相関値(行列)を計算する。具体的には、相関演算部164において、時刻n+1までの情報により時刻n+1での所望信号ベクトルを推定した場合の誤差(所望信号の推定誤差ベクトル)の相関行列Pp1(n+1|n+1)を計算する。この計算は、ステップS1200で計算した重み係数行列Kp1(n+1)、ステップS1000で設定した観測遷移行列Mp1、およびステップS1100で計算した所望信号の推定誤差ベクトルの相関行列Pp1(n+1|n)を用いて、次の式(10)により行う。なお、このステップS1600は、図12の反復過程の手順5に相当する。 In step S1600, the correlation calculation unit 164 calculates an error covariance matrix of (n + 1) → (n + 1), that is, a correlation value (matrix) of an estimation error of (n + 1) → (n + 1). Specifically, the correlation calculation unit 164 calculates a correlation matrix P p1 (n + 1 | n + 1) of an error (estimated error vector of the desired signal) when the desired signal vector at time n + 1 is estimated from information up to time n + 1. To do. This calculation is performed by calculating the correlation matrix P p1 (n + 1 | n) of the weighting coefficient matrix K p1 (n + 1) calculated in step S1200, the observed transition matrix M p1 set in step S1000, and the estimated error vector of the desired signal calculated in step S1100. ) Using the following equation (10). This step S1600 corresponds to procedure 5 of the iterative process of FIG.

Figure 0005493191
Figure 0005493191

次に、ステップS1700では、時刻nのカウンタを1だけインクリメントして(n=n+1)、ステップS1100に戻る。   In step S1700, the counter at time n is incremented by 1 (n = n + 1), and the process returns to step S1100.

一方、ステップS1800では、本アルゴリズムの計算結果を出力値として一時保存する。具体的には、ステップS1400で計算した所望信号の最適推定値ベクトルxp1(n+1|n+1)を、本アルゴリズムの出力値として画像復元処理部160内または記憶部150内に一時保存する。 On the other hand, in step S1800, the calculation result of this algorithm is temporarily stored as an output value. Specifically, the optimum estimated value vector x p1 (n + 1 | n + 1) of the desired signal calculated in step S1400 is temporarily stored in the image restoration processing unit 160 or the storage unit 150 as an output value of this algorithm.

図14は、発明手法1を視覚的にまとめた説明図である。このように、発明手法1では、新しい状態空間モデル(状態方程式と観測方程式)を構成しているため、1段階処理で画像の復元処理が可能となる。このことは、他の発明手法2〜6も含めて本発明の大きな特徴の1つである。   FIG. 14 is an explanatory diagram in which Invention Method 1 is visually summarized. Thus, in Invention Method 1, since a new state space model (state equation and observation equation) is configured, it is possible to perform image restoration processing in a one-step process. This is one of the major features of the present invention, including other inventive methods 2 to 6.

ここで、カルマンフィルタを用いた従来の画像復元手法との対比において、発明手法1の特徴と効果をまとめて説明しておく。   Here, in contrast with the conventional image restoration method using the Kalman filter, the features and effects of the inventive method 1 will be described together.

カルマンフィルタを用いた従来の画像復元手法では、上記のように、2段階処理(ステップ1で、AR次数を決定し、AR係数を推定した後、ステップ2で、この推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成してカルマンフィルタを実行する)によって、画像の復元を実現している。したがって、ステップ1でのAR次数の決定およびAR係数の推定の精度によってステップ2でのカルマンフィルタによる画像復元能力が大きく左右されることが、容易に予想される。これに対して、発明手法1では、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成し、これを用いた1段階処理の新しい予測法によって、高性能な画像復元を実現している。また、発明手法1では、処理ステップを1段階減らすことができるため、演算量を削減することができ、ひいては、回路規模の縮小やメモリ容量の削減などを図ることができる。   In the conventional image restoration method using the Kalman filter, as described above, the two-stage process (after determining the AR order and estimating the AR coefficient in Step 1, using the estimated AR coefficient in Step 2, the state is determined. Image restoration is realized by a spatial model (a state equation and an observation equation are formed and a Kalman filter is executed). Therefore, it is easily expected that the image restoration capability by the Kalman filter in step 2 is greatly influenced by the determination of the AR order in step 1 and the estimation accuracy of the AR coefficient. On the other hand, in the method 1 of the invention, a new state space model (state equation and observation equation) that does not require the concept of the AR system is constructed, and a high-performance image is obtained by a new one-step prediction method using the model. Restore is realized. In Invention Method 1, since the number of processing steps can be reduced by one step, the amount of calculation can be reduced, and consequently the circuit scale can be reduced and the memory capacity can be reduced.

また、カルマンフィルタを用いた従来の画像復元手法では、ステップ1でAR係数の推定を行う際に必要となるAR係数の次数の決定が大きな問題点となる。一般にAR係数の次数は状態量に依存しているため、状態量が既知でなければ、理論的にAR係数の次数を正確に決定することは困難である。このことは、状態量が既知でなければならないことを意味しているため、リアルタイム処理は困難となる。また、それにより、正確でないAR係数の次数を用いることになるため、正確なAR係数の推定は困難である。したがって、このことは、カルマンフィルタを用いた従来の画像復元手法の画像復元能力を劣化させる大きな要因となっている。また、何らかの技術でAR次数とAR係数をリアルタイムに推定できるようになったとしても、処理ステップが1段階増えることより演算量の増加は避けられない。これに対して、発明手法1では、ARシステムのコンセプトを必要としないため、このような問題は生じない。   In addition, in the conventional image restoration method using the Kalman filter, the determination of the order of the AR coefficient that is required when the AR coefficient is estimated in Step 1 becomes a serious problem. Generally, since the order of the AR coefficient depends on the state quantity, it is difficult to theoretically accurately determine the order of the AR coefficient unless the state quantity is known. This means that the state quantity must be known, and real-time processing becomes difficult. Moreover, since the order of the AR coefficient that is not accurate is used, it is difficult to estimate the AR coefficient accurately. Therefore, this is a major factor that degrades the image restoration capability of the conventional image restoration method using the Kalman filter. Even if the AR order and the AR coefficient can be estimated in real time by some technique, an increase in the calculation amount is unavoidable due to an increase in the number of processing steps. In contrast, Invention Method 1 does not require an AR system concept, and thus does not cause such a problem.

また、カルマンフィルタを用いた従来の画像復元手法では、状態量をARシステムを用いて表現することによってモデル化している。このことは、カルマンフィルタを用いた従来の画像復元手法はARシステムでモデル化可能な状態量にしか適用できないことを意味している。すなわち、カルマンフィルタを用いた従来の画像復元手法は、ARシステムでモデル化が困難な状態量には適用することができない。これに対して、発明手法1は、ARシステムのコンセプトを必要としないため、適用対象に関するこのような制約は存在しない。   In the conventional image restoration method using the Kalman filter, the state quantity is modeled by expressing it using the AR system. This means that the conventional image restoration method using the Kalman filter can be applied only to state quantities that can be modeled by the AR system. That is, the conventional image restoration method using the Kalman filter cannot be applied to state quantities that are difficult to model in the AR system. On the other hand, Invention Method 1 does not require the concept of the AR system, and thus there is no such restriction regarding the application target.

また、カルマンフィルタを用いた従来の画像復元手法では、状態方程式の駆動源が白色信号で、かつ、状態量と観測雑音が無相関であることを仮定した上で、カルマンフィルタ理論を適用している。これに対して、発明手法1では、駆動源が有色信号(クリアな画像)となるものの、状態方程式と観測方程式の特殊な構成によって発明手法1のアルゴリズムを実行することができる。このことは、発明手法1は、カルマンフィルタ理論の一般的な適用条件を考慮しなくても実行可能であることを意味している。すなわち、発明手法1は、カルマンフィルタ理論よりも適用範囲が広いといえる。   In the conventional image restoration method using the Kalman filter, the Kalman filter theory is applied on the assumption that the drive source of the state equation is a white signal and the state quantity and the observation noise are uncorrelated. On the other hand, in Invention Method 1, although the driving source is a colored signal (clear image), the algorithm of Invention Method 1 can be executed by a special configuration of the state equation and the observation equation. This means that Invention Method 1 can be executed without considering general application conditions of Kalman filter theory. That is, it can be said that Invention Method 1 has a wider application range than Kalman filter theory.

したがって、ARシステムのコンセプトを必要としない発明手法1は、画像の撮り直しが許されない場面、例えば、医療分野における瞬間的な心臓や肺などの画像復元、汚れなどで劣化した古文書などの復元、および文字・物体認識においても貢献可能な技術である。   Therefore, Invention Method 1 that does not require the concept of the AR system can restore scenes where re-taking of images is not permitted, for example, instantaneous restoration of images of the heart or lungs in the medical field, restoration of old documents that have deteriorated due to dirt, etc. And technology that can contribute to character / object recognition.

また、本発明者は、本発明の効果(発明手法1の有効性)を実証するためにシミュレーションを行った。具体的には、発明手法1の画像復元能力を評価するために、(1)視覚評価、(2)客観評価、および(3)主観評価を行った。視覚評価は、原画像と復元画像とを視覚により比較した評価である。客観評価は、数値による評価である。主観評価は、聞き取り調査である。以下、これらを順に説明する。   In addition, the present inventor conducted a simulation to verify the effect of the present invention (effectiveness of Invention Method 1). Specifically, in order to evaluate the image restoration ability of the inventive method 1, (1) visual evaluation, (2) objective evaluation, and (3) subjective evaluation were performed. The visual evaluation is an evaluation in which an original image and a restored image are compared visually. Objective evaluation is numerical evaluation. Subjective evaluation is an interview survey. Hereinafter, these will be described in order.

まず、シミュレーションの条件について説明しておく。   First, simulation conditions will be described.

図15は、シミュレーション条件を説明するための図である。   FIG. 15 is a diagram for explaining the simulation conditions.

本シミュレーションでは、原画像として、図15に示す2つの画像、つまり、(a)「カメラマン(Cameraman)」と(b)「レナ(Lenna)」を用いた。また、原画像に加えるぼけに対応する点拡がり関数(PSF)のモデルとして、図15に示す2次元ガウス関数を用い、雑音として、加法性白色ガウス雑音を用いた。また、信号対雑音比SNRを20dBとした。また、比較のため、シミュレーションは、同一の上記シミュレーション条件の下で、従来手法1(ウィナーフィルタを用いた画像復元手法)と、従来手法2(射影フィルタを用いた画像復元手法)と、従来手法3(カルマンフィルタを用いた画像復元手法)と、発明手法1に対して行った。例えば、画像「カメラマン」は、図16に示すように、空の部分は画像の分散が変化していないため定常性が強く、人物の頭の部分は画像の分散が変化しているため非定常性が強いといえる。   In this simulation, two images shown in FIG. 15, ie, (a) “Cameraman” and (b) “Lenna” were used as original images. Further, a two-dimensional Gaussian function shown in FIG. 15 was used as a model of a point spread function (PSF) corresponding to the blur added to the original image, and additive white Gaussian noise was used as noise. The signal-to-noise ratio SNR was 20 dB. In addition, for comparison, simulations are performed under the same simulation conditions as in the conventional method 1 (image restoration method using a Wiener filter), the conventional method 2 (image restoration method using a projection filter), and the conventional method. 3 (image restoration method using Kalman filter) and Invention method 1. For example, as shown in FIG. 16, the image “cameraman” has a strong steadiness because the dispersion of the image is not changed in the sky portion, and is non-stationary because the dispersion of the image is changed in the head portion of the person. It can be said that the nature is strong.

(1)視覚評価
図17は、原画像「カメラマン」に対するシミュレーション結果(視覚評価)を示す図であり、図18は、図17中の破線の円の周辺領域を拡大した図である。
(1) Visual Evaluation FIG. 17 is a diagram showing a simulation result (visual evaluation) for the original image “cameraman”, and FIG. 18 is an enlarged view of a peripheral area of a broken-line circle in FIG.

図18によく示すように、従来手法1は、ぼけがほとんど取り除かれていない。また、従来手法2は、従来手法1よりもぼけが取り除かれているが、原画像と比べるとまだぼけが残っている。一方、従来手法3は、従来手法1、2に比べて、ぼけは取り除かれてくっきりしているように見えるが、原画像とは異なった復元画像となっている。特に、従来手法3は、原画像と比べて全体的に暗くなっており、空の部分においては、劣化画像よりも劣化してしまっている。   As well shown in FIG. 18, the conventional method 1 has almost no blur. In the conventional method 2, the blur is removed more than in the conventional method 1, but the blur still remains as compared with the original image. On the other hand, the conventional method 3 is a restored image different from the original image, although the blur is removed and the image is clearer than the conventional methods 1 and 2. In particular, the conventional method 3 is darker as a whole than the original image, and the sky portion is deteriorated more than the deteriorated image.

これに対して、発明手法1は、図18によく示すように、従来手法1、2、3に比べて原画像を忠実に復元していることが確認できる。すなわち、図18の拡大画像においても、発明手法の有効性を確認することができる。   In contrast, it can be confirmed that the inventive method 1 faithfully restores the original image as compared with the conventional methods 1, 2, and 3, as shown in FIG. That is, the effectiveness of the inventive method can also be confirmed in the enlarged image of FIG.

図19は、図17と同様の、原画像「カメラマン」に対するシミュレーション結果(視覚評価)を示す図であり、図20は、図19中の破線の円の周辺領域を拡大した図である。   FIG. 19 is a diagram showing a simulation result (visual evaluation) for the original image “cameraman” similar to FIG. 17, and FIG. 20 is an enlarged view of a peripheral area of a broken-line circle in FIG. 19.

図20によく示すように、カメラの三脚部分に注目すると、従来手法1は、全くぼけが取り除かれていない。また、従来手法2は、従来手法1よりはぼけが取り除かれているが、原画像までは復元されていない。一方、従来手法3は、従来手法1、2に比べるとぼけは取り除かれているように見えるが、画像全体が荒れてしまっており、原画像とかけ離れた復元画像となっていることが確認できる。   As shown well in FIG. 20, when attention is paid to the tripod portion of the camera, the conventional method 1 does not remove any blur. In the conventional method 2, the blur is removed from the conventional method 1, but the original image is not restored. On the other hand, the conventional method 3 seems to have removed the blur as compared with the conventional methods 1 and 2, but the entire image is rough, and it can be confirmed that it is a restored image far from the original image.

これに対して、発明手法1は、図20によく示すように、従来手法1、2、3に比べて原画像をより忠実に復元していることが確認できる。すなわち、図20の拡大画像においても、発明手法1の有効性を確認することができる。   On the other hand, it can be confirmed that the inventive method 1 restores the original image more faithfully than the conventional methods 1, 2, and 3, as well shown in FIG. That is, the effectiveness of Invention Method 1 can be confirmed also in the enlarged image of FIG.

図21は、原画像「レナ」に対するシミュレーション結果(視覚評価)を示す図であり、図22は、図21中の破線の円の周辺領域を拡大した図である。   FIG. 21 is a diagram showing a simulation result (visual evaluation) for the original image “Lena”, and FIG. 22 is an enlarged view of a peripheral region of a broken-line circle in FIG.

図22によく示すように、従来手法1は、ほとんどぼけが取り除かれておらず、復元画像が原画像と比べて全体的に白くなっている(輝度が高くなっている)。また、従来手法2は、従来手法1に比べるとぼけは取り除かれているが、原画像まではぼけが取り除かれていない。一方、従来手法3は、従来手法1、2に比べるとぼけが取り除かれておりはっきりとしているように見えるが、劣化画像よりも劣化してしまっており、原画像とはかけ離れた画像になっている。特に肌の部分に注目すると、この点が顕著に表れている。   As well shown in FIG. 22, in the conventional method 1, the blur is hardly removed, and the restored image is generally whiter than the original image (the luminance is increased). In contrast, the conventional method 2 has the blur removed as compared with the conventional method 1, but the blur has not been removed up to the original image. On the other hand, the conventional method 3 is clearer than the conventional methods 1 and 2 and appears to be clear, but has deteriorated more than the deteriorated image, and is an image far from the original image. . This point is particularly noticeable when paying attention to the skin area.

これに対して、発明手法1は、図22によく示すように、従来手法1、2、3に比べて原画像を忠実に復元していることが確認できる。すなわち、図22の拡大画像においても、発明手法1の有効性を確認することができる。   On the other hand, it can be confirmed that the inventive method 1 faithfully restores the original image as compared with the conventional methods 1, 2, and 3, as shown in FIG. That is, the effectiveness of Invention Method 1 can also be confirmed in the enlarged image of FIG.

(2)客観評価(数値による評価)
図23は、原画像に対するシミュレーション結果(客観評価)を示す図である。
(2) Objective evaluation (numerical evaluation)
FIG. 23 is a diagram illustrating a simulation result (objective evaluation) for an original image.

ここでは、従来手法1〜3と発明手法1の画像復元能力を数値により評価するため、図23にも示す次の式(11)で表されるPSNR[dB]を用いて画像復元能力を評価した。なお、PSNR(Peak Signal-to-Noise Ratio)は、画像の信号に対する雑音の比であり、数値が大きいほど劣化(ぼけや雑音など)が少なく画像として良好であるといえる。   Here, in order to evaluate the image restoration capability of the conventional methods 1 to 3 and the invention method 1 by numerical values, the image restoration capability is evaluated using PSNR [dB] expressed by the following equation (11) shown in FIG. did. PSNR (Peak Signal-to-Noise Ratio) is the ratio of noise to image signal, and the larger the value, the less degradation (blur, noise, etc.), and the better the image.

Figure 0005493191
Figure 0005493191

この場合、図23に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法1は、従来手法1、2、3よりもSNROUTの数値が大きいことが確認できる。これにより、発明手法1は、客観評価の点でも、従来手法1、2、3に比べて画像復元能力が高いことがわかる。 In this case, as shown in FIG. 23, it can be confirmed that the invention method 1 has a larger value of SNR OUT than the conventional methods 1, 2, and 3 for both the “cameraman” and “Lena” images. Thus, it can be seen that the inventive method 1 has higher image restoration capability than the conventional methods 1, 2, and 3 in terms of objective evaluation.

(3)主観評価(聞き取り調査)
図24は、原画像に対するシミュレーション結果(主観評価)を示す図である。
(3) Subjective evaluation (interview survey)
FIG. 24 is a diagram illustrating a simulation result (subjective evaluation) for an original image.

ここでは、従来手法1〜3と発明手法1の画像復元能力を評価するために、聞き取り調査による主観評価を行った。画像復元の性能評価は、ACR(絶対範疇評価)に基づく5段階MOS(平均オピニオン値)を用いた聞き取り調査により行った。MOS評価基準は、図24に示す通りである。50人の聴取者が画像復元により得られた画像(図17〜図22参照)を評価した。各々の聴取者は、評価値「1」から「5」を決定する。評価値「5」が最良である。   Here, in order to evaluate the image restoration ability of the conventional methods 1 to 3 and the inventive method 1, a subjective evaluation was performed by an interview survey. The performance evaluation of the image restoration was performed by an interview survey using a 5-step MOS (average opinion value) based on ACR (absolute category evaluation). The MOS evaluation criteria are as shown in FIG. Fifty listeners evaluated images obtained by image restoration (see FIGS. 17 to 22). Each listener determines an evaluation value “1” to “5”. The evaluation value “5” is the best.

図24に示すように、MOS評価は、「カメラマン」、「レナ」どちらの画像についても、発明手法1は、従来手法1、2、3よりも高い評価を得ていることが確認できる。これにより、発明手法1は、主観評価の点でも、従来手法1、2、3に比べて画像復元能力が高いことがわかる。   As shown in FIG. 24, it can be confirmed that the MOS method has a higher evaluation than the conventional methods 1, 2, and 3 for the “cameraman” and “Lena” images. Thus, it can be seen that Invention Method 1 has higher image restoration capability than Subject Methods 1, 2, and 3 in terms of subjective evaluation.

以上の実験結果により、本発明の画像復元方法(発明手法1)は、従来手法1〜3に比べて高い画像復元能力を発揮していることがわかる。特に、図17〜図22の視覚評価から明らかなように、本発明の画像復元方法は、非定常性が強いエッジ部分などにおいて、従来手法1〜3に比べて著しく復元精度が高いことがわかる。   From the above experimental results, it can be seen that the image restoration method (invention technique 1) of the present invention exhibits higher image restoration ability than the conventional techniques 1 to 3. In particular, as is apparent from the visual evaluations of FIGS. 17 to 22, it can be seen that the image restoration method of the present invention has significantly higher restoration accuracy than the conventional methods 1 to 3 at edge portions having strong non-stationarity. .

次いで、上記構成を有する画像復元装置100の動作について、図25に示すフローチャートを用いて説明する。なお、図25に示すフローチャートは、記憶部150(主記憶装置152または補助記憶装置154)に制御プログラムとして格納されており、図示しないCPUによって実行される。   Next, the operation of the image restoration apparatus 100 having the above configuration will be described using the flowchart shown in FIG. The flowchart shown in FIG. 25 is stored as a control program in the storage unit 150 (the main storage device 152 or the auxiliary storage device 154), and is executed by a CPU (not shown).

まず、ステップS2000では、画像入力装置110から復元処理対象の画像データ(劣化画像)を取り込み、記憶部150(主記憶装置152または補助記憶装置154)の所定の記憶領域に格納する。   First, in step S2000, image data (degraded image) to be restored is captured from the image input device 110 and stored in a predetermined storage area of the storage unit 150 (the main storage device 152 or the auxiliary storage device 154).

そして、ステップS2050では、ステップS2000で取り込んだ画像データを表示メモリ156に書き込んで、ディスプレイ182に表示する。   In step S2050, the image data captured in step S2000 is written into the display memory 156 and displayed on the display 182.

そして、ステップS2100では、操作部130の領域指定部134で、領域指定処理を行う。具体的には、使用者の入力操作により、ステップS2050でディスプレイ182に表示した画像のうち画像復元処理の対象となる領域(画像の特定の範囲)が指定されると、その指定された領域のデータを生成する。領域の指定は、例えば、画面上、ポインタなどで行われる。なお、使用者により領域の指定が行われなかった場合は、表示された画像全体を指定したものとして取り扱われる。   In step S2100, the area designation unit 134 of the operation unit 130 performs area designation processing. Specifically, when an area to be subjected to image restoration processing (a specific range of an image) is specified in the image displayed on the display 182 in step S2050 by the user's input operation, the specified area is displayed. Generate data. The area is specified by, for example, a pointer on the screen. If the area is not designated by the user, the entire displayed image is treated as designated.

そして、ステップS2150では、拡大処理を行うか否かを判断する。この判断は、例えば、ステップS2100で生成した指定領域データに基づいて行われる。具体的には、指定された領域が表示された画像全体よりも小さい場合には、拡大処理を行うと判断する。この判断の結果として、拡大処理を行う場合は(S2150:YES)、ステップS2200に進み、拡大処理を行わない場合は(S2150:NO)、直ちにステップS2250に進む。   In step S2150, it is determined whether or not enlargement processing is performed. This determination is made based on the designated area data generated in step S2100, for example. Specifically, when the designated area is smaller than the entire displayed image, it is determined that the enlargement process is performed. As a result of this determination, when the enlargement process is performed (S2150: YES), the process proceeds to step S2200, and when the enlargement process is not performed (S2150: NO), the process immediately proceeds to step S2250.

ステップS2200では、ステップS2100で指定した領域の拡大処理を行う。具体的には、例えば、指定された領域が表示された画像全体に対応する大きさとなるように拡大処理を行う。拡大処理の結果は、記憶部150(主記憶装置152または補助記憶装置154)の作業用メモリに書き込まれる。なお、拡大処理が行われなかった場合も、その画像データは作業用メモリに書き込まれる。   In step S2200, the area specified in step S2100 is enlarged. Specifically, for example, the enlargement process is performed so that the designated area has a size corresponding to the entire displayed image. The result of the enlargement process is written in the working memory of the storage unit 150 (the main storage device 152 or the auxiliary storage device 154). Even when the enlargement process is not performed, the image data is written in the working memory.

そして、ステップS2250では、時刻nの処理対象ブロック(例えば、3×3の大きさ)を選択する。   In step S2250, a processing target block at time n (for example, a size of 3 × 3) is selected.

そして、ステップS2300では、ステップS2250で選択した処理対象ブロックに対して、画像の急激な変化領域が検出されたか否かを判断する。画像の急激な変化領域は、例えば、画像のエッジ部分などに相当する。具体的には、例えば、作業用メモリに書き込まれた画像データ(拡大処理の有無を問わず)に対して、ステップS2250で選択した処理対象ブロック(3×3の大きさ)上で画素データを順次スキャンすることにより、急激な画素データの変化点があるか否かを検出する。この判断の結果として、画像の急激な変化領域が検出された場合は(S2300:YES)、ステップS2350に進み、画像の急激な変化領域が検出されなかった場合は(S2300:NO)、ステップS2400に進む。   In step S2300, it is determined whether an abrupt change region of the image is detected for the processing target block selected in step S2250. The sudden change region of the image corresponds to, for example, an edge portion of the image. Specifically, for example, with respect to image data written in the work memory (regardless of whether or not enlargement processing is performed), pixel data is processed on the processing target block (3 × 3 size) selected in step S2250. By sequentially scanning, it is detected whether there is a sudden change point of pixel data. As a result of this determination, if an abrupt change region of the image is detected (S2300: YES), the process proceeds to step S2350. If an abrupt change region of the image is not detected (S2300: NO), step S2400 is performed. Proceed to

具体的な検出方法の一例は、次の通りである。ある一定量の過去の観測量の平均値y’(n−1)と現在の観測量y(n)との差の絶対値、つまり、|y’(n−1)−y(n)|の値をしきい値αと比較する。そして、その値がしきい値α以上の場合、つまり、|y’(n−1)−y(n)|≧αの場合は、急激な画素データの変化点があると判断し、その値がしきい値α未満の場合、つまり、|y’(n−1)−y(n)|<αの場合は、急激な画素データの変化点はないと判断する。例えば、図26において、時刻n−1の処理対象ブロック301における所定部分302の観測量の平均値y’(n−1)と、時刻nの処理対象ブロック303における注目画素の部分304の観測量y(n)とを比較する。   An example of a specific detection method is as follows. The absolute value of the difference between an average value y ′ (n−1) of a certain amount of past observation amounts and the current observation amount y (n), that is, | y ′ (n−1) −y (n) | Is compared with a threshold value α. If the value is greater than or equal to the threshold value α, that is, if | y ′ (n−1) −y (n) | ≧ α, it is determined that there is a sudden change point of pixel data, and the value is Is less than the threshold value α, that is, if | y ′ (n−1) −y (n) | <α, it is determined that there is no abrupt pixel data change point. For example, in FIG. 26, the average value y ′ (n−1) of the observation amount of the predetermined portion 302 in the processing target block 301 at time n−1 and the observation amount of the pixel portion 304 of interest in the processing target block 303 at time n. Compare y (n).

ステップS2350では、ステップS2250で選択した処理対象ブロックに対して、発明手法による画像復元処理を行う。発明手法による画像復元処理は、上記のように、急激な画素データの変化点がある場合、つまり、エッジ部分などを含む場合であっても、高精度な復元処理が可能である。なお、発明手法による画像復元処理の詳細な手順の一例については、図13のフローチャートを用いて説明した通りである。   In step S2350, image restoration processing by the inventive method is performed on the processing target block selected in step S2250. As described above, the image restoration process according to the invention technique can be performed with high accuracy even when there is a sudden change point of pixel data, that is, when an edge portion or the like is included. An example of the detailed procedure of the image restoration process according to the inventive method is as described with reference to the flowchart of FIG.

一方、ステップS2400では、ステップS2250で選択した処理対象ブロックに対して、発明手法以外の他の画像復元手法による画像復元処理を行う。他の画像復元手法としては、ウィナーフィルタを用いた画像復元手法や射影フィルタを用いた画像復元手法、カルマンフィルタを用いた画像復元手法などを含む任意の画像復元手法を用いることができる。急激な画素データの変化点がない場合、つまり、エッジ部分などを含まない場合には、他の画像復元手法でも精度良く復元処理を行うことができるからである。   On the other hand, in step S2400, image restoration processing by an image restoration method other than the inventive method is performed on the processing target block selected in step S2250. As another image restoration method, any image restoration method including an image restoration method using a Wiener filter, an image restoration method using a projection filter, an image restoration method using a Kalman filter, and the like can be used. This is because when there is no abrupt change point of pixel data, that is, when an edge portion or the like is not included, restoration processing can be performed with high accuracy by other image restoration methods.

そして、ステップS2450では、ステップS2350での復元処理結果またはステップS2400での復元処理結果を、順次、記憶部150(主記憶装置152または補助記憶装置154)の作業用メモリに保存する。   In step S2450, the restoration processing result in step S2350 or the restoration processing result in step S2400 is sequentially stored in the working memory of the storage unit 150 (the main storage device 152 or the auxiliary storage device 154).

そして、ステップS2500では、時刻nのカウンタの値を1だけインクリメントする。   In step S2500, the counter value at time n is incremented by one.

そして、ステップS2550では、1頁分の画像復元処理が終了したか否かを判断する。この判断は、時刻nのカウンタの値に基づいて行われる。この判断の結果として、1頁分の画像復元処理が終了した場合は(S2550:YES)、ステップS2600に進み、1頁分の画像復元処理が終了していない場合は(S2550:NO)、ステップS2250に戻る。   In step S2550, it is determined whether the image restoration process for one page is completed. This determination is made based on the value of the counter at time n. As a result of this determination, if the image restoration process for one page is completed (S2550: YES), the process proceeds to step S2600, and if the image restoration process for one page is not completed (S2550: NO), step The process returns to S2250.

ステップS2600では、1頁分の画像復元処理が終了したため、表示メモリ156の更新処理を行う。すなわち、ここでは、1頁分の画像復元処理が終了した時点で表示メモリ156を更新するように構成されている。   In step S2600, since the image restoration process for one page is completed, the display memory 156 is updated. In other words, the display memory 156 is updated when the image restoration process for one page is completed.

そして、ステップS2650では、ステップS2000で取り込んだ画像データの全頁分に対して画像復元処理が終了したか否かを判断する。この判断の結果として、全頁分の画像復元処理が終了していない場合は(S2650:NO)、ステップS2250に戻り、全頁分の画像復元処理が終了した場合は(S2650:YES)、上記一連の処理を終了する。   In step S2650, it is determined whether image restoration processing has been completed for all pages of the image data captured in step S2000. As a result of this determination, if the image restoration process for all pages has not been completed (S2650: NO), the process returns to step S2250, and if the image restoration process for all pages has been completed (S2650: YES), A series of processing ends.

次に、ぼけ情報である点拡がり関数(PSF)に対応する観測遷移行列Mp1の設定と実装の具体例について、図27および図28を用いて説明する。 Next, a specific example of setting and implementation of the observation transition matrix M p1 corresponding to the point spread function (PSF) that is blur information will be described with reference to FIGS. 27 and 28. FIG.

図27は、復元モードの実装の一例を説明するための図である。   FIG. 27 is a diagram for explaining an example of implementation of the restoration mode.

上記のように、観測遷移行列Mp1は、式(4)で定義された9×9次の行列であって、画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応しており、観測遷移行列Mp1を構成する各要素hr,s(r,s=−1,0,1)は、既知であって、予めデータ化して適切に設定されている。すなわち、本実施の形態では、画像によってぼけ具合が変わるため、いわばぼけ情報である観測遷移行列Mp1の各要素hr,sの値の組を復元モードとしていくつか予め設定しておき、使用者は、操作部130の復元モード指定部136を介して、その復元モードを任意に指定できるように構成されている。例えば、図27の例では、デジタルカメラなどによく設定されている夜景モードやスポーツモードなどの撮影モード毎に、予め、その撮影モードに合った適切な観測遷移行列Mp1がそれぞれ設定されている。したがって、使用者は、撮影モードを切り替えることによって、最適な復元モードを使用することができる。なお、復元モード(観測遷移行列Mp1の各要素hr,sの値)自体を自動または手動で再調整することも可能である。 As described above, the observation transition matrix M p1 is a 9 × 9 order matrix defined by the equation (4), and corresponds to the blur point spread function (PSF) in the image degradation model. Each element h r, s (r, s = −1, 0, 1) constituting the transition matrix M p1 is known, and is appropriately set in advance as data. That is, in the present embodiment, the degree of blur varies depending on the image, so that several combinations of values of each element h r, s of the observation transition matrix M p1 that is so-called blur information are set in advance as a restoration mode and used. The user can arbitrarily specify the restoration mode via the restoration mode designation unit 136 of the operation unit 130. For example, in the example of FIG. 27, an appropriate observation transition matrix M p1 suitable for each shooting mode is set in advance for each shooting mode such as a night view mode or a sport mode that is often set for a digital camera or the like. . Therefore, the user can use the optimum restoration mode by switching the photographing mode. Note that the restoration mode (values of the elements h r and s of the observed transition matrix M p1 ) itself can be readjusted automatically or manually.

図28は、復元モードの実装の他の例を説明するための図である。   FIG. 28 is a diagram for explaining another example of implementation of the restoration mode.

図28の例では、画像によってぼけ具合が変わるため、まず、図28(A)に示すように、ディスプレイ182上で、処理対象の劣化画像を選択した後、図28(B)に示すように、観測遷移行列Mp1(各要素hr,sの値)を変えた復元画像をいくつかディスプレイ182に表示する。このとき、使用者が、例えば、操作部130(タッチパネルなど)を介して、ディスプレイ182に表示された複数の復元画像の中から、最適な復元画像を選択すると、復元画像が決定される。なお、使用者の選択の履歴をデータとして蓄積することによって、使用者の好みに合った復元モード(観測遷移行列Mp1の各要素hr,sの値)を自動で選択することも可能となる。 In the example of FIG. 28, since the degree of blur varies depending on the image, first, as shown in FIG. 28A, after selecting a deteriorated image to be processed on the display 182, as shown in FIG. Several restored images obtained by changing the observed transition matrix M p1 (values of the elements h r and s ) are displayed on the display 182. At this time, for example, when the user selects an optimal restored image from a plurality of restored images displayed on the display 182 via the operation unit 130 (such as a touch panel), the restored image is determined. In addition, it is possible to automatically select a restoration mode (values of the elements h r and s of the observation transition matrix M p1 ) according to the user's preference by accumulating the user's selection history as data. Become.

このように、本実施の形態によれば、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成して1段階処理の新しい予測法によって画像復元を行うため、シンプルで実用的かつ高性能な画像復元を実現することができる。すなわち、AR次数の決定およびAR係数を推定するステップを必要としないシンプルな構成で、かつ、非定常性が強い自然画像に対しても有効に復元処理を行うことができる実用性を有し、しかも、従来手法1〜3に比べて画像復元能力を向上することができる。   As described above, according to the present embodiment, a new state space model (state equation and observation equation) that does not require the concept of the AR system is constructed, and image restoration is performed by a new prediction method of one-stage processing. Thus, practical and high-performance image restoration can be realized. In other words, it has a simple configuration that does not require the steps of determining the AR order and estimating the AR coefficient, and has a utility that can effectively perform restoration processing even for a natural image with strong non-stationarity, In addition, the image restoration capability can be improved as compared with the conventional methods 1 to 3.

また、本実施の形態では、上記のように、ARシステムのコンセプトを必要としないため、画像の撮り直しが許されない場面にも広く適用可能である。なお、もちろん、ここでも、上記のように、画像の種類は限定されず、静止画像でも動画像でもよい。   Further, in the present embodiment, as described above, since the concept of the AR system is not required, the present invention can be widely applied to scenes in which retaking of images is not permitted. Of course, here, as described above, the type of image is not limited and may be a still image or a moving image.

例えば、古文書の傷や汚れなどをぼけや雑音とみなし、発明手法1を用いてこれらを取り除き、文字・物体認識技術を用いることによって、古文書の解読、復元、およびデジタルデータベース化に効果を発揮することが期待される。   For example, scratches and dirt on old documents are regarded as blurs and noises, and they are removed using Invention Method 1 and are effective in decoding and restoring old documents and creating a digital database by using character / object recognition technology. Expected to demonstrate.

また、防犯分野においても、近年、防犯カメラ(監視カメラ)などの設置が普及しつつあり、犯罪者の多くは防犯カメラなどに撮影されていることが多いため、この画像が犯罪者の発見の手がかりとなることがある。しかし、これらの画像は一般に画質が荒く、動いている対象物の画像はぼけが生じていることが一般的である。また、これらの画像を拡大した場合には、通常、画像はより一層劣化する。そこで、拡大画像を含めてこれらの劣化画像に発明手法1を適用することによって、劣化画像のぼけと雑音を取り除き、クリアな画像を提供することで、犯罪者の早期発見につながることが期待される。なお、このように、拡大画像を含めて劣化画像に発明手法1を適用することによって、劣化画像のぼけと雑音を取り除き、クリアな画像を提供することは、防犯分野に限らず、監視カメラなどで撮影された画像に基づいて、事故の判定や器具の故障診断などを行う場合にも適用可能である。   Also in the crime prevention field, the installation of security cameras (surveillance cameras) has been spreading in recent years, and many criminals are often taken by security cameras. May be a clue. However, these images generally have poor image quality, and the images of moving objects are generally blurred. Further, when these images are enlarged, the images are usually further deteriorated. Therefore, it is expected that by applying Invention Method 1 to these deteriorated images including enlarged images, the blur and noise of the deteriorated images are removed and a clear image is provided, thereby leading to early detection of criminals. The In this way, by applying Invention Method 1 to a deteriorated image including an enlarged image, it is not limited to the crime prevention field to provide a clear image by removing the blur and noise of the deteriorated image, such as a surveillance camera. The present invention can also be applied to the case where accident determination, instrument failure diagnosis, and the like are performed based on the images taken in step (1).

また、近年、カメラ機能付き携帯電話やデジタルカメラなどが急速な勢いで普及し、1人1台の時代となっている。しかし、これらの製品に搭載されている画像復元技術は、顔認識やフィルタなどのぼけや雑音を予防する技術であり、撮り直しが許されない場面を想定していない。したがって、これらの製品に発明手法1を適用することによって、撮り直しが許されない瞬間的な画像復元が可能になる。   In recent years, mobile phones with a camera function, digital cameras, and the like have spread rapidly and have become one-person era. However, the image restoration technology installed in these products is a technology for preventing blur and noise such as face recognition and filters, and does not assume a scene where re-shooting is not allowed. Therefore, by applying Invention Method 1 to these products, instantaneous image restoration that does not allow re-taking is possible.

また、医療の分野において、健康を調査する最も効果的な手段の1つとして、内視鏡やレントゲン、エコー、CT、MRIなどの画像診断がある。例えば、肺や心臓などの画像診断では、肺や心臓などの動作によってぼけと雑音を含んだ情報から健康診断を行っている。これらの画像診断に発明手法を適用してぼけと雑音を取り除くことによって、専門医にクリアな画像を迅速に提供することが可能となり、病気の早期発見の一助になることが期待される。   In the medical field, as one of the most effective means for investigating health, there is image diagnosis such as endoscope, X-ray, echo, CT, MRI and the like. For example, in the image diagnosis of the lungs and the heart, the health diagnosis is performed from information including blur and noise by the operation of the lungs and the heart. By removing the blur and noise by applying the inventive method to these image diagnoses, it is possible to quickly provide a clear image to a specialist, and it is expected to help early detection of diseases.

また、近年カーナビゲーションシステムが普及していることから、フロント・リアカメラを搭載した自動車も増えている。このようなリアルタイムで画像復元処理が必要な自動車のフロント・リアカメラなどの場合においても発明手法1は有効である。   In recent years, since car navigation systems have become widespread, the number of cars equipped with front and rear cameras is increasing. The invention method 1 is also effective in the case of such a front / rear camera of an automobile that requires real-time image restoration processing.

なお、上記のように、本発明に係る画像復元方法の具体的な手法(発明手法)は、発明手法1に限定されない。以下では、他の発明手法として、5つの発明手法2〜6を順次説明する。ただし、発明手法1〜6相互間の比較を容易にするため、上記した発明手法1についても簡単にまとめて説明しておく。また、共通する部分については、適宜、その説明を省略する。   As described above, the specific technique (invention technique) of the image restoration method according to the present invention is not limited to Invention technique 1. Below, as another invention method, five invention methods 2-6 are demonstrated one by one. However, in order to facilitate comparison between the inventive methods 1 to 6, the above-described inventive method 1 will also be briefly described. In addition, the description of common parts is omitted as appropriate.

<発明手法1>
まず、各発明手法1〜6に共通の問題設定として、画像復元の理論となる画像劣化モデルについて、再度、簡単に説明しておく。図29は、劣化画像モデルを視覚的に説明するための図である(図3、式(1)参照)。
<Invention Method 1>
First, as a problem setting common to each of the inventive methods 1 to 6, an image deterioration model as a theory of image restoration will be briefly described again. FIG. 29 is a diagram for visually explaining the deteriorated image model (see FIG. 3, equation (1)).

画像の劣化は、図29の上側に示すように、原画像にぼけと雑音が加わることによって生じる。ぼけは、ある画素がその周囲の画素に影響することによって生じるが、雑音は、画素に関係なく発生する。カメラなどで撮影された画像の場合、ぼけは、手ぶれや焦点ずれなどに起因して生じ、雑音は、暗電流や熱雑音などに起因して不可避的に発生する。劣化画像は、一般的に、原画像とぼけの点拡がり関数(PSF)の畳み込み(コンボリューション)に雑音を加えたモデルによって得られる。具体的には、劣化画像g(x,y)は、原画像をf(m,n)、ぼけの点拡がり関数をh(x,y)、雑音をn(x,y)でそれぞれ表すと、図29に示す劣化画像生成式で表される。この劣化画像モデルでは、雑音n(x,y)と原画像f(m,n)は無相関であること、雑音n(x,y)は加法性白色ガウス雑音であること、が条件となっている。劣化画像の復元は、劣化画像からぼけと雑音を取り除くことにほかならない。   As shown in the upper side of FIG. 29, the image is deteriorated by adding blur and noise to the original image. Blur is caused by a pixel affecting its surrounding pixels, but noise occurs regardless of the pixel. In the case of an image taken with a camera or the like, blur is caused by camera shake or defocus, and noise is unavoidably caused by dark current or thermal noise. The degraded image is generally obtained by a model obtained by adding noise to a convolution of the original image and the blur point spread function (PSF). Specifically, the degraded image g (x, y) is represented by f (m, n) for the original image, h (x, y) for the point spread function of blur, and n (x, y) for noise. , Represented by the degraded image generation formula shown in FIG. In this deteriorated image model, the noise n (x, y) and the original image f (m, n) are uncorrelated, and the noise n (x, y) is an additive white Gaussian noise. ing. Restoration of a degraded image is nothing but removing blur and noise from the degraded image.

図30は、発明手法1の状態空間モデルを視覚的に説明するための図、図31は、発明手法1の状態過程を視覚的に説明するための図、図32は、発明手法1の観測過程を視覚的に説明するための図である(以上、図4〜図11、式(2)〜式(4)参照)。   30 is a diagram for visually explaining the state space model of the inventive method 1, FIG. 31 is a diagram for visually explaining the state process of the inventive method 1, and FIG. 32 is an observation of the inventive method 1. It is a figure for demonstrating a process visually (refer above, FIGS. 4-11, Formula (2)-Formula (4)).

発明手法1では、図30にまとめて示すように、新しい状態空間モデル(状態方程式と観測方程式)を構成し、定式化している。この状態空間モデルは、状態過程と観測過程とで構成される。状態過程は、図31に示すように、状態方程式によって記述され、観測過程は、図32に示すように、観測方程式によって記述される。ここで、状態方程式において、ベクトルxp1(n)は状態ベクトル(原画像情報)、行列Φp1は状態遷移行列、ベクトルδp1(n)は駆動源ベクトルである。また、観測方程式において、ベクトルyp1(n)は観測ベクトル(観測画像情報、劣化画像情報)、行列Mp1は観測遷移行列、ベクトルεp1(n)は観測雑音ベクトルである。また、ベクトルxp1(n)、δp1(n)、yp1(n)、εp1(n)の変数としての「n」は、装置の時刻nである。時刻nは、注目画素(または注目画素領域)と複数の周辺画素(または周辺画素領域)とからなる処理対象ブロックの処理の順番(n番目)を表している。状態方程式は、観測対象のシステムを状態空間モデルで記述したものであり、内部状態つまり状態変数(ここでは、状態ベクトルxp1(n)、xp1(n+1))の時間に対する生成過程を表している。また、観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測結果(ここでは、観測ベクトルyp1(n))が、被観測量つまり入力(ここでは、状態ベクトルxp1(n))に依存して生成される様子を示している。 In Invention Method 1, as shown collectively in FIG. 30, a new state space model (state equation and observation equation) is constructed and formulated. This state space model is composed of a state process and an observation process. The state process is described by a state equation as shown in FIG. 31, and the observation process is described by an observation equation as shown in FIG. Here, in the state equation, the vector x p1 (n) is a state vector (original image information), the matrix Φ p1 is a state transition matrix, and the vector δ p1 (n) is a drive source vector. In the observation equation, the vector y p1 (n) is an observation vector (observation image information and degraded image information), the matrix M p1 is an observation transition matrix, and the vector ε p1 (n) is an observation noise vector. Further, “n” as a variable of the vectors x p1 (n), δ p1 (n), y p1 (n), and ε p1 (n) is the time n of the apparatus. The time n represents the processing order (nth) of the processing target block including the target pixel (or target pixel region) and a plurality of peripheral pixels (or peripheral pixel regions). The state equation describes the system to be observed with a state space model, and represents the generation process of the internal state, that is, the state variables (here, state vectors x p1 (n), x p1 (n + 1)) with respect to time. Yes. The observation equation describes the process of observation through some kind of observation device, and the observation result (here, observation vector y p1 (n)) is the observed quantity, ie, the input (here, state vector x p1 ( n)).

図33は、発明手法1の状態方程式と観測方程式をまとめて示す説明図であり、図34は、発明手法1のアルゴリズムを説明するための図である(図12、図14、式(5)〜式(10)参照)。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。 FIG. 33 is an explanatory diagram showing the state equation and the observation equation of Invention Method 1 together, and FIG. 34 is a diagram for explaining the algorithm of Invention Method 1 (FIGS. 12, 14, and Equation (5)). -See formula (10)). As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. ing.

図33に示す状態方程式および観測方程式、ならびに図34に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。すなわち、発明手法1では、劣化画像の復元処理は、復元対象である注目画素のみを用いるのではなく、その周辺の画素も含めて処理を行う。具体的には、例えば、J×Jの大きさの画像のある注目画素を中心にして、その周辺m×n(ただし、J>m、n)の領域を処理対象ブロックとし、この処理対象ブロックの中の画素情報を用いて、画像の復元処理を行う。処理対象ブロックは、画像復元においてm×nの画素を用いて処理を行う範囲を意味する。図33および図34の右下には、K=9(=3×3)の場合の処理対象ブロックが例示されている。 In the state equation and the observation equation shown in FIG. 33 and the algorithm shown in FIG. 34, K 1 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, K 1 = m × n. That is, in Invention Method 1, in the degraded image restoration process, not only the target pixel to be restored is used, but also the surrounding pixels are processed. Specifically, for example, an area of m × n (where J> m, n) around a pixel of interest in an image with a size of J × J is a processing target block, and this processing target block Image restoration processing is performed using the pixel information in. The processing target block means a range in which processing is performed using m × n pixels in image restoration. The lower right part of FIGS. 33 and 34 exemplifies a processing target block in the case of K 1 = 9 (= 3 × 3).

図35は、図34のアルゴリズムを実行する処理手順を示すフローチャートである(図13参照)。   FIG. 35 is a flowchart showing a processing procedure for executing the algorithm of FIG. 34 (see FIG. 13).

ここでは、図34のアルゴリズムの表記に対応して、行列とベクトルのサイズをそれぞれ明記している。具体的には、n→(n+1)の推定誤差の相関値(行列)(S1100)は、サイズがK×Kの行列、重み係数(行列)(S1200)は、サイズがK×Kの行列、n→(n+1)の状態量の最適推定値(ベクトル)(S1300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(ベクトル)(S1400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(行列)(S1600)は、サイズがK×Kの行列となる。 Here, the sizes of the matrix and the vector are specified in correspondence with the notation of the algorithm of FIG. Specifically, the correlation value (matrix) (S1100) of the estimation error of n → (n + 1) is a matrix of size K 1 × K 1 , and the weight coefficient (matrix) (S1200) is of size K 1 × K. 1 of the matrix, n → (n + 1) state of optimal estimate of (vector) (S1300), the size vector of K 1 × 1, (n + 1) → (n + 1) state of optimal estimate of (vector) (S1400) is a vector of size K 1 × 1, and the correlation value (matrix) (S1600) of the estimation error of (n + 1) → (n + 1) is a matrix of size K 1 × K 1 .

<発明手法2>
図36は、発明手法1の課題を視覚的に説明するための図である。
<Invention Method 2>
FIG. 36 is a diagram for visually explaining the problem of the inventive method 1.

発明手法1では、図36に示すように、時刻nの変化は、画素領域(処理対象ブロック)の遷移を用いて表される。時刻n+1では、例えば、過去の1時刻前の9(=3×3)個の状態量(原画像の画素情報)x〜xを用いて、現在の処理対象ブロックの9(=3×3)個の状態量(原画像の画素情報)x〜x12を推定することにより、注目画素領域の状態量xを復元する。このように、発明手法1では、1つの注目画素領域の状態量(要素)を復元するために、処理対象ブロック内の状態量(要素)をすべて推定している。しかし、そもそも、1つの注目画素領域の要素を復元するためには、その注目画素領域の要素のみを求めればよく、他の要素の推定は不要である。そこで、発明手法2では、注目画素領域のみを考慮した状態空間モデルを再構成する。具体的には、発明手法2では、発明手法1の観測方程式を再構成して注目画素領域の要素のみを抽出するようにしている。これにより、発明手法2では、発明手法1に対して大幅な演算量の軽減を可能にして、高速(低演算量)な劣化画像復元を実現している。 In Invention Method 1, as shown in FIG. 36, the change at time n is expressed using the transition of the pixel region (processing target block). At time n + 1, for example, past one time before the 9 (= 3 × 3) pieces of the state quantity by using the x 1 ~x 9 (pixel information of the original image), 9 of the current process target block (= 3 × 3) amount number of states (by estimating the pixel information) x 4 ~x 12 of the original image, to restore the state amount x 8 of the target pixel region. As described above, the invention method 1 estimates all the state quantities (elements) in the processing target block in order to restore the state quantities (elements) of one target pixel region. However, in the first place, in order to restore an element of one target pixel area, only the element of the target pixel area needs to be obtained, and estimation of other elements is unnecessary. Therefore, in Invention Method 2, a state space model is reconstructed considering only the target pixel region. Specifically, in Invention Method 2, the observation equation of Invention Method 1 is reconfigured to extract only the elements of the pixel region of interest. As a result, the invention method 2 enables a large amount of computation to be reduced compared to the invention method 1, and realizes high-speed (low computation amount) degraded image restoration.

図37は、発明手法2の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法1の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図である。なお、図37に示すように、発明手法2の状態方程式は、発明手法1の状態方程式と全く同じであるため、その説明を省略する。   FIG. 37 is an explanatory diagram visually showing the configuration of the state equation of Invention Method 2, in particular, (A) is a diagram showing a specific example of the state equation of Invention Method 1, and (B) is a change in time. It is a figure which shows the change of the process target block accompanying with. As shown in FIG. 37, the state equation of the inventive method 2 is exactly the same as the state equation of the inventive method 1, and the description thereof is omitted.

図38は、発明手法2の観測方程式の構成を視覚的に示す説明図であり、図39は、発明手法2の観測方程式の構成を視覚的に示す他の説明図である。   FIG. 38 is an explanatory diagram visually showing the configuration of the observation equation of Invention Method 2, and FIG. 39 is another explanatory diagram visually showing the configuration of the observation equation of Invention Method 2.

発明手法2では、図38に示すように、発明手法1の観測方程式において注目画素領域の要素(例えば、画素情報y(n))のみを抽出して観測方程式を再構成する。これにより、発明手法2では、図39に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)が、それぞれ、スカラー化、ベクトル化、スカラー化されて、観測値yp2(n)、観測遷移ベクトルm p2、観測雑音εp2(n)となる。この結果、発明手法2は、発明手法1に対して、サイズが縮小されるため、演算量が大幅に軽減される。なお、演算量の軽減効果については、後で詳述する。 In Invention Method 2, as shown in FIG. 38, only the element of the pixel region of interest (for example, pixel information y 5 (n)) is extracted from the observation equation of Invention Method 1, and the observation equation is reconstructed. As a result, in Invention Method 2, as shown in FIG. 39, the observation vector y p1 (n), the observation transition matrix M p1 , and the observation noise vector ε p1 (n) in Invention Method 1 are scalarized and vectorized, respectively. Are converted into an observed value y p2 (n), an observed transition vector m T p2 , and an observed noise ε p2 (n). As a result, the size of the inventive method 2 is reduced compared to the inventive method 1, so that the amount of calculation is greatly reduced. The calculation amount reduction effect will be described in detail later.

図40は、発明手法2の状態方程式と観測方程式をまとめて示す説明図であり、図41は、発明手法2のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。 FIG. 40 is an explanatory diagram collectively showing the state equation and the observation equation of Invention Method 2, and FIG. 41 is a diagram for explaining the algorithm of Invention Method 2. As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. ing.

図40に示す状態方程式および観測方程式、ならびに図41に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。発明手法2のアルゴリズムは、図42に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法1の場合(図34参照)よりも演算量が軽減されるよう、図40に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。 State equation and an observation equation shown in FIG. 40, as well as in the algorithm shown in FIG. 41, K 2 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region When it is set as the length of an axis | shaft and a horizontal axis, it represents with K < 2 > = mxn. As shown in FIG. 42, the algorithm of the invention method 2 is roughly divided into an initialization process and an iteration process, and the iteration process is more than the case of the invention method 1 (see FIG. 34). It is configured based on a new state space model (state equation and observation equation) shown in FIG. In the iteration process, steps 1 to 6 are repeated sequentially.

図42は、図41のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 42 is a flowchart showing a processing procedure for executing the algorithm of FIG.

上記のように、発明手法2では、図39に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)が、それぞれ、スカラー化、ベクトル化、スカラー化されて、観測値yp2(n)、観測遷移ベクトルm p2、観測雑音εp2(n)となっている。これにより、図42のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S3100)は、サイズがK×Kの行列、重み係数(S3200)は、サイズがK×1のベクトル、n→(n+1)の状態量の最適推定値(S3300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S3400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S3600)は、サイズがK×Kの行列となる。 As described above, in Invention Method 2, as shown in FIG. 39, the observation vector y p1 (n), the observation transition matrix M p1 , and the observation noise vector ε p1 (n) in Invention Method 1 are scalarized , respectively. Vectorized and scalarized into an observed value y p2 (n), an observed transition vector m T p2 , and an observed noise ε p2 (n). Thus, in the flowchart of FIG. 42, the correlation value (S3100) of the estimation error of n → (n + 1) is a matrix of size K 2 × K 2 , and the weighting coefficient (S3200) is a vector of size K 2 × 1 , N → (n + 1) state quantity optimum estimate (S3300) is a vector of size K 2 × 1, and (n + 1) → (n + 1) state quantity optimum estimate (S3400) is size K 2. The correlation value (S3600) of the estimation error of (x + 1) vector (n + 1) → (n + 1) is a matrix of size K 2 × K 2 .

図43は、発明手法1と発明手法2のアルゴリズムを比較した説明図である。   FIG. 43 is an explanatory diagram comparing the algorithms of Invention Method 1 and Invention Method 2. FIG.

図43に示すように、発明手法1のアルゴリズムでは、逆行列の計算が必要である(反復過程つまり更新式の手順2参照)。一般に、逆行列の計算は複雑であり、演算量が多い。これに対し、発明手法2では、上記したサイズの縮小により、発明手法1における逆行列の計算が、スカラーの逆数の計算となる(反復過程つまり更新式の手順2参照)。スカラーの逆数の計算は簡単であり、演算量は1回で済む。したがって、発明手法2は、発明手法1よりも演算量が大幅に軽減される。   As shown in FIG. 43, the algorithm of the inventive method 1 requires calculation of an inverse matrix (refer to iterative process, that is, procedure 2 of the update formula). In general, the calculation of an inverse matrix is complicated and requires a large amount of computation. On the other hand, in the invention method 2, the inverse matrix calculation in the invention method 1 is the scalar reciprocal calculation due to the above-described reduction in size (refer to the iterative process, that is, the update formula procedure 2). Calculation of the reciprocal of a scalar is simple and requires only one calculation. Therefore, the amount of calculation of Invention Method 2 is significantly reduced as compared with Invention Method 1.

図44は、発明手法2の演算量評価を説明するための図である。なお、ここで、従来手法3は、カルマンフィルタを用いた画像復元手法(例えば、非特許文献6参照)である。ただし、非特許文献6に記載された手法は、原画像に雑音が加わった劣化画像にしか対応できないため、本発明者は、非特許文献6に記載された手法をぼけと雑音に対応できるように拡張した上で、以下の各種比較(シミュレーションを含む)を行った。   FIG. 44 is a diagram for explaining the calculation amount evaluation of the inventive method 2. Here, Conventional Method 3 is an image restoration method using a Kalman filter (for example, see Non-Patent Document 6). However, since the method described in Non-Patent Document 6 can only deal with a degraded image in which noise is added to the original image, the present inventor seems to be able to cope with blur and noise in the method described in Non-Patent Document 6. The following various comparisons (including simulation) were performed.

図44において、演算量は、乗算の回数によって表される。図44の上側に、従来手法3、発明手法1、および発明手法2に対する、更新1回当たりの演算回数の比較結果を示す。これに基づき、更新1回当たりの演算量(乗算回数)を求めると、図44の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法2は、発明手法1よりも演算量が大幅に減少している。演算量の減少効果で見た場合、その大小関係は、従来手法3<発明手法1<発明手法2、となる。したがって、発明手法2は、大幅な演算量の軽減を実現している。   In FIG. 44, the calculation amount is represented by the number of multiplications. The comparison result of the number of operations per update for the conventional method 3, the inventive method 1, and the inventive method 2 is shown on the upper side of FIG. Based on this, when the calculation amount (number of multiplications) per update is obtained, a bar graph shown on the left side of the center of FIG. 44 is obtained. As is apparent from this bar graph, the calculation amount of Invention Method 2 is significantly smaller than that of Invention Method 1. When viewed in terms of the effect of reducing the amount of computation, the magnitude relationship is Conventional Method 3 <Invention Method 1 <Invention Method 2. Therefore, Invention Method 2 achieves a significant reduction in the amount of calculation.

図45は、発明手法2の復元処理速度評価を説明するための図である。   FIG. 45 is a diagram for explaining the restoration processing speed evaluation of the method 2 of the invention.

ここでは、各手法の処理速度を比較するために、図45に示すスペック表に基づいて、サイズが異なる2種類の画像の処理時間を測定した。その結果、発明手法1および発明手法2は、いずれも、従来手法3と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法2は、上記のように発明手法1よりも演算量が大幅に少ないため、発明手法1よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図45に示すように、従来手法3<発明手法1<発明手法2、となる。したがって、発明手法2は、高速な画像復元処理が可能である。   Here, in order to compare the processing speed of each method, the processing time of two types of images having different sizes was measured based on the specification table shown in FIG. As a result, both the inventive method 1 and the inventive method 2 are faster in processing speed than the conventional method 3 because the calculation amount of AR coefficient estimation (derivation) is unnecessary. In addition, since the invention method 2 has a much smaller amount of calculation than the invention method 1 as described above, the processing can be performed at a higher speed than the invention method 1. When viewed in terms of processing speed, as shown in FIG. 45, the magnitude relationship is Conventional Method 3 <Invention Method 1 <Invention Method 2. Therefore, Invention Method 2 can perform high-speed image restoration processing.

また、本発明者は、発明手法2の有効性を検証するためにシミュレーションを行った。具体的には、発明手法2の画像復元能力を評価するために、視覚評価と客観評価を行った。視覚評価は、原画像と復元画像とを視覚により比較した評価であり、客観評価は、数値による評価である。   In addition, the present inventor performed a simulation to verify the effectiveness of Invention Method 2. Specifically, visual evaluation and objective evaluation were performed in order to evaluate the image restoration ability of Invention Method 2. The visual evaluation is an evaluation in which the original image and the restored image are visually compared, and the objective evaluation is an evaluation by numerical values.

図46は、シミュレーションの条件を説明するための図である。   FIG. 46 is a diagram for explaining simulation conditions.

本シミュレーションでも、図15のシミュレーション条件と同様に、原画像として、「カメラマン(Cameraman)」と「レナ(Lenna)」を用いた(画像サイズは共に256×256)。また、原画像に加えるぼけに対応する点拡がり関数(PSF)のモデルとして、図15に示す2次元ガウス関数を用い、雑音として、加法性白色ガウス雑音を用いた。また、信号対雑音比SNRを20dBとした。   In this simulation, as in the simulation conditions of FIG. 15, “Cameraman” and “Lenna” were used as the original images (both image sizes are 256 × 256). Further, a two-dimensional Gaussian function shown in FIG. 15 was used as a model of a point spread function (PSF) corresponding to the blur added to the original image, and additive white Gaussian noise was used as noise. The signal-to-noise ratio SNR was 20 dB.

図47は、比較対象手法との対比において原画像「カメラマン」に対する発明手法2のシミュレーション結果(視覚評価)を示す図であり、図48は、図47中の破線の円の周辺領域を拡大した図である。また、図49は、比較対象手法との対比において原画像「レナ」に対する発明手法2のシミュレーション結果(視覚評価)を示す図であり、図50は、図49中の破線の円の周辺領域を拡大した図である。なお、ここで、比較対象手法は、従来手法3と発明手法1である。   47 is a diagram showing a simulation result (visual evaluation) of Invention Method 2 for the original image “cameraman” in comparison with the comparison target method. FIG. 48 is an enlarged view of the peripheral area of the broken-line circle in FIG. FIG. 49 is a diagram showing a simulation result (visual evaluation) of Invention Method 2 for the original image “Lena” in comparison with the comparison target method, and FIG. 50 shows the peripheral area of the broken-line circle in FIG. FIG. Here, the comparison target techniques are the conventional technique 3 and the invention technique 1.

図47〜図50に示すように、発明手法1および発明手法2は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。ただし、発明手法1と発明手法2を比較した場合、画像復元能力はほぼ同等のレベルであるといえる。   As shown in FIGS. 47 to 50, it can be seen that Invention Method 1 and Invention Method 2 clearly restores the original image as compared with Conventional Method 3. However, when the inventive method 1 and the inventive method 2 are compared, it can be said that the image restoration capability is almost the same level.

図51は、比較対象手法との対比において原画像に対する発明手法2のシミュレーション結果(客観評価)を示す図である。   FIG. 51 is a diagram showing a simulation result (objective evaluation) of Invention Method 2 for the original image in comparison with the comparison target method.

ここでは、従来手法3、発明手法1、および発明手法2の画像復元能力を数値により評価するため、図51に示すPSNR(Peak Signal-to-Noise Ratio)(式(11)参照)を用いて画像復元能力を評価した。なお、PSNRは、画像の似かより度を示す値であり、値が大きいほど劣化(ぼけや雑音など)が少なく画像として良好であるといえる。   Here, PSNR (Peak Signal-to-Noise Ratio) (see Expression (11)) shown in FIG. 51 is used to evaluate the image restoration capability of Conventional Method 3, Invention Method 1, and Invention Method 2 by numerical values. Image restoration ability was evaluated. The PSNR is a value indicating the degree of similarity to the image, and it can be said that the larger the value, the less the deterioration (blur, noise, etc.) and the better the image.

この場合、図51に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法1および発明手法2は、従来手法3よりもPSNRの数値が大きいことが確認できる。これにより、発明手法1および発明手法2は、客観評価の点でも、従来手法3に比べて画像復元能力が高いことがわかる。一方、発明手法1と発明手法2を比較した場合には、発明手法1よりも発明手法2のほうが若干高い客観評価(数値による評価)となっている。これにより、客観評価の大小(良否)関係は、図51に示すように、従来手法3<発明手法1<発明手法2、となる。ただし、この若干の差異は、図47〜図50の比較からわかるように、ほぼないに等しい。   In this case, as shown in FIG. 51, it can be confirmed that the invention method 1 and the invention method 2 have larger PSNR values than the conventional method 3 for both the “cameraman” and “Lena” images. Thus, it can be seen that Invention Method 1 and Invention Method 2 have a higher image restoration capability than Object Method 3 also in terms of objective evaluation. On the other hand, when the inventive method 1 and the inventive method 2 are compared, the inventive method 2 has a slightly higher objective evaluation (evaluation by numerical values) than the inventive method 1. As a result, as shown in FIG. 51, the objective evaluation magnitude (quality / non-defective) relationship becomes Conventional Method 3 <Invention Method 1 <Invention Method 2. However, this slight difference is almost non-existent, as can be seen from the comparison of FIGS.

以上より、発明手法2は、発明手法1に対して、画像復元能力をほぼ維持しながら、演算量を大幅に軽減して高速な画像復元処理を実現していることがわかる。   From the above, it can be seen that Invention Method 2 achieves high-speed image restoration processing by substantially reducing the amount of computation while substantially maintaining the image restoration capability compared to Invention Method 1.

<発明手法3>
図52は、発明手法2の課題を視覚的に説明するための図である。
<Invention technique 3>
FIG. 52 is a diagram for visually explaining the problem of the inventive method 2.

発明手法2は、上記のように、発明手法1に対して、演算量を大幅に軽減して高速な画像復元処理を実現することができるものの、画像復元能力が若干低下している。これは、図52に示すように、発明手法2の観測方程式において、有色性駆動源の影響が大きい領域が含まれていないためであると考えられる。そこで、発明手法3では、注目画素領域のみでなく有色駆動源をも考慮した状態空間モデルを再構成する。すなわち、発明手法3では、有色性駆動源の影響を最大限に与えるように状態空間モデルを再構成する。   As described above, the invention method 2 can realize a high-speed image restoration process by significantly reducing the amount of calculation compared to the invention method 1, but the image restoration ability is slightly lowered. As shown in FIG. 52, this is considered to be because the observation equation of Invention Method 2 does not include a region where the influence of the colored drive source is large. Therefore, in Invention Method 3, a state space model is reconstructed in consideration of not only the target pixel region but also the colored drive source. That is, in Invention Method 3, the state space model is reconfigured so as to maximize the influence of the colored drive source.

図53は、発明手法3の観測方程式の構成を視覚的に示す説明図であり、図54は、発明手法3の状態空間モデルを視覚的に説明するための図である。なお、発明手法3の状態方程式は、発明手法2(ひいては発明手法1)の状態方程式と全く同じであるため、その説明を省略する。   FIG. 53 is an explanatory diagram visually showing the configuration of the observation equation of the inventive method 3, and FIG. 54 is a diagram for visually explaining the state space model of the inventive method 3. The state equation of the invention method 3 is exactly the same as the state equation of the invention method 2 (and thus the invention method 1), and thus the description thereof is omitted.

発明手法3では、図53に示すように、発明手法1の観測方程式において、注目画素領域の要素(例えば、画素情報y(n))に加えて、有色性駆動源の影響を受ける領域の要素(例えば、画素情報y(n)、y(n)、y(n))をも抽出して観測方程式を再構成する。すなわち、発明手法3では、有色性駆動源の影響を考慮するために、発明手法2と比較して、画素情報y(n)、y(n)、y(n)をも取り入れる。これにより、発明手法3では、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、および観測雑音ベクトルεp1(n)は、サイズがそれぞれ縮小されて、観測ベクトルyp3(n)、観測遷移行列Mp3、観測雑音ベクトルεp3(n)となる。このように、発明手法3では、図54に示すように、状態方程式における有色性駆動源の影響を最大限に考慮するべく、注目画素領域と有色性駆動源の影響を受ける領域とから観測方程式を再構成する。これにより、発明手法3は、発明手法2の場合よりもサイズの縮小は小さいものの、発明手法1に対してサイズが縮小されるため、演算量は大幅に軽減される。 In Invention Method 3, as shown in FIG. 53, in the observation equation of Invention Method 1, in addition to the element of the pixel region of interest (for example, pixel information y 5 (n)), the region affected by the chromatic drive source Elements (eg, pixel information y 7 (n), y 8 (n), y 9 (n)) are also extracted to reconstruct the observation equation. That is, the invention method 3 incorporates pixel information y 7 (n), y 8 (n), and y 9 (n) as compared with the invention method 2 in order to consider the influence of the colored drive source. Thus, in Invention Method 3, the observation vector y p1 (n), the observation transition matrix M p1 , and the observation noise vector ε p1 (n) in Invention Method 1 are reduced in size, and the observation vector y p3 (n ), Observation transition matrix M p3 , and observation noise vector ε p3 (n). In this way, in Invention Method 3, as shown in FIG. 54, in order to consider the influence of the chromaticity driving source in the state equation to the maximum, the observation equation is calculated from the target pixel area and the area affected by the chromaticity driving source. Reconfigure. Thus, although the size of the invention method 3 is smaller than that of the method 2 of the invention, the size is reduced compared to the method 1 of the invention, so that the calculation amount is greatly reduced.

図55は、発明手法3の状態方程式と観測方程式をまとめて示す説明図であり、図56は、発明手法3のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。 FIG. 55 is an explanatory diagram collectively showing the state equation and the observation equation of Invention Method 3, and FIG. 56 is a diagram for explaining the algorithm of Invention Method 3. As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. The capital letter “C (γ × ζ) ” of the alphabet represents a matrix of size γ × ζ.

図55に示す状態方程式および観測方程式、ならびに図56に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。また、Lは、注目画素領域と有色性駆動源を含む領域とを合わせた領域に含まれる画素数であり、L=1+mで表される(L<K)。発明手法3のアルゴリズムは、図56に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法2の場合(図41参照)よりも演算量が若干増加するものの、発明手法1の場合(図34参照)よりも演算量が軽減されるよう、図55に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。 State equation and an observation equation shown in FIG. 55, as well as in the algorithm shown in FIG. 56, K 3 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region If the length of the axis and the horizontal axis is represented by K 3 = m × n. L 3 is the number of pixels included in the region including the target pixel region and the region including the colored drive source, and is represented by L 3 = 1 + m (L 3 <K 3 ). As shown in FIG. 56, the algorithm of the invention technique 3 is roughly divided into an initialization process and an iteration process, and the iteration process is more than that of the invention technique 2 (see FIG. 41). Although the calculation amount is slightly increased, the calculation amount is reduced as compared with the case of Invention Method 1 (see FIG. 34), so that the calculation amount is reduced based on the new state space model (state equation and observation equation) shown in FIG. . In the iteration process, steps 1 to 6 are repeated sequentially.

図57は、図56のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 57 is a flowchart showing a processing procedure for executing the algorithm of FIG.

上記のように、発明手法3では、図53に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)は、サイズがそれぞれ縮小されて(つまり、L<K)、観測ベクトルyp3(n)、観測遷移行列Mp3、観測雑音ベクトルεp3(n)となっている。これにより、図57のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S4100)は、サイズがK×Kの行列、重み係数(S4200)は、サイズがK×Lの行列、n→(n+1)の状態量の最適推定値(S4300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S4400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S4600)は、サイズがK×Kの行列となる。 As described above, in Invention Method 3, as shown in FIG. 53, the size of observation vector y p1 (n), observation transition matrix M p1 , and observation noise vector ε p1 (n) in Invention Method 1 is reduced. (That is, L 3 <K 3 ), observation vector y p3 (n), observation transition matrix M p3 , and observation noise vector ε p3 (n). Accordingly, in the flowchart of FIG. 57, the correlation value (S4100) of the estimation error of n → (n + 1) is a matrix of size K 3 × K 3 , and the weight coefficient (S4200) is of size K 3 × L 3 . The optimal estimate (S4300) of the state quantity of the matrix n → (n + 1) is a vector of size K 3 × 1, and the optimal estimate (S4400) of the quantity of state (n + 1) → (n + 1) is size K The correlation value (S4600) of the estimation error of 3 × 1 vector, (n + 1) → (n + 1) is a matrix of size K 3 × K 3 .

図58は、発明手法3の演算量評価を説明するための図である。   FIG. 58 is a diagram for explaining the calculation amount evaluation of the inventive method 3.

図58の上側に、発明手法3に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、更新1回当たりの演算量(乗算回数)を求め、得られた結果を図44に示す棒グラフに加えると、図58の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法3は、発明手法1よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法3<発明手法1<発明手法3<発明手法2、となる。したがって、発明手法3は、良好な演算量軽減を実現している。   The upper side of FIG. 58 shows the number of operations (number of multiplications) per update for Invention Method 3. Based on this, the amount of calculation per update (the number of multiplications) is obtained, and when the obtained result is added to the bar graph shown in FIG. 44, the bar graph shown in the center left side of FIG. 58 is obtained. As is apparent from this bar graph, Invention Method 3 has a significantly smaller amount of computation than Invention Method 1. When viewed in terms of the effect of reducing the amount of calculation, the magnitude relationship is the conventional method 3 <invention method 1 <invention method 3 <invention method 2. Therefore, Invention Method 3 realizes a good reduction in the calculation amount.

図59は、発明手法3の復元処理速度評価を説明するための図である。   FIG. 59 is a diagram for explaining the restoration processing speed evaluation of Invention Method 3.

ここでは、図45の結果に、発明手法3の測定結果を追加した。その結果、発明手法3も、従来手法3と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法3は、上記のように発明手法1よりも演算量が大幅に少ないため、発明手法1よりも高速な処理が可能となっている。発明手法3は、発明手法2よりも処理速度が若干遅い程度である。処理速度で見た場合、その大小関係は、図59に示すように、従来手法3<発明手法1<発明手法3<発明手法2、となる。したがって、発明手法3も、高速な画像復元処理が可能である。   Here, the measurement result of the inventive method 3 is added to the result of FIG. As a result, the inventive method 3 also has a higher processing speed than the conventional method 3 because it does not require the amount of calculation for AR coefficient estimation (derivation). In addition, since the method 3 of the invention has a much smaller calculation amount than the method 1 of the invention as described above, the processing can be performed at a higher speed than the method 1 of the invention. Invention method 3 is slightly slower than Invention method 2 in processing speed. When viewed in terms of processing speed, as shown in FIG. 59, the magnitude relationship is Conventional Method 3 <Invention Method 1 <Invention Method 3 <Invention Method 2. Therefore, the invention method 3 can also perform high-speed image restoration processing.

図60は、比較対象手法との対比において原画像「カメラマン」に対する発明手法3のシミュレーション結果(視覚評価)を示す図であり、図61は、図60中の破線の円の周辺領域を拡大した図である。また、図62は、比較対象手法との対比において原画像「レナ」に対する発明手法3のシミュレーション結果(視覚評価)を示す図であり、図63は、図62中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。   FIG. 60 is a diagram showing a simulation result (visual evaluation) of Invention Method 3 for the original image “cameraman” in comparison with the comparison target method, and FIG. 61 is an enlarged view of the peripheral area of the broken-line circle in FIG. FIG. 62 is a diagram showing a simulation result (visual evaluation) of Invention Method 3 for the original image “Lena” in comparison with the comparison target method, and FIG. 63 shows a peripheral region of a broken-line circle in FIG. FIG. The simulation conditions are as shown in FIG. The comparison target methods here are the conventional method 3 and the invention method 1.

図60〜図63に示すように、発明手法3は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法3のほうが高いことがわかる。   As shown in FIGS. 60 to 63, it can be seen that Invention Method 3 clearly restores the original image faithfully compared to Conventional Method 3. Moreover, it can be seen that the image restoration capability of the invention method 3 is higher than that of the method 1 of the invention.

図64は、比較対象手法との対比において原画像に対する発明手法3のシミュレーション結果(客観評価)を示す図である。   FIG. 64 is a diagram showing a simulation result (objective evaluation) of Invention Method 3 for the original image in comparison with the comparison target method.

この場合、図64に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法3は、他のどの手法(従来手法3はもとより発明手法1および発明手法2)よりもPSNRの数値が大きいことが確認できる。これにより、発明手法3は、客観評価の点でも、他の手法(従来手法3、発明手法1、発明手法2)に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図64に示すように、従来手法3<発明手法1<発明手法2<発明手法3、となる。   In this case, as shown in FIG. 64, the invention method 3 has a PSNR higher than that of any other method (the conventional method 3 and the invention method 1 and the invention method 2) for both “cameraman” and “Lena” images. It can be confirmed that the numerical value is large. Thus, it can be seen that Invention Method 3 has higher image restoration capability than other methods (Conventional Method 3, Invention Method 1, Invention Method 2) in terms of objective evaluation. As a result, as shown in FIG. 64, the magnitude relationship of the objective evaluation (evaluation by numerical values) is as follows: Conventional method 3 <Invention method 1 <Invention method 2 <Invention method 3.

以上より、発明手法3は、発明手法2よりも演算量を若干増加させつつも、発明手法1および発明手法2よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。   As described above, Invention Method 3 realizes high-speed image restoration processing that can exhibit better image restoration ability than Invention Method 1 and Invention Method 2 while slightly increasing the amount of calculation compared to Invention Method 2. You can see that

<発明手法4>
図65は、1次元の画像復元手法の特徴を説明するための図である。
<Invention Method 4>
FIG. 65 is a diagram for explaining the characteristics of the one-dimensional image restoration technique.

発明手法1〜3は、1次元の画像復元手法である。1次元の画像復元手法である発明手法1〜3では、図65に示すように、周辺画素領域を用いて注目画素領域(1画素のみ)を復元する。このとき、画像復元手法は、用途や状況などに応じて適用可能である。例えば、上記のように、発明手法2は、発明手法1に比べて、高速(低演算量)な画像復元手法であり、発明手法3は、発明手法2よりも演算量は若干多いが、発明手法1および発明手法2よりも画像復元能力を向上させた手法であるため、処理速度を優先したい場合には発明手法2を適用し、画質を優先したい場合には発明手法3を適用する、という使い方が可能である。   Invention methods 1 to 3 are one-dimensional image restoration methods. In Invention Methods 1 to 3, which are one-dimensional image restoration methods, as shown in FIG. 65, the target pixel region (only one pixel) is restored using the peripheral pixel region. At this time, the image restoration method can be applied according to the use or situation. For example, as described above, Invention Method 2 is a faster (low calculation amount) image restoration method than Invention Method 1, and Invention Method 3 has a slightly larger calculation amount than Invention Method 2, but the invention Since this method improves the image restoration capability over Method 1 and Invention Method 2, Invention Method 2 is applied when priority is given to processing speed, and Invention Method 3 is applied when priority is given to image quality. It can be used.

図66は、2次元の画像復元手法の特徴を説明するための図である。   FIG. 66 is a diagram for explaining the characteristics of the two-dimensional image restoration method.

発明手法4では、1次元の発明手法1を2次元に拡張した2次元の画像復元手法を提案する。発明手法4では、発明手法1の場合よりも注目画素領域を大きくとることにより、更新回数を軽減して処理効率のよい復元が可能となる。そのため、発明手法4では、発明手法1における画素領域(1画素のみ)を、縦と横の任意の長さをp、qとした画素領域に拡張する(以下「画素領域の2次元化」ともいう)。1つの画素領域がp=q=2、かつ、処理対象ブロック(注目画素領域と周辺画素領域とからなる)が3pq×3pqの場合の例を、図66に示す。画素領域の2次元化に当たり、画素領域のサイズおよび処理対象ブロックのサイズは、それぞれ、自由に選択可能である。画素領域の2次元化により、注目画素領域の画素数が多くなるため、処理の効率化が図られる。また、p=q=1の場合、注目画素領域は1次元の画像復元手法(発明手法1〜3)と等しくなるため、2次元の画像復元手法である発明手法4は、柔軟性のある手法といえる。なお、上記のように、1次元カルマンフィルタを2次元に拡張した2次元カルマンフィルタも知られているが、2次元カルマンフィルタも、1次元カルマンフィルタと同様に、AR係数を用いるため、AR係数の推定精度に起因する画像復元能力の低下は避けられない。これを解決するためには、AR係数を必要としない新しい予測法を発案して、2次元カルマンフィルタの状態空間モデルを再構成すればよい。発明手法4は、まさに、このための新しい手法であり、発明手法1を2次元に拡張した新しい予測法に基づく画像復元手法である。以下、発明手法4について、より詳細に説明する。   The invention method 4 proposes a two-dimensional image restoration method obtained by extending the one-dimensional invention method 1 to two dimensions. In Invention Method 4, by taking a pixel area of interest larger than that in Invention Method 1, it is possible to reduce the number of updates and restore the processing efficiency. Therefore, in Invention Method 4, the pixel region (only one pixel) in Invention Method 1 is expanded to a pixel region having arbitrary vertical and horizontal lengths p and q (hereinafter referred to as “two-dimensional pixel region”). Say). FIG. 66 shows an example where one pixel area is p = q = 2 and the processing target block (consisting of the target pixel area and the peripheral pixel area) is 3pq × 3pq. When the pixel area is two-dimensionalized, the size of the pixel area and the size of the processing target block can be freely selected. By making the pixel area two-dimensional, the number of pixels in the target pixel area increases, so that the processing efficiency can be improved. In addition, when p = q = 1, the target pixel region is equal to the one-dimensional image restoration method (Invention methods 1 to 3), so the invention method 4 which is a two-dimensional image restoration method is a flexible method. It can be said. As described above, a two-dimensional Kalman filter obtained by extending a one-dimensional Kalman filter to two dimensions is also known. However, since the two-dimensional Kalman filter uses an AR coefficient as in the one-dimensional Kalman filter, the estimation accuracy of the AR coefficient is improved. The resulting reduction in image restoration capability is inevitable. In order to solve this, a new prediction method that does not require an AR coefficient may be devised and a state space model of a two-dimensional Kalman filter may be reconstructed. Invention method 4 is exactly a new method for this purpose, and is an image restoration method based on a new prediction method obtained by extending invention method 1 to two dimensions. Hereinafter, Invention Method 4 will be described in more detail.

図67は、発明手法4の状態空間モデルを視覚的に説明するための図である。また、図68は、発明手法4の状態過程を視覚的に説明するための図であり、図69は、発明手法4の状態方程式の構成を視覚的に示す説明図である。   FIG. 67 is a diagram for visually explaining the state space model of Invention Method 4. FIG. 68 is a diagram for visually explaining the state process of the inventive method 4, and FIG. 69 is an explanatory diagram visually showing the configuration of the state equation of the inventive method 4.

状態過程について、発明手法4では、図68に示すように、画素領域として、サイズがp×qの領域を指定し、指定した画素領域に含まれる画素情報を並べてpq×1次の画素領域ベクトルを生成する。例えば、図68に示すように、p=q=2、かつ、3pq×3pqの領域の場合を例にとると、一番左上の画素領域ベクトルx(n)は、4個の画素情報x(n)、x(n)、x(n)、x(n)を要素とする4×1次のベクトルであり、一番右下の画素領域ベクトルx(n)は、4個の画素情報x33(n)、x34(n)、x35(n)、x36(n)を要素とする4×1次のベクトルである。そして、9個の画素領域に対応する画素領域ベクトルx(n)(k=1、2、…、9)を並べて状態ベクトルx(n)を表現する。すなわち、発明手法4では、図69に示すように、画素領域を、発明手法1における画素情報と対応付けて、同様の処理を行う。 With respect to the state process, as shown in FIG. 68, the invention method 4 designates an area having a size of p × q as a pixel area, and arranges pixel information included in the designated pixel area to form a pq × first order pixel area vector. Is generated. For example, as shown in FIG. 68, in the case of an area of p = q = 2 and 3pq × 3pq, the pixel area vector x 1 (n) at the upper left is four pieces of pixel information x 1 (n), x 2 (n), x 3 (n), x 4 (n) vector elements, and the lower right pixel region vector x 9 (n) is This is a 4 × first-order vector having four pieces of pixel information x 33 (n), x 34 (n), x 35 (n), and x 36 (n) as elements. Then, the state vector x (n) is expressed by arranging pixel region vectors x k (n) (k = 1, 2,..., 9) corresponding to the nine pixel regions. That is, in Invention Method 4, as shown in FIG. 69, the pixel region is associated with the pixel information in Invention Method 1 and the same processing is performed.

図70は、発明手法4の観測過程を視覚的に説明するための図であり、図71は、発明手法4の観測方程式の構成を視覚的に示す説明図である。   FIG. 70 is a diagram for visually explaining the observation process of the inventive method 4, and FIG. 71 is an explanatory diagram visually showing the configuration of the observation equation of the inventive method 4.

観測過程についても、発明手法4では、図70に示すように、画素領域として、サイズがp×qの領域を指定し、指定した画素領域に含まれる画素情報を並べてpq×1次の画素領域ベクトルを生成する。例えば、図70に示すように、p=q=2、かつ、3pq×3pqの領域の場合を例にとると、一番左上の画素領域ベクトルy(n)は、4個の画素情報y(n)、y(n)、y(n)、y(n)を要素とする4×1次のベクトルであり、一番右下の画素領域ベクトルy(n)は、4個の画素情報y33(n)、y34(n)、y35(n)、y36(n)を要素とする4×1次のベクトルである。そして、9個の画素領域に対応する画素領域ベクトルy(n)(k=1、2、…、9)を並べて観測ベクトルy(n)を表現する。すなわち、発明手法4では、図71に示すように、画素領域を、発明手法1における画素情報と対応付けて、同様の処理を行う。 As for the observation process, in Invention Method 4, as shown in FIG. 70, an area having a size of p × q is designated as a pixel area, and pixel information included in the designated pixel area is arranged to form a pq × primary pixel area. Generate a vector. For example, as shown in FIG. 70, in the case of a region of p = q = 2 and 3pq × 3pq, the pixel region vector y 1 (n) at the upper left is the four pixel information y 1 (n), y 2 (n), y 3 (n), y 4 (n) is a 4 × 1 order vector, and the pixel area vector y 9 (n) at the bottom right is This is a 4 × first-order vector having four pieces of pixel information y 33 (n), y 34 (n), y 35 (n), and y 36 (n) as elements. Then, the pixel region vectors y k (n) (k = 1, 2,..., 9) corresponding to the nine pixel regions are arranged to express the observation vector y (n). That is, in Invention Method 4, as shown in FIG. 71, the pixel region is associated with the pixel information in Invention Method 1 and the same processing is performed.

図72は、発明手法4の観測遷移行列の、p=q=2、かつ、3pq×3pqの領域の場合の具体例を示す図であり、図73は、図72の観測遷移行列の構成を視覚的に示す説明図である。また、図74は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す図、図75は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す他の図、図76は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示すさらに他の図である。   72 is a diagram showing a specific example of the observed transition matrix of the invention method 4 in the case of the region of p = q = 2 and 3pq × 3pq, and FIG. 73 shows the configuration of the observed transition matrix of FIG. It is explanatory drawing shown visually. FIG. 74 is a diagram showing a specific example of the coefficient assignment method constituting the observation transition matrix of FIG. 72, and FIG. 75 is another example of the coefficient assignment method constituting the observation transition matrix of FIG. 76 and 76 are still other diagrams showing a specific example of a method of assigning coefficients constituting the observation transition matrix of FIG.

ここでは、発明手法4の観測遷移行列を構成する3×3(=9)個の係数hr,s(座標r,s=−1,0,1)は、発明手法1の場合と同じであり、画素情報を単位として見たときに、発明手法1の場合と同様の関係が成り立つように、割り当てられている。係数hr,s(r,s=−1,0,1)の具体的な割り当て方法は、画素情報を単位としたときの観測量yの位置に応じて、図74〜図76にそれぞれ示す通りである。 Here, 3 × 3 (= 9) coefficients h r, s (coordinates r, s = −1, 0, 1) constituting the observation transition matrix of the inventive method 4 are the same as those of the inventive method 1. Yes, the pixel information is assigned so that the same relationship as in the case of Invention Method 1 is established when viewed in units of pixels. Specific allocation methods for the coefficients h r, s (r, s = −1, 0, 1) are shown in FIGS. 74 to 76 in accordance with the position of the observation amount y i when the pixel information is used as a unit. As shown.

図77は、発明手法4の状態方程式と観測方程式をまとめて示す説明図であり、図78は、発明手法4のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。 FIG. 77 is an explanatory diagram collectively showing the state equation and the observation equation of Invention Method 4, and FIG. 78 is a diagram for explaining the algorithm of Invention Method 4. As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. ing.

図77に示す状態方程式および観測方程式、ならびに図78に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。ここで、m、nは、それぞれ、m=l×p、n=l×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、l、lは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。 In the state equation and the observation equation shown in FIG. 77 and the algorithm shown in FIG. 78, K 4 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, it is represented by K 4 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number.

図79は、図78のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 79 is a flowchart showing a processing procedure for executing the algorithm of FIG.

ここでは、図78のアルゴリズムの表記に対応して、行列とベクトルのサイズをそれぞれ明記している。具体的には、n→(n+1)の推定誤差の相関値(行列)(S5100)は、サイズがK×Kの行列、重み係数(行列)(S5200)は、サイズがK×Kの行列、n→(n+1)の状態量の最適推定値(ベクトル)(S5300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(ベクトル)(S5400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(行列)(S5600)は、サイズがK×Kの行列となる。 Here, the sizes of the matrix and the vector are specified in correspondence with the notation of the algorithm of FIG. Specifically, the correlation value (matrix) (S5100) of the estimation error of n → (n + 1) is a matrix having a size of K 4 × K 4 , and the weight coefficient (matrix) (S 5200) is a size of K 4 × K. 4 matrix, optimal estimation value (vector) (S5300) of state quantity of n → (n + 1) is a vector of size K 4 × 1, optimal estimation value (vector) of state quantity of (n + 1) → (n + 1) (S5400), the size vector of K 4 × 1, (n + 1) → (n + 1) correlation value of the estimated error of (matrix) (S5600), the size of the matrix K 4 × K 4.

図80は、発明手法4の演算量評価を説明するための図である。なお、ここで、従来手法4は、2次元カルマンフィルタを用いた画像復元手法(例えば、非特許文献8参照)である。ただし、非特許文献8に記載された手法は、原画像に雑音が加わった劣化画像にしか対応できないため、本発明者は、非特許文献8に記載された手法をぼけと雑音に対応できるように拡張した上で、以下の各種比較(シミュレーションを含む)を行った。   FIG. 80 is a diagram for explaining the calculation amount evaluation of Invention Method 4. Here, the conventional method 4 is an image restoration method using a two-dimensional Kalman filter (for example, see Non-Patent Document 8). However, since the method described in Non-Patent Document 8 can only deal with a degraded image in which noise is added to the original image, the present inventor seems to be able to cope with blur and noise in the method described in Non-Patent Document 8. The following various comparisons (including simulation) were performed.

図80の上側に、従来手法4および発明手法4に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)を求め、得られた結果を発明手法1に対する結果と一緒に示すと、図80の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法4は、従来手法4よりも演算量は少ないが、発明手法1よりも演算量は多い。しかし、発明手法4は、発明手法1に比べて、注目画素領域が広いため、更新回数は少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1、となる。したがって、発明手法4は、注目画素領域と周辺画素領域のサイズをそれぞれ変化させることにより、効率のよい画像復元が可能である。   On the upper side of FIG. 80, the number of operations (number of multiplications) per update for Conventional Method 4 and Invention Method 4 is shown. Based on this, the amount of calculation (number of multiplications) required to restore one image of 256 × 256 size is obtained, and the obtained result is shown together with the result for the inventive method 1, the left side of the center of FIG. The bar graph shown in FIG. As is apparent from this bar graph, the inventive method 4 has a smaller amount of calculation than the conventional method 4, but has a larger amount of calculation than the inventive method 1. However, Invention Method 4 has a smaller number of updates since the pixel area of interest is wider than Invention Method 1. When viewed in terms of the effect of reducing the amount of calculation, the magnitude relationship is Conventional Method 4 <Invention Method 4 <Invention Method 1. Therefore, Invention Method 4 can efficiently restore an image by changing the sizes of the target pixel region and the peripheral pixel region, respectively.

図81は、発明手法4の復元処理速度評価を説明するための図である。   FIG. 81 is a diagram for explaining the restoration processing speed evaluation of Invention Method 4.

ここでは、発明手法1の測定結果に、従来手法4と発明手法4の測定結果を追加した。その結果、発明手法4は、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法4は、上記のように発明手法1よりも演算量は多いものの更新回数は少ないため、発明手法1よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図81に示すように、従来手法4<発明手法1<発明手法4、となる。したがって、発明手法4は、高速な画像復元処理が可能である。   Here, the measurement results of Conventional Method 4 and Invention Method 4 are added to the measurement results of Invention Method 1. As a result, the inventive method 4 is faster in processing speed than the conventional method 4 because it does not require the amount of calculation for AR coefficient estimation (derivation). In addition, the invention method 4 has a larger amount of calculation than the invention method 1 as described above, but the number of updates is small, so that the processing can be performed at a higher speed than the method 1 of the invention. When viewed in terms of processing speed, as shown in FIG. 81, the magnitude relationship is Conventional Method 4 <Invention Method 1 <Invention Method 4. Therefore, Invention Method 4 can perform high-speed image restoration processing.

図82は、比較対象手法との対比において原画像「カメラマン」に対する発明手法4のシミュレーション結果(視覚評価)を示す図であり、図83は、図82中の破線の円の周辺領域を拡大した図である。また、図84は、比較対象手法との対比において原画像「レナ」に対する発明手法4のシミュレーション結果(視覚評価)を示す図であり、図85は、図84中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。   82 is a diagram showing a simulation result (visual evaluation) of Invention Method 4 for the original image “cameraman” in comparison with the comparison target method, and FIG. 83 is an enlarged view of the peripheral area of the broken-line circle in FIG. FIG. 84 is a diagram showing a simulation result (visual evaluation) of Invention Method 4 for the original image “Lena” in comparison with the comparison target method, and FIG. 85 shows the peripheral area of the broken-line circle in FIG. FIG. The simulation conditions are as shown in FIG. The comparison target methods here are the conventional method 3 and the invention method 1.

図82〜図85に示すように、発明手法4は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法4のほうが高いことがわかる。   As shown in FIGS. 82 to 85, it can be seen that Invention Method 4 clearly restores the original image faithfully compared to Conventional Method 3. Moreover, it can be seen that the image restoration capability of the invention method 4 is higher than that of the invention method 1.

図86は、比較対象手法との対比において原画像に対する発明手法4のシミュレーション結果(客観評価)を示す図である。   FIG. 86 is a diagram showing a simulation result (objective evaluation) of Invention Method 4 for the original image in comparison with the comparison target method.

この場合、図86に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法4は、発明手法3よりもPSNRの数値はやや小さいものの、従来手法3はもとより発明手法1および発明手法2よりもPSNRの数値が大きいことが確認できる。これにより、発明手法4は、客観評価の点でも、従来手法3、発明手法1、および発明手法2に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図86に示すように、従来手法3<発明手法1<発明手法2<発明手法4<発明手法3、となる。   In this case, as shown in FIG. 86, for both the “cameraman” and “Lena” images, the invention method 4 has a slightly smaller PSNR value than the invention method 3, but the conventional method 3 and the invention method 1 and It can be confirmed that the value of PSNR is larger than that of Invention Method 2. Thus, it can be seen that Invention Method 4 has higher image restoration capability than Objective Method 3, Invention Method 1, and Invention Method 2 in terms of objective evaluation. As a result, as shown in FIG. 86, the magnitude relationship of the objective evaluation (evaluation by numerical values) is as follows: Conventional method 3 <Invention method 1 <Invention method 2 <Invention method 4 <Invention method 3.

以上より、発明手法4は、発明手法1よりも演算量は多いものの、発明手法1および発明手法2よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。   As described above, the invention method 4 realizes a high-speed image restoration process capable of demonstrating better image restoration ability than the invention method 1 and the invention method 2 although the calculation amount is larger than that of the invention method 1. I understand that.

<発明手法5>
図87は、発明手法4の課題を視覚的に説明するための図である。
<Invention Method 5>
FIG. 87 is a diagram for visually explaining the problem of the invention technique 4.

発明手法4では、図87に示すように、時刻nの変化は、画素領域(処理対象ブロック)の遷移を用いて表される。時刻n+1では、例えば、過去の1時刻前の9(=3×3)個の画素領域にそれぞれ含まれる各状態量(原画像の画素情報)を用いて、現在の処理対象ブロックの9(=3×3)個の画素領域にそれぞれ含まれる各状態量(原画像の画素情報)を推定することにより、注目画素領域の状態量x29、x30、x31、x32を復元する。このように、発明手法4では、1つの注目画素領域に含まれる各状態量(要素)を復元するために、処理対象ブロック内の状態量(要素)をすべて推定している。しかし、そもそも、1つの注目画素領域内の要素を復元するためには、その注目画素領域内の要素のみを求めればよく、他の要素の推定は不要である。そこで、発明手法5では、注目画素領域のみを考慮した状態空間モデルを再構成する。具体的には、発明手法5では、発明手法4の観測方程式を再構成して注目画素領域に含まれる要素のみを抽出するようにしている。これにより、発明手法5では、発明手法4に対して大幅な演算量の軽減を可能にして、高速(低演算量)な劣化画像復元を実現している。なお、発明手法5は、発明手法2を2次元に拡張したものともいえる。 In Invention Method 4, as shown in FIG. 87, the change at time n is expressed using the transition of the pixel region (processing target block). At time n + 1, for example, using the state quantities (pixel information of the original image) included in the 9 (= 3 × 3) pixel areas one time before the past, 9 (= The state quantities x 29 , x 30 , x 31 , and x 32 of the target pixel area are restored by estimating the respective state quantities (original image pixel information) included in the 3 × 3) pixel areas. As described above, the invention method 4 estimates all the state quantities (elements) in the processing target block in order to restore each state quantity (element) included in one target pixel region. However, in the first place, in order to restore an element in one target pixel area, only the element in the target pixel area needs to be obtained, and estimation of other elements is unnecessary. Therefore, in Invention Method 5, a state space model that considers only the pixel region of interest is reconstructed. Specifically, in Invention Method 5, the observation equation of Invention Method 4 is reconfigured to extract only elements included in the target pixel region. As a result, the invention method 5 makes it possible to significantly reduce the amount of calculation compared to the invention method 4, and realizes high-speed (low calculation amount) degraded image restoration. It can be said that Invention Method 5 is an extension of Invention Method 2 to two dimensions.

図88は、発明手法5の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法4の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図である。なお、図88に示すように、発明手法5の状態方程式は、発明手法4の状態方程式と全く同じであるため、その説明を省略する。   FIG. 88 is an explanatory diagram visually showing the configuration of the state equation of Invention Method 5, in particular, (A) is a diagram showing a specific example of the state equation of Invention Method 4, and (B) is a change in time. It is a figure which shows the change of the process target block accompanying with. As shown in FIG. 88, the state equation of Invention Method 5 is exactly the same as the state equation of Invention Method 4, and therefore the description thereof is omitted.

図89は、発明手法5の観測方程式の構成を視覚的に示す説明図であり、図90は、発明手法5の観測方程式の構成を視覚的に示す他の説明図である。   FIG. 89 is an explanatory diagram visually showing the configuration of the observation equation of the inventive technique 5, and FIG. 90 is another explanatory diagram visually showing the configuration of the observation equation of the inventive technique 5.

発明手法5では、図89に示すように、発明手法4の観測方程式において注目画素領域に含まれる要素(例えば、画素領域ベクトルy(n))のみを抽出して観測方程式を再構成する。これにより、発明手法5では、図90に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、それぞれ、サイズが縮小されて、観測ベクトルyp5(n)、観測遷移行列Mp5、観測雑音ベクトルεp5(n)となる。この結果、発明手法5は、発明手法4に対して、サイズが縮小されるため、演算量が大幅に軽減される。なお、演算量の軽減効果については、後で詳述する。 In Invention Method 5, as shown in FIG. 89, only the elements (for example, pixel region vector y 5 (n)) included in the pixel region of interest in the observation equation of Invention Method 4 are extracted to reconstruct the observation equation. Thereby, in Invention Method 5, as shown in FIG. 90, the observation vector y p4 (n), the observation transition matrix M p4 and the observation noise vector ε p4 (n) in Invention Method 4 are reduced in size, respectively. , Observation vector y p5 (n), observation transition matrix M p5 , observation noise vector ε p5 (n). As a result, since the size of the invention method 5 is reduced as compared with the invention method 4, the calculation amount is greatly reduced. The calculation amount reduction effect will be described in detail later.

図91は、発明手法5の状態方程式と観測方程式をまとめて示す説明図であり、図92は、発明手法5のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。 FIG. 91 is an explanatory diagram collectively showing the state equation and the observation equation of Invention Method 5, and FIG. 92 is a diagram for explaining the algorithm of Invention Method 5. As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. The capital letter “C (γ × ζ) ” of the alphabet represents a matrix of size γ × ζ.

図91に示す状態方程式および観測方程式、ならびに図92に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。ここで、m、nは、それぞれ、m=l×p、n=l×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、l、lは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。また、Lは、注目画素領域に含まれる画素数であり、L=p×qで表される。 State equation and an observation equation shown in FIG. 91, as well as in the algorithm shown in FIG. 92, K 5 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region In the case of the length of the axis and the horizontal axis, it is expressed by K 5 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number. L 5 is the number of pixels included in the target pixel region, and is represented by L 5 = p × q.

図93は、図92のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 93 is a flowchart showing a processing procedure for executing the algorithm of FIG.

上記のように、発明手法5では、図90に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、それぞれ、サイズが9pq×1→pq×1、9pq×9pq→pq×9pq、9pq×1→pq×1に縮小されて(つまり、L<K)、観測ベクトルyp5(n)、観測遷移行列Mp5、観測雑音ベクトルεp5(n)となっている。これにより、図93のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S6100)は、サイズがK×Kの行列、重み係数(S6200)は、サイズがK×Lの行列、n→(n+1)の状態量の最適推定値(S6300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S6400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S6600)は、サイズがK×Kの行列となる。 As described above, in Invention Method 5, as shown in FIG. 90, the observation vector y p4 (n), the observation transition matrix M p4 , and the observation noise vector ε p4 (n) in the Invention Method 4 each have a size of 9 pq. × 1 → pq × 1, 9pq × 9pq → pq × 9pq, 9pq × 1 → pq × 1 (that is, L 5 <K 5 ), observation vector y p5 (n), observation transition matrix M p5 , The observation noise vector ε p5 (n) is obtained. Thus, in the flowchart of FIG. 93, the correlation value (S6100) of the estimation error of n → (n + 1) is a matrix of size K 5 × K 5 , and the weight coefficient (S6200) is of size K 5 × L 5 . The optimal estimation value (S6300) of the matrix, n → (n + 1) state quantity is a vector of size K 5 × 1, and the optimal estimation value (S6400) of the state quantity (n + 1) → (n + 1) is size K The correlation value (S6600) of the estimation error of 5 × 1 vector, (n + 1) → (n + 1) is a matrix of size K 5 × K 5 .

図94は、発明手法4と発明手法5のアルゴリズムを比較した説明図である。   FIG. 94 is an explanatory diagram comparing the algorithms of Invention Method 4 and Invention Method 5. FIG.

図94に示すように、発明手法4のアルゴリズムでは、サイズが9pq×9pqの逆行列の計算が必要であり(反復過程つまり更新式の手順2参照)、演算量が多い。これに対し、発明手法5では、上記したサイズの縮小により、サイズが9pq×9pqの逆行列が、サイズがpq×pqの逆行列となっている(反復過程つまり更新式の手順2参照)。したがって、発明手法5は、発明手法4よりも演算量が大幅に軽減される。   As shown in FIG. 94, the algorithm of the inventive method 4 requires calculation of an inverse matrix having a size of 9pq × 9pq (see the iterative process, that is, procedure 2 of the update formula), and has a large amount of calculation. On the other hand, in Invention Method 5, due to the size reduction described above, the inverse matrix of size 9pq × 9pq becomes the inverse matrix of size pq × pq (refer to the iterative process, that is, procedure 2 of the update formula). Therefore, the amount of calculation of Invention Method 5 is significantly reduced compared to Invention Method 4.

図95は、発明手法5の演算量評価を説明するための図である。   FIG. 95 is a diagram for explaining the calculation amount evaluation of Invention Method 5.

図95の上側に、発明手法5に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)を求め、得られた結果を図80に示す棒グラフに加えると、図95の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法5は、従来手法4および発明手法4よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1<発明手法5、となる。したがって、発明手法5は、大幅な演算量の軽減が可能であり、高速(低演算量)な画像復元が可能である。   On the upper side of FIG. 95, the number of operations (number of multiplications) per update for Invention Method 5 is shown. Based on this, the amount of computation (number of multiplications) required to restore one image of 256 × 256 size is obtained, and the obtained result is added to the bar graph shown in FIG. A bar graph is obtained. As is apparent from this bar graph, Invention Method 5 has a significantly smaller amount of calculation than Conventional Method 4 and Invention Method 4. When viewed in terms of the effect of reducing the amount of computation, the magnitude relationship is as follows: Conventional method 4 <Invention method 4 <Invention method 1 <Invention method 5. Therefore, Invention Method 5 can greatly reduce the calculation amount, and can perform high-speed (low calculation amount) image restoration.

図96は、発明手法5の復元処理速度評価を説明するための図   FIG. 96 is a diagram for explaining the restoration processing speed evaluation of Invention Method 5.

ここでは、図81の結果に、発明手法5の測定結果を追加した。その結果、発明手法5も、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法5は、上記のように発明手法1および発明手法4よりも演算量が少ないため、発明手法1および発明手法4よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図96に示すように、従来手法4<発明手法1<発明手法4<発明手法5、となる。したがって、発明手法5は、高速な画像復元処理が可能である。   Here, the measurement result of Invention Method 5 is added to the result of FIG. As a result, the inventive method 5 also has a higher processing speed than the conventional method 4 because the amount of calculation for AR coefficient estimation (derivation) is unnecessary. In addition, since the invention method 5 has a smaller amount of calculation than the invention method 1 and the invention method 4 as described above, the processing can be performed at a higher speed than the invention method 1 and the invention method 4. When viewed in terms of processing speed, as shown in FIG. 96, the magnitude relationship is Conventional Method 4 <Invention Method 1 <Invention Method 4 <Invention Method 5. Therefore, Invention Method 5 can perform high-speed image restoration processing.

図97は、比較対象手法との対比において原画像「カメラマン」に対する発明手法5のシミュレーション結果(視覚評価)を示す図であり、図98は、図97中の破線の円の周辺領域を拡大した図である。また、図99は、比較対象手法との対比において原画像「レナ」に対する発明手法5のシミュレーション結果(視覚評価)を示す図であり、図100は、図99中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。   97 is a diagram showing a simulation result (visual evaluation) of Invention Method 5 for the original image “cameraman” in comparison with the comparison target method, and FIG. 98 is an enlargement of the peripheral area of the broken-line circle in FIG. FIG. 99 is a diagram showing the simulation result (visual evaluation) of Invention Method 5 for the original image “Lena” in comparison with the comparison target method, and FIG. 100 shows the peripheral area of the broken-line circle in FIG. FIG. The simulation conditions are as shown in FIG. The comparison target methods here are the conventional method 3 and the invention method 1.

図97〜図100に示すように、発明手法5は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。ただし、発明手法1と発明手法5を比較した場合、画像復元能力はほぼ同等のレベルである。   As shown in FIGS. 97 to 100, it can be seen that Invention Method 5 clearly restores the original image faithfully compared to Conventional Method 3. However, when Invention Method 1 and Invention Method 5 are compared, the image restoration capability is almost the same level.

図101は、比較対象手法との対比において原画像に対する発明手法5のシミュレーション結果(客観評価)を示す図である。   FIG. 101 is a diagram showing a simulation result (objective evaluation) of Invention Method 5 on the original image in comparison with the comparison target method.

この場合、図101に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法5は、発明手法3よりもPSNRの数値が小さく、従来手法3よりはPSNRの数値が大きいものの、発明手法1、2、4とはPSNRの数値がほぼ同レベルであることが確認できる。これにより、発明手法5は、客観評価の点でも、従来手法3に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図101に示すように、従来手法3<発明手法1<発明手法5<発明手法2<発明手法4<発明手法3、となる。   In this case, as shown in FIG. 101, for both “cameraman” and “Lena” images, Invention Method 5 has a smaller PSNR value than Invention Method 3, and has a larger PSNR value than Conventional Method 3. Thus, it can be confirmed that the invention methods 1, 2, and 4 have almost the same PSNR numerical value. Thus, it can be seen that Invention Method 5 has a higher image restoration capability than Object Method 3 also in terms of objective evaluation. As a result, as shown in FIG. 101, the magnitude relationship of the objective evaluation (evaluation by numerical values) is as follows: Conventional method 3 <Invention method 1 <Invention method 5 <Invention method 2 <Invention method 4 <Invention method 3> Become.

以上より、発明手法5は、2次元に拡張した発明手法4とほぼ同等な画像復元能力を維持しつつ、演算量の軽減により高速で、かつ、処理効率が向上した画像復元手法を実現していることがわかる。   As described above, Invention Method 5 realizes an image restoration method that is high in speed and improved in processing efficiency by reducing the amount of calculation while maintaining the image restoration capability substantially equivalent to Invention Method 4 expanded in two dimensions. I understand that.

<発明手法6>
図102は、発明手法5の課題を視覚的に説明するための図である。
<Invention Method 6>
FIG. 102 is a diagram for visually explaining the problem of the inventive method 5.

発明手法5は、上記のように、発明手法4に対して、演算量を大幅に軽減して高速な画像復元処理を実現することができるものの、画像復元能力が若干低下している。これは、図102に示すように、発明手法5の観測方程式において、有色性駆動源の影響が大きい領域が含まれていないためであると考えられる。そこで、発明手法6では、注目画素領域のみでなく有色駆動源をも考慮した状態空間モデルを再構成する。すなわち、発明手法6では、有色性駆動源の影響を最大限に与えるように状態空間モデルを再構成する。   As described above, the invention method 5 can realize a high-speed image restoration process by significantly reducing the calculation amount as compared with the invention method 4, but the image restoration ability is slightly lowered. This is considered to be because, as shown in FIG. 102, the observation equation of the inventive method 5 does not include a region where the influence of the colored drive source is large. Therefore, in Invention Method 6, a state space model is reconstructed considering not only the pixel region of interest but also the colored drive source. That is, in Invention Method 6, the state space model is reconfigured so as to maximize the influence of the colored drive source.

図103は、発明手法6の観測方程式の構成を視覚的に示す説明図であり、図104は、発明手法6の状態空間モデルを視覚的に説明するための図である。なお、発明手法6の状態方程式は、発明手法5(ひいては発明手法4)の状態方程式と全く同じであるため、その説明を省略する。   FIG. 103 is an explanatory diagram visually showing the configuration of the observation equation of the inventive method 6, and FIG. 104 is a diagram for visually explaining the state space model of the inventive method 6. Note that the state equation of Invention Method 6 is exactly the same as the state equation of Invention Method 5 (and thus Invention Method 4), and thus the description thereof is omitted.

発明手法6では、図103に示すように、発明手法4の観測方程式において、注目画素領域に含まれる要素(例えば、画素領域ベクトルy(n))に加えて、有色性駆動源の影響を受ける領域に含まれる要素(例えば、画素領域ベクトルy(n)、y(n)、y(n))をも抽出して観測方程式を再構成する。すなわち、発明手法6では、有色性駆動源の影響を考慮するために、発明手法5と比較して、画素領域ベクトルy(n)、y(n)、y(n)をも取り入れる。これにより、発明手法6では、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、および観測雑音ベクトルεp4(n)は、サイズがそれぞれ縮小されて、観測ベクトルyp6(n)、観測遷移行列Mp6、観測雑音ベクトルεp6(n)となる。このように、発明手法6では、図104に示すように、状態方程式における有色性駆動源の影響を最大限に考慮するべく、注目画素領域と有色性駆動源の影響を受ける領域とから観測方程式を再構成する。これにより、発明手法6は、発明手法5の場合よりもサイズの縮小は小さいものの、発明手法4に対してサイズが縮小されるため、演算量は大幅に軽減される。 In Invention Method 6, as shown in FIG. 103, in the observation equation of Invention Method 4, in addition to the elements (for example, pixel region vector y 5 (n)) included in the target pixel region, the influence of the chromatic driving source is considered. The observation equation is reconstructed by extracting the elements (for example, pixel region vectors y 7 (n), y 8 (n), y 9 (n)) included in the receiving region. That is, the invention method 6 incorporates pixel region vectors y 7 (n), y 8 (n), and y 9 (n) as compared with the invention method 5 in order to consider the influence of the colored drive source. . As a result, in the inventive method 6, the observation vector y p4 (n), the observation transition matrix M p4 , and the observation noise vector ε p4 (n) in the inventive method 4 are reduced in size, and the observation vector y p6 (n ), Observation transition matrix M p6 , and observation noise vector ε p6 (n). Thus, in Invention Method 6, as shown in FIG. 104, the observation equation is calculated from the target pixel region and the region affected by the chromatic drive source in order to maximize the influence of the chromatic drive source in the state equation. Reconfigure. Thus, although the size of the inventive method 6 is smaller than that of the inventive method 5, the size is reduced compared to the inventive method 4, so that the amount of calculation is greatly reduced.

図105は、発明手法6の状態方程式と観測方程式をまとめて示す説明図であり、図106は、発明手法6のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。 FIG. 105 is an explanatory diagram collectively showing the state equation and the observation equation of Invention Method 6, and FIG. 106 is a diagram for explaining the algorithm of Invention Method 6. As a notation of the expression, generally, the lower case letter “α γ ” of the alphabet represents a vector having a size of γ × 1, and the upper case letter “のγ ” of the alphabet represents a matrix having a size of γ × γ. The capital letter “C (γ × ζ) ” of the alphabet represents a matrix of size γ × ζ.

図105に示す状態方程式および観測方程式、ならびに図106に示すアルゴリズムにおいて、Kは周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K=m×nで表される。ここで、m、nは、それぞれ、m=l×p、n=l×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、l、lは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。また、Lは、注目画素領域と有色性駆動源を含む領域とを合わせた領域に含まれる画素数であり、L=p×q+m×qで表される(L<K)。発明手法6のアルゴリズムは、図106に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法5の場合(図92参照)よりも演算量が若干増加するものの、発明手法4の場合(図78参照)よりも演算量が軽減されるよう、図105に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。 In the state equation and the observation equation shown in FIG. 105 and the algorithm shown in FIG. 106, K 6 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, K 6 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number. L 6 is the number of pixels included in the combined region of the target pixel region and the region including the colored drive source, and is represented by L 6 = p × q + m × q (L 6 <K 6 ). As shown in FIG. 106, the algorithm of the invention method 6 is roughly divided into an initialization process and an iteration process, and the iteration process is more than the case of the invention method 5 (see FIG. 92). Although the calculation amount is slightly increased, the calculation amount is reduced as compared with the case of Invention Method 4 (see FIG. 78), so that the calculation amount is reduced based on the new state space model (state equation and observation equation) shown in FIG. . In the iteration process, steps 1 to 6 are repeated sequentially.

図107は、図106のアルゴリズムを実行する処理手順を示すフローチャートである。   FIG. 107 is a flowchart showing a processing procedure for executing the algorithm of FIG.

上記のように、発明手法6では、図103に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、サイズがそれぞれ縮小されて(つまり、L<K)、観測ベクトルyp6(n)、観測遷移行列Mp6、観測雑音ベクトルεp6(n)となっている。これにより、図107のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S7100)は、サイズがK×Kの行列、重み係数(S7200)は、サイズがK×Lの行列、n→(n+1)の状態量の最適推定値(S7300)は、サイズがK×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S7400)は、サイズがK×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S7600)は、サイズがK×Kの行列となる。 As described above, in Invention Method 6, as shown in FIG. 103, the size of observation vector y p4 (n), observation transition matrix M p4 , and observation noise vector ε p4 (n) in Invention Method 4 is reduced. (That is, L 6 <K 6 ), observation vector y p6 (n), observation transition matrix M p6 , and observation noise vector ε p6 (n). Accordingly, in the flowchart of FIG. 107, the correlation value (S7100) of the estimation error of n → (n + 1) is a matrix of size K 6 × K 6 , and the weighting coefficient (S 7200) is of size K 6 × L 6 . The matrix, the optimal estimate (S7300) of the state quantity n → (n + 1) is a vector of size K 6 × 1, and the optimal estimate (S7400) of the state quantity (n + 1) → (n + 1) is size K The correlation value (S7600) of the estimation error of 6 × 1 vector, (n + 1) → (n + 1) is a matrix of size K 6 × K 6 .

図108は、発明手法6の演算量評価を説明するための図である。   FIG. 108 is a diagram for explaining the calculation amount evaluation of Invention Method 6.

図108の上側に、発明手法6に対する、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)示す。これに基づき、更新1回当たりの演算量(乗算回数)を求め、得られた結果を図95に示す棒グラフに加えると、図108の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法6は、発明手法5よりも演算量は若干多いものの、発明手法4よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1<発明手法6<発明手法5、となる。したがって、発明手法6は、良好な演算量軽減を実現している。   The upper side of FIG. 108 shows the amount of computation (number of multiplications) required to restore one image of 256 × 256 size for Invention Method 6. Based on this, the amount of computation (number of multiplications) per update is obtained, and when the obtained result is added to the bar graph shown in FIG. 95, the bar graph shown in the center left side of FIG. 108 is obtained. As is apparent from this bar graph, the invention method 6 has a slightly larger calculation amount than the invention method 5, but the calculation amount is significantly smaller than that of the invention method 4. When viewed from the effect of reducing the amount of computation, the magnitude relationship is as follows: Conventional method 4 <Invention method 4 <Invention method 1 <Invention method 6 <Invention method 5. Therefore, Invention Method 6 achieves a good calculation amount reduction.

図109は、発明手法6の復元処理速度評価を説明するための図である。   FIG. 109 is a diagram for explaining the restoration processing speed evaluation of the inventive method 6.

ここでは、図96の結果に、発明手法6の測定結果を追加した。その結果、発明手法6も、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法6は、上記のように発明手法4よりも演算量が大幅に少ないため、発明手法4よりも高速な処理が可能となっている。発明手法6は、発明手法5よりも処理速度が若干遅い程度である。処理速度で見た場合、その大小関係は、図109に示すように、従来手法4<発明手法1<発明手法4<発明手法6<発明手法5、となる。したがって、発明手法6も、高速な画像復元処理が可能である。   Here, the measurement result of Invention Method 6 is added to the result of FIG. As a result, the inventive method 6 also has a higher processing speed than the conventional method 4 because it does not require the amount of calculation for AR coefficient estimation (derivation). In addition, the invention method 6 has a much smaller calculation amount than the invention method 4 as described above, and therefore, the processing can be performed at a higher speed than the invention method 4. Invention method 6 is slightly slower than Invention method 5 in processing speed. When viewed in terms of processing speed, as shown in FIG. 109, the magnitude relationship is Conventional Method 4 <Invention Method 1 <Invention Method 4 <Invention Method 6 <Invention Method 5. Therefore, Invention Method 6 can also perform high-speed image restoration processing.

図110は、比較対象手法との対比において原画像「カメラマン」に対する発明手法6のシミュレーション結果(視覚評価)を示す図であり、図111は、図110中の破線の円の周辺領域を拡大した図である。また、図112は、比較対象手法との対比において原画像「レナ」に対する発明手法6のシミュレーション結果(視覚評価)を示す図であり、図113は、図112中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。   110 is a diagram showing a simulation result (visual evaluation) of Invention Method 6 for the original image “cameraman” in comparison with the comparison target method, and FIG. 111 is an enlarged view of a peripheral area of a broken-line circle in FIG. FIG. FIG. 112 is a diagram showing a simulation result (visual evaluation) of Invention Method 6 for the original image “Lena” in comparison with the comparison target method, and FIG. 113 shows the peripheral region of the broken-line circle in FIG. FIG. The simulation conditions are as shown in FIG. The comparison target methods here are the conventional method 3 and the invention method 1.

図110〜図113に示すように、発明手法6は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法6のほうが高いことがわかる。   As shown in FIGS. 110 to 113, it can be seen that Invention Method 6 clearly restores the original image faithfully compared to Conventional Method 3. Moreover, it can be seen that the image restoration capability of the invention method 6 is higher than that of the invention method 1.

図114は、比較対象手法との対比において原画像に対する発明手法6のシミュレーション結果(客観評価)を示す図である。   FIG. 114 is a diagram showing a simulation result (objective evaluation) of Invention Method 6 for the original image in comparison with the comparison target method.

この場合、図114に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法6は、他のどの手法(従来手法3はもとより発明手法1〜5)よりもPSNRの数値が大きいことが確認できる。これにより、発明手法6は、客観評価の点でも、他の手法(従来手法3、発明手法1〜5)に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図114に示すように、従来手法3<発明手法1<発明手法5<発明手法2<発明手法4<発明手法3<発明手法6、となる。   In this case, as shown in FIG. 114, the invention method 6 has a PSNR value higher than that of any of the other methods (conventional method 3 and invention methods 1 to 5) for both “cameraman” and “Lena” images. It can be confirmed that it is large. Thus, it can be seen that Invention Method 6 has a higher image restoration capability than other methods (Conventional Method 3, Invention Methods 1 to 5) in terms of objective evaluation. As a result, as shown in FIG. 114, the magnitude relationship of the objective evaluation (evaluation by numerical values) is as follows. Conventional Method 3 <Invention Method 1 <Invention Method 5 <Invention Method 2 <Invention Method 4 <Invention Method 3 <Invention Method 6 is used.

以上より、発明手法6は、発明手法5よりも演算量を若干増加させつつも、発明手法1〜5よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。   As described above, the inventive method 6 realizes a high-speed image restoration process capable of demonstrating a good image restoration capability higher than the inventive methods 1 to 5 while slightly increasing the amount of calculation compared to the inventive method 5. I understand that.

ここで、発明手法1〜6の状態空間モデル(状態方程式と観測方程式)の特徴についてまとめておく。   Here, the features of the state space models (state equations and observation equations) of the inventive methods 1 to 6 will be summarized.

<発明手法1>
状態方程式は、時刻n+1のK個の原画像(画素情報)が、時刻nのK個の原画像(画素情報)と、m個の原画像(画素情報)を含む有色性駆動源とから構成されている。また、観測方程式は、時刻nのK個の原画像(画素情報)が、ぼけと雑音の影響を受けてK個の劣化画像(画素情報)から構成されている。このような状態空間モデルにより、発明手法1では、観測方程式のK個の劣化画像(画素情報)を用いて、状態方程式の時刻n+1におけるK個の原画像(画素情報)を予測している。
<Invention Method 1>
State equation, the time n + 1 of K 1 piece of the original image (pixel information), and K 1 piece of the original image at time n (pixel information), the colored driving source comprising m of the original image (pixel information) It is composed of In the observation equation, K 1 original images (pixel information) at time n are composed of K 1 degraded images (pixel information) due to the influence of blur and noise. With this state space model, Invention Method 1 predicts K 1 original images (pixel information) at time n + 1 of the state equation using K 1 degraded images (pixel information) of the observation equation. Yes.

<発明手法2>
発明手法1において、必要な復元画像(画素情報)は1個である。それゆえ、発明手法2では、演算量を軽減するために、発明手法1の観測方程式の1個の劣化画像(画素情報)のみに着目して、発明手法1の観測方程式を再構成する。ただし、発明手法2の状態方程式は、発明手法1と同じである。このような状態空間モデルにより、発明手法2の観測方程式では、時刻nの1個の劣化画像(画素情報)のみを用いるため、過去の劣化画像(画素情報)に依存することなく、最も少ない演算量で1個の原画像(画素情報)を予測している。
<Invention Method 2>
In Invention Method 1, only one restored image (pixel information) is required. Therefore, in Invention Method 2, in order to reduce the amount of calculation, the observation equation of Invention Method 1 is reconstructed by paying attention to only one degraded image (pixel information) of the observation equation of Invention Method 1. However, the state equation of Invention Method 2 is the same as that of Invention Method 1. With such a state space model, the observation equation of Invention Method 2 uses only one deteriorated image (pixel information) at time n, so that the least number of operations can be performed without depending on the past deteriorated image (pixel information). One original image (pixel information) is predicted by the amount.

<発明手法3>
少ない演算量で高性能な画像復元能力を得るために、発明手法3の観測方程式は、有色性駆動源の影響を含む時刻nの原画像(画素情報)からなる発明手法1の観測方程式の一部と、発明手法2の観測方程式とから構成されている。このような状態空間モデルにより、発明手法3では、有色性駆動源の影響を最大限に考慮しているため、演算量の軽減を図りながら高性能な画像復元を実現している。
<Invention technique 3>
In order to obtain a high-performance image restoration capability with a small amount of computation, the observation equation of Invention Method 3 is one of the observation equations of Invention Method 1 consisting of the original image (pixel information) at time n including the influence of the colored drive source. And the observation equation of Invention Method 2. With such a state space model, Invention Method 3 considers the influence of the chromatic drive source to the maximum extent, and thus realizes high-performance image restoration while reducing the amount of calculation.

<発明手法4>
処理効率を向上させるために、2次元に拡張した状態方程式は、時刻n+1のK個の原画像(画素情報)が、時刻nのK個の原画像(画素情報)と、m×q個の原画像(画素情報)を含む有色性駆動源とから構成されている。また、2次元に拡張した観測方程式は、時刻nのK個の原画像(画素情報)が、ぼけと雑音の影響を受けてK個の劣化画像(画素情報)から構成されている。このような状態空間モデルにより、発明手法4では、観測方程式のK個の劣化画像(画素情報)を用いて、状態方程式の時刻n+1におけるK個の原画像(画素情報)を予測している。
<Invention Method 4>
In order to improve the processing efficiency, the equation of state is extended to two dimensions, time n + 1 of the K 4 pieces of the original image (pixel information), the time n of K 4 pieces of the original image (pixel information), m × q And a colored drive source including original images (pixel information). In the observation equation expanded in two dimensions, K 4 original images (pixel information) at time n are composed of K 4 degraded images (pixel information) due to the influence of blur and noise. With this state space model, Invention Method 4 predicts K 4 original images (pixel information) at time n + 1 of the state equation using K 4 degraded images (pixel information) of the observation equation. Yes.

<発明手法5>
2次元に拡張した発明手法4において、必要な復元画像(画素情報)はp×q個である。それゆえ、発明手法2では、演算量を軽減するために、発明手法4の観測方程式のp×q個の劣化画像(画素情報)のみに着目して、発明手法4の観測方程式を再構成する。ただし、発明手法5の状態方程式は、発明手法4と同じである。このような状態空間モデルにより、発明手法5の観測方程式では、時刻nのp×q個の劣化画像(画素情報)のみを用いるため、過去の劣化画像(画素情報)に依存することなく、最も少ない演算量でp×q個の原画像(画素情報)を予測している。
<Invention Method 5>
In Invention Method 4 extended in two dimensions, the required number of restored images (pixel information) is p × q. Therefore, in Invention Method 2, in order to reduce the amount of calculation, the observation equation of Invention Method 4 is reconstructed by focusing on only p × q degraded images (pixel information) of the observation equation of Invention Method 4. . However, the state equation of Invention Method 5 is the same as that of Invention Method 4. With such a state space model, the observation equation of Invention Method 5 uses only p × q degraded images (pixel information) at time n, so that it is the most independent of the past degraded images (pixel information). P × q original images (pixel information) are predicted with a small amount of calculation.

<発明手法6>
少ない演算量で高性能な画像復元能力を得るために、発明手法6の観測方程式は、有色性駆動源の影響を含む時刻nの原画像(画素情報)からなる発明手法4の観測方程式の一部と、発明手法5の観測方程式とから構成されている。このような状態空間モデルにより、発明手法6では、有色性駆動源の影響を最大限に考慮しているため、演算量を軽減しながら高性能な画像復元を実現している。
<Invention Method 6>
In order to obtain a high-performance image restoration capability with a small amount of computation, the observation equation of Invention Method 6 is one of the observation equations of Invention Method 4 consisting of the original image (pixel information) at time n including the influence of the colored drive source. And the observation equation of Invention Method 5. With such a state space model, Invention Method 6 considers the influence of the chromaticity driving source to the maximum extent, and thus realizes high-performance image restoration while reducing the amount of calculation.

このように、発明手法1〜6によれば、いずれも、AR係数を必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成して1段階処理の新しい予測法によって画像復元を行うため、1枚の劣化画像のみを用いてぼけと雑音を同時に取り除くことができる。   As described above, according to the inventive methods 1 to 6, in order to construct a new state space model (state equation and observation equation) that does not require an AR coefficient, image restoration is performed by a new prediction method of one-stage processing. Blur and noise can be removed simultaneously using only one deteriorated image.

また、発明手法1〜6によれば、いずれも、AR係数を必要としないため、演算量を軽減することができる。   In addition, according to the inventive methods 1 to 6, any of them does not require an AR coefficient, so that the amount of calculation can be reduced.

また、発明手法1〜3を2次元に拡張した発明手法4〜6によれば、注目画素領域および周辺画素領域のサイズをそれぞれ任意に変化させることができるため、例えば、劣化画像の性質によって1次元および2次元の新しい予測法に基づく画像復元手法を使い分けることが可能となり、効率のよい画像復元を実現することができる。   In addition, according to the inventive methods 4 to 6 in which the inventive methods 1 to 3 are extended to two dimensions, the sizes of the target pixel region and the peripheral pixel region can be arbitrarily changed. It is possible to use different image restoration methods based on new two-dimensional and two-dimensional prediction methods, thereby realizing efficient image restoration.

特に、発明手法4〜6は、2次元に拡張された新しい予測法を用いた劣化画像復元手法である。この発明手法4〜6の最大の特徴は、劣化画像の性質やユーザの目的などに応じて、発明手法1、発明手法1の演算量を軽減した発明手法2、および性能を優先させた発明手法3を実現可能となるだけでなく、2次元に拡張した発明手法4、発明手法4の演算量を軽減した発明手法5、および性能を優先させた発明手法6と適応的に変更できることである。   In particular, Invention Methods 4 to 6 are degraded image restoration methods using a new prediction method expanded in two dimensions. The greatest features of the invention methods 4 to 6 are the invention method 1, the invention method 2 in which the calculation amount of the invention method 1 is reduced, and the invention method in which performance is prioritized according to the nature of the degraded image and the purpose of the user. 3 can be realized, and can be adaptively changed to Invention Method 4 expanded in two dimensions, Invention Method 5 in which the calculation amount of Invention Method 4 is reduced, and Invention Method 6 in which performance is prioritized.

(実施の形態2)
実施の形態2は、状況に応じて複数の画像復元手法を適応的に切り替えて実行させる場合である。
(Embodiment 2)
The second embodiment is a case where a plurality of image restoration methods are adaptively switched and executed according to the situation.

図115は、本発明の実施の形態2に係る画像復元装置の構成を示すブロック図である。なお、この画像復元装置200は、図1に示す画像復元装置100と同様の基本的構成を有しており、同一の構成要素にば同一の符号を付し、その説明を省略する。   FIG. 115 is a block diagram showing a configuration of an image restoration apparatus according to Embodiment 2 of the present invention. The image restoration apparatus 200 has the same basic configuration as that of the image restoration apparatus 100 shown in FIG. 1, and the same components are denoted by the same reference numerals and the description thereof is omitted.

図115に示す画像復元装置200は、複数の画像復元アルゴリズムを内蔵しており、ユーザの選択によって、または、状況に応じて自動的に、内蔵した画像復元アルゴリズムを切り替えて実行可能である。複数の画像復元アルゴリズムとしては、例えば、上記した発明手法1〜6の全部または一部を用いることができる。発明手法1〜6は、上記のように、復元能力や処理速度(演算量)、処理効率、柔軟性などの点で、それぞれ特徴を有するため、適用する発明手法を状況に応じて適宜選択することによって、状況に応じた最適な画像復元を行うことができる。なお、内蔵する複数の画像復元アルゴリズムは、発明手法1〜6に限定されるわけではなく、発明手法1〜6と従来手法(例えば、上記の従来手法1〜4)との任意の組み合わせであってもよい。   An image restoration apparatus 200 shown in FIG. 115 has a plurality of built-in image restoration algorithms, and can switch and execute the built-in image restoration algorithms according to user selection or automatically according to circumstances. As a plurality of image restoration algorithms, for example, all or a part of the above-described inventive methods 1 to 6 can be used. As described above, the inventive methods 1 to 6 have characteristics in terms of restoration ability, processing speed (computation amount), processing efficiency, flexibility, and the like, and accordingly, the inventive method to be applied is appropriately selected depending on the situation. Thus, it is possible to perform optimum image restoration according to the situation. Note that the plurality of built-in image restoration algorithms are not limited to the inventive methods 1 to 6, but are any combination of the inventive methods 1 to 6 and the conventional methods (for example, the conventional methods 1 to 4 described above). May be.

このような機能を実現するため、画像復元装置200は、復元モード指定部210と画像復元処理部220を有する。復元モード指定部210は、例えば、操作部130に設けられている。復元モード指定部210は、使用者の入力操作により、後述する復元モードを指定する。また、画像復元処理部220は、例えば、パラメータ設定部222、被写体領域判定部224を有する。また、記憶部150において、例えば、主記憶装置152は、取込画像メモリ230、被写体領域メモリ232、処理パラメータメモリ234、および復元画像メモリ236を有し、表示メモリ156は、取込画像メモリ240、処理内容メモリ242、および復元画像メモリ244を有する。   In order to realize such a function, the image restoration apparatus 200 includes a restoration mode designation unit 210 and an image restoration processing unit 220. The restoration mode designation unit 210 is provided in the operation unit 130, for example. The restoration mode designating unit 210 designates a restoration mode to be described later by a user input operation. The image restoration processing unit 220 includes a parameter setting unit 222 and a subject area determination unit 224, for example. In the storage unit 150, for example, the main storage device 152 includes a captured image memory 230, a subject area memory 232, a processing parameter memory 234, and a restored image memory 236, and the display memory 156 includes the captured image memory 240. A processing content memory 242 and a restored image memory 244.

図116は、復元モード指定部210によって指定可能な復元モードの具体例を示す図である。   FIG. 116 is a diagram showing a specific example of restoration modes that can be designated by the restoration mode designating unit 210.

復元モード指定部210によって指定可能な復元モードは、図116に示すように、復元モード指定部210の内部構造として与えられる。図116に示す例では、復元モードとして、まず大別して、例えば、「カメラモード」、「取込画像」、「品質」が設けられている。そして、カメラモードには、例えば、「スポーツ」や「風景」、「夜景」、「接写」、「ポートレー」などのモードが設けられ、取込画像には、例えば、「写真」や「文字」、「風景」などのモードが設けられている。また、品質には、「画質優先」や「オート」、「処理速度優先」などのモードが設けられている。画質優先のモードは、さらに、「非常に細かい」、「細かい」、「普通」の3段階に分かれている。それぞれの復元モードには、予め、最適な画像復元アルゴリズムが対応付けられている。例えば、「品質」の「処理速度優先」には、発明手法5が対応付けられ、「品質」の「非常に細かい」には、発明手法3または発明手法6が対応付けられている。また、復元モードは、異なる項目から複数同時に指定することもできる。例えば、「取込画像」から「写真」を指定し、「品質」から「画質優先」の「非常に細かい」を指定した場合には、これらの条件にマッチした復元処理を行う画像復元アルゴリズムが実行される。   The restoration modes that can be designated by the restoration mode designating unit 210 are given as the internal structure of the restoration mode designating unit 210 as shown in FIG. In the example shown in FIG. 116, the restoration mode is roughly classified into, for example, “camera mode”, “captured image”, and “quality”. In the camera mode, for example, modes such as “sport”, “landscape”, “night view”, “close-up”, “portrait”, and the like are provided. , “Landscape” mode is provided. In addition, quality is provided with modes such as “image quality priority”, “auto”, and “processing speed priority”. The image quality priority mode is further divided into three levels: “very fine”, “fine”, and “normal”. Each restoration mode is associated with an optimal image restoration algorithm in advance. For example, invention method 5 is associated with “processing speed priority” of “quality”, and invention method 3 or invention method 6 is associated with “very fine” of “quality”. Also, a plurality of restoration modes can be specified simultaneously from different items. For example, when “photo” is specified from “captured image” and “very fine” from “quality” to “image quality priority” is specified, an image restoration algorithm that performs restoration processing that matches these conditions is used. Executed.

画像復元処理部220において、パラメータ設定部222は、操作部130のパラメータ設定部132によって入力された各種パラメータの値を内部的に設定する。また、被写体領域判定部224は、所定の被写体領域判定アルゴリズムによって、被写体の領域を判定する。ここでは、被写体領域判定アルゴリズムは、特に限定されず、周知の任意のアルゴリズムを用いることができる。   In the image restoration processing unit 220, the parameter setting unit 222 internally sets various parameter values input by the parameter setting unit 132 of the operation unit 130. The subject area determination unit 224 determines a subject area by a predetermined subject area determination algorithm. Here, the subject region determination algorithm is not particularly limited, and any known algorithm can be used.

また、主記憶装置152において、取込画像メモリ230は、画像入力装置110によって取り込まれた画像を格納し、被写体領域メモリ232は、被写体領域判定部224によって判定された被写体の領域を格納する。被写体領域メモリ232に格納される被写体領域は、被写体の画像そのものでも被写体の画像の格納場所でもよい。処理パラメータメモリ234は、操作部130によって設定された復元処理の内容(設定されたパラメータや復元モードなど)を格納する。復元画像メモリ234は、画像復元処理部220によって復元された画像を格納する。また、表示メモリ156において、取込画像メモリ240は、主記憶装置152の取込画像メモリ230に格納された取込画像のうち、表示する取込画像を一時格納し、処理内容メモリ242は、処理パラメータメモリ234に格納された復元処理の内容(設定されたパラメータや復元モードなど)のうち、表示する処理内容を一時格納する。復元画像メモリ244は、主記憶装置152の復元画像メモリ234に格納された復元画像のうち、表示する復元画像を一時格納する。   In the main storage device 152, the captured image memory 230 stores the image captured by the image input device 110, and the subject area memory 232 stores the area of the subject determined by the subject area determination unit 224. The subject area stored in the subject area memory 232 may be the subject image itself or the storage location of the subject image. The processing parameter memory 234 stores the contents of the restoration process set by the operation unit 130 (set parameters, restoration mode, etc.). The restored image memory 234 stores the image restored by the image restoration processing unit 220. In the display memory 156, the captured image memory 240 temporarily stores the captured image to be displayed among the captured images stored in the captured image memory 230 of the main storage device 152. The processing content memory 242 Of the contents of the restoration process stored in the process parameter memory 234 (set parameters, restoration mode, etc.), the contents of the process to be displayed are temporarily stored. The restored image memory 244 temporarily stores a restored image to be displayed among the restored images stored in the restored image memory 234 of the main storage device 152.

次いで、上記構成を有する画像復元装置200の動作について、図117に示すフローチャートを用いて説明する。なお、図117に示すフローチャートは、記憶部150(主記憶装置152または補助記憶装置154)に制御プログラムとして格納されており、図示しないCPUによって実行される。   Next, the operation of the image restoration apparatus 200 having the above configuration will be described using the flowchart shown in FIG. The flowchart shown in FIG. 117 is stored as a control program in the storage unit 150 (the main storage device 152 or the auxiliary storage device 154), and is executed by a CPU (not shown).

まず、ステップS8000では、画像入力装置110から復元処理対象の画像データ(劣化画像)を取り込み、主記憶装置152の取込画像メモリ230に格納する。   First, in step S8000, image data (degraded image) to be restored is captured from the image input device 110 and stored in the captured image memory 230 of the main storage device 152.

そして、ステップS8050では、ステップS8000で取り込んだ画像データを、少なくとも1フレーム、一時的に記憶する。ここでは、取り込んだ画像データ(少なくとも1フレーム)を、1フレーム以上の画像データを一時的に蓄積するメモリ(例えば、主記憶装置152の図示しない作業用メモリ)に記憶する。   In step S8050, the image data captured in step S8000 is temporarily stored for at least one frame. Here, the captured image data (at least one frame) is stored in a memory (for example, a working memory (not shown) of the main storage device 152) that temporarily stores one or more frames of image data.

そして、ステップS8100では、画像復元処理部220の被写体領域判定部224で、ステップS8050で一時的に記憶した取込画像データに対して、所定のレベルでプレスキャン(被写体認識)する。具体的には、取込画像データ中で所定レベル以上の変化点抽出する。   In step S8100, the subject region determination unit 224 of the image restoration processing unit 220 performs prescanning (subject recognition) on the captured image data temporarily stored in step S8050 at a predetermined level. Specifically, a change point of a predetermined level or higher is extracted from the captured image data.

そして、ステップS8150では、ステップS8100の結果を用いて、所定レベル以上の変化点を抽出した位置を、取込画像データに対応付けて、主記憶装置152の被写体領域メモリ232に記憶する。   In step S8150, using the result of step S8100, the position where the change point of a predetermined level or higher is extracted is stored in the subject area memory 232 of the main storage device 152 in association with the captured image data.

そして、ステップS8200では、プレスキャンを終了するか否かを判断する。この判断は、プレスキャンを行っていないフレームが存在するか否かに基づいて行われる。すなわち、複数のフレームが存在する場合には、フレームの数だけプレスキャンを繰り返すことになる。この判断の結果として、プレスキャンを終了する場合は(S8200:YES)、ステップS8250に進み、プレスキャンを終了しない場合は(S8200:NO)、ステップS8100に戻る。   In step S8200, it is determined whether or not to end the prescan. This determination is made based on whether there is a frame that has not been pre-scanned. That is, when there are a plurality of frames, the pre-scan is repeated by the number of frames. As a result of this determination, when pre-scanning is to be ended (S8200: YES), the process proceeds to step S8250, and when pre-scanning is not to be ended (S8200: NO), the process returns to step S8100.

ステップS8250では、操作部130の復元モード指定部210および領域指定部134で、復元モードの設定と境界領域の設定を行う。設定可能な復元モードは、例えば、上記した図116に示す通りである。また、境界領域の設定では、ステップS8100でプレスキャンしたときの境界領域の確認を行う。   In step S8250, the restoration mode designation unit 210 and the area designation unit 134 of the operation unit 130 perform restoration mode setting and boundary area setting. The restoration modes that can be set are, for example, as shown in FIG. In setting the boundary area, the boundary area when the pre-scan is performed in step S8100 is confirmed.

そして、ステップS8300では、被写体領域か否かの判断を行う。具体的には、処理対象ブロック(注目画素とその周辺画素)が被写体領域を含んでいるか否かを判断する。この判断は、例えば、プレスキャンした段階で、劣化画像の中のどの位置にユーザが注目している被写体があるのかを画素の輝度値により自動的に判定しておき、この結果を利用したり、あるいは、ユーザにタッチパネルを使って選択的に被写体領域を判定させたりすることによって行われる。この判断の結果として、処理対象ブロックが被写体領域を含む場合は(S8300:YES)、ステップS8350に進み、処理対象ブロックが被写体領域を含まない場合は(S8300:NO)、ステップS8400に進む。   In step S8300, it is determined whether or not the subject area. Specifically, it is determined whether or not the processing target block (the target pixel and its surrounding pixels) includes a subject area. This determination can be made by, for example, automatically determining at which position in the deteriorated image the subject that the user is paying attention is based on the luminance value of the pixel at the stage of pre-scanning, and using this result. Alternatively, it is performed by allowing the user to selectively determine the subject area using the touch panel. As a result of this determination, if the processing target block includes the subject area (S8300: YES), the process proceeds to step S8350. If the processing target block does not include the subject area (S8300: NO), the process proceeds to step S8400.

ステップS8350では、実行する画像復元手法として、ステップS8250で設定した復元モードに対応する1次元の画像復元手法(例えば、発明手法1〜3のいずれか)を選択する。また、ステップS8400では、実行する画像復元手法として、ステップS8250で設定した復元モードに対応する2次元の画像復元手法(例えば、発明手法4〜6のいずれか)を選択する。すなわち、本実施の形態では、処理対象ブロックが被写体領域を含むか否かで大きく1次元復元手法を実行するか2次元復元手法を実行するかを選択し、その後、選択された1次元復元手法または2次元復元手法の中から、例えば、取込画像(写真や文字など)、品質(画質やスピードなど)、または様々な用途(ポートレートや夜景など)に適応した復元モードに応じて、最適な復元手法を選択するようにしている。   In step S8350, a one-dimensional image restoration method (for example, one of invention methods 1 to 3) corresponding to the restoration mode set in step S8250 is selected as an image restoration method to be executed. In step S8400, a two-dimensional image restoration method (for example, one of invention methods 4 to 6) corresponding to the restoration mode set in step S8250 is selected as the image restoration method to be executed. That is, in the present embodiment, whether to execute the one-dimensional restoration method or the two-dimensional restoration method is largely selected depending on whether or not the processing target block includes a subject area, and then the selected one-dimensional restoration method is selected. Or, select from 2D restoration methods, for example, depending on the restoration mode adapted to the captured image (photograph, text, etc.), quality (image quality, speed, etc.), or various uses (portrait, night view, etc.) The correct restoration method is selected.

そして、ステップS8450では、画像復元処理部220で、ステップS8350またはステップS8400で選択した画像復元手法を用いて、設定されたパラメータに従った画像復元処理を行う。ここで、パラメータの設定は、操作部130のパラメータ設定部132で行われる。   In step S8450, the image restoration processing unit 220 performs image restoration processing according to the set parameters using the image restoration method selected in step S8350 or step S8400. Here, the parameter setting is performed by the parameter setting unit 132 of the operation unit 130.

そして、ステップS8500では、当該フレームについて画像復元処理が終了したか否かを判断する。この判断の結果として、当該フレームについて画像復元処理が終了した場合は(S8500:YES)、ステップS8550に進み、当該フレームについて画像復元処理が終了していない場合は(S8500:NO)、ステップS8300に戻る。   In step S8500, it is determined whether image restoration processing has been completed for the frame. As a result of this determination, if the image restoration process has been completed for the frame (S8500: YES), the process proceeds to step S8550. If the image restoration process has not been completed for the frame (S8500: NO), the process proceeds to step S8300. Return.

ステップS8550では、全フレームについて画像復元処理が終了したか否かを判断する。この判断の結果として、全フレームについて画像復元処理が終了していない場合は(S8550:NO)、ステップS8250に戻り、全フレームについて画像復元処理が終了した場合は(S8550:YES)、上記一連の処理を終了する。したがって、複数のフレームが存在する場合には、フレームの数だけ画像復元処理を繰り返すことになる。   In step S8550, it is determined whether image restoration processing has been completed for all frames. As a result of this determination, if the image restoration processing has not been completed for all frames (S8550: NO), the process returns to step S8250, and if the image restoration processing has been completed for all frames (S8550: YES), The process ends. Therefore, when there are a plurality of frames, the image restoration process is repeated by the number of frames.

このように、本実施の形態によれば、状況に応じて複数の画像復元手法を適応的に切り替えて実行させるため、復元する画素に適した画像復元処理を、1チップで、高精度かつ高速に行うことができる。   As described above, according to the present embodiment, since a plurality of image restoration methods are adaptively switched and executed according to the situation, image restoration processing suitable for a pixel to be restored is performed with high accuracy and high speed with one chip. Can be done.

本発明に係る画像復元装置および画像復元方法は、画像復元能力を向上することができるシンプルで実用的な画像復元装置および画像復元方法として有用である。   The image restoration device and the image restoration method according to the present invention are useful as a simple and practical image restoration device and an image restoration method capable of improving the image restoration capability.

100、200 画像復元装置
110 画像入力装置
112 カメラ
114 スキャナ
116、186 記録メディア
118、188 モデム
120 入力インタフェース部
130 操作部
132、222 パラメータ設定部
134 領域指定部
136、210 復元モード指定部
140 内部インタフェース部
150 記憶部
152 主記憶装置
154 補助記憶装置
156 表示メモリ
160、220 画像復元処理部
160a 第1復元処理部
160b 第2復元処理部
162 初期設定部
164 相関演算部
166 重み係数算出部
168 最適推定値算出部
170 出力インタフェース部
180 画像出力装置
182 ディスプレイ
184 プリンタ
224 被写体領域判定部
230、240 取込画像メモリ
232 被写体領域メモリ
234 処理パラメータメモリ
236、244 復元画像メモリ
242 処理内容メモリ
100, 200 Image restoration device 110 Image input device 112 Camera 114 Scanner 116, 186 Recording medium 118, 188 Modem 120 Input interface unit 130 Operation unit 132, 222 Parameter setting unit 134 Area designation unit 136, 210 Restore mode designation unit 140 Internal interface Unit 150 storage unit 152 main storage unit 154 auxiliary storage unit 156 display memory 160, 220 image restoration processing unit 160a first restoration processing unit 160b second restoration processing unit 162 initial setting unit 164 correlation calculation unit 166 weight coefficient calculation unit 168 optimal estimation Value calculation unit 170 Output interface unit 180 Image output device 182 Display 184 Printer 224 Subject area determination unit 230, 240 Captured image memory 232 Subject area memory 234 Processing parameter Meter memory 236, 244 Restored image memory 242 Processing content memory

Claims (22)

モデル化可能な観測対象のシステムにおいて、原画像情報にぼけおよび雑音が混在した劣化画像情報である観測信号のみから、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記原画像情報を推定する画像復元装置であって、
前記状態空間モデルは、復元対象である少なくとも1つ以上の注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックを、時刻の変化に伴い同じ注目画素を含むように次の処理対象ブロックに移動させ、各時刻において前記処理対象ブロックに対応する観測量から前記処理対象ブロックの状態量を推定するように構成され、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差の相関値を算出する第1の相関演算部と、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された相関値を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値と、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値と、時刻n+1での観測信号を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出部と、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値を算出す第1の最適推定値算出部と、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値を算出する第2の最適推定値算出部と、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差の相関値を算出する第2の相関演算部と、
を有する画像復元装置。
In the system to be observed that can be modeled, only from the observation signal that is the degraded image information in which blur and noise are mixed in the original image information, using a prediction method based on a state space model that includes the original image information as a drive source, An image restoration apparatus for estimating the original image information,
The state space model uses a processing target block including at least one or more target pixels to be restored and pixels around the target pixel as a processing unit. It is configured to move to the next processing target block so as to include pixels, and to estimate the state quantity of the processing target block from the observation amount corresponding to the processing target block at each time,
Against time n + 1 only observed signals, the first correlation calculation for calculating the correlation value of the estimated error when the state quantity of the target block in the observation time Ri by the signal time n + 1 at time n until the estimated And
Against time n + 1 only observed signals, using the correlation value calculated by the first correlation calculation unit, and the optimum estimated value of the state quantity at time n + 1 by the observation signal up to a time n + 1, until time n the optimum estimated value of the state quantity at time n + 1 by the observation signals, observables of the estimated error including an observation signal at time n + 1, and the weight coefficient calculation unit for calculating a weighting factor for defining the relationship,
Against time n + 1 only observed signals, a first optimum estimate calculation unit that issues calculate the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n,
Second optimum estimation for calculating an optimum estimated value of the state quantity at time n + 1 by the observation signal up to time n + 1, using the weighting factor calculated by the weighting factor calculation unit for the observation signal only at time n + 1 A value calculator,
A second correlation calculation unit that calculates a correlation value of an estimation error when the state quantity at time n + 1 is estimated from an observation signal up to time n + 1 with respect to an observation signal only at time n + 1;
An image restoration apparatus.
前記状態空間モデルは、復元対象である注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックに対応するすべての観測量から前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
The state space model uses the processing target block including the target pixel to be restored and pixels around the target pixel as a processing unit, and the state of the processing target block from all the observation amounts corresponding to the processing target block. Configured to estimate all quantities ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
For the observation signal only at time n + 1 , using the weighting coefficient matrix calculated by the weighting coefficient calculation unit, calculate the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項2記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 2.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項2記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 2.
前記状態空間モデルは、復元対象である注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記注目画素に対応する観測量から前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数ベクトルを算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数ベクトルを用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
In the state space model, the processing target block including the target pixel to be restored and pixels around the target pixel is used as a processing unit, and all the state quantities of the processing target block are calculated from the observation amounts corresponding to the target pixel. Configured to estimate ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 weighting coefficient vector for defining vectors and, and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observation of the estimated error vector containing the observation signal at time n + 1, the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient vector calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移ベクトル、および与えられた観測雑音の相関値スカラーを用いて、前記重み係数ベクトルの算出を行う、
請求項5記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient vector is calculated using the correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, the given observation transition vector, and the given correlation noise correlation value scalar.
The image restoration apparatus according to claim 5.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項5記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 5.
前記状態空間モデルは、復元対象である注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックに含まれる所定の一部の領域内の観測量から、前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
The state space model is based on an observation amount in a predetermined partial region included in the processing target block, with a processing target block including the target pixel to be restored and pixels around the target pixel as a processing unit. , Configured to estimate all the state quantities of the processing target block ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項8記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 8.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項8記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 8.
前記所定の一部の領域は、前記注目画素に対応する観測量と、有色性駆動源の影響を受ける部分の観測量とを含む、請求項8記載の画像復元装置。   The image restoration apparatus according to claim 8, wherein the predetermined partial region includes an observation amount corresponding to the target pixel and an observation amount of a portion affected by a chromaticity driving source. 前記状態空間モデルは、復元対象である少なくとも1つの画素を含む注目画素領域と、前記注目画素領域の周辺の画素領域とを含む処理対象ブロックを処理単位として、前記処理対象ブロックに対応するすべての観測量から前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対して、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
The state space model has a processing target block including a target pixel area including at least one pixel to be restored and a pixel area around the target pixel area as a processing unit. It is configured to estimate all the state quantities of the processing target block from observed quantities ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
And to observe signals only the time n + 1, it calculates a correlation value matrix of the estimation error vector in the case of estimating the state amount at time n + 1 by the observation signal up to a time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項12記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 12.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項12記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 12.
前記状態空間モデルは、復元対象であるである少なくとも1つの画素を含む注目画素領域と、前記注目画素領域の周辺の画素領域とを含む処理対象ブロックを処理単位として、前記注目画素領域内のすべての観測量から前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
The state space model is a processing unit including a target pixel area including at least one pixel to be restored and a pixel area around the target pixel area as a processing unit. consists of observables to estimate all state variables of the processing target block,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項15記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 15.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項15記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 15.
前記状態空間モデルは、復元対象である少なくとも1つの画素を含む注目画素領域と、前記注目画素領域の周辺の画素領域とを含む処理対象ブロックを処理単位として、前記処理対象ブロックに含まれる所定の一部の画素領域内の観測量から、前記処理対象ブロックの状態量をすべて推定するように構成され、
記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1の前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。
The state space model is a predetermined target included in the processing target block, with a processing target block including a target pixel region including at least one pixel to be restored and a pixel region around the target pixel region as a processing unit. It is configured to estimate all the state quantities of the processing target block from observation amounts in some pixel regions ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記重み係数算出部は、
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項18記載の画像復元装置。
The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration device according to claim 18.
前記第1の相関演算部は、
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項18記載の画像復元装置。
The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration device according to claim 18.
前記所定の一部の画素領域は、前記注目画素領域内の観測量と、有色性駆動源の影響を受ける部分の観測量とを含む、請求項18記載の画像復元装置。   The image restoration device according to claim 18, wherein the predetermined partial pixel region includes an observation amount in the target pixel region and an observation amount of a portion affected by a chromatic drive source. モデル化可能な観測対象のシステムにおいて、原画像情報にぼけおよび雑音が混在した劣化画像情報である観測信号のみから、前記原画像情報を駆動源として含む状態空間モデルに基づく予測法を用いて、前記原画像情報を推定する画像復元方法であって、
前記状態空間モデルは、復元対象である少なくとも1つ以上の注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックを、時刻の変化に伴い同じ注目画素を含むように次の処理対象ブロックに移動させ、各時刻において前記処理対象ブロックに対応する観測量から前記処理対象ブロックの状態量を推定するように構成され、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差の相関値を算出する第1の相関演算工程と、
時刻n+1のみの観測信号に対し、前記第1の相関演算工程で算出した相関値を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値と、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値と、時刻n+1での観測信号を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値を算出す第1の最適推定値算出工程と、
時刻n+1のみの観測信号に対し、前記重み係数算出工程で算出した重み係数を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値を算出する第2の最適推定値算出工程と、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差の相関値を算出する第2の相関演算工程と、
を有する画像復元方法。
In the system to be observed that can be modeled, only from the observation signal that is the degraded image information in which blur and noise are mixed in the original image information, using a prediction method based on a state space model that includes the original image information as a drive source, An image restoration method for estimating the original image information,
The state space model uses a processing target block including at least one or more target pixels to be restored and pixels around the target pixel as a processing unit. It is configured to move to the next processing target block so as to include pixels, and to estimate the state quantity of the processing target block from the observation amount corresponding to the processing target block at each time,
Against time n + 1 only observed signals, the first correlation calculation for calculating the correlation value of the estimated error when the state quantity of the target block in the observation time Ri by the signal time n + 1 at time n until the estimated Process,
Against time n + 1 only observed signals, using the correlation value calculated by the first correlation operation step, the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n + 1, up to the time n the optimum estimated value of the state quantity at time n + 1 by the observation signal, the observation of the estimated error including an observation signal at time n + 1, and the weighting coefficient calculation step of calculating a weighting factor for defining the relationship,
Against time n + 1 only observed signals, a first optimum estimated value calculation step that gives calculate the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n,
A second optimum estimated value for calculating an optimum estimated value of the state quantity at time n + 1 from the observed signal up to time n + 1, using the weighting factor calculated in the weighting factor calculating step for the observation signal only at time n + 1. A calculation process;
A second correlation calculation step of calculating a correlation value of an estimation error when the state quantity at time n + 1 is estimated from an observation signal up to time n + 1 with respect to an observation signal only at time n + 1;
An image restoration method comprising:
JP2010028278A 2010-02-10 2010-02-10 Image restoration apparatus and image restoration method Active JP5493191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010028278A JP5493191B2 (en) 2010-02-10 2010-02-10 Image restoration apparatus and image restoration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010028278A JP5493191B2 (en) 2010-02-10 2010-02-10 Image restoration apparatus and image restoration method

Publications (2)

Publication Number Publication Date
JP2011165013A JP2011165013A (en) 2011-08-25
JP5493191B2 true JP5493191B2 (en) 2014-05-14

Family

ID=44595607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010028278A Active JP5493191B2 (en) 2010-02-10 2010-02-10 Image restoration apparatus and image restoration method

Country Status (1)

Country Link
JP (1) JP5493191B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5963166B2 (en) * 2012-08-10 2016-08-03 学校法人東京理科大学 Image restoration apparatus, method, and program
JP6129759B2 (en) 2014-02-03 2017-05-17 満男 江口 Super-resolution processing method, apparatus, program and storage medium for SIMD type massively parallel processing unit
JP6308496B2 (en) * 2014-02-19 2018-04-11 学校法人東京理科大学 Image restoration apparatus, method, and program
WO2018097211A1 (en) * 2016-11-28 2018-05-31 学校法人東京理科大学 Image recovery device, method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3351461B2 (en) * 1997-07-08 2002-11-25 日本電信電話株式会社 Rainfall maximum likelihood estimator
JP5721098B2 (en) * 2008-03-21 2015-05-20 学校法人東京理科大学 Noise suppression device and noise suppression method

Also Published As

Publication number Publication date
JP2011165013A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
KR101330493B1 (en) Region-based image denoising
JP5065490B2 (en) Method and related system for processing digital objects
US8390704B2 (en) Image deblurring using a spatial image prior
JP4858609B2 (en) Noise reduction device, noise reduction method, and noise reduction program
JP2018527687A (en) Image processing system for reducing an image using a perceptual reduction method
KR20140135968A (en) Method and apparatus for performing super-resolution
WO2014070273A1 (en) Recursive conditional means image denoising
US11145032B2 (en) Image processing apparatus, method and storage medium for reducing color noise and false color
JP5493191B2 (en) Image restoration apparatus and image restoration method
Jakhetiya et al. Maximum a posterior and perceptually motivated reconstruction algorithm: A generic framework
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
Rabie Adaptive hybrid mean and median filtering of high-ISO long-exposure sensor noise for digital photography
JP5447867B2 (en) Image restoration apparatus and image restoration method
RU2583725C1 (en) Method and system for image processing
JP6661491B2 (en) Image processing apparatus and image processing method
KR101152525B1 (en) Methods of removing motion blur and apparatuses for the same
US8774545B2 (en) Image processing apparatus and image processing method with weighted vectors for filtering
JP2010068084A (en) Image processing device and image processing method
CN111416937B (en) Image processing method, image processing device, storage medium and mobile equipment
Patil et al. Interpolation for super resolution imaging
KR20080048385A (en) The adaptive linear interpolation method using the new distance weights and local patterns and pattern weights
JP5963166B2 (en) Image restoration apparatus, method, and program
KR101332030B1 (en) Method of magnifying image and computer readable medium storing the program thereof
JP5713256B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JPH08265572A (en) Picture processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140212

R150 Certificate of patent or registration of utility model

Ref document number: 5493191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250