JP5493191B2 - Image restoration apparatus and image restoration method - Google Patents
Image restoration apparatus and image restoration method Download PDFInfo
- Publication number
- JP5493191B2 JP5493191B2 JP2010028278A JP2010028278A JP5493191B2 JP 5493191 B2 JP5493191 B2 JP 5493191B2 JP 2010028278 A JP2010028278 A JP 2010028278A JP 2010028278 A JP2010028278 A JP 2010028278A JP 5493191 B2 JP5493191 B2 JP 5493191B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- observation
- calculation unit
- matrix
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 945
- 238000012545 processing Methods 0.000 claims description 227
- 239000013598 vector Substances 0.000 claims description 225
- 239000011159 matrix material Substances 0.000 claims description 204
- 238000004364 calculation method Methods 0.000 claims description 189
- 230000008569 process Effects 0.000 claims description 113
- 230000007704 transition Effects 0.000 claims description 74
- 238000010586 diagram Methods 0.000 description 117
- 238000011156 evaluation Methods 0.000 description 108
- 238000007796 conventional method Methods 0.000 description 82
- 238000004422 calculation algorithm Methods 0.000 description 68
- 238000004088 simulation Methods 0.000 description 58
- 230000002093 peripheral effect Effects 0.000 description 54
- 238000003860 storage Methods 0.000 description 50
- 230000015654 memory Effects 0.000 description 39
- 230000000007 visual effect Effects 0.000 description 32
- 230000008859 change Effects 0.000 description 27
- 230000006870 function Effects 0.000 description 20
- 230000014509 gene expression Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 238000012804 iterative process Methods 0.000 description 10
- 230000009467 reduction Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 239000000203 mixture Substances 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 6
- 238000006731 degradation reaction Methods 0.000 description 6
- 238000009795 derivation Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 239000006185 dispersion Substances 0.000 description 4
- 238000009472 formulation Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 210000004072 lung Anatomy 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000003936 working memory Effects 0.000 description 4
- 239000000654 additive Substances 0.000 description 3
- 230000000996 additive effect Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000003449 preventive effect Effects 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 238000005309 stochastic process Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001373 regressive effect Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
Images
Description
本発明は、画像復元装置および画像復元方法に関する。 The present invention relates to an image restoration apparatus and an image restoration method.
近年、画像工学の分野において、劣化した画像から原画像を復元する技術の研究開発が多くなされている。すなわち、原画像(所望情報、クリアな画像)に不必要な情報(ぼけと雑音)が混在した劣化画像(受信情報)から不必要な情報(ぼけと雑音)を取り除き、原画像(所望情報)のみを抽出することは、画像復元の分野において必要不可欠な技術であり、近年盛んに研究開発が行われている。例えば、デジタルカメラ(デジタルスチルカメラおよびデジタルビデオカメラの総称)や携帯電話などで撮影された画像は、手ぶれや焦点ずれなどに起因する「ぼけ」と、暗電流や熱雑音などに起因するガウス性またはインパルス性の「雑音」との影響から、実物と比較して画質が劣化することは避けられない。「画像復元」とは、このように劣化した画像からできるだけ原画像に近い画像を復元することである。 In recent years, in the field of image engineering, much research and development of techniques for restoring original images from degraded images has been performed. That is, unnecessary information (blur and noise) is removed from a deteriorated image (received information) in which unnecessary information (blur and noise) is mixed in the original image (desired information and clear image), and the original image (desired information) Extracting only the image is an indispensable technique in the field of image restoration, and research and development have been actively conducted in recent years. For example, images taken with a digital camera (a generic name for digital still cameras and digital video cameras) and mobile phones are “blurred” due to camera shake and defocus, and Gaussian due to dark current and thermal noise. Or, due to the influence of impulsive “noise”, it is inevitable that the image quality deteriorates compared to the actual product. “Image restoration” is to restore an image as close to the original image as possible from the image thus deteriorated.
現在一般に市場で普及している画像復元技術の多くは、例えば、手ぶれ補正や顔認識、色補正、様々なフィルタなどを用いて、予めぼけと雑音の影響を軽減させる予防的な技術が主流となっている。この結果、近年、特にデジタルカメラの分野では、デジタルカメラの多機能化・高性能化により鮮明な画像が気軽に手に入れられるようになってきている。 Many of the image restoration techniques that are currently popular in the market are mainly preventive techniques that reduce the effects of blur and noise in advance using, for example, camera shake correction, face recognition, color correction, and various filters. It has become. As a result, in recent years, especially in the field of digital cameras, clear images can be easily obtained due to the increase in functionality and performance of digital cameras.
しかし、これらの予防的な技術は、何度も画像を撮り直せる状況下では問題ないが、古文書などの既に劣化している画像や、スポーツや医療などの分野における瞬間的に変化する画像など、撮り直しが許されない画像に対する復元は、いまだ困難な問題である。ここで、スポーツと医療の分野における瞬間的に変化する画像は、例えば、選手の瞬間的な動作や、肺や心臓などの臓器の瞬間的な様子などである。したがって、今日、特に、撮り直しが許されない状況下における画像復元の重要性が高まってきている。 However, these preventive technologies do not pose a problem in situations where you can retake the image many times, but images that have already deteriorated, such as old documents, and images that change instantaneously in fields such as sports and medical care, etc. Restoring images that cannot be retaken is still a difficult problem. Here, the images that change instantaneously in the fields of sports and medicine are, for example, the instantaneous movements of athletes and the instantaneous appearance of organs such as the lungs and heart. Therefore, the importance of image restoration is increasing today, particularly in situations where re-taking is not permitted.
撮り直しが許されない状況下における従来の画像復元技術として、ウィナーフィルタ(Wiener Filter)を用いた画像復元手法が広く知られている(非特許文献1、非特許文献2)。この手法は、フィルタを通して得られる復元画像と原画像との平均2乗誤差を最小にするフィルタであって、最小2乗フィルタとも呼ばれている。この手法は、周波数領域で処理を行うため、確率過程の定常性と半無限長の画像のサイズとを前提にした画像復元手法である。
An image restoration technique using a Wiener filter is widely known as a conventional image restoration technique in a situation where re-shooting is not permitted (Non-patent
また、他の画像復元技術として、射影フィルタを用いた画像復元手法も知られている(非特許文献3、非特許文献4)。射影フィルタは、原画像と復元画像との近さを直接原画像の空間で評価しており、復元画像の雑音の画像成分が個々の原画像の最良近似、つまり、個々の原画像の正射影となるものの中で、復元画像の雑音成分の2乗平均を最小にするものである。また、この性質から、射影フィルタは、出現頻度に無関係に、最良近似画像を復元する手法である。
As another image restoration technique, an image restoration method using a projection filter is also known (Non-Patent
また、さらに他の画像復元技術として、カルマンフィルタ(Kalman Filter)を用いた画像復元手法も知られている(非特許文献5、非特許文献6)。この手法は、まずステップ1で、劣化画像を用いて原画像のAR(Auto Regressive:自己回帰)システムのパラメータ(以下「AR係数」という)を推定した後、ステップ2で、ステップ1で推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成し、これにカルマンフィルタ理論(カルマンフィルタアルゴリズム)を適用することによって、高性能な画像復元を実現している。さらには、このような2段階処理を行うカルマンフィルタを2次元カルマンフィルタに拡張した画像復元手法も知られている(非特許文献7、非特許文献8)。この手法は、2次元に拡張した状態空間モデルを用いて、劣化画像を復元するカルマンフィルタを実現している。なお、非特許文献7および非特許文献8に示す2次元カルマンフィルタと区別するため、適宜、非特許文献5および非特許文献6に示すカルマンフィルタを「1次元カルマンフィルタ」と称する。
As another image restoration technique, an image restoration method using a Kalman filter is also known (
しかしながら、ウィナーフィルタを用いた画像復元手法は、画像の劣化状態によらず復元が可能であるという利点を有する反面、非定常性(画像の分散が変化していること)が強い自然画像(加工されていない撮影されたままの画像)に対する復元精度が低いという欠点がある。 However, the image restoration method using the Wiener filter has the advantage that restoration is possible regardless of the degradation state of the image, but on the other hand, it is a natural image (processed) that has a strong non-stationarity (change in image dispersion). However, there is a drawback in that the restoration accuracy is low for an image that has not been shot).
すなわち、ウィナーフィルタを用いた画像復元手法は、上記のように、周波数領域で処理を行うため、確率過程の定常性と半無限長の画像のサイズとを前提にしているが、現実には、実環境においてこの前提条件が成り立つことは困難であるため、適切に復元されない場合が存在する(自然画像の非定常性の問題)。また、この手法は、最小2乗誤差を評価量とした一括処理であるため、復元画像にぼけが残るという問題が生じる可能性もある(評価量の問題)。 In other words, the image restoration method using the Wiener filter performs processing in the frequency domain as described above, and therefore assumes the stationary nature of the stochastic process and the size of the semi-infinite image, but in reality, Since it is difficult to satisfy this precondition in a real environment, there are cases where it cannot be properly restored (the problem of non-stationarity of natural images). Further, since this method is a batch process using the least square error as an evaluation amount, there is a possibility that the restored image remains blurred (evaluation amount problem).
具体的には、ウィナーフィルタを用いた画像復元手法では、画像の出現頻度が低くなると、復元精度が低下する、つまり、画像においては、出現頻度が低いエッジ部分の復元に影響するという問題がある。換言すれば、例えば、カメラで撮影された画像は、エッジ部分が多く非定常性が強いため、特にエッジ部分において最適に復元できないという問題がある。ただし、階調や色などが変化していない、つまり、画像の分散が変化していない、単調な背景部分などは、定常性が強いため、通常、良好な復元精度を得ることができる。 Specifically, in the image restoration method using the Wiener filter, when the appearance frequency of the image is lowered, the restoration accuracy is lowered, that is, in the image, there is a problem that the restoration of the edge portion having the low appearance frequency is affected. . In other words, for example, an image photographed with a camera has a problem that it cannot be optimally restored especially at the edge portion because it has many edge portions and strong non-stationarity. However, since the tone, color, or the like does not change, that is, the monotonous background portion in which the dispersion of the image does not change has high steadiness, usually, good restoration accuracy can be obtained.
また、カルマンフィルタを用いた画像復元手法は、ウィナーフィルタを用いた画像復元手法の問題点(自然画像の非定常性の問題と評価量の問題)を解決するための手法であって、ウィナーフィルタを用いた画像復元手法の問題点を解決可能であるという利点を有する反面、処理対象画像(観測画像・劣化画像)にぼけに基づく劣化があると、復元精度が低いという問題がある。 The image restoration method using the Kalman filter is a method for solving the problems of the image restoration method using the Wiener filter (the problem of unsteadiness of natural images and the problem of the evaluation amount). While having the advantage of being able to solve the problems of the used image restoration technique, there is a problem that the restoration accuracy is low when the processing target image (observed image / degraded image) is deteriorated due to blur.
すなわち、カルマンフィルタを用いた画像復元手法は、ステップ1で、注目画素とその周囲の画素との相関を考慮すべく、前処理として注目画素とその周囲の画素に対して原画像のAR係数を推定した後、ステップ2で、ステップ1で推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成し、具体的には、ステップ1で推定したAR係数と原画像から状態方程式を構成し、原画像とぼけ関数と雑音から観測方程式を構成することにより、カルマンフィルタ理論(カルマンフィルタアルゴリズム)を用いて画像を復元している。したがって、カルマンフィルタを用いた画像復元手法は、定常性を前提としない時間領域のみの処理であり、かつ、推定誤差の分散を評価量とする逐次的処理であるため、ウィナーフィルタを用いた画像復元手法の問題点を解決することができる。なお、このような2段階処理を必要とする点は、1次元カルマンフィルタを用いた手法も2次元カルマンフィルタを用いた手法も同様である。
That is, in the image restoration method using the Kalman filter, in
しかしながら、一方で、カルマンフィルタを用いた手法は、1次元カルマンフィルタであれ2次元カルマンフィルタであれ、ステップ1で推定したAR係数を用いてステップ2のカルマンフィルタアルゴリズムを実行するため、ステップ1でのAR係数の推定精度に劣化画像の復元精度が大きく依存してしまうという問題を有している(ARシステムの問題)。例えば、デジタルカメラの場合、処理対象画像にぼけ(焦点ずれなど)に基づく劣化が含まれると、ステップ1でのAR次数の決定およびAR係数の推定が困難となるため、ステップ2でのカルマンフィルタによる画像復元の精度に影響が出てしまう。
However, on the other hand, the method using the Kalman filter, whether it is a one-dimensional Kalman filter or a two-dimensional Kalman filter, executes the Kalman filter algorithm in
この点、一般には、AR係数の正確な推定は困難である。AR係数の正確な推定は、例えば、画像復元であれば、クリアな画像(原画像)に依存しているからである。このことは、原画像が既知でなければならないことを意味しているため、リアルタイム処理は困難となる。また、仮に何らかの手法でリアルタイムにAR係数を正確に推定することが可能になったとしても、処理が増加するため演算量の問題は避けられない。また、そもそも、AR係数の推定はAR係数の次数を決定した後に行われるが、AR係数の次数を決定するのは非常に困難であり、この点からもAR係数の正確な推定は困難であるといえる。 In this respect, generally, it is difficult to accurately estimate the AR coefficient. This is because accurate estimation of the AR coefficient depends on a clear image (original image) in the case of image restoration, for example. This means that the original image must be known, so real-time processing becomes difficult. Also, even if it becomes possible to accurately estimate the AR coefficient in real time by any method, the problem of computational complexity is inevitable because the processing increases. In the first place, the estimation of the AR coefficient is performed after determining the order of the AR coefficient. However, it is very difficult to determine the order of the AR coefficient, and it is difficult to accurately estimate the AR coefficient from this point. It can be said.
したがって、今日、ウィナーフィルタを用いた画像復元手法の問題点およびカルマンフィルタを用いた画像復元手法の問題点の両方を解決しうる、シンプルで実用的な高性能の画像復元手法、つまり、シンプルな構成を有し、かつ、実環境でも使用可能であり、しかも劣化画像の復元性能(つまり、画像復元能力)が高い画像復元手法が求められている。特に、劣化画像の復元性能(画像復元能力)としては、クリアな画像にぼけと雑音が含まれた劣化画像に対して、ぼけと雑音を同時に取り除くことができる高い性能(能力)が求められている。 Therefore, a simple and practical high-performance image restoration method that can solve both the problems of the image restoration method using the Wiener filter and the image restoration method using the Kalman filter, that is, a simple configuration today. There is a need for an image restoration technique that has high image restoration performance and that can be used in a real environment and has high restoration performance (that is, image restoration capability) for degraded images. In particular, the degraded image restoration performance (image restoration capability) requires high performance (capability) that can remove blur and noise at the same time for degraded images that contain blur and noise in a clear image. Yes.
本発明の目的は、ぼけと雑音を同時に除去することができる高い画像復元能力を実現することができるシンプルで実用的な画像復元装置および画像復元方法を提供することである。 An object of the present invention is to provide a simple and practical image restoration apparatus and image restoration method capable of realizing a high image restoration capability capable of simultaneously removing blur and noise.
本発明の画像復元装置は、原画像情報に不必要な情報が混在した劣化画像情報のみから前記原画像情報を推定する画像復元装置であって、時刻nのみの劣化画像情報に対して、時刻nまたは時刻n+1までの情報により前記原画像情報を含む時刻n+1でのシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算部と、時刻nのみの劣化画像情報に対して、前記相関演算部によって算出された相関値を用いて、時刻n+1までの情報による時刻n+1での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記劣化画像情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出部と、時刻nのみの劣化画像情報に対して、前記重み係数算出部によって算出された重み係数を用いて、時刻nまたは時刻n+1までの情報による時刻n+1での前記状態量の最適推定値を算出する最適推定値算出部と、を有する構成を採る。
The image restoration device of the present invention is an image restoration device that estimates the original image information only from the deteriorated image information in which unnecessary information is mixed in the original image information. a correlation calculation unit that calculates a correlation value of an estimation error when the state quantity of the system at time n + 1 including the original image information is estimated from information up to n or
本発明の画像復元方法は、原画像情報に不必要な情報が混在した劣化画像情報のみから前記原画像情報を推定する画像復元方法であって、時刻nのみの劣化画像情報に対して、時刻nまたは時刻n+1までの情報により前記原画像情報を含む時刻n+1でのシステムの状態量を推定した場合の推定誤差の相関値を算出する相関演算工程と、時刻nのみの劣化画像情報に対して、前記相関演算工程で算出した相関値を用いて、時刻n+1までの情報による時刻n+1での前記状態量の最適推定値と、時刻nまでの情報による時刻n+1での前記状態量の最適推定値と、前記劣化画像情報を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、時刻nのみの劣化画像情報に対して、前記重み係数算出工程で算出した重み係数を用いて、時刻nまたは時刻n+1までの情報による時刻n+1での前記状態量の最適推定値を算出する最適推定値算出工程と、を有するようにした。
The image restoration method of the present invention is an image restoration method for estimating the original image information only from the deteriorated image information in which unnecessary information is mixed in the original image information. a correlation calculation step of calculating a correlation value of an estimation error when the state quantity of the system at time n + 1 including the original image information is estimated from information up to n or
本発明によれば、ぼけと雑音を同時に除去することができる高い画像復元能力を実現することができるシンプルで実用的な画像復元装置および画像復元方法を得ることができる。 According to the present invention, it is possible to obtain a simple and practical image restoration apparatus and image restoration method capable of realizing a high image restoration capability capable of simultaneously removing blur and noise.
以下、本発明の実施の形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る画像復元装置の構成を示すブロック図である。ここでは、本発明の画像復元方法を適用した好適な画像復元装置について、特に各種の用途に対応可能な汎用的な画像復元装置を例にとって説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of an image restoration apparatus according to
図1に示す画像復元装置100は、コンピュータで構成されており、大別して、画像入力装置110、入力インタフェース部120、操作部130、内部インタフェース部140、記憶部150、画像復元処理部160、出力インタフェース部170、および画像出力装置180を有する。
The
画像入力装置110は、復元処理の対象となる画像データ(劣化画像)をデジタルデータとしてコンピュータに入力するための入力装置である。入力する画像は、静止画像でも動画像でもよい。画像入力装置110としては、例えば、カメラ112やスキャナ114、記録メディア116、モデム118などを用いることができる。カメラ112は、撮像機能を有するすべての装置を意味し、例えば、デジタルカメラ(デジタルスチルカメラとデジタルビデオカメラ)のほかに、カメラ機能を搭載した携帯電話や、防犯カメラ(監視カメラ)、画像診断を行うための医療機器(内視鏡、レントゲン、エコー、CT、MRIなど)などを含むことができる。スキャナ114は、代表的な画像入力装置の1つであり、ネガやポジといったファイルからの読み込みを専用に行うフィルムスキャナなども含んでいる。記録メディア116は、画像データを記録可能な記録媒体を広く意味し、例えば、磁気ディスク(HDDやFDなど)や、光ディスク(CDやDVD、BDなど)、光磁気ディスク(MO)、フラッシュメモリ(メモリカードやUSBメモリなど)などである。モデム118は、外部の通信ネットワーク(例えば、電話回線やLAN、インターネットなど)と接続するための装置である。なお、画像入力装置110の種類は、画像復元装置100の用途に応じて適宜選択すればよい。
The
入力インタフェース部120は、画像入力装置110から提供される画像データをコンピュータで処理可能なデータ形式に変換するなどの入力処理を行う。図示しないが、入力インタフェース部120は、画像入力装置110の種類に応じて別個独立に設けられる。例えば、記録メディア116の入力インタフェース部120は、ドライブとも呼ばれ、記録メディア116の種類に応じて様々な種類のドライブが使用可能である。なお、ドライブは、記録メディアを読み書きする装置であり、記録メディアに関する限り、通常は、入力インタフェース部120と出力インタフェース部170は一体化されている。また、通常、モデム118は、画像入力装置110としても画像出力装置180としても機能しうるため、モデム118に関しても、通常、入力インタフェース部120と出力インタフェース部170は一体化されている。入力インタフェース部120は、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部140を介して接続された外部設置型機器であってもよい。
The
なお、画像入力装置110が画像情報をアナログデータとして出力する場合、対応する入力インタフェース部120は、サンプリング部およびA/D変換部(共に図示せず)を有する。サンプリング部は、所定のサンプリング周波数で、入力されたアナログ信号をサンプリング処理し、A/D変換部に出力する。サンプリング周波数は、復元処理対象(情報源)の種類に応じて変更可能である。A/D変換部は、サンプリングされた信号の振幅値を所定の分解能でA/D変換処理する。
When the
操作部130は、典型的にはキーボートやマウス、タッチパネルなどであるが、音声認識装置などを用いてもよい。使用者は、操作部130を用い、例えば、後述するディスプレイ182で確認をしながらコンピュータを操作することができる。また、操作部130は、パラメータ設定部132、領域指定部134、および復元モード指定部136を有する。パラメータ設定部132は、使用者の入力操作により、後で詳述する本実施の形態における画像復元処理に必要な各種パラメータの値を設定する。領域指定部134は、使用者の入力操作により、入力された画像に対して画像復元処理の対象となる領域(画像の特定の範囲)を指定する。復元モード指定部136は、使用者の入力操作により、後述する復元モードを指定する。
The
内部インタフェース部140は、コンピュータ本体の内部にあって、入力インタフェース部120、操作部130、記憶部150、画像復元処理部160、および出力インタフェース部170を相互に接続する機能を有する。コンピュータの内部における各種信号のやり取りは、内部インタフェース部140を介して行われる。
The
記憶部150は、主記憶装置152および補助記憶装置154を有する。主記憶装置152は、コンピュータの本体を構成する一要素であって、主にプログラムとデータを格納する。補助記憶装置154は、主記憶装置152の容量の不足を補う記憶装置である。補助記憶装置154は、典型的にはハードディスク(HD)であるが、CD−ROMやDVD、SSD(Solid State Drive)、フラッシュメモリなどの可搬性のあるものであってもよいし、また、それらの組み合わせであってもよい。本実施の形態における画像復元処理を実行させるプログラム(画像復元アルゴリズム)は、予め記憶部150(主記憶装置152または補助記憶装置154)に格納されていてもよいし、記録メディア116から両インタフェース部120、140を介して記憶部150にインストールしたり、モデム118および両インタフェース部120、140を介して外部から記憶部150にダウンロードしたりしてもよい。
The
なお、画像入力装置110から画像データを取り込み、取り込んだ画像データに対して画像復元処理を行い、復元処理後の画像データを画像出力装置180から取り出すという一連の処理を実行するためには、取り込んだ画像データを格納しておく記憶領域と、データ処理の上で一時的に必要な記憶領域(作業領域または作業用メモリと呼ばれる)と、出力すべき画像データを格納しておく記憶領域とが必要である。これらの記憶領域は、主記憶装置152または補助記憶装置154の上に取られるが、ここでは、説明の便宜上、復元処理後の画像データを後述するディスプレイ182に出力する場合を想定して、特に表示メモリ156を図面上に別途表記している。
In order to execute a series of processes in which image data is captured from the
画像復元処理部160は、本発明の特徴的な構成要素であり、後述する内蔵された画像復元アルゴリズムを実行する。例えば、カルマンフィルタを用いた従来の画像復元手法では、2段階処理、つまり、AR次数を決定し、AR係数を推定した後、この推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成してカルマンフィルタを実行することによって、画像復元を実現しているのに対し、本発明の画像復元方法(以下「発明手法」という)では、状態方程式と観測方程式から構成される新しい予測法によって画像復元を実現している。具体的には、発明手法では、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成することによって、より具体的には、状態方程式をクリアな画像情報(原画像情報)のみで構成し、かつ、観測方程式を劣化画像情報、クリアな画像情報(原画像情報)、ぼけ情報、および雑音で構成した新たな状態空間モデルを用いることによって、画像復元を実現している。画像復元の対象となる画像は、静止画像でも動画像でもよい。なお、本発明の画像復元方法については、後で詳細に説明する。
The image
画像出力装置180は、コンピュータ(画像復元処理部160)で復元処理された画像データ(復元画像)を所定の出力形態で外部に取り出すための出力装置である。画像出力装置180としては、例えば、ディスプレイ182やプリンタ184、記録メディア186、モデム188などを用いることができる。記録メディア186およびモデム188は、画像入力装置110としての記録メディア116およびモデム118とそれぞれ共用してもよい。なお、画像出力装置180の種類は、画像復元装置100の用途に応じて適宜選択すればよい。
The
出力インタフェース部170は、コンピュータ(画像復元処理部160)で復元処理された画像データ(復元画像)を画像出力装置180に出力可能なデータ形式に変換するなどの出力処理を行う。図示しないが、出力インタフェース部170は、画像出力装置180の種類に応じて別個独立に設けられる。上記のように、記録メディアおよびモデムに関しては、通常、入力インタフェース部120と出力インタフェース部170は一体化されている。出力インタフェース部170も、入力インタフェース部120と同様に、コンピュータ本体の内部に格納された内蔵カード(ボード)であってもよいし、内部インタフェース部140を介して接続された外部設置型機器であってもよい。
The
図2(A)は、図1の画像復元処理部160の構成を示すブロック図であり、図2(B)は、図2(A)の第1復元処理部160aの構成を示すブロック図である。
2A is a block diagram showing the configuration of the image
本実施の形態では、図2(A)に示すように、画像復元処理部160は、第1復元処理部160aと第2復元処理部160bを有する。第1復元処理部160aは、本発明の画像復元方法を実施する。第2復元処理部160bは、本発明の画像復元方法以外の画像復元方法、例えば、ウィナーフィルタを用いた画像復元手法やカルマンフィルタを用いた画像復元手法などの従来の画像復元方法を実施する。これによって、第1復元処理部160aと第2復元処理部160bとを用いた画像復元処理が可能となる。なお、以下では、第2復元処理部160bで実施する従来の画像復元方法として、例えば、ウィナーフィルタを用いた画像復元手法(以下「従来手法1」という)を例にとって説明する。
In the present embodiment, as shown in FIG. 2A, the image
第1復元処理部160aは、図2(B)に示すように、初期設定部162、相関演算部164、重み係数算出部166、および最適推定値算出部168を有する。第1復元処理部160aは、各部162〜168の協働の下、内蔵された画像復元アルゴリズム(発明手法)を実行することによって、取り込んだ画像データ(劣化画像)のみからクリアな画像(原画像)を復元する。このとき、初期設定部162は、発明手法の画像復元アルゴリズムの初期設定を行い、相関演算部164は、原画像(所望情報、クリアな画像)の推定誤差の相関演算を行い、重み係数算出部166は、原画像(所望情報)の最適推定値の算出に必要な重み係数の算出を行い、最適推定値算出部168は、原画像(所望情報)の最適推定値の算出を行う。なお、各部162〜168の具体的な処理内容は、後で詳細に説明する。
As shown in FIG. 2B, the first
以下、第1復元処理部160aで行われる画像復元処理動作について詳細に説明するが、ここでは、まず、画像復元の理論となる劣化画像モデルについて説明しておく。
Hereinafter, the image restoration processing operation performed by the first
劣化した画像は、一般的に、原画像とぼけの点拡がり関数(PSF:Point Spread Function、以下単に「ぼけ関数」ともいう)の畳み込み(コンボリューション)に雑音を加えたモデルによって得られる。すなわち、イメージングシステム(対象物を撮像する装置や画像を生成するシステムなど)によって得られる劣化画像g(x,y)は、対象物を表す原画像をf(n,m)、ぼけの点拡がり関数をh(x,y)、雑音をn(x,y)でそれぞれ表すと、次の式(1)で表される。なお、ぼけの点拡がり関数h(x,y)は、撮影条件なども含めたイメージングシステムの特性を表している。 In general, a deteriorated image is obtained by a model obtained by adding noise to a convolution of an original image and a blurred point spread function (PSF: Point Spread Function). That is, a degraded image g (x, y) obtained by an imaging system (an apparatus that captures an object, a system that generates an image, etc.) is f (n, m) representing the original image representing the object, and the point spread of the blur is increased. When the function is represented by h (x, y) and the noise is represented by n (x, y), it is represented by the following equation (1). Note that the blurred point spread function h (x, y) represents the characteristics of the imaging system including imaging conditions.
図3は、画像の劣化の過程を説明するための図である。 FIG. 3 is a diagram for explaining the process of image degradation.
例えば、図3の左端に示す原画像にぼけが生じると、図3の中央に示す画像となり、この画像にさらに雑音が加わると、図3の右端に示す劣化画像となる。ぼけは、ある画素がその周囲の画素に影響することによって生じるが、雑音は、画素に関係なく発生する。上記のように、カメラなどで撮影された画像の場合、ぼけは、手ぶれや焦点ずれなどに起因して生じ、雑音は、暗電流や熱雑音などに起因して不可避的に発生する。図3に示すように、劣化画像の復元は、劣化画像からぼけと雑音を取り除くことにほかならない。 For example, when the original image shown at the left end of FIG. 3 is blurred, the image shown at the center of FIG. 3 is obtained, and when noise is further added to this image, the deteriorated image shown at the right end of FIG. Blur is caused by a pixel affecting its surrounding pixels, but noise occurs regardless of the pixel. As described above, in the case of an image taken with a camera or the like, blur is caused by camera shake or defocus, and noise is unavoidably caused by dark current or thermal noise. As shown in FIG. 3, restoration of a degraded image is nothing but removing blur and noise from the degraded image.
発明手法では、上記のように、ARシステムのコンセプトを用いないようにするために、新しい状態空間モデル(状態方程式と観測方程式)を構成する。すなわち、クリアな画像情報(原画像情報)のみを用いて状態方程式を構成し、かつ、劣化画像情報、クリアな画像情報(原画像情報)、ぼけ情報、および雑音を用いて観測方程式を構成する。なお、本実施の形態では、発明手法として、6つの具体的な手法を提示する。ここでは、便宜上、第1の発明手法から第6の発明手法を、発明手法1、発明手法2、発明手法3、発明手法4、発明手法5、発明手法6とそれぞれ称し、順次説明する。
In the inventive method, as described above, in order not to use the concept of the AR system, a new state space model (state equation and observation equation) is configured. That is, the state equation is configured using only clear image information (original image information), and the observation equation is configured using degraded image information, clear image information (original image information), blur information, and noise. . In the present embodiment, six specific techniques are presented as inventive techniques. Here, for convenience, the first to sixth invention methods will be referred to as
発明手法1〜6は、いずれも、AR係数を用いない画像復元手法であって、ぼけと雑音を同時に除去することができる、シンプルで実用的な高性能の画像復元手法である。ただし、発明手法1〜6は、互いに、アルゴリズムの違いに応じて、演算量や復元処理速度、画像復元能力などが異なる。ここでは、各発明手法1〜6を詳細に説明する前に、各発明手法1〜6の特徴、長所、短所をまとめておく。
発明手法1〜3は、1次元の画像復元手法であり、発明手法4〜6は、発明手法1〜3をそれぞれ2次元に拡張した2次元の画像復元手法である。発明手法1は、本発明に係る画像復元方法の基本型である。発明手法1は、AR係数を用いない画像復元手法であって、有色性駆動源を持つ状態空間モデルを構成している。発明手法1は、従来技術に対して、高性能な劣化画像復元が可能であるという長所を有する反面、他の発明手法2、3に比べて、演算量が多いという短所を有する。発明手法2は、発明手法1に対して、注目画素領域のみ考慮した状態空間モデルを再構成した手法であって、注目画素領域のみ用いることで、演算量を大幅に軽減している。発明手法2は、高速(低演算量)な劣化画像復元が可能であるという長所を有する(画像復元能力は発明手法1とほぼ同等である)。発明手法3は、発明手法1、2に対して、有色駆動源の影響も考慮した状態空間モデルを再構成した手法である。発明手法3は、演算量の軽減、復元処理速度の向上、有色性駆動源にも適用可能、および画像復元能力の向上といった長所を有し、画像復元能力を向上しながら高速(低演算量)な劣化画像復元が可能な手法である。
上記のように、発明手法1は、AR係数を用いない1次元の画像復元手法であって、従来技術に対して、高性能な劣化画像復元が可能であるという特徴を有する。発明手法4〜6は、2次元の画像復元手法であって、発明手法1に対して、柔軟な処理効率の向上が図られるという特徴を有する。発明手法4は、発明手法1を2次元に拡張した画像復元手法であって、注目画素領域と周辺画素領域をそれぞれ任意にとることにより処理効率の向上が図られるという長所を有する反面、他の発明手法1〜3、5、6に比べて、演算量が多いという短所を有する。発明手法5は、発明手法4に対して、注目画素領域のみ考慮した状態空間モデルを再構成した手法であって、注目画素領域のみ用いることで、発明手法4に対して、演算量を大幅に軽減している。発明手法5は、高速(低演算量)な劣化画像復元が可能であるという長所を有する反面、発明手法4よりも若干復元精度が低下するという短所を有する。発明手法6は、発明手法4、5に対して、有色駆動源の影響も考慮した状態空間モデルを再構成した手法であって、発明手法5の短所を改善したものである。発明手法6は、良好な画像復元能力、有色性駆動源にも適用可能、演算量の軽減、復元する画素に適した復元処理が可能といった長所を有し、処理効率性を考慮した実用的な劣化画像復元手法である。特に、発明手法1〜3を2次元に拡張した発明手法4〜6は、注目画素領域と周辺画素領域をそれぞれ任意に選択することができるため、劣化画像の状態と使用者の要望(処理速度または処理品質)に応じて、1次元の発明手法1〜3に適応することも可能であるし、あるいは、若干の変更により2次元の発明手法4〜6に適応することも可能である、という特徴を有する。
As described above,
具体的には、発明手法では、新しい状態空間モデル(状態方程式と観測方程式)を構成し、この新しい状態空間モデルは、次の式(2)で表される。ただし、状態方程式において、ベクトルxp1(n)は状態ベクトル(原画像情報)、行列Φp1は状態遷移行列、ベクトルδp1(n)は駆動源ベクトルである。また、観測方程式において、ベクトルyp1(n)は観測ベクトル(観測画像情報、劣化画像情報)、行列Mp1は観測遷移行列、ベクトルεp1(n)は観測雑音ベクトルである。また、「n」とは、装置の時刻nである。時刻nは、注目画素(または注目画素領域)と複数の周辺画素(または周辺画素領域)とからなる処理対象ブロックの処理の順番(n番目)を表している。なお、ここでは、説明の便宜上、発明手法として、例えば、基本型である発明手法1を提示する。以下の説明において、添え字「p1」は、発明手法1に係るものであることを示している。また、ここでは、注目画素領域および周辺画素領域における「画素領域」は、1つの画素のみを含む場合と、複数の画素を含む場合の両方を意味する。すなわち、ぼけと雑音が含まれる劣化画像を復元する際の復元処理対象として、1つの画素を「注目画素」と称し、少なくとも1つ以上の画素を含む領域を「注目画素領域」と称する。また、注目画素に隣接する画素を「周辺画素」と称し、注目画素に隣接する画素を含む領域、または、注目画素に隣接する画素および注目画素に隣接しないがその周辺の画素を含む領域を、「周辺画素領域」と称する。
Specifically, in the inventive method, a new state space model (state equation and observation equation) is constructed, and this new state space model is expressed by the following equation (2). However, in the state equation, the vector x p1 (n) is a state vector (original image information), the matrix Φ p1 is a state transition matrix, and the vector δ p1 (n) is a drive source vector. In the observation equation, the vector y p1 (n) is an observation vector (observation image information and degraded image information), the matrix M p1 is an observation transition matrix, and the vector ε p1 (n) is an observation noise vector. “N” is the time n of the apparatus. The time n represents the processing order (nth) of the processing target block including the target pixel (or target pixel region) and a plurality of peripheral pixels (or peripheral pixel regions). Here, for convenience of explanation, for example,
図4は、この状態空間モデルにおけるシステム構成をブロック線図で表したものである。 FIG. 4 is a block diagram showing the system configuration in this state space model.
図4に示すように、この状態空間モデルは、状態過程と観測過程とで構成される。状態過程は、状態方程式によって記述され、観測過程は、観測方程式によって記述される。図4において、「201」は時刻nにおける状態ベクトルxp1(n)、「202」は時刻n+1における状態ベクトルxp1(n+1)、「203」は時刻nにおける観測ベクトルyp1(n)、「204」は時刻nにおける観測雑音ベクトルεp1(n)、「205」は時刻n+1における駆動源ベクトルδp1(n+1)、「206」は状態遷移行列Φp1、「207」は観測遷移行列Mp1である。式(2)における状態方程式は、観測対象のシステムを状態空間モデルで記述したものであり、内部状態つまり状態変数(ここでは、状態ベクトルxp1(n)、xp1(n+1))の時間に対する生成過程を表している。また、式(2)における観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測結果(ここでは、観測ベクトルyp1(n))が、被観測量つまり入力(ここでは、状態ベクトルxp1(n))に依存して生成される様子を示している。
As shown in FIG. 4, this state space model is composed of a state process and an observation process. A state process is described by a state equation, and an observation process is described by an observation equation. In FIG. 4, “201” is a state vector x p1 (n) at time n, “202” is a state vector x p1 (n + 1) at
図5は、発明手法1の状態方程式の定式化の具体例を説明するための図であり、特に、図5(A)は、状態空間モデルの状態過程を示す図、図5(B)は、処理対象ブロックおよびその時間変化の一例を示す図、図5(C)は、状態方程式の具体例を示す図である。
FIG. 5 is a diagram for explaining a specific example of the formulation of the state equation according to the
発明手法1では、劣化画像の復元処理は、復元対象である注目画素のみを用いるのではなく、その周辺の画素も含めて処理を行う。すなわち、J×Jの大きさの画像のある注目画素を中心にして、その周辺K×K(ただし、J>K)の領域を処理対象ブロックとし、この処理対象ブロックの中の画素情報を用いて、画像の復元処理を行う。このように、処理対象ブロックとは、画像復元においてK×Kの画素を用いて処理を行う範囲を意味する。
In
例えば、J=256、K=3とした場合、図5に示すように、256×256の大きさの画像のある注目画素を中心にして、その周辺3×3の画素領域が処理対象ブロックとなる。図面上、処理対象ブロックは、網かけされている。画像復元処理は、この3×3の処理対象ブロックの中の画素情報を用いて行われる。単に説明の便宜上、図5(B)に示すように、256×256の大きさの画像の一部の画素に1〜36の番号を付したとすると、時刻nにおける状態ベクトルxp1(n)に対応する処理対象ブロックは、番号が1、2、3、7、8、9、13、14、15の3×3の9個の画素を構成要素とし、次の時刻n+1における状態ベクトルxp1(n+1)に対応する処理対象ブロックは、番号が7、8、9、13、14、15、19、20、21の3×3の9個の画素を構成要素としている。
For example, when J = 256 and K = 3, as shown in FIG. 5, the pixel area of 3 × 3 around the pixel of interest in the 256 × 256 size image is the processing target block. Become. In the drawing, the block to be processed is shaded. The image restoration process is performed using pixel information in the 3 × 3 processing target block. For convenience of explanation, as shown in FIG. 5B, assuming that some pixels of an image having a size of 256 × 256 are numbered 1 to 36, the state vector x p1 (n) at time n The processing target block corresponding to is composed of 9 pixels of 3 × 3 with
このとき、式(2)における状態方程式は、図5(C)にも示す次の式(3)で定義される。ここで、状態ベクトルxp1(n)は、原画像情報を含む状態量として3×3の処理対象ブロックに含まれる9個の画素情報x1(n)、x2(n)、x3(n)、x4(n)、x5(n)、x6(n)、x7(n)、x8(n)、x9(n)を要素とする9×1次のベクトルである。また、状態遷移行列Φp1は、式(3)で定義された9×9次の行列であり、駆動源ベクトルδp1(n)は、同じく式(3)で定義された9×1次のベクトルである。 At this time, the state equation in the equation (2) is defined by the following equation (3) also shown in FIG. Here, the state vector x p1 (n) is nine pieces of pixel information x 1 (n), x 2 (n), and x 3 (x 3 (n) included in a 3 × 3 processing target block as a state quantity including original image information. n), x 4 (n), x 5 (n), x 6 (n), x 7 (n), x 8 (n), x 9 (n), a 9 × first-order vector . The state transition matrix Φ p1 is a 9 × 9 order matrix defined by the equation (3), and the drive source vector δ p1 (n) is a 9 × 1 order matrix similarly defined by the equation (3). Is a vector.
図6は、式(3)で表される状態方程式の構成を説明するための図である。 FIG. 6 is a diagram for explaining the configuration of the state equation represented by Expression (3).
式(3)で表される状態方程式の特徴は、状態遷移行列Φp1の一部の要素を「1」に設定し、残りの要素をすべて「0」に設定した点、および、駆動源ベクトルδp1(n)の一部の要素を有色信号である状態量xi(n)(i=7,8,9)で表した点にある。これは、図6に示すように、現在の時刻n+1における処理対象ブロックと過去の時刻nにおける処理対象ブロックとが重なる部分において、現在の状態量(原画像の画素情報)x1(n+1)、x2(n+1)、x3(n+1)、x4(n+1)、x5(n+1)、x6(n+1)と過去の状態量(原画像の画素情報)x4(n)、x5(n)、x6(n)、x7(n)、x8(n)、x9(n)とを対応させるためである。この結果、xp1(n)とxp1(n+1)の関係を表す状態方程式は、クリアな画像からなる状態ベクトルxp1(n)と、0と1からなる状態遷移行列Φp1と、有色信号であるクリアな画像からなる駆動源ベクトルδp1(n)とから構成されるため、所望の状態量(原画像の画素情報)、つまり、クリアな画像情報(原画像情報)のみで構成されることになる。 The feature of the state equation represented by the equation (3) is that a part of the state transition matrix Φ p1 is set to “1” and the remaining elements are all set to “0”, and the drive source vector A part of δ p1 (n) is a point represented by a state quantity x i (n) (i = 7, 8, 9) which is a colored signal. As shown in FIG. 6, the current state quantity (pixel information of the original image) x 1 (n + 1), in the portion where the processing target block at the current time n + 1 and the processing target block at the past time n overlap. x 2 (n + 1), x 3 (n + 1), x 4 (n + 1), x 5 (n + 1), x 6 (n + 1) and past state quantities (pixel information of the original image) x 4 (n), x 5 ( This is because n), x 6 (n), x 7 (n), x 8 (n), and x 9 (n) are associated with each other. As a result, the state equation representing the relationship between x p1 (n) and x p1 (n + 1) includes a state vector x p1 (n) composed of a clear image, a state transition matrix Φ p1 composed of 0 and 1, and a colored signal. Since it is composed of a drive source vector δ p1 (n) consisting of a clear image, it is composed only of a desired state quantity (original pixel information), that is, clear image information (original image information). It will be.
図7は、発明手法1の観測方程式の定式化の具体例を説明するための図であり、特に、図7(A)は、状態空間モデルの観測過程を示す図、図7(B)は、観測方程式の具体例を示す図である。
FIG. 7 is a diagram for explaining a specific example of the formulation of the observation equation of the
図5および図6の例に対応して、式(2)における観測方程式は、図7(B)にも示す次の式(4)で定義される。ここで、観測ベクトルyp1(n)は、劣化画像情報を含む観測量として3×3の処理対象ブロックに含まれる9個の画素情報y1(n)、y2(n)、y3(n)、y4(n)、y5(n)、y6(n)、y7(n)、y8(n)、y9(n)を要素とする9×1次のベクトルである。また、観測遷移行列Mp1は、式(4)で定義された9×9次の行列であって、画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応している。観測遷移行列Mp1を構成する各要素hr,s(r,sはhの座標であり、r,s=−1,0,1)は、既知であって、予めデータ化して適切に設定されている。また、観測雑音ベクトルεp1(n)は、3×3の処理対象ブロックに含まれる9個の画素に対応する観測雑音ε1(n)、ε2(n)、ε3(n)、ε4(n)、ε5(n)、ε6(n)、ε7(n)、ε8(n)、ε9(n)を要素とする9×1次のベクトルである。 Corresponding to the examples of FIGS. 5 and 6, the observation equation in the equation (2) is defined by the following equation (4) also shown in FIG. Here, the observation vector y p1 (n) is nine pieces of pixel information y 1 (n), y 2 (n), y 3 (y) included in the 3 × 3 processing target block as an observation amount including degraded image information. n), y 4 (n), y 5 (n), y 6 (n), y 7 (n), y 8 (n), y 9 (n), a 9 × 1 order vector . The observed transition matrix M p1 is a 9 × 9 order matrix defined by the equation (4), and corresponds to the blur point spread function (PSF) in the image degradation model. Each element h r, s (r, s is the coordinate of h, r, s = -1, 0, 1) constituting the observation transition matrix M p1 is known and is appropriately set in advance as data. Has been. The observation noise vector ε p1 (n) is the observation noise ε 1 (n), ε 2 (n), ε 3 (n), ε corresponding to nine pixels included in the 3 × 3 processing target block. 4 (n), ε 5 (n), ε 6 (n), ε 7 (n), ε 8 (n), and ε 9 (n) are 9 × 1 order vectors.
図8は、従来一般的な観測方程式の構成(一般例)を説明するための図であり、図9は、式(4)で表される発明手法1の観測方程式の構成を説明するための図である。特に、図8(A)は、従来一般的な観測方程式の定義を示す図、図8(B)は、観測量に影響する状態量の範囲を視覚的に示す図である。また、図9(A)は、発明手法1の観測方程式の定義を示す図、図9(B)は、観測量に影響する状態量の範囲を視覚的に示す図である。なお、図8および図9の説明においては、便宜上、観測雑音ベクトルεp1(n)は省略する。
FIG. 8 is a diagram for explaining the configuration (general example) of a conventional general observation equation, and FIG. 9 is a diagram for explaining the configuration of the observation equation of
画像においてぼけに基づく劣化とは、上記のように、ある画素がその周囲の画素の影響を受けて劣化することである。そこで、従来は、一般的に、図8(A)に示すように観測方程式を定義していた。この場合、ぼけは、周囲のすべての画素の影響を受けることに起因して生じる。すなわち、処理対象ブロックの中の各画素は、処理対象ブロックの中のすべての画素の影響を受けることになる。言い換えれば、各観測量yi(i=1,2,…,9)は、すべての状態量xi(i=1,2,…,9)の影響を受けて成り立つ。これを視覚的に示すと、例えば、図8(B)に示すようになる。すなわち、図8(B)に示すように、例えば、観測量がy1の場合もy2の場合も、3×3(=9)個のすべての状態量x1〜x9の影響を受けることになる。 Deterioration due to blur in an image means that a certain pixel deteriorates under the influence of surrounding pixels as described above. Therefore, conventionally, an observation equation is generally defined as shown in FIG. In this case, the blur is caused by being affected by all surrounding pixels. That is, each pixel in the processing target block is affected by all the pixels in the processing target block. In other words, each observation amount y i (i = 1, 2,..., 9) is affected by all the state amounts x i (i = 1, 2,..., 9). When this is shown visually, for example, it is as shown in FIG. That is, as shown in FIG. 8B, for example, both the observation amount y 1 and y 2 are affected by all 3 × 3 (= 9) state quantities x 1 to x 9. It will be.
これに対し、式(4)で表される発明手法1の観測方程式の特徴は、観測遷移行列Mp1の一部の要素を、3×3(=9)個の係数hr,s(座標r,s=−1,0,1)を用いて規則的に設定し、残りの要素をすべて「0」に設定した点にある。例えば、図9(A)は、観測方程式を展開して得られる一部の式(y1(n)、y2(n)に関する式)を示している。観測遷移行列Mp1に対する係数hr,sの割り当て方法は、次の通りである。すなわち、9個の係数hr,s(r,s=−1,0,1)を図10に示すようにマトリックス状に配列し(以下「係数マトリックス」という)、係数マトリックスの中央(つまり、係数h0,0)の位置を観測量yi(i=1,2,…,9)の注目画素iの位置に合わせたときの、その係数マトリックスに従って、観測遷移行列Mp1の一部の要素に係数hr,s(r,s=−1,0,1)を割り当てる。これを視覚的に示すと、例えば、図9(B)に示すようになる。すなわち、図9(B)に示すように、例えば、観測量がy1の場合は、3×3(=9)個の状態量x1〜x9のうち、5個のx1〜x5の影響を受け、観測量がy2の場合は、6個のx1〜x6の影響を受けることになる。
On the other hand, the characteristic of the observation equation of the
図11は、図9(A)に示す観測遷移行列Mp1に基づく、各観測量yiに影響する状態量xiの範囲を、割り当てられた係数hr,s(r,s=−1,0,1)と共に示す図である。なお、ここでは、説明の便宜上、図11(A)〜図11(I)の各図において、左側の処理対象ブロックには、注目する観測量yiのみを示し、右側の処理対象ブロックには、影響を与える各状態量xiの場所に、この状態量xiに乗算されるhr,sのみを示している。 FIG. 11 shows the range of state quantities x i that affect each observed quantity y i based on the observed transition matrix M p1 shown in FIG. 9 (A), and assigned coefficients h r, s (r, s = −1). , 0, 1). Here, for convenience of explanation, in each of FIGS. 11 (A) to 11 (I), the left processing target block shows only the observation amount y i of interest, and the right processing target block shows , Only h r, s to be multiplied by this state quantity x i is shown at the location of each state quantity x i that has an influence.
式(4)で表される観測方程式では、観測量y1は、図11(A)に示すように、5個の状態量x1〜x5の影響を受け、観測量y2は、図11(B)に示すように、6個の状態量x1〜x6の影響を受け、観測量y3は、図11(C)に示すように、7個の状態量x1〜x7の影響を受ける。また、観測量y4は、図11(D)に示すように、8個の状態量x1〜x8の影響を受け、観測量y5は、図11(E)に示すように、9個すべての状態量x1〜x9の影響を受け、観測量y6は、図11(F)に示すように、8個の状態量x2〜x9の影響を受ける。また、観測量y7は、図11(G)に示すように、7個の状態量x3〜x9の影響を受け、観測量y8は、図11(H)に示すように、6個の状態量x4〜x9の影響を受け、観測量y9は、図11(I)に示すように、5個の状態量x5〜x9の影響を受ける。
In the observation equation of the formula (4), the observed quantity y 1, as shown in FIG. 11 (A), influenced by the five
図12は、発明手法1のアルゴリズムの一例を示す図である。なお、このアルゴリズムは、画像の種類を問わず、静止画像のみならず動画像にも適用可能である。
FIG. 12 is a diagram showing an example of the algorithm of
発明手法1のアルゴリズムは、図12に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。
As shown in FIG. 12, the algorithm of the
図13は、図12のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 13 is a flowchart showing a processing procedure for executing the algorithm of FIG.
まず、初期設定部162で、初期設定を行う(S1000)。具体的には、初期設定部162において、状態ベクトル、つまり、状態量である所望信号(原画像信号)ベクトルの最適推定値(以下「所望信号の最適推定値ベクトル」という)の初期値xp1(0|0)、所望信号ベクトルの推定誤差(以下「所望信号の推定誤差ベクトル」という)の相関行列の初期値Pp1(0|0)、駆動源ベクトルの共分散の値Rδp1(n)[i,j]、および、観測雑音ベクトルの共分散の値Rεp1(n)[i,j]を、次の式(5)に示すようにそれぞれ設定する。また、図12では図示しないが、状態遷移行列Φp1および観測遷移行列Mp1を、式(3)および式(4)に示すようにそれぞれ設定する。なお、ここでは、時刻nのカウンタの初期値を「0」に設定している。また、ベクトルと行列の要素を示す場合、ベクトルa(n)のi番目の要素をa(n)[i]と表記し、行列A(n)のi行j列の要素をA(n)[i,j]と表記することとする。また、図12において、所望信号の最適推定値ベクトルxp1は、ハットxp1と表記する。
First, the
ただし、ベクトル0Kは、K次元の零ベクトルであり、行列IKは、K次の単位行列である。また、Kは、K×Kの大きさの処理対象ブロック(注目画素領域と周辺画素領域)のその次元である。K=3の場合、K2−K=6となり、「i,j>K2−K」は、「i,j=7,8,9」に対応している。また、E[δp1(n),δp1 T(n)]は、駆動源ベクトルδp1(n)の自己相関行列である。E[εp1(n)εp1 T(n)][i,j]は、観測雑音ベクトルεp1の自己相関行列であり、ここではσ2 ε[i,j]と等しく、既知と仮定している。ここでいう「既知」とは、別の任意の方法(アルゴリズム)で求められて与えられることを意味する。もし観測雑音ベクトルεp1(n)が白色雑音であり零平均であれば、σ2 εは所定のサンプル数の分散で与えられる。
However, the
次に、相関演算部164で、n→(n+1)の誤差共分散行列、つまり、n→(n+1)の推定誤差の相関値(行列)(以下「相関行列」ともいう)を計算する(S1100)。具体的には、相関演算部164において、時刻nまでの情報により時刻n+1での所望信号ベクトルを推定した場合の誤差(所望信号の推定誤差ベクトル)の相関行列Pp1(n+1|n)を計算する。この計算は、ステップS1000でそれぞれ設定した状態遷移行列Φp1および駆動源ベクトルの共分散Rδp1(n+1)[i,j]の値、ならびに、ステップS1000で設定した(n=0の場合)または前回のステップS1600で計算した(n≧1の場合)所望信号の推定誤差ベクトルの相関行列Pp1(n|n)を用いて、次の式(6)により行う。なお、このステップS1100は、図12の反復過程の手順1に相当する。
Next, the
次に、重み係数算出部166で、重み係数(行列)の計算を行う(S1200)。具体的には、重み係数算出部166において、観測量である観測信号ベクトルの推定誤差(以下「観測信号の推定誤差ベクトル」という)に重み係数(行列)をかけて、時刻nまでの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n)を加えたものが、時刻n+1までの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n+1)になるような、その重み係数行列Kp1(n+1)を計算する。この計算は、ステップS1100で計算した所望信号の推定誤差ベクトルの相関行列Pp1(n+1|n)、ならびに、ステップS1000でそれぞれ設定した観測遷移行列Mp1および観測雑音ベクトルの共分散Rεp1(n+1)[i,j]の値を用いて、次の式(7)により行う。なお、このステップS1200は、図12の反復過程の手順2に相当する。
Next, the weighting
次に、最適推定値算出部168で、n→(n+1)の状態量(所望信号)の最適推定値(ベクトル)を計算する(S1300)。具体的には、最適推定値算出部168において、時刻nまでの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n)を計算する。この計算は、ステップS1000で設定した状態遷移行列Φp1、および、前回のステップS1400で計算した所望信号の最適推定値ベクトルxp1(n|n)を用いて、次の式(8)により行う。なお、このステップS1300は、図12の反復過程の手順3に相当する。
Next, the optimum estimated
次に、同じく最適推定値算出部168で、(n+1)→(n+1)の状態量(所望信号)の最適推定値(ベクトル)を計算する(S1400)。具体的には、最適推定値算出部168において、時刻n+1までの情報による時刻n+1での所望信号の最適推定値ベクトルxp1(n+1|n+1)を計算する。この計算は、ステップS1300で計算した所望信号の最適推定値ベクトルxp1(n+1|n)、ステップS1200で計算した重み係数行列Kp1(n+1)、ステップS1000で設定した観測遷移行列Mp1、および時刻n+1における観測信号ベクトルyp1(n+1)を用いて、次の式(9)により行う。なお、このステップS1400は、図12の反復過程の手順4に相当する。
Next, the optimum estimated
次に、処理を終了するか否かを判断する(S1500)。この判断は、例えば、時刻nが所定のサンプル数Nに達したか否かを判定することによって行う。この判断の結果として、時刻nが所定のサンプル数Nに達していない場合は(S1500:NO)、ステップS1600に進み、時刻nが所定のサンプル数Nに達した場合は(S1500:YES)、ステップS1800に進む。なお、判断の基準は、上記の例に限定されない。例えば、リアルタイムで処理を行う場合は、時刻nが所定のサンプル数Nに達していなくても、サンプルがなくなった時点で処理を終了するようにしてもよい。 Next, it is determined whether or not to end the process (S1500). This determination is made, for example, by determining whether the time n has reached a predetermined number N of samples. As a result of this determination, when the time n has not reached the predetermined number of samples N (S1500: NO), the process proceeds to step S1600, and when the time n has reached the predetermined number of samples N (S1500: YES), The process proceeds to step S1800. Note that the criterion for determination is not limited to the above example. For example, when processing is performed in real time, the processing may be terminated when there are no more samples even if the time n has not reached the predetermined number of samples N.
ステップS1600では、相関演算部164で、(n+1)→(n+1)の誤差共分散行列、つまり、(n+1)→(n+1)の推定誤差の相関値(行列)を計算する。具体的には、相関演算部164において、時刻n+1までの情報により時刻n+1での所望信号ベクトルを推定した場合の誤差(所望信号の推定誤差ベクトル)の相関行列Pp1(n+1|n+1)を計算する。この計算は、ステップS1200で計算した重み係数行列Kp1(n+1)、ステップS1000で設定した観測遷移行列Mp1、およびステップS1100で計算した所望信号の推定誤差ベクトルの相関行列Pp1(n+1|n)を用いて、次の式(10)により行う。なお、このステップS1600は、図12の反復過程の手順5に相当する。
In step S1600, the
次に、ステップS1700では、時刻nのカウンタを1だけインクリメントして(n=n+1)、ステップS1100に戻る。 In step S1700, the counter at time n is incremented by 1 (n = n + 1), and the process returns to step S1100.
一方、ステップS1800では、本アルゴリズムの計算結果を出力値として一時保存する。具体的には、ステップS1400で計算した所望信号の最適推定値ベクトルxp1(n+1|n+1)を、本アルゴリズムの出力値として画像復元処理部160内または記憶部150内に一時保存する。
On the other hand, in step S1800, the calculation result of this algorithm is temporarily stored as an output value. Specifically, the optimum estimated value vector x p1 (n + 1 | n + 1) of the desired signal calculated in step S1400 is temporarily stored in the image
図14は、発明手法1を視覚的にまとめた説明図である。このように、発明手法1では、新しい状態空間モデル(状態方程式と観測方程式)を構成しているため、1段階処理で画像の復元処理が可能となる。このことは、他の発明手法2〜6も含めて本発明の大きな特徴の1つである。
FIG. 14 is an explanatory diagram in which
ここで、カルマンフィルタを用いた従来の画像復元手法との対比において、発明手法1の特徴と効果をまとめて説明しておく。
Here, in contrast with the conventional image restoration method using the Kalman filter, the features and effects of the
カルマンフィルタを用いた従来の画像復元手法では、上記のように、2段階処理(ステップ1で、AR次数を決定し、AR係数を推定した後、ステップ2で、この推定したAR係数を用いて状態空間モデル(状態方程式と観測方程式)を構成してカルマンフィルタを実行する)によって、画像の復元を実現している。したがって、ステップ1でのAR次数の決定およびAR係数の推定の精度によってステップ2でのカルマンフィルタによる画像復元能力が大きく左右されることが、容易に予想される。これに対して、発明手法1では、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成し、これを用いた1段階処理の新しい予測法によって、高性能な画像復元を実現している。また、発明手法1では、処理ステップを1段階減らすことができるため、演算量を削減することができ、ひいては、回路規模の縮小やメモリ容量の削減などを図ることができる。
In the conventional image restoration method using the Kalman filter, as described above, the two-stage process (after determining the AR order and estimating the AR coefficient in
また、カルマンフィルタを用いた従来の画像復元手法では、ステップ1でAR係数の推定を行う際に必要となるAR係数の次数の決定が大きな問題点となる。一般にAR係数の次数は状態量に依存しているため、状態量が既知でなければ、理論的にAR係数の次数を正確に決定することは困難である。このことは、状態量が既知でなければならないことを意味しているため、リアルタイム処理は困難となる。また、それにより、正確でないAR係数の次数を用いることになるため、正確なAR係数の推定は困難である。したがって、このことは、カルマンフィルタを用いた従来の画像復元手法の画像復元能力を劣化させる大きな要因となっている。また、何らかの技術でAR次数とAR係数をリアルタイムに推定できるようになったとしても、処理ステップが1段階増えることより演算量の増加は避けられない。これに対して、発明手法1では、ARシステムのコンセプトを必要としないため、このような問題は生じない。
In addition, in the conventional image restoration method using the Kalman filter, the determination of the order of the AR coefficient that is required when the AR coefficient is estimated in
また、カルマンフィルタを用いた従来の画像復元手法では、状態量をARシステムを用いて表現することによってモデル化している。このことは、カルマンフィルタを用いた従来の画像復元手法はARシステムでモデル化可能な状態量にしか適用できないことを意味している。すなわち、カルマンフィルタを用いた従来の画像復元手法は、ARシステムでモデル化が困難な状態量には適用することができない。これに対して、発明手法1は、ARシステムのコンセプトを必要としないため、適用対象に関するこのような制約は存在しない。
In the conventional image restoration method using the Kalman filter, the state quantity is modeled by expressing it using the AR system. This means that the conventional image restoration method using the Kalman filter can be applied only to state quantities that can be modeled by the AR system. That is, the conventional image restoration method using the Kalman filter cannot be applied to state quantities that are difficult to model in the AR system. On the other hand,
また、カルマンフィルタを用いた従来の画像復元手法では、状態方程式の駆動源が白色信号で、かつ、状態量と観測雑音が無相関であることを仮定した上で、カルマンフィルタ理論を適用している。これに対して、発明手法1では、駆動源が有色信号(クリアな画像)となるものの、状態方程式と観測方程式の特殊な構成によって発明手法1のアルゴリズムを実行することができる。このことは、発明手法1は、カルマンフィルタ理論の一般的な適用条件を考慮しなくても実行可能であることを意味している。すなわち、発明手法1は、カルマンフィルタ理論よりも適用範囲が広いといえる。
In the conventional image restoration method using the Kalman filter, the Kalman filter theory is applied on the assumption that the drive source of the state equation is a white signal and the state quantity and the observation noise are uncorrelated. On the other hand, in
したがって、ARシステムのコンセプトを必要としない発明手法1は、画像の撮り直しが許されない場面、例えば、医療分野における瞬間的な心臓や肺などの画像復元、汚れなどで劣化した古文書などの復元、および文字・物体認識においても貢献可能な技術である。
Therefore,
また、本発明者は、本発明の効果(発明手法1の有効性)を実証するためにシミュレーションを行った。具体的には、発明手法1の画像復元能力を評価するために、(1)視覚評価、(2)客観評価、および(3)主観評価を行った。視覚評価は、原画像と復元画像とを視覚により比較した評価である。客観評価は、数値による評価である。主観評価は、聞き取り調査である。以下、これらを順に説明する。
In addition, the present inventor conducted a simulation to verify the effect of the present invention (effectiveness of Invention Method 1). Specifically, in order to evaluate the image restoration ability of the
まず、シミュレーションの条件について説明しておく。 First, simulation conditions will be described.
図15は、シミュレーション条件を説明するための図である。 FIG. 15 is a diagram for explaining the simulation conditions.
本シミュレーションでは、原画像として、図15に示す2つの画像、つまり、(a)「カメラマン(Cameraman)」と(b)「レナ(Lenna)」を用いた。また、原画像に加えるぼけに対応する点拡がり関数(PSF)のモデルとして、図15に示す2次元ガウス関数を用い、雑音として、加法性白色ガウス雑音を用いた。また、信号対雑音比SNRを20dBとした。また、比較のため、シミュレーションは、同一の上記シミュレーション条件の下で、従来手法1(ウィナーフィルタを用いた画像復元手法)と、従来手法2(射影フィルタを用いた画像復元手法)と、従来手法3(カルマンフィルタを用いた画像復元手法)と、発明手法1に対して行った。例えば、画像「カメラマン」は、図16に示すように、空の部分は画像の分散が変化していないため定常性が強く、人物の頭の部分は画像の分散が変化しているため非定常性が強いといえる。
In this simulation, two images shown in FIG. 15, ie, (a) “Cameraman” and (b) “Lenna” were used as original images. Further, a two-dimensional Gaussian function shown in FIG. 15 was used as a model of a point spread function (PSF) corresponding to the blur added to the original image, and additive white Gaussian noise was used as noise. The signal-to-noise ratio SNR was 20 dB. In addition, for comparison, simulations are performed under the same simulation conditions as in the conventional method 1 (image restoration method using a Wiener filter), the conventional method 2 (image restoration method using a projection filter), and the conventional method. 3 (image restoration method using Kalman filter) and
(1)視覚評価
図17は、原画像「カメラマン」に対するシミュレーション結果(視覚評価)を示す図であり、図18は、図17中の破線の円の周辺領域を拡大した図である。
(1) Visual Evaluation FIG. 17 is a diagram showing a simulation result (visual evaluation) for the original image “cameraman”, and FIG. 18 is an enlarged view of a peripheral area of a broken-line circle in FIG.
図18によく示すように、従来手法1は、ぼけがほとんど取り除かれていない。また、従来手法2は、従来手法1よりもぼけが取り除かれているが、原画像と比べるとまだぼけが残っている。一方、従来手法3は、従来手法1、2に比べて、ぼけは取り除かれてくっきりしているように見えるが、原画像とは異なった復元画像となっている。特に、従来手法3は、原画像と比べて全体的に暗くなっており、空の部分においては、劣化画像よりも劣化してしまっている。
As well shown in FIG. 18, the
これに対して、発明手法1は、図18によく示すように、従来手法1、2、3に比べて原画像を忠実に復元していることが確認できる。すなわち、図18の拡大画像においても、発明手法の有効性を確認することができる。
In contrast, it can be confirmed that the
図19は、図17と同様の、原画像「カメラマン」に対するシミュレーション結果(視覚評価)を示す図であり、図20は、図19中の破線の円の周辺領域を拡大した図である。 FIG. 19 is a diagram showing a simulation result (visual evaluation) for the original image “cameraman” similar to FIG. 17, and FIG. 20 is an enlarged view of a peripheral area of a broken-line circle in FIG. 19.
図20によく示すように、カメラの三脚部分に注目すると、従来手法1は、全くぼけが取り除かれていない。また、従来手法2は、従来手法1よりはぼけが取り除かれているが、原画像までは復元されていない。一方、従来手法3は、従来手法1、2に比べるとぼけは取り除かれているように見えるが、画像全体が荒れてしまっており、原画像とかけ離れた復元画像となっていることが確認できる。
As shown well in FIG. 20, when attention is paid to the tripod portion of the camera, the
これに対して、発明手法1は、図20によく示すように、従来手法1、2、3に比べて原画像をより忠実に復元していることが確認できる。すなわち、図20の拡大画像においても、発明手法1の有効性を確認することができる。
On the other hand, it can be confirmed that the
図21は、原画像「レナ」に対するシミュレーション結果(視覚評価)を示す図であり、図22は、図21中の破線の円の周辺領域を拡大した図である。 FIG. 21 is a diagram showing a simulation result (visual evaluation) for the original image “Lena”, and FIG. 22 is an enlarged view of a peripheral region of a broken-line circle in FIG.
図22によく示すように、従来手法1は、ほとんどぼけが取り除かれておらず、復元画像が原画像と比べて全体的に白くなっている(輝度が高くなっている)。また、従来手法2は、従来手法1に比べるとぼけは取り除かれているが、原画像まではぼけが取り除かれていない。一方、従来手法3は、従来手法1、2に比べるとぼけが取り除かれておりはっきりとしているように見えるが、劣化画像よりも劣化してしまっており、原画像とはかけ離れた画像になっている。特に肌の部分に注目すると、この点が顕著に表れている。
As well shown in FIG. 22, in the
これに対して、発明手法1は、図22によく示すように、従来手法1、2、3に比べて原画像を忠実に復元していることが確認できる。すなわち、図22の拡大画像においても、発明手法1の有効性を確認することができる。
On the other hand, it can be confirmed that the
(2)客観評価(数値による評価)
図23は、原画像に対するシミュレーション結果(客観評価)を示す図である。
(2) Objective evaluation (numerical evaluation)
FIG. 23 is a diagram illustrating a simulation result (objective evaluation) for an original image.
ここでは、従来手法1〜3と発明手法1の画像復元能力を数値により評価するため、図23にも示す次の式(11)で表されるPSNR[dB]を用いて画像復元能力を評価した。なお、PSNR(Peak Signal-to-Noise Ratio)は、画像の信号に対する雑音の比であり、数値が大きいほど劣化(ぼけや雑音など)が少なく画像として良好であるといえる。
Here, in order to evaluate the image restoration capability of the
この場合、図23に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法1は、従来手法1、2、3よりもSNROUTの数値が大きいことが確認できる。これにより、発明手法1は、客観評価の点でも、従来手法1、2、3に比べて画像復元能力が高いことがわかる。
In this case, as shown in FIG. 23, it can be confirmed that the
(3)主観評価(聞き取り調査)
図24は、原画像に対するシミュレーション結果(主観評価)を示す図である。
(3) Subjective evaluation (interview survey)
FIG. 24 is a diagram illustrating a simulation result (subjective evaluation) for an original image.
ここでは、従来手法1〜3と発明手法1の画像復元能力を評価するために、聞き取り調査による主観評価を行った。画像復元の性能評価は、ACR(絶対範疇評価)に基づく5段階MOS(平均オピニオン値)を用いた聞き取り調査により行った。MOS評価基準は、図24に示す通りである。50人の聴取者が画像復元により得られた画像(図17〜図22参照)を評価した。各々の聴取者は、評価値「1」から「5」を決定する。評価値「5」が最良である。
Here, in order to evaluate the image restoration ability of the
図24に示すように、MOS評価は、「カメラマン」、「レナ」どちらの画像についても、発明手法1は、従来手法1、2、3よりも高い評価を得ていることが確認できる。これにより、発明手法1は、主観評価の点でも、従来手法1、2、3に比べて画像復元能力が高いことがわかる。
As shown in FIG. 24, it can be confirmed that the MOS method has a higher evaluation than the
以上の実験結果により、本発明の画像復元方法(発明手法1)は、従来手法1〜3に比べて高い画像復元能力を発揮していることがわかる。特に、図17〜図22の視覚評価から明らかなように、本発明の画像復元方法は、非定常性が強いエッジ部分などにおいて、従来手法1〜3に比べて著しく復元精度が高いことがわかる。
From the above experimental results, it can be seen that the image restoration method (invention technique 1) of the present invention exhibits higher image restoration ability than the
次いで、上記構成を有する画像復元装置100の動作について、図25に示すフローチャートを用いて説明する。なお、図25に示すフローチャートは、記憶部150(主記憶装置152または補助記憶装置154)に制御プログラムとして格納されており、図示しないCPUによって実行される。
Next, the operation of the
まず、ステップS2000では、画像入力装置110から復元処理対象の画像データ(劣化画像)を取り込み、記憶部150(主記憶装置152または補助記憶装置154)の所定の記憶領域に格納する。
First, in step S2000, image data (degraded image) to be restored is captured from the
そして、ステップS2050では、ステップS2000で取り込んだ画像データを表示メモリ156に書き込んで、ディスプレイ182に表示する。
In step S2050, the image data captured in step S2000 is written into the
そして、ステップS2100では、操作部130の領域指定部134で、領域指定処理を行う。具体的には、使用者の入力操作により、ステップS2050でディスプレイ182に表示した画像のうち画像復元処理の対象となる領域(画像の特定の範囲)が指定されると、その指定された領域のデータを生成する。領域の指定は、例えば、画面上、ポインタなどで行われる。なお、使用者により領域の指定が行われなかった場合は、表示された画像全体を指定したものとして取り扱われる。
In step S2100, the
そして、ステップS2150では、拡大処理を行うか否かを判断する。この判断は、例えば、ステップS2100で生成した指定領域データに基づいて行われる。具体的には、指定された領域が表示された画像全体よりも小さい場合には、拡大処理を行うと判断する。この判断の結果として、拡大処理を行う場合は(S2150:YES)、ステップS2200に進み、拡大処理を行わない場合は(S2150:NO)、直ちにステップS2250に進む。 In step S2150, it is determined whether or not enlargement processing is performed. This determination is made based on the designated area data generated in step S2100, for example. Specifically, when the designated area is smaller than the entire displayed image, it is determined that the enlargement process is performed. As a result of this determination, when the enlargement process is performed (S2150: YES), the process proceeds to step S2200, and when the enlargement process is not performed (S2150: NO), the process immediately proceeds to step S2250.
ステップS2200では、ステップS2100で指定した領域の拡大処理を行う。具体的には、例えば、指定された領域が表示された画像全体に対応する大きさとなるように拡大処理を行う。拡大処理の結果は、記憶部150(主記憶装置152または補助記憶装置154)の作業用メモリに書き込まれる。なお、拡大処理が行われなかった場合も、その画像データは作業用メモリに書き込まれる。
In step S2200, the area specified in step S2100 is enlarged. Specifically, for example, the enlargement process is performed so that the designated area has a size corresponding to the entire displayed image. The result of the enlargement process is written in the working memory of the storage unit 150 (the
そして、ステップS2250では、時刻nの処理対象ブロック(例えば、3×3の大きさ)を選択する。 In step S2250, a processing target block at time n (for example, a size of 3 × 3) is selected.
そして、ステップS2300では、ステップS2250で選択した処理対象ブロックに対して、画像の急激な変化領域が検出されたか否かを判断する。画像の急激な変化領域は、例えば、画像のエッジ部分などに相当する。具体的には、例えば、作業用メモリに書き込まれた画像データ(拡大処理の有無を問わず)に対して、ステップS2250で選択した処理対象ブロック(3×3の大きさ)上で画素データを順次スキャンすることにより、急激な画素データの変化点があるか否かを検出する。この判断の結果として、画像の急激な変化領域が検出された場合は(S2300:YES)、ステップS2350に進み、画像の急激な変化領域が検出されなかった場合は(S2300:NO)、ステップS2400に進む。 In step S2300, it is determined whether an abrupt change region of the image is detected for the processing target block selected in step S2250. The sudden change region of the image corresponds to, for example, an edge portion of the image. Specifically, for example, with respect to image data written in the work memory (regardless of whether or not enlargement processing is performed), pixel data is processed on the processing target block (3 × 3 size) selected in step S2250. By sequentially scanning, it is detected whether there is a sudden change point of pixel data. As a result of this determination, if an abrupt change region of the image is detected (S2300: YES), the process proceeds to step S2350. If an abrupt change region of the image is not detected (S2300: NO), step S2400 is performed. Proceed to
具体的な検出方法の一例は、次の通りである。ある一定量の過去の観測量の平均値y’(n−1)と現在の観測量y(n)との差の絶対値、つまり、|y’(n−1)−y(n)|の値をしきい値αと比較する。そして、その値がしきい値α以上の場合、つまり、|y’(n−1)−y(n)|≧αの場合は、急激な画素データの変化点があると判断し、その値がしきい値α未満の場合、つまり、|y’(n−1)−y(n)|<αの場合は、急激な画素データの変化点はないと判断する。例えば、図26において、時刻n−1の処理対象ブロック301における所定部分302の観測量の平均値y’(n−1)と、時刻nの処理対象ブロック303における注目画素の部分304の観測量y(n)とを比較する。
An example of a specific detection method is as follows. The absolute value of the difference between an average value y ′ (n−1) of a certain amount of past observation amounts and the current observation amount y (n), that is, | y ′ (n−1) −y (n) | Is compared with a threshold value α. If the value is greater than or equal to the threshold value α, that is, if | y ′ (n−1) −y (n) | ≧ α, it is determined that there is a sudden change point of pixel data, and the value is Is less than the threshold value α, that is, if | y ′ (n−1) −y (n) | <α, it is determined that there is no abrupt pixel data change point. For example, in FIG. 26, the average value y ′ (n−1) of the observation amount of the
ステップS2350では、ステップS2250で選択した処理対象ブロックに対して、発明手法による画像復元処理を行う。発明手法による画像復元処理は、上記のように、急激な画素データの変化点がある場合、つまり、エッジ部分などを含む場合であっても、高精度な復元処理が可能である。なお、発明手法による画像復元処理の詳細な手順の一例については、図13のフローチャートを用いて説明した通りである。 In step S2350, image restoration processing by the inventive method is performed on the processing target block selected in step S2250. As described above, the image restoration process according to the invention technique can be performed with high accuracy even when there is a sudden change point of pixel data, that is, when an edge portion or the like is included. An example of the detailed procedure of the image restoration process according to the inventive method is as described with reference to the flowchart of FIG.
一方、ステップS2400では、ステップS2250で選択した処理対象ブロックに対して、発明手法以外の他の画像復元手法による画像復元処理を行う。他の画像復元手法としては、ウィナーフィルタを用いた画像復元手法や射影フィルタを用いた画像復元手法、カルマンフィルタを用いた画像復元手法などを含む任意の画像復元手法を用いることができる。急激な画素データの変化点がない場合、つまり、エッジ部分などを含まない場合には、他の画像復元手法でも精度良く復元処理を行うことができるからである。 On the other hand, in step S2400, image restoration processing by an image restoration method other than the inventive method is performed on the processing target block selected in step S2250. As another image restoration method, any image restoration method including an image restoration method using a Wiener filter, an image restoration method using a projection filter, an image restoration method using a Kalman filter, and the like can be used. This is because when there is no abrupt change point of pixel data, that is, when an edge portion or the like is not included, restoration processing can be performed with high accuracy by other image restoration methods.
そして、ステップS2450では、ステップS2350での復元処理結果またはステップS2400での復元処理結果を、順次、記憶部150(主記憶装置152または補助記憶装置154)の作業用メモリに保存する。
In step S2450, the restoration processing result in step S2350 or the restoration processing result in step S2400 is sequentially stored in the working memory of the storage unit 150 (the
そして、ステップS2500では、時刻nのカウンタの値を1だけインクリメントする。 In step S2500, the counter value at time n is incremented by one.
そして、ステップS2550では、1頁分の画像復元処理が終了したか否かを判断する。この判断は、時刻nのカウンタの値に基づいて行われる。この判断の結果として、1頁分の画像復元処理が終了した場合は(S2550:YES)、ステップS2600に進み、1頁分の画像復元処理が終了していない場合は(S2550:NO)、ステップS2250に戻る。 In step S2550, it is determined whether the image restoration process for one page is completed. This determination is made based on the value of the counter at time n. As a result of this determination, if the image restoration process for one page is completed (S2550: YES), the process proceeds to step S2600, and if the image restoration process for one page is not completed (S2550: NO), step The process returns to S2250.
ステップS2600では、1頁分の画像復元処理が終了したため、表示メモリ156の更新処理を行う。すなわち、ここでは、1頁分の画像復元処理が終了した時点で表示メモリ156を更新するように構成されている。
In step S2600, since the image restoration process for one page is completed, the
そして、ステップS2650では、ステップS2000で取り込んだ画像データの全頁分に対して画像復元処理が終了したか否かを判断する。この判断の結果として、全頁分の画像復元処理が終了していない場合は(S2650:NO)、ステップS2250に戻り、全頁分の画像復元処理が終了した場合は(S2650:YES)、上記一連の処理を終了する。 In step S2650, it is determined whether image restoration processing has been completed for all pages of the image data captured in step S2000. As a result of this determination, if the image restoration process for all pages has not been completed (S2650: NO), the process returns to step S2250, and if the image restoration process for all pages has been completed (S2650: YES), A series of processing ends.
次に、ぼけ情報である点拡がり関数(PSF)に対応する観測遷移行列Mp1の設定と実装の具体例について、図27および図28を用いて説明する。 Next, a specific example of setting and implementation of the observation transition matrix M p1 corresponding to the point spread function (PSF) that is blur information will be described with reference to FIGS. 27 and 28. FIG.
図27は、復元モードの実装の一例を説明するための図である。 FIG. 27 is a diagram for explaining an example of implementation of the restoration mode.
上記のように、観測遷移行列Mp1は、式(4)で定義された9×9次の行列であって、画像の劣化モデルにおけるぼけの点拡がり関数(PSF)に対応しており、観測遷移行列Mp1を構成する各要素hr,s(r,s=−1,0,1)は、既知であって、予めデータ化して適切に設定されている。すなわち、本実施の形態では、画像によってぼけ具合が変わるため、いわばぼけ情報である観測遷移行列Mp1の各要素hr,sの値の組を復元モードとしていくつか予め設定しておき、使用者は、操作部130の復元モード指定部136を介して、その復元モードを任意に指定できるように構成されている。例えば、図27の例では、デジタルカメラなどによく設定されている夜景モードやスポーツモードなどの撮影モード毎に、予め、その撮影モードに合った適切な観測遷移行列Mp1がそれぞれ設定されている。したがって、使用者は、撮影モードを切り替えることによって、最適な復元モードを使用することができる。なお、復元モード(観測遷移行列Mp1の各要素hr,sの値)自体を自動または手動で再調整することも可能である。
As described above, the observation transition matrix M p1 is a 9 × 9 order matrix defined by the equation (4), and corresponds to the blur point spread function (PSF) in the image degradation model. Each element h r, s (r, s = −1, 0, 1) constituting the transition matrix M p1 is known, and is appropriately set in advance as data. That is, in the present embodiment, the degree of blur varies depending on the image, so that several combinations of values of each element h r, s of the observation transition matrix M p1 that is so-called blur information are set in advance as a restoration mode and used. The user can arbitrarily specify the restoration mode via the restoration
図28は、復元モードの実装の他の例を説明するための図である。 FIG. 28 is a diagram for explaining another example of implementation of the restoration mode.
図28の例では、画像によってぼけ具合が変わるため、まず、図28(A)に示すように、ディスプレイ182上で、処理対象の劣化画像を選択した後、図28(B)に示すように、観測遷移行列Mp1(各要素hr,sの値)を変えた復元画像をいくつかディスプレイ182に表示する。このとき、使用者が、例えば、操作部130(タッチパネルなど)を介して、ディスプレイ182に表示された複数の復元画像の中から、最適な復元画像を選択すると、復元画像が決定される。なお、使用者の選択の履歴をデータとして蓄積することによって、使用者の好みに合った復元モード(観測遷移行列Mp1の各要素hr,sの値)を自動で選択することも可能となる。
In the example of FIG. 28, since the degree of blur varies depending on the image, first, as shown in FIG. 28A, after selecting a deteriorated image to be processed on the
このように、本実施の形態によれば、ARシステムのコンセプトを必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成して1段階処理の新しい予測法によって画像復元を行うため、シンプルで実用的かつ高性能な画像復元を実現することができる。すなわち、AR次数の決定およびAR係数を推定するステップを必要としないシンプルな構成で、かつ、非定常性が強い自然画像に対しても有効に復元処理を行うことができる実用性を有し、しかも、従来手法1〜3に比べて画像復元能力を向上することができる。
As described above, according to the present embodiment, a new state space model (state equation and observation equation) that does not require the concept of the AR system is constructed, and image restoration is performed by a new prediction method of one-stage processing. Thus, practical and high-performance image restoration can be realized. In other words, it has a simple configuration that does not require the steps of determining the AR order and estimating the AR coefficient, and has a utility that can effectively perform restoration processing even for a natural image with strong non-stationarity, In addition, the image restoration capability can be improved as compared with the
また、本実施の形態では、上記のように、ARシステムのコンセプトを必要としないため、画像の撮り直しが許されない場面にも広く適用可能である。なお、もちろん、ここでも、上記のように、画像の種類は限定されず、静止画像でも動画像でもよい。 Further, in the present embodiment, as described above, since the concept of the AR system is not required, the present invention can be widely applied to scenes in which retaking of images is not permitted. Of course, here, as described above, the type of image is not limited and may be a still image or a moving image.
例えば、古文書の傷や汚れなどをぼけや雑音とみなし、発明手法1を用いてこれらを取り除き、文字・物体認識技術を用いることによって、古文書の解読、復元、およびデジタルデータベース化に効果を発揮することが期待される。
For example, scratches and dirt on old documents are regarded as blurs and noises, and they are removed using
また、防犯分野においても、近年、防犯カメラ(監視カメラ)などの設置が普及しつつあり、犯罪者の多くは防犯カメラなどに撮影されていることが多いため、この画像が犯罪者の発見の手がかりとなることがある。しかし、これらの画像は一般に画質が荒く、動いている対象物の画像はぼけが生じていることが一般的である。また、これらの画像を拡大した場合には、通常、画像はより一層劣化する。そこで、拡大画像を含めてこれらの劣化画像に発明手法1を適用することによって、劣化画像のぼけと雑音を取り除き、クリアな画像を提供することで、犯罪者の早期発見につながることが期待される。なお、このように、拡大画像を含めて劣化画像に発明手法1を適用することによって、劣化画像のぼけと雑音を取り除き、クリアな画像を提供することは、防犯分野に限らず、監視カメラなどで撮影された画像に基づいて、事故の判定や器具の故障診断などを行う場合にも適用可能である。
Also in the crime prevention field, the installation of security cameras (surveillance cameras) has been spreading in recent years, and many criminals are often taken by security cameras. May be a clue. However, these images generally have poor image quality, and the images of moving objects are generally blurred. Further, when these images are enlarged, the images are usually further deteriorated. Therefore, it is expected that by applying
また、近年、カメラ機能付き携帯電話やデジタルカメラなどが急速な勢いで普及し、1人1台の時代となっている。しかし、これらの製品に搭載されている画像復元技術は、顔認識やフィルタなどのぼけや雑音を予防する技術であり、撮り直しが許されない場面を想定していない。したがって、これらの製品に発明手法1を適用することによって、撮り直しが許されない瞬間的な画像復元が可能になる。
In recent years, mobile phones with a camera function, digital cameras, and the like have spread rapidly and have become one-person era. However, the image restoration technology installed in these products is a technology for preventing blur and noise such as face recognition and filters, and does not assume a scene where re-shooting is not allowed. Therefore, by applying
また、医療の分野において、健康を調査する最も効果的な手段の1つとして、内視鏡やレントゲン、エコー、CT、MRIなどの画像診断がある。例えば、肺や心臓などの画像診断では、肺や心臓などの動作によってぼけと雑音を含んだ情報から健康診断を行っている。これらの画像診断に発明手法を適用してぼけと雑音を取り除くことによって、専門医にクリアな画像を迅速に提供することが可能となり、病気の早期発見の一助になることが期待される。 In the medical field, as one of the most effective means for investigating health, there is image diagnosis such as endoscope, X-ray, echo, CT, MRI and the like. For example, in the image diagnosis of the lungs and the heart, the health diagnosis is performed from information including blur and noise by the operation of the lungs and the heart. By removing the blur and noise by applying the inventive method to these image diagnoses, it is possible to quickly provide a clear image to a specialist, and it is expected to help early detection of diseases.
また、近年カーナビゲーションシステムが普及していることから、フロント・リアカメラを搭載した自動車も増えている。このようなリアルタイムで画像復元処理が必要な自動車のフロント・リアカメラなどの場合においても発明手法1は有効である。
In recent years, since car navigation systems have become widespread, the number of cars equipped with front and rear cameras is increasing. The
なお、上記のように、本発明に係る画像復元方法の具体的な手法(発明手法)は、発明手法1に限定されない。以下では、他の発明手法として、5つの発明手法2〜6を順次説明する。ただし、発明手法1〜6相互間の比較を容易にするため、上記した発明手法1についても簡単にまとめて説明しておく。また、共通する部分については、適宜、その説明を省略する。
As described above, the specific technique (invention technique) of the image restoration method according to the present invention is not limited to
<発明手法1>
まず、各発明手法1〜6に共通の問題設定として、画像復元の理論となる画像劣化モデルについて、再度、簡単に説明しておく。図29は、劣化画像モデルを視覚的に説明するための図である(図3、式(1)参照)。
<
First, as a problem setting common to each of the
画像の劣化は、図29の上側に示すように、原画像にぼけと雑音が加わることによって生じる。ぼけは、ある画素がその周囲の画素に影響することによって生じるが、雑音は、画素に関係なく発生する。カメラなどで撮影された画像の場合、ぼけは、手ぶれや焦点ずれなどに起因して生じ、雑音は、暗電流や熱雑音などに起因して不可避的に発生する。劣化画像は、一般的に、原画像とぼけの点拡がり関数(PSF)の畳み込み(コンボリューション)に雑音を加えたモデルによって得られる。具体的には、劣化画像g(x,y)は、原画像をf(m,n)、ぼけの点拡がり関数をh(x,y)、雑音をn(x,y)でそれぞれ表すと、図29に示す劣化画像生成式で表される。この劣化画像モデルでは、雑音n(x,y)と原画像f(m,n)は無相関であること、雑音n(x,y)は加法性白色ガウス雑音であること、が条件となっている。劣化画像の復元は、劣化画像からぼけと雑音を取り除くことにほかならない。 As shown in the upper side of FIG. 29, the image is deteriorated by adding blur and noise to the original image. Blur is caused by a pixel affecting its surrounding pixels, but noise occurs regardless of the pixel. In the case of an image taken with a camera or the like, blur is caused by camera shake or defocus, and noise is unavoidably caused by dark current or thermal noise. The degraded image is generally obtained by a model obtained by adding noise to a convolution of the original image and the blur point spread function (PSF). Specifically, the degraded image g (x, y) is represented by f (m, n) for the original image, h (x, y) for the point spread function of blur, and n (x, y) for noise. , Represented by the degraded image generation formula shown in FIG. In this deteriorated image model, the noise n (x, y) and the original image f (m, n) are uncorrelated, and the noise n (x, y) is an additive white Gaussian noise. ing. Restoration of a degraded image is nothing but removing blur and noise from the degraded image.
図30は、発明手法1の状態空間モデルを視覚的に説明するための図、図31は、発明手法1の状態過程を視覚的に説明するための図、図32は、発明手法1の観測過程を視覚的に説明するための図である(以上、図4〜図11、式(2)〜式(4)参照)。
30 is a diagram for visually explaining the state space model of the
発明手法1では、図30にまとめて示すように、新しい状態空間モデル(状態方程式と観測方程式)を構成し、定式化している。この状態空間モデルは、状態過程と観測過程とで構成される。状態過程は、図31に示すように、状態方程式によって記述され、観測過程は、図32に示すように、観測方程式によって記述される。ここで、状態方程式において、ベクトルxp1(n)は状態ベクトル(原画像情報)、行列Φp1は状態遷移行列、ベクトルδp1(n)は駆動源ベクトルである。また、観測方程式において、ベクトルyp1(n)は観測ベクトル(観測画像情報、劣化画像情報)、行列Mp1は観測遷移行列、ベクトルεp1(n)は観測雑音ベクトルである。また、ベクトルxp1(n)、δp1(n)、yp1(n)、εp1(n)の変数としての「n」は、装置の時刻nである。時刻nは、注目画素(または注目画素領域)と複数の周辺画素(または周辺画素領域)とからなる処理対象ブロックの処理の順番(n番目)を表している。状態方程式は、観測対象のシステムを状態空間モデルで記述したものであり、内部状態つまり状態変数(ここでは、状態ベクトルxp1(n)、xp1(n+1))の時間に対する生成過程を表している。また、観測方程式は、何らかの観測装置を通じて観測する過程を記述したものであり、観測結果(ここでは、観測ベクトルyp1(n))が、被観測量つまり入力(ここでは、状態ベクトルxp1(n))に依存して生成される様子を示している。
In
図33は、発明手法1の状態方程式と観測方程式をまとめて示す説明図であり、図34は、発明手法1のアルゴリズムを説明するための図である(図12、図14、式(5)〜式(10)参照)。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。
FIG. 33 is an explanatory diagram showing the state equation and the observation equation of
図33に示す状態方程式および観測方程式、ならびに図34に示すアルゴリズムにおいて、K1は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K1=m×nで表される。すなわち、発明手法1では、劣化画像の復元処理は、復元対象である注目画素のみを用いるのではなく、その周辺の画素も含めて処理を行う。具体的には、例えば、J×Jの大きさの画像のある注目画素を中心にして、その周辺m×n(ただし、J>m、n)の領域を処理対象ブロックとし、この処理対象ブロックの中の画素情報を用いて、画像の復元処理を行う。処理対象ブロックは、画像復元においてm×nの画素を用いて処理を行う範囲を意味する。図33および図34の右下には、K1=9(=3×3)の場合の処理対象ブロックが例示されている。
In the state equation and the observation equation shown in FIG. 33 and the algorithm shown in FIG. 34, K 1 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, K 1 = m × n. That is, in
図35は、図34のアルゴリズムを実行する処理手順を示すフローチャートである(図13参照)。 FIG. 35 is a flowchart showing a processing procedure for executing the algorithm of FIG. 34 (see FIG. 13).
ここでは、図34のアルゴリズムの表記に対応して、行列とベクトルのサイズをそれぞれ明記している。具体的には、n→(n+1)の推定誤差の相関値(行列)(S1100)は、サイズがK1×K1の行列、重み係数(行列)(S1200)は、サイズがK1×K1の行列、n→(n+1)の状態量の最適推定値(ベクトル)(S1300)は、サイズがK1×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(ベクトル)(S1400)は、サイズがK1×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(行列)(S1600)は、サイズがK1×K1の行列となる。 Here, the sizes of the matrix and the vector are specified in correspondence with the notation of the algorithm of FIG. Specifically, the correlation value (matrix) (S1100) of the estimation error of n → (n + 1) is a matrix of size K 1 × K 1 , and the weight coefficient (matrix) (S1200) is of size K 1 × K. 1 of the matrix, n → (n + 1) state of optimal estimate of (vector) (S1300), the size vector of K 1 × 1, (n + 1) → (n + 1) state of optimal estimate of (vector) (S1400) is a vector of size K 1 × 1, and the correlation value (matrix) (S1600) of the estimation error of (n + 1) → (n + 1) is a matrix of size K 1 × K 1 .
<発明手法2>
図36は、発明手法1の課題を視覚的に説明するための図である。
<
FIG. 36 is a diagram for visually explaining the problem of the
発明手法1では、図36に示すように、時刻nの変化は、画素領域(処理対象ブロック)の遷移を用いて表される。時刻n+1では、例えば、過去の1時刻前の9(=3×3)個の状態量(原画像の画素情報)x1〜x9を用いて、現在の処理対象ブロックの9(=3×3)個の状態量(原画像の画素情報)x4〜x12を推定することにより、注目画素領域の状態量x8を復元する。このように、発明手法1では、1つの注目画素領域の状態量(要素)を復元するために、処理対象ブロック内の状態量(要素)をすべて推定している。しかし、そもそも、1つの注目画素領域の要素を復元するためには、その注目画素領域の要素のみを求めればよく、他の要素の推定は不要である。そこで、発明手法2では、注目画素領域のみを考慮した状態空間モデルを再構成する。具体的には、発明手法2では、発明手法1の観測方程式を再構成して注目画素領域の要素のみを抽出するようにしている。これにより、発明手法2では、発明手法1に対して大幅な演算量の軽減を可能にして、高速(低演算量)な劣化画像復元を実現している。
In
図37は、発明手法2の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法1の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図である。なお、図37に示すように、発明手法2の状態方程式は、発明手法1の状態方程式と全く同じであるため、その説明を省略する。
FIG. 37 is an explanatory diagram visually showing the configuration of the state equation of
図38は、発明手法2の観測方程式の構成を視覚的に示す説明図であり、図39は、発明手法2の観測方程式の構成を視覚的に示す他の説明図である。
FIG. 38 is an explanatory diagram visually showing the configuration of the observation equation of
発明手法2では、図38に示すように、発明手法1の観測方程式において注目画素領域の要素(例えば、画素情報y5(n))のみを抽出して観測方程式を再構成する。これにより、発明手法2では、図39に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)が、それぞれ、スカラー化、ベクトル化、スカラー化されて、観測値yp2(n)、観測遷移ベクトルmT p2、観測雑音εp2(n)となる。この結果、発明手法2は、発明手法1に対して、サイズが縮小されるため、演算量が大幅に軽減される。なお、演算量の軽減効果については、後で詳述する。
In
図40は、発明手法2の状態方程式と観測方程式をまとめて示す説明図であり、図41は、発明手法2のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。
FIG. 40 is an explanatory diagram collectively showing the state equation and the observation equation of
図40に示す状態方程式および観測方程式、ならびに図41に示すアルゴリズムにおいて、K2は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K2=m×nで表される。発明手法2のアルゴリズムは、図42に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法1の場合(図34参照)よりも演算量が軽減されるよう、図40に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。
State equation and an observation equation shown in FIG. 40, as well as in the algorithm shown in FIG. 41, K 2 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region When it is set as the length of an axis | shaft and a horizontal axis, it represents with K < 2 > = mxn. As shown in FIG. 42, the algorithm of the
図42は、図41のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 42 is a flowchart showing a processing procedure for executing the algorithm of FIG.
上記のように、発明手法2では、図39に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)が、それぞれ、スカラー化、ベクトル化、スカラー化されて、観測値yp2(n)、観測遷移ベクトルmT p2、観測雑音εp2(n)となっている。これにより、図42のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S3100)は、サイズがK2×K2の行列、重み係数(S3200)は、サイズがK2×1のベクトル、n→(n+1)の状態量の最適推定値(S3300)は、サイズがK2×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S3400)は、サイズがK2×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S3600)は、サイズがK2×K2の行列となる。
As described above, in
図43は、発明手法1と発明手法2のアルゴリズムを比較した説明図である。
FIG. 43 is an explanatory diagram comparing the algorithms of
図43に示すように、発明手法1のアルゴリズムでは、逆行列の計算が必要である(反復過程つまり更新式の手順2参照)。一般に、逆行列の計算は複雑であり、演算量が多い。これに対し、発明手法2では、上記したサイズの縮小により、発明手法1における逆行列の計算が、スカラーの逆数の計算となる(反復過程つまり更新式の手順2参照)。スカラーの逆数の計算は簡単であり、演算量は1回で済む。したがって、発明手法2は、発明手法1よりも演算量が大幅に軽減される。
As shown in FIG. 43, the algorithm of the
図44は、発明手法2の演算量評価を説明するための図である。なお、ここで、従来手法3は、カルマンフィルタを用いた画像復元手法(例えば、非特許文献6参照)である。ただし、非特許文献6に記載された手法は、原画像に雑音が加わった劣化画像にしか対応できないため、本発明者は、非特許文献6に記載された手法をぼけと雑音に対応できるように拡張した上で、以下の各種比較(シミュレーションを含む)を行った。
FIG. 44 is a diagram for explaining the calculation amount evaluation of the
図44において、演算量は、乗算の回数によって表される。図44の上側に、従来手法3、発明手法1、および発明手法2に対する、更新1回当たりの演算回数の比較結果を示す。これに基づき、更新1回当たりの演算量(乗算回数)を求めると、図44の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法2は、発明手法1よりも演算量が大幅に減少している。演算量の減少効果で見た場合、その大小関係は、従来手法3<発明手法1<発明手法2、となる。したがって、発明手法2は、大幅な演算量の軽減を実現している。
In FIG. 44, the calculation amount is represented by the number of multiplications. The comparison result of the number of operations per update for the
図45は、発明手法2の復元処理速度評価を説明するための図である。
FIG. 45 is a diagram for explaining the restoration processing speed evaluation of the
ここでは、各手法の処理速度を比較するために、図45に示すスペック表に基づいて、サイズが異なる2種類の画像の処理時間を測定した。その結果、発明手法1および発明手法2は、いずれも、従来手法3と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法2は、上記のように発明手法1よりも演算量が大幅に少ないため、発明手法1よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図45に示すように、従来手法3<発明手法1<発明手法2、となる。したがって、発明手法2は、高速な画像復元処理が可能である。
Here, in order to compare the processing speed of each method, the processing time of two types of images having different sizes was measured based on the specification table shown in FIG. As a result, both the
また、本発明者は、発明手法2の有効性を検証するためにシミュレーションを行った。具体的には、発明手法2の画像復元能力を評価するために、視覚評価と客観評価を行った。視覚評価は、原画像と復元画像とを視覚により比較した評価であり、客観評価は、数値による評価である。
In addition, the present inventor performed a simulation to verify the effectiveness of
図46は、シミュレーションの条件を説明するための図である。 FIG. 46 is a diagram for explaining simulation conditions.
本シミュレーションでも、図15のシミュレーション条件と同様に、原画像として、「カメラマン(Cameraman)」と「レナ(Lenna)」を用いた(画像サイズは共に256×256)。また、原画像に加えるぼけに対応する点拡がり関数(PSF)のモデルとして、図15に示す2次元ガウス関数を用い、雑音として、加法性白色ガウス雑音を用いた。また、信号対雑音比SNRを20dBとした。 In this simulation, as in the simulation conditions of FIG. 15, “Cameraman” and “Lenna” were used as the original images (both image sizes are 256 × 256). Further, a two-dimensional Gaussian function shown in FIG. 15 was used as a model of a point spread function (PSF) corresponding to the blur added to the original image, and additive white Gaussian noise was used as noise. The signal-to-noise ratio SNR was 20 dB.
図47は、比較対象手法との対比において原画像「カメラマン」に対する発明手法2のシミュレーション結果(視覚評価)を示す図であり、図48は、図47中の破線の円の周辺領域を拡大した図である。また、図49は、比較対象手法との対比において原画像「レナ」に対する発明手法2のシミュレーション結果(視覚評価)を示す図であり、図50は、図49中の破線の円の周辺領域を拡大した図である。なお、ここで、比較対象手法は、従来手法3と発明手法1である。
47 is a diagram showing a simulation result (visual evaluation) of
図47〜図50に示すように、発明手法1および発明手法2は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。ただし、発明手法1と発明手法2を比較した場合、画像復元能力はほぼ同等のレベルであるといえる。
As shown in FIGS. 47 to 50, it can be seen that
図51は、比較対象手法との対比において原画像に対する発明手法2のシミュレーション結果(客観評価)を示す図である。
FIG. 51 is a diagram showing a simulation result (objective evaluation) of
ここでは、従来手法3、発明手法1、および発明手法2の画像復元能力を数値により評価するため、図51に示すPSNR(Peak Signal-to-Noise Ratio)(式(11)参照)を用いて画像復元能力を評価した。なお、PSNRは、画像の似かより度を示す値であり、値が大きいほど劣化(ぼけや雑音など)が少なく画像として良好であるといえる。
Here, PSNR (Peak Signal-to-Noise Ratio) (see Expression (11)) shown in FIG. 51 is used to evaluate the image restoration capability of
この場合、図51に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法1および発明手法2は、従来手法3よりもPSNRの数値が大きいことが確認できる。これにより、発明手法1および発明手法2は、客観評価の点でも、従来手法3に比べて画像復元能力が高いことがわかる。一方、発明手法1と発明手法2を比較した場合には、発明手法1よりも発明手法2のほうが若干高い客観評価(数値による評価)となっている。これにより、客観評価の大小(良否)関係は、図51に示すように、従来手法3<発明手法1<発明手法2、となる。ただし、この若干の差異は、図47〜図50の比較からわかるように、ほぼないに等しい。
In this case, as shown in FIG. 51, it can be confirmed that the
以上より、発明手法2は、発明手法1に対して、画像復元能力をほぼ維持しながら、演算量を大幅に軽減して高速な画像復元処理を実現していることがわかる。
From the above, it can be seen that
<発明手法3>
図52は、発明手法2の課題を視覚的に説明するための図である。
<
FIG. 52 is a diagram for visually explaining the problem of the
発明手法2は、上記のように、発明手法1に対して、演算量を大幅に軽減して高速な画像復元処理を実現することができるものの、画像復元能力が若干低下している。これは、図52に示すように、発明手法2の観測方程式において、有色性駆動源の影響が大きい領域が含まれていないためであると考えられる。そこで、発明手法3では、注目画素領域のみでなく有色駆動源をも考慮した状態空間モデルを再構成する。すなわち、発明手法3では、有色性駆動源の影響を最大限に与えるように状態空間モデルを再構成する。
As described above, the
図53は、発明手法3の観測方程式の構成を視覚的に示す説明図であり、図54は、発明手法3の状態空間モデルを視覚的に説明するための図である。なお、発明手法3の状態方程式は、発明手法2(ひいては発明手法1)の状態方程式と全く同じであるため、その説明を省略する。
FIG. 53 is an explanatory diagram visually showing the configuration of the observation equation of the
発明手法3では、図53に示すように、発明手法1の観測方程式において、注目画素領域の要素(例えば、画素情報y5(n))に加えて、有色性駆動源の影響を受ける領域の要素(例えば、画素情報y7(n)、y8(n)、y9(n))をも抽出して観測方程式を再構成する。すなわち、発明手法3では、有色性駆動源の影響を考慮するために、発明手法2と比較して、画素情報y7(n)、y8(n)、y9(n)をも取り入れる。これにより、発明手法3では、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、および観測雑音ベクトルεp1(n)は、サイズがそれぞれ縮小されて、観測ベクトルyp3(n)、観測遷移行列Mp3、観測雑音ベクトルεp3(n)となる。このように、発明手法3では、図54に示すように、状態方程式における有色性駆動源の影響を最大限に考慮するべく、注目画素領域と有色性駆動源の影響を受ける領域とから観測方程式を再構成する。これにより、発明手法3は、発明手法2の場合よりもサイズの縮小は小さいものの、発明手法1に対してサイズが縮小されるため、演算量は大幅に軽減される。
In
図55は、発明手法3の状態方程式と観測方程式をまとめて示す説明図であり、図56は、発明手法3のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。
FIG. 55 is an explanatory diagram collectively showing the state equation and the observation equation of
図55に示す状態方程式および観測方程式、ならびに図56に示すアルゴリズムにおいて、K3は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K3=m×nで表される。また、L3は、注目画素領域と有色性駆動源を含む領域とを合わせた領域に含まれる画素数であり、L3=1+mで表される(L3<K3)。発明手法3のアルゴリズムは、図56に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法2の場合(図41参照)よりも演算量が若干増加するものの、発明手法1の場合(図34参照)よりも演算量が軽減されるよう、図55に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。
State equation and an observation equation shown in FIG. 55, as well as in the algorithm shown in FIG. 56, K 3 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region If the length of the axis and the horizontal axis is represented by
図57は、図56のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 57 is a flowchart showing a processing procedure for executing the algorithm of FIG.
上記のように、発明手法3では、図53に示すように、発明手法1における観測ベクトルyp1(n)、観測遷移行列Mp1、観測雑音ベクトルεp1(n)は、サイズがそれぞれ縮小されて(つまり、L3<K3)、観測ベクトルyp3(n)、観測遷移行列Mp3、観測雑音ベクトルεp3(n)となっている。これにより、図57のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S4100)は、サイズがK3×K3の行列、重み係数(S4200)は、サイズがK3×L3の行列、n→(n+1)の状態量の最適推定値(S4300)は、サイズがK3×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S4400)は、サイズがK3×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S4600)は、サイズがK3×K3の行列となる。
As described above, in
図58は、発明手法3の演算量評価を説明するための図である。
FIG. 58 is a diagram for explaining the calculation amount evaluation of the
図58の上側に、発明手法3に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、更新1回当たりの演算量(乗算回数)を求め、得られた結果を図44に示す棒グラフに加えると、図58の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法3は、発明手法1よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法3<発明手法1<発明手法3<発明手法2、となる。したがって、発明手法3は、良好な演算量軽減を実現している。
The upper side of FIG. 58 shows the number of operations (number of multiplications) per update for
図59は、発明手法3の復元処理速度評価を説明するための図である。
FIG. 59 is a diagram for explaining the restoration processing speed evaluation of
ここでは、図45の結果に、発明手法3の測定結果を追加した。その結果、発明手法3も、従来手法3と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法3は、上記のように発明手法1よりも演算量が大幅に少ないため、発明手法1よりも高速な処理が可能となっている。発明手法3は、発明手法2よりも処理速度が若干遅い程度である。処理速度で見た場合、その大小関係は、図59に示すように、従来手法3<発明手法1<発明手法3<発明手法2、となる。したがって、発明手法3も、高速な画像復元処理が可能である。
Here, the measurement result of the
図60は、比較対象手法との対比において原画像「カメラマン」に対する発明手法3のシミュレーション結果(視覚評価)を示す図であり、図61は、図60中の破線の円の周辺領域を拡大した図である。また、図62は、比較対象手法との対比において原画像「レナ」に対する発明手法3のシミュレーション結果(視覚評価)を示す図であり、図63は、図62中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。
FIG. 60 is a diagram showing a simulation result (visual evaluation) of
図60〜図63に示すように、発明手法3は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法3のほうが高いことがわかる。
As shown in FIGS. 60 to 63, it can be seen that
図64は、比較対象手法との対比において原画像に対する発明手法3のシミュレーション結果(客観評価)を示す図である。
FIG. 64 is a diagram showing a simulation result (objective evaluation) of
この場合、図64に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法3は、他のどの手法(従来手法3はもとより発明手法1および発明手法2)よりもPSNRの数値が大きいことが確認できる。これにより、発明手法3は、客観評価の点でも、他の手法(従来手法3、発明手法1、発明手法2)に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図64に示すように、従来手法3<発明手法1<発明手法2<発明手法3、となる。
In this case, as shown in FIG. 64, the
以上より、発明手法3は、発明手法2よりも演算量を若干増加させつつも、発明手法1および発明手法2よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。
As described above,
<発明手法4>
図65は、1次元の画像復元手法の特徴を説明するための図である。
<
FIG. 65 is a diagram for explaining the characteristics of the one-dimensional image restoration technique.
発明手法1〜3は、1次元の画像復元手法である。1次元の画像復元手法である発明手法1〜3では、図65に示すように、周辺画素領域を用いて注目画素領域(1画素のみ)を復元する。このとき、画像復元手法は、用途や状況などに応じて適用可能である。例えば、上記のように、発明手法2は、発明手法1に比べて、高速(低演算量)な画像復元手法であり、発明手法3は、発明手法2よりも演算量は若干多いが、発明手法1および発明手法2よりも画像復元能力を向上させた手法であるため、処理速度を優先したい場合には発明手法2を適用し、画質を優先したい場合には発明手法3を適用する、という使い方が可能である。
図66は、2次元の画像復元手法の特徴を説明するための図である。 FIG. 66 is a diagram for explaining the characteristics of the two-dimensional image restoration method.
発明手法4では、1次元の発明手法1を2次元に拡張した2次元の画像復元手法を提案する。発明手法4では、発明手法1の場合よりも注目画素領域を大きくとることにより、更新回数を軽減して処理効率のよい復元が可能となる。そのため、発明手法4では、発明手法1における画素領域(1画素のみ)を、縦と横の任意の長さをp、qとした画素領域に拡張する(以下「画素領域の2次元化」ともいう)。1つの画素領域がp=q=2、かつ、処理対象ブロック(注目画素領域と周辺画素領域とからなる)が3pq×3pqの場合の例を、図66に示す。画素領域の2次元化に当たり、画素領域のサイズおよび処理対象ブロックのサイズは、それぞれ、自由に選択可能である。画素領域の2次元化により、注目画素領域の画素数が多くなるため、処理の効率化が図られる。また、p=q=1の場合、注目画素領域は1次元の画像復元手法(発明手法1〜3)と等しくなるため、2次元の画像復元手法である発明手法4は、柔軟性のある手法といえる。なお、上記のように、1次元カルマンフィルタを2次元に拡張した2次元カルマンフィルタも知られているが、2次元カルマンフィルタも、1次元カルマンフィルタと同様に、AR係数を用いるため、AR係数の推定精度に起因する画像復元能力の低下は避けられない。これを解決するためには、AR係数を必要としない新しい予測法を発案して、2次元カルマンフィルタの状態空間モデルを再構成すればよい。発明手法4は、まさに、このための新しい手法であり、発明手法1を2次元に拡張した新しい予測法に基づく画像復元手法である。以下、発明手法4について、より詳細に説明する。
The
図67は、発明手法4の状態空間モデルを視覚的に説明するための図である。また、図68は、発明手法4の状態過程を視覚的に説明するための図であり、図69は、発明手法4の状態方程式の構成を視覚的に示す説明図である。
FIG. 67 is a diagram for visually explaining the state space model of
状態過程について、発明手法4では、図68に示すように、画素領域として、サイズがp×qの領域を指定し、指定した画素領域に含まれる画素情報を並べてpq×1次の画素領域ベクトルを生成する。例えば、図68に示すように、p=q=2、かつ、3pq×3pqの領域の場合を例にとると、一番左上の画素領域ベクトルx1(n)は、4個の画素情報x1(n)、x2(n)、x3(n)、x4(n)を要素とする4×1次のベクトルであり、一番右下の画素領域ベクトルx9(n)は、4個の画素情報x33(n)、x34(n)、x35(n)、x36(n)を要素とする4×1次のベクトルである。そして、9個の画素領域に対応する画素領域ベクトルxk(n)(k=1、2、…、9)を並べて状態ベクトルx(n)を表現する。すなわち、発明手法4では、図69に示すように、画素領域を、発明手法1における画素情報と対応付けて、同様の処理を行う。
With respect to the state process, as shown in FIG. 68, the
図70は、発明手法4の観測過程を視覚的に説明するための図であり、図71は、発明手法4の観測方程式の構成を視覚的に示す説明図である。
FIG. 70 is a diagram for visually explaining the observation process of the
観測過程についても、発明手法4では、図70に示すように、画素領域として、サイズがp×qの領域を指定し、指定した画素領域に含まれる画素情報を並べてpq×1次の画素領域ベクトルを生成する。例えば、図70に示すように、p=q=2、かつ、3pq×3pqの領域の場合を例にとると、一番左上の画素領域ベクトルy1(n)は、4個の画素情報y1(n)、y2(n)、y3(n)、y4(n)を要素とする4×1次のベクトルであり、一番右下の画素領域ベクトルy9(n)は、4個の画素情報y33(n)、y34(n)、y35(n)、y36(n)を要素とする4×1次のベクトルである。そして、9個の画素領域に対応する画素領域ベクトルyk(n)(k=1、2、…、9)を並べて観測ベクトルy(n)を表現する。すなわち、発明手法4では、図71に示すように、画素領域を、発明手法1における画素情報と対応付けて、同様の処理を行う。
As for the observation process, in
図72は、発明手法4の観測遷移行列の、p=q=2、かつ、3pq×3pqの領域の場合の具体例を示す図であり、図73は、図72の観測遷移行列の構成を視覚的に示す説明図である。また、図74は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す図、図75は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示す他の図、図76は、図72の観測遷移行列を構成する係数の割り当て方法の具体例を示すさらに他の図である。
72 is a diagram showing a specific example of the observed transition matrix of the
ここでは、発明手法4の観測遷移行列を構成する3×3(=9)個の係数hr,s(座標r,s=−1,0,1)は、発明手法1の場合と同じであり、画素情報を単位として見たときに、発明手法1の場合と同様の関係が成り立つように、割り当てられている。係数hr,s(r,s=−1,0,1)の具体的な割り当て方法は、画素情報を単位としたときの観測量yiの位置に応じて、図74〜図76にそれぞれ示す通りである。
Here, 3 × 3 (= 9) coefficients h r, s (coordinates r, s = −1, 0, 1) constituting the observation transition matrix of the
図77は、発明手法4の状態方程式と観測方程式をまとめて示す説明図であり、図78は、発明手法4のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表している。
FIG. 77 is an explanatory diagram collectively showing the state equation and the observation equation of
図77に示す状態方程式および観測方程式、ならびに図78に示すアルゴリズムにおいて、K4は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K4=m×nで表される。ここで、m、nは、それぞれ、m=lm×p、n=ln×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、lm、lnは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。 In the state equation and the observation equation shown in FIG. 77 and the algorithm shown in FIG. 78, K 4 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, it is represented by K 4 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number.
図79は、図78のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 79 is a flowchart showing a processing procedure for executing the algorithm of FIG.
ここでは、図78のアルゴリズムの表記に対応して、行列とベクトルのサイズをそれぞれ明記している。具体的には、n→(n+1)の推定誤差の相関値(行列)(S5100)は、サイズがK4×K4の行列、重み係数(行列)(S5200)は、サイズがK4×K4の行列、n→(n+1)の状態量の最適推定値(ベクトル)(S5300)は、サイズがK4×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(ベクトル)(S5400)は、サイズがK4×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(行列)(S5600)は、サイズがK4×K4の行列となる。 Here, the sizes of the matrix and the vector are specified in correspondence with the notation of the algorithm of FIG. Specifically, the correlation value (matrix) (S5100) of the estimation error of n → (n + 1) is a matrix having a size of K 4 × K 4 , and the weight coefficient (matrix) (S 5200) is a size of K 4 × K. 4 matrix, optimal estimation value (vector) (S5300) of state quantity of n → (n + 1) is a vector of size K 4 × 1, optimal estimation value (vector) of state quantity of (n + 1) → (n + 1) (S5400), the size vector of K 4 × 1, (n + 1) → (n + 1) correlation value of the estimated error of (matrix) (S5600), the size of the matrix K 4 × K 4.
図80は、発明手法4の演算量評価を説明するための図である。なお、ここで、従来手法4は、2次元カルマンフィルタを用いた画像復元手法(例えば、非特許文献8参照)である。ただし、非特許文献8に記載された手法は、原画像に雑音が加わった劣化画像にしか対応できないため、本発明者は、非特許文献8に記載された手法をぼけと雑音に対応できるように拡張した上で、以下の各種比較(シミュレーションを含む)を行った。
FIG. 80 is a diagram for explaining the calculation amount evaluation of
図80の上側に、従来手法4および発明手法4に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)を求め、得られた結果を発明手法1に対する結果と一緒に示すと、図80の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法4は、従来手法4よりも演算量は少ないが、発明手法1よりも演算量は多い。しかし、発明手法4は、発明手法1に比べて、注目画素領域が広いため、更新回数は少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1、となる。したがって、発明手法4は、注目画素領域と周辺画素領域のサイズをそれぞれ変化させることにより、効率のよい画像復元が可能である。
On the upper side of FIG. 80, the number of operations (number of multiplications) per update for
図81は、発明手法4の復元処理速度評価を説明するための図である。
FIG. 81 is a diagram for explaining the restoration processing speed evaluation of
ここでは、発明手法1の測定結果に、従来手法4と発明手法4の測定結果を追加した。その結果、発明手法4は、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法4は、上記のように発明手法1よりも演算量は多いものの更新回数は少ないため、発明手法1よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図81に示すように、従来手法4<発明手法1<発明手法4、となる。したがって、発明手法4は、高速な画像復元処理が可能である。
Here, the measurement results of
図82は、比較対象手法との対比において原画像「カメラマン」に対する発明手法4のシミュレーション結果(視覚評価)を示す図であり、図83は、図82中の破線の円の周辺領域を拡大した図である。また、図84は、比較対象手法との対比において原画像「レナ」に対する発明手法4のシミュレーション結果(視覚評価)を示す図であり、図85は、図84中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。
82 is a diagram showing a simulation result (visual evaluation) of
図82〜図85に示すように、発明手法4は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法4のほうが高いことがわかる。
As shown in FIGS. 82 to 85, it can be seen that
図86は、比較対象手法との対比において原画像に対する発明手法4のシミュレーション結果(客観評価)を示す図である。
FIG. 86 is a diagram showing a simulation result (objective evaluation) of
この場合、図86に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法4は、発明手法3よりもPSNRの数値はやや小さいものの、従来手法3はもとより発明手法1および発明手法2よりもPSNRの数値が大きいことが確認できる。これにより、発明手法4は、客観評価の点でも、従来手法3、発明手法1、および発明手法2に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図86に示すように、従来手法3<発明手法1<発明手法2<発明手法4<発明手法3、となる。
In this case, as shown in FIG. 86, for both the “cameraman” and “Lena” images, the
以上より、発明手法4は、発明手法1よりも演算量は多いものの、発明手法1および発明手法2よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。
As described above, the
<発明手法5>
図87は、発明手法4の課題を視覚的に説明するための図である。
<
FIG. 87 is a diagram for visually explaining the problem of the
発明手法4では、図87に示すように、時刻nの変化は、画素領域(処理対象ブロック)の遷移を用いて表される。時刻n+1では、例えば、過去の1時刻前の9(=3×3)個の画素領域にそれぞれ含まれる各状態量(原画像の画素情報)を用いて、現在の処理対象ブロックの9(=3×3)個の画素領域にそれぞれ含まれる各状態量(原画像の画素情報)を推定することにより、注目画素領域の状態量x29、x30、x31、x32を復元する。このように、発明手法4では、1つの注目画素領域に含まれる各状態量(要素)を復元するために、処理対象ブロック内の状態量(要素)をすべて推定している。しかし、そもそも、1つの注目画素領域内の要素を復元するためには、その注目画素領域内の要素のみを求めればよく、他の要素の推定は不要である。そこで、発明手法5では、注目画素領域のみを考慮した状態空間モデルを再構成する。具体的には、発明手法5では、発明手法4の観測方程式を再構成して注目画素領域に含まれる要素のみを抽出するようにしている。これにより、発明手法5では、発明手法4に対して大幅な演算量の軽減を可能にして、高速(低演算量)な劣化画像復元を実現している。なお、発明手法5は、発明手法2を2次元に拡張したものともいえる。
In
図88は、発明手法5の状態方程式の構成を視覚的に示す説明図であり、特に、(A)は、発明手法4の状態方程式の具体例を示す図、(B)は、時刻の変化に伴う処理対象ブロックの変化を示す図である。なお、図88に示すように、発明手法5の状態方程式は、発明手法4の状態方程式と全く同じであるため、その説明を省略する。
FIG. 88 is an explanatory diagram visually showing the configuration of the state equation of
図89は、発明手法5の観測方程式の構成を視覚的に示す説明図であり、図90は、発明手法5の観測方程式の構成を視覚的に示す他の説明図である。
FIG. 89 is an explanatory diagram visually showing the configuration of the observation equation of the
発明手法5では、図89に示すように、発明手法4の観測方程式において注目画素領域に含まれる要素(例えば、画素領域ベクトルy5(n))のみを抽出して観測方程式を再構成する。これにより、発明手法5では、図90に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、それぞれ、サイズが縮小されて、観測ベクトルyp5(n)、観測遷移行列Mp5、観測雑音ベクトルεp5(n)となる。この結果、発明手法5は、発明手法4に対して、サイズが縮小されるため、演算量が大幅に軽減される。なお、演算量の軽減効果については、後で詳述する。
In
図91は、発明手法5の状態方程式と観測方程式をまとめて示す説明図であり、図92は、発明手法5のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。
FIG. 91 is an explanatory diagram collectively showing the state equation and the observation equation of
図91に示す状態方程式および観測方程式、ならびに図92に示すアルゴリズムにおいて、K5は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K5=m×nで表される。ここで、m、nは、それぞれ、m=lm×p、n=ln×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、lm、lnは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。また、L5は、注目画素領域に含まれる画素数であり、L5=p×qで表される。 State equation and an observation equation shown in FIG. 91, as well as in the algorithm shown in FIG. 92, K 5 is the number of pixels included in the peripheral pixel area (strictly, the target block), m, vertical n each peripheral pixel region In the case of the length of the axis and the horizontal axis, it is expressed by K 5 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number. L 5 is the number of pixels included in the target pixel region, and is represented by L 5 = p × q.
図93は、図92のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 93 is a flowchart showing a processing procedure for executing the algorithm of FIG.
上記のように、発明手法5では、図90に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、それぞれ、サイズが9pq×1→pq×1、9pq×9pq→pq×9pq、9pq×1→pq×1に縮小されて(つまり、L5<K5)、観測ベクトルyp5(n)、観測遷移行列Mp5、観測雑音ベクトルεp5(n)となっている。これにより、図93のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S6100)は、サイズがK5×K5の行列、重み係数(S6200)は、サイズがK5×L5の行列、n→(n+1)の状態量の最適推定値(S6300)は、サイズがK5×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S6400)は、サイズがK5×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S6600)は、サイズがK5×K5の行列となる。
As described above, in
図94は、発明手法4と発明手法5のアルゴリズムを比較した説明図である。
FIG. 94 is an explanatory diagram comparing the algorithms of
図94に示すように、発明手法4のアルゴリズムでは、サイズが9pq×9pqの逆行列の計算が必要であり(反復過程つまり更新式の手順2参照)、演算量が多い。これに対し、発明手法5では、上記したサイズの縮小により、サイズが9pq×9pqの逆行列が、サイズがpq×pqの逆行列となっている(反復過程つまり更新式の手順2参照)。したがって、発明手法5は、発明手法4よりも演算量が大幅に軽減される。
As shown in FIG. 94, the algorithm of the
図95は、発明手法5の演算量評価を説明するための図である。
FIG. 95 is a diagram for explaining the calculation amount evaluation of
図95の上側に、発明手法5に対する、更新1回当たりの演算回数(乗算回数)を示す。これに基づき、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)を求め、得られた結果を図80に示す棒グラフに加えると、図95の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法5は、従来手法4および発明手法4よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1<発明手法5、となる。したがって、発明手法5は、大幅な演算量の軽減が可能であり、高速(低演算量)な画像復元が可能である。
On the upper side of FIG. 95, the number of operations (number of multiplications) per update for
図96は、発明手法5の復元処理速度評価を説明するための図
FIG. 96 is a diagram for explaining the restoration processing speed evaluation of
ここでは、図81の結果に、発明手法5の測定結果を追加した。その結果、発明手法5も、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法5は、上記のように発明手法1および発明手法4よりも演算量が少ないため、発明手法1および発明手法4よりも高速な処理が可能となっている。処理速度で見た場合、その大小関係は、図96に示すように、従来手法4<発明手法1<発明手法4<発明手法5、となる。したがって、発明手法5は、高速な画像復元処理が可能である。
Here, the measurement result of
図97は、比較対象手法との対比において原画像「カメラマン」に対する発明手法5のシミュレーション結果(視覚評価)を示す図であり、図98は、図97中の破線の円の周辺領域を拡大した図である。また、図99は、比較対象手法との対比において原画像「レナ」に対する発明手法5のシミュレーション結果(視覚評価)を示す図であり、図100は、図99中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。
97 is a diagram showing a simulation result (visual evaluation) of
図97〜図100に示すように、発明手法5は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。ただし、発明手法1と発明手法5を比較した場合、画像復元能力はほぼ同等のレベルである。
As shown in FIGS. 97 to 100, it can be seen that
図101は、比較対象手法との対比において原画像に対する発明手法5のシミュレーション結果(客観評価)を示す図である。
FIG. 101 is a diagram showing a simulation result (objective evaluation) of
この場合、図101に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法5は、発明手法3よりもPSNRの数値が小さく、従来手法3よりはPSNRの数値が大きいものの、発明手法1、2、4とはPSNRの数値がほぼ同レベルであることが確認できる。これにより、発明手法5は、客観評価の点でも、従来手法3に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図101に示すように、従来手法3<発明手法1<発明手法5<発明手法2<発明手法4<発明手法3、となる。
In this case, as shown in FIG. 101, for both “cameraman” and “Lena” images,
以上より、発明手法5は、2次元に拡張した発明手法4とほぼ同等な画像復元能力を維持しつつ、演算量の軽減により高速で、かつ、処理効率が向上した画像復元手法を実現していることがわかる。
As described above,
<発明手法6>
図102は、発明手法5の課題を視覚的に説明するための図である。
<
FIG. 102 is a diagram for visually explaining the problem of the
発明手法5は、上記のように、発明手法4に対して、演算量を大幅に軽減して高速な画像復元処理を実現することができるものの、画像復元能力が若干低下している。これは、図102に示すように、発明手法5の観測方程式において、有色性駆動源の影響が大きい領域が含まれていないためであると考えられる。そこで、発明手法6では、注目画素領域のみでなく有色駆動源をも考慮した状態空間モデルを再構成する。すなわち、発明手法6では、有色性駆動源の影響を最大限に与えるように状態空間モデルを再構成する。
As described above, the
図103は、発明手法6の観測方程式の構成を視覚的に示す説明図であり、図104は、発明手法6の状態空間モデルを視覚的に説明するための図である。なお、発明手法6の状態方程式は、発明手法5(ひいては発明手法4)の状態方程式と全く同じであるため、その説明を省略する。
FIG. 103 is an explanatory diagram visually showing the configuration of the observation equation of the
発明手法6では、図103に示すように、発明手法4の観測方程式において、注目画素領域に含まれる要素(例えば、画素領域ベクトルy5(n))に加えて、有色性駆動源の影響を受ける領域に含まれる要素(例えば、画素領域ベクトルy7(n)、y8(n)、y9(n))をも抽出して観測方程式を再構成する。すなわち、発明手法6では、有色性駆動源の影響を考慮するために、発明手法5と比較して、画素領域ベクトルy7(n)、y8(n)、y9(n)をも取り入れる。これにより、発明手法6では、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、および観測雑音ベクトルεp4(n)は、サイズがそれぞれ縮小されて、観測ベクトルyp6(n)、観測遷移行列Mp6、観測雑音ベクトルεp6(n)となる。このように、発明手法6では、図104に示すように、状態方程式における有色性駆動源の影響を最大限に考慮するべく、注目画素領域と有色性駆動源の影響を受ける領域とから観測方程式を再構成する。これにより、発明手法6は、発明手法5の場合よりもサイズの縮小は小さいものの、発明手法4に対してサイズが縮小されるため、演算量は大幅に軽減される。
In
図105は、発明手法6の状態方程式と観測方程式をまとめて示す説明図であり、図106は、発明手法6のアルゴリズムを説明するための図である。なお、式の表記法として、ここでは、一般に、アルファベットの小文字「αγ」は、サイズがγ×1のベクトルを表し、アルファベットの大文字「Βγ」は、サイズがγ×γの行列を表し、アルファベットの大文字「C(γ×ζ)」は、サイズがγ×ζの行列を表している。
FIG. 105 is an explanatory diagram collectively showing the state equation and the observation equation of
図105に示す状態方程式および観測方程式、ならびに図106に示すアルゴリズムにおいて、K6は周辺画素領域(厳密には処理対象ブロック)に含まれる画素数であり、m、nをそれぞれ周辺画素領域の縦軸と横軸の長さとした場合、K6=m×nで表される。ここで、m、nは、それぞれ、m=lm×p、n=ln×qで表される。p、qは、それぞれ、注目画素領域の縦軸と横軸の長さであり、lm、lnは、それぞれ、p×qと同等のサイズを周辺画素領域の縦軸と横軸に構成した数である。また、L6は、注目画素領域と有色性駆動源を含む領域とを合わせた領域に含まれる画素数であり、L6=p×q+m×qで表される(L6<K6)。発明手法6のアルゴリズムは、図106に示すように、初期設定(Initialization)の過程と反復(Iteration)の過程とに大別され、反復過程は、発明手法5の場合(図92参照)よりも演算量が若干増加するものの、発明手法4の場合(図78参照)よりも演算量が軽減されるよう、図105に示す新しい状態空間モデル(状態方程式と観測方程式)を基に構成されている。反復過程では、1〜6の手順を逐次繰り返す。
In the state equation and the observation equation shown in FIG. 105 and the algorithm shown in FIG. 106, K 6 is the number of pixels included in the peripheral pixel region (strictly, the processing target block), and m and n are respectively the vertical lengths of the peripheral pixel region. In the case of the length of the axis and the horizontal axis, K 6 = m × n. Here, m and n are represented by m = l m × p and n = l n × q, respectively. p and q are the lengths of the vertical axis and horizontal axis of the pixel area of interest, respectively, and l m and l n are respectively configured to have a size equivalent to p × q on the vertical axis and horizontal axis of the peripheral pixel area. It is a number. L 6 is the number of pixels included in the combined region of the target pixel region and the region including the colored drive source, and is represented by L 6 = p × q + m × q (L 6 <K 6 ). As shown in FIG. 106, the algorithm of the
図107は、図106のアルゴリズムを実行する処理手順を示すフローチャートである。 FIG. 107 is a flowchart showing a processing procedure for executing the algorithm of FIG.
上記のように、発明手法6では、図103に示すように、発明手法4における観測ベクトルyp4(n)、観測遷移行列Mp4、観測雑音ベクトルεp4(n)は、サイズがそれぞれ縮小されて(つまり、L6<K6)、観測ベクトルyp6(n)、観測遷移行列Mp6、観測雑音ベクトルεp6(n)となっている。これにより、図107のフローチャートにおいて、n→(n+1)の推定誤差の相関値(S7100)は、サイズがK6×K6の行列、重み係数(S7200)は、サイズがK6×L6の行列、n→(n+1)の状態量の最適推定値(S7300)は、サイズがK6×1のベクトル、(n+1)→(n+1)の状態量の最適推定値(S7400)は、サイズがK6×1のベクトル、(n+1)→(n+1)の推定誤差の相関値(S7600)は、サイズがK6×K6の行列となる。
As described above, in
図108は、発明手法6の演算量評価を説明するための図である。
FIG. 108 is a diagram for explaining the calculation amount evaluation of
図108の上側に、発明手法6に対する、256×256サイズの1枚の画像を復元するのに必要な演算量(乗算回数)示す。これに基づき、更新1回当たりの演算量(乗算回数)を求め、得られた結果を図95に示す棒グラフに加えると、図108の中央左側に示す棒グラフが得られる。この棒グラフから明らかなように、発明手法6は、発明手法5よりも演算量は若干多いものの、発明手法4よりも演算量は大幅に少ない。演算量の減少効果で見た場合、その大小関係は、従来手法4<発明手法4<発明手法1<発明手法6<発明手法5、となる。したがって、発明手法6は、良好な演算量軽減を実現している。
The upper side of FIG. 108 shows the amount of computation (number of multiplications) required to restore one image of 256 × 256 size for
図109は、発明手法6の復元処理速度評価を説明するための図である。
FIG. 109 is a diagram for explaining the restoration processing speed evaluation of the
ここでは、図96の結果に、発明手法6の測定結果を追加した。その結果、発明手法6も、従来手法4と比較して、AR係数推定(導出)の演算量が不要であるため、処理速度が速くなっている。また、発明手法6は、上記のように発明手法4よりも演算量が大幅に少ないため、発明手法4よりも高速な処理が可能となっている。発明手法6は、発明手法5よりも処理速度が若干遅い程度である。処理速度で見た場合、その大小関係は、図109に示すように、従来手法4<発明手法1<発明手法4<発明手法6<発明手法5、となる。したがって、発明手法6も、高速な画像復元処理が可能である。
Here, the measurement result of
図110は、比較対象手法との対比において原画像「カメラマン」に対する発明手法6のシミュレーション結果(視覚評価)を示す図であり、図111は、図110中の破線の円の周辺領域を拡大した図である。また、図112は、比較対象手法との対比において原画像「レナ」に対する発明手法6のシミュレーション結果(視覚評価)を示す図であり、図113は、図112中の破線の円の周辺領域を拡大した図である。なお、シミュレーション条件は、図46に示す通りである。また、ここでの比較対象手法は、従来手法3と発明手法1である。
110 is a diagram showing a simulation result (visual evaluation) of
図110〜図113に示すように、発明手法6は、従来手法3に比べて、明らかに原画像を忠実に復元していることがわかる。しかも、発明手法1と比較しても、画像復元能力は、発明手法6のほうが高いことがわかる。
As shown in FIGS. 110 to 113, it can be seen that
図114は、比較対象手法との対比において原画像に対する発明手法6のシミュレーション結果(客観評価)を示す図である。
FIG. 114 is a diagram showing a simulation result (objective evaluation) of
この場合、図114に示すように、「カメラマン」、「レナ」どちらの画像についても、発明手法6は、他のどの手法(従来手法3はもとより発明手法1〜5)よりもPSNRの数値が大きいことが確認できる。これにより、発明手法6は、客観評価の点でも、他の手法(従来手法3、発明手法1〜5)に比べて画像復元能力が高いことがわかる。これにより、客観評価(数値による評価)の大小(良否)関係は、図114に示すように、従来手法3<発明手法1<発明手法5<発明手法2<発明手法4<発明手法3<発明手法6、となる。
In this case, as shown in FIG. 114, the
以上より、発明手法6は、発明手法5よりも演算量を若干増加させつつも、発明手法1〜5よりも高い良好な画像復元能力を発揮することができる高速な画像復元処理を実現していることがわかる。
As described above, the
ここで、発明手法1〜6の状態空間モデル(状態方程式と観測方程式)の特徴についてまとめておく。
Here, the features of the state space models (state equations and observation equations) of the
<発明手法1>
状態方程式は、時刻n+1のK1個の原画像(画素情報)が、時刻nのK1個の原画像(画素情報)と、m個の原画像(画素情報)を含む有色性駆動源とから構成されている。また、観測方程式は、時刻nのK1個の原画像(画素情報)が、ぼけと雑音の影響を受けてK1個の劣化画像(画素情報)から構成されている。このような状態空間モデルにより、発明手法1では、観測方程式のK1個の劣化画像(画素情報)を用いて、状態方程式の時刻n+1におけるK1個の原画像(画素情報)を予測している。
<
State equation, the time n + 1 of K 1 piece of the original image (pixel information), and K 1 piece of the original image at time n (pixel information), the colored driving source comprising m of the original image (pixel information) It is composed of In the observation equation, K 1 original images (pixel information) at time n are composed of K 1 degraded images (pixel information) due to the influence of blur and noise. With this state space model,
<発明手法2>
発明手法1において、必要な復元画像(画素情報)は1個である。それゆえ、発明手法2では、演算量を軽減するために、発明手法1の観測方程式の1個の劣化画像(画素情報)のみに着目して、発明手法1の観測方程式を再構成する。ただし、発明手法2の状態方程式は、発明手法1と同じである。このような状態空間モデルにより、発明手法2の観測方程式では、時刻nの1個の劣化画像(画素情報)のみを用いるため、過去の劣化画像(画素情報)に依存することなく、最も少ない演算量で1個の原画像(画素情報)を予測している。
<
In
<発明手法3>
少ない演算量で高性能な画像復元能力を得るために、発明手法3の観測方程式は、有色性駆動源の影響を含む時刻nの原画像(画素情報)からなる発明手法1の観測方程式の一部と、発明手法2の観測方程式とから構成されている。このような状態空間モデルにより、発明手法3では、有色性駆動源の影響を最大限に考慮しているため、演算量の軽減を図りながら高性能な画像復元を実現している。
<
In order to obtain a high-performance image restoration capability with a small amount of computation, the observation equation of
<発明手法4>
処理効率を向上させるために、2次元に拡張した状態方程式は、時刻n+1のK4個の原画像(画素情報)が、時刻nのK4個の原画像(画素情報)と、m×q個の原画像(画素情報)を含む有色性駆動源とから構成されている。また、2次元に拡張した観測方程式は、時刻nのK4個の原画像(画素情報)が、ぼけと雑音の影響を受けてK4個の劣化画像(画素情報)から構成されている。このような状態空間モデルにより、発明手法4では、観測方程式のK4個の劣化画像(画素情報)を用いて、状態方程式の時刻n+1におけるK4個の原画像(画素情報)を予測している。
<
In order to improve the processing efficiency, the equation of state is extended to two dimensions, time n + 1 of the K 4 pieces of the original image (pixel information), the time n of K 4 pieces of the original image (pixel information), m × q And a colored drive source including original images (pixel information). In the observation equation expanded in two dimensions, K 4 original images (pixel information) at time n are composed of K 4 degraded images (pixel information) due to the influence of blur and noise. With this state space model,
<発明手法5>
2次元に拡張した発明手法4において、必要な復元画像(画素情報)はp×q個である。それゆえ、発明手法2では、演算量を軽減するために、発明手法4の観測方程式のp×q個の劣化画像(画素情報)のみに着目して、発明手法4の観測方程式を再構成する。ただし、発明手法5の状態方程式は、発明手法4と同じである。このような状態空間モデルにより、発明手法5の観測方程式では、時刻nのp×q個の劣化画像(画素情報)のみを用いるため、過去の劣化画像(画素情報)に依存することなく、最も少ない演算量でp×q個の原画像(画素情報)を予測している。
<
In
<発明手法6>
少ない演算量で高性能な画像復元能力を得るために、発明手法6の観測方程式は、有色性駆動源の影響を含む時刻nの原画像(画素情報)からなる発明手法4の観測方程式の一部と、発明手法5の観測方程式とから構成されている。このような状態空間モデルにより、発明手法6では、有色性駆動源の影響を最大限に考慮しているため、演算量を軽減しながら高性能な画像復元を実現している。
<
In order to obtain a high-performance image restoration capability with a small amount of computation, the observation equation of
このように、発明手法1〜6によれば、いずれも、AR係数を必要としない新しい状態空間モデル(状態方程式と観測方程式)を構成して1段階処理の新しい予測法によって画像復元を行うため、1枚の劣化画像のみを用いてぼけと雑音を同時に取り除くことができる。
As described above, according to the
また、発明手法1〜6によれば、いずれも、AR係数を必要としないため、演算量を軽減することができる。
In addition, according to the
また、発明手法1〜3を2次元に拡張した発明手法4〜6によれば、注目画素領域および周辺画素領域のサイズをそれぞれ任意に変化させることができるため、例えば、劣化画像の性質によって1次元および2次元の新しい予測法に基づく画像復元手法を使い分けることが可能となり、効率のよい画像復元を実現することができる。
In addition, according to the
特に、発明手法4〜6は、2次元に拡張された新しい予測法を用いた劣化画像復元手法である。この発明手法4〜6の最大の特徴は、劣化画像の性質やユーザの目的などに応じて、発明手法1、発明手法1の演算量を軽減した発明手法2、および性能を優先させた発明手法3を実現可能となるだけでなく、2次元に拡張した発明手法4、発明手法4の演算量を軽減した発明手法5、および性能を優先させた発明手法6と適応的に変更できることである。
In particular,
(実施の形態2)
実施の形態2は、状況に応じて複数の画像復元手法を適応的に切り替えて実行させる場合である。
(Embodiment 2)
The second embodiment is a case where a plurality of image restoration methods are adaptively switched and executed according to the situation.
図115は、本発明の実施の形態2に係る画像復元装置の構成を示すブロック図である。なお、この画像復元装置200は、図1に示す画像復元装置100と同様の基本的構成を有しており、同一の構成要素にば同一の符号を付し、その説明を省略する。
FIG. 115 is a block diagram showing a configuration of an image restoration apparatus according to
図115に示す画像復元装置200は、複数の画像復元アルゴリズムを内蔵しており、ユーザの選択によって、または、状況に応じて自動的に、内蔵した画像復元アルゴリズムを切り替えて実行可能である。複数の画像復元アルゴリズムとしては、例えば、上記した発明手法1〜6の全部または一部を用いることができる。発明手法1〜6は、上記のように、復元能力や処理速度(演算量)、処理効率、柔軟性などの点で、それぞれ特徴を有するため、適用する発明手法を状況に応じて適宜選択することによって、状況に応じた最適な画像復元を行うことができる。なお、内蔵する複数の画像復元アルゴリズムは、発明手法1〜6に限定されるわけではなく、発明手法1〜6と従来手法(例えば、上記の従来手法1〜4)との任意の組み合わせであってもよい。
An
このような機能を実現するため、画像復元装置200は、復元モード指定部210と画像復元処理部220を有する。復元モード指定部210は、例えば、操作部130に設けられている。復元モード指定部210は、使用者の入力操作により、後述する復元モードを指定する。また、画像復元処理部220は、例えば、パラメータ設定部222、被写体領域判定部224を有する。また、記憶部150において、例えば、主記憶装置152は、取込画像メモリ230、被写体領域メモリ232、処理パラメータメモリ234、および復元画像メモリ236を有し、表示メモリ156は、取込画像メモリ240、処理内容メモリ242、および復元画像メモリ244を有する。
In order to realize such a function, the
図116は、復元モード指定部210によって指定可能な復元モードの具体例を示す図である。
FIG. 116 is a diagram showing a specific example of restoration modes that can be designated by the restoration
復元モード指定部210によって指定可能な復元モードは、図116に示すように、復元モード指定部210の内部構造として与えられる。図116に示す例では、復元モードとして、まず大別して、例えば、「カメラモード」、「取込画像」、「品質」が設けられている。そして、カメラモードには、例えば、「スポーツ」や「風景」、「夜景」、「接写」、「ポートレー」などのモードが設けられ、取込画像には、例えば、「写真」や「文字」、「風景」などのモードが設けられている。また、品質には、「画質優先」や「オート」、「処理速度優先」などのモードが設けられている。画質優先のモードは、さらに、「非常に細かい」、「細かい」、「普通」の3段階に分かれている。それぞれの復元モードには、予め、最適な画像復元アルゴリズムが対応付けられている。例えば、「品質」の「処理速度優先」には、発明手法5が対応付けられ、「品質」の「非常に細かい」には、発明手法3または発明手法6が対応付けられている。また、復元モードは、異なる項目から複数同時に指定することもできる。例えば、「取込画像」から「写真」を指定し、「品質」から「画質優先」の「非常に細かい」を指定した場合には、これらの条件にマッチした復元処理を行う画像復元アルゴリズムが実行される。
The restoration modes that can be designated by the restoration
画像復元処理部220において、パラメータ設定部222は、操作部130のパラメータ設定部132によって入力された各種パラメータの値を内部的に設定する。また、被写体領域判定部224は、所定の被写体領域判定アルゴリズムによって、被写体の領域を判定する。ここでは、被写体領域判定アルゴリズムは、特に限定されず、周知の任意のアルゴリズムを用いることができる。
In the image
また、主記憶装置152において、取込画像メモリ230は、画像入力装置110によって取り込まれた画像を格納し、被写体領域メモリ232は、被写体領域判定部224によって判定された被写体の領域を格納する。被写体領域メモリ232に格納される被写体領域は、被写体の画像そのものでも被写体の画像の格納場所でもよい。処理パラメータメモリ234は、操作部130によって設定された復元処理の内容(設定されたパラメータや復元モードなど)を格納する。復元画像メモリ234は、画像復元処理部220によって復元された画像を格納する。また、表示メモリ156において、取込画像メモリ240は、主記憶装置152の取込画像メモリ230に格納された取込画像のうち、表示する取込画像を一時格納し、処理内容メモリ242は、処理パラメータメモリ234に格納された復元処理の内容(設定されたパラメータや復元モードなど)のうち、表示する処理内容を一時格納する。復元画像メモリ244は、主記憶装置152の復元画像メモリ234に格納された復元画像のうち、表示する復元画像を一時格納する。
In the
次いで、上記構成を有する画像復元装置200の動作について、図117に示すフローチャートを用いて説明する。なお、図117に示すフローチャートは、記憶部150(主記憶装置152または補助記憶装置154)に制御プログラムとして格納されており、図示しないCPUによって実行される。
Next, the operation of the
まず、ステップS8000では、画像入力装置110から復元処理対象の画像データ(劣化画像)を取り込み、主記憶装置152の取込画像メモリ230に格納する。
First, in step S8000, image data (degraded image) to be restored is captured from the
そして、ステップS8050では、ステップS8000で取り込んだ画像データを、少なくとも1フレーム、一時的に記憶する。ここでは、取り込んだ画像データ(少なくとも1フレーム)を、1フレーム以上の画像データを一時的に蓄積するメモリ(例えば、主記憶装置152の図示しない作業用メモリ)に記憶する。 In step S8050, the image data captured in step S8000 is temporarily stored for at least one frame. Here, the captured image data (at least one frame) is stored in a memory (for example, a working memory (not shown) of the main storage device 152) that temporarily stores one or more frames of image data.
そして、ステップS8100では、画像復元処理部220の被写体領域判定部224で、ステップS8050で一時的に記憶した取込画像データに対して、所定のレベルでプレスキャン(被写体認識)する。具体的には、取込画像データ中で所定レベル以上の変化点抽出する。
In step S8100, the subject
そして、ステップS8150では、ステップS8100の結果を用いて、所定レベル以上の変化点を抽出した位置を、取込画像データに対応付けて、主記憶装置152の被写体領域メモリ232に記憶する。
In step S8150, using the result of step S8100, the position where the change point of a predetermined level or higher is extracted is stored in the
そして、ステップS8200では、プレスキャンを終了するか否かを判断する。この判断は、プレスキャンを行っていないフレームが存在するか否かに基づいて行われる。すなわち、複数のフレームが存在する場合には、フレームの数だけプレスキャンを繰り返すことになる。この判断の結果として、プレスキャンを終了する場合は(S8200:YES)、ステップS8250に進み、プレスキャンを終了しない場合は(S8200:NO)、ステップS8100に戻る。 In step S8200, it is determined whether or not to end the prescan. This determination is made based on whether there is a frame that has not been pre-scanned. That is, when there are a plurality of frames, the pre-scan is repeated by the number of frames. As a result of this determination, when pre-scanning is to be ended (S8200: YES), the process proceeds to step S8250, and when pre-scanning is not to be ended (S8200: NO), the process returns to step S8100.
ステップS8250では、操作部130の復元モード指定部210および領域指定部134で、復元モードの設定と境界領域の設定を行う。設定可能な復元モードは、例えば、上記した図116に示す通りである。また、境界領域の設定では、ステップS8100でプレスキャンしたときの境界領域の確認を行う。
In step S8250, the restoration
そして、ステップS8300では、被写体領域か否かの判断を行う。具体的には、処理対象ブロック(注目画素とその周辺画素)が被写体領域を含んでいるか否かを判断する。この判断は、例えば、プレスキャンした段階で、劣化画像の中のどの位置にユーザが注目している被写体があるのかを画素の輝度値により自動的に判定しておき、この結果を利用したり、あるいは、ユーザにタッチパネルを使って選択的に被写体領域を判定させたりすることによって行われる。この判断の結果として、処理対象ブロックが被写体領域を含む場合は(S8300:YES)、ステップS8350に進み、処理対象ブロックが被写体領域を含まない場合は(S8300:NO)、ステップS8400に進む。 In step S8300, it is determined whether or not the subject area. Specifically, it is determined whether or not the processing target block (the target pixel and its surrounding pixels) includes a subject area. This determination can be made by, for example, automatically determining at which position in the deteriorated image the subject that the user is paying attention is based on the luminance value of the pixel at the stage of pre-scanning, and using this result. Alternatively, it is performed by allowing the user to selectively determine the subject area using the touch panel. As a result of this determination, if the processing target block includes the subject area (S8300: YES), the process proceeds to step S8350. If the processing target block does not include the subject area (S8300: NO), the process proceeds to step S8400.
ステップS8350では、実行する画像復元手法として、ステップS8250で設定した復元モードに対応する1次元の画像復元手法(例えば、発明手法1〜3のいずれか)を選択する。また、ステップS8400では、実行する画像復元手法として、ステップS8250で設定した復元モードに対応する2次元の画像復元手法(例えば、発明手法4〜6のいずれか)を選択する。すなわち、本実施の形態では、処理対象ブロックが被写体領域を含むか否かで大きく1次元復元手法を実行するか2次元復元手法を実行するかを選択し、その後、選択された1次元復元手法または2次元復元手法の中から、例えば、取込画像(写真や文字など)、品質(画質やスピードなど)、または様々な用途(ポートレートや夜景など)に適応した復元モードに応じて、最適な復元手法を選択するようにしている。
In step S8350, a one-dimensional image restoration method (for example, one of
そして、ステップS8450では、画像復元処理部220で、ステップS8350またはステップS8400で選択した画像復元手法を用いて、設定されたパラメータに従った画像復元処理を行う。ここで、パラメータの設定は、操作部130のパラメータ設定部132で行われる。
In step S8450, the image
そして、ステップS8500では、当該フレームについて画像復元処理が終了したか否かを判断する。この判断の結果として、当該フレームについて画像復元処理が終了した場合は(S8500:YES)、ステップS8550に進み、当該フレームについて画像復元処理が終了していない場合は(S8500:NO)、ステップS8300に戻る。 In step S8500, it is determined whether image restoration processing has been completed for the frame. As a result of this determination, if the image restoration process has been completed for the frame (S8500: YES), the process proceeds to step S8550. If the image restoration process has not been completed for the frame (S8500: NO), the process proceeds to step S8300. Return.
ステップS8550では、全フレームについて画像復元処理が終了したか否かを判断する。この判断の結果として、全フレームについて画像復元処理が終了していない場合は(S8550:NO)、ステップS8250に戻り、全フレームについて画像復元処理が終了した場合は(S8550:YES)、上記一連の処理を終了する。したがって、複数のフレームが存在する場合には、フレームの数だけ画像復元処理を繰り返すことになる。 In step S8550, it is determined whether image restoration processing has been completed for all frames. As a result of this determination, if the image restoration processing has not been completed for all frames (S8550: NO), the process returns to step S8250, and if the image restoration processing has been completed for all frames (S8550: YES), The process ends. Therefore, when there are a plurality of frames, the image restoration process is repeated by the number of frames.
このように、本実施の形態によれば、状況に応じて複数の画像復元手法を適応的に切り替えて実行させるため、復元する画素に適した画像復元処理を、1チップで、高精度かつ高速に行うことができる。 As described above, according to the present embodiment, since a plurality of image restoration methods are adaptively switched and executed according to the situation, image restoration processing suitable for a pixel to be restored is performed with high accuracy and high speed with one chip. Can be done.
本発明に係る画像復元装置および画像復元方法は、画像復元能力を向上することができるシンプルで実用的な画像復元装置および画像復元方法として有用である。 The image restoration device and the image restoration method according to the present invention are useful as a simple and practical image restoration device and an image restoration method capable of improving the image restoration capability.
100、200 画像復元装置
110 画像入力装置
112 カメラ
114 スキャナ
116、186 記録メディア
118、188 モデム
120 入力インタフェース部
130 操作部
132、222 パラメータ設定部
134 領域指定部
136、210 復元モード指定部
140 内部インタフェース部
150 記憶部
152 主記憶装置
154 補助記憶装置
156 表示メモリ
160、220 画像復元処理部
160a 第1復元処理部
160b 第2復元処理部
162 初期設定部
164 相関演算部
166 重み係数算出部
168 最適推定値算出部
170 出力インタフェース部
180 画像出力装置
182 ディスプレイ
184 プリンタ
224 被写体領域判定部
230、240 取込画像メモリ
232 被写体領域メモリ
234 処理パラメータメモリ
236、244 復元画像メモリ
242 処理内容メモリ
100, 200
Claims (22)
前記状態空間モデルは、復元対象である少なくとも1つ以上の注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックを、時刻の変化に伴い同じ注目画素を含むように次の処理対象ブロックに移動させ、各時刻において前記処理対象ブロックに対応する観測量から前記処理対象ブロックの状態量を推定するように構成され、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差の相関値を算出する第1の相関演算部と、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された相関値を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値と、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値と、時刻n+1での観測信号を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出部と、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値を算出する第1の最適推定値算出部と、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値を算出する第2の最適推定値算出部と、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差の相関値を算出する第2の相関演算部と、
を有する画像復元装置。 In the system to be observed that can be modeled, only from the observation signal that is the degraded image information in which blur and noise are mixed in the original image information, using a prediction method based on a state space model that includes the original image information as a drive source, An image restoration apparatus for estimating the original image information,
The state space model uses a processing target block including at least one or more target pixels to be restored and pixels around the target pixel as a processing unit. It is configured to move to the next processing target block so as to include pixels, and to estimate the state quantity of the processing target block from the observation amount corresponding to the processing target block at each time,
Against time n + 1 only observed signals, the first correlation calculation for calculating the correlation value of the estimated error when the state quantity of the target block in the observation time Ri by the signal time n + 1 at time n until the estimated And
Against time n + 1 only observed signals, using the correlation value calculated by the first correlation calculation unit, and the optimum estimated value of the state quantity at time n + 1 by the observation signal up to a time n + 1, until time n the optimum estimated value of the state quantity at time n + 1 by the observation signals, observables of the estimated error including an observation signal at time n + 1, and the weight coefficient calculation unit for calculating a weighting factor for defining the relationship,
Against time n + 1 only observed signals, a first optimum estimate calculation unit that issues calculate the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n,
Second optimum estimation for calculating an optimum estimated value of the state quantity at time n + 1 by the observation signal up to time n + 1, using the weighting factor calculated by the weighting factor calculation unit for the observation signal only at time n + 1 A value calculator,
A second correlation calculation unit that calculates a correlation value of an estimation error when the state quantity at time n + 1 is estimated from an observation signal up to time n + 1 with respect to an observation signal only at time n + 1;
An image restoration apparatus.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 The state space model uses the processing target block including the target pixel to be restored and pixels around the target pixel as a processing unit, and the state of the processing target block from all the observation amounts corresponding to the processing target block. Configured to estimate all quantities ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
For the observation signal only at time n + 1 , using the weighting coefficient matrix calculated by the weighting coefficient calculation unit, calculate the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項2記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 2.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項2記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 2.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数ベクトルを算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数ベクトルを用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 In the state space model, the processing target block including the target pixel to be restored and pixels around the target pixel is used as a processing unit, and all the state quantities of the processing target block are calculated from the observation amounts corresponding to the target pixel. Configured to estimate ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 weighting coefficient vector for defining vectors and, and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observation of the estimated error vector containing the observation signal at time n + 1, the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient vector calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移ベクトル、および与えられた観測雑音の相関値スカラーを用いて、前記重み係数ベクトルの算出を行う、
請求項5記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient vector is calculated using the correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, the given observation transition vector, and the given correlation noise correlation value scalar.
The image restoration apparatus according to claim 5.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項5記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 5.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 The state space model is based on an observation amount in a predetermined partial region included in the processing target block, with a processing target block including the target pixel to be restored and pixels around the target pixel as a processing unit. , Configured to estimate all the state quantities of the processing target block ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項8記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 8.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項8記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 8.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対して、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 The state space model has a processing target block including a target pixel area including at least one pixel to be restored and a pixel area around the target pixel area as a processing unit. It is configured to estimate all the state quantities of the processing target block from observed quantities ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
And to observe signals only the time n + 1, it calculates a correlation value matrix of the estimation error vector in the case of estimating the state amount at time n + 1 by the observation signal up to a time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項12記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 12.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項12記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 12.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 The state space model is a processing unit including a target pixel area including at least one pixel to be restored and a pixel area around the target pixel area as a processing unit. consists of observables to estimate all state variables of the processing target block,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項15記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration apparatus according to claim 15.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項15記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration apparatus according to claim 15.
前記第1の相関演算部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により前記原画像情報を含む時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差ベクトルの相関値行列を算出し、
前記重み係数算出部は、
時刻n+1のみの観測信号に対し、前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルと、時刻n+1での観測信号を含む観測量の推定誤差ベクトルと、の関係を規定するための重み係数行列を算出し、
前記第1の最適推定値算出部は、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の最適推定値算出部は、
時刻n+1のみの観測信号に対し、前記重み係数算出部によって算出された重み係数行列を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値ベクトルを算出し、
前記第2の相関演算部は、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差ベクトルの相関値行列を算出する、
請求項1記載の画像復元装置。 The state space model is a predetermined target included in the processing target block, with a processing target block including a target pixel region including at least one pixel to be restored and a pixel region around the target pixel region as a processing unit. It is configured to estimate all the state quantities of the processing target block from observation amounts in some pixel regions ,
Prior Symbol first correlation calculation unit,
Against time n + 1 only observed signal, calculates the correlation value matrix of the estimation error vector in the case of estimating a state quantity of the target block at time n + 1 containing the original image information by the observation signal up to a time n,
The weight coefficient calculation unit includes:
Against time n + 1 only observed signals, using the correlation value matrix of the estimation error vector calculated by said first correlation calculation section, the state quantity of the optimum estimated value at time n + 1 by the observation signal up to a time n + 1 vector and the optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to time n, the observed amount including an observed signal at time n + 1 estimation error vector and the weighting factor matrix for defining the relationship To calculate
The first optimal estimated value calculation unit includes:
Against time n + 1 only observed signals, calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n,
The second optimum estimated value calculation unit includes:
Against time n + 1 only observed signals, using the weight coefficient matrix calculated by the weight coefficient calculation unit calculates an optimum estimated value vector of the state quantity at time n + 1 by the observation signal up to a time n + 1,
The second correlation calculation unit includes:
Against time n + 1 only observed signals, calculates a correlation value matrix of the estimation error vector in the case of estimating the state quantity of the observation signal up to a time n + 1 at time n + 1,
The image restoration apparatus according to claim 1.
前記第1の相関演算部によって算出された推定誤差ベクトルの相関値行列、与えられた観測遷移行列、および与えられた観測雑音ベクトルの共分散行列を用いて、前記重み係数行列の算出を行う、
請求項18記載の画像復元装置。 The weight coefficient calculation unit includes:
The weighting coefficient matrix is calculated using a correlation value matrix of the estimated error vector calculated by the first correlation calculation unit, a given observation transition matrix, and a covariance matrix of the given observation noise vector.
The image restoration device according to claim 18.
所定の状態遷移行列、与えられた駆動源ベクトルの共分散行列、および与えられたまたは前回前記第2の相関演算部によって算出された推定誤差ベクトルの相関値行列を用いて、前記推定誤差ベクトルの相関値行列の算出を行う、
請求項18記載の画像復元装置。 The first correlation calculation unit includes:
By using a predetermined state transition matrix, a covariance matrix of a given drive source vector, and a correlation value matrix of a given or previously estimated error vector calculated by the second correlation calculation unit, Calculate the correlation value matrix,
The image restoration device according to claim 18.
前記状態空間モデルは、復元対象である少なくとも1つ以上の注目画素と、前記注目画素の周辺の画素とを含む処理対象ブロックを処理単位として、前記処理対象ブロックを、時刻の変化に伴い同じ注目画素を含むように次の処理対象ブロックに移動させ、各時刻において前記処理対象ブロックに対応する観測量から前記処理対象ブロックの状態量を推定するように構成され、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号により時刻n+1での前記処理対象ブロックの状態量を推定した場合の推定誤差の相関値を算出する第1の相関演算工程と、
時刻n+1のみの観測信号に対し、前記第1の相関演算工程で算出した相関値を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値と、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値と、時刻n+1での観測信号を含む観測量の推定誤差と、の関係を規定するための重み係数を算出する重み係数算出工程と、
時刻n+1のみの観測信号に対し、時刻nまでの観測信号による時刻n+1での前記状態量の最適推定値を算出する第1の最適推定値算出工程と、
時刻n+1のみの観測信号に対し、前記重み係数算出工程で算出した重み係数を用いて、時刻n+1までの観測信号による時刻n+1での前記状態量の最適推定値を算出する第2の最適推定値算出工程と、
時刻n+1のみの観測信号に対し、時刻n+1までの観測信号により時刻n+1での前記状態量を推定した場合の推定誤差の相関値を算出する第2の相関演算工程と、
を有する画像復元方法。
In the system to be observed that can be modeled, only from the observation signal that is the degraded image information in which blur and noise are mixed in the original image information, using a prediction method based on a state space model that includes the original image information as a drive source, An image restoration method for estimating the original image information,
The state space model uses a processing target block including at least one or more target pixels to be restored and pixels around the target pixel as a processing unit. It is configured to move to the next processing target block so as to include pixels, and to estimate the state quantity of the processing target block from the observation amount corresponding to the processing target block at each time,
Against time n + 1 only observed signals, the first correlation calculation for calculating the correlation value of the estimated error when the state quantity of the target block in the observation time Ri by the signal time n + 1 at time n until the estimated Process,
Against time n + 1 only observed signals, using the correlation value calculated by the first correlation operation step, the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n + 1, up to the time n the optimum estimated value of the state quantity at time n + 1 by the observation signal, the observation of the estimated error including an observation signal at time n + 1, and the weighting coefficient calculation step of calculating a weighting factor for defining the relationship,
Against time n + 1 only observed signals, a first optimum estimated value calculation step that gives calculate the optimal estimate of the state quantity at time n + 1 by the observation signal up to a time n,
A second optimum estimated value for calculating an optimum estimated value of the state quantity at time n + 1 from the observed signal up to time n + 1, using the weighting factor calculated in the weighting factor calculating step for the observation signal only at time n + 1. A calculation process;
A second correlation calculation step of calculating a correlation value of an estimation error when the state quantity at time n + 1 is estimated from an observation signal up to time n + 1 with respect to an observation signal only at time n + 1;
An image restoration method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010028278A JP5493191B2 (en) | 2010-02-10 | 2010-02-10 | Image restoration apparatus and image restoration method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010028278A JP5493191B2 (en) | 2010-02-10 | 2010-02-10 | Image restoration apparatus and image restoration method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011165013A JP2011165013A (en) | 2011-08-25 |
JP5493191B2 true JP5493191B2 (en) | 2014-05-14 |
Family
ID=44595607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010028278A Active JP5493191B2 (en) | 2010-02-10 | 2010-02-10 | Image restoration apparatus and image restoration method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5493191B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5963166B2 (en) * | 2012-08-10 | 2016-08-03 | 学校法人東京理科大学 | Image restoration apparatus, method, and program |
JP6129759B2 (en) | 2014-02-03 | 2017-05-17 | 満男 江口 | Super-resolution processing method, apparatus, program and storage medium for SIMD type massively parallel processing unit |
JP6308496B2 (en) * | 2014-02-19 | 2018-04-11 | 学校法人東京理科大学 | Image restoration apparatus, method, and program |
WO2018097211A1 (en) * | 2016-11-28 | 2018-05-31 | 学校法人東京理科大学 | Image recovery device, method, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3351461B2 (en) * | 1997-07-08 | 2002-11-25 | 日本電信電話株式会社 | Rainfall maximum likelihood estimator |
JP5721098B2 (en) * | 2008-03-21 | 2015-05-20 | 学校法人東京理科大学 | Noise suppression device and noise suppression method |
-
2010
- 2010-02-10 JP JP2010028278A patent/JP5493191B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011165013A (en) | 2011-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101330493B1 (en) | Region-based image denoising | |
JP5065490B2 (en) | Method and related system for processing digital objects | |
US8390704B2 (en) | Image deblurring using a spatial image prior | |
JP4858609B2 (en) | Noise reduction device, noise reduction method, and noise reduction program | |
JP2018527687A (en) | Image processing system for reducing an image using a perceptual reduction method | |
KR20140135968A (en) | Method and apparatus for performing super-resolution | |
WO2014070273A1 (en) | Recursive conditional means image denoising | |
US11145032B2 (en) | Image processing apparatus, method and storage medium for reducing color noise and false color | |
JP5493191B2 (en) | Image restoration apparatus and image restoration method | |
Jakhetiya et al. | Maximum a posterior and perceptually motivated reconstruction algorithm: A generic framework | |
JP5765893B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
Rabie | Adaptive hybrid mean and median filtering of high-ISO long-exposure sensor noise for digital photography | |
JP5447867B2 (en) | Image restoration apparatus and image restoration method | |
RU2583725C1 (en) | Method and system for image processing | |
JP6661491B2 (en) | Image processing apparatus and image processing method | |
KR101152525B1 (en) | Methods of removing motion blur and apparatuses for the same | |
US8774545B2 (en) | Image processing apparatus and image processing method with weighted vectors for filtering | |
JP2010068084A (en) | Image processing device and image processing method | |
CN111416937B (en) | Image processing method, image processing device, storage medium and mobile equipment | |
Patil et al. | Interpolation for super resolution imaging | |
KR20080048385A (en) | The adaptive linear interpolation method using the new distance weights and local patterns and pattern weights | |
JP5963166B2 (en) | Image restoration apparatus, method, and program | |
KR101332030B1 (en) | Method of magnifying image and computer readable medium storing the program thereof | |
JP5713256B2 (en) | Image processing apparatus, imaging apparatus, and image processing program | |
JPH08265572A (en) | Picture processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5493191 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |