JP2017033287A - Image processing device, image processing method, and image processing system using the same - Google Patents

Image processing device, image processing method, and image processing system using the same Download PDF

Info

Publication number
JP2017033287A
JP2017033287A JP2015152663A JP2015152663A JP2017033287A JP 2017033287 A JP2017033287 A JP 2017033287A JP 2015152663 A JP2015152663 A JP 2015152663A JP 2015152663 A JP2015152663 A JP 2015152663A JP 2017033287 A JP2017033287 A JP 2017033287A
Authority
JP
Japan
Prior art keywords
image
unit
region
processing
psf
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015152663A
Other languages
Japanese (ja)
Other versions
JP6538469B2 (en
Inventor
影山 昌広
Masahiro Kageyama
昌広 影山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015152663A priority Critical patent/JP6538469B2/en
Publication of JP2017033287A publication Critical patent/JP2017033287A/en
Application granted granted Critical
Publication of JP6538469B2 publication Critical patent/JP6538469B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing technique that makes it possible to stably obtain a latent image with a few blurs even when there exist a plurality of subjects differing in the manner of blurring within an observed image, and to obtain a latent image in a relatively short time.SOLUTION: Provided is an image processing method for achieving the above objective, the method being constituted with the steps of: inputting an image; dividing the image into a plurality of first areas, and finding a frequency component distribution for each of the first areas; calculating the similarity of frequency component distributions with each other, and integrating the first areas having a higher degree of similarity than a prescribed value as a second area; generating, for each second area, an image in which areas other than the second area are filled with a prescribed value; performing, for each second area, an image recovery process on the image obtained in the step of generating a filled image; and synthesizing the results of the image recovery step into one image and outputting the synthesized image.SELECTED DRAWING: Figure 1

Description

本発明は、画像を撮影する過程で生じたボケ(焦点ボケやカメラブレにより生じたボケ)を含む画像から、ボケの少ない画像を回復する画像処理に関し、特に、画像内にボケ方が異なる複数の被写体が存在する場合に適した画像処理装置及びその方法に関する。   The present invention relates to image processing for recovering an image with less blur from an image including blur (due to out-of-focus blur or camera shake) generated in the process of taking an image, and more particularly, to a plurality of blurs with different blur methods in an image. The present invention relates to an image processing apparatus and method suitable for a case where a subject exists.

カメラによって画像を撮影する際に、レンズの焦点がボケたりカメラがブレたりすることによって、画像にボケが生じることがあり、ボケを含む画像からボケの少ない画像を回復する画像処理システムの実現が望まれている。   When taking an image with a camera, the focal point of the lens may be blurred or the camera may be blurred, causing the image to be blurred, and the realization of an image processing system that recovers a low-blurred image from an image including the blur. It is desired.

このような画像処理は、画像回復(Image Restoration)やボケ修復(Image Debluring)などと呼ばれており、以下、これらをまとめて画像回復処理と称することにする。一般に、下記(数1)に示すように、ボケを含む画像(観測画像)は、ボケを含まない理想的な画像(潜在画像)に対してボケの特性を表す点広がり関数(PSF:Point Spread Function)が畳み込まれていると捉える。画像回復処理では、下記(数2)に示すように、観測画像に対してPSFの逆畳み込み演算を施すことによって潜在画像を推定する。   Such image processing is called image restoration, image restoration, etc., and these are hereinafter collectively referred to as image restoration processing. In general, as shown in the following (Equation 1), an image including blur (observed image) is a point spread function (PSF: Point Spread) that represents the blur characteristics with respect to an ideal image (latent image) that does not include blur. Function) is considered to be folded. In the image restoration process, as shown in the following (Equation 2), the latent image is estimated by performing a PSF deconvolution operation on the observed image.

観測画像 = 潜在画像 * PSF …(数1)
(ただし、*は畳み込み演算(すなわち周波数領域での乗算)を示す)
潜在画像 = 観測画像 / PSF …(数2)
(ただし、/は逆畳み込み演算(すなわち周波数領域での除算)を示す)
画像回復処理に関し、これまでに数多くの技術が提案されている。
Observation image = latent image * PSF (Equation 1)
(However, * indicates convolution operation (that is, multiplication in the frequency domain))
Latent image = Observation image / PSF (Equation 2)
(However, / indicates deconvolution (ie, division in the frequency domain))
Many techniques have been proposed so far for image restoration processing.

例えば、PSFが既知な場合に観測画像から潜在画像を推定するNon−blind法(Non−blind Deconvolution)が提案されており、Wiener Filterなどが良く知られている。また、一般的な画像ではPSFが未知であることから、観測画像からPSFと潜在画像の両方を推定するBlind法(Blind Deconvolution)が提案されており、AD法(Ayers−Dainty法)やRL法(Richardson−Lucy法)などが良く知られている。これらのBlind法では、いずれも観測画像と仮のPSF(第1世代のPSF)を用いてNon−blind法で第1世代の潜在画像を推定し、観測画像と第1世代の潜在画像を用いてNon−blind法で第2世代のPSFを推定し、観測画像と第2世代のPSFを用いてNon−blind法で第3世代の潜在画像を推定し、という処理を反復することにより、最終的な潜在画像を得る。これらの技術では、PSFは画像内で一定であるという前提に基づいて、画像回復処理を行う。   For example, a non-blind method (Non-blind Devolution) for estimating a latent image from an observed image when PSF is known has been proposed, and a Wiener Filter is well known. In addition, since a PSF is unknown in a general image, a Blind method (Blin Devolution) for estimating both a PSF and a latent image from an observed image has been proposed. An AD method (Ayer's-Dainty method) or an RL method is proposed. (Richardson-Lucy method) is well known. In these Blind methods, the first generation latent image is estimated by the non-blind method using the observed image and the temporary PSF (first generation PSF), and the observed image and the first generation latent image are used. The second generation PSF is estimated by the non-blind method, and the third generation latent image is estimated by the non-blind method using the observation image and the second generation PSF. A potential latent image. In these techniques, image restoration processing is performed based on the premise that PSF is constant in an image.

画像に含まれるボケは、特に、遠方にある被写体を望遠撮影したり拡大表示したりするときに顕著に知覚される。このため、遠方を撮影するための監視カメラなどで、画像回復による大きな画質改善効果が期待されている。その一方で、撮影するときの俯角や仰角が水平に近いと、1枚の画像に遠景と近景が同時に映り込むことが多くなり、ボケ方(すなわちPSF)が異なる複数の被写体が画像内に存在することが多くなるため、前述したような、PSFは画像内で一定であるという前提に基づいたBlind法の画像回復処理を用いると、画像回復の精度が低下してしまう課題があった。   The blur included in the image is particularly perceived when a subject at a distant location is telephotographed or magnified. For this reason, a large image quality improvement effect by image restoration is expected in a surveillance camera for photographing a distant place. On the other hand, if the depression angle and elevation angle when shooting are close to horizontal, the distant view and the close view often appear in one image at the same time, and there are multiple subjects with different blurring methods (ie PSF) in the image. For this reason, there is a problem that the accuracy of the image recovery is lowered when the image recovery process of the Blind method based on the premise that the PSF is constant in the image as described above is used.

Blind法を用いながらこの課題を解決する画像回復処理技術が、例えば、特開2012−155456号公報(特許文献1)およびWO2010/098054号公報(特許文献2)に開示されている。   Image restoration processing techniques that solve this problem using the Blind method are disclosed in, for example, Japanese Patent Application Laid-Open No. 2012-155456 (Patent Document 1) and WO 2010/098054 (Patent Document 2).

特許文献1では、入力画像(観測画像)を複数の小領域画像に分割する小領域分割部と、前記小領域画像のPSFを推定する局所PSF推定部と、推定された前記PSFの形状を識別し、類似性の高いPSF形状の小領域画像が同一グループに属するように、前記小領域画像を分類するPSF形状識別部と、同一グループに分類され、かつ隣接する前記小領域画像をグループ毎に統合することで、各グループに分離された被写体画像を得る技術が開示されている。また、各被写体画像を用いて、各被写体画像のPSFを推定する被写体PSF推定部と、前記被写体PSF推定部によって推定されたPSFと、前記被写体画像と、を用いて、前記被写体画像の劣化を補正した回復画像(潜在画像)を得る技術が開示されている。   In Patent Document 1, a small region dividing unit that divides an input image (observed image) into a plurality of small region images, a local PSF estimating unit that estimates a PSF of the small region image, and the estimated shape of the PSF are identified. The PSF shape identifying unit for classifying the small region images so that the highly similar PSF-shaped small region images belong to the same group, and the adjacent small region images classified into the same group for each group. A technique for obtaining subject images separated into groups by integration is disclosed. The subject image is degraded using the subject PSF estimation unit that estimates the PSF of each subject image using each subject image, the PSF estimated by the subject PSF estimation unit, and the subject image. A technique for obtaining a corrected restored image (latent image) is disclosed.

特許文献2では、入力画像(観測画像)を構成する画素の画素値に応じて、入力画像(観測画像)を複数の適応的領域に分割する適応的領域分割部と、分割された複数の適応的領域ごとに算出される、画像のブレの特徴を示すPSFを用いて、複数の適応的領域のそれぞれを代表する画素である代表画素間に位置する画素のPSFを補間するPSF補間部と、補間後のPSFを用いて入力画像(観測画像)を補正することにより、目的画像(潜在画像)を生成する技術が開示されている。また、ブレ(PSF)が共通する領域を1つの適応的領域として決定する技術が開示されている。   In Patent Literature 2, an adaptive region dividing unit that divides an input image (observed image) into a plurality of adaptive regions in accordance with pixel values of pixels constituting the input image (observed image), and a plurality of divided adaptations. A PSF interpolation unit that interpolates PSFs of pixels located between representative pixels, which are pixels representing each of a plurality of adaptive regions, using a PSF indicating blur characteristics of an image calculated for each target region; A technique for generating a target image (latent image) by correcting an input image (observed image) using the interpolated PSF is disclosed. In addition, a technique for determining an area where blur (PSF) is common as one adaptive area is disclosed.

特開2012−155456号公報JP 2012-155456 A WO2010/098054号公報WO 2010/098054

前述した特許文献1および2に開示されている技術は、いずれも入力画像(観測画像)を複数の小領域画像に分割し、分割された小領域画像ごとにPSFを推定したのちに、PSFが類似する小領域画像を1つの適応的領域(グループ)にまとめ、この適応的領域(グループ)ごとに再度PSFを推定することによって、より精度の高い最終的な回復画像(潜在画像)を得ようとしている。   The techniques disclosed in Patent Documents 1 and 2 described above both divide an input image (observation image) into a plurality of small area images, estimate the PSF for each divided small area image, By collecting similar small region images into one adaptive region (group) and estimating the PSF again for each adaptive region (group), a more accurate final restored image (latent image) will be obtained. It is said.

しかしながら、分割された小領域画像ごとにPSFを推定する際に、小領域画像を構成する縦横の画素数が少ない場合、すなわち、小領域の面積が小さい場合や、小領域画像の中に明確なエッジなどの特徴的な絵柄を含まない場合、すなわち、小領域画像の中の輝度値の変化が少なく平坦な絵柄の場合などでは、PSFの推定精度が低下してしまい、誤ったPSFが得られてしまったり、あるいは反復演算の過程で結果が発散してしまいPSFを求めることができなかったりする課題がある。   However, when the PSF is estimated for each divided small region image, when the number of vertical and horizontal pixels constituting the small region image is small, that is, when the area of the small region is small, or in the small region image, In the case where a characteristic pattern such as an edge is not included, that is, in the case of a flat pattern with a small change in luminance value in a small area image, the PSF estimation accuracy decreases, and an incorrect PSF is obtained. There is a problem that the PSF cannot be obtained because the result diverges in the process of iterative calculation.

また、Blind法では前述のような反復処理が必要であり、PSFを推定するために長い時間が必要であることが良く知られている。特許文献1および2に開示されている技術では、分割された小領域画像ごとにPSFを推定したのちに、PSFが類似する小領域画像を1つの適応的領域(グループ)にまとめ、この適応的領域(グループ)ごとに再度PSFを推定する、というように2段階でPSFを推定する必要があるため、最終的な潜在画像を得るために、非常に長い時間が必要となってしまう課題がある。   In addition, it is well known that the Blind method requires the iterative processing as described above and requires a long time to estimate the PSF. In the techniques disclosed in Patent Documents 1 and 2, after estimating the PSF for each divided small region image, the small region images having similar PSFs are combined into one adaptive region (group). Since it is necessary to estimate the PSF in two stages, such as estimating the PSF again for each region (group), there is a problem that it takes a very long time to obtain the final latent image. .

本発明はこのような状況に鑑みてなされたものであり、画像内にボケ方が異なる複数の被写体が存在する場合でも、ボケの少ない潜在画像を安定して得ることができ、また比較的短時間で潜在画像が得られるようにするための画像処理装置及び画像処理方法、及びそれを用いた画像処理システムを提供するものである。   The present invention has been made in view of such a situation, and even when there are a plurality of subjects having different blurring methods in an image, a latent image with less blur can be stably obtained, and is relatively short. An image processing apparatus and an image processing method for obtaining a latent image in time, and an image processing system using the image processing apparatus are provided.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、画像処理方法であって、画像を入力するステップと、画像を複数の第1領域に分割し、第1領域ごとの周波数成分分布を求めるステップと、周波数成分分布どうしの類似度を算出し、類似度が所定値より高い第1領域を第2領域として統合するステップと、第2領域ごとに該第2領域以外の領域を所定値で塗りつぶした画像を生成するステップと、塗りつぶした画像を生成するステップで得た画像に第2領域ごとに画像回復処理を行うステップと、画像回復処理を行うステップの結果を一枚の画像に合成して出力するステップとで構成する。   In order to solve the above problems, for example, the configuration described in the claims is adopted. The present application includes a plurality of means for solving the above-described problems. To give an example, an image processing method includes an image input step, the image is divided into a plurality of first regions, and the first region Obtaining a frequency component distribution for each, calculating a similarity between the frequency component distributions, integrating a first region having a similarity higher than a predetermined value as a second region, and the second region for each second region The results of the step of generating an image in which the other areas are filled with a predetermined value, the step of performing the image restoration process for each second area on the image obtained in the step of creating the filled image, and the step of performing the image restoration process are as follows: And a step of combining and outputting the image.

本発明によれば、画像内にボケ方が異なる複数の被写体が存在する場合でも、ボケの少ない潜在画像を安定して得ることができ、また比較的短時間で潜在画像が得られる画像処理装置及び画像処理方法、及びそれを用いた画像処理システムを実現できる。   According to the present invention, even when there are a plurality of subjects with different blurring directions in an image, an image processing apparatus that can stably obtain a latent image with little blur and obtain a latent image in a relatively short time. And an image processing method and an image processing system using the same.

実施例1における画像処理装置の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an image processing apparatus in Embodiment 1. FIG. 実施例1における周波数成分分布解析部と類似領域統合部の各詳細構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of detailed configurations of a frequency component distribution analysis unit and a similar region integration unit according to the first embodiment. 実施例1における塗りつぶし部の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a filling unit in the first embodiment. 実施例2における画像処理システムの概略構成図である。6 is a schematic configuration diagram of an image processing system in Embodiment 2. FIG. 実施例2における画像処理部の詳細を説明する図である。FIG. 10 is a diagram illustrating details of an image processing unit in Embodiment 2. 実施例2における画像処理部の他の例を説明する図である。FIG. 10 is a diagram illustrating another example of an image processing unit according to the second embodiment. 実施例2における画像処理部の他の例を説明する図である。FIG. 10 is a diagram illustrating another example of an image processing unit according to the second embodiment. 実施例3における画像処理装置の概略構成を示す図である。FIG. 10 is a diagram illustrating a schematic configuration of an image processing apparatus according to a third embodiment. 実施例4における画像処理装置の概略構成を示す図である。FIG. 10 is a diagram illustrating a schematic configuration of an image processing apparatus according to a fourth embodiment. 実施例4におけるPSF補間部の構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a PSF interpolation unit according to a fourth embodiment. 実施例5における画像回復処理の手順の一例を示すフローチャートである。14 is a flowchart illustrating an example of a procedure of image restoration processing in the fifth embodiment.

以下、添付図面を参照して本発明の実施例について説明する。なお、各図において共通の構成については同一の参照番号が付される。また、本発明の実施例は、汎用コンピュータ上で稼動するソフトウェアで実装しても良いし専用ハードウェア又はソフトウェアとハードウェアの組み合わせで実装しても良い。   Embodiments of the present invention will be described below with reference to the accompanying drawings. In addition, the same reference number is attached | subjected about a common structure in each figure. The embodiment of the present invention may be implemented by software running on a general-purpose computer, or may be implemented by dedicated hardware or a combination of software and hardware.

本実施例では、画像内にボケ方が異なる複数の被写体が存在する場合でも、ボケの少ない潜在画像を安定して得ることができ、また比較的短時間で潜在画像が得られるようにするための画像回復処理について説明する。本実施例では、前述した特許文献1および2に記載されている技術と同様に、入力された観測画像を小領域画像に分割し、特徴が類似している小領域をまとめて類似領域とし、類似領域ごとに独立して画像回復を行い、各画像回復結果を1枚の画像に合成することによって、最終的な潜在画像を出力する。   In this embodiment, even when there are a plurality of subjects with different blurring methods in an image, it is possible to stably obtain a latent image with less blur and to obtain a latent image in a relatively short time. The image restoration process will be described. In the present embodiment, similar to the techniques described in Patent Documents 1 and 2 described above, the input observation image is divided into small region images, and the small regions having similar features are grouped into similar regions, Image restoration is performed independently for each similar area, and the final latent image is output by combining the image restoration results into one image.

ここで、前述した特許文献1および2に記載されている技術では、小領域どうしが類似しているか否かを判別する特徴量として、小領域ごとに推定したPSFの形状を用いているが、このPSFの推定が不安定になったり、計算の途中で発散したり、長い時間が必要になったりすることが課題であった。   Here, in the techniques described in Patent Documents 1 and 2 described above, the PSF shape estimated for each small region is used as a feature amount for determining whether the small regions are similar to each other. The problem is that the estimation of the PSF becomes unstable, diverges in the middle of the calculation, or requires a long time.

そこで、本実施例では、分割された小領域ごとにPSFを推定するのではなく、観測画像の小領域ごとの周波数成分分布を特徴量として、小領域どうしが類似しているか否かを判別し、周波数成分分布が類似した小領域をまとめて類似領域とする。すなわち、ほぼ同一距離にある同一の被写体が複数の小領域画像に写っていれば、各小領域の観測画像の周波数成分分布どうしも、潜在画像の周波数成分分布どうしも、PSFどうしも、互いに類似しているはずである、という仮定を導入する。これにより、前述した特許文献1および2に記載されている技術のように、分割された小領域ごとに潜在画像とPSFとを分離するための画像回復処理(PSF推定処理)が不要となるため、前述した課題を解決することができるようになる。   Therefore, in this embodiment, instead of estimating the PSF for each divided small area, it is determined whether the small areas are similar by using the frequency component distribution for each small area of the observed image as a feature amount. The small regions having similar frequency component distributions are collectively defined as a similar region. That is, if the same subject at almost the same distance is shown in a plurality of small area images, the frequency component distributions of the observed images in each small area, the frequency component distributions of the latent images, and the PSFs are similar to each other. Introducing the assumption that it should be. This eliminates the need for image restoration processing (PSF estimation processing) for separating the latent image and the PSF for each of the divided small regions as in the techniques described in Patent Documents 1 and 2 described above. The problem described above can be solved.

ただし、この仮定に誤りを含む例として、以下の2とおりのケースが考えられる。
(1)異なる小領域どうしの間で、本来のPSFが略同一であるにも関わらず、小領域ごとの潜在画像の絵柄に対応する周波数成分分布が互いに大きく異なることが原因で、小領域ごとの観測画像の周波数成分分布が互いに大きく異なってしまい、本来は同一の類似領域と判別されるべきなのに別々の類似領域と判別されてしまうケース。
(2)異なる小領域どうしの間で、本来のPSFが略同一でないにも関わらず、小領域ごとの潜在画像の絵柄に対応する周波数成分分布が互いに大きく異なることが原因で、数1に示したように、観測画像は潜在画像とPSFの掛け算なので、たまたま観測画像の周波数成分分布が略同一になってしまい、本来は別々の類似領域と判別されるべきなのに同一の類似領域と判別されてしまうケース。
However, the following two cases can be considered as examples in which this assumption includes an error.
(1) Although the original PSF is substantially the same between different small areas, the frequency component distributions corresponding to the patterns of the latent images in the small areas are greatly different from each other. In this case, the frequency component distributions of the observed images are greatly different from each other, so that they should be discriminated as different similar regions although they should originally be discriminated as the same similar region.
(2) Although the original PSF is not substantially the same between different small areas, the frequency component distribution corresponding to the pattern of the latent image for each small area is greatly different from each other. As described above, since the observed image is a product of the latent image and the PSF, the frequency component distribution of the observed image happens to be substantially the same, and it should be determined as a separate similar region, but it is determined as the same similar region. A case.

前記(1)のケースでは、異なる小領域どうしが別々の類似領域と判別されるため、類似領域の大きさは本来あるべき類似画像の大きさよりも小さくなってしまうが、後述のように、類似領域ごとに別々に画像回復処理を行うため、大きな問題は生じない。   In the case of (1), since different small areas are determined as different similar areas, the size of the similar area is smaller than the size of the similar image that should be originally. Since image restoration processing is performed separately for each area, no major problem occurs.

前記(2)のケースでは、本来のPSFが略同一でない小領域どうしが同一の類似領域と判別されるため、このまま類似領域を画像回復処理してしまうと、正しいPSFが求められず、一見大きな問題となるように思える。しかし、潜在画像の絵柄に対応する周波数成分分布とボケ方に対応するPSFが互いに異なり、かつ、観測画像(数1参照)の周波数成分分布が互いに類似する確率は相当に低いと考えてよく、前記(2)のケースは稀にしか生じないと考えられる。   In the case of (2), since the small areas where the original PSFs are not substantially identical are determined to be the same similar areas, if the similar areas are subjected to image restoration processing as they are, a correct PSF cannot be obtained, and it appears to be large. Seems to be a problem. However, it may be considered that the frequency component distribution corresponding to the pattern of the latent image and the PSF corresponding to the blur method are different from each other and the probability that the frequency component distribution of the observed image (see Equation 1) is similar to each other is considerably low. The case (2) is considered to occur rarely.

したがって、ほぼ同一距離にある同一の被写体が複数の小領域画像に写っていれば、各小領域の観測画像の周波数成分分布どうしも、潜在画像の周波数成分分布どうしも、PSFどうしも、互いに類似しているはずである、という仮定のもとで、観測画像の小領域ごとの周波数成分分布を特徴量として、小領域どうしが類似しているか否かを判別し、周波数成分分布が類似した小領域をまとめて類似領域とし、類似領域ごとに画像回復処理を行っても大きな問題は生じないと考えられる。   Therefore, if the same subject at almost the same distance appears in a plurality of small area images, the frequency component distributions of the observed images in each small area, the frequency component distributions of the latent images, and the PSFs are similar to each other. Under the assumption that it should have been, the frequency component distribution for each small area of the observed image is used as a feature value to determine whether the small areas are similar, and the frequency component distribution is similar Even if the regions are grouped into similar regions and image restoration processing is performed for each similar region, it is considered that no major problem will occur.

この考え方にしたがい、前述の課題を解決するために、本実施例では、以下に述べるような構成を有する画像処理装置を提案する。   In accordance with this concept, in order to solve the above-described problems, the present embodiment proposes an image processing apparatus having a configuration as described below.

図1は、本実施例における画像処理装置の概略構成を示す図である。図1において、入力された観測画像(107)は、領域分割部(101)にてm個(ただし、mは2以上の整数)の小領域画像(108)に分割する。続いて、周波数成分分布解析部(102)にて、分割された小領域画像(108)ごとに水平周波数と垂直周波数からなる2次元周波数成分の分布(109)を計算し、分割前の観測画像(107)の全体に対する小領域ごとの周波数分布(110)を求める。このとき、小領域の分割数(m)に合わせて、図1に示すように周波数成分分布解析部(102)をm個用意してもよいし、1個の周波数成分分布解析部(102)をm回繰り返して動作させてもよい。この周波数成分分布解析部(102)の詳細については、図2を用いて後述する。   FIG. 1 is a diagram illustrating a schematic configuration of an image processing apparatus according to the present embodiment. In FIG. 1, the input observation image (107) is divided into m (where m is an integer of 2 or more) small region images (108) by the region dividing unit (101). Subsequently, the frequency component distribution analysis unit (102) calculates a distribution (109) of a two-dimensional frequency component composed of a horizontal frequency and a vertical frequency for each divided small region image (108), and observes the image before division. A frequency distribution (110) for each small region with respect to the whole of (107) is obtained. At this time, m frequency component distribution analysis units (102) may be prepared as shown in FIG. 1 according to the number of divisions (m) of the small region, or one frequency component distribution analysis unit (102). May be repeated m times. Details of the frequency component distribution analysis unit (102) will be described later with reference to FIG.

図1における類似領域統合部(103)では、周波数成分分布解析部(102)にて求めた周波数分布が類似している小領域をまとめて、類似領域を生成する。ここで、例えば観測画像(107)では、遠くの船が写っている類似領域(111−1)と、海面だけが写っている類似領域(111−2)と、近くの船が写っている類似領域(111−n)で、それぞれの周波数分布が類似していて、領域分割部(101)から出力されたm個(図1の例ではm=12)の小領域をn個(ただし、nは1以上の整数。図1の例ではn=3)の類似領域にまとめたことを示している。この類似領域統合部(103)の詳細については、図2を用いて後述する。   In the similar region integration unit (103) in FIG. 1, the similar regions are generated by collecting the small regions having similar frequency distributions obtained by the frequency component distribution analysis unit (102). Here, for example, in the observed image (107), a similar area (111-1) in which a distant ship is shown, a similar area (111-2) in which only the sea surface is shown, and a similar area in which a nearby ship is shown In the region (111-n), each frequency distribution is similar, and m (m = 12 in the example of FIG. 1) output from the region dividing unit (101) is n (however, n Is an integer greater than or equal to 1. In the example of FIG. Details of the similar region integration unit (103) will be described later with reference to FIG.

図1における塗りつぶし部(104)では、類似領域(111)ごとに類似領域以外の領域を所定値、例えば黒色(輝度値=0)で塗りつぶした画像(112)を生成する。この塗りつぶしの動作の詳細については、図3を用いて後述する。   In the filling unit (104) in FIG. 1, an image (112) is generated by filling a region other than the similar region with a predetermined value, for example, black (luminance value = 0) for each similar region (111). Details of the painting operation will be described later with reference to FIG.

図1における画像回復部(105)では、塗りつぶされた画像(112)に対して、類似領域ごとに一般的なNon−blind法によって画像回復を行う。   The image restoration unit (105) in FIG. 1 performs image restoration on the filled image (112) by a general non-blind method for each similar region.

図1における合成部(106)では、図示しない画像回復結果の画像のうち、それぞれの塗りつぶしていない領域を1枚の画像に合成し、最終的な潜在画像(113)を出力する。   The combining unit (106) in FIG. 1 combines the unfilled areas of the image, which is not shown, into a single image and outputs the final latent image (113).

図2に、前述した周波数成分分布解析部(102)と類似領域統合部(103)の各詳細構成の一例をまとめて示す。図2において、小領域ごとに用意したm個の周波数成分分布解析部(102−1〜m)は、それぞれフーリエ変換部(201)とレベル正規化部(202)で構成される。フーリエ変換部(201)では、入力された小領域画像をフーリエ変換し、周波数ごとの電力分布(すなわち、電力スペクトル)を求める。レベル正規化部(202)では、小領域どうしの電力スペクトルの類似度を判別しやすいように、電力スペクトルのピーク(最大値)が一定となるように正規化する。一般的な画像では、直流成分の電力が他の周波数成分の電力よりも大きくなるので、すべての周波数成分の電力値を直流成分の電力値で割り算すればよい。また、特定の周波数成分(例えば直流成分)の電力値が他の周波数成分の電力値よりも突出して大きいことが原因で、小領域どうしの電力スペクトルの類似度の判別が困難になることを防ぐために、各周波数成分の電力値の対数(log)を用いて電力スペクトルの類似度を判別してもよい。   FIG. 2 collectively shows an example of each detailed configuration of the frequency component distribution analysis unit (102) and the similar region integration unit (103) described above. In FIG. 2, m frequency component distribution analysis units (102-1 to m) prepared for each small region are respectively configured by a Fourier transform unit (201) and a level normalization unit (202). The Fourier transform unit (201) performs Fourier transform on the input small area image to obtain a power distribution (that is, power spectrum) for each frequency. In the level normalization unit (202), normalization is performed so that the peak (maximum value) of the power spectrum becomes constant so that the similarity between the power spectra of the small regions can be easily determined. In a general image, since the power of the DC component is larger than the power of the other frequency components, the power values of all the frequency components may be divided by the power values of the DC components. In addition, it is difficult to determine the similarity of power spectra between small areas because the power value of a specific frequency component (for example, DC component) is significantly higher than the power values of other frequency components. Therefore, the similarity of the power spectrum may be determined using the logarithm (log) of the power value of each frequency component.

図2における類似領域統合部(103)では、前述した周波数成分分布解析部(102)の結果をもとにして、類似した周波数成分分布を持った小領域どうしを1つの類似領域(クラスタ)に統合する。この類似領域統合部(103)として、例えば小領域ごとの電力スペクトル間の周波数ごとの相関値が、予め定めた閾値以下のときに類似領域としてもよい。また、一般に知られているクラスタリング技術(最短距離法、最長距離法、平均法、メジアン法、ward法、k−means法など)を用いて動的に閾値を求め、閾値以下のときに類似領域としてもよい。このとき、クラスタを形成する際に用いる距離として、例えば小領域ごとの電力スペクトル間の周波数ごとの相関値を用いてもよい。また、小領域の個数(m)が増えると、相関を計算する際の組合せの数(m(m+1)/2)が2乗のオーダーで増加するため、計算コストが非常に大きくなってしまう。そこで、計算コストを抑えるために処理を簡略化し、図2に示すように、平均値算出部(203)を用いてすべての周波数成分の電力値の平均値を小領域ごとに求め、この平均値の差を、クラスタを形成する際の距離としてもよい。このとき、例えば明確なエッジが多く存在する小領域、すなわち、ピントが比較的に合っている小領域では、直流成分から高周波成分までの全周波数帯で各成分の電力が比較的大きくなるため、直流成分の電力が一定値となるように正規化したあとの全周波数帯の電力値の平均値も比較的大きい値になる。一方、明確なエッジが少ない小領域、すなわち、ピントが比較的に合っていない小領域では、直流成分の電力に対して高周波成分の電力が比較的小さくなるため、直流成分の電力が一定値となるように正規化したあとの全周波数帯の電力値の平均値も比較的小さい値となる。   In the similar region integration unit (103) in FIG. 2, based on the result of the frequency component distribution analysis unit (102) described above, small regions having similar frequency component distributions are combined into one similar region (cluster). Integrate. As the similar region integration unit (103), for example, a similar region may be used when a correlation value for each frequency between power spectra for each small region is equal to or less than a predetermined threshold. In addition, a threshold value is dynamically obtained by using a generally known clustering technique (shortest distance method, longest distance method, average method, median method, ward method, k-means method, etc.). It is good. At this time, as a distance used when forming a cluster, for example, a correlation value for each frequency between power spectra for each small region may be used. Further, when the number of small regions (m) increases, the number of combinations (m (m + 1) / 2) for calculating correlation increases on the order of squares, so that the calculation cost becomes very high. Therefore, the processing is simplified in order to reduce the calculation cost, and as shown in FIG. 2, an average value of the power values of all frequency components is obtained for each small area using the average value calculation unit (203), and this average value is obtained. This difference may be used as a distance for forming a cluster. At this time, for example, in a small region where there are many clear edges, that is, a small region where the focus is relatively in focus, the power of each component is relatively large in all frequency bands from the direct current component to the high frequency component. The average value of the power values in all frequency bands after normalization so that the power of the DC component becomes a constant value also becomes a relatively large value. On the other hand, in a small region where there are few clear edges, that is, a small region where the focus is not relatively in focus, the power of the high frequency component is relatively small compared to the power of the DC component, so the power of the DC component is a constant value. The average value of the power values in all frequency bands after normalization is also a relatively small value.

その後、前述のクラスタリング技術を実装したクラスタリング部(204)にて、平均値が類似している小領域に同一のクラスタID(206)を付与する。なお、クラスタ数n(205)は、「2」(遠景と近景)や「3」(遠景と近景とその中間)などのように予め定めておいてクラスタリング部(204)に入力してもよいし、広く知られている一般的なクラスタリング技術(x−means法など)を用いてクラスタ数n(205)を自動的に決定してもよい。   After that, the same cluster ID (206) is assigned to the small regions having similar average values in the clustering unit (204) that implements the clustering technique described above. Note that the number of clusters n (205) may be predetermined and input to the clustering unit (204) such as “2” (distant view and foreground) and “3” (distant view and foreground and intermediate). Alternatively, the number of clusters n (205) may be automatically determined using a widely known general clustering technique (such as the x-means method).

図3を用いて、前述した塗りつぶし部(104)の動作を説明する。一例として、前述した遠くの船が写っている類似領域(111−1)に対応した領域だけを残し、他の領域(111−2)(111−n)を所定値、例えば黒色(輝度値=0)で塗りつぶした画像(112−1)を生成する場合の動作を示す。   The operation of the above-described filling unit (104) will be described with reference to FIG. As an example, only the region corresponding to the similar region (111-1) in which the distant ship is reflected is left, and the other regions (111-2) (111-n) are set to a predetermined value, for example, black (luminance value = The operation in the case of generating the image (112-1) filled with (0) will be described.

塗りつぶす場合に、他の領域(111−2)(111−n)を単純に黒色(輝度値=0)で塗りつぶしてしまうと、領域どうしの境界(301)の輝度値(信号レベル)が急峻に変化し、強い電力を持った高周波成分が発生してしまうことになり、後段の画像回復部(105)におけるPSFと潜在画像の分離が正しく行われなくなってしまう。   When filling other areas (111-2) (111-n) simply with black (brightness value = 0), the brightness value (signal level) at the boundary (301) between the areas becomes steep. As a result, a high-frequency component having strong power is generated, and the PSF and the latent image are not correctly separated in the subsequent image restoration unit (105).

そこで、図3(a)に示すような、元の画像の信号レベルが境界(301)の付近で急峻に変化しないように、図3(b)(c)に示すような、位置とともに0.0と1.0の間を緩やかに変化する値を持った2個(1組)の信号(係数)を用い、境界(301)の左側では図3(a)の信号に図3(b)の信号(係数)を乗じて図3(d)の信号とし、これを後段の画像回復部(105−1)に入力する。一方、境界(301)の右側では図3(a)の信号に図3(c)の信号(係数)を乗じて図3(e)の信号とし、これを後段の画像回復部(105−2)に入力する。垂直方向の境界に対しても、同様の処理を行うことにより、水平方向・垂直方向ともに、境界の輝度値(信号レベル)が急峻に変化しないようにでき、後段の画像回復部におけるPSFと潜在画像の分離を正しく行なうことができる。   Therefore, in order to prevent the signal level of the original image from changing sharply in the vicinity of the boundary (301) as shown in FIG. Using two (one set) signals (coefficients) having values that gradually change between 0 and 1.0, the signal in FIG. 3A is shown on the left side of the boundary (301). Is multiplied by the signal (coefficient) of FIG. 3 to obtain the signal of FIG. 3D, which is input to the subsequent image recovery unit (105-1). On the other hand, on the right side of the boundary (301), the signal of FIG. 3 (a) is multiplied by the signal (coefficient) of FIG. 3 (c) to obtain the signal of FIG. ). By performing the same processing for the boundary in the vertical direction, the luminance value (signal level) of the boundary can be prevented from changing sharply in both the horizontal direction and the vertical direction. Image separation can be performed correctly.

以上のように、本実施例は、画像処理装置であって、入力画像をm(ただし、mは2以上の整数)個の第1領域に分割する領域分割部と、第1領域ごとに周波数成分分布を求める周波数成分分布解析部と、周波数成分分布どうしの類似度を算出し、類似度が所定値より高い第1領域を第2領域として結合する類似領域結合部と、第2領域ごとに該第2領域以外の領域を所定値で塗りつぶした画像を生成する塗りつぶし部と、塗りつぶし部で得た画像に前記第2領域ごとに画像回復処理を行う画像回復部と、画像回復部の結果を一枚の画像に合成して出力する画像合成部とで構成する。   As described above, the present embodiment is an image processing apparatus, which divides an input image into m (where m is an integer of 2 or more) first regions, and a frequency for each first region. A frequency component distribution analyzing unit for obtaining a component distribution, a similarity region calculating unit for calculating a similarity between frequency component distributions, and combining a first region having a similarity higher than a predetermined value as a second region, and a second region A filling unit that generates an image in which a region other than the second region is filled with a predetermined value, an image restoration unit that performs image restoration processing for each second region on the image obtained by the painting unit, and a result of the image restoration unit An image composition unit that composes and outputs a single image.

これにより、分割された小領域ごとに潜在画像とPSFとを分離するための画像回復処理(PSF推定処理)が不要となり、PSFの推定が不安定になったり、計算の途中で発散したり、長い時間が必要になったりする課題を解決できるようになる。すなわち、観測画像内にボケ方が異なる複数の被写体が存在する場合でも、ボケの少ない潜在画像を安定して得ることができ、また比較的短時間で潜在画像が得られるようにするための画像処理装置および画像処理方法を実現できる。   This eliminates the need for image restoration processing (PSF estimation processing) for separating the latent image and the PSF for each divided small area, makes the PSF estimation unstable, diverges in the middle of the calculation, The problem that a long time is required can be solved. That is, even when there are a plurality of subjects with different blurring methods in the observed image, an image for stably obtaining a latent image with little blur and for obtaining a latent image in a relatively short time. A processing device and an image processing method can be realized.

本実施例は、実施例1の画像回復処理を応用した画像拡大処理システムについて説明する。   In this embodiment, an image enlargement processing system to which the image restoration processing of the first embodiment is applied will be described.

図4に、本実施例による画像処理システムの概略構成を示す。図4において、飛行機などの移動体(401)に、カメラ(404)、後述する画像処理部−1(405)、符号化部(406)、および図示しない無線送信部などを備えた送信部(403)を装備し、遠くの被写体(402−1)を望遠撮影した観測画像(413)を、下り回線(415)を介して地上の監視所(407)に無線伝送することを想定する。監視所(407)では、アンテナ(408)で受信した無線信号を、図示しない無線受信部を介して復号部(409)で画像を復号し、後述する画像処理部−2(410)を介して、表示部(411)にて監視対象の被写体(402−1)の拡大画像(414)を表示する。また、一般的なキーボードやマウス等のポインティングシステムによる操作部(412)を備え、画像処理部−2(410)や、上り回線(416)を介した画像処理部−1(405)に対して、後述するコマンドやパラメータを送ることができるものとする。   FIG. 4 shows a schematic configuration of the image processing system according to the present embodiment. In FIG. 4, a mobile unit (401) such as an airplane includes a camera (404), an image processing unit-1 (405) described later, an encoding unit (406), a wireless transmission unit (not shown), and the like. 403) and an observation image (413) obtained by telephoto imaging a distant subject (402-1) is assumed to be wirelessly transmitted to a monitoring station (407) on the ground via a downlink (415). In the monitoring station (407), an image of the wireless signal received by the antenna (408) is decoded by a decoding unit (409) via a wireless receiving unit (not shown), and then via an image processing unit-2 (410) described later. The enlarged image (414) of the subject (402-1) to be monitored is displayed on the display unit (411). In addition, an operation unit (412) using a pointing system such as a general keyboard or mouse is provided, and the image processing unit-2 (410) or the image processing unit-1 (405) via the uplink (416) is provided. Assume that commands and parameters described later can be sent.

このとき、移動体(401)に搭載されたカメラ(404)で被写体を撮影すると、移動体(401)が画像撮影中に移動したり、移動体(401)の振動がカメラに伝搬したりすることなどによって、画像にブレが生じることが多い。また、撮影する際の俯角や仰角が水平に近い場合には、カメラ(404)で撮影された観測画像(413)に、監視したい対象の被写体(402−1)以外にも、カメラとの距離が異なる被写体(402−2)(402−3)が写り込んでしまうことがあり、これらのすべての被写体に対してレンズの焦点を同時に合わせることは困難なため、被写体ごとに異なるボケが生じることが多い。   At this time, if the subject is photographed by the camera (404) mounted on the moving body (401), the moving body (401) moves during image shooting, or the vibration of the moving body (401) propagates to the camera. In many cases, the image is blurred. In addition, when the depression angle and elevation angle at the time of shooting are close to the horizontal, the observation image (413) shot by the camera (404) is separated from the camera in addition to the subject (402-1) to be monitored. Subject (402-2) and (402-3) may be reflected, and it is difficult to focus the lens on all of these subjects at the same time, resulting in different blur for each subject. There are many.

画像処理部−1(405)あるいは画像処理部−2(410)では、カメラで撮影した観測画像の一部の領域あるいは全部の領域を拡大し、前述した画像回復処理によってボケの少ない画像を回復し、表示に用いる拡大画像を得るための画像処理を行う。これらの画像処理は、符号化する前の画像に対して画像処理部−1(405)だけで行ってもよいし、符号化および復号化した後の画像に対して画像処理部−2(410)だけで行ってもよいし、画像処理部−1(405)および画像処理部−2(410)の両方で分担して処理してもよい。   In the image processing unit-1 (405) or the image processing unit-2 (410), a partial region or the entire region of the observation image captured by the camera is enlarged, and an image with less blur is recovered by the above-described image recovery processing. Then, image processing for obtaining an enlarged image used for display is performed. These image processes may be performed only by the image processing unit-1 (405) for the image before encoding, or the image processing unit-2 (410) for the image after encoding and decoding. ), Or may be shared and processed by both the image processing unit-1 (405) and the image processing unit-2 (410).

前述したように、画像回復には反復処理を伴うため、時系列で連続する画像(動画)をオンライン(すなわち、リアルタイム)で処理することは比較的困難である。したがって、処理対象の画像(観測画像)を図示しないストレージ(半導体メモリ、ハードディスクドライブ(磁気ディスク)、光ディスク、等)に格納しておき、その中から1枚(1フレーム)ずつの画像(静止画)を取り出して、オフラインで画像回復するような使い方が想定される。   As described above, since image recovery involves repetitive processing, it is relatively difficult to process images (moving images) that are continuous in time series online (that is, in real time). Therefore, an image to be processed (observed image) is stored in a storage (semiconductor memory, hard disk drive (magnetic disk), optical disk, etc.) (not shown), and one (one frame) image (still image) is stored. ) Is taken out and the image can be recovered offline.

このとき、符号化および復号化によって生じる画質劣化が少なければ、画像処理部−1(405)あるいは画像処理部−2(410)のうち、どちら側で画像回復処理を行ってもよい。   At this time, if there is little deterioration in image quality caused by encoding and decoding, image recovery processing may be performed on either side of image processing unit-1 (405) or image processing unit-2 (410).

一方、図4に示す下り回線(415)の伝送帯域が狭い場合など、低いビットレートでしか画像を伝送できないような用途では、符号化および復号化による画質劣化が大きくなり、画像回復が困難になってしまう場合がある。このような場合には、カメラ(404)の直後に図示しないバッファメモリ(画像を一時的に格納しておくメモリ)を備え、このバッファメモリに格納された画像に対して、画像処理部−1(405)にて画像回復処理を行ってもよい。あるいは、通常の画像伝送モード(低画質)とは別に、高画質(低劣化)で画像を伝送する画像伝送モードを設け、画像回復を行うときには高画質(低劣化)で画像を伝送する画像伝送モードに変更するようにシステムを構成してもよい。   On the other hand, in applications where images can only be transmitted at a low bit rate, such as when the transmission band of the downlink (415) shown in FIG. 4 is narrow, image quality degradation due to encoding and decoding becomes large, and image restoration becomes difficult. It may become. In such a case, a buffer memory (not shown) is provided immediately after the camera (404), and an image processing unit-1 is applied to the image stored in the buffer memory. Image recovery processing may be performed at (405). Alternatively, in addition to the normal image transmission mode (low image quality), an image transmission mode that transmits images with high image quality (low degradation) is provided, and image transmission that transmits images with high image quality (low degradation) when performing image recovery. The system may be configured to change to a mode.

図5〜図7に、前述した画像処理部−1(405)あるいは画像処理部−2(410)の構成例を示す。   5 to 7 show configuration examples of the image processing unit-1 (405) or the image processing unit-2 (410) described above.

図5において、前述した画像処理部−1(405)あるいは画像処理部−2(410)では、端子(501)を介して観測画像(413)を入力し、画像拡大部(502)で画像を拡大したのちに、画像回復部(505)で前述した画像回復処理を行って、端子(506)を介して拡大画像(414)を出力する。また、端子(507)を介して入力されたコマンドおよびパラメータに基づき、画像拡大部(502)と画像回復部(505)を制御する。このコマンドは、画像拡大処理のオン(する)とオフ(しない)、画像回復処理のオン(する)とオフ(しない)を選択して各部(502)(505)に指示するための制御命令を含む。また、パラメータは、水平および垂直方向の拡大率(あるいは、対象領域と拡大画像の各画素数)や、画像拡大する対象領域(508)の座標を含む。水平および垂直方向の拡大率(あるいは、対象領域と拡大画像の各画素数)のパラメータは拡大率設定部(503)を介して、対象領域(508)の座標パラメータは対象領域設定部(504)を介して、それぞれ画像拡大部(502)に設定する。なお、画像拡大部(502)としては、一般的に知られているバイリニア拡大やバイキュービック拡大などのような、畳み込み演算を利用した線形フィルタ(ポリフェーズフィルタ)による画像拡大処理をそのまま用いることができるため、詳細な図示は省略する。また、画像回復部(505)として、前述した図1に示す構成や、後述する図8〜図10に示す構成を、そのまま用いることができる。   In FIG. 5, in the image processing unit-1 (405) or the image processing unit-2 (410) described above, the observation image (413) is input through the terminal (501), and the image is enlarged by the image enlargement unit (502). After the enlargement, the image restoration unit (505) performs the image restoration process described above, and outputs the enlarged image (414) via the terminal (506). Further, the image enlargement unit (502) and the image restoration unit (505) are controlled based on the command and parameters input via the terminal (507). This command selects a control command for instructing each unit (502) (505) by selecting on (on) or off (not) of image enlargement processing and on (on) or off (no) of image restoration processing. Including. The parameters include the horizontal and vertical enlargement ratios (or the number of pixels in the target area and the enlarged image) and the coordinates of the target area (508) for image enlargement. The parameters of the horizontal and vertical enlargement ratios (or the number of pixels of the target area and the enlarged image) are passed through the enlargement ratio setting section (503), and the coordinate parameters of the target area (508) are the target area setting section (504). Are set in the image enlargement unit (502). As the image enlargement unit (502), an image enlargement process using a linear filter (polyphase filter) using a convolution operation such as generally known bilinear enlargement or bicubic enlargement is used as it is. Detailed illustration is omitted because it is possible. Further, as the image restoration unit (505), the configuration shown in FIG. 1 described above and the configurations shown in FIGS. 8 to 10 described later can be used as they are.

周波数特性図(509)は、一例として、拡大率を4倍に設定したときの一般的な線形フィルタにおける周波数と利得の関係を示した図である。画像拡大部(502)に一般的な線形フィルタを用いると、直流(f=0)からナイキスト周波数(f=fN)までの通過帯域特性が理想特性(510)にはならず、実際のフィルタ特性(511)と理想特性(510)の差が減衰成分(512)となって、画像にボケが生じることが良く知られている。このため、画像回復部(505)を画像拡大部(502)の後段に配置することによって、画像の撮影過程で生じるレンズ焦点ボケやカメラブレと、画像拡大部(502)で生じた画像ボケを併せて、画像回復することができるようになる。   The frequency characteristic diagram (509) is a diagram showing, as an example, the relationship between the frequency and gain in a general linear filter when the enlargement ratio is set to 4 times. When a general linear filter is used for the image enlargement unit (502), the passband characteristic from direct current (f = 0) to the Nyquist frequency (f = fN) does not become the ideal characteristic (510), but the actual filter characteristic. It is well known that the difference between (511) and the ideal characteristic (510) becomes an attenuation component (512), and the image is blurred. For this reason, by disposing the image restoration unit (505) in the subsequent stage of the image enlargement unit (502), the lens defocusing or camera shake generated in the image shooting process and the image blur generated in the image enlargement unit (502) are combined. Image recovery.

図6は、図5に示した構成における画像回復部(505)と画像拡大部(502)の処理順序を交換し、画像回復のあとで画像拡大を行うようにした構成である。画像拡大部(502)に一般的な線形フィルタを用いる場合、フィルタの通過帯域を広く設定することによって画像ボケの原因のひとつとなる図5に示した減衰成分(512)を減らしたり、拡大率を大きくしたりすると、ナイキスト周波数(f)よりも高い周波数の成分が折返し成分(513)となり、画像の歪み(折返し歪み(エイリアシング))が増えることが良く知られている。このような折返し成分は、画像回復処理によって除去することができないだけでなく、画像回復処理の障害となって、画像回復の精度が低下してしまうことが多い。したがって、画像拡大処理に用いる線形フィルタの周波数特性を吟味し、折返し成分の電力が減衰成分の電力よりも大きくなるような画像拡大を行うときには、図6に示すように、画像回復を行ったあとで画像拡大を行ったほうが、画質劣化の少ない高画質の拡大画像が得られる。 FIG. 6 shows a configuration in which the processing order of the image restoration unit (505) and the image enlargement unit (502) in the configuration shown in FIG. 5 is exchanged, and image enlargement is performed after image restoration. When a general linear filter is used for the image enlargement unit (502), the attenuation component (512) shown in FIG. 5 which is one of the causes of image blur is reduced by setting a wide pass band of the filter, or the enlargement ratio It is well known that when the frequency is increased, a component having a frequency higher than the Nyquist frequency (f N ) becomes the aliasing component (513), and image distortion (aliasing) increases. Such a aliasing component cannot be removed by the image restoration process, but also becomes an obstacle to the image restoration process, and the accuracy of the image restoration often decreases. Therefore, when examining the frequency characteristics of the linear filter used for the image enlargement process and performing image enlargement in which the power of the aliasing component is larger than the power of the attenuation component, as shown in FIG. When the image is magnified with the method, a high-quality enlarged image with less image quality deterioration can be obtained.

図7に、図5と図6に示した各処理を統合し、画像回復部(505)の前に画像拡大−1(701)を備え、画像回復部(505)の後に画像拡大−2(702)を備えた構成を示す。前述のように、画像回復部(505)より前段の画像拡大−1(701)で生じた画像ボケは、画像回復部(505)で回復できる可能性がある一方で、画像拡大−1(701)で生じた折返し歪みは画像回復の障害となることもある。そこで、所望の拡大率(z)を行うためには、画像拡大−1(701)では画像回復の障害とならない範囲の拡大率(z1)で拡大し、画像回復部(505)で画像回復を行ったのちに、画像拡大部−2(702)で残りの拡大率(z2=z/z1)の拡大を行えばよい。具体的には、前述のように、画像拡大−1(701)に用いる線形フィルタの周波数特性を吟味し、折返し成分の電力が減衰成分の電力よりも小さくなるような固定倍率(z1、例えば1倍(等倍)、1.5倍、2倍、など)の画像拡大−1(701)を事前に設計して用意しておき、端子(507)を介して入力されたコマンドおよびパラメータに基づいて、拡大率設定部(703)にて所望の拡大率(z)を超えない最大の固定倍率(z1)を選択して、画像拡大部−1(701)に設定する。また、拡大率設定部(704)にて残りの拡大率(z2=z/z1)を計算し、画像拡大部−2(702)に設定することによって、所望の拡大率で拡大された高画質の拡大画像が得られるようになる。   FIG. 7 integrates the processes shown in FIGS. 5 and 6 and includes an image enlargement-1 (701) before the image restoration unit (505), and an image enlargement-2 (after the image restoration unit (505). 702) is shown. As described above, the image blurring caused by the image enlargement-1 (701) in the preceding stage from the image restoration unit (505) may be recovered by the image restoration unit (505), while the image enlargement-1 (701). ) May be an obstacle to image recovery. Therefore, in order to perform a desired enlargement ratio (z), image enlargement is performed at an enlargement ratio (z1) that does not hinder image recovery in image enlargement-1 (701), and image restoration is performed by the image restoration unit (505). Then, the remaining enlargement ratio (z2 = z / z1) may be enlarged by the image enlargement unit-2 (702). Specifically, as described above, the frequency characteristic of the linear filter used for the image enlargement -1 (701) is examined, and the fixed magnification (z1, for example, 1) such that the power of the aliasing component becomes smaller than the power of the attenuation component. (Magnification (1.5 times), 1.5 times, 2 times, etc.) image enlargement-1 (701) is designed and prepared in advance, and is based on the command and parameters input via the terminal (507). The enlargement factor setting unit (703) selects the maximum fixed magnification (z1) that does not exceed the desired enlargement factor (z) and sets it in the image enlargement unit-1 (701). Further, the remaining enlargement factor (z2 = z / z1) is calculated by the enlargement factor setting unit (704) and is set in the image enlargement unit-2 (702), so that the image quality enlarged at a desired enlargement factor is obtained. Enlarged images can be obtained.

なお、画像にブレが多く発生する場合の一例として移動体(例えば、有人の飛行機、自動操縦あるいは遠隔地からリモートで手動操縦される無人の飛行機、船、自動車、など)を挙げたが、本実施例の応用例はこれに限定されるわけではない。例えば、強風を受ける場所に設置された固定カメラ、長い棒の先に取り付けられたカメラ、手持ちのカメラなどによって撮影された画像にはブレが多く発生するため、本実施例による画像処理システムの好適な例となりうる。   As an example of the case where a lot of blurring occurs in the image, a moving body (for example, a manned airplane, an autopilot, an unmanned airplane that is manually operated remotely from a remote place, a ship, an automobile, etc.) is cited. The application example of the embodiment is not limited to this. For example, since a lot of blur occurs in an image taken by a fixed camera installed in a place receiving a strong wind, a camera attached to the end of a long stick, a hand-held camera, etc., the image processing system according to this embodiment is suitable. It can be an example.

前述した符号化部(406)、復号化部(409)については、一般に知られているMPEG(Moving Picture Expert Group)−1、MPEG−2、MPEG−4、H.264、VC−1、JPEG(Joint Photographic Experts Group)、Motion JPEG、JPEG−2000などの標準規格化された符号化および復号化を行ってもよいし、非標準の符号化および復号化を行ってもよい。これらは、一般的な公知技術によって容易に実現可能なため、図示は省略する。   The encoding unit (406) and decoding unit (409) described above are generally known MPEG (Moving Picture Expert Group) -1, MPEG-2, MPEG-4, H.264, and H.264. H.264, VC-1, JPEG (Joint Photographic Experts Group), Motion JPEG, JPEG-2000, etc. may be standardized encoding and decoding, or non-standard encoding and decoding may be performed. Also good. Since these can be easily realized by a general known technique, illustration is omitted.

以上のように、本実施例は、実施例1に記載の画像処理装置を用いた画像処理システムであって、撮影した画像の画素数を増加して第1の画像サイズに拡大する第1の画像拡大部と、該第1の画像拡大部の出力を実施例1に記載の画像処理装置に入力して画像回復処理を行い、該画像処理装置の出力画像の画素数を増加して第2の画像サイズに拡大して出力する第2の画像拡大部とで構成する。   As described above, the present embodiment is an image processing system using the image processing apparatus described in the first embodiment, and increases the number of pixels of the captured image to the first image size. The output of the image enlargement unit and the first image enlargement unit is input to the image processing apparatus described in the first embodiment to perform image restoration processing, and the number of pixels of the output image of the image processing apparatus is increased to increase the second number. And a second image enlargement unit that outputs the image with the image size enlarged.

また、第1の画像拡大部によって生じる折返し歪み成分の電力が第1の画像拡大部によって減衰する信号成分の電力以下になるように第1の画像サイズを制御する拡大率設定部を有する構成とする。   A configuration having an enlargement ratio setting unit for controlling the first image size so that the power of the aliasing distortion component generated by the first image enlargement unit is equal to or less than the power of the signal component attenuated by the first image enlargement unit; To do.

これにより、画像拡大と画像回復を高画質で適切に行う画像処理システムを構成できる。   Thereby, it is possible to configure an image processing system that appropriately performs image enlargement and image restoration with high image quality.

本実施例は、撮影距離の違いを近似した画像回復処理について説明する。   In this embodiment, an image restoration process that approximates a difference in shooting distance will be described.

実施例2で図4を用いて説明したような望遠撮影では、画像の上部には概ね遠景が、画像の下部には概ね近景が写る。したがって、画像を横長の短冊状に分割すると、その短冊内では、カメラからの距離が概ね等しい被写体が写っており、PSFも略同一であると考えられる。   In telephoto shooting as described with reference to FIG. 4 in the second embodiment, a distant view is generally shown in the upper part of the image, and a close view is shown in the lower part of the image. Therefore, when the image is divided into horizontally long strips, subjects with the same distance from the camera are shown in the strip, and the PSFs are considered to be substantially the same.

そこで、本実施例では、図8に示すように、観測画像(801)を横長の短冊状に分割して画像小領域(802)とし、この小領域の中ではPSFは一定であるとみなして、小領域ごとに用意した画像回復部(804)(805)(806)(807)(808)(809)によって各領域を画像回復し、合成部(810)によって1枚の画像を合成して、潜在画像(811)を出力する。図8では、一例として、垂直方向に6個の画像小領域に分割した場合の構成について示しているが、この分割数(6)に限定されるわけではなく、分割数を柔軟に増減してもよいことは明らかである。   Therefore, in this embodiment, as shown in FIG. 8, the observation image (801) is divided into horizontally long strips to form a small image area (802), and the PSF is considered to be constant in this small area. The image recovery units (804), (805), (806), (807), (808), and (809) prepared for each small region recover the respective regions, and the combining unit (810) combines one image. The latent image (811) is output. In FIG. 8, as an example, a configuration in which the image is divided into six small image areas in the vertical direction is shown. However, the number of divisions is not limited to (6), and the number of divisions can be flexibly increased or decreased. It is clear that it is good.

この処理は、図1に示した構成における周波数分布解析部(102)と類似領域統合部(103)を省略し、観測画像の垂直座標に基づいて類似領域を作成する構成であり、処理が簡略化されることによって、処理に必要な時間を短縮できる効果がある。   In this processing, the frequency distribution analysis unit (102) and the similar region integration unit (103) in the configuration shown in FIG. 1 are omitted, and a similar region is created based on the vertical coordinates of the observation image, and the processing is simplified. As a result, the time required for processing can be shortened.

さらに、図1に示した構成では、画像回復(105−1)(105−2)(105−n)で処理する画像(112−1)(112−2)(112−n)のトータルの画素数が、観測画像(107)の画素数のn倍になってしまうため、観測画像(107)をそのまま画像回復する処理と比べて、画像回復に必要な処理時間もほぼn倍になってしまう。一方、図8に示す構成では、画像回復部(804)(805)(806)(807)(808)(809) で処理する画像のトータルの画素数は、観測画像(107)の画素数とほぼ等しくなるため、図1に示した構成よりも処理時間を大幅(約1/n)に短縮できる。   Further, in the configuration shown in FIG. 1, the total pixels of the images (112-1), (112-2), and (112-n) to be processed by the image restoration (105-1) (105-2) (105-n). Since the number of pixels becomes n times the number of pixels of the observed image (107), the processing time required for image restoration becomes almost n times as compared with the processing of restoring the observed image (107) as it is. . On the other hand, in the configuration shown in FIG. 8, the total number of pixels of the image processed by the image restoration units (804) (805) (806) (807) (808) (809) is the same as the number of pixels of the observed image (107). Since they are almost equal, the processing time can be greatly shortened (about 1 / n) compared to the configuration shown in FIG.

なお、画像回復部(804)(805)(806)(807)(808)(809)として、前述した、観測画像からPSFと潜在画像の両方を推定するBlind法による反復処理をそのまま用いることができる。   Note that as the image restoration units (804), (805), (806), (807), (808), and (809), the above-described iterative processing using the Blind method for estimating both the PSF and the latent image from the observed image is used as it is. it can.

また、図8における小領域(802)どうしの境界部分は、図3に示したような緩やかに変化する値を持った2個(1組)の信号(図3(b)(c))を乗じることにより、合成部(810)において境界部分を目立たないように合成することができる。   In addition, the boundary portion between the small regions (802) in FIG. 8 has two (one set) signals (FIGS. 3B and 3C) having values that change slowly as shown in FIG. By multiplying, it is possible to synthesize the boundary portion inconspicuously in the synthesis unit (810).

以上のように、本実施例は、画像処理装置であって、入力画像をm(ただし、mは2以上の整数)個の横長の領域に分割する領域分割部と、横長の領域ごとに画像回復処理を行う画像回復部と、画像回復部の結果を一枚の画像に合成して出力する画像合成部とで構成する。   As described above, the present embodiment is an image processing apparatus, which divides an input image into m (where m is an integer of 2 or more) horizontally long regions, and an image for each horizontally long region. The image recovery unit is configured to perform a recovery process, and an image composition unit that combines and outputs the result of the image recovery unit into a single image.

また、画像処理方法であって、画像を入力するステップと、画像を複数個の横長の領域に分割するステップと、横長の領域ごとに画像回復処理を行うステップと、画像回復処理を行うステップの結果を一枚の画像に合成して出力するステップとで構成する。
これにより、観測画像の垂直座標に基づいて類似領域を簡略的に作成することにより、画像全体の画像回復を短時間で行う画像処理装置及び画像処理方法を構成できる。
An image processing method includes: an image input step; an image division step into a plurality of horizontally long regions; an image recovery process for each horizontally long region; and an image recovery step. And the step of combining the result into one image and outputting it.
Thereby, it is possible to configure an image processing apparatus and an image processing method that perform image recovery of the entire image in a short time by simply creating a similar region based on the vertical coordinates of the observed image.

本実施例は、撮影距離の違いを近似し、さらに処理時間を短縮した画像回復処理について説明する。   In this embodiment, an image restoration process that approximates the difference in shooting distance and further shortens the processing time will be described.

図9は、本実施例における画像回復処理の構成であって、図8に示した画像回復処理をベースとして、さらに処理時間を短縮できる。前述のように、画像の上部には概ね遠景が、画像の下部には概ね近景が写るため、画像を横長の短冊状に分割すると、カメラからの距離が概ね等しい被写体が写っていると考えられる。このとき、最上部と最下部の間の領域(中間部)の画像のボケ方は、最上部の画像のボケ方と、最下部の画像のボケ方の、中間的なボケ方になるとみなすことによって、処理時間の短縮を図ることができる。なお、図9では、一例として、垂直方向に6個の画像小領域に分割した場合の構成について示しているが、この分割数(6)に限定されるわけではなく、分割数を柔軟に増減してもよいことは明らかである。   FIG. 9 shows the configuration of the image restoration process in this embodiment, and the processing time can be further shortened based on the image restoration process shown in FIG. As mentioned above, a distant view appears in the upper part of the image, and a close-up view appears in the lower part of the image. Therefore, if the image is divided into horizontally long strips, it is considered that subjects with approximately the same distance from the camera are shown. . At this time, it is considered that the blurring of the image in the region between the uppermost part and the lowermost part (intermediate part) is an intermediate blurring between the blurring of the uppermost image and the blurring of the lowermost image. Thus, the processing time can be shortened. In FIG. 9, as an example, a configuration in which the image is divided into six small image areas in the vertical direction is shown. However, the number of divisions is not limited to (6), and the number of divisions can be flexibly increased or decreased. Obviously, you may.

図9に示すように、観測画像(801)を横長の短冊状に分割して画像小領域(802)とし、この小領域の中ではPSFは一定であるとみなす。続いて、画像の最上部と最下部の各小領域については、前述したBlind法による反復処理により画像回復部(804)(809)で、潜在画像とPSF(PSF−1およびPSF−6)を求める。   As shown in FIG. 9, the observation image (801) is divided into horizontally long strips to form a small image area (802), and the PSF is considered to be constant in this small area. Subsequently, the latent image and the PSF (PSF-1 and PSF-6) are applied to the subregions at the top and bottom of the image by the image restoration unit (804) (809) by the iterative process using the Blind method described above. Ask.

一方、画像の中間部については、Blind法による反復処理を行うのではなく、後述するPSF補間部(1002)により、先ほど求めた最上部のPSF(PSF−1)と最下部のPSF(PSF−6)から補間PSFを生成する。すなわち、画像の中間部については反復処理を行わないようにすることにより、画像全体の処理時間の短縮を図ることができる。   On the other hand, the intermediate part of the image is not subjected to the iterative process by the Blind method, but the uppermost PSF (PSF-1) and the lowermost PSF (PSF-) obtained by the PSF interpolation part (1002) described later. An interpolated PSF is generated from 6). That is, the processing time of the entire image can be shortened by not performing the iterative process for the intermediate part of the image.

その後、後述するPSF補間部(1002)で生成した補間PSFと観測画像を用いて、図9に示した最終の推定部(908)にて最終的な潜在画像を推定し、先ほど求めた最上部の潜在画像と最下部の潜在画像を合成部(810)で併せることにより、全体の潜在画像(1007)を生成する。   Thereafter, the final latent image is estimated by the final estimation unit (908) shown in FIG. 9 using the interpolated PSF and the observed image generated by the PSF interpolation unit (1002), which will be described later. The entire latent image (1007) is generated by combining the latent image at the bottom and the latent image at the bottom in the combining unit (810).

図10に、前述したPSF補間部(1002)の構成例を示す。このPSF補間部(1002)では、入力された画像最上部のPSF(PSF−1)と画像最下部(PSF−6)から各画像小領域に対応した補間PSF(PSF−2〜PSF−5)を生成するために、各画像小領域に対応した加重加算部(1101−2〜1101−5)を用いる。加重加算部(1101−2)は、乗算器(1102)(1103)と係数演算器(1104)と加算器(1105)から構成される。ここで、加重加算部(1101−2)に対して後述する係数k2(1106−2)を設定し、係数演算器(1104)により係数k2を1.0から減じて生成した係数(1−k2)とPSF−1とを乗算器(1102)にて乗算した結果と、係数k2(1106−2)とPSF−6とを乗算器(1103)にて乗算した結果とを、加算器(1105)にて加算することによって、補間PSF(PSF−2)を得る。   FIG. 10 shows a configuration example of the PSF interpolation unit (1002) described above. The PSF interpolation unit (1002) interpolates PSFs (PSF-2 to PSF-5) corresponding to the small image areas from the input image top PSF (PSF-1) and image bottom (PSF-6). Is generated using weighted addition units (1101-2 to 1101-5) corresponding to the small image areas. The weighted adder (1101-2) includes multipliers (1102) (1103), a coefficient calculator (1104), and an adder (1105). Here, a coefficient k2 (1106-2) to be described later is set for the weighted addition unit (1101-2), and a coefficient (1-k2) generated by subtracting the coefficient k2 from 1.0 by the coefficient calculator (1104). ) And PSF-1 are multiplied by the multiplier (1102), and the result of multiplying the coefficient k2 (1106-2) and PSF-6 by the multiplier (1103) is added to the adder (1105). To obtain an interpolated PSF (PSF-2).

すなわち、PSF−1とPSF−6を係数k2に応じて加重加算して補間PSF(PSF−2)を得る。他の画像小領域についても、加重加算部(1101−2)と同一構成の加重加算部(1101−3)(1101−4)(1101−5)を用いて、PSF−1とPSF−6をそれぞれの係数k3(1106−3)、係数k4(1106−4)、係数k5(1106−5) に応じて加重加算し、補間PSF(PSF−3〜PSF−5)を得る。   That is, PSF-1 and PSF-6 are weighted and added according to the coefficient k2 to obtain an interpolated PSF (PSF-2). For the other small image areas, PSF-1 and PSF-6 are obtained by using weighted addition units (1101-3) (1101-4) (1101-5) having the same configuration as the weighted addition unit (1101-2). Weighted addition is performed according to each coefficient k3 (1106-3), coefficient k4 (1106-4), coefficient k5 (1106-5) to obtain an interpolated PSF (PSF-3 to PSF-5).

ここで、各係数k2(1106−2)〜k5(1106−5)は、各画像小領域の重心の垂直座標に応じて、最上部の小領域の重心の垂直座標を0.0(基準)とし、最下部の小領域の重心の垂直座標を1.0としたときの内分比とする。例えば、図9に示した一例のように、観測画像を垂直方向に6個の小領域に分割し、各小領域の垂直画素数をすべて同じ値に設定した場合には、係数k2=0.2(=1/(6−1))、係数k3=0.4(=2/(6−1))、係数k4=0.6(=3/(6−1))、係数k4=0.8(=4/(6−1))とすればよい。   Here, each of the coefficients k2 (1106-2) to k5 (1106-5) has a vertical coordinate of the center of gravity of the uppermost small region of 0.0 (reference) according to the vertical coordinate of the center of gravity of each small region of the image. And the internal ratio when the vertical coordinate of the center of gravity of the lowermost small area is 1.0. For example, when the observed image is divided into six small regions in the vertical direction and the number of vertical pixels in each small region is set to the same value as in the example shown in FIG. 9, the coefficient k2 = 0. 2 (= 1 / (6-1)), coefficient k3 = 0.4 (= 2 / (6-1)), coefficient k4 = 0.6 (= 3 / (6-1)), coefficient k4 = 0 .8 (= 4 / (6-1)).

以上のように、本実施例は、画像処理装置であって、入力画像を、画像最上部の横長の第1領域と、画像最下部の横長の第2領域と、第1領域と第2領域との間の画像中央部をm(ただし、mは1以上の整数)個の横長の第3領域とに分割する領域分割部と、第1領域に対して画像回復処理を行う第1の画像回復部と、第2領域に対して画像回復処理を行う第2の画像回復部と、第1の画像回復部から出力される第1の点広がり関数(PSF)と、第2の画像回復部から出力される第2の点広がり関数とを用いて第3の点広がり関数を求める点広がり関数補間部と、第3領域に対して第3の点広がり関数を用いて画像回復処理を行う第3の画像回復部と、第1、第2、第3の画像回復部の結果を一枚の画像に合成して出力する画像合成部とで構成する。   As described above, the present embodiment is an image processing apparatus, and an input image is input to a horizontal first region at the top of the image, a horizontal second region at the bottom of the image, a first region, and a second region. A region dividing unit that divides the central portion of the image into m (where m is an integer of 1 or more) horizontally long third regions, and a first image that performs image restoration processing on the first region A recovery unit, a second image recovery unit that performs image recovery processing on the second region, a first point spread function (PSF) output from the first image recovery unit, and a second image recovery unit A point spread function interpolation unit for obtaining a third point spread function using the second point spread function output from the second point spread function, and a third region for performing image restoration processing on the third region using the third point spread function. 3 image restoration units, and an image synthesis unit that synthesizes and outputs the results of the first, second, and third image restoration units into one image. To do.

また、画像処理方法であって、画像を入力するステップと、画像を、画像最上部の横長の第1領域と、画像最下部の横長の第2領域と、第1領域と第2領域との間の画像中央部をm(ただし、mは1以上の整数)個の横長の第3領域とに分割するステップと、第1領域に対して画像回復処理を行うステップと、第2領域に対して画像回復処理を行うステップと、第1領域に対して画像回復処理を行うステップから出力される第1の点広がり関数(PSF)と、第2領域に対して画像回復処理を行うステップから出力される第2の点広がり関数とを用いて第3の点広がり関数を求めるステップと、第3領域に対して第3の点広がり関数を用いて画像回復処理を行うステップと、第1、第2、第3領域に対して画像回復処理を行った結果を一枚の画像に合成して出力するステップとで構成する。   The image processing method may further include a step of inputting an image, an image having a horizontally long first area at the top of the image, a horizontally long second area at the bottom of the image, and a first area and a second area. Dividing the middle portion of the image into m (where m is an integer of 1 or more) horizontally long third regions, performing image restoration processing on the first region, and the second region The first point spread function (PSF) output from the step of performing the image restoration process, the step of performing the image restoration process on the first area, and the step of performing the image restoration process on the second area A step of obtaining a third point spread function using the second point spread function, a step of performing image restoration processing on the third region using the third point spread function, 2. The result of image restoration processing for the third area is displayed as one image. And a step of combining and outputting the image.

これにより、観測画像の垂直座標に基づいて類似領域を簡略的に作成することに加え、画像の最上部と最下部を除く中間部の反復処理を省略することにより、画像全体の画像回復をさらに短時間で行う画像処理装置及び画像処理方法を構成できる。   Thus, in addition to simply creating a similar region based on the vertical coordinates of the observed image, it is possible to further improve the image recovery of the entire image by omitting the iterative process in the middle portion except the top and bottom of the image. An image processing apparatus and an image processing method that can be performed in a short time can be configured.

本実施例は、画像回復処理の手順について説明する。前述の課題を解決するために、本実施例では、以下に述べるような手順を有する画像回復処理とする。   In this embodiment, the procedure of image restoration processing will be described. In order to solve the above-described problem, in this embodiment, an image restoration process having the following procedure is used.

図11は、本実施例による画像回復処理の手順の一例を示すフローチャートであり、図1に示した画像処理装置の構成における各部の動作を、各手順を示す処理ステップに対応させたものである。図11において、ステップ(1201)から画像回復処理を開始し、ステップ(1202)にて処理対象の画像(観測画像)を入力し、ステップ(1203)にて観測画像をm個の小領域に分割する。続いて、ステップ(1204)にて小領域ごとに周波数分布解析を行い、ステップ(1205)にて周波数分布解析の結果が類似した小領域どうしを統合してn個の類似領域を作成する。   FIG. 11 is a flowchart showing an example of the procedure of the image restoration process according to the present embodiment, in which the operation of each unit in the configuration of the image processing apparatus shown in FIG. 1 is associated with the processing step showing each procedure. . In FIG. 11, image restoration processing is started from step (1201), an image to be processed (observation image) is input at step (1202), and the observation image is divided into m small regions at step (1203). To do. Subsequently, in step (1204), frequency distribution analysis is performed for each small region, and in step (1205), small regions having similar frequency distribution analysis results are integrated to create n similar regions.

ステップ(1206)で、類似領域ごとに類似領域以外の領域を所定値、例えば黒色(輝度値=0)で塗りつぶした画像を生成する。ステップ(1207)にて、塗りつぶされた画像に対して、n個の類似領域のそれぞれで一般的な画像回復処理を行い、ステップ(1208)にてn個の画像を1枚の潜在画像に合成し、ステップ(1209)にて画像(潜在画像)を出力し、ステップ(1210)にて画像回復処理を終了する。ここで述べた各ステップの詳細な動作については、前述した図1〜図3を用いて説明した各部の動作と同一なので、説明を省略する。   In step (1206), an image is generated in which areas other than the similar area are filled with a predetermined value, for example, black (luminance value = 0) for each similar area. In step (1207), general image restoration processing is performed on each of the n similar regions for the filled image, and n images are combined into one latent image in step (1208). In step (1209), an image (latent image) is output, and in step (1210), the image restoration process is terminated. The detailed operation of each step described here is the same as the operation of each unit described with reference to FIGS.

以上のように、本実施例は、画像処理方法であって、画像を入力するステップと、画像を複数の第1領域に分割し、第1領域ごとの周波数成分分布を求めるステップと、周波数成分分布どうしの類似度を算出し、類似度が所定値より高い第1領域を第2領域として統合するステップと、第2領域ごとに該第2領域以外の領域を所定値で塗りつぶした画像を生成するステップと、塗りつぶした画像を生成するステップで得た画像に第2領域ごとに画像回復処理を行うステップと、画像回復処理を行うステップの結果を一枚の画像に合成して出力するステップとで構成する。   As described above, this embodiment is an image processing method, which includes a step of inputting an image, a step of dividing the image into a plurality of first regions, obtaining a frequency component distribution for each first region, and a frequency component. Calculating a similarity between distributions, integrating a first region having a similarity higher than a predetermined value as a second region, and generating an image in which a region other than the second region is filled with a predetermined value for each second region A step of performing image restoration processing for each second region on the image obtained in the step of generating a filled image, and a step of combining and outputting the result of the step of performing image restoration processing into a single image Consists of.

以上述べたような手順を用いることにより、分割された小領域ごとに潜在画像とPSFとを分離するための画像回復処理(PSF推定処理)の手順が不要となり、PSFの推定が不安定になったり、計算の途中で発散したり、長い時間が必要になったりする課題を解決できるようになる。   By using the procedure as described above, the procedure of the image restoration process (PSF estimation process) for separating the latent image and the PSF for each divided small area becomes unnecessary, and the estimation of the PSF becomes unstable. Or the problem of divergence in the middle of a calculation or a long time required.

なお、実施例2の図5〜図7を用いて説明した画像処理装置、実施例3の図8を用いて説明した画像処理装置、実施例4の図9、図10を用いて説明した画像処理装置についても同様に、各構成における各部の動作を処理ステップに容易に対応させることができるため、各手順を示す処理ステップの図示および説明を省略する。   The image processing apparatus described with reference to FIGS. 5 to 7 of the second embodiment, the image processing apparatus described with reference to FIG. 8 of the third embodiment, and the images described with reference to FIGS. 9 and 10 of the fourth embodiment. Similarly, in the processing apparatus, since the operation of each unit in each configuration can be easily associated with the processing step, the illustration and description of the processing step indicating each procedure are omitted.

以上、本発明の実施例を説明したが、上記実施例は、その機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をシステム或は装置に提供し、そのシステム或は装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、及びそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   Although the embodiments of the present invention have been described above, the above embodiments can also be realized by software program codes that realize the functions. In this case, a storage medium in which the program code is recorded is provided to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing it constitute the present invention. As a storage medium for supplying such program code, for example, a flexible disk, CD-ROM, DVD-ROM, hard disk, optical disk, magneto-optical disk, CD-R, magnetic tape, nonvolatile memory card, ROM Etc. are used.

また、プログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現されるようにしてもよい。さらに、記憶媒体から読み出されたプログラムコードが、コンピュータ上のメモリに書きこまれた後、そのプログラムコードの指示に基づき、コンピュータのCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現されるようにしてもよい。   Also, based on the instruction of the program code, an OS (operating system) running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing. Also good. Further, after the program code read from the storage medium is written in the memory on the computer, the computer CPU or the like performs part or all of the actual processing based on the instruction of the program code. Thus, the functions of the above-described embodiments may be realized.

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することにより、それをシステム又は装置のハードディスクやメモリ等の記憶回路又はCD−RW、CD−R等の記憶媒体に格納し、使用時にそのシステム又は装置のコンピュータ(又はCPUやMPU)が当該記憶回路や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしても良い。なお、記述したソフトウェアは、アセンブラ、C/C++、perl、Shell、PHP、Java(登録商標)等の広範囲のプログラム又はスクリプト言語で実現できる。   Furthermore, by distributing the program code of the software that realizes the functions of the embodiments via a network, it is stored in a storage circuit such as a hard disk or memory of a system or apparatus or a storage medium such as a CD-RW or CD-R. The program code stored in the storage circuit or the storage medium may be read out and executed by the computer (or CPU or MPU) of the system or apparatus during storage. The described software can be realized by a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, Java (registered trademark), and the like.

また、上記実施例は、その機能を実現するために、ハードウェア、ソフトウェア、及びファームウエアを組み合わせてもよい。   In the above embodiment, hardware, software, and firmware may be combined to realize the function.

さらに、上記実施例は、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。   Further, the above-described embodiment shows control lines and information lines that are considered necessary for explanation, and does not necessarily show all control lines and information lines on the product.

また、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   The present invention is not limited to the above-described embodiments, and includes various modifications. The above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

101・・・領域分割部
102・・・周波数成分分布解析部
103・・・類似領域統合部
104・・・塗りつぶし部
105・・・画像回復部
106・・・合成部
107・・・入力画像(観測画像)
110・・・小領域画像ごとの周波数成分分布
112・・・周波数成分分布が類似した小領域以外を塗りつぶした画像
113・・・出力画像(潜在画像)
DESCRIPTION OF SYMBOLS 101 ... Area division part 102 ... Frequency component distribution analysis part 103 ... Similar area integration part 104 ... Filling part 105 ... Image restoration part 106 ... Composition part 107 ... Input image ( Observation image)
110 ... Frequency component distribution for each small area image 112 ... Image filled with areas other than small areas with similar frequency component distribution 113 ... Output image (latent image)

Claims (5)

入力画像をm(ただし、mは2以上の整数)個の第1領域に分割する領域分割部と、
前記第1領域ごとに周波数成分分布を求める周波数成分分布解析部と、
前記周波数成分分布どうしの類似度を算出し、前記類似度が所定値より高い前記第1領域を第2領域として結合する類似領域結合部と、
前記第2領域ごとに該第2領域以外の領域を所定値で塗りつぶした画像を生成する塗りつぶし部と、
前記塗りつぶし部で得た画像に前記第2領域ごとに画像回復処理を行う画像回復部と、
前記画像回復部の結果を一枚の画像に合成して出力する画像合成部と、を有することを特徴とする画像処理装置。
An area dividing unit that divides an input image into m (where m is an integer of 2 or more) first areas;
A frequency component distribution analyzer for obtaining a frequency component distribution for each of the first regions;
Calculating a similarity between the frequency component distributions, and combining the first region with the similarity higher than a predetermined value as a second region;
A fill unit for generating an image in which a region other than the second region is filled with a predetermined value for each second region;
An image recovery unit that performs image recovery processing for each of the second regions on the image obtained by the filling unit;
An image processing apparatus comprising: an image synthesis unit that synthesizes and outputs the result of the image restoration unit into a single image.
請求項1に記載の画像処理装置を用いた画像処理システムであって、
撮影した画像の画素数を増加して第1の画像サイズに拡大する第1の画像拡大部と、該第1の画像拡大部の出力を前記画像処理装置に入力して画像回復処理を行い、前記画像処理装置の出力画像の画素数を増加して第2の画像サイズに拡大して出力する第2の画像拡大部と、を有することを特徴とする画像処理システム。
An image processing system using the image processing apparatus according to claim 1,
A first image enlarging unit that increases the number of pixels of the photographed image to enlarge to a first image size, and an output of the first image enlarging unit is input to the image processing device to perform image restoration processing; An image processing system, comprising: a second image enlargement unit that increases the number of pixels of the output image of the image processing device and enlarges the output image to a second image size.
請求項2記載の画像処理システムであって、
前記第1の画像拡大部によって生じる折返し歪み成分の電力が第1の画像拡大部によって減衰する信号成分の電力以下になるように第1の画像サイズを制御する拡大率設定部を有することを特徴とする画像処理システム。
The image processing system according to claim 2,
An enlargement ratio setting unit that controls the first image size so that the power of the aliasing distortion component generated by the first image enlargement unit is equal to or less than the power of the signal component attenuated by the first image enlargement unit. Image processing system.
入力画像をm(ただし、mは2以上の整数)個の横長の領域に分割する領域分割部と、
前記横長の領域ごとに画像回復処理を行う画像回復部と、
前記画像回復部の結果を一枚の画像に合成して出力する画像合成部と、を有することを特徴とする画像処理装置。
An area dividing unit that divides an input image into m (where m is an integer of 2 or more) horizontally long areas;
An image recovery unit that performs image recovery processing for each of the horizontally long regions;
An image processing apparatus comprising: an image synthesis unit that synthesizes and outputs the result of the image restoration unit into a single image.
画像を入力するステップと、
前記画像を、画像最上部の横長の第1領域と、画像最下部の横長の第2領域と、前記第1領域と第2領域との間の画像中央部をm(ただし、mは1以上の整数)個の横長の第3領域とに分割するステップと、
前記第1領域に対して画像回復処理を行うステップと、
前記第2領域に対して画像回復処理を行うステップと、
前記第1領域に対して画像回復処理を行うステップから出力される第1の点広がり関数(PSF)と、前記第2領域に対して画像回復処理を行うステップから出力される第2の点広がり関数とを用いて第3の点広がり関数を求めるステップと、
前記第3領域に対して前記第3の点広がり関数を用いて画像回復処理を行うステップと、
前記第1、第2、第3領域に対して画像回復処理を行った結果を一枚の画像に合成して出力するステップと、
を有することを特徴とする画像処理方法。
Inputting an image;
The image is divided into a horizontal first region at the top of the image, a horizontal second region at the bottom of the image, and a middle portion of the image between the first region and the second region, where m is 1 or more. An integer) number of horizontally long third regions,
Performing image restoration processing on the first region;
Performing image restoration processing on the second region;
A first point spread function (PSF) output from the step of performing image restoration processing on the first region, and a second point spread output from the step of performing image recovery processing on the second region. Using the function to determine a third point spread function;
Performing image restoration processing on the third region using the third point spread function;
Combining and outputting the result of performing the image restoration processing on the first, second, and third areas into a single image;
An image processing method comprising:
JP2015152663A 2015-07-31 2015-07-31 Image processing apparatus, image processing method, and image processing system using the same Active JP6538469B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015152663A JP6538469B2 (en) 2015-07-31 2015-07-31 Image processing apparatus, image processing method, and image processing system using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015152663A JP6538469B2 (en) 2015-07-31 2015-07-31 Image processing apparatus, image processing method, and image processing system using the same

Publications (2)

Publication Number Publication Date
JP2017033287A true JP2017033287A (en) 2017-02-09
JP6538469B2 JP6538469B2 (en) 2019-07-03

Family

ID=57986271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015152663A Active JP6538469B2 (en) 2015-07-31 2015-07-31 Image processing apparatus, image processing method, and image processing system using the same

Country Status (1)

Country Link
JP (1) JP6538469B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102160101B1 (en) * 2019-03-19 2020-09-25 연세대학교 산학협력단 Apparatus and method for generating deblurring image based on multi-step residual network and apparatus for transforming deblurring image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211663A (en) * 2010-03-31 2011-10-20 Canon Inc Image processing apparatus, imaging device, image processing method, and program
JP2012155456A (en) * 2011-01-25 2012-08-16 Panasonic Corp Subject separation device, image restoration device, subject separation method, and image restoration method
JP2014075653A (en) * 2012-10-03 2014-04-24 Hitachi Consumer Electronics Co Ltd Imaging apparatus, and image processing method
JP2014146107A (en) * 2013-01-28 2014-08-14 Canon Inc Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011211663A (en) * 2010-03-31 2011-10-20 Canon Inc Image processing apparatus, imaging device, image processing method, and program
JP2012155456A (en) * 2011-01-25 2012-08-16 Panasonic Corp Subject separation device, image restoration device, subject separation method, and image restoration method
JP2014075653A (en) * 2012-10-03 2014-04-24 Hitachi Consumer Electronics Co Ltd Imaging apparatus, and image processing method
JP2014146107A (en) * 2013-01-28 2014-08-14 Canon Inc Image processing apparatus, imaging apparatus, image processing method, image processing program, and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102160101B1 (en) * 2019-03-19 2020-09-25 연세대학교 산학협력단 Apparatus and method for generating deblurring image based on multi-step residual network and apparatus for transforming deblurring image

Also Published As

Publication number Publication date
JP6538469B2 (en) 2019-07-03

Similar Documents

Publication Publication Date Title
US8934711B2 (en) Apparatus and method of processing image
US8077214B2 (en) Signal processing apparatus, signal processing method, program and recording medium
US8860816B2 (en) Scene enhancements in off-center peripheral regions for nonlinear lens geometries
US10003768B2 (en) Apparatus and methods for frame interpolation based on spatial considerations
US8311367B2 (en) Image processing device
US10999500B2 (en) Imaging apparatus and imaging method, and image processing apparatus and image processing method
JP5220677B2 (en) Image processing apparatus, image processing method, and image processing program
KR101220413B1 (en) Apparatus and method for enhancing image quality of image captured by using multiple color-filter aperture
CN110557584B (en) Image processing method and device, and computer readable storage medium
JP4869653B2 (en) Image processing device
US20150170342A1 (en) System and method for spatio video image enhancement
CN103854266B (en) Method and apparatus for being handled image
US20180070013A1 (en) Method and system for stabilizing video frames
JP2014206772A (en) Image processor, imaging device, monitoring system, encoder, and image processing method
JP2012068763A (en) Image processing device
EP3438923B1 (en) Image processing apparatus and image processing method
JP5765893B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP2017207818A (en) Image processing apparatus, image processing method and program
JP6538469B2 (en) Image processing apparatus, image processing method, and image processing system using the same
CN109672810B (en) Image processing apparatus, image processing method, and storage medium
JP6938282B2 (en) Image processing equipment, image processing methods and programs
US8078007B2 (en) Enlarging a digital image
KR101695987B1 (en) Apparatus and method for enhancing image taken by multiple color-filter aperture camera and multiple color-filter aperture camera equipped with the same
JP6132700B2 (en) Image processing system and image processing method
JP2020057242A (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190606

R150 Certificate of patent or registration of utility model

Ref document number: 6538469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150