JP2017146882A - Image processing apparatus, image processing method, image processing program, and recording medium - Google Patents
Image processing apparatus, image processing method, image processing program, and recording medium Download PDFInfo
- Publication number
- JP2017146882A JP2017146882A JP2016029629A JP2016029629A JP2017146882A JP 2017146882 A JP2017146882 A JP 2017146882A JP 2016029629 A JP2016029629 A JP 2016029629A JP 2016029629 A JP2016029629 A JP 2016029629A JP 2017146882 A JP2017146882 A JP 2017146882A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- unit
- image
- point spread
- spread function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000001514 detection method Methods 0.000 claims abstract description 16
- 238000000034 method Methods 0.000 claims description 32
- 238000009499 grossing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 17
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000007493 shaping process Methods 0.000 description 8
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000002939 conjugate gradient method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000009931 harmful effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- ORQBXQOJMQIAOY-UHFFFAOYSA-N nobelium Chemical compound [No] ORQBXQOJMQIAOY-UHFFFAOYSA-N 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、画像処理プログラム、および記憶媒体に関する。 The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a storage medium.
従来、点拡がり関数(PSF)を用いて撮影画像を鮮鋭化する技術が知られている。例えば、特許文献1では、撮影時のカメラの動き情報からPSFを推定し、推定したPSFに基づいてエッジ強調をすることで手振れなどの要因で劣化した画像を鮮鋭化する技術が開示されている。また、特許文献2では、非特許文献1に記載の方法で画像からPSFの近似解を推定し、推定したPSFの近似解と入力画像をデコンボリューションすることで画像のブレやボケを鮮鋭化する技術が開示されている。 Conventionally, a technique for sharpening a captured image using a point spread function (PSF) is known. For example, Patent Document 1 discloses a technique for sharpening an image that has deteriorated due to camera shake or the like by estimating PSF from camera motion information at the time of shooting and performing edge enhancement based on the estimated PSF. . Further, in Patent Document 2, an approximate solution of PSF is estimated from an image by the method described in Non-Patent Document 1, and image blurring and blurring are sharpened by deconvolution of the estimated approximate solution of PSF and an input image. Technology is disclosed.
しかしながら、特許文献1に開示された技術では、被写体の焦点ボケを示すPSFを推定できないため、焦点ボケを考慮した鮮鋭化ができない。また、特許文献2に開示された技術では、画像からPSFを推定することで、被写体の焦点ボケを鮮鋭化することが可能であるが、PSFの近似解を推定するため、推定誤差による弊害が生じる可能性がある。特に、デコンボリューション処理は、周波数空間上で行うため、ギブス現象等により弊害が顕著になる傾向がある。 However, since the technique disclosed in Patent Document 1 cannot estimate the PSF indicating the defocus of the subject, it cannot be sharpened in consideration of the defocus. Further, with the technique disclosed in Patent Document 2, it is possible to sharpen the subject's defocus by estimating the PSF from the image. However, since the approximate solution of the PSF is estimated, there is a problem caused by the estimation error. It can happen. In particular, since the deconvolution process is performed in the frequency space, there is a tendency that the harmful effect is prominent due to the Gibbs phenomenon or the like.
このような課題に鑑みて、本発明は、ボケやブレのある画像の鮮鋭化を可能にするとともに、推定したPSFの推定誤差による影響を低減可能な画像処理装置、画像処理方法、画像処理プログラム、および記憶媒体を提供することを目的とする。 In view of such a problem, the present invention enables an image processing apparatus, an image processing method, and an image processing program capable of sharpening an image with blurring or blurring and reducing the influence of an estimated PSF estimation error. And a storage medium.
本発明の一側面としての画像処理装置は、入力画像から被写体の情報を検出する検出部と、前記被写体の情報に基づいて点拡がり関数を推定する推定部と、前記入力画像のブレの状態に基づいて前記点拡がり関数を補正する補正部と、補正された前記点拡がり関数に基づいて前記入力画像にエッジ強調処理を行う処理部と、を有することを特徴とする。 An image processing apparatus according to one aspect of the present invention includes a detection unit that detects subject information from an input image, an estimation unit that estimates a point spread function based on the subject information, and a blurring state of the input image. And a correction unit that corrects the point spread function based on the correction and a processing unit that performs an edge enhancement process on the input image based on the corrected point spread function.
また、本発明の他の側面としての画像処理方法は、入力画像から被写体の情報を検出するステップと、前記被写体の情報に基づいて点拡がり関数を推定するステップと、前記入力画像のブレの状態に基づいて前記点拡がり関数を補正するステップと、補正された前記点拡がり関数に基づいて前記入力画像にエッジ強調処理を行うステップと、を有することを特徴とする。 An image processing method according to another aspect of the present invention includes a step of detecting subject information from an input image, a step of estimating a point spread function based on the subject information, and a blurring state of the input image. And a step of correcting the point spread function based on the above and a step of performing an edge enhancement process on the input image based on the corrected point spread function.
本発明によれば、ボケやブレのある画像の鮮鋭化を可能にするとともに、推定したPSFの推定誤差による影響を低減可能な画像処理装置、画像処理方法、画像処理プログラム、および記憶媒体を提供することができる。 According to the present invention, it is possible to provide an image processing device, an image processing method, an image processing program, and a storage medium that can sharpen an image with blurring or blurring and reduce the influence of an estimated PSF estimation error. can do.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In each figure, the same members are denoted by the same reference numerals, and redundant description is omitted.
図1は、本発明の実施形態に係るデジタルカメラのブロック図である。デジタルカメラは、光学系101、撮像素子102、A/D変換部103、画像処理部104、記録部105、制御部106、焦点検出部107、ブレ状態判断部108、操作部109、および表示部110を備える。 FIG. 1 is a block diagram of a digital camera according to an embodiment of the present invention. The digital camera includes an optical system 101, an image sensor 102, an A / D conversion unit 103, an image processing unit 104, a recording unit 105, a control unit 106, a focus detection unit 107, a shake state determination unit 108, an operation unit 109, and a display unit. 110.
光学系101は、フォーカスレンズ、絞り、およびシャッタを備える。光学系101は、撮影時にはフォーカスレンズを駆動し被写体のピント合わせを行い、絞りやシャッターを制御することで露光量を調節する。撮像素子102は、光学系101において結像された被写体像を光電変換によって電気信号に変換するCCDやCMOS等の光電変換素子である。A/D変換部103は、入力された電気信号をデジタル化し、画像処理部104に出力する。画像処理部104は、A/D変換部103から出力された信号に対して、同時化処理、ホワイトバランス補正処理、色変換処理、ガンマ処理、および鮮鋭化処理等を実行し、処理された信号を記録部105に出力する。また、画像処理部104は、主被写体検出処理を実行する。記録部105は、画像処理部104が出力した画像情報をJPEG等の画像形式に変換し、記録する。制御部106は、デジタルカメラ全体の動作制御を行う。制御部106は、例えば、撮影画像に基づいて所定の評価値を算出し、画像処理部104で行う画像処理のパラメータを決定する。焦点検出部107は、撮影時の被写体までの距離情報を取得し、距離マップを生成する。距離マップとは、撮影画像の画素単位での被写体までの距離情報を示す二次元配列である。ブレ状態判断部108は、カメラに搭載されている動きセンサを用いて撮影時のデジタルカメラのブレの方向と大きさを判断する。操作部109は、ユーザが操作指示を行う部分である。表示部110は、例えば、カメラ背面に設けられた液晶ディスプレイ等であり、撮影時の操作の補助を行うための画面や、記録部105に保存されている画像等を表示する。 The optical system 101 includes a focus lens, a diaphragm, and a shutter. The optical system 101 adjusts the amount of exposure by driving the focus lens to focus the subject at the time of shooting, and controlling the aperture and shutter. The imaging element 102 is a photoelectric conversion element such as a CCD or CMOS that converts an object image formed in the optical system 101 into an electric signal by photoelectric conversion. The A / D conversion unit 103 digitizes the input electrical signal and outputs it to the image processing unit 104. The image processing unit 104 performs a synchronization process, a white balance correction process, a color conversion process, a gamma process, a sharpening process, and the like on the signal output from the A / D conversion unit 103, and the processed signal Is output to the recording unit 105. In addition, the image processing unit 104 executes main subject detection processing. The recording unit 105 converts the image information output from the image processing unit 104 into an image format such as JPEG and records it. The control unit 106 controls the operation of the entire digital camera. For example, the control unit 106 calculates a predetermined evaluation value based on the photographed image, and determines parameters for image processing performed by the image processing unit 104. The focus detection unit 107 acquires distance information to the subject at the time of shooting and generates a distance map. The distance map is a two-dimensional array indicating distance information to the subject in pixel units of the captured image. The shake state determination unit 108 determines the direction and size of the shake of the digital camera at the time of shooting using a motion sensor mounted on the camera. The operation unit 109 is a part where the user gives an operation instruction. The display unit 110 is, for example, a liquid crystal display or the like provided on the back of the camera, and displays a screen for assisting an operation during shooting, an image stored in the recording unit 105, and the like.
図2を参照して、画像処理部104の詳細な説明を行う。図2は、画像処理部104のブロック図である。画像処理部104は、同時化処理部201、ホワイトバランス補正処理部202、および輝度・色信号生成部203を備える。また、画像処理部104は、色変換処理部204、色ガンマ処理部205、輝度ガンマ処理部206、色差信号生成部207、鮮鋭化処理部208、および主被写体検出部(検出部)209を備える。なお、本実施例の画像処理部104により実行される画像処理は、ソフトウエアおよびハードウエア上で動作するコンピュータプログラムとしての画像処理プログラムにしたがって実行される。画像処理プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録されていてもよい。 The image processing unit 104 will be described in detail with reference to FIG. FIG. 2 is a block diagram of the image processing unit 104. The image processing unit 104 includes a synchronization processing unit 201, a white balance correction processing unit 202, and a luminance / color signal generation unit 203. The image processing unit 104 includes a color conversion processing unit 204, a color gamma processing unit 205, a luminance gamma processing unit 206, a color difference signal generation unit 207, a sharpening processing unit 208, and a main subject detection unit (detection unit) 209. . Note that the image processing executed by the image processing unit 104 of the present embodiment is executed according to an image processing program as a computer program operating on software and hardware. The image processing program may be recorded on a computer-readable recording medium, for example.
同時化処理部201は、入力されたベイヤーRGBの画像データに対して同時化処理を行い、色信号R,G,Bを生成する。ホワイトバランス補正処理部202は、制御部106が算出したホワイトバランスゲイン値に基づいて同時化処理部201が生成した色信号RGBにゲインをかけてホワイトバランスを調整する。輝度・色信号生成部203は、ホワイトバランス補正処理部202によりホワイトバランスが調整された色信号RGBに基づいて輝度信号Yを生成する。輝度・色信号生成部203は、生成した輝度信号Yを輝度ガンマ処理部206に出力するとともに、色信号RGBを色変換処理部204に出力する。 The synchronization processing unit 201 performs synchronization processing on the input Bayer RGB image data to generate color signals R, G, and B. The white balance correction processing unit 202 adjusts the white balance by applying a gain to the color signal RGB generated by the synchronization processing unit 201 based on the white balance gain value calculated by the control unit 106. The luminance / color signal generation unit 203 generates a luminance signal Y based on the color signal RGB whose white balance has been adjusted by the white balance correction processing unit 202. The luminance / color signal generation unit 203 outputs the generated luminance signal Y to the luminance gamma processing unit 206 and outputs the color signal RGB to the color conversion processing unit 204.
色変換処理部204は、色信号RGBに対するマトリクス演算などにより、所望のカラーバランスに変換する。色ガンマ処理部205は、色信号RGBにガンマ補正を行う。色差信号生成部207は、色信号RGBからR−Y、B−Y信号を生成し、生成したR−Y、B−Y信号を記録部105に出力する。 The color conversion processing unit 204 converts the color signal RGB into a desired color balance by performing a matrix operation on the color signals RGB. The color gamma processing unit 205 performs gamma correction on the color signals RGB. The color difference signal generation unit 207 generates RY and BY signals from the color signal RGB, and outputs the generated RY and BY signals to the recording unit 105.
輝度ガンマ処理部206は、輝度信号Yに対してガンマ補正を行い、輝度信号Yを鮮鋭化処理部208および主被写体検出部209に出力する。鮮鋭化処理部208は、輝度ガンマ処理部206から入力された輝度信号Yに対して、鮮鋭化処理を実行する。鮮鋭化処理が施された輝度信号Yは、記録部105に出力され、記録される。主被写体検出部209は、輝度信号Yに基づいて主被写体の位置と大きさを検出する。主被写体とは、本実施例では、人物の顔を指すが、人体やその一部などでもよい。 The luminance gamma processing unit 206 performs gamma correction on the luminance signal Y and outputs the luminance signal Y to the sharpening processing unit 208 and the main subject detection unit 209. The sharpening processing unit 208 performs a sharpening process on the luminance signal Y input from the luminance gamma processing unit 206. The luminance signal Y subjected to the sharpening process is output to the recording unit 105 and recorded. The main subject detection unit 209 detects the position and size of the main subject based on the luminance signal Y. The main subject refers to the face of a person in this embodiment, but may be a human body or a part thereof.
図3および図4を参照して、本実施例の鮮鋭化処理部208について説明する。図3は、本実施例の鮮鋭化処理部208のブロック図である。図4は、鮮鋭化処理を示すフローチャートである。鮮鋭化処理部208は、局所領域抽出部301、PSF推定部(推定部)302、平滑化処理部(補正部)303、およびエッジ強調処理部(処理部)304を備える。 With reference to FIGS. 3 and 4, the sharpening processing unit 208 of the present embodiment will be described. FIG. 3 is a block diagram of the sharpening processing unit 208 of the present embodiment. FIG. 4 is a flowchart showing the sharpening process. The sharpening processing unit 208 includes a local region extraction unit 301, a PSF estimation unit (estimation unit) 302, a smoothing processing unit (correction unit) 303, and an edge enhancement processing unit (processing unit) 304.
ステップS401では、局所領域抽出部301は、鮮鋭化処理部208に入力された輝度信号Yと、主被写体の位置と大きさの情報を用いて、輝度信号Yから主被写体の輝度信号を抽出し、PSF推定部302に出力する。 In step S401, the local area extraction unit 301 extracts the luminance signal of the main subject from the luminance signal Y by using the luminance signal Y input to the sharpening processing unit 208 and the position and size information of the main subject. And output to the PSF estimation unit 302.
ステップS402では、PSF推定部302は、局所領域抽出部301から出力された輝度信号を用いて点拡がり関数(以下、PSFという)を推定し、推定したPSFを平滑化処理部303に出力する。 In step S <b> 402, the PSF estimation unit 302 estimates a point spread function (hereinafter referred to as PSF) using the luminance signal output from the local region extraction unit 301, and outputs the estimated PSF to the smoothing processing unit 303.
ここで、PSFの推定方法について説明する。PSF推定部302に入力された画像Bは、式(1)に示されるように、推定したいPSFを示すKと、ブレやボケのない画像(潜像)を示すLの畳み込み演算で表すことができる。
Here, the PSF estimation method will be described. The image B input to the PSF estimation unit 302 is expressed by a convolution operation of K indicating the PSF to be estimated and L indicating an image (latent image) without blurring or blurring, as shown in Expression (1). it can.
は、畳み込み演算を表す。 Represents a convolution operation.
PSFを示すKと潜像Lは未知数であるが、潜像Lの初期値を設定することで、暫定的なPSFの推定が可能である。暫定的なPSFを用いて暫定的な潜像Lの推定を行い、更に暫定的な潜像Lを用いて暫定的なPSFを推定する。このように、PSFと潜像Lの推定を反復し、更新を繰り返す。これにより、PSFと、潜像Lの推定精度を高め、一定の条件を満たしたPSFを、最終的なPSFとする。 Although K indicating PSF and the latent image L are unknown numbers, provisional PSF estimation is possible by setting an initial value of the latent image L. The provisional latent image L is estimated using the provisional PSF, and the provisional PSF is estimated using the provisional latent image L. In this way, the PSF and the latent image L are repeatedly estimated and updated. Thereby, the PSF and the estimation accuracy of the latent image L are improved, and a PSF that satisfies a certain condition is set as a final PSF.
PSFと潜像Lの具体的な推定方法は、式(1)の両辺の差を表す項を含むエネルギー関数を最小化することである。それぞれのエネルギー関数は、式(2)と式(3)で表される。式(2)と式(3)のσは、正則化項を表す。正則化項σの例として、画像およびPSFをベクトルとして扱ったときに要素の二乗和をとるL2ノルムなどがある。エネルギー関数の最小化の方法として、例えば共役勾配法を用いる方法がある。 A specific estimation method of the PSF and the latent image L is to minimize an energy function including a term representing a difference between both sides of the equation (1). Each energy function is represented by the formula (2) and the formula (3). In the equations (2) and (3), σ represents a regularization term. As an example of the regularization term σ, there is an L2 norm that takes the sum of squares of elements when an image and a PSF are handled as vectors. As a method for minimizing the energy function, for example, there is a method using a conjugate gradient method.
ステップS403では、平滑化処理部303は、ブレ状態判断部108が判断したブレの方向と大きさに基づいて、PSF推定部302が推定したPSFを平滑化する。主被写体に焦点ボケが生じ、かつ、ブレの大きさが小さい場合、平滑化処理部303は、ブレの方向に関係なく均等に平滑化を行う。また、主被写体にブレがある場合、平滑化処理部303は、ブレの方向へ伸びるように平滑化を行う。これにより、PSFの推定誤差の影響を効果的に低減し、エッジ強調処理部304において良好な鮮鋭化が可能となる。 In step S <b> 403, the smoothing processing unit 303 smoothes the PSF estimated by the PSF estimation unit 302 based on the blur direction and magnitude determined by the blur state determination unit 108. When the main subject is out of focus and the amount of blur is small, the smoothing processing unit 303 performs smoothing evenly regardless of the direction of blur. In addition, when the main subject has a blur, the smoothing processing unit 303 performs smoothing so as to extend in the blur direction. Thereby, the influence of the PSF estimation error can be effectively reduced, and the edge enhancement processing unit 304 can achieve good sharpening.
図5を参照して、PSFの平滑化方法について具体的に説明する。図5は、平滑化処理部303のブロック図である。平滑化処理部303は、PSF回転部501、水平方向ローパスフィルタ部502、垂直方向ローパスフィルタ部503、およびPSF逆回転部504を備える。 The PSF smoothing method will be described in detail with reference to FIG. FIG. 5 is a block diagram of the smoothing processing unit 303. The smoothing processing unit 303 includes a PSF rotation unit 501, a horizontal low-pass filter unit 502, a vertical low-pass filter unit 503, and a PSF reverse rotation unit 504.
PSF回転部501は、平滑化処理部303に入力されたPSFとブレ方向に基づいてPSFを回転させる。具体的には、PSF回転部501は、ブレ方向が水平になるようにPSFを回転させる。 The PSF rotation unit 501 rotates the PSF based on the PSF and blur direction input to the smoothing processing unit 303. Specifically, the PSF rotating unit 501 rotates the PSF so that the blur direction is horizontal.
水平方向ローパスフィルタ部502は、平滑化処理部303に入力されたブレの大きさに基づいて、PSF回転部501が回転させたPSFにローパスフィルタをかける。本実施例で用いるローパスフィルタは、例えば、タップ数をNとしたとき、式(4)に示されるように、タップ数が大きくなるほど平滑化量が多くなる。 The horizontal low-pass filter unit 502 applies a low-pass filter to the PSF rotated by the PSF rotation unit 501 based on the amount of blur input to the smoothing processing unit 303. For example, when the number of taps is N in the low-pass filter used in this embodiment, the amount of smoothing increases as the number of taps increases as shown in Expression (4).
ローパスフィルタのタップ数は、ブレの大きさが大きい程大きくなる。ただし、タップ数は、あらかじめ設定された最小値T_MINより大きい。 The number of taps of the low-pass filter increases as the blur magnitude increases. However, the number of taps is larger than a preset minimum value T_MIN.
垂直方向ローパスフィルタ部503は、水平方向ローパスフィルタ部502によりフィルタ処理されたPSFに、垂直方向へローパスフィルタをかける。タップ数は、T_MINとする。これにより、ブレ方向に対して、ブレ方向と直交する方向より多タップの平滑化フィルタを用いることでブレ方向に伸びる楕円のように平滑化が可能である。 The vertical low-pass filter unit 503 applies a low-pass filter to the PSF filtered by the horizontal low-pass filter unit 502 in the vertical direction. The number of taps is T_MIN. Thereby, smoothing is possible like an ellipse extending in the blur direction by using a multi-tap smoothing filter from the direction orthogonal to the blur direction.
PSF逆回転部504は、平滑化処理部303に入力されたブレ方向に基づいて、垂直方向ローパスフィルタ部503によりフィルタ処理されたPSFを回転させる。回転方向はPSF回転部501による回転方向と逆方向とし、PSF逆回転部504が出力するPSFの方向特性は平滑化処理部303に入力される前のPSFの方向特性と同じになる。PSF逆回転部504は、方向特性を戻したPSFをエッジ強調処理部304に出力する。 The PSF reverse rotation unit 504 rotates the PSF filtered by the vertical low-pass filter unit 503 based on the blur direction input to the smoothing processing unit 303. The rotation direction is opposite to the rotation direction by the PSF rotation unit 501, and the direction characteristic of the PSF output from the PSF reverse rotation unit 504 is the same as the direction characteristic of the PSF before being input to the smoothing processing unit 303. The PSF reverse rotation unit 504 outputs the PSF whose direction characteristics have been returned to the edge enhancement processing unit 304.
ステップS404では、エッジ強調処理部304は、平滑化処理部303で平滑化したPSF、焦点検出部107で取得した距離マップ、および主被写体検出部209で検出した主被写体の位置と大きさを用いて、輝度信号Yを鮮鋭化する。 In step S404, the edge enhancement processing unit 304 uses the PSF smoothed by the smoothing processing unit 303, the distance map acquired by the focus detection unit 107, and the position and size of the main subject detected by the main subject detection unit 209. Thus, the brightness signal Y is sharpened.
図6を参照して、エッジ強調処理について説明する。図6は、エッジ強調処理部304のブロック図である。エッジ強調処理部304は、畳み込み部601、強度算出部602、減算部603、乗算部604、および加算部605を備える。 The edge enhancement process will be described with reference to FIG. FIG. 6 is a block diagram of the edge enhancement processing unit 304. The edge enhancement processing unit 304 includes a convolution unit 601, an intensity calculation unit 602, a subtraction unit 603, a multiplication unit 604, and an addition unit 605.
畳み込み部601は、エッジ強調処理部304に入力された輝度信号Yを平滑化されたPSFと畳み込み演算し、算出された輝度信号Y’を減算部603に出力する。減算部603は、輝度信号Yと輝度信号Y’との差分信号Y−Y’を生成し、乗算部604に出力する。乗算部604は、差分信号Y−Y’と強度算出部602から出力された強度情報を乗算し、乗算した信号を加算部605に出力する。加算部605は、乗算部604で乗算された信号と輝度信号Yを足し合わせることでエッジ強調する。エッジ強調処理部304は、輝度信号Yと、平滑化されたPSFを畳み込むことで、ブレやボケの特性に基づいてボケを付与された輝度信号Y’との差分から高周波成分を抽出することで、ブレやボケの特性に合わせたエッジ強調信号を生成する。そのため、エッジ強調処理部304は、差分信号Y−Y’を輝度信号Yに加算することでブレやボケの特性に合わせたエッジ強調処理を実現することが可能となる。 The convolution unit 601 performs a convolution operation on the luminance signal Y input to the edge enhancement processing unit 304 and the smoothed PSF, and outputs the calculated luminance signal Y ′ to the subtraction unit 603. The subtraction unit 603 generates a difference signal Y−Y ′ between the luminance signal Y and the luminance signal Y ′, and outputs the difference signal Y−Y ′ to the multiplication unit 604. The multiplier 604 multiplies the difference signal Y-Y ′ by the intensity information output from the intensity calculator 602, and outputs the multiplied signal to the adder 605. The adder 605 performs edge enhancement by adding the signal multiplied by the multiplier 604 and the luminance signal Y together. The edge enhancement processing unit 304 extracts a high-frequency component from the difference between the luminance signal Y and the luminance signal Y ′ to which blur is applied based on the characteristics of blur and blur by convolving the smoothed PSF. Then, an edge emphasis signal that matches the characteristics of blur and blur is generated. Therefore, the edge enhancement processing unit 304 can realize edge enhancement processing that matches the characteristics of blur and blur by adding the difference signal Y−Y ′ to the luminance signal Y.
強度算出部602の処理について詳細に説明する。強度算出部602は、エッジ強調処理部304に入力された距離マップ、主被写体の位置とサイズの情報、および合焦領域の位置とサイズの情報を用いて強度情報を算出する。まず、強度算出部602は、距離マップを参照し、主被写体の距離平均D1と、注目領域の距離平均D2を算出する。次に、距離平均D1と距離平均D2との差分の絶対値D_absを算出し、絶対値D_absに基づいて強度情報を決定する。このとき、合焦被写体にエッジ強調処理を行うと画質劣化が生じる可能性があるので、絶対値D_absが合焦領域の平均距離Dpより大きい場合、図7に示されるように、強度は0とする。強度情報の最大値は、あらかじめ設定された値とする。 The processing of the intensity calculation unit 602 will be described in detail. The intensity calculator 602 calculates intensity information using the distance map, the main subject position and size information, and the focus area position and size information input to the edge enhancement processing unit 304. First, the intensity calculating unit 602 refers to the distance map and calculates the distance average D1 of the main subject and the distance average D2 of the attention area. Next, an absolute value D_abs of a difference between the distance average D1 and the distance average D2 is calculated, and intensity information is determined based on the absolute value D_abs. At this time, if edge enhancement processing is performed on the focused subject, image quality degradation may occur. Therefore, when the absolute value D_abs is larger than the average distance Dp of the focused region, the intensity is 0 as shown in FIG. To do. The maximum value of the intensity information is a preset value.
以上説明したように、本実施例の画像処理部104は、推定したPSFの推定誤差による影響を低減しつつ画像を鮮鋭化することが可能となる。 As described above, the image processing unit 104 according to the present exemplary embodiment can sharpen an image while reducing the influence of the estimated PSF estimation error.
実施例1では、鮮鋭化処理部208において平滑化処理部303を用いてPSFの推定誤差の影響を低減したが、本発明はこれに限定されない。図8は、本実施例の鮮鋭化処理部208のブロック図である。本実施例では、鮮鋭化処理部208は、平滑化処理部303の代わりにPSF強度変更部(補正部)801を備える。 In the first embodiment, the sharpening processing unit 208 uses the smoothing processing unit 303 to reduce the influence of the PSF estimation error, but the present invention is not limited to this. FIG. 8 is a block diagram of the sharpening processing unit 208 of the present embodiment. In this embodiment, the sharpening processing unit 208 includes a PSF intensity changing unit (correction unit) 801 instead of the smoothing processing unit 303.
図9を参照して、PSF強度変更部801について説明する。図9は、PSF強度変更部801のブロック図である。PSF強度変更部801は、ゲイン設定部901、ゲイン整形部902、および乗算部903を備える。PSF強度変更部801は、PSF推定部302で推定したPSFとブレ状態判断部108で判断したブレの方向と大きさに基づいて、PSFにゲイン処理を行い、強度を変更する。強度を変更されたPSFは、エッジ強調処理部304に出力される。 The PSF intensity changing unit 801 will be described with reference to FIG. FIG. 9 is a block diagram of the PSF intensity changing unit 801. The PSF intensity changing unit 801 includes a gain setting unit 901, a gain shaping unit 902, and a multiplication unit 903. The PSF intensity changing unit 801 performs gain processing on the PSF based on the PSF estimated by the PSF estimating unit 302 and the blur direction and magnitude determined by the blur state determining unit 108 to change the intensity. The PSF whose intensity has been changed is output to the edge enhancement processing unit 304.
ゲイン設定部901は、PSF推定部302から出力されたPSFに基づいて0.0〜1.0のゲインを設定する。ゲインは2次元のPSFにかけるため、2次元で表現される。図10(a)は、ゲイン設定部901のゲイン特性図である。横軸がPSFの中心からの距離を示し、縦軸がゲインを示す。図10(a)に示されるように、中心からの距離が大きいほどPSFにかけるゲインは低くなり、あらかじめ設定された閾値Thを超えるとゲインは0になる。これにより円型に広がるゲインが設定でき、設定されたゲインはゲイン整形部902に出力される。 The gain setting unit 901 sets a gain of 0.0 to 1.0 based on the PSF output from the PSF estimation unit 302. Since the gain is applied to the two-dimensional PSF, it is expressed in two dimensions. FIG. 10A is a gain characteristic diagram of the gain setting unit 901. The horizontal axis indicates the distance from the center of the PSF, and the vertical axis indicates the gain. As shown in FIG. 10A, the greater the distance from the center, the lower the gain applied to the PSF, and the gain becomes 0 when a preset threshold Th is exceeded. Thereby, a gain spreading in a circular shape can be set, and the set gain is output to the gain shaping unit 902.
ゲイン整形部902は、ゲイン設定部901から出力されたゲインと、ブレ状態判断部108から出力されたブレの方向を用いて整形を行う。具体的には、ゲイン整形部902は、ブレの方向のゲインがブレの方向に直交する方向のゲインよりも高くなるように、ブレの方向に直交する方向へ0〜1のゲインをかけて整形する。図10(b)は、ゲイン整形部902のゲイン特性図である。横軸がPSFの中心を通り、ブレの方向へ伸びる直線との距離を示し、縦軸がゲインを示す。図10(b)に示されるように、ブレの方方向に直交する方向の距離が大きいほどゲインが低くなり、あらかじめ設定された閾値Th_minを超えるとゲインは0になる。閾値Th_minは、閾値Thより小さくなるように設定される。その結果、ブレの方向のゲイン強度がブレの方向に直交する方向のゲインよりも高くなる。設定されたゲインは、乗算部903に出力される。 The gain shaping unit 902 performs shaping using the gain output from the gain setting unit 901 and the blur direction output from the blur state determination unit 108. Specifically, the gain shaping unit 902 performs shaping by multiplying a gain of 0 to 1 in a direction orthogonal to the blur direction so that the gain in the blur direction is higher than the gain in the direction orthogonal to the blur direction. To do. FIG. 10B is a gain characteristic diagram of the gain shaping unit 902. The horizontal axis indicates the distance from the straight line passing through the center of the PSF and extending in the blur direction, and the vertical axis indicates the gain. As shown in FIG. 10B, the gain decreases as the distance in the direction orthogonal to the blur direction increases, and the gain becomes 0 when a preset threshold value Th_min is exceeded. The threshold value Th_min is set to be smaller than the threshold value Th. As a result, the gain intensity in the blur direction becomes higher than the gain in the direction orthogonal to the blur direction. The set gain is output to the multiplier 903.
乗算部903は、PSF強度変更部801に入力されたPSFとゲイン整形部902から出力されたゲインを乗算し、PSFの強度を変更する。 Multiplication section 903 multiplies the PSF input to PSF intensity changing section 801 by the gain output from gain shaping section 902 to change the intensity of PSF.
以上説明したように、本実施例の画像処理部104は、推定したPSFの推定誤差による影響を低減しつつ画像を鮮鋭化することが可能となる。 As described above, the image processing unit 104 according to the present exemplary embodiment can sharpen an image while reducing the influence of the estimated PSF estimation error.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
104 画像処理部(画像処理装置)
209 主被写体検出部(検出部)
302 PSF推定部(推定部)
303 平滑化処理部(補正部)
304 エッジ強調処理部(処理部)
801 PSF強度変更部(補正部)
104 Image processing unit (image processing apparatus)
209 Main subject detection unit (detection unit)
302 PSF estimation unit (estimation unit)
303 Smoothing processing unit (correction unit)
304 Edge enhancement processing unit (processing unit)
801 PSF intensity change unit (correction unit)
Claims (10)
前記被写体の情報に基づいて点拡がり関数を推定する推定部と、
前記入力画像のブレの状態に基づいて前記点拡がり関数を補正する補正部と、
補正された前記点拡がり関数に基づいて前記入力画像にエッジ強調処理を行う処理部と、を有することを特徴とする画像処理装置。 A detection unit for detecting subject information from the input image;
An estimation unit that estimates a point spread function based on the subject information;
A correction unit that corrects the point spread function based on a blurring state of the input image;
An image processing apparatus comprising: a processing unit that performs edge enhancement processing on the input image based on the corrected point spread function.
前記被写体の情報に基づいて点拡がり関数を推定するステップと、
前記入力画像のブレの状態に基づいて前記点拡がり関数を補正するステップと、
補正された前記点拡がり関数に基づいて前記入力画像にエッジ強調処理を行うステップと、を有することを特徴とする画像処理方法。 Detecting subject information from the input image;
Estimating a point spread function based on the subject information;
Correcting the point spread function based on a blurring state of the input image;
Performing an edge enhancement process on the input image based on the corrected point spread function.
A computer-readable recording medium for recording the image processing program according to claim 9.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029629A JP2017146882A (en) | 2016-02-19 | 2016-02-19 | Image processing apparatus, image processing method, image processing program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016029629A JP2017146882A (en) | 2016-02-19 | 2016-02-19 | Image processing apparatus, image processing method, image processing program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017146882A true JP2017146882A (en) | 2017-08-24 |
JP2017146882A5 JP2017146882A5 (en) | 2019-03-14 |
Family
ID=59683225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016029629A Pending JP2017146882A (en) | 2016-02-19 | 2016-02-19 | Image processing apparatus, image processing method, image processing program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017146882A (en) |
-
2016
- 2016-02-19 JP JP2016029629A patent/JP2017146882A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5709911B2 (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
US8767085B2 (en) | Image processing methods and apparatuses to obtain a narrow depth-of-field image | |
WO2018176925A1 (en) | Hdr image generation method and apparatus | |
US8340417B2 (en) | Image processing method and apparatus for correcting skin color | |
WO2011145296A1 (en) | Image capturing apparatus, image processing apparatus, image processing method, and image processing program | |
JP4454657B2 (en) | Blur correction apparatus and method, and imaging apparatus | |
US9727984B2 (en) | Electronic device and method for processing an image | |
JP5988068B2 (en) | System and method for performing depth estimation by utilizing an adaptive kernel | |
KR101577918B1 (en) | Local area contrast enhancement | |
TWI538506B (en) | Image processing apparatus, information processing method and computer-readble storage medium | |
JP2010020758A5 (en) | ||
JPWO2017169039A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
WO2020107995A1 (en) | Imaging method and apparatus, electronic device, and computer readable storage medium | |
JP4958806B2 (en) | Blur detection device, blur correction device, and imaging device | |
US9007471B2 (en) | Digital photographing apparatus, method for controlling the same, and computer-readable medium | |
JP2009088935A (en) | Image recording apparatus, image correcting apparatus, and image pickup apparatus | |
JP6514504B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM | |
JP6739955B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2016184888A (en) | Image processing apparatus, imaging device, image processing method and computer program | |
JP2017146882A (en) | Image processing apparatus, image processing method, image processing program, and recording medium | |
JP2015109681A (en) | Image processing method, image processing apparatus, image processing program, and imaging apparatus | |
JP5863236B2 (en) | Image processing apparatus and image processing method | |
KR20100121944A (en) | Image processing method and apparatus, and digital photographing apparatus using thereof | |
JP2014110624A (en) | Image processing device, image processing method, and program | |
JP6221330B2 (en) | Image processing program, image processing apparatus, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200121 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200825 |