JP6873815B2 - Image processing equipment, imaging equipment, image processing methods, programs, and storage media - Google Patents

Image processing equipment, imaging equipment, image processing methods, programs, and storage media Download PDF

Info

Publication number
JP6873815B2
JP6873815B2 JP2017095084A JP2017095084A JP6873815B2 JP 6873815 B2 JP6873815 B2 JP 6873815B2 JP 2017095084 A JP2017095084 A JP 2017095084A JP 2017095084 A JP2017095084 A JP 2017095084A JP 6873815 B2 JP6873815 B2 JP 6873815B2
Authority
JP
Japan
Prior art keywords
image
region
unit
deterioration
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017095084A
Other languages
Japanese (ja)
Other versions
JP2018191261A (en
Inventor
哲也 秦
哲也 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017095084A priority Critical patent/JP6873815B2/en
Publication of JP2018191261A publication Critical patent/JP2018191261A/en
Application granted granted Critical
Publication of JP6873815B2 publication Critical patent/JP6873815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影画像のブレやボケなどの劣化を補正する画像処理装置に関する。 The present invention relates to an image processing device that corrects deterioration such as blurring and blurring of a captured image.

従来から、撮影画像に含まれる被写体のブレやボケの特性を表す点拡がり関数(PSF)を推定し、推定したPSFに基づいて撮影画像を補正することにより、画像のブレやボケなどの劣化を補正する技術が知られている。例えば特許文献1には、画像を複数の小領域に分割して複数の小領域のそれぞれに関してPSFを推定し、類似した特性のPSFを有する小領域をグループ化して画像のボケを補正する方法が開示されている。 Conventionally, the point spread function (PSF), which represents the characteristics of the subject blur and blur included in the captured image, is estimated, and the captured image is corrected based on the estimated PSF to prevent deterioration of the image such as blur and blur. The technique of correction is known. For example, Patent Document 1 describes a method in which an image is divided into a plurality of small regions, PSFs are estimated for each of the plurality of small regions, and small regions having PSFs having similar characteristics are grouped to correct blurring of the image. It is disclosed.

特開2012−155456号公報Japanese Unexamined Patent Publication No. 2012-155456

ところで、画像内にボケの特性などの劣化特性が互いに異なる被写体領域が存在する場合、PSFに基づく補正を画像内で一様に適用すると、領域によっては誤った補正を行うことになり、リンギングなどの弊害が生じることがある。この場合、特許文献1の方法を用いると、それぞれの被写体領域に対して、その被写体領域の劣化特性に応じた適切な補正を実行することができる。しかしながら、特許文献1の方法では、画像を分割した複数の小領域のそれぞれに関してPSFを推定することが必要であり、PSF推定処理の演算量が増加する。 By the way, when there are subject areas in the image that have different deterioration characteristics such as blurring characteristics, if the correction based on PSF is applied uniformly in the image, the correction will be erroneous depending on the area, such as ringing. May cause harmful effects. In this case, if the method of Patent Document 1 is used, it is possible to perform appropriate correction for each subject area according to the deterioration characteristics of the subject area. However, in the method of Patent Document 1, it is necessary to estimate the PSF for each of the plurality of small regions in which the image is divided, which increases the amount of calculation of the PSF estimation process.

そこで本発明は、少ない演算量で、劣化特性が領域ごとに異なる画像を適切に補正することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing device, an imaging device, an image processing method, a program, and a storage medium capable of appropriately correcting an image having different deterioration characteristics for each region with a small amount of calculation. And.

本発明の一側面としての画像処理装置は、画像の部分領域としての推定領域から点拡がり関数を推定する推定部と、前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成する補正処理部と、前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定する劣化特性推定部と、前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成する合成部とを有し、前記合成部は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおける前記合成比率を算出するThe image processing apparatus according to one aspect of the present invention, by performing the estimation tough from estimated area as partial area of the image you estimate the point spread function, the correction process of the image based on the point spread function A correction processing unit that generates a corrected image, a deterioration characteristic estimation unit that estimates the deterioration characteristics of the image for each of a plurality of regions of the image different from the estimation regions, and a composite ratio based on the deterioration characteristics. and a synthesizing unit synthesizing the corrected image and the image, the combining unit, based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of the image , The synthesis ratio in each of the plurality of regions is calculated .

本発明の他の側面としての撮像装置は、撮像光学系を介して形成された光学像を光電変換して画像信号を出力する撮像部と、前記画像処理装置とを有する。 An imaging device as another aspect of the present invention includes an imaging unit that photoelectrically converts an optical image formed via an imaging optical system and outputs an image signal, and the image processing device.

本発明の他の側面としての画像処理方法は、画像の部分領域としての推定領域から点拡がり関数を推定するステップと、前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成するステップと、前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定するステップと、前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成するステップとを有し、前記合成比率は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおいて算出されるThe image processing method as another aspect of the present invention, the corrected image by performing the steps of estimating a point spread function from the estimated region of the partial region of the image, the correction process of the image based on the point spread function The image and the corrected image are combined by a step of generating the image, a step of estimating the deterioration characteristic of the image for each of a plurality of regions of the image different from the estimation region, and a composition ratio based on the deterioration characteristic. and a step of the synthesis ratio, based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of the image, in each of the plurality of regions It is calculated .

本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。
A program as another aspect of the present invention causes a computer to execute the image processing method.

本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。 A storage medium as another aspect of the present invention stores the program.

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the present invention will be described in the following embodiments.

本発明によれば、少ない演算量で、劣化特性が領域ごとに異なる画像を適切に補正することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, a program, and a storage medium capable of appropriately correcting an image having different deterioration characteristics for each region with a small amount of calculation. it can.

各実施形態におけるデジタルカメラのブロック図である。It is a block diagram of the digital camera in each embodiment. 第1の実施形態における画像処理部のブロック図である。It is a block diagram of the image processing part in 1st Embodiment. 第1の実施形態における画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in 1st Embodiment. 第1の実施形態における特性推定処理および合成比率算出処理の説明図である。It is explanatory drawing of the characteristic estimation processing and synthesis ratio calculation processing in 1st Embodiment. 第2の実施形態における画像処理部のブロック図である。It is a block diagram of the image processing part in 2nd Embodiment. 第2の実施形態における画像処理方法を示すフローチャートである。It is a flowchart which shows the image processing method in 2nd Embodiment. 第2の実施形態におけるPSFの選択方法の説明図である。It is explanatory drawing of the selection method of PSF in 2nd Embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
まず、図1を参照して、本発明の第1の実施形態おける撮像装置の構成について説明する。図1は、本実施形態における撮像装置(デジタルカメラ)100のブロック図である。本実施形態は、撮影画像に適用する補正処理、より具体的には画像信号からPSFを推定し、推定したPSFに基づいて画像のボケやブレを補正する方法に関する。従って、撮像装置100における撮影や記録に関する構成は必須ではない。なお本実施形態において、「ボケ」は画像の合焦ずれによるボケ(焦点ボケ)を含み、「ブレ」は手ブレや被写体ブレなどを含むが、これらに限定されるものではない。
(First Embodiment)
First, the configuration of the image pickup apparatus in the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram of an imaging device (digital camera) 100 according to the present embodiment. The present embodiment relates to a correction process applied to a captured image, more specifically, a method of estimating a PSF from an image signal and correcting blurring or blurring of the image based on the estimated PSF. Therefore, the configuration related to photography and recording in the image pickup apparatus 100 is not essential. In the present embodiment, "blurring" includes blurring (focus blurring) due to out-of-focus of the image, and "blurring" includes, but is not limited to, camera shake and subject blurring.

図1において、レンズ群101は、フォーカスレンズを含むズームレンズ(撮像光学系)である。本実施形態の撮像装置100は、撮像光学系と撮像装置本体とが一体的に構成されている。ただし本実施形態は、これに限定されるものではなく、撮像装置本体と、撮像装置本体に着脱可能な撮像光学系(交換レンズ)とを備えた撮像システムにも適用可能である。 In FIG. 1, the lens group 101 is a zoom lens (imaging optical system) including a focus lens. In the image pickup device 100 of the present embodiment, the image pickup optical system and the image pickup device main body are integrally configured. However, the present embodiment is not limited to this, and can be applied to an imaging system including an imaging device main body and an imaging optical system (interchangeable lens) that can be attached to and detached from the imaging device main body.

シャッタ102は、絞り機能を有し、レンズ群101と撮像部103との間に設けられている。撮像部103は、CMOSセンサやCCDセンサなどの撮像素子を有し、レンズ群101を介して撮像面に形成される光学像を画素単位で電気信号(アナログ信号)に変換する(光電変換を行う)。A/D変換器104は、撮像部103から出力されるアナログ信号をデジタル信号(画像データ)に変換する。 The shutter 102 has an aperture function and is provided between the lens group 101 and the imaging unit 103. The image pickup unit 103 has an image pickup element such as a CMOS sensor or a CCD sensor, and converts an optical image formed on the image pickup surface via the lens group 101 into an electric signal (analog signal) in pixel units (photoelectric conversion). ). The A / D converter 104 converts the analog signal output from the imaging unit 103 into a digital signal (image data).

画像処理部(画像処理装置)105は、A/D変換器104から出力される画像データに対し、色補間(デモザイク)、ホワイトバランス調整、γ補正などの各種の画像処理を行う。また画像処理部105は、撮影画像のブレやボケを補正する補正処理を行う。画像メモリ106は、画像データを一時的に記憶する。メモリ制御部107は、画像メモリ106の読み書きを制御する。D/A変換器108は、画像データをアナログ信号に変換する。表示部109は、LCDや有機ELディスプレイなどの表示装置を有し、各種GUI、ライブビュー画像、および、記録媒体112から読み出して再生した画像などを表示する。記録媒体112は、半導体メモリカードやカード型ハードディスクなどの着脱可能な記録手段である。コーデック部110は、画像メモリ106に記憶されている画像データを記録媒体112に記録するために予め定められた方法で符号化し、または、画像ファイルに含まれる符号化画像データを例えば表示のために復号する。インタフェース(I/F)111は、記録媒体112を撮像装置100と機械的かつ電気的に接続する。 The image processing unit (image processing device) 105 performs various image processing such as color interpolation (demosaic), white balance adjustment, and γ correction on the image data output from the A / D converter 104. Further, the image processing unit 105 performs correction processing for correcting blurring and blurring of the captured image. The image memory 106 temporarily stores image data. The memory control unit 107 controls reading and writing of the image memory 106. The D / A converter 108 converts the image data into an analog signal. The display unit 109 has a display device such as an LCD or an organic EL display, and displays various GUIs, live view images, images read from the recording medium 112, and the like. The recording medium 112 is a removable recording means such as a semiconductor memory card or a card-type hard disk. The codec unit 110 encodes the image data stored in the image memory 106 by a predetermined method for recording on the recording medium 112, or displays the coded image data included in the image file, for example, for display. Decrypt. The interface (I / F) 111 mechanically and electrically connects the recording medium 112 to the image pickup apparatus 100.

システム制御部50は、CPUやMPUなどのプログラマブルなプロセッサを有する。システム制御部50は、例えば不揮発性メモリ121や内蔵する不揮発性メモリに記憶されたプログラムを実行して必要なブロックや回路を制御することにより、撮像装置100の各機能を実現する。顔検出部113は、撮影画像に含まれる顔領域を検出し、検出された顔領域のそれぞれについて、位置、大きさ、および、信頼度などの顔情報を求める。なお顔検出部113は、ニューラルネットワークに代表される学習を用いた手法や、目、鼻、口などの特徴部位を画像領域からテンプレートマッチングを用い探し出して類似度が高い場合に顔とみなす手法など、任意の方法を用いて顔領域を検出することができる。 The system control unit 50 has a programmable processor such as a CPU and an MPU. The system control unit 50 realizes each function of the image pickup apparatus 100 by, for example, executing a program stored in the non-volatile memory 121 or the built-in non-volatile memory to control necessary blocks and circuits. The face detection unit 113 detects a face region included in the captured image, and obtains face information such as position, size, and reliability for each of the detected face regions. The face detection unit 113 uses learning represented by a neural network, searches for characteristic parts such as eyes, nose, and mouth from an image area using template matching, and regards the face as a face when the degree of similarity is high. , The face region can be detected using any method.

動きベクトル検出部124は、画像処理部105から出力された画像信号と、画像メモリ106に記録されている、直前に撮影された画像の画像信号とを用いて、撮影画像の各領域における動きベクトルを検出(算出)する。動きベクトルの算出方法は、公知の技術を用いることができる。動きベクトルは、例えば、次のように算出することができる。まず、撮影画像を所定の大きさのブロックに分割する。続いて、テンプレートマッチング法を用いて、撮影画像の各ブロックに対応する領域を、直前に撮影された画像内から検出する。そして、対応する領域同士を結ぶベクトルを、各ブロックにおける動きベクトルとする。 The motion vector detection unit 124 uses the image signal output from the image processing unit 105 and the image signal of the immediately captured image recorded in the image memory 106 to generate a motion vector in each region of the captured image. Is detected (calculated). As a method for calculating the motion vector, a known technique can be used. The motion vector can be calculated, for example, as follows. First, the captured image is divided into blocks of a predetermined size. Subsequently, the area corresponding to each block of the captured image is detected from the image captured immediately before by using the template matching method. Then, the vector connecting the corresponding regions is used as the motion vector in each block.

操作部120は、ユーザが撮像装置100に各種の指示を入力するためのボタンやスイッチなどの入力デバイスである。表示部109がタッチディスプレイである場合、操作部120はタッチパネルを含む。また操作部120は、音声入力や視線入力など、非接触で指示を入力するタイプの入力デバイスを含んでもよい。不揮発性メモリ121は、電気的に消去・記録可能なEEPROMなどである。不揮発性メモリ121は、各種の設定値やGUIデータを記憶する。また不揮発性メモリ121は、システム制御部50がMPUやCPUである場合、システム制御部50が実行するためのプログラムを記憶する。システムメモリ122は、システム制御部50の動作用の定数や変数、および、不揮発性メモリ121から読み出されたプログラムなどを展開するために用いられる。測距部123は、撮像装置100から被写体までの距離を測定する距離測定手段である。 The operation unit 120 is an input device such as a button or a switch for the user to input various instructions to the image pickup device 100. When the display unit 109 is a touch display, the operation unit 120 includes a touch panel. Further, the operation unit 120 may include an input device of a type such as voice input or line-of-sight input that inputs instructions in a non-contact manner. The non-volatile memory 121 is an EEPROM or the like that can be electrically erased and recorded. The non-volatile memory 121 stores various setting values and GUI data. Further, the non-volatile memory 121 stores a program for execution by the system control unit 50 when the system control unit 50 is an MPU or a CPU. The system memory 122 is used to develop constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 121, and the like. The distance measuring unit 123 is a distance measuring means for measuring the distance from the imaging device 100 to the subject.

次に、撮像装置100による被写体撮影の際の基本動作について説明する。撮像部103は、シャッタ102が開いた状態で、レンズ群101を介して撮像面に形成された被写体像(光学像)を光電変換し、アナログ画像信号としてA/D変換器104へ出力する。A/D変換器104は、撮像部103から出力されるアナログ画像信号をデジタル画像信号(画像データ)に変換し、画像データを画像処理部105に出力する。 Next, the basic operation when the subject is photographed by the imaging device 100 will be described. With the shutter 102 open, the imaging unit 103 photoelectrically converts a subject image (optical image) formed on the imaging surface via the lens group 101 and outputs the analog image signal to the A / D converter 104. The A / D converter 104 converts the analog image signal output from the imaging unit 103 into a digital image signal (image data), and outputs the image data to the image processing unit 105.

画像処理部105は、A/D変換器104からの画像データ、または、メモリ制御部107からの画像データに対して、同時化処理(デモザイク処理)やγ補正などの各種画像処理を行う。また画像処理部105は、撮影で得られた画像データを用いて輝度やコントラストなどに関する所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が焦点調節や露光制御を行う。焦点調節や露出制御には、顔検出部113や測距部123の検出結果を用いてもよい。本実施形態の撮像装置100は、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、および、AE(自動露出)処理を行う。また画像処理部105は、後述する方法を用いて、PSFに基づくブレやボケの補正処理を行う。 The image processing unit 105 performs various image processing such as simultaneous processing (demosaic processing) and γ correction on the image data from the A / D converter 104 or the image data from the memory control unit 107. Further, the image processing unit 105 performs predetermined arithmetic processing related to brightness, contrast, and the like using the image data obtained by photographing, and the system control unit 50 performs focus adjustment and exposure control based on the obtained arithmetic result. The detection results of the face detection unit 113 and the distance measuring unit 123 may be used for focus adjustment and exposure control. The image pickup apparatus 100 of the present embodiment performs TTL (through-the-lens) AF (autofocus) processing and AE (autoexposure) processing. Further, the image processing unit 105 performs blur and blur correction processing based on PSF by using a method described later.

画像処理部105から出力された画像データは、メモリ制御部107を介して画像メモリ106に書き込まれる。画像メモリ106は、撮像部103から出力された画像データや、表示部109に表示するための画像データを格納する。D/A変換器108は、画像メモリ106に格納されている画像表示用のデータをアナログ信号に変換して表示部109に供給する。表示部109は、LCDなどの表示装置にD/A変換器108からのアナログ信号に応じた表示を行う。コーデック部110は、画像メモリ106に記録された画像データをJPEGやMPEGなどの規格に基づき符号化する。システム制御部50は符号化した画像データに対して予め定められたヘッダなどを付与して画像ファイルを形成し、インタフェース111を介して記録媒体112に記録する。 The image data output from the image processing unit 105 is written to the image memory 106 via the memory control unit 107. The image memory 106 stores the image data output from the imaging unit 103 and the image data to be displayed on the display unit 109. The D / A converter 108 converts the image display data stored in the image memory 106 into an analog signal and supplies it to the display unit 109. The display unit 109 displays on a display device such as an LCD according to the analog signal from the D / A converter 108. The codec unit 110 encodes the image data recorded in the image memory 106 based on a standard such as JPEG or MPEG. The system control unit 50 adds a predetermined header or the like to the encoded image data to form an image file, and records the encoded image data on the recording medium 112 via the interface 111.

撮像装置100は、撮影スタンバイ状態において動画撮影を行い、撮影動画を表示部109に表示し続けることにより表示部109を電子ビューファインダ(EVF)として機能させることができる。この場合、シャッタ102は開いた状態であり、撮像部103のいわゆる電子シャッタを用いて例えば30フレーム/秒の撮影を行う。そして、操作部120に含まれるシャッタボタンが半押しされると、システム制御部50は前述のAF制御およびAE制御を行う。また、操作部120に含まれるシャッタボタンが全押しされると、システム制御部50は本撮影により記録用の静止画撮影を実行し、記録媒体112に撮影画像を記録する。また、動画撮影ボタンなどにより動画撮影が指示された場合、システム制御部50は記録媒体112への動画記録を開始する。 The image pickup apparatus 100 can make the display unit 109 function as an electronic viewfinder (EVF) by taking a moving image in the shooting standby state and continuing to display the shot moving image on the display unit 109. In this case, the shutter 102 is in the open state, and the so-called electronic shutter of the imaging unit 103 is used to take a picture at, for example, 30 frames / second. Then, when the shutter button included in the operation unit 120 is pressed halfway, the system control unit 50 performs the above-mentioned AF control and AE control. When the shutter button included in the operation unit 120 is fully pressed, the system control unit 50 executes still image shooting for recording by the main shooting and records the shot image on the recording medium 112. Further, when the moving image shooting is instructed by the moving image shooting button or the like, the system control unit 50 starts recording the moving image on the recording medium 112.

次に、図2および図3を参照して、画像処理部105によるブレやボケの補正処理に関する機能について説明する。図2は、画像処理部105のブロック図である。図3は、画像処理部105による補正処理(本実施形態の画像処理方法)のフローチャートである。図3の各ステップは、画像処理部105の各部により実行される。 Next, with reference to FIGS. 2 and 3, a function related to blur and blur correction processing by the image processing unit 105 will be described. FIG. 2 is a block diagram of the image processing unit 105. FIG. 3 is a flowchart of correction processing (image processing method of the present embodiment) by the image processing unit 105. Each step in FIG. 3 is executed by each part of the image processing unit 105.

なお、図2に示される機能ブロックの少なくとも一つは、マイクロプロセッサとソフトウエアとの組み合わせより実現される。または、機能ブロックの少なくとも一つは、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)のようなハードウエアにより実現されてもよい。PLDは、FPGA(Field−Programmable Gate Array)、PLA(Programmable Logic Array)などを含むが、これに限定されるものではない。 At least one of the functional blocks shown in FIG. 2 is realized by a combination of a microprocessor and software. Alternatively, at least one of the functional blocks may be realized by hardware such as an ASIC (Application Specific Integrated Circuit) or a PLD (Programmable Logic Device). PLD includes, but is not limited to, FPGA (Field-Programmable Gate Array), PLA (Programmable Logic Array), and the like.

ブレやボケの補正処理は、ブレやボケの補正処理の実行が指定された状態で撮影された画像や、メニュー画面などからブレやボケの補正処理の実施が指示された、例えば記録媒体112に記録済の画像に対して実施することができる。なお、ブレやボケの補正処理において必要な撮影時の情報は、不揮発性メモリ121またはシステムメモリ122から読み出し、または、画像ファイルのヘッダやメタデータなどから取得することができる。 The blur or blur correction process is performed on an image taken with the execution of the blur or blur correction process specified, or on a recording medium 112 instructed to perform the blur or blur correction process from a menu screen or the like. This can be done for recorded images. It should be noted that the information at the time of shooting necessary for the blur and blur correction processing can be read from the non-volatile memory 121 or the system memory 122, or can be acquired from the header or metadata of the image file.

図2に示されるように、画像処理部105は、画像信号生成部201、PSF推定領域抽出部202、PSF推定部203、画像補正部204、画像合成部205、劣化特性推定部206、および、合成比率算出部207を有する。本実施形態において、画像補正部204、画像合成部205、および、合成比率算出部207により補正処理部が構成される。 As shown in FIG. 2, the image processing unit 105 includes an image signal generation unit 201, a PSF estimation area extraction unit 202, a PSF estimation unit 203, an image correction unit 204, an image composition unit 205, a deterioration characteristic estimation unit 206, and It has a synthesis ratio calculation unit 207. In the present embodiment, the image correction unit 204, the image composition unit 205, and the composition ratio calculation unit 207 constitute a correction processing unit.

まず、図3のステップS301において、画像信号生成部201は、画素あたり一色(R、G、Bのいずれか一つ)の情報を有する画像信号に対して同時化処理(デモザイク処理)を行い、各画素が三色(RGB)の情報を有する画像信号を生成する。画像信号生成部201は、生成した画像信号を、PSF推定領域抽出部202、画像補正部204、および、画像合成部205へ出力する。 First, in step S301 of FIG. 3, the image signal generation unit 201 performs simultaneous processing (demosaic processing) on an image signal having information of one color (any one of R, G, and B) per pixel. Each pixel generates an image signal having information of three colors (RGB). The image signal generation unit 201 outputs the generated image signal to the PSF estimation area extraction unit 202, the image correction unit 204, and the image composition unit 205.

続いてステップS302において、PSF推定領域抽出部202は、画像信号生成部201から出力された画像信号(入力画像)の中から、PSF推定処理に用いる部分領域としてPSF推定領域を選択する。そしてPSF推定領域抽出部202は、入力画像から、選択したPSF推定領域の画像信号を抽出する。PSF推定領域の選択方法として、入力画像中の主被写体領域を検出して、その被写体検出領域を選択する方法を用いることができる。または、操作部120を介してユーザにPSF推定領域を指定させるようにしてもよい。PSF推定領域抽出部202は、抽出した画像信号をPSF推定部203へ出力する。またPSF推定領域抽出部202は、選択したPSF推定領域の位置に関する情報を合成比率算出部207へ出力する。 Subsequently, in step S302, the PSF estimation area extraction unit 202 selects a PSF estimation area as a partial area to be used for the PSF estimation process from the image signals (input images) output from the image signal generation unit 201. Then, the PSF estimation area extraction unit 202 extracts the image signal of the selected PSF estimation area from the input image. As a method of selecting the PSF estimation area, a method of detecting the main subject area in the input image and selecting the subject detection area can be used. Alternatively, the user may be made to specify the PSF estimation area via the operation unit 120. The PSF estimation area extraction unit 202 outputs the extracted image signal to the PSF estimation unit 203. Further, the PSF estimation area extraction unit 202 outputs information regarding the position of the selected PSF estimation area to the synthesis ratio calculation unit 207.

続いてステップS303において、PSF推定部203は、入力されたPSF推定領域の画像信号に基づいて、PSF推定領域におけるブレやボケに関する特性(劣化特性)を表すPSF(点拡がり関数)を推定する(PSF推定処理)。すなわちPSF推定部203は、画像の部分領域としてのPSF推定領域からPSFを推定する。そしてPSF推定部203は、推定したPSFに関する情報を画像補正部204へ出力する。本実施形態において、PSF推定処理は、公知の技術を用いることができる。以下、一例として、反復法を用いたPSF推定処理の概要を説明する。 Subsequently, in step S303, the PSF estimation unit 203 estimates the PSF (point spread function) representing the characteristics (deterioration characteristics) related to blurring and blurring in the PSF estimation region based on the input image signal in the PSF estimation region (point spread function). PSF estimation process). That is, the PSF estimation unit 203 estimates the PSF from the PSF estimation region as a partial region of the image. Then, the PSF estimation unit 203 outputs the information regarding the estimated PSF to the image correction unit 204. In the present embodiment, a known technique can be used for the PSF estimation process. Hereinafter, as an example, an outline of the PSF estimation process using the iterative method will be described.

撮影画像のうち、PSF推定領域の画像信号をB、推定する対象となるPSFをK、PSF推定領域におけるブレやボケの無い画像(潜像)をLとして、撮影画像のノイズを無視すると、以下の式(1)の関係が成り立つ。 Of the captured images, the image signal in the PSF estimation region is B, the PSF to be estimated is K, and the image (latent image) without blurring or blurring in the PSF estimation region is L, and the noise of the captured image is ignored. The relationship of Eq. (1) holds.

Figure 0006873815
Figure 0006873815

式(1)において、Convは畳み込み演算を表す。式(1)は、KとLの両方が未知数であるため、解析的に解くことはできない。そこで、次のような推定を行う。 In equation (1), Conv represents a convolution operation. Equation (1) cannot be solved analytically because both K and L are unknown. Therefore, the following estimation is performed.

まず、適当な潜像Lの初期値を定める。潜像Lの初期値としては、撮影画像に対してショックフィルタ等を用いてエッジ強調処理を施した画像を用いることができる。 First, an appropriate initial value of the latent image L is determined. As the initial value of the latent image L, an image obtained by subjecting the captured image to edge enhancement processing using a shock filter or the like can be used.

続いて、以下の式(2)で表されるエネルギー関数E(K)において、Lを固定、Kを未知数として、エネルギー関数E(K)を最小化するKを算出する。 Subsequently, in the energy function E (K) represented by the following equation (2), K is calculated by fixing L and setting K as an unknown number to minimize the energy function E (K).

Figure 0006873815
Figure 0006873815

式(2)において、σは正則化項を表し、ここではPSFの各要素の二乗和を取るL2ノルムを用いている。 In equation (2), σ represents a regularization term, and here the L2 norm that takes the sum of squares of each element of PSF is used.

続いて、算出したKを用いて、以下の式(3)で表されるエネルギー関数E(L)において、Kを固定、Lを未知数として、エネルギー関数E(L)を最小化するLを算出する。 Subsequently, using the calculated K, in the energy function E (L) represented by the following equation (3), K is fixed, L is an unknown variable, and L is calculated to minimize the energy function E (L). To do.

Figure 0006873815
Figure 0006873815

式(3)において、σは正則化項を表し、ここでは潜像Lの各画素値の二乗和を取るL2ノルムを用いている。 In the equation (3), σ represents a regularization term, and here, the L2 norm that takes the sum of squares of each pixel value of the latent image L is used.

そして、算出したLを用いてエネルギー関数E(K)を最小化するKを算出し、算出したKを用いてエネルギー関数E(L)を最小化するLを算出するという処理を、算出したKが一定の値に収束するまで反復的に行うことによりPSFを推定する。以上が、反復法を用いたPSF推定方法の概要である。 Then, the calculated K is used to calculate the K that minimizes the energy function E (K), and the calculated K is used to calculate the L that minimizes the energy function E (L). PSF is estimated by iteratively until it converges to a constant value. The above is the outline of the PSF estimation method using the iterative method.

続いて、図3のステップS304において、画像補正部204は、入力されたPSFに関する情報に基づいて、画像信号生成部201により生成された画像信号に対してブレやボケなどの劣化の補正処理を行う(画像補正処理)。そして画像補正部204は、補正した画像信号を画像合成部205へ出力する。本実施形態において、PSFに基づく補正方法は、公知の技術を用いることができる。一例として、ウィナーデコンボリューションを用いた補正処理の概要を説明する。推定したPSFをK、撮影画像をB、潜像をLとすると、潜像Lは以下の式(4)のように表すことができる。 Subsequently, in step S304 of FIG. 3, the image correction unit 204 corrects deterioration such as blurring and blurring of the image signal generated by the image signal generation unit 201 based on the input information regarding the PSF. Perform (image correction processing). Then, the image correction unit 204 outputs the corrected image signal to the image composition unit 205. In the present embodiment, a known technique can be used as the correction method based on PSF. As an example, an outline of the correction process using the winner deconvolution will be described. Assuming that the estimated PSF is K, the captured image is B, and the latent image is L, the latent image L can be expressed by the following equation (4).

Figure 0006873815
Figure 0006873815

式(4)において、f()は逆フーリエ変換、*は複素共役、λはブレやボケの無い画像に含まれるノイズ成分の比率(SN)をそれぞれ示している。なお、前述のウィナーデコンボリューションの他に、以下の式(5)のように表される逆フィルタを用いる手法を採用してもよい。 In equation (4), f () indicates the inverse Fourier transform, * indicates the complex conjugate, and λ indicates the ratio (SN) of the noise component contained in the image without blurring or blurring. In addition to the above-mentioned winner deconvolution, a method using an inverse filter represented by the following equation (5) may be adopted.

Figure 0006873815
Figure 0006873815

また、推定したPSFからエッジ強調のフィルタを作成してフィルタ処理を行うことによりエッジを強調させる補正方法を用いてもよい。 Further, a correction method for emphasizing the edge by creating an edge enhancement filter from the estimated PSF and performing the filter processing may be used.

続いて、図3のステップS305において、劣化特性推定部(ブレボケ特性推定部)206は、撮影画像の複数の領域のそれぞれに関するブレやボケなどの劣化特性(ブレボケ特性)を推定し、劣化特性量(ブレボケ特性量)を算出する。この特性推定処理の詳細については後述する。劣化特性推定部206は、推定した劣化特性に関する評価値(劣化特性量)を、合成比率算出部207へ出力する。 Subsequently, in step S305 of FIG. 3, the deterioration characteristic estimation unit (blurring characteristic estimation unit) 206 estimates the deterioration characteristics (blurring characteristics) such as blurring and blurring for each of the plurality of regions of the captured image, and the deterioration characteristic amount. (Blur blur characteristic amount) is calculated. The details of this characteristic estimation process will be described later. The deterioration characteristic estimation unit 206 outputs an evaluation value (deterioration characteristic amount) related to the estimated deterioration characteristic to the synthesis ratio calculation unit 207.

続いてステップS306において、合成比率算出部207は、撮影画像の各領域における画像合成比率を算出する。撮影画像の各領域における画像合成比率は、劣化特性推定部206により推定されたブレやボケの特性を表す評価値(劣化特性評価値)と、PSF推定領域抽出部202により選択されたPSF推定領域の位置に関する情報とに基づいて算出することができる。ここで画像合成比率とは、画像合成部205が、画像信号生成部201から出力された補正処理前の撮影画像と、画像補正部204から出力された補正処理後の画像(補正画像)とを合成する際の合成比率を表す。なお、合成比率の算出方法の詳細については後述する。合成比率算出部207は、算出した合成比率を、画像合成部205へ出力する。 Subsequently, in step S306, the composition ratio calculation unit 207 calculates the image composition ratio in each region of the captured image. The image composition ratio in each region of the captured image includes an evaluation value (deterioration characteristic evaluation value) that represents the characteristics of blurring and blurring estimated by the deterioration characteristic estimation unit 206 and a PSF estimation region selected by the PSF estimation area extraction unit 202. It can be calculated based on the information about the position of. Here, the image composition ratio refers to the captured image before the correction process output from the image signal generation unit 201 and the image after the correction process (correction image) output from the image correction unit 204 by the image composition unit 205. Represents the composition ratio when synthesizing. The details of the calculation method of the synthesis ratio will be described later. The composition ratio calculation unit 207 outputs the calculated composition ratio to the image composition unit 205.

続いてステップS307において、画像合成部205は、画像信号生成部201から出力された画像信号と、画像補正部204から出力された補正後の画像信号とを合成比率算出部207により算出された画像合成比率に基づいて合成し、合成画像を生成する。ここで、合成画像の画像信号をI、画像信号生成部201により生成された画像信号をI、画像補正部204により生成された補正後の画像信号をI、合成比率をm、画像の位置を(x、y)で表すものとする。画像合成部205は、以下の式(6)を用いて画像信号を合成する。 Subsequently, in step S307, the image synthesizing unit 205 calculates the image signal output from the image signal generation unit 201 and the corrected image signal output from the image correction unit 204 by the synthesizing ratio calculation unit 207. A composite image is generated by synthesizing based on the composition ratio. Here, the image signal of the composite image is I, the image signal generated by the image signal generation unit 201 is I 0 , the corrected image signal generated by the image correction unit 204 is I 1 , the composition ratio is m, and the image The position shall be represented by (x, y). The image synthesizing unit 205 synthesizes an image signal using the following equation (6).

Figure 0006873815
Figure 0006873815

画像合成部205が合成した画像信号を出力すると、システム制御部50による制御に基づいて、合成された画像信号が記録媒体112へ記録される。以上が、本実施形態における補正処理の流れである。 When the image synthesizing unit 205 outputs the synthesized image signal, the synthesized image signal is recorded on the recording medium 112 based on the control by the system control unit 50. The above is the flow of the correction process in the present embodiment.

次に、図4を参照して、劣化特性推定部206が撮影画像の各領域におけるブレやボケの特性を推定する処理(特性推定処理)、および、合成比率算出部207が画像合成比率を算出する処理(合成比率算出処理)の詳細をそれぞれ説明する。図4は、特性推定処理および合成比率算出処理の説明図である。 Next, with reference to FIG. 4, the deterioration characteristic estimation unit 206 estimates the characteristics of blurring and blurring in each region of the captured image (characteristic estimation processing), and the composition ratio calculation unit 207 calculates the image composition ratio. The details of the processing (composite ratio calculation processing) to be performed will be described. FIG. 4 is an explanatory diagram of the characteristic estimation process and the composite ratio calculation process.

劣化特性推定部206は、画像の各領域におけるボケ(焦点ボケ)の大きさ、ならびにブレの大きさおよびブレの方向をそれぞれ推定し、ブレやボケなどの劣化特性に関する評価値を出力する。ここで、ボケの特性(ボケに関する劣化特性)は、測距部123により測定された、画像の各領域における撮像装置100と被写体との間の距離の情報に基づいて算出することができる。具体的には、撮影の際に行ったAF制御において合焦位置として決定された合焦点に関する距離情報と、画像の各領域とにおける距離情報とを比較する。画像の各領域における距離情報が合焦点における距離情報と近い場合、焦点ボケの程度が小さく、距離情報が異なる程、焦点ボケの程度は大きい。したがって、劣化特性推定部206は、画像の各領域における被写体距離と、合焦点における被写体距離との差分値を、所定の正規化係数によって正規化し、ボケの特性評価値を出力する。 The deterioration characteristic estimation unit 206 estimates the magnitude of blur (focus blur) in each region of the image, the magnitude of blur, and the direction of blur, and outputs an evaluation value regarding deterioration characteristics such as blur and blur. Here, the blur characteristic (deterioration characteristic related to blur) can be calculated based on the information of the distance between the image pickup device 100 and the subject in each region of the image measured by the distance measuring unit 123. Specifically, the distance information regarding the in-focus position determined as the in-focus position in the AF control performed at the time of shooting is compared with the distance information in each region of the image. When the distance information in each region of the image is close to the distance information in the in-focus point, the degree of defocus is small, and the different the distance information, the greater the degree of defocus. Therefore, the deterioration characteristic estimation unit 206 normalizes the difference value between the subject distance in each region of the image and the subject distance in the in-focus range by a predetermined normalization coefficient, and outputs the blur characteristic evaluation value.

ブレ(手ブレや被写体ブレ)の大きさおよび方向は、動きベクトル検出部124により検出された動きベクトルに基づいて推定することができる。具体的には、動きベクトルの方向がブレの生じている方向を表し、動きベクトルの大きさがブレの大きさを表す。したがって、劣化特性推定部206は、画像の各領域における動きベクトルの大きさおよび方向を、所定の正規化係数によって正規化し、ブレの大きさおよび方向に関する特性評価値を出力する。 The magnitude and direction of blur (camera shake or subject blur) can be estimated based on the motion vector detected by the motion vector detection unit 124. Specifically, the direction of the motion vector represents the direction in which the blur occurs, and the magnitude of the motion vector represents the magnitude of the blur. Therefore, the deterioration characteristic estimation unit 206 normalizes the magnitude and direction of the motion vector in each region of the image with a predetermined normalization coefficient, and outputs the characteristic evaluation value regarding the magnitude and direction of the blur.

次に、合成比率算出部207が画像合成比率を算出する方法について説明する。ここで、合成比率算出部207は、PSF推定領域に関するブレやボケなどの劣化特性と、画像の複数の領域のそれぞれに関するブレやボケなどの劣化特性との比較結果に基づいて、画像の領域ごとに合成比率を算出する。画像の複数の領域のうち、PSF推定領域に関する劣化特性と近い劣化特性を有する特定領域に対しては、PSF推定領域により推定されたPSFに基づいて補正を行うことができるため、補正画像の比率が高くなるようにする。一方、PSF推定領域に関する劣化特性と異なる劣化特性を有する特定領域に対しては、推定したPSFに基づく補正では誤った補正がなされる可能性があるため、補正画像の比率を低くし、誤った補正により生じうる弊害を低減する。 Next, a method in which the composition ratio calculation unit 207 calculates the image composition ratio will be described. Here, the composite ratio calculation unit 207 is based on the comparison result between the deterioration characteristics such as blurring and blurring related to the PSF estimation region and the deterioration characteristics such as blurring and blurring related to each of the plurality of regions of the image, for each region of the image. Calculate the composite ratio. Of a plurality of regions of the image, a specific region having deterioration characteristics close to the deterioration characteristics related to the PSF estimation region can be corrected based on the PSF estimated by the PSF estimation region, and thus the ratio of the corrected images. To be high. On the other hand, for a specific region having deterioration characteristics different from the deterioration characteristics related to the PSF estimation region, the correction based on the estimated PSF may make an erroneous correction. Reduce the harmful effects that can occur due to the correction.

具体的には、次のように算出する。図4(a)は、劣化特性推定部206が推定したブレやボケの特性(劣化特性)を示す図である。図4(a)において、α軸はボケの大きさ、β軸はブレの大きさ、γ軸はブレの方向をそれぞれ示す。また、点P0はPSF推定領域における特性評価値を表し、点P0の座標は(α0、β0、γ0)である。点P1は合成比率の算出を行う対象領域における特性評価値を表し、点P1の座標は(α1、β1、γ1)である。合成比率算出部207は、以下の式(7)を用いて、PSF推定領域におけるブレやボケなどの劣化特性と、合成比率の算出対象領域における劣化特性との差分Δを算出する。 Specifically, it is calculated as follows. FIG. 4A is a diagram showing the characteristics (deterioration characteristics) of blurring and blurring estimated by the deterioration characteristic estimation unit 206. In FIG. 4A, the α-axis indicates the magnitude of blur, the β-axis indicates the magnitude of blur, and the γ-axis indicates the direction of blur. Further, the point P0 represents a characteristic evaluation value in the PSF estimation region, and the coordinates of the point P0 are (α0, β0, γ0). The point P1 represents a characteristic evaluation value in the target region for which the synthesis ratio is calculated, and the coordinates of the point P1 are (α1, β1, γ1). The synthesis ratio calculation unit 207 calculates the difference Δ between the deterioration characteristics such as blurring and blurring in the PSF estimation region and the deterioration characteristics in the synthesis ratio calculation target region using the following equation (7).

Figure 0006873815
Figure 0006873815

式(7)において、a、b、cはそれぞれ、ボケの大きさ、ブレの大きさ、ブレの方向に対する重みである。ボケの大きさ、またはブレの大きさが異なる場合に比べて、ブレの方向が異なる場合、対応するPSFの形状が大きく異なる。このため、ブレの方向の差分に対する重みcは、重みa、bに対して大きな値を取ることが好ましい。 In the formula (7), a, b, and c are the magnitude of the blur, the magnitude of the blur, and the weight with respect to the direction of the blur, respectively. When the direction of blur is different, the shape of the corresponding PSF is significantly different from the case where the magnitude of blur or the magnitude of blur is different. Therefore, it is preferable that the weight c with respect to the difference in the blur direction takes a large value with respect to the weights a and b.

次に、図4(b)を参照して、合成比率の算出方法を説明する。図4(b)において、横軸はブレやボケの特性評価値の差分Δを示し、縦軸は画像合成比率mを示す。図4(b)に示されるように、ブレやボケの特性評価値の差分Δが大きいほど、補正処理の影響が小さくなるように、すなわち画像合成比率が低くなるよう設定する。なお、図4(b)は、特性評価値の差分Δが所定の閾値Th以下である場合、合成比率mを1とする場合を示しているが、合成比率mの算出方法はこれに限定されるものではない。例えば、特性評価値の差分Δが大きくなるにつれて、合成比率mが低い値となるように設定された曲線の特性に基づいて合成比率mを設定してもよい。 Next, a method of calculating the synthesis ratio will be described with reference to FIG. 4 (b). In FIG. 4B, the horizontal axis represents the difference Δ of the characteristic evaluation values of blurring and blurring, and the vertical axis represents the image composition ratio m. As shown in FIG. 4B, the larger the difference Δ of the characteristic evaluation values of blurring and blurring, the smaller the influence of the correction processing, that is, the lower the image composition ratio is set. Note that FIG. 4B shows a case where the composite ratio m is set to 1 when the difference Δ of the characteristic evaluation values is equal to or less than a predetermined threshold value, but the calculation method of the composite ratio m is limited to this. It's not something. For example, the composite ratio m may be set based on the characteristics of the curve set so that the composite ratio m becomes a lower value as the difference Δ of the characteristic evaluation values increases.

合成比率算出部207は、前述の合成比率mの算出処理を、画像の各領域に対して順次実行し、算出した結果を画像合成部205へ出力する。画像合成部205は、前述のように、入力された合成比率に基づいて画像の合成処理を行う。 The composition ratio calculation unit 207 sequentially executes the above-mentioned calculation process of the composition ratio m for each region of the image, and outputs the calculated result to the image composition unit 205. As described above, the image composition unit 205 performs image composition processing based on the input composition ratio.

本実施形態では、画像の各領域におけるブレやボケの特性と、PSF推定領域におけるブレやボケの特性とを比較した結果に基づいて、画像の各領域における画像合成比率を設定する。これにより、推定したPSFに基づく補正を適用した場合に誤った補正を行うこととなる領域では、補正画像を用いない。その結果、補正による弊害を低減することが可能となる。 In the present embodiment, the image composition ratio in each region of the image is set based on the result of comparing the characteristics of blur and blur in each region of the image with the characteristics of blur and blur in the PSF estimation region. As a result, the corrected image is not used in the region where erroneous correction is performed when the correction based on the estimated PSF is applied. As a result, it is possible to reduce the harmful effects of the correction.

なお本実施形態では、ブレやボケに関する特性(劣化特性)を表す評価値として、ボケの大きさ、ブレの大きさ、および、ブレの方向の三つの特徴評価値を用いる場合を説明したが、劣化特性の評価方法はこれに限定されるものではない。例えば、画像の各領域においてPSFを推定し、推定したPSFの形状に基づいて、劣化特性を推定するようにしてもよい。この場合、推定したPSFの形状を比較して、形状が近ければPSFに基づいて補正した画像を用いる。一方、形状が異なる場合には、補正した画像を用いないように合成比率を制御する。ここで、画像の各領域において算出するPSFは、劣化特性を評価するために用いられるため、劣化の補正に用いるPSFを推定する場合に比べて推定精度が低くても構わない。したがって、反復法に用いるPSFの収束に対する条件を緩めることにより、演算量を低減させるようにしてもよい。 In the present embodiment, the case where three characteristic evaluation values of the size of the blur, the size of the blur, and the direction of the blur are used as the evaluation values representing the characteristics (deterioration characteristics) related to the blur and the blur has been described. The evaluation method of deterioration characteristics is not limited to this. For example, the PSF may be estimated in each region of the image, and the deterioration characteristics may be estimated based on the estimated shape of the PSF. In this case, the estimated shapes of the PSFs are compared, and if the shapes are close, an image corrected based on the PSF is used. On the other hand, when the shapes are different, the composition ratio is controlled so that the corrected image is not used. Here, since the PSF calculated in each region of the image is used for evaluating the deterioration characteristics, the estimation accuracy may be lower than in the case of estimating the PSF used for correcting the deterioration. Therefore, the amount of calculation may be reduced by relaxing the conditions for the convergence of PSF used in the iterative method.

また、ボケの特性を表す量として、画像信号に含まれるエッジ信号に着目し、エッジ部分における画像信号の変化の勾配情報に基づいて、劣化特性を推定してもよい。エッジ部分における画像信号の変化が緩やかであるほど、ボケやブレなどの劣化が大きいと推定すればよい。これにより、距離情報や動きベクトルに関する情報を取得することができない場合でも、画像劣化の補正を適切に制御することができる。また、画像を撮影時のAF制御で用いる合焦状態を評価する評価値に基づいて、画像の複数の領域のそれぞれに関する劣化特性を推定するようにしてもよい。 Further, as an amount representing the blur characteristic, the edge signal included in the image signal may be focused on, and the deterioration characteristic may be estimated based on the gradient information of the change of the image signal at the edge portion. It can be estimated that the more gradual the change in the image signal at the edge portion, the greater the deterioration such as blurring and blurring. As a result, it is possible to appropriately control the correction of image deterioration even when it is not possible to acquire information on the distance information and the motion vector. Further, the deterioration characteristics of each of the plurality of regions of the image may be estimated based on the evaluation value for evaluating the in-focus state used in the AF control at the time of shooting the image.

また、ブレの特性を評価するため、撮像装置100に設けられたジャイロ(ブレ検出部)によるブレ検出結果(ブレに関する情報)を用いるようにしてもよい。検出されたブレが一方向へシフトするブレである場合、ブレの方向は画像内で一様であると推定できる。検出されたブレが回転ブレである場合、ブレの方向が画像内で非一様であると推定することができる。ブレの方向が非一様である場合、PSF推定領域と異なる位置の画像領域には、PSFに基づく補正を適用しないように補正処理を制御する。 Further, in order to evaluate the characteristics of the blur, the blur detection result (information about the blur) by the gyro (blurring detection unit) provided in the image pickup apparatus 100 may be used. If the detected blur is a blur that shifts in one direction, it can be estimated that the direction of the blur is uniform in the image. If the detected blur is a rotational blur, it can be estimated that the direction of the blur is non-uniform in the image. When the direction of blur is non-uniform, the correction process is controlled so that the correction based on PSF is not applied to the image area at a position different from the PSF estimation area.

本実施形態は、ブレやボケなどの特性(劣化特性)を表す量(劣化特性評価値)に基づいて、画像の合成比率を定める場合を説明したが、劣化特性の補正の制御方法はこれに限定されるものではない。例えば、PSFに基づいて画像を補正する際に、画像の各領域における劣化特性に基づいて、各領域に対して補正処理を実行するか否かを判定するようにしてもよい。この場合、PSF推定領域における劣化特性とは異なる劣化特性を有する領域では、補正処理を実行しないよう制御すればよい。また、撮影画像と補正画像との合成ではなく、推定したPSFを合成する方法や、PSFに基づいて決定される補正強度または補正量を合成する方法を用いることもできる。この場合、PSF推定領域とは異なる劣化特性を有する領域に対しては、PSFに基づく補正が適用されないように合成比率を定めればよい。 In the present embodiment, the case where the image composition ratio is determined based on the amount (deterioration characteristic evaluation value) representing the characteristics (deterioration characteristics) such as blurring and blurring has been described, but the control method for correcting the deterioration characteristics is based on this. Not limited. For example, when correcting an image based on PSF, it may be determined whether or not to execute the correction process for each region based on the deterioration characteristics in each region of the image. In this case, it is sufficient to control so that the correction process is not executed in the region having the deterioration characteristic different from the deterioration characteristic in the PSF estimation region. Further, instead of synthesizing the captured image and the corrected image, a method of synthesizing the estimated PSF or a method of synthesizing the correction intensity or the correction amount determined based on the PSF can also be used. In this case, the composition ratio may be determined so that the correction based on PSF is not applied to the region having deterioration characteristics different from the PSF estimation region.

本実施形態は、PSF推定領域が画像中の一箇所である場合を説明したが、PSF推定処理の方法はこれに限定されるものではない。すなわち、画像中の複数の領域においてPSFを推定するようにしてもよい。この場合、画像合成の際には、複数のPSF推定領域の中で、処理対象とする領域における劣化特性と最も近い劣化特性を有するPSF推定領域を選択する。そして、選択したPSF推定領域において推定されたPSFに基づいて補正した補正画像と、補正前の撮影画像とを合成するようにすればよい。または、複数の領域においてPSFを推定し、それぞれのPSFに基づいて補正を行った補正画像同士を合成するようにしてもよい。この場合、合成比率の算出は、以下のように行うことができる。まず、複数のPSF推定領域の中で、処理対象とする領域における劣化特性と最も近い劣化特性を有するPSF推定領域を選択する。そして、選択したPSF推定領域に対応する補正画像の合成比率が高くなるように合成比率を定めればよい。 Although the present embodiment has described the case where the PSF estimation region is one location in the image, the method of PSF estimation processing is not limited to this. That is, the PSF may be estimated in a plurality of regions in the image. In this case, at the time of image composition, the PSF estimation region having the deterioration characteristic closest to the deterioration characteristic in the region to be processed is selected from the plurality of PSF estimation regions. Then, the corrected image corrected based on the estimated PSF in the selected PSF estimation region and the captured image before the correction may be combined. Alternatively, the PSFs may be estimated in a plurality of regions, and the corrected images corrected based on the respective PSFs may be combined. In this case, the synthesis ratio can be calculated as follows. First, among the plurality of PSF estimation regions, the PSF estimation region having the deterioration characteristics closest to the deterioration characteristics in the region to be processed is selected. Then, the compositing ratio may be set so that the compositing ratio of the corrected image corresponding to the selected PSF estimation region becomes high.

本実施形態は、劣化特性(劣化特性評価値)の差分の絶対値に基づいて合成比率を定める場合を説明したが、合成比率の算出方法はこれに限定されるものではない。例えば、劣化特性評価値の差分の絶対値に加えて、大小関係の情報を用いることもできる。具体的には、処理対象の領域における劣化特性評価値が、PSF推定領域における劣化特性評価値よりも大きい場合には補正画像に対する合成比率を高く設定し、小さい場合には補正画像に対する合成比率を低く設定するようにしてもよい。これは、PSF推定領域よりもブレやボケなどの劣化が小さい領域に対して、PSFに基づいた補正を適用すると、リンギングなどの目立つ弊害が生じる場合が多いためである。 In the present embodiment, the case where the synthesis ratio is determined based on the absolute value of the difference of the deterioration characteristics (deterioration characteristic evaluation value) has been described, but the calculation method of the synthesis ratio is not limited to this. For example, in addition to the absolute value of the difference between the deterioration characteristic evaluation values, information on the magnitude relation can also be used. Specifically, when the deterioration characteristic evaluation value in the area to be processed is larger than the deterioration characteristic evaluation value in the PSF estimation area, the composition ratio with respect to the corrected image is set high, and when it is small, the composition ratio with respect to the correction image is set. It may be set low. This is because when a correction based on PSF is applied to a region where deterioration such as blurring and blurring is smaller than the PSF estimation region, there are many cases where noticeable adverse effects such as ringing occur.

また、ブレやボケなどの劣化特性に加えて、画像中の被写体を検出した結果を用いて合成比率を算出してもよい。具体的には、劣化特性評価値の差分が所定の閾値以上であり、かつ、PSF推定領域とは異なる被写体に属する領域に対しては、補正画像の合成比率を低く設定するようにする。これにより、被写体間の境界において、誤った補正による弊害が生じることを低減させることができる。 Further, in addition to deterioration characteristics such as blurring and blurring, the composition ratio may be calculated using the result of detecting the subject in the image. Specifically, the correction image composition ratio is set low for a region in which the difference between the deterioration characteristic evaluation values is equal to or greater than a predetermined threshold value and belongs to a subject different from the PSF estimation region. As a result, it is possible to reduce the occurrence of adverse effects due to erroneous correction at the boundary between subjects.

また、画像の各領域に含まれるエッジ信号の情報も用いて合成比率を算出するようにしてもよい。具体的には、劣化特性評価値の差分が所定の閾値以上であり、かつ、振幅の大きなエッジ信号が多く含まれる領域に対しては、補正画像の合成比率を低く設定するようにする。これにより、エッジを多く含む領域において、目立った弊害が生じることを低減させることができる。 Further, the composition ratio may be calculated by using the information of the edge signal included in each region of the image. Specifically, the composition ratio of the corrected image is set low in the region where the difference between the deterioration characteristic evaluation values is equal to or more than a predetermined threshold value and a large number of edge signals having a large amplitude are included. As a result, it is possible to reduce the occurrence of conspicuous adverse effects in the region containing many edges.

(第2の実施形態)
次に、図5および図6を参照して、画像処理部105aによるブレやボケなどの画像劣化の補正処理に関する機能について説明する。図5は、画像処理部105aのブロック図である。図6は、画像処理部105aによる補正処理(本実施形態の画像処理方法)のフローチャートである。図6の各ステップは、画像処理部105aの各部により実行される。
(Second Embodiment)
Next, with reference to FIGS. 5 and 6, a function related to correction processing for image deterioration such as blurring and blurring by the image processing unit 105a will be described. FIG. 5 is a block diagram of the image processing unit 105a. FIG. 6 is a flowchart of correction processing (image processing method of the present embodiment) by the image processing unit 105a. Each step of FIG. 6 is executed by each part of the image processing unit 105a.

第1の実施形態は、PSFに基づいて補正した画像と補正前の撮影画像とを合成する場合を説明した。一方、本実施形態は、複数の領域に関する複数のPSFを推定し、画像のブレやボケなどの劣化特性に基づいて、推定した複数のPSFの一つを用いて画像の補正処理を行う場合を説明する。なお本実施形態の撮像装置(デジタルカメラ)は、画像処理部105に代えて画像処理部105aを有する点で、第1の実施形態の撮像装置100と異なる。本実施形態における撮像装置の他の構成は、図1を参照して第1の実施形態にて説明した撮像装置100と同様であるため、その説明は省略する。 The first embodiment has described the case where the image corrected based on the PSF and the captured image before the correction are combined. On the other hand, in the present embodiment, a plurality of PSFs relating to a plurality of regions are estimated, and an image correction process is performed using one of the estimated plurality of PSFs based on deterioration characteristics such as blurring and blurring of the image. explain. The image pickup apparatus (digital camera) of the present embodiment is different from the image pickup apparatus 100 of the first embodiment in that it has an image processing unit 105a instead of the image processing unit 105. Since other configurations of the image pickup apparatus in this embodiment are the same as those of the image pickup apparatus 100 described in the first embodiment with reference to FIG. 1, the description thereof will be omitted.

図5に示されるように、画像処理部105aは、画像信号生成部201、画像補正部204、PSF推定領域抽出部501a、501b、PSF推定部502a、502b、および、PSF選択部503を有する。本実施形態において、画像補正部204およびPSF選択部503により補正処理部が構成される。 As shown in FIG. 5, the image processing unit 105a includes an image signal generation unit 201, an image correction unit 204, a PSF estimation area extraction unit 501a, 501b, a PSF estimation unit 502a, 502b, and a PSF selection unit 503. In the present embodiment, the image correction unit 204 and the PSF selection unit 503 constitute a correction processing unit.

図6のステップS601において、図3のステップS301と同様に、画像信号生成部201は、画像信号R、G、Bを生成する。画像信号生成部201は、生成した画像信号を、PSF推定領域抽出部501a、501b、および、画像補正部204へ出力する。 In step S601 of FIG. 6, the image signal generation unit 201 generates image signals R, G, and B in the same manner as in step S301 of FIG. The image signal generation unit 201 outputs the generated image signal to the PSF estimation area extraction units 501a and 501b and the image correction unit 204.

続いてステップS602において、PSF推定領域抽出部501a、501bはそれぞれ、PSF推定領域a、bを選択する。図5に示されるように、画像処理部105aは複数のPSF推定部502a、502bを有する。このため、複数の箇所に関して、PSFの推定処理を行うことができる。例えば、撮影画像が主被写体である前景領域(主被写体領域)と背景領域とを含む場合、主被写体領域と背景領域とのそれぞれから、PSFを推定するようPSF推定領域を選択する。または、複数の人物が並んでいる場合のように複数の主被写体が存在する場合、それぞれの主被写体領域からPSF推定領域を選択するようにしてもよい。または操作部120を介して補正対象の被写体をユーザに選択させた場合、ユーザが選択した被写体領域の複数の箇所をPSF推定領域として選択してもよい。例えば、ユーザが選択した被写体が人物である場合、人物の顔領域および体領域のそれぞれからPSF推定領域を選択する。PSF推定領域抽出部501a、501bは、選択したPSF推定領域a、bの画像信号を抽出し、PSF推定部502a、502bへそれぞれ出力する。またPSF推定領域抽出部501a、501bは、選択したPSF推定領域の位置の情報をPSF選択部503へ出力する。 Subsequently, in step S602, the PSF estimation region extraction units 501a and 501b select the PSF estimation regions a and b, respectively. As shown in FIG. 5, the image processing unit 105a has a plurality of PSF estimation units 502a and 502b. Therefore, PSF estimation processing can be performed for a plurality of locations. For example, when the captured image includes a foreground region (main subject region) and a background region, which are the main subjects, the PSF estimation region is selected so as to estimate the PSF from each of the main subject region and the background region. Alternatively, when a plurality of main subjects exist as in the case where a plurality of people are lined up, the PSF estimation area may be selected from each main subject area. Alternatively, when the user selects the subject to be corrected via the operation unit 120, a plurality of parts of the subject area selected by the user may be selected as the PSF estimation area. For example, when the subject selected by the user is a person, the PSF estimation area is selected from each of the face area and the body area of the person. The PSF estimation region extraction units 501a and 501b extract the image signals of the selected PSF estimation regions a and b and output them to the PSF estimation regions 502a and 502b, respectively. Further, the PSF estimation area extraction units 501a and 501b output information on the position of the selected PSF estimation area to the PSF selection unit 503.

続いてステップS603において、PSF推定部502a、502bはそれぞれ、PSF推定領域抽出部501a、501bから出力されたPSF推定領域の画像信号に基づいて、PSFを推定する(PSF推定処理)。そしてPSF推定部502a、502bは、推定したそれぞれのPSFを画像補正部204へ出力する。なお、本実施形態におけるPSF推定処理の方法は、図3のステップS303にて説明した第1の実施形態と同様であるため、その説明は省略する。 Subsequently, in step S603, the PSF estimation units 502a and 502b estimate the PSF based on the image signals of the PSF estimation area output from the PSF estimation area extraction units 501a and 501b, respectively (PSF estimation process). Then, the PSF estimation units 502a and 502b output the estimated PSFs to the image correction unit 204. Since the method of PSF estimation processing in this embodiment is the same as that of the first embodiment described in step S303 of FIG. 3, the description thereof will be omitted.

続いてステップS604において、劣化特性推定部206は、撮影画像の各領域におけるブレやボケなどの劣化特性を推定し、劣化特性量(劣化特性に関する評価値)を算出する。そして劣化特性推定部206は、算出した劣化特性評価値をPSF選択部503へ出力する。なお、劣化特性値の算出方法は、図3のステップS305にて説明した第1の実施形態と同様であるため、その説明は省略する。 Subsequently, in step S604, the deterioration characteristic estimation unit 206 estimates the deterioration characteristics such as blurring and blurring in each region of the captured image, and calculates the deterioration characteristic amount (evaluation value related to the deterioration characteristics). Then, the deterioration characteristic estimation unit 206 outputs the calculated deterioration characteristic evaluation value to the PSF selection unit 503. Since the method of calculating the deterioration characteristic value is the same as that of the first embodiment described in step S305 of FIG. 3, the description thereof will be omitted.

続いてステップS605において、PSF選択部503は、劣化特性推定部206から出力された劣化特性評価値に基づいて、画像の各領域に対する補正に用いるPSFとして、PSF推定部502a、502bにより推定されたPSFのいずれか一方を選択する。以下、図7を参照して、PSFの選択方法について説明する。 Subsequently, in step S605, the PSF selection unit 503 was estimated by the PSF estimation units 502a and 502b as the PSF used for correction for each region of the image based on the deterioration characteristic evaluation value output from the deterioration characteristic estimation unit 206. Select one of the PSFs. Hereinafter, a method of selecting PSF will be described with reference to FIG. 7.

図7は、劣化特性推定部206が推定したブレやボケの特性(劣化特性評価値)を示す図である。図7において、α軸はボケの大きさ、β軸はブレの大きさ、γ軸はブレの方向をそれぞれ示す。図7において、点Pa、Pbはそれぞれ、PSF推定領域抽出部501a、501bが選択したPSF推定領域におけるブレやボケの特性評価値を示す。点P1は、処理対象の領域におけるブレやボケの特性評価値を示す。 FIG. 7 is a diagram showing the characteristics of blurring and blurring (deterioration characteristic evaluation value) estimated by the deterioration characteristic estimation unit 206. In FIG. 7, the α-axis indicates the magnitude of blur, the β-axis indicates the magnitude of blur, and the γ-axis indicates the direction of blur. In FIG. 7, points Pa and Pb indicate characteristic evaluation values of blurring and blurring in the PSF estimation region selected by the PSF estimation region extraction units 501a and 501b, respectively. Point P1 indicates a characteristic evaluation value of blurring or blurring in the area to be processed.

PSF選択部503は、図3のステップS306を参照して説明した方法と同様の方法により、点P1と点Paとの差分Δa、点P1と点Pbとの差分Δbをそれぞれ算出する。そしてPSF選択部503は、Δa<Δbの場合、PSF推定部502aにより推定されたPSFを選択する。一方、PSF選択部503は、Δb<Δaの場合、PSF推定部502bにより推定されたPSFを選択する。なお本実施形態において、PSF選択部503は、差分Δa、Δbの両方が所定の閾値を超えている場合、PSFに基づく補正処理を行わないように、いずれのPSFも選択しない。PSF選択部503は、画像の各領域に対して、前述の選択処理を順次実行し、その結果を画像補正部204へ出力する。 The PSF selection unit 503 calculates the difference Δa between the points P1 and Pa and the difference Δb between the points P1 and Pb by the same method as described with reference to step S306 of FIG. Then, when Δa <Δb, the PSF selection unit 503 selects the PSF estimated by the PSF estimation unit 502a. On the other hand, when Δb <Δa, the PSF selection unit 503 selects the PSF estimated by the PSF estimation unit 502b. In the present embodiment, when both the differences Δa and Δb exceed a predetermined threshold value, the PSF selection unit 503 does not select any PSF so as not to perform the correction process based on the PSF. The PSF selection unit 503 sequentially executes the above-mentioned selection process for each area of the image, and outputs the result to the image correction unit 204.

続いて、図6のステップS606において、画像補正部204は、撮影画像の各領域における画像合成比率を算出する。続いて、図6のステップS607において、画像補正部204は、PSF選択部503により選択されたPSFに関する情報に基づいて、画像信号生成部201により生成された画像信号に対する補正処理を行う。そして画像補正部204は、補正した画像信号を画像合成部205へ出力する。なお、補正処理の方法は、図3のステップS304にて説明した第1の実施形態と同様であるため、その説明は省略する。 Subsequently, in step S606 of FIG. 6, the image correction unit 204 calculates the image composition ratio in each region of the captured image. Subsequently, in step S607 of FIG. 6, the image correction unit 204 performs correction processing on the image signal generated by the image signal generation unit 201 based on the information regarding the PSF selected by the PSF selection unit 503. Then, the image correction unit 204 outputs the corrected image signal to the image composition unit 205. Since the method of correction processing is the same as that of the first embodiment described in step S304 of FIG. 3, the description thereof will be omitted.

本実施形態では、画像の各領域におけるブレやボケの特性と、PSF推定領域におけるブレやボケの特性とを比較した結果に基づいて、画像の各領域における補正処理に用いるPSFを選択する。これにより、画像中でのブレやボケの特性が一様でない場合に画像の各領域に対して適したPSFを選択して補正することができる。その結果、補正による弊害を低減することが可能となる。 In the present embodiment, the PSF used for the correction process in each region of the image is selected based on the result of comparing the characteristics of blur and blur in each region of the image with the characteristics of blur and blur in the PSF estimation region. This makes it possible to select and correct a PSF suitable for each region of the image when the characteristics of blurring and blurring in the image are not uniform. As a result, it is possible to reduce the harmful effects of the correction.

なお本実施形態は、複数のPSF推定領域を選択し、そのうちのいずれか一つのPSF推定領域で推定されたPSFを選択する方法を説明したが、PSFの選択方法はこれに限定されるものではない。例えば、PSFの選択を切り替える境界が目立たないようにするため、境界領域では互いに異なるPSFに基づいて補正した画像同士を合成し、境界が目立たなくなるように制御してもよい。 In the present embodiment, a method of selecting a plurality of PSF estimation regions and selecting the PSF estimated in any one of the PSF estimation regions has been described, but the PSF selection method is not limited to this. Absent. For example, in order to make the boundary for switching the selection of PSF inconspicuous, images corrected based on different PSFs may be combined in the boundary region and controlled so that the boundary becomes inconspicuous.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

各実施形態によれば、少ない演算量で、劣化特性が領域ごとに異なる画像を適切に補正することが可能な画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。 According to each embodiment, an image processing device, an imaging device, an image processing method, a program, and a storage medium capable of appropriately correcting images having different deterioration characteristics for each region with a small amount of calculation are provided. Can be done.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

105 画像処理部(画像処理装置)
203 PSF推定部
204 画像補正部(補正処理部)
205 画像合成部(補正処理部)
206 劣化特性推定部
207 合成比率算出部(補正処理部)
105 Image processing unit (image processing device)
203 PSF estimation unit 204 image correction unit (correction processing unit)
205 Image composition unit (correction processing unit)
206 Deterioration characteristic estimation unit 207 Composite ratio calculation unit (correction processing unit)

Claims (11)

画像の部分領域としての推定領域から点拡がり関数を推定する推定部と、
前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成する補正処理部と、
前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定する劣化特性推定部と、
前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成する合成部と、を有し、
前記合成部は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおける前記合成比率を算出することを特徴とする画像処理装置。
And estimation tough you estimate the point spread function from the estimated region of the partial region of the image,
A correction processing unit that generates a corrected image by performing correction processing of the image based on the point spread function , and a correction processing unit.
A deterioration characteristic estimation unit that estimates the deterioration characteristics of the image for each of a plurality of regions of the image , which is different from the estimation region.
It has a compositing unit that synthesizes the image and the corrected image at a compositing ratio based on the deterioration characteristics.
The synthesis unit, based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of said image, to calculate the composite ratio in each of the plurality of regions An image processing device characterized by.
前記画像の前記劣化特性は、該画像のブレまたはボケに関する特性であることを特徴とする請求項に記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the deterioration characteristic of the image is a characteristic related to blurring or blurring of the image. 前記劣化特性推定部は、前記画像に含まれる被写体までの距離に関する情報、該被写体の動きベクトルに関する情報、ブレ検出部からのブレに関する情報、および、該画像の領域ごとに推定された前記点拡がり関数に関する情報の少なくとも一つに基づいて、前記劣化特性を推定することを特徴とする請求項1または2に記載の画像処理装置。 The deterioration characteristic estimation unit includes information on the distance to the subject included in the image, information on the motion vector of the subject, information on blurring from the blur detection unit, and the point spread estimated for each region of the image. The image processing apparatus according to claim 1 or 2 , wherein the deterioration characteristic is estimated based on at least one of the information about the function. 前記合成部は、前記複数の領域のうち、前記推定領域に関する前記劣化特性との差分が所定の閾値以下となる前記劣化特性を有する領域に対して、前記補正画像の合成比率を1とし、前記画像の合成比率を0とすることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The combining unit, among the plurality of regions, the region with the deterioration characteristic difference between the degradation characteristics relating to the estimated area is equal to or less than a predetermined threshold value, and 1, the mixing ratio of the corrected image, The image processing apparatus according to any one of claims 1 to 3 , wherein the composition ratio of the images is set to 0. 前記合成部は、前記複数の領域のうち、前記推定領域に関する前記劣化特性との差分が大きい前記劣化特性を有する領域ほど、前記補正画像の合成比率を小さくすることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The combining unit, among the plurality of regions, claim 1, wherein the higher the region having said deterioration characteristic difference is large between the degradation characteristics relating to estimation region, to reduce the mixing ratio of the corrected image The image processing apparatus according to any one of 3 to 3. 前記合成部は、前記複数の領域のうち、前記劣化特性が前記推定領域における前記劣化特性よりも小さい領域の前記補正画像の合成比率を、前記劣化特性が前記推定領域における該劣化特性よりも大きい領域に比べて、小さくすることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The combining unit, out of the previous SL plurality of areas, the degradation, the mixing ratio of the corrected image of the degradation characteristics is less than the degradation characteristics before Ki推constant region regions, the degradation properties in the estimation region The image processing apparatus according to any one of claims 1 to 5 , wherein the image processing apparatus is made smaller than a region larger than the characteristic. 前記合成部は、前記複数の領域のうち、エッジ信号を多く含む領域ほど、前記補正画像の合成比率を小さくすることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。 The combining unit, out of the previous SL plurality of regions, the more rich region an edge signal, the image processing according to any one of claims 1 to 6, characterized in that to reduce the mixing ratio of the corrected image apparatus. 撮像光学系を介して形成された光学像を光電変換して画像信号を出力する撮像部と、
前記画像信号に基づく画像の部分領域としての推定領域から点拡がり関数を推定する推定部と、
前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成する補正処理部と、
前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定する劣化特性推定部と、
前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成する合成部と、を有し、
前記合成部は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおける合成比率を算出することを特徴とする撮像装置。
An imaging unit that photoelectrically converts an optical image formed via an imaging optical system and outputs an image signal,
And estimation tough you estimate the point spread function from the estimated region of the partial region of the image based on the image signal,
A correction processing unit that generates a corrected image by performing correction processing of the image based on the point spread function , and a correction processing unit.
A deterioration characteristic estimation unit that estimates the deterioration characteristics of the image for each of a plurality of regions of the image , which is different from the estimation region.
It has a compositing unit that synthesizes the image and the corrected image at a compositing ratio based on the deterioration characteristics.
The synthesis unit, based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of said image, calculating a synthesis ratio in each of the plurality of regions An imaging device as a feature.
画像の部分領域としての推定領域から点拡がり関数を推定するステップと、
前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成するステップと、
前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定するステップと、
前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成するステップと、を有し、
前記合成比率は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおいて算出されることを特徴とする画像処理方法。
Estimating a point spread function from the estimated region of the partial region of the image,
A step of generating a corrected image by performing correction processing of the image based on the point spread function, and
A step of estimating the deterioration characteristics of the image for each of a plurality of regions of the image , which is different from the estimation region.
It has a step of synthesizing the image and the corrected image at a composition ratio based on the deterioration characteristics.
The synthesis ratio, and characterized in that based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of the image, is calculated in each of the plurality of regions Image processing method to be performed.
画像の部分領域としての推定領域から点拡がり関数を推定するステップと、
前記点拡がり関数に基づいて前記画像の補正処理を行うことで補正画像を生成するステップと、
前記推定領域とは異なる、前記画像の複数の領域のそれぞれに関する該画像の劣化特性を推定するステップと、
前記劣化特性に基づく合成比率で、前記画像と前記補正画像を合成するステップと、をコンピュータに実行させるプログラムであって、
前記合成比率は、前記画像の前記推定領域に関する前記劣化特性と該画像の前記複数の領域のそれぞれに関する前記劣化特性とに基づいて、前記複数の領域のそれぞれにおいて算出されることを特徴とするプログラム。
Estimating a point spread function from the estimated region of the partial region of the image,
A step of generating a corrected image by performing correction processing of the image based on the point spread function, and
A step of estimating the deterioration characteristics of the image for each of a plurality of regions of the image , which is different from the estimation region.
A program that causes a computer to execute a step of synthesizing the image and the corrected image at a composition ratio based on the deterioration characteristics.
The synthesis ratio, and characterized in that based on said deterioration characteristic for each of the plurality of areas of said deterioration characteristic and the image for the previous Ki推constant region of the image, is calculated in each of the plurality of regions Program to do.
請求項10に記載のプログラムを記憶していることを特徴とする記憶媒体。 A storage medium for storing the program according to claim 10.
JP2017095084A 2017-05-11 2017-05-11 Image processing equipment, imaging equipment, image processing methods, programs, and storage media Active JP6873815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017095084A JP6873815B2 (en) 2017-05-11 2017-05-11 Image processing equipment, imaging equipment, image processing methods, programs, and storage media

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017095084A JP6873815B2 (en) 2017-05-11 2017-05-11 Image processing equipment, imaging equipment, image processing methods, programs, and storage media

Publications (2)

Publication Number Publication Date
JP2018191261A JP2018191261A (en) 2018-11-29
JP6873815B2 true JP6873815B2 (en) 2021-05-19

Family

ID=64479195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017095084A Active JP6873815B2 (en) 2017-05-11 2017-05-11 Image processing equipment, imaging equipment, image processing methods, programs, and storage media

Country Status (1)

Country Link
JP (1) JP6873815B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002300461A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device, image restoring method and program thereof and recording medium
WO2011077659A1 (en) * 2009-12-22 2011-06-30 パナソニック株式会社 Image processing device, imaging device, and image processing method
JP2014138290A (en) * 2013-01-17 2014-07-28 Sharp Corp Imaging device and imaging method

Also Published As

Publication number Publication date
JP2018191261A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
WO2018176925A1 (en) Hdr image generation method and apparatus
US8860848B2 (en) Image processing apparatus and method
JP6157242B2 (en) Image processing apparatus and image processing method
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
JP5398156B2 (en) WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP5281495B2 (en) Image processing apparatus and method
JP5643563B2 (en) Image processing apparatus and control method thereof
US8570429B2 (en) Image processing method and apparatus and digital photographing apparatus using the same
US20100149210A1 (en) Image capturing apparatus having subject cut-out function
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
JP4752941B2 (en) Image composition apparatus and program
JP2010011441A (en) Imaging apparatus and image playback device
JP5210198B2 (en) Image processing apparatus, image processing method, and image processing program
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
JP7516471B2 (en) Control device, imaging device, control method, and program
JP2009017223A (en) Imaging device, image processing device, and their image processing method and program
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
US20120081560A1 (en) Digital photographing apparatus and method of controlling the same
US9007471B2 (en) Digital photographing apparatus, method for controlling the same, and computer-readable medium
JP2018037857A5 (en) Image processing apparatus, image processing method, computer program, and storage medium
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP6921606B2 (en) Image processing equipment, image processing methods and programs
JP6873815B2 (en) Image processing equipment, imaging equipment, image processing methods, programs, and storage media
JP7458769B2 (en) Image processing device, imaging device, image processing method, program and recording medium
JP7102150B2 (en) Image processing equipment, image processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R151 Written notification of patent or utility model registration

Ref document number: 6873815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151