JP2015088933A - Image processing device, imaging device, image processing method, and image processing program - Google Patents

Image processing device, imaging device, image processing method, and image processing program Download PDF

Info

Publication number
JP2015088933A
JP2015088933A JP2013226023A JP2013226023A JP2015088933A JP 2015088933 A JP2015088933 A JP 2015088933A JP 2013226023 A JP2013226023 A JP 2013226023A JP 2013226023 A JP2013226023 A JP 2013226023A JP 2015088933 A JP2015088933 A JP 2015088933A
Authority
JP
Japan
Prior art keywords
image
aberration
fringe
region
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013226023A
Other languages
Japanese (ja)
Other versions
JP6354134B2 (en
Inventor
雅嗣 宮田
Masatsugu Miyata
雅嗣 宮田
秀星 板垣
Shusei Itagaki
秀星 板垣
寺内 正和
Masakazu Terauchi
正和 寺内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2013226023A priority Critical patent/JP6354134B2/en
Priority to US14/524,314 priority patent/US9576341B2/en
Publication of JP2015088933A publication Critical patent/JP2015088933A/en
Application granted granted Critical
Publication of JP6354134B2 publication Critical patent/JP6354134B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device for accurately detecting and correcting aberration, and also to provide an imaging device, an image processing method, and an image processing program.SOLUTION: A correction image and a detection image are created using lens data. A figure 40 is a figure in which an aberration region 61 calculated using the lens data is shown on a CbCr flat surface. Explanation about means for creating an aberration image is performed. First, a DSP 101 calculates the aberration region 61 using lens data. Next, a pixel having color difference information included in the aberration region 61 is abstracted from an imaging image. Then, saturation of the color difference information on the abstracted pixel is reduced. Concretely, the color difference information on the CbCr flat surface is moved parallel toward an original point. As a result, the color difference information on the pixel belonging to the aberration region 61 is moved to a region 62. Then, the saturation only of the fringe included in the imaging image is reduced and the fringe is suppressed.

Description

本発明は、収差を補正するために用いられる画像処理装置、撮像装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging device, an image processing method, and an image processing program used for correcting aberration.

撮像素子が出力した画像を処理する際に生じる収差であるフリンジを抑制する撮像装置が知られている。撮像装置は、注目画素とその周囲にある周囲画素との輝度差を算出し、輝度差に応じてフリンジを検出し、補正する(特許文献1)。   2. Description of the Related Art An imaging device that suppresses fringes that are aberrations that occur when an image output from an imaging element is processed is known. The imaging device calculates a luminance difference between the target pixel and surrounding pixels around it, and detects and corrects a fringe according to the luminance difference (Patent Document 1).

特開2006−014261号公報JP 2006-014261 A

しかし、注目画素とその周囲にある周囲画素との輝度差を検出できない場合であってもフリンジが生じることがある。このような場合、フリンジなどの収差を正確に検出できないおそれが生じる。収差を正確に検出できないと、収差を補正することができなくなる。   However, a fringe may occur even when a luminance difference between the target pixel and surrounding pixels around it cannot be detected. In such a case, there is a possibility that an aberration such as fringe cannot be accurately detected. If the aberration cannot be detected accurately, the aberration cannot be corrected.

本発明はこれらの問題に鑑みてなされたものであり、収差を正確に検出し、補正する画像処理装置、撮像装置、画像処理方法、及び画像処理プログラムを得ることを目的とする。   The present invention has been made in view of these problems, and an object thereof is to obtain an image processing apparatus, an imaging apparatus, an image processing method, and an image processing program that accurately detect and correct aberrations.

本願第1の発明による画像処理装置は、撮像レンズを介して撮像された撮影画像を取得する画像取得部と、撮影画像に含まれる収差を補正して補正画像を作成する補正部とを備え、補正部は、撮像レンズの設計データを用いて撮影画像に各々異なる処理を施し、これにより1以上の処理画像を作成し、撮影画像及び1以上の処理画像のいずれか1つに所定の処理を施してマスク画像を作成し、マスク画像を作成する際に用いなかった撮影画像及び1以上の処理画像のいずれか1つとマスク画像とを合成して合成画像を作成し、撮影画像に合成画像を合成して補正画像を作成することを特徴とする。   An image processing apparatus according to a first invention of the present application includes an image acquisition unit that acquires a captured image captured through an imaging lens, and a correction unit that corrects an aberration included in the captured image and creates a corrected image. The correction unit performs different processing on the captured image using the design data of the imaging lens, thereby creating one or more processed images, and performs predetermined processing on one of the captured image and the one or more processed images. To create a mask image, synthesize one of the captured image and one or more processed images that were not used when creating the mask image with the mask image to create a composite image, and then add the composite image to the captured image A corrected image is created by synthesis.

補正部は、撮像レンズの設計データを用いて撮影画像に第1の処理を施して得られる第1の処理画像を作成し、撮影画像に所定の処理を施してマスク画像を作成し、第1の処理画像とマスク画像とを合成して合成画像を作成することが好ましい。   The correction unit creates a first processed image obtained by performing a first process on the captured image using the design data of the imaging lens, creates a mask image by performing a predetermined process on the captured image, and generates a first image. Preferably, the processed image and the mask image are combined to create a combined image.

補正部は、撮影画像に第2の処理を施して得られる第2の処理画像を作成し、第2の処理画像に所定の処理を施してマスク画像を作成し、第2の処理とは異なる第3の処理を撮影画像に施して得られる第3の処理画像を作成し、第3の処理画像とマスク画像とを合成して合成画像を作成してもよい。   The correction unit creates a second processed image obtained by performing the second process on the captured image, creates a mask image by performing a predetermined process on the second processed image, and differs from the second process. A third processed image obtained by performing the third process on the captured image may be created, and the third processed image and the mask image may be synthesized to create a composite image.

補正部は、撮影画像に第1の処理を施して得られる第1の処理画像と、第1の処理とは異なる第2の処理を撮影画像に施して得られる第2の処理画像とを作成し、第2の処理画像に所定の処理を施してマスク画像を作成し、第1の処理画像とマスク画像とを合成して合成画像を作成してもよい。   The correction unit creates a first processed image obtained by performing the first process on the photographed image, and a second processed image obtained by performing a second process different from the first process on the photographed image. Then, a predetermined process may be performed on the second processed image to create a mask image, and the first processed image and the mask image may be synthesized to create a synthesized image.

第1の処理は、撮像レンズの設計データに基づいて、収差が生じやすい色情報を取得し、撮影画像に含まれる収差が生じやすい色情報の値を低減する処理であることが好ましい。   The first processing is preferably processing for acquiring color information that is likely to cause aberration based on the design data of the imaging lens and reducing the value of color information that is likely to cause aberration included in the captured image.

第3の処理は、撮像レンズの設計データに基づいて、収差が生じやすい色情報を取得し、撮影画像において収差が生じやすい色情報に含まれる色の彩度を低減する処理であることが好ましい。   The third process is preferably a process of acquiring color information that is likely to cause aberration based on the design data of the imaging lens and reducing the saturation of the color included in the color information that is likely to cause aberration in the captured image. .

第2の処理は、撮像レンズの設計データに基づいて、収差が生じやすい色情報を取得し、撮影画像に含まれる収差が生じやすい色情報を強調する処理であることが好ましい。   The second process is preferably a process of acquiring color information that is likely to cause aberration based on the design data of the imaging lens and emphasizing the color information that is likely to cause aberration included in the captured image.

本願第2の発明による撮像装置は、前記画像処理装置と、撮影画像を撮像する撮像素子とを備えることを特徴とする。   An image pickup apparatus according to a second invention of the present application includes the image processing apparatus and an image pickup device that picks up a picked-up image.

本願第3の発明による画像処理方法は、撮像レンズを介して撮像された撮影画像に含まれる色情報の値に、撮像レンズの設計データを用いて各々異なる処理を施して得られる1以上の処理画像を作成するステップと、撮影画像及び1以上の処理画像のいずれか1つに含まれる色情報の値に所定の処理を施してマスク画像を作成するステップと、マスク画像を作成する際に用いなかった撮影画像及び1以上の処理画像のいずれか1つに含まれる色情報の値とマスク画像に含まれる色情報の値とを合成して合成画像を作成するステップと、撮影画像に合成画像を合成して補正画像を作成するステップとを備えることを特徴とする。   The image processing method according to the third invention of the present application is one or more processes obtained by performing different processes on color information values included in a captured image captured through the imaging lens using design data of the imaging lens. Used to create an image, to create a mask image by applying predetermined processing to the value of color information contained in one of the captured image and one or more processed images, and to create a mask image A step of synthesizing a value of color information included in any one of the photographed image and the one or more processed images and a value of color information included in the mask image to create a composite image; And a step of creating a corrected image.

本願第4の発明による画像処理プログラムは、撮像レンズを介して撮像された撮影画像に含まれる色情報の値に、撮像レンズの設計データを用いて各々異なる処理を施して得られる1以上の処理画像を作成するステップと、撮影画像及び1以上の処理画像のいずれか1つに含まれる色情報の値に所定の処理を施してマスク画像を作成するステップと、マスク画像を作成する際に用いなかった撮影画像及び1以上の処理画像のいずれか1つに含まれる色情報の値とマスク画像に含まれる色情報の値とを合成して合成画像を作成するステップと、撮影画像に合成画像を合成して補正画像を作成するステップとを備えることを特徴とする。   An image processing program according to a fourth invention of the present application is one or more processes obtained by performing different processes on color information values included in a captured image captured through an imaging lens using design data of the imaging lens. Used to create an image, to create a mask image by applying predetermined processing to the value of color information contained in one of the captured image and one or more processed images, and to create a mask image A step of synthesizing a value of color information included in any one of the photographed image and the one or more processed images and a value of color information included in the mask image to create a composite image; And a step of creating a corrected image.

本発明によれば、収差を正確に検出し、補正する画像処理装置、撮像装置、画像処理方法、及び画像処理プログラムを得る。   According to the present invention, an image processing apparatus, an imaging apparatus, an image processing method, and an image processing program that accurately detect and correct aberrations are obtained.

本実施形態による画像処理装置及び撮像装置を概略的に示したブロック図である。1 is a block diagram schematically illustrating an image processing apparatus and an imaging apparatus according to an embodiment. 収差領域を示した図である。It is the figure which showed the aberration area | region. 収差補正処理を説明するフローチャートである。It is a flowchart explaining an aberration correction process. 撮影画像を示した図である。It is the figure which showed the picked-up image. 第1の中間補正画像を示した図である。FIG. 6 is a diagram showing a first intermediate correction image. 第2の中間補正画像を示した図である。It is the figure which showed the 2nd intermediate correction image. 第3の中間補正画像を示した図である。It is the figure which showed the 3rd intermediate correction image. 閾値と色差情報との関係を示した図である。It is the figure which showed the relationship between a threshold value and color difference information. 第1の収差画像を示した図である。It is the figure which showed the 1st aberration image. 第4の中間補正画像を示した図である。It is the figure which showed the 4th intermediate correction image. 第2の収差画像を示した図である。It is the figure which showed the 2nd aberration image. 第5の中間補正画像を示した図である。It is the figure which showed the 5th intermediate correction image. 第3の収差画像を示した図である。It is the figure which showed the 3rd aberration image. 第4の収差画像を示した図である。It is the figure which showed the 4th aberration image. 第6の中間補正画像を示した図である。It is the figure which showed the 6th intermediate correction image. 第7の中間補正画像を示した図である。It is the figure which showed the 7th intermediate | middle correction image. 収差検出画像を示した図である。It is the figure which showed the aberration detection image. 収差緩和画像を示した図である。It is the figure which showed the aberration relief image. 第2の収差補正処理を説明するフローチャートである。It is a flowchart explaining a 2nd aberration correction process. 撮影画像を示した図である。It is the figure which showed the picked-up image. 補正用画像を示した図である。It is the figure which showed the image for correction | amendment. マスク画像を示した図である。It is the figure which showed the mask image. 合成画像を示した図である。It is the figure which showed the synthesized image. 補正画像を示した図である。It is the figure which showed the correction | amendment image. 第3の収差補正処理を説明するフローチャートである。It is a flowchart explaining a 3rd aberration correction process. 検出用画像を示した図である。It is the figure which showed the image for a detection. 補正用画像を示した図である。It is the figure which showed the image for correction | amendment. マスク画像を示した図である。It is the figure which showed the mask image. 合成画像を示した図である。It is the figure which showed the synthesized image. 補正画像を示した図である。It is the figure which showed the correction | amendment image. 第4の収差補正処理を説明するフローチャートである。It is a flowchart explaining a 4th aberration correction process. 合成画像を示した図である。It is the figure which showed the synthesized image. 補正画像を示した図である。It is the figure which showed the correction | amendment image. フリンジの色をCbCr平面に表したグラフである。It is the graph which represented the color of fringe on the CbCr plane. フリンジの色をCbCr平面に表したグラフである。It is the graph which represented the color of fringe on the CbCr plane. フリンジの色をCbCr平面に表したグラフである。It is the graph which represented the color of fringe on the CbCr plane. フリンジの色をCbCr平面に表したグラフである。It is the graph which represented the color of fringe on the CbCr plane. 収差領域決定処理を示したフローチャートである。It is the flowchart which showed the aberration area | region determination process. 収差領域補正処理を示したフローチャートである。It is the flowchart which showed the aberration area | region correction process. フリンジの色をCbCr平面に表したグラフである。It is the graph which represented the color of fringe on the CbCr plane.

以下、本願発明の一実施形態である画像処理装置、撮像レンズ、及び撮像装置について図を用いて説明する。図1は、第1の実施形態による画像処理装置を備える撮像装置の一実施形態であるデジタルカメラ100を示す。まず、図1を用いてデジタルカメラ100の構成について説明する。   Hereinafter, an image processing apparatus, an imaging lens, and an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 illustrates a digital camera 100 that is an embodiment of an imaging apparatus including the image processing apparatus according to the first embodiment. First, the configuration of the digital camera 100 will be described with reference to FIG.

デジタルカメラ100は、補正部を成すDSP101、撮像素子であるCCD111、着脱可能に設けられる撮像レンズ102、タイミングジェネレータ(TG)120、AFE130と、カメラメモリ103と、操作部材104と、記録媒体105と、表示媒体106とを主に備える。   The digital camera 100 includes a DSP 101 that constitutes a correction unit, a CCD 111 that is an image sensor, a detachable image pickup lens 102, a timing generator (TG) 120, an AFE 130, a camera memory 103, an operation member 104, and a recording medium 105. The display medium 106 is mainly provided.

撮像レンズ102は、複数のレンズ107と、記憶部を成すレンズメモリ108とを備え、被写体像をCCD111に結像させる。撮像レンズ102は、フリンジ等の収差を有する。レンズメモリ108は、撮像レンズ102の特性を示す設計データであるレンズデータを記憶する。   The imaging lens 102 includes a plurality of lenses 107 and a lens memory 108 forming a storage unit, and forms an object image on the CCD 111. The imaging lens 102 has an aberration such as fringe. The lens memory 108 stores lens data that is design data indicating the characteristics of the imaging lens 102.

DSP101、CCD111、タイミングジェネレータ120、AFE130、カメラメモリ103、操作部材104、記録媒体105、及び表示媒体106は、カメラボディ110に格納される。CCD111は、タイミングジェネレータ120からの露光信号に応じて、撮像レンズ102から被写体像を受光して撮像し、画像信号を出力する。AFE130は、画像信号を処理して、DSP101に送信する。DSP101は、画像信号をさらに処理して、撮影画像及び画像ファイルを生成し、表示媒体又は記録媒体105に送信する。DSP101は、後述する第1の収差補正処理を実行可能である。   The DSP 101, CCD 111, timing generator 120, AFE 130, camera memory 103, operation member 104, recording medium 105, and display medium 106 are stored in the camera body 110. In response to the exposure signal from the timing generator 120, the CCD 111 receives and captures the subject image from the imaging lens 102 and outputs an image signal. The AFE 130 processes the image signal and transmits it to the DSP 101. The DSP 101 further processes the image signal to generate a captured image and an image file, and transmits them to the display medium or the recording medium 105. The DSP 101 can execute a first aberration correction process to be described later.

記録媒体105は、デジタルカメラ100に着脱自在に接続される、例えばSDカード(登録商標)であって、画像ファイルを記録する。   The recording medium 105 is an SD card (registered trademark), for example, which is detachably connected to the digital camera 100, and records an image file.

表示媒体106は、デジタルカメラ100の背面に設けられる、例えば液晶モニタであって、画像を表示する。   The display medium 106 is a liquid crystal monitor provided on the back surface of the digital camera 100, for example, and displays an image.

カメラメモリ103は、DSP101のファームウェア、及び画像ファイル等を記録、及びDSP101が各種処理を実行する際の一時メモリとして使用される。   The camera memory 103 records the firmware and image files of the DSP 101, and is used as a temporary memory when the DSP 101 executes various processes.

操作部材104は、例えば二段式スイッチであるシャッターレリーズボタンや、十字キーや、押し下げ式スイッチ等であって、ユーザの操作に応じてDSP101に信号を送信する。DSP101は、操作部材104から受信した信号に応じて動作する。   The operation member 104 is, for example, a shutter release button that is a two-stage switch, a cross key, a push-down switch, and the like, and transmits a signal to the DSP 101 in accordance with a user operation. The DSP 101 operates in accordance with a signal received from the operation member 104.

撮像レンズ102は、固有の収差を有する。収差は、レンズデータから算出可能である。図2は、レンズデータを用いて算出された収差、すなわちフリンジである可能性が高い色をCbCr色空間に示した図である。フリンジの色差情報は、所定の色差情報の範囲に含まれる傾向がある。そこで、CbCr色空間においてフリンジが出現しやすい色差領域をレンズデータを用いて決定する。この色差領域を収差領域という。DSP101は、レンズデータを用いて収差領域を算出する。   The imaging lens 102 has an inherent aberration. The aberration can be calculated from the lens data. FIG. 2 is a diagram showing, in the CbCr color space, aberrations calculated using lens data, that is, colors that are highly likely to be fringes. The fringe color difference information tends to be included in the range of the predetermined color difference information. Therefore, a color difference area where fringes are likely to appear in the CbCr color space is determined using lens data. This color difference region is called an aberration region. The DSP 101 calculates the aberration area using the lens data.

DSP101は、撮影画像に含まれるフリンジを補正する第1の収差補正処理を実行可能である。第1の収差補正処理は、1つの撮影画像から2つの画像を作成し、それぞれ異なる処理を施してフリンジを強調した収差画像を作成し、作成された収差画像を合成し、これにLPF(ローパスフィルタ)を掛けることにより、フリンジを補正する処理である。   The DSP 101 can execute a first aberration correction process for correcting a fringe included in a captured image. In the first aberration correction process, two images are created from one captured image, different processes are performed to create an aberration image in which the fringe is emphasized, the created aberration images are synthesized, and this is combined with an LPF (low-pass filter). This is a process of correcting the fringe by applying a filter.

次に、図3を用いて、DSP101によって実行される第1の収差補正処理について説明する。   Next, the first aberration correction process executed by the DSP 101 will be described with reference to FIG.

始めのステップS1では、撮影画像を取得する。撮影画像は、図4に示される画像であって、YCbCr色空間により表現されるデータから成る。撮影画像において、人物の周囲にはフリンジ41が出現している。また、人物の胴部分には、フリンジに近い色差情報を有する楕円形状の模様42がある。そして処理はステップS21とS31に進む。   In the first step S1, a captured image is acquired. The photographed image is the image shown in FIG. 4 and is composed of data expressed in the YCbCr color space. In the photographed image, a fringe 41 appears around the person. In addition, there is an elliptical pattern 42 having color difference information close to a fringe on the torso of the person. Then, the process proceeds to steps S21 and S31.

次のステップS21では、撮影画像を用いて、CbCr色空間で表現されるCbCrデータ(第1の情報)から成るCbCr画像(第1の画像)を作成する。   In the next step S21, a CbCr image (first image) composed of CbCr data (first information) expressed in the CbCr color space is created using the photographed image.

次のステップS22では、撮像レンズ102からレンズデータを取得し、レンズデータを用いて収差領域を算出する。そして、CbCr画像において収差領域内に含まれる色差情報を有する画素を検出する。収差領域内に含まれる色差情報を有する画素を白で、収差領域内に含まれない色差情報を有する画素を黒で表した第1の中間補正画像を図5に示す。図5に示す画像では、図4に示す撮影画像におけるフリンジ41と模様42の一部とが白で表され、他の部分は黒で表されている。すなわち、フリンジ41と模様42の一部がフリンジとして検出されている。白で表された領域を第1の検出領域という。しかしながら、フリンジと被写体とが重なって撮像されている場合、重なった部分の色差情報は、フリンジの色差情報と被写体像の色差情報とが混ざったものになるため、フリンジ本来の色差情報から離れて、収差領域内に含まれなくなることがある。このような色差情報を有する領域は、第1の中間補正画像の第1の検出領域内に黒い点として現れる。いいかえると、第1の中間補正画像において、撮影画像におけるフリンジ41と模様42の一部に対応する領域内に複数の黒い点が存在する。次のステップS23では、これらの黒い点を除去する。   In the next step S22, lens data is acquired from the imaging lens 102, and an aberration region is calculated using the lens data. Then, a pixel having color difference information included in the aberration region in the CbCr image is detected. FIG. 5 shows a first intermediate correction image in which pixels having color difference information included in the aberration area are represented in white and pixels having color difference information not included in the aberration area are represented in black. In the image shown in FIG. 5, the fringe 41 and a part of the pattern 42 in the photographed image shown in FIG. 4 are represented in white, and the other parts are represented in black. That is, a part of the fringe 41 and the pattern 42 is detected as a fringe. A region represented in white is referred to as a first detection region. However, when the fringe and the subject are picked up, the color difference information of the overlapped part is a mixture of the color difference information of the fringe and the color difference information of the subject image, so it is separated from the original color difference information of the fringe. May not be included in the aberration region. The region having such color difference information appears as a black dot in the first detection region of the first intermediate correction image. In other words, in the first intermediate correction image, there are a plurality of black dots in a region corresponding to a part of the fringe 41 and the pattern 42 in the captured image. In the next step S23, these black dots are removed.

次のステップS23では、第1の中間補正画像にメディアンフィルタを掛ける。メディアンフィルタは画像を平滑化するフィルタであって、画像に含まれる点ノイズを除去する。これにより、図5に示す第1の中間補正画像が含む黒い点領域が除去された第2中間の補正画像を得る。図6は第2の中間補正画像を示す。   In the next step S23, a median filter is applied to the first intermediate correction image. The median filter is a filter for smoothing an image, and removes point noise included in the image. As a result, a second intermediate corrected image from which the black dot region included in the first intermediate corrected image shown in FIG. 5 is removed is obtained. FIG. 6 shows a second intermediate correction image.

次のステップS24では、第2の中間補正画像にローパスフィルタ(LPF)を掛け、第3の中間補正画像を作成する。実際にフリンジが発生している画素であるにもかかわらず、その画素の色差情報がわずかにフリンジの色差情報と異なるため、その画素が収差領域内に含まれなくなることがある。このようにわずかに異なる色差情報を持つ領域をローパスフィルタを用いて検出する。ローパスフィルタを掛けることにより、収差領域近傍に存在するフリンジを検出する。図7は第3の中間補正画像を示す。   In the next step S24, a low-pass filter (LPF) is applied to the second intermediate correction image to create a third intermediate correction image. Even though the pixel actually has a fringe, the color difference information of the pixel is slightly different from the color difference information of the fringe, so that the pixel may not be included in the aberration region. Thus, a region having slightly different color difference information is detected using a low-pass filter. By applying a low-pass filter, fringes existing in the vicinity of the aberration region are detected. FIG. 7 shows a third intermediate correction image.

次のステップS25では、第3の中間補正画像に含まれる画素の色差情報を、所定の閾値を用いて二値化する。すなわち、色差情報が閾値以上である画素をフリンジが存在する画素として検出し、色差情報が閾値未満である画素をフリンジが存在しない画素とする。これにより作成された画像を第1の収差画像とする。図8は、閾値と色差情報との関係を示した図である。閾値を下げると、フリンジが存在すると判断される領域が広くなるとともに、フリンジが存在しないと判断される領域が狭くなる。そして、閾値を下げると、フリンジが存在すると判断される領域が狭くなるとともに、フリンジが存在しないと判断される領域が広くなる。閾値を調節することにより、フリンジが存在すると判断される領域を調節できる。図9は第1の収差画像であって、色差情報が閾値以上である画素を白色で表し、色差情報が閾値未満である画素を黒色で表した画像である。ローパスフィルタによってフリンジが存在すると判断された領域が広がって、フリンジが存在しない領域をも含んでしまうおそれがあるが、閾値を用いて二値化することにより、フリンジが存在しない領域を除くことができる。   In the next step S25, the color difference information of the pixels included in the third intermediate correction image is binarized using a predetermined threshold value. That is, a pixel having color difference information equal to or greater than a threshold is detected as a pixel having fringe, and a pixel having color difference information less than the threshold is determined as a pixel having no fringe. The image created in this way is defined as a first aberration image. FIG. 8 is a diagram showing the relationship between the threshold value and the color difference information. When the threshold value is lowered, the region where it is determined that the fringe exists is widened, and the region where it is determined that no fringe is present is narrowed. When the threshold value is lowered, the region where the fringe is determined to be present becomes narrower and the region where it is determined that the fringe is not present becomes wider. By adjusting the threshold, it is possible to adjust the region where fringe is determined to exist. FIG. 9 is a first aberration image, in which pixels whose color difference information is greater than or equal to the threshold value are represented in white, and pixels whose color difference information is less than the threshold value are represented in black. The region where fringe is determined to be present by the low-pass filter may be expanded to include a region where fringe does not exist, but binarization using a threshold value may exclude regions where fringe does not exist. it can.

ステップS21からS25を実行することにより、フリンジに近い色を有する領域を検出できる。   By executing steps S21 to S25, a region having a color close to a fringe can be detected.

他方、ステップS31では、撮影画像を用いて、輝度すなわちYで表現されるYデータ(第2の情報)から成るY画像(第2の画像)を作成する。フリンジは、一般的に画素間において輝度差が大きい部分に生じる傾向がある。そこで、以降の処理では、輝度情報に基づいてフリンジを検出する。処理はステップS32とS41に進む。   On the other hand, in step S31, a Y image (second image) composed of Y data (second information) expressed by luminance, that is, Y is created using the photographed image. Generally, fringes tend to occur in a portion where a luminance difference is large between pixels. Therefore, in the subsequent processing, fringes are detected based on the luminance information. Processing proceeds to steps S32 and S41.

次のステップS32では、輝度情報に基づいて、近隣の画素との輝度差が所定値以上である画素をY画像から抽出する。ここでは、ラプラシアンオペレータやソーベルオペレータを用いて抽出する。これにより、図10に示す第4の中間補正画像が作成される。   In the next step S32, based on the luminance information, pixels whose luminance difference with neighboring pixels is greater than or equal to a predetermined value are extracted from the Y image. Here, extraction is performed using a Laplacian operator or a Sobel operator. As a result, a fourth intermediate correction image shown in FIG. 10 is created.

次のステップS33では、第4の中間補正画像に非線形のガンマを掛ける。これにより、近隣の画素との輝度差が少ない画素の輝度が下げられ、輝度差が大きい画素の輝度が上げられる。フリンジは、近隣の画素との輝度差が少ない画素にはほとんど発生することがない一方で、近隣の画素との輝度差が大きい画素に強く発生する傾向がある。非線形のガンマを用いることにより、フリンジが含まれている可能性が高い画素の輝度が上げられ、フリンジが含まれている可能性が低い画素の輝度が下げられる。これにより、図11に示す第2の収差画像が作成される。   In the next step S33, the fourth intermediate correction image is multiplied by nonlinear gamma. As a result, the luminance of a pixel having a small luminance difference from neighboring pixels is lowered, and the luminance of a pixel having a large luminance difference is increased. A fringe hardly occurs in a pixel having a small luminance difference from a neighboring pixel, but tends to occur strongly in a pixel having a large luminance difference from a neighboring pixel. By using a non-linear gamma, the luminance of a pixel having a high possibility of including a fringe is increased, and the luminance of a pixel having a low possibility of including a fringe is decreased. Thereby, the second aberration image shown in FIG. 11 is created.

ステップS31からS33を実行することにより、隣接する画素との輝度差が大きい画素を検出できる。   By executing steps S31 to S33, it is possible to detect a pixel having a large luminance difference from the adjacent pixel.

他方、ステップS41では、Y画像に含まれる画素の輝度情報を、所定の閾値を用いて二値化する。すなわち、飽和している領域の縁を検出し、飽和している領域と飽和していない領域とを区別する。これにより作成された画像を第3の収差画像とする。フリンジは、輝度情報が飽和している領域と、飽和していない領域の境界に特に強く発生する傾向がある。そこで、所定の閾値を用いて二値化することにより、飽和している領域の縁を検出し、飽和している領域から飽和していない領域を除く。図12は第5の中間補正画像であって、輝度情報が閾値以上である画素を白色で表し、輝度情報が閾値未満である画素を黒色で表した画像である。   On the other hand, in step S41, the luminance information of the pixels included in the Y image is binarized using a predetermined threshold value. That is, the edge of a saturated region is detected, and a saturated region and a non-saturated region are distinguished. The image created in this way is set as a third aberration image. Fringe tends to occur particularly strongly at the boundary between a region where luminance information is saturated and a region where saturation information is not saturated. Therefore, binarization is performed using a predetermined threshold value to detect the edge of the saturated region, and the non-saturated region is removed from the saturated region. FIG. 12 is a fifth intermediate correction image, in which pixels whose luminance information is greater than or equal to the threshold value are represented in white, and pixels whose luminance information is less than the threshold value are represented in black.

次のステップS42では、第5の中間補正画像に含まれる画像の被写体像の輪郭を検出する。これにより、図13に示す第3の収差画像が作成される。   In the next step S42, the contour of the subject image of the image included in the fifth intermediate correction image is detected. Thereby, the third aberration image shown in FIG. 13 is created.

ステップS41及び42を実行することにより、輝度情報が飽和している領域と飽和していない領域との境界を検出する。   By executing steps S41 and S42, the boundary between the region where the luminance information is saturated and the region where the luminance information is not saturated is detected.

次のステップS5では、第2の収差画像と第3の収差画像との論理和をとる。これにより、図14に示す第4の収差画像が作成される。隣接する画素との輝度差が大きい画素を含む第2の収差画像と、輝度情報が飽和している領域と飽和していない領域との境界を含む第3の収差画像との論理和をとることにより、フリンジが発生しやすい領域を確実に検出できる。   In the next step S5, the logical sum of the second aberration image and the third aberration image is obtained. As a result, a fourth aberration image shown in FIG. 14 is created. ORing a second aberration image including a pixel having a large luminance difference from an adjacent pixel and a third aberration image including a boundary between a region where the luminance information is saturated and a region where the luminance information is not saturated Thus, it is possible to reliably detect a region where fringes are likely to occur.

次のステップS6では、第4の収差画像にローパスフィルタを掛け、図15に示す第6の中間補正画像が作成される。これにより、フリンジが含まれると判断された領域の境界がぼかされる。   In the next step S6, a low-pass filter is applied to the fourth aberration image to create a sixth intermediate correction image shown in FIG. Thereby, the boundary of the area determined to contain the fringe is blurred.

次のステップS7では、第6の中間補正画像に含まれる画素の輝度情報を、所定の閾値を用いて二値化して、図16に示す第7の中間補正画像を作成する。撮影画像に出現するフリンジの幅は撮像レンズ102によって異なる。閾値の値を調節することにより、撮像レンズ102に応じた幅を用いてフリンジを検出できる。閾値を大きくするとフリンジの幅が小さい撮像レンズ102に適応し、閾値を低くするとフリンジの幅が大きい撮像レンズ102に適応する。   In the next step S7, the luminance information of the pixels included in the sixth intermediate correction image is binarized using a predetermined threshold value to create a seventh intermediate correction image shown in FIG. The width of the fringe appearing in the captured image varies depending on the imaging lens 102. By adjusting the threshold value, a fringe can be detected using a width corresponding to the imaging lens 102. Increasing the threshold value adapts to the imaging lens 102 having a small fringe width, and decreasing the threshold value adapts to the imaging lens 102 having a large fringe width.

次のステップS8では、ステップS25で作成された第1の収差画像と、ステップS7で作成された第7の中間補正画像との論理積をとり、収差検出画像を得る。   In the next step S8, a logical product of the first aberration image created in step S25 and the seventh intermediate correction image created in step S7 is obtained, and an aberration detection image is obtained.

フリンジに近い色を有する領域を含む第1の収差画像と、輝度から求められたフリンジが発生しやすい領域を有する第7の中間補正画像との論理積をとることにより、フリンジが発生する領域を確実に検出できる。   By taking the logical product of the first aberration image including a region having a color close to the fringe and the seventh intermediate correction image having a region where the fringe is likely to be obtained from the luminance, the region where the fringe is generated is obtained. It can be detected reliably.

次のステップS9では、収差検出画像にローパスフィルタを掛けて収差緩和画像を作成する。これにより、フリンジが発生する領域とその他の領域との境界がぼかされる。収差検出画像では、フリンジが発生する領域とその他の領域との境界が明確であるため、収差検出画像を撮影画像に合成すると、合成によって補正された領域と補正されていない領域との境界が明確になってしまう。しかしながら収差検出画像にローパスフィルタを掛けた後に撮影画像と合成すれば、合成によって補正された領域と補正されていない領域との境界がぼやかされて目立たなくなる。図18に収差緩和画像を示す。   In the next step S9, the aberration detection image is created by applying a low-pass filter to the aberration detection image. As a result, the boundary between the region where the fringe occurs and the other region is blurred. In the aberration detection image, the boundary between the region where the fringe occurs and the other region is clear. Therefore, when the aberration detection image is combined with the captured image, the boundary between the region corrected by the combination and the region not corrected is clear. Become. However, if the aberration detection image is combined with the photographed image after applying a low-pass filter, the boundary between the region corrected by the combination and the region not corrected is blurred and becomes inconspicuous. FIG. 18 shows an aberration alleviated image.

そして、収差緩和画像を撮影画像と合成して、フリンジを補正する。   Then, the fringe is corrected by synthesizing the aberration-relieved image with the captured image.

本実施形態によれば、1枚の撮影画像を用いてフリンジを正確に検出し、かつ補正できる。   According to this embodiment, it is possible to accurately detect and correct the fringe using a single photographed image.

なお、ステップS41において、二値化を用いずに、ガンマを用いて輝度情報の飽和部分におけるガンマを強調することにより飽和部分近傍のコントラストを高めてもよい。ステップS42において、第5の中間補正画像に含まれる被写体像の輪郭を容易に検出できる。   In step S41, the contrast in the vicinity of the saturated portion may be increased by using gamma to enhance the gamma in the saturated portion of the luminance information without using binarization. In step S42, the contour of the subject image included in the fifth intermediate correction image can be easily detected.

なお、第1の収差画像と第2の収差画像と第3の収差画像とを用いてフリンジを検出する際に、第1の収差画像、第2の収差画像、及び第3の収差画像の全て、あるいはいずれか1又は2の画像に、重み付けやαブレンドを行ってから論理和や論理積等を算出してもよい。   Note that, when the fringe is detected using the first aberration image, the second aberration image, and the third aberration image, all of the first aberration image, the second aberration image, and the third aberration image are detected. Alternatively, logical sum or logical product may be calculated after weighting or α blending is performed on any one or two of the images.

次に、図19から24を用いて第2の実施形態について説明する。第1の実施形態と同じ構成に関しては、同じ符号を付して説明を省略する。第2の実施形態によるデジタルカメラ100は、第1の収差補正処理を実行せずに、第2の収差補正処理を実行する。以下、第2の収差補正処理について説明する。   Next, a second embodiment will be described with reference to FIGS. About the same structure as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted. The digital camera 100 according to the second embodiment executes the second aberration correction process without executing the first aberration correction process. Hereinafter, the second aberration correction process will be described.

DSP101は、画像取得部及び補正部を成し、撮影画像に含まれるフリンジを補正する第2の収差補正処理を実行する。第2の収差補正処理は、1つの撮影画像から2つの画像を作成し、一方の画像からマスク画像を作成し、マスク画像を他方の画像と合成することにより、フリンジを補正する処理である。   The DSP 101 forms an image acquisition unit and a correction unit, and executes a second aberration correction process for correcting a fringe included in the captured image. The second aberration correction process is a process for correcting fringe by creating two images from one captured image, creating a mask image from one image, and synthesizing the mask image with the other image.

次に、図19を用いて、第2の収差補正処理について説明する。   Next, the second aberration correction process will be described with reference to FIG.

始めのステップS201では、撮影画像を取得する。撮影画像は、図20に示される画像である。撮影画像において、人物の周囲にはフリンジ41が出現している。そして処理はステップS221とS222に進む。   In the first step S201, a captured image is acquired. The captured image is an image shown in FIG. In the photographed image, a fringe 41 appears around the person. Then, the process proceeds to steps S221 and S222.

次のステップS221では、撮影画像を用いて補正用画像(第1の処理画像)を作成する。補正用画像は、色差情報が飽和しないように決定された値を持つパラメータを用いて作成される。これにより、撮影画像に含まれるフリンジが抑制される。パラメータは、例えば、ホワイトバランス、カラーマトリクス、ガンマ、彩度、シャープネス等である。色差情報が飽和しないように決定された値は、例えば、彩度を下げるような値、フリンジで強く発生する色のカラーマトリクスを弱めるような値である。図21に補正用画像を示す。   In the next step S221, a correction image (first processed image) is created using the captured image. The correction image is created using a parameter having a value determined so that the color difference information is not saturated. Thereby, the fringe included in the captured image is suppressed. The parameters are, for example, white balance, color matrix, gamma, saturation, sharpness, and the like. The value determined so as not to saturate the color difference information is, for example, a value that lowers the saturation or a value that weakens the color matrix of the color that is strongly generated by the fringe. FIG. 21 shows a correction image.

ステップS222は、以下の処理で撮影画像を用いる旨を示すものであり、具体的な処理は行われない。   Step S222 indicates that the captured image is used in the following processing, and no specific processing is performed.

次のステップS203では、撮影画像に含まれるフリンジを検出し、フリンジ部分を抽出したマスク画像を作成する。図22にマスク画像を示す。マスク画像は、第1の収差補正処理によって作成された収差検出画像又は収差緩和画像である。   In the next step S203, a fringe included in the photographed image is detected, and a mask image from which the fringe portion is extracted is created. FIG. 22 shows a mask image. The mask image is an aberration detection image or an aberration alleviated image created by the first aberration correction process.

次のステップS204では、マスク画像を補正用画像と合成する。これにより、補正用画像からフリンジ部分だけを抜き出した合成画像が得られる。図23に合成画像を示す。   In the next step S204, the mask image is combined with the correction image. Thereby, a composite image in which only the fringe portion is extracted from the correction image is obtained. FIG. 23 shows a composite image.

次のステップS205では、合成画像を撮影画像と合成する。詳しく説明すると、撮影画像に含まれるフリンジ部分に、抑制されたフリンジ部分が合成された補正画像が作成される。これにより、フリンジが抑制された補正画像を得る。図24に補正画像を示す。   In the next step S205, the composite image is combined with the captured image. More specifically, a corrected image in which the suppressed fringe portion is combined with the fringe portion included in the captured image is created. Thereby, a corrected image in which fringe is suppressed is obtained. FIG. 24 shows a corrected image.

本実施形態によれば、1枚の撮影画像を用いてフリンジを正確に検出し、かつ補正できる。   According to this embodiment, it is possible to accurately detect and correct the fringe using a single photographed image.

また、単純にフリンジの彩度を下げて補正する処理では、補正後のフリンジ部分の色が黒ずんでしまう恐れがあるが、本実施形態では、フリンジの彩度を落とした上で元の画像と合成するため、補正後のフリンジ部分の色が黒ずんでしまうことがない。   Further, in the process of correcting by simply lowering the fringe saturation, there is a risk that the color of the fringe portion after correction may be darkened.However, in this embodiment, the original image is reduced after the fringe saturation is reduced. Since they are combined, the corrected fringe color does not become dark.

次に、図25から30を用いて第3の実施形態について説明する。第1の実施形態と同じ構成に関しては、同じ符号を付して説明を省略する。第3の実施形態によるデジタルカメラ100は、第1の収差補正処理を実行せずに、第3の収差補正処理を実行する。以下、第3の収差補正処理について説明する。   Next, a third embodiment will be described with reference to FIGS. About the same structure as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted. The digital camera 100 according to the third embodiment executes the third aberration correction process without executing the first aberration correction process. Hereinafter, the third aberration correction process will be described.

DSP101は、画像取得部及び補正部を成し、撮影画像に含まれるフリンジを補正する第3の収差補正処理を実行する。第3の収差補正処理は、1つの撮影画像から2つの画像を作成し、一方の画像からマスク画像を作成し、他方の画像とマスク画像とを合成し、合成した画像をさらに元の画像と合成して、フリンジを補正する処理である。   The DSP 101 forms an image acquisition unit and a correction unit, and executes a third aberration correction process for correcting fringes included in the captured image. The third aberration correction process creates two images from one captured image, creates a mask image from one image, synthesizes the other image and the mask image, and further combines the synthesized image with the original image. This is a process of correcting the fringe by combining.

次に、図25を用いて、第3の収差補正処理について説明する。   Next, the third aberration correction process will be described with reference to FIG.

始めのステップS301では、撮影画像を取得する。撮影画像は、図20に示される画像である。撮影画像において、人物の周囲にはフリンジ41が出現している。そして処理はステップS311とS321に進む。   In the first step S301, a captured image is acquired. The captured image is an image shown in FIG. In the photographed image, a fringe 41 appears around the person. Then, the process proceeds to steps S311 and S321.

次のステップS311では、撮影画像を用いて検出用画像(第2の処理画像)を作成する。検出用画像は、フリンジが検出しやすくなるように決定された値を持つパラメータを用いて作成される。これにより、撮影画像に含まれるフリンジが強調される。パラメータは、例えば、ホワイトバランス、カラーマトリクス、ガンマ、彩度、シャープネス等である。フリンジが検出しやすくなるように決定された値は、例えば、特定の波長範囲にある色の彩度を上げるような値、フリンジで強く発生する色を強めるようなカラーマトリクスの値である。図26に検出用画像を示す。特定の波長範囲にある色の彩度を上げ、これにより色が飽和した部分をフリンジと判断することによって、正確かつ効率的にフリンジを検出できる。また、フリンジの色と実際の被写体の色が近い場合においても、彩度を上げることでフリンジを容易に判断できる。   In the next step S311, a detection image (second processed image) is created using the captured image. The detection image is created using parameters having values determined so that fringes can be easily detected. Thereby, the fringe included in the captured image is emphasized. The parameters are, for example, white balance, color matrix, gamma, saturation, sharpness, and the like. The value determined so that the fringe can be easily detected is, for example, a value that increases the saturation of a color in a specific wavelength range, or a color matrix value that enhances a color that is strongly generated in the fringe. FIG. 26 shows a detection image. By increasing the saturation of a color in a specific wavelength range, and determining a portion where the color is saturated as a fringe, the fringe can be detected accurately and efficiently. Even when the fringe color is close to the actual subject color, the fringe can be easily determined by increasing the saturation.

次のステップS312では、検出用画像に含まれるフリンジを検出し、フリンジ部分を抽出したマスク画像を作成する。図27にマスク画像を示す。マスク画像は、第1の収差補正処理によって作成された収差検出画像又は収差緩和画像である。   In the next step S312, a fringe included in the detection image is detected, and a mask image from which the fringe portion is extracted is created. FIG. 27 shows a mask image. The mask image is an aberration detection image or an aberration alleviated image created by the first aberration correction process.

他方、ステップS321は、以下の処理で撮影画像を用いる旨を示すものであり、具体的な処理は行われない。   On the other hand, step S321 indicates that the captured image is used in the following processing, and no specific processing is performed.

次のステップS322では、撮影画像を用いて彩度低減画像(第3の処理画像)を作成する。彩度低減画像は、撮影画像全体の彩度を低減させることにより作成された画像である。図28に彩度低減画像を示す。   In the next step S322, a saturation-reduced image (third processed image) is created using the captured image. The saturation reduction image is an image created by reducing the saturation of the entire captured image. FIG. 28 shows a saturation reduction image.

次のステップS334では、マスク画像を彩度低減画像と合成する。これにより、補正用画像からフリンジ部分だけを抜き出した合成画像が得られる。図29に合成画像を示す。   In the next step S334, the mask image is combined with the saturation reduction image. Thereby, a composite image in which only the fringe portion is extracted from the correction image is obtained. FIG. 29 shows a composite image.

次のステップS335では、合成画像を撮影画像と合成する。詳しく説明すると、撮影画像に含まれるフリンジ部分に、抑制されたフリンジ部分が合成された補正画像が作成される。これにより、フリンジが抑制された補正画像を得る。図30に補正画像を示す。   In the next step S335, the synthesized image is synthesized with the captured image. More specifically, a corrected image in which the suppressed fringe portion is combined with the fringe portion included in the captured image is created. Thereby, a corrected image in which fringe is suppressed is obtained. FIG. 30 shows a corrected image.

本実施形態によれば、第2の実施形態と同様の効果を得る。   According to this embodiment, the same effect as that of the second embodiment is obtained.

また、ステップS311において、特定の波長範囲にある色の彩度を上げ、これにより色が飽和した部分をフリンジとみなすことによって、正確かつ効率的にフリンジを検出できる。また、フリンジの色と実際の被写体の色が近い場合においても、彩度を上げることでフリンジを容易に判断できる。   Further, in step S311, the fringe can be detected accurately and efficiently by increasing the saturation of the color in the specific wavelength range and considering the portion where the color is saturated as a fringe. Even when the fringe color is close to the actual subject color, the fringe can be easily determined by increasing the saturation.

次に、図31から33を用いて第4の実施形態について説明する。第1の実施形態と同じ構成に関しては、同じ符号を付して説明を省略する。第4の実施形態によるデジタルカメラ100は、第1の収差補正処理を実行せずに、第4の収差補正処理を実行する。以下、第4の収差補正処理について説明する。   Next, a fourth embodiment will be described with reference to FIGS. About the same structure as 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted. The digital camera 100 according to the fourth embodiment executes the fourth aberration correction process without executing the first aberration correction process. Hereinafter, the fourth aberration correction process will be described.

DSP101は、画像取得部及び補正部を成し、撮影画像に含まれるフリンジを補正する第4の収差補正処理を実行する。第4の収差補正処理は、1つの撮影画像から2つの画像を作成し、一方の画像からマスク画像を作成し、他方の画像とマスク画像とを合成し、合成した画像をさらに元の画像と合成して、フリンジを補正する処理である。   The DSP 101 forms an image acquisition unit and a correction unit, and executes a fourth aberration correction process for correcting fringes included in the captured image. The fourth aberration correction process creates two images from one captured image, creates a mask image from one image, synthesizes the other image and the mask image, and further combines the synthesized image with the original image. This is a process of correcting the fringe by combining.

次に、図31を用いて、第4の収差補正処理について説明する。   Next, the fourth aberration correction process will be described with reference to FIG.

始めのステップS401では、撮影画像を取得する。撮影画像は、図20に示される画像である。撮影画像において、人物の周囲にはフリンジ41が出現している。そして処理はステップS411、S412、及びS415に進む。   In the first step S401, a captured image is acquired. The captured image is an image shown in FIG. In the photographed image, a fringe 41 appears around the person. Then, the process proceeds to steps S411, S412, and S415.

次のステップS411では、撮影画像を用いて補正用画像(第1の処理画像)を作成する。補正用画像は、色差情報が飽和しないように決定された値を持つパラメータを用いて作成される。これにより、撮影画像に含まれるフリンジが抑制される。パラメータは、例えば、ホワイトバランス、カラーマトリクス、ガンマ、彩度、シャープネス等である。色差情報が飽和しないように決定された値は、例えば、彩度を下げるような値、フリンジで強く発生する色を強めるようなカラーマトリクスの値である。図21に補正用画像を示す。   In the next step S411, a correction image (first processed image) is created using the captured image. The correction image is created using a parameter having a value determined so that the color difference information is not saturated. Thereby, the fringe included in the captured image is suppressed. The parameters are, for example, white balance, color matrix, gamma, saturation, sharpness, and the like. The values determined so as not to saturate the color difference information are, for example, values that lower the saturation and values of the color matrix that increase the color that is strongly generated by the fringe. FIG. 21 shows a correction image.

次のステップS412では、撮影画像を用いて検出用画像(第2の処理画像)を作成する。検出用画像は、フリンジが検出しやすくなるように決定された値を持つパラメータを用いて作成される。これにより、撮影画像に含まれるフリンジが強調される。パラメータは、例えば、ホワイトバランス、カラーマトリクス、ガンマ、彩度、シャープネス等である。フリンジが検出しやすくなるように決定された値は、例えば、特定の波長範囲にある色の彩度を上げるような値、フリンジで強く発生する色を強めるようなカラーマトリクスの値である。図26に検出用画像を示す。特定の波長範囲にある色の彩度を上げ、これにより色が飽和した部分をフリンジと判断することによって、正確かつ効率的にフリンジを検出できる。また、フリンジの色と実際の被写体の色が近い場合においても、彩度を上げることでフリンジを容易に判断できる。   In the next step S412, a detection image (second processed image) is created using the captured image. The detection image is created using parameters having values determined so that fringes can be easily detected. Thereby, the fringe included in the captured image is emphasized. The parameters are, for example, white balance, color matrix, gamma, saturation, sharpness, and the like. The value determined so that the fringe can be easily detected is, for example, a value that increases the saturation of a color in a specific wavelength range, or a color matrix value that enhances a color that is strongly generated in the fringe. FIG. 26 shows a detection image. By increasing the saturation of a color in a specific wavelength range, and determining a portion where the color is saturated as a fringe, the fringe can be detected accurately and efficiently. Even when the fringe color is close to the actual subject color, the fringe can be easily determined by increasing the saturation.

次のステップS413では、検出用画像に含まれるフリンジを検出し、フリンジ部分を抽出したマスク画像を作成する。図27にマスク画像を示す。マスク画像は、第1の収差補正処理によって作成された収差検出画像又は収差緩和画像である。   In the next step S413, a fringe included in the detection image is detected, and a mask image in which the fringe portion is extracted is created. FIG. 27 shows a mask image. The mask image is an aberration detection image or an aberration alleviated image created by the first aberration correction process.

次のステップS414では、マスク画像を補正用画像と合成する。これにより、補正用画像からフリンジ部分だけを抜き出した合成画像が得られる。図32に合成画像を示す。   In the next step S414, the mask image is combined with the correction image. Thereby, a composite image in which only the fringe portion is extracted from the correction image is obtained. FIG. 32 shows a composite image.

他方、ステップS415は、以下の処理で撮影画像を用いる旨を示すものであり、具体的な処理は行われない。   On the other hand, step S415 indicates that the captured image is used in the following processing, and no specific processing is performed.

次のステップS416では、合成画像を撮影画像と合成する。詳しく説明すると、撮影画像に含まれるフリンジ部分に、抑制されたフリンジ部分が合成された補正画像が作成される。これにより、フリンジが抑制された補正画像を得る。図33に補正画像を示す。   In the next step S416, the synthesized image is synthesized with the captured image. More specifically, a corrected image in which the suppressed fringe portion is combined with the fringe portion included in the captured image is created. Thereby, a corrected image in which fringe is suppressed is obtained. FIG. 33 shows a corrected image.

本実施形態によれば、第2及び第3の実施形態と同様の効果を得る。また、検出用画像と補正用画像とを用いてフリンジ部分だけを抜き出した合成画像することにより、フリンジ部分を違和感なく補正できる。   According to this embodiment, the same effects as those of the second and third embodiments are obtained. In addition, the fringe portion can be corrected without a sense of incongruity by using the detection image and the correction image to generate a composite image in which only the fringe portion is extracted.

次に図34から39を用いて第5の実施形態について説明する。第1から第4の実施形態と同様の構成については、同じ符号を付して説明を省略する。第5の実施形態では、図2に示す収差領域を決定する収差領域決定処理をDSP101が実行する。   Next, a fifth embodiment will be described with reference to FIGS. The same components as those in the first to fourth embodiments are denoted by the same reference numerals and description thereof is omitted. In the fifth embodiment, the DSP 101 executes the aberration region determination process for determining the aberration region shown in FIG.

図34は、撮像レンズ102が有するフリンジの色をCbCr平面に表した図である。図34に示されるフリンジは、CbCr平面の第一象限及び第四象限に出現する。第一象限に現れるフリンジは、撮像レンズ102が被写体よりも奥側に合焦しているいわゆる後ピンの状態において被写体に現れるものであって、パープル色やマゼンダ色を有する。第四象限に現れるフリンジは、撮像レンズ102が被写体よりも手前側に合焦しているいわゆる前ピンの状態において被写体に現れるものであって、グリーン色やブルー色を有する。   FIG. 34 is a diagram showing the fringe color of the imaging lens 102 on the CbCr plane. The fringes shown in FIG. 34 appear in the first and fourth quadrants of the CbCr plane. The fringe appearing in the first quadrant appears on the subject in a so-called rear pin state in which the imaging lens 102 is focused on the back side of the subject, and has a purple color or a magenta color. The fringe appearing in the fourth quadrant appears on the subject in a so-called front pin state in which the imaging lens 102 is in front of the subject and has a green color or a blue color.

第一象限に現れるフリンジは、楕円形状を有する第1の収差領域51により近似され、第二象限に現れるフリンジは、楕円形状を有する第2の収差領域52により近似される。第1の収差領域及び第2の収差領域52は、各々の楕円の形状及び位置を決定するパラメータにより決定される。これらのパラメータは、楕円の長軸の長さ、短軸の長さ、中心座標、及び長軸の傾き等のうち、少なくとも1つを含む。   A fringe appearing in the first quadrant is approximated by a first aberration region 51 having an elliptical shape, and a fringe appearing in the second quadrant is approximated by a second aberration region 52 having an elliptical shape. The first aberration region and the second aberration region 52 are determined by parameters that determine the shape and position of each ellipse. These parameters include at least one of the length of the major axis of the ellipse, the length of the minor axis, the center coordinates, the tilt of the major axis, and the like.

しかしながら、第1の収差領域51と第2の収差領域52との間の中間領域に発生するフリンジを有する撮像レンズ102がある。中間領域に発生するフリンジを検出する手段について、図35を用いて説明する。   However, there is an imaging lens 102 having a fringe that occurs in an intermediate region between the first aberration region 51 and the second aberration region 52. A means for detecting the fringe generated in the intermediate region will be described with reference to FIG.

DSP101は、レンズデータに基づいて、第1の収差領域51と第2の収差領域52との間の中間領域60にフリンジが発生すると判断すると、第1の収差領域51と第2の収差領域52とを繋ぐ円弧を用いて中間領域60を定義し、これら第1の収差領域51、第2の収差領域52、及び中間領域60内に色差情報が含まれるか否かを判断する。中間領域60は、パラメータを用いて決定される。中間領域60を決定するパラメータは、例えば、第1の円弧53及び第2の円弧54の形状及び位置を決定するパラメータであって、円弧の中心座標、半径、直径、及び中心角等のうち、少なくとも1つを含む。第1の円弧53及び第2の円弧54は、第1の収差領域51と第2の収差領域52とを接続する。   When the DSP 101 determines that a fringe is generated in the intermediate region 60 between the first aberration region 51 and the second aberration region 52 based on the lens data, the first aberration region 51 and the second aberration region 52. An intermediate region 60 is defined using an arc connecting the two and the first aberration region 51, the second aberration region 52, and whether or not the color difference information is included in the intermediate region 60. The intermediate area 60 is determined using parameters. The parameters for determining the intermediate region 60 are, for example, parameters for determining the shapes and positions of the first arc 53 and the second arc 54. Among the center coordinates, radius, diameter, and center angle of the arc, Including at least one. The first arc 53 and the second arc 54 connect the first aberration region 51 and the second aberration region 52.

他方、撮影画像に所定の画像処理を施した後に、フリンジを検出する場合がある。この場合、所定の画像処理を施すことによってフリンジの色差情報が変化するため、レンズデータのみに基づいて作成された収差領域の中にフリンジの色差情報が含まれなくなって、フリンジを検出できなくなる可能性がある。そこで、撮影画像に所定の画像処理を施した後であってもフリンジを検出できるように、以下の収差領域補正処理を行う。   On the other hand, a fringe may be detected after a predetermined image processing is performed on a captured image. In this case, since the color difference information of the fringe is changed by performing predetermined image processing, the color difference information of the fringe is not included in the aberration area created based only on the lens data, and the fringe cannot be detected. There is sex. Therefore, the following aberration region correction processing is performed so that the fringe can be detected even after the captured image is subjected to predetermined image processing.

収差領域補正処理の一例について図を用いて説明する。図36は、ホワイトバランスを調節した撮影画像に含まれるフリンジを検出するために用いられる収差領域を示す。   An example of the aberration region correction process will be described with reference to the drawings. FIG. 36 shows an aberration region used for detecting a fringe included in a captured image in which white balance is adjusted.

ホワイトバランスが調節された撮影画像に含まれるフリンジは、CbCr平面において平行移動する傾向がある。そこで、平行移動した収差領域を用いてフリンジを検出する。第1の収差領域51は、レンズデータを用いて算出された収差領域である。他方、ホワイトバランスを調節したとき、収差領域はベクトル56に従って移動する傾向がある。そこで、DSP101は、ベクトル56を算出し、ベクトル56を用いて第1の収差領域51を平行移動して、第3の収差領域55を算出する。そして、ホワイトバランスが調節された撮影画像に含まれている色差情報が第3の収差領域に含まれるか否かを判断する。これにより、ホワイトバランスを調節した撮影画像であっても、フリンジを適切に検出できる。   The fringe included in the photographed image in which the white balance is adjusted tends to move in parallel on the CbCr plane. Therefore, the fringe is detected using the translated aberration region. The first aberration region 51 is an aberration region calculated using lens data. On the other hand, when the white balance is adjusted, the aberration region tends to move according to the vector 56. Therefore, the DSP 101 calculates the vector 56, translates the first aberration region 51 using the vector 56, and calculates the third aberration region 55. Then, it is determined whether or not the color difference information included in the captured image with the adjusted white balance is included in the third aberration region. Thereby, even if it is a picked-up image which adjusted white balance, a fringe can be detected appropriately.

図37は、カラーマトリクスを変更した撮影画像に含まれるフリンジを検出するために用いられる収差領域を示す。   FIG. 37 shows an aberration region used for detecting a fringe included in a captured image in which the color matrix is changed.

カラーマトリクスが変更された撮影画像に含まれるフリンジは、CbCr平面において回転移動する傾向がある。そこで、回転移動した収差領域を用いてフリンジを検出する。第1の収差領域51は、レンズデータを用いて算出された収差領域である。他方、カラーマトリクスを変更したとき、収差領域は回転中心点58を中心に角度θだけ回転する傾向がある。そこで、DSP101は、回転中心点58及び角度θを算出し、回転中心点58及び角度θを用いて第1の収差領域51を回転移動して、第4の収差領域57を算出する。そして、カラーマトリクスが変更された撮影画像に含まれている色差情報が第4の収差領域57に含まれるか否かを判断する。これにより、カラーマトリクスを調節した撮影画像であっても、フリンジを適切に検出できる。   The fringe included in the captured image whose color matrix has been changed tends to rotate and move in the CbCr plane. Therefore, fringes are detected using the rotationally moved aberration region. The first aberration region 51 is an aberration region calculated using lens data. On the other hand, when the color matrix is changed, the aberration region tends to rotate about the rotation center point 58 by the angle θ. Therefore, the DSP 101 calculates the rotation center point 58 and the angle θ, rotates the first aberration region 51 using the rotation center point 58 and the angle θ, and calculates the fourth aberration region 57. Then, it is determined whether or not the color difference information included in the captured image whose color matrix has been changed is included in the fourth aberration region 57. As a result, fringe can be detected appropriately even in a captured image in which the color matrix is adjusted.

図38を用いて、収差領域決定処理について説明する。収差領域決定処理は、撮像レンズ102がカメラボディ110に取り付けられたときに実行される。   The aberration region determination process will be described with reference to FIG. The aberration region determination process is executed when the imaging lens 102 is attached to the camera body 110.

始めのステップS381では、レンズデータを用いてフリンジの色差情報を算出する。   In the first step S381, fringe color difference information is calculated using lens data.

次のステップS382では、ステップS381で算出した色差情報をCbCr平面上にプロットする。   In the next step S382, the color difference information calculated in step S381 is plotted on the CbCr plane.

次のステップS383では、ステップS382でプロットした色差情報を包含する楕円を作成する。   In the next step S383, an ellipse including the color difference information plotted in step S382 is created.

次のステップS384では、ステップS383で作成した楕円のパラメータをカメラメモリ103に記憶させる。   In the next step S384, the parameters of the ellipse created in step S383 are stored in the camera memory 103.

図37及び図39を用いて、収差領域補正処理について説明する。収差領域補正処理は、デジタルカメラ100が撮像したときにDSP101によって実行される。   The aberration region correction process will be described with reference to FIGS. The aberration area correction process is executed by the DSP 101 when the digital camera 100 captures an image.

始めのステップS391では、撮影画像を取得する。   In the first step S391, a captured image is acquired.

次のステップS392では、撮影画像を撮影したときに用いたカラーマトリクスと、第1の収差領域51を作成したときに用いたカラーマトリクスとを比較し、両者の差分を算出する。   In the next step S392, the color matrix used when the captured image is captured is compared with the color matrix used when the first aberration region 51 is created, and the difference between the two is calculated.

次のステップS393では、ステップS392で算出した差分を用いて、前述した回転中心点58及び角度θを算出する。そして、回転中心点58及び角度θを用いて第1の収差領域51を回転移動して、第4の収差領域57を算出する。   In the next step S393, the rotation center point 58 and the angle θ described above are calculated using the difference calculated in step S392. Then, the fourth aberration region 57 is calculated by rotating the first aberration region 51 using the rotation center point 58 and the angle θ.

次のステップS394では、撮影画像を撮影したときに用いたホワイトバランスと、第1の収差領域51を作成したときに用いたホワイトバランスとを比較し、両者の差分を算出する。   In the next step S394, the white balance used when the captured image is captured is compared with the white balance used when the first aberration region 51 is created, and the difference between the two is calculated.

次のステップS395では、ステップS394で算出した差分を用いて、前述したベクトル56を算出する。そして、ベクトル56を用いて第4の収差領域57を平行移動して、第5の収差領域59を算出する。   In the next step S395, the vector 56 described above is calculated using the difference calculated in step S394. Then, the fifth aberration region 59 is calculated by translating the fourth aberration region 57 using the vector 56.

これにより、撮影画像を撮影したときに用いたカラーマトリクス及びホワイトバランスに応じて収差領域を変更し、フリンジを適切に検出できる。   As a result, the fringe can be detected appropriately by changing the aberration region in accordance with the color matrix and white balance used when the captured image is captured.

本実施形態によれば、収差領域を楕円で近似し、楕円の形状及び位置を表すパラメータを記憶するため、記憶するデータ量が少なくて済む。   According to the present embodiment, the aberration area is approximated by an ellipse, and parameters representing the shape and position of the ellipse are stored, so that the amount of data to be stored can be reduced.

また、収差領域が楕円で表現できない場合であっても、中間領域60を用いて近似し、中間領域60の形状及び位置を表すパラメータを記憶するため、記憶するデータ量が少なくて済む。   Even if the aberration region cannot be expressed by an ellipse, the approximation is performed using the intermediate region 60 and the parameters representing the shape and position of the intermediate region 60 are stored, so that the amount of data to be stored is small.

さらに、撮影画像を処理した画像処理に応じて収差領域を変更するため、正確に収差を検出できる。   Furthermore, since the aberration region is changed according to the image processing in which the photographed image is processed, the aberration can be accurately detected.

なお、収差領域決定処理及び収差領域補正処理は、DSP101でなく、他の装置によって予めレンズデータを用いて実行されてもよい。このとき、算出されたパラメータは、撮像レンズ102が備えるレンズメモリ108に記憶される。DSP101は、レンズメモリ108からパラメータを読み出して、パラメータに基づいて収差を検出する。   The aberration area determination process and the aberration area correction process may be executed using lens data in advance by another apparatus instead of the DSP 101. At this time, the calculated parameters are stored in the lens memory 108 provided in the imaging lens 102. The DSP 101 reads parameters from the lens memory 108 and detects aberrations based on the parameters.

本実施形態におけるパラメータは、予めレンズデータに基づいて算出され、撮像レンズ102が備えるレンズメモリ108に記憶されてもよい。DSP101はレンズメモリ108からパラメータを読み出して、パラメータに基づいて収差を検出する。   The parameters in the present embodiment may be calculated in advance based on lens data and stored in the lens memory 108 included in the imaging lens 102. The DSP 101 reads out parameters from the lens memory 108 and detects aberrations based on the parameters.

第1の収差領域51と第2の収差領域52との間の中間領域60は、円弧でなく、他の形状を有する線分(直線)や弦(曲線)、例えば二次曲線等によって決定されてもよい。   The intermediate region 60 between the first aberration region 51 and the second aberration region 52 is not a circular arc but is determined by a line segment (straight line) or chord (curve) having another shape, for example, a quadratic curve or the like. May be.

次に、図40を用いて第6の実施形態について説明する。第1から第5の実施形態と同様の構成については、同じ符号を付して説明を省略する。第6の実施形態では、補正用画像及び検出用画像を作成する手段が第2、第3、及び第4の収差補正処理と異なる。以下、補正用画像及び検出用画像を作成する手段について説明する。   Next, a sixth embodiment will be described with reference to FIG. The same components as those in the first to fifth embodiments are denoted by the same reference numerals and description thereof is omitted. In the sixth embodiment, the means for creating the correction image and the detection image is different from the second, third, and fourth aberration correction processes. Hereinafter, means for creating the correction image and the detection image will be described.

本実施形態では、レンズデータを用いて補正用画像及び検出用画像を作成する。図40は、レンズデータを用いて算出された収差領域61をCbCr平面に示した図である。   In the present embodiment, a correction image and a detection image are created using lens data. FIG. 40 is a diagram showing the aberration region 61 calculated using the lens data on the CbCr plane.

まず、補正画像を作成する手段について説明する。始めに、DSP101は、レンズデータを用いて図40に示す収差領域61を算出する。次に、収差領域61に含まれる色差情報を有する画素を撮影画像から抽出する。そして、抽出した画素の色差情報の彩度を下げる。具体的には、CbCr平面における色差情報を原点に向けて平行移動させる。これにより、収差領域61に属する画素の色差情報は、領域62に移動する。これにより、撮影画像に含まれるフリンジのみの彩度が下げられ、フリンジが抑制される。図21に補正用画像を示す。   First, a means for creating a corrected image will be described. First, the DSP 101 calculates an aberration region 61 shown in FIG. 40 using lens data. Next, pixels having color difference information included in the aberration region 61 are extracted from the captured image. Then, the saturation of the color difference information of the extracted pixel is lowered. Specifically, the color difference information on the CbCr plane is translated toward the origin. As a result, the color difference information of the pixels belonging to the aberration area 61 moves to the area 62. Thereby, the saturation of only the fringe included in the captured image is lowered, and the fringe is suppressed. FIG. 21 shows a correction image.

次に、検出用画像を作成する手段について説明する。始めに、DSP101は、レンズデータを用いて図40に示す収差領域61を算出する。次に、収差領域61に含まれる色差情報を有する画素を撮影画像から抽出する。そして、抽出した画素の色差情報の彩度を上げる。具体的には、CbCr平面における色差情報を原点から遠ざけるように平行移動させる。これにより、収差領域61に属する画素の色差情報は、領域63に移動する。これにより、撮影画像に含まれるフリンジのみの彩度が上げられ、フリンジが強調される。図26に補正用画像を示す。   Next, a means for creating a detection image will be described. First, the DSP 101 calculates an aberration region 61 shown in FIG. 40 using lens data. Next, pixels having color difference information included in the aberration region 61 are extracted from the captured image. Then, the saturation of the color difference information of the extracted pixel is increased. Specifically, the color difference information on the CbCr plane is translated so as to be away from the origin. As a result, the color difference information of the pixels belonging to the aberration region 61 moves to the region 63. Thereby, the saturation of only the fringe included in the photographed image is increased, and the fringe is emphasized. FIG. 26 shows a correction image.

そして、彩度でなくカラーマトリクスを変更してフリンジを抑制することも可能である。以下に、カラーマトリクスを変更して補正画像を作成する手段について説明する。   It is also possible to suppress the fringe by changing the color matrix instead of the saturation. The means for creating a corrected image by changing the color matrix will be described below.

始めに、DSP101は、レンズデータを用いて図40に示す収差領域61を算出する。次に、収差領域61が存在する場合、すなわちフリンジが存在する場合、撮影画像の色差情報をRGB色空間に変換したRGB情報を取得する。そして、RGB情報を以下の式(1)を用いて変換する。
式(1)は、RGB色情報のうち、フリンジに多く含まれるブルー色を抑制する式である。式(1)を用いることにより、フリンジを抑制できる。
First, the DSP 101 calculates an aberration region 61 shown in FIG. 40 using lens data. Next, when the aberration region 61 exists, that is, when the fringe exists, RGB information obtained by converting the color difference information of the captured image into the RGB color space is acquired. Then, the RGB information is converted using the following equation (1).
Expression (1) is an expression that suppresses the blue color included in the fringe in the RGB color information. By using Formula (1), fringe can be suppressed.

他方、収差領域61が存在しない場合、すなわちフリンジが存在しない場合、RGB情報を、以下の式(2)を用いて変換する。
式(2)は、RGB色情報に単位行列を乗じており、何らのRGB情報をも変換しない。
On the other hand, when the aberration region 61 does not exist, that is, when the fringe does not exist, the RGB information is converted using the following equation (2).
Equation (2) multiplies RGB color information by a unit matrix and does not convert any RGB information.

本実施形態によれば、レンズデータを用いることにより、フリンジのみを抑制、又は強調することができる。   According to the present embodiment, it is possible to suppress or enhance only the fringe by using the lens data.

なお、本実施形態では、補正画像を作成するにあたり、収差領域61に含まれる色差情報を有する画素の彩度を下げるのではなく、収差領域61に含まれる色差情報を有する画素のシャープネスを下げてもよい。これにより、フリンジが抑制される。同様に、検出用画像を作成するにあたり、収差領域61に含まれる色差情報を有する画素の彩度を上げるのではなく、収差領域61に含まれる色差情報を有する画素のシャープネスを上げてもよい。これにより、フリンジが強調される。   In this embodiment, when creating a corrected image, the saturation of the pixels having the color difference information included in the aberration area 61 is not lowered, but the saturation of the pixels having the color difference information included in the aberration area 61 is lowered. Also good. Thereby, fringe is suppressed. Similarly, when creating a detection image, the sharpness of the pixels having the color difference information included in the aberration area 61 may be increased instead of increasing the saturation of the pixels having the color difference information included in the aberration area 61. Thereby, the fringe is emphasized.

また、本実施形態では、カラーマトリクスを変更して補正画像を作成する手段において、収差領域61に含まれる色差情報を有する画素に関しては式(1)を用いて変換し、収差領域61に含まれない色差情報を有する画素に関しては式(2)を用いて変換してもよい。このとき、DSP101は、レンズデータを用いて図40に示す収差領域61を算出する。次に、収差領域61に含まれる色差情報を有する画素を撮影画像から抽出する。次に、抽出した画素の色差情報をRGB色空間に変換したRGB情報を取得する。そして、RGB情報を式(1)を用いて変換する。式(1)を用いることにより、フリンジを抑制できる。他方、収差領域61に含まれない色差情報を有する画素に関しては、式(2)を用いて変換する。   In this embodiment, the pixel having the color difference information included in the aberration region 61 is converted by using the equation (1) in the means for creating a corrected image by changing the color matrix, and is included in the aberration region 61. A pixel having no color difference information may be converted using Equation (2). At this time, the DSP 101 calculates the aberration region 61 shown in FIG. 40 using the lens data. Next, pixels having color difference information included in the aberration region 61 are extracted from the captured image. Next, RGB information obtained by converting the color difference information of the extracted pixels into the RGB color space is acquired. Then, the RGB information is converted using Expression (1). By using Formula (1), fringe can be suppressed. On the other hand, a pixel having color difference information that is not included in the aberration region 61 is converted using Expression (2).

また、本実施形態の数1は例示であって、フリンジがグリーン色やマゼンダ色などの他の色を持つ場合、他の式が用いられる。   Further, the number 1 in this embodiment is an example, and when the fringe has another color such as green color or magenta color, another equation is used.

なお、いずれの実施形態においても、撮影画像等、全ての画像は、YCbCr色空間により表現される画像でなくてもよく、他の表色系で表現されるデータから成る画像であってもよい。   In any of the embodiments, all images such as a photographed image may not be an image expressed in the YCbCr color space, but may be an image composed of data expressed in another color system. .

なお、いずれの実施形態においても、レンズデータが撮影画像に記憶されてもよい。パソコンなどの装置が、撮影画像からレンズデータを読み出し、読み出したレンズデータを用いて収差を検出し、補正できる。また、収差を検出するに用いた他のデータを撮影画像に記憶させてもよい。パソコンなどの装置が、撮影画像から他のデータを読み出し、読み出したデータを用いて収差を検出し、補正できる。   In any embodiment, lens data may be stored in a captured image. A device such as a personal computer can read out lens data from a captured image, and can detect and correct aberrations using the read out lens data. Further, other data used for detecting the aberration may be stored in the captured image. A device such as a personal computer can read out other data from the captured image, and can detect and correct aberrations using the read data.

なお、いずれの実施形態においても、レンズデータは、撮像レンズ102に記憶されてもよく、各々の撮影レンズ102に対応するレンズデータをデジタルカメラ100に記憶されてもよい。   In any of the embodiments, the lens data may be stored in the imaging lens 102, or the lens data corresponding to each photographing lens 102 may be stored in the digital camera 100.

レンズデータは、撮影レンズ102の種類毎でなく、個体毎に測定し、記憶されてもよい。精度よくフリンジを検出及び補正できる。   The lens data may be measured and stored not for each type of the photographing lens 102 but for each individual. The fringe can be detected and corrected with high accuracy.

また、いずれの実施形態においても、撮像レンズ102はデジタルカメラ100に着脱自在に設けられず、デジタルカメラ100から取り外しできなくてもよい。デジタルカメラ100はコンパクトデジタルカメラであってもよい。   In any of the embodiments, the imaging lens 102 is not detachably provided on the digital camera 100 and may not be removable from the digital camera 100. The digital camera 100 may be a compact digital camera.

41 フリンジ
42 模様
51 第1の収差領域
52 第2の収差領域
53 第1の円弧
54 第2の円弧
55 第3の収差領域
56 ベクトル
57 第4の収差領域
58 回転中心点
59 第5の収差領域
60 中間領域
61 収差領域
100 デジタルカメラ
101 DSP
102 撮像レンズ
103 カメラメモリ
104 操作部材
105 記録媒体
106 表示媒体
107 レンズ
108 レンズメモリ
110 カメラボディ
111 CCD
120 タイミングジェネレータ
130 AFE
41 Fringe 42 Pattern 51 First Aberration Region 52 Second Aberration Region 53 First Arc 54 Second Arc 55 Third Aberration Region 56 Vector 57 Fourth Aberration Region 58 Center of Rotation 59 Fifth Aberration Region 60 Intermediate area 61 Aberration area 100 Digital camera 101 DSP
DESCRIPTION OF SYMBOLS 102 Imaging lens 103 Camera memory 104 Operation member 105 Recording medium 106 Display medium 107 Lens 108 Lens memory 110 Camera body 111 CCD
120 Timing generator 130 AFE

Claims (10)

撮像レンズを介して撮像された撮影画像を取得する画像取得部と、
前記撮影画像に含まれる収差を補正して補正画像を作成する補正部とを備え、
前記補正部は、前記撮像レンズの設計データを用いて前記撮影画像に各々異なる処理を施し、これにより1以上の処理画像を作成し、前記撮影画像及び前記1以上の処理画像のいずれか1つに所定の処理を施してマスク画像を作成し、前記マスク画像を作成する際に用いなかった前記撮影画像及び前記1以上の処理画像のいずれか1つと前記マスク画像とを合成して合成画像を作成し、前記撮影画像に前記合成画像を合成して前記補正画像を作成する画像処理装置。
An image acquisition unit that acquires a captured image captured through an imaging lens;
A correction unit that corrects aberrations included in the captured image and creates a corrected image;
The correction unit performs different processing on the captured image using design data of the imaging lens, thereby creating one or more processed images, and any one of the captured image and the one or more processed images. A mask image is created by performing predetermined processing on the mask image, and the mask image is synthesized with any one of the photographed image and the one or more processed images that are not used when creating the mask image, and a synthesized image is formed. An image processing apparatus that creates the corrected image by creating the synthesized image and synthesizing the synthesized image.
前記補正部は、前記撮像レンズの設計データを用いて前記撮影画像に第1の処理を施して得られる第1の処理画像を作成し、前記撮影画像に所定の処理を施して前記マスク画像を作成し、前記第1の処理画像と前記マスク画像とを合成して前記合成画像を作成する請求項1に記載の画像処理装置。   The correction unit creates a first processed image obtained by performing a first process on the captured image using design data of the imaging lens, performs a predetermined process on the captured image, and applies the mask image to the captured image. The image processing apparatus according to claim 1, wherein the image processing apparatus generates the combined image by combining the first processed image and the mask image. 前記補正部は、前記撮影画像に第2の処理を施して得られる第2の処理画像を作成し、前記第2の処理画像に所定の処理を施して前記マスク画像を作成し、前記第2の処理とは異なる第3の処理を前記撮影画像に施して得られる第3の処理画像を作成し、前記第3の処理画像と前記マスク画像とを合成して前記合成画像を作成する請求項1に記載の画像処理装置。   The correction unit creates a second processed image obtained by performing a second process on the captured image, creates a mask image by performing a predetermined process on the second processed image, A third processed image obtained by performing a third process different from the process in the photographed image is created, and the synthesized image is created by synthesizing the third processed image and the mask image. The image processing apparatus according to 1. 前記補正部は、前記撮影画像に第1の処理を施して得られる第1の処理画像と、前記第1の処理とは異なる第2の処理を前記撮影画像に施して得られる第2の処理画像とを作成し、前記第2の処理画像に所定の処理を施して前記マスク画像を作成し、前記第1の処理画像と前記マスク画像とを合成して前記合成画像を作成する請求項1に記載の画像処理装置。   The correction unit includes a first processed image obtained by performing a first process on the photographed image and a second process obtained by performing a second process different from the first process on the photographed image. An image is created, the mask image is created by performing a predetermined process on the second processed image, and the synthesized image is created by synthesizing the first processed image and the mask image. An image processing apparatus according to 1. 前記第1の処理は、前記撮像レンズの設計データに基づいて、前記収差が生じやすい色情報を取得し、前記撮影画像に含まれる前記収差が生じやすい色情報の値を低減する処理である請求項2又は4に記載の画像処理装置。   The first process is a process of acquiring color information that is likely to cause the aberration based on design data of the imaging lens and reducing a value of the color information that is likely to cause the aberration included in the captured image. Item 5. The image processing apparatus according to Item 2 or 4. 前記第3の処理は、前記撮像レンズの設計データに基づいて、前記収差が生じやすい色情報を取得し、前記撮影画像において前記収差が生じやすい色情報に含まれる色の彩度を低減する処理である請求項3に記載の画像処理装置。   The third process is a process of acquiring color information that is likely to cause the aberration based on design data of the imaging lens and reducing the saturation of the color included in the color information that is likely to cause the aberration in the captured image. The image processing apparatus according to claim 3. 前記第2の処理は、前記撮像レンズの設計データに基づいて、前記収差が生じやすい色情報を取得し、前記撮影画像に含まれる前記収差が生じやすい色情報を強調する処理である請求項3又は4に記載の画像処理装置。   The second process is a process of acquiring color information that is likely to cause the aberration based on design data of the imaging lens and enhancing the color information that is likely to cause the aberration included in the captured image. Or the image processing apparatus of 4. 請求項1に記載の画像処理装置と、前記撮影画像を撮像する撮像素子とを備える撮像装置。   An imaging apparatus comprising: the image processing apparatus according to claim 1; and an imaging element that captures the captured image. 撮像レンズを介して撮像された撮影画像に含まれる色情報の値に、前記撮像レンズの設計データを用いて各々異なる処理を施して得られる1以上の処理画像を作成するステップと、
前記撮影画像及び前記1以上の処理画像のいずれか1つに含まれる色情報の値に所定の処理を施してマスク画像を作成するステップと、
前記マスク画像を作成する際に用いなかった前記撮影画像及び前記1以上の処理画像のいずれか1つに含まれる色情報の値と前記マスク画像に含まれる色情報の値とを合成して合成画像を作成するステップと、
前記撮影画像に前記合成画像を合成して補正画像を作成するステップと
を備える画像処理方法。
Creating one or more processed images obtained by applying different processing to the value of color information included in the captured image captured through the imaging lens using design data of the imaging lens;
Creating a mask image by performing a predetermined process on the value of color information included in any one of the photographed image and the one or more processed images;
A color information value included in any one of the photographed image and the one or more processed images not used when creating the mask image and a color information value included in the mask image are combined and combined. Creating an image;
And a step of synthesizing the synthesized image with the photographed image to create a corrected image.
撮像レンズを介して撮像された撮影画像に含まれる色情報の値に、前記撮像レンズの設計データを用いて各々異なる処理を施して得られる1以上の処理画像を作成するステップと、
前記撮影画像及び前記1以上の処理画像のいずれか1つに含まれる色情報の値に所定の処理を施してマスク画像を作成するステップと、
前記マスク画像を作成する際に用いなかった前記撮影画像及び前記1以上の処理画像のいずれか1つに含まれる色情報の値と前記マスク画像に含まれる色情報の値とを合成して合成画像を作成するステップと、
前記撮影画像に前記合成画像を合成して補正画像を作成するステップと
を備える画像処理プログラム。
Creating one or more processed images obtained by applying different processing to the value of color information included in the captured image captured through the imaging lens using design data of the imaging lens;
Creating a mask image by performing a predetermined process on the value of color information included in any one of the photographed image and the one or more processed images;
A color information value included in any one of the photographed image and the one or more processed images not used when creating the mask image and a color information value included in the mask image are combined and combined. Creating an image;
And a step of synthesizing the synthesized image with the photographed image to create a corrected image.
JP2013226023A 2013-10-30 2013-10-30 Image processing apparatus, imaging apparatus, image processing method, and image processing program Active JP6354134B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013226023A JP6354134B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, imaging apparatus, image processing method, and image processing program
US14/524,314 US9576341B2 (en) 2013-10-30 2014-10-27 Image-processing system, imaging apparatus and image-processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013226023A JP6354134B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2015088933A true JP2015088933A (en) 2015-05-07
JP6354134B2 JP6354134B2 (en) 2018-07-11

Family

ID=53051300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013226023A Active JP6354134B2 (en) 2013-10-30 2013-10-30 Image processing apparatus, imaging apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6354134B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007129361A (en) * 2005-11-01 2007-05-24 Eastman Kodak Co Chromatic aberration suppression circuit and imaging apparatus having the same, and chromatic aberration suppression program
JP2007133592A (en) * 2005-11-09 2007-05-31 Sony Corp Image processing apparatus, method and program
JP2009284009A (en) * 2008-05-19 2009-12-03 Canon Inc Image processor, imaging device, and image processing method
JP2011211328A (en) * 2010-03-29 2011-10-20 Fujifilm Corp Purple fringe correction device, control method thereof, and program for correcting purple fringe

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007129361A (en) * 2005-11-01 2007-05-24 Eastman Kodak Co Chromatic aberration suppression circuit and imaging apparatus having the same, and chromatic aberration suppression program
JP2007133592A (en) * 2005-11-09 2007-05-31 Sony Corp Image processing apparatus, method and program
JP2009284009A (en) * 2008-05-19 2009-12-03 Canon Inc Image processor, imaging device, and image processing method
JP2011211328A (en) * 2010-03-29 2011-10-20 Fujifilm Corp Purple fringe correction device, control method thereof, and program for correcting purple fringe

Also Published As

Publication number Publication date
JP6354134B2 (en) 2018-07-11

Similar Documents

Publication Publication Date Title
JP6421794B2 (en) Image processing apparatus, image processing method, and program
CN108668093B (en) HDR image generation method and device
JP7369175B2 (en) Image processing device and its control method and program
US10440339B2 (en) Image processing apparatus, image processing method, and storage medium for performing correction for a target pixel having high luminance in an image
US9185265B2 (en) Image processing method and image processing apparatus for performing a tone correction to acquire a combined image
JP6600936B2 (en) Image processing apparatus, image processing method, image processing system, program, and recording medium
JP2006180269A (en) Image processing apparatus, image processing method, imaging apparatus, program, and recording medium
JP6720881B2 (en) Image processing apparatus and image processing method
JP6412386B2 (en) Image processing apparatus, control method therefor, program, and recording medium
JP2017102642A (en) Image processor, image processing method and program
US9576341B2 (en) Image-processing system, imaging apparatus and image-processing method
JP2009284009A (en) Image processor, imaging device, and image processing method
JP2012085083A (en) Image processing apparatus, image pickup device, and image processing program
JP6677222B2 (en) Detection device, image processing device, detection method, and image processing method
JP6213466B2 (en) Image processing apparatus, image processing method, and image processing program
JP6337441B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6318549B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6060552B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6354134B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2015088932A (en) Imaging lens, imaging apparatus, image processing program, and image processing method
JP2010187394A (en) Image processor, image processing method, imaging device, program, and recording medium
JP2013012089A (en) Image processing device, camera and image processing program
JP6556033B2 (en) Image processing apparatus, image processing method, and program
US11715185B2 (en) Image processing apparatus, image processing method, and storage medium for obtaining image evaluation value distribution corresponding to an image
JP2010266517A (en) Image sensor, image processing apparatus, image capturing apparatus, and image processing program

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20150327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250