JP2015142357A - image processing apparatus - Google Patents

image processing apparatus Download PDF

Info

Publication number
JP2015142357A
JP2015142357A JP2014016074A JP2014016074A JP2015142357A JP 2015142357 A JP2015142357 A JP 2015142357A JP 2014016074 A JP2014016074 A JP 2014016074A JP 2014016074 A JP2014016074 A JP 2014016074A JP 2015142357 A JP2015142357 A JP 2015142357A
Authority
JP
Japan
Prior art keywords
image
value
processing apparatus
component
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014016074A
Other languages
Japanese (ja)
Inventor
石賀 健一
Kenichi Ishiga
健一 石賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014016074A priority Critical patent/JP2015142357A/en
Publication of JP2015142357A publication Critical patent/JP2015142357A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which performs flare correction with high image quality.SOLUTION: The image processing apparatus includes: acquisition means for acquiring an original image represented by first to n-th (n≥3) color components; generation means for rearranging the first to n-th color components in the order of magnitudes to generate at least a maximum value surface, a minimum value surface and a median surface and applies gamma transformations of different properties to at least the maximum value surface and the minimum value surface to generate one lightness component on the basis of at least one of the maximum and minimum value surfaces to which the gamma transformations have been applied, and the median surface; and correction means for calculating a correction pixel value of the first color component in such a manner that a difference between the correction pixel value of the first color component and a local average value of the first color component in a correction target pixel of the first color component maintains a correlation to a difference between a pixel value of the lightness component and a local average value of the lightness component in the pixel.

Description

本発明は画像処理装置に関する。   The present invention relates to an image processing apparatus.

回折光学素子(Diffraction Optical Element)を用いた結像光学系を使用して、被写体像を撮影すると、明るい光源の周りに回折フレアが生じることが知られている。このような回折フレアは、回折光学素子を用いない通常のレンズでは現れないため、画像処理によって補正する試みがなされている。   It is known that when a subject image is photographed using an imaging optical system using a diffractive optical element (Diffraction Optical Element), a diffraction flare is generated around a bright light source. Since such a diffractive flare does not appear in a normal lens that does not use a diffractive optical element, attempts have been made to correct it by image processing.

特許文献1では、回折光学素子の結像特性データを、被写体距離や光学系のズーム位置、絞り値、繰り出し量、画角のあらゆる撮影環境に対応して事前に用意しておき、輝度レベルと輝度オフセット量を変数として、画像データとの一致度を見ながら、結像特性データから不要回折光の状態を推定し、その成分を原画像から減算する補正方法が開示されている。   In Patent Document 1, the image formation characteristic data of the diffractive optical element is prepared in advance in correspondence with all shooting environments such as the subject distance, the zoom position of the optical system, the aperture value, the feed amount, and the angle of view. A correction method is disclosed in which the state of unnecessary diffracted light is estimated from imaging characteristic data while subtracting its component from the original image while using the luminance offset amount as a variable and observing the degree of coincidence with the image data.

特許文献2では、特許文献1のような光学特性データは用いずに、画像データそのものから不要回折光を特定し、補正する方法を試みている。特許文献2が開示する手法は、不要回折光が目立つのは、光源が暗闇の中にあるような状況を想定して、その状況下で光源周りに発生する輝度ヒストグラムの分布の様子から不要回折光が発生している輝度レベルの範囲を特定し、その範囲に分布する輝度を暗闇の背景レベルにまで低下させて不要回折光を消すという考え方である。   In Patent Document 2, an attempt is made to specify and correct unnecessary diffracted light from image data itself without using optical characteristic data as in Patent Document 1. In the method disclosed in Patent Document 2, unnecessary diffraction light is conspicuous because it is assumed that the light source is in the dark, and the unnecessary diffraction is determined from the distribution of the luminance histogram generated around the light source in that situation. The idea is to specify a range of luminance levels where light is generated, and to reduce the luminance distributed in that range to the background level of darkness to eliminate unwanted diffracted light.

特開2005−167485号公報JP 2005-167485 A 国際公開第2010/032409号公報International Publication No. 2010/032409

特許文献2が想定する状況は、光源が暗闇の中で孤立して存在しているような場合にのみ通用する手法である。特許文献1も同様に背景が緩やかに変化する状況にまでしか通用しない。しかしながら、任意の一般被写体像というものは、そのような都合の良い状況にないのが普通であり、一般に任意の画像構造を持った被写体像が、光源の回折フレアの生じている領域にも存在している。このような環境下では、特許文献1や特許文献2が示す手法は、前提条件が成り立たないため、破綻する恐れがあった。すなわち、フレア補正によって画像構造が消失してしまう危険性があった。   The situation assumed in Patent Document 2 is a technique that is valid only when the light source is present in isolation in the dark. Similarly, Patent Document 1 only applies to situations where the background changes slowly. However, an arbitrary general subject image is usually not in such a convenient situation, and generally an object image having an arbitrary image structure is also present in a region where a diffraction flare of a light source occurs. doing. Under such circumstances, the methods shown in Patent Document 1 and Patent Document 2 may fail because the preconditions are not satisfied. That is, there is a risk that the image structure is lost due to the flare correction.

このような状況を鑑みて、本発明では、任意の被写体像にも対応した、一般性の高いフレア補正技術を提供することを目的とする。   In view of such a situation, an object of the present invention is to provide a general flare correction technique that can handle any subject image.

(1)請求項1に記載の画像処理装置は、第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面を生成するとともに、少なくとも前記最大値面と前記最小値面に対して特性の異なるガンマ変換を施し、前記ガンマ変換された最大値面と最小値面、及び前記中央値面の少なくとも1つに基づいて1つの明度成分を生成する生成手段と、第1色成分の補正対象画素において、第1色成分の補正画素値と第1色成分の局所平均値との差が、該画素における前記明度成分の画素値と前記明度成分の局所平均値との差に対して相関を保つように、前記第1色成分の補正画素値を求める補正手段と、を備えたことを特徴とする。
(2)請求項2に記載の画像処理装置は、第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面を生成するとともに、少なくとも前記最大値面と前記最小値面に対して特性の異なるガンマ変換を施し、前記ガンマ変換された最大値面と最小値面、及び前記中央値面の少なくとも1つに基づいて1つの明度成分を生成する生成手段と、第1色成分の補正対象画素において、第1色成分の補正画素値と第1色成分の局所平均値との比が、該画素における前記明度成分の画素値と前記明度成分の局所平均値との比に対して相関を保つように、前記第1色成分の補正画素値を求める補正手段と、を備えたことを特徴とする。
(3)請求項9に記載の画像処理装置は、第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、第1色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面とからなる3つの明度面を生成し、前記生成された3つの明度面に基づく値を、領域単位で選択的に加重合成し、1つの明度成分を生成する第2生成手段と、前記明度成分をフィルタリングして、逐次的に複数の解像度からなる第3高周波画像を生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第3生成手段と、原画像の第1色成分から前記第1色成分の1つに統合された第2高周波画像を減算し、前記明度成分の1つに統合された第4高周波画像を加算することによって、第1色成分の補正画像を生成する第4生成手段と、を備えたことを特徴とする。
(4)請求項13に記載の画像処理装置は、少なくとも1つの色成分からなる原画像を取得する取得手段と、前記1つの色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、前記1つに統合された第2高周波画像の各画素における値自身の大きさに基づいて、前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、原画像の1つの色成分から前記減衰された第2高周波画像を減算することによって、前記1つの色成分の補正画像を生成する第2生成手段と、を備えたことを特徴とする。
(5)請求項14に記載の画像処理装置は、少なくとも2つの色成分からなる原画像を取得する取得手段と、前記少なくとも2つの色成分の各々をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を各色成分に対して生成する第1生成手段と、前記少なくとも2つの色成分のうちの第1の色成分の前記1つに統合された第2高周波画像の各画素における値の大きさに基づいて、前記少なくとも2つの色成分のうちの第2の色成分の前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、原画像の前記第2の色成分から前記減衰された第2高周波画像を減算することによって、前記第2の色成分の補正画像を生成する第2生成手段と、を備えたことを特徴とする。
(6)請求項15に記載の画像処理装置は、少なくとも1つの色成分からなる原画像を取得する取得手段と、前記1つの色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、前記逐次的に生成された複数の解像度の第1高周波画像においてさらに前記1つの色成分をフィルタリングすることによって第3高周波画像を各解像度で生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第2生成手段と、前記1つに統合された第4高周波画像の各画素における値自身の大きさに基づいて、前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、原画像の1つの色成分から前記減衰された第2高周波画像を減算することによって、前記1つの色成分の補正画像を生成する第3生成手段と、を備えたことを特徴とする。
(7)請求項16に記載の画像処理装置は、少なくとも2つの色成分からなる原画像を取得する取得手段と、前記少なくとも2つの色成分の各々をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を各色成分に対して生成する第1生成手段と、前記少なくとも2つの色成分のうちの第1の色成分の前記逐次的に生成された複数の解像度の第1高周波画像においてさらに前記第1の色成分をフィルタリングすることによって第3高周波画像を各解像度で生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第2生成手段と、前記第1の色成分の前記1つに統合された第4高周波画像の各画素における値の大きさに基づいて、前記少なくとも2つの色成分のうちの第2の色成分の前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、原画像の前記第2の色成分から前記減衰された第2高周波画像を減算することによって、前記第2の色成分の補正画像を生成する第3生成手段と、を備えたことを特徴とする。
(1) An image processing apparatus according to a first aspect includes an acquisition unit that acquires an original image represented by first to nth color components (n ≧ 3), and values of the first to nth color components. By rearranging in order of size, at least the maximum value surface, the minimum value surface, and the median value surface are generated, and at least the maximum value surface and the minimum value surface are subjected to gamma conversion having different characteristics, and the gamma conversion is performed. Generating means for generating one brightness component based on at least one of the maximum value surface, the minimum value surface, and the median value surface; and the correction pixel value of the first color component in the correction target pixel of the first color component Correction of the first color component so that the difference between the local average value of the first color component and the local average value of the lightness component in the pixel is correlated with the difference between the pixel value of the lightness component and the local average value of the lightness component Correction means for obtaining a pixel value.
(2) An image processing apparatus according to a second aspect includes an acquisition unit that acquires an original image represented by first to nth color components (n ≧ 3), and values of the first to nth color components. By rearranging in order of size, at least the maximum value surface, the minimum value surface, and the median value surface are generated, and at least the maximum value surface and the minimum value surface are subjected to gamma conversion having different characteristics, and the gamma conversion is performed. Generating means for generating one brightness component based on at least one of the maximum value surface, the minimum value surface, and the median value surface; and the correction pixel value of the first color component in the correction target pixel of the first color component Correction of the first color component such that the ratio of the local average value of the first color component and the ratio of the pixel value of the lightness component and the local average value of the lightness component in the pixel is maintained. Correction means for obtaining a pixel value.
(3) The image processing apparatus according to claim 9 is configured to sequentially acquire an original image represented by first to nth color components (n ≧ 3), filter the first color components, and sequentially First generating means for generating a first high-frequency image having a plurality of resolutions, sequentially integrating the first high-frequency images from the lowest resolution, and generating a second high-frequency image integrated into one; The values of the 1st to nth color components are rearranged in order of size to generate at least three brightness planes including a maximum value plane, a minimum value plane, and a median plane, and the generated three brightness planes A second generation means for selectively weighting and synthesizing values based on a region unit to generate one brightness component, and filtering the brightness component to sequentially generate a third high-frequency image having a plurality of resolutions. The third high-frequency image is sequentially integrated from the lowest resolution to 1 And a third generation means for generating a fourth high-frequency image integrated with the first high-frequency image, subtracting the second high-frequency image integrated with one of the first color components from the first color component of the original image, And a fourth generation means for generating a corrected image of the first color component by adding the fourth high-frequency image integrated into one.
(4) The image processing apparatus according to claim 13 is an acquisition unit that acquires an original image composed of at least one color component, and a first that consists of a plurality of resolutions sequentially by filtering the one color component. First generation means for generating a high-frequency image, sequentially integrating the first high-frequency image from the lowest resolution to generate a second high-frequency image integrated into one, and a second integrated into the one Attenuating means for attenuating the amplitude of the value of the second high-frequency image integrated into the one based on the magnitude of the value itself in each pixel of the high-frequency image, and the attenuated first from one color component of the original image And a second generation unit that generates a corrected image of the one color component by subtracting two high-frequency images.
(5) An image processing apparatus according to claim 14, wherein an acquisition unit that acquires an original image composed of at least two color components, and each of the at least two color components are filtered, and sequentially from a plurality of resolutions. Generating a first high-frequency image, and sequentially integrating the first high-frequency image from the lowest resolution to generate a single second high-frequency image for each color component; A second color of the at least two color components based on a value magnitude at each pixel of the second high frequency image integrated with the one of the first color components of the at least two color components; Attenuating means for attenuating the amplitude of the value of the second high frequency image integrated into the one of the components, and subtracting the attenuated second high frequency image from the second color component of the original image. Correction of 2 color components Characterized by comprising second generating means for generating an image, a.
(6) An image processing apparatus according to claim 15 is an acquisition unit that acquires an original image composed of at least one color component, and a first that sequentially filters the one color component and has a plurality of resolutions. First generation means for generating a high-frequency image, sequentially integrating the first high-frequency image from the lowest resolution to generate a second high-frequency image integrated into one, and a plurality of the sequentially generated plural A third high-frequency image is generated at each resolution by further filtering the one color component in the first high-frequency image of resolution, and the third high-frequency image is sequentially integrated from the lowest resolution into one. Second generation means for generating the fourth high-frequency image, and the value of the value itself in each pixel of the fourth high-frequency image integrated into the one, the second high-frequency image integrated into the one Attenuating means for attenuating the amplitude of the original image, and third generating means for generating a corrected image of the one color component by subtracting the attenuated second high-frequency image from one color component of the original image. It is characterized by that.
(7) An image processing apparatus according to claim 16, wherein an acquisition unit that acquires an original image composed of at least two color components, and each of the at least two color components are filtered, and sequentially from a plurality of resolutions. Generating a first high-frequency image, and sequentially integrating the first high-frequency image from the lowest resolution to generate a single second high-frequency image for each color component; Filtering the first color component at each resolution by further filtering the first color component in the sequentially generated first high frequency image of the plurality of resolutions of the first color component of at least two color components. Generating and integrating the third high-frequency image sequentially from the lowest resolution to generate a fourth high-frequency image integrated into one, and integrating the first high-frequency image into the one of the first color components; Attenuating the amplitude of the value of the second high-frequency image integrated into the one of the at least two color components based on the magnitude of the value at each pixel of the fourth high-frequency image And a third generation means for generating a corrected image of the second color component by subtracting the attenuated second high-frequency image from the second color component of the original image. It is characterized by that.

光源の周りの発生した回折フレアと任意の一般被写体像が重なり合った一般画像においても、回折フレア成分のみを適切に抽出して、高画質なフレア補正技術が提供できる。   Even in a general image in which a diffractive flare generated around a light source and an arbitrary general subject image overlap each other, only a diffractive flare component can be appropriately extracted to provide a high-quality flare correction technique.

本発明の一実施形態における画像処理装置としての制御装置を搭載するカメラの構成を例示するブロック図である。It is a block diagram which illustrates the composition of the camera carrying the control device as an image processing device in one embodiment of the present invention. 画素位置の変化に応じた画素値の変動を例示する図である。It is a figure which illustrates the change of the pixel value according to the change of a pixel position. 赤系およびシアン系の色相領域におけるV面の階調変換を例示する図である。It is a figure which illustrates the gradation conversion of the V surface in a red-type and cyan-type hue area | region. 原画像の色相と彩度に応じて異なるV面が生成される様子を示す図である。It is a figure which shows a mode that a different V surface is produced | generated according to the hue and saturation of an original image. 2次微分の統合エッジ成分E(x,y)の値毎の度数分布を表す図である。It is a figure showing the frequency distribution for every value of the integrated edge component E (x, y) of a secondary differentiation. フレア精錬処理の様子を示す図である。It is a figure which shows the mode of a flare refining process. フレア補正処理ブロックを示すブロック図である。It is a block diagram which shows a flare correction process block. フレア補正処理手順を示すフローチャートである。It is a flowchart which shows a flare correction process procedure. 制御装置が画像処理を実行するためのコンピュータプログラム製品の提供形態を示す図である。It is a figure which shows the provision form of the computer program product for a control apparatus to perform an image process.

図1は、本発明の一実施形態における画像処理装置としての制御装置103を搭載するカメラ100の構成を例示するブロック図である。カメラ100は、操作部材101と、撮像素子102と、制御装置103と、メモリカードスロット104と、モニタ105と、光学系106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。   FIG. 1 is a block diagram illustrating the configuration of a camera 100 equipped with a control device 103 as an image processing device according to an embodiment of the invention. The camera 100 includes an operation member 101, an image sensor 102, a control device 103, a memory card slot 104, a monitor 105, and an optical system 106. The operation member 101 includes various input members operated by the user, such as a power button, a release button, a zoom button, a cross key, an enter button, a play button, and a delete button.

撮像素子102は、CMOSイメージセンサーなどによって構成される。撮像素子102は、回折格子レンズを含む光学系106により結像される被写体像を撮像する。撮像によって得られた原画像が、制御装置103によって撮像素子102から取得される。   The image sensor 102 is configured by a CMOS image sensor or the like. The image sensor 102 captures a subject image formed by the optical system 106 including a diffraction grating lens. An original image obtained by imaging is acquired from the imaging element 102 by the control device 103.

制御装置103は、メモリ、およびその他の周辺回路により構成され、カメラ100が行う撮影動作を制御する。制御装置103を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは揮発性のメモリであって、制御装置103が撮影処理や後述するフレア補正処理を行うためのプログラム実行時にプログラムを展開するためのワークメモリとして使用される。また、SDRAMは、データを一時的に記憶するためのバッファメモリとしても使用される。一方、フラッシュメモリは不揮発性のメモリであって、制御装置103が実行する上述したプログラムのデータや、プログラム実行時に読込まれる種々のパラメータなどが記録されている。   The control device 103 includes a memory and other peripheral circuits, and controls a photographing operation performed by the camera 100. Memory constituting the control device 103 includes SDRAM and flash memory. The SDRAM is a volatile memory, and is used as a work memory for developing a program when the control device 103 executes a program for performing photographing processing and flare correction processing described later. The SDRAM is also used as a buffer memory for temporarily storing data. On the other hand, the flash memory is a non-volatile memory in which data of the above-described program executed by the control device 103, various parameters read during program execution, and the like are recorded.

メモリカードスロット104は、記録媒体としてのメモリカードを挿入するためのスロットである。制御装置103は、撮影処理やフレア補正処理を行うことによって生成した画像ファイルを、メモリカードスロット104に挿入されているメモリカードへ書き込んで記録する。また、制御装置103は、メモリカードスロット104に挿入されているメモリカード内に記録されている画像ファイルを取得する。   The memory card slot 104 is a slot for inserting a memory card as a recording medium. The control device 103 writes and records the image file generated by performing the photographing process and the flare correction process on the memory card inserted in the memory card slot 104. Further, the control device 103 acquires an image file recorded in the memory card inserted in the memory card slot 104.

モニタ105は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)である。モニタ105には、メモリカードに記録されている画像ファイルに基づく再生画像や、カメラ100を設定するための設定メニューなどが表示される。また、使用者が操作部材101を操作してカメラ100を撮影モードに設定すると、制御装置103は、撮像素子102から時系列で取得した画像の表示用画像データをモニタ105に出力する。これによってモニタ105にスルー画が表示される。   The monitor 105 is a liquid crystal monitor (rear monitor) mounted on the back surface of the camera 100. The monitor 105 displays a reproduction image based on the image file recorded on the memory card, a setting menu for setting the camera 100, and the like. When the user operates the operation member 101 to set the camera 100 to the shooting mode, the control device 103 outputs image data for display of images acquired in time series from the image sensor 102 to the monitor 105. As a result, a through image is displayed on the monitor 105.

撮像素子102は単板式カラー撮像素子であって、その撮像面にはR(赤)、G(緑)、およびB(青)のカラーフィルタがBayer配列にしたがって配置されている。すなわち、制御装置103が撮像素子102やメモリカードスロット104に挿入されているメモリカードから取得する画像データはRGB表色系で示されるものとし、この画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在する。   The image sensor 102 is a single-plate color image sensor, and R (red), G (green), and B (blue) color filters are arranged in accordance with the Bayer array on the imaging surface. That is, the image data acquired from the control device 103 from the image sensor 102 or the memory card inserted in the memory card slot 104 is shown in the RGB color system, and each pixel constituting the image data has RGB data. The color information of any one of the color components exists.

上述したように、制御装置103は、フラッシュメモリからフレア補正処理を行うためのプログラムを読み込んで実行することによって、撮像素子102やメモリカードスロット104に挿入されているメモリカードから取得する原画像に対するフレア補正処理を行う。フレア補正処理を行うためのプログラムによって行われるフレア補正処理のアルゴリズムの実施形態の具体例に入る前に、光学系106に用いられる回折格子を含むレンズで生じたフレアの性質について述べ、フレア補正アルゴリズムの基本概念について記述する。   As described above, the control device 103 reads and executes a program for performing flare correction processing from the flash memory, thereby executing an original image acquired from the image sensor 102 or the memory card inserted in the memory card slot 104. Perform flare correction processing. Before entering a specific example of an embodiment of an algorithm for flare correction processing performed by a program for performing flare correction processing, the nature of flare generated in a lens including a diffraction grating used in optical system 106 will be described, and a flare correction algorithm will be described. Describe the basic concept of.

<回折フレアの性質>
回折フレアの性質には大別して2種類の系統がある。1つはシアン系フレアであり、もう1つは赤系フレアである。回折格子の設計にもよるが、回折による輪帯成分の出方には概ねその二つに大別される。色相が0度近傍の値をとる赤と、色相が180度近傍の値をとるシアンとは、色相環の中でちょうど反対色の関係にある。
<Properties of diffraction flare>
There are roughly two types of diffraction flare properties. One is a cyan flare and the other is a red flare. Although depending on the design of the diffraction grating, the way of producing the annular component by diffraction is roughly divided into two. Red in which the hue has a value near 0 degrees and cyan in which the hue has a value in the vicinity of 180 degrees are in an opposite color relationship in the hue circle.

シアン系フレアは、例えば、HIDランプを付けた自動車のヘッドライトなどで出やすく、回折フレアの0次から2次項程度の低次の輪帯が光源の周りに局所的に固まって、塊状の明るい光球が光源の周りを覆い尽くす。このようなフレアは、RGB面の内、B面とG面に主に出ている。信号機の青信号などにおいても同様な塊状の回折フレアが被り、青信号の周りのフードの形等が見えなくなるまで覆い尽くされる。   For example, cyan flare is easily generated by a headlight of an automobile with an HID lamp, etc., and low-order annular zones of the 0th order to the second order term of the diffraction flare are locally solidified around the light source, and are bright in a lump. A light bulb covers the area around the light source. Such flare mainly appears on the B and G planes of the RGB plane. The green light of a traffic light is covered with a similar massive diffractive flare and is covered until the shape of the hood around the green light is not visible.

なお、緑フレアが街灯等の水銀灯ランプの周りに出やすい。緑フレアの出方はシアン系フレアの出方によく似ていて、低次の回折光が局所的に丸く現れやすい。緑フレアは主に、G面とB面にその輪帯の形が現れている。   Green flare is likely to appear around mercury lamps such as street lamps. The appearance of green flare is very similar to that of cyan flare, and low-order diffracted light tends to appear locally round. The green flare mainly shows the shape of the ring zone on the G and B sides.

赤系フレアは、例えば、普通の白熱電球の光源や、それを使った大衆車のヘッドライトなどの周りに出やすく、回折フレアは、5〜6次にも及ぶ幾本ものフレア輪帯が光源から非常に遠い範囲にまで亘って広がる。これは主にはR面に出ている。   Red flare, for example, is easily emitted around the light source of ordinary incandescent light bulbs and the headlights of passenger cars using the same, and the diffractive flare has light sources of several flares that range from 5th to 6th. It extends over a very far range. This is mainly on the R side.

なお、黄色系フレアも出方としては、似たような大輪帯が幾本にも亘って広域に出ることが多い。例えば、太陽を直接撮影すると、画像全面に亘って黄色や赤の大輪帯が広がる。黄色系フレアは、主にR面やG面に輪帯成分が出ている。   In addition, yellow flare often comes out over a wide area with many similar large rings. For example, when the sun is photographed directly, a large yellow or red zone is spread over the entire image. The yellow flare has an annular component mainly on the R and G planes.

<フレア補正の原理>
上述で説明したフレア成分をよく観察すると、RGB面の内、どれか1つの色面ではフレア輪帯が現れていないことがわかる。したがって、その事実を積極的に利用して画像補正を行う。もし仮に、RGBの何れかを参照してフレアの抑制された1つの明度面を作り得たと仮定する。これを仮にV面とする。そうした明度面を作ることができたならば、その明度面にはフレアの輪帯成分が含まれず、かつ画像構造を画素単位の精度まで分解しうる明度面ができていることになる。
<Principle of flare correction>
When the flare component described above is observed closely, it can be seen that the flare ring zone does not appear in any one of the RGB planes. Therefore, image correction is performed by actively utilizing the fact. Suppose that one brightness surface with reduced flare can be created with reference to any of RGB. This is assumed to be a V plane. If such a brightness plane can be created, the brightness plane does not contain the flare zonal component, and a brightness plane that can decompose the image structure to the pixel unit accuracy is created.

したがって、フレアの生じたRGBの各面は、そのV面(明度面)になぞらえるように補正するのがよい。すなわち、RGB各色面内において、ある画素位置におけるR成分の画素値r、G成分の画素値g、B成分の画素値bのそれぞれの補正値r’,g’,b’と局所平均値<r>,<g>,<b>との間の比が、V面のその位置における画素値vと局所平均<v>との比と相関を保つように、RGB各色面の補正値r’,g’,b’を求める。言い換えると、RGB各色面の局所的な変動をV面の局所的な変動と同一の振る舞いをするように補正値r’,g’,b’を求める。これは平均的な色を保ちつつ、画像構造をV面に合わせるということもできる。例えば、図2に示すように、画素位置の変化に応じたV面の画素値の変動が実線210で表されるように比較的なだらかであるのに対し、画素位置の変化に応じたRGB各色面の画素値の変動が破線220で表されるように比較的急激に増減を繰り返していたとする。この場合において、RGB各色面の画素値の変動を、V面の局所的な変動と同一の振る舞いとなるように補正した結果、補正値r’,g’,b’は、一点鎖線230で表されるように、V面の画素値に似た変動を示す。これを式で表すと、次式(1)のような補正を行うことになる。式(1)は、上から順に、RGB各色面の補正式の例である。

Figure 2015142357
Therefore, it is preferable to correct each surface of RGB in which flare occurs so as to be compared with the V surface (lightness surface). That is, within each RGB color plane, correction values r ′, g ′, b ′ and local average values of the R component pixel value r, the G component pixel value g, and the B component pixel value b at a certain pixel position < The correction value r ′ for each color plane of RGB so that the ratio between r>, <g>, <b> is correlated with the ratio between the pixel value v at that position on the V plane and the local average <v>. , G ′, b ′. In other words, the correction values r ′, g ′, and b ′ are obtained so that the local variation of each RGB color plane behaves the same as the local variation of the V plane. This also means that the image structure is adjusted to the V plane while maintaining the average color. For example, as shown in FIG. 2, the change in the pixel value on the V plane according to the change in the pixel position is relatively gentle as represented by the solid line 210, whereas each of the RGB colors according to the change in the pixel position It is assumed that the fluctuation of the pixel value on the surface is repeatedly increased and decreased relatively rapidly as indicated by the broken line 220. In this case, the correction values r ′, g ′, and b ′ are represented by the alternate long and short dash line 230 as a result of correcting the fluctuation of the pixel values of the RGB color planes to behave the same as the local fluctuation of the V plane. As can be seen, the variation is similar to the pixel value on the V plane. When this is expressed by an equation, correction as in the following equation (1) is performed. Formula (1) is an example of correction formulas for RGB color planes in order from the top.
Figure 2015142357

<>は局所平均を行う演算を意味する。R面に生じているフレア輪帯の構造を消し去るには、<r>の平滑化を行う範囲はフレア輪帯が発生している領域と発生していない領域が混合する程度の広さの平滑化を行う必要がある。通常、この範囲は広域の画像平滑化となる。   <> Means an operation that performs local averaging. In order to eliminate the flare ring zone structure generated on the R plane, the area where <r> is smoothed is wide enough to mix the area where the flare ring zone is generated and the area where the flare ring zone is not generated. Smoothing is required. Normally, this range is a wide area image smoothing.

これを対数階調空間に移行すると、上述の演算は次式(2),(3),(4)のような和と差の演算で表すことができる。ただし、R=log(r),R’=log(r’),G=log(g),G’=log(g’),B=log(b),B’=log(b’),V=log(v)である。また、係数αは0〜1の範囲の値をとり、α=α(x,y)であり、画像の場所に依存した関数である。フレア補正を行う領域では、α=1の値をとる。フレア補正を行わない領域では、α=0の値をとる。

Figure 2015142357
Figure 2015142357
Figure 2015142357
When this is shifted to the logarithmic gradation space, the above-described operation can be expressed by the sum and difference operations as in the following equations (2), (3), and (4). However, R = log (r), R ′ = log (r ′), G = log (g), G ′ = log (g ′), B = log (b), B ′ = log (b ′), V = log (v). The coefficient α takes a value in the range of 0 to 1, and α = α (x, y), which is a function depending on the location of the image. In the area where flare correction is performed, α = 1. In a region where flare correction is not performed, α = 0.
Figure 2015142357
Figure 2015142357
Figure 2015142357

R面を例に説明すると、上記式(2)の補正項の第1項(R−<R>)は、原画像から平滑化画像を引き算して得られたR面のエッジ画像に対応する。式(2)に示すように、補正項の第1項をR面自身から減算することによってフレア輪帯の成分を消滅させ、その代わりにフレアのないV面で得られたエッジ画像に対応する補正項の第2項(V−<V>)を加算してエッジ回復する。   Explaining the R plane as an example, the first term (R- <R>) of the correction term in the above equation (2) corresponds to the edge image of the R plane obtained by subtracting the smoothed image from the original image. . As shown in Equation (2), the first term of the correction term is subtracted from the R plane itself to eliminate the flare ring component, and instead corresponds to the edge image obtained on the V plane without flare. The second term (V- <V>) of the correction term is added to recover the edge.

広域の平滑化によってエッジ構造を抽出する必要があるため、多重解像度表現を使うとよい。例えば、ラプラシアンピラミッド表現がある。他にもウェーブレット変換を使うこともできる。これらは何れも、原画像をフィルタリングしてダウンサンプリングされた所定周波数未満の低周波画像と所定周波数以上の高周波画像に分け、それを低周波画像に対して繰り返し行うことによって、最低解像度の低周波画像と各解像度の高周波画像の連なりによって、原画像を等価表現することにある。したがって、最低解像度の低周波画像をゼロに設定して、逆多重解像度変換を行うと、原画像のエッジを等価的に表した多重解像度統合エッジ成分が生成されることになる。そのように生成したRGB各色面やV面の多重解像度統合エッジ成分を、上式(2),(3),(4)の補正項の括弧の中の項が表すと考えることができる。   Since it is necessary to extract the edge structure by smoothing over a wide area, it is preferable to use multi-resolution representation. For example, there is a Laplacian pyramid expression. You can also use wavelet transform. These are all filtered by dividing the original image into a low-frequency image with a frequency lower than a predetermined frequency and a high-frequency image with a frequency equal to or higher than a predetermined frequency. The original image is equivalently expressed by a series of images and high-frequency images of each resolution. Therefore, when the low-frequency image with the lowest resolution is set to zero and inverse multi-resolution conversion is performed, a multi-resolution integrated edge component that equivalently represents the edge of the original image is generated. It can be considered that the multi-resolution integrated edge components of the RGB color planes and V planes generated in this way are represented by the terms in the parentheses of the correction terms of the above formulas (2), (3), and (4).

上記RGB空間での式を、色空間変換して輝度と色差で表されたYCbCr空間に移行すると、上記式(2),(3),(4)は等価的に次式(5),(6),(7)のように表すことができる。ただし、係数βは0〜1の範囲の値をとり、β=β(x,y)であり、画像の場所に依存した関数である。輝度成分に対する補正領域を限定する関数である係数αと色差成分に対する補正領域を限定する関数である係数βは同一でなくても、それぞれに適した関数を設定すればよいので、別の定数を用いた。

Figure 2015142357
Figure 2015142357
Figure 2015142357
When the expression in the RGB space is converted to a YCbCr space expressed by luminance and color difference by color space conversion, the expressions (2), (3), (4) are equivalently expressed by the following expressions (5), ( 6) and (7). However, the coefficient β takes a value in the range of 0 to 1, β = β (x, y), and is a function depending on the location of the image. Even if the coefficient α that is a function that limits the correction area for the luminance component and the coefficient β that is a function that limits the correction area for the color difference component are not the same, it is only necessary to set a function suitable for each. Using.
Figure 2015142357
Figure 2015142357
Figure 2015142357

したがって、色差成分の補正画素値を求める際には、式(6),(7)に示すように、色差成分Cb,Crから色差面の等価エッジ成分(Cb−<Cb>),(Cr−<Cr>)を減算することによって、フレアの色輪帯を平均色に近づける操作のみを施す。輝度成分の補正画素値を求める際には、式(5)に示すように、輝度成分Yから等価エッジ(Y−<Y>)を減算することによって、輝度面に生じた輪帯成分を消滅させつつ、フレアのない明度情報(V−<V>)を参照して画像構造のエッジ回復を図る。   Therefore, when obtaining the corrected pixel value of the color difference component, as shown in the equations (6) and (7), the equivalent edge components (Cb− <Cb>), (Cr− By subtracting <Cr>), only the operation of bringing the flare color zone closer to the average color is performed. When obtaining the correction pixel value of the luminance component, the annular component generated on the luminance plane is eliminated by subtracting the equivalent edge (Y− <Y>) from the luminance component Y as shown in Equation (5). The edge of the image structure is recovered with reference to the lightness information (V- <V>) without flare.

<V面の生成法>
次に上述の説明で仮定してきたフレアの抑制された明度面(V面)を生成する方法について述べる。まず初めに、各画素において存在する(R,G,B)値の3つの色成分値を値の大きさの順に並び替えて、式(8)に示すように、最大値面Vmax、中央値面Vmed、最小値面VminをRGB面から作る。こうして生成された最大値面、中央値面、最小値面はそれぞれが像構造としての不連続性はなく、自然な画像構造面として認知することができる。したがって、画像構造を保存したエッジ構造の抽出が可能な面としての利用価値が生じる。

Figure 2015142357
<V-plane generation method>
Next, a method for generating a lightness surface (V surface) with suppressed flare assumed in the above description will be described. First, the three color component values of the (R, G, B) values existing in each pixel are rearranged in the order of the size of the values, and as shown in the equation (8), the maximum value plane V max , the center The value surface V med and the minimum value surface V min are created from the RGB surfaces. Each of the maximum value plane, median value plane, and minimum value plane generated in this way has no discontinuity as an image structure, and can be recognized as a natural image structure plane. Therefore, the utility value as a surface capable of extracting the edge structure storing the image structure is generated.
Figure 2015142357

このように値の並び替えを行うと、最大値面にはフレア成分が集中的に集まってくる。他方、最小値面には基本的にフレアのない面が生成される。一方、中央値面には、フレアの種類によってはフレアのないきれいな輝度構造が現れている場合もあれば、フレアの構造が現れている場合もある。一般に、赤系フレアなどの単色が主体のフレアには中央値面にはフレアは現れず、シアン系フレアなどの2色が主体のフレアには中央値面にもフレアが現れている。したがって、画像構造が赤系の領域では中央値面を利用して明度成分を生成することができるが、シアン系の領域では中央値面を利用して明度成分を生成することができない。   When the values are rearranged in this way, flare components are concentrated on the maximum value surface. On the other hand, a surface having no flare is basically generated on the minimum value surface. On the other hand, depending on the type of flare, a clear luminance structure without flare may appear on the median surface, or a flare structure may appear. In general, a flare mainly composed of a single color such as a red flare does not show a flare on the median plane, and a flare mainly composed of two colors such as a cyan flare also appears on the median plane. Therefore, a brightness component can be generated using the median value plane in a red-based region, but a brightness component cannot be generated using a median surface in a cyan region.

輝度の構造という視点から考えると、HSV空間のV面がVmaxを使用しているように、明るい面の方が輝度情報を多く含んでいると考えられる。しかしながら、最大値面にはフレアが集まってくるので、フレア補正の目的にはあまり多くを参照することができない。その意味では、次に重要になるのは中央値面の輝度構造である。ゆえに、赤系の色相領域では中央値面を参照してV面を生成するのがよい。一方のシアン系の色相領域ではフレアが生じていないのは最小値面だけである。したがって、最小値面を最も支配的に参照しながらV面を生成する。 From the viewpoint of the structure of luminance, it is considered that the bright surface contains more luminance information as the V surface of the HSV space uses V max . However, since flare gathers on the maximum value surface, much cannot be referred to for the purpose of flare correction. In that sense, the next important thing is the luminance structure of the median plane. Therefore, it is preferable to generate the V plane with reference to the median plane in the red hue region. On the other hand, in the cyan hue region, only the minimum value plane has no flare. Therefore, the V plane is generated while referring to the minimum value plane most dominantly.

シアン系の色相領域で参照する最小値面は最も暗い面であり、画像の輝度構造を表さない場合も存在しうる。このような状況に対応するため、シアン系の色相領域では、最小値面と共に最大値面も参照し、その平均値によってV面を生成するものとする。ここで、フレアの発生している最大値面を導入するには工夫が必要である。フレア補正の原理の節で説明したように、エッジ回復を行うために抽出するのは、V面そのままの値の輝度構造ではなく、V面から抽出したエッジ構造、すなわちコントラスト情報である。フレアは、最大値面の中でも最も階調が明るい領域に集まっていると考えられ、その他の階調領域では実在する画像構造を表していると考えられる。したがって、フレアが集まっている階調域をコントラスト圧縮して、エッジ成分としてほとんど抽出されないようにし、実在エッジのみのコントラストが最大値面から抽出されるように最大値面に対して階調変換を行う。   The minimum value surface referred to in the cyan hue region is the darkest surface, and may not represent the luminance structure of the image. In order to cope with such a situation, in the cyan hue region, the maximum value surface is referred to together with the minimum value surface, and the V surface is generated based on the average value. Here, it is necessary to devise in order to introduce the maximum value plane in which flare occurs. As described in the section on the principle of flare correction, the edge structure extracted from the V plane, that is, contrast information, is not extracted for performing edge recovery, but the luminance structure of the value as it is in the V plane. The flare is considered to be gathered in an area where the gradation is brightest among the maximum value planes, and is considered to represent an actual image structure in the other gradation areas. Therefore, the gradation area where the flare is gathered is subjected to contrast compression so that it is hardly extracted as an edge component, and gradation conversion is performed on the maximum value surface so that the contrast of only the existing edge is extracted from the maximum value surface. Do.

一方のフレア発生源となった光源領域のコントラスト構造は、最大値面からは弱くしか抽出されないので、その領域のフレアのない状態でコントラストを回復する必要がある。そのために、フレアの発生していない最小値面を最大値面とは逆のガンマ変換を行って、最大値面で抽出できなかった階調領域のコントラストを最小値面から挽回するように増幅して抽出する。一方の最大値面でコントラストが強調される領域の実在エッジが多い部分の画像構造は、最小値面では逆に弱められたコントラストの状態で抽出されるようにすれば、互いに相殺し合って、全階調域で適正なレベルのコントラストを保った、輝度構造がV面から抽出されうる。   Since the contrast structure of the light source region that is one of the flare generation sources is extracted only weakly from the maximum value plane, it is necessary to recover the contrast without flare in that region. For this purpose, the minimum value plane where no flare occurs is subjected to gamma conversion opposite to the maximum value plane, and the contrast of the gradation area that could not be extracted on the maximum value plane is amplified so as to recover from the minimum value plane. To extract. On the other hand, if the image structure of the part where there are many real edges in the region where the contrast is emphasized on the one of the maximum value planes is extracted in a contrast state that is weakened on the contrary on the minimum value plane, they cancel each other out. A luminance structure that maintains an appropriate level of contrast in all gradation ranges can be extracted from the V plane.

図3は、赤系およびシアン系の色相領域におけるV面の階調変換を例示する図である。赤系の色相領域におけるV面に用いられる中央値面Vmedでは階調変換が行われず、これを換言すると、実線310で表されるように、中央値面Vmedでは1倍の線形変換が行われたともいえる。シアン系の色相領域におけるV面に用いられる最大値面Vmaxでは、破線320で表される平方根型階調特性を有するガンマ変換によって、フレアが集まっている高階調域でのコントラストが圧縮される。高階調域でのコントラストが圧縮されると、その領域に含まれる実在エッジも弱められるので、この実在エッジを回復するために、フレアが少ない最小値面Vminもシアン系の色相領域におけるV面に用いられる。この最小値面Vminでは、一点鎖線330で表される平方型階調特性を有するガンマ変換によって高階調域でのコントラストが増幅され、強調された実在エッジを取り出すことが可能となる。 FIG. 3 is a diagram illustrating gradation conversion of the V plane in the red and cyan hue regions. In the median plane V med used for the V plane in the red hue region, gradation conversion is not performed. In other words, as represented by the solid line 310, the median plane V med has a linear transformation of 1 time. It can be said that it was done. In the maximum value surface V max used for the V surface in the cyan hue region, the contrast in the high gradation region where the flare is gathered is compressed by the gamma conversion having the square root type gradation characteristic represented by the broken line 320. . When the contrast in the high gradation region is compressed, the real edge included in the region is also weakened. Therefore, in order to recover the real edge, the minimum value surface V min with less flare is also used as the V surface in the cyan hue region. Used for. In this minimum value plane V min , the contrast in the high gradation region is amplified by the gamma conversion having the square gradation characteristic represented by the alternate long and short dash line 330, and the emphasized real edge can be extracted.

したがって、V面の生成方法は、次式(9),(10)の通りとなる。赤系の色相領域におけるV面は式(9)にしたがって生成され、シアン系の通常の色相領域におけるV面は式(10)にしたがって生成される。ただし、各々の明度成分(明るさ変数)Vの値は[0,1]の範囲に規格化されているものとする。

Figure 2015142357
Figure 2015142357
Therefore, the V plane generation method is as shown in the following equations (9) and (10). The V plane in the red hue region is generated according to the equation (9), and the V plane in the normal cyan hue region is generated according to the equation (10). However, it is assumed that the value of each lightness component (brightness variable) V is standardized in the range of [0, 1].
Figure 2015142357
Figure 2015142357

式(10)においては、最大値面に対して平方根型の階調変換を行い、最小値面に対して平方型の階調変換を行う。しかし、実験的に調べてみると、原画像中のシアン系の色相領域で特に彩度が所定値以上の高彩度部の領域では、この階調変換を逆転させた方がフレア成分をより抑制したV面を生成しうることが判明しているので、その高彩度部の領域でのV面の生成には式(11)を用いる。式(10)は、原画像中のシアン系の色相領域で彩度が所定値未満の領域で用いられる。所定値は、例えば256階調において210±10である。

Figure 2015142357
In Expression (10), the square root type gradation conversion is performed on the maximum value plane, and the square type gradation conversion is performed on the minimum value plane. However, when experimentally examined, the flare component was more suppressed by reversing the tone conversion in the cyan hue area of the original image, particularly in the high saturation area where the saturation was a predetermined value or more. Since it has been found that the V plane can be generated, Expression (11) is used to generate the V plane in the region of the high saturation portion. Expression (10) is used in a cyan hue region in the original image where the saturation is less than a predetermined value. The predetermined value is 210 ± 10 in 256 gradations, for example.
Figure 2015142357

ゆえに、フレアの抑制されたV面を生成するために、原画像の色相と彩度に応じて、その生成法を変える。その様子を図4にまとめる。図4において、フレアは、色相が0度近傍、すなわち0〜90度程度および270〜360度程度の赤系、および色相が180度近傍、すなわち90〜270度程度のシアン系に大まかに2分類され、V面生成法はそれに応じて切り替えているだけであるので、フレアのない明度面の生成法としては一般性の高い概念である。図4において、例えば緑フレアや黄色系フレアについて赤系フレアやシアン系フレアとは異なるフレア補正が行われる等の場合において、赤系フレアの色相は0〜60度程度および300〜360度程度、ならびにシアン系フレアは色相が120〜240度程度であることとしてもよい。   Therefore, in order to generate a V plane with reduced flare, the generation method is changed according to the hue and saturation of the original image. This is summarized in FIG. In FIG. 4, the flare is roughly classified into two types, a hue near 0 degree, that is, a red system with about 0 to 90 degrees and about 270 to 360 degrees, and a hue with a hue near 180 degrees, that is, about 90 to 270 degrees. Since the V plane generation method is switched only in accordance with this, it is a general concept as a method of generating a brightness plane without flare. In FIG. 4, for example, when a flare correction different from a red flare or a cyan flare is performed for a green flare or a yellow flare, the hue of the red flare is about 0 to 60 degrees and about 300 to 360 degrees. In addition, the cyan flare may have a hue of about 120 to 240 degrees.

なお、上述のような大別はできないが、黄色系フレアの大輪帯構造では、式(12)によれば、効果的にフレア輪帯の消滅した明度面を生成しうることも実験的には確認している。黄色系フレアについては、式(12)を式(9)と比較すると、赤系フレアの半分程度のフレア輪帯がR面に生じるとともに、残り半分程度のフレア輪帯がG面においてR面とは逆位相で発生している。

Figure 2015142357
Although it is not possible to classify as described above, according to the formula (12), it is experimentally shown that the brightness surface in which the flare ring disappears can be generated effectively according to the equation (12). I have confirmed. For yellow flares, when Equation (12) is compared with Equation (9), about half of the red flares are generated on the R surface, and the other half of the flares are on the G surface. Is generated in antiphase.
Figure 2015142357

<フレア精錬>
式(5)〜(7)では、フレア補正を行う箇所について、領域単位の関数である係数α、βを設定する式を提示した。ここでは、色差成分に対する補正領域特定関数である係数βを具体的に実現する考え方について述べる。フレア補正において、輝度成分はV面によるエッジ回復機能が存在するが、色差成分はその機能がないため、色差面から抽出されたエッジ成分からフレア成分だけを残し、実在エッジ成分は排除する機能を入れないと、色が抜けてしまう弊害が発生する。色差面におけるフレア成分と実在エッジ成分との見分け方について、ここで述べる。
<Flare refining>
In formulas (5) to (7), formulas for setting the coefficients α and β, which are functions in units of regions, are presented for locations where flare correction is performed. Here, the concept of concretely realizing the coefficient β, which is a correction area specifying function for the color difference component, will be described. In flare correction, the luminance component has an edge recovery function based on the V plane, but the chrominance component does not have that function, so that only the flare component is left from the edge component extracted from the chrominance plane, and the actual edge component is excluded. Otherwise, the color will be lost. Here, how to distinguish between the flare component and the actual edge component on the color difference plane will be described.

通常、回折フレア成分は、画像の実在エッジ構造に比べて非常に緩やかに変化する。この性質を利用すると、原画像を等価的に表した統合エッジ成分E(x,y)に対し、エッジ強度が大きければ実在エッジである可能性が非常に高い。一方、エッジ強度が小さければフレア成分の可能性が高い。したがって、抽出されたエッジ成分に対してコアリング処理をしてやれば、実在エッジ成分を排除することができる。すなわち、コアリング処理によって、原画像を等価的に表した統合エッジ成分E(x,y)のエッジ強度(統合エッジ成分の高周波画像の値の振幅)を減衰させる。多重解像度変換で生成する高周波画像は通常2次微分のエッジ検出フィルタを用いて生成する。ラプラシアンピラミッドの名前もそこに由来する。したがって、このコアリング処理を、2次微分の統合エッジ成分E(x,y)によるフレア成分を残す精錬処理という意味で、2次のフレア精錬と呼ぶことができる。フレア精錬とは、エッジ成分から実在エッジを取り除いてフレアを取り出すことをいう。式(13)に示す2次のフレア精錬によってフレアとしてエッジ成分E’(x,y)が取り出される。

Figure 2015142357
Normally, the diffractive flare component changes very slowly compared to the real edge structure of the image. If this property is used, if the edge strength is large with respect to the integrated edge component E (x, y) that equivalently represents the original image, the possibility of being an actual edge is very high. On the other hand, if the edge strength is small, the possibility of a flare component is high. Therefore, if the coring process is performed on the extracted edge component, the existing edge component can be eliminated. That is, the coring process attenuates the edge strength of the integrated edge component E (x, y) equivalently representing the original image (the amplitude of the value of the high-frequency image of the integrated edge component). A high-frequency image generated by multi-resolution conversion is generally generated using a second-order differential edge detection filter. The name of the Laplacian pyramid is also derived from it. Therefore, this coring process can be called a secondary flare refining in the sense of a refining process that leaves a flare component by the integrated edge component E (x, y) of the secondary differential. Flare refining refers to removing flare by removing real edges from edge components. The edge component E ′ (x, y) is extracted as a flare by the secondary flare refining shown in Expression (13).
Figure 2015142357

式(13)に示すフレア精錬のコアリングによって、実在エッジとフレアが識別される様子を図5に示す。上述したように、画素位置の変化に対してフレアは実在エッジよりも非常に緩やかに変化する。そのため、フレアに対応する画素においては、2次微分の統合エッジ成分E(x,y)の値が0または0に近い値を取りやすい。すなわち、フレアが発生している場合、図5に示すように、2次微分の統合エッジ成分E(x,y)の値が0または0に近い値となる画素の数が多くなる。フレアに対応する画素における統合エッジ成分E(x,y)の値のゆらぎ幅σ2ndの設定値は、予めサンプル画像を用いて決定される値であり、通例大きな値をとる。ゆらぎ幅σ2ndの値が小さ過ぎるとフレア成分の一部がエッジ成分E’(x,y)に含まれなくなってしまい、ゆらぎ幅σ2ndの値が大き過ぎると実在エッジ成分の一部がエッジ成分E’(x,y)に含まれることとなってしまう。256階調で画像が表されている場合は、例えば、その1/4程度の±64階調幅のゆらぎ値を設定する。つまり、2次微分で抽出されたフレアのゆらぎ幅±σ2ndの値は±64である。 FIG. 5 shows how the real edge and the flare are identified by the flare refining coring shown in Expression (13). As described above, the flare changes much more slowly than the actual edge with respect to the change in the pixel position. For this reason, in the pixel corresponding to the flare, the value of the integrated edge component E (x, y) of the second-order differential tends to take 0 or a value close to 0. That is, when flare occurs, as shown in FIG. 5, the number of pixels in which the value of the integrated edge component E (x, y) of the secondary differentiation becomes 0 or a value close to 0 increases. The set value of the fluctuation width σ 2nd of the value of the integrated edge component E (x, y) in the pixel corresponding to the flare is a value determined in advance using a sample image, and usually takes a large value. If the value of the fluctuation width σ 2nd is too small, a part of the flare component is not included in the edge component E ′ (x, y). If the value of the fluctuation width σ 2nd is too large, a part of the actual edge component is an edge. It will be contained in component E '(x, y). When an image is represented with 256 gradations, for example, a fluctuation value of ± 64 gradation width, which is about ¼ of the image, is set. That is, the flare fluctuation width ± σ 2nd extracted by the second derivative is ± 64.

上述した式(13)による2次のフレア精錬を経たエッジ成分E’(x,y)の中には、設定したゆらぎ幅より小さい振幅の実在エッジ(コントラストの小さい実在エッジ)が、フレア成分と一緒に残存してしまう可能性がある。そのまま減算処理をすると、弊害抑制対策はなされるものの、弊害が残る結果となる。   Among the edge components E ′ (x, y) that have undergone the second-order flare refining according to the above equation (13), real edges (real edges with small contrast) having an amplitude smaller than the set fluctuation width are flare components. There is a possibility of remaining together. If the subtraction process is performed as it is, although the countermeasure for suppressing the harmful effect is taken, the negative effect remains.

次に考えるべきは、フレアが緩やかに変化して、エッジ検出されにくいという性質を更に積極的に使う方法である。すなわち、多重解像度変換によって生成された各解像度における高周波画像に対して、もう一度エッジ抽出を行うと、実在エッジの細かい構造はエッジ抽出されるのに対して、フレア成分はハイパスのハイパスによって抽出がより一層されにくくなる。したがって、ハイパスのハイパス、すなわち4次微分エッジを参照してもう一度、2次微分エッジに対するコアリングを行うことによって、フレア精錬をする。これは4次のフレア精錬と呼ぶこともできる。式(13)によって得られたエッジ成分E’(x,y)を新たな統合エッジ成分E(x,y)として、この新たな統合エッジ成分E(x,y)を用いた式(14)に示す4次のフレア精錬によって、新たにフレアとしてエッジ成分E’(x,y)が取り出される。∇E(x,y)はE(x,y)の2次微分値を表している。

Figure 2015142357
What should be considered next is a method of more actively using the property that the flare changes slowly and the edge is not easily detected. That is, when edge extraction is performed once again on a high-frequency image at each resolution generated by multi-resolution conversion, the fine structure of the actual edge is extracted, whereas the flare component is extracted by the high-pass high-pass. It becomes harder to be layered. Therefore, flare refinement is performed by referring to the high-pass high-pass, that is, the fourth-order differential edge and coring the second-order differential edge again. This can also be called fourth-order flare refining. Using the edge component E ′ (x, y) obtained by the equation (13) as a new integrated edge component E (x, y), the equation (14) using the new integrated edge component E (x, y). The edge component E ′ (x, y) is newly extracted as a flare by the fourth-order flare refining shown in FIG. ∇ 2 E (x, y) represents the secondary differential value of E (x, y).
Figure 2015142357

4次微分によって抽出されるフレアのゆらぎ幅σ4thは、2次微分で抽出されたフレアのゆらぎ幅σ2ndよりも小さく設定することができる。これはすなわち、フレア精錬をより正確に実行して、実在エッジとフレアの分離能力を上げたことに相当する。4次微分によって抽出されるフレアのゆらぎ幅±σ4thは、通常、式(15)に示すように、2次微分で抽出されたフレアのゆらぎ幅±σ2ndの値±64の半分程度、すなわち±32に設定することができる。

Figure 2015142357
The flare fluctuation width σ 4th extracted by the fourth derivative can be set smaller than the flare fluctuation width σ 2nd extracted by the second derivative. In other words, this is equivalent to performing flare refining more accurately and increasing the separation ability of real edges and flares. The flare fluctuation width ± σ 4th extracted by the fourth derivative is normally about half of the value ± 64 of the flare fluctuation width ± σ 2nd extracted by the second derivative, as shown in the equation (15). It can be set to ± 32.
Figure 2015142357

また、シアン系のフレアと比べて赤系のフレアは大面積に広がるために個々の輪帯成分のコントラストは小さいという事実も利用することができる。そうすると、赤系の色相においては、より一層実在エッジとフレアとの区別がつくようになり、画像構造の保存を図ることができる。したがって、ゆらぎ幅σ2ndとσ4thを色相の関数として設定するのがよい。このフレアの性質の違いは、ゆらぎ幅の設定におよそ半分程度の違いをもたらす。すなわち、式(16)に示すように、赤系のフレアのゆらぎ幅σ2nd(R)はシアン系のフレアのゆらぎ幅σ2nd(Cy)の半分程度であり、式(17)に示すように、赤系のフレアのゆらぎ幅σ4th(R)はシアン系のフレアのゆらぎ幅σ4th(Cy)の半分程度である。

Figure 2015142357
Figure 2015142357
In addition, since the red flare spreads over a large area compared to the cyan flare, the fact that the contrast of the individual zonal components is small can also be used. As a result, in the reddish hue, the real edge and the flare can be further distinguished, and the image structure can be preserved. Therefore, the fluctuation widths σ 2nd and σ 4th are preferably set as a function of hue. This difference in the nature of the flare causes a difference of about half in the fluctuation width setting. That is, as shown in Expression (16), the fluctuation width σ 2nd (R) of the red flare is about half of the fluctuation width σ 2nd (Cy) of the cyan flare, and as shown in Expression (17) The fluctuation width σ 4th (R) of the red flare is about half of the fluctuation width σ 4th (Cy) of the cyan flare.
Figure 2015142357
Figure 2015142357

2次のフレア精錬と4次のフレア精錬の様子を図6に示す。考え方としては、6次のフレア精錬、8次のフレア精錬と続けていくことができる。   The state of the second flare refining and the fourth flare refining is shown in FIG. The idea is to continue with 6th flare refining and 8th flare refining.

ところで、逆に0次のフレア精錬という考え方も導入することができる。0次は、エッジ成分ではなく、画素値自身のことを表す。すなわち、明るさレベルに応じて、フレア補正を行う強度を設定する。これは本来、式(5)〜(7)の係数βに導入した考え方そのものである。色差成分の0次フレア精錬を行うマップ、すなわち、色差成分を保護すべき領域は、Vmin面を参照するとよい。なぜならば、Vmin面には回折フレアは現れにくく、カラフルなネオン等であっても最小値面の値は小さい可能性が高く、その暗い領域というものは画像構造を保護すべき領域と考えられるからである。したがって、色差成分の0次のマップをβ(0)で表すと、次式(18)となる。すなわち、β(0)はVminの関数である。

Figure 2015142357
On the other hand, the idea of 0th-order flare refining can also be introduced. The 0th order represents not the edge component but the pixel value itself. That is, the intensity for performing flare correction is set according to the brightness level. This is essentially the concept introduced to the coefficient β in the equations (5) to (7). A map for performing 0th-order flare refining of the color difference component, that is, a region where the color difference component should be protected may be referred to the V min plane. This is because diffraction flare hardly appears on the V min surface, and even if it is colorful neon or the like, there is a high possibility that the value of the minimum value surface is small, and the dark region is considered to be a region where the image structure should be protected. Because. Therefore, when the 0th-order map of the color difference component is expressed by β (0) , the following expression (18) is obtained. That is, β (0) is a function of V min .
Figure 2015142357

同様の考えを輝度成分の0次フレア精錬を行うマップとして導入することもできる。輝度成分を保護すべき領域は、例えばVmax面を参照するとよい。なぜならば、Vmax面には回折フレアの補正すべき領域が現れているからである。したがって、輝度成分の0次のマップをα(0)で表すと、次式(19)となる。すなわち、α(0)はVmaxの関数である。

Figure 2015142357
A similar idea can be introduced as a map for performing 0th-order flare refining of luminance components. For the region where the luminance component should be protected, for example, the V max plane may be referred to. This is because an area to be corrected for diffraction flare appears on the V max plane. Therefore, when the 0th-order map of the luminance component is represented by α (0) , the following equation (19) is obtained. That is, α (0) is a function of V max .
Figure 2015142357

図7および図8を用いて、本実施形態におけるフレア補正アルゴリズムの具体例を説明する。図7はフレア補正処理ブロックを示すブロック図である。図7に示すフレア補正処理ブロックの各処理ブロックは、制御装置103において機能的に実現される。図8はフレア補正処理手順を示すフローチャートである。図8に示すフレア補正処理手順の各ステップは、制御装置103によって実行される。   A specific example of the flare correction algorithm in the present embodiment will be described with reference to FIGS. FIG. 7 is a block diagram showing a flare correction processing block. Each processing block of the flare correction processing block shown in FIG. 7 is functionally realized in the control device 103. FIG. 8 is a flowchart showing a flare correction processing procedure. Each step of the flare correction processing procedure shown in FIG. 8 is executed by the control device 103.

1)補正対象原画像入力(図7のブロックB701および図8のステップS801)
光学系106によって結像された像が撮像素子102によって撮像されて得られる画像に対する絵づくり色処理の完了したユーザーガンマ補正のなされた原画像を、補正対象画像として入力する例を説明する。例えば、カメラが出力するJPEG画像等がこれに相当する。
1) Input original image to be corrected (block B701 in FIG. 7 and step S801 in FIG. 8)
An example will be described in which an original image that has been subjected to user gamma correction for which an image formed by the optical system 106 has been imaged by the image sensor 102 and has been subjected to user gamma correction is input as a correction target image. For example, a JPEG image output by a camera corresponds to this.

2)階調変換(図7のブロックB702および図8のステップS802)
2−1)逆ガンマ変換
入力された原画像のユーザーガンマを解いて線形階調のデータに戻す。sRGB規定のガンマ特性を仮定し、その逆ガンマ特性の階調変換を行うことによって、線形階調のRGBデータを作る。
2) Tone conversion (block B702 in FIG. 7 and step S802 in FIG. 8)
2-1) Inverse gamma conversion The user gamma of the input original image is solved and returned to linear gradation data. Assuming a gamma characteristic defined by sRGB and performing gradation conversion of the inverse gamma characteristic, RGB data of linear gradation is created.

2−2)対数ガンマ変換
線形階調のRGBデータの各々に以下の式(20)に示すような対数ガンマ変換を施し、作業用階調空間を対数階調空間に移行する。ただし、kは定数で対数特性を調節するパラメータである。kの値は1より十分に大きい値に設定する。例えば1万のオーダーである。

Figure 2015142357
2-2) Logarithmic Gamma Conversion Each linear gradation RGB data is subjected to a logarithmic gamma conversion as shown in the following equation (20) to shift the working gradation space to the logarithmic gradation space. Here, k is a parameter that adjusts the logarithmic characteristic with a constant. The value of k is set to a value sufficiently larger than 1. For example, the order is 10,000.
Figure 2015142357

式(20)において、階調変換を行うときの変数tは全てt=[0,1]の範囲で規格化して定義する。すなわち、t=R,G,Bの値をとるが、それぞれのRGB値は[0,1]の範囲に再スケールされているものとする。なお、対数階調空間への移行処理は必須ではないので、以降の処理を線形階調のままで行ってもよい。   In equation (20), all the variables t when performing gradation conversion are defined by being normalized within the range of t = [0, 1]. That is, it is assumed that t = R, G, B, but each RGB value is rescaled to a range of [0, 1]. In addition, since the transition process to the logarithmic gradation space is not essential, the subsequent processes may be performed with the linear gradation as it is.

3)V面の生成(図7のブロックB703〜B705、ならびに図8のステップS803)
3−1)HSVVV面の作成
フレアの抑制された1つの明度面(V面)を生成するために、式(21)、(22)および(23)に示すように、RGB値を大きさの順に並び替えたVmax,Vmed,Vminの各面を生成する。

Figure 2015142357
Figure 2015142357
Figure 2015142357
3) Generation of V plane (blocks B703 to B705 in FIG. 7 and step S803 in FIG. 8)
3-1) Creation of HSVVV surface In order to generate one lightness surface (V surface) with reduced flare, the RGB values are set as shown in equations (21), (22), and (23). Each surface of V max , V med , and V min rearranged in order is generated.
Figure 2015142357
Figure 2015142357
Figure 2015142357

更に、式(24)および(25)に示すように、1つのV面に統合するときに参照する色相H面と彩度S面を生成する。これはHSV空間の定義と同じである。

Figure 2015142357
Figure 2015142357
Further, as shown in the equations (24) and (25), a hue H plane and a saturation S plane to be referred to when integrating into one V plane are generated. This is the same as the definition of HSV space.
Figure 2015142357
Figure 2015142357

3−2)V面のガンマ変換
max,Vminの各面に式(26)に示すΓ変換と、式(27)に示すΓ−1変換との2種類のガンマ変換を行う。Γは平方根型階調特性であり、Γ−1は平方型階調特性である。Γの原点における微分が発散しないように、少し変形した関数で定義する。定数εの値は1よりも十分小さな値である。

Figure 2015142357
Figure 2015142357
3-2) V-plane Gamma Conversion Two types of gamma conversion are performed on each of the V max and V min planes, Γ conversion shown in Expression (26) and Γ- 1 conversion shown in Expression (27). Γ is a square root type gradation characteristic, and Γ −1 is a square type gradation characteristic. It is defined by a slightly modified function so that the derivative at the origin of Γ does not diverge. The value of the constant ε is a value sufficiently smaller than 1.
Figure 2015142357
Figure 2015142357

こうして求めたガンマ変換後のVmax,Vmin面を次式(28)、(29)、(30)および(31)のように表す。

Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357
The V max and V min surfaces after gamma conversion obtained in this way are expressed by the following equations (28), (29), (30) and (31).
Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357

3−3)V面の合成
3−3−1)赤系色相のV面生成
色相が0度近傍(0〜90度程度および270〜360度程度)の値をとる赤系色相で用いるV面(V)を定義する。これには式(32)に示すようにVmedを使う。

Figure 2015142357
3-3) Synthesis of V-plane 3-3-1) V-plane generation of reddish hue V-plane used in reddish hues with hues in the vicinity of 0 degrees (about 0 to 90 degrees and about 270 to 360 degrees) Define (V R ). For this, V med is used as shown in equation (32).
Figure 2015142357

3−3−2)シアン系色相のV面生成
色相が180度近傍(90〜270度程度)の値をとるシアン系色相については、低彩度から中彩度、およびかなりの高彩度域に渡る彩度が所定値未満の通常彩度領域で使用するVと、彩度が所定値以上の超高彩度域で使用するVとを次式(33)および(34)のように定義する。

Figure 2015142357
Figure 2015142357
3-3-2) V-plane generation of cyan hues For cyan hues with hues in the vicinity of 180 degrees (about 90 to 270 degrees), they range from low saturation to medium saturation and a fairly high saturation range. V a used in the normal saturation region where the saturation is less than the predetermined value and V c used in the super high saturation region where the saturation is the predetermined value or more are defined as the following equations (33) and (34).
Figure 2015142357
Figure 2015142357

式(33)および(34)を彩度に関して統合するために、加重合成してシアン系色相で用いるV面(VCy)を、式(35)に示すように定義する。式(35)中の係数ηは、式(36)で表され、[0,1]の範囲の値をとる。ここに、加重合成する係数ηにはフェルミ分布関数を採用することによって、VとVとを緩やかに接続する。各画素でとる彩度値Sに対して、設定値S±S付近でVとVの切り替えを行う。

Figure 2015142357
Figure 2015142357
In order to integrate the equations (33) and (34) with respect to the saturation, the V plane (V Cy ) used in the cyan hue by weighted synthesis is defined as shown in the equation (35). The coefficient η in the equation (35) is expressed by the equation (36) and takes a value in the range of [0, 1]. Here, V a and V c are gently connected by adopting a Fermi distribution function for the coefficient η to be weighted and synthesized. With respect to the saturation value S to take at each pixel, to switch between V a and V c around the set value S F ± S T.
Figure 2015142357
Figure 2015142357

3−3−3)色相に関するV面合成
上記求まった赤系色相で主に用いるV面(V)とシアン系色相で主に用いるV面(VCy)とを、式(37)に示すように、加重合成して1つの明度面としてのV面に統合する。係数ξは[0,1]の範囲の値をとる。

Figure 2015142357
3-3-3) V-plane synthesis related to hue The V-plane (V R ) mainly used in the red hue obtained above and the V-plane (V Cy ) mainly used in the cyan hue are shown in Expression (37). In this way, weighted synthesis is performed to integrate the V plane as one brightness plane. The coefficient ξ takes a value in the range [0, 1].
Figure 2015142357

式(37)に示す加重合成の際に用いられる係数ξとして、VとVCyとを緩やかに接続するために、式(38)および式(39)で表される2通りを示す。式(38)に示されるように1つ目は直線的に変化し、式(39)に示されるように2つ目はローレンチャン(共鳴曲線と同じ関数)である。通常、H=180(Cy)、H=90の値をとる。ローレンチャンの場合は、H±Hの区間で値0をとり、その外側では1となる。

Figure 2015142357
Figure 2015142357
As a coefficient for use in weighted synthesis shown in equation (37) xi], in order to loosely connect the V R and V Cy, showing the two types of the formula (38) and (39). As shown in the equation (38), the first changes linearly, and as shown in the equation (39), the second is Lorenchan (the same function as the resonance curve). Normally, H 0 = 180 (Cy) and H w = 90 are taken. In the case of Lorenchan, the value is 0 in the interval of H 0 ± H w , and is 1 outside the range.
Figure 2015142357
Figure 2015142357

4)YCbCr空間への変換(図7のブロックB706および図8のステップS804)
フレア補正を実際に行う空間として輝度・色差空間へ移行する。RGB空間からYCbCr空間への変換を行う。式(40)に示すように、変換式はJPEG規格の行列を用いる。

Figure 2015142357
4) Conversion to YCbCr space (block B706 in FIG. 7 and step S804 in FIG. 8)
Shift to the luminance / color difference space as a space where flare correction is actually performed. Conversion from RGB space to YCbCr space is performed. As shown in equation (40), the conversion equation uses a matrix of JPEG standard.
Figure 2015142357

上記式(40)を略して書けば、Y=0.3R+0.6G+0.1B,Cb=(10/9)*(B−Y)/2,Cr=(10/7)*(R−Y)/2と表すこともできる。   If the above formula (40) is abbreviated, Y = 0.3R + 0.6G + 0.1B, Cb = (10/9) * (BY) / 2, Cr = (10/7) * (RY) / 2.

5)Y,V,Cb,Cr面のエッジ抽出(図7のブロックB707〜B712および図8のステップS805)
5−1)多重解像度変換
YCbCr、及びVの各色面をそれぞれ多重解像度変換を行って、逐次的に生成される最低解像度の所定周波数未満の低周波画像と複数の解像度からなる所定周波数以上の高周波画像の連なりによって等価表現する。多重解像度変換として代表的なものにラプラシアンピラミッド表現とウェーブレット変換があり、どちらを用いてもよい。ウェーブレット変換の場合の具体的処理方法については、次の処理5−2)の統合エッジの作り方まで、例えば、米国特許出願公開2010/0074523に詳述されていることから、公知であるので、ここでは述べない。ラプラシアンピラミッドの例について述べておく。
5) Edge extraction of Y, V, Cb, and Cr planes (blocks B707 to B712 in FIG. 7 and step S805 in FIG. 8)
5-1) Multi-resolution conversion Each color plane of YCbCr and V is subjected to multi-resolution conversion, and a low-frequency image less than a predetermined frequency of the lowest resolution that is sequentially generated and a high frequency equal to or higher than a predetermined frequency composed of a plurality of resolutions. Equivalent expressions are represented by a series of images. Typical examples of multi-resolution conversion include Laplacian pyramid expression and wavelet conversion, and either one may be used. The specific processing method in the case of wavelet transform is well known since it is described in detail in, for example, US Patent Application Publication No. 2010/0074523, up to the method of creating an integrated edge in the following processing 5-2). Not to mention. An example of the Laplacian pyramid will be described.

図6に示す例において、原画像Gを5×5程度のローパスフィルタ(ガウシアンぼかし)を掛けてエイリアジング成分を取り除き、1/2解像度にサブサンプリングし、それを一段解像度の低い低周波画像Gとする。その低周波画像を2倍拡大し、原画像Gとの差分を先ほどの低周波画像に対応する所定周波数以上の高周波画像Lとする。この処理を繰り返すと、低周波画像Gi+1と低周波画像Gとの差分として高周波画像Lが得られ、最低解像度の低周波画像Gと各解像度の高周波画像L〜Lの連なりが生成される。これによって原画像が等価表現される。解像度の段数は、原画像Gの画素数と対応して決定され、1千万画素程度であれば、解像度の段数は通常、5〜6段はとる。すなわち、i=0〜5または0〜6である。 In the example shown in FIG. 6, the original image G 0 is subjected to a low-pass filter (Gaussian blur) of about 5 × 5 to remove aliasing components, sub-sampled to ½ resolution, and this is a low-frequency image with low one-stage resolution. and G 1. The low-frequency image is enlarged twice, and the difference from the original image G 0 is set as a high-frequency image L 1 having a predetermined frequency or higher corresponding to the low-frequency image. When this process is repeated, a high-frequency image L i is obtained as a difference between the low-frequency image G i + 1 and the low-frequency image G i, and a series of the low-resolution image G 6 having the lowest resolution and the high-frequency images L 5 to L 0 having the respective resolutions. Is generated. Thus, the original image is equivalently expressed. Number of resolution is determined corresponding to the number of pixels the original image G 0, be about 1 million pixels, the number of stages of resolution is usually 5-6 stages take. That is, i = 0 to 5 or 0 to 6.

5−2)逆多重解像度変換によるエッジ統合(2次微分エッジ)
図6に示すように、処理5−1)において多重解像度変換された画像群の内、最低解像度の低周波画像Gの画素値を全てゼロに設定した上で、残りの各解像度の高周波画像L〜Lのみを逆多重解像度変換することによって、多重解像度統合エッジ画像E (2)〜E (2)を生成する。こうして得られた統合エッジE (2)には、原画像Gに含まれる回折フレアの輪帯成分がそのまま表現されている。高周波画像Lは低周波画像Gと低周波画像Gi−1との差分として得られるので、高周波画像L〜Lを生成したハイパスフィルタは2次微分である。したがって、統合エッジE (2)も2次微分を原画像Gの画像全体で代表した記述である。ラプラシアン記号△を用いて、各色面の統合エッジE (2)に対応する統合エッジ△Y,△V,△Cbおよび△Crを次式(41)〜(44)のように表す。

Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357
5-2) Edge integration by inverse multi-resolution conversion (second-order differential edge)
As shown in FIG. 6, of the multi-resolution transformed images in the process 5-1), after setting all the pixel values of the low-frequency image G 6 of the lowest resolution to zero, each of the remaining resolution high-frequency image Multi-resolution integrated edge images E 5 (2) to E 0 (2) are generated by performing inverse multi-resolution conversion only on L 5 to L 0 . In the integrated edge E 0 (2) thus obtained, the annular component of the diffraction flare included in the original image G 0 is expressed as it is. Since the high-frequency image L i is obtained as a difference between the low-frequency image G i and the low-frequency image G i−1 , the high-pass filter that generates the high-frequency images L 5 to L 0 is second-order differentiation. Therefore, the integrated edge E 0 (2) is also a description representative of the second order differentiation in the entire image of the original image G 0 . Using the Laplacian symbol Δ, the integrated edges ΔY, ΔV, ΔCb and ΔCr corresponding to the integrated edge E 0 (2) of each color plane are expressed as the following equations (41) to (44).
Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357

なお、式(41)〜(44)において、ラプラシアン記号△の代わりに2次微分を表す記号∇が用いられてもよい。局所平均を表す<>の演算は、多重解像度変換を用いなくても巨大なガウスぼかしフィルタを実解像度のままで掛けても得られる。 In the equation (41) to (44), the symbol ∇ 2 representing the second derivative instead of the Laplacian symbol △ may be used. The calculation of <> representing the local average can be obtained by multiplying a huge Gaussian blur filter at the actual resolution without using multi-resolution conversion.

5−3)多重解像度ハイパス面からのエッジ抽出
図6に示すように、処理5−1)において多重解像度変換して求まった各解像度の高周波画像L〜Lの連なりの各々に対して、式(45)〜(48)に示すように、2次微分のエッジフィルタを掛けてハイパス面からハイパス成分、すなわち4次微分のエッジe〜eが抽出される。エッジフィルタは、元画像である高周波画像L〜Lに5×5のガウスぼかしを掛けて元画像から引き算するとよい。

Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357
5-3) Edge extraction from multi-resolution high-pass plane As shown in FIG. 6, for each of the series of high-frequency images L 5 to L 0 of each resolution obtained by multi-resolution conversion in process 5-1), As shown in Expressions (45) to (48), a high-pass component, that is, fourth-order differential edges e 5 to e 0 are extracted from the high-pass surface by applying a second-order differential edge filter. The edge filter may be subtracted from the original image by applying 5 × 5 Gaussian blur to the high-frequency images L 5 to L 0 as the original image.
Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357

5−4)逆多重解像度変換によるエッジ統合(4次微分エッジ)
図6に示すように、4次微分のエッジe〜eについても同様に統合エッジE (4)〜E (4)を生成する。ラプラシアン記号△を用いて、各色面の統合エッジE (4)に対応する統合エッジ△(△Y),△(△V),△(△Cb)および△(△Cr)を次式(49)〜(52)のように表す。統合エッジ△(△Y),△(△V),△(△Cb)および△(△Cr)は、∇(∇Y),∇(∇V),∇(∇Cb)および∇(∇Cr)と同じ意味を表す。

Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357
5-4) Edge integration by inverse multi-resolution conversion (fourth derivative edge)
As shown in FIG. 6, integrated edges E 5 (4) to E 0 (4) are similarly generated for the fourth-order differential edges e 5 to e 0 . Using the Laplacian symbol Δ, integrated edges Δ (ΔY), Δ (ΔV), Δ (ΔCb) and Δ (ΔCr) corresponding to the integrated edge E 0 (4) of each color plane are expressed by the following equation (49 ) To (52). The integrated edges Δ (ΔY), Δ (ΔV), Δ (ΔCb) and Δ (ΔCr) are ∇ 2 (∇ 2 Y), ∇ 2 (∇ 2 V), ∇ 2 (∇ 2 Cb). And ∇ 2 (∇ 2 Cr).
Figure 2015142357
Figure 2015142357
Figure 2015142357
Figure 2015142357

6)Cb,Crエッジのフレア精錬(図7のブロックB713〜B715およびB717、ならびに図8のステップS806)
6−1)4次のフレア精錬
原画像を等価表現した色差面の2次微分の統合エッジからエッジを排除し、フレアだけを残すフレア精錬を行う。4次微分のエッジを参照した4次のフレア精錬を行う。自分自身の色面を参照する自己精錬の他に、他の色面を参照する相互精錬の考え方も導入することができる。これによって、フレアが緩やかに変化するという特徴をエッジと区別するためのあらゆる情報を用いて導き出すことができる。Cr面のフレア精錬の式(53)〜(55)だけを以下に示す。Cb面も同様である。自己精錬としては、式(53)に示す演算が行われる。相互精錬は行われなくてもよいが、相互精錬も行われる場合、式(54)および(55)に示す演算が行われる。なお、左辺のプライム記号’、すなわち補正された統合エッジを次の式の右辺に順に代入していくものとする。そのときの右辺のプライム記号は省略している。また、式(53)〜(55)で表される4次精錬をスキップしてもよい。

Figure 2015142357
Figure 2015142357
Figure 2015142357
6) Flare refining of Cb and Cr edges (blocks B713 to B715 and B717 in FIG. 7 and step S806 in FIG. 8)
6-1) Fourth-order flare refining Flare refining is performed in which edges are excluded from the integrated edges of the second-order differentials of the color-difference surface equivalently representing the original image, leaving only the flare. Perform fourth-order flare refining with reference to the edge of fourth-order derivative. In addition to self-refining that refers to your own color plane, you can also introduce the idea of mutual refining that refers to other color planes. Thus, the feature that the flare changes slowly can be derived using any information for distinguishing from the edge. Only the formulas (53) to (55) for flare refining of the Cr surface are shown below. The same applies to the Cb surface. As self-refining, the calculation shown in Formula (53) is performed. Although mutual refining may not be performed, when mutual refining is also performed, the operations shown in the equations (54) and (55) are performed. It is assumed that the prime symbol 'on the left side, that is, the corrected integrated edge is sequentially substituted into the right side of the following equation. The prime symbol on the right side at that time is omitted. Moreover, you may skip the 4th refining represented by Formula (53)-(55).
Figure 2015142357
Figure 2015142357
Figure 2015142357

ここにゆらぎ幅σ4th_Cとσ4th_Yの値は同程度の値をとる。ただし、式(16)および(17)を用いて説明したように、赤系のフレアのゆらぎ幅はシアン系のフレアのゆらぎ幅の半分程度である。また、例えば式(40)に示すYCbCr変換の定義式による増幅ゲイン係数の差は考慮する必要がある。 Here, the values of the fluctuation widths σ 4th_C and σ 4th_Y are approximately the same. However, as explained using the equations (16) and (17), the fluctuation width of the red flare is about half of the fluctuation width of the cyan flare. Further, for example, the difference in amplification gain coefficient according to the definition formula of YCbCr conversion shown in Expression (40) needs to be considered.

6−2)2次のフレア精錬
2次のフレア精錬についても4次のフレア精錬と同様に定義する。Cb,Cr成分の内、Cr成分のみの式(56)〜(58)を示す。自己精錬としては、式(56)に示す演算が行われる。相互精錬は行われなくてもよいが、相互精錬も行われる場合、式(57)および(58)に示す演算が行われる。左辺のプライム記号’、すなわち補正された統合エッジを次の式の右辺に順に代入していくものとする。そのときの右辺のプライム記号は省略している。なお、式(56)〜(58)で表される2次精錬では、上述した4次のフレア精錬後の値が用いられることが好ましいが、こうした2次精錬をスキップしてもよい。

Figure 2015142357
Figure 2015142357
Figure 2015142357
6-2) Secondary flare refining Secondary flare refining is also defined in the same way as the fourth flare refining. Of the Cb and Cr components, equations (56) to (58) of only the Cr component are shown. As self-refining, the calculation shown in Formula (56) is performed. Although mutual refining may not be performed, when mutual refining is also performed, the operations shown in the equations (57) and (58) are performed. It is assumed that the prime symbol 'on the left side, that is, the corrected integrated edge is sequentially substituted into the right side of the following expression. The prime symbol on the right side at that time is omitted. In the secondary refining represented by the formulas (56) to (58), the value after the above-described fourth-order flare refining is preferably used, but such secondary refining may be skipped.
Figure 2015142357
Figure 2015142357
Figure 2015142357

ここにゆらぎ幅σ2nd_Cとσ2nd_Yの値は同程度の値をとる。その差異は、4次のフレア精錬の注意と同じである。すなわち、式(16)および(17)を用いて説明したように、赤系のフレアのゆらぎ幅はシアン系のフレアのゆらぎ幅の半分程度である。式(15)を用いて説明したように、4次微分で抽出されたフレアのゆらぎ幅σ4th_Cおよびσ4th_Yは、2次微分で抽出されたフレアのゆらぎ幅σ2nd_Cおよびσ2nd_Yの半分程度である。また、例えば式(40)に示すYCbCr変換の定義式による増幅ゲイン係数の差は考慮する必要がある。 Here, the values of the fluctuation widths σ 2nd_C and σ 2nd_Y are approximately the same. The difference is the same as the precautions of the fourth-order flare refining. That is, as described using the equations (16) and (17), the fluctuation width of the red flare is about half of the fluctuation width of the cyan flare. As described using Equation (15), the flare fluctuation widths σ 4th_C and σ 4th_Y extracted by the fourth derivative are about half of the flare fluctuation widths σ 2nd_C and σ 2nd_Y extracted by the second derivative. is there. Further, for example, the difference in amplification gain coefficient according to the definition formula of YCbCr conversion shown in Expression (40) needs to be considered.

6−3)0次のフレア精錬
min面を参照して色差成分のフレア補正除外域を特定する。0次のフレア精錬マップβ(x,y)を次のように定義する。すなわち、Vmin(x,y)の明るさに基づいてβは[0,1]の範囲の値を返す。βの定義は、式(6)、(7)、(18)と同じで、フレア補正を行う箇所では1となり、フレア補正を行わない箇所では0となる。

Figure 2015142357
6-3) Zero-order flare refining The flare correction exclusion area of the color difference component is specified with reference to the V min plane. A 0th-order flare refining map β (x, y) is defined as follows. That is, β returns a value in the range [0, 1] based on the brightness of V min (x, y). The definition of β is the same as in equations (6), (7), and (18), and is 1 at a location where flare correction is performed and 0 at a location where flare correction is not performed.
Figure 2015142357

定数V 1/2±V 1/2近辺で0と1の切り替えが行われる。V 1/2=0のときはステップ関数のように切り替わるので、V 1/2≠0であることが好ましい。また、最小値面Vminの明るさが極めて暗い場合にはフレア補正が行われないことが好ましい。したがって、V 1/2の値は、通常フレアが目立たないほどの暗いレベルの値をとる。ただし、対数階調空間で作業しているので、その値は暗部であっても大きな値をとる。256階調の画像の場合、例えばV 1/2=150であって、かつV 1/2は10程度の値である。式(59)によって得られる係数βを用いた0次のフレア精錬の演算は、各画素について、次式(60)および(61)によって行われる。式(60)および(61)で表される0次精錬では、上述した4次または2次のフレア精錬後の値が用いられることが好ましい。なお、式(60)および(61)は、式(6)および(7)と等価である。

Figure 2015142357
Figure 2015142357
Switching between 0 and 1 is performed near the constant V F 1/2 ± V T 1/2 . When V T 1/2 = 0, switching is performed like a step function. Therefore, it is preferable that V T 1/2 ≠ 0. In addition, it is preferable that flare correction is not performed when the brightness of the minimum value surface Vmin is extremely dark. Therefore, the value of V F ½ takes a dark level value such that the flare is usually not conspicuous. However, since the work is performed in the logarithmic gradation space, the value takes a large value even in the dark part. In the case of an image with 256 gradations, for example, V F 1/2 = 150, and V T 1/2 is a value of about 10. The calculation of the 0th-order flare refining using the coefficient β obtained by the equation (59) is performed by the following equations (60) and (61) for each pixel. In the 0th-order refining represented by the formulas (60) and (61), it is preferable to use the value after the above-described quaternary or secondary flare refining. Equations (60) and (61) are equivalent to equations (6) and (7).
Figure 2015142357
Figure 2015142357

7)Y,Vエッジのフレア精錬(図7のブロックB716およびB717、ならびに図8のステップS807)
7−1)0次のフレア精錬
係数αを用いた0次のフレア精錬の演算は、各画素について、次式(62)および(63)によって行われる。

Figure 2015142357
Figure 2015142357
7) Flare refining of Y and V edges (blocks B716 and B717 in FIG. 7 and step S807 in FIG. 8)
7-1) Zeroth-order flare refining The calculation of the zeroth-order flare refining using the coefficient α is performed for each pixel by the following equations (62) and (63).
Figure 2015142357
Figure 2015142357

式(62)および(63)における係数αについて3つの考えられる例として以下のi)〜iii)を示しておく。ii)またはiii)の場合は、各画素についてそれぞれ次式(64)または(65)の演算を行う。   The following i) to iii) are shown as three possible examples of the coefficient α in the equations (62) and (63). In the case of ii) or iii), the calculation of the following equation (64) or (65) is performed for each pixel.

i)処理なし(α=0) i) No processing (α = 0)

ii)Vmax面による輝度成分のフレア補正除外域特定その1

Figure 2015142357
ii) Specification of luminance component flare correction exclusion area by V max surface, part 1
Figure 2015142357

iii)Vmax面による輝度成分のフレア補正除外域特定その2
式(65)において、定数V ±V 近辺で0と1の切り替えが行われ、その値は係数βの切り替えと同程度である。

Figure 2015142357
iii) Luminance component flare correction exclusion area specification by V max plane 2
In the equation (65), switching between 0 and 1 is performed in the vicinity of the constant V F 2 ± V T 2 , and the value is similar to the switching of the coefficient β.
Figure 2015142357

8)フレア補正(図7のブロックB718および図8のステップS808)
式(66)〜(68)に示すように、原画像を等価表現した統合エッジ成分からフレア成分を精錬して得られたエッジ成分△Y’,△Cb’および△Cr’を原画像の色成分Y,CbおよびCrからそれぞれ減算することによって、フレア補正を実行する。色差成分に関して、式(67)および(68)は式(6)および(7)に対応する。輝度成分に関しては、まだエッジ回復がされていない段階であるため、式(66)は、式(5)と比較すると、右辺にエッジ回復成分△V’が欠けている。

Figure 2015142357
Figure 2015142357
Figure 2015142357
8) Flare correction (block B718 in FIG. 7 and step S808 in FIG. 8)
As shown in the equations (66) to (68), the edge components ΔY ′, ΔCb ′, and ΔCr ′ obtained by refining the flare component from the integrated edge component equivalently representing the original image are used as the color of the original image. Flare correction is performed by subtracting from components Y, Cb and Cr, respectively. Regarding the color difference component, Expressions (67) and (68) correspond to Expressions (6) and (7). Regarding the luminance component, since edge recovery has not yet been performed, Expression (66) lacks the edge recovery component ΔV ′ on the right side as compared with Expression (5).
Figure 2015142357
Figure 2015142357
Figure 2015142357

9)逆色空間変換(図7のブロックB719および図8のステップS809)
Y’Cb’Cr’面をフレア補正されたRGB面へ逆変換する。これにより、R’,G’,B’が生成されたものとする。
9) Inverse color space conversion (block B719 in FIG. 7 and step S809 in FIG. 8)
The Y′Cb′Cr ′ surface is inversely converted to a flare-corrected RGB surface. As a result, R ′, G ′, and B ′ are generated.

10)エッジ回復(図7のブロックB720および図8のステップS810)
式(69)〜(71)に示すように、RGB各色面におけるR’,G’,B’のそれぞれに対してエッジ回復を行って、R’’,G’’,B’’が得られる。なお、式(69)〜(71)における左辺のR’’,G’’,B’’は、上述した式(2)〜(4)における3つの色成分の補正画素値R’,G’,B’に対応する。

Figure 2015142357
Figure 2015142357
Figure 2015142357
10) Edge recovery (block B720 in FIG. 7 and step S810 in FIG. 8)
As shown in Expressions (69) to (71), edge recovery is performed for each of R ′, G ′, and B ′ in each of the RGB color planes to obtain R ″, G ″, and B ″. . Note that R ″, G ″, B ″ on the left side in the equations (69) to (71) are the corrected pixel values R ′, G ′ of the three color components in the above equations (2) to (4). , B ′.
Figure 2015142357
Figure 2015142357
Figure 2015142357

11)逆階調変換(図7のブロックB721および図8のステップS811)
11−1)逆対数ガンマ変換
処理2−2)で行われた対数ガンマ変換の逆変換を行う。
11) Inverse gradation conversion (block B721 in FIG. 7 and step S811 in FIG. 8)
11-1) Inverse logarithmic gamma transformation The inverse transformation of the logarithmic gamma transformation performed in the process 2-2) is performed.

11−2)ガンマ変換
処理2−1)で行われた逆ガンマ変換の逆変換を行う。
11-2) Gamma conversion The inverse gamma conversion performed in the process 2-1) is performed.

12)補正画像出力(図7のブロックB722および図8のステップS812)
回折フレアが補正された画像を出力する。
12) Corrected image output (block B722 in FIG. 7 and step S812 in FIG. 8)
An image with corrected diffraction flare is output.

以上説明した本実施形態における画像処理装置としての制御装置103は、以下のような作用および効果を有する。
(1)制御装置103は、各画素が3つの色成分で表される原画像Gを取得する。制御装置103は、各画素毎に3つの色成分の値を大きさの順に並び替えて、少なくとも最大値面Vmaxと最小値面Vminと中央値面Vmedを生成するとともに、少なくとも最大値面Vmaxと最小値面Vminに対して平方根型階調特性のガンマ変換および平方型階調特性のガンマ変換を施し、ガンマ変換された最大値面Vmaxと最小値面Vmin、及び中央値面Vmedの少なくとも1つに基づいて1つの明度成分Vを生成する。制御装置103は、3つの色成分の補正対象画素において、3つの色成分の補正画素値R’,G’およびB’と3つの色成分の局所平均値<R>,<G>および<B>との差または比が、該画素における明度成分の画素値Vと明度成分の局所平均値<V>との差または比に対して相関を保つように、3つの色成分の補正画素値R’,G’およびB’を求める。このようにすることによって、シアン系回折フレア、赤系回折フレアが共にきれいに補正される。それがたとえ車のヘッドライトのように画像構造の中にあっても画像構造を保存しつつ、回折フレアを消滅、抑制することができる。すなわち、回折フレアが大輪帯として多数の画像構造の上に重畳されていても、回折フレアと画像構造を正確に判別して、回折フレアを消滅、抑制することができる。
The control apparatus 103 as the image processing apparatus in the present embodiment described above has the following operations and effects.
(1) The control device 103 acquires an original image G 0 in which each pixel is represented by three color components. The control device 103 rearranges the values of the three color components for each pixel in order of size to generate at least the maximum value surface V max , the minimum value surface V min, and the median value surface V med , and at least the maximum value plane V max and the minimum value plane V min subjected to gamma conversion of gamma conversion and square-type tone characteristic of the square root type gradation characteristics with respect to the gamma converted maximum surface V max and the minimum value plane V min, and central One brightness component V is generated based on at least one of the value planes V med . The control device 103 uses the correction pixel values R ′, G ′, and B ′ of the three color components and the local average values <R>, <G>, and <B of the three color components in the correction target pixels of the three color components. The correction pixel value R of the three color components is kept in correlation with the difference or ratio between the pixel value V of the lightness component and the local average value <V> of the lightness component. Find ', G' and B '. By doing so, both the cyan diffraction flare and the red diffraction flare are corrected cleanly. Even if it is in the image structure like a car headlight, the diffraction flare can be eliminated and suppressed while preserving the image structure. That is, even if the diffraction flare is superimposed on a large number of image structures as a large annular zone, the diffraction flare and the image structure can be accurately discriminated and the diffraction flare can be eliminated or suppressed.

(2)制御装置103は、各画素が3つの色成分からなる原画像Gを取得する。制御装置103は、各画素の3つの色成分をフィルタリングして、逐次的にi種類の解像度からなる所定周波数以上の高周波画像L〜Lを生成し、高周波画像L〜Lを最も低い解像度から逐次的に統合して1つに統合された高周波画像に対応する統合エッジ成分E(x,y)=E (2)を生成する。1つに統合された高周波画像に対応する統合エッジ成分E(x,y)の各画素における各色成分の値自身の大きさおよび/または3つの色成分のうちの別の色成分の値の大きさに基づいて、1つに統合された高周波画像に対応する統合エッジ成分E(x,y)の値の振幅を、式(13)によって減衰する。原画像Gの3つの色成分の各色成分から減衰された高周波画像に対応するエッジ成分E’(x,y)を減算する処理を、式(56)〜(58)を用いてYCbCr空間で行うことによって、3つの色成分の補正画像の補正画素値R’,G’およびB’を生成する。夕日撮影時等、光源強度が強く露出時間が長いとき、赤系や黄色系の回折フレアは通常はテイル部分として目立たない高次の輪帯成分までが目立つようになり、これらが重畳された結果は全体が明るく被ったようなフレアとして認識されるが、このような高次回折光によるフレア被りであっても補正する効果を発揮する。高周波画像L〜Lの解像度の段数を5〜6段取ったことで、その効果が特に良好に現れる。本発明は、DOEレンズ(回折格子レンズを含む光学系)による回折フレアのみならず、通常レンズの内面反射や乱反射等によって生じるフレアのフレア補正にも利用することができる。 (2) The control unit 103 obtains the original image G 0 which each pixel consists of three color components. The control device 103 filters the three color components of each pixel to sequentially generate high-frequency images L 5 to L 0 having a predetermined frequency or more having i kinds of resolutions, and the highest frequency images L 5 to L 0 are obtained. The integrated edge component E (x, y) = E 0 (2) corresponding to the high-frequency image integrated sequentially from the low resolution and integrated into one is generated. The size of the value of each color component in each pixel of the integrated edge component E (x, y) corresponding to the integrated high-frequency image and / or the size of the value of another color component of the three color components Based on the above, the amplitude of the value of the integrated edge component E (x, y) corresponding to the high-frequency image integrated into one is attenuated by Expression (13). A process of subtracting the edge component E ′ (x, y) corresponding to the attenuated high-frequency image from each of the three color components of the original image G 0 is performed in the YCbCr space using equations (56) to (58). By doing so, corrected pixel values R ′, G ′ and B ′ of the corrected image of the three color components are generated. When shooting at sunset, etc., when the light source intensity is high and the exposure time is long, red and yellow diffractive flares are usually conspicuous as high-order zone components that are not conspicuous as tail parts, and these are superimposed. Is recognized as a flare that is brightly covered as a whole, but even if it is such a flare cover due to higher-order diffracted light, the effect of correction is exhibited. By taking 5 to 6 resolution steps of the high frequency images L 5 to L 0 , the effect is particularly good. The present invention can be used not only for diffraction flare caused by a DOE lens (an optical system including a diffraction grating lens) but also for flare correction of flare caused by internal reflection or irregular reflection of a normal lens.

なお、上述した実施形態ではRGBカラー画像を扱ったが、4色センサーなどのRGBの他にエメラルドグリーンが存在していた場合にも、同様な考え方で最大値面、最小値面および2つの中央値面を生成してDOEレンズによる回折フレアを補正することができる。   In the above-described embodiment, an RGB color image is dealt with. However, when emerald green is present in addition to RGB such as a four-color sensor, the maximum value surface, the minimum value surface, and the two center points are also considered in the same way. A value plane can be generated to correct diffraction flare due to the DOE lens.

カメラ100の制御装置103が上述の実施形態における画像処理を実行するためのコンピュータプログラム製品は、図9に示されるように、プログラム記憶媒体2000(例えばCD−ROM)や通信ネットワーク4000(例えばインターネット)によって伝達されるデータ信号を通じてデータ処理装置1000(例えばPC)に提供される。カメラ100は、そのデータ処理装置1000から通信を介して画像処理プログラムを読み込む。   As shown in FIG. 9, a computer program product for the control apparatus 103 of the camera 100 to execute image processing in the above-described embodiment is a program storage medium 2000 (for example, CD-ROM) or a communication network 4000 (for example, the Internet). Is provided to the data processing apparatus 1000 (for example, a PC) through a data signal transmitted by. The camera 100 reads an image processing program from the data processing apparatus 1000 via communication.

データ処理装置1000は、プログラム記憶媒体2000を介して画像処理プログラムの提供を受ける。あるいは、以下の供給形態で画像処理プログラムが提供されてもよい。データ処理装置1000は通信ネットワーク4000との接続機能を有する。サーバー3000は画像処理プログラムを提供するコンピュータであり、ハードディスクなどの記憶媒体に画像処理プログラムを格納する。サーバー3000はハードディスクから読み出した画像処理プログラムを、データ信号として搬送波に載せ、通信ネットワーク4000を介してデータ処理装置1000へ転送する。以上のように、画像処理プログラムは、プログラム記憶媒体2000や通信ネットワーク4000を介するデータ信号としての提供を含む種々の形態のコンピュータプログラム製品によって供給されることが好ましい。   The data processing apparatus 1000 is provided with an image processing program via the program storage medium 2000. Alternatively, the image processing program may be provided in the following supply form. The data processing apparatus 1000 has a connection function with the communication network 4000. The server 3000 is a computer that provides an image processing program, and stores the image processing program in a storage medium such as a hard disk. The server 3000 places the image processing program read from the hard disk on a carrier wave as a data signal, and transfers it to the data processing apparatus 1000 via the communication network 4000. As described above, the image processing program is preferably supplied by various forms of computer program products including provision as data signals via the program storage medium 2000 and the communication network 4000.

100 カメラ、101 操作部材、102 撮像素子、103 制御装置、
104 メモリカードスロット、105 モニタ、106 光学系、
1000 データ処理装置、2000 プログラム記憶媒体、3000 サーバー、
4000 通信ネットワーク
100 camera, 101 operation member, 102 image sensor, 103 control device,
104 memory card slot, 105 monitor, 106 optical system,
1000 data processing device, 2000 program storage medium, 3000 server,
4000 communication network

Claims (22)

第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、
第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面を生成するとともに、少なくとも前記最大値面と前記最小値面に対して特性の異なるガンマ変換を施し、前記ガンマ変換された最大値面と最小値面、及び前記中央値面の少なくとも1つに基づいて1つの明度成分を生成する生成手段と、
第1色成分の補正対象画素において、第1色成分の補正画素値と第1色成分の局所平均値との差が、該画素における前記明度成分の画素値と前記明度成分の局所平均値との差に対して相関を保つように、前記第1色成分の補正画素値を求める補正手段と、を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring an original image represented by first to nth color components (n ≧ 3);
The values of the first to nth color components are rearranged in order of size to generate at least a maximum value surface, a minimum value surface, and a median value surface, and at least characteristics with respect to the maximum value surface and the minimum value surface Generating means for generating a lightness component based on at least one of the gamma-converted maximum value surface and minimum value surface, and the median value surface;
In the correction target pixel of the first color component, the difference between the corrected pixel value of the first color component and the local average value of the first color component is the pixel value of the lightness component and the local average value of the lightness component in the pixel. An image processing apparatus comprising: correction means for obtaining a correction pixel value of the first color component so as to maintain a correlation with respect to the difference between the first and second color components.
第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、
第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面を生成するとともに、少なくとも前記最大値面と前記最小値面に対して特性の異なるガンマ変換を施し、前記ガンマ変換された最大値面と最小値面、及び前記中央値面の少なくとも1つに基づいて1つの明度成分を生成する生成手段と、
第1色成分の補正対象画素において、第1色成分の補正画素値と第1色成分の局所平均値との比が、該画素における前記明度成分の画素値と前記明度成分の局所平均値との比に対して相関を保つように、前記第1色成分の補正画素値を求める補正手段と、を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring an original image represented by first to nth color components (n ≧ 3);
The values of the first to nth color components are rearranged in order of size to generate at least a maximum value surface, a minimum value surface, and a median value surface, and at least characteristics with respect to the maximum value surface and the minimum value surface Generating means for generating a lightness component based on at least one of the gamma-converted maximum value surface and minimum value surface, and the median value surface;
In the correction target pixel of the first color component, the ratio between the corrected pixel value of the first color component and the local average value of the first color component is determined by the pixel value of the lightness component and the local average value of the lightness component in the pixel. An image processing apparatus comprising: correction means for obtaining a correction pixel value of the first color component so as to maintain a correlation with the ratio of the first color component.
請求項1または2に記載の画像処理装置において、
前記生成手段は、前記最大値面に対しては平方根階調のガンマ変換を施し、前記最小値面に対しては平方階調のガンマ変換を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus according to claim 1, wherein the generation unit performs gamma conversion of a square root gradation on the maximum value plane and performs a square gradation gamma conversion on the minimum value plane.
請求項1または2に記載の画像処理装置において、
前記生成手段は、前記最大値面に対しては平方階調のガンマ変換を施し、前記最小値面に対しては平方根階調のガンマ変換を施すことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The image processing apparatus according to claim 1, wherein the generation unit performs a gamma conversion of a square gradation on the maximum value surface and performs a gamma conversion of a square root gradation on the minimum value surface.
請求項1または2に記載の画像処理装置において、
前記生成手段は、前記原画像中の赤系の色相領域では前記中央値面を主に用い、前記原画像中のシアン系の色相領域では前記ガンマ変換された最大値面と最小値面の平均値を主に用いて前記明度成分を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The generating means mainly uses the median value plane in a red hue area in the original image, and averages the gamma-converted maximum value face and minimum value face in a cyan hue area in the original image. An image processing apparatus that generates the lightness component mainly using a value.
請求項3〜5のいずれか1項に記載の画像処理装置において、
前記生成手段は、前記原画像中の彩度が所定値以上の高彩度部の領域では、前記最大値面に対しては平方階調のガンマ変換を施し、前記最小値面に対しては平方根階調のガンマ変換を施す一方で、その他の領域では前記最大値面に対しては平方根階調のガンマ変換を施し、前記最小値面に対しては平方階調のガンマ変換を施すことを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 3 to 5,
The generating means performs a gamma conversion of a square tone on the maximum value plane and a square root floor on the minimum value plane in a high saturation area where the saturation in the original image is a predetermined value or more. In other areas, the maximum value plane is subjected to square root gamma conversion, and the minimum value plane is subjected to square tone gamma conversion. An image processing apparatus.
請求項1に記載の画像処理装置において、
前記原画像は対数階調空間で表された画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus according to claim 1, wherein the original image is an image represented in a logarithmic gradation space.
請求項2に記載の画像処理装置において、
前記原画像は線形階調空間で表された画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 2,
An image processing apparatus, wherein the original image is an image expressed in a linear gradation space.
第1〜第n色成分(n≧3)で表される原画像を取得する取得手段と、
第1色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、
第1〜第nの色成分の値を大きさの順に並び替えて、少なくとも最大値面と最小値面と中央値面とからなる3つの明度面を生成し、前記生成された3つの明度面に基づく値を、領域単位で選択的に加重合成し、1つの明度成分を生成する第2生成手段と、
前記明度成分をフィルタリングして、逐次的に複数の解像度からなる第3高周波画像を生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第3生成手段と、
原画像の第1色成分から前記第1色成分の1つに統合された第2高周波画像を減算し、前記明度成分の1つに統合された第4高周波画像を加算することによって、第1色成分の補正画像を生成する第4生成手段と、を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring an original image represented by first to nth color components (n ≧ 3);
A first high-frequency image having a plurality of resolutions is sequentially generated by filtering the first color component, and the first high-frequency image is sequentially integrated from the lowest resolution to be integrated into a second high-frequency image. First generation means for generating an image;
The values of the first to nth color components are rearranged in order of size to generate at least three brightness planes including a maximum value plane, a minimum value plane, and a median plane, and the generated three brightness planes A second generation unit that selectively weights and synthesizes values based on the region unit to generate one brightness component;
The brightness component is filtered to generate a third high-frequency image having a plurality of resolutions sequentially, and the third high-frequency image is sequentially integrated from the lowest resolution to be integrated into one. Third generation means for generating
By subtracting the second high frequency image integrated into one of the first color components from the first color component of the original image and adding the fourth high frequency image integrated into one of the lightness components, the first An image processing apparatus comprising: a fourth generation unit configured to generate a color component correction image.
請求項9に記載の画像処理装置において、
前記第1色成分は輝度成分であることを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
The image processing apparatus according to claim 1, wherein the first color component is a luminance component.
請求項9に記載の画像処理装置において、
前記第2生成手段は、原画像中のシアン系の色相領域では、最大値面と最小値面に基づく値を用い、原画像中の赤系の色相領域では中央値面に基づく値を用いて、前記1つの明度成分を生成することを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
The second generation means uses a value based on the maximum value plane and the minimum value plane in a cyan hue region in the original image, and uses a value based on the median value plane in a red hue region in the original image. An image processing apparatus that generates the one brightness component.
請求項9に記載の画像処理装置において、
前記最大値面と最小値面に基づく値は、前記最大値面と前記最小値面に異なるガンマ変換を施した面に基づく値であることを特徴とする画像処理装置。
The image processing apparatus according to claim 9.
The image processing apparatus according to claim 1, wherein the value based on the maximum value surface and the minimum value surface is a value based on a surface obtained by performing different gamma conversion on the maximum value surface and the minimum value surface.
少なくとも1つの色成分からなる原画像を取得する取得手段と、
前記1つの色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、
前記1つに統合された第2高周波画像の各画素における値自身の大きさに基づいて、前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、
原画像の1つの色成分から前記減衰された第2高周波画像を減算することによって、前記1つの色成分の補正画像を生成する第2生成手段と、を備えたことを特徴とする画像処理装置。
Obtaining means for obtaining an original image comprising at least one color component;
Filtering the one color component to sequentially generate a first high-frequency image having a plurality of resolutions, and sequentially integrating the first high-frequency images from the lowest resolution into a second one. First generation means for generating a high-frequency image;
Attenuating means for attenuating the amplitude of the value of the second high-frequency image integrated into one based on the magnitude of the value itself in each pixel of the second high-frequency image integrated into the one;
An image processing apparatus comprising: second generation means for generating a corrected image of the one color component by subtracting the attenuated second high-frequency image from one color component of the original image. .
少なくとも2つの色成分からなる原画像を取得する取得手段と、
前記少なくとも2つの色成分の各々をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を各色成分に対して生成する第1生成手段と、
前記少なくとも2つの色成分のうちの第1の色成分の前記1つに統合された第2高周波画像の各画素における値の大きさに基づいて、前記少なくとも2つの色成分のうちの第2の色成分の前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、
原画像の前記第2の色成分から前記減衰された第2高周波画像を減算することによって、前記第2の色成分の補正画像を生成する第2生成手段と、を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring an original image comprising at least two color components;
Each of the at least two color components is filtered to sequentially generate a first high-frequency image having a plurality of resolutions, and the first high-frequency images are sequentially integrated from the lowest resolution to be integrated into one. First generating means for generating a second high-frequency image for each color component;
The second of the at least two color components is based on the magnitude of the value at each pixel of the second high frequency image integrated with the one of the first color components of the at least two color components. Attenuating means for attenuating the amplitude of the value of the second high frequency image integrated into said one of the color components;
And a second generation unit configured to generate a corrected image of the second color component by subtracting the attenuated second high-frequency image from the second color component of the original image. Image processing device.
少なくとも1つの色成分からなる原画像を取得する取得手段と、
前記1つの色成分をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を生成する第1生成手段と、
前記逐次的に生成された複数の解像度の第1高周波画像においてさらに前記1つの色成分をフィルタリングすることによって第3高周波画像を各解像度で生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第2生成手段と、
前記1つに統合された第4高周波画像の各画素における値自身の大きさに基づいて、前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、
原画像の1つの色成分から前記減衰された第2高周波画像を減算することによって、前記1つの色成分の補正画像を生成する第3生成手段と、を備えたことを特徴とする画像処理装置。
Obtaining means for obtaining an original image comprising at least one color component;
Filtering the one color component to sequentially generate a first high-frequency image having a plurality of resolutions, and sequentially integrating the first high-frequency images from the lowest resolution into a second one. First generation means for generating a high-frequency image;
A third high-frequency image is generated at each resolution by further filtering the one color component in the sequentially generated first high-frequency images having a plurality of resolutions, and the third high-frequency image is sequentially generated from the lowest resolution. And a second generation means for generating a fourth high-frequency image integrated into one,
Attenuating means for attenuating the amplitude of the value of the second high-frequency image integrated into one based on the magnitude of the value itself in each pixel of the fourth high-frequency image integrated into the one;
An image processing apparatus comprising: a third generation unit configured to generate a corrected image of the one color component by subtracting the attenuated second high-frequency image from one color component of the original image. .
少なくとも2つの色成分からなる原画像を取得する取得手段と、
前記少なくとも2つの色成分の各々をフィルタリングして、逐次的に複数の解像度からなる第1高周波画像を生成し、前記第1高周波画像を最も低い解像度から逐次的に統合して1つに統合された第2高周波画像を各色成分に対して生成する第1生成手段と、
前記少なくとも2つの色成分のうちの第1の色成分の前記逐次的に生成された複数の解像度の第1高周波画像においてさらに前記第1の色成分をフィルタリングすることによって第3高周波画像を各解像度で生成し、前記第3高周波画像を最も低い解像度から逐次的に統合して1つに統合された第4高周波画像を生成する第2生成手段と、
前記第1の色成分の前記1つに統合された第4高周波画像の各画素における値の大きさに基づいて、前記少なくとも2つの色成分のうちの第2の色成分の前記1つに統合された第2高周波画像の値の振幅を減衰する減衰手段と、
原画像の前記第2の色成分から前記減衰された第2高周波画像を減算することによって、前記第2の色成分の補正画像を生成する第3生成手段と、を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring an original image comprising at least two color components;
Each of the at least two color components is filtered to sequentially generate a first high-frequency image having a plurality of resolutions, and the first high-frequency images are sequentially integrated from the lowest resolution to be integrated into one. First generating means for generating a second high-frequency image for each color component;
In each of the sequentially generated first high-frequency images of a plurality of resolutions of the first color component of the at least two color components, the first high-frequency image is further filtered to obtain a third high-frequency image at each resolution. A second generation means for generating the fourth high-frequency image integrated in one by sequentially integrating the third high-frequency image from the lowest resolution;
Based on the magnitude of the value at each pixel of the fourth high-frequency image integrated into the one of the first color components, integrated into the one of the second color components of the at least two color components. Attenuating means for attenuating the amplitude of the value of the second high-frequency image obtained;
And third generation means for generating a corrected image of the second color component by subtracting the attenuated second high-frequency image from the second color component of the original image. Image processing device.
請求項13〜16のいずれか1項に記載の画像処理装置において、
生成される前記補正画像の色成分は色差成分であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 13 to 16,
An image processing apparatus according to claim 1, wherein the color component of the generated corrected image is a color difference component.
請求項14または16に記載の画像処理装置において、
前記第1の色成分は色差成分または輝度成分であることを特徴とする画像処理装置。
The image processing apparatus according to claim 14 or 16,
The image processing apparatus according to claim 1, wherein the first color component is a color difference component or a luminance component.
請求項13〜16のいずれか1項に記載の画像処理装置において、
前記減衰手段は、前記大きさが大きいほど、減衰の度合いを大きくすることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 13 to 16,
The image processing apparatus, wherein the attenuation means increases the degree of attenuation as the size increases.
請求項13または14に記載の画像処理装置において、
前記減衰手段は、前記1つに統合された第2高周波画像の画素値を引数とするガウス分布関数によって、前記1つに統合された第2高周波画像の値の振幅を減衰させ、前記大きさが大きいほど、減衰の度合いを大きくすることを特徴とする画像処理装置。
The image processing apparatus according to claim 13 or 14,
The attenuation means attenuates the amplitude of the value of the second high-frequency image integrated into the one by a Gaussian distribution function having the pixel value of the second high-frequency image integrated into the one as an argument, and An image processing apparatus characterized by increasing the degree of attenuation as the value of is increased.
請求項13〜20のいずれか1項に記載の画像処理装置において、
前記減衰手段は、原画像中の赤系の色相領域と比べて、シアン系の色相領域では、前記1つに統合された第2高周波画像の値の振幅を小さく減衰させることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 13 to 20,
The attenuation means attenuates the amplitude of the value of the second high-frequency image integrated into one smaller in the cyan hue region than in the red hue region in the original image. Processing equipment.
請求項1、2、9、および13〜16のいずれか1項に記載の画像処理装置において、
前記原画像は、回折格子レンズを含む光学系によって結像された像が撮像された画像であることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1, 2, 9, and 13 to 16.
The image processing apparatus according to claim 1, wherein the original image is an image obtained by capturing an image formed by an optical system including a diffraction grating lens.
JP2014016074A 2014-01-30 2014-01-30 image processing apparatus Pending JP2015142357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014016074A JP2015142357A (en) 2014-01-30 2014-01-30 image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014016074A JP2015142357A (en) 2014-01-30 2014-01-30 image processing apparatus

Publications (1)

Publication Number Publication Date
JP2015142357A true JP2015142357A (en) 2015-08-03

Family

ID=53772409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014016074A Pending JP2015142357A (en) 2014-01-30 2014-01-30 image processing apparatus

Country Status (1)

Country Link
JP (1) JP2015142357A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018526922A (en) * 2015-09-03 2018-09-13 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Glare detection method and apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018526922A (en) * 2015-09-03 2018-09-13 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH Glare detection method and apparatus
US10846557B2 (en) 2015-09-03 2020-11-24 Continental Automotive Gmbh Method and apparatus for glare detection

Similar Documents

Publication Publication Date Title
JP5349790B2 (en) Image processing apparatus, image processing method, and program
JP5047048B2 (en) Image processing apparatus, imaging apparatus, control method, program, and storage medium
EP1931130B1 (en) Image processing apparatus, image processing method, and program
JP5045421B2 (en) Imaging apparatus, color noise reduction method, and color noise reduction program
JP5197414B2 (en) Image processing apparatus and image processing method
US11625815B2 (en) Image processor and method
JP2007184805A (en) Color image reproducing device
JP5020615B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4963598B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JPWO2006134923A1 (en) Image processing apparatus, computer program product, and image processing method
JP4986820B2 (en) Image processing apparatus and image processing method
CN111784603A (en) RAW domain image denoising method, computer device and computer readable storage medium
JP5771677B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP4945943B2 (en) Image processing device
JP2009284009A (en) Image processor, imaging device, and image processing method
JP2007028040A (en) Image processing apparatus
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
JP5274697B2 (en) Image processing apparatus and image processing method
KR101699318B1 (en) Image processing apparatus and method of controlling the same
JP2015142357A (en) image processing apparatus
JP6143575B2 (en) Image processing apparatus, image processing method, and image processing program
JP4797478B2 (en) Image processing device
JP5178421B2 (en) Image processing apparatus, image processing method, and imaging apparatus
KR100999888B1 (en) Apparatus for Processing Image Siganls, Method for Reducing luminence Noise in the Image Signal Processing Apparatus and Record Medium for Performing Method of Reducing luminence Noise
JP2004064227A (en) Video signal processing apparatus