JP2013187711A - Image processing apparatus, imaging apparatus, and image processing method - Google Patents
Image processing apparatus, imaging apparatus, and image processing method Download PDFInfo
- Publication number
- JP2013187711A JP2013187711A JP2012050874A JP2012050874A JP2013187711A JP 2013187711 A JP2013187711 A JP 2013187711A JP 2012050874 A JP2012050874 A JP 2012050874A JP 2012050874 A JP2012050874 A JP 2012050874A JP 2013187711 A JP2013187711 A JP 2013187711A
- Authority
- JP
- Japan
- Prior art keywords
- value
- component
- band
- bands
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 132
- 238000003384 imaging method Methods 0.000 title claims abstract description 96
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000002834 transmittance Methods 0.000 claims abstract description 78
- 230000009467 reduction Effects 0.000 claims abstract description 51
- 239000003086 colorant Substances 0.000 claims abstract description 37
- 239000013598 vector Substances 0.000 claims description 105
- 238000000034 method Methods 0.000 claims description 89
- 230000008569 process Effects 0.000 claims description 70
- 210000001747 pupil Anatomy 0.000 claims description 70
- 238000013139 quantization Methods 0.000 claims description 50
- 230000014509 gene expression Effects 0.000 claims description 46
- 230000003287 optical effect Effects 0.000 claims description 34
- 238000011156 evaluation Methods 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 7
- 230000002123 temporal effect Effects 0.000 abstract description 9
- 230000003595 spectral effect Effects 0.000 description 26
- 230000005540 biological transmission Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000011946 reduction process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000013500 data storage Methods 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013144 data compression Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Color Television Image Signal Generators (AREA)
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理装置、撮像装置及び画像処理方法等に関する。 The present invention relates to an image processing device, an imaging device, an image processing method, and the like.
カメラ、顕微鏡、内視鏡などの撮影装置のデジタル化により、各種撮像機能の向上・拡張には目覚しいものがある。ノイズ低減処理もその一つであり、従来から種々のノイズ低減処理が提案されている(例えば特許文献1、2)。
Due to the digitization of imaging devices such as cameras, microscopes, and endoscopes, there are remarkable improvements in and expansion of various imaging functions. Noise reduction processing is one of them, and various noise reduction processing has been proposed (for example,
しかしながら、従来から提案されているノイズ低減処理の多くが画素値の空間的又は時間的な特性を利用した手法であるため、ノイズ低減処理により画質が低下するという課題がある。 However, since many of the conventionally proposed noise reduction processes are methods using the spatial or temporal characteristics of pixel values, there is a problem that the image quality is degraded by the noise reduction process.
例えば空間的な特性を利用した手法では、適応的フィルタリング処理や、類似する部分画像を加算する処理などが代表的である。しかしながら、このような手法によりノイズ低減効果を得ようとすると、細かいテクスチャ情報をつぶしてしまったり、高周波成分を低減させてしまったりするなど、解像劣化とノイズ低減効果がトレードオフとなり、ノイズ低減効果には自ずと限界がある。 For example, a technique using spatial characteristics is typically adaptive filtering processing or processing of adding similar partial images. However, when trying to obtain a noise reduction effect by such a method, the resolution degradation and the noise reduction effect are traded off, such as crushing fine texture information or reducing high frequency components, reducing noise. The effect is naturally limited.
また、時間的な特性を利用した手法では、連続撮影した複数枚の画像を合成し、加算効果によりノイズ低減を向上させる手法が代表的である。しかしながら、この手法では、複数枚の画像を撮影するため、被写体が動く場合や手振れにより画像がぶれる場合には、画像間で同一被写体像を位置合わせすることが必須であり、その位置合わせの精度が、合成画像の品質低下に大きく影響する。 As a technique using temporal characteristics, a technique of combining a plurality of continuously shot images and improving noise reduction by an addition effect is typical. However, in this method, since a plurality of images are captured, it is essential to align the same subject image between images when the subject moves or the image is shaken due to camera shake. However, it greatly affects the quality degradation of the composite image.
本発明の幾つかの態様によれば、空間的又は時間的な画素値の特性に依存しないノイズ低減処理が可能な画像処理装置、撮像装置及び画像処理方法等を提供できる。 According to some aspects of the present invention, it is possible to provide an image processing device, an imaging device, an image processing method, and the like that can perform noise reduction processing that does not depend on characteristics of spatial or temporal pixel values.
本発明の一態様は、第1透過率特性を有する第1色フィルタと第2透過率特性を有する第2色フィルタと第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得する画像取得部と、前記第1〜第3透過率特性の重なり部分及び非重なり部分に対応する第1〜第5バンドを設定し、前記画像を構成する第1〜第3色の画素値に基づいて前記第1〜第5バンドの成分値を推定するマルチバンド推定部と、前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を、前記画像のノイズを低減する処理として行うノイズ低減処理部と、を含む画像処理装置に関係する。 One embodiment of the present invention is picked up by an imaging device including a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic. An image acquisition unit for acquiring the obtained image, and first to fifth bands corresponding to the overlapping portion and the non-overlapping portion of the first to third transmittance characteristics, and the first to third colors constituting the image A multi-band estimation unit that estimates the first to fifth band component values based on the first pixel value, and the first to third color pixel values are reconstructed from the first to fifth band component values. The present invention relates to an image processing apparatus including a noise reduction processing unit that performs processing as processing for reducing noise of the image.
本発明の一態様によれば、第1〜第3色の画素値に基づいて第1〜第5バンドの成分値が推定され、その第1〜第5バンドの成分値から第1〜第3色の画素値を再構成する処理が、画像のノイズを低減する処理として行われる。これにより、空間的又は時間的な画素値の特性に依存しないノイズ低減処理を行うことが可能になる。 According to one aspect of the present invention, the component values of the first to fifth bands are estimated based on the pixel values of the first to third colors, and the first to third components are calculated from the component values of the first to fifth bands. The process of reconstructing the color pixel values is performed as a process of reducing image noise. This makes it possible to perform noise reduction processing that does not depend on the characteristics of the spatial or temporal pixel value.
また本発明の一態様では、前記マルチバンド推定部は、前記第1透過率特性の非重なり部分に対応する前記第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する前記第2バンドと、前記第2透過率特性の非重なり部分に対応する前記第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する前記第4バンドと、前記第3透過率特性の非重なり部分に対応する前記第5バンドとを設定してもよい。 In the aspect of the invention, the multiband estimation unit may overlap the first band corresponding to a non-overlapping portion of the first transmittance characteristic, and the first transmittance characteristic and the second transmittance characteristic. The second band corresponding to a portion, the third band corresponding to a non-overlapping portion of the second transmittance characteristic, and the overlapping portion of the second transmittance characteristic and the third transmittance characteristic. A fourth band and the fifth band corresponding to a non-overlapping portion of the third transmittance characteristic may be set.
また本発明の一態様では、前記ノイズ低減処理部は、前記第1、第2バンドの成分値を加算する処理を前記第1色の画素値を再構成する処理として行い、前記第2〜第4バンドの成分値を加算する処理を前記第2色の画素値を再構成する処理として行い、前記第4、第5バンドの成分値を加算する処理を前記第3色の画素値を再構成する処理として行ってもよい。 In the aspect of the invention, the noise reduction processing unit may perform the process of adding the component values of the first and second bands as a process of reconfiguring the pixel values of the first color, The process of adding the 4-band component values is performed as a process of reconstructing the pixel values of the second color, and the process of adding the component values of the fourth and fifth bands is reconstructed of the pixel values of the third color You may carry out as processing to do.
また本発明の一態様では、前記ノイズ低減処理部は、前記第1〜第5バンドの成分値に対してベクトル量子化処理を行い、前記ベクトル量子化処理された前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を行ってもよい。 In the aspect of the invention, the noise reduction processing unit performs a vector quantization process on the component values of the first to fifth bands, and performs the vector quantization process of the first to fifth bands. Processing for reconstructing the pixel values of the first to third colors from the component values may be performed.
また本発明の一態様では、前記ノイズ低減処理部は、前記第1〜第5バンドの成分値で構成されるベクトルが取り得る組み合わせ数を、前記第1〜第3色の画素値で構成されるベクトルが取り得る組み合わせ数に量子化する処理を、前記ベクトル量子化処理として行ってもよい。 Moreover, in one aspect of the present invention, the noise reduction processing unit is configured by the pixel values of the first to third colors as the number of combinations that can be taken by the vectors configured by the component values of the first to fifth bands. A process of quantizing the number of combinations that can be taken by the vector may be performed as the vector quantization process.
また本発明の一態様では、前記マルチバンド推定部は、前記第1、第2バンドの成分値を加算した値である前記第1色の画素値と、前記第2〜第4バンドの成分値を加算した値である前記第2色の画素値とに基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第3、第4バンドの成分値を加算した値である第1加算値との間の関係式を求め、前記関係式に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを推定してもよい。 In the aspect of the invention, the multiband estimator may include the first color pixel value, which is a value obtained by adding the component values of the first and second bands, and the component values of the second to fourth bands. A value obtained by adding the component value of the first band, the component value of the second band, and the component value of the third and fourth bands based on the pixel value of the second color that is a value obtained by adding And calculating the first band component value, the second band component value, and the first addition value based on the relational expression. Also good.
また本発明の一態様では、前記マルチバンド推定部は、前記第1バンドの成分値を未知数として前記関係式を求め、前記関係式で表した前記第1、第2バンドの成分値及び前記第1加算値と、前記第1、第2色の画素値との間の誤差を表す誤差評価値を求め、前記誤差評価値を最小にする前記未知数を決定し、決定した前記未知数及び前記関係式に基づいて、前記第1、第2バンドの成分値及び前記第1加算値を決定してもよい。 In the aspect of the invention, the multiband estimation unit obtains the relational expression by using the component value of the first band as an unknown, and obtains the component values of the first and second bands expressed by the relational expression and the first band. An error evaluation value representing an error between one added value and the pixel values of the first and second colors is obtained, the unknown number that minimizes the error evaluation value is determined, and the determined unknown number and the relational expression are determined. Based on the above, the component values of the first and second bands and the first addition value may be determined.
また本発明の一態様では、前記マルチバンド推定部は、前記第2〜第4バンドの成分値を加算した値である前記第2色の画素値と、前記第4、第5バンドの成分値を加算した値である前記第3色の画素値とに基づいて、前記第2、第3バンドの成分値を加算した値である前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値との間の関係式を求め、前記関係式に基づいて、前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値とを推定し、前記第1加算値と前記第4バンドの成分値から、又は前記第2加算値と前記第2バンドの成分値から前記第3バンドの成分値を求めてもよい。 In the aspect of the invention, the multiband estimator may include a pixel value of the second color, which is a value obtained by adding the component values of the second to fourth bands, and the component values of the fourth and fifth bands. Based on the pixel value of the third color that is a value obtained by adding the second and third band component values based on the pixel value of the third color, and the component values of the fourth band, A relational expression between the component values of the fifth band is obtained, and the second addition value, the component value of the fourth band, and the component value of the fifth band are estimated based on the relational expression. The third band component value may be obtained from the first addition value and the fourth band component value, or from the second addition value and the second band component value.
また本発明の一態様では、前記マルチバンド推定部は、前記第1、第2色フィルタの透過率特性に基づいて、前記第1色の画素値と前第2色の画素値との間の相対的なゲイン比を補正し、補正後の前記第1、第2色の画素値を用いて前記第1〜第5バンドの成分値を推定してもよい。 In the aspect of the invention, the multiband estimation unit may determine a pixel value between the first color pixel value and the previous second color pixel value based on the transmittance characteristics of the first and second color filters. The relative gain ratio may be corrected, and the first to fifth band component values may be estimated using the corrected pixel values of the first and second colors.
また本発明の一態様では、前記マルチバンド推定部は、前記第2バンドでの前記第2色フィルタの透過率と、前記第2バンドでの前記第1色フィルタの透過率との比を、前記第1色の画素値に乗じて、前記ゲイン比を補正してもよい。 In the aspect of the invention, the multiband estimation unit may calculate a ratio between the transmittance of the second color filter in the second band and the transmittance of the first color filter in the second band. The gain ratio may be corrected by multiplying the pixel value of the first color.
また本発明の一態様では、前記撮像素子には、撮像光学系の瞳を第1瞳と第2瞳に分割する光学フィルタを透過した光が結像され、前記第1瞳は、前記第1、第2バンドの一方と、前記第3バンドと、前記第4、第5バンドの一方とを透過し、前記第2瞳は、前記第1、第2バンドの他方と、前記第3バンドと、前記第4、第5バンドの他方とを透過し、前記マルチバンド推定部は、前記第1瞳及び前記第2瞳の透過光が撮像された前記画像に基づいて、前記第1〜第5バンドの成分値を推定してもよい。 In one embodiment of the present invention, light that has passed through an optical filter that divides a pupil of an imaging optical system into a first pupil and a second pupil is imaged on the imaging element, and the first pupil is the first pupil. , One of the second bands, the third band, and one of the fourth and fifth bands are transmitted, and the second pupil is the other of the first and second bands, and the third band. The multiband estimation unit transmits the other one of the fourth and fifth bands, and the multiband estimation unit performs the first to fifth based on the images obtained by imaging the transmitted light of the first pupil and the second pupil. The component value of the band may be estimated.
また本発明の一態様では、前記第1〜第3色は、それぞれ青色、緑色、赤色であり、前記マルチバンド推定部は、前記第1〜第5バンドの成分値を、それぞれ第1青色成分値、第2青色成分値、緑色成分値、第1赤色成分値、第2赤色成分値として求めてもよい。 In the aspect of the invention, the first to third colors are blue, green, and red, respectively, and the multiband estimation unit sets the component values of the first to fifth bands to the first blue component, respectively. You may obtain | require as a value, a 2nd blue component value, a green component value, a 1st red component value, and a 2nd red component value.
また本発明の他の態様は、上記のいずれかに記載された画像処理装置と、前記撮像素子と、を含む撮像装置に関係する。 Another aspect of the present invention relates to an imaging apparatus including the image processing apparatus described in any one of the above and the imaging element.
また本発明の更に他の態様は、上記のいずれかに記載された画像処理装置と、前記撮像素子と、前記光学フィルタが設けられた前記撮像光学系と、を含む撮像装置に関係する。 Still another aspect of the present invention relates to an imaging apparatus including the image processing apparatus described in any one of the above, the imaging element, and the imaging optical system provided with the optical filter.
また本発明の更に他の態様は、第1透過率特性を有する第1色フィルタと第2透過率特性を有する第2色フィルタと第3透過率特性を有する第3色フィルタとを含む撮像素子によって撮像された画像を取得し、前記第1〜第3透過率特性の重なり部分及び非重なり部分に対応する第1〜第5バンドを設定し、前記画像を構成する第1〜第3色の画素値に基づいて前記第1〜第5バンドの成分値を推定し、前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を、前記画像のノイズを低減する処理として行う画像処理方法に関係する。 According to still another aspect of the present invention, there is provided an imaging device including a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic. The first to fifth bands corresponding to the overlapping portion and the non-overlapping portion of the first to third transmittance characteristics are set, and the first to third colors constituting the image are acquired. A process of estimating component values of the first to fifth bands based on pixel values and reconstructing the pixel values of the first to third colors from the component values of the first to fifth bands is performed on the image. The present invention relates to an image processing method performed as a process for reducing noise.
以下、本発明の好適な実施の形態について詳細に説明する。なお以下に説明する本実施形態は特許請求の範囲に記載された本発明の内容を不当に限定するものではなく、本実施形態で説明される構成の全てが本発明の解決手段として必須であるとは限らない。 Hereinafter, preferred embodiments of the present invention will be described in detail. The present embodiment described below does not unduly limit the contents of the present invention described in the claims, and all the configurations described in the present embodiment are indispensable as means for solving the present invention. Not necessarily.
1.本実施形態の概要
上述のように、従来から提案されているノイズ低減処理の多くが画素値の空間的(位置的)又は時間的な特性を利用した手法であり、ノイズ低減処理により画質が低下してしまう。このような画質への影響をなるべく受けないノイズ低減手法が求められるが、未だ効果的な手法の提案は見当たらない。
1. Outline of this Embodiment As described above, many of the conventionally proposed noise reduction processes are methods using the spatial (positional) or temporal characteristics of pixel values, and the image quality is degraded by the noise reduction process. Resulting in. There is a need for a noise reduction method that is not affected by image quality as much as possible, but no effective method has yet been proposed.
例えば特許文献1には、原画像を空間的に平均化して平均画像を生成し、原画像と平均画像との差分を抽出して差分データを生成し、その差分データをベクトル量子化してベクトル量子化コードを生成し、そのベクトル量子化コードと平均画像から原画像の複合化を行う手法が開示されている。
For example, in
特許文献1では、従来の手法とは異なるベクトル量子化により、ノイズ低減を効果的に図る提案がなされている。このベクトル量子化では、同一画像内の空間的な画素値パターンを量子化するので、解像劣化や、時間軸のぶれ補正による画質劣化には、基本的に影響されない。しかしながら、量子化するための代表ベクトル数が少なくなると、通常のランダムノイズは減少するものの量子化ノイズが拡大し、画質を維持できなくなるという課題がある。
In
そこで本実施形態では、RGBの3原色カラーフィルタを有する撮像素子で撮像を行い、撮像で得られたRGBの画素値に基づいて5バンドの成分値{r(1),r(2),g,b(1),b(2)}を推定する。そして、R画素値を構成する成分値{r(1),r(2)}、G画素値を構成する成分値{r(2),g,b(1)}、B画素値を構成する成分値{b(1),b(2)}をそれぞれ加算処理してRGBの画素値を再構成することにより、撮像画像のランダムノイズを低減する。 Accordingly, in the present embodiment, imaging is performed with an imaging device having RGB three primary color filters, and component values of five bands {r (1) , r (2) , g based on RGB pixel values obtained by imaging. , B (1) , b (2) }. Then, component values {r (1) , r (2) } constituting the R pixel value, component values {r (2) , g, b (1) } constituting the G pixel value, and B pixel values are constituted. By adding the component values {b (1) , b (2) } to reconstruct RGB pixel values, random noise in the captured image is reduced.
このようにすれば、位置の異なる画素値の加算や、撮像タイミングの異なる画素値の加算を行わないため、画素値の空間的又は時間的な特性に依存しないノイズ低減処理が可能になる。これにより、空間的な加算による高周波成分の低減や、被写体が動く場合或いは手振れによる画質劣化の影響を受けずに、撮像画像のランダムノイズを低減できる。 In this way, since addition of pixel values at different positions and addition of pixel values at different imaging timings is not performed, it is possible to perform noise reduction processing that does not depend on the spatial or temporal characteristics of the pixel values. Thereby, the random noise of the captured image can be reduced without being affected by the reduction of high-frequency components due to spatial addition and the influence of image quality deterioration due to movement of the subject or camera shake.
なお、特許文献2には、マルチバンド画像からスペクトル情報を取得し、そのスペクトル情報の主成分を分析し、その分析によって得られる主成分ベクトルの和としてマルチバンド画像を再構成し、その再構成されたマルチバンド画像と元のマルチバンド画像とを所定の重み付けをして合成し、高精度且つS/Nの良いマルチバンド画像を取得する手法が開示されている。
In
しかしながら、特許文献2では、RGB3原色の画像からマルチバンド画像を推定し、そのマルチバンド画像からRGB3原色の画像を再構成することによりS/Nを改善する手法については無言である。
However,
2.ノイズ低減処理
2.1.加算処理によるノイズ低減処理
次に、本実施形態のノイズ低減処理について詳細に説明する。以下では、後述する第2のマルチバンド推定処理で得られたバンド成分値を用いてノイズ低減処理を行う場合を例に説明するが、本実施形態は、後述する第1のマルチバンド推定処理で得られたバンド成分に対して適用してもよい。第1のマルチバンド推定処理については図9〜図11で詳細に後述し、第2のマルチバンド推定処理については図12〜図17で詳細に後述する。なお以下では、撮像素子を適宜、撮像センサとも呼ぶ。また、以下で用いる{FR,FG,FB}は波長λの関数であるが、表記を簡単にするために波長λを省略する。
2. Noise reduction processing 2.1. Next, the noise reduction processing of this embodiment will be described in detail. In the following, a case where noise reduction processing is performed using a band component value obtained by the second multiband estimation process described later will be described as an example. However, the present embodiment is a first multiband estimation process described later. You may apply with respect to the obtained band component. The first multiband estimation process will be described in detail later with reference to FIGS. 9 to 11, and the second multiband estimation process will be described later in detail with reference to FIGS. Hereinafter, the image sensor is also referred to as an image sensor as appropriate. Further, {F R , F G , F B } used below is a function of the wavelength λ, but the wavelength λ is omitted for the sake of simplicity.
図1(A)の青色成分{bR B,bL B}、図1(B)の緑色成分{bL G,gG,rR G}、図1(C)の赤色成分{rR R,rL R}は、撮像で得られたRGBの画素値{R,G,B}から、第2のマルチバンド推定処理により求めたバンド成分値である。図13等で後述するように、第2のマルチバンド推定処理では、第1〜第5バンドBD1〜BD5の成分値が推定される。{bR B,bL B}は、撮像素子の青色フィルタ(分光特性FB)を通過した第1、第2バンドの成分値であり、青色の画素値Bを構成する成分値である。{bL G,gG,rR G}は、撮像素子の緑色フィルタ(分光特性FG)を通過した第2〜第4バンドの成分値であり、緑色の画素値Gを構成する成分値である。{rR R,rL R}は、撮像素子の赤色フィルタ(分光特性FR)を通過した第4、第5バンドの成分値であり、赤色の画素値Rを構成する成分値である。 The blue component {b R B , b L B } in FIG. 1 (A), the green component {b L G , g G , r R G } in FIG. 1 (B), and the red component {r R in FIG. 1 (C). R 1 , r L R } are band component values obtained by the second multiband estimation process from RGB pixel values {R, G, B} obtained by imaging. As will be described later with reference to FIG. 13 and the like, in the second multiband estimation process, component values of the first to fifth bands BD1 to BD5 are estimated. {B R B , b L B } are component values of the first and second bands that have passed through the blue filter (spectral characteristic F B ) of the image sensor, and are component values that constitute the blue pixel value B. {B L G , g G , r R G } are component values of the second to fourth bands that have passed through the green filter (spectral characteristic F G ) of the image sensor, and component values constituting the green pixel value G It is. {R R R , r L R } are the component values of the fourth and fifth bands that have passed through the red filter (spectral characteristic F R ) of the image sensor, and are the component values that constitute the red pixel value R.
図1(A)〜図1(C)に示すように、青色成分{bR B,bL B}、緑色成分{bL G,gG,rR G}、赤色成分{rR R,rL R}には、ランダムノイズ成分{nR,nG,nR}が重畳されている。このランダムノイズ成分{nR,nG,nR}は、撮像素子から信号を出力する時点で重畳されるものであり、例えば画素の蓄積電荷をアナログ信号として読み出す回路が発生するノイズや、画素における光電変換のバラツキによる量子変換ノイズなどである。 As shown in FIGS. 1 (A) to 1 (C), a blue component {b R B , b L B }, a green component {b L G , g G , r R G }, a red component {r R R , A random noise component {n R , n G , n R } is superimposed on r L R }. This random noise component {n R , n G , n R } is superimposed when a signal is output from the image sensor, and for example, noise generated by a circuit that reads out the accumulated charge of the pixel as an analog signal, Quantum conversion noise due to variations in photoelectric conversion.
下式(1)に示すように、各色ごとに個々の成分を加算し、改めて青色成分B’と緑色成分G’と赤色成分R’とを求める。ランダムノイズ成分は、加算効果により各色成分に対して相対的に減少するため、ノイズ低減効果が見込まれる。
B’=bR B+bL B,
G’=bL G+gG+rR G,
R’=rR R+rL R (1)
As shown in the following formula (1), individual components are added for each color, and a blue component B ′, a green component G ′, and a red component R ′ are obtained again. Since the random noise component is relatively decreased with respect to each color component due to the addition effect, a noise reduction effect is expected.
B ′ = b R B + b L B ,
G ′ = b L G + g G + r R G ,
R ′ = r R R + r L R (1)
例えば、撮像した画素値Rとしては、光学的にバンド成分を加算した信号{rR R+rL R}が得られている。そのため、光電変換後に付加されるランダムノイズ成分nRは、各バンド成分について同位相で画素値Rに重畳されてしまう。この画素値Rでそのまま画像を構成すれば、当然ながらランダムノイズ成分nRをもった画像が構成される。一方、本実施形態では、バンド成分値{rR R,rL R}を、独立した画素値である{R’,G’}を用いて推定し、分離する。そのため、バンド成分値{rR R,rL R}のノイズ成分は独立した確率変数となり、バンド成分の加算値{rR R+rL R}のノイズ成分nR’は、独立した確率変数の加算値となるので、元のノイズ成分nRよりも分散が小さくなる。 For example, as the captured pixel value R, a signal {r R R + r L R } obtained by optically adding a band component is obtained. Therefore, the random noise component n R added after the photoelectric conversion is superimposed on the pixel value R with the same phase for each band component. If it constituting an image in the pixel value R, an image is formed with a random noise component n R course. On the other hand, in this embodiment, band component values {r R R , r L R } are estimated and separated using {R ′, G ′} which are independent pixel values. Therefore, the noise component of the band component value {r R R , r L R } is an independent random variable, and the noise component n R ′ of the band component addition value {r R R + r L R } is an independent random variable. since the addition value, the dispersion is smaller than the original noise component n R.
また、以上のノイズ低減処理を、後述する第2のマルチバンド推定処理に適用した場合、ダイナミックレンジを拡大する効果が得られる。即ち、図12に示すように、左右の瞳で異なる波長帯域に分割する光学フィルタRLTを用いると、撮像センサの各画素が受光する光量は、結像レンズLNSを透過する光量よりも減ることになる。逆に言えば、光学フィルタFLTは減光フィルタの作用をすることになる。そのため、図2のA1に示すように、光学フィルタFLTが無い場合には、結像レンズLNSが透過する光量がL0となったときに画素の受光量がMax(画素の飽和光量、画素が受光可能な光量)に達するが、A2に示すように、光学フィルタFLTが有る場合には、結像レンズLNSが透過する光量がL1(L1>L0)となるまで画素の受光量がMaxに達しない。つまり、画素が受光可能な光量Max(飽和光量)に達するときの、結像レンズLNSが透過する光量を、L0からL1に拡大できる。言い換えれば、光学フィルタFLTがない場合に比べて、より明るい被写体を撮像できる。本実施形態のノイズ低減処理と組み合わせると、撮影できる被写体の明るさのレンジが広くなるとともに画像のノイズ(S/N)が低減されるので、結果的にダイナミックレンジを拡大する効果が得られる。 Moreover, when the above noise reduction process is applied to the 2nd multiband estimation process mentioned later, the effect which expands a dynamic range is acquired. That is, as shown in FIG. 12, when an optical filter RLT that divides the left and right pupils into different wavelength bands is used, the amount of light received by each pixel of the imaging sensor is less than the amount of light that passes through the imaging lens LNS. Become. In other words, the optical filter FLT acts as a neutral density filter. Therefore, as shown in A1 of FIG. 2, when the optical filter FLT is not, the received light amount of the pixel when the amount of light imaging lens LNS is transmitted becomes L 0 is Max (pixel saturation amount of light, pixels However, if the optical filter FLT is provided as shown in A2, the amount of light received by the pixel is reduced until the amount of light transmitted through the imaging lens LNS becomes L 1 (L 1 > L 0 ). Max is not reached. That is, the amount of light transmitted by the imaging lens LNS when the pixel reaches the amount of light Max (saturated amount of light) that can be received can be increased from L 0 to L 1 . In other words, a brighter subject can be imaged as compared to the case without the optical filter FLT. When combined with the noise reduction processing of the present embodiment, the range of brightness of a subject that can be photographed is widened and the noise (S / N) of the image is reduced, resulting in the effect of expanding the dynamic range.
2.2.ベクトル量子化によるノイズ低減処理
本実施形態では、上記の加算処理だけでなく、さらにベクトル量子化によるノイズ低減処理を行ってもよい。
2.2. Noise Reduction Processing by Vector Quantization In this embodiment, not only the above addition processing but also noise reduction processing by vector quantization may be performed.
具体的には、マルチバンド推定前の撮像画像の画素値をB(青色)、G(緑色)、R(赤色)とし、これら画素値の量子化ステップ数をN(Nは2以上の自然数)とすると、各画素値は下式(2)の範囲を取り得る。量子化ステップ数Nは、撮像センサの飽和値以下に設定される範囲(画素値の最小値から最大値までの範囲)を量子化するステップ数であり、例えば8ビット画像の場合にはN=256である。
0≦B<N,0≦G<N,0≦R<N (2)
Specifically, the pixel values of the captured image before multiband estimation are B (blue), G (green), and R (red), and the number of quantization steps of these pixel values is N (N is a natural number of 2 or more). Then, each pixel value can take the range of the following formula (2). The number of quantization steps N is the number of steps for quantizing the range (the range from the minimum value to the maximum value of the pixel value) set below the saturation value of the image sensor. For example, in the case of an 8-bit image, N = 256.
0 ≦ B <N, 0 ≦ G <N, 0 ≦ R <N (2)
なお、ここではR、G、Bの量子化ステップ数Nは一般的に同一とする方が扱いやすいので共通の値としているが、意図的に各色ごとに量子化ステップ数Nを異ならせても構わない。 Here, the number of quantization steps N for R, G, and B is generally a common value because it is easier to handle the same, but even if the number of quantization steps N is intentionally different for each color. I do not care.
画素値B、Rは、それぞれ2成分{bR B,bL B}、{rR R,rL R}を加算した値であると定義しているので、成分bR B、bL B、rR R、rL Rを独立した値であるとすると、ベクトル量子化前の各成分は下式(3)の範囲を取り得る。
0≦bR B<N,0≦bL B<N,0≦rR R<N,0≦rL R<N (3)
Since the pixel values B and R are defined as values obtained by adding two components {b R B , b L B } and {r R R , r L R }, respectively, the components b R B and b L B are defined. , R R R , r L R are independent values, each component before vector quantization can take the range of the following equation (3).
0 ≦ b R B <N, 0 ≦ b L B <N, 0 ≦ r R R <N, 0 ≦ r L R <N (3)
画素値Gは、3成分{bL G,gG,rR G}を加算した値であると定義しているので、成分bL G,gG,rR Gを独立した値であるとすると、ベクトル量子化前の各成分は下式(4)の範囲を取り得る。
0≦bL G<N,0≦rR G<N,0≦gG<N (4)
Since the pixel value G is defined as a value obtained by adding the three components {b L G , g G , r R G }, the components b L G , g G , and r R G are independent values. Then, each component before vector quantization can take the range of the following formula (4).
0 ≦ b L G <N, 0 ≦ r R G <N, 0 ≦ g G <N (4)
マルチバンド推定処理により求められた成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}(各画素における成分値)の組み合わせパターンを、7つの成分から構成される7次元ベクトル(マルチバンドベクトル)Φ(7)=(bR B,bL B,bL G,gG,rR G,rR R,rL R)と考える。各成分値の量子化ステップ数をNとすれば、上式(3)、(4)の範囲を取り得るので、7次元ベクトルΦ(7)が取り得るベクトルの数(組み合わせの数)は、N7となる。 Component value determined by the multi-band estimation processing {b R B, b L B , b L G, g G, r R G, r R R, r L R} combination patterns of (component values in each pixel), 7-dimensional vector (multi-band vector) composed of seven components Φ (7) = (b R B , b L B , b L G , g G , r R G , r R R , r L R ) . If the number of quantization steps for each component value is N, the range of the above equations (3) and (4) can be taken, so the number of vectors (number of combinations ) that the 7-dimensional vector Φ (7) can take is the N 7.
また、ノイズ低減処理後の最終的に取得したい3原色の画素値{R’,G’,B’}の組み合わせパターンを、3つの成分から構成される3次元ベクトルΦ(3)と考える。各成分値の量子化ステップ数をN(例えば、256階調)とすれば、各成分値は下式(5)の範囲を取り得るので、3次元ベクトルΦ(3)=(R’,G’,B’)が取り得るベクトルの数(組み合わせの数)は、N3となる。
0≦B’<N,0≦G’<N,0≦R’<N (5)
Further, a combination pattern of pixel values {R ′, G ′, B ′} of the three primary colors to be finally obtained after the noise reduction processing is considered as a three-dimensional vector Φ (3) composed of three components. If the number of quantization steps of each component value is N (for example, 256 gradations), each component value can take the range of the following equation (5), so the three-dimensional vector Φ (3) = (R ′, G The number of vectors (number of combinations) that ', B') can take is N 3 .
0 ≦ B ′ <N, 0 ≦ G ′ <N, 0 ≦ R ′ <N (5)
即ち、本実施形態のベクトル量子化処理は、パターン数がN7である7次元ベクトルΦ(7)を、パターン数がN3である3次元ベクトルΦ(3)に変換する処理である。 That is, the vector quantization process of the present embodiment is a process of converting a 7-dimensional vector Φ (7) having N 7 patterns into a 3-dimensional vector Φ (3) having N 3 patterns.
本実施形態のベクトル量子化処理では、まず、パターン数N7の7次元ベクトルΦ(7)の生起確率分布を求め、その生起確率分布に基づいてパターン数N3の代表ベクトルΦ(7) mを7次元空間において設定する。ここで、m=0,1,2,・・・,(N3−1)である。N3パターンの代表ベクトルΦ(7) mはN3パターンの3次元ベクトルΦ(3)に対応しており、代表ベクトルΦ(7) mの成分値を加算して画素値{R’,G’,B’}を求めた場合、1つの代表ベクトルΦ(7) mに1組の画素値{R’,G’,B’}が対応する。1つの代表ベクトルΦ(7) mは、3次元空間での1組の画素値{R’,G’,B’}となればよいので、7次元空間では複数のベクトルに対応していてもよい。 In the vector quantization processing of this embodiment, first, an occurrence probability distribution of a 7-dimensional vector Φ (7) having a pattern number N 7 is obtained, and a representative vector Φ (7) m having a pattern number N 3 is obtained based on the occurrence probability distribution. Are set in a 7-dimensional space. Here, m = 0, 1, 2,..., (N 3 −1). N 3 representative vectors Φ (7) m pattern corresponds to the three-dimensional vector of N 3 pattern [Phi (3), the representative vector [Phi (7) pixel value by adding the component values of m {R ', G When ', B'} is obtained, one set of pixel values {R ', G', B '} corresponds to one representative vector Φ (7) m . Since one representative vector Φ (7) m may be a set of pixel values {R ′, G ′, B ′} in a three-dimensional space, even if it corresponds to a plurality of vectors in the seven-dimensional space. Good.
図3に示すように、ベクトル(rR,rL)を例にとると、ベクトル(rR,rL)のノイズ発生範囲NZに対して代表ベクトルΦmを設定する。より具体的には、図4に示すように、ノイズ発生範囲NZK−1、NZKa、NZKb、NZK+1に対して、それぞれ代表ベクトルΦK−1、ΦKa、ΦKb、ΦK+1を設定する(Kは、K<Nの自然数)。ΦK−1は、ベクトルの成分値を加算すると画素値RK−1となるベクトルであり、ΦKa、ΦKbは、ベクトルの成分値を加算すると画素値RKとなるベクトルであり、ΦK+1は、ベクトルの成分値を加算すると画素値RK+1となるベクトルである。2次元空間での2つの代表ベクトルΦKa、ΦKbは、1次元空間での1つの画素値RKに対応するので、上述のように代表ベクトルΦKa、ΦKbを1次元空間での1つの代表ベクトルとして扱う。 As shown in FIG. 3, taking a vector (r R , r L ) as an example, a representative vector Φ m is set for a noise generation range NZ of the vector (r R , r L ). More specifically, as shown in FIG. 4, representative vectors Φ K−1 , Φ Ka , Φ Kb , and Φ K + 1 are respectively set for the noise generation ranges NZ K−1 , NZ Ka , NZ Kb , and NZ K + 1 . Set (K is a natural number of K <N). [Phi K-1 is a vector of the pixel value R K-1 when adding the component values of the vector, [Phi Ka, [Phi Kb is a vector of the pixel value R K When adding the component values of the vector, [Phi K + 1 is a vector of the pixel value R K + 1 When adding the component values of the vector. Two representative vector [Phi Ka in two-dimensional space, [Phi Kb is because it corresponds to one pixel value R K in one-dimensional space, the first one-dimensional space representative vector [Phi Ka, the Kb [Phi as above Treat as two representative vectors.
次に、各画素の7次元ベクトルΦ(7)を、それに対応する代表ベクトルΦ(7) mに置き換え、ベクトル量子化を行う。次に、置き換えた代表ベクトルΦ(7) mの成分{bR B,bL B,bL G,gG,rR G,rR R,rL R}から、各画素における3原色の画素値{R’,G’,B’}を求める。具体的には、青色成分B’をB’=bR B+bL Bにより求め、緑色成分G’をG’=bL G+gG+rR Gにより求め、赤色成分R’をR’=rR R+rL Rにより求める。例えば、図4において4×4個のベクトル(rR,rL)が存在しているとする。代表ベクトルΦKa、ΦKbは1つの画素値RKに対応するので、4×4個のベクトル(rR,rL)は、3つの画素値RK−1、RK、RK+1に量子化されることになる。このような量子化を、N7個のベクトルΦ(7)が結果的にN3個のベクトルΦ(3)となるように行う。 Next, the 7-dimensional vector Φ (7) of each pixel is replaced with the corresponding representative vector Φ (7) m , and vector quantization is performed. Next, from the replaced components {b R B , b L B , b L G , g G , r R G , r R R , r L R } of the replaced representative vector Φ (7) m , the three primary colors in each pixel Pixel values {R ′, G ′, B ′} are obtained. Specifically, the blue component B ′ is obtained by B ′ = b R B + b L B , the green component G ′ is obtained by G ′ = b L G + g G + r R G , and the red component R ′ is R ′ = r Obtained by R R + r L R For example, it is assumed that 4 × 4 vectors (r R , r L ) exist in FIG. Since the representative vectors Φ Ka and Φ Kb correspond to one pixel value R K , 4 × 4 vectors (r R , r L ) are quantized into three pixel values R K−1 , R K , and R K + 1 . Will be converted. Such quantization is performed so that N 7 vectors Φ (7) result in N 3 vectors Φ (3) .
以上のようにしてベクトル量子化を行うことにより、画素値を帯域分割した成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}に重畳されたノイズ成分を低減できる。これにより、その成分値から求める3原色の画素値{R’,G’,B’}のノイズを低減することができる。 By performing vector quantization as described above, the band divided component values pixel values {b R B, b L B , b L G, g G, r R G, r R R, r L R} to The superimposed noise component can be reduced. Thereby, the noise of the pixel values {R ′, G ′, B ′} of the three primary colors obtained from the component values can be reduced.
また、成分値をベクトル量子化した後に画素値を求めることで、成分値から画素値を求めた後に画素値を量子化する場合に比べて、量子化エラーを低減できる。具体的には、図5に示すように、マルチバンド撮影で得られた成分値{rR,rL}を、ベクトル量子化せずに加算し、画素値R’を求めたとする。この場合、例えばノイズ発生範囲NZKaには、画素値R’の量子化幅よりも外側の範囲NZ1、NZ2(ハッチングで示す範囲)が存在する。この範囲NZ1、NZ2に属する成分値{rR,rL}は、ベクトルΦKaにノイズが重畳されて発生した成分値であるから、本来、その加算値はRkとなるべきである。しかしながら、範囲NZ1、NZ2に属する成分値{rR,rL}は、画素値RK+1の量子化範囲に含まれるため、成分値{rR,rL}の加算値を量子化すると画素値RK+1となり、真値とは異なるエラーとなってしまう。 Further, by obtaining the pixel value after vector quantization of the component value, the quantization error can be reduced as compared with the case of obtaining the pixel value from the component value and then quantizing the pixel value. Specifically, as shown in FIG. 5, it is assumed that component values {r R , r L } obtained by multiband imaging are added without vector quantization to obtain a pixel value R ′. In this case, for example, in the noise generation range NZ Ka, there are ranges NZ 1 and NZ 2 (ranges indicated by hatching) outside the quantization width of the pixel value R ′. Since the component values {r R , r L } belonging to the ranges NZ 1 and NZ 2 are component values generated by superimposing noise on the vector Φ Ka , the added value should be R k originally. . However, since the component values {r R , r L } belonging to the ranges NZ 1 and NZ 2 are included in the quantization range of the pixel value R K + 1 , if the added value of the component values {r R , r L } is quantized The pixel value RK + 1 becomes an error different from the true value.
この点、本実施形態によれば、画素値からマルチバンド成分値を一旦推定し、その成分値に対してベクトル量子化できるので、図4で説明したように範囲NZ1、NZ2の成分値を真値に量子化できる。例えば図4におけるベクトル(rR,rL)は、その周りのノイズ成分が量子化されて得られたものである。そして、更にベクトル(rR,rL)を代表ベクトルに量子化することにより、ノイズ発生範囲のベクトルが代表ベクトルに集約される。これにより、ノイズ発生範囲のベクトルが真値に置き換えられるため、図5で説明したような量子化エラーを抑制できる。 In this regard, according to the present embodiment, since the multiband component value can be estimated once from the pixel value and vector quantization can be performed on the component value, the component values in the ranges NZ 1 and NZ 2 as described with reference to FIG. Can be quantized to a true value. For example, the vector (r R , r L ) in FIG. 4 is obtained by quantizing the surrounding noise components. Then, by further quantizing the vector (r R , r L ) into a representative vector, the noise generation range vectors are collected into the representative vector. Thereby, since the vector of the noise generation range is replaced with a true value, the quantization error described with reference to FIG. 5 can be suppressed.
2.3.ベクトル量子化処理の詳細例
上記のベクトル量子化処理には、種々のベクトル量子化手法を適用することが可能である。以下では、一例として、比較的処理負荷が軽いベクトル量子化処理について説明する。
2.3. Detailed Example of Vector Quantization Processing Various vector quantization methods can be applied to the above-described vector quantization processing. In the following, a vector quantization process with a relatively light processing load will be described as an example.
まず下式(6)に示すように、各画素(i,j)の7次元ベクトルΦij (7)を画像内で平均し、平均ベクトルを求める。ここで、i,jは自然数であり、iは水平走査方向における画素の位置(座標)であり、jは垂直走査方向における画素の位置(座標)である。また、Hは水平走査方向における画像の総画素数であり、Vは垂直走査方向における画像の総画素数である。平均ベクトルは、画像内の全ての画素から求めてもよいし、適当に選択した画素から求めてもよい。
次に、下式(7)に示すように、各画素(i,j)の7次元ベクトルΦij (7)と平均ベクトルとの差分ベクトルδijを求める。バンド成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}に対応する差分ベクトルδijの成分を、それぞれ{δij(bR B),δij(bL B),δij(bL G),δij(gG),δij(rR G),δij(rR R),δij(rL R)}と表す。これらの成分の量子化ステップ数をNとし、N7パターンの差分ベクトルδijが定義できるとする。このN7パターンの中からN3パターンの代表ベクトルを特定することを考える。
N7パターンをN3パターンにするためには、7成分{bR B,bL B,bL G,gG,rR G,rR R,rL R}のそれぞれの量子化数をNからn(n<N)に減らす必要がある。これら7成分からなるN7のパターンをN3パターンにするには、下式(8)のようにnを求める。下式(8)で求めたnが整数でない場合には、少数点以下を切り捨てればよい。
n7=N3 → log10n7=log10N3 → n=10(3logN/7) (8)
In order to change the N 7 pattern to the N 3 pattern, the quantization numbers of the seven components {b R B , b L B , b L G , g G , r R G , r R R , r L R } are set. It is necessary to reduce from N to n (n <N). In order to change the N 7 pattern composed of these seven components to the N 3 pattern, n is obtained as in the following equation (8). If n obtained by the following equation (8) is not an integer, the decimal point may be rounded down.
n 7 = N 3 → log 10 n 7 = log 10 N 3 → n = 10 ( 3 log N / 7) (8)
次に、図6に示すように、成分δij(bR B)を確率変数とし、発生確率分布を求める。発生確率分布の最大値(Max値)と最小値(Min値)の間をn個の量子化ステップ数で領域分割する。このとき、各領域の発生確率を同一(又はほぼ同一)のpとなるように分割する。そして、分割した領域それぞれについて成分δij(bR B)の平均値を求め、その領域の代表値とする。同様に、成分{δij(bL B),δij(bL G),δij(gG),δij(rR G),δij(rR R),δij(rL R)}についても、領域分割を行い、各領域についての代表値を求める。そして、求めた代表値を成分とするベクトルを、差分ベクトルδijの代表ベクトルとして設定する。 Next, as shown in FIG. 6, the occurrence probability distribution is obtained using the component δ ij (b R B ) as a random variable. A region between the maximum value (Max value) and the minimum value (Min value) of the occurrence probability distribution is divided into n quantization steps. At this time, the generation probability of each region is divided so as to be the same (or almost the same) p. Then, an average value of the components δ ij (b R B ) is obtained for each of the divided areas and set as a representative value of the area. Similarly, components {δ ij (b L B) , δ ij (b L G), δ ij (g G), δ ij (r R G), δ ij (r R R), δ ij (r L R )}, Region division is performed to obtain a representative value for each region. And the vector which makes the calculated | required representative value a component is set as a representative vector of difference vector (delta) ij .
次に、代表ベクトルを用いて、各画素のバンド成分値を量子化する。即ち、各画素の差分ベクトルδijから最もユークリッド距離が近い代表ベクトルを求め、その代表ベクトルを、その差分ベクトルδijの量子化ベクトルに設定する。 Next, the band component value of each pixel is quantized using the representative vector. That is, a representative vector having the closest Euclidean distance is obtained from the difference vector δ ij of each pixel, and the representative vector is set as a quantization vector of the difference vector δ ij .
2.4.撮像装置
図7に、本実施形態のマルチバンド推定処理及びノイズ低減処理を行う撮像装置の構成例を示す。図7の撮像装置は、結像レンズLNS、光学フィルタFLT、撮像素子10、撮像処理部20、画像処理装置25(画像処理部)、モニタ表示部40を含む。画像処理装置25は、RGB画像生成部30、RGBフィルタ特性データ記録部50、マルチバンド推定部70、データ圧縮部90、データ記録部100を含む。
2.4. Imaging Device FIG. 7 shows a configuration example of an imaging device that performs multiband estimation processing and noise reduction processing of the present embodiment. The imaging device of FIG. 7 includes an imaging lens LNS, an optical filter FLT, an
撮像素子10は、結像レンズLNS及び光学フィルタFLTによって結像された被写体を撮像する。光学フィルタFLTは、図12で後述するように右瞳と左瞳の透過帯域が異なる。撮像処理部20は、撮像素子10による撮像動作の制御や、アナログの画素信号をA/D変換する処理などを行う。
The
RGB画像生成部30は、撮像により得られたRGBベイヤ画像のデモザイキング処理や、高画質化処理などを行い、RGB3板画像(画素値R(i,j)、G(i,j)、B(i,j))をマルチバンド推定部70に出力する。i,jは、自然数であり、それぞれ画像の水平走査方向、垂直走査方向における位置(座標)を表す。
The RGB
RGBフィルタ特性データ記録部50は、撮像素子10がもつカラーフィルタの透過率特性(分光特性)FR、FG、FBのデータを記憶しており、そのデータをマルチバンド推定部70に出力する。但し、撮像されるRGB成分は、厳密にはカラーフィルタのみならず撮像素子10の分光感度特性や、結像レンズLNSの分光特性によって決まるものである。上記ではカラーフィルタの透過率特性がRGBフィルタ特性であるものとして説明したが、本実施形態では、当然、撮像素子10や結像レンズLNSの分光特性を含んだ特性データをRGBフィルタ特性データとして定義している。
The RGB filter characteristic
マルチバンド推定部70は、RGB3板画像に対して本実施形態のマルチバンド推定処理を行い、5バンドのマルチバンド画像(成分値{bR B,bL B}、{bL G,gG,rR G}、{rR R,rL R}、図7では簡単のため(i,j)を省略する)を出力する。ノイズ低減処理部80は、成分値{bR B,bL B}、{bL G,gG,rR G}、{rR R,rL R}に対して本実施形態のノイズ低減処理を行い、RGB3板画像(画素値R’(i,j)、G’(i,j)、B’(i,j))を再構成する。モニタ表示部40は、ノイズ低減処理により得られたRGB3板画像をモニタ(表示装置)に表示する。
The
データ圧縮部90は、RGB画像生成部30からのRGB3板画像のデータに対して圧縮処理を行う。データ記録部100は、圧縮されたRGB3板画像データと、カラーフィルタの透過率特性データとを記録する。これらの記録データは、撮影後の事後処理においてマルチバンド推定処理に用いることが可能である。事後処理は、撮像装置の中の画像処理装置25で行ってもよいし、撮像装置と別体に構成された画像処理装置で行ってもよい。なお、データ圧縮部90が、ノイズ低減処理部80からのRGB3板画像のデータに対して圧縮処理を行い、データ記録部100が、そのノイズ低減及び圧縮されたRGB3板画像データを記録してもよい。
The
2.5.画像処理装置
図8に、撮像装置と別体に構成された画像処理装置の構成例を示す。図8の画像処理装置は、データ記録部200、データ伸張部210、伸張データ記憶部220、モニタ画像生成部230、モニタ画像表示部240、画像データ選択部250、選択フレーム記憶部260、マルチバンド推定部270、ノイズ低減処理部275、画像出力部285を含む。この画像処理装置としては、例えばPC等の情報処理装置が想定される。
2.5. Image Processing Device FIG. 8 shows a configuration example of an image processing device configured separately from the imaging device. 8 includes a
データ記録部200は、例えば外部記憶装置(例えばメモリカード)により構成され、撮像装置により記録されたRGB3板画像データ及び透過率特性データを記憶している。データ伸張部210は、撮像装置により圧縮されたRGB3板画像データを伸張する処理を行う。伸張データ記憶部220は、伸張されたRGB3板画像データを記憶する。
The
モニタ画像生成部230は、RGB3板画像データからモニタ表示用の画像を生成する。モニタ画像表示部240は、そのモニタ表示用の画像をモニタに表示する。画像データ選択部250は、図示しないユーザインターフェースを介してユーザ(操作者)が選択したフレームのIDを、伸張データ記憶部220に出力する。伸張データ記憶部220は、複数のRGB3板画像(複数の静止画像、又は動画像)の中から、選択フレームの画像を出力する。選択フレーム記憶部260は、選択フレームの画像を記憶する。
The monitor
マルチバンド推定部270は、選択フレームの画像(画素値R(i,j)、G(i,j)、B(i,j))と、カラーフィルタの透過率特性FR、FG、FBとに基づいて、本実施形態のマルチバンド推定処理を行い、成分値{bR B,bL B}、{bL G,gG,rR G}、{rR R,rL R})を出力する。ノイズ低減処理部275は、成分値{bR B,bL B}、{bL G,gG,rR G}、{rR R,rL R}に対して本実施形態のノイズ低減処理を行い、RGB3板画像を再構成する。画像出力部285は、再構成されたRGB3板画像を、例えば表示装置やプリンタ等の画像出力装置に出力する。
The
以上の実施形態によれば、図7に示すように画像処理装置は、画像取得部とマルチバンド推定部とノイズ低減処理部とを含む。画像取得部は、第1透過率特性FBを有する第1色フィルタと第2透過率特性FGを有する第2色フィルタと第3透過率特性FRを有する第3色フィルタとを含む撮像素子10によって撮像された画像を取得する。図13等で後述するように、マルチバンド推定部は、第1〜第3透過率特性{FR,FG,FB}の重なり部分及び非重なり部分に対応する第1〜第5バンドBD1〜BD5を設定する。図14(A)〜図17等で後述するように、マルチバンド推定部は、画像を構成する第1〜第3色の画素値{B,G,R}に基づいて第1〜第5バンドの成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}を推定する。図1(A)〜図1(D)等で説明したように、第1〜第5バンドの成分値から第1〜第3色の画素値{B’,G’,R’}を再構成する処理を、画像のノイズを低減する処理として行う。
According to the above embodiment, as shown in FIG. 7, the image processing apparatus includes an image acquisition unit, a multiband estimation unit, and a noise reduction processing unit. Image acquisition unit includes an imaging and a third color filter having a second color filter and the third transmission characteristic F R having a first color filter and the second transmittance characteristic F G having a first transmittance characteristic F B An image captured by the
本実施形態では、画像処理装置は、図7に示す撮像装置の中の画像処理装置25、あるいは図8に示す、撮像装置とは別体に構成された画像処理装置に対応する。また、マルチバンド推定部は、図7のマルチバンド推定部70、あるいは図8のマルチバンド推定部270に対応する。ノイズ低減処理部は、図7のノイズ低減処理部80、あるいは図8のノイズ低減処理部275に対応する。
In the present embodiment, the image processing apparatus corresponds to the
このようにすれば、第1〜第3色の画素値から第1〜第5バンドの成分値を推定し、その推定値から第1〜第3色の画素値を再構成することにより、画像のノイズを低減することが可能になる。即ち、図1(A)〜図1(D)等で説明したように、推定によりノイズ成分を各バンドに分離でき、バンド成分値を加算するときにはノイズを加算効果により低下させることができる。これにより、空間的なノイズ低減処理(例えば位置の異なる画素値を平均化する処理)や時間的なノイズ低減処理(例えば撮影フレームが異なる画素値を平均化する処理)を行わずにノイズ低減できるので、例えば空間的なノイズ低減処理による解像度の低下や、時間的なノイズ低減処理による動体追従性の低下等を生じないノイズ低減が可能になる。 In this way, by estimating the component values of the first to fifth bands from the pixel values of the first to third colors, and reconstructing the pixel values of the first to third colors from the estimated values, the image Noise can be reduced. That is, as described with reference to FIGS. 1A to 1D and the like, noise components can be separated into bands by estimation, and noise can be reduced by the addition effect when band component values are added. As a result, noise can be reduced without performing spatial noise reduction processing (for example, processing for averaging pixel values at different positions) or temporal noise reduction processing (for example, processing for averaging pixel values having different shooting frames). Therefore, for example, it is possible to reduce noise without causing a reduction in resolution due to a spatial noise reduction process or a decrease in moving object followability due to a temporal noise reduction process.
また、図2等で説明したように、第2のマルチバンド推定処理と組み合わせた場合には、被写体からの反射光を光学フィルタFLTが減光するため、画素値が飽和する最大の反射光量が増える。これにより、ダイナミックレンジを拡大することが可能になる。 In addition, as described with reference to FIG. 2 and the like, when combined with the second multiband estimation process, the optical filter FLT attenuates the reflected light from the subject, so that the maximum reflected light amount at which the pixel value is saturated is Increase. As a result, the dynamic range can be expanded.
また本実施形態では、図1(D)等で説明したように、ノイズ低減処理部は、第1、第2バンドの成分値{bR B,bL B}を加算する処理を第1色の画素値B’を再構成する処理として行い、第2〜第4バンドの成分値{bL G,gG,rR G}を加算する処理を第2色の画素値G’を再構成する処理として行い、第4、第5バンドの成分値{rR R,rL R}を加算する処理を第3色の画素値R’を再構成する処理として行う。 In this embodiment, as described with reference to FIG. 1D and the like, the noise reduction processing unit performs processing for adding the component values {b R B , b L B } of the first and second bands to the first color. The pixel value B ′ is reconstructed, and the processing of adding the component values {b L G , g G , r R G } of the second to fourth bands is performed to reconstruct the pixel value G ′ of the second color The process of adding the component values {r R R , r L R } of the fourth and fifth bands is performed as the process of reconstructing the pixel value R ′ of the third color.
このようにすれば、第1〜第5バンドの成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}から第1〜第3色の画素値{B’,G’,R’}を再構成できる。即ち、図13等で後述するように、第1〜第5のバンドと第1〜第3色フィルタの透過率特性との対応関係に応じて成分値を加算することにより、第1〜第3色の画素値を再構成することができる。なお、上記では成分値に重み付けをせず単純に加算する場合を例に説明したが、本実施形態の加算処理はこれに限定されず、例えば成分値に対して重み付けをして加算する等の種々の加算処理を適用することが可能である。即ち、成分値の加算処理によりノイズ成分の低減効果が見込まれるような加算処理であればよい。 Thus, the component values of the first to fifth band {b R B, b L B , b L G, g G, r R G, r R R, r L R} first to third color from Pixel values {B ′, G ′, R ′} can be reconstructed. That is, as will be described later with reference to FIG. 13 and the like, by adding component values according to the correspondence between the first to fifth bands and the transmittance characteristics of the first to third color filters, the first to third bands are added. Color pixel values can be reconstructed. In the above description, the case where the component value is simply added without weighting has been described as an example. However, the addition processing of the present embodiment is not limited to this. For example, the component value is weighted and added. Various addition processes can be applied. In other words, it is sufficient if the addition process is such that a noise component reduction effect is expected by the addition process of the component values.
また本実施形態では、図3〜図6で説明したように、ノイズ低減処理部は、第1〜第5バンドの成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}に対してベクトル量子化処理を行い、そのベクトル量子化処理された第1〜第5バンドの成分値{bR B,bL B,bL G,gG,rR G,rR R,rL R}から第1〜第3色の画素値{B’,G’,R’}を再構成する処理を行う。 In this embodiment also, as described with reference to FIGS. 3 to 6, the noise reduction processing section, first to fifth band component values {b R B of, b L B, b L G , g G, r R G , r R R , r L R } is subjected to vector quantization, and the first to fifth band component values {b R B , b L B , b L G , g subjected to the vector quantization processing A process of reconstructing the pixel values {B ′, G ′, R ′} of the first to third colors from G 1 , r R G , r R R , r L R } is performed.
より具体的には、ノイズ低減処理部は、第1〜第5バンドの成分値で構成されるベクトルΦ(7)=(bR B,bL B,bL G,gG,rR G,rR R,rL R)が取り得る組み合わせ数N7(パターン数)を、第1〜第3色の画素値で構成されるベクトルΦ(3)=(R’,G’,B’)が取り得る組み合わせ数N3に量子化する処理を、ベクトル量子化処理として行う。 More specifically, the noise reduction processing unit is a vector Φ (7) = (b R B , b L B , b L G , g G , r R G composed of the component values of the first to fifth bands. , R R R , r L R ) represents the number of combinations N 7 (number of patterns) that can be represented by a vector Φ (3) = (R ′, G ′, B ′ ) composed of pixel values of the first to third colors. ) the process of quantizing the number of combinations N 3 where possible, performed as a vector quantization process.
このようにすれば、本実施形態では一旦マルチバンド推定を行うため、そのマルチバンド推定で求めた第1〜第5バンドの成分値に対してベクトル量子化を行うことができる。これにより、図5で説明したような量子化エラーを抑制し、より真値に近い第1〜第3色の画素値を再構成することが可能となるので、量子化エラーによるノイズを抑制することができる。 In this way, since multiband estimation is performed once in this embodiment, vector quantization can be performed on the component values of the first to fifth bands obtained by the multiband estimation. Accordingly, the quantization error as described with reference to FIG. 5 can be suppressed, and the pixel values of the first to third colors closer to the true value can be reconfigured. be able to.
3.第1のマルチバンド推定処理
3.1.バンド分割手法
次に、RGB画像から5バンドのマルチバンド画像を推定する処理について詳細に説明する。まず、基本的な処理例である第1のマルチバンド推定処理について説明する。以下ではRGBベイヤ配列の撮像素子を例に説明するが、本実施形態はこれに限定されず、カラーフィルタの透過率特性に重なり部分がある撮像素子でさえあればよい。
3. First multiband estimation process 3.1. Band Division Method Next, processing for estimating a 5-band multiband image from an RGB image will be described in detail. First, the first multiband estimation process, which is a basic process example, will be described. In the following description, an image sensor having an RGB Bayer array will be described as an example. However, the present embodiment is not limited to this, and it is sufficient that the image sensor has an overlapping portion in the transmittance characteristics of the color filter.
本実施形態では、RGBのベイヤ画像を撮像し、得られたベイヤ画像に対してデモザイキング処理を行ってRGB毎の3画像を生成する。デモザイキング処理により得られた各画素の赤色、緑色、青色の画素値をそれぞれR、G、Bとし、画素値R、G、Bと5バンドの波長成分b(1)、b(2)、g、r(1)、r(2)との関係を下式(9)に示すようにモデル化して考える。
B=b(1)+b(2),
G=r(1)+g+b(2),
R=r(1)+r(2) (9)
In the present embodiment, RGB Bayer images are captured, and demosaicing processing is performed on the obtained Bayer images to generate three images for each RGB. The red, green, and blue pixel values of each pixel obtained by the demosaicing process are R, G, and B, respectively, and the pixel values R, G, and B and five-band wavelength components b (1) , b (2) , The relationship between g, r (1) and r (2) is modeled as shown in the following equation (9).
B = b (1) + b (2) ,
G = r (1) + g + b (2) ,
R = r (1) + r (2) (9)
図9に示すように、5バンドの成分b(1)、b(2)、g、r(1)、r(2)は、撮像系の分光特性に応じて定まる成分である。図9には、撮像系の分光特性として、撮像センサのカラーフィルタの透過率特性FR、FG、FBを示すが、厳密には、撮像系の分光特性は、例えばカラーフィルタを除いた撮像センサがもつ分光特性や、光学系のもつ分光特性等も含んでいる。以下では説明を簡単にするため、撮像センサ等の分光特性が、図9に示すカラーフィルタの透過率特性FR、FG、FBに含まれるものとする。 As shown in FIG. 9, the five-band components b (1) , b (2) , g, r (1) , and r (2) are components determined according to the spectral characteristics of the imaging system. FIG. 9 shows the transmittance characteristics F R , F G , and F B of the color filter of the imaging sensor as the spectral characteristics of the imaging system. Strictly speaking, the spectral characteristics of the imaging system are, for example, excluding color filters. It also includes the spectral characteristics of the image sensor, the spectral characteristics of the optical system, and the like. In the following, for the sake of simplicity, it is assumed that spectral characteristics of the image sensor or the like are included in the transmittance characteristics F R , F G , and F B of the color filter shown in FIG.
図9に示すように、青色フィルタの透過率特性FBと緑色フィルタの透過率特性FGとの重なり部分に対応するバンドの成分がb(2)であり、青色フィルタの透過率特性FBの非重なり部分に対応するバンドの成分がb(1)である。また、赤色フィルタの透過率特性FRと緑色フィルタの透過率特性FGとの重なり部分に対応するバンドの成分がr(1)であり、赤色フィルタの透過率特性FRの非重なり部分に対応するバンドの成分がr(2)である。また、緑色フィルタの透過率特性FGの非重なり部分に対応するバンドの成分がgである。ここで、非重なり部分とは、他の色フィルタの透過率特性と重なっていない部分のことである。 As shown in FIG. 9, the band component corresponding to the overlapping portion of the transmittance characteristic F B of the blue filter and the transmittance characteristic F G of the green filter is b (2) , and the transmittance characteristic F B of the blue filter The component of the band corresponding to the non-overlapping part is b (1) . Further, components of the band corresponding to the overlap between the transmittance characteristic F G of the transmittance characteristic F R and the green filters of the red filter is r (1), the non-overlapping portion of the transmission characteristic F R of the red filter The corresponding band component is r (2) . Further, components of the band corresponding to non-overlapping portions of the transmission characteristic F G of the green filter is g. Here, the non-overlapping portion is a portion that does not overlap with the transmittance characteristics of other color filters.
5バンドの帯域BD1〜BD5は、透過率特性FR、FG、FBの形状や重なり具合などに応じて決定すればよく、透過率特性の帯域や重なり部分の帯域そのものである必要はない。例えば、図9に示す透過率特性FG、FBの重なり部分の帯域は、およそ450nm〜550nmであるが、帯域BD2は重なり部分に対応するものであればよく、450nm〜550nmである必要はない。 5-band of BD1~BD5, the transmittance characteristic F R, F G, may be determined depending on the shape and degree of overlap F B, need not be the band itself bandwidth and the overlapping portion of the transmission characteristic . For example, the band of the overlapping portion of the transmittance characteristics F G and F B shown in FIG. 9 is about 450 nm to 550 nm, but the band BD2 only needs to correspond to the overlapping portion, and needs to be 450 nm to 550 nm. Absent.
3.2.{r(1),r(2),g+b(2)}の推定処理
次に、上式(9)を用いて、画素値{R,G}から成分値{r(1),r(2),g+b(2)}の関係式を下式(10)のように求める。また、上式(9)より下式(11)が成り立つ。
R−G=[r(1)+r(2)]−[r(1)+g+b(2)]
=r(2)−[g+b(2)] (10)
r(1)=R−r(2) (11)
3.2. {R (1) , r (2) , g + b (2) } Estimation Process Next, using the above equation (9), the component values {r (1) , r (2 ) are calculated from the pixel values {R, G}. ) , G + b (2) } is obtained as in the following equation (10). Further, the following expression (11) is established from the above expression (9).
RG = [r (1) + r (2) ]-[r (1) + g + b (2) ]
= R (2) -[g + b (2) ] (10)
r (1) = R−r (2) (11)
r(2)を未知数(支配変数)とすると、上式(9)〜(11)より{r(1),r(2),g+b(2)}の関係式を下式(12)のように求められる。
r(2)=未知数(支配変数),
r(1)=R−r(2),
g+b(2)=r(2)−[R−G] (12)
When r (2) is an unknown (dominant variable), the relational expression {r (1) , r (2) , g + b (2) } is expressed by the following expression (12) from the above expressions (9) to (11). Is required.
r (2) = unknown (dominant variable),
r (1) = R−r (2) ,
g + b (2) = r (2) -[RG] (12)
{R,G}は検出された既知の値であるので、上式(12)に基づき未知数r(2)が決まれば、{r(1),r(2),g+b(2)}が全て決まることになる。即ち、{r(1),r(2),g+b(2)}の尤度パターンを特定することができる。 Since {R, G} is a known value detected, if the unknown r (2) is determined based on the above equation (12), {r (1) , r (2) , g + b (2) } are all It will be decided. That is, the likelihood pattern of {r (1) , r (2) , g + b (2) } can be specified.
図10に、この関係を原理的に表した図を示す。図10に示すように、未知数r(2)として、{r(1),r(2),g+b(2)}と{αRR,αGrG}の誤差が最小になる値を求める。 FIG. 10 is a diagram showing this relationship in principle. As shown in FIG. 10, as unknowns r (2), {r ( 1), r (2), g + b (2)} and {α R R, α Gr G } obtain the value of error is minimal.
ここで、αR,αGrは、下式(13)を満たす値である。αRは、Rに対する{r(1),r(2)}の平均的な値を算出したものであり、αGrは、Gに対する{r(1),g+b(2)}の平均的な値を算出したものである。これらは、図9に示すように撮像素子のカラーフィルタ特性から{r(1),r(2)}及び{r(1),g+b(2)}の成分比を考慮して決定すればよい。
0<αR≦1,0<αGr≦1 (13)
Here, α R and α Gr are values satisfying the following expression (13). α R is an average value of {r (1) , r (2) } with respect to R, and α Gr is an average of {r (1) , g + b (2) } with respect to G. The value is calculated. These may be determined in consideration of the component ratio of {r (1) , r (2) } and {r (1) , g + b (2) } from the color filter characteristics of the image sensor as shown in FIG. .
0 <α R ≦ 1, 0 <α Gr ≦ 1 (13)
{r(1),r(2),g+b(2)}と{αRR,αGrG}の誤差を評価する値Ergは、下式(14)により求める。そして、評価値Ergが最小になる場合のr(2)を求め、求めたr(2)を上式(12)に代入することにより、{r(1),r(2),g+b(2)}の3つの値を決定する。
er=[αRR−r(1)]2+[αRR−r(2)]2,
eg=[αGrG−r(1)]2+[αGrG−(g+b(2))]2,
Erg=er+eg (14)
A value E rg for evaluating an error between {r (1) , r (2) , g + b (2) } and {α R R, α Gr G} is obtained by the following equation (14). Then, r (2) when the evaluation value E rg is minimized is obtained, and the obtained r (2) is substituted into the above equation (12), whereby {r (1) , r (2) , g + b ( 2) Determine the three values of}.
e r = [α R R−r (1) ] 2 + [α R R−r (2) ] 2 ,
e g = [α Gr Gr ( 1)] 2 + [α Gr G- (g + b (2))] 2,
E rg = e r + e g (14)
3.3.{b(1),b(2),g+r(1)}の推定処理
同様にして、上式(9)を用いて、画素値{B,G}から成分値{b(1),b(2),g+r(1)}の関係式を下式(15)のように求める。また、上式(9)より下式(16)が成り立つ。
B−G=[b(1)+b(2)]−[r(1)+g+b(2)]
=b(1)−[g+r(1)] (15)
b(2)=B−b(1) (16)
3.3. {B (1) , b (2) , g + r (1) } In the same way, using the above equation (9), the component value {b (1) , b ( 2) , g + r (1) } is obtained as in the following equation (15). Further, the following equation (16) is established from the above equation (9).
B−G = [b (1) + b (2) ] − [r (1) + g + b (2) ]
= B (1) -[g + r (1) ] (15)
b (2) = B−b (1) (16)
b(1)を未知数(支配変数)とすると、上式(9)、(15)、(16)より{b(1),b(2),g+r(1)}の関係式を下式(17)のように求められる。
b(1)=未知数(支配変数)
b(2)=B−b(1),
g+r(1)=b(1)−[B−G] (17)
When b (1) is an unknown (dominant variable), the relational expression of {b (1) , b (2) , g + r (1) } is expressed by the following formula (9), (15), (16) 17).
b (1) = unknown (dominant variable)
b (2) = B−b (1) ,
g + r (1) = b (1) -[BG] (17)
{B,G}は検出された既知の値であるので、上式(17)に基づき未知数b(1)が決まれば、{b(1),b(2),g+r(1)}が全て決まることになる。即ち、{b(1),b(2),g+r(1)}の尤度パターンを特定することができる。 Since {B, G} is a detected known value, if the unknown b (1) is determined based on the above equation (17), {b (1) , b (2) , g + r (1) } are all It will be decided. That is, the likelihood pattern of {b (1) , b (2) , g + r (1) } can be specified.
図11に、この関係を原理的に表した図を示す。図11に示すように、未知数b(1)として、{b(1),b(2),g+r(1)}と{αBB,αGbG}の誤差が最小になる値を求める。 FIG. 11 is a diagram showing this relationship in principle. As shown in FIG. 11, as the unknown b (1) , a value that minimizes the error between {b (1) , b (2) , g + r (1) } and {α B B, α Gb G} is obtained.
ここで、αB,αGbは、下式(18)を満たす値である。αBは、Bに対する{b(1),b(2)}の平均的な値を算出したものであり、αGbは、Gに対する{b(2),g+r(1)}の平均的な値を算出したものである。これらは、図9に示すように撮像素子のカラーフィルタ特性から{r(1),r(2)}及び{r(1),g+b(2)}の成分比を考慮して決定すればよい。
0<αB≦1,0<αGb≦1 (18)
Here, α B and α Gb are values satisfying the following expression (18). α B is an average value of {b (1) , b (2) } with respect to B, and α Gb is an average of {b (2) , g + r (1) } with respect to G. The value is calculated. These may be determined in consideration of the component ratio of {r (1) , r (2) } and {r (1) , g + b (2) } from the color filter characteristics of the image sensor as shown in FIG. .
0 <α B ≦ 1, 0 <α Gb ≦ 1 (18)
{b(1),b(2),g+r(1)}と{αBB,αGbG}の誤差を評価する値Ebgは、下式(19)により求める。そして、評価値Ebgが最小になる場合のb(1)を求め、求めたb(1)を上式(17)に代入することにより、{r(1),r(2),g+b(2)}の3つの値を決定する。
eb=[αBB−b(1)]2+[αBB−b(2)]2,
eg=[αGbG−b(2)]2+[αGbG−(g+r(1))]2,
Ebg=eb+eg (19)
A value E bg for evaluating an error between {b (1) , b (2) , g + r (1) } and {α B B, α Gb G} is obtained by the following equation (19). Then, b (1) when the evaluation value E bg is minimized is obtained, and the obtained b (1) is substituted into the above equation (17), whereby {r (1) , r (2) , g + b ( 2) Determine the three values of}.
e b = [α B B−b (1) ] 2 + [α B B−b (2) ] 2 ,
e g = [α Gb G−b (2) ] 2 + [α Gb G− (g + r (1) )] 2 ,
E bg = e b + e g (19)
次に、上式(9)より下式(20)が成り立つから、上式(12)、(17)で求めたr(1)、b(2)を下式(20)に代入し、gを算出する。
g=G−(r(1)+b(2)) (20)
Next, since the following equation (20) is established from the above equation (9), r (1) and b (2) obtained by the above equations (12) and (17) are substituted into the following equation (20), and g Is calculated.
g = G− (r (1) + b (2) ) (20)
以上のようにして、デモザイキング処理により得られた各画素の3バンド画素値{R,G,B}から、図9に示すような5バンド画素値{b(1),b(2),g,r(1),r(2)}を推定することができる。 From the three-band pixel values {R, G, B} of each pixel obtained by the demosaicing process as described above, the five-band pixel values {b (1) , b (2) , g, r (1) , r (2) } can be estimated.
以上の実施形態によれば、画像処理装置は、画像を構成する第1〜第3色の画素値{R,G,B}に基づいて第1〜第5バンドの成分値{b(1),b(2),g,r(1),r(2)}を推定するマルチバンド推定部を含む。マルチバンド推定部は、第1透過率特性FBの非重なり部分に対応する第1バンドBD1と、第1透過率特性FBと第2透過率特性FGとの重なり部分に対応する第2バンドBD2と、第2透過率特性FGの非重なり部分に対応する第3バンドBD3と、第2透過率特性FGと第3透過率特性FRとの重なり部分に対応する第4バンドBD4と、第3透過率特性FRの非重なり部分に対応する第5バンドBD5とを設定する。 According to the above embodiment, the image processing apparatus uses the first to fifth band component values {b (1) based on the pixel values {R, G, B} of the first to third colors constituting the image. , B (2) , g, r (1) , r (2) } are included. Multiband estimation unit, a first band BD1 corresponding to the non-overlapping portions of the first transmission characteristic F B, the corresponding overlapping portion of the first transmission characteristic F B and the second transmission characteristic F G 2 a band BD2, the third band BD3 which corresponds to the non-overlapping portion of the second transmission characteristic F G, fourth band corresponding to the overlapping portion of the second transmission characteristic F G and third transmittance characteristic F R BD4 If, setting the fifth band BD5 corresponding to the non-overlapping portion of the third transmission characteristic F R.
本実施形態では、画像処理装置は、図7に示す撮像装置の中の画像処理装置25、あるいは図8に示す、撮像装置とは別体に構成された画像処理装置に対応する。また、マルチバンド推定部は、図7のマルチバンド推定部70、あるいは図8のマルチバンド推定部270に対応する。
In the present embodiment, the image processing apparatus corresponds to the
ここで、透過率特性の重なり部分とは、図9に示すように波長軸に対して透過率特性を表した場合に、波長軸上で隣り合う透過率特性が重なっている領域のことである。重なり部分は、透過率特性が重なっている領域そのもの、あるいは透過率特性の帯域が重なっている帯域で表される。また、透過率特性の非重なり部分とは、他の透過率特性と重なっていない部分のことである。即ち、透過率特性から重なり部分を除いた部分のことである。なお、重なり部分又は非重なり部分に対応するバンドは、重なり部分又は非重なり部分の帯域そのものに限定されず、重なり部分又は非重なり部分に対応して設定されたバンドであればよい。例えば、所定の透過率と透過率特性が交わる波長でバンドを分割し、第1〜第5バンドを設定してもよい。 Here, the overlapping portion of the transmittance characteristics is a region where the transmittance characteristics adjacent to each other on the wavelength axis overlap when the transmittance characteristics are expressed with respect to the wavelength axis as shown in FIG. . The overlapping portion is represented by a region where the transmittance characteristics overlap or a band where the bandwidths of the transmittance characteristics overlap. Further, the non-overlapping portion of the transmittance characteristic is a portion that does not overlap with other transmittance characteristics. That is, the portion obtained by removing the overlapping portion from the transmittance characteristic. The band corresponding to the overlapping portion or the non-overlapping portion is not limited to the band itself of the overlapping portion or the non-overlapping portion, and may be any band set corresponding to the overlapping portion or the non-overlapping portion. For example, the first to fifth bands may be set by dividing a band at a wavelength at which a predetermined transmittance and transmittance characteristics intersect.
このようにすれば、撮像画像の第1〜第3色の画素値{R,G,B}から第1〜第5のバンド成分値{b(1),b(2),g,r(1),r(2)}を推定することが可能となる。即ち、上式(9)で説明したように、透過率特性が隣り合う画素値(例えばB、G)には重なり部分の成分値(b(2))が含まれる。この重なり部分の成分値(b(2))を、上式(15)のように画素値の差分(B−G)により消去することで、上式(17)のように成分値の関係式を求め、その関係式に基づいて成分値を推定することが可能となる。 In this way, the first to fifth band component values {b (1) , b (2) , g, r ( from the first to third color pixel values {R, G, B} of the captured image. 1) , r (2) } can be estimated. That is, as described in the above equation (9), the pixel values (for example, B, G) having adjacent transmittance characteristics include the component value (b (2) ) of the overlapping portion. By deleting the component value (b (2) ) of this overlapping portion by the pixel value difference (B−G) as in the above equation (15), the relational expression of the component values as in the above equation (17). And the component value can be estimated based on the relational expression.
また、既存の撮像システムを大きく変更することなくマルチバンドの撮像システムを実現することが可能となる。即ち、従来の撮像装置に用いられてきたRGB撮像素子を他の特殊な撮像素子(例えばマルチバンドカラーフィルタを備えた撮像素子)に変更することなく、マルチバンド撮影を行うことができる。また、特殊な追加機構(例えば回転式のマルチバンドカラーフィルタ、分岐光学系)を用いることなく、マルチバンド撮影を行うことができる。特殊な撮像素子や追加機構が不要なため、解像度の低下や、コスト増大を避けることが可能である。 In addition, a multiband imaging system can be realized without greatly changing the existing imaging system. That is, multiband imaging can be performed without changing the RGB imaging element used in the conventional imaging apparatus to another special imaging element (for example, an imaging element having a multiband color filter). In addition, multiband imaging can be performed without using a special additional mechanism (for example, a rotary multiband color filter or a branching optical system). Since a special image sensor and an additional mechanism are unnecessary, it is possible to avoid a decrease in resolution and an increase in cost.
また本実施形態では、上式(9)で説明したように、第1色の画素値Bは、第1、第2バンドの成分値b(1)、b(2)を加算した値であり、第2色の画素値Gは、第2〜第4バンドの成分値b(2)、g、r(1)を加算した値である。上式(17)で説明したように、マルチバンド推定部は、この第1、第2色の画素値B、Gに基づいて、第1バンドの成分値b(1)と、第2バンドの成分値b(2)と、第3、第4バンドの成分値g、r(1)を加算した値である第1加算値r(1)+gとの間の関係式を求める。そして、マルチバンド推定部は、その関係式に基づいて、第1バンドの成分値b(1)と、第2バンドの成分値b(2)と、第1加算値r(1)+gとを推定する。 In the present embodiment, as described in the above equation (9), the pixel value B of the first color is a value obtained by adding the component values b (1) and b (2) of the first and second bands. The pixel value G of the second color is a value obtained by adding the component values b (2) , g, r (1) of the second to fourth bands. As described in the above equation (17), the multiband estimation unit determines the component value b (1) of the first band and the second band based on the pixel values B and G of the first and second colors. A relational expression between the component value b (2) and the first addition value r (1) + g that is a value obtained by adding the component values g and r (1) of the third and fourth bands is obtained. Then, based on the relational expression, the multiband estimation unit obtains the first band component value b (1) , the second band component value b (2) , and the first addition value r (1) + g. presume.
このようにすれば、隣り合った透過率特性が重なっている状態を、バンド成分値の加算式(上式(9))として表すことができる。そして、その加算式からバンド成分値間の関係式を求め、その関係式からバンド成分値を推定することが可能となる。 In this way, a state in which adjacent transmittance characteristics overlap each other can be expressed as an addition formula (the above formula (9)) of band component values. Then, a relational expression between band component values can be obtained from the addition expression, and the band component value can be estimated from the relational expression.
また本実施形態では、上式(17)で説明したように、マルチバンド推定部は、第1バンドの成分値b(1)を未知数として関係式を求める。図11及び上式(19)で説明したように、マルチバンド推定部は、関係式で表した第1、第2バンドの成分値及び第1加算値{b(1),b(2),g+r(1)}と、第1、第2色の画素値{B,G}との間の誤差を表す誤差評価値Ebgを求め、その誤差評価値Ebgを最小にする未知数b(1)を決定し、その決定した未知数b(1)及び関係式(上式(17))に基づいて、第1、第2バンドの成分値及び第1加算値{b(1),b(2),g+r(1)}を決定する。 In this embodiment, as described in the above equation (17), the multiband estimation unit obtains a relational expression using the component value b (1) of the first band as an unknown. As described with reference to FIG. 11 and the above equation (19), the multiband estimator includes the component values of the first and second bands and the first added values {b (1) , b (2) , An error evaluation value E bg representing an error between g + r (1) } and the pixel values {B, G} of the first and second colors is obtained, and an unknown b (1 that minimizes the error evaluation value E bg ) And the component values of the first and second bands and the first added value {b (1) , b (2 ) based on the determined unknown b (1) and the relational expression (formula (17)). ) , G + r (1) }.
このようにすれば、2つの画素値{B,G}から3つの変数{b(1),b(2),g+r(1)}を決定する際に必要な1つの未知数b(1)を、誤差評価値Ebgに基づいて決定でき、決定した未知数によりバンド成分値{b(1),b(2),g+r(1)}を決定できる。 In this way, one unknown b (1) necessary for determining three variables {b (1) , b (2) , g + r (1) } from two pixel values {B, G} is obtained. can be determined on the basis of the error evaluation value E bg, band component value by the determined unknown {b (1), b ( 2), g + r (1)} can be determined.
また本実施形態では、上記と同様にして、マルチバンド推定部は、関係式(上式(12))を求め、その関係式に基づいて、第2、第3バンドの成分値b(2)、gを加算した値である第2加算値g+b(2)と、第4バンドの成分値r(1)と、第5バンドの成分値r(2)とを推定する(上式(9)〜(14))。そして、第1加算値g+r(1)と第4バンドの成分値r(1)から、又は第2加算値g+b(2)と第2バンドの成分値b(2)から第3バンドの成分値gを求める。 Further, in the present embodiment, in the same manner as described above, the multiband estimation unit obtains a relational expression (the above expression (12)), and based on the relational expression, component values b (2) of the second and third bands. , G, the second added value g + b (2) , the fourth band component value r (1) , and the fifth band component value r (2) are estimated (formula (9) (14)). Then, from the first added value g + r (1) and the component value r (1) of the fourth band, or from the second added value g + b (2) and the component value b (2) of the second band, the component value of the third band. g is determined.
このようにすれば、バンド成分値{r(1),r(2),g+b(2)}を関係式で表し、その関係式を用いてバンド成分値{r(1),r(2),g+b(2)}を推定できる。そして、求めたバンド成分値{b(1),b(2),g+r(1)}及び{r(1),r(2),g+b(2)}を用いて、第1〜第5バンドの成分値{b(1),b(2),g,r(1),r(2)}を求めることができる。 In this way, the band component values {r (1) , r (2) , g + b (2) } are represented by relational expressions, and the band component values {r (1) , r (2) are represented using the relational expressions. , G + b (2) } can be estimated. Then, using the obtained band component values {b (1) , b (2) , g + r (1) } and {r (1) , r (2) , g + b (2) }, the first to fifth bands Component values {b (1) , b (2) , g, r (1) , r (2) } can be obtained.
また本実施形態では、第1〜第3色は、それぞれ青色(B)、緑色(G)、赤色(R)である。マルチバンド推定部は、第1〜第5バンドの成分値{b(1),b(2),g,r(1),r(2)}を、それぞれ第1青色成分値b(1)、第2青色成分値b(2)、緑色成分値g、第1赤色成分値r(1)、第2赤色成分値r(2)として求める。 In the present embodiment, the first to third colors are blue (B), green (G), and red (R), respectively. The multiband estimator uses the first to fifth band component values {b (1) , b (2) , g, r (1) , r (2) } as the first blue component values b (1) , respectively. , Second blue component value b (2) , green component value g, first red component value r (1) , and second red component value r (2) .
このようにすれば、例えばベイヤ配列等の既存のカメラシステムに搭載されたRGB撮像素子をそのまま利用して、5バンドのマルチバンド撮影を行うことが可能となる。なお、本実施形態では、第1〜第3色はRGBに限定されず、波長軸上において隣り合う透過率特性が重なり部分を有する3つのカラーフィルタに対応した色であればよい。 In this way, for example, it is possible to perform 5-band multiband imaging using the RGB imaging device mounted in an existing camera system such as a Bayer array as it is. In the present embodiment, the first to third colors are not limited to RGB, and may be any color corresponding to three color filters in which the adjacent transmittance characteristics on the wavelength axis have overlapping portions.
4.第2のマルチバンド推定処理
4.1.基本構成例
次に、光学フィルタにより瞳分割を行う第2のマルチバンド推定処理について説明する。図12に、本実施形態における撮像光学系の基本構成例を示す。図12に示すように、撮像光学系は、撮像素子のセンサ面に被写体を結像させる結像レンズLNSと、第1瞳と第2瞳で帯域を分離する光学フィルタFLTと、を含む。
4). Second multiband estimation process 4.1. Basic Configuration Example Next, a second multiband estimation process for performing pupil division using an optical filter will be described. FIG. 12 shows a basic configuration example of the imaging optical system in the present embodiment. As shown in FIG. 12, the imaging optical system includes an imaging lens LNS that forms an image of a subject on the sensor surface of the imaging device, and an optical filter FLT that separates a band between the first pupil and the second pupil.
以下では、第1瞳を右瞳とし、第2瞳を左瞳として説明するが、本実施形態ではこれに限定されない。即ち、瞳の分離方向は左右に限定されず、撮像光学系の光軸に対して垂直な任意の方向に第1瞳と第2瞳が分離されていればよい。なお以下では、5バンドの成分{bR,bL,g,rR,rL}に対応する波長分割光や帯域を、適宜、同一の符号{bR,bL,g,rR,rL}で表す。 In the following description, the first pupil is the right pupil and the second pupil is the left pupil. However, the present embodiment is not limited to this. That is, the separation direction of the pupil is not limited to the left and right, and it is sufficient that the first pupil and the second pupil are separated in an arbitrary direction perpendicular to the optical axis of the imaging optical system. In the following description, the wavelength division light and the band corresponding to the five-band components {b R , b L , g, r R , r L } are appropriately set to the same code {b R , b L , g, r R , r L }.
光学フィルタFLTは、波長分割光{bR,g,rR}を透過する特性の右瞳フィルタFL1(広義には第1フィルタ)と、波長分割光{bL,g,rL}を透過する特性の左瞳フィルタFL2(広義には第2フィルタ)とを有する。光学フィルタFLTは、撮像光学系の瞳位置(例えば絞りの設置位置)に設けられ、フィルタFL1、FL2がそれぞれ右瞳、左瞳に相当する。 The optical filter FLT transmits the right pupil filter FL1 (first filter in a broad sense) having a characteristic of transmitting the wavelength division light {b R , g, r R } and the wavelength division light {b L , g, r L }. And a left pupil filter FL2 (second filter in a broad sense). The optical filter FLT is provided at a pupil position (for example, a diaphragm installation position) of the imaging optical system, and the filters FL1 and FL2 correspond to the right pupil and the left pupil, respectively.
図13に示すように、右瞳フィルタFL1は、図9で説明した成分{b(1),g,r(1)}に対応する帯域BD1、BD3、BD4を透過するフィルタである。即ち、波長分割光{bR,g,rR}は、成分{b(1),g,r(1)}に対応する透過光である。また、左瞳フィルタFL2は、図9で説明した成分{b(2),g,r(2)}に対応する帯域BD2、BD3、BD5を透過するフィルタである。即ち、波長分割光{bL,g,rL}は、成分{b(2),g,r(2)}に対応する透過光である。 As shown in FIG. 13, the right pupil filter FL1 is a filter that transmits the bands BD1, BD3, and BD4 corresponding to the components {b (1) , g, r (1) } described in FIG. That is, the wavelength division light {b R , g, r R } is transmitted light corresponding to the component {b (1) , g, r (1) }. The left pupil filter FL2 is a filter that transmits the bands BD2, BD3, and BD5 corresponding to the components {b (2) , g, r (2) } described in FIG. That is, the wavelength division light {b L , g, r L } is transmitted light corresponding to the component {b (2) , g, r (2) }.
図12に示すように、結像レンズLNS及び光学フィルタFLTを透過した結像光は、RGBベイヤ配列の撮像素子に入力され、赤色(R)、緑色(G)、青色(B)の光強度として信号に変換されデータとして取得される。図13に示すように、右瞳を通過した波長分割光{bR,g,rR}と、左瞳を通過した波長分割光{bL,g,rL}は、波長帯域が明確に分離されている。一方、撮像素子のカラーフィルタの分光特性{FR,FG,FB}は、隣接する分光特性の波長帯域が重複した特性となっている。この重複状態を考慮すると、デモザイキング処理後の各画素における赤色、緑色、青色の画素値R、G、Bを、下式(21)のようにモデル化することができる。
R=gR+rR R+rL R,
G=bL G+gG+rR G,
B=bR B+bL B+gB (21)
As shown in FIG. 12, the imaging light transmitted through the imaging lens LNS and the optical filter FLT is input to an RGB Bayer array image sensor, and the light intensity of red (R), green (G), and blue (B). Is converted into a signal and acquired as data. As shown in FIG. 13, the wavelength division light {b R , g, r R } that has passed through the right pupil and the wavelength division light {b L , g, r L } that has passed through the left pupil have distinct wavelength bands. It is separated. On the other hand, the spectral characteristics {F R , F G , F B } of the color filter of the image sensor are characteristics in which the wavelength bands of adjacent spectral characteristics overlap. Considering this overlapping state, the red, green, and blue pixel values R, G, and B in each pixel after the demosaicing process can be modeled as in the following equation (21).
R = g R + r R R + r L R ,
G = b L G + g G + r R G,
B = b R B + b L B + g B (21)
ここで、図14(C)に示すように、成分{bR B,bL B,gB}は、分光特性FBの青色フィルタを通過した波長分割光{bR,bL,g}に対応する。図14(D)に示すように、成分{bL G,gG,rR G}は、分光特性FGの緑色フィルタを通過した波長分割光{bL,g,rR}に対応する。また、図16(D)に示すように、成分{gR,rR R,rL R}は、分光特性FRの赤色フィルタを通過した波長分割光{g,rR,rL}に対応する。各成分を表す符号の上付きサフィックスは、右瞳「R」及び左瞳「L」のいずれを通過したかを表し、下付サフィックスは、赤色フィルタ「R」、緑色フィルタ「G」、青色フィルタ「B」のいずれを通過したかを表している。 Here, as shown in FIG. 14 (C), the component {b R B , b L B , g B } is the wavelength-divided light {b R , b L , g} that has passed through the blue filter having the spectral characteristic F B. Corresponding to As shown in FIG. 14D, the component {b L G , g G , r R G } corresponds to the wavelength-divided light {b L , g, r R } that has passed through the green filter having the spectral characteristic F G. . Further, as shown in FIG. 16 (D), the component {g R, r R R, r L R} is the spectral characteristics F wavelength division light passed through the red filter R {g, r R, r L} in Correspond. The superscript suffix for each component represents whether the right pupil “R” or the left pupil “L” has passed, and the subscript suffix represents the red filter “R”, the green filter “G”, and the blue filter It indicates which of “B” passed.
4.2.{bR,bL,(g+rR)}の推定処理
次に、図14(A)〜図17を用いて、画素値{R,G,B}から成分{bR B,bL B,gB}、{bL G,gG,rR G}、{gR,rR R,rL R}を推定する処理について説明する。
4.2. {B R , b L , (g + r R )} Estimation Processing Next, using FIG. 14A to FIG. 17, from the pixel values {R, G, B}, the components {b R B , b L B , A process for estimating g B }, {b L G , g G , r R G }, and {g R , r R R , r L R } will be described.
まず上式(21)を用いて、画素値{B,G}で重複している波長帯域{bL,g}を、画素値{B,G}の差分に基づいて取り除き、成分bRと成分[g+rR]の関係を求めることにより成分{bR,bL,(g+rR)}の関係式を導き出す処理を行う。 First, using the above equation (21), the wavelength band {b L , g} overlapping with the pixel value {B, G} is removed based on the difference between the pixel values {B, G}, and the component b R and A process of deriving a relational expression of the components {b R , b L , (g + r R )} by obtaining the relationship of the component [g + r R ] is performed.
ここで注意しなければならないのは、図14(A)〜図14(D)に示すように、波長帯域bLに対応するのは画素値Bの成分bL B及び画素値Gの成分bL Gであるが、成分bL B、bL Gには、分光特性FB、FGの相対ゲインが乗じられていることである。そのため、成分bL B、bL Gは、相対ゲインの分だけ異なる値であり、成分bL B、bL Gが等しくなるように補正する必要がある。 It should be noted here that, as shown in FIGS. 14A to 14D, the wavelength band b L corresponds to the component b L B of the pixel value B and the component b of the pixel value G. it is a L G, component b L B, the b L G, the spectral characteristics F B, is that the relative gain of F G is multiplied. Therefore, the components b L B and b L G are different values by the relative gain, and it is necessary to correct the components b L B and b L G to be equal.
図14(C)、図14(D)に示すように、画素値Gを基準(例えば「1」)として、(bL B+gB)の成分比をkB1とし、bL Gの成分比をkB2とすると、下式(22)が成り立つ。kB1/kB2は、例えば帯域bLにおける分光特性FB、FGのゲイン比である。
bL B+gB=(kB1/kB2)×bL G (22)
As shown in FIGS. 14C and 14D, the pixel value G is a reference (for example, “1”), the component ratio of (b L B + g B ) is k B1, and the component ratio of b L G If k B2 , the following equation (22) is established. k B1 / k B2 is, for example, the gain ratio of the spectral characteristics F B and F G in the band b L.
b L B + g B = ( k B1 / k B2) × b L G (22)
帯域bL、gにおける分光特性FBのゲインを考慮すると、成分gBは成分bL Bよりも十分小さいと考えられるため、成分bL B、bL Gを等しくするためには、成分(bL B+gB)と成分bL Gがほぼ等しくなればよい。成分(bL B+gB)を補正した値を(bL B’+gB’)とすると、上式(22)を用いて下式(23)に示す補正を行えばよい。
bL B’+gB’≒bL G=(kB2/kB1)×(bL B+gB) (23)
Considering the gain of the spectral characteristics F B in the bands b L and g, the component g B is considered to be sufficiently smaller than the component b L B. Therefore, in order to make the components b L B and b L G equal, the component ( b L B + g B ) and the component b L G should be substantially equal. If the value obtained by correcting the component (b L B + g B ) is (b L B ′ + g B ′), the correction shown in the following equation (23) may be performed using the above equation (22).
b L B '+ g B' ≒ b L G = (k B2 / k B1) × (b L B + g B) (23)
成分(bL B+gB)は画素値Bに含まれるため、成分(bL B+gB)を補正するためには、結局、画素値Bを補正することになる。この補正後のBをB’とすると、下式(24)の関係が得られる。
B’=(kB2/kB1)B (24)
Since the component (b L B + g B ) is included in the pixel value B, in order to correct the component (b L B + g B ), the pixel value B is eventually corrected. When this corrected B is B ′, the relationship of the following equation (24) is obtained.
B ′ = (k B2 / k B1 ) B (24)
上式(24)より、B’の成分{bR B’,bL B’,gB’}は下式(25)となる。
bR B’=(kB2/kB1)×bR B,
bL B’+gB’≒bL G (25)
From the above equation (24), B 'components {b R B', b L B ', g B'} is the following equation (25).
b R B '= (k B2 / k B1) × b R B,
b L B '+ g B ' ≈b L G (25)
上式(21)、(25)より、画素値B’と画素値Gを成分{bR B’,bL G,gG,rR G}を用いて表すと、下式(26)のようになる。
B’=bR B’+(bL B’+gB’)=bR B’+bL G,
G =bL G+(gG+rR G) (26)
From the above equations (21) and (25), when the pixel value B ′ and the pixel value G are expressed using components {b R B ′, b L G , g G , r R G }, the following equation (26) It becomes like this.
B '= b R B' + (b L B '+ g B') = b R B '+ b L G,
G = b L G + (g G + r R G) (26)
次に、下式(27)に示すように、補正後の画素値B’と画素値Gの差分を取ることにより、重複した成分bLを取り除く。また上式(26)より下式(28)が成り立つ。
B’−G=[bR B’+bL G]−[bL G+gG+rR G]
=bR B’−(gG+rR G) (27)
bL G=B’−bR B’ (28)
Next, as shown in the following equation (27), the difference between the corrected pixel value B ′ and the pixel value G is taken to remove the overlapping component b L. Further, the following expression (28) is established from the above expression (26).
B'-G = [b R B '+ b L G] - [b L G + g G + r R G]
= B R B '-(g G + r R G ) (27)
b L G = B'-b R B '(28)
bR B’を未知数(支配変数)とすると、上式(27)、(28)より{bR B’,bL G,(gG+rR G)}の関係式を下式(29)のように求められる。
bR B’=未知数(支配変数)
bL G=B’−bR B’
gG+rR G=bR B’−(B’−G) (29)
When b R B ′ is an unknown (dominant variable), the relational expression {b R B ′, b L G , (g G + r R G )} is expressed by the following expression (29) from the above expressions (27) and (28). It is required as follows.
b R B '= unknown number (dominant variable)
b L G = B'-b R B '
g G + r R G = b R B '- (B'-G) (29)
{B’,G}は検出された既知の値であるので、上式(29)に基づき未知数bR B’が決まれば、{bR B’,bL G,(gG+rR G)}が全て決まることになる。即ち、{bR B’,bL G,(gG+rR G)}の尤度パターンを特定することができる。 Since {B ′, G} is a detected known value, if the unknown b R B ′ is determined based on the above equation (29), {b R B ′, b L G , (g G + r R G ) } Are all determined. That is, it is possible to identify {b R B ', b L G, (g G + r R G)} likelihood pattern.
図15に、この関係を原理的に表した図を示す。図15に示すように、未知数bR B’として、{bR B’,bL G,(gG+rR G)}と{B’/2,G/2}の誤差が最小になる値を求める。即ち、下式(30)に示す誤差の評価値EBGが最小になる場合のbR B’を求め、求めたbR B’を上式(29)に代入することにより、{bR B’,bL G,(gG+rR G)}の値を決定する。
eB=(B’/2−bR B’)2+(B’/2−bL G)2,
eG=(G/2−bL G)2+(G/2−(gG+rR G))2,
EBG=eB+eG (30)
FIG. 15 is a diagram showing this relationship in principle. As shown in FIG. 15, 'as, {b R B' unknown b R B, b L G, (g G + r R G)} and {B '/ 2, G / 2} value error is minimal Ask for. That is, by obtaining b R B ′ when the error evaluation value E BG shown in the following equation (30) is minimized, and substituting the obtained b R B ′ into the above equation (29), {b R B ', b L G, determines the value of (g G + r R G) }.
e B = (B '/ 2 -b R B') 2 + (B '/ 2-b L G) 2,
e G = (G / 2- b L G) 2 + (G / 2- (g G + r R G)) 2,
E BG = e B + e G (30)
以上のようにして、各画素の2バンド画素値{B’,G}から成分{bR B’,bL G,(gG+rR G)}を推定することができる。 As described above, the component {b R B ′, b L G , (g G + r R G )} can be estimated from the 2-band pixel values {B ′, G} of each pixel.
4.3.{(bL+g),rR,rL}の推定処理
次に、画素値{G,R}から成分{(bL+g),rR,rL}を推定する。具体的には、上式(21)を用いて、画素値{G,R}で重複している波長帯域{g,rR}を、画素値{G,R}の差分に基づいて取り除き、成分[bL+g]と成分rLの関係を求めることにより成分{(bL+g),rR,rL}の関係式を導き出す処理を行う。
4.3. {(B L + g), r R , r L } Estimation Process Next, components {(b L + g), r R , r L } are estimated from the pixel values {G, R}. Specifically, using the above equation (21), the wavelength band {g, r R } overlapping with the pixel value {G, R} is removed based on the difference between the pixel values {G, R}, By obtaining the relationship between the component [b L + g] and the component r L, a process of deriving a relational expression of the component {(b L + g), r R , r L } is performed.
図16(A)〜図16(D)に示すように、波長帯域rRに対応するのは画素値Gの成分rR G及び画素値Rの成分rR Rであるが、成分rR G、rR Rには、分光特性FG、FRの相対ゲインが乗じられている。そのため、成分rR G、rR Rは、相対ゲインの分だけ異なる値であり、成分rR G、rR Rが等しくなるように補正する必要がある。 As shown in FIG. 16A to FIG. 16D, the component r R G of the pixel value G and the component r R R of the pixel value R correspond to the wavelength band r R , but the component r R G , R R R are multiplied by the relative gains of the spectral characteristics F G , F R. Therefore, the components r R G and r R R have different values corresponding to the relative gain, and it is necessary to correct the components r R G and r R R to be equal.
図16(C)、図16(D)に示すように、画素値Gを基準(例えば「1」)として、(gR+rR R)の成分比をkR1とし、rR Gの成分比をkR2とすると、下式(31)が成り立つ。kR1/kR2は、例えば帯域rRにおける分光特性FG、FRのゲイン比である。
gR+rR R=(kR2/kR1)×rR G (31)
As shown in FIGS. 16C and 16D, the pixel value G is a reference (for example, “1”), the component ratio of (g R + r R R ) is k R1, and the component ratio of r R G If k R2 , the following equation (31) is established. k R1 / k R2 is, for example, the gain ratio of the spectral characteristics F G and F R in the band r R.
g R + r R R = ( k R2 / k R1) × r R G (31)
帯域g、rRにおける分光特性FRのゲインを考慮すると、成分gRは成分rR Rよりも十分小さいと考えられるため、成分rR G、rR Rを等しくするためには、成分(gR+rR R)と成分rR Gがほぼ等しくなればよい。成分(gR+rR R)を補正した値を(gR’+rR R’)とすると、上式(31)を用いて下式(32)に示す補正を行えばよい。
gR’+rR R’≒rR G=(kR2/kR1)×(gR+rR R) (32)
Band g, considering the gain spectral characteristic F R in r R, since the components g R considered sufficiently smaller than the component r R R, in order to equalize component r R G, the r R R, the components ( g R + r R R ) and the component r R G may be substantially equal. If the value obtained by correcting the component (g R + r R R ) is (g R '+ r R R '), the correction shown in the following equation (32) may be performed using the above equation (31).
g R '+ r R R' ≒ r R G = (k R2 / k R1) × (g R + r R R) (32)
成分(gR+rR R)は画素値Rに含まれるため、成分(gR+rR R)を補正するためには、結局、画素値Rを補正することになる。この補正後のRをR’とすると、下式(33)の関係が得られる。
R’=(kR2/kR1)R (33)
Since the component (g R + r R R ) is included in the pixel value R, in order to correct the component (g R + r R R ), the pixel value R is eventually corrected. When this corrected R is R ′, the following equation (33) is obtained.
R ′ = (k R2 / k R1 ) R (33)
上式(33)より、R’の成分{gR’,rR R’,rL R’}は下式(34)となる。
gR’+rR R’≒rR G,
rL R’=(kR2/kR1)×rL R (34)
From the above equation (33), the component {g R ′, r R R ′, r L R ′} of R ′ becomes the following equation (34).
g R '+ r R R ' ≈r R G ,
r L R '= (k R2 / k R1) × r L R (34)
上式(21)、(34)より、画素値Gと画素値R’を成分{bL G,gG,rR G,rL R’}を用いて表すと、下式(35)のようになる。
G =bL G+(gG+rR G),
R’=(gR’+rR R’)+rL R’=rR G+rL R’ (35)
From the above formulas (21) and (34), when the pixel value G and the pixel value R ′ are expressed using the components {b L G , g G , r R G , r L R ′}, It becomes like this.
G = b L G + (g G + r R G),
R ′ = (g R ′ + r R R ′) + r L R ′ = r R G + r L R ′ (35)
次に、下式(36)に示すように、画素値Gと補正後の画素値R’の差分を取ることにより、重複した成分rRを取り除く。また上式(35)より下式(37)が成り立つ。
G−R’=[bL G+gG+rR G)]−[rR G+rL R’]
=(bL G+gG)−rL R’ (36)
rR G=R’−rL R’ (37)
Next, as shown in the following equation (36), by taking the difference of the pixel values R 'and the corrected pixel value G, eliminating duplicate components r R. Further, the following equation (37) is established from the above equation (35).
G-R '= [b L G + g G + r R G)] - [r R G + r L R']
= (B L G + g G ) -r L R '(36)
r R G = R'-r L R '(37)
rL R’を未知数(支配変数)とすると、上式(36)、(37)より{rL R’,rR G,(bL G+gG)}の関係式を下式(38)のように求められる。
rL R’=未知数(支配変数),
rR G=R’−rL R’,
bL G+gG=rL R’+(G−R’) (38)
When r L R ′ is an unknown (dominant variable), the relational expression of {r L R ′, r R G , (b L G + g G )} is expressed by the following expression (38) from the above expressions (36) and (37). It is required as follows.
r L R '= unknown number (dominant variable),
r R G = R'-r L R ',
b L G + g G = r L R '+ (G−R ′) (38)
{G,R’}は検出された既知の値であるので、上式(38)に基づき未知数rL R’が決まれば、{rL R’,rR G,(bL G+gG)}が全て決まることになる。即ち、{rL R’,rR G,(bL G+gG)}の尤度パターンを特定することができる。 Since {G, R ′} is a detected known value, if the unknown number r L R ′ is determined based on the above equation (38), {r L R ′, r R G , (b L G + g G ) } Are all determined. That is, it is possible to specify a likelihood pattern of {r L R ′, r R G , (b L G + g G )}.
図17に、この関係を原理的に表した図を示す。図17に示すように、未知数rL R’として、{rL R’,rR G,(bL G+gG)}と{G/2,R’/2}の誤差が最小になる値を未知数rL R’として求める。即ち、下式(39)に示す誤差の評価値EGRが最小になる場合のrL R’を求め、求めたrL R’を上式(38)に代入することにより、{rL R’,rR G,(bL G+gG)}の値を決定する。
eG=(G/2−(bL G+gG))2+(G/2−rR G)2,
eG=(R’/2−rR G)2+(R’/2−(rL R’))2,
EGR=eG+eR (39)
FIG. 17 is a diagram showing this relationship in principle. As shown in FIG. 17, the unknown r L R ′ is a value that minimizes the error between {r L R ′, r R G , (b L G + g G )} and {G / 2, R ′ / 2}. As an unknown r L R ′. That is, by obtaining r L R ′ when the error evaluation value E GR shown in the following equation (39) is minimized, and substituting the obtained r L R ′ into the above equation (38), {r L R ', r R G, determines the value of (b L G + g G) }.
e G = (G / 2- ( b L G + g G)) 2 + (G / 2-r R G) 2,
e G = (R '/ 2 -r R G) 2 + (R' / 2- (r L R ')) 2,
E GR = e G + e R (39)
以上のようにして、各画素の2バンド画素値{G,R’}から成分{rL R’,rR G,(bL G+gG)}を推定することができる。 As described above, the component {r L R ′, r R G , (b L G + g G )} can be estimated from the 2-band pixel value {G, R ′} of each pixel.
なお、上式(30)、(39)では画素値{B’,G}、{G,R’}に対して係数1/2を掛けて評価値を算出したが、係数は1/2に限定されない。第1のマルチバンド推定処理で説明(例えば上式(18))したように、係数は0より大きく1以下であればよい。 In the above equations (30) and (39), the evaluation value is calculated by multiplying the pixel values {B ′, G}, {G, R ′} by a coefficient ½. It is not limited. As described in the first multiband estimation process (for example, the above equation (18)), the coefficient may be greater than 0 and 1 or less.
また、評価値EBG、EGRの算出手法は上記手法に限定されず、種々の方法が考えられることは言うまでもない。例えば、評価値EBGを例にとれば、予め対象とする被写体(例えば、自然被写体あるいは医療用の生体内被写体など)を多数撮像し、取得された{R,G,B}により得られる{B’,G}から、{bR B’,bL G,(gG+rR G)}の値の生起パターンを上記のようにして求める。そして、{bR B’,bL G,(gG+rR G)}の生起パターンの確率分布において、局所的に生起確率が高いピークを示すパターンか、または部分的な確率分布領域を設定し、その中のパターン群の平均パターンを示すパターン{bR B’,bL G,(gG+rR G)}を代表パターンとして定める。このようにして、予め定めた複数の代表パターンを設定しておく。そして、改めて(実際の撮影で)取得された{B,G}から推定を行う際には、取得された{B,G}から上記のように{bR B’,bL G,(gG+rR G)}を計算し、その計算により求めた{bR B’,bL G,(gG+rR G)}と、予め設定した代表パターンとのユークリッド距離を評価値として求める。予め設定された代表パターンのうち最もユークリッド距離が小さい、即ち最も類似する代表パターンを推定パターンとし、{bR B’,bL G,(gG+rR G)}の値として特定してもよい。なお、予め代表パターンを設定する際に、対象被写体の{B’,G}の生起パターンから{B’,G}の代表パターンを求めてもよい。そして、実際に撮影した{B’,G}から推定する際に、撮影で取得した{B’,G}と、代表パターンとのユークリッド距離を評価値として求め、評価値の最も小さい{B’,G}の代表パターンに対して上記の推定処理を行い、最終的な推定パターン{bR B’,bL G,(gG+rR G)}を特定してもよい。 Needless to say, the method of calculating the evaluation values E BG and E GR is not limited to the above method, and various methods are conceivable. For example, taking the evaluation value E BG as an example, {L, G, B} obtained from {R, G, B} obtained by capturing a large number of target subjects (for example, natural subjects or medical in-vivo subjects) in advance. From B ′, G}, the occurrence pattern of the value {b R B ′, b L G , (g G + r R G )} is obtained as described above. Then, in the probability distribution of the occurrence pattern of {b R B ′, b L G , (g G + r R G )}, a pattern showing a peak with a high occurrence probability locally or a partial probability distribution region is set Then, a pattern {b R B ′, b L G , (g G + r R G )} indicating the average pattern of the pattern group is defined as a representative pattern. In this manner, a plurality of predetermined representative patterns are set. Then, when estimating from {B, G} acquired anew (by actual shooting), {b R B ′, b L G , (g calculate the G + r R G)}, it was determined by the calculation {b R B ', b L G, and (g G + r R G) }, Euclidean distance between the preset representative pattern as the evaluation value. Even if the representative pattern having the shortest Euclidean distance among the preset representative patterns, that is, the most similar representative pattern is set as the estimated pattern, and specified as the value of {b R B ′, b L G , (g G + r R G )} Good. When the representative pattern is set in advance, the {B ′, G} representative pattern may be obtained from the {B ′, G} occurrence pattern of the target subject. Then, when estimating from {B ′, G} actually photographed, the Euclidean distance between {B ′, G} obtained by photographing and the representative pattern is obtained as an evaluation value, and {B ′ having the smallest evaluation value is obtained. , G} may be performed on the representative pattern to specify the final estimated pattern {b R B ′, b L G , (g G + r R G )}.
4.4.成分値の算出処理
次に、上記で求めた値{bR B’,bL G,(gG+rR G)}、{rL R’,rR G,(bL G+gG)}を用いて、画素値Bを構成する成分{bR B,bL B}の値、画素値Gを構成する成分{bL G,gG,rR G}の値、画素値Rを構成する成分{rR R,rL R}の値を算出する。
4.4. Calculation of the component values then the values obtained in the above {b R B ', b L G, (g G + r R G)}, {r L R', r R G, (b L G + g G)} Are used to construct the value of the component {b R B , b L B } constituting the pixel value B, the value of the component {b L G , g G , r R G } constituting the pixel value G , and the pixel value R The value of the component {r R R , r L R } to be calculated is calculated.
上式(25)、(34)より、bR B,rL Rは、下式(40)により求められる。
bR B=(kB1/kB2)×bR B’,
rL R=(kR1/kR2)×rL R’ (40)
From the above equations (25) and (34), b R B and r L R are obtained by the following equation (40).
b R B = (k B1 / k B2) × b R B ',
r L R = (k R1 / k R2 ) × r L R ′ (40)
gB≪bR B,gR≪rL Rであることを用いて、上式(21)より、bL B,rR Rは、下式(41)により求められる。
bL B=B−(bR B+gB)≒B−bR B,
rR R=R−(rL R+gR)≒R−rL R (41)
By using g B << b R B , g R << r L R , b L B , r R R is obtained by the following expression (41) from the above expression (21).
b L B = B− (b R B + g B ) ≈B−b R B ,
r R R = R- (r L R + g R) ≒ R-r L R (41)
上式(21)より、bL G,rR Gは、下式(42)により求められる。
bL G=G−(gG+rR G),
rR G=G−(gG+bL G) (42)
From the above equation (21), b L G and r R G are obtained by the following equation (42).
b L G = G- (g G + r R G),
r R G = G- (g G + b L G) (42)
上式(21)、(42)より、gGは、下式(43)により求められる。
gG=G−(bL G+rR G) (43)
From the above equations (21) and (42), g G is obtained by the following equation (43).
g G = G- (b L G + r R G) (43)
4.5.右瞳画像と左瞳画像の取得処理、位相差検出処理
図12に示すように、光学フィルタFLTの透過光を撮像することで、右瞳を通過した被写体像IRと、左瞳を通過した被写体像ILが得られる。図12では、撮像素子のセンサ面がデフォーカス位置PDにある場合を例にIR、ILを図示しており、hは水平方向(広義には瞳の分離方向)に沿った軸である。像IR、ILのR、G、B成分は、上記で求めた成分から下式(44)のように分離する。
IR=(rR R,rR G,bR B),IL=(rL R,bL G,bL B) (44)
4.5. Acquisition of the right pupil images and Hidarihitomi image, as shown in the phase difference detection processing 12, by imaging the light transmitted through the optical filter FLT, and the subject image I R that has passed through the right pupil was passed through the left pupil A subject image IL is obtained. In FIG. 12, I R and I L are shown as an example when the sensor surface of the image sensor is at the defocus position PD, and h is an axis along the horizontal direction (the pupil separation direction in a broad sense). . The R, G, and B components of the images I R and I L are separated as shown in the following formula (44) from the components obtained above.
I R = (r R R , r R G , b R B ), I L = (r L R , b L G , b L B ) (44)
本実施形態では、像IR、ILを取得し、その像IR、ILのデフォーカス位置での位相差(像のずれ量)を求め、3角測量の原理を用いて被写体の測距を行い、被写体までの距離情報を取得してもよい。例えば、取得した位相差を用いて位相差AFを行ってもよい。上式(44)に示すように、像IR、ILはともに、その成分値の下付サフィックスに示すようにRGB各帯域の成分で構成されている。そのため、被写体の色がRGBのいずれかに極端に偏っているような場合であっても、像IR、ILが極端に暗くなることはなく、位相差を検出することが可能である。なお、距離情報は、画像内の各画素について取得することが可能であり、この各画素についての距離情報を用いて、位相差AFだけでなく種々の応用処理を行うことが可能である。このような応用処理は、例えば図8の画像処理装置で行えばよい。 In this embodiment, the images I R and I L are acquired, the phase difference (image shift amount) at the defocus position of the images I R and I L is obtained, and the subject is measured using the principle of triangulation. Distance information may be obtained to obtain distance information to the subject. For example, the phase difference AF may be performed using the acquired phase difference. As shown in the above equation (44), the images I R and I L are each composed of components in each of the RGB bands as indicated by the subscript suffixes of the component values. Therefore, even when the color of the subject is extremely biased to any of RGB, the images I R and I L are not extremely dark, and the phase difference can be detected. The distance information can be acquired for each pixel in the image, and various application processes can be performed in addition to the phase difference AF using the distance information for each pixel. Such applied processing may be performed by the image processing apparatus shown in FIG.
4.6.マルチバンド画像の取得処理
撮像素子のセンサ面がフォーカス位置PFにあるフォーカス時では、像IR、ILのずれは無くなる。即ち、同一画素におけるrR RとrL R、rR GとbL G、bR BとbL B、gGは、全て被写体の同一微小領域からの反射光の色光を表している。即ち、結像時の撮像素子の任意の画素のR、G、B値から、下式(45)に示す5バンド{R1,R2,G,B1,B2}の色画像(マルチバンド画像)を得ることができる。
R1=rR R,R2=rL R,G=rR G+gG+bL G,B1=bR B,B2=bL B (45)
4.6. Multiband Image Acquisition Processing At the time of focusing when the sensor surface of the image sensor is at the focus position PF, there is no shift between the images I R and I L. That is, r R R and r L R , r R G and b L G , b R B and b L B , and g G in the same pixel all represent the color light of reflected light from the same minute region of the subject. That is, from the R, G, and B values of an arbitrary pixel of the image pickup device at the time of image formation, a color image (multi-band) of five bands {R 1 , R 2 , G, B 1 , B 2 } shown in the following formula (45) Band image) can be obtained.
R 1 = r R R, R 2 = r L R, G = r R G + g G + b L G,
以上の実施形態によれば、図14(A)〜図14(F)で説明したように、マルチバンド推定部は、第1、第2色フィルタの透過率特性FB、FGに基づいて、第1色の画素値Bと第2色の画素値Gとの間の相対的なゲイン比kB1/kB2を補正し、補正後の第1、第2色の画素値B’、Gを用いて第1〜第5バンドの成分値を推定する。 According to the above embodiment, as described in FIGS. 14A to 14F, the multiband estimation unit is based on the transmittance characteristics F B and F G of the first and second color filters. , The relative gain ratio k B1 / k B2 between the pixel value B of the first color and the pixel value G of the second color is corrected, and the corrected pixel values B ′, G of the first and second colors are corrected. Is used to estimate the component values of the first to fifth bands.
より具体的には、上式(22)〜(25)で説明したように、マルチバンド推定部は、第2バンド(bL)での第2色フィルタ(FG)の透過率kB2と、第2バンド(bL)での第1色フィルタ(FB)の透過率kB1との比kB1/kB2を、第1色の画素値Bに乗じて、ゲイン比を補正する。 More specifically, as described in the above equations (22) to (25), the multiband estimation unit calculates the transmittance k B2 of the second color filter (F G ) in the second band (b L ). The gain ratio is corrected by multiplying the pixel value B of the first color by the ratio k B1 / k B2 with the transmittance k B1 of the first color filter (F B ) in the second band (b L ).
撮像素子のカラーフィルタでは、一般的に色に依って透過率特性が異なるため、色に依ってゲインが異なっている。本実施形態によれば、透過率特性の重なり部分に対応するバンドが存在するため、そのバンドにおける相対的なゲイン比kB1/kB2を求めることができ、そのゲイン比を用いて、色に依って異なるゲインを補正できる。 In the color filter of the image sensor, the transmittance characteristic generally differs depending on the color, and therefore the gain differs depending on the color. According to the present embodiment, since there is a band corresponding to the overlapping portion of the transmittance characteristics, the relative gain ratio k B1 / k B2 in the band can be obtained, and the gain ratio is used to change the color. Therefore, different gains can be corrected.
また本実施形態では、図12で説明したように、撮像素子(撮像素子のセンサ面)には、撮像光学系の瞳を第1瞳(例えば右瞳)と第2瞳(左瞳)に分割する光学フィルタFLTを透過した光が結像される。図13で説明したように、第1瞳(第1瞳フィルタFL1)は、第1、第2バンドの一方bR=b(1)と、第3バンドgと、第4、第5バンドの一方rR=r(1)とを透過する。第2瞳(第2瞳フィルタFL2)は、第1、第2バンドの他方bL=b(2)と、第3バンドgと、第4、第5バンドの他方rL=r(2)とを透過する。マルチバンド推定部は、第1瞳及び第2瞳の透過光が撮像された画像に基づいて、第1〜第5バンドの成分値を推定する。 In the present embodiment, as described with reference to FIG. 12, the imaging device (sensor surface of the imaging device) divides the pupil of the imaging optical system into the first pupil (for example, the right pupil) and the second pupil (the left pupil). The light transmitted through the optical filter FLT is imaged. As described in FIG. 13, the first pupil (first pupil filter FL1) has one of the first and second bands b R = b (1) , the third band g, the fourth band, and the fifth band. On the other hand, it transmits r R = r (1) . The second pupil (second pupil filter FL2) includes the other b L = b (2) of the first and second bands, the third band g, and the other r L = r (2) of the fourth and fifth bands. And transparent. The multiband estimator estimates component values of the first to fifth bands based on images obtained by imaging the transmitted light of the first pupil and the second pupil.
このようにすれば、第1瞳、第2瞳に対応するバンド成分値を、それぞれ求めることができる。これにより、瞳分割を利用した種々の応用処理(例えば位相差AF)が可能となる。 In this way, band component values corresponding to the first pupil and the second pupil can be obtained respectively. Thereby, various application processing (for example, phase difference AF) using pupil division becomes possible.
また、第1瞳、第2瞳にそれぞれRGB成分が含まれるため、撮像画像のピンぼけ領域においても色ずれが生じにくい。即ち図12に示すように、右瞳フィルタFL1はRGBの帯域{bR,g,rR}を透過し、左瞳フィルタFL2はRGBの帯域{bL,g,rL}を透過するため、上式(21)を見ても分かるように画像のRGB各成分には右瞳と左瞳の透過帯域が含まれている。そのため、デフォーカス位置(画像のボケ領域)において右瞳を通過した成分{bR,g,rR}と左瞳を通過した成分{bL,g,rL}がずれても、RGB画像では色ずれが起きない(又は非常に小さく抑えられる)ので、色ずれ補正を行う必要がなくそのまま鑑賞することが可能である。 In addition, since RGB components are included in the first pupil and the second pupil, respectively, color misregistration hardly occurs even in a defocused region of the captured image. That is, as shown in FIG. 12, the right pupil filter FL1 transmits the RGB band {b R , g, r R }, and the left pupil filter FL2 transmits the RGB band {b L , g, r L }. As can be seen from the above equation (21), the RGB components of the image include the transmission bands of the right pupil and the left pupil. Therefore, even if the component {b R , g, r R } that has passed through the right pupil and the component {b L , g, r L } that has passed through the left pupil are deviated at the defocus position (blurred region of the image), the RGB image In this case, color misregistration does not occur (or can be suppressed to a very small level), so that it is not necessary to perform color misregistration correction, and it is possible to view the image as it is.
また、図2等で後述するように、被写体からの反射光を光学フィルタFLTが減光するため、画素値が飽和する最大の反射光量が増える。これにより、本実施形態のノイズ低減処理と組み合わせことで、ダイナミックレンジを拡大することが可能になる。 Further, as will be described later with reference to FIG. 2 and the like, the optical filter FLT attenuates the reflected light from the subject, so that the maximum reflected light amount that the pixel value is saturated increases. Thereby, it becomes possible to expand a dynamic range by combining with the noise reduction process of this embodiment.
なお、上記の実施形態では、b(1)、r(1)が第1瞳に割り当てられる場合を例に説明したが、本実施形態ではこれに限定されず、b(1)、b(2)のいずれが第1瞳に割り当てられてもよいし、r(1)、r(2)のいずれが第1瞳に割り当てられてもよい。 In the above-described embodiment, the case where b (1) and r (1) are assigned to the first pupil has been described as an example. However, the present embodiment is not limited thereto, and b (1) and b (2 ) May be assigned to the first pupil, or any of r (1) and r (2) may be assigned to the first pupil.
なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またマルチバンド推定部、ノイズ低減処理部、撮像装置、画像処理装置等の構成、動作も本実施形態で説明したものに限定に限定されず、種々の変形実施が可能である。 Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term in any part of the specification or the drawings. The configurations and operations of the multiband estimation unit, noise reduction processing unit, imaging device, image processing device, and the like are not limited to those described in the present embodiment, and various modifications can be made.
10 撮像素子、20 撮像処理部、25 画像処理装置、
30 RGB画像生成部、40 モニタ表示部、
50 RGBフィルタ特性データ記録部、70 マルチバンド推定部、
80 ノイズ低減処理部、90 データ圧縮部、100 データ記録部、
200 データ記録部、210 データ伸張部、220 伸張データ記憶部、
230 モニタ画像生成部、240 モニタ画像表示部、
250 画像データ選択部、260 選択フレーム記憶部、
270 マルチバンド推定部、275 ノイズ低減処理部、285 画像出力部、
BD1〜BD5 第1〜第5バンド、EBG,EGR,Ebg,Erg 評価値、
FB,FG,FR 第1〜第3透過率特性、FL1 右瞳フィルタ、
FL2 左瞳フィルタ、FLT 光学フィルタ、IL 左瞳画像、IR 右瞳画像、
LNS 結像レンズ、PD デフォーカス位置、PF フォーカス位置、
NZ ノイズ発生範囲、bR,bL,g,rR,rL 第1〜第5バンドの成分値、
Φ ベクトル、ΦK 代表ベクトル、δij 差分ベクトル
10 imaging device, 20 imaging processing unit, 25 image processing device,
30 RGB image generation unit, 40 monitor display unit,
50 RGB filter characteristic data recording unit, 70 multiband estimation unit,
80 noise reduction processing unit, 90 data compression unit, 100 data recording unit,
200 data recording unit, 210 data decompression unit, 220 decompressed data storage unit,
230 monitor image generation unit, 240 monitor image display unit,
250 image data selection unit, 260 selected frame storage unit,
270 multiband estimation unit, 275 noise reduction processing unit, 285 image output unit,
BD1~BD5 first to fifth band, E BG, E GR, E bg, E rg evaluation value,
F B, F G, F R first to third transmittance characteristic, FL1 right pupil filter,
FL2 Hidarihitomi filter, FLT optical filter, I L Hidarihitomi image, I R right pupil images,
LNS imaging lens, PD defocus position, PF focus position,
NZ noise range, b R, b L, g , r R, component values of r L first to fifth band,
Φ vector, Φ K representative vector, δ ij difference vector
Claims (15)
前記第1〜第3透過率特性の重なり部分及び非重なり部分に対応する第1〜第5バンドを設定し、前記画像を構成する第1〜第3色の画素値に基づいて前記第1〜第5バンドの成分値を推定するマルチバンド推定部と、
前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を、前記画像のノイズを低減する処理として行うノイズ低減処理部と、
を含むことを特徴とする画像処理装置。 Image acquisition for acquiring an image captured by an imaging device including a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic And
First to fifth bands corresponding to overlapping portions and non-overlapping portions of the first to third transmittance characteristics are set, and the first to third colors are configured based on pixel values of first to third colors constituting the image. A multiband estimation unit for estimating a component value of the fifth band;
A noise reduction processing unit that performs processing for reconstructing the pixel values of the first to third colors from the component values of the first to fifth bands as processing for reducing noise of the image;
An image processing apparatus comprising:
前記マルチバンド推定部は、
前記第1透過率特性の非重なり部分に対応する前記第1バンドと、前記第1透過率特性と前記第2透過率特性との重なり部分に対応する前記第2バンドと、前記第2透過率特性の非重なり部分に対応する前記第3バンドと、前記第2透過率特性と前記第3透過率特性との重なり部分に対応する前記第4バンドと、前記第3透過率特性の非重なり部分に対応する前記第5バンドとを設定することを特徴とする画像処理装置。 In claim 1,
The multiband estimator is
The first band corresponding to the non-overlapping portion of the first transmittance characteristic, the second band corresponding to the overlapping portion of the first transmittance characteristic and the second transmittance characteristic, and the second transmittance. The third band corresponding to the non-overlapping part of the characteristic, the fourth band corresponding to the overlapping part of the second transmittance characteristic and the third transmittance characteristic, and the non-overlapping part of the third transmittance characteristic An image processing apparatus characterized by setting the fifth band corresponding to.
前記ノイズ低減処理部は、
前記第1、第2バンドの成分値を加算する処理を前記第1色の画素値を再構成する処理として行い、前記第2〜第4バンドの成分値を加算する処理を前記第2色の画素値を再構成する処理として行い、前記第4、第5バンドの成分値を加算する処理を前記第3色の画素値を再構成する処理として行うことを特徴とする画像処理装置。 In claim 2,
The noise reduction processing unit
The process of adding the component values of the first and second bands is performed as a process of reconstructing the pixel values of the first color, and the process of adding the component values of the second to fourth bands is performed for the second color An image processing apparatus characterized by performing processing for reconstructing pixel values and performing processing for adding the component values of the fourth and fifth bands as processing for reconstructing the pixel values of the third color.
前記ノイズ低減処理部は、
前記第1〜第5バンドの成分値に対してベクトル量子化処理を行い、前記ベクトル量子化処理された前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を行うことを特徴とする画像処理装置。 In any one of Claims 1 thru | or 3,
The noise reduction processing unit
Vector quantization processing is performed on the component values of the first to fifth bands, and the pixel values of the first to third colors are reproduced from the component values of the first to fifth bands subjected to the vector quantization processing. An image processing apparatus that performs processing to be configured.
前記ノイズ低減処理部は、
前記第1〜第5バンドの成分値で構成されるベクトルが取り得る組み合わせ数を、前記第1〜第3色の画素値で構成されるベクトルが取り得る組み合わせ数に量子化する処理を、前記ベクトル量子化処理として行うことを特徴とする画像処理装置。 In claim 4,
The noise reduction processing unit
The process of quantizing the number of combinations that can be taken by the vector constituted by the component values of the first to fifth bands into the number of combinations that can be taken by the vector constituted by the pixel values of the first to third colors, An image processing apparatus characterized by performing vector quantization processing.
前記マルチバンド推定部は、
前記第1、第2バンドの成分値を加算した値である前記第1色の画素値と、前記第2〜第4バンドの成分値を加算した値である前記第2色の画素値とに基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第3、第4バンドの成分値を加算した値である第1加算値との間の関係式を求め、
前記関係式に基づいて、前記第1バンドの成分値と、前記第2バンドの成分値と、前記第1加算値とを推定することを特徴とする画像処理装置。 In any one of Claims 1 thru | or 5,
The multiband estimator is
The pixel value of the first color, which is a value obtained by adding the component values of the first and second bands, and the pixel value of the second color, which is a value obtained by adding the component values of the second to fourth bands. Based on the first band component value, the second band component value, and a first added value that is a value obtained by adding the third and fourth band component values,
An image processing apparatus that estimates a component value of the first band, a component value of the second band, and the first addition value based on the relational expression.
前記マルチバンド推定部は、
前記第1バンドの成分値を未知数として前記関係式を求め、
前記関係式で表した前記第1、第2バンドの成分値及び前記第1加算値と、前記第1、第2色の画素値との間の誤差を表す誤差評価値を求め、
前記誤差評価値を最小にする前記未知数を決定し、
決定した前記未知数及び前記関係式に基づいて、前記第1、第2バンドの成分値及び前記第1加算値を決定することを特徴とする画像処理装置。 In claim 6,
The multiband estimator is
Obtaining the relational expression with the component value of the first band as an unknown,
Obtaining an error evaluation value representing an error between the component values of the first and second bands and the first addition value represented by the relational expression, and the pixel values of the first and second colors;
Determining the unknown to minimize the error estimate;
An image processing apparatus that determines the component values of the first and second bands and the first addition value based on the determined unknown and the relational expression.
前記マルチバンド推定部は、
前記第2〜第4バンドの成分値を加算した値である前記第2色の画素値と、前記第4、第5バンドの成分値を加算した値である前記第3色の画素値とに基づいて、前記第2、第3バンドの成分値を加算した値である前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値との間の関係式を求め、
前記関係式に基づいて、前記第2加算値と、前記第4バンドの成分値と、前記第5バンドの成分値とを推定し、
前記第1加算値と前記第4バンドの成分値から、又は前記第2加算値と前記第2バンドの成分値から前記第3バンドの成分値を求めることを特徴とする画像処理装置。 In claim 6 or 7,
The multiband estimator is
The pixel value of the second color, which is a value obtained by adding the component values of the second to fourth bands, and the pixel value of the third color, which is a value obtained by adding the component values of the fourth and fifth bands. Based on this, a relational expression between the second addition value, which is a value obtained by adding the component values of the second and third bands, the component value of the fourth band, and the component value of the fifth band is obtained. ,
Based on the relational expression, the second addition value, the component value of the fourth band, and the component value of the fifth band are estimated,
An image processing apparatus, wherein the component value of the third band is obtained from the component value of the first addition value and the fourth band or from the component value of the second addition value and the second band.
前記マルチバンド推定部は、
前記第1、第2色フィルタの透過率特性に基づいて、前記第1色の画素値と前第2色の画素値との間の相対的なゲイン比を補正し、補正後の前記第1、第2色の画素値を用いて前記第1〜第5バンドの成分値を推定することを特徴とする画像処理装置。 In any one of Claims 1 thru | or 8.
The multiband estimator is
Based on the transmittance characteristics of the first and second color filters, the relative gain ratio between the pixel value of the first color and the pixel value of the previous second color is corrected, and the corrected first An image processing apparatus that estimates component values of the first to fifth bands using pixel values of the second color.
前記マルチバンド推定部は、
前記第2バンドでの前記第2色フィルタの透過率と、前記第2バンドでの前記第1色フィルタの透過率との比を、前記第1色の画素値に乗じて、前記ゲイン比を補正することを特徴とする画像処理装置。 In claim 9,
The multiband estimator is
The gain ratio is obtained by multiplying the pixel value of the first color by the ratio of the transmittance of the second color filter in the second band and the transmittance of the first color filter in the second band. An image processing apparatus that performs correction.
前記撮像素子には、撮像光学系の瞳を第1瞳と第2瞳に分割する光学フィルタを透過した光が結像され、
前記第1瞳は、前記第1、第2バンドの一方と、前記第3バンドと、前記第4、第5バンドの一方とを透過し、
前記第2瞳は、前記第1、第2バンドの他方と、前記第3バンドと、前記第4、第5バンドの他方とを透過し、
前記マルチバンド推定部は、
前記第1瞳及び前記第2瞳の透過光が撮像された前記画像に基づいて、前記第1〜第5バンドの成分値を推定することを特徴とする画像処理装置。 In any one of Claims 1 thru | or 10.
On the imaging element, light that has passed through an optical filter that divides the pupil of the imaging optical system into a first pupil and a second pupil is imaged,
The first pupil transmits one of the first and second bands, the third band, and one of the fourth and fifth bands,
The second pupil transmits the other of the first and second bands, the third band, and the other of the fourth and fifth bands,
The multiband estimator is
An image processing apparatus that estimates component values of the first to fifth bands based on the images obtained by imaging the transmitted light of the first pupil and the second pupil.
前記第1〜第3色は、それぞれ青色、緑色、赤色であり、
前記マルチバンド推定部は、
前記第1〜第5バンドの成分値を、それぞれ第1青色成分値、第2青色成分値、緑色成分値、第1赤色成分値、第2赤色成分値として求めることを特徴とする画像処理装置。 In any one of Claims 1 thru | or 11,
The first to third colors are blue, green, and red, respectively.
The multiband estimator is
An image processing apparatus for obtaining component values of the first to fifth bands as a first blue component value, a second blue component value, a green component value, a first red component value, and a second red component value, respectively. .
前記撮像素子と、
を含むことを特徴とする撮像装置。 An image processing device according to any one of claims 1 to 12,
The imaging element;
An imaging apparatus comprising:
前記撮像素子と、
前記光学フィルタが設けられた前記撮像光学系と、
を含むことを特徴とする撮像装置。 An image processing apparatus according to claim 11;
The imaging element;
The imaging optical system provided with the optical filter;
An imaging apparatus comprising:
前記第1〜第3透過率特性の重なり部分及び非重なり部分に対応する第1〜第5バンドを設定し、前記画像を構成する第1〜第3色の画素値に基づいて前記第1〜第5バンドの成分値を推定し、
前記第1〜第5バンドの成分値から前記第1〜第3色の画素値を再構成する処理を、前記画像のノイズを低減する処理として行うことを特徴とする画像処理方法。 Obtaining an image captured by an imaging device including a first color filter having a first transmittance characteristic, a second color filter having a second transmittance characteristic, and a third color filter having a third transmittance characteristic;
First to fifth bands corresponding to overlapping portions and non-overlapping portions of the first to third transmittance characteristics are set, and the first to third colors are configured based on pixel values of first to third colors constituting the image. Estimate the component value of the fifth band,
An image processing method, wherein the process of reconstructing the pixel values of the first to third colors from the component values of the first to fifth bands is performed as a process of reducing noise of the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012050874A JP2013187711A (en) | 2012-03-07 | 2012-03-07 | Image processing apparatus, imaging apparatus, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012050874A JP2013187711A (en) | 2012-03-07 | 2012-03-07 | Image processing apparatus, imaging apparatus, and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013187711A true JP2013187711A (en) | 2013-09-19 |
Family
ID=49388789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012050874A Pending JP2013187711A (en) | 2012-03-07 | 2012-03-07 | Image processing apparatus, imaging apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013187711A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018116972A1 (en) * | 2016-12-22 | 2019-10-24 | 日本電気株式会社 | Image processing method, image processing apparatus, and recording medium |
CN111063368A (en) * | 2018-10-16 | 2020-04-24 | 中国移动通信有限公司研究院 | Method, apparatus, medium, and device for estimating noise in audio signal |
-
2012
- 2012-03-07 JP JP2012050874A patent/JP2013187711A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018116972A1 (en) * | 2016-12-22 | 2019-10-24 | 日本電気株式会社 | Image processing method, image processing apparatus, and recording medium |
JP7143767B2 (en) | 2016-12-22 | 2022-09-29 | 日本電気株式会社 | Image processing method, image processing device and image processing program |
CN111063368A (en) * | 2018-10-16 | 2020-04-24 | 中国移动通信有限公司研究院 | Method, apparatus, medium, and device for estimating noise in audio signal |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5206796B2 (en) | Image input device | |
US8754957B2 (en) | Image processing apparatus and method | |
US8482659B2 (en) | Image processing apparatus and image processing method | |
KR101824290B1 (en) | High resolution multispectral image capture | |
JP4501855B2 (en) | Image signal processing apparatus, imaging apparatus, image signal processing method, and computer program | |
US9179113B2 (en) | Image processing device, and image processing method, and program | |
JP6525718B2 (en) | Image processing apparatus, control method therefor, and control program | |
US8295629B2 (en) | Method and system for processing low-illuminance image | |
JP4730082B2 (en) | Image signal processing apparatus, imaging apparatus, image signal processing method, and computer program | |
JP5397788B2 (en) | Image input device | |
JP2012239103A (en) | Image processing device, image processing method, and program | |
JP2014086862A (en) | Imaging apparatus and image generating method | |
JP5186517B2 (en) | Imaging device | |
JPWO2018230119A1 (en) | Imaging device, imaging device, and image processing method | |
KR20160004912A (en) | Method and apparatus for image capturing and simultaneous depth extraction | |
WO2015098243A1 (en) | Image processing device, image capturing device, program, and image processing method | |
JP6173065B2 (en) | Imaging apparatus, image processing apparatus, imaging method, and image processing method | |
WO2016111175A1 (en) | Image processing device, image processing method, and program | |
JP6190119B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
KR101243285B1 (en) | Apparatus and method for reconstructing color image based on multi-spectrum using Bayer Color Filter Array camera | |
JP2013187711A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2010276469A (en) | Image processor and image processing method of ranging apparatus | |
JP5963611B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2011146893A (en) | Image processing device, imaging apparatus, and image processing program | |
WO2013111824A1 (en) | Image processing device, image pickup device and image processing method |