JP2005278213A - Production method - Google Patents
Production method Download PDFInfo
- Publication number
- JP2005278213A JP2005278213A JP2005130155A JP2005130155A JP2005278213A JP 2005278213 A JP2005278213 A JP 2005278213A JP 2005130155 A JP2005130155 A JP 2005130155A JP 2005130155 A JP2005130155 A JP 2005130155A JP 2005278213 A JP2005278213 A JP 2005278213A
- Authority
- JP
- Japan
- Prior art keywords
- color
- filter
- light
- signal
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004519 manufacturing process Methods 0.000 title claims description 11
- 238000012545 processing Methods 0.000 claims abstract description 142
- 230000003595 spectral effect Effects 0.000 claims description 74
- 230000035945 sensitivity Effects 0.000 claims description 62
- 239000003086 colorant Substances 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 35
- 238000011156 evaluation Methods 0.000 claims description 27
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 description 51
- 238000012937 correction Methods 0.000 description 37
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 15
- 230000009467 reduction Effects 0.000 description 14
- 238000005286 illumination Methods 0.000 description 7
- 238000003860 storage Methods 0.000 description 7
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000006837 decompression Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 239000000975 dye Substances 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 235000012736 patent blue V Nutrition 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Color Television Image Signal Generators (AREA)
Abstract
Description
本発明は、製造方法に関し、特に、より忠実な色を再現するとともに、ノイズを低減するようにした画像処理装置の製造方法に関する。 The present invention relates to a manufacturing method, and more particularly, to a manufacturing method of an image processing apparatus that reproduces a more faithful color and reduces noise.
近年、コンシューマ向けの画像入力装置(ディジタルカメラ、カラースキャナ等)および画像処理ソフトウェアが普及しつつあり、撮影するなどして取得した画像を自ら編集するユーザの数が増加してきている。 In recent years, consumer-oriented image input devices (digital cameras, color scanners, etc.) and image processing software are becoming widespread, and the number of users who edit images themselves obtained by shooting or the like has increased.
また、これに伴い、画像の画質に対する要求(より好ましい色に対する要求、ノイズが少ないことに対する要求等)も非常に高くなってきている。ディジタルカメラ等を購入する際の第1の条件として、画質がよいことを挙げるユーザの割合が半数以上を占める現状である。 Along with this, demands for image quality (requirements for more preferable colors, demands for less noise, etc.) have become very high. As a first condition when purchasing a digital camera or the like, the ratio of users who state that image quality is good accounts for more than half.
ディジタルカメラにおいては、一般的に、図1に示されるようなRGBの3原色のカラーフィルタ1が用いられている。この例では、図1の一点鎖線で示されるように、緑色(G)の光のみを透過するGフィルタが2個、赤(R)の光のみを透過するRフィルタが1個、および青(B)の光のみを透過するBフィルタが1個の、合計4個を最小単位として、いわゆるベイヤー配列(Bayer配列)により、カラーフィルタ1が構成される。
In a digital camera, generally, a
図2は、RGBカラーフィルタ1を有するCCD(Charge Coupled Device)撮像素子により取得されたRGB信号に対して各種の処理を施す信号処理部11の構成例を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration example of the signal processing unit 11 that performs various processes on an RGB signal acquired by a CCD (Charge Coupled Device) imaging device having the
オフセット補正処理部21は、CCD撮像素子により取得された信号に所定の処理を施すフロントエンド13から供給されてきた画像信号に含まれるオフセット成分を除去し、得られた画像信号をホワイトバランス補正処理部22に出力する。ホワイトバランス補正処理部22は、オフセット補正処理部21から供給されてきた画像信号の色温度、およびカラーフィルタ1の各フィルタの感度の違いに基づいて、各色のバランスを補正する。ホワイトバランス補正処理部22により補正が施され、取得された色信号はガンマ補正処理部23に出力される。ガンマ補正処理部23は、ホワイトバランス補正処理部22から供給されてきた信号に対してガンマ補正を行い、取得した信号を垂直方向同時化処理部24に出力する。垂直方向同時化処理部24にはディレイ素子が設けられており、ガンマ補正処理部23から供給されてきた信号の垂直方向の時間のずれが同時化される。
The offset
RGB信号生成処理部25は、垂直方向同時化処理部24から供給されてきた色信号を、同一空間の位相に補間する補間処理、信号のノイズ成分を除去するノイズ除去処理、信号帯域を制限するフィルタリング処理、および信号帯域の高域成分を補正する高域周波数補正処理等を行い、得られたRGB信号を、輝度信号生成処理部26、および色差信号生成処理部27に出力する。
The RGB signal
輝度信号生成処理部26は、RGB信号生成処理部25から供給されてきたRGB信号を所定の合成比で合成し、輝度信号を生成する。色差信号生成処理部27も同様に、RGB信号生成処理部25から供給されてきたRGB信号を所定の合成比で合成し、色差信号(Cb,Cr)を生成する。輝度信号生成処理部26により生成された輝度信号、および色差信号生成処理部27により生成された色差信号は、例えば、信号処理部11の外部に設けられているモニタに出力される。
The luminance signal
このように、元信号に対してガンマ処理を施してから線形変換によって画像処理を行うことが一般的に行われている。 As described above, image processing is generally performed by linear conversion after performing gamma processing on the original signal.
ところで、カラーフィルタを決定する条件としては、第1に、人間の眼の見え方に忠実な色を再現する「色再現性」があげられる。この「色再現性」は、色を、人間の眼で見える色に近づけることを意味する「色の見え」、および、眼で違うものに見える色は違う色に、同じものに見える色は同じ色に再現することを意味する「色の判別性」(メタメリズムマッチング)の、2つにより構成される。第2に、分光成分が正の感度を有し、かつ、分光感度特性が1つのピークを有するなどの、フィルタを作成するにあたっての「物理的制限」を満たすこと、第3に、「ノイズの低減性」が考慮されていることなどが挙げられる。 Incidentally, as a condition for determining a color filter, firstly, “color reproducibility” for reproducing a color faithful to how a human eye can see is given. This “color reproducibility” means “color appearance” which means that the color is close to the color that can be seen by the human eye. “Color discriminability” (metamerism matching) that means reproduction into colors is composed of two. Secondly, satisfying “physical restrictions” in creating a filter such that the spectral component has a positive sensitivity and the spectral sensitivity characteristic has one peak, and thirdly, “no noise For example, “reduction” is considered.
「色再現性」を重視したカラーフィルタを作成し、評価するために、従来より、例えば、qファクタ、μファクタ、またはFOM(Figure of Merit)のようなフィルタ評価係数が使用される。これらの係数は0乃至1の値をとり、カラーフィルタの分光感度特性が人間の眼の分光感度特性(等色関数)の線形変換に近似する程、大きな値、すなわち1に近い値を示す。これらの係数の値を1に近い色にするには、分光感度がルータ条件を満足するようにすればよい。 Conventionally, for example, a filter evaluation coefficient such as q factor, μ factor, or FOM (Figure of Merit) is used to create and evaluate a color filter that emphasizes “color reproducibility”. These coefficients take values from 0 to 1, and show a larger value, that is, a value closer to 1, as the spectral sensitivity characteristic of the color filter approximates to the linear transformation of the spectral sensitivity characteristic (color matching function) of the human eye. In order to make the values of these coefficients close to 1, the spectral sensitivity should satisfy the router condition.
しかしながら、ルータ条件を満たすように設計すると、カラーフィルタは、図3に示されるように、負の分光成分を有するものとなったり、ピーク値が複数発生するものとなる。そのため、物理的に実現不可能であるか、または実現ができたとしても、相当困難となる。 However, when designed to satisfy the router condition, the color filter has a negative spectral component or a plurality of peak values as shown in FIG. Therefore, even if it is physically impossible or can be realized, it becomes considerably difficult.
そこで、ルータ条件の他、上記した「物理的制限」をも考慮して設計すると、分光感度の特性は、通常、図4に示されるような、負の分光成分が現れない特性となる。なお、図3の曲線L1および図4の曲線L11はRの分光感度を、図3の曲線L2および図4の曲線L12はGの分光感度を、図3の曲線L3および図4の曲線L13はBの分光感度を、それぞれ表している。 Therefore, when considering the above-described “physical limitations” in addition to the router condition, the spectral sensitivity characteristic is normally a characteristic that does not cause a negative spectral component as shown in FIG. The curve L1 in FIG. 3 and the curve L11 in FIG. 4 indicate the spectral sensitivity of R, the curve L2 in FIG. 3 and the curve L12 in FIG. 4 indicate the spectral sensitivity of G, and the curve L3 in FIG. 3 and the curve L13 in FIG. The spectral sensitivity of B is shown respectively.
しかしながら、図4に示されるような分光感度特性を有するフィルタおいては、Rの分光感度の特性(曲線L11)とGの分光感度の特性(曲線L12)の重なりが大きくなり、それぞれの色信号を分解(抽出)する際に、伝搬ノイズが増大してしまうという課題があった。すなわち、色信号を分解するためにR信号とG信号の差を大きくする必要があるが、差を大きくすべく、それぞれの信号を増幅した場合、それとともにノイズも増幅されてしまい、上述した「ノイズの低減性」が満足されなくなってしまう。 However, in the filter having the spectral sensitivity characteristic as shown in FIG. 4, the overlap between the R spectral sensitivity characteristic (curve L11) and the G spectral sensitivity characteristic (curve L12) becomes large, and the respective color signals. When decomposing (extracting), there is a problem that propagation noise increases. That is, it is necessary to increase the difference between the R signal and the G signal in order to decompose the color signal. However, when each signal is amplified to increase the difference, noise is also amplified together with the above-described “ The “noise reduction” is not satisfied.
そこで、「ノイズの低減性」を満足させるべく、「色再現性」を多少犠牲にしてでもGの分光感度とRの分光感度の重複する部分を少なくし、例えば、図5に示されるような分光感度特性にすることも考えられる。 Therefore, in order to satisfy the “noise reduction”, the overlapping portion of the spectral sensitivity of G and the spectral sensitivity of R is reduced even if the “color reproducibility” is somewhat sacrificed, for example, as shown in FIG. Spectral sensitivity characteristics can also be considered.
しかしながら、このような特性のフィルタとした場合、例えば、眼では異なる色として見える物体が、ディジタルカメラにおいては同一の色として撮影されるなど、いわゆる「色の判別性」が悪くなってしまうという課題がある。 However, in the case of a filter having such characteristics, for example, an object that appears as a different color to the eyes is photographed as the same color in a digital camera, and so-called “color discrimination” is deteriorated. There is.
この「色の判別性」が悪くなることについてさらに説明すると、次のようになる。すなわち、図6は、物体R1と物体R2の分光反射率を示す図であり、図に示されるように物体R1と物体R2の分光反射率は異なっている。また、図7は、図6の分光反射率を有する物体R1と物体R2を、標準観察者の眼で見た場合の三刺激値(X,Y,Z値)(図7A)と、図5の分光感度特性を有するカラーフィルタで撮影した場合のRGB値(図7B)を示す図である。 Further description of the deterioration of the “color discrimination” is as follows. That is, FIG. 6 is a diagram showing the spectral reflectances of the object R1 and the object R2, and the spectral reflectances of the object R1 and the object R2 are different as shown in the figure. 7 shows tristimulus values (X, Y, Z values) (FIG. 7A) when the objects R1 and R2 having the spectral reflectance shown in FIG. 6 are viewed with the eyes of a standard observer, and FIG. It is a figure which shows the RGB value at the time of imaging | photography with the color filter which has the spectral sensitivity characteristic (FIG. 7B).
図7Aにおいては、物体R1のX,Y,Z値(「0.08」,「0.06」,「0.30」)と、物体R2のX,Y,Z値(「0.10」,「0.07」,「0.33」)はそれぞれ異なる値であり、これは、それぞれの物体は、人間の眼では異なる色として見えることを表している。これに対して、図7Bにおいては、物体R1のR,G,Bの値と、物体R2のR,G,Bの値が同一の値(「66.5」,「88.3」,「132.0」)となっている。これは、図5の分光感度特性を有するディジタルカメラ(カラーフィルタ)では、それぞれの物体の色が区別されずに、同じ色のものとして撮影されていることを意味する。 In FIG. 7A, the X, Y, Z values (“0.08”, “0.06”, “0.30”) of the object R1 and the X, Y, Z values (“0.10”) of the object R2 are shown. , “0.07”, “0.33”) are different values, indicating that each object appears as a different color to the human eye. On the other hand, in FIG. 7B, the values of R, G, B of the object R1 and the values of R, G, B of the object R2 are the same values (“66.5”, “88.3”, “ 132.0 "). This means that in the digital camera (color filter) having the spectral sensitivity characteristics shown in FIG. 5, the colors of the respective objects are photographed as the same color without being distinguished.
また、qファクタ、μファクタ、FOMを用いて行うカラーフィルタの評価においては、「ノイズの低減性」が考慮されず、「ノイズ低減性」の観点からは望ましくないものであるにも関わらず、「色再現性」、「物理的制限」の両方を満たすフィルタ(ルータ条件を満たす、図4に示されるようなフィルタ)に対して最高の評価(係数の値が1)が示されてしまう。 In addition, in the evaluation of color filters using q-factor, μ-factor, and FOM, although “noise reduction” is not considered, it is not desirable from the viewpoint of “noise reduction”, The highest evaluation (coefficient value is 1) is shown for a filter that satisfies both “color reproducibility” and “physical restriction” (a filter that satisfies the router condition and that is shown in FIG. 4).
本発明はこのような状況に鑑みてなされたものであり、より忠実な色を再現するとともに、ノイズを低減できるようにするものである。 The present invention has been made in view of such circumstances, and is intended to reproduce more faithful colors and reduce noise.
本発明の製造方法は、入射された光から所定の色の成分を抽出する抽出手段と、抽出手段により抽出された色の成分の光を、対応する色信号に変換する変換手段とを備える画像処理装置の製造方法であって、変換手段を用意する第1のステップと、抽出手段として、3原色の第1乃至第3の光、および3原色の第1乃至第3の光のうちの第2の光と高い相関を有する第4の光をそれぞれ抽出する第1乃至第4の抽出部で構成される単位を有し、第2の抽出部と第4の抽出部は、輝度信号の視感度特性に近似する分光感度特性を有するとともに単位において対角に位置する抽出手段を、第1のステップの処理により用意された変換手段の前面に生成する第2のステップととを含むことを特徴とする。 The manufacturing method of the present invention includes an extraction unit that extracts a component of a predetermined color from incident light, and a conversion unit that converts the light of the color component extracted by the extraction unit into a corresponding color signal. A method of manufacturing a processing apparatus, comprising: a first step of preparing a conversion unit; and a first of the first to third light of the three primary colors and a first of the first to third light of the three primary colors as the extraction unit. Each of the first to fourth extraction units for extracting the fourth light having a high correlation with the second light, and the second extraction unit and the fourth extraction unit are for viewing the luminance signal. And a second step of generating extraction means having a spectral sensitivity characteristic approximate to the sensitivity characteristic and located diagonally in the unit in front of the conversion means prepared by the processing of the first step. And
第2のステップは、所定の評価係数を用いて抽出部の分光感度特性を決定するようにすることができる。 In the second step, the spectral sensitivity characteristic of the extraction unit can be determined using a predetermined evaluation coefficient.
評価係数は、色の再現性とともにノイズの低減性を考慮した評価係数であるようにすることができる。 The evaluation coefficient can be an evaluation coefficient that considers noise reducibility as well as color reproducibility.
第2のステップは、3原色の第1乃至第3の光を、赤、緑、または青の光とし、第4の光を、緑の光とするようにすることができる。 In the second step, the first to third lights of the three primary colors may be red, green, or blue light, and the fourth light may be green light.
第1乃至第4の光を変換手段により変換して生成された第1乃至第4の色信号に基づいて、3原色に対応する第5乃至第7の色信号を生成する生成手段を生成する第3のステップをさらに含むようにすることができる。 Generating means for generating fifth to seventh color signals corresponding to the three primary colors is generated based on the first to fourth color signals generated by converting the first to fourth light by the converting means. A third step can be further included.
第3のステップは、所定のカラーパッチに基づいて算出される参照値と、カラーパッチに基づいて抽出手段の分光感度特性により算出される出力値の、所定の評価値における差分を最小にするものとして与えられる変換式に基づいて第5乃至第7の色信号を生成するよう生成手段を生成するようにすることができる。 The third step is to minimize a difference between a reference value calculated based on a predetermined color patch and an output value calculated based on the spectral sensitivity characteristic of the extraction unit based on the color patch in a predetermined evaluation value. The generation means can be generated so as to generate the fifth to seventh color signals based on the conversion formula given as follows.
本発明により得られた画像処理装置によれば、撮影された色を忠実に再現することができる。 According to the image processing apparatus obtained by the present invention, the photographed color can be faithfully reproduced.
また、本発明により得られた画像処理装置によれば、「色の判別性」を向上させることができる。 Further, according to the image processing apparatus obtained by the present invention, “color discrimination” can be improved.
さらに、本発明により得られた画像処理装置によれば、「色の再現性」および「ノイズの低減性」を向上させることができる。 Furthermore, according to the image processing apparatus obtained by the present invention, “color reproducibility” and “noise reduction” can be improved.
本発明により得られた画像処理装置によれば、「色の見え方」を改善させることができる。 According to the image processing apparatus obtained by the present invention, the “color appearance” can be improved.
図8は、本発明を適用したディジタルカメラの構成例を示すブロック図である。 FIG. 8 is a block diagram showing a configuration example of a digital camera to which the present invention is applied.
図8に示されるディジタルカメラは、CCD(Charge Coupled Device)等よりなる画像センサ45の前面(レンズ42に対向する面)に、4種類の色(光)を識別するカラーフィルタが設けられている。
The digital camera shown in FIG. 8 is provided with a color filter for identifying four types of colors (light) on the front surface (surface facing the lens 42) of an
図9は、図8の画像センサ45に設けられる4色カラーフィルタ61の例を示す図である。
FIG. 9 is a diagram illustrating an example of the four-color filter 61 provided in the
図9の一点鎖線で示されるように、4色カラーフィルタ61は、赤の光のみを透過するRフィルタ、青の光のみを透過するBフィルタ、第1の波長帯域の緑色の光のみを透過するG1フィルタ、およびG1フィルタと相関が高い、第2の波長帯域の緑色の光のみを透過するG2フィルタの、合計4個のフィルタを最小単位として構成される。また、G1フィルタとG2フィルタは、その最小単位内において、互いに対角する位置に配置されている。 As shown by the one-dot chain line in FIG. 9, the four-color filter 61 is an R filter that transmits only red light, a B filter that transmits only blue light, and transmits only green light in the first wavelength band. And a G2 filter having a high correlation with the G1 filter and transmitting only the green light in the second wavelength band, a total of four filters are configured as a minimum unit. Further, the G1 filter and the G2 filter are disposed at positions diagonal to each other within the minimum unit.
後に詳述するように、画像センサ45により取得される画像の色を4種類とし、取得される色情報を増やすことにより、3種類の色(RGB)のみが取得される場合と較べて、より正確に色を表現することができ、眼で違うものに見える色は違う色に、同じものに見える色は同じ色に、それぞれ再現すること(「色の判別性」)を向上させることができる。
As will be described in detail later, the color of the image acquired by the
なお、図10に示される視感度曲線から分かるように、人間の眼は輝度に敏感である。従って、図9の4色カラーフィルタ61の例においては、より正確な輝度情報を取得することにより、輝度の階調を上げることができ、かつ、眼の見え方に近い画像を再現することができるように、視感度曲線に近い分光感度特性を有するG2のカラーフィルタが追加されている(図1のR,G,Bに対応するR,G1,Bのフィルタに対して、新たに決定された緑G2フィルタが追加されている)。 As can be seen from the visibility curve shown in FIG. 10, the human eye is sensitive to luminance. Therefore, in the example of the four-color filter 61 in FIG. 9, by acquiring more accurate luminance information, it is possible to increase the luminance gradation and reproduce an image close to how the eyes are seen. A G2 color filter having a spectral sensitivity characteristic close to the visibility curve has been added so that the R, G1, and B filters corresponding to R, G, and B in FIG. Green G2 filter is added).
また、4色カラーフィルタ61を決定する際に使用されるフィルタ評価係数として、例えば、「色再現性」と「ノイズ低減性」の両方を考慮した係数であるUMG(Unified Measure of Goodness)が用いられている。 Further, as a filter evaluation coefficient used when determining the four-color filter 61, for example, UMG (Unified Measure of Goodness) which is a coefficient considering both “color reproducibility” and “noise reduction performance” is used. It has been.
UMGを用いた評価においては、評価対象のフィルタが単にルータ条件を満たしているだけでは、その評価値は高くならず、それぞれのフィルタの分光感度分布の重なりも考慮される。従って、qファクタ、μファクタ、またはFOM(Figure of Merit)を利用して評価されたカラーフィルタの場合と比較して、ノイズをより低減させることができる。すなわち、UMGを用いた評価により、それぞれのフィルタの分光感度特性が、ある程度の重なりを有するが、図4のRの特性とGの特性のようにほぼ全てが重なるものではないフィルタが選択されるため、色の分離のため、それぞれの色信号を増幅する場合であっても、増幅率をそれ程大きくする必要がなく、それに伴ってノイズ成分が増幅されることが抑制される。 In the evaluation using the UMG, the evaluation value does not increase when the filter to be evaluated simply satisfies the router condition, and the overlap of spectral sensitivity distributions of the respective filters is also taken into consideration. Therefore, noise can be further reduced as compared with the case of a color filter evaluated using q factor, μ factor, or FOM (Figure of Merit). That is, by the evaluation using the UMG, a filter is selected in which the spectral sensitivity characteristics of the respective filters have a certain degree of overlap, but almost all do not overlap, such as the R characteristic and the G characteristic in FIG. Therefore, even if each color signal is amplified for color separation, it is not necessary to increase the amplification factor so much that the noise component is suppressed from being amplified accordingly.
第4のフィルタ(G2フィルタ)によりノイズが抑制される理由について付言すれば、画素数拡大のためにCCDのセルサイズが微小化されるに伴い、感度効率を向上させるために原色フィルタの分光感度曲線が太くなって各フィルタの重なりが大きくなる傾向にある。この様な状況下でもう一枚フィルタを追加することは、元の3原色の重なりを抑制し、結果としてノイズを防ぐ効果がある。 The reason why noise is suppressed by the fourth filter (G2 filter) will be described. Spectral sensitivity of the primary color filter is improved in order to improve sensitivity efficiency as the CCD cell size is miniaturized to increase the number of pixels. The curve tends to be thicker and the overlap of the filters tends to increase. Adding another filter under such circumstances has the effect of suppressing the overlap of the original three primary colors and consequently preventing noise.
図11は、各フィルタ評価係数の特徴を示す図である。図11においては、各評価係数に対して、1度に評価できるフィルタの数、物体の分光反射率が考慮されているか否か、および、ノイズの低減が考慮されているか否かが示されている。 FIG. 11 is a diagram illustrating characteristics of each filter evaluation coefficient. FIG. 11 shows, for each evaluation coefficient, the number of filters that can be evaluated at one time, whether or not the spectral reflectance of an object is taken into consideration, and whether or not noise reduction is taken into consideration. Yes.
図11に示されるように、qファクタ(q-factor)は、1度に評価できるフィルタの数が「1個」のみであり、物体の分光反射率と、ノイズの低減が考慮されていない。また、μファクタ(μ-factor)は、1度に複数のフィルタを評価することができるものの、物体の分光反射率とノイズの低減は考慮されていない。さらに、FOMは、1度に複数のフィルタを評価することができ、物体の分光反射率が考慮されているものの、ノイズの低減が考慮されていない。 As shown in FIG. 11, the number of filters that can be evaluated at one time is only “1”, and the spectral reflectance of the object and noise reduction are not considered. In addition, although the μ factor can evaluate a plurality of filters at a time, reduction of spectral reflectance and noise of an object is not taken into consideration. Furthermore, the FOM can evaluate a plurality of filters at a time and considers the spectral reflectance of the object, but does not consider noise reduction.
これに対して、4色カラーフィルタ61を決定する際に使用されるUMGは、1度に複数のフィルタを評価することができ、物体の分光反射率が考慮され、かつ、ノイズの低減も考慮されている。 On the other hand, the UMG used when determining the four-color color filter 61 can evaluate a plurality of filters at a time, considering the spectral reflectance of the object, and considering noise reduction. Has been.
なお、qファクタについては「H.E.J.Neugebauer "Quality Factor for Filters Whose Spectral Transmittances are Different from Color Mixture Curves, and Its Application to Color Photography" JOURNAL OF THE OPTICAL SOCIETY OF AMERICA, VOLUME 46, NUMBER 10」にその詳細が開示されており、μファクタについては「P.L.Vora and H.J.Trussell, "Measure of Goodness of a set of color-scanning filters", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA, VOLUME 10, NUMBER 7」にその詳細が開示されている。また、FOMについては「G.Sharma and H.J.Trussell, "Figures of Merit for Color Scanners, IEEE TRANSACTION ON IMAGE PROCESSING, VOLUME 6」にその詳細が開示されており、UMGについては「S.Quan, N.Ohta, and N.Katoh, "Optimal Design of Camera Spectral Sensitivity Functions Based on Practical Filter Components", CIC, 2001」にその詳細が開示されている。
Details of the q factor are disclosed in “HEJNeugebauer“ Quality Factor for Filters Whose Spectral Transmittances are Different from Color Mixture Curves, and Its Application to Color Photography ”JOURNAL OF THE OPTICAL SOCIETY OF AMERICA,
図8の説明に戻り、マイクロコンピュータ41は、所定の制御プログラムに従って全体の動作を制御する。例えば、マイクロコンピュータ41は、絞り43による露光制御、シャッター44の開閉制御、TG(Timing Generator)46の電子シャッターの制御、フロントエンド47でのゲインコントロール、カメラシステムLSI(Large Scale Integrated Circuit)48のモード制御、パラメータ制御等を行う。
Returning to the description of FIG. 8, the
絞り43は、レンズ42により集光された光の通過(絞り)を調整し、画像センサ45により取り込まれる光量を制御する。シャッター44は、マイクロコンピュータ41の指示に基づいて、レンズ42により集光された光の通過を制御する。
The
画像センサ45は、さらに、CCDやCMOS(Complementary Metal Oxide Semiconductor)により構成される撮像素子を有し、その撮像素子の前面に形成する4色カラーフィルタ61を介して入射された光を電気信号に変換し、4種類の色信号(R信号,G1信号,G2信号,B信号)をフロントエンド47に出力する。画像センサ45には、図9の4色カラーフィルタ61が設けられ、レンズ42を介して入射された光から、R,G1,G2,Bのそれぞれの帯域の波長の成分(その詳細は、図18を参照して後述する)が抽出される。
The
フロントエンド47は、画像センサ45から供給されてきた色信号に対して、ノイズ成分を除去するための相関二重サンプリング処理、ゲインコントロール処理、およびディジタル変換処理等を施す。フロントエンド47により各種の処理が施され、得られた画像データは、カメラシステムLSI48に出力される。
The
カメラシステムLSI48は、後に詳述するように、フロントエンド47から供給されてきた画像データに対して各種の処理を行い、例えば、輝度信号および色信号を生成して画像モニタ50に出力し、信号に対応する画像を表示させる。
As will be described later in detail, the
画像メモリ49は、例えば、DRAM(Dynamic Random Access Memory)やSDRAM(Synchronous Dynamic Random Access Memory)などにより構成され、カメラシステムLSI48が各種の処理を行う際に適宜利用される。半導体メモリ、ディスク等により構成される外部記憶媒体51は、例えば、図8のディジタルカメラに対して着脱可能に構成され、カメラシステムLSI48によりJPEG(Joint Photographic Expert Group)フォーマットで圧縮された画像データが記憶される。
The
画像モニタ50は、例えば、LCD(Liquid Crystal Display)などにより構成され、撮影された画像や各種のメニュー画面等を表示する。 The image monitor 50 is configured by, for example, an LCD (Liquid Crystal Display) or the like, and displays captured images, various menu screens, and the like.
図12は、図8のカメラシステムLSI48の構成例を示すブロック図である。カメラシステムLSI48を構成する各ブロックは、マイクロコンピュータインタフェース(I/F)73を介して、図8のマイクロコンピュータ41により制御される。
FIG. 12 is a block diagram showing a configuration example of the
信号処理部71は、フロントエンド47から供給されてきた4種類の色情報に対して、補間処理、フィルタリング処理、マトリクス演算処理、輝度信号生成処理、色差信号生成処理等の各種の処理を行い、例えば、生成した画像信号をモニタインタフェース77を介して画像モニタ50に出力する。
The
画像検波部72は、フロントエンド47の出力に基づいて、オートフォーカス、オートエキスポージャー、オートホワイトバランス等の検波処理を行い、その結果を、適宜、マイクロコンピュータ41に出力する。
The
メモリコントローラ75は、処理ブロック間同士のデータの送受信、または、所定の処理ブロックと画像メモリ49との間のデータの送受信を制御し、例えば、信号処理部71から供給されてきた画像データをメモリインタフェース74を介して画像メモリ49に出力し、記憶させる。
The
画像圧縮・解凍部76は、例えば、信号処理部71から供給されてきた画像データをJPEGフォーマットで圧縮し、得られたデータをマイクロコンピュータインタフェース73を介して外部記憶媒体51に出力し、記憶させる。画像圧縮・解凍部76は、また、外部記憶媒体51から読み出された圧縮データを解凍(伸張)し、モニタインタフェース77を介して画像モニタ50に出力する。
For example, the image compression /
図13は、図12の信号処理部71の詳細な構成例を示すブロック図である。信号処理部71を構成する各ブロックは、マイクロコンピュータインタフェース73を介して、マイクロコンピュータ41により制御される。
FIG. 13 is a block diagram illustrating a detailed configuration example of the
オフセット補正処理部91は、フロントエンド47から供給されてきた画像信号に含まれるノイズ成分(オフセット成分)を除去し、得られた画像信号をホワイトバランス補正処理部92に出力する。ホワイトバランス補正処理部92は、オフセット補正処理部91から供給されてきた画像信号の色温度、および4色カラーフィルタ61の各フィルタの感度の違いに基づいて、各色のバランスを補正する。ホワイトバランス補正処理部92により補正が施され、取得された色信号は、垂直方向同時化処理部93に出力される。垂直方向同時化処理部93にはディレイ素子が設けられており、ホワイトバランス補正処理部92から出力されてきた信号の垂直方向の時間のずれが同時化(補正)される。
The offset correction processing unit 91 removes a noise component (offset component) included in the image signal supplied from the
信号生成処理部94は、垂直方向同時化処理部93から供給されてきたRG1G2Bの最小単位の2×2画素の色信号を、同一空間の位相に補間する補間処理、信号のノイズ成分を除去するノイズ除去処理、信号帯域を制限するフィルタリング処理、および信号帯域の高域成分を補正する高域周波数補正処理等を行い、得られたRG1G2B信号を、リニアマトリクス処理部95に出力する。
The signal
リニアマトリクス処理部95は、次式(1)に従って、所定のマトリクス係数(3×4の行列)に基づいて、RG1G2B信号の演算を行い、3色のRGB信号を生成する。
The linear
リニアマトリクス処理部95により生成されたR信号はガンマ補正処理部96−1に出力され、G信号はガンマ補正処理部96−2に出力され、B信号はガンマ補正処理部96−3に出力される。
The R signal generated by the linear
ガンマ補正処理部96−1乃至96−3は、リニアマトリクス処理部95から出力されてきたRGB信号のそれぞれの信号に対してガンマ補正を行い、取得されたRGB信号を輝度(Y)信号生成処理部97および色差(C)信号生成処理部98に出力する。
The gamma correction processing units 96-1 to 96-3 perform gamma correction on each of the RGB signals output from the linear
輝度信号生成処理部97は、ガンマ補正処理部96−1乃至96−3から供給されてきたRGB信号を、例えば、次式(2)に従って、所定の合成比で合成し、輝度信号を生成する。
The luminance signal
色差信号生成処理部98も同様に、ガンマ補正処理部96−1乃至96−3から供給されてきたRGB信号を所定の合成比で合成し、色差信号(Cb,Cr)を生成する。輝度信号生成処理部97により生成された輝度信号、および色差信号生成処理部98により生成された色差信号は、例えば、図12のモニタインタフェース77を介して画像モニタ50に出力される。
Similarly, the color difference signal
以上のような構成を有するディジタルカメラにおいて、画像の撮影が指示された場合、マイクロコンピュータ41は、TG46を制御し、画像センサ45により画像を取り込ませる。すなわち、画像センサ45を構成するCCDなどの撮像素子の前面に形成されている4色カラーフィルタ61により4色の光が透過され、透過された光がCCD撮像素子により取り込まれる。CCD撮像素子により取り込まれた光は、4色の色信号に変換され、それがフロントエンド47に出力される。
In the digital camera having the above-described configuration, when an instruction to capture an image is given, the
フロントエンド47は、画像センサ45から供給されてきた色信号に対して、ノイズ成分を除去するための相関二重サンプリング処理、ゲインコントロール処理、およびディジタル変換処理等を施し、得られた画像データをカメラシステムLSI48に出力する。
The
カメラシステムLSI48の信号処理部71においては、オフセット補正処理部91により色信号のオフセット成分が除去され、ホワイトバランス補正処理部92により、画像信号の色温度、および4色カラーフィルタ61の各フィルタの感度の違いに基づいて、各色のバランスが補正される。
In the
また、垂直方向同時化処理部93により、ホワイトバランス補正処理部92により補正された信号の垂直方向の時間のずれが同時化(補正)され、信号生成処理部94により、垂直方向同時化処理部93から供給されてきたRG1G2Bの最小単位の2×2画素の色信号を、同一空間の位相に補間する補間処理、信号のノイズ成分を除去するノイズ除去処理、信号帯域を制限するフィルタリング処理、および信号帯域の高域成分を補正する高域周波数補正処理等が行われる。
Further, the vertical direction
さらに、リニアマトリクス処理部95においては、信号生成処理部94により生成された信号(RG1G2B信号)が、所定のマトリクス係数(3×4の行列)に基づいて変換され、3色のRGB信号が生成される。リニアマトリクス処理部95により生成されたR信号はガンマ補正処理部96−1に出力され、G信号はガンマ補正処理部96−2に出力され、B信号はガンマ補正処理部96−3に出力される。
Further, in the linear
ガンマ補正処理部96−1乃至96−3により、リニアマトリクス処理部95の処理により得られたRGB信号のそれぞれの信号に対してガンマ補正が行われ、取得されたRGB信号が輝度信号生成処理部97および色差信号生成処理部98に出力される。輝度信号生成処理部97、および色差信号生成処理部98においては、ガンマ補正処理部96−1乃至96−3から供給されてきたR信号、G信号、B信号のそれぞれの信号が所定の合成比で合成され、輝度信号および色差信号が生成される。輝度信号生成処理部97により生成された輝度信号、および色差信号生成処理部98により生成された色差信号は、図12の画像圧縮・解凍部76に出力され、例えば、JPEGフォーマットで圧縮される。圧縮され、得られた画像データは、マイクロコンピュータインタフェース73を介して外部記憶媒体51に出力され、記憶される。
The gamma correction processing units 96-1 to 96-3 perform gamma correction on each of the RGB signals obtained by the processing of the linear
以上のように、1つの画像データが4種類の色信号に基づいて形成されるため、その再現性は、人間の眼の見えにより近いものとなる。 As described above, since one image data is formed based on four types of color signals, the reproducibility is closer to the appearance of human eyes.
一方、外部記憶媒体51に記憶されている画像データの再生(表示)が指示されたとき、マイクロコンピュータ41により、外部記憶媒体51に記憶されている画像データが読み出され、それがカメラシステムLSI48の画像圧縮・解凍部76に出力される。画像圧縮・解凍部76においては、圧縮されている画像データが伸張され、モニタインタフェース77を介して、得られたデータに対応する画像が画像モニタ50に表示される。
On the other hand, when the reproduction (display) of the image data stored in the
次に、図14のフローチャートを参照して、以上のような構成を有するディジタルカメラを作成する処理(手順)について説明する。 Next, processing (procedure) for creating a digital camera having the above-described configuration will be described with reference to the flowchart of FIG.
ステップS1において、図8の画像センサ45に設けられる4色カラーフィルタ61の分光感度特性を決定する4色カラーフィルタ決定処理が行われ、ステップS2において、図13のリニアマトリクス処理部95に設定されるマトリクス係数を決定するリニアマトリクス決定処理が行われる。ステップS1において実行される4色カラーフィルタ決定処理の詳細については、図15のフローチャートを参照して、また、ステップS2において実行されるリニアマトリクス決定処理の詳細については、図19のフローチャートを参照して、それぞれ後述する。
In step S1, four-color filter determination processing for determining the spectral sensitivity characteristics of the four-color filter 61 provided in the
4色カラーフィルタ61が決定され、マトリクス係数が決定された後、ステップS3において、図13の信号処理部71が作成され、ステップS4に進み、図12のカメラシステムLSI48が作成される。また、ステップS5において、図8に示されるような画像処理装置(ディジタルカメラ)の全体が作成される。ステップS6において、ステップS5で作成されたディジタルカメラの画質(「色再現性」、「色判別性」)の評価が行われ、処理が終了される。
After the four-color filter 61 is determined and the matrix coefficients are determined, in step S3, the
ここで、「色再現性」、「色判別性」などを評価する際に参照される物体色について説明する。物体色は「物体の分光反射率」、「標準照明の分光エネルギー分布」、および「物体を感知するセンサ(カラーフィルタ)の分光感度分布(特性)」の積を可視光領域(例えば、400乃至700nm)の範囲で積分した値によって算出される。すなわち、次の式(3)により物体色が算出される。 Here, object colors referred to when evaluating “color reproducibility”, “color discrimination”, and the like will be described. The object color is the product of “spectral reflectance of the object”, “spectral energy distribution of standard illumination”, and “spectral sensitivity distribution (characteristic) of the sensor (color filter) that senses the object”. It is calculated by the value integrated in the range of 700 nm). That is, the object color is calculated by the following equation (3).
例えば、所定の物体を眼で観察する場合、式(3)の「センサの分光感度特性」が等色関数で表され、その物体の物体色は、X,Y,Zの三刺激値で表される。具体的には、Xの値は式(4−1)で算出され、Yの値は式(4−2)で算出され、Zの値は式(4−3)で算出される。なお、式(4−1)乃至(4−3)における定数kの値は式(4−4)で算出される。 For example, when a predetermined object is observed with the eyes, the “spectral sensitivity characteristic of the sensor” in Expression (3) is represented by a color matching function, and the object color of the object is represented by tristimulus values of X, Y, and Z. Is done. Specifically, the value of X is calculated by equation (4-1), the value of Y is calculated by equation (4-2), and the value of Z is calculated by equation (4-3). Note that the value of the constant k in the equations (4-1) to (4-3) is calculated by the equation (4-4).
また、ディジタルカメラなどの画像処理装置により、所定の物体の画像を取り込む場合、上式(3)の「センサの分光感度特性」がカラーフィルタの分光感度特性で表され、その物体の物体色は、フィルタの数の色値(例えば、RGBフィルタ(3種類)の場合はRGB値(3値))の物体色が算出される。画像処理装置に、3種類の色を検出するRGBフィルタが設けられている場合、具体的には、Rの値は式(5−1)で算出され、Gの値は式(5−2)で算出され、Bの値は式(5−3)で算出される。また、式(5−1)における定数krの値は式(5−4)で算出され、式(5−2)における定数kgの値は式(5−5)で算出され、式(5−3)における定数kbの値は式(5−6)で算出される。 Also, when an image of a predetermined object is captured by an image processing apparatus such as a digital camera, the “spectral sensitivity characteristic of the sensor” in the above equation (3) is represented by the spectral sensitivity characteristic of the color filter, and the object color of the object is The object color of the color value of the number of filters (for example, RGB values (three values in the case of RGB filters (three types)) is calculated. When the image processing apparatus is provided with an RGB filter that detects three types of colors, specifically, the value of R is calculated by Expression (5-1), and the value of G is calculated by Expression (5-2). And the value of B is calculated by equation (5-3). The value of the constant k r in the formula (5-1) is calculated by the formula (5-4), the value of the constant k g in the formula (5-2) is calculated by the formula (5-5), the formula ( the value of the constant k b in 5-3) is calculated by the equation (5-6).
次に、図15のフローチャートを参照して、図14のステップS1で行われる4色カラーフィルタ決定処理について説明する。 Next, the four-color filter determining process performed in step S1 of FIG. 14 will be described with reference to the flowchart of FIG.
なお、4色カラーフィルタの決定方法としては様々な方法があるが、例えば、RGBフィルタを基調として(既存の(図1の)Gフィルタの一方をG1フィルタとして)、G1フィルタを透過する色と相関の高い色を透過するG2フィルタを選択し、それを追加して4色カラーフィルタを決定する処理について説明する。 There are various methods for determining the four-color filter. For example, based on an RGB filter (one of the existing G filters (FIG. 1) as a G1 filter), A process of selecting a G2 filter that transmits a highly correlated color and adding it to determine a four-color filter will be described.
ステップS21において、UMG値を算出するために使用されるカラーターゲットが選択される。例えば、ステップS21において、現存する色を代表するカラーパッチを多く含み、かつ、人間の記憶色(肌色、植物の緑、空の青等)を重視したカラーパッチを多く含むカラーターゲットが選択される。カラーターゲットとしては、例えば、IT8.7,Macbeth Color Checker,GretagMacbeth DigitalCamera Color Checker,CIE,Color Bar等がある。 In step S21, a color target used to calculate a UMG value is selected. For example, in step S21, a color target that includes many color patches representing existing colors and includes many color patches that emphasize human memory colors (skin color, plant green, sky blue, etc.) is selected. . Examples of the color target include IT8.7, Macbeth Color Checker, GretagMacbeth DigitalCamera Color Checker, CIE, and Color Bar.
また、目的に応じて、SOCS(Standard Object Color Spectra Database)などのデータから、標準となりうるカラーパッチを作成し、それを使用するようにしてもよい。なお、SOCSについては「田島譲二, "標準物体色分光データベース(SOCS)による統計的色再現評価", カラーフォーラムJAPAN 99」にその詳細が開示されている。以下、Macbeth Color Checkerがカラーターゲットとして選択された場合について説明する。 Also, depending on the purpose, a color patch that can be a standard may be created from data such as SOCS (Standard Object Color Spectra Database) and used. The details of SOCS are disclosed in “Joji Tajima,“ Statistical Color Reproduction Evaluation by Standard Object Color Spectroscopy Database (SOCS) ”, Color Forum JAPAN 99”. Hereinafter, a case where Macbeth Color Checker is selected as a color target will be described.
ステップS22において、G2フィルタの分光感度特性が決定される。分光感度特性として、実存する材料から作成可能なものを使用するようにしてもよいし、図16に示されるようなcubic spline曲線(3次スプライン関数)で仮想曲線C(λ)を想定し、仮想曲線C(λ)のピーク値λ0、値w(w1とw2の和を2で除算した値)、値Δw(w1からw2を減算した値を2で除算した値)を、図中に示す範囲で変化させたものを使用するようにしてもよい。なお、w,Δwの値は、半値幅の値に基づく値とされる。λ0,w,Δwの変化の方法は、例えば、5nm刻みとする。仮想曲線C(λ)は、それぞれの範囲において、下式(6−1)乃至(6−5)で表される。 In step S22, the spectral sensitivity characteristic of the G2 filter is determined. As the spectral sensitivity characteristics, those that can be created from existing materials may be used, or a virtual curve C (λ) is assumed with a cubic spline curve (cubic spline function) as shown in FIG. Peak value λ 0 of virtual curve C (λ), value w (value obtained by dividing the sum of w 1 and w 2 by 2), value Δw (value obtained by subtracting w 2 from w 1 and divided by 2) Those changed in the range shown in the figure may be used. The values of w and Δw are values based on the half-value width value. The method of changing λ 0 , w, Δw is, for example, in increments of 5 nm. The virtual curve C (λ) is expressed by the following equations (6-1) to (6-5) in each range.
なお、この例では、フィルタG2のみが追加されるが、図1のフィルタ(R,G,G,B)のRフィルタとBフィルタのみを使用し、残りの2つのG1,G2フィルタを、緑色付近の上式(6−1)乃至(6−5)の仮想曲線として定義することも可能である。また、同様に、RとGのみ、GとBのみを、図1のフィルタから使用するようにしてもよい。さらに、4色のフィルタのうち、3色を仮想曲線、または4色とも仮想曲線として定義することも可能である。 In this example, only the filter G2 is added, but only the R and B filters of the filters (R, G, G, B) in FIG. 1 are used, and the remaining two G1, G2 filters are replaced with green. It can also be defined as a virtual curve of the above equations (6-1) to (6-5). Similarly, only R and G, and only G and B may be used from the filter of FIG. Furthermore, among the four color filters, three colors can be defined as virtual curves, or all four colors can be defined as virtual curves.
ステップS23において、追加するフィルタ(G2フィルタ)と、現存のフィルタ(Rフィルタ,G1フィルタ,Bフィルタ)が組み合わされ、4色カラーフィルタの最小単位(セット)が作成される。また、ステップS24において、ステップS23で作成された4色カラーフィルタに対して、フィルタ評価係数としてUMGが用いられ、UMG値が算出される。 In step S23, the filter to be added (G2 filter) and the existing filters (R filter, G1 filter, B filter) are combined to create a minimum unit (set) of the four-color filter. In step S24, UMG is used as a filter evaluation coefficient for the four-color filter created in step S23, and a UMG value is calculated.
図11を参照して説明したように、UMGを用いた場合、4色のそれぞれのカラーフィルタに対して1度で評価を行うことができる。また、物体の分光反射率を考慮して評価が行われるだけでなく、ノイズの低減性をも考慮して評価が行われる。UMGを用いた評価においては、それぞれのフィルタの分光感度特性に、適度な重なりがあるフィルタに対して高い評価が示されるため、例えば、Rの特性とGの特性が広い波長帯域にわたって重複する特性を有するフィルタ(それぞれの色信号を分離した際、ノイズが増幅されるフィルタ)に対して、高い評価が示されるということを抑制することができる。 As described with reference to FIG. 11, when UMG is used, evaluation can be performed once for each of the four color filters. Further, the evaluation is performed not only in consideration of the spectral reflectance of the object but also in consideration of noise reduction. In the evaluation using UMG, the spectral sensitivity characteristic of each filter is highly evaluated for a filter having a moderate overlap. For example, the characteristic in which the R characteristic and the G characteristic overlap over a wide wavelength band. It can be suppressed that a high evaluation is shown for a filter having noise (a filter in which noise is amplified when each color signal is separated).
図17は、3色カラーフィルタにおいて算出されるUMG値の例を示す図である。例えば、RGBの特性がそれぞれ重複しない図17Aに示されるような特性のフィルタにおいては、「0.7942」のUMG値が算出され、Rの特性とGの特性が広い波長帯域にわたって重複する図17Bに示されるような特性のフィルタにおいては、「0.8211」のUMG値が算出される。また、RGBのそれぞれの特性が適度に重なる図17Cに示されるような特性を有するフィルタにおいては、「0.8879」のUMG値が算出される。すなわち、RGBのそれぞれの特性が適度に重なる、図17Cに示されるような特性を有するフィルタに対して最も高い評価が示される。このことは、4色カラーフィルタにおいても同様である。なお、図17Aの曲線L31、図17Bの曲線L41、および図17Cの曲線L51はRの分光感度を、図17Aの曲線L32、図17Bの曲線L42、および図17Cの曲線L52はGの分光感度を、図17Aの曲線L33、図17Bの曲線L43、および図17Cの曲線L53はBの分光感度を、それぞれ表している。 FIG. 17 is a diagram illustrating an example of the UMG value calculated in the three-color filter. For example, in the filter having the characteristics as shown in FIG. 17A in which the RGB characteristics do not overlap, a UMG value of “0.7942” is calculated, and the R characteristics and the G characteristics overlap over a wide wavelength band. In the filter having the characteristic as shown in FIG. 5, a UMG value of “0.8211” is calculated. In addition, a UMG value of “0.8879” is calculated in a filter having characteristics as shown in FIG. That is, the highest evaluation is shown for a filter having characteristics as shown in FIG. The same applies to the four-color color filter. The curve L31 in FIG. 17A, the curve L41 in FIG. 17B, and the curve L51 in FIG. 17C indicate the spectral sensitivity of R, and the curve L32 in FIG. 17A, the curve L42 in FIG. 17B, and the curve L52 in FIG. 17A, a curve L43 in FIG. 17B, and a curve L53 in FIG. 17C represent the spectral sensitivity of B, respectively.
ステップS25において、ステップS24で算出されたUMG値が、所定の閾値である「0.95」以上であるか否かが判定され、「0.95」未満であると判定された場合、ステップS26に進み、作成された4色カラーフィルタが却下される(使用されない)。ステップS26において、4色カラーフィルタが却下された場合、その後、処理は終了される(図14のステップS2以降の処理は実行されない)。 In step S25, it is determined whether or not the UMG value calculated in step S24 is greater than or equal to a predetermined threshold value “0.95”. If it is determined that the UMG value is less than “0.95”, step S26 is performed. The created four-color filter is rejected (not used). If the four-color filter is rejected in step S26, then the process is terminated (the processes after step S2 in FIG. 14 are not executed).
一方、ステップS25において、ステップS24で算出されたUMG値が「0.95」以上であると判定された場合、ステップS27において、その4色カラーフィルタが、ディジタルカメラで使用される候補のフィルタとされる。 On the other hand, if it is determined in step S25 that the UMG value calculated in step S24 is “0.95” or more, in step S27, the four-color filter is used as a candidate filter used in the digital camera. Is done.
ステップS28において、ステップS27で候補のフィルタとされた4色カラーフィルタが、現存する材料、染料で実現可能であるか否かが判定される。材料、染料等が取得困難である場合、実現不可能であると判定され、ステップS26に進み、その4色カラーフィルタが却下される。 In step S28, it is determined whether or not the four-color filter selected as a candidate filter in step S27 can be realized with existing materials and dyes. If it is difficult to obtain materials, dyes, and the like, it is determined that the material cannot be realized, and the process proceeds to step S26 where the four-color filter is rejected.
一方、ステップS28において、材料、染料等が取得可能であり、実現可能であると判定された場合、ステップS29に進み、作成された4色カラーフィルタが、ディジタルカメラにおいて使用されるフィルタとして決定される。その後、図14のステップS2以降の処理が実行される。 On the other hand, if it is determined in step S28 that materials, dyes, and the like can be acquired and can be realized, the process proceeds to step S29, and the created four-color filter is determined as a filter used in the digital camera. The Thereafter, the processes after step S2 in FIG. 14 are executed.
図18は、ステップS29において決定された4色カラーフィルタの分光感度特性の例を示す図である。 FIG. 18 is a diagram illustrating an example of the spectral sensitivity characteristics of the four-color filter determined in step S29.
図18において、曲線L61はRの分光感度を表し、曲線L62はG1の分光感度を表している。また、曲線L63はG2の分光感度を表し、曲線L64はBの分光感度を表している。図18に示されるように、G2の分光感度曲線(曲線L63)は、G1の分光感度曲線(曲線L62)に対して相関が高い。また、Rの分光感度、G(G1,G2)の分光感度、およびBの分光感度は、それぞれ適度な範囲において重複している。なお、図18に示される特性は、図5に示される3色カラーフィルタの特性に対して、G2の特性が付加されたものである。 In FIG. 18, a curve L61 represents the spectral sensitivity of R, and a curve L62 represents the spectral sensitivity of G1. A curve L63 represents the spectral sensitivity of G2, and a curve L64 represents the spectral sensitivity of B. As shown in FIG. 18, the spectral sensitivity curve of G2 (curve L63) is highly correlated with the spectral sensitivity curve of G1 (curve L62). In addition, the spectral sensitivity of R, the spectral sensitivity of G (G1, G2), and the spectral sensitivity of B overlap each other in an appropriate range. The characteristic shown in FIG. 18 is obtained by adding the characteristic of G2 to the characteristic of the three-color filter shown in FIG.
以上のようにして決定された4色カラーフィルタを利用することにより、特に、「色再現性」のうちの「色の判別性」を改善させることができる。 By using the four-color filter determined as described above, it is possible to improve “color discrimination” among “color reproducibility”.
なお、光の利用効率の観点から、以上のように、現存するRGBフィルタのGフィルタと相関の高いフィルタを、追加するフィルタ(G2フィルタ)とすることが好ましい。この場合、追加するフィルタの分光感度曲線のピーク値は、経験的に495乃至535nmの範囲(現存するGフィルタの分光感度曲線のピーク値の近傍)にあることが望ましい。 From the viewpoint of light utilization efficiency, it is preferable to add a filter having a high correlation with the G filter of the existing RGB filter as an additional filter (G2 filter) as described above. In this case, it is desirable that the peak value of the spectral sensitivity curve of the added filter is empirically in the range of 495 to 535 nm (near the peak value of the spectral sensitivity curve of the existing G filter).
また、現存するGフィルタと相関の高いフィルタを追加する場合、図1の最小単位(R,G,G,B)を構成する2つのGフィルタのいずれか一方を追加色のフィルタにするだけで4色カラーフィルタを作成することができるため、作成の行程に大きな変更を加える必要がない。 In addition, when adding a filter having a high correlation with the existing G filter, only one of the two G filters constituting the minimum unit (R, G, G, B) in FIG. Since a four-color filter can be created, it is not necessary to make a major change in the creation process.
以上のようにして4色カラーフィルタが作成され、それがディジタルカメラに設けられた場合、図13の信号処理装置71には4種類の色信号が信号生成処理部94から供給されるため、リニアマトリクス処理部95において、4色(R,G1,G2,B)の信号から3色(R,G,B)の信号を生成する変換処理が行われる。この変換処理は、輝度リニアな(輝度値を線形的な変換により表すことができる)入力信号値に対するマトリクス処理であるため、以下、リニアマトリクス処理部95において行われる変換処理を、適宜、リニアマトリクス処理と称する。
When a four-color filter is created as described above and provided in a digital camera, four types of color signals are supplied from the signal
次に、図19のフローチャートを参照して、図14のステップS2において実行される、リニアマトリクス決定処理について説明する。 Next, the linear matrix determination process executed in step S2 of FIG. 14 will be described with reference to the flowchart of FIG.
なお、図19の処理において使用されるカラーターゲットはMacbeth Color Checkerとし、また、使用される4色カラーフィルタは図18に示される分光感度特性を有するものとする。 Note that the color target used in the processing of FIG. 19 is Macbeth Color Checker, and the four-color filter used has the spectral sensitivity characteristics shown in FIG.
ステップS41において、例えば、CIE(Commision Internationale del'Eclairange)において標準光源とされている一般的な昼光D65(照明光L(λ))が照明光として選択される。なお、照明光は、画像処理装置が頻繁に使用されることが予想される環境の照明光等に変更してもよい。また、想定される照明環境が複数ある場合、リニアマトリクスを複数用意することも考えられる。以下、照明光として昼光D65が選択された場合について説明する。 In step S41, for example, general daylight D65 (illumination light L (λ)), which is a standard light source in CIE (Commision Internationale del'Eclairange), is selected as illumination light. The illumination light may be changed to illumination light or the like in an environment where the image processing apparatus is expected to be frequently used. In addition, when there are a plurality of assumed lighting environments, it is conceivable to prepare a plurality of linear matrices. Hereinafter, a case where daylight D65 is selected as illumination light will be described.
ステップS42において、リファレンス値(参照値)Xr,Yr,Zrが算出される。具体的には、リファレンス値Xrは式(7−1)により算出され、Yrは式(7−2)により算出され、Zrは式(7−3)により算出される。 In step S42, reference values (reference values) Xr , Yr , Zr are calculated. Specifically, the reference value X r is calculated by the equation (7-1), Y r is calculated by the equation (7-2), Z r is calculated by the equation (7-3).
また、定数kは式(8)により算出される。 Further, the constant k is calculated by the equation (8).
次に、ステップS43において、4色カラーフィルタの出力値Rf,G1f,G2f,Bfが算出される。具体的には、Rfは式(9−1)により算出され、G1fは式(9−2)により算出され、G2fは式(9−3)により算出され、Bfは式(9−4)により算出される。 Next, in step S43, the output value R f of 4-color filter, G1 f, G2 f, B f is calculated. Specifically, R f is calculated by equation (9-1), G1 f is calculated by equation (9-2), G2 f is calculated by equation (9-3), and B f is calculated by equation (9). -4).
また、定数krは式(10−1)により算出され、定数kg1は式(10−2)により算出され、定数kg2は式(10−3)により算出され、定数kbは式(10−4)により算出される Also, the constant k r is calculated by the equation (10-1), the constant k g1 is calculated by the equation (10-2), the constant k g2 is calculated by the equation (10-3), the constant k b is the formula ( 10-4)
ステップS44において、ステップS43で算出されたフィルタ出力値を、ステップS42で算出されたリファレンス値(XYZref)に近似させる変換を行うマトリクスが、例えば、XYZ色空間における誤差最小二乗法により算出される。 In step S44, a matrix for performing conversion for approximating the filter output value calculated in step S43 to the reference value (XYZ ref ) calculated in step S42 is calculated by, for example, the error least square method in the XYZ color space. .
例えば、算出される、3×4のマトリクスを式(11)で表されるAとした場合、マトリクス変換(XYZexp)は、次の式(12)で表される。 For example, when the calculated 3 × 4 matrix is A represented by Expression (11), the matrix transformation (XYZ exp ) is represented by the following Expression (12).
また、リファレンス値に対するマトリクス変換(式(12))の誤差の2乗(E2)は、次の式(13)で表され、これに基づいてリファレンス値に対するマトリクス変換の誤差を最小にするマトリクスAが算出される。 Further, the square (E 2 ) of the error of the matrix conversion with respect to the reference value (expression (12)) is expressed by the following expression (13), and based on this, the matrix that minimizes the error of the matrix conversion with respect to the reference value. A is calculated.
また、誤差最小二乗法で使用する色空間を、XYZ色空間以外のものに変更するようにしてもよい。例えば、人間の知覚に対して均等なLab,Luv,Lch色空間(知覚均等色空間)に変換した後に同様の演算を行うことにより、知覚的な誤差の少ない色の再現を可能にするリニアマトリクスを算出することができる。なお、これらの色空間の値は、XYZ値から非線形な変換によって算出されるため、誤差最小二乗法においても非線形な計算アルゴリズムが使用される。 Further, the color space used in the error least square method may be changed to a color space other than the XYZ color space. For example, a linear matrix that enables reproduction of colors with little perceptual error by performing the same calculation after converting to Lab, Luv, Lch color space (perceptual uniform color space) equivalent to human perception Can be calculated. Since these color space values are calculated from the XYZ values by non-linear conversion, a non-linear calculation algorithm is also used in the least-squares error method.
上述したような演算により、例えば、図18の分光感度特性を有するフィルタに対するマトリクス係数として式(14)で表されるものが算出される。 By the calculation as described above, for example, the matrix coefficient for the filter having the spectral sensitivity characteristic shown in FIG. 18 is calculated by Expression (14).
ステップS45において、リニアマトリクスが決定される。例えば、作成される最終のRGB画像データが次の式(15)で表されるとした場合、リニアマトリクス(LinearM)は、以下のようにして算出される。 In step S45, a linear matrix is determined. For example, when the final RGB image data to be created is expressed by the following equation (15), the linear matrix (LinearM) is calculated as follows.
すなわち、照明光がD65である場合、sRGB色空間をXYZ色空間に変換する変換式はITU-R709.BTマトリクスを含む式(16)で表され、そのITU-R709.BTマトリクスの逆マトリクスにより式(17)が算出される。 That is, when the illumination light is D65, the conversion equation for converting the sRGB color space to the XYZ color space is expressed by equation (16) including the ITU-R709.BT matrix, and is expressed by the inverse matrix of the ITU-R709.BT matrix. Equation (17) is calculated.
式(12)のマトリクス変換式、式(15)および式(17)のITU-R709.BTマトリクスの逆マトリクスにより、式(18)が算出される。式(18)の右辺には、ITU-R709.BTマトリクスの逆マトリクスと、上述したマトリクスAを乗算した値としてのリニアマトリクスが含まれる。 Expression (18) is calculated from the matrix conversion expression of Expression (12) and the inverse matrix of the ITU-R709.BT matrix of Expression (15) and Expression (17). The right side of Equation (18) includes a linear matrix as a value obtained by multiplying the inverse matrix of the ITU-R709.BT matrix and the matrix A described above.
すなわち、3×4のリニアマトリクス(LinearM)は式(19−1)により表され、例えば、式(14)のマトリクス係数が用いられる、図18の分光分布特性を有する4色カラーフィルタに対するリニアマトリクスは、式(19−2)により表される。 That is, the 3 × 4 linear matrix (LinearM) is expressed by Expression (19-1). For example, the linear matrix for the four-color filter having the spectral distribution characteristics of FIG. 18 using the matrix coefficient of Expression (14) is used. Is represented by Formula (19-2).
以上のようにして算出されたリニアマトリクスが、図13のリニアマトリクス処理部95に与えられる。これにより、輝度を線形変換により表すことができる信号(R,G1,G2,B)に対してマトリクス処理を行うことができるので、図2に示される信号処理部11における処理のように、ガンマ処理を施した後に得られる信号に対してマトリクス処理を行う場合に較べて、色彩工学的に、より忠実な色を再現させることができる。
The linear matrix calculated as described above is given to the linear
次に、図14のステップS6において行われる評価について説明する。 Next, the evaluation performed in step S6 of FIG. 14 will be described.
以上のようにして作成された、例えば、図18の分光感度特性を有する4色カラーフィルタが設けられた画像処理装置(図8のディジタルカメラ)の色再現性と、図1に示される3色カラーフィルタが設けられる画像処理装置の色再現性を比較した場合、以下のような差が現れる。 For example, the color reproducibility of the image processing apparatus (digital camera in FIG. 8) provided with the four-color color filter having the spectral sensitivity characteristics shown in FIG. 18 and the three colors shown in FIG. When comparing the color reproducibility of image processing apparatuses provided with color filters, the following differences appear.
例えば、マクベスチャートを2種類の画像入力装置(4色カラーフィルタが設けられるディジタルカメラと、3色カラーフィルタが設けられるディジタルカメラ)で撮像したときの出力値とリファレンス値とのLab色空間における色差が次の式(20)によりそれぞれ算出される。 For example, the color difference in the Lab color space between the output value and the reference value when a Macbeth chart is imaged by two types of image input devices (a digital camera provided with a four-color filter and a digital camera provided with a three-color filter) Are calculated by the following equation (20).
図20は、式(20)による算出結果を示す図である。図20に示されるように、3色カラーフィルタが設けられるディジタルカメラの場合は色差が「3.32」であるのに対して、4色カラーフィルタが設けられるディジタルカメラの場合は「1.39」であり、「色の見え方」は4色カラーフィルタが設けられたディジタルカメラの方が優れている(色差が小さい)。 FIG. 20 is a diagram illustrating a calculation result according to the equation (20). As shown in FIG. 20, in the case of a digital camera provided with a three-color filter, the color difference is “3.32”, whereas in the case of a digital camera provided with a four-color filter, “1.39”. In terms of “color appearance”, a digital camera provided with a four-color filter is superior (color difference is small).
また、図21は、図6の分光反射率を有する物体R1と物体R2を、4色カラーフィルタが設けられたディジタルカメラにより撮影した場合のRGB値を示す図である。 FIG. 21 is a diagram showing RGB values when the object R1 and the object R2 having the spectral reflectance shown in FIG. 6 are photographed by a digital camera provided with a four-color filter.
図21においては、物体R1のR値が「49.4」、G値が「64.1」、B値が「149.5」とされ、物体R2のR値が「66.0」、G値が「63.7」、B値が「155.6」とされている。従って、上述したように、3色カラーフィルタで撮影した場合、そのRGB値は図7Bに示されるものとなり、それぞれの物体の色が識別されていないのに対して、4色カラーフィルタにおいては、物体R1と物体R2のRGB値はそれぞれ異なる値となり、眼で見た場合(図7A)と同様に、それぞれの物体の色が識別されていることが図21により表されている。すなわち、4種類の色を識別できるフィルタを設けることにより、「色の判別性」が改善されている。 In FIG. 21, the R value of the object R1 is “49.4”, the G value is “64.1”, the B value is “149.5”, the R value of the object R2 is “66.0”, G The value is “63.7” and the B value is “155.6”. Therefore, as described above, when the image is taken with the three-color filter, the RGB value is as shown in FIG. 7B, and the color of each object is not identified. The RGB values of the object R1 and the object R2 are different from each other, and FIG. 21 shows that the colors of the respective objects are identified as in the case of viewing with the eyes (FIG. 7A). That is, “color discrimination” is improved by providing a filter that can identify four types of colors.
以上においては、4色カラーフィルタ61は、図9に示されるように、G1フィルタの左右にBフィルタが設けられるとともに、G2フィルタの左右にRフィルタが設けられるような配列により構成されるとしたが、図22に示されるような配列により構成されるようにしてもよい。図22に示される4色カラーフィルタ61においては、G1フィルタの左右にRフィルタが設けられるとともに、G2フィルタの左右にBフィルタが設けられている。4色カラーフィルタ61をこのように構成することによっても、図9に示されるものと同様に、「色の判別性」、「色の再現性」および「ノイズの低減性」を向上させることができる。 In the above, as shown in FIG. 9, the four-color filter 61 is configured by an arrangement in which B filters are provided on the left and right sides of the G1 filter and R filters are provided on the left and right sides of the G2 filter. However, it may be configured by an arrangement as shown in FIG. In the four-color filter 61 shown in FIG. 22, R filters are provided on the left and right sides of the G1 filter, and B filters are provided on the left and right sides of the G2 filter. By configuring the four-color filter 61 in this way, “color discriminability”, “color reproducibility”, and “noise reduction” can be improved as in the case shown in FIG. it can.
45 画像センサ, 61 4色カラーフィルタ, 71 信号処理部, 94 信号生成処理部, 95 リニアマトリクス処理部 45 image sensor, 61 four-color filter, 71 signal processing unit, 94 signal generation processing unit, 95 linear matrix processing unit
Claims (6)
前記抽出手段により抽出された色の成分の光を、対応する色信号に変換する変換手段と
を備える画像処理装置の製造方法において、
前記変換手段を用意する第1のステップと、
前記抽出手段として、3原色の第1乃至第3の光、および前記3原色の前記第1乃至第3の光のうちの前記第2の光と高い相関を有する第4の光をそれぞれ抽出する第1乃至第4の抽出部で構成される単位を有し、前記第2の抽出部と前記第4の抽出部は、輝度信号の視感度特性に近似する分光感度特性を有するとともに前記単位において対角に位置する抽出手段を、前記第1のステップの処理により用意された前記変換手段の前面に生成する第2のステップと
を含むことを特徴とする製造方法。 Extraction means for extracting a component of a predetermined color from incident light;
In a method for manufacturing an image processing apparatus, comprising: conversion means for converting light of a color component extracted by the extraction means into a corresponding color signal;
A first step of preparing the conversion means;
As the extraction means, first to third light of three primary colors and fourth light having high correlation with the second light of the first to third lights of the three primary colors are extracted. The second extraction unit and the fourth extraction unit each have a spectral sensitivity characteristic that approximates a visibility characteristic of a luminance signal, and each unit includes first to fourth extraction units. And a second step of generating an extraction means located diagonally on the front surface of the conversion means prepared by the processing of the first step.
ことを特徴とする請求項1に記載の製造方法。 The manufacturing method according to claim 1, wherein the second step determines a spectral sensitivity characteristic of the extraction unit using a predetermined evaluation coefficient.
ことを特徴とする請求項2に記載の製造方法。 The manufacturing method according to claim 2, wherein the evaluation coefficient is an evaluation coefficient in consideration of noise reducibility as well as color reproducibility.
ことを特徴とする請求項1に記載の製造方法。 The second step is characterized in that the first to third lights of the three primary colors are red, green, or blue light, and the fourth light is green light. The manufacturing method as described in.
をさらに含むことを特徴とする請求項1に記載の製造方法。 Generation means for generating fifth to seventh color signals corresponding to the three primary colors based on the first to fourth color signals generated by converting the first to fourth lights by the conversion means. The manufacturing method according to claim 1, further comprising a third step of generating
ことを特徴とする請求項5に記載の製造方法。 The third step minimizes a difference in a predetermined evaluation value between a reference value calculated based on a predetermined color patch and an output value calculated based on the spectral sensitivity characteristic of the extraction unit based on the color patch. 6. The manufacturing method according to claim 5, wherein the generation means is generated so as to generate the fifth to seventh color signals based on a conversion formula given as:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005130155A JP2005278213A (en) | 2005-04-27 | 2005-04-27 | Production method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005130155A JP2005278213A (en) | 2005-04-27 | 2005-04-27 | Production method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002078854A Division JP2003284084A (en) | 2002-03-20 | 2002-03-20 | Image processing apparatus and method, and manufacturing method of image processing apparatus |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006300837A Division JP2007097202A (en) | 2006-11-06 | 2006-11-06 | Image processing apparatus |
JP2007127277A Division JP2007267404A (en) | 2007-05-11 | 2007-05-11 | Manufacturing method of image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005278213A true JP2005278213A (en) | 2005-10-06 |
Family
ID=35177303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005130155A Pending JP2005278213A (en) | 2005-04-27 | 2005-04-27 | Production method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005278213A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7851789B2 (en) | 2007-12-07 | 2010-12-14 | Cheil Industries Inc. | Photosensitive resin composition for pad protective layer, and method for making image sensor using the same |
US8158036B2 (en) | 2007-11-30 | 2012-04-17 | Cheil Industries Inc. | Photosensitive resin composition for color filter and color filter using same |
US8263675B2 (en) | 2007-09-04 | 2012-09-11 | Cheil Industries Inc. | Photosensitive resin composition for color filter and color filter made using the same |
US8487030B2 (en) | 2009-07-09 | 2013-07-16 | Cheil Industries Inc. | Organic-inorganic hybrid composition and image sensor |
US8502334B2 (en) | 2009-04-09 | 2013-08-06 | Cheil Industries Inc. | Image sensor and method for manufacturing the same |
-
2005
- 2005-04-27 JP JP2005130155A patent/JP2005278213A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8263675B2 (en) | 2007-09-04 | 2012-09-11 | Cheil Industries Inc. | Photosensitive resin composition for color filter and color filter made using the same |
US8158036B2 (en) | 2007-11-30 | 2012-04-17 | Cheil Industries Inc. | Photosensitive resin composition for color filter and color filter using same |
US7851789B2 (en) | 2007-12-07 | 2010-12-14 | Cheil Industries Inc. | Photosensitive resin composition for pad protective layer, and method for making image sensor using the same |
US8502334B2 (en) | 2009-04-09 | 2013-08-06 | Cheil Industries Inc. | Image sensor and method for manufacturing the same |
US8487030B2 (en) | 2009-07-09 | 2013-07-16 | Cheil Industries Inc. | Organic-inorganic hybrid composition and image sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3861808B2 (en) | Imaging device | |
EP1487219A1 (en) | Image processing device, image processing method, and image processing device manufacturing method | |
JP4265546B2 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
US8803994B2 (en) | Adaptive spatial sampling using an imaging assembly having a tunable spectral response | |
WO2010053029A1 (en) | Image inputting apparatus | |
US20070153099A1 (en) | Image signal processing apparatus, imaging apparatus, image signal processing method and computer program thereof | |
EP1432237A2 (en) | Image processing device, electronic camera, and image processing program | |
JP4874752B2 (en) | Digital camera | |
JP2009105576A (en) | Image processing apparatus and method, and image sensing apparatus | |
EP1343331A2 (en) | Apparatus and method for accurate electronic color image capture and reproduction | |
US7409082B2 (en) | Method, apparatus, and recording medium for processing image data to obtain color-balance adjusted image data based on white-balance adjusted image data | |
US7583303B2 (en) | Imaging device element | |
JP2005278213A (en) | Production method | |
WO2007148576A1 (en) | Imaging system and imaging program | |
JP2002271804A (en) | Color image pickup device | |
JP4285587B2 (en) | Image sensor | |
JP4767525B2 (en) | Imaging system and imaging processing program | |
JP2007097202A (en) | Image processing apparatus | |
JP2007267404A (en) | Manufacturing method of image processing apparatus | |
JP4298595B2 (en) | Imaging apparatus and signal processing method thereof | |
JP2001189941A (en) | Solid-state image pickup device and optical filter | |
JP2005323141A (en) | Imaging camera, camera and method for processing signal | |
JP4240257B2 (en) | Electronic camera | |
KR20050006424A (en) | Color signal processing method and photographing apparatus of using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060904 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070312 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070724 |