JP2008526062A - Image sensor with totally separate color zones - Google Patents
Image sensor with totally separate color zones Download PDFInfo
- Publication number
- JP2008526062A JP2008526062A JP2007547434A JP2007547434A JP2008526062A JP 2008526062 A JP2008526062 A JP 2008526062A JP 2007547434 A JP2007547434 A JP 2007547434A JP 2007547434 A JP2007547434 A JP 2007547434A JP 2008526062 A JP2008526062 A JP 2008526062A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- image
- matrices
- optical
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011159 matrix material Substances 0.000 claims abstract description 135
- 230000003287 optical effect Effects 0.000 claims abstract description 100
- 239000003086 colorant Substances 0.000 claims abstract description 13
- 239000004065 semiconductor Substances 0.000 claims abstract description 3
- 239000012634 fragment Substances 0.000 claims description 2
- 238000000926 separation method Methods 0.000 claims 1
- 238000004519 manufacturing process Methods 0.000 abstract description 10
- 238000000429 assembly Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 10
- 235000012431 wafers Nutrition 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 8
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 7
- 229910052710 silicon Inorganic materials 0.000 description 7
- 239000010703 silicon Substances 0.000 description 7
- 238000004737 colorimetric analysis Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012546 transfer Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 239000000758 substrate Substances 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000519995 Stachys sylvatica Species 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000010923 batch production Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005530 etching Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H01L27/14618—
-
- H01L27/14601—
-
- H01L27/14627—
-
- H01L27/1464—
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2924/00—Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
- H01L2924/0001—Technical content checked by a classifier
- H01L2924/0002—Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00
Landscapes
- Color Television Image Signal Generators (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Solid State Image Pick-Up Elements (AREA)
Abstract
本発明は電子カラーイメージセンサー、特に小型の撮影装置又はカメラ(携帯電話等に組み込み可能な)を製作するための非常に小型のセンサーに関する。このセンサーは観測対象のシーンの画像を一連の感光領域に投影するための光学系を備えており、この一連の感光領域は該光学系と一体化した同じ1つのモノリシック半導体チップ上に製造されている。光学系は複数の光学的サブアセンブリ(L1、L2、L3、L4)を備え、一連の感光領域は個別に読み取り可能な少なくとも2つのマトリックス(M1、M2、M3、M4)に分割され、各光学的サブアセンブリは観測対象のシーン全体を各々のマトリックスに投影するように設計され、種々のマトリックスの上方には単一色の光を各マトリックスへ通すために色の異なる2つの均一フィルタ(F1、F2、F3、F4)がそれぞれ配置される。 The present invention relates to an electronic color image sensor, and more particularly to a very small sensor for manufacturing a small photographing device or camera (which can be incorporated into a mobile phone or the like). This sensor has an optical system for projecting an image of a scene to be observed onto a series of photosensitive areas, which are manufactured on the same monolithic semiconductor chip integrated with the optical system. Yes. The optical system comprises a plurality of optical subassemblies (L1, L2, L3, L4), and the series of photosensitive areas is divided into at least two matrices (M1, M2, M3, M4) that can be individually read, The sub-assemblies are designed to project the entire scene to be observed onto each matrix, and above the various matrices are two uniform filters (F1, F2 of different colors) for passing a single color of light through each matrix. , F3, F4) are arranged respectively.
Description
本発明は電子カラーイメージセンサー、特に小型の撮影装置又はカメラ(携帯電話等に組み込み可能な)を製作するための非常に小型なセンサーに関する。 The present invention relates to an electronic color image sensor, and more particularly to a very small sensor for manufacturing a small photographing device or camera (which can be incorporated into a mobile phone or the like).
ますます高まっている分解能、測色品質、及びコンパクト性の要件を満たしながら、可能な限り安価なプロセスでカメラ全体を製造することが望ましい。 It would be desirable to produce the entire camera in a process that is as inexpensive as possible while meeting the increasing resolution, colorimetric quality, and compactness requirements.
カラーイメージセンサーは以下の方法で製造することができる。つまり、シリコンウェーハの表面は、マスキング、不純物注入、様々な組成物の一時的又は最終的な層の堆積、これらの層のエッチング、熱処理等、多くの工程を通される。これらの工程を使用して、感光点のマトリックスを形成するとともに、これらの感光点に関連付けられた電気信号を処理するための回路を形成する。次にシリコンウェーハの表面に色フィルタ層を堆積し、これらを個別にエッチングしてマトリックスパターンを形成する。マトリックスは、行と列に配列されたセンサーの画素ごとに、色の異なる3つ又は好ましくは4つのカラーフィルタのグループを含む。各々の感光領域の上方には、単一色の光を受光する基本フィルタが位置している。互いに隣接し合っている感光点の上方に位置する隣接し合うフィルタはそれぞれ異なる色を有する。よって、各画素は、画素を形成する4つの隣接し合う感光領域の上方に原則的に4つのカラーフィルタ(一般に緑色が2つ、赤色と青色が1つずつ)を備えている。 The color image sensor can be manufactured by the following method. That is, the surface of the silicon wafer is subjected to a number of steps such as masking, impurity implantation, temporary or final layer deposition of various compositions, etching of these layers, heat treatment, and the like. These steps are used to form a matrix of photosensitive spots and a circuit for processing the electrical signals associated with these photosensitive spots. Next, a color filter layer is deposited on the surface of the silicon wafer, and these are individually etched to form a matrix pattern. The matrix includes groups of three or preferably four color filters of different colors for each pixel of the sensor arranged in rows and columns. Above each photosensitive area, a basic filter that receives light of a single color is located. Adjacent filters located above adjacent photosensitive spots have different colors. Thus, each pixel is essentially provided with four color filters (generally two green and one red and blue) above four adjacent photosensitive areas that form the pixel.
解像度が高いと、隣り合う領域の接近度が非常に大きく、かなりの光学的クロストークが発生する危険性がある。この理由として、ある感光領域に向けられた光の一部がその隣りの領域に突き当たる、又は感光領域内で光生成された電子の一部がその隣りの領域によって実際に捕捉されることが挙げられる。この結果、当然ながら、空間分解能がある程度失われ、空間周波数の高い画像シーンに主に影響を及ぼす。ただし、測色に関して言えば、特にこのような隣り合う領域間の光学的クロストーク現象は、重大であることが分かる。つまり、低い空間周波数しか持たない画像領域(例えば均等な赤色の画像領域)であっても影響を受ける可能性がある(赤色以外の色に対応する近くの画素が、それらの画素に向けられたものではない電子を系統的に検出するので、赤色は系統的に劣化する)。均等な赤色領域によって作成された電子画像はもはや赤色ではなく、緑色と青色の成分を含む。 When the resolution is high, the proximity of adjacent areas is very large, and there is a risk that considerable optical crosstalk occurs. The reason for this is that a part of the light directed to a certain photosensitive area hits the adjacent area, or a part of the electrons photogenerated in the photosensitive area is actually captured by the adjacent area. It is done. As a result, of course, the spatial resolution is lost to some extent, which mainly affects image scenes with a high spatial frequency. However, in terms of color measurement, it can be seen that such an optical crosstalk phenomenon between adjacent regions is particularly serious. In other words, even image areas that have only a low spatial frequency (for example, a uniform red image area) may be affected (closer pixels corresponding to colors other than red were directed to those pixels. Since red electrons are systematically detected, the red color systematically deteriorates). The electronic image created by the uniform red area is no longer red but contains green and blue components.
この光学的クロストークは、測色の劣化を生じさせるものであり、特にCMOS技術において発生しやすい。その理由は、CMOS技術の場合、カラーフィルタと感光領域との間に位置する層が高いと(数ミクロン)、クロストークが発生するからである。 This optical crosstalk causes colorimetric degradation and is particularly likely to occur in CMOS technology. This is because in the case of CMOS technology, if the layer located between the color filter and the photosensitive region is high (several microns), crosstalk occurs.
カラーイメージセンサーには他にも測色の問題が存在し、特にモアレの問題が挙げられる。この問題は第1の色の輝度値を、第1の色に対応しない画素で、第1の色の2つの画素の間に位置している画素に与えるために実行される補間処理の結果として発生する。 There are other color measurement problems in color image sensors, especially the moire problem. This problem is the result of the interpolation process performed to give the luminance value of the first color to a pixel that does not correspond to the first color and is located between the two pixels of the first color. appear.
薄基板を有することで測色品質劣化の問題を減少させる構造が特許FR−A−2 829 289号明細書にてすでに提案されている。 Patent FR-A-2 829 289 has already proposed a structure that reduces the problem of colorimetric quality degradation by having a thin substrate.
本発明の目的は、測色を改善する別の方法を提供することにある。この方法は、従来の構造と薄基板構造の両方に適用可能であり、使用されている技術の如何を問わず(CMOSであろうとなかろうと)適用可能である。 It is an object of the present invention to provide another method for improving colorimetry. This method is applicable to both conventional structures and thin substrate structures, and is applicable regardless of the technology used (whether CMOS or not).
本発明の主題はカラーイメージセンサーであり、該イメージセンサは観測対象のシーンの画像を一連の感光領域に投影するための光学系を有し、該光学系と一体化した同じ1つのモノリシック半導体チップ上に一連の感光領域が製造されているイメージセンサーであり、一連の感光領域は個別に読み取り可能な少なくとも2つのマトリックスに分割され、光学系は複数の光学的サブアセンブリを備え、各光学的サブアセンブリが観測対象のシーン全体を各々のマトリックスに投影するように設計され、単一色の各マトリックス光を通すために色の異なる2つの均一フィルタが配置され、そのうちの1つは第1のマトリックス上方に、もう1つは第2のマトリックス上方にそれぞれ配置されることを特徴とする。 The subject of the present invention is a color image sensor, the image sensor having an optical system for projecting an image of a scene to be observed onto a series of photosensitive areas, and the same monolithic semiconductor chip integrated with the optical system An image sensor having a series of photosensitive areas fabricated thereon, the series of photosensitive areas being divided into at least two matrices that are individually readable, the optical system comprising a plurality of optical subassemblies, The assembly is designed to project the entire scene to be observed onto each matrix, and two uniform filters of different colors are placed to pass a single color of each matrix light, one of which is above the first matrix The other one is characterized in that it is arranged above the second matrix.
これにより、センサーの隣接し合う画素が異なる色のフィルタで覆われるのではなく、全マトリックスの各々が隣接するマトリックス用のフィルタとは異なる均等色のフィルタによって覆われる。 Thus, adjacent pixels of the sensor are not covered with different color filters, but each of the entire matrix is covered with a uniform color filter different from the adjacent matrix filter.
今日、非常に短い焦点距離を有する光学系であり、一辺あたり数ミリメートルの寸法を有し数十万個の画素から成るマトリックスにシーンの焦点画像を投影可能な光学系を製造することは公知である。これらの光学系は、センサーの一括製造中に作られセンサーに組み込まれる。つまり、シリコンウェーハ上でセンサーが集合的に作られてから、ウェーハが個々のセンサーに分割される。結果として、互いに高い精度で位置決めされた多数の光学的サブアセンブリを含むプレートを集合的に製造すること、種々のセンサーを載せたシリコンウェーハを集合的に製造し、そのマトリックスを光学的サブアセンブリの場合と同様に高い精度で位置決めすることが可能である。光学的サブアセンブリとそれぞれの感光マトリックスが向かい合うように、プレートとウェーハを並置させることができる。次にウェーハ/プレートアセンブリは個々のセンサーに分割される。各センサーは複数の光学的サブアセンブリと複数のマトリックスとを有し、観測対象のシーンの完全な画像を、マトリックスごとに均等色で受け取ることができる。 Today, it is known to produce an optical system that has a very short focal length and can project a focused image of a scene onto a matrix of hundreds of thousands of pixels with dimensions of a few millimeters per side. is there. These optical systems are created and integrated into the sensor during the batch production of the sensor. That is, the sensors are collectively made on the silicon wafer, and then the wafer is divided into individual sensors. As a result, it is possible to collectively manufacture a plate including a large number of optical subassemblies that are positioned with high accuracy relative to each other, to collectively manufacture silicon wafers with various sensors, and to form a matrix of the optical subassemblies. As with the case, positioning with high accuracy is possible. The plate and wafer can be juxtaposed so that the optical subassembly and the respective photosensitive matrix face each other. The wafer / plate assembly is then divided into individual sensors. Each sensor has a plurality of optical subassemblies and a plurality of matrices so that a complete image of the observed scene can be received in a uniform color for each matrix.
実際には、4つのマトリックスが使用されている。この4つのマトリックスは、マトリックスの形状が正方形である場合には正方形に配置され、マトリックスの形状が矩形である場合には矩形に配置される。正方形又は矩形の対角線に沿って配置された2つのマトリックスは緑色フィルタと関連付けられ、他方の対角線に沿って配置された残り2つのマトリックスは、そのうちの1つが赤色フィルタと、もう1つが青色フィルタと関連付けられる。 In practice, four matrices are used. The four matrices are arranged in a square shape when the matrix shape is square, and are arranged in a rectangular shape when the matrix shape is rectangular. The two matrices arranged along the square or rectangular diagonal are associated with the green filter, and the other two matrices arranged along the other diagonal are one of which is a red filter and the other is a blue filter. Associated.
同一のセンサーチップの種々のマトリックスから出力された信号は結合され、画像全体をそれが持つ様々な色で表現する。結合工程は、同一マトリックスの複数の隣接する感光領域によって受光された輝度値ではなく、異なるマトリックス内に位置する複数の(4箇所の)領域及び該種々のマトリックス内の同じ相対位置内に位置する複数の(4箇所の)領域によって受光された輝度値を、電子カラーイメージの同じ1つの点(複数の色成分を含む点)に割り当てることを含むだけである。相対位置は、位置決めの不完全性を考慮したものである。つまり、光学的サブアセンブリの中心とこれに対応するマトリックスの中心との間にはシフトが存在する可能性があり、このシフトは各種光学的サブアセンブリによって異なると考えられる。 Signals output from various matrices of the same sensor chip are combined to represent the entire image in the various colors it has. The combining step is not in the luminance values received by a plurality of adjacent photosensitive regions in the same matrix, but in a plurality of (four locations) located in different matrices and in the same relative position in the various matrices. It only involves assigning the luminance values received by multiple (four) regions to the same point (a point containing multiple color components) in the electronic color image. The relative position considers imperfect positioning. That is, there may be a shift between the center of the optical subassembly and the corresponding center of the matrix, and this shift is believed to be different for the various optical subassemblies.
本発明によれば、従来技術で発生した測色に関する問題を、少なくとも部分的に特定のケースにおいて、解決することができる。これは、隣接する感光領域間で生じたクロストークが、同じ色の画素間にのみ及ぼされるようになったことによる。従来技術のように、このクロストークは、必然的な解像度の低下により明らかになるが、これは避けられず、必然的に測色の劣化が生じる。 According to the present invention, the problem relating to colorimetry generated in the prior art can be solved at least partially in a specific case. This is because the crosstalk generated between adjacent photosensitive regions is applied only between pixels of the same color. As in the prior art, this crosstalk is manifested by an inevitable reduction in resolution, but this is unavoidable and inevitably results in a colorimetric deterioration.
この解決策では、理論上、観測対象の画像が各種のマトリックス上に全く同様に投影されること、つまり、観測対象のシーンのいかなる像点であっても4つのマトリックス上の同じ相対位置に投影されることを想定している。ただし、光学的アセンブリの精度が相対位置のこの同一性を保証するのに十分でない場合は、電子的な修正手段を見つけてこれらの位置誤差を少なくとも部分的に補償できることが後で理解できよう。 In this solution, the image to be observed is theoretically projected onto the various matrices in the same way, that is, any image point of the scene to be observed is projected at the same relative position on the four matrices. It is assumed that However, it will be understood later that if the accuracy of the optical assembly is not sufficient to guarantee this identity of the relative position, electronic correction means can be found to at least partially compensate for these position errors.
特に、マトリックスが観測対象のシーンの画像よりも大きいことが好ましい。このような方法において、光学的サブアセンブリとマトリックスとの間の相対的な位置決め不良に起因して観測対象のシーン内の中心点が4つのマトリックスの中心に厳密に投影されない場合、位置決め誤差をキャリブレーションしてから各種のマトリックスによって出力された信号を観測された誤差に応じて電子的にシフトさせることを、画像の断片を失わずに行うことができる。該画像の中心がこれらのマトリックスの中心に厳密に位置しなくなっても、観測対象のシーンの画像全体は4つのマトリックス上に投影されたままとなる。 In particular, the matrix is preferably larger than the image of the scene to be observed. In such a method, positioning errors are calibrated if the center point in the observed scene is not exactly projected to the center of the four matrices due to the relative misalignment between the optical subassembly and the matrix. It is possible to electronically shift the signals output by the various matrices after the correction according to the observed error without losing image fragments. Even if the center of the image is not exactly located at the center of these matrices, the entire image of the scene to be observed remains projected on the four matrices.
オブジェクトからセンサーまでの距離が2つの光学的サブアセンブリの中心の間隔よりも非常に大きい場合に限り、並列に配置された2つの光学的サブアセンブリから並列に配置された同一の2つのマトリックスへのオブジェクトの画像の投影は、この2つのマトリックスに対して同様に中心におかれることに留意されたい。オブジェクトが非無限遠距離に位置している場合、2つのマトリックスに投影される画像同士は、オブジェクトが近くなるほど、遠ざかる傾向にある。シフトはオブジェクトの距離の関数(光学的サブアセンブリの所定の間隔に対する)として算出することができ、このシフトを考慮に入れることで、各種のマトリックスによって提供された画像をポイントツーポイント対応状態にすることができる。近接する2つのマトリックスにおける画像間の相対シフトは、対応する光学的サブアセンブリ同士の間隔に比例し、オブジェクトの距離に反比例する。 Only if the distance from the object to the sensor is much greater than the distance between the centers of the two optical subassemblies, the two optical subassemblies arranged in parallel to the same two matrices arranged in parallel Note that the projection of the image of the object is similarly centered on the two matrices. When the object is located at a non-infinity distance, the images projected on the two matrices tend to move away as the object is closer. The shift can be calculated as a function of the distance of the object (for a given distance of the optical subassembly), and taking this shift into account makes the images provided by the various matrices point-to-point enabled. be able to. The relative shift between images in two adjacent matrices is proportional to the spacing between the corresponding optical subassemblies and inversely proportional to the distance of the object.
本発明の重要な特徴によれば、センサーが緑色に対して2つのマトリックス、赤色に対して1つのマトリックス、青色に対して1つのマトリックスを備えている場合、このシフトを算出することができる。この場合、比較的近く(例えば、マトリックスの焦点距離のN倍未満の距離、ここでNはマトリックスに投影される画像のラインの画素数)に位置するオブジェクトの画像を取ることが求められている場合、緑色のマトリックスに対応する2つの光学的サブアセンブリは、赤色及び青色マトリックスと関連付けられえたサブアセンブリを隔てている距離と同じ距離だけ離されているという事実が使用される。この目的は、2つの緑色マトリックスの画像がどのくらいのシフトによって最適に重ね合わせられるかを画像相関アルゴリズムによって求めることであり、これにより、4つのマトリックスの画素間で画像対応を確立するために緑色、青色、及び赤色の種々のマトリックスに対して適用しなければならないシフトが推定される。 According to an important feature of the present invention, this shift can be calculated if the sensor comprises two matrices for green, one matrix for red and one matrix for blue. In this case, it is required to take an image of an object located relatively close (for example, a distance less than N times the focal length of the matrix, where N is the number of pixels in the line of the image projected onto the matrix). In some cases, the fact is used that the two optical subassemblies corresponding to the green matrix are separated by the same distance separating the subassemblies associated with the red and blue matrices. The goal is to determine how much the two green matrix images are optimally superimposed by the image correlation algorithm, so that to establish an image correspondence between the four matrix pixels, The shifts that must be applied to the various matrices of blue and red are estimated.
本発明の他の特徴によれば、測色を向上させるために、緑色マトリックスを2つ、赤色マトリックスを1つ、及び青色マトリックスを1つ使用するのでなく、4つのマトリックスが色の異なる4つのフィルタ(特に、赤色、緑色、青色、シアン色フィルタ)によってそれぞれ覆われるように設定してもよい。 According to another aspect of the invention, instead of using two green matrices, one red matrix, and one blue matrix to improve colorimetry, the four matrices have four different colors. You may set so that it may each be covered with a filter (especially red, green, blue, cyan filter).
本発明のその他の特徴及び利点は、添付の図面を参照しながら以下に詳細に説明した内容を読めば明らかになるであろう。 Other features and advantages of the present invention will become apparent upon reading the following detailed description with reference to the accompanying drawings.
図1は、CMOS技術によるカラーイメージセンサーの感光マトリックスの画素の一般的な配置例を示した平面図である。少数の画素しか図示されていないが、マトリックスは数十万個の画素(例えば120万個の画素)で構成できることを理解されたい。これらの画素の感光領域は、この例の場合、ほぼ八角形の形状をなしている。画素は一般的に水平方向及び垂直方向の導通ライン(図示せず)によって制御される。これらの導通ラインは完全な直線ではなく、八角形の輪郭に追従している。 FIG. 1 is a plan view showing a general arrangement example of pixels of a photosensitive matrix of a color image sensor based on CMOS technology. Although only a small number of pixels are shown, it should be understood that the matrix can be comprised of hundreds of thousands of pixels (eg, 1.2 million pixels). In this example, the photosensitive area of these pixels has an approximately octagonal shape. Pixels are generally controlled by horizontal and vertical conduction lines (not shown). These conduction lines are not perfect straight lines, but follow an octagonal outline.
図1はまた色の編成を示す。画素に関連付けられた文字Rは該当する画素が赤色(R)のフィルタ、文字Gは該当する画素が緑色(G)のフィルタ、文字Bは該当する画素が青色(B)のフィルタで個別に覆われていることを示す。隣接する画素は色が交互になるように並び、赤色画素及び青色画素の2倍の数の緑色画素が存在する。 FIG. 1 also shows the color organization. The letter R associated with the pixel is individually covered with a red (R) filter, the letter G is covered with a green (G) filter, and the letter B is covered with a blue (B) filter. Indicates that Adjacent pixels are arranged so that colors are alternated, and there are twice as many green pixels as red pixels and blue pixels.
図2は、カラーイメージセンサー(ここでは薄膜シリコンセンサー)がどのように製造されているかを図1より小さな縮尺で概略的に示した断面図であり、カラーイメージセンサーは、以下の要素で構成されている。
− 電気的接続部12を有するベース10。
− 非常に薄いシリコン基板20(厚さは約10ミクロン程度)内に形成された感光領域のマトリックス。
− 図1に示すように、隣接する画素が、交互に異なる色R、G、Bのフィルタによって覆われたカラーフィルタマトリックス層30。
− 観測対象のシーンの画像全体を感光マトリックスに投影できる(カラーフィルタを介して)視像形成システム40。光学系は1つ又は複数の透明プレートにより構成される。これらの透明プレートを使用して、互いに積み重ねられた1つ又は複数のガラス又は透明のプラスチックレンズを形成する(ここでは、単一のレンズLが図示されているだけである)。観測されたシーンの画像の焦点をマトリックスの表面に合わせるために、感光マトリックス上方の高さ方向に光学系を極めて正確に位置決めする必要がある。この正確な位置決めを保証するために適切な厚さに形成された透明分離層35が図2に示されている。
FIG. 2 is a cross-sectional view schematically showing how a color image sensor (here, a thin film silicon sensor) is manufactured at a smaller scale than FIG. 1, and the color image sensor includes the following elements. ing.
A base 10 with an
A matrix of photosensitive areas formed in a very thin silicon substrate 20 (thickness is about 10 microns).
A color
A visual
図3は本発明に係るセンサーの断面図であり、図4はこのセンサーの平面図である。 FIG. 3 is a sectional view of a sensor according to the present invention, and FIG. 4 is a plan view of the sensor.
感光点のマトリックスは、同じ1つの集積回路チップ上で複数のマトリックスに分けて形成されており、光学系も同数の光学的サブアセンブリに分割されている。各光学的サブアセンブリは、観測対象のシーン全体の完全な視像を各々のマトリックスに投影する。各マトリックスは、均等色の単一フィルタによって覆われている。 The matrix of photosensitive spots is divided into a plurality of matrices on the same integrated circuit chip, and the optical system is also divided into the same number of optical subassemblies. Each optical subassembly projects a complete view of the entire scene to be observed onto each matrix. Each matrix is covered by a single filter of uniform color.
好適な実施形態では、4つのマトリックスが正方形又は矩形の形式で並べられている(それぞれ2つのマトリックスの2つの行)。これらの4つのマトリックスは、M1、M2、M3、M4で表され、フィルタF1、F2、F3、F4及び光学的サブアセンブリL1、L2、L3、L4(レンズとして描かれている)によってそれぞれ覆われている。マトリックスM1とM4は対角線上に対向し、マトリックスM2とM3も同様の位置関係にある。対角線上で向かい合ったマトリックスのうちのフィルタF1とF4の2つ(ここではM1とM4)は緑色であることが好ましい。残りの2つのマトリックスのフィルタは、それぞれ赤色(マトリックスM2上のF2)と青色(マトリックスM3上のF3)となる。図3には、フィルタF1とF2、光学的サブアセンブリL1とL2、マトリックスM1とM2しか示されていない。 In a preferred embodiment, four matrices are arranged in a square or rectangular format (two rows of two matrices each). These four matrices are represented by M1, M2, M3, M4 and are covered by filters F1, F2, F3, F4 and optical subassemblies L1, L2, L3, L4 (drawn as lenses), respectively. ing. The matrices M1 and M4 are opposed diagonally, and the matrices M2 and M3 are in the same positional relationship. Two of the filters F1 and F4 (here M1 and M4) in the diagonally opposite matrix are preferably green. The remaining two matrix filters are red (F2 on matrix M2) and blue (F3 on matrix M3), respectively. In FIG. 3, only filters F1 and F2, optical subassemblies L1 and L2, and matrices M1 and M2 are shown.
光学的サブアセンブリは実質的に同じ可視シーンを各々のマトリックスに投影する(後で示すように、マトリックスは互いに横にオフセットされるので、シフトの範囲は小さい)。 The optical subassemblies project substantially the same visible scene onto each matrix (as will be shown later, since the matrices are offset laterally from each other, the shift range is small).
マトリックスは正方形のマトリックスとして示されているが、矩形フォーマットで写真を撮るのであればマトリックスを矩形とすることが可能である。 Although the matrix is shown as a square matrix, the matrix can be rectangular if the photograph is taken in a rectangular format.
マイクロマシン及びマイクロアセンブリ技術による高精度の製品製造では、該当する光学的サブアセンブリは同一のものであり、同じ焦点距離を有し、4つの感光マトリックスの共通平面からの距離について見ると正確且つ等しく位置決めされているとみなすことはできる。 In high-precision product manufacturing with micromachine and microassembly technology, the relevant optical subassemblies are identical, have the same focal length, and are accurately and equally positioned when viewed with respect to the distance from the common plane of the four photosensitive matrices. Can be regarded as being.
この場合、観測対象のシーンの画像が、シーンの理論的な輪郭を表す簡単に言えば白色の矩形テストパターンであると仮定すると、この輪郭は、図4の点線の矩形で表された4つの同一矩形輪郭として各々のマトリックスに投影される。ここでは、画像にひずみがないという単純な仮定としている(ひずみが存在する場合、すべての光学的サブアセンブリにおいてひずみは同じである)。 In this case, assuming that the image of the scene to be observed is a white rectangular test pattern representing the theoretical outline of the scene, this outline is represented by four dotted rectangles shown in FIG. The same rectangular contour is projected onto each matrix. Here, a simple assumption is made that there is no distortion in the image (if there is distortion, the distortion is the same in all optical subassemblies).
点線の矩形は、それらが投影される感光マトリックスに対して必ずしも同様に位置決めされるとは限らない。この理由は第1には、横に並んで同じ方向の写真を撮っている2人がカメラのシフトに比例してシフトさせられた画像を見ているのと同じように、光学的サブアセンブリは互いに横方向にオフセットされているので厳密に同じ位置で矩形を「見て」いないという事実による。ここで、光学的サブアセンブリのシフトは数ミリメートルである。これにより発生する矩形のシフトは、センサーのシフトに倍率を掛け算することにより得られる。この場合、倍率は、マトリックスに投影されるオブジェクトの画像の寸法のオブジェクト自体の寸法に対する比として定義される。従って、シーンが無限遠に広がっている場合、シフトはゼロである。更に、マトリックス上にサブアセンブリを転送する際の製品製造上の精度限界により、光学的サブアセンブリは、本来必要とされるほど正確にマトリックスに対して水平に位置決めされるとは限らない。このため、サブアセンブリの中心がマトリックスの中心に対して厳密に鉛直上にくるとは限らない。一方で、被写体であるオブジェクトが比較的近い距離にあることによるシフトが存在し、他方で、マトリックスに対する光学的サブアセンブリの相対的な位置決めが不完全であることによる本質的なシフトが存在する。 Dotted rectangles are not necessarily positioned in the same way with respect to the photosensitive matrix onto which they are projected. The first reason for this is that the optical subassembly is similar to two people taking a photo in the same direction side by side looking at an image shifted in proportion to the camera shift. Due to the fact that they are not "seeing" the rectangle at exactly the same position because they are offset laterally from each other. Here, the shift of the optical subassembly is a few millimeters. The resulting rectangular shift is obtained by multiplying the sensor shift by the magnification. In this case, the magnification is defined as the ratio of the size of the image of the object projected onto the matrix to the size of the object itself. Thus, if the scene is spread at infinity, the shift is zero. In addition, due to product manufacturing accuracy limitations when transferring subassemblies onto the matrix, the optical subassemblies may not be positioned horizontally with respect to the matrix as precisely as needed. For this reason, the center of the subassembly is not always exactly perpendicular to the center of the matrix. On the one hand, there is a shift due to the object being a relatively close distance, on the other hand, there is an essential shift due to incomplete positioning of the optical subassembly relative to the matrix.
ただし、光学部品が同等のものであり、矩形が投影される感光領域の表面から同じ距離に該光学部品が配置されている場合、投影される矩形のサイズはすべての矩形について全く同じである。 However, when the optical components are the same and the optical components are arranged at the same distance from the surface of the photosensitive area on which the rectangle is projected, the size of the projected rectangle is exactly the same for all rectangles.
従って、各種マトリックスの少なくとも本質的な相対シフトは、工場内でのキャリブレーション又はその後のキャリブレーションによって特定することができる。白色リファレンステストパターン(例えば上記した矩形)又は十分な距離(N本の画素行で構成されるマトリックスのための焦点距離のN倍を超える距離)をおいて配置された少数の白点の単純画像が各マトリックス上に画像を発生させ、変換ベクトルによって4つの画像から対応する関係が確立されると、十分な距離をおいて観測されたいかなるシーンの4つの画像であろうともポイントツーポイント対応する。 Thus, at least the essential relative shift of the various matrices can be determined by in-factory calibration or subsequent calibration. A simple image of a small number of white spots arranged at a white reference test pattern (eg, the rectangle described above) or a sufficient distance (a distance greater than N times the focal length for a matrix composed of N pixel rows) Generates an image on each matrix, and once the corresponding relationship is established from the four images by the transformation vector, it corresponds point-to-point with any four images of any scene observed at a sufficient distance .
図5は、マトリックスM1の平面図であり、マトリックス間の本質的な相対シフトの計算を説明する。 FIG. 5 is a plan view of the matrix M1, illustrating the calculation of the essential relative shift between the matrices.
マトリックスM1の鉛直上方にある光学的サブアセンブリの光心はO1で示されている。このサブアセンブリは、無限遠においてセンサーの中心軸Oと中心が合わされたオブジェクトの矩形画像IM1を、マトリックスに投影する。投影された画像の中心は、点O1と垂直であるので、図5に示した平面図内ではこの点O1と一致する。万一、光学的サブアセンブリとマトリックスとの位置調整が完全であるならば、マトリックスM1自体の中心C1も点O1と一致するとみなすことができる。簡単のために、中心C1を、マトリックスM1の有効部分の中心行と中心列の交点であるとみなすことができる。不完全性のため、中心C1は、中心O1に対して若干オフセットされる場合がある。マトリックスの中心C1に対する、矩形IM1の厳密な位置と中心O1の厳密な位置は、マトリックスの画素行と画素列から成る座標系で参照される。この参照工程は工場内でのキャリブレーションで実施される。この参照作業は、他のマトリックスの場合も、それらのマトリックスに無限遠に投影される同じ矩形である画像IM2、IM3、IM4を使用して実施される。 The optical center of the optical subassembly that is vertically above the matrix M1 is indicated by O1. This subassembly projects a rectangular image IM1 of an object centered on the center axis O of the sensor at infinity onto a matrix. Since the center of the projected image is perpendicular to the point O1, it coincides with this point O1 in the plan view shown in FIG. If the alignment of the optical subassembly and the matrix is perfect, the center C1 of the matrix M1 itself can be considered to coincide with the point O1. For simplicity, the center C1 can be regarded as the intersection of the center row and the center column of the effective portion of the matrix M1. Due to imperfections, the center C1 may be slightly offset with respect to the center O1. The exact position of the rectangle IM1 and the exact position of the center O1 with respect to the center C1 of the matrix are referred to in a coordinate system consisting of pixel rows and pixel columns of the matrix. This reference process is performed by calibration in the factory. This reference operation is carried out for the other matrices using the images IM2, IM3, IM4, which are the same rectangle projected onto those matrices at infinity.
マトリックスM1に関しては点O1とC1とのx軸及びy軸に沿った位置の差、並びに他のマトリックスに関しても同様に点O2とC2、点O3とC3、点O4とC4とのx軸及びy軸に沿った位置の差は、各マトリックスによって出力される電気信号を読み取る際に、観測されたシーンの各像点を各マトリックス内の対応する点と一致させるために、生成されなければならない行に沿った各シフト及び列に沿った各シフトを決定する。なお、シーンは無限遠であると仮定する。 For the matrix M1, the difference in position along the x-axis and y-axis between the points O1 and C1 and for the other matrices, the points O2 and C2, the points O3 and C3, the points O4 and C4, and the x-axis Differences in position along the axis must be generated in order to match each image point in the observed scene with the corresponding point in each matrix when reading the electrical signal output by each matrix. Determine each shift along and each shift along the column. It is assumed that the scene is at infinity.
これらのシフトはキャリブレーションレジスタに記憶される。従って、これらのレジスタには、光学的サブアセンブリの中心と各種マトリックスの中心との相対的なシフトに対応する情報が含まれる。4つのマトリックスによって出力された電気信号は、上記シフトを補償するため、各種マトリックスによって出力された画像間の対応関係を正確で規則正しいものとするために、レジスタの内容に従って結合される。 These shifts are stored in the calibration register. Thus, these registers contain information corresponding to the relative shift between the center of the optical subassembly and the centers of the various matrices. The electrical signals output by the four matrices are combined according to the contents of the registers in order to make the correspondence between the images output by the various matrices accurate and regular to compensate for the shift.
各種マトリックスが出力する電気信号は個別に集められる(ただし、同期していることが好ましい)。 The electrical signals output by the various matrices are collected separately (although preferably synchronized).
マトリックスM1及びマトリックスM4は、観測されたシーンの画像内の緑色の成分を表す信号を出力する。マトリックスM2は画像の赤色の成分を出力し、マトリックスM3は画像の青色の成分を出力する。 The matrix M1 and the matrix M4 output signals representing green components in the observed scene image. The matrix M2 outputs the red component of the image, and the matrix M3 outputs the blue component of the image.
図4に示したマトリックスは互いに境を接していない。こうすることで、マトリックス間の隙間に必要に応じて電子デバイスを収容することができる。ただし、図6に示すように、4つのマトリックスが並置されてただ1つの連続した大きなマトリックスMを形成する構成を有することが好ましい。ゆえにこのマトリックスは、個別に読み取り可能なことを原則とする4つの区域に分割する必要がある。よって、マトリックスに関連付けられる読出し回路については、図6に示すようにマトリックスMの4つの区域にそれぞれ関連付けられた4つの読出しレジスタR1、R2、R3、R4の形式で、4つの構成要素に分割することが好ましい。 The matrices shown in FIG. 4 are not bordered by each other. By carrying out like this, an electronic device can be accommodated in the clearance gap between matrices as needed. However, as shown in FIG. 6, it is preferable to have a configuration in which four matrices are juxtaposed to form only one continuous large matrix M. This matrix therefore needs to be divided into four zones, which in principle are readable. Therefore, the read circuit associated with the matrix is divided into four components in the form of four read registers R1, R2, R3, R4 respectively associated with the four areas of the matrix M as shown in FIG. It is preferable.
図4に示す構成又は図6に示す構成のいずれを使用するかに関係なく、両方の場合とも、各種の光学的サブアセンブリの相対的な位置決め誤差を確実に考慮に入れられるように、マトリックスのアクティブ表面の面積が、少なくとも数十行及び数十列だけ、観測対象のシーンの画像の最大面積より大きいことが好ましい。画像がマトリックスからはみ出ることにより観察されたシーンの一部を失う危険性なしに、本質的な位置決め誤差と、繰り返しになるが撮影されるオブジェクトの近接性に起因する画像のシフトとを考慮に入れることができる。 Regardless of whether the configuration shown in FIG. 4 or the configuration shown in FIG. 6 is used, in both cases, to ensure that the relative positioning errors of the various optical subassemblies are taken into account, the matrix The area of the active surface is preferably larger than the maximum area of the image of the scene to be observed by at least tens of rows and tens of columns. Takes into account intrinsic positioning errors and image shifts due to the proximity of the object being photographed repeatedly, without the risk of losing part of the observed scene due to the image protruding from the matrix be able to.
例えば1000本の画素行と1200本の画素列で構成される解像度120万画素(1画素は特定の色の像点に対応する)で画像を表現することが好ましいとすると、本発明は、色の異なる4つのマトリックスを並置することによって実施される。各々のマトリックスはおよそ500本の行と600本の列を有し、これらのマトリックスの画素は、従来技術で使用されていた3色マトリックスの画素と同じサイズ及びピッチを有する。 For example, if it is preferable to represent an image with a resolution of 1.2 million pixels (one pixel corresponds to an image point of a specific color) composed of 1000 pixel rows and 1200 pixel columns, the present invention This is implemented by juxtaposing four different matrices. Each matrix has approximately 500 rows and 600 columns, and the pixels of these matrices have the same size and pitch as the three-color matrix pixels used in the prior art.
各種の色のマトリックスの辺の長さが、従来技術のマトリックス全体の長さの半分である場合(同じ解像度で、同じ画素面積つまり同じ感度において)、画像を投影する光学的サブアセンブリの横方向の寸法も半分である。結果として、光学的サブアセンブリの焦点距離は半分の長さとなる。よって、光学的サブアセンブリはより薄くなるだけでなく、感光マトリックスの表面により接近して配置される。それに応じてセンサー全体の厚さが薄くなる。小型のイメージセンサーの製造では、センサーの厚さが益々重要な項目となっている。本発明で達成されるこのパラメータの向上は非常に重要である。 The lateral direction of the optical subassembly that projects the image when the side length of the matrix of various colors is half the length of the entire prior art matrix (at the same resolution and the same pixel area or sensitivity) The dimension of is also half. As a result, the focal length of the optical subassembly is half the length. Thus, the optical subassembly is not only thinner, but is placed closer to the surface of the photosensitive matrix. Accordingly, the thickness of the entire sensor is reduced. In the manufacture of small image sensors, sensor thickness is an increasingly important item. The improvement in this parameter achieved with the present invention is very important.
このように構成されるセンサーを製造するには一括製造プロセスが使用される。つまり、全く同じ1つの集積回路ウェーハに複数のイメージセンサーが製造されるだけでなくこのウェーハに複数の光学系を有するプレートを取り付けてからウェーハ/プレートアセンブリが個々のセンサーにカットされる。各々のセンサーは光学系と一体となったシリコンチップを有する。 A batch manufacturing process is used to manufacture the sensor configured as described above. That is, not only a plurality of image sensors are manufactured on the same integrated circuit wafer, but also a wafer / plate assembly is cut into individual sensors after a plate having a plurality of optical systems is attached to the wafer. Each sensor has a silicon chip integrated with the optical system.
光学的サブアセンブリは、透明プレートとその上に形成されたレンズで構成されている。これらの透明プレートはガラスで製作可能であり、成形される。このサブアセンブリは、一枚のレンズで構成することも、複数の重ね合わされたレンズで構成することもできる。複数のレンズ(収束レンズ及び/又は発散レンズ)で構成する場合は、レンズ間の隙間が製造すべき光学的な機能に対応するように透明プレートを重ね合わせる。固定絞りも、レンズの形で成形されるか否かに関係なく、各光学的サブアセンブリの光学軸の周りが開いている不透明層で覆われた透明プレートから同様に形成することができる。 The optical subassembly is composed of a transparent plate and a lens formed thereon. These transparent plates can be made of glass and are molded. This subassembly can be composed of a single lens or a plurality of superimposed lenses. In the case of a plurality of lenses (convergence lens and / or diverging lens), the transparent plates are overlapped so that the gap between the lenses corresponds to the optical function to be manufactured. A fixed aperture can be similarly formed from a transparent plate covered with an opaque layer open around the optical axis of each optical subassembly, whether or not molded in the form of a lens.
図7はイメージセンサーを示している。このイメージセンサーでは、各々の光学的サブアセンブリが2枚の重ね合わされたレンズを有している。この2枚のレンズは、重ね合わされた成形ガラスプレート41及び42で形成されている。ガラスプレート41と42はレンズ間の垂直方向の所望の間隔を調整するためにスペーサプレート43によって分離されている。レンズの1つは、観測されたシーンから入ってくる光が通り抜ける絞り(固定されている)45を各マトリックスの上方に形成するために、局所的に4箇所が開いている不透明層44(例えばアルミニウム層)によって覆われている。
FIG. 7 shows an image sensor. In this image sensor, each optical subassembly has two superimposed lenses. These two lenses are formed of molded
絞りはまた、プレート42の上方にプレート42から特定の距離をおいて配置された追加のプレート上に形成することもできる。絞りは視野絞りの機能を備えることができる。この場合、視野絞りは矩形(マトリックスと同じ形状)を呈し、近傍のマトリックスと関連付けられた光学部品によってマトリックスの照度を制限することが好ましい。
The iris can also be formed on an additional plate positioned above the
本発明に係るセンサーは、観測されるシーンがイメージセンサーから十分離れている場合に特に適しており、製造時の不完全性に起因する本質的なシフト以外の画像シフトを無視できる。 The sensor according to the present invention is particularly suitable when the observed scene is sufficiently distant from the image sensor, and image shifts other than essential shifts due to imperfections during manufacturing can be ignored.
シーンが近接しているせいで、画素のサイズと比較して無視できないシフトが発生したとき(例えば、N本の行を有するマトリックスの焦点距離のN倍未満の距離にシーンが配置されている)、シーンの近接性に応じてシフトを調整することができる。補償すべきシフトは光学的サブアセンブリの間隔dに比例し、観測されたサブジェクトの距離に反比例する。 A shift that cannot be ignored compared to the size of the pixel occurs because the scenes are close together (for example, the scene is placed at a distance less than N times the focal length of a matrix with N rows) The shift can be adjusted according to the proximity of the scene. The shift to be compensated is proportional to the optical subassembly spacing d and inversely proportional to the observed subject distance.
2つの緑色マトリックスを含む4つのマトリックスで構成されたセンサーの場合、本質的なシフトもサブジェクトの近接性に起因するシフトも存在しないならば2つの緑色マトリックスが同じ画像を認識すべきであるという事実を使用することが可能である。これまでに説明したように、本質的なシフトは、工場内でキャリブレーションすること及びその後に体系化された方法で考慮に入れることが可能であるので、この後の説明を検討する際はサブジェクトの近接性に起因するシフトのみを修正すればよい。従って、以下では光学的サブアセンブリの光心O1、O2、O3、O4がマトリックスM1〜M4の中心C1、C2、C3、C4とそれぞれ一致するとみなされる。 In the case of a sensor composed of four matrices, including two green matrices, the fact that two green matrices should recognize the same image if there is no intrinsic shift or shift due to subject proximity Can be used. As explained so far, intrinsic shifts can be calibrated in the factory and then taken into account in a systematic way, so when considering the explanation below, the subject It is only necessary to correct the shift due to the proximity of. Accordingly, in the following, it is assumed that the optical centers O1, O2, O3, O4 of the optical subassembly coincide with the centers C1, C2, C3, C4 of the matrices M1-M4, respectively.
撮影されたサブジェクトが非無限遠距離Dにある場合、2つの同じ光学部品(両者の中心は距離dだけ間隔があけられている)で投影されたこのサブジェクトの画像は光学部品の中心に対して横方向にd/Dに比例した距離だけ、又はより正確にはdF/Dに等しい距離だけオフセットされている。ここでFは焦点距離である。 If the photographed subject is at a non-infinite distance D, the image of this subject projected with two identical optical components (both centers are separated by a distance d) is relative to the center of the optical component. It is offset laterally by a distance proportional to d / D, or more precisely by a distance equal to dF / D. Here, F is a focal length.
つまり、図8を参照すると以下のことが言える。
− 図8aでは、中心Oを有する単一の光学的アセンブリLが想定され、これにより、距離D離れた位置にあるオブジェクト(ベクトルVS)の画像(ベクトルvs)がマトリックス上に投影されている。オブジェクトVS及び画像vsは、マトリックスの仮定的な中心Cと合わせられる。この中心は光心Oと垂直関係にある。
− 図8bでは、単純な光学部品に代わり2つの光学部品L1とL4が使用されている。この2つの光学部品は図8aに示した光学部品Lと同じものであるが、互いに横方向に距離dだけオフセットされている。つまり、この2つの光学部品の中心O1とO4は、言うならば、単一の光学部品の中心Oに対してそれぞれ+d/2及び−d/2だけ横方向にオフセットされている。これらの光学部品は図8aの場合(これもベクトルVSで表現される)と同じサブジェクトを観測している。このサブジェクトは、繰り返しになるが2つの光学部品グループの中心に合わせられる、つまり、サブジェクトは相変わらず中心Oに合わされたままである。この中心Oは、言うならば、2つの光学的サブアセンブリを有するイメージセンサー全体の中心軸を表している。よって、ベクトルVSは、第1の光学的サブアセンブリの中心O1に対して片側にずれており、第2の光学的サブアセンブリの中心O4に対して他の側にずれている。Dが無限遠ではないということにより、視差効果が生じる。
That is, the following can be said with reference to FIG.
In FIG. 8a, a single optical assembly L with a center O is assumed, whereby an image (vector vs) of an object (vector VS) at a distance D apart is projected onto the matrix. The object VS and the image vs are aligned with the hypothetical center C of the matrix. This center is perpendicular to the optical center O.
In FIG. 8b, two optical components L1 and L4 are used instead of simple optical components. The two optical components are the same as the optical component L shown in FIG. 8a, but are offset from each other by a distance d. In other words, the centers O1 and O4 of the two optical components are offset laterally by + d / 2 and −d / 2, respectively, with respect to the center O of the single optical component. These optical components observe the same subject as in FIG. 8a (also represented by the vector VS). This subject is repeated but is centered on the two optical component groups, ie, the subject remains centered on the center O. This center O represents the central axis of the whole image sensor having two optical subassemblies. Thus, the vector VS is shifted to one side with respect to the center O1 of the first optical subassembly and shifted to the other side with respect to the center O4 of the second optical subassembly. Since D is not infinite, a parallax effect occurs.
2つの光学的アセンブリによって与えられる画像vs1とvs4は、光学部品同士が距離dだけ離れているという理由で互いに距離dだけオフセットされているだけでなく、各光学部品がサブジェクトを横方向に見て中心にあわされていないという理由で更に距離dF/Dだけ互いにオフセットされている。 The images vs1 and vs4 provided by the two optical assemblies are not only offset by a distance d from each other because the optical components are separated by a distance d, but each optical component sees the subject laterally. They are further offset from each other by a distance dF / D because they are not centered.
C1はマトリックスM1の中心であり、左側に位置する光学部品L1の中心O1とは垂直関係にあると仮定し、更にC4はマトリックスM4の中心であり、左側に位置する光学部品L4の中心O4とは垂直関係にあると仮定すると、中心C1とC4とは距離dだけオフセットされている。つまり、C1はCに対して+d/2だけオフセットされ、C4はCに対して−d/2だけオフセットされている。 It is assumed that C1 is the center of the matrix M1 and is perpendicular to the center O1 of the optical component L1 located on the left side, and C4 is the center of the matrix M4 and the center O4 of the optical component L4 located on the left side. Assuming that is in a vertical relationship, the centers C1 and C4 are offset by a distance d. That is, C1 is offset by + d / 2 with respect to C, and C4 is offset by -d / 2 with respect to C.
光学部品L1によってもたらされる画像vs1は中心C1に対して左側に距離dF/2Dだけシフトされる。つまり、サブジェクトの画像の中心は、中心C1と一致するのでなくdF/2Dだけ左側にシフトされる。同様に光学部品L4によってもたらされる画像vs4は中心C4に対して右側に距離dF/2Dだけシフトされる。 The image vs1 produced by the optical component L1 is shifted to the left by the distance dF / 2D with respect to the center C1. That is, the center of the subject image does not coincide with the center C1, but is shifted to the left by dF / 2D. Similarly, the image vs4 produced by the optical component L4 is shifted to the right by the distance dF / 2D with respect to the center C4.
4つの投影用光学部品を有する本発明に係るシステムでは、対角線に沿って配置された2つの緑色マトリックス(M1とM4)が同じシーンを見ているという事実を使用する。ただし、このシーンは倍率がゼロでない限り2つのマトリックスの方へシフトされる。 In the system according to the invention with four projection optics, we use the fact that two green matrices (M1 and M4) arranged along the diagonal are viewing the same scene. However, this scene is shifted towards the two matrices unless the magnification is zero.
マトリックスM1からの画像と、連続的にオフセットされたマトリックスM4からの画像との相互関係の計算方法は、最適な相互関係を与えるシフト値であって、2つのマトリックス上に投影された画像間に存在する全体的なシフトを表すシフト値を求めるために使用される。光学部品の正確さに欠ける位置決めに起因する本質的なシフトが存在しないと仮定した場合、又は全体的なシフトから本質的なシフトに対応するキャリブレーションを引き算した場合、後に残るのはサブジェクトの近接性に起因するシフトdF/Dである。このシフトは、緑色マトリックスの再キャリブレーションされた中心同士をつなぐ対角線の方向に向けられたベクトルである。 The method of calculating the correlation between the image from the matrix M1 and the image from the continuously offset matrix M4 is a shift value that gives the optimal correlation between the images projected on the two matrices. Used to determine a shift value that represents the overall shift present. If it is assumed that there is no essential shift due to inaccurate positioning of the optical component, or if the calibration corresponding to the essential shift is subtracted from the overall shift, what remains is the proximity of the subject. The shift dF / D due to the nature. This shift is a vector oriented in the direction of the diagonal connecting the recalibrated centers of the green matrix.
撮影されたオブジェクトの近接性に起因するシフトの方向は知られているので、シフトサーチアルゴリズムは単純である。画像バンド(観測された主サブジェクトをおそらく含んでいる)はマトリックスM1及びマトリックスM4から取得される。これらの画像バンドは、キャリブレーションを考慮に入れた後で、各マトリックスの中心を基準として参照される。従って、画像バンドは、光学部品の中心O1及びO4を基準として参照される。この参照は両方のマトリックスにおいて同じである。つまり、画像バンドの中心がマトリックスM1内のO1に合わせられた場合、マトリックスM4内のそれに対応するバンドの中心はO4に合わせられる。画像全体を使用して相対関係を確立する必要はないので、画像バンドは画像全体のサンプルである。 The shift search algorithm is simple because the direction of the shift due to the proximity of the captured object is known. Image bands (possibly containing the observed main subject) are obtained from matrix M1 and matrix M4. These image bands are referenced with respect to the center of each matrix after taking into account calibration. Therefore, the image band is referenced with reference to the centers O1 and O4 of the optical component. This reference is the same in both matrices. That is, when the center of the image band is aligned with O1 in the matrix M1, the center of the corresponding band in the matrix M4 is aligned with O4. The image band is a sample of the entire image, since it is not necessary to establish relative relationships using the entire image.
M1及びM4からの画像バンドは、互いに減算される。この減算によって得られる画像の代表的な照度値が決定され記憶される(この値は、簡単に言えば、減算の結果生じる画像の平均照度となり得る)。 The image bands from M1 and M4 are subtracted from each other. A representative illuminance value of the image obtained by this subtraction is determined and stored (in simple terms, this value can be the average illuminance of the image resulting from the subtraction).
画像バンドサンプルを修正するには、マトリックス同士の中心をつなぐ対角線に沿って距離増分だけ該画像バンドサンプルをシフトする(これは1行画素及び1列画素のシフトを意味する)。そこで次に他の2つの画像バンドが取得される。これらのバンドの中心はマトリックスの中心に対して増分だけシフトされる。減算が繰り返され、減算の結果生じる画像の照度が決定される。 To correct an image band sample, the image band sample is shifted by a distance increment along the diagonal connecting the centers of the matrices (this means a shift of one row pixel and one column pixel). Then, the other two image bands are acquired. The centers of these bands are shifted incrementally with respect to the center of the matrix. The subtraction is repeated and the illuminance of the image resulting from the subtraction is determined.
この工程が連続的に繰り返され、マトリックスの中心に対するバンドの相対的な位置を毎回インクリメントする。マトリックスの中心同士をつなぐ対角線の方向に沿ってより遠くに離れている(接近していない)2つの画像バンドが連続して取得される方向に、インクリメンテーションが実行される。これは図8bを検討することで理解できよう。つまり、撮影されたサブジェクトがイメージセンサーに接近している場合、得られる画像はオフセットされ、対角線の外側方向に向かいより遠くに離れている。オフセットのない理論的な状況(サブジェクトが無限遠に位置することに相当する)から初めて、一層大きなシフトの存在を段々と探索していくことが有利である。 This process is repeated continuously, incrementing the relative position of the band with respect to the center of the matrix each time. Incrementation is performed in the direction in which two image bands that are farther apart (not close) along the direction of the diagonal connecting the centers of the matrices are acquired in succession. This can be understood by examining FIG. 8b. That is, when the photographed subject is close to the image sensor, the obtained image is offset and is further away from the diagonal line. Starting from a theoretical situation without offset (corresponding to the subject being located at infinity), it is advantageous to gradually search for the presence of larger shifts.
上記の目的は、減算の結果として生じた画像に最小の照度値を与えるシフトを求めることにある。このシフトは上記dF/2D値を示している。なぜなら、最小照度値は、重ね合わせ可能な画像バンドに対応する値であり、撮影されたオブジェクトが距離D離れていた場合は各画像が互いに反対方向にdF/2Dだけシフトされた後で重ね合わせ可能になるということが分かっているからである。 The purpose is to determine a shift that gives the minimum illuminance value to the image resulting from the subtraction. This shift indicates the dF / 2D value. This is because the minimum illuminance value is a value corresponding to a superimposable image band, and when the photographed object is separated by a distance D, each image is superimposed after being shifted by dF / 2D in the opposite direction. Because we know that it will be possible.
この最適なdF/2D値が見つかったら、次にその値を使用して以下のことを行う。
− 第1に、各緑色マトリックスがセンサーの正確な中心Oに位置し、この中心からd/2だけオフセットされていないと仮定した場合の各緑色マトリックスが提供する標準の緑色画像を決定する。従って、マトリックスM1の画像を中心C1にdF/2Dだけ近づけて、その画像をシフトさせる。更にマトリックスM4の画像を中心C4にdF/2Dだけ近づけて、その画像をシフトさせる。
− 第2に、この値から、青色マトリックス及び赤色マトリックスに必要なシフトを推定する。撮影されたオブジェクトの近接性に起因するシフトは、2つの緑色マトリックスの場合と同じであるので、マトリックスM2とM3の中心をつなぐ対角線に沿ってマトリックスM2の赤色画像をdF/2Dだけシフトさせ、更にこの対角線に沿ってマトリックスM3の青色画像を同じ量だけシフトさせれば十分である。光学部品の配置においては光学部品の間隔を広げる傾向にあるので、赤色マトリックス及び青色マトリックスのシフト量dF/2Dは対角線に沿って反対方向であるとともに各マトリックスの中心に画像を近づける方向である。
Once this optimal dF / 2D value is found, it is then used to do the following:
First, determine the standard green image that each green matrix provides, assuming that each green matrix is located at the exact center O of the sensor and is not offset by d / 2 from this center. Accordingly, the image of the matrix M1 is brought close to the center C1 by dF / 2D, and the image is shifted. Further, the image of the matrix M4 is brought close to the center C4 by dF / 2D, and the image is shifted.
-Second, from this value, estimate the shift required for the blue and red matrices. Since the shift due to the proximity of the photographed object is the same as in the case of the two green matrices, the red image of the matrix M2 is shifted by dF / 2D along the diagonal connecting the centers of the matrices M2 and M3, Furthermore, it is sufficient to shift the blue image of the matrix M3 by the same amount along this diagonal. Since there is a tendency to increase the distance between the optical components in the arrangement of the optical components, the shift amount dF / 2D of the red matrix and the blue matrix is in the opposite direction along the diagonal line and the direction in which the image is brought closer to the center of each matrix.
各マトリックス(緑色、青色、赤色)について算出されたシフトは次に、各像点を各マトリックス内の各々の点と一致させて完全なカラー画像を生じさせる再結合順序を決定するために使用される。 The shifts calculated for each matrix (green, blue, red) are then used to determine the recombination order that matches each image point with each point in each matrix to produce a complete color image. The
最適なシフト値を求めるためのアルゴリズムでは、より細かいインクリメンテーションを実行可能である。例えば、2つの画像バンドのうちの一方の画像バンドに対して1画素のインクリメンテーション、他方の画像バンドに対して1画素のインクリメンテーションといった具合である。また、1列ではなく1行で1画素ずつインクリメントすること、行ではなく列に沿ってインクリメントするために次のインクリメンテーションを待機することが可能である。 The algorithm for obtaining the optimum shift value can perform finer incrementation. For example, one pixel increment for one of the two image bands, one pixel increment for the other image band, and so on. It is also possible to wait for the next incrementation to increment one pixel at a time instead of one column and increment along a column rather than a row.
従って、上記した測色が改良されたカラー画像センサーは、近接したサブジェクトについても正確な画像を提供する。 Therefore, the color image sensor with improved colorimetry as described above provides an accurate image even for a close subject.
また、緑色マトリックスが2つ存在するおかげで、センサーの見かけ解像度を向上させることができる。このために、緑色の一方のマトリックスに投影された画像と他方のマトリックスに投影された画像との間で、半画素の相対的シフトを使用することにより、緑色マトリックスを互いに極めて正確に位置決めすることができる(説明を簡単にするために、マトリックスの上方に位置する光学部品の中心の不完全な位置決めに起因する本質的なシフトは、考慮済み及び修正済みであるとする)。従って、緑色のチャネルではより多数のサンプリングが行われる。シフトは、行に沿った半画素と列に沿った半画素である。投影された画像はまた、対角線に沿って互いに半画素だけオフセットされる必要がある。 Also, thanks to the presence of two green matrices, the apparent resolution of the sensor can be improved. For this purpose, the green matrices are very accurately positioned relative to each other by using a half-pixel relative shift between the image projected on one matrix of green and the image projected on the other matrix. (For simplicity of explanation, the essential shift due to incomplete positioning of the center of the optical component located above the matrix is considered and corrected). Therefore, a larger number of samplings are performed in the green channel. A shift is a half pixel along a row and a half pixel along a column. The projected images also need to be offset by half a pixel from each other along the diagonal.
2つの画像を半画素内に位置決めするのに可能な方法の1つは、画素の寸法及びピッチがこのマトリックスが求める画素サイズの半分のマトリックスを使用して、通常サイズの画素を構成し直すために隣接する画素の電荷を加算することを含む。CCD技術又はCMOS技術に関係なく、各画素についてこの加算を実行してから読出しが行われる。加算される近傍のより小さい画素に応じて、半画素内に中心が置かれた通常サイズの画素が形成される。2つのマトリックスは、事実上中間に半画素のシフトが効率的に存在するように、異なるドライブを有することができる。 One possible way to position two images within a half pixel is to reconstruct a normal size pixel using a matrix whose pixel dimensions and pitch are half the pixel size required by this matrix. And adding the charges of the pixels adjacent to each other. Regardless of the CCD technology or CMOS technology, reading is performed after this addition is performed for each pixel. A normal size pixel centered within a half pixel is formed in response to the smaller neighboring pixels being summed. The two matrices can have different drives so that there is effectively a half-pixel shift in between.
CCD技術では、加算(「ビニング(binning)」とも称される)は読出しレジスタ内で4段転送ゲート制御によって実行される。 In CCD technology, addition (also referred to as “binning”) is performed in the readout register by four-stage transfer gate control.
CMOS技術では、隣接する4個の小さなフォトダイオードと関連付けられた電荷蓄積ノードで加算が実行される。このノードは転送ゲートによって該フォトダイオードと隔てられているので、これらのゲートを適切に制御することにより、隣接フォトダイオードのどれに、所定の蓄積ノードに転送された電荷を認識させるかを選択できる。行と列に編成された隣接する9個のフォトダイオードを使用する場合は、フォトダイオードを4組の隣接フォトダイオードにグループ分けし、電荷蓄積ノードを各グループの中心に配置することができる。4つのグループに分けることが可能であり、これらのグループは、行に沿って、列に沿って、又は対角線に沿って互いに半画素離れたより大きな画素を構成する。 In CMOS technology, the addition is performed at charge storage nodes associated with four adjacent small photodiodes. Since this node is separated from the photodiode by a transfer gate, it is possible to select which of the adjacent photodiodes recognizes the charge transferred to a given storage node by appropriately controlling these gates. . If nine adjacent photodiodes organized in rows and columns are used, the photodiodes can be grouped into four sets of adjacent photodiodes and the charge storage node placed at the center of each group. It can be divided into four groups, which constitute larger pixels that are half a pixel apart from each other along a row, along a column, or along a diagonal.
このため、一方のマトリックスの画素がある特定の方法でグループ分けされた場合、他方のマトリックスの画素は、2つのマトリックス間のシフトが対角線に沿って半画素となるように、別の方法でグループ分けされる。 Thus, if pixels in one matrix are grouped in a certain way, the pixels in the other matrix are grouped in another way so that the shift between the two matrices is half a pixel along the diagonal. Divided.
図9は、所望の画素ピッチを実現するために備えられたフォトダイオードの4分の1の全体面積を有する八角形フォトダイオードを示す特定の実施形態である。矢印は4つのフォトダイオードから同時に、この4つのフォトダイオードに囲まれた蓄積ノードに対して行われる放電を示している。ある特定のフォトダイオードに対して作動する転送ゲートを選択すると、そのフォトダイオードが放電される蓄積ノードが決定される。図9aでは4個のダイオードを特定の方法でグループ化するために転送ゲートが作動する。一方、図9bでは、該当するダイオードを蓄積ノードの周囲に違う方法でグループ化するために転送ゲートが作動する。図9a(第1の緑色マトリックス)で使用される蓄積ノードはすべて、図9b(第2の緑色マトリックス)で使用される蓄積ノードに対して半画素だけオフセットされる。 FIG. 9 is a specific embodiment showing an octagonal photodiode having an overall area of one quarter of the photodiode provided to achieve the desired pixel pitch. The arrows indicate the discharge that is simultaneously performed from the four photodiodes to the storage node surrounded by the four photodiodes. Selecting a transfer gate that operates for a particular photodiode determines the storage node from which that photodiode is discharged. In FIG. 9a, the transfer gate is activated to group the four diodes in a specific way. On the other hand, in FIG. 9b, the transfer gate is activated to group the relevant diodes around the storage node differently. All storage nodes used in FIG. 9a (first green matrix) are offset by half a pixel with respect to the storage nodes used in FIG. 9b (second green matrix).
解像度及び画像重ね合わせの精度よりも測色が重要なパラメータである場合、又はどんな場合も正しく重ね合わされる、遠方平面シーンの画像を観察することに使用者が喜びを感じる場合は、色が異なる4つのフィルタ(つまり、赤色、緑色、青色、シアン色で、各々が1つのマトリックスに関連付けられる)によってそれぞれ覆われた4つのマトリックスを、センサーが持つように設定できる。当然ならが、視差を求め修正するために2つのマトリックスから生じた画像を処理することが不可能になるので、使用者は遠方のシーンを観察することが制限される。 Different colors if colorimetry is a more important parameter than resolution and image overlay accuracy, or if the user feels joy in observing an image of a far-planar scene that is correctly overlaid in any case The sensor can be configured to have four matrices each covered by four filters (ie, red, green, blue, cyan, each associated with one matrix). Of course, the user is restricted from viewing distant scenes because it becomes impossible to process the images resulting from the two matrices to determine and correct the parallax.
Claims (7)
前記光学系は複数の光学的サブアセンブリ(L1、L2、L3、L4)を備え、前記一連の感光領域は個別に読み取り可能な少なくとも2つのマトリックス(M1、M2、M3、M4)に分割され、各光学的サブアセンブリが前記観測対象のシーン全体を各々のマトリックスに投影するように設計され、種々の前記マトリックスの上方には単一色の光を各マトリックスへ通すために色の異なる2つの均一フィルタ(F1、F2、F3、F4)がそれぞれ配置されることを特徴とするカラーイメージセンサー。 A color image sensor having an optical system for projecting an image of a scene to be observed onto a series of photosensitive areas, wherein the series of photosensitive areas are manufactured on the same monolithic semiconductor chip integrated with the optical system. In the color image sensor
The optical system includes a plurality of optical subassemblies (L1, L2, L3, L4), and the series of photosensitive areas is divided into at least two matrices (M1, M2, M3, M4) that can be individually read; Each optical subassembly is designed to project the entire scene to be observed onto a respective matrix, above the various matrices, two uniform filters of different colors to pass a single color of light through each matrix A color image sensor in which (F1, F2, F3, F4) are arranged.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0413961A FR2880194B1 (en) | 2004-12-24 | 2004-12-24 | IMAGE SENSOR WITH GLOBALLY SEPARATE COLORED ZONES |
PCT/EP2005/056376 WO2006069886A1 (en) | 2004-12-24 | 2005-12-01 | Image sensor with globally separate colour zones |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008526062A true JP2008526062A (en) | 2008-07-17 |
Family
ID=34955061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007547434A Pending JP2008526062A (en) | 2004-12-24 | 2005-12-01 | Image sensor with totally separate color zones |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1829109A1 (en) |
JP (1) | JP2008526062A (en) |
CN (1) | CN101088163A (en) |
CA (1) | CA2590667A1 (en) |
FR (1) | FR2880194B1 (en) |
WO (1) | WO2006069886A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101990098A (en) * | 2009-07-31 | 2011-03-23 | 索尼公司 | Image processing apparatus and method |
JP2012235137A (en) * | 2006-12-22 | 2012-11-29 | Intellectual Venturesii Llc | Cmos image sensor having floating base reading concept |
US9055181B2 (en) | 2011-07-15 | 2015-06-09 | Kabushiki Kaisha Toshiba | Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG11201400917VA (en) * | 2011-10-06 | 2014-07-30 | Heptagon Micro Optics Pte Ltd | Method for wafer-level manufacturing of objects and corresponding semi-finished products |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4777496B2 (en) * | 2000-02-10 | 2011-09-21 | 富士フイルム株式会社 | Solid-state image sensor |
JP4518616B2 (en) * | 2000-04-13 | 2010-08-04 | ソニー株式会社 | Solid-state imaging device, driving method thereof, and camera system |
FR2817106B1 (en) * | 2000-11-17 | 2003-03-07 | Trixell Sas | PHOTOSENSITIVE DEVICE AND METHOD FOR CONTROLLING THE PHOTOSENSITIVE DEVICE |
FR2819941B1 (en) * | 2001-01-25 | 2003-06-20 | Get Int | PHOTOELECTRIC ELEMENT WITH VERY HIGH OPERATING DYNAMICS |
FR2829289B1 (en) * | 2001-08-31 | 2004-11-19 | Atmel Grenoble Sa | COLOR IMAGE SENSOR WITH IMPROVED COLORIMETRY AND MANUFACTURING METHOD |
-
2004
- 2004-12-24 FR FR0413961A patent/FR2880194B1/en not_active Expired - Fee Related
-
2005
- 2005-12-01 JP JP2007547434A patent/JP2008526062A/en active Pending
- 2005-12-01 CA CA002590667A patent/CA2590667A1/en not_active Abandoned
- 2005-12-01 EP EP05823548A patent/EP1829109A1/en not_active Withdrawn
- 2005-12-01 CN CNA2005800443244A patent/CN101088163A/en active Pending
- 2005-12-01 WO PCT/EP2005/056376 patent/WO2006069886A1/en not_active Application Discontinuation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012235137A (en) * | 2006-12-22 | 2012-11-29 | Intellectual Venturesii Llc | Cmos image sensor having floating base reading concept |
US8723990B2 (en) | 2006-12-22 | 2014-05-13 | Intellectual Ventures Ii Llc | Image pixel employing floating base readout concept, and image sensor and image sensor array including the image pixel |
CN101990098A (en) * | 2009-07-31 | 2011-03-23 | 索尼公司 | Image processing apparatus and method |
US9055181B2 (en) | 2011-07-15 | 2015-06-09 | Kabushiki Kaisha Toshiba | Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information |
Also Published As
Publication number | Publication date |
---|---|
FR2880194B1 (en) | 2007-06-01 |
CN101088163A (en) | 2007-12-12 |
EP1829109A1 (en) | 2007-09-05 |
WO2006069886A1 (en) | 2006-07-06 |
CA2590667A1 (en) | 2006-07-06 |
FR2880194A1 (en) | 2006-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10158832B2 (en) | Lens and color filter arrangement, super-resolution camera system and method | |
US7242478B1 (en) | Spatially corrected full-cubed hyperspectral imager | |
US7433042B1 (en) | Spatially corrected full-cubed hyperspectral imager | |
JP5646445B2 (en) | Thin camera with sub-pixel resolution | |
JP3705766B2 (en) | Image input device | |
US8466998B2 (en) | Solid-state image sensor and imaging apparatus equipped with solid-state image sensor | |
US11437419B2 (en) | Light shields for solid-state imaging devices and imaging apparatuses | |
EP2370846A1 (en) | Solid-state image sensing element and image sensing apparatus | |
US6970293B2 (en) | Solid state imaging device | |
JP2017195330A (en) | Imager, imaging system, and manufacturing method for imager | |
JP2005303409A (en) | Solid state imaging device | |
JP2008011532A (en) | Method and apparatus for restoring image | |
KR20090010867A (en) | Color filter arrays and image sensors using the same | |
US10096636B2 (en) | Light field imaging device and method for fabricating the same | |
JPH09148549A (en) | Color solid image pickup element with on-chip lens | |
JPH08116041A (en) | Manufacture of solid-state image sensing device | |
JP2008526062A (en) | Image sensor with totally separate color zones | |
JP2010243772A (en) | Imaging apparatus | |
TW201333537A (en) | Optical sensing apparatus and optical setting method | |
JPH0114749B2 (en) | ||
JP2009182550A (en) | Camera module | |
JP5537618B2 (en) | Imaging device | |
JP2024085387A (en) | Image sensor including micro lenses of different sizes | |
JPH05207485A (en) | Multi-board type color image pickup device | |
JP2021005107A (en) | Forming method of color filter array and manufacturing method of electronic device |