WO2022059499A1 - 固体撮像装置及び電子機器 - Google Patents
固体撮像装置及び電子機器 Download PDFInfo
- Publication number
- WO2022059499A1 WO2022059499A1 PCT/JP2021/032248 JP2021032248W WO2022059499A1 WO 2022059499 A1 WO2022059499 A1 WO 2022059499A1 JP 2021032248 W JP2021032248 W JP 2021032248W WO 2022059499 A1 WO2022059499 A1 WO 2022059499A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- pixel
- unit
- chip
- drive
- rgb
- Prior art date
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 17
- 238000006243 chemical reaction Methods 0.000 claims description 143
- 238000000034 method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 abstract description 155
- 239000004065 semiconductor Substances 0.000 description 111
- 239000010410 layer Substances 0.000 description 70
- 238000012546 transfer Methods 0.000 description 52
- 239000000758 substrate Substances 0.000 description 43
- 238000009792 diffusion process Methods 0.000 description 42
- 238000012986 modification Methods 0.000 description 33
- 230000004048 modification Effects 0.000 description 33
- 230000003321 amplification Effects 0.000 description 31
- 238000003199 nucleic acid amplification method Methods 0.000 description 31
- 238000010586 diagram Methods 0.000 description 25
- 238000001514 detection method Methods 0.000 description 24
- 238000007667 floating Methods 0.000 description 23
- 239000000463 material Substances 0.000 description 20
- 238000004566 IR spectroscopy Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 15
- 238000000926 separation method Methods 0.000 description 15
- 239000011368 organic material Substances 0.000 description 12
- XMWRBQBLMFGWIX-UHFFFAOYSA-N C60 fullerene Chemical class C12=C3C(C4=C56)=C7C8=C5C5=C9C%10=C6C6=C4C1=C1C4=C6C6=C%10C%10=C9C9=C%11C5=C8C5=C8C7=C3C3=C7C2=C1C1=C2C4=C6C4=C%10C6=C9C9=C%11C5=C5C8=C3C3=C7C1=C1C2=C4C6=C2C9=C5C3=C12 XMWRBQBLMFGWIX-UHFFFAOYSA-N 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 239000010949 copper Substances 0.000 description 6
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 229910003472 fullerene Inorganic materials 0.000 description 6
- PMJMHCXAGMRGBZ-UHFFFAOYSA-N subphthalocyanine Chemical class N1C(N=C2C3=CC=CC=C3C(=N3)N2)=C(C=CC=C2)C2=C1N=C1C2=CC=CC=C2C3=N1 PMJMHCXAGMRGBZ-UHFFFAOYSA-N 0.000 description 6
- 229910052581 Si3N4 Inorganic materials 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 239000000975 dye Substances 0.000 description 5
- HQVNEWCFYHHQES-UHFFFAOYSA-N silicon nitride Chemical compound N12[Si]34N5[Si]62N3[Si]51N64 HQVNEWCFYHHQES-UHFFFAOYSA-N 0.000 description 5
- -1 C60 Chemical class 0.000 description 4
- 230000009471 action Effects 0.000 description 4
- 229910052782 aluminium Inorganic materials 0.000 description 4
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- XLOMVQKBTHCTTD-UHFFFAOYSA-N Zinc monoxide Chemical compound [Zn]=O XLOMVQKBTHCTTD-UHFFFAOYSA-N 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 239000011229 interlayer Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000000149 penetrating effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000007789 sealing Methods 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 238000010408 sweeping Methods 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 239000010936 titanium Substances 0.000 description 3
- 238000011144 upstream manufacturing Methods 0.000 description 3
- BCMCBBGGLRIHSE-UHFFFAOYSA-N 1,3-benzoxazole Chemical class C1=CC=C2OC=NC2=C1 BCMCBBGGLRIHSE-UHFFFAOYSA-N 0.000 description 2
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 2
- NRCMAYZCPIVABH-UHFFFAOYSA-N Quinacridone Chemical class N1C2=CC=CC=C2C(=O)C2=C1C=C1C(=O)C3=CC=CC=C3NC1=C2 NRCMAYZCPIVABH-UHFFFAOYSA-N 0.000 description 2
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- RTAQQCXQSZGOHL-UHFFFAOYSA-N Titanium Chemical compound [Ti] RTAQQCXQSZGOHL-UHFFFAOYSA-N 0.000 description 2
- 241000724291 Tobacco streak virus Species 0.000 description 2
- PCBOWMZAEDDKNH-HOTGVXAUSA-N [4-(trifluoromethoxy)phenyl]methyl (3as,6as)-2-(3-fluoro-4-sulfamoylbenzoyl)-1,3,3a,4,6,6a-hexahydropyrrolo[3,4-c]pyrrole-5-carboxylate Chemical compound C1=C(F)C(S(=O)(=O)N)=CC=C1C(=O)N1C[C@H]2CN(C(=O)OCC=3C=CC(OC(F)(F)F)=CC=3)C[C@@H]2C1 PCBOWMZAEDDKNH-HOTGVXAUSA-N 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 125000004429 atom Chemical group 0.000 description 2
- DZBUGLKDJFMEHC-UHFFFAOYSA-N benzoquinolinylidene Natural products C1=CC=CC2=CC3=CC=CC=C3N=C21 DZBUGLKDJFMEHC-UHFFFAOYSA-N 0.000 description 2
- 239000003990 capacitor Substances 0.000 description 2
- 150000001716 carbazoles Chemical class 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 150000004696 coordination complex Chemical class 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 125000003709 fluoroalkyl group Chemical group 0.000 description 2
- 150000002391 heterocyclic compounds Chemical class 0.000 description 2
- 150000002460 imidazoles Chemical class 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000009413 insulation Methods 0.000 description 2
- 229940079865 intestinal antiinfectives imidazole derivative Drugs 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 125000002080 perylenyl group Chemical group C1(=CC=C2C=CC=C3C4=CC=CC5=CC=CC(C1=C23)=C45)* 0.000 description 2
- 229920002098 polyfluorene Polymers 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 229910052814 silicon oxide Inorganic materials 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 229910052719 titanium Inorganic materials 0.000 description 2
- WFKWXMTUELFFGS-UHFFFAOYSA-N tungsten Chemical compound [W] WFKWXMTUELFFGS-UHFFFAOYSA-N 0.000 description 2
- 229910052721 tungsten Inorganic materials 0.000 description 2
- 239000010937 tungsten Substances 0.000 description 2
- HQALDKFFRYFTKP-UHFFFAOYSA-N 2-[4-[4-(2-benzyl-1-benzothiophen-3-yl)phenyl]-2-bromo-6-(3-methoxyphenyl)phenoxy]acetic acid Chemical compound COC1=CC=CC(C=2C(=C(Br)C=C(C=2)C=2C=CC(=CC=2)C=2C3=CC=CC=C3SC=2CC=2C=CC=CC=2)OCC(O)=O)=C1 HQALDKFFRYFTKP-UHFFFAOYSA-N 0.000 description 1
- 229910000980 Aluminium gallium arsenide Inorganic materials 0.000 description 1
- IVHVNMLJNASKHW-UHFFFAOYSA-M Chlorphonium chloride Chemical group [Cl-].CCCC[P+](CCCC)(CCCC)CC1=CC=C(Cl)C=C1Cl IVHVNMLJNASKHW-UHFFFAOYSA-M 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- ORGPJDKNYMVLFL-UHFFFAOYSA-N Coumalic acid Chemical compound OC(=O)C=1C=CC(=O)OC=1 ORGPJDKNYMVLFL-UHFFFAOYSA-N 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 1
- FYYHWMGAXLPEAU-UHFFFAOYSA-N Magnesium Chemical compound [Mg] FYYHWMGAXLPEAU-UHFFFAOYSA-N 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- XYFCBTPGUUZFHI-UHFFFAOYSA-N Phosphine Chemical group P XYFCBTPGUUZFHI-UHFFFAOYSA-N 0.000 description 1
- 229910004298 SiO 2 Inorganic materials 0.000 description 1
- QCWXUUIWCKQGHC-UHFFFAOYSA-N Zirconium Chemical compound [Zr] QCWXUUIWCKQGHC-UHFFFAOYSA-N 0.000 description 1
- RWBMMASKJODNSV-UHFFFAOYSA-N [1]benzothiolo[2,3-g][1]benzothiole Chemical class C1=CC=C2C3=C(SC=C4)C4=CC=C3SC2=C1 RWBMMASKJODNSV-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 239000000980 acid dye Substances 0.000 description 1
- 125000002252 acyl group Chemical group 0.000 description 1
- 125000004442 acylamino group Chemical group 0.000 description 1
- 125000004423 acyloxy group Chemical group 0.000 description 1
- 125000003545 alkoxy group Chemical group 0.000 description 1
- 125000003282 alkyl amino group Chemical group 0.000 description 1
- 125000004390 alkyl sulfonyl group Chemical group 0.000 description 1
- 125000004414 alkyl thio group Chemical group 0.000 description 1
- 125000003277 amino group Chemical group 0.000 description 1
- 150000001454 anthracenes Chemical class 0.000 description 1
- 229940058303 antinematodal benzimidazole derivative Drugs 0.000 description 1
- 150000001491 aromatic compounds Chemical class 0.000 description 1
- 125000001769 aryl amino group Chemical group 0.000 description 1
- 125000005104 aryl silyl group Chemical group 0.000 description 1
- 125000005163 aryl sulfanyl group Chemical group 0.000 description 1
- 125000004391 aryl sulfonyl group Chemical group 0.000 description 1
- 125000003785 benzimidazolyl group Chemical class N1=C(NC2=C1C=CC=C2)* 0.000 description 1
- 150000001565 benzotriazoles Chemical class 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 125000002915 carbonyl group Chemical group [*:2]C([*:1])=O 0.000 description 1
- 125000003178 carboxy group Chemical group [H]OC(*)=O 0.000 description 1
- 150000004770 chalcogenides Chemical class 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- WDECIBYCCFPHNR-UHFFFAOYSA-N chrysene Chemical class C1=CC=CC2=CC=C3C4=CC=CC=C4C=CC3=C21 WDECIBYCCFPHNR-UHFFFAOYSA-N 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 150000001907 coumarones Chemical class 0.000 description 1
- 125000004093 cyano group Chemical group *C#N 0.000 description 1
- 125000006165 cyclic alkyl group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 150000004826 dibenzofurans Chemical class 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 229910052735 hafnium Inorganic materials 0.000 description 1
- VBJZVLUMGGDVMO-UHFFFAOYSA-N hafnium atom Chemical compound [Hf] VBJZVLUMGGDVMO-UHFFFAOYSA-N 0.000 description 1
- 229910000449 hafnium oxide Inorganic materials 0.000 description 1
- WIHZLLGSGQNAGK-UHFFFAOYSA-N hafnium(4+);oxygen(2-) Chemical compound [O-2].[O-2].[Hf+4] WIHZLLGSGQNAGK-UHFFFAOYSA-N 0.000 description 1
- 150000004820 halides Chemical class 0.000 description 1
- 125000005843 halogen group Chemical group 0.000 description 1
- 238000004770 highest occupied molecular orbital Methods 0.000 description 1
- 125000002887 hydroxy group Chemical group [H]O* 0.000 description 1
- AMGQUBHHOARCQH-UHFFFAOYSA-N indium;oxotin Chemical compound [In].[Sn]=O AMGQUBHHOARCQH-UHFFFAOYSA-N 0.000 description 1
- 229910010272 inorganic material Inorganic materials 0.000 description 1
- 239000011147 inorganic material Substances 0.000 description 1
- 239000011810 insulating material Substances 0.000 description 1
- AWJUIBRHMBBTKR-UHFFFAOYSA-N isoquinoline Chemical class C1=NC=CC2=CC=CC=C21 AWJUIBRHMBBTKR-UHFFFAOYSA-N 0.000 description 1
- 238000010030 laminating Methods 0.000 description 1
- 229910052747 lanthanoid Inorganic materials 0.000 description 1
- 150000002602 lanthanoids Chemical class 0.000 description 1
- 239000003446 ligand Substances 0.000 description 1
- 238000004768 lowest unoccupied molecular orbital Methods 0.000 description 1
- 239000011777 magnesium Substances 0.000 description 1
- 229910052749 magnesium Inorganic materials 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 150000002790 naphthalenes Chemical class 0.000 description 1
- 125000000449 nitro group Chemical group [O-][N+](*)=O 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 125000004433 nitrogen atom Chemical group N* 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 150000007978 oxazole derivatives Chemical class 0.000 description 1
- 125000004430 oxygen atom Chemical group O* 0.000 description 1
- 150000002964 pentacenes Chemical class 0.000 description 1
- 150000002987 phenanthrenes Chemical class 0.000 description 1
- 150000005041 phenanthrolines Chemical class 0.000 description 1
- 150000002988 phenazines Chemical class 0.000 description 1
- 125000001997 phenyl group Chemical group [H]C1=C([H])C([H])=C(*)C([H])=C1[H] 0.000 description 1
- IEQIEDJGQAUEQZ-UHFFFAOYSA-N phthalocyanine Chemical class N1C(N=C2C3=CC=CC=C3C(N=C3C4=CC=CC=C4C(=N4)N3)=N2)=C(C=CC=C2)C2=C1N=C1C2=CC=CC=C2C4=N1 IEQIEDJGQAUEQZ-UHFFFAOYSA-N 0.000 description 1
- 239000001007 phthalocyanine dye Substances 0.000 description 1
- 150000003039 picenes Chemical class 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 229920000553 poly(phenylenevinylene) Polymers 0.000 description 1
- 229920000123 polythiophene Polymers 0.000 description 1
- 150000003216 pyrazines Chemical class 0.000 description 1
- 150000003217 pyrazoles Chemical class 0.000 description 1
- 150000003220 pyrenes Chemical class 0.000 description 1
- 150000003222 pyridines Chemical class 0.000 description 1
- 150000003230 pyrimidines Chemical class 0.000 description 1
- 150000003248 quinolines Chemical class 0.000 description 1
- XSCHRSMBECNVNS-UHFFFAOYSA-N quinoxaline Chemical class N1=CC=NC2=CC=CC=C21 XSCHRSMBECNVNS-UHFFFAOYSA-N 0.000 description 1
- PYWVYCXTNDRMGF-UHFFFAOYSA-N rhodamine B Chemical compound [Cl-].C=12C=CC(=[N+](CC)CC)C=C2OC2=CC(N(CC)CC)=CC=C2C=1C1=CC=CC=C1C(O)=O PYWVYCXTNDRMGF-UHFFFAOYSA-N 0.000 description 1
- 125000005353 silylalkyl group Chemical group 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 125000000472 sulfonyl group Chemical group *S(*)(=O)=O 0.000 description 1
- 229910052717 sulfur Inorganic materials 0.000 description 1
- 125000004434 sulfur atom Chemical group 0.000 description 1
- 229910052715 tantalum Inorganic materials 0.000 description 1
- GUVRBAGPIYLISA-UHFFFAOYSA-N tantalum atom Chemical compound [Ta] GUVRBAGPIYLISA-UHFFFAOYSA-N 0.000 description 1
- 150000003518 tetracenes Chemical class 0.000 description 1
- 150000003536 tetrazoles Chemical class 0.000 description 1
- 150000007979 thiazole derivatives Chemical class 0.000 description 1
- VJYJJHQEVLEOFL-UHFFFAOYSA-N thieno[3,2-b]thiophene Chemical class S1C=CC2=C1C=CS2 VJYJJHQEVLEOFL-UHFFFAOYSA-N 0.000 description 1
- 150000003577 thiophenes Chemical class 0.000 description 1
- TVIVIEFSHFOWTE-UHFFFAOYSA-K tri(quinolin-8-yloxy)alumane Chemical compound [Al+3].C1=CN=C2C([O-])=CC=CC2=C1.C1=CN=C2C([O-])=CC=CC2=C1.C1=CN=C2C([O-])=CC=CC2=C1 TVIVIEFSHFOWTE-UHFFFAOYSA-K 0.000 description 1
- VPYJNCGUESNPMV-UHFFFAOYSA-N triallylamine Chemical class C=CCN(CC=C)CC=C VPYJNCGUESNPMV-UHFFFAOYSA-N 0.000 description 1
- 150000003918 triazines Chemical class 0.000 description 1
- 229910052727 yttrium Inorganic materials 0.000 description 1
- VWQVUPCCIRVNHF-UHFFFAOYSA-N yttrium atom Chemical compound [Y] VWQVUPCCIRVNHF-UHFFFAOYSA-N 0.000 description 1
- 239000011787 zinc oxide Substances 0.000 description 1
- 229910052726 zirconium Inorganic materials 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14609—Pixel-elements with integrated switching, control, storage or amplification elements
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14618—Containers
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/1462—Coatings
- H01L27/14621—Colour filter arrangements
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
- H01L27/14627—Microlenses
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/1463—Pixel isolation structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14634—Assemblies, i.e. Hybrid structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14636—Interconnect structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14645—Colour imagers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/131—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/17—Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/60—Noise processing, e.g. detecting, correcting, reducing or removing noise
- H04N25/65—Noise processing, e.g. detecting, correcting, reducing or removing noise applied to reset noise, e.g. KTC noise related to CMOS structures by techniques other than CDS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/766—Addressed sensors, e.g. MOS or CMOS sensors comprising control or output lines used for a plurality of functions, e.g. for pixel output, driving, reset or power
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/779—Circuitry for scanning or addressing the pixel array
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/78—Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/79—Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
Definitions
- This disclosure relates to a solid-state image sensor and an electronic device.
- Patent Documents 1 and 2 disclose a technique for acquiring a color image of visible light and a monochrome image of infrared light by using an image sensor that detects visible light and an image sensor that detects infrared light. Has been done.
- the present disclosure proposes a solid-state image sensor and an electronic device capable of improving the accuracy of the result obtained by processing the information acquired by different sensors in an integrated manner.
- the solid-state imaging device has a first sensor that detects light in the first wavelength band and light in a second wavelength band different from the first wavelength band.
- the first sensor includes a second sensor for detecting, the first sensor includes a first pixel for detecting the light of the first wavelength band in the incident light, and the second sensor is the first pixel of the incident light. It is provided with a second pixel for detecting the light of the second wavelength band transmitted through the light.
- CMOS Complementary Metal-Oxide Semiconductor
- CCD Charge-Coupled Device
- FIG. 1 is a block diagram showing a schematic configuration example of an electronic device equipped with an image sensor according to the first embodiment.
- the electronic device 1 includes, for example, an image pickup lens 2, an image sensor 100, a storage unit 3, and a processor 4.
- the image pickup lens 2 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the image sensor 100.
- the light receiving surface may be a surface on which the photoelectric conversion elements in the image sensor 100 are arranged.
- the image sensor 100 photoelectrically converts the incident light to generate image data. Further, the image sensor 100 executes predetermined signal processing such as noise reduction and white balance adjustment on the generated image data.
- the storage unit 3 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and records image data or the like input from the image sensor 100.
- the processor 4 is configured by using, for example, a CPU (Central Processing Unit) or the like, and may include an application processor that executes an operating system, various application software, and the like, a GPU (Graphics Processing Unit), a baseband processor, and the like.
- the processor 4 executes various processes as necessary for the image data input from the image sensor 100, the image data read from the storage unit 3, and the like, displays the image to the user, and establishes a predetermined network. Send to the outside via.
- a CPU Central Processing Unit
- the processor 4 executes various processes as necessary for the image data input from the image sensor 100, the image data read from the storage unit 3, and the like, displays the image to the user, and establishes a predetermined network. Send to the outside via.
- the processor 4 integrates the color image read from the RGB pixel 10 described later and the monochrome image (IR image) read from the IR pixel 20 to perform distance measurement processing and recognition processing. Various processes such as can be executed.
- FIG. 2 is a block diagram showing a schematic configuration example of a CMOS type image sensor according to the first embodiment.
- the image sensor 100 has, for example, a stack structure in which a semiconductor chip on which a pixel array portion 101 is formed and a semiconductor chip on which a peripheral circuit is formed are laminated.
- Peripheral circuits may include, for example, a pixel drive circuit 102, a signal processing circuit 103, a column drive circuit 104, and a system control unit 105.
- the image sensor 100 further includes a data processing unit 108 and a data storage unit 109.
- the data processing unit 108 and the data storage unit 109 may be provided on the same semiconductor chip as the peripheral circuit, or may be provided on another semiconductor chip.
- unit pixels (hereinafter, may be simply referred to as “pixels”) 110 having a photoelectric conversion element that generates and stores electric charges according to the amount of received light are in the row direction and the column direction, that is, , Has a structure arranged in a two-dimensional grid pattern in a matrix.
- the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction)
- the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction).
- the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row with respect to the matrix-shaped pixel array.
- the pixel drive line LD transmits a control signal for driving when reading a signal from a pixel.
- the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one.
- One end of the pixel drive line LD is connected to the output end corresponding to each line of the pixel drive circuit 102.
- the pixel drive circuit 102 is composed of a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 101 simultaneously for all pixels or in line units. That is, the pixel drive circuit 102 constitutes a drive unit that controls the operation of each pixel of the pixel array unit 101 together with the system control unit 105 that controls the pixel drive circuit 102. Although the specific configuration of the pixel drive circuit 102 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
- the read-scanning system selectively scans the unit pixels of the pixel array unit 101 row by row in order to read a signal from the unit pixels.
- the signal read from the unit pixel is an analog signal.
- the sweep scan system performs sweep scan for the read row on which read scan is performed by the read scan system, ahead of the read scan by the exposure time.
- the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of the unit pixel of the read row. Then, by sweeping out (resetting) unnecessary charges with this sweeping scanning system, a so-called electronic shutter operation is performed.
- the electronic shutter operation refers to an operation in which the electric charge of the photoelectric conversion element is discarded and a new exposure is started (charge accumulation is started).
- the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that.
- the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as an exposure period) in the unit pixel.
- the signal output from each unit pixel of the pixel row selectively scanned by the pixel drive circuit 102 is input to the signal processing circuit 103 through each of the vertical signal lines VSL for each pixel column.
- the signal processing circuit 103 performs predetermined signal processing on the signal output from each pixel of the selected row through the vertical signal line VSL for each pixel row of the pixel array unit 101, and temporarily processes the pixel signal after the signal processing. Hold on.
- the signal processing circuit 103 performs at least noise reduction processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
- CDS Correlated Double Sampling
- DDS Double Data Sampling
- the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel.
- the signal processing circuit 103 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
- AD analog-digital
- the column drive circuit 104 is composed of a shift register, an address decoder, and the like, and a read circuit (hereinafter referred to as a pixel circuit) corresponding to the pixel sequence of the signal processing circuit 103 is sequentially selected.
- a read circuit hereinafter referred to as a pixel circuit
- the system control unit 105 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the pixel drive circuit 102, the signal processing circuit 103, and the column drive circuit 104. Drive control such as.
- the data processing unit 108 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the image signal output from the signal processing circuit 103.
- the data storage unit 109 temporarily stores the data necessary for the signal processing in the data processing unit 108.
- the image data output from the data processing unit 108 may be, for example, executed by a processor 4 or the like in an electronic device 1 equipped with an image sensor 100, or transmitted to the outside via a predetermined network. You may.
- the unit pixel 110 includes an RGB pixel for acquiring a color image of the three primary colors of RGB and an IR pixel for acquiring a monochrome image of infrared (IR) light.
- an RGB pixel may correspond to an example of a first pixel in a claim range
- an IR pixel may correspond to an example of a second pixel in a claim range
- a sensor including an RGB pixel may correspond to a second pixel in the claim range. It may correspond to an example of one sensor, and a sensor including an IR pixel may correspond to an example of a second sensor within the scope of the claim.
- Visible light containing the three primary colors of RGB may correspond to, for example, an example of light in the first wavelength band in the claims
- IR light may correspond to, for example, an example of light in the second wavelength band in the claims. obtain.
- the reference numeral is 31.
- FIG. 3 is a schematic diagram showing a schematic configuration example of the pixel array unit according to the present embodiment.
- unit pixels 110 having a structure in which unit pixels 110 composed of RGB pixels 10 and IR pixels 20 are arranged along the incident direction of light are arranged in a two-dimensional grid pattern. It has a configuration. That is, in the present embodiment, the RGB pixels 10 and the IR pixels 20 are located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 110, and the RGB pixels 10 are located on the upstream side in the optical path of the incident light.
- the light transmitted through the image is configured to enter the IR pixel 20 located on the downstream side of the RGB pixel 10.
- the photoelectric conversion unit PD2 of the IR pixel 20 is arranged on the surface side opposite to the incident surface of the incident light in the photoelectric conversion unit PD1 of the RGB pixel 10.
- the optical axes of the incident light of the RGB pixels 10 and the IR pixels 20 arranged along the incident direction of the light are coincident or substantially the same.
- the photoelectric conversion unit PD1 constituting the RGB pixel 10 is composed of an organic material and the photoelectric conversion unit PD2 constituting the IR pixel 20 is composed of a semiconductor material such as silicon will be exemplified.
- both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a semiconductor material, or both the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of an organic material, or the photoelectric conversion unit may be made of an organic material.
- the part PD1 may be made of a semiconductor material, and the photoelectric conversion part PD2 may be made of an organic material.
- at least one of the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2 may be made of a photoelectric conversion material different from the organic material and the semiconductor material.
- FIG. 4 is a circuit diagram showing a schematic configuration example of a unit pixel according to the present embodiment.
- the unit pixel 110 includes one RGB pixel 10 and one IR pixel 20.
- the RGB pixel 10 includes, for example, a photoelectric conversion unit PD1, a transfer gate 11, a floating diffusion region FD1, a reset transistor 12, an amplification transistor 13, and a selection transistor 14.
- a selection control line included in the pixel drive line LD is connected to the gate of the selection transistor 14, and a reset control line included in the pixel drive line LD is connected to the gate of the reset transistor 12, which will be described later.
- a transfer control line included in the pixel drive line LD is connected to the storage electrode (see the storage electrode 37 in FIG. 8). Further, a vertical signal line VSL1 having one end connected to the signal processing circuit 103 is connected to the drain of the amplification transistor 13 via the selection transistor 14.
- the reset transistor 12, the amplification transistor 13, and the selection transistor 14 are collectively referred to as a pixel circuit.
- the pixel circuit may include a stray diffusion region FD1 and / or a transfer gate 11.
- the photoelectric conversion unit PD1 is made of, for example, an organic material, and performs photoelectric conversion of incident light.
- the transfer gate 11 transfers the electric charge generated in the photoelectric conversion unit PD1.
- the floating diffusion region FD1 accumulates the electric charge transferred by the transfer gate 11.
- the amplification transistor 13 causes a pixel signal having a voltage value corresponding to the electric charge stored in the stray diffusion region FD1 to appear on the vertical signal line VSL1.
- the reset transistor 12 emits the electric charge accumulated in the stray diffusion region FD1.
- the selection transistor 14 selects the RGB pixel 10 to be read.
- the anode of the photoelectric conversion unit PD1 is grounded, and the cascade is connected to the transfer gate 11.
- the details of the transfer gate 11 will be described later with reference to FIG. 8, but the transfer gate 11 includes, for example, a storage electrode 37 and a read electrode 36.
- a voltage for collecting the electric charge generated in the photoelectric conversion unit PD1 in the semiconductor layer 35 in the vicinity of the storage electrode 37 is applied to the storage electrode 37 via the transfer control line.
- a voltage for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36 is applied to the storage electrode 37 via the transfer control line.
- the electric charge flowing out through the read electrode 36 is accumulated in the stray diffusion region FD1 configured by the wiring structure connecting the read electrode 36, the source of the reset transistor 12, and the gate of the amplification transistor 13.
- the drain of the reset transistor 12 may be connected to, for example, a power supply line to which a reset voltage lower than the power supply voltage VDD or the power supply voltage VDD is supplied.
- the source of the amplification transistor 13 may be connected to the power line via, for example, a constant current circuit (not shown).
- the drain of the amplification transistor 13 is connected to the source of the selection transistor 14, and the drain of the selection transistor 14 is connected to the vertical signal line VSL1.
- the floating diffusion region FD1 converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
- the floating diffusion region FD1 may be, for example, a grounding capacitance.
- the present invention is not limited to this, and the stray diffusion region FD1 is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer gate 11 and the source of the reset transistor 12 and the gate of the amplification transistor 13 are connected. It may be a capacity or the like.
- the vertical signal line VSL1 is connected to an AD (Analog-to-Digital) conversion circuit 103A provided for each column (that is, for each vertical signal line VSL1) in the signal processing circuit 103.
- the AD conversion circuit 103A includes, for example, a comparator and a counter, and has a reference voltage such as a single slope or a lamp shape input from an external reference voltage generation circuit (DAC (Digital-to-Analog Converter)) and a vertical signal. By comparing with the pixel signal appearing on the line VSL1, the analog pixel signal is converted into the digital pixel signal.
- the AD conversion circuit 103A may be provided with, for example, a CDS (Correlated Double Sampling) circuit and may be configured to be able to reduce kTC noise and the like.
- the IR pixel 20 includes, for example, a photoelectric conversion unit PD2, a transfer transistor 21, a floating diffusion region FD2, a reset transistor 22, an amplification transistor 23, a selection transistor 24, and an emission transistor 25. That is, in the IR pixel 20, the transfer gate 11 in the RGB pixel 10 is replaced with the transfer transistor 21, and the emission transistor 25 is added.
- connection relationship between the stray diffusion region FD2, the reset transistor 22 and the amplification transistor 23 with respect to the transfer transistor 21 may be the same as the connection relationship between the stray diffusion region FD1, the reset transistor 12 and the amplification transistor 13 with respect to the transfer gate 11 in the RGB pixel 10. .. Further, the connection relationship between the amplification transistor 23, the selection transistor 24, and the vertical signal line VSL2 may be the same as the connection relationship between the amplification transistor 13 and the selection transistor 14 and the vertical signal line VSL1 in the RGB pixel 10.
- the source of the transfer transistor 21 is connected to, for example, the cathode of the photoelectric conversion unit PD2, and the drain is connected to the floating diffusion region FD2. Further, a transfer control line included in the pixel drive line LD is connected to the gate of the transfer transistor 21.
- the source of the emission transistor 25 may be connected to, for example, the cathode of the photoelectric conversion unit PD2, and the drain may be connected to a power supply line to which a reset voltage lower than the power supply voltage VDD or the power supply voltage VDD is supplied. Further, the emission control line included in the pixel drive line LD is connected to the gate of the emission transistor 25.
- the reset transistor 22, the amplification transistor 23, and the selection transistor 24 are collectively referred to as a pixel circuit.
- This pixel circuit may include one or more of the stray diffusion region FD2, the transfer transistor 21, and the emission transistor 25.
- the photoelectric conversion unit PD2 is made of, for example, a semiconductor material, and performs photoelectric conversion of incident light.
- the transfer transistor 21 transfers the electric charge generated in the photoelectric conversion unit PD2.
- the floating diffusion region FD2 accumulates the electric charge transferred by the transfer transistor 21.
- the amplification transistor 23 causes a pixel signal having a voltage value corresponding to the electric charge accumulated in the stray diffusion region FD2 to appear on the vertical signal line VSL2.
- the reset transistor 22 emits the electric charge accumulated in the stray diffusion region FD2.
- the selection transistor 24 selects the IR pixel 20 to be read.
- the anode of the photoelectric conversion unit PD2 is grounded, and the cascade is connected to the transfer transistor 21.
- the drain of the transfer transistor 21 is connected to the source of the reset transistor 22 and the gate of the amplification transistor 23, and the wiring structure connecting these constitutes the floating diffusion layer FD2.
- the electric charge flowing out from the photoelectric conversion unit PD2 via the transfer transistor 21 is accumulated in the floating diffusion region FD2.
- the floating diffusion region FD2 converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
- the floating diffusion region FD2 may be, for example, a grounding capacity.
- the present invention is not limited to this, and the stray diffusion region FD2 is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer transistor 21, the source of the reset transistor 22, and the gate of the amplification transistor 23 are connected. It may be a capacity or the like.
- the discharge transistor 25 is turned on when the charge accumulated in the photoelectric conversion unit PD2 is discharged and the photoelectric conversion unit PD2 is reset. As a result, the electric charge accumulated in the photoelectric conversion unit PD2 flows out to the power supply line via the discharge transistor 25, and the photoelectric conversion unit PD2 is reset to an unexposed state.
- the vertical signal line VSL2 is connected to the AD conversion circuit 103B provided for each column (that is, for each vertical signal line VSL2) in the signal processing circuit 103.
- the AD conversion circuit 103B may have the same configuration as the AD conversion circuit 103A.
- FIG. 5 is a circuit diagram showing a schematic configuration example of a unit pixel according to the first modification of the present embodiment.
- the unit pixel 110-1 is configured so that the vertical signal lines VSL1 and VSL2 are connected to the common AD conversion circuit 103A in the same configuration as the unit pixel 110 shown in FIG. .. Therefore, in the first modification, a switch circuit 131 for switching the vertical signal line connected to the AD conversion circuit 103A to either the vertical signal lines VSL1 or VSL2 is provided.
- the switch circuit 131 may be provided, for example, on the same semiconductor substrate as the pixel circuit of the RGB pixels 10 and / or the IR pixels 20, or may be provided on the semiconductor substrate on which the signal processing circuit 103 is arranged.
- control signal for controlling the switch circuit 131 may be supplied from the pixel drive circuit 102, the column drive circuit 104, or another configuration (for example, the processor 4 in FIG. 1). May be done.
- the circuit scale of the signal processing circuit 103 can be reduced, so that the image sensor 100 can be made smaller and have higher resolution by improving the area efficiency.
- FIG. 6 is a circuit diagram showing a schematic configuration example of a unit pixel according to the second modification of the present embodiment.
- the unit pixel 110-2 connects the vertical signal lines VSL1 and VSL2 to one of the two AD conversion circuits 103A and 103B, respectively, in the same configuration as the unit pixel 110 shown in FIG. It is configured to be able to. Therefore, in the second modification, the switch circuit 132 that switches the vertical signal line connected to the AD conversion circuit 103A to either the vertical signal lines VSL1 or VSL2 and the vertical signal line connected to the AD conversion circuit 103B are vertical.
- a switch circuit 133 for switching to either the signal line VSL1 or VSL2 is provided.
- the switch circuits 132 and 133 may be provided, for example, on the same semiconductor substrate as the pixel circuit of the RGB pixel 10 and / or the IR pixel 20, or may be provided on the semiconductor substrate on which the signal processing circuit 103 is arranged. , They may be provided on a semiconductor substrate different from these. Further, the control signal for controlling the switch circuits 132 and 133 may be supplied from the pixel drive circuit 102, the column drive circuit 104, or another configuration (for example, the processor 4 in FIG. 1). It may be supplied from.
- FIG. 7 is a circuit diagram showing a schematic configuration example of a unit pixel according to the third modification of the present embodiment.
- the unit pixel 110-3 has a configuration similar to that of the unit pixel 110-2 shown in FIG. 6 with respect to the RGB pixel 10, and a plurality of RGB pixels 10-1 to 10-N (N is 2 or more).
- a so-called pixel-sharing circuit structure that shares the floating diffusion region FD1, the reset transistor 12, the amplification transistor 13, and the selection transistor 14 in the floating diffusion region FD1).
- the unit pixel 110-3 also has the same configuration as the unit pixel 110-2 shown in FIG.
- the floating diffusion region FD2 has a plurality of IR pixels 20-1 to 20-N. It has a so-called pixel-sharing circuit structure that shares the reset transistor 22, the amplification transistor 23, and the selection transistor 24.
- the number of RGB pixels 10-1 to 10-N and the number of IR pixels 20-1 to 20-N do not necessarily have to match.
- FIG. 8 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the first embodiment.
- FIG. 8 an example of the cross-sectional structure of the semiconductor chip in which the photoelectric conversion units PD1 and PD2 are formed in the unit pixel 110 will be described.
- a so-called back-illuminated cross-sectional structure in which the incident surface of light is the back surface side (opposite the element forming surface) of the semiconductor substrate 50 is exemplified, but the present invention is not limited to this, and the incident surface of light is incident. It may have a so-called surface-illuminated cross-sectional structure in which the surface is the surface side (element forming surface side) of the semiconductor substrate 50.
- the photoelectric conversion materials of the photoelectric conversion units PD1 and PD2 are organic materials and semiconductors. One or both of the materials (also referred to as inorganic materials) may be used.
- the image sensor 100 uses the same semiconductor substrate 50 for the photoelectric conversion unit PD1 and the photoelectric conversion unit PD2. It may have a built-in cross-sectional structure, or it may have a cross-sectional structure in which a semiconductor substrate in which the photoelectric conversion unit PD1 is built and a semiconductor substrate in which the photoelectric conversion unit PD2 is built are bonded together. Further, one of the photoelectric conversion units PD1 and PD2 may have a cross-sectional structure formed in the semiconductor substrate 50 and the other in the semiconductor layer formed on the back surface or the front surface of the semiconductor substrate 50. ..
- the photoelectric conversion unit PD2 of the IR pixel 20 is formed on the semiconductor substrate 50, and the RGB pixels are formed on the back surface side (opposite the element forming surface) of the semiconductor substrate 50. It has a structure provided with a photoelectric conversion unit PD1.
- the back surface of the semiconductor substrate 50 is located on the upper side of the paper surface, and the front surface is located on the lower side.
- a semiconductor material such as silicon (Si) may be used.
- Si silicon
- the present invention is not limited to this, and various semiconductor materials including compound semiconductors such as GaAs, InGaAs, InP, AlGaAs, InGaP, AlGaInP, and InGaAsP may be used.
- the photoelectric conversion unit PD1 of the RGB pixel 10 is provided on the back surface side of the semiconductor substrate 50 with the insulating layer 53 interposed therebetween.
- the photoelectric conversion unit PD1 includes, for example, a photoelectric conversion film 34 made of an organic material, a transparent electrode 33 arranged so as to sandwich the photoelectric conversion film 34, and a semiconductor layer 35.
- the transparent electrode 33 provided on the upper side of the paper surface with respect to the photoelectric conversion film 34 (hereinafter, the upper side of the paper surface is the upper surface side and the lower side is the lower surface side) functions as, for example, the anode of the photoelectric conversion unit PD1.
- the semiconductor layer 35 provided on the lower surface side functions as a cathode of the photoelectric conversion unit PD1.
- the semiconductor layer 35 that functions as a cathode is electrically connected to the readout electrode 36 formed in the insulating layer 53.
- the readout electrode 36 is electrically drawn out to the surface (lower surface) side of the semiconductor substrate 50 by connecting to the wirings 61, 62, 63, and 64 penetrating the insulating layer 53 and the semiconductor substrate 50.
- the wiring 64 is electrically connected to the floating diffusion region FD1 shown in FIG.
- a storage electrode 37 is provided on the lower surface side of the semiconductor layer 35 that functions as a cathode with an insulating layer 53 interposed therebetween. Although not shown in FIG. 8, the storage electrode 37 is connected to the transfer control line in the pixel drive line LD, and as described above, the charge generated in the photoelectric conversion unit PD1 at the time of exposure is stored in the storage electrode 37. A voltage for collecting the electric charge is applied to the semiconductor layer 35 in the vicinity, and at the time of reading, a voltage is applied for causing the electric charge collected in the semiconductor layer 35 in the vicinity of the storage electrode 37 to flow out through the reading electrode 36.
- the readout electrode 36 and the storage electrode 37 may be a transparent conductive film like the transparent electrode 33.
- a transparent conductive film such as indium tin oxide (ITO) or zinc oxide (IZO) may be used.
- ITO indium tin oxide
- IZO zinc oxide
- the present invention is not limited to these, and various conductive films may be used as long as the conductive film can transmit light in the wavelength band to be detected by the photoelectric conversion unit PD2.
- the semiconductor layer 35 for example, a transparent semiconductor layer such as IGZO may be used.
- IGZO a transparent semiconductor layer
- the present invention is not limited to these, and various semiconductor layers may be used as long as they are semiconductor layers capable of transmitting light in the wavelength band to be detected by the photoelectric conversion unit PD2.
- an insulating film such as a silicon oxide film (SiO 2 ) or a silicon nitride film (SiN) may be used.
- SiO 2 silicon oxide film
- SiN silicon nitride film
- the present invention is not limited to these, and various insulating films may be used as long as they can transmit light in the wavelength band to be detected by the photoelectric conversion unit PD2.
- a color filter 31 is provided on the upper surface side of the transparent electrode 33 that functions as an anode with a sealing film 32 interposed therebetween.
- the sealing film 32 is made of an insulating material such as silicon nitride (SiN), and these atoms are prevented from diffusing atoms such as aluminum (Al) and titanium (Ti) from the transparent electrode 33. May include.
- the color filters 31 will be described later. For example, for one RGB pixel 10, a color filter 31 that selectively transmits light having a specific wavelength component is provided. However, when a monochrome pixel for acquiring luminance information is provided instead of the RGB pixel 10 for acquiring color information, the color filter 31 may be omitted.
- the photoelectric conversion unit PD2 of the IR pixel 20 has, for example, a p-type semiconductor region 43 formed in the p-well region 42 of the semiconductor substrate 50 and an n-type semiconductor region 44 formed near the center of the p-type semiconductor region 43. Be prepared.
- the n-type semiconductor region 44 functions as, for example, a charge storage region for accumulating charges (electrons) generated by photoelectric conversion, and the p-type semiconductor region 43 collects charges generated by photoelectric conversion in the n-type semiconductor region 44. Functions as a region to form a potential gradient for.
- an IR filter 41 that selectively transmits IR light is arranged on the light incident surface side of the photoelectric conversion unit PD2.
- the IR filter 41 may be arranged, for example, in the insulating layer 53 provided on the back surface side of the semiconductor substrate 50.
- a fine uneven structure is provided on the light incident surface of the semiconductor substrate 50 in order to suppress the reflection of the incident light (IR light in this example).
- This uneven structure may be a so-called moth-eye structure, or may be a uneven structure having a different size and pitch from the moth-eye structure.
- a vertical transistor 45 that functions as a transfer transistor 21 and a stray diffusion region FD2 that functions as a charge storage portion are provided on the surface (lower surface of the paper surface) side of the semiconductor substrate 50, that is, on the element forming surface side.
- the gate electrode of the vertical transistor 45 reaches from the surface of the semiconductor substrate 50 to the n-type semiconductor region 44, and is a part of the wirings 65 and 66 (a part of the transfer control line of the pixel drive line LD) formed in the interlayer insulating film 56. ) Is connected to the pixel drive circuit 102.
- the electric charge flowing out through the vertical transistor 45 is accumulated in the stray diffusion region FD2.
- the floating diffusion region FD2 is connected to the source of the reset transistor 22 and the gate of the amplification transistor 23 via the wirings 67 and 68 formed in the interlayer insulating film 56.
- the reset transistor 22, the amplification transistor 23, and the selection transistor 24 may be provided on the element forming surface of the semiconductor substrate 50, or may be provided on a semiconductor substrate different from the semiconductor substrate 50.
- FIG. 8 illustrates a case where two vertical transistors 45 (transfer transistors 21) are provided for one photoelectric conversion unit PD2, but the present invention is not limited to this, and one vertical transistor is not limited to this. 45 may be provided, or three or more vertical transistors 45 may be provided.
- the case where two floating diffusion regions FD2 are provided for one photoelectric conversion unit PD2 is exemplified, but the present invention is not limited to this, and one floating diffusion region FD2 may be provided. Three or more floating diffusion regions FD2 may be provided.
- the semiconductor substrate 50 is provided with a pixel separation unit 54 that electrically separates between a plurality of unit pixels 110, and a photoelectric conversion unit PD2 is provided in each region partitioned by the pixel separation unit 54. ..
- the pixel separation unit 54 has, for example, a grid shape interposed between a plurality of unit pixels 110, and each photoelectric.
- the conversion unit PD2 is formed in each region partitioned by the pixel separation unit 54.
- a reflective film that reflects light such as tungsten (W) or aluminum (Al) may be used.
- the incident light that has entered the photoelectric conversion unit PD2 can be reflected by the pixel separation unit 54, so that the optical path length of the incident light in the photoelectric conversion unit PD2 can be lengthened.
- the pixel separation unit 54 by forming the pixel separation unit 54 with a light reflection structure, it is possible to reduce leakage of light to adjacent pixels, so that it is possible to further improve image quality, distance measurement accuracy, and the like.
- the configuration in which the pixel separation unit 54 has a light reflection structure is not limited to the configuration using a reflective film, and can be realized, for example, by using a material having a refractive index different from that of the semiconductor substrate 50 for the pixel separation unit 54. can.
- a fixed charge film 55 is provided between the semiconductor substrate 50 and the pixel separation unit 54.
- the fixed charge film 55 uses, for example, a high dielectric having a negative fixed charge so that a positive charge (hole) storage region is formed at the interface with the semiconductor substrate 50 and the generation of dark current is suppressed. It is formed. Since the fixed charge film 55 is formed so as to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 138 due to the negative fixed charge, and a positive charge (hole) storage region is formed.
- the fixed charge film 55 can be formed of, for example, a hafnium oxide film (HfO 2 film). Further, the fixed charge film 55 can be formed so as to contain at least one of other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
- hafnium oxide film HfO 2 film
- other oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and lanthanoid element.
- FIG. 8 illustrates a case where the pixel separating portion 54 has a so-called FTI (Full Trench Isolation) structure in which the pixel separating portion 54 reaches from the front surface to the back surface of the semiconductor substrate 50, but the present invention is not limited to this, and for example, pixels. It is possible to adopt various element separation structures such as a so-called DTI (Deep Trench Isolation) structure in which the separation portion 54 is formed from the back surface or the front surface of the semiconductor substrate 50 to the vicinity of the middle part of the semiconductor substrate 50.
- FTI Frull Trench Isolation
- the upper surface of the flattening film 52 is flattened by, for example, CMP (Chemical Mechanical Polishing), and an on-chip lens 51 for each unit pixel 110 is provided on the flattened upper surface.
- the on-chip lens 51 of each unit pixel 110 has a curvature that collects incident light on the photoelectric conversion units PD1 and PD2.
- the positional relationship between the on-chip lens 51, the color filter 31, the IR filter 41, and the photoelectric conversion unit PD2 in each unit pixel 110 is adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101. May (pupil correction).
- a light-shielding film may be provided to prevent light incident obliquely from leaking to adjacent pixels.
- the light-shielding film may be located above the pixel separation portion 54 provided inside the semiconductor substrate 50 (upstream side in the optical path of the incident light).
- the position of the light-shielding film may be adjusted according to, for example, the distance (image height) from the center of the pixel array unit 101.
- Such a light-shielding film may be provided in, for example, the sealing film 32 or the flattening film 52.
- a light-shielding material such as aluminum (Al) or tungsten (W) may be used as the material of the light-shielding film.
- the layer structure of the photoelectric conversion film 34 can have the following structure. However, in the case of a laminated structure, the stacking order can be changed as appropriate.
- n-type organic semiconductor examples include fullerenes and fullerene derivatives (for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
- fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fullerenes derivatives (eg, fullerene fluorides, PCBM fullerene compounds, fullerene multimers, etc.).
- fullerenes and fullerene derivatives for example, fullerenes such as C60, C70 and C74 (higher-order fullerenes, encapsulated fullerenes, etc.) or fuller
- n-type organic semiconductor examples include heterocyclic compounds containing a nitrogen atom, an oxygen atom, and a sulfur atom, such as a pyridine derivative, a pyrazine derivative, a pyrimidine derivative, a triazine derivative, a quinoline derivative, a quinoxalin derivative, an isoquinolin derivative, and an acridin.
- Derivatives phenazine derivatives, phenanthroline derivatives, tetrazole derivatives, pyrazole derivatives, imidazole derivatives, thiazole derivatives, oxazole derivatives, imidazole derivatives, benzimidazole derivatives, benzotriazole derivatives, benzoxazole derivatives, benzoxazole derivatives, carbazole derivatives, benzofuran derivatives, dibenzofuran derivatives , Subporphyrazine derivative, polyphenylene vinylene derivative, polybenzothianazole derivative, polyfluorene derivative and the like as a part of the molecular skeleton, organic molecule, organic metal complex and subphthalocyanine derivative can be mentioned.
- Examples of the group contained in the fullerene derivative include a halogen atom; a linear, branched or cyclic alkyl group or phenyl group; a group having a linear or condensed aromatic compound; a group having a halide; a partial fluoroalkyl group; Fluoroalkyl group; silylalkyl group; silylalkoxy group; arylsilyl group;arylsulfanyl group;alkylsulfanyl group;arylsulfonyl group;alkylsulfonyl group;arylsulfide group;alkylsulfide group;amino group;alkylamino group;arylamino group Hydroxy group; alkoxy group; acylamino group; acyloxy group; carbonyl group; carboxy group; carboxoamide group; carboalkoxy group; acyl group; sulfonyl group; cyano group; nitro group; group having
- the film thickness of the photoelectric conversion film 34 made of the above organic materials is not limited to the following values, but is, for example, 1 ⁇ 10-8 m (meters) to 5 ⁇ 10-7 . m, preferably 2.5 ⁇ 10 -8 m to 3 ⁇ 10 -7 m, more preferably 2.5 ⁇ 10 -8 m to 2 ⁇ 10 -7 m, and even more preferably 1 ⁇ 10 -7 . M to 1.8 ⁇ 10-7 m can be exemplified.
- Organic semiconductors are often classified into p-type and n-type, but p-type means that holes are easily transported, and n-type means that electrons are easily transported, and they are inorganic. It is not limited to the interpretation that it has holes or electrons as a majority carrier of thermal excitation like a semiconductor.
- Examples of the material constituting the photoelectric conversion film 34 that photoelectrically converts light having a green wavelength include rhodamine-based dyes, melancyanine-based dyes, quinacridone derivatives, subphthalocyanine-based dyes (subphthalocyanine derivatives), and the like.
- examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of blue light include coumalic acid dye, tris-8-hydroxyquinolialuminum (Alq3), and melanin-based dye.
- examples of the material constituting the photoelectric conversion film 34 for photoelectric conversion of red light include a phthalocyanine dye and a subphthalocyanine dye (subphthalocyanine derivative).
- the photoelectric conversion film 34 it is also possible to use a panchromatic photosensitive organic photoelectric conversion film that is sensitive to almost all visible light from the ultraviolet region to the red region.
- FIGS. 9A and 9B are views showing a planar layout example of each layer of the pixel array portion according to the present embodiment
- FIG. 9A shows a planar layout example of the on-chip lens 51
- FIG. 9B shows a planar layout example of the color filter 31
- (C) shows an example of a planar layout of the storage electrode 37
- (D) shows an example of a planar layout of the photoelectric conversion unit PD2.
- FIGS. 9A to 9D show an example of a planar layout of a surface parallel to the element forming surface of the semiconductor substrate 50.
- a pixel that selectively detects the wavelength component of red (R) (hereinafter referred to as R pixel 10r) and a pixel that selectively detects the wavelength component of green (hereinafter referred to as G pixel 10g).
- R pixel 10r a pixel that selectively detects the wavelength component of red
- G pixel 10g a pixel that selectively detects the wavelength component of green
- a 2 ⁇ 2 pixel Bayer array composed of a pixel (hereinafter referred to as B pixel 10b) that selectively detects light having a wavelength component of blue (B) is used as a unit array.
- the on-chip lens 51, the color filter 31, the storage electrode 37, and the photoelectric conversion unit PD2 are provided for one unit pixel 110.
- one storage electrode 37 corresponds to one RGB pixel 10
- one photoelectric conversion unit PD2 corresponds to one IR pixel 20.
- the RGB pixel 10 and the IR pixel 20 are coaxial with each other with respect to the incident light. Since it is possible to improve the property, it is possible to suppress the spatial deviation that occurs between the color image and the monochrome image. Thereby, it becomes possible to improve the accuracy of the result obtained by processing the information (color image and monochrome image) acquired by different sensors in an integrated manner.
- FIG. 10 is a plan view showing a wiring example of a pixel drive line for an RGB pixel according to the present embodiment
- FIG. 11 is a plan view showing a wiring example of a pixel drive line for an IR pixel according to the present embodiment.
- the pixel drive circuit 102 includes an RGB drive circuit 160 for driving the RGB pixels 10 and an IR drive circuit 170 for driving the IR pixels 20.
- the RGB drive line LD1 connecting the RGB drive circuit 160 and the transfer gate 11 of the RGB pixel 10, the reset transistor 12, and the selection transistor 14, the transfer transistor 21, the reset transistor 22, and the selection transistor 24 of the IR drive circuit 170 and the IR pixel 20.
- the IR drive line LD2 connecting the discharge transistor 25 and the IR drive line LD2 may be wired so as to be orthogonal to each other, for example.
- the present invention is not limited to this, and the RGB drive line LD1 and the IR drive line LD2 may be wired in parallel. In that case, the RGB drive circuit 160 and the IR drive circuit 170 may supply various control signals to the pixel array unit 101 from the same side or from different sides.
- FIG. 12 is a diagram showing an example of a laminated structure of image sensors according to the present embodiment.
- the image sensor 100 has a structure in which a pixel chip 140 and a circuit chip 150 are stacked one above the other.
- the pixel chip 140 is, for example, a semiconductor chip including a pixel array unit 101 in which unit pixels 110 including RGB pixels 10 and IR pixels 20 are arranged
- the circuit chip 150 is, for example, a semiconductor in which the pixel circuits shown in FIG. 3 are arranged. It is a chip.
- the pixel chip 140 may correspond to an example of a first chip in the claims
- the circuit chip may correspond to an example of a second chip in the claims.
- the bonding between the pixel chip 140 and the circuit chip 150 for example, so-called direct bonding, in which each bonding surface is flattened and the two are bonded by an intramolecular force, can be used.
- the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..
- connection portion such as a TSV (Through-Silicon Via) that penetrates the semiconductor substrate.
- Connections using TSVs include, for example, a so-called twin TSV system in which two TSVs, a TSV provided on the pixel chip 140 and a TSV provided from the pixel chip 140 to the circuit chip 150, are connected on the outer surface of the chip, or a pixel.
- a so-called shared TSV method or the like, in which both are connected by a TSV penetrating from the chip 140 to the circuit chip 150, can be adopted.
- the drive system for the RGB pixel 10 may correspond to an example of the first drive system in the claims
- the drive system for the IR pixel 20 may correspond to an example of the second drive system in the claims
- the reading system for the RGB pixel 10 may correspond to an example of the first reading unit in the claims
- the reading system for the IR pixel 20 may correspond to an example of the second reading unit in the claims. ..
- the drive system for the RGB pixel 10 and the drive system for the IR pixel 20 are separately provided, and the read system for the RGB pixel 10 and the read system for the IR pixel 20 are provided separately. A case where they are provided separately will be described.
- 13 and 14 are plan views showing a layout example according to the first example, FIG. 13 shows a plan layout example of the pixel chip 140, and FIG. 14 shows a plan layout example of the circuit chip 150. ..
- the pixel chip 140 has an RGB drive line LD1 for the RGB pixel 10 and an IR drive line LD2 for the IR pixel 20 for each unit pixel 110 of the pixel array unit 101.
- the RGB drive line LD1 and the IR drive line LD2 may extend in the row direction or may extend in the column direction as shown in FIG. Further, the RGB drive line LD1 and the IR drive line LD2 may extend from the same direction or may extend from different directions.
- the RGB drive line LD1 may extend in the horizontal direction (row direction) from the right side of the paper surface, and the IR drive line LD2 may extend in the vertical direction (column direction) from the upper side of the paper surface.
- each unit pixel 110 the RGB pixel 10 is connected to the vertical signal line VSL1, and the IR pixel 20 is connected to the vertical signal line VSL2 different from the vertical signal line VSL1.
- the vertical signal lines VSL1 and VSL2 may extend in the column direction or may extend in the row direction as shown in FIG. Further, the vertical signal lines VSL1 and VSL2 may extend from the same direction or may extend from different directions.
- the pixel drive circuit 102 shown in FIG. 1 is composed of an RGB drive circuit 160 and an IR drive circuit 170.
- the signal processing circuit 103 is composed of an RGB signal processing circuit 181 and an IR signal processing circuit 191
- the data processing unit 108 is composed of an RGB data processing unit 182 and an IR data processing unit 192.
- the RGB drive circuit 160 is connected to the RGB pixel 10 of each unit pixel 110 in the pixel chip 140 via the RGB drive line LD1.
- the IR drive circuit 170 is connected to the IR pixel 20 of each unit pixel 110 in the pixel chip 140 via the IR drive line LD2.
- the RGB drive circuit 160 includes a TG drive unit 161 that supplies a transfer control signal to the transfer gate 11, an RST drive unit 162 that supplies a reset control signal to the reset transistor 12, and a SEL drive that supplies a selection control signal to the selection transistor 14.
- the RGB pixel 10 is driven by supplying the control signal to the RGB pixel 10 via the RGB drive line LD1 including the unit 164. As a result, a pixel signal appears on the vertical signal line VSL1 connected to the RGB pixel 10.
- the IR drive circuit 170 includes a TG drive unit 171 that supplies a transfer control signal to the transfer transistor 21, an RST drive unit 172 that supplies a reset control signal to the reset transistor 22, and a SEL drive that supplies a selection control signal to the selection transistor 24.
- the IR pixel 20 is driven by including the unit 174 and the OFG drive unit 175 that supplies the emission control signal to the emission transistor 25, and supplying the control signal to the IR pixel 20 via the IR drive line LD2. As a result, a pixel signal appears on the vertical signal line VSL2 connected to the IR pixel 20.
- the RGB signal processing circuit 181 is connected to the vertical signal line VSL1.
- the RGB signal processing circuit 181 generates a digital color image signal by converting the pixel signal appearing on the vertical signal line VSL1 into a digital pixel signal.
- the RGB data processing unit 182 executes various arithmetic processes described above as the processing of the data processing unit 108 on the digital color image signal output from the RGB signal processing circuit 181 and transfers the result to, for example, the processor 4. Output.
- the IR signal processing circuit 191 is connected to the vertical signal line VSL2.
- the IR signal processing circuit 191 generates a digital monochrome image signal by converting a pixel signal appearing on the vertical signal line VSL1 into a digital pixel signal.
- the IR data processing unit 192 executes various arithmetic processes described above as the processing of the data processing unit 108 on the digital monochrome image signal output from the IR signal processing circuit 191 and outputs the result to, for example, the processor 4. Output.
- the RGB drive circuit 160 for driving the RGB pixel 10 and the IR drive circuit 170 for driving the IR pixel 20 form different drive systems independently of each other, and RGB.
- 192 and 192 constitute different reading systems that are independent of each other.
- the pixel signal can be read out simultaneously or substantially simultaneously from the RGB pixel 10 and the IR pixel 20 in the same unit pixel 110, so that the color image obtained from the RGB pixel 10 and the IR pixel 20 can be obtained. It is possible to suppress a time lag with the monochrome image (IR image) to be obtained. As a result, it is possible to improve the accuracy of the obtained result by processing the information (color image and monochrome image) acquired by different sensors in an integrated manner.
- the RGB drive circuit 160 and the IR drive circuit 170 constituting the drive system are arranged on one side of the circuit chip 150 (the region from the center to the left in FIG. 14), and the RGB drive system constitutes the readout system.
- the signal processing circuit 181 and the RGB data processing unit 182, and the IR signal processing circuit 191 and the IR data processing unit 192 are arranged on the other side of the circuit chip 150 (the region on the right side of the center in FIG. 14). In this way, by arranging the layout so that the drive system and the readout system are integrated separately, it is possible to base the layout of the existing circuit chip, so that the layout design efficiency of the circuit chip 150 can be improved. Is possible.
- the drive system for the RGB pixel 10 and the drive system for the IR pixel 20 are separately provided, and the read system and the IR for the RGB pixel 10 are provided separately.
- the reading system for the pixel 20 is provided separately will be described.
- 15 and 16 are plan views showing a layout example according to the second example, FIG. 15 shows a plan layout example of the pixel chip 140, and FIG. 16 shows a plan layout example of the circuit chip 150. ..
- FIG. 15 shows a connection portion 141 for electrically connecting various elements provided on the pixel chip 140 to the elements on the circuit chip 150 side.
- the RGB drive line LD1 is connected to the left end side connection portion 141
- the IR drive line LD2 is connected to the right end side connection portion 141
- the vertical signal line VSL1 is connected to the lower connection portion 141.
- the vertical signal line VSL2 is connected to the upper connection portion 141.
- the pixel drive circuit 102 is composed of the RGB drive circuit 160 and the IR drive circuit 170
- the signal processing circuit 103 is the RGB signal processing circuit 181.
- the data processing unit 108 is composed of an RGB data processing unit 182 and an IR data processing unit 192.
- the RGB drive circuit 160 is arranged close to the left side of the circuit chip 150, and is connected to the connection portion 151 at the left end of the circuit chip 150, for example.
- the IR drive circuit 170 is arranged close to the right side of the circuit chip 150, for example, and is connected to the connection portion 151 at the right end of the circuit chip 150.
- the reading system of the RGB signal processing circuit 181 and the RGB data processing unit 182 and the IR signal processing circuit 191 and the IR data processing unit 192 is arranged in the center of the circuit chip 150, and is connected to the upper / lower end connection unit 151 of the circuit chip 150. Be connected.
- the positions of the RGB drive circuit 160 and the IR drive circuit 170 may be interchanged.
- the positions of the RGB signal processing circuit 181 and the RGB data processing unit 182 and the IR signal processing circuit 191 and the IR data processing unit 192 may be interchanged.
- connection portion 141 of the pixel chip 140 and the connection portion 151 of the circuit chip 150 are electrically connected by, for example, TSV, Cu—Cu bonding, bump bonding, or the like penetrating the semiconductor substrate. This may be the same for other examples.
- FIG. 16 illustrates a case where the RGB signal processing circuit 181 is connected to the connection portion 151 at the lower end of the circuit chip 150 and the IR signal processing circuit 191 is connected to the connection portion 151 at the upper end of the circuit chip 150.
- both the RGB signal processing circuit 181 and the IR signal processing circuit 191 may be connected to the connection portion 151 arranged at the upper end or the lower end of the circuit chip 150. In that case, the connection portion 151 that is not connected can be omitted.
- the RGB drive circuit 160 and the IR drive circuit 170 are arranged separately on the left and right sides of the circuit chip 150.
- the connection configuration to the RGB pixel 10 on the pixel chip 140 side and the connection configuration to the IR pixel 20 can be dispersed to the left and right, so that the density of wiring and connection terminals is alleviated. It becomes possible. As a result, it is possible to suppress deterioration of characteristics due to coupling between wirings and the like.
- connection portion 151 of the RGB drive circuit 160 and the connection portion 151 of the IR drive circuit 170 are arranged at the left and right ends of the circuit chip 150, the average wiring length from the RGB drive circuit 160 to the RGB pixel 10 is obtained. Since it is possible to substantially match the average wiring length from the IR drive circuit 170 to the IR pixel 20, more accurate control is possible.
- the drive system and the readout system for the RGB pixel 10 and the drive system and the readout system for the IR pixel 20 have different configurations, so that the same unit pixel is used. It is possible to read pixel signals simultaneously or substantially simultaneously from the RGB pixels 10 and the IR pixels 20 in 110. As a result, it is possible to suppress a time lag between the color image obtained from the RGB pixel 10 and the monochrome image (IR image) obtained from the IR pixel 20, so that the information acquired by different sensors is integrated. It is possible to improve the accuracy of the obtained result by processing the image.
- the drive system for the RGB pixel 10 and the drive system for the IR pixel 20 are separately provided, and the drive system for the RGB pixel 10 is provided separately.
- the reading system and the reading system for the IR pixel 20 are separately provided will be described.
- 17 and 18 are plan views showing a layout example according to the third example, FIG. 17 shows a plan layout example of the pixel chip 140, and FIG. 18 shows a plan layout example of the circuit chip 150. ..
- the RGB drive line LD1 and the IR drive line LD2 are in the same layout as the planar layout according to the second example described with reference to FIG. , Is connected to the connection portion 141 arranged on the same end side (right end side in this example) of the pixel chip 140.
- the planar layout of the circuit chip 150 according to the third example is the same layout as the planar layout according to the second example described with reference to FIG. 16, in which the RGB signal processing circuit 181 and the RGB data processing unit are used.
- a readout system consisting of 182, an IR signal processing circuit 191 and an IR data processing unit 192 is arranged close to one end side (left end side in this example) of the circuit chip 150, and the RGB drive circuit 160 and the IR drive circuit 170 are arranged.
- the drive system consisting of the above is arranged closer to the other end side (right end side in this example) of the circuit chip.
- the RGB drive circuit 160 and the IR drive circuit 170 are arranged so that their respective connection portions 151 face each other.
- the positions of the RGB drive circuit 160 and the IR drive circuit 170 may be interchanged.
- the positions of the RGB signal processing circuit 181 and the RGB data processing unit 182 and the IR signal processing circuit 191 and the IR data processing unit 192 may be interchanged.
- the RGB drive circuit 160 and the IR drive circuit 170 are arranged to face each other, whereby the connection portions 151 are arranged close to each other. According to such a configuration, the wiring length from the RGB drive circuit 160 to the RGB pixel 10 and the wiring length from the IR drive circuit 170 to the IR pixel 20 can be substantially matched, so that the wiring length is higher. Control is possible.
- the drive system and the readout system for the RGB pixel 10 and the drive system and the readout system for the IR pixel 20 have different configurations independently of each other. It is possible to read pixel signals simultaneously or substantially simultaneously from the RGB pixels 10 and the IR pixels 20 in the same unit pixel 110. As a result, it is possible to suppress a time lag between the color image obtained from the RGB pixel 10 and the monochrome image (IR image) obtained from the IR pixel 20, so that the information acquired by different sensors is integrated. It is possible to improve the accuracy of the obtained result by processing the image.
- Example 4 a case where a part of the reading system for the RGB pixel 10 and a part of the reading system for the IR pixel 20 are shared will be described.
- the drive system for the RGB pixel 10 and the drive system for the IR pixel 20 may be provided separately as in the first to third examples.
- the case where the second example is used as a base is illustrated, but the present invention is not limited to this, and other examples can be used as a base.
- 19 and 20 are plan views showing a layout example according to the fourth example, FIG. 19 shows a plan layout example of the pixel chip 140, and FIG. 20 shows a plan layout example of the circuit chip 150. ..
- the RGB drive line LD1 and the IR drive line LD2 are in the same layout as the planar layout according to the second example described with reference to FIG. , It is pulled out toward the same end (lower end in this example) of the pixel chip 140.
- the extracted RGB drive line LD1 and IR drive line LD2 are connected to a common vertical signal line VSL via a switch circuit 131 provided outside the pixel array unit 101.
- This vertical signal line VSL is connected to a connection portion 141 arranged on the lower end side of the pixel chip 140.
- circuit chip 150 As shown in FIG. 20, in the circuit chip 150 according to the fourth example, a common signal processing circuit 210 shared by the RGB pixels 10 and the IR pixels 20 is provided as the signal processing circuit 103.
- the common signal processing circuit 210 is connected to a connection unit 151 arranged on the lower end side of the circuit chip 150, generates a digital color image signal from the pixel signal read from the RGB pixel 10, and is an RGB data processing unit. It is input to 182, a digital monochrome image signal is generated from the pixel signal read from the IR pixel 20, and is input to the IR data processing unit 192.
- the RGB pixel 10 and the IR pixel 20 share the common signal processing circuit 210.
- the circuit scale of the signal processing circuit 103 can be reduced as compared with the case where the individual signal processing circuits 181 and 191 are provided, so that the occupied area of the signal processing circuit 103 in the circuit chip 150 can be reduced. It will be possible.
- the vertical signal line of the pixel chip 140 is provided. Since it is possible to reduce the number of connecting portions 141 and 151 for electrically routing to the circuit chip 150 by half, the occupied area of the connecting portion 141 in the pixel chip 140 and the occupied area of the connecting portion 151 in the circuit chip 150 can be reduced. It can be reduced.
- the reading for the RGB pixel 10 and the reading for the IR pixel 20 may be executed, for example, in a time division manner.
- both the vertical signal line VSL1 and the vertical signal line VSL2 may be connected to the common signal processing circuit 210 on the circuit chip 150 side via the connection portion 151.
- Example 5 a case where a part of the drive system for the RGB pixel 10 and a part of the drive system for the IR pixel 20 are shared will be described.
- the reading system for the RGB pixel 10 and the reading system for the IR pixel 20 may be provided separately as in the first to third examples.
- the case where the first example is used as a base is illustrated, but the present invention is not limited to this, and other examples can be used as a base.
- 21 and 22 are plan views showing a layout example according to the fifth example, FIG. 21 shows a plan layout example of the pixel chip 140, and FIG. 22 shows a plan layout example of the circuit chip 150. ..
- the RGB drive line LD1 and the common drive line LD3 are connected to the RGB pixel 10 of each unit pixel 110, and the IR pixel.
- the IR drive line LD2 and the common drive line LD3 are connected to 20. That is, in the fifth example, the common drive line LD3 is shared by the RGB pixels 10 and the IR pixels 20.
- the common drive line LD3 may extend in the row direction or may extend in the column direction.
- the RGB drive line LD1, the IR drive line LD2, and the common drive line LD3 may extend from the same direction or may extend from different directions.
- the pixel drive circuit 102 includes an RGB drive circuit 160, an IR drive circuit 170, and a common drive circuit 200.
- the common drive circuit 200 includes an RST drive unit 202 in which the RST drive unit 162 in the RGB drive circuit 160 and the RST drive unit 172 in the IR drive circuit 170 are shared, and the SEL drive unit 164 and the IR drive circuit 170 in the RGB drive circuit 160.
- the SEL drive unit 204 is provided in common with the SEL drive unit 174 in the above.
- the RGB drive circuit 160 omits the RST drive unit 162 and the SEL drive unit 164, and the IR drive circuit 170 omits the RST drive unit 172 and the SEL drive unit 174.
- the common drive circuit 200 may correspond to, for example, an example of a third drive unit in the claims.
- the RST drive unit 202 of the common drive circuit 200 supplies a reset control signal to both the reset transistor 12 of the RGB pixel 10 and the reset transistor 22 of the IR pixel 20 via the common drive line LD3. Further, the SEL drive unit 204 supplies a selection control signal to both the selection transistor 14 of the RGB pixel 10 and the selection transistor 24 of the IR pixel 20 via the common drive line LD3.
- a part of the RGB drive circuit 160 and the IR drive circuit 170 is shared. As a result, it is possible to improve the synchronism between the drive control for the RGB pixel 10 and the drive control for the IR pixel. Therefore, a color image obtained from the RGB pixel 10 and a monochrome image (IR image) obtained from the IR pixel 20. It is possible to further suppress the time lag with.
- the circuit scale of the pixel drive circuit 102 is larger than that in the case of providing the individual RGB drive circuit 160 and the IR drive circuit 170. It can be reduced. As a result, the area occupied by the pixel drive circuit 102 in the circuit chip 150 can be reduced.
- Example 6 a case where a part of the drive system for the RGB pixel 10 and a part of the drive system for the IR pixel 20 are shared will be described as in the fifth example.
- the case where the fifth example is used as a base is illustrated, but the present invention is not limited to this, and other examples can be used as a base.
- 23 and 24 are plan views showing a layout example according to the sixth example, FIG. 23 shows a plan layout example of the pixel chip 140, and FIG. 24 shows a plan layout example of the circuit chip 150. ..
- the planar layout of the pixel chip 140 according to the sixth example may be the same as the planar layout example of the pixel chip 140 according to the fifth example illustrated in FIG. 21.
- FIG. 23 shows a connection portion 141 for electrically connecting various elements provided on the pixel chip 140 to the elements on the circuit chip 150 side.
- the RGB drive line LD1 is connected to the left connection portion 141
- the IR drive line LD2 and the common drive line LD3 are connected to the right end side connection portion 141
- the vertical signal line VSL1 is on the lower side.
- the vertical signal line VSL2 is connected to the upper connecting portion 141.
- the pixel drive circuit 102 is composed of the RGB drive circuit 160, the IR drive circuit 170, and the common drive circuit 200, and the signal processing circuit 103 is the same as in the fifth example. It is composed of an RGB signal processing circuit 181 and an IR signal processing circuit 191.
- the data processing unit 108 is composed of an RGB data processing unit 182 and an IR data processing unit 192.
- the RGB drive circuit 160 is arranged close to the left side of the circuit chip 150, and is connected to the connection portion 151 at the left end of the circuit chip 150, for example.
- the IR drive circuit 170 and the common drive circuit 200 are arranged close to the right side of the circuit chip 150 and connected to the connection portion 151 at the right end of the circuit chip 150, for example.
- the IR drive circuit 170 and the common drive circuit 200 are arranged so that their respective connection portions 151 face each other.
- the positions of the RGB drive circuit 160, the IR drive circuit 170, and the common drive circuit 200 may be interchanged.
- the RGB drive circuit 160, the IR drive circuit 170, and the common drive circuit 200 are separately arranged on the left and right sides of the circuit chip 150. According to such a configuration, the connection configuration to the RGB pixel 10 on the pixel chip 140 side and the connection configuration to the IR pixel 20 can be dispersed to the left and right. It is possible to alleviate the congestion of wiring and connection terminals. As a result, it is possible to suppress deterioration of characteristics due to coupling between wirings and the like.
- connection portion 151 of the RGB drive circuit 160, the connection portion 151 of the IR drive circuit 170, and the connection portion 151 of the common drive circuit 200 are arranged at the left and right ends of the circuit chip 150, the RGB drive circuit 160 and the common drive Since it is possible to substantially match the average wiring length from the circuit 200 to the RGB pixel 10 with the average wiring length from the IR drive circuit 170 and the common drive circuit 200 to the IR pixel 20, the accuracy is higher. Can be controlled.
- the drive control for the RGB pixel 10 and the drive control for the IR pixel are performed. It is possible to improve the simultaneity of the two, and thereby it is possible to further suppress the temporal deviation between the color image obtained from the RGB pixel 10 and the monochrome image (IR image) obtained from the IR pixel 20. ..
- the area occupied by the pixel drive circuit 102 in the circuit chip 150 can be reduced.
- a part of the drive system for the RGB pixel 10 and a part of the drive system for the IR pixel 20 are shared. Will be explained.
- the case where the 6th example is used as a base is illustrated, but the case is not limited to this, and other examples can be used as a base.
- 25 and 26 are plan views showing a layout example according to the seventh example, FIG. 25 shows a plan layout example of the pixel chip 140, and FIG. 26 shows a plan layout example of the circuit chip 150. ..
- the RGB pixels 10 of each unit pixel 110 are arranged on the vertical signal line VSL1 connected to the connection portion 141 arranged on the lower end side of the paper surface and on the upper end side of the paper surface. It is connected to any of the vertical signal lines VSL3 connected to the connection portion 141.
- the vertical signal line VSL1 extends in the column direction, for example, and is electrically routed to the circuit chip 150 side via a connection portion 141 arranged at the lower end of the pixel chip 140.
- the vertical signal line VSL3 extends in the column direction, for example, and is electrically routed to the circuit chip 150 side via a connection portion 141 arranged at the upper end of the pixel chip 140.
- Whether the RGB pixel 10 is connected to the vertical signal line VSL1 or the vertical signal line VSL3 is determined by, for example, the wavelength component to be detected by each RGB pixel 10 (that is, the color filter 31 assigned to each RGB pixel 10). It may be determined based on (type of). For example, when the array of the color filter 31 is configured by the Bayer arrangement, the RGB pixel 10 for detecting the wavelength component of red (R) and the RGB pixel 10 for detecting the wavelength component of blue (B) are connected to the vertical signal line VSL1. , The RGB pixel 10 for detecting the wavelength component of green (G) may be configured to be connected to the vertical signal line VSL3.
- connection is not limited to this, and for example, the RGB pixels 10 in the odd column or the odd row are connected to the vertical signal line VSL1, and the RGB pixels 10 in the even column or the even row are connected to the vertical signal line VSL3.
- the lower half of the RGB pixels 10 in the pixel array unit 101 can be connected to the vertical signal line VSL1, and the upper half of the RGB pixels 10 can be connected to the vertical signal line VSL3.
- the pixel drive circuit 102 is composed of the RGB drive circuit 160, the IR drive circuit 170, and the common drive circuit 200, as in the sixth example.
- the signal processing circuit 103 includes an RGB signal processing circuit 181 and a common signal processing circuit 210.
- the data processing unit 108 includes an RGB data processing unit 182 and an IR data processing unit 192.
- the common signal processing circuit 210 may correspond to, for example, another example of the second readout unit in the claims.
- Pixel signals from some of the RGB pixels 10 are input to the common signal processing circuit 210 via the vertical signal line VSL3. Further, a pixel signal from the IR pixel 20 is also input to the common signal processing circuit 210.
- the common signal processing circuit 210 generates a digital color image signal from the analog pixel signal input from the vertical signal line VSL3 and inputs it to the RGB data processing unit 182, and the analog pixel signal input from the vertical signal line VSL2.
- a digital monochrome image signal is generated from and input to the IR data processing unit 192.
- the reading from the RGB pixel 10 is distributed to the RGB signal processing circuit 181 and the common signal processing circuit 210.
- the reading operation for the plurality of RGB pixels 10 can be executed in parallel, so that the reading speed of the color image can be improved.
- the reading from the RGB pixel 10 is parallelized is illustrated, but the present invention is not limited to this, and it is also possible to configure the reading from the IR pixel 20 to be parallelized.
- a part of the reading system for the RGB pixel 10 and a part of the reading system for the IR pixel 20 are shared, and a part of the driving system for the RGB pixel 10 is used.
- a case where a part of the drive system for the IR pixel 20 is shared will be described.
- the eighth example the case where the common reading system is based on the fourth example and the common driving system is based on the sixth example is illustrated, but the present invention is not limited to this, and other examples. It is also possible to base it on.
- 27 and 28 are plan views showing a layout example according to the seventh example, FIG. 27 shows a plan layout example of the pixel chip 140, and FIG. 28 shows a plan layout example of the circuit chip 150. ..
- the RGB drive line LD1 is the left end of the pixel chip 140.
- the IR drive line LD2 is pulled out from the connection portion 141 arranged at the upper end, and the common drive line LD3 is pulled out from the connection portion 141 arranged at the right end.
- the switch circuit 131 in the fourth example is omitted in the seventh example, the switch circuit 131 may be provided for the vertical signal lines VSL1 and VSL2 as described with reference to FIG.
- the RGB drive circuit 160 is arranged on the left side of the circuit chip 150, the IR drive circuit 170 is arranged on the upper center side, and the common drive circuit 200 is arranged on the right side, and common signal processing is performed.
- the circuit 210, the RGB data processing unit 182, and the IR data processing unit 192 are arranged on the lower center side.
- the RGB drive circuit 160 In this way, in a configuration in which a part of the reading system for the RGB pixel 10 and the IR pixel 20 is shared, when a part of the drive system for the RGB pixel 10 and the IR pixel 20 is further shared, the RGB drive circuit 160 The connection unit 151 connected to the IR drive circuit 170, the connection unit 151 connected to the common drive circuit 200, and the connection unit 151 connected to the common signal processing circuit 210. It can be distributed on the four sides of the circuit chip 150. As a result, it is possible to alleviate the congestion of wiring and connection terminals, and it is possible to suppress deterioration of characteristics due to coupling between wirings and the like.
- the area occupied by the signal processing circuit 103 in the circuit chip 150 can be reduced by sharing the common signal processing circuit 210 between the RGB pixels 10 and the IR pixels 20. It will be possible. Further, in the seventh example, as in the sixth example, since a part of the RGB drive circuit 160 and the IR drive circuit 170 is shared, the drive control for the RGB pixel 10 and the drive control for the IR pixel are simultaneously performed. It is possible to improve the property, and thereby it is possible to further suppress the temporal deviation between the color image obtained from the RGB pixel 10 and the monochrome image (IR image) obtained from the IR pixel 20.
- Example 9 a case where the drive system for the RGB pixel 10 and the drive system for the IR pixel 20 are shared will be described.
- the reading system for the RGB pixel 10 and the reading system for the IR pixel 20 may be provided separately.
- the case where the first example is used as a base is illustrated, but the present invention is not limited to this, and other examples can be used as a base.
- 29 and 30 are plan views showing a layout example according to the ninth example, FIG. 29 shows a plan layout example of the pixel chip 140, and FIG. 30 shows a plan layout example of the circuit chip 150. ..
- the RGB drive line LD1 and the IR drive line LD2 are arranged in the same layout as the planar layout according to the first example described with reference to FIG. , Is replaced with the common drive line LD3 shared by the RGB pixel 10 and the IR pixel 20.
- the pixel drive circuit 102 is composed of a common drive circuit 200 shared by the RGB pixels 10 and the IR pixels 20.
- the common drive circuit 200 includes a TG drive unit 201 that supplies a transfer control signal to the transfer gate 11 of the RGB pixel 10 and the transfer transistor 21 of the IR pixel 20, the reset transistor 12 of the RGB pixel 10, and the IR pixel 20.
- the RST drive unit 202 that supplies the reset control signal to the reset transistor 22 of the above
- the SEL drive unit 204 that supplies the selection control signal to the selection transistor 14 of the RGB pixel 10 and the selection transistor 24 of the IR pixel 20, and the IR pixel 20.
- It is provided with an OFG drive unit 205 for supplying an emission control signal to the emission transistor 25 of the above.
- the RGB drive circuit 160 and the IR drive circuit 170 are shared. As a result, it is possible to further improve the simultaneity between the drive control for the RGB pixel 10 and the drive control for the IR pixel. Therefore, the color image obtained from the RGB pixel 10 and the monochrome image (IR image) obtained from the IR pixel 20. ) And the time lag can be further suppressed.
- the circuit scale of the pixel drive circuit 102 can be significantly reduced as compared with the case where the individual RGB drive circuit 160 and the IR drive circuit 170 are provided. It will be possible. As a result, the area occupied by the pixel drive circuit 102 in the circuit chip 150 can be further reduced.
- Example 10 in the tenth example, in the plane layout exemplified in the ninth example, the plane layout in which the connection portions 141 and 151 are arranged on the pixel chip 140 and the circuit chip 150 is exemplified.
- 31 and 32 are plan views showing a layout example according to the tenth example, FIG. 31 shows a plan layout example of the pixel chip 140, and FIG. 32 shows a plan layout example of the circuit chip 150. ..
- the common drive line LD3 may be connected to the connection portion 141 arranged at the left end of the pixel chip 140, and the vertical signal line VSL1 is arranged at the lower end of the pixel chip 140. It may be connected to the connection portion 141, and the vertical signal line VSL2 may be connected to the connection portion arranged at the upper end of the pixel chip 140.
- the present invention is not limited to this, and the vertical signal lines VSL1 and VSL2 and the common drive line LD3 may extend in the column direction or may extend in the row direction, respectively. Further, the vertical signal lines VSL1 and VSL2 and the common drive line LD3 may extend from the same direction or may extend from different directions.
- connection portion 151 in the circuit chip 150 may be arranged so as to correspond to the arrangement of the connection portion 141 in the pixel chip 140. Such correspondence may be the same for other examples.
- the image sensor 100 is a two-layer laminated chip configured by laminating a pixel chip 140 and a circuit chip 150.
- the laminated structure of the image sensor 100 is not limited to two layers, and may be one layer or three or more layers. Therefore, in the eleventh example, a case where the image sensor 100 is a three-layer laminated chip will be described.
- the case where the tenth example is used as a base is illustrated, but the present invention is not limited to this, and other examples can be used as a base.
- 33 to 35 are plan views showing a layout example according to the eleventh example, FIG. 33 shows a plan layout example of the upper layer pixel chip 140A, and FIG. 34 shows a plan layout example of the lower layer pixel chip 140B. 35 shows an example of a planar layout of the circuit chip 150.
- the pixel chip 140 has an upper layer pixel chip 140A arranged on the incident surface side of light and a lower layer pixel chip 140B arranged on the circuit chip 150 side. It has a two-layer structure that is bonded together.
- Upper pixel chip 140A For example, the light receiving unit 110A in each unit pixel 110 is arranged on the upper layer pixel chip 140A.
- the arrangement of the light receiving unit 110A may be a two-dimensional grid like the arrangement of the unit pixels 110 in the pixel array unit 101.
- the light receiving unit 110A includes, for example, the photoelectric conversion unit PD1 and the transfer gate 11 of the RGB pixel 10 and the photoelectric conversion unit PD2 and the transfer transistor 21 of the IR pixel 20 in the configuration of the unit pixel 110 illustrated in FIG. obtain. That is, the RGB pixel 10A in FIG. 33 may include the photoelectric conversion unit PD1 and the transfer gate 11, and the IR pixel 20A may include the photoelectric conversion unit PD2, the transfer transistor 21, and the emission transistor 25.
- the drive line LD3a in the common drive line LD3 is connected to the transfer gate 11 of the RGB pixel 10A, the transfer transistor 21 of the IR pixel 20A, and the emission transistor 25 via the connection portion 141A arranged at the left end of the upper layer pixel chip 140A. Will be done.
- Lower pixel chip 140B For example, the pixel circuit 110B in each unit pixel 110 is arranged on the lower layer pixel chip 140B.
- the arrangement of the pixel circuit 110B may be a two-dimensional grid like the arrangement of the unit pixels 110 in the pixel array unit 101.
- the pixel circuit 110B includes, for example, the reset transistor 12 of the RGB pixel 10, the floating diffusion region FD1, the amplification transistor 13 and the selection transistor 14, and the reset transistor 22 of the IR pixel 20 in the configuration of the unit pixel 110 illustrated in FIG.
- the stray diffusion region FD2, the amplification transistor 23 and the selection transistor 24 may be included. That is, the RGB pixel 10B in FIG. 34 may include a reset transistor 12, a stray diffusion region FD1, an amplification transistor 13 and a selection transistor 14, and the IR pixel 20B includes a reset transistor 22, a stray diffusion region FD2, and an amplification transistor 23. And the selection transistor 24 may be included.
- the drive line LD3b in the common drive line LD3 is connected to the reset transistor 12 of the RGB pixel 10B and the reset transistor 22 of the IR pixel 20B via the connection portion 141B arranged at the left end of the lower layer pixel chip 140B.
- the drive line LD3b is connected to the selection transistor 14 of the RGB pixel 10B and the selection transistor 24 of the IR pixel 20B via the connection portion 141B.
- the vertical signal lines VSL1 and VSL2 for reading the pixel signals from the RGB pixels 10 and the IR pixels 20, respectively, may be provided on the lower layer pixel chip 140B.
- the vertical signal line VSL1 for reading the pixel signal from the RGB pixel 10 is connected to the connection portion 141B arranged at the lower end of the lower layer pixel chip 140B
- the vertical signal line VSL2 for reading the pixel signal from the IR pixel 20 is the lower layer. It may be connected to the connection portion 141B arranged at the upper end of the pixel chip 140B.
- circuit chip 150 The planar layout of the circuit chip 150 according to the eleventh example may be the same as the planar layout of the circuit chip 150 illustrated in the tenth example, for example.
- the common drive line LD3 extending from the common drive circuit 200 includes the drive lines LD3a and LD3b.
- the photoelectric conversion unit PD1 and the transfer gate 11 in the RGB pixel 10 and the reset transistor 12, the stray diffusion region FD1, the amplification transistor 13 and the selection transistor 14 are the upper layer pixel chip 140A and the lower layer pixel chip. It is divided into 140B and arranged. As a result, the light receiving surface of the photoelectric conversion unit PD1 in the upper layer pixel chip 140A can be enlarged, so that the effective light receiving area for incident light can be expanded to improve the photoelectric conversion efficiency (quantum efficiency), and the RGB pixels can be expanded. It is possible to increase the resolution of 10 and the like.
- the photoelectric conversion unit PD2 the transfer transistor 21 and the emission transistor 25 in the IR pixel 20, the reset transistor 22, the stray diffusion region FD2, the amplification transistor 23 and the selection transistor 24 are formed in the upper layer pixel chip 140A and the lower layer pixel chip 140B. By arranging them separately, it is possible to improve the photoelectric conversion efficiency and increase the resolution.
- the RGB pixels 10 and the IR pixels 20 in the pixel array unit 101 are configured by the all-pixel simultaneous drive method (so-called global shutter method)
- the RGB pixels 10 and the IR pixels 20 are used. Since it is possible to arrange the types of transistors constituting the pixel circuit 110B, it is also possible to simplify the wiring layout of the common drive line LD3.
- a circuit chip 250 in which the frame memory 252 as illustrated in FIG. 36 is arranged may be added to form a three-layer structure.
- the color image data processed by the RGB data processing unit 182 can be stored in the frame memory 252 via the signal line SL1
- the monochrome image data processed by the IR data processing unit 192 is a signal. It may be stored in the frame memory 252 via the line SL2.
- the circuit chip 250 may be arranged between the pixel chip 140 and the circuit chip 150, or may be arranged on the side opposite to the pixel chip 140 with the circuit chip 150 interposed therebetween. Further, when the image sensor 100 has a laminated structure of four or more layers, the circuit chips 150 and 250 may be arranged in any of the second and subsequent layers.
- the photoelectric conversion unit PD1 of the RGB pixel 10 and the photoelectric conversion unit PD2 of the IR pixel 20 are arranged in the incident direction of the light.
- the pixel signal can be read out simultaneously or substantially simultaneously from the RGB pixel 10 and the IR pixel 20 in the same unit pixel 110, the color image obtained from the RGB pixel 10 and the IR pixel 20 can be obtained. It is possible to suppress a time lag with the monochrome image (IR image) to be obtained. Thereby, it is possible to improve the accuracy of the result obtained by processing the information (color image and monochrome image) acquired by different sensors in an integrated manner.
- the unit pixel 310 includes an RGB pixel for acquiring a color image of the three primary colors of RGB and an IR pixel for acquiring a monochrome image of infrared (IR) light.
- RGB pixels 10 are arranged according to, for example, a Bayer arrangement.
- FIG. 37 is a schematic diagram showing a schematic configuration example of the pixel array unit according to the present embodiment.
- the pixel array unit 101 has two unit pixels 310 having a structure in which one IR pixel 20 is arranged in the incident direction of light for four RGB pixels 10 arranged in two rows and two columns. It has a structure arranged in a dimensional grid pattern. That is, in the present embodiment, one IR pixel 20 for each of the four RGB pixels 10 is located in the direction perpendicular to the arrangement direction (planar direction) of the unit pixels 310, and is on the upstream side in the optical path of the incident light. The light transmitted through the four RGB pixels 10 located in is incident on one IR pixel 20 located on the downstream side of the four RGB pixels 10. Therefore, in the present embodiment, the optical axis of the incident light of the IR pixel 20 and the unit array of the Bayer array composed of the four RGB pixels 10 are coincident or substantially the same.
- FIG. 38 is a circuit diagram showing a schematic configuration example of unit pixels according to the present embodiment. Note that FIG. 38 is based on the unit pixel 110-2 according to the second modification described with reference to FIG. 6 in the first embodiment, but the present invention is not limited to this, and the unit pixels 110 to 110-3 are not limited thereto. It is also possible to base it on any of the above.
- the unit pixel 310 includes a plurality of RGB pixels 10-1 to 10-N (N is 4 in FIG. 37) and one IR pixel 20.
- the plurality of RGB pixels 10 are one pixel as in the third modification described with reference to FIG. 7 in the first embodiment. It is possible to share a circuit (reset transistor 12, floating diffusion region FD1, amplification transistor 13 and selection transistor 14) (pixel sharing). Therefore, in the present embodiment, a plurality of RGB pixels 10-1 to 10-N share a pixel circuit including a reset transistor 12, a stray diffusion region FD1, an amplification transistor 13, and a selection transistor 14. That is, in the present embodiment, a plurality of photoelectric conversion units PD1 and transfer gate 11 are connected to the common floating diffusion region FD1.
- FIG. 39 is a cross-sectional view showing an example of a cross-sectional structure of an image sensor according to the present embodiment.
- FIG. 37 a case where each unit pixel 310 is composed of four RGB pixels 10 arranged in two rows and two columns and one IR pixel 20 will be described as an example.
- FIG. 8 an example of the cross-sectional structure will be described focusing on the semiconductor chip on which the photoelectric conversion units PD1 and PD2 in the unit pixel 310 are formed.
- duplicate description will be omitted by quoting them.
- the on-chip lens 51, the color filter 31, and the storage electrode 37 are four in two rows and two columns. (However, two of the four are shown in FIG. 39), thereby forming four RGB pixels 10.
- the four RGB pixels 10 in each unit pixel 310 may form a basic array of Bayer arrays.
- FIG. 40 is a diagram showing a plane layout example of each layer of the pixel array portion according to the present embodiment, (A) shows a plane layout example of the on-chip lens 51, and (B) is a color. An example of the planar layout of the filter 31 is shown, (C) shows an example of the planar layout of the storage electrode 37, and (D) shows an example of the planar layout of the photoelectric conversion unit PD2.
- FIGS. 40A to 40D show an example of a plane layout of a surface parallel to the element forming surface of the semiconductor substrate 50.
- one on-chip lenses 51 As shown in FIGS. 40A to 40D, in the present embodiment, four on-chip lenses 51, four color filters 31, and four storage electrodes 37 are provided for one unit pixel 310.
- One photoelectric conversion unit PD2 is provided.
- one storage electrode 37 corresponds to one RGB pixel 10
- one photoelectric conversion unit PD2 corresponds to one IR pixel 20.
- each RGB pixel 10 and IR Since it is possible to improve the coaxiality with respect to the incident light with the pixel 20, it is possible to suppress the spatial deviation that occurs between the color image and the monochrome image. Thereby, it becomes possible to improve the accuracy of the result obtained by processing the information (color image and monochrome image) acquired by different sensors in an integrated manner.
- FIG. 41 is a diagram showing an example of a planar layout of each layer of the pixel array portion according to a modification of the on-chip lens of the second embodiment, and (A) is a planar layout of the on-chip lens 51 as in FIG. 40.
- An example is shown, (B) shows an example of a planar layout of the color filter 31, (C) shows an example of a planar layout of the storage electrode 37, and (D) shows an example of a planar layout of the photoelectric conversion unit PD2.
- two on-chip lenses 51 arranged in the row direction in a part of the unit pixels 310 among the plurality of unit pixels 310 are two. It has been replaced by one on-chip lens 351 of 2 ⁇ 1 pixels straddling the RGB pixels 10.
- the two RGB pixels 10 sharing the on-chip lens 351 are provided with a color filter 31 that selectively transmits the same wavelength component.
- the color filter 31b that selectively transmits the blue (B) wavelength component originally in the Bayer arrangement selectively transmits the green (G) wavelength component. It is replaced with a color filter 31g for transmitting, whereby the color filter 31 of the two RGB pixels 10 sharing the on-chip lens 351 is unified into the color filter 31g.
- the pixel value of the wavelength component that should be originally detected according to the Bayer array may be interpolated from the pixel values of the surrounding pixels, for example.
- Various methods such as linear interpolation may be used for this pixel interpolation.
- the present invention is not limited to this, and two on-chip lenses 51 arranged in the column direction are shared. It is also possible to make various modifications such as a configuration in which all four on-chip lenses 51 included in one unit pixel 310 are replaced with one on-chip lens. In that case, a color filter 31 that selectively transmits the same wavelength component may be used as the color filter 31 of the RGB pixels 10 that share the on-chip lens.
- the sharing of the on-chip lens 51 between adjacent RGB pixels 10 is not limited to the second embodiment, but can be applied to the first embodiment as well.
- the Bayer array is exemplified as the filter array of the color filter 31, but the present invention is not limited thereto.
- a 3x3 pixel color filter array used in the X-Trans (registered trademark) CMOS sensor a 4x4 pixel quadbayer array (also called a quadra array), or a white RGB color filter in the Bayer array.
- Various filter arrays such as a combined 4 ⁇ 4 pixel color filter array (also referred to as a white RGB array) may be used.
- FIGS. 40 and 41 are diagrams showing a planar layout example of each layer of the pixel array portion according to a modification of the color filter arrangement of the second embodiment, and (A) is an on-chip lens 51 as in FIGS. 40 and 41.
- (B) shows a plane layout example of the color filter 31
- (C) shows a plane layout example of the storage electrode 37
- (D) shows a plane layout example of the photoelectric conversion unit PD2.
- each color filter 31 in the Bayer array of 2 ⁇ 2 pixels is divided into 2 ⁇ 2 pixels as a whole.
- a quadra array of 4 ⁇ 4 pixels is illustrated.
- the color filters 31 in the above are originally aligned, there is no need to make changes to the arrangement of the color filters 31, and therefore there is no need to perform pixel interpolation.
- the color image and the IR pixels obtained from the RGB pixels 10 can be read out at the same time. It is possible to suppress a time lag with the monochrome image (IR image) obtained from 20. Thereby, it is possible to improve the accuracy of the result obtained by processing the information (color image and monochrome image) acquired by different sensors in an integrated manner.
- the technology according to the present disclosure can be applied to various products.
- the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
- FIG. 43 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
- the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
- the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
- a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
- the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
- the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
- the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
- the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
- the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
- the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
- the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
- the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
- the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
- the vehicle outside information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
- the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
- the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
- the in-vehicle information detection unit 12040 detects the in-vehicle information.
- a driver state detection unit 12041 that detects a driver's state is connected to the vehicle interior information detection unit 12040.
- the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver has fallen asleep.
- the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
- a control command can be output to 12010.
- the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
- ADAS Advanced Driver Assistance System
- the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
- the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
- the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
- the audio image output unit 12052 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
- an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
- the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
- FIG. 44 is a diagram showing an example of the installation position of the image pickup unit 12031.
- the image pickup unit 12031 has image pickup units 12101, 12102, 12103, 12104, and 12105.
- the image pickup units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
- the image pickup unit 12101 provided on the front nose and the image pickup section 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
- the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
- the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
- the image pickup unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
- FIG. 44 shows an example of the shooting range of the imaging units 12101 to 12104.
- the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
- the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
- the imaging range 12114 indicates the imaging range.
- the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
- At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
- at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
- the microcomputer 12051 has a distance to each three-dimensional object within the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100).
- a predetermined speed for example, 0 km / h or more
- the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like that autonomously travels without relying on the driver's operation.
- the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
- At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
- the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
- pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
- the audio image output unit 12052 determines the square contour line for emphasizing the recognized pedestrian.
- the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
- the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
- the technique according to the present disclosure can be applied to the image pickup unit 12031 among the configurations described above.
- the image pickup unit 12101, 12102, 12103, 12104, 12105 and the like illustrated in FIG. 44 may be mounted on the vehicle 12100.
- information acquired by different sensors for example, a color image and a monochrome image
- can be processed in an integrated manner It is possible to improve the accuracy of the resulting results.
- the present technology can also have the following configurations.
- the first sensor that detects light in the first wavelength band A second sensor that detects light in a second wavelength band different from the first wavelength band, and Equipped with The first sensor includes a first pixel that detects light in the first wavelength band in incident light.
- the second sensor is a solid-state image sensor including a second pixel that detects light in the second wavelength band that has passed through the first pixel of the incident light.
- the first pixel includes a first photoelectric conversion unit that photoelectrically converts light in the first wavelength band.
- the second pixel includes a second photoelectric conversion unit that photoelectrically converts light in the second wavelength band.
- the solid-state image sensor according to (1) wherein the second photoelectric conversion unit is arranged on the surface side of the first photoelectric conversion unit opposite to the incident surface of the light in the first wavelength band.
- the first chip is connected to a third chip including the first photoelectric conversion unit and the second photoelectric conversion unit, a first pixel circuit connected to the first photoelectric conversion unit, and a second photoelectric conversion unit.
- the solid-state image pickup device which is a laminated chip configured by joining a fourth chip provided with a second pixel circuit.
- the drive unit A first drive unit that supplies a control signal to the first pixel, A second drive unit that supplies a control signal to the second pixel, Including The reading unit is A first reading unit that reads out the first pixel signal generated by the first pixel, and A second readout unit that reads out the second pixel signal generated by the second pixel,
- the solid-state image sensor according to (3) or (4) above.
- the first drive unit and the second drive unit are arranged in adjacent regions of the second chip.
- the first reading unit and the second reading unit are arranged in adjacent regions near the center of the second chip.
- the first drive unit and the second drive unit are divided into two regions sandwiching the region in which the first read unit and the second read unit are arranged in the second chip (5).
- the solid-state image sensor according to. (8)
- the first drive unit, the second drive unit, and the third drive unit are arranged in adjacent regions of the second chip.
- the solid-state image sensor according to (8), wherein the first reading unit and the second reading unit are arranged in adjacent regions of the second chip.
- the first drive unit and the second reading unit are adjacent regions in the second chip and are adjacent to the region in which the two of the first driving unit and the third driving unit are arranged. Placed in the area The remaining one of the first drive unit to the third drive unit is from the first drive unit with a region of the second chip in which the first read unit and the second read unit are arranged.
- the solid-state image sensor according to (8) wherein the two of the third drive units are arranged in a region opposite to the region in which the two are arranged.
- the drive unit supplies a control signal common to the first pixel and the second pixel, and supplies the control signal.
- the reading unit is A first reading unit that reads out the first pixel signal generated by the first pixel, and A second readout unit that reads out the second pixel signal generated by the second pixel, The solid-state image sensor according to (3) or (4) above.
- the drive unit A first drive unit that supplies a control signal to the first pixel, A second drive unit that supplies a control signal to the second pixel, Including The solid-state image pickup device according to (3) or (4), wherein the reading unit reads a first pixel signal generated by the first pixel and a second pixel signal generated by the second pixel.
- the reading unit is arranged in an adjacent region near the center of the second chip.
- the solid-state image pickup device wherein the first drive unit and the second drive unit are divided into two regions sandwiching the region in which the read unit is arranged in the second chip.
- the drive unit A first drive unit that supplies a control signal to the first pixel, A second drive unit that supplies a control signal to the second pixel, A third drive unit that supplies a control signal common to the first pixel and the second pixel, and Including The reading unit is A first reading unit that reads out a first pixel signal generated by a part of the plurality of first pixels, A second reading unit that reads out a first pixel signal generated by the rest of the plurality of first pixels and a second pixel signal generated by the second pixel.
- the solid-state image pickup device according to (3) or (4) above.
- a part of the plurality of first pixels is connected to the first reading unit via a first signal line extending in a third direction in the first chip, and the rest is connected to the first reading unit in the third direction.
- the drive unit A first drive unit that supplies a control signal to the first pixel, A second drive unit that supplies a control signal to the second pixel, A third drive unit that supplies a control signal common to the first pixel and the second pixel, and Including The solid-state image pickup device according to (3) or (4), wherein the reading unit reads a first pixel signal generated by the first pixel and a second pixel signal generated by the second pixel.
- the first drive line that supplies the control signal output from the drive unit to the first pixel extends in the first direction in the first chip.
- the second drive line that supplies the control signal output from the drive unit to the second pixel extends in the second direction orthogonal to the first direction in the first chip (3) to (16).
- the solid-state image sensor according to any one of the above.
- the solid-state image pickup device according to any one of (1) to (17), wherein the first sensor includes a plurality of the first pixels with respect to one second pixel in the second sensor.
- a fifth chip having a frame memory for holding the data output from the reading unit is provided.
- the fifth chip is described in (3) or (4) above, wherein the fifth chip is joined between the first chip and the second chip, or on the opposite side of the second chip with the second chip interposed therebetween.
- the solid-state image sensor according to any one of (1) to (19), A processor that processes the first image data acquired by the first sensor and output from the solid-state image sensor and the second image data acquired by the second sensor and output from the solid-state image sensor. Electronic equipment equipped with.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Power Engineering (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
異なるセンサにより取得された情報を統合的に処理することで得られた結果の精度を向上する。実施形態に係る固体撮像装置は、第1波長帯の光を検出する第1センサと、前記第1波長帯とは異なる第2波長帯の光を検出する第2センサとを備え、前記第1センサは、入射光における前記第1波長帯の光を検出する第1画素(110)を備え、前記第2センサは、前記入射光のうちの前記第1画素を透過した前記第2波長帯の光を検出する第2画素(110)を備える。
Description
本開示は、固体撮像装置及び電子機器に関する。
近年、自動車やロボットなど移動体の自律化やIoT(Internet of Things)等の普及に伴い、複数種類のセンサで取得された情報を統合的に処理するセンサフュージョン技術の発展が強く求められている。例えば、特許文献1及び2には、可視光を検出するイメージセンサと赤外光を検出するイメージセンサとを用いて、可視光のカラー画像と赤外光のモノクロ画像とを取得する技術が開示されている。
しかしながら、従来では、異なるセンサにより取得された情報の間で同時性や同軸性が確保されていないため、これらの情報を統合的に処理することで得られた結果の精度が低下してしまう可能性があった。例えば、カラー画像を取得するイメージセンサと、モノクロ画像を取得するイメージセンサとに別々のセンサチップが用いられる場合、カラー画像とモノクロ画像との間に空間的なズレが発生し、それにより、処理結果の精度が低下してしまう場合が存在した。また、例えば、カラー画像を取得するイメージセンサと、モノクロ画像を取得するイメージセンサとが異なるタイミングで駆動される場合、カラー画像とモノクロ画像との間に時間的なズレが発生し、それにより、処理結果の精度が低下してしまう場合が存在した。
そこで本開示は、異なるセンサにより取得された情報を統合的に処理することで得られた結果の精度を向上することが可能な固体撮像装置及び電子機器を提案する。
上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、第1波長帯の光を検出する第1センサと、前記第1波長帯とは異なる第2波長帯の光を検出する第2センサとを備え、前記第1センサは、入射光における前記第1波長帯の光を検出する第1画素を備え、前記第2センサは、前記入射光のうちの前記第1画素を透過した前記第2波長帯の光を検出する第2画素を備える。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
また、以下に示す項目順序に従って本開示を説明する。
1.第1の実施形態
1.1 電子機器の構成例
1.2 イメージセンサの構成例
1.3 画素アレイ部の構成例
1.4 単位画素の回路構成例
1.5 回路構成の変形例
1.5.1 第1の変形例
1.5.2 第2の変形例
1.5.3 第3の変形例
1.6 単位画素の断面構造例
1.7 有機材料
1.8 平面構造例
1.9 画素駆動線の配線例
1.10 イメージセンサの積層構造例
1.11 画素駆動及び読出し方式
1.11.1 第1例
1.11.2 第2例
1.11.3 第3例
1.11.4 第4例
1.11.5 第5例
1.11.6 第6例
1.11.7 第7例
1.11.8 第8例
1.11.9 第9例
1.11.10 第10例
1.11.11 第11例
1.12 作用・効果
2.第2の実施形態
2.1 画素アレイ部の構成例
2.2 単位画素の回路構成例
2.3 単位画素の断面構造例
2.4 平面構造例
2.5 オンチップレンズの変形例
2.6 カラーフィルタ配列の変形例
2.7 作用・効果
3.移動体への応用例
1.第1の実施形態
1.1 電子機器の構成例
1.2 イメージセンサの構成例
1.3 画素アレイ部の構成例
1.4 単位画素の回路構成例
1.5 回路構成の変形例
1.5.1 第1の変形例
1.5.2 第2の変形例
1.5.3 第3の変形例
1.6 単位画素の断面構造例
1.7 有機材料
1.8 平面構造例
1.9 画素駆動線の配線例
1.10 イメージセンサの積層構造例
1.11 画素駆動及び読出し方式
1.11.1 第1例
1.11.2 第2例
1.11.3 第3例
1.11.4 第4例
1.11.5 第5例
1.11.6 第6例
1.11.7 第7例
1.11.8 第8例
1.11.9 第9例
1.11.10 第10例
1.11.11 第11例
1.12 作用・効果
2.第2の実施形態
2.1 画素アレイ部の構成例
2.2 単位画素の回路構成例
2.3 単位画素の断面構造例
2.4 平面構造例
2.5 オンチップレンズの変形例
2.6 カラーフィルタ配列の変形例
2.7 作用・効果
3.移動体への応用例
1.第1の実施形態
まず、第1の実施形態に係る固体撮像装置(以下、イメージセンサという)及び電子機器について、図面を参照して詳細に説明する。なお、本実施形態では、CMOS(Complementary Metal-Oxide Semiconductor)型のイメージセンサに本実施形態に係る技術を適用した場合を例示するが、これに限定されず、例えば、CCD(Charge-Coupled Device)型のイメージセンサやToF(Time-of-Flight)センサやEVS(Event Vision Sensor)など、光電変換素子を備える種々のセンサに本実施形態に係る技術を適用することが可能である。
まず、第1の実施形態に係る固体撮像装置(以下、イメージセンサという)及び電子機器について、図面を参照して詳細に説明する。なお、本実施形態では、CMOS(Complementary Metal-Oxide Semiconductor)型のイメージセンサに本実施形態に係る技術を適用した場合を例示するが、これに限定されず、例えば、CCD(Charge-Coupled Device)型のイメージセンサやToF(Time-of-Flight)センサやEVS(Event Vision Sensor)など、光電変換素子を備える種々のセンサに本実施形態に係る技術を適用することが可能である。
1.1 電子機器の構成例
図1は、第1の実施形態に係るイメージセンサを搭載した電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1は、例えば、撮像レンズ2と、イメージセンサ100と、記憶部3と、プロセッサ4とを備える。
図1は、第1の実施形態に係るイメージセンサを搭載した電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1は、例えば、撮像レンズ2と、イメージセンサ100と、記憶部3と、プロセッサ4とを備える。
撮像レンズ2は、入射光を集光してその像をイメージセンサ100の受光面に結像する光学系の一例である。受光面とは、イメージセンサ100における光電変換素子が配列する面であってよい。イメージセンサ100は、入射光を光電変換して画像データを生成する。また、イメージセンサ100は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。
記憶部3は、例えば、フラッシュメモリやDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等で構成され、イメージセンサ100から入力された画像データ等を記録する。
プロセッサ4は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサや、GPU(Graphics Processing Unit)やベースバンドプロセッサなどが含まれ得る。プロセッサ4は、イメージセンサ100から入力された画像データや記憶部3から読み出した画像データ等に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワークを介して外部へ送信したりする。
また、プロセッサ4は、後述するRGB画素10から読み出されたカラー画像と、IR画素20から読み出されたモノクロ画像(IR画像)とを統合的に処理することで、測距処理や認識処理などの種々の処理を実行し得る。
1.2 イメージセンサの構成例
図2は、第1の実施形態に係るCMOS型のイメージセンサの概略構成例を示すブロック図である。
図2は、第1の実施形態に係るCMOS型のイメージセンサの概略構成例を示すブロック図である。
本実施形態に係るイメージセンサ100は、例えば、画素アレイ部101が形成された半導体チップと、周辺回路が形成された半導体チップとが積層されたスタック構造を有する。周辺回路には、例えば、画素駆動回路102、信号処理回路103、カラム駆動回路104及びシステム制御部105が含まれ得る。
イメージセンサ100は更に、データ処理部108及びデータ格納部109を備えている。データ処理部108及びデータ格納部109は、周辺回路と同じ半導体チップに設けられてもよいし、別の半導体チップに設けられてもよい。
画素アレイ部101は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)110が行方向及び列方向に、すなわち、行列状に2次元格子状に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。単位画素の具体的な回路構成や画素構造の詳細については後述する。
画素アレイ部101では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための制御信号を伝送する。図2では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、画素駆動回路102の各行に対応した出力端に接続されている。
画素駆動回路102は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各画素を全画素同時あるいは行単位等で駆動する。すなわち、画素駆動回路102は、当該画素駆動回路102を制御するシステム制御部105と共に、画素アレイ部101の各画素の動作を制御する駆動部を構成している。この画素駆動回路102はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
読出し走査系は、単位画素から信号を読み出すために、画素アレイ部101の単位画素を行単位で順に選択走査する。単位画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
この掃出し走査系による掃出し走査により、読出し行の単位画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素における電荷の蓄積期間(露光期間ともいう)となる。
画素駆動回路102によって選択走査された画素行の各単位画素から出力される信号は、画素列ごとに垂直信号線VSLの各々を通して信号処理回路103に入力される。信号処理回路103は、画素アレイ部101の画素列ごとに、選択行の各画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
具体的には、信号処理回路103は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。信号処理回路103は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
カラム駆動回路104は、シフトレジスタやアドレスデコーダなどによって構成され、信号処理回路103の画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。このカラム駆動回路104による選択走査により、信号処理回路103において画素回路ごとに信号処理された画素信号が順番に出力される。
システム制御部105は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、画素駆動回路102、信号処理回路103、及び、カラム駆動回路104などの駆動制御を行う。
データ処理部108は、少なくとも演算処理機能を有し、信号処理回路103から出力される画像信号に対して演算処理等の種々の信号処理を行う。データ格納部109は、データ処理部108での信号処理にあたって、その処理に必要なデータを一時的に格納する。
なお、データ処理部108から出力された画像データは、例えば、イメージセンサ100を搭載する電子機器1におけるプロセッサ4等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。
1.3 画素アレイ部の構成例
次に、画素アレイ部101の構成例について説明する。なお、ここでは、単位画素110が、RGB三原色のカラー画像を取得するためのRGB画素と、赤外(IR)光のモノクロ画像を取得するためのIR画素とを含む場合を例示に挙げる。例えば、RGB画素は、請求の範囲における第1画素の一例に相当し得、IR画素は、請求の範囲における第2画素の一例に相当し得、RGB画素を含むセンサは、請求の範囲における第1センサの一例に相当し得、IR画素を含むセンサは、請求の範囲における第2センサの一例に相当し得る。また、RGB三原色を含む可視光は、例えば、請求の範囲における第1波長帯の光の一例に相当し得、IR光は、例えば、請求の範囲における第2波長帯の光の一例に相当し得る。
次に、画素アレイ部101の構成例について説明する。なお、ここでは、単位画素110が、RGB三原色のカラー画像を取得するためのRGB画素と、赤外(IR)光のモノクロ画像を取得するためのIR画素とを含む場合を例示に挙げる。例えば、RGB画素は、請求の範囲における第1画素の一例に相当し得、IR画素は、請求の範囲における第2画素の一例に相当し得、RGB画素を含むセンサは、請求の範囲における第1センサの一例に相当し得、IR画素を含むセンサは、請求の範囲における第2センサの一例に相当し得る。また、RGB三原色を含む可視光は、例えば、請求の範囲における第1波長帯の光の一例に相当し得、IR光は、例えば、請求の範囲における第2波長帯の光の一例に相当し得る。
また、図3及び以下では、RGB三原色を構成する各色成分の光を透過させるカラーフィルタ31r、31g又は31bを区別しない場合、その符号が31とされている。
図3は、本実施形態に係る画素アレイ部の概略構成例を示す模式図である。図3に示すように、画素アレイ部101は、RGB画素10とIR画素20とからなる単位画素110が光の入射方向に沿って配列した構造を備える単位画素110が2次元格子状に配列した構成を備える。すなわち、本実施形態では、RGB画素10とIR画素20とが単位画素110の配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置するRGB画素10を透過した光が、このRGB画素10の下流側に位置するIR画素20に入射するように構成されている。このような構成によれば、RGB画素10の光電変換部PD1における入射光の入射面と反対側の面側にIR画素20の光電変換部PD2が配置される。それにより、本実施形態では、光の入射方向に沿って配列するRGB画素10とIR画素20との入射光の光軸が一致又は略一致している。
なお、本実施形態では、RGB画素10を構成する光電変換部PD1を有機材料で構成し、IR画素20を構成する光電変換部PD2をシリコンなどの半導体材料で構成する場合を例示するが、これに限定されるものではない。例えば、光電変換部PD1と光電変換部PD2との両方が半導体材料で構成されてもよいし、光電変換部PD1と光電変換部PD2との両方が有機材料で構成されてもよいし、光電変換部PD1が半導体材料で構成され、光電変換部PD2が有機材料で構成されてもよい。若しくは、光電変換部PD1と光電変換部PD2との少なくとも一方が有機材料及び半導体材料とは異なる光電変換材料で構成されてもよい。
1.4 単位画素の回路構成例
次に、単位画素110の回路構成例について説明する。図4は、本実施形態に係る単位画素の概略構成例を示す回路図である。図4に示すように、単位画素110は、RGB画素10と、IR画素20とを1つずつ備える。
次に、単位画素110の回路構成例について説明する。図4は、本実施形態に係る単位画素の概略構成例を示す回路図である。図4に示すように、単位画素110は、RGB画素10と、IR画素20とを1つずつ備える。
(RGB画素10)
RGB画素10は、例えば、光電変換部PD1と、転送ゲート11と、浮遊拡散領域FD1と、リセットトランジスタ12と、増幅トランジスタ13と、選択トランジスタ14とを備える。
RGB画素10は、例えば、光電変換部PD1と、転送ゲート11と、浮遊拡散領域FD1と、リセットトランジスタ12と、増幅トランジスタ13と、選択トランジスタ14とを備える。
選択トランジスタ14のゲートには、画素駆動線LDに含まれる選択制御線が接続され、リセットトランジスタ12のゲートには、画素駆動線LDに含まれるリセット制御線が接続され、転送ゲート11の後述する蓄積電極(図8の蓄積電極37参照)には、画素駆動線LDに含まれる転送制御線が接続される。また、増幅トランジスタ13のドレインには、信号処理回路103に一端が接続される垂直信号線VSL1が選択トランジスタ14を介して接続される。
以下の説明において、リセットトランジスタ12、増幅トランジスタ13及び選択トランジスタ14は、まとめて画素回路とも称される。この画素回路には、浮遊拡散領域FD1及び/又は転送ゲート11が含まれてもよい。
光電変換部PD1は、例えば有機材料で構成され、入射した光を光電変換する。転送ゲート11は、光電変換部PD1に発生した電荷を転送する。浮遊拡散領域FD1は、転送ゲート11が転送した電荷を蓄積する。増幅トランジスタ13は、浮遊拡散領域FD1に蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSL1に出現させる。リセットトランジスタ12は、浮遊拡散領域FD1に蓄積された電荷を放出する。選択トランジスタ14は、読出し対象のRGB画素10を選択する。
光電変換部PD1のアノードは、接地されており、カソ-ドは、転送ゲート11に接続される。転送ゲート11は、その詳細については後述において図8を用いて説明するが、例えば、蓄積電極37と読出し電極36とを備える。露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が、転送制御線を介して蓄積電極37に印加される。読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が、転送制御線を介して蓄積電極37に印加される。
読出し電極36を介して流出した電荷は、読出し電極36と、リセットトランジスタ12のソースと、増幅トランジスタ13のゲートとを接続する配線構造によって構成される浮遊拡散領域FD1に蓄積される。なお、リセットトランジスタ12のドレインは、例えば、電源電圧VDDや電源電圧VDDよりも低いリセット電圧が供給される電源線に接続されてもよい。
増幅トランジスタ13のソースは、例えば、不図示の定電流回路等を介して電源線に接続されてよい。増幅トランジスタ13のドレインは、選択トランジスタ14のソースに接続され、選択トランジスタ14のドレインは、垂直信号線VSL1に接続される。
浮遊拡散領域FD1は、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散領域FD1は、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散領域FD1は、転送ゲート11のドレインとリセットトランジスタ12のソースと増幅トランジスタ13のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量等であってもよい。
垂直信号線VSL1は、信号処理回路103においてカラム毎(すなわち、垂直信号線VSL1毎)に設けられたAD(Analog-to-Digital)変換回路103Aに接続される。AD変換回路103Aは、例えば、比較器とカウンタとを備え、外部の基準電圧生成回路(DAC(Digital-to-Analog Converter))から入力されたシングルスロープやランプ形状等の基準電圧と、垂直信号線VSL1に出現した画素信号とを比較することで、アナログの画素信号をデジタルの画素信号に変換する。なお、AD変換回路103Aは、例えば、CDS(Correlated Double Sampling)回路などを備え、kTCノイズ等を低減可能に構成されていてもよい。
(IR画素20)
IR画素20は、例えば、光電変換部PD2と、転送トランジスタ21と、浮遊拡散領域FD2と、リセットトランジスタ22と、増幅トランジスタ23と、選択トランジスタ24と、排出トランジスタ25とを備える。すなわち、IR画素20では、RGB画素10における転送ゲート11が転送トランジスタ21に置き換えられるとともに、排出トランジスタ25が追加されている。
IR画素20は、例えば、光電変換部PD2と、転送トランジスタ21と、浮遊拡散領域FD2と、リセットトランジスタ22と、増幅トランジスタ23と、選択トランジスタ24と、排出トランジスタ25とを備える。すなわち、IR画素20では、RGB画素10における転送ゲート11が転送トランジスタ21に置き換えられるとともに、排出トランジスタ25が追加されている。
転送トランジスタ21に対する浮遊拡散領域FD2、リセットトランジスタ22及び増幅トランジスタ23の接続関係は、RGB画素10における転送ゲート11に対する浮遊拡散領域FD1、リセットトランジスタ12及び増幅トランジスタ13の接続関係と同様であってよい。また、増幅トランジスタ23と選択トランジスタ24と垂直信号線VSL2との接続関係も、RGB画素10における増幅トランジスタ13と選択トランジスタ14と垂直信号線VSL1との接続関係と同様であってよい。
転送トランジスタ21のソースは、例えば、光電変換部PD2のカソードに接続され、ドレインは浮遊拡散領域FD2に接続される。また、転送トランジスタ21のゲートには、画素駆動線LDに含まれる転送制御線が接続される。
排出トランジスタ25のソースは、例えば、光電変換部PD2のカソードに接続され、ドレインは、電源電圧VDDや電源電圧VDDよりも低いリセット電圧が供給される電源線に接続されてよい。また、排出トランジスタ25のゲートには、画素駆動線LDに含まれる排出制御線が接続される。
以下の説明において、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24は、まとめて画素回路とも称される。この画素回路には、浮遊拡散領域FD2、転送トランジスタ21及び排出トランジスタ25のうちの1つ以上が含まれてもよい。
光電変換部PD2は、例えば半導体材料で構成され、入射した光を光電変換する。転送トランジスタ21は、光電変換部PD2に発生した電荷を転送する。浮遊拡散領域FD2は、転送トランジスタ21が転送した電荷を蓄積する。増幅トランジスタ23は、浮遊拡散領域FD2に蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSL2に出現させる。リセットトランジスタ22は、浮遊拡散領域FD2に蓄積された電荷を放出する。選択トランジスタ24は、読出し対象のIR画素20を選択する。
光電変換部PD2のアノードは、接地されており、カソ-ドは、転送トランジスタ21に接続される。転送トランジスタ21のドレインは、リセットトランジスタ22のソースおよび増幅トランジスタ23のゲートに接続されており、これらを接続する配線構造が、浮遊拡散層FD2を構成する。光電変換部PD2から転送トランジスタ21を介して流出した電荷は、浮遊拡散領域FD2に蓄積される。
浮遊拡散領域FD2は、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散領域FD2は、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散領域FD2は、転送トランジスタ21のドレインとリセットトランジスタ22のソースと増幅トランジスタ23のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量等であってもよい。
排出トランジスタ25は、光電変換部PD2に蓄積された電荷を排出して、光電変換部PD2をリセットする際にオン状態とされる。それにより、光電変換部PD2に蓄積された電荷が排出トランジスタ25を介して電源線へ流出し、光電変換部PD2が露光されていない状態にリセットされる。
垂直信号線VSL2は、垂直信号線VSL1と同様、信号処理回路103においてカラム毎(すなわち、垂直信号線VSL2毎)に設けられたAD変換回路103Bに接続される。AD変換回路103Bは、AD変換回路103Aと同様の構成であってよい。
1.5 回路構成の変形例
続いて、図4に示す単位画素110の回路構成の変形例について、いくつか例を挙げて説明する。
続いて、図4に示す単位画素110の回路構成の変形例について、いくつか例を挙げて説明する。
1.5.1 第1の変形例
図5は、本実施形態の第1の変形例に係る単位画素の概略構成例を示す回路図である。図5に示すように、単位画素110-1は、図4に示す単位画素110と同様の構成において、垂直信号線VSL1及びVSL2が共通のAD変換回路103Aに接続されるように構成されている。そこで、第1の変形例では、AD変換回路103Aに接続される垂直信号線を、垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路131が設けられる。スイッチ回路131は、例えば、RGB画素10及び/又はIR画素20の画素回路と同じ半導体基板に設けられてもよいし、信号処理回路103が配置された半導体基板に設けられてもよいし、これらとは異なる半導体基板に設けられてもよい。また、スイッチ回路131を制御する制御信号は、画素駆動回路102から供給されてもよいし、カラム駆動回路104から供給されてもよいし、他の構成(例えば図1におけるプロセッサ4等)から供給されてもよい。
図5は、本実施形態の第1の変形例に係る単位画素の概略構成例を示す回路図である。図5に示すように、単位画素110-1は、図4に示す単位画素110と同様の構成において、垂直信号線VSL1及びVSL2が共通のAD変換回路103Aに接続されるように構成されている。そこで、第1の変形例では、AD変換回路103Aに接続される垂直信号線を、垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路131が設けられる。スイッチ回路131は、例えば、RGB画素10及び/又はIR画素20の画素回路と同じ半導体基板に設けられてもよいし、信号処理回路103が配置された半導体基板に設けられてもよいし、これらとは異なる半導体基板に設けられてもよい。また、スイッチ回路131を制御する制御信号は、画素駆動回路102から供給されてもよいし、カラム駆動回路104から供給されてもよいし、他の構成(例えば図1におけるプロセッサ4等)から供給されてもよい。
このような構成によれば、信号処理回路103の回路規模を縮小することが可能となるため、面積効率の向上によるイメージセンサ100の小型化や高解像度化等が可能となる。
1.5.2 第2の変形例
図6は、本実施形態の第2の変形例に係る単位画素の概略構成例を示す回路図である。図6に示すように、単位画素110-2は、図4に示す単位画素110と同様の構成において、垂直信号線VSL1及びVSL2それぞれを2つのAD変換回路103A及び103Bのうちのいずれかに接続できるように構成されている。そこで、第2の変形例では、AD変換回路103Aに接続される垂直信号線を垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路132と、AD変換回路103Bに接続される垂直信号線を垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路133とが設けられる。スイッチ回路132及び133は、例えば、RGB画素10及び/又はIR画素20の画素回路と同じ半導体基板に設けられてもよいし、信号処理回路103が配置された半導体基板に設けられてもよいし、これらとは異なる半導体基板に設けられてもよい。また、スイッチ回路132及び133を制御する制御信号は、画素駆動回路102から供給されてもよいし、カラム駆動回路104から供給されてもよいし、他の構成(例えば図1におけるプロセッサ4等)から供給されてもよい。
図6は、本実施形態の第2の変形例に係る単位画素の概略構成例を示す回路図である。図6に示すように、単位画素110-2は、図4に示す単位画素110と同様の構成において、垂直信号線VSL1及びVSL2それぞれを2つのAD変換回路103A及び103Bのうちのいずれかに接続できるように構成されている。そこで、第2の変形例では、AD変換回路103Aに接続される垂直信号線を垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路132と、AD変換回路103Bに接続される垂直信号線を垂直信号線VSL1及びVSL2のいずれかに切り替えるスイッチ回路133とが設けられる。スイッチ回路132及び133は、例えば、RGB画素10及び/又はIR画素20の画素回路と同じ半導体基板に設けられてもよいし、信号処理回路103が配置された半導体基板に設けられてもよいし、これらとは異なる半導体基板に設けられてもよい。また、スイッチ回路132及び133を制御する制御信号は、画素駆動回路102から供給されてもよいし、カラム駆動回路104から供給されてもよいし、他の構成(例えば図1におけるプロセッサ4等)から供給されてもよい。
このような構成によれば、カラム毎に使用するAD変換回路103A及び103Bを選択することが可能となるため、例えばストリーキングなどのノイズ発生による画質低下を抑制することが可能となる。
1.5.3 第3の変形例
図7は、本実施形態の第3の変形例に係る単位画素の概略構成例を示す回路図である。図7に示すように、単位画素110-3は、RGB画素10に関し、図6に示す単位画素110-2と同様の構成において、複数のRGB画素10-1~10-N(Nは2以上の整数)で、浮遊拡散領域FD1、リセットトランジスタ12、増幅トランジスタ13及び選択トランジスタ14を共有する、いわゆる画素共有の回路構造を備える。また、単位画素110-3は、IR画素20に関しても同様に、図6に示す単位画素110-2と同様の構成において、複数のIR画素20-1~20-Nで、浮遊拡散領域FD2、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24を共有する、いわゆる画素共有の回路構造を備える。なお、RGB画素10-1~10-Nの数と、IR画素20-1~20-Nの数とは、必ずしも一致していなくてもよい。
図7は、本実施形態の第3の変形例に係る単位画素の概略構成例を示す回路図である。図7に示すように、単位画素110-3は、RGB画素10に関し、図6に示す単位画素110-2と同様の構成において、複数のRGB画素10-1~10-N(Nは2以上の整数)で、浮遊拡散領域FD1、リセットトランジスタ12、増幅トランジスタ13及び選択トランジスタ14を共有する、いわゆる画素共有の回路構造を備える。また、単位画素110-3は、IR画素20に関しても同様に、図6に示す単位画素110-2と同様の構成において、複数のIR画素20-1~20-Nで、浮遊拡散領域FD2、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24を共有する、いわゆる画素共有の回路構造を備える。なお、RGB画素10-1~10-Nの数と、IR画素20-1~20-Nの数とは、必ずしも一致していなくてもよい。
このような構成とすることで、HDR(High Dynamic Range)での読出しとLDR(Low Dynamic Range)での読出しとを状況に応じて切り替えることが可能となるため、低照度時や高照度時における画質の劣化を抑制することが可能となる。なお、本説明では、図6を用いて説明した第2の変形例をベースとした場合を例示したが、これに限定されず、図4や図5に示された単位画素110及び単位画素110-1をベースとすることも可能である。
1.6 単位画素の断面構造例
次に、図8を参照して、第1の実施形態に係るイメージセンサ100の断面構造例を説明する。図8は、第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。ここでは、単位画素110における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。
次に、図8を参照して、第1の実施形態に係るイメージセンサ100の断面構造例を説明する。図8は、第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。ここでは、単位画素110における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。
また、以下の説明では、光の入射面が半導体基板50の裏面側(素子形成面と反対側)である、いわゆる裏面照射型の断面構造を例示するが、これに限定されず、光の入射面が半導体基板50の表面側(素子形成面側)である、いわゆる表面照射型の断面構造であってもよい。さらに、本説明では、RGB画素10の光電変換部PD1に有機材料が用いられた場合を例示するが、上述したように、光電変換部PD1及びPD2それぞれの光電変換材料には、有機材料及び半導体材料(無機材料ともいう)のうちの一方若しくは両方が用いられてよい。
なお、光電変換部PD1の光電変換材料及び光電変換部PD2の光電変換材料の両方に半導体材料を用いる場合、イメージセンサ100は、光電変換部PD1と光電変換部PD2とが同一の半導体基板50に作り込まれた断面構造を有してもよいし、光電変換部PD1が作り込まれた半導体基板と光電変換部PD2が作り込まれた半導体基板とが貼り合わされた断面構造を有してもよいし、光電変換部PD1及びPD2のうちの一方が半導体基板50に作り込まれ、他方が半導体基板50の裏面又は表面上に形成された半導体層に作り込まれた断面構造を有してもよい。
図8に示すように、本実施形態では、半導体基板50にIR画素20の光電変換部PD2が形成され、半導体基板50の裏面側(素子形成面と反対側)の面上に、RGB画素の光電変換部PD1が設けられた構造を備える。なお、図8では、説明の都合上、半導体基板50の裏面が紙面中上側に位置し、表面が下側に位置している。
半導体基板50には、例えば、シリコン(Si)などの半導体材料が用いられてよい。ただし、これに限定されず、GaAs、InGaAs、InP、AlGaAs、InGaP、AlGaInP、InGaAsP等の化合物半導体を含む種々の半導体材料が用いられてよい。
(RGB画素10)
RGB画素10の光電変換部PD1は、絶縁層53を挟んで、半導体基板50の裏面側に設けられている。光電変換部PD1は、例えば、有機材料により構成された光電変換膜34と、光電変換膜34を挟むように配置された透明電極33及び半導体層35とを備える。光電変換膜34に対して紙面中上側(以降、紙面中上側を上面側とし、下側を下面側とする)に設けられた透明電極33は、例えば、光電変換部PD1のアノードとして機能し、下面側に設けられた半導体層35は、光電変換部PD1のカソードとして機能する。
RGB画素10の光電変換部PD1は、絶縁層53を挟んで、半導体基板50の裏面側に設けられている。光電変換部PD1は、例えば、有機材料により構成された光電変換膜34と、光電変換膜34を挟むように配置された透明電極33及び半導体層35とを備える。光電変換膜34に対して紙面中上側(以降、紙面中上側を上面側とし、下側を下面側とする)に設けられた透明電極33は、例えば、光電変換部PD1のアノードとして機能し、下面側に設けられた半導体層35は、光電変換部PD1のカソードとして機能する。
カソードとして機能する半導体層35は、絶縁層53中に形成された読出し電極36に電気的に接続される。読出し電極36は、絶縁層53及び半導体基板50を貫通する配線61、62、63及び64に接続することで、半導体基板50の表面(下面)側にまで電気的に引き出されている。なお、図8には示されていないが、配線64は、図4に示す浮遊拡散領域FD1に電気的に接続されている。
カソードとして機能する半導体層35の下面側には、絶縁層53を挟んで蓄積電極37が併設される。図8には示されていないが、蓄積電極37は、画素駆動線LDにおける転送制御線に接続されており、上述したように、露光時には、光電変換部PD1に発生した電荷を蓄積電極37の近傍の半導体層35に集めるための電圧が印加され、読出し時には、蓄積電極37の近傍の半導体層35に集められた電荷を読出し電極36を介して流出させるための電圧が印加される。
読出し電極36及び蓄積電極37は、透明電極33と同様に、透明な導電膜であってよい。透明電極33並びに読出し電極36及び蓄積電極37には、例えば、酸化インジウムスズ(ITO)や酸化亜鉛(IZO)などの透明導電膜が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る導電膜であれば、種々の導電膜が使用されてよい。
また、半導体層35には、例えば、IGZOなどの透明な半導体層が用いられてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る半導体層であれば、種々の半導体層が使用されてよい。
さらに、絶縁層53は、例えば、シリコン酸化膜(SiO2)やシリコン窒化膜(SiN)などの絶縁膜が使用されてよい。ただし、これらに限定されず、光電変換部PD2が検出対象とする波長帯の光を透過させ得る絶縁膜であれば、種々の絶縁膜が使用されてよい。
アノードとして機能する透明電極33の上面側には、封止膜32を挟んでカラーフィルタ31が設けられる。封止膜32は、例えば、窒化シリコン(SiN)などの絶縁材料で構成され、透明電極33からアルミニウム(Al)やチタニウム(Ti)などの原子が拡散することを防止するために、これらの原子を含み得る。
カラーフィルタ31の配列については後述において説明するが、例えば、1つのRGB画素10に対しては、特定の波長成分の光を選択的に透過させるカラーフィルタ31が設けられる。ただし、色情報を取得するRGB画素10の代わりに輝度情報を取得するモノクロ画素を設ける場合には、カラーフィルタ31が省略されてもよい。
(IR画素20)
IR画素20の光電変換部PD2は、例えば、半導体基板50におけるpウェル領域42に形成されたp型半導体領域43と、p型半導体領域43の中央付近に形成されたn型半導体領域44とを備える。n型半導体領域44は、例えば、光電変換により発生した電荷(電子)を蓄積する電荷蓄積領域として機能し、p型半導体領域43は、光電変換により発生した電荷をn型半導体領域44内に集めるための電位勾配を形成する領域として機能する。
IR画素20の光電変換部PD2は、例えば、半導体基板50におけるpウェル領域42に形成されたp型半導体領域43と、p型半導体領域43の中央付近に形成されたn型半導体領域44とを備える。n型半導体領域44は、例えば、光電変換により発生した電荷(電子)を蓄積する電荷蓄積領域として機能し、p型半導体領域43は、光電変換により発生した電荷をn型半導体領域44内に集めるための電位勾配を形成する領域として機能する。
光電変換部PD2の光入射面側には、例えば、IR光を選択的に透過させるIRフィルタ41が配置される。IRフィルタ41は、例えば、半導体基板50の裏面側に設けられた絶縁層53内に配置されてよい。IRフィルタ41を光電変換部PD2の光入射面に配置することで、光電変換部PD2への可視光の入射を抑制することが可能となるため、可視光に対するIR光のS/N比を改善することができる。それにより、IR光のより正確な検出結果を得ることが可能となる。
半導体基板50の光入射面には、入射光(本例ではIR光)の反射を抑制するために、例えば、微細な凹凸構造が設けられている。この凹凸構造は、いわゆるモスアイ構造と称される構造であってもよいし、モスアイ構造とはサイズやピッチが異なる凹凸構造であってもよい。
半導体基板50の表面(紙面中下面)側、すなわち、素子形成面側には、転送トランジスタ21として機能する縦型トランジスタ45と、電荷蓄積部として機能する浮遊拡散領域FD2とが設けられる。縦型トランジスタ45のゲート電極は、半導体基板50の表面からn型半導体領域44にまで達しており、層間絶縁膜56に形成された配線65及び66(画素駆動線LDの転送制御線の一部)を介して画素駆動回路102に接続されている。
縦型トランジスタ45を介して流出した電荷は、浮遊拡散領域FD2に蓄積される。浮遊拡散領域FD2は、層間絶縁膜56に形成された配線67及び68を介して、リセットトランジスタ22のソース及び増幅トランジスタ23のゲートに接続される。なお、リセットトランジスタ22、増幅トランジスタ23及び選択トランジスタ24は、半導体基板50の素子形成面に設けられてもよいし、半導体基板50とは異なる半導体基板に設けられてもよい。
なお、図8には、1つの光電変換部PD2に対して2つの縦型トランジスタ45(転送トランジスタ21)が設けられた場合が例示されているが、これに限定されず、1つの縦型トランジスタ45が設けられてもよいし、3以上の縦型トランジスタ45が設けられてもよい。同様に、1つの光電変換部PD2に対して2つの浮遊拡散領域FD2が設けられた場合が例示されているが、これに限定されず、1つの浮遊拡散領域FD2が設けられてもよいし、3以上の浮遊拡散領域FD2が設けられてもよい。
(画素分離構造)
半導体基板50には、複数の単位画素110の間を電気的に分離する画素分離部54が設けられており、この画素分離部54で区画された各領域内に、光電変換部PD2が設けられる。例えば、半導体基板50の裏面(図中上面)側からイメージセンサ100を見た場合、画素分離部54は、例えば、複数の単位画素110の間に介在する格子形状を有しており、各光電変換部PD2は、この画素分離部54で区画された各領域内に形成されている。
半導体基板50には、複数の単位画素110の間を電気的に分離する画素分離部54が設けられており、この画素分離部54で区画された各領域内に、光電変換部PD2が設けられる。例えば、半導体基板50の裏面(図中上面)側からイメージセンサ100を見た場合、画素分離部54は、例えば、複数の単位画素110の間に介在する格子形状を有しており、各光電変換部PD2は、この画素分離部54で区画された各領域内に形成されている。
画素分離部54には、例えば、タングステン(W)やアルミニウム(Al)などの光を反射する反射膜が用いられてもよい。それにより、光電変換部PD2内に進入した入射光を画素分離部54で反射させることが可能となるため、光電変換部PD2内での入射光の光路長を長くすることが可能となる。加えて、画素分離部54を光反射構造とすることで、隣接画素への光の漏れ込みを低減することが可能となるため、画質や測距精度等をより向上させることも可能となる。なお、画素分離部54を光反射構造とする構成は、反射膜を用いる構成に限定されず、例えば、画素分離部54に半導体基板50とは異なる屈折率の材料を用いることでも実現することができる。
半導体基板50と画素分離部54との間には、例えば、固定電荷膜55が設けられる。固定電荷膜55は、例えば、半導体基板50との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜55が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板138との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
固定電荷膜55は、例えば、ハフニウム酸化膜(HfO2膜)で形成することができる。また、固定電荷膜55は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
なお、図8には、画素分離部54が半導体基板50の表面から裏面にまで達する、いわゆるFTI(Full Trench Isolation)構造を有する場合が例示されているが、これに限定されず、例えば、画素分離部54が半導体基板50の裏面又は表面から半導体基板50の中腹付近まで形成された、いわゆるDTI(Deep Trench Isolation)構造など、種々の素子分離構造を採用することが可能である。
(瞳補正)
カラーフィルタ31の上面上には、シリコン酸化膜やシリコン窒化膜などによる平坦化膜52が設けられる。平坦化膜52の上面上は、例えば、CMP(Chemical Mechanical Polishing)により平坦化され、この平坦化された上面上には、単位画素110ごとのオンチップレンズ51が設けられる。各単位画素110のオンチップレンズ51は、入射光を光電変換部PD1及びPD2に集めるような曲率を備えている。なお、各単位画素110におけるオンチップレンズ51、カラーフィルタ31、IRフィルタ41、光電変換部PD2の位置関係は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい(瞳補正)。
カラーフィルタ31の上面上には、シリコン酸化膜やシリコン窒化膜などによる平坦化膜52が設けられる。平坦化膜52の上面上は、例えば、CMP(Chemical Mechanical Polishing)により平坦化され、この平坦化された上面上には、単位画素110ごとのオンチップレンズ51が設けられる。各単位画素110のオンチップレンズ51は、入射光を光電変換部PD1及びPD2に集めるような曲率を備えている。なお、各単位画素110におけるオンチップレンズ51、カラーフィルタ31、IRフィルタ41、光電変換部PD2の位置関係は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい(瞳補正)。
また、図8に示す構造において、斜めに入射した光が隣接画素へ漏れ込むことを防止するための遮光膜が設けられてもよい。遮光膜は、半導体基板50の内部に設けられた画素分離部54の上方(入射光の光路における上流側)に位置し得る。ただし、瞳補正をする場合、遮光膜の位置は、例えば、画素アレイ部101の中心からの距離(像高)に応じて調節されていてもよい。このような遮光膜は、例えば、封止膜32内や平坦化膜52内に設けられてよい。また、遮光膜の材料には、例えば、アルミニウム(Al)やタングステン(W)などの遮光材料が用いられてよい。
1.7 有機材料
第1の実施形態において、光電変換膜34の材料に有機系半導体を用いる場合、光電変換膜34の層構造は、以下のような構造とすることが可能である。ただし、積層構造の場合、その積層順は適宜入れ替えることが可能である。
(1)p型有機半導体の単層構造
(2)n型有機半導体の単層構造
(3-1)p型有機半導体層/n型有機半導体層の積層構造
(3-2)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)/n型有機半導体層の積層構造
(3-3)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(3-4)n型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(4)p型有機半導体とp型有機半導体との混合層(バルクヘテロ構造)
第1の実施形態において、光電変換膜34の材料に有機系半導体を用いる場合、光電変換膜34の層構造は、以下のような構造とすることが可能である。ただし、積層構造の場合、その積層順は適宜入れ替えることが可能である。
(1)p型有機半導体の単層構造
(2)n型有機半導体の単層構造
(3-1)p型有機半導体層/n型有機半導体層の積層構造
(3-2)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)/n型有機半導体層の積層構造
(3-3)p型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(3-4)n型有機半導体層/p型有機半導体とn型有機半導体との混合層(バルクヘテロ構造)の積層構造
(4)p型有機半導体とp型有機半導体との混合層(バルクヘテロ構造)
ここで、p型有機半導体としては、ナフタレン誘導体、アントラセン誘導体、フェナントレン誘導体、ピレン誘導体、ペリレン誘導体、テトラセン誘導体、ペンタセン誘導体、キナクリドン誘導体、チオフェン誘導体、チエノチオフェン誘導体、ベンゾチオフェン誘導体、ベンゾチエノベンゾチオフェン誘導体、トリアリルアミン誘導体、カルバゾール誘導体、ペリレン誘導体、ピセン誘導体、クリセン誘導体、フルオランテン誘導体、フタロシアニン誘導体、サブフタロシアニン誘導体、サブポルフィラジン誘導体、複素環化合物を配位子とする金属錯体、ポリチオフェン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を挙げることができる。
n型有機半導体としては、フラーレン及びフラーレン誘導体〈例えば、C60や、C70,C74等のフラーレン(高次フラーレン、内包フラーレン等)又はフラーレン誘導体(例えば、フラーレンフッ化物やPCBMフラーレン化合物、フラーレン多量体等)〉、p型有機半導体よりもHOMO及びLUMOが大きい(深い)有機半導体、透明な無機金属酸化物を挙げることができる。
n型有機半導体として、具体的には、窒素原子、酸素原子、硫黄原子を含有する複素環化合物、例えば、ピリジン誘導体、ピラジン誘導体、ピリミジン誘導体、トリアジン誘導体、キノリン誘導体、キノキサリン誘導体、イソキノリン誘導体、アクリジン誘導体、フェナジン誘導体、フェナントロリン誘導体、テトラゾール誘導体、ピラゾール誘導体、イミダゾール誘導体、チアゾール誘導体、オキサゾール誘導体、イミダゾール誘導体、ベンズイミダゾール誘導体、ベンゾトリアゾール誘導体、ベンズオキサゾール誘導体、ベンズオキサゾール誘導体、カルバゾール誘導体、ベンゾフラン誘導体、ジベンゾフラン誘導体、サブポルフィラジン誘導体、ポリフェニレンビニレン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を分子骨格の一部に有する有機分子、有機金属錯体やサブフタロシアニン誘導体を挙げることができる。
フラーレン誘導体に含まれる基等として、ハロゲン原子;直鎖、分岐若しくは環状のアルキル基若しくはフェニル基;直鎖若しくは縮環した芳香族化合物を有する基;ハロゲン化物を有する基;パーシャルフルオロアルキル基;パーフルオロアルキル基;シリルアルキル基;シリルアルコキシ基;アリールシリル基;アリールスルファニル基;アルキルスルファニル基;アリールスルホニル基;アルキルスルホニル基;アリールスルフィド基;アルキルスルフィド基;アミノ基;アルキルアミノ基;アリールアミノ基;ヒドロキシ基;アルコキシ基;アシルアミノ基;アシルオキシ基;カルボニル基;カルボキシ基;カルボキソアミド基;カルボアルコキシ基;アシル基;スルホニル基;シアノ基;ニトロ基;カルコゲン化物を有する基;ホスフィン基;ホスホン基;これらの誘導体を挙げることができる。
以上のような有機系材料から構成された光電変換膜34の膜厚としては、次の値に限定されるものではないが、例えば、1×10-8m(メートル)乃至5×10-7m、好ましくは、2.5×10-8m乃至3×10-7m、より好ましくは、2.5×10-8m乃至2×10-7m、一層好ましくは、1×10-7m乃至1.8×10-7mを例示することができる。尚、有機半導体は、p型、n型と分類されることが多いが、p型とは正孔を輸送し易いという意味であり、n型とは電子を輸送し易いという意味であり、無機半導体のように熱励起の多数キャリアとして正孔又は電子を有しているという解釈に限定されるものではない。
緑色の波長の光を光電変換する光電変換膜34を構成する材料としては、例えば、ローダミン系色素、メラシアニン系色素、キナクリドン誘導体、サブフタロシアニン系色素(サブフタロシアニン誘導体)等を挙げることができる。
また、青色の光を光電変換する光電変換膜34を構成する材料としては、例えば、クマリン酸色素、トリス-8-ヒドリキシキノリアルミニウム(Alq3)、メラシアニン系色素等を挙げることができる。
さらに、赤色の光を光電変換する光電変換膜34を構成する材料としては、例えば、フタロシアニン系色素、サブフタロシアニン系色素(サブフタロシアニン誘導体)を挙げることができる。
さらにまた、光電変換膜34としては、紫外域から赤色域にかけて略全ての可視光に対して感光するパンクロマチックな感光性有機光電変換膜を用いることも可能である。
1.8 平面構造例
次に、本実施形態に係る画素アレイ部の平面構造例について説明する。図9は、本実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図9において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。また、本説明では、赤色(R)の波長成分を選択的に検出する画素(以下、R画素10rという)と、緑色(G)の波長成分を選択的に検出する画素(以下、G画素10gという)と、青色(B)の波長成分の光を選択的に検出する画素(以下、B画素10bという)とより構成された2×2画素のベイヤー配列を単位配列とする場合を例示する。
次に、本実施形態に係る画素アレイ部の平面構造例について説明する。図9は、本実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図9において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。また、本説明では、赤色(R)の波長成分を選択的に検出する画素(以下、R画素10rという)と、緑色(G)の波長成分を選択的に検出する画素(以下、G画素10gという)と、青色(B)の波長成分の光を選択的に検出する画素(以下、B画素10bという)とより構成された2×2画素のベイヤー配列を単位配列とする場合を例示する。
図9の(A)~(D)に示すように、本実施形態では、1つの単位画素110に対して、オンチップレンズ51と、カラーフィルタ31と、蓄積電極37と、光電変換部PD2とが1つずつ設けられている。なお、本説明において、1つの蓄積電極37は1つのRGB画素10に相当し、1つの光電変換部PD2は1つのIR画素20に相当する。
このように、1つの単位画素110において、1つのRGB画素10と1つのIR画素20とを入射光の進行方向に沿って配列させることで、RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
1.9 画素駆動線の配線例
次に、単位画素110と画素駆動回路102とを接続する画素駆動線LDの配線例について説明する。図10は、本実施形態に係るRGB画素に対する画素駆動線の配線例を示す平面図であり、図11は、本実施形態に係るIR画素に対する画素駆動線の配線例を示す平面図である。
次に、単位画素110と画素駆動回路102とを接続する画素駆動線LDの配線例について説明する。図10は、本実施形態に係るRGB画素に対する画素駆動線の配線例を示す平面図であり、図11は、本実施形態に係るIR画素に対する画素駆動線の配線例を示す平面図である。
図10及び図11に示すように、本実施形態に係る画素駆動回路102は、RGB画素10を駆動するRGB駆動回路160と、IR画素20を駆動するIR駆動回路170とを備える。RGB駆動回路160とRGB画素10の転送ゲート11、リセットトランジスタ12及び選択トランジスタ14とを接続するRGB駆動線LD1と、IR駆動回路170とIR画素20の転送トランジスタ21、リセットトランジスタ22、選択トランジスタ24及び排出トランジスタ25とを接続するIR駆動線LD2とは、例えば、直行するように配線されてもよい。ただし、これに限定されず、RGB駆動線LD1とIR駆動線LD2とは、平行に配線されてもよい。その場合、RGB駆動回路160とIR駆動回路170とは、各種制御信号を、画素アレイ部101に対して同一の側から供給してもよいし、異なる側から供給してもよい。
1.10 イメージセンサの積層構造例
図12は、本実施形態に係るイメージセンサの積層構造例を示す図である。図12に示すように、イメージセンサ100は、画素チップ140と回路チップ150とが上下に積層された構造を備える。画素チップ140は、例えば、RGB画素10及びIR画素20を含む単位画素110が配列する画素アレイ部101を備える半導体チップであり、回路チップ150は、例えば、図3に示す画素回路が配列する半導体チップである。例えば、画素チップ140は、請求の範囲における第1チップの一例に相当し得、回路チップは、請求の範囲における第2チップの一例に相当し得る。
図12は、本実施形態に係るイメージセンサの積層構造例を示す図である。図12に示すように、イメージセンサ100は、画素チップ140と回路チップ150とが上下に積層された構造を備える。画素チップ140は、例えば、RGB画素10及びIR画素20を含む単位画素110が配列する画素アレイ部101を備える半導体チップであり、回路チップ150は、例えば、図3に示す画素回路が配列する半導体チップである。例えば、画素チップ140は、請求の範囲における第1チップの一例に相当し得、回路チップは、請求の範囲における第2チップの一例に相当し得る。
画素チップ140と回路チップ150との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
また、画素チップ140と回路チップ150とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、画素チップ140に設けられたTSVと画素チップ140から回路チップ150にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、画素チップ140から回路チップ150まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
ただし、画素チップ140と回路チップ150との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続されてもよい。
1.11 画素駆動及び読出し方式
次に、RGB画素10及びIR画素の駆動方式及び読出し方式について、イメージセンサ100を構成する各半導体チップ(画素チップ140及び回路チップ150)のレイアウト例とともに、いくつか例を挙げて説明する。なお、以下では、説明の簡略化のため、図2に示す構成におけるカラム駆動回路104、システム制御部105及びデータ格納部109等を省略する。省略された各構成は、画素チップ140に設けられてもよいし、回路チップ150に設けられてもよいし、これらとは異なる半導体チップに設けられてもよい。また、以下の説明で使用する図面において、#n(nは1以上の整数)は、画素駆動線LD及び垂直信号線VSLの図面を跨いだ接続関係を示している。さらに、以下の説明において、特に説明されていない構成、動作及び効果は、他の例と同様であってよい。
次に、RGB画素10及びIR画素の駆動方式及び読出し方式について、イメージセンサ100を構成する各半導体チップ(画素チップ140及び回路チップ150)のレイアウト例とともに、いくつか例を挙げて説明する。なお、以下では、説明の簡略化のため、図2に示す構成におけるカラム駆動回路104、システム制御部105及びデータ格納部109等を省略する。省略された各構成は、画素チップ140に設けられてもよいし、回路チップ150に設けられてもよいし、これらとは異なる半導体チップに設けられてもよい。また、以下の説明で使用する図面において、#n(nは1以上の整数)は、画素駆動線LD及び垂直信号線VSLの図面を跨いだ接続関係を示している。さらに、以下の説明において、特に説明されていない構成、動作及び効果は、他の例と同様であってよい。
また、以下の説明において、例えば、RGB画素10に対する駆動系は、請求の範囲における第1駆動系の一例に相当し得、IR画素20に対する駆動系は、請求の範囲における第2駆動系の一例に相当し得、RGB画素10に対する読出し系は、請求の範囲における第1読出し部の一例に相当し得、IR画素20に対する読出し系は、請求の範囲における第2読出し部の一例に相当し得る。
1.11.1 第1例
第1例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図13及び図14は、第1例に係るレイアウト例を示す平面図であり、図13は、画素チップ140の平面レイアウト例を示し、図14は、回路チップ150の平面レイアウト例を示している。
第1例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図13及び図14は、第1例に係るレイアウト例を示す平面図であり、図13は、画素チップ140の平面レイアウト例を示し、図14は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図13に示すように、第1例では、画素チップ140は、画素アレイ部101の各単位画素110に対し、RGB画素10用のRGB駆動線LD1と、IR画素20用のIR駆動線LD2とが別々に配線されたレイアウトを有する。RGB駆動線LD1及びIR駆動線LD2は、図13のように行方向に延在していてもよいし、列方向に延在していてもよい。また、RGB駆動線LD1及びIR駆動線LD2は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。例えば、RGB駆動線LD1が紙面中右側から横方向(行方向)に延在し、IR駆動線LD2が紙面中上側から縦方向(列方向)に延在していてもよい。
図13に示すように、第1例では、画素チップ140は、画素アレイ部101の各単位画素110に対し、RGB画素10用のRGB駆動線LD1と、IR画素20用のIR駆動線LD2とが別々に配線されたレイアウトを有する。RGB駆動線LD1及びIR駆動線LD2は、図13のように行方向に延在していてもよいし、列方向に延在していてもよい。また、RGB駆動線LD1及びIR駆動線LD2は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。例えば、RGB駆動線LD1が紙面中右側から横方向(行方向)に延在し、IR駆動線LD2が紙面中上側から縦方向(列方向)に延在していてもよい。
また、各単位画素110において、RGB画素10は、垂直信号線VSL1に接続され、IR画素20は、垂直信号線VSL1とは異なる垂直信号線VSL2に接続される。垂直信号線VSL1及びVSL2は、図13のように列方向に延在していてもよいし、行方向に延在していてもよい。また、垂直信号線VSL1及びVSL2は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。
(回路チップ150)
図14に示すように、第1例では、図1に示す画素駆動回路102が、RGB駆動回路160とIR駆動回路170とから構成されている。また、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
図14に示すように、第1例では、図1に示す画素駆動回路102が、RGB駆動回路160とIR駆動回路170とから構成されている。また、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
RGB駆動回路160は、RGB駆動線LD1を介して画素チップ140における各単位画素110のRGB画素10に接続される。IR駆動回路170は、IR駆動線LD2を介して画素チップ140における各単位画素110のIR画素20に接続される。
RGB駆動回路160は、転送ゲート11に転送制御信号を供給するTG駆動部161と、リセットトランジスタ12にリセット制御信号を供給するRST駆動部162と、選択トランジスタ14に選択制御信号を供給するSEL駆動部164とを含み、RGB駆動線LD1を介してRGB画素10に上記制御信号を供給することで、RGB画素10を駆動する。これにより、RGB画素10に接続された垂直信号線VSL1に画素信号が出現する。
IR駆動回路170は、転送トランジスタ21に転送制御信号を供給するTG駆動部171と、リセットトランジスタ22にリセット制御信号を供給するRST駆動部172と、選択トランジスタ24に選択制御信号を供給するSEL駆動部174と、排出トランジスタ25に排出制御信号を供給するOFG駆動部175とを含み、IR駆動線LD2を介してIR画素20に上記制御信号を供給することで、IR画素20を駆動する。これにより、IR画素20に接続された垂直信号線VSL2に画素信号が出現する。
RGB信号処理回路181は、垂直信号線VSL1に接続される。RGB信号処理回路181は、垂直信号線VSL1に出現した画素信号をデジタルの画素信号に変換することで、デジタルのカラー画像信号を生成する。
RGBデータ処理部182は、RGB信号処理回路181から出力されたデジタルのカラー画像信号に対して、上述においてデータ処理部108の処理として説明した各種演算処理を実行し、その結果を例えばプロセッサ4へ出力する。
IR信号処理回路191は、垂直信号線VSL2に接続される。IR信号処理回路191は、垂直信号線VSL1に出現した画素信号をデジタルの画素信号に変換することで、デジタルのモノクロ画像信号を生成する。
IRデータ処理部192は、IR信号処理回路191から出力されたデジタルのモノクロ画像信号に対して、上述においてデータ処理部108の処理として説明した各種演算処理を実行し、その結果を例えばプロセッサ4へ出力する。
このように、第1例では、RGB画素10を駆動するためのRGB駆動回路160と、IR画素20を駆動するためのIR駆動回路170とが、互いに独立した異なる駆動系を構成するとともに、RGB画素10から画素信号を読み出して各種処理を実行するRGB信号処理回路181及びRGBデータ処理部182と、IR画素20から画素信号を読み出して各種処理を実行するIR信号処理回路191及びIRデータ処理部192とが、互いに独立した異なる読出し系を構成する。このような構成によれば、同じ単位画素110におけるRGB画素10及びIR画素20から同時又は略同時に画素信号を読み出すことが可能となるため、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレを抑制することが可能となる。その結果、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
また、第1例では、駆動系を構成するRGB駆動回路160及びIR駆動回路170が、回路チップ150における片側(図14では、中央から左よりの領域)に配置され、読出し系を構成するRGB信号処理回路181及びRGBデータ処理部182と、IR信号処理回路191及びIRデータ処理部192とが、回路チップ150における他方の片側(図14では、中央より右側の領域)に配置されている。このように、駆動系と読出し系とを別々にまとめるようなレイアウトとすることで、既存の回路チップのレイアウトをベースとすることが可能となるため、回路チップ150のレイアウト設計効率を向上することが可能となる。
1.11.2 第2例
第2例では、第1例と同様に、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図15及び図16は、第2例に係るレイアウト例を示す平面図であり、図15は、画素チップ140の平面レイアウト例を示し、図16は、回路チップ150の平面レイアウト例を示している。
第2例では、第1例と同様に、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図15及び図16は、第2例に係るレイアウト例を示す平面図であり、図15は、画素チップ140の平面レイアウト例を示し、図16は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図15に示すように、第2例に係る画素チップ140の平面レイアウトは、図13に例示した第1例に係る画素チップ140の平面レイアウト例と同様であってよい。ただし、図15では、画素チップ140に設けられた各種素子を回路チップ150側の素子に電気的に接続するための接続部141が示されている。また、図15では、図面中、RGB駆動線LD1が左端側の接続部141に接続され、IR駆動線LD2が右端側の接続部141に接続され、垂直信号線VSL1が下側の接続部141に接続され、垂直信号線VSL2が上側の接続部141に接続されている。
図15に示すように、第2例に係る画素チップ140の平面レイアウトは、図13に例示した第1例に係る画素チップ140の平面レイアウト例と同様であってよい。ただし、図15では、画素チップ140に設けられた各種素子を回路チップ150側の素子に電気的に接続するための接続部141が示されている。また、図15では、図面中、RGB駆動線LD1が左端側の接続部141に接続され、IR駆動線LD2が右端側の接続部141に接続され、垂直信号線VSL1が下側の接続部141に接続され、垂直信号線VSL2が上側の接続部141に接続されている。
(回路チップ150)
図16に示すように、第2例では、第1例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170とから構成され、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
図16に示すように、第2例では、第1例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170とから構成され、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
第2例において、RGB駆動回路160は、例えば、回路チップ150の左側に寄せて配置され、回路チップ150の左端の接続部151に接続される。一方、IR駆動回路170は、例えば、回路チップ150の右側に寄せて配置され、回路チップ150の右端の接続部151に接続される。RGB信号処理回路181及びRGBデータ処理部182とIR信号処理回路191及びIRデータ処理部192との読出し系は、回路チップ150の中央に配置され、回路チップ150の上/下端の接続部151に接続される。なお、RGB駆動回路160とIR駆動回路170とは、位置が入れ替わってもよい。同様に、RGB信号処理回路181及びRGBデータ処理部182と、IR信号処理回路191及びIRデータ処理部192とは、位置が入れ替わってもよい。
(チップ間接続構成)
画素チップ140の接続部141と回路チップ150の接続部151とは、上述したように、例えば、半導体基板を貫通するTSVやCu-Cu接合やバンプ接合などにより電気的に接続される。これは、他の例についても同様であってよい。なお、図16には、RGB信号処理回路181が回路チップ150の下端の接続部151に接続され、IR信号処理回路191が回路チップ150の上端の接続部151に接続された場合が例示されているが、これに限定されず、RGB信号処理回路181及びIR信号処理回路191の両方が回路チップ150の上端又は下端に配置された接続部151に接続されてもよい。その場合、接続されない接続部151は省略することができる。
画素チップ140の接続部141と回路チップ150の接続部151とは、上述したように、例えば、半導体基板を貫通するTSVやCu-Cu接合やバンプ接合などにより電気的に接続される。これは、他の例についても同様であってよい。なお、図16には、RGB信号処理回路181が回路チップ150の下端の接続部151に接続され、IR信号処理回路191が回路チップ150の上端の接続部151に接続された場合が例示されているが、これに限定されず、RGB信号処理回路181及びIR信号処理回路191の両方が回路チップ150の上端又は下端に配置された接続部151に接続されてもよい。その場合、接続されない接続部151は省略することができる。
このように、第2例では、RGB駆動回路160とIR駆動回路170とが回路チップ150の左右に分かれて配置されている。このような構成によれば、画素チップ140側のRGB画素10への接続構成とIR画素20への接続構成とを左右に分散することが可能となるため、配線や接続端子の密集を緩和することが可能となる。それにより、配線間等のカップリングによる特性劣化を抑制することが可能となる。
また、RGB駆動回路160の接続部151とIR駆動回路170の接続部151とが回路チップ150の左右端に配置されているため、RGB駆動回路160からRGB画素10までの平均的な配線長と、IR駆動回路170からIR画素20までの平均的な配線長とを略一致させることが可能となるため、より高精度の制御が可能となる。
さらに、第2例によれば、第1例と同様に、RGB画素10に対する駆動系及び読出し系と、IR画素20に対する駆動系及び読出し系とが互いに独立した異なる構成であるため、同じ単位画素110におけるRGB画素10及びIR画素20から同時又は略同時に画素信号を読み出すことが可能となる。それにより、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレを抑制することが可能となるため、異なるセンサにより取得された情報を統合的に処理することで得られた結果の精度を向上することが可能となる。
1.11.3 第3例
第3例では、第1例及び第2例と同様に、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図17及び図18は、第3例に係るレイアウト例を示す平面図であり、図17は、画素チップ140の平面レイアウト例を示し、図18は、回路チップ150の平面レイアウト例を示している。
第3例では、第1例及び第2例と同様に、RGB画素10に対する駆動系とIR画素20に対する駆動系とが別々に設けられ、且つ、RGB画素10に対する読出し系とIR画素20に対する読出し系とが別々に設けられた場合について説明する。図17及び図18は、第3例に係るレイアウト例を示す平面図であり、図17は、画素チップ140の平面レイアウト例を示し、図18は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図17に示すように、第3例に係る画素チップ140の平面レイアウトは、図15を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、画素チップ140における同一の端側(本例では、右端側)に配置された接続部141に接続されている。
図17に示すように、第3例に係る画素チップ140の平面レイアウトは、図15を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、画素チップ140における同一の端側(本例では、右端側)に配置された接続部141に接続されている。
(回路チップ150)
図18に示すように、第3例に係る回路チップ150の平面レイアウトは、図16を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB信号処理回路181及びRGBデータ処理部182とIR信号処理回路191及びIRデータ処理部192とからなる読出し系が、回路チップ150の一方の端側(本例では左端側)に寄せて配置され、RGB駆動回路160とIR駆動回路170とからなる駆動系が、回路チップの他の端側(本例では右端側)に寄せて配置されている。RGB駆動回路160とIR駆動回路170とは、それぞれの接続部151が対向するように配置されている。なお、RGB駆動回路160とIR駆動回路170とは、位置が入れ替わってもよい。同様に、RGB信号処理回路181及びRGBデータ処理部182と、IR信号処理回路191及びIRデータ処理部192とは、位置が入れ替わってもよい。
図18に示すように、第3例に係る回路チップ150の平面レイアウトは、図16を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB信号処理回路181及びRGBデータ処理部182とIR信号処理回路191及びIRデータ処理部192とからなる読出し系が、回路チップ150の一方の端側(本例では左端側)に寄せて配置され、RGB駆動回路160とIR駆動回路170とからなる駆動系が、回路チップの他の端側(本例では右端側)に寄せて配置されている。RGB駆動回路160とIR駆動回路170とは、それぞれの接続部151が対向するように配置されている。なお、RGB駆動回路160とIR駆動回路170とは、位置が入れ替わってもよい。同様に、RGB信号処理回路181及びRGBデータ処理部182と、IR信号処理回路191及びIRデータ処理部192とは、位置が入れ替わってもよい。
このように、第3例では、RGB駆動回路160とIR駆動回路170とが対向して配置され、それにより、それぞれの接続部151が近接して配置される。このような構成によれば、RGB駆動回路160からRGB画素10までの配線長と、IR駆動回路170からIR画素20までの配線長とを略一致させることが可能となるため、より高精度の制御が可能となる。
また、第3例によれば、第1例及び第2例と同様に、RGB画素10に対する駆動系及び読出し系と、IR画素20に対する駆動系及び読出し系とが互いに独立した異なる構成であるため、同じ単位画素110におけるRGB画素10及びIR画素20から同時又は略同時に画素信号を読み出すことが可能となる。それにより、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレを抑制することが可能となるため、異なるセンサにより取得された情報を統合的に処理することで得られた結果の精度を向上することが可能となる。
1.11.4 第4例
第4例では、RGB画素10に対する読出し系の一部とIR画素20に対する読出し系の一部とが共通化された場合について説明する。なお、第4例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とは、第1例~第3例と同様に、別々に設けられてよい。また、第4例では、第2例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図19及び図20は、第4例に係るレイアウト例を示す平面図であり、図19は、画素チップ140の平面レイアウト例を示し、図20は、回路チップ150の平面レイアウト例を示している。
第4例では、RGB画素10に対する読出し系の一部とIR画素20に対する読出し系の一部とが共通化された場合について説明する。なお、第4例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とは、第1例~第3例と同様に、別々に設けられてよい。また、第4例では、第2例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図19及び図20は、第4例に係るレイアウト例を示す平面図であり、図19は、画素チップ140の平面レイアウト例を示し、図20は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図19に示すように、第4例に係る画素チップ140の平面レイアウトは、図15を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、画素チップ140における同一の端(本例では、下端)に向けて引き出されている。引き出されたRGB駆動線LD1とIR駆動線LD2とは、画素アレイ部101外に設けられたスイッチ回路131を介して、共通の垂直信号線VSLに接続される。この垂直信号線VSLは、画素チップ140の下端側に配置された接続部141に接続されている。
図19に示すように、第4例に係る画素チップ140の平面レイアウトは、図15を用いて説明した第2例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、画素チップ140における同一の端(本例では、下端)に向けて引き出されている。引き出されたRGB駆動線LD1とIR駆動線LD2とは、画素アレイ部101外に設けられたスイッチ回路131を介して、共通の垂直信号線VSLに接続される。この垂直信号線VSLは、画素チップ140の下端側に配置された接続部141に接続されている。
(回路チップ150)
図20に示すように、第4例に係る回路チップ150では、信号処理回路103として、RGB画素10及びIR画素20とで共有される共通信号処理回路210が設けられる。共通信号処理回路210は、回路チップ150の下端側に配置された接続部151に接続されており、RGB画素10から読み出された画素信号からデジタルのカラー画像信号を生成してRGBデータ処理部182に入力し、IR画素20から読み出された画素信号からでデジタルのモノクロ画像信号を生成してIRデータ処理部192に入力する。
図20に示すように、第4例に係る回路チップ150では、信号処理回路103として、RGB画素10及びIR画素20とで共有される共通信号処理回路210が設けられる。共通信号処理回路210は、回路チップ150の下端側に配置された接続部151に接続されており、RGB画素10から読み出された画素信号からデジタルのカラー画像信号を生成してRGBデータ処理部182に入力し、IR画素20から読み出された画素信号からでデジタルのモノクロ画像信号を生成してIRデータ処理部192に入力する。
このように、第4例では、RGB画素10とIR画素20とが共通信号処理回路210を共用する。それにより、個別の信号処理回路181及び191を設ける場合よりも、信号処理回路103の回路規模を縮小することが可能となるため、回路チップ150における信号処理回路103の占有面積を縮小することが可能となる。
また、共通信号処理回路210に接続される垂直信号線を垂直信号線VSL1及び垂直信号線VSL2のいずれかに切り替えるためのスイッチ回路131を画素チップ140に設けることで、画素チップ140の垂直信号線を回路チップ150まで電気的に引き回すための接続部141及び151を半分に削減することが可能となるため、画素チップ140における接続部141の占有面積及び回路チップ150における接続部151の占有面積を縮小することが可能となる。
なお、RGB画素10とIR画素20とで共通信号処理回路210を共用する場合、RGB画素10に対する読出しとIR画素20に対する読出しとは、例えば、時分割で実行されてよい。
また、第4例では、共通信号処理回路210に接続される垂直信号線をスイッチ回路131を用いて垂直信号線VSL1及び垂直信号線VSL2のいずれかに切り替える場合を例示したが、これに限定されず、垂直信号線VSL1及び垂直信号線VSL2の両方が、接続部151を介して回路チップ150側の共通信号処理回路210に接続されてもよい。
1.11.5 第5例
第5例では、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第5例では、RGB画素10に対する読出し系とIR画素20に対する読出し系とは、第1例~第3例と同様に、別々に設けられてよい。また、第5例では、第1例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図21及び図22は、第5例に係るレイアウト例を示す平面図であり、図21は、画素チップ140の平面レイアウト例を示し、図22は、回路チップ150の平面レイアウト例を示している。
第5例では、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第5例では、RGB画素10に対する読出し系とIR画素20に対する読出し系とは、第1例~第3例と同様に、別々に設けられてよい。また、第5例では、第1例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図21及び図22は、第5例に係るレイアウト例を示す平面図であり、図21は、画素チップ140の平面レイアウト例を示し、図22は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図21に示すように、第5例では、第1例に係る平面レイアウトと同様のレイアウトにおいて、各単位画素110のRGB画素10にRGB駆動線LD1と共通駆動線LD3とが接続され、IR画素20にIR駆動線LD2と共通駆動線LD3とが接続される。すなわち、第5例では、共通駆動線LD3がRGB画素10とIR画素20とで共用される。共通駆動線LD3は、RGB駆動線LD1及びIR駆動線LD2と同様に、行方向に延在していてもよいし、列方向に延在していてもよい。また、RGB駆動線LD1、IR駆動線LD2及び共通駆動線LD3は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。
図21に示すように、第5例では、第1例に係る平面レイアウトと同様のレイアウトにおいて、各単位画素110のRGB画素10にRGB駆動線LD1と共通駆動線LD3とが接続され、IR画素20にIR駆動線LD2と共通駆動線LD3とが接続される。すなわち、第5例では、共通駆動線LD3がRGB画素10とIR画素20とで共用される。共通駆動線LD3は、RGB駆動線LD1及びIR駆動線LD2と同様に、行方向に延在していてもよいし、列方向に延在していてもよい。また、RGB駆動線LD1、IR駆動線LD2及び共通駆動線LD3は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。
(回路チップ150)
図22に示すように、第5例では、画素駆動回路102が、RGB駆動回路160と、IR駆動回路170と、共通駆動回路200とから構成される。共通駆動回路200は、RGB駆動回路160におけるRST駆動部162とIR駆動回路170におけるRST駆動部172とを共通化したRST駆動部202と、RGB駆動回路160におけるSEL駆動部164とIR駆動回路170におけるSEL駆動部174とを共通化したSEL駆動部204とを備える。したがって、RGB駆動回路160からは、RST駆動部162及びSEL駆動部164が省略され、IR駆動回路170からは、RST駆動部172及びSEL駆動部174が省略される。この共通駆動回路200は、例えば、請求の範囲における第3駆動部の一例に相当し得る。
図22に示すように、第5例では、画素駆動回路102が、RGB駆動回路160と、IR駆動回路170と、共通駆動回路200とから構成される。共通駆動回路200は、RGB駆動回路160におけるRST駆動部162とIR駆動回路170におけるRST駆動部172とを共通化したRST駆動部202と、RGB駆動回路160におけるSEL駆動部164とIR駆動回路170におけるSEL駆動部174とを共通化したSEL駆動部204とを備える。したがって、RGB駆動回路160からは、RST駆動部162及びSEL駆動部164が省略され、IR駆動回路170からは、RST駆動部172及びSEL駆動部174が省略される。この共通駆動回路200は、例えば、請求の範囲における第3駆動部の一例に相当し得る。
共通駆動回路200のRST駆動部202は、共通駆動線LD3を介して、RGB画素10のリセットトランジスタ12及びIR画素20のリセットトランジスタ22の両方にリセット制御信号を供給する。また、SEL駆動部204は、共通駆動線LD3を介して、RGB画素10の選択トランジスタ14及びIR画素20の選択トランジスタ24の両方に選択制御信号を供給する。
このように、第5例では、RGB駆動回路160及びIR駆動回路170のうちの一部が共通化される。それにより、RGB画素10に対する駆動制御とIR画素に対する駆動制御との同時性を向上させることが可能となるため、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレをより抑制することが可能となる。
また、RGB駆動回路160の一部とIR駆動回路170の一部とが共通化されるため、個別のRGB駆動回路160及びIR駆動回路170を設ける場合よりも、画素駆動回路102の回路規模を縮小することが可能となる。それにより、回路チップ150における画素駆動回路102の占有面積を縮小することが可能となる。
1.11.6 第6例
第6例では、第5例と同様に、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第6例では、第5例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図23及び図24は、第6例に係るレイアウト例を示す平面図であり、図23は、画素チップ140の平面レイアウト例を示し、図24は、回路チップ150の平面レイアウト例を示している。
第6例では、第5例と同様に、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第6例では、第5例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図23及び図24は、第6例に係るレイアウト例を示す平面図であり、図23は、画素チップ140の平面レイアウト例を示し、図24は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図23に示すように、第6例に係る画素チップ140の平面レイアウトは、図21に例示した第5例に係る画素チップ140の平面レイアウト例と同様であってよい。ただし、図23では、画素チップ140に設けられた各種素子を回路チップ150側の素子に電気的に接続するための接続部141が示されている。また、図23では、図面中、RGB駆動線LD1が左側の接続部141に接続され、IR駆動線LD2及び共通駆動線LD3が右端側の接続部141に接続され、垂直信号線VSL1が下側の接続部141に接続され、垂直信号線VSL2が上側の接続部141に接続されている。
図23に示すように、第6例に係る画素チップ140の平面レイアウトは、図21に例示した第5例に係る画素チップ140の平面レイアウト例と同様であってよい。ただし、図23では、画素チップ140に設けられた各種素子を回路チップ150側の素子に電気的に接続するための接続部141が示されている。また、図23では、図面中、RGB駆動線LD1が左側の接続部141に接続され、IR駆動線LD2及び共通駆動線LD3が右端側の接続部141に接続され、垂直信号線VSL1が下側の接続部141に接続され、垂直信号線VSL2が上側の接続部141に接続されている。
(回路チップ150)
図24に示すように、第6例では、第5例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170と共通駆動回路200とから構成され、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
図24に示すように、第6例では、第5例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170と共通駆動回路200とから構成され、信号処理回路103が、RGB信号処理回路181とIR信号処理回路191とから構成され、データ処理部108が、RGBデータ処理部182とIRデータ処理部192とから構成されている。
第6例において、RGB駆動回路160は、例えば、回路チップ150の左側に寄せて配置され、回路チップ150の左端の接続部151に接続される。一方、IR駆動回路170及び共通駆動回路200は、例えば、回路チップ150の右側に寄せて配置され、回路チップ150の右端の接続部151に接続される。IR駆動回路170と共通駆動回路200とは、それぞれの接続部151が対向するように配置されている。なお、RGB駆動回路160、IR駆動回路170及び共通駆動回路200は、位置が入れ替わってもよい。
このように、第6例では、RGB駆動回路160とIR駆動回路170と共通駆動回路200とが回路チップ150の左右に分かれて配置されている。このような構成によれば、画素チップ140側のRGB画素10への接続構成とIR画素20への接続構成とを左右に分散することが可能となるため、上述した第2例と同様に、配線や接続端子の密集を緩和することが可能となる。それにより、配線間等のカップリングによる特性劣化を抑制することが可能となる。
また、RGB駆動回路160の接続部151とIR駆動回路170の接続部151と共通駆動回路200の接続部151とが回路チップ150の左右端に配置されているため、RGB駆動回路160及び共通駆動回路200からRGB画素10までの平均的な配線長と、IR駆動回路170及び共通駆動回路200からIR画素20までの平均的な配線長とを略一致させることが可能となるため、より高精度の制御が可能となる。
さらに、第6例によれば、第5例と同様に、RGB駆動回路160及びIR駆動回路170のうちの一部が共通化されるため、RGB画素10に対する駆動制御とIR画素に対する駆動制御との同時性を向上させることが可能となり、それにより、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレをより抑制することが可能となる。
さらにまた、RGB駆動回路160の一部とIR駆動回路170の一部とが共通化されるため、回路チップ150における画素駆動回路102の占有面積を縮小することが可能となる。
1.11.7 第7例
第7例では、第5例及び第6例と同様に、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第7例では、第6例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図25及び図26は、第7例に係るレイアウト例を示す平面図であり、図25は、画素チップ140の平面レイアウト例を示し、図26は、回路チップ150の平面レイアウト例を示している。
第7例では、第5例及び第6例と同様に、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第7例では、第6例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図25及び図26は、第7例に係るレイアウト例を示す平面図であり、図25は、画素チップ140の平面レイアウト例を示し、図26は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図25に示すように、第7例では、各単位画素110のRGB画素10が、紙面中下端側に配置された接続部141に接続する垂直信号線VSL1と、紙面中上端側に配置された接続部141に接続する垂直信号線VSL3とのいずれかに接続される。垂直信号線VSL1は、例えば、列方向に延在し、画素チップ140の下端に配置された接続部141を介して回路チップ150側に電気的に引き回される。一方、垂直信号線VSL3は、例えば、列方向に延在し、画素チップ140の上端に配置された接続部141を介して回路チップ150側に電気的に引き回される。
図25に示すように、第7例では、各単位画素110のRGB画素10が、紙面中下端側に配置された接続部141に接続する垂直信号線VSL1と、紙面中上端側に配置された接続部141に接続する垂直信号線VSL3とのいずれかに接続される。垂直信号線VSL1は、例えば、列方向に延在し、画素チップ140の下端に配置された接続部141を介して回路チップ150側に電気的に引き回される。一方、垂直信号線VSL3は、例えば、列方向に延在し、画素チップ140の上端に配置された接続部141を介して回路チップ150側に電気的に引き回される。
RGB画素10が垂直信号線VSL1と垂直信号線VSL3とのいずれに接続されるかは、例えば、各RGB画素10が検出対象とする波長成分(すなわち、各RGB画素10に割り当てられたカラーフィルタ31の種類)に基づいて決定されてもよい。例えば、カラーフィルタ31のアレイをベイヤー配列で構成した場合、赤色(R)の波長成分を検出するRGB画素10及び青色(B)の波長成分を検出するRGB画素10を垂直信号線VSL1に接続し、緑色(G)の波長成分を検出するRGB画素10を垂直信号線VSL3に接続するように構成されてもよい。ただし、このような接続関係に限定されず、例えば、奇数列又は奇数行のRGB画素10を垂直信号線VSL1に接続し、偶数列又は偶数行のRGB画素10を垂直信号線VSL3に接続したり、画素アレイ部101における下半分のRGB画素10を垂直信号線VSL1に接続し、上半分のRGB画素10を垂直信号線VSL3に接続したりなど、種々変形することが可能である。
(回路チップ150)
図26に示すように、第7例では、第6例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170と共通駆動回路200とから構成される。一方、信号処理回路103は、RGB信号処理回路181と共通信号処理回路210とから構成される。データ処理部108は、RGBデータ処理部182とIRデータ処理部192とから構成される。共通信号処理回路210は、例えば、請求の範囲における第2読出し部の他の一例に相当し得る。
図26に示すように、第7例では、第6例と同様に、画素駆動回路102が、RGB駆動回路160とIR駆動回路170と共通駆動回路200とから構成される。一方、信号処理回路103は、RGB信号処理回路181と共通信号処理回路210とから構成される。データ処理部108は、RGBデータ処理部182とIRデータ処理部192とから構成される。共通信号処理回路210は、例えば、請求の範囲における第2読出し部の他の一例に相当し得る。
共通信号処理回路210には、一部のRGB画素10からの画素信号が垂直信号線VSL3を介して入力される。また、共通信号処理回路210には、IR画素20からの画素信号も入力される。共通信号処理回路210は、垂直信号線VSL3から入力されたアナログの画素信号からデジタルのカラー画像信号を生成してRGBデータ処理部182に入力し、垂直信号線VSL2から入力されたアナログの画素信号からでデジタルのモノクロ画像信号を生成してIRデータ処理部192に入力する。
このように、第7例では、RGB画素10からの読出しがRGB信号処理回路181と共通信号処理回路210とに分散される。それにより、複数のRGB画素10に対する読出し動作を並列に実行することが可能となるため、カラー画像の読出し速度を向上することが可能となる。
なお、第7例では、RGB画素10からの読出しを並列化した場合を例示したが、これに限定されず、IR画素20からの読出しを並列化するように構成することも可能である。
1.11.8 第8例
第8例では、RGB画素10に対する読出し系の一部とIR画素20に対する読出し系の一部とが共通化され、且つ、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第8例では、読出し系の共通化については第4例をベースとし、駆動系の共通化については第6例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図27及び図28は、第7例に係るレイアウト例を示す平面図であり、図27は、画素チップ140の平面レイアウト例を示し、図28は、回路チップ150の平面レイアウト例を示している。
第8例では、RGB画素10に対する読出し系の一部とIR画素20に対する読出し系の一部とが共通化され、且つ、RGB画素10に対する駆動系の一部とIR画素20に対する駆動系の一部とが共通化された場合について説明する。なお、第8例では、読出し系の共通化については第4例をベースとし、駆動系の共通化については第6例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図27及び図28は、第7例に係るレイアウト例を示す平面図であり、図27は、画素チップ140の平面レイアウト例を示し、図28は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図27に示すように、第7例に係る画素チップ140の平面レイアウトでは、図23を用いて説明した第6例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1が画素チップ140の左端に配置された接続部141から引き出され、IR駆動線LD2が上端に配置された接続部141から引き出され、共通駆動線LD3が右端に配置された接続部141から引き出されている。なお、第7例では、第4例におけるスイッチ回路131が省略されているが、図19を用いて説明したように、垂直信号線VSL1及びVSL2に対してスイッチ回路131が設けられてもよい。
図27に示すように、第7例に係る画素チップ140の平面レイアウトでは、図23を用いて説明した第6例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1が画素チップ140の左端に配置された接続部141から引き出され、IR駆動線LD2が上端に配置された接続部141から引き出され、共通駆動線LD3が右端に配置された接続部141から引き出されている。なお、第7例では、第4例におけるスイッチ回路131が省略されているが、図19を用いて説明したように、垂直信号線VSL1及びVSL2に対してスイッチ回路131が設けられてもよい。
(回路チップ150)
図28に示すように、第4例では、RGB駆動回路160が回路チップ150における左側に配置され、IR駆動回路170が中央上側に配置され、共通駆動回路200が右側に配置され、共通信号処理回路210とRGBデータ処理部182とIRデータ処理部192とが中央下側に配置されている。
図28に示すように、第4例では、RGB駆動回路160が回路チップ150における左側に配置され、IR駆動回路170が中央上側に配置され、共通駆動回路200が右側に配置され、共通信号処理回路210とRGBデータ処理部182とIRデータ処理部192とが中央下側に配置されている。
このように、RGB画素10及びIR画素20に対する読出し系の一部を共通化した構成において、RGB画素10及びIR画素20に対する駆動系の一部をさらに共通化した場合には、RGB駆動回路160に接続される接続部151と、IR駆動回路170に接続される接続部151と、共通駆動回路200に接続される接続部151と、共通信号処理回路210に接続される接続部151とを、回路チップ150の4辺に分散することが可能となる。それにより、配線や接続端子の密集を緩和することが可能となるため、配線間等のカップリングによる特性劣化を抑制することが可能となる。
また、第7例では、第4例と同様に、RGB画素10とIR画素20とで共通信号処理回路210を共用することで、回路チップ150における信号処理回路103の占有面積を縮小することが可能となる。さらに、第7例では、第6例と同様に、RGB駆動回路160及びIR駆動回路170のうちの一部が共通化されるため、RGB画素10に対する駆動制御とIR画素に対する駆動制御との同時性を向上させることが可能となり、それにより、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレをより抑制することが可能となる。
さらにまた、駆動系の一部と読出し系の一部とが共通化されるため、回路チップ150における画素駆動回路102及び信号処理回路103の占有面積を縮小することが可能となる。
1.11.9 第9例
第9例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とが共通化された場合について説明する。なお、第9例では、RGB画素10に対する読出し系とIR画素20に対する読出し系とは、別々に設けられてよい。また、第9例では、第1例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図29及び図30は、第9例に係るレイアウト例を示す平面図であり、図29は、画素チップ140の平面レイアウト例を示し、図30は、回路チップ150の平面レイアウト例を示している。
第9例では、RGB画素10に対する駆動系とIR画素20に対する駆動系とが共通化された場合について説明する。なお、第9例では、RGB画素10に対する読出し系とIR画素20に対する読出し系とは、別々に設けられてよい。また、第9例では、第1例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図29及び図30は、第9例に係るレイアウト例を示す平面図であり、図29は、画素チップ140の平面レイアウト例を示し、図30は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図29に示すように、第9例に係る画素チップ140の平面レイアウトでは、図13を用いて説明した第1例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、RGB画素10及びIR画素20で共用される共通駆動線LD3に置き換えられている。
図29に示すように、第9例に係る画素チップ140の平面レイアウトでは、図13を用いて説明した第1例に係る平面レイアウトと同様のレイアウトにおいて、RGB駆動線LD1及びIR駆動線LD2が、RGB画素10及びIR画素20で共用される共通駆動線LD3に置き換えられている。
(回路チップ150)
図30に示すように、第9例では、画素駆動回路102が、RGB画素10及びIR画素20で共用される共通駆動回路200から構成されている。本例において、共通駆動回路200は、RGB画素10の転送ゲート11とIR画素20の転送トランジスタ21とに転送制御信号を供給するTG駆動部201と、RGB画素10のリセットトランジスタ12とIR画素20のリセットトランジスタ22とにリセット制御信号を供給するRST駆動部202と、RGB画素10の選択トランジスタ14とIR画素20の選択トランジスタ24とに選択制御信号を供給するSEL駆動部204と、IR画素20の排出トランジスタ25とに排出制御信号を供給するOFG駆動部205とを備える。
図30に示すように、第9例では、画素駆動回路102が、RGB画素10及びIR画素20で共用される共通駆動回路200から構成されている。本例において、共通駆動回路200は、RGB画素10の転送ゲート11とIR画素20の転送トランジスタ21とに転送制御信号を供給するTG駆動部201と、RGB画素10のリセットトランジスタ12とIR画素20のリセットトランジスタ22とにリセット制御信号を供給するRST駆動部202と、RGB画素10の選択トランジスタ14とIR画素20の選択トランジスタ24とに選択制御信号を供給するSEL駆動部204と、IR画素20の排出トランジスタ25とに排出制御信号を供給するOFG駆動部205とを備える。
このように、第9例では、RGB駆動回路160及びIR駆動回路170が共通化される。それにより、RGB画素10に対する駆動制御とIR画素に対する駆動制御との同時性をより向上させることが可能となるため、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレをより抑制することが可能となる。
また、RGB駆動回路160とIR駆動回路170とが共通化されるため、個別のRGB駆動回路160及びIR駆動回路170を設ける場合よりも、画素駆動回路102の回路規模を大幅に縮小することが可能となる。それにより、回路チップ150における画素駆動回路102の占有面積をより縮小することが可能となる。
1.11.10 第10例
第10例では、第9例で例示した平面レイアウトにおいて、画素チップ140及び回路チップ150に接続部141及び151を配置した平面レイアウトを例示する。図31及び図32は、第10例に係るレイアウト例を示す平面図であり、図31は、画素チップ140の平面レイアウト例を示し、図32は、回路チップ150の平面レイアウト例を示している。
第10例では、第9例で例示した平面レイアウトにおいて、画素チップ140及び回路チップ150に接続部141及び151を配置した平面レイアウトを例示する。図31及び図32は、第10例に係るレイアウト例を示す平面図であり、図31は、画素チップ140の平面レイアウト例を示し、図32は、回路チップ150の平面レイアウト例を示している。
(画素チップ140)
図31に示すように、第10例において、例えば、共通駆動線LD3は画素チップ140の左端に配置された接続部141に接続されてよく、垂直信号線VSL1は画素チップ140の下端に配置された接続部141に接続されてよく、垂直信号線VSL2は画素チップ140の上端に配置された接続部に接続されてよい。ただし、これに限定されず、垂直信号線VSL1及びVSL2並びに共通駆動線LD3は、それぞれ列方向に延在していてもよいし、行方向に延在していてもよい。また、垂直信号線VSL1及びVSL2並びに共通駆動線LD3は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。
図31に示すように、第10例において、例えば、共通駆動線LD3は画素チップ140の左端に配置された接続部141に接続されてよく、垂直信号線VSL1は画素チップ140の下端に配置された接続部141に接続されてよく、垂直信号線VSL2は画素チップ140の上端に配置された接続部に接続されてよい。ただし、これに限定されず、垂直信号線VSL1及びVSL2並びに共通駆動線LD3は、それぞれ列方向に延在していてもよいし、行方向に延在していてもよい。また、垂直信号線VSL1及びVSL2並びに共通駆動線LD3は、同一方向から延在していてもよいし、異なる方向から延在していてもよい。
(回路チップ150)
図30に示すように、回路チップ150における接続部151は、画素チップ140における接続部141の配置と対応するように配置されてよい。このような対応関係は、他の例についても同様であってよい。
図30に示すように、回路チップ150における接続部151は、画素チップ140における接続部141の配置と対応するように配置されてよい。このような対応関係は、他の例についても同様であってよい。
1.11.11 第11例
上述した第1例~第10例では、イメージセンサ100が画素チップ140と回路チップ150とを貼り合わせることで構成された2層の積層チップである場合を例示したが、イメージセンサ100の積層構造は2層に限定されず、1層又は3層以上であってもよい。そこで、第11例では、イメージセンサ100を3層の積層チップとした場合について説明する。なお、第11例では、第10例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図33~図35は、第11例に係るレイアウト例を示す平面図であり、図33は、上層画素チップ140Aの平面レイアウト例を示し、図34は、下層画素チップ140Bの平面レイアウト例を示し、図35は、回路チップ150の平面レイアウト例を示している。
上述した第1例~第10例では、イメージセンサ100が画素チップ140と回路チップ150とを貼り合わせることで構成された2層の積層チップである場合を例示したが、イメージセンサ100の積層構造は2層に限定されず、1層又は3層以上であってもよい。そこで、第11例では、イメージセンサ100を3層の積層チップとした場合について説明する。なお、第11例では、第10例をベースとした場合を例示するが、これに限定されず、他の例をベースとすることも可能である。図33~図35は、第11例に係るレイアウト例を示す平面図であり、図33は、上層画素チップ140Aの平面レイアウト例を示し、図34は、下層画素チップ140Bの平面レイアウト例を示し、図35は、回路チップ150の平面レイアウト例を示している。
(画素チップ)
図33及び図34に例示するように、第11例では、画素チップ140が、光の入射面側に配置される上層画素チップ140Aと、回路チップ150側に配置される下層画素チップ140Bとを貼り合わせた2層構造を有する。
図33及び図34に例示するように、第11例では、画素チップ140が、光の入射面側に配置される上層画素チップ140Aと、回路チップ150側に配置される下層画素チップ140Bとを貼り合わせた2層構造を有する。
・上層画素チップ140A
上層画素チップ140Aには、例えば、各単位画素110における受光部110Aが配置される。受光部110Aの配列は、画素アレイ部101における単位画素110の配列と同様に、2次元格子状であってよい。
上層画素チップ140Aには、例えば、各単位画素110における受光部110Aが配置される。受光部110Aの配列は、画素アレイ部101における単位画素110の配列と同様に、2次元格子状であってよい。
受光部110Aには、例えば、図4に例示した単位画素110の構成における、RGB画素10の光電変換部PD1及び転送ゲート11と、IR画素20の光電変換部PD2及び転送トランジスタ21とが含まれ得る。すなわち、図33におけるRGB画素10Aには、光電変換部PD1及び転送ゲート11が含まれ得、IR画素20Aには、光電変換部PD2、転送トランジスタ21及び排出トランジスタ25が含まれ得る。
RGB画素10Aの転送ゲート11とIR画素20Aの転送トランジスタ21及び排出トランジスタ25とには、上層画素チップ140Aの左端に配置された接続部141Aを介して、共通駆動線LD3における駆動線LD3aが接続される。
・下層画素チップ140B
下層画素チップ140Bには、例えば、各単位画素110における画素回路110Bが配置される。画素回路110Bの配列は、画素アレイ部101における単位画素110の配列と同様に、2次元格子状であってよい。
下層画素チップ140Bには、例えば、各単位画素110における画素回路110Bが配置される。画素回路110Bの配列は、画素アレイ部101における単位画素110の配列と同様に、2次元格子状であってよい。
画素回路110Bには、例えば、図4に例示した単位画素110の構成における、RGB画素10のリセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14と、IR画素20のリセットトランジスタ22、浮遊拡散領域FD2、増幅トランジスタ23及び選択トランジスタ24とが含まれ得る。すなわち、図34におけるRGB画素10Bには、リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14が含まれ得、IR画素20Bには、リセットトランジスタ22、浮遊拡散領域FD2、増幅トランジスタ23及び選択トランジスタ24が含まれ得る。
RGB画素10Bのリセットトランジスタ12とIR画素20Bのリセットトランジスタ22とには、下層画素チップ140Bの左端に配置された接続部141Bを介して、共通駆動線LD3における駆動線LD3bが接続される。同様に、RGB画素10Bの選択トランジスタ14とIR画素20Bの選択トランジスタ24とには、接続部141Bを介して駆動線LD3bが接続される。
また、RGB画素10及びIR画素20からそれぞれ画素信号を読み出すための垂直信号線VSL1及びVSL2は、下層画素チップ140Bに設けられてよい。例えば、RGB画素10から画素信号を読み出すための垂直信号線VSL1は下層画素チップ140Bの下端に配置された接続部141Bに接続され、IR画素20から画素信号を読み出すための垂直信号線VSL2は下層画素チップ140Bの上端に配置された接続部141Bに接続されてよい。
(回路チップ150)
第11例に係る回路チップ150の平面レイアウトは、例えば、第10例で例示した回路チップ150の平面レイアウトと同様であってよい。なお、共通駆動回路200から延在する共通駆動線LD3には、駆動線LD3a及びLD3bが含まれている。
第11例に係る回路チップ150の平面レイアウトは、例えば、第10例で例示した回路チップ150の平面レイアウトと同様であってよい。なお、共通駆動回路200から延在する共通駆動線LD3には、駆動線LD3a及びLD3bが含まれている。
このように、第11例では、RGB画素10における光電変換部PD1及び転送ゲート11と、リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14とが、上層画素チップ140Aと下層画素チップ140Bに分かれて配置される。それにより、上層画素チップ140Aにおける光電変換部PD1の受光面を拡大することが可能となるため、入射光に対する有効受光面積を拡大して光電変換効率(量子効率)を向上させることや、RGB画素10の高解像度化などが可能となる。同様に、IR画素20における光電変換部PD2、転送トランジスタ21及び排出トランジスタ25と、リセットトランジスタ22、浮遊拡散領域FD2、増幅トランジスタ23及び選択トランジスタ24とが、上層画素チップ140Aと下層画素チップ140Bに分かれて配置されることにより、光電変換効率の向上や高解像度化が可能となる。
また、本例では、画素アレイ部101における全てのRGB画素10とIR画素20との両方を全画素同時駆動方式(いわゆる、グローバルシャッタ方式)の構成とした場合、RGB画素10とIR画素20とで画素回路110Bを構成するトランジスタの種類をそろえることが可能となるため、共通駆動線LD3の配線レイアウトを簡易化することも可能である。
(変形例)
なお、第11例では、画素チップ140を2層構造にして全体で3層構造とした場合を例示したが、これに限定されない。例えば、画素チップ140と回路チップ150の他に、図36に例示するようなフレームメモリ252が配置された回路チップ250を追加した3層構造とすることも可能である。このような構成では、例えば、RGBデータ処理部182で処理されたカラー画像データが信号線SL1を介してフレームメモリ252内に格納され得、IRデータ処理部192で処理されたモノクロ画像データが信号線SL2を介してフレームメモリ252内に格納され得る。
なお、第11例では、画素チップ140を2層構造にして全体で3層構造とした場合を例示したが、これに限定されない。例えば、画素チップ140と回路チップ150の他に、図36に例示するようなフレームメモリ252が配置された回路チップ250を追加した3層構造とすることも可能である。このような構成では、例えば、RGBデータ処理部182で処理されたカラー画像データが信号線SL1を介してフレームメモリ252内に格納され得、IRデータ処理部192で処理されたモノクロ画像データが信号線SL2を介してフレームメモリ252内に格納され得る。
このように、イメージセンサ100内にフレームメモリ252を組み込むことで、高速読出しが可能な高性能イメージセンサを実現することが可能である。その場合、回路チップ250は、画素チップ140と回路チップ150との間に配置されてもよいし、回路チップ150を挟んで画素チップ140とは反対側に配置されてもよい。また、イメージセンサ100を4層以上の積層構造とした場合には、回路チップ150及び250は、2層目以降のどの層に配置されてもよい。
1.12 作用・効果
以上のように、第1の実施形態によれば、光の入射方向にRGB画素10の光電変換部PD1とIR画素20の光電変換部PD2とが配置される。それにより、RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
以上のように、第1の実施形態によれば、光の入射方向にRGB画素10の光電変換部PD1とIR画素20の光電変換部PD2とが配置される。それにより、RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
また、一部の例では、同じ単位画素110におけるRGB画素10及びIR画素20から同時又は略同時に画素信号を読み出すことが可能であるため、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することも可能となる。
2.第2の実施形態
次に、第2の実施形態について図面を参照して詳細に説明する。なお、以下の説明では、上述した実施形態と同様の構成については、それらを引用することで、重複する説明を省略する。
次に、第2の実施形態について図面を参照して詳細に説明する。なお、以下の説明では、上述した実施形態と同様の構成については、それらを引用することで、重複する説明を省略する。
上述した第1の実施形態では、1つのRGB画素10に対して1つのIR画素20が対応付けられている場合を例に挙げた。これに対し、第2の実施形態では、1つのIR画素20に対して複数のRGB画素10が対応付けられている場合を例に挙げる。
2.1 画素アレイ部の構成例
まず、本実施形態に係る画素アレイ部101の構成例について説明する。なお、ここでは、第1の実施形態と同様に、単位画素310が、RGB三原色のカラー画像を取得するためのRGB画素と、赤外(IR)光のモノクロ画像を取得するためのIR画素とを含む場合を例示に挙げる。また、RGB画素10は、例えば、ベイヤー配列に従って配列しているものとする。
まず、本実施形態に係る画素アレイ部101の構成例について説明する。なお、ここでは、第1の実施形態と同様に、単位画素310が、RGB三原色のカラー画像を取得するためのRGB画素と、赤外(IR)光のモノクロ画像を取得するためのIR画素とを含む場合を例示に挙げる。また、RGB画素10は、例えば、ベイヤー配列に従って配列しているものとする。
図37は、本実施形態に係る画素アレイ部の概略構成例を示す模式図である。図37に示すように、画素アレイ部101は、2行2列に配列した4つのRGB画素10に対して1つのIR画素20が光の入射方向に配置された構造を備える単位画素310が2次元格子状に配列した構成を備える。すなわち、本実施形態では、4つのRGB画素10に対して1つのIR画素20が、単位画素310の配列方向(平面方向)に対して垂直方向に位置されており、入射光の光路における上流側に位置する4つのRGB画素10を透過した光が、これら4つのRGB画素10の下流側に位置する1つのIR画素20に入射するように構成されている。したがって、本実施形態では、4つのRGB画素10で構成されたベイヤー配列の単位配列とIR画素20との入射光の光軸が一致又は略一致している。
2.2 単位画素の回路構成例
図38は、本実施形態に係る単位画素の概略構成例を示す回路図である。なお、図38では、第1の実施形態において図6を用いて説明した第2の変形例に係る単位画素110-2をベースとしているが、これに限定されず、単位画素110~110-3のいずれをベースとすることも可能である。
図38は、本実施形態に係る単位画素の概略構成例を示す回路図である。なお、図38では、第1の実施形態において図6を用いて説明した第2の変形例に係る単位画素110-2をベースとしているが、これに限定されず、単位画素110~110-3のいずれをベースとすることも可能である。
図38に示すように、単位画素310は、複数のRGB画素10-1~10-N(図37では、Nは4)と、1つのIR画素20とを備える。このように、1つの単位画素310が複数のRGB画素10を備える場合、第1の実施形態において図7を用いて説明した第3の変形例のように、複数のRGB画素10で1つの画素回路(リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14)を共有することが可能である(画素共有)。そこで、本実施形態では、複数のRGB画素10-1~10-Nが、リセットトランジスタ12、浮遊拡散領域FD1、増幅トランジスタ13及び選択トランジスタ14よりなる画素回路を共有する。すなわち、本実施形態では、共通の浮遊拡散領域FD1に複数の光電変換部PD1及び転送ゲート11が接続されている。
2.3 単位画素の断面構造例
図39は、本実施形態に係るイメージセンサの断面構造例を示す断面図である。なお、本説明では、図37と同様に、各単位画素310が2行2列に配列した4つのRGB画素10と、1つのIR画素20とから構成されている場合を例に挙げる。また、以下の説明では、図8と同様に、単位画素310における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。さらに、以下の説明において、第1の実施形態において図8を用いて説明したイメージセンサ100の断面構造と同様の構造については、それらを引用することで、重複する説明を省略する。
図39は、本実施形態に係るイメージセンサの断面構造例を示す断面図である。なお、本説明では、図37と同様に、各単位画素310が2行2列に配列した4つのRGB画素10と、1つのIR画素20とから構成されている場合を例に挙げる。また、以下の説明では、図8と同様に、単位画素310における光電変換部PD1及びPD2が形成された半導体チップに着目してその断面構造例を説明する。さらに、以下の説明において、第1の実施形態において図8を用いて説明したイメージセンサ100の断面構造と同様の構造については、それらを引用することで、重複する説明を省略する。
図39に示すように、本実施形態では、図8に例示した断面構造と同様の断面構造において、オンチップレンズ51と、カラーフィルタ31と、蓄積電極37とが、2行2列の4つ(ただし、図39では4つのうちの2つが示されている)に分割され、それにより、4つのRGB画素10が構成されている。なお、各単位画素310における4つのRGB画素10は、ベイヤー配列の基本配列を構成していてよい。
2.4 平面構造例
図40は、本実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図40において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。
図40は、本実施形態に係る画素アレイ部の各層の平面レイアウト例を示す図であり、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。なお、図40において、(A)~(D)は、半導体基板50の素子形成面と平行な面の平面レイアウト例を示している。
図40の(A)~(D)に示すように、本実施形態では、1つの単位画素310に対して、4つのオンチップレンズ51と、4つのカラーフィルタ31と、4つの蓄積電極37と、1つの光電変換部PD2とが設けられている。なお、本説明において、1つの蓄積電極37は1つのRGB画素10に相当し、1つの光電変換部PD2は1つのIR画素20に相当する。
このように、1つの単位画素110において、4つのRGB画素10よりなるベイヤー配列の基本配列と1つのIR画素20とを入射光の進行方向に沿って配列させることで、各RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
2.5 オンチップレンズの変形例
上述した第2の実施形態では、1つのRGB画素10に対して1つのオンチップレンズ51を設けた場合を例示したが、これに限定されず、複数のRGB画素10に対して1つのオンチップレンズを設けることも可能である。図41は、第2の実施形態のオンチップレンズの変形例に係る画素アレイ部の各層の平面レイアウト例を示す図であり、図40と同様に、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。
上述した第2の実施形態では、1つのRGB画素10に対して1つのオンチップレンズ51を設けた場合を例示したが、これに限定されず、複数のRGB画素10に対して1つのオンチップレンズを設けることも可能である。図41は、第2の実施形態のオンチップレンズの変形例に係る画素アレイ部の各層の平面レイアウト例を示す図であり、図40と同様に、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。
図41に示すオンチップレンズの変形例では、(A)に示すように、複数の単位画素310のうちの一部の単位画素310において行方向に配列する2つのオンチップレンズ51が、2つのRGB画素10に跨る2×1画素の1つのオンチップレンズ351に置き換えられている。また、図41の(B)に示すように、オンチップレンズ351を共有する2つのRGB画素10には、同じ波長成分を選択的に透過させるカラーフィルタ31が設けられる。図41の(B)に示す例では、左上の単位画素310において、本来ベイヤー配列における青色(B)の波長成分を選択的に透過させるカラーフィルタ31bが緑色(G)の波長成分を選択的に透過させるカラーフィルタ31gに置き換えられ、これにより、オンチップレンズ351を共有する2つのRGB画素10のカラーフィルタ31がカラーフィルタ31gに統一されている。
なお、このようにカラーフィルタ31が置き換えられたRGB画素10については、ベイヤー配列に従って本来検出すべき波長成分の画素値が、例えば、周囲の画素の画素値から補間されてよい。この画素補間には、線形補間など、種々の手法が用いられてよい。
また、オンチップレンズの変形例では、行方向に並ぶ2つのオンチップレンズ51が共通化された場合を例示するが、これに限定されず、列方向に並ぶ2つのオンチップレンズ51が共通化された構成や、1つの単位画素310に含まれる4つのオンチップレンズ51の全てが1つのオンチップレンズに置き換えられた構成など、種々変形することも可能である。その場合、オンチップレンズを共有するRGB画素10のカラーフィルタ31には、同じ波長成分を選択的に透過させるカラーフィルタ31が用いられてよい。
さらに、隣接するRGB画素10間でのオンチップレンズ51の共有化は、第2の実施形態に限られず、第1の実施形態に対しても適用することが可能である。
2.6 カラーフィルタ配列の変形例
また、上述した実施形態及びその変形例では、カラーフィルタ31のフィルタ配列として、ベイヤー配列を例示したが、これに限定されない。例えば、X-Trans(登録商標)CMOSセンサで採用されている3×3画素のカラーフィルタ配列や、4×4画素のクアッドベイヤー配列(クワドラ配列ともいう)や、ベイヤー配列にホワイトRGBカラーフィルタを組み合わせた4×4画素のカラーフィルタ配列(ホワイトRGB配列ともいう)など、種々のフィルタ配列が用いられてよい。
また、上述した実施形態及びその変形例では、カラーフィルタ31のフィルタ配列として、ベイヤー配列を例示したが、これに限定されない。例えば、X-Trans(登録商標)CMOSセンサで採用されている3×3画素のカラーフィルタ配列や、4×4画素のクアッドベイヤー配列(クワドラ配列ともいう)や、ベイヤー配列にホワイトRGBカラーフィルタを組み合わせた4×4画素のカラーフィルタ配列(ホワイトRGB配列ともいう)など、種々のフィルタ配列が用いられてよい。
図42は、第2の実施形態のカラーフィルタ配列の変形例に係る画素アレイ部の各層の平面レイアウト例を示す図であり、図40及び図41と同様に、(A)はオンチップレンズ51の平面レイアウト例を示し、(B)はカラーフィルタ31の平面レイアウト例を示し、(C)は蓄積電極37の平面レイアウト例を示し、(D)は光電変換部PD2の平面レイアウト例を示している。
図42に示すカラーフィルタ配列の変形例では、(B)に示すように、カラーフィルタ配列として、2×2画素のベイヤー配列における個々のカラーフィルタ31が2×2画素に分割された、全体で4×4画素のクワドラ配列が例示されている。このようなクワドラ配列では、図42の(A)に示すように、隣接する2つのRGB画素10でオンチップレンズ51を共通化した場合でも、(B)に示すように、これらのRGB画素10におけるカラーフィルタ31が元々揃っているため、カラーフィルタ31の配列に変更を加える必要がなく、そのため、画素補間を行う必要も存在しない。
2.7 作用・効果
以上のように、第2の実施形態によれば、光の入射方向に4つのRGB画素10の4つの光電変換部PD1と1つのIR画素20の1つの光電変換部PD2とが配置される。そのような構成の場合でも、第1の実施形態と同様に、各RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
以上のように、第2の実施形態によれば、光の入射方向に4つのRGB画素10の4つの光電変換部PD1と1つのIR画素20の1つの光電変換部PD2とが配置される。そのような構成の場合でも、第1の実施形態と同様に、各RGB画素10とIR画素20との入射光に対する同軸性を向上することが可能となるため、カラー画像とモノクロ画像との間に発生する空間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
また、第1の実施形態と同様に、同じ単位画素110におけるRGB画素10及びIR画素20から同時又は略同時に画素信号を読み出すことも可能であるため、RGB画素10から得られるカラー画像とIR画素20から得られるモノクロ画像(IR画像)との時間的なズレを抑制することが可能となる。それにより、異なるセンサにより取得された情報(カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することも可能となる。
その他の構成、動作及び効果は、上述した第1の実施形態と同様であってよいため、ここでは詳細な説明を省略する。
3.移動体への応用例
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
図43は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図43に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図43の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
図44は、撮像部12031の設置位置の例を示す図である。
図44では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
なお、図44には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、図44に例示する撮像部12101、12102、12103、12104、12105等として、車両12100に搭載されてよい。撮像部12101、12102、12103、12104、12105等に本開示に係る技術を適用することにより、異なるセンサにより取得された情報(例えば、カラー画像及びモノクロ画像)を統合的に処理することで得られた結果の精度を向上することが可能となる。
以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
第1波長帯の光を検出する第1センサと、
前記第1波長帯とは異なる第2波長帯の光を検出する第2センサと、
を備え、
前記第1センサは、入射光における前記第1波長帯の光を検出する第1画素を備え、
前記第2センサは、前記入射光のうちの前記第1画素を透過した前記第2波長帯の光を検出する第2画素を備える
固体撮像装置。
(2)
前記第1画素は、前記第1波長帯の光を光電変換する第1光電変換部を備え、
前記第2画素は、前記第2波長帯の光を光電変換する第2光電変換部を備え、
前記第2光電変換部は、前記第1光電変換部における前記第1波長帯の光の入射面と反対側の面側に配置されている
前記(1)に記載の固体撮像装置。
(3)
前記第1画素及び前記第2画素を備える第1チップと、
前記第1画素及び前記第2画素を駆動する駆動部と、前記第1画素及び前記第2画素から画素信号を読み出す読出し部とを備える第2チップと、
を備え、
前記第1チップと前記第2チップとは、互いに接合されることで構成された積層チップである
前記(2)に記載の固体撮像装置。
(4)
前記第1チップは、前記第1光電変換部及び前記第2光電変換部を備える第3チップと、前記第1光電変換部に接続された第1画素回路及び前記第2光電変換部に接続された第2画素回路を備える第4チップとを接合することで構成された積層チップである
前記(3)に記載の固体撮像装置。
(5)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(6)
前記第1駆動部と前記第2駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
前記(5)に記載の固体撮像装置。
(7)
前記第1読出し部及び前記第2読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
前記(5)に記載の固体撮像装置。
(8)
前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部をさらに備える
前記(5)に記載の固体撮像装置。
(9)
前記第1駆動部と前記第2駆動部と前記第3駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
前記(8)に記載の固体撮像装置。
(10)
前記第1駆動部から前記第3駆動部のうちの2つは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域であって前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と隣接する前記領域に配置され、
前記第1駆動部から前記第3駆動部のうちの残りの1つは、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された領域を挟んで前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と反対側の領域に配置される
前記(8)に記載の固体撮像装置。
(11)
前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給し、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(12)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
前記(3)又は(4)に記載の固体撮像装置。
(13)
前記読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
前記(12)に記載の固体撮像装置。
(14)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、
複数の前記第1画素の一部が生成した第1画素信号を読み出す第1読出し部と、
前記複数の第1画素の残りが生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(15)
前記複数の第1画素のうちの前記一部は、前記第1チップにおいて第3方向に延在する第1信号線を介して前記第1読出し部に接続され、前記残りは、前記第3方向とは反対方向の第4方向に延在する第2信号線を介して前記第2読出し部に接続される
前記(14)に記載の固体撮像装置。
(16)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
前記(3)又は(4)に記載の固体撮像装置。
(17)
前記駆動部から出力された制御信号を前記第1画素に供給する第1駆動線は、前記第1チップにおいて第1方向に延在し、
前記駆動部から出力された制御信号を前記第2画素に供給する第2駆動線は、前記第1チップにおいて前記第1方向と直行する第2方向に延在する
前記(3)~(16)の何れか1つに記載の固体撮像装置。
(18)
前記第1センサは、前記第2センサにおける1つの前記第2画素に対して複数の前記第1画素を備える
前記(1)~(17)の何れか1つに記載の固体撮像装置。
(19)
前記読出し部から出力されたデータを保持するフレームメモリを備える第5チップをさらに備え、
前記第5チップは、前記第1チップと前記第2チップとの間、又は、前記第2チップを挟んで前記第1チップと反対側に接合されている
前記(3)又は(4)に記載の固体撮像装置。
(20)
前記(1)~(19)の何れか1つに記載の固体撮像装置と、
前記第1センサによって取得されて前記固体撮像装置から出力された第1画像データと、前記第2センサによって取得されて前記固体撮像装置から出力された第2画像データとを処理するプロセッサと、
を備える電子機器。
(1)
第1波長帯の光を検出する第1センサと、
前記第1波長帯とは異なる第2波長帯の光を検出する第2センサと、
を備え、
前記第1センサは、入射光における前記第1波長帯の光を検出する第1画素を備え、
前記第2センサは、前記入射光のうちの前記第1画素を透過した前記第2波長帯の光を検出する第2画素を備える
固体撮像装置。
(2)
前記第1画素は、前記第1波長帯の光を光電変換する第1光電変換部を備え、
前記第2画素は、前記第2波長帯の光を光電変換する第2光電変換部を備え、
前記第2光電変換部は、前記第1光電変換部における前記第1波長帯の光の入射面と反対側の面側に配置されている
前記(1)に記載の固体撮像装置。
(3)
前記第1画素及び前記第2画素を備える第1チップと、
前記第1画素及び前記第2画素を駆動する駆動部と、前記第1画素及び前記第2画素から画素信号を読み出す読出し部とを備える第2チップと、
を備え、
前記第1チップと前記第2チップとは、互いに接合されることで構成された積層チップである
前記(2)に記載の固体撮像装置。
(4)
前記第1チップは、前記第1光電変換部及び前記第2光電変換部を備える第3チップと、前記第1光電変換部に接続された第1画素回路及び前記第2光電変換部に接続された第2画素回路を備える第4チップとを接合することで構成された積層チップである
前記(3)に記載の固体撮像装置。
(5)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(6)
前記第1駆動部と前記第2駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
前記(5)に記載の固体撮像装置。
(7)
前記第1読出し部及び前記第2読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
前記(5)に記載の固体撮像装置。
(8)
前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部をさらに備える
前記(5)に記載の固体撮像装置。
(9)
前記第1駆動部と前記第2駆動部と前記第3駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
前記(8)に記載の固体撮像装置。
(10)
前記第1駆動部から前記第3駆動部のうちの2つは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域であって前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と隣接する前記領域に配置され、
前記第1駆動部から前記第3駆動部のうちの残りの1つは、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された領域を挟んで前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と反対側の領域に配置される
前記(8)に記載の固体撮像装置。
(11)
前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給し、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(12)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
前記(3)又は(4)に記載の固体撮像装置。
(13)
前記読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
前記(12)に記載の固体撮像装置。
(14)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、
複数の前記第1画素の一部が生成した第1画素信号を読み出す第1読出し部と、
前記複数の第1画素の残りが生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
前記(3)又は(4)に記載の固体撮像装置。
(15)
前記複数の第1画素のうちの前記一部は、前記第1チップにおいて第3方向に延在する第1信号線を介して前記第1読出し部に接続され、前記残りは、前記第3方向とは反対方向の第4方向に延在する第2信号線を介して前記第2読出し部に接続される
前記(14)に記載の固体撮像装置。
(16)
前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
前記(3)又は(4)に記載の固体撮像装置。
(17)
前記駆動部から出力された制御信号を前記第1画素に供給する第1駆動線は、前記第1チップにおいて第1方向に延在し、
前記駆動部から出力された制御信号を前記第2画素に供給する第2駆動線は、前記第1チップにおいて前記第1方向と直行する第2方向に延在する
前記(3)~(16)の何れか1つに記載の固体撮像装置。
(18)
前記第1センサは、前記第2センサにおける1つの前記第2画素に対して複数の前記第1画素を備える
前記(1)~(17)の何れか1つに記載の固体撮像装置。
(19)
前記読出し部から出力されたデータを保持するフレームメモリを備える第5チップをさらに備え、
前記第5チップは、前記第1チップと前記第2チップとの間、又は、前記第2チップを挟んで前記第1チップと反対側に接合されている
前記(3)又は(4)に記載の固体撮像装置。
(20)
前記(1)~(19)の何れか1つに記載の固体撮像装置と、
前記第1センサによって取得されて前記固体撮像装置から出力された第1画像データと、前記第2センサによって取得されて前記固体撮像装置から出力された第2画像データとを処理するプロセッサと、
を備える電子機器。
1 電子機器
2 撮像レンズ
3 記憶部
4 プロセッサ
10、10-1~10-N、10A、10B RGB画素
11 転送ゲート
12、22 リセットトランジスタ
13、23 増幅トランジスタ
14、24 選択トランジスタ
20、20-1~20-N、20A、20B IR画素
25 排出トランジスタ
31、31r、31g、31b カラーフィルタ
32 封止膜
33 透明電極
34 光電変換膜
35 半導体層
36 読出し電極
37 蓄積電極
41 IRフィルタ
42 pウェル領域
43 p型半導体領域
44 n型半導体領域
45 縦型トランジスタ
50 半導体基板
51、351 オンチップレンズ
52 平坦化膜
53 絶縁層
54 画素分離部
55 固定電荷膜
56 層間絶縁膜
61~68 配線
100 固体撮像装置(イメージセンサ)
101 画素アレイ部
102 画素駆動回路
103 信号処理回路
103A AD変換回路
104 カラム駆動回路
105 システム制御部
108 データ処理部
109 データ格納部
110、110-1~110-3、310 単位画素
110A 受光部
110B 画素回路
131、132、133 スイッチ回路
140 画素チップ
141、141A、141B、151、251 接続部
150、250 回路チップ
160 RGB駆動回路
161、171、201 TG駆動部
162、172、202 RST駆動部
164、174、204 SEL駆動部
170 IR駆動回路
175、205 OFG駆動部
181 RGB信号処理回路
182 RGBデータ処理部
191 IR信号処理回路
192 IRデータ処理部
200 共通駆動回路
252 フレームメモリ
210 共通信号処理回路
FD1、FD2 浮遊拡散領域
LD 画素駆動線
LD1 RGB駆動線
LD2 IR駆動線
LD3 共通駆動線
LD3a、LD3b 駆動線
PD1、PD2 光電変換部
SL1、SL2 信号線
VSL、VSL1、VSL2、VSL3 垂直信号線
2 撮像レンズ
3 記憶部
4 プロセッサ
10、10-1~10-N、10A、10B RGB画素
11 転送ゲート
12、22 リセットトランジスタ
13、23 増幅トランジスタ
14、24 選択トランジスタ
20、20-1~20-N、20A、20B IR画素
25 排出トランジスタ
31、31r、31g、31b カラーフィルタ
32 封止膜
33 透明電極
34 光電変換膜
35 半導体層
36 読出し電極
37 蓄積電極
41 IRフィルタ
42 pウェル領域
43 p型半導体領域
44 n型半導体領域
45 縦型トランジスタ
50 半導体基板
51、351 オンチップレンズ
52 平坦化膜
53 絶縁層
54 画素分離部
55 固定電荷膜
56 層間絶縁膜
61~68 配線
100 固体撮像装置(イメージセンサ)
101 画素アレイ部
102 画素駆動回路
103 信号処理回路
103A AD変換回路
104 カラム駆動回路
105 システム制御部
108 データ処理部
109 データ格納部
110、110-1~110-3、310 単位画素
110A 受光部
110B 画素回路
131、132、133 スイッチ回路
140 画素チップ
141、141A、141B、151、251 接続部
150、250 回路チップ
160 RGB駆動回路
161、171、201 TG駆動部
162、172、202 RST駆動部
164、174、204 SEL駆動部
170 IR駆動回路
175、205 OFG駆動部
181 RGB信号処理回路
182 RGBデータ処理部
191 IR信号処理回路
192 IRデータ処理部
200 共通駆動回路
252 フレームメモリ
210 共通信号処理回路
FD1、FD2 浮遊拡散領域
LD 画素駆動線
LD1 RGB駆動線
LD2 IR駆動線
LD3 共通駆動線
LD3a、LD3b 駆動線
PD1、PD2 光電変換部
SL1、SL2 信号線
VSL、VSL1、VSL2、VSL3 垂直信号線
Claims (20)
- 第1波長帯の光を検出する第1センサと、
前記第1波長帯とは異なる第2波長帯の光を検出する第2センサと、
を備え、
前記第1センサは、入射光における前記第1波長帯の光を検出する第1画素を備え、
前記第2センサは、前記入射光のうちの前記第1画素を透過した前記第2波長帯の光を検出する第2画素を備える
固体撮像装置。 - 前記第1画素は、前記第1波長帯の光を光電変換する第1光電変換部を備え、
前記第2画素は、前記第2波長帯の光を光電変換する第2光電変換部を備え、
前記第2光電変換部は、前記第1光電変換部における前記第1波長帯の光の入射面と反対側の面側に配置されている
請求項1に記載の固体撮像装置。 - 前記第1画素及び前記第2画素を備える第1チップと、
前記第1画素及び前記第2画素を駆動する駆動部と、前記第1画素及び前記第2画素から画素信号を読み出す読出し部とを備える第2チップと、
を備え、
前記第1チップと前記第2チップとは、互いに接合されることで構成された積層チップである
請求項2に記載の固体撮像装置。 - 前記第1チップは、前記第1光電変換部及び前記第2光電変換部を備える第3チップと、前記第1光電変換部に接続された第1画素回路及び前記第2光電変換部に接続された第2画素回路を備える第4チップとを接合することで構成された積層チップである
請求項3に記載の固体撮像装置。 - 前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
請求項3に記載の固体撮像装置。 - 前記第1駆動部と前記第2駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
請求項5に記載の固体撮像装置。 - 前記第1読出し部及び前記第2読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
請求項5に記載の固体撮像装置。 - 前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部をさらに備える
請求項5に記載の固体撮像装置。 - 前記第1駆動部と前記第2駆動部と前記第3駆動部とは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域に配置される
請求項8に記載の固体撮像装置。 - 前記第1駆動部から前記第3駆動部のうちの2つは、前記第2チップにおける隣接する領域に配置され、
前記第1読出し部と前記第2読出し部とは、前記第2チップにおける隣接する領域であって前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と隣接する前記領域に配置され、
前記第1駆動部から前記第3駆動部のうちの残りの1つは、前記第2チップにおける前記第1読出し部及び前記第2読出し部が配置された領域を挟んで前記第1駆動部から前記第3駆動部のうちの前記2つが配置された前記領域と反対側の領域に配置される
請求項8に記載の固体撮像装置。 - 前記駆動部は、前記第1画素及び前記第2画素に共通の制御信号を供給し、
前記読出し部は、
前記第1画素が生成した第1画素信号を読み出す第1読出し部と、
前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
請求項3に記載の固体撮像装置。 - 前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
請求項3に記載の固体撮像装置。 - 前記読出し部は、前記第2チップにおける中央寄りの隣接する領域に配置され、
前記第1駆動部及び前記第2駆動部は、前記第2チップにおける前記読出し部が配置された前記領域を挟む2つの領域に分かれて配置される
請求項12に記載の固体撮像装置。 - 前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、
複数の前記第1画素の一部が生成した第1画素信号を読み出す第1読出し部と、
前記複数の第1画素の残りが生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す第2読出し部と、
を含む
請求項3に記載の固体撮像装置。 - 前記複数の第1画素のうちの前記一部は、前記第1チップにおいて第3方向に延在する第1信号線を介して前記第1読出し部に接続され、前記残りは、前記第3方向とは反対方向の第4方向に延在する第2信号線を介して前記第2読出し部に接続される
請求項14に記載の固体撮像装置。 - 前記駆動部は、
前記第1画素に制御信号を供給する第1駆動部と、
前記第2画素に制御信号を供給する第2駆動部と、
前記第1画素及び前記第2画素に共通の制御信号を供給する第3駆動部と、
を含み、
前記読出し部は、前記第1画素が生成した第1画素信号及び前記第2画素が生成した第2画素信号を読み出す
請求項3に記載の固体撮像装置。 - 前記駆動部から出力された制御信号を前記第1画素に供給する第1駆動線は、前記第1チップにおいて第1方向に延在し、
前記駆動部から出力された制御信号を前記第2画素に供給する第2駆動線は、前記第1チップにおいて前記第1方向と直行する第2方向に延在する
請求項3に記載の固体撮像装置。 - 前記第1センサは、前記第2センサにおける1つの前記第2画素に対して複数の前記第1画素を備える
請求項1に記載の固体撮像装置。 - 前記読出し部から出力されたデータを保持するフレームメモリを備える第5チップをさらに備え、
前記第5チップは、前記第1チップと前記第2チップとの間、又は、前記第2チップを挟んで前記第1チップと反対側に接合されている
請求項3に記載の固体撮像装置。 - 請求項1に記載の固体撮像装置と、
前記第1センサによって取得されて前記固体撮像装置から出力された第1画像データと、前記第2センサによって取得されて前記固体撮像装置から出力された第2画像データとを処理するプロセッサと、
を備える電子機器。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202180051009.3A CN115943639A (zh) | 2020-09-16 | 2021-09-02 | 固态成像装置和电子设备 |
DE112021004903.8T DE112021004903T5 (de) | 2020-09-16 | 2021-09-02 | Solid-state-bildgebungsvorrichtung und elektronische einrichtung |
KR1020237006234A KR20230069909A (ko) | 2020-09-16 | 2021-09-02 | 고체 촬상 장치 및 전자 기기 |
US18/017,526 US12035063B2 (en) | 2020-09-16 | 2021-09-02 | Solid-state imaging device and electronic apparatus |
EP21869186.3A EP4216279A4 (en) | 2020-09-16 | 2021-09-02 | SOLID STATE IMAGING DEVICE AND ELECTRONIC DEVICE |
US18/660,673 US20240348951A1 (en) | 2020-09-16 | 2024-05-10 | Solid-state imaging device and electronic apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020155715A JP2022049487A (ja) | 2020-09-16 | 2020-09-16 | 固体撮像装置及び電子機器 |
JP2020-155715 | 2020-09-16 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US18/017,526 A-371-Of-International US12035063B2 (en) | 2020-09-16 | 2021-09-02 | Solid-state imaging device and electronic apparatus |
US18/660,673 Continuation US20240348951A1 (en) | 2020-09-16 | 2024-05-10 | Solid-state imaging device and electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022059499A1 true WO2022059499A1 (ja) | 2022-03-24 |
Family
ID=80776927
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/032248 WO2022059499A1 (ja) | 2020-09-16 | 2021-09-02 | 固体撮像装置及び電子機器 |
Country Status (8)
Country | Link |
---|---|
US (2) | US12035063B2 (ja) |
EP (1) | EP4216279A4 (ja) |
JP (1) | JP2022049487A (ja) |
KR (1) | KR20230069909A (ja) |
CN (1) | CN115943639A (ja) |
DE (1) | DE112021004903T5 (ja) |
TW (1) | TW202215839A (ja) |
WO (1) | WO2022059499A1 (ja) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013051674A (ja) * | 2011-08-02 | 2013-03-14 | Canon Inc | 周辺回路を配置しチップ面積増大を抑制した撮像素子及び撮像装置 |
JP2013070030A (ja) * | 2011-09-06 | 2013-04-18 | Sony Corp | 撮像素子、電子機器、並びに、情報処理装置 |
WO2013145753A1 (ja) * | 2012-03-30 | 2013-10-03 | 株式会社ニコン | 撮像素子および撮像装置 |
JP2016058532A (ja) * | 2014-09-09 | 2016-04-21 | ソニー株式会社 | 固体撮像素子、並びに、電子機器 |
JP2016058866A (ja) * | 2014-09-09 | 2016-04-21 | オリンパス株式会社 | 撮像素子および内視鏡装置 |
JP2018037479A (ja) * | 2016-08-30 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、および電子装置 |
JP2018085645A (ja) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | 撮像装置、撮像システム、および、移動体 |
JP2018125848A (ja) | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2019131965A1 (ja) * | 2017-12-27 | 2019-07-04 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子 |
WO2019240121A1 (ja) * | 2018-06-15 | 2019-12-19 | ソニー株式会社 | 固体撮像素子、固体撮像装置、電子機器、及び、固体撮像素子の製造方法 |
JP2020021855A (ja) | 2018-08-01 | 2020-02-06 | 日本放送協会 | 撮像素子およびその製造方法 |
WO2020080327A1 (ja) * | 2018-10-17 | 2020-04-23 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子および電子機器 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5556823B2 (ja) * | 2012-01-13 | 2014-07-23 | 株式会社ニコン | 固体撮像装置および電子カメラ |
EP3288081B1 (en) * | 2015-04-24 | 2022-07-27 | Sony Group Corporation | Solid state image sensor and electronic device comprising the same |
JPWO2018008062A1 (ja) | 2016-07-04 | 2019-04-18 | オリンパス株式会社 | 蛍光観察装置および蛍光観察内視鏡装置 |
DE112019002526T5 (de) * | 2018-05-18 | 2021-04-08 | Sony Semiconductor Solutions Corporation | Bildgebungselement, elektronische einrichtung und verfahren zum ansteuern eines bildgebungselements |
KR20220010891A (ko) * | 2020-07-20 | 2022-01-27 | 삼성전자주식회사 | 이미지 센서 및 전자 장치 |
-
2020
- 2020-09-16 JP JP2020155715A patent/JP2022049487A/ja active Pending
-
2021
- 2021-09-02 DE DE112021004903.8T patent/DE112021004903T5/de active Pending
- 2021-09-02 WO PCT/JP2021/032248 patent/WO2022059499A1/ja unknown
- 2021-09-02 KR KR1020237006234A patent/KR20230069909A/ko active Search and Examination
- 2021-09-02 EP EP21869186.3A patent/EP4216279A4/en active Pending
- 2021-09-02 CN CN202180051009.3A patent/CN115943639A/zh active Pending
- 2021-09-02 US US18/017,526 patent/US12035063B2/en active Active
- 2021-09-09 TW TW110133541A patent/TW202215839A/zh unknown
-
2024
- 2024-05-10 US US18/660,673 patent/US20240348951A1/en active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013051674A (ja) * | 2011-08-02 | 2013-03-14 | Canon Inc | 周辺回路を配置しチップ面積増大を抑制した撮像素子及び撮像装置 |
JP2013070030A (ja) * | 2011-09-06 | 2013-04-18 | Sony Corp | 撮像素子、電子機器、並びに、情報処理装置 |
WO2013145753A1 (ja) * | 2012-03-30 | 2013-10-03 | 株式会社ニコン | 撮像素子および撮像装置 |
JP2016058532A (ja) * | 2014-09-09 | 2016-04-21 | ソニー株式会社 | 固体撮像素子、並びに、電子機器 |
JP2016058866A (ja) * | 2014-09-09 | 2016-04-21 | オリンパス株式会社 | 撮像素子および内視鏡装置 |
JP2018037479A (ja) * | 2016-08-30 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像素子、および電子装置 |
JP2018085645A (ja) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | 撮像装置、撮像システム、および、移動体 |
JP2018125848A (ja) | 2017-02-03 | 2018-08-09 | パナソニックIpマネジメント株式会社 | 撮像装置 |
WO2019131965A1 (ja) * | 2017-12-27 | 2019-07-04 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子 |
WO2019240121A1 (ja) * | 2018-06-15 | 2019-12-19 | ソニー株式会社 | 固体撮像素子、固体撮像装置、電子機器、及び、固体撮像素子の製造方法 |
JP2020021855A (ja) | 2018-08-01 | 2020-02-06 | 日本放送協会 | 撮像素子およびその製造方法 |
WO2020080327A1 (ja) * | 2018-10-17 | 2020-04-23 | ソニーセミコンダクタソリューションズ株式会社 | 撮像素子および電子機器 |
Non-Patent Citations (1)
Title |
---|
See also references of EP4216279A4 |
Also Published As
Publication number | Publication date |
---|---|
KR20230069909A (ko) | 2023-05-19 |
JP2022049487A (ja) | 2022-03-29 |
US12035063B2 (en) | 2024-07-09 |
DE112021004903T5 (de) | 2023-07-27 |
TW202215839A (zh) | 2022-04-16 |
US20240348951A1 (en) | 2024-10-17 |
CN115943639A (zh) | 2023-04-07 |
US20230362518A1 (en) | 2023-11-09 |
EP4216279A1 (en) | 2023-07-26 |
EP4216279A4 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI834734B (zh) | 固態成像裝置及成像裝置 | |
US11810932B2 (en) | Solid-state imaging device and imaging device | |
TW202015395A (zh) | 固態攝像裝置及其驅動方法以及電子機器 | |
WO2021054183A1 (en) | Solid-state imaging device and imaging device with combined dynamic vision sensor and imaging functions | |
JP2022546154A (ja) | 固体撮像デバイス及び共有回路要素を備えた撮像デバイス | |
US20240305908A1 (en) | Solid-state imaging device and imaging system | |
CN112868103A (zh) | 固态摄像设备和摄像设备 | |
KR20230073185A (ko) | 고체 촬상 장치 및 전자 기기 | |
US11521998B2 (en) | Solid-state imaging device and imaging device | |
US20220375975A1 (en) | Imaging device | |
WO2022059499A1 (ja) | 固体撮像装置及び電子機器 | |
WO2022059525A1 (ja) | 固体撮像装置及び認識システム | |
WO2022059515A1 (ja) | 固体撮像装置及び認識システム | |
JP2023503765A (ja) | 撮像デバイス及び撮像装置、並びにそれらの方法 | |
WO2023181657A1 (ja) | 光検出装置及び電子機器 | |
WO2022065186A1 (ja) | 固体撮像装置及び電子機器 | |
KR20240112900A (ko) | 광 검출 장치, 전자 기기 및 광 검출 시스템 | |
JP2024152342A (ja) | 半導体装置および機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21869186 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021869186 Country of ref document: EP Effective date: 20230417 |