JP2014165907A - Solid-state image pickup device and imaging apparatus - Google Patents

Solid-state image pickup device and imaging apparatus Download PDF

Info

Publication number
JP2014165907A
JP2014165907A JP2013038383A JP2013038383A JP2014165907A JP 2014165907 A JP2014165907 A JP 2014165907A JP 2013038383 A JP2013038383 A JP 2013038383A JP 2013038383 A JP2013038383 A JP 2013038383A JP 2014165907 A JP2014165907 A JP 2014165907A
Authority
JP
Japan
Prior art keywords
solid
pixel
imaging device
state imaging
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013038383A
Other languages
Japanese (ja)
Inventor
Shinzo Kayama
信三 香山
Kazutoshi Onozawa
和利 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013038383A priority Critical patent/JP2014165907A/en
Publication of JP2014165907A publication Critical patent/JP2014165907A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a solid-state image pickup device capable of switching between stereoscopic image and planar image while changing stereoscopic effect using no mechanical mechanism.SOLUTION: The solid-state image pickup device includes: a pixel part 300 which has plural pixels disposed in a matrix configuration; a light focusing element 302 disposed above the pixel part; and a signal processing section 106. Each of the plural pixels has a photoelectric conversion part. The pixel part has plural pixel groups including a first pixel group. The plural pixel group is constituted of pixels which are disposed in a same row and neighboring n-column (n: integer greater than 3) in the plural pixels. The signal processing section 106 multiplies an arbitrary real number on a signal output from the arbitrary pixel in the first pixel group and sums the same to simultaneously or separately generate a first combined signal for forming a first planar image, a second combined signal for forming a first stereoscopic image, and a third combined signal.

Description

本発明は、立体視カメラまたは多視点カメラに有効な固体撮像装置に関する。   The present invention relates to a solid-state imaging device effective for a stereoscopic camera or a multi-view camera.

従来の技術における立体視可能な撮像装置では、視点の異なる2枚の画像からなる立体画像と視点が一つの平面画像を切り替えて使う際、動的な機構を用いる必要性があった。   In the conventional imaging device capable of stereoscopic viewing, there is a need to use a dynamic mechanism when switching between a stereoscopic image composed of two images with different viewpoints and a planar image with one viewpoint.

例えば、特許文献1の技術では、カメラの可変絞りを動かすことで立体感を可変にし、又は、平面画像を生成する。   For example, in the technique of Patent Document 1, the stereoscopic effect is changed by moving a variable aperture of a camera, or a planar image is generated.

国際公開第2012/002070号International Publication No. 2012/002070

しかしながら、特許文献1の方法では機械的な機構を備える必要が有るため、極めて小さいカメラに実装する場合には、当該機構によってカメラのサイズが制約されてしまう。   However, since it is necessary to provide a mechanical mechanism in the method of Patent Document 1, when mounting on an extremely small camera, the size of the camera is restricted by the mechanism.

本発明は、上記課題を解決するためのもので、機械的な機構を用いることなく立体感を可変にし、立体画像と平面画像とを切り替えられる固体撮像装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is to provide a solid-state imaging device capable of changing a stereoscopic effect and switching between a stereoscopic image and a planar image without using a mechanical mechanism.

上記目的を達成するために、本発明の一態様に係る固体撮像装置は、複数の画素が行列状に配置された画素部と、前記画素部の上方に配置された集光素子と、信号処理部とを備え、前記複数の画素はそれぞれ、光電変換部を有し、前記画素部は、第1の画素群を含む複数の画素群を有し、前記複数の画素群はそれぞれ、前記複数の画素のうち、同じ行、且つ、隣接するn列(n:3以上の整数)に配置された画素で構成され、前記信号処理部は、前記第1の画素群内の任意の画素から出力された信号にそれぞれ、任意の実数を乗算した後に合算することで、第1の平面画像を形成する第1の合成信号と、第1の立体画像を形成する第2の合成信号及び第3の合成信号とを同時に、又は、別々に生成することを特徴とする。   In order to achieve the above object, a solid-state imaging device according to one embodiment of the present invention includes a pixel portion in which a plurality of pixels are arranged in a matrix, a condensing element disposed above the pixel portion, and signal processing Each of the plurality of pixels includes a photoelectric conversion unit, the pixel unit includes a plurality of pixel groups including a first pixel group, and each of the plurality of pixel groups includes the plurality of pixel groups. Among the pixels, the pixels are arranged in the same row and adjacent n columns (n: integer of 3 or more), and the signal processing unit is output from any pixel in the first pixel group. The first synthesized signal for forming the first planar image, the second synthesized signal for forming the first stereoscopic image, and the third synthesized signal are obtained by multiplying each of the received signals by an arbitrary real number and then adding them together. The signal is generated simultaneously or separately.

また、前記信号処理部は、前記第1の画素群内の任意の画素から出力された信号にそれぞれ、任意の実数を乗算した後に合算することで、第1の立体画像と異なる視差の第2の立体画像を形成する第4の合成信号及び第5の合成信号とを、前記第1から第3の合成信号と同時に、又は、別々に生成してもよい。   In addition, the signal processing unit multiplies the signals output from arbitrary pixels in the first pixel group by arbitrary real numbers, and then adds them, thereby adding a second parallax different from the first stereoscopic image. The fourth synthesized signal and the fifth synthesized signal that form the three-dimensional image may be generated simultaneously with the first to third synthesized signals or separately.

本態様によれば、機械的な機構を用いることなく、異なる視差を持つ複数の立体画像や平面画像を同時に、又は、別々に形成できる。   According to this aspect, a plurality of stereoscopic images and planar images having different parallaxes can be formed simultaneously or separately without using a mechanical mechanism.

本発明によれば、機械的な機構を用いることなく立体感を可変にし、立体画像と平面画像とを切り替えられる固体撮像装置を提供できる。   According to the present invention, it is possible to provide a solid-state imaging device capable of changing a stereoscopic effect without using a mechanical mechanism and switching between a stereoscopic image and a planar image.

本発明の実施形態に係る撮像装置の概略構成を示す図The figure which shows schematic structure of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る光学的な概念を示す図The figure which shows the optical concept which concerns on embodiment of this invention. 本発明の実施形態に係る画素配列の一例を示す図The figure which shows an example of the pixel arrangement | sequence which concerns on embodiment of this invention. (a)(b)(c)はそれぞれ、本発明の実施形態に係るカラーフィルタのレイアウトの一例を示す図(A) (b) (c) is a figure which shows an example of the layout of the color filter which concerns on embodiment of this invention, respectively. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る固体撮像装置の光路をシミュレーションした図であり、(a)は隔壁がない場合、(b)は隔壁がある場合のシミュレーション結果を示す図It is the figure which simulated the optical path of the solid-state imaging device concerning the embodiment of the present invention, and (a) shows the simulation result when there is no partition and (b) has the partition. 本発明の実施形態に係る固体撮像装置の入射角度と感度の関係を示す図であり、(a)は隔壁がない場合、(b)は隔壁がある場合のシミュレーション結果を示す図It is a figure which shows the relationship between the incident angle and sensitivity of the solid-state imaging device which concerns on embodiment of this invention, (a) is a figure which shows a simulation result in case there is no partition, (b) has a partition. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、図3のXX´断面図3 is an example of a cross-sectional structure of a pixel according to an embodiment of the present invention, and is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、図3のYY´断面図3 is an example of a cross-sectional structure of a pixel according to an embodiment of the present invention, and is a cross-sectional view along YY ′ in FIG. 3. 屈折率分布型のマイクロレンズのレイアウトの例を示す図Diagram showing an example of the layout of a gradient index microlens 屈折率分布型のマイクロレンズのレイアウトの例を示す図Diagram showing an example of the layout of a gradient index microlens 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る画素の断面構造の一例であり、(a)は図3のXX´断面図、(b)は図3のYY´断面図3A and 3B are examples of a cross-sectional structure of a pixel according to an embodiment of the present invention, where FIG. 3A is a cross-sectional view taken along the line XX ′ of FIG. 本発明の実施形態に係る撮像装置の光路の概略を示す図The figure which shows the outline of the optical path of the imaging device which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置によって平面画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a plane image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmissive area | region determined virtually of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって平面画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a plane image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmissive area | region determined virtually of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって立体画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a three-dimensional image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmission region virtually determined of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって立体画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a three-dimensional image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmission region virtually determined of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって立体画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a three-dimensional image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmission region virtually determined of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって立体画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a three-dimensional image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmission region virtually determined of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る撮像装置によって立体画像を取得する方法の一例を示す概念図であり、(a)はカメラレンズの仮想的に決められた透過領域を示す図、(b)は画素からの信号出力の概念図、(c)は光の入射角度と感度の関係を示す図It is a conceptual diagram which shows an example of the method of acquiring a three-dimensional image with the imaging device which concerns on embodiment of this invention, (a) is a figure which shows the transmission region virtually determined of the camera lens, (b) is from a pixel. (C) is a diagram showing the relationship between the incident angle of light and sensitivity 本発明の実施形態に係る信号処理の概念の一例を示す図The figure which shows an example of the concept of the signal processing which concerns on embodiment of this invention 本発明の実施形態に係る信号処理の概念の一例を示す図The figure which shows an example of the concept of the signal processing which concerns on embodiment of this invention 本発明の実施形態に係る補正行列による補正前後の斜入射特性のシミュレーション結果を示す図The figure which shows the simulation result of the oblique incidence characteristic before and behind the correction | amendment by the correction matrix which concerns on embodiment of this invention

以下、本発明に係る実施形態について、図面を参照しながら説明する。実質的に同一の構成に対しては同一の符号を付して説明を省略することがある。なお、本発明は以下の実施形態に限定されない。   Hereinafter, embodiments according to the present invention will be described with reference to the drawings. Substantially the same configuration may be denoted by the same reference numeral and description thereof may be omitted. In addition, this invention is not limited to the following embodiment.

(撮像装置概略)
図1に本実施形態に係る撮像装置100の概略を示す。カメラレンズ102は一つで構成されている。また撮像装置100にはカメラレンズ102からの光を受光し電子信号へ変換する撮像部104が備えられている。また、信号処理部106は、制御信号に基づいて、撮像部104からの信号を処理する。信号処理部106は、撮像部104と同じチップに形成されていても良いし、別チップに形成されていても良い。信号処理部106で処理された信号は、モニタ108に出力されても良いし、記録媒体110に保存されても良いし、出力及び保存が同時に行われても良い。このように、信号処理部106で処理された信号の行き先は任意である。
(Outline of imaging device)
FIG. 1 shows an outline of an imaging apparatus 100 according to the present embodiment. The camera lens 102 is composed of one. In addition, the imaging apparatus 100 includes an imaging unit 104 that receives light from the camera lens 102 and converts it into an electronic signal. The signal processing unit 106 processes a signal from the imaging unit 104 based on the control signal. The signal processing unit 106 may be formed on the same chip as the imaging unit 104 or may be formed on a separate chip. The signal processed by the signal processing unit 106 may be output to the monitor 108, stored in the recording medium 110, or output and storage may be performed simultaneously. Thus, the destination of the signal processed by the signal processing unit 106 is arbitrary.

図2に本実施形態に係るレンズによる光学的な概念図を示す。被写体200からの光はカメラレンズ102を通して、固体撮像装置202に集光される。カメラレンズ102は、例えば透過領域A、B、C、Dに仮想的に分割され、それぞれの領域を通った光は受光点204に集光される。   FIG. 2 shows an optical conceptual diagram of the lens according to the present embodiment. Light from the subject 200 is condensed on the solid-state imaging device 202 through the camera lens 102. The camera lens 102 is virtually divided into, for example, transmissive areas A, B, C, and D, and light passing through the respective areas is collected at a light receiving point 204.

(画素配列)
図3に固体撮像装置202における画素の配列の一例を示す。画素数は任意である。画素部300には、複数の画素300−pq(p、q:自然数)が配置されている。画素300−pqは、第p行目、且つ、第q列目の座標に配置されていることを意味している。また、本明細書では、同じ行、且つ、隣接するn列(n:3以上の整数)に配置された画素を「画素群」と定義する。図3では、同じ行、且つ、隣接する4列に配置された画素が画素群を構成する。1つの画素群に対して、1色のカラーフィルタが対応している。
(Pixel array)
FIG. 3 shows an example of pixel arrangement in the solid-state imaging device 202. The number of pixels is arbitrary. In the pixel unit 300, a plurality of pixels 300-pq (p, q: natural numbers) are arranged. It means that the pixel 300-pq is arranged at the coordinates of the p-th row and the q-th column. In the present specification, pixels arranged in the same row and adjacent n columns (n: an integer of 3 or more) are defined as a “pixel group”. In FIG. 3, pixels arranged in the same row and adjacent four columns form a pixel group. One color filter corresponds to one pixel group.

図3は、隣接する2行4列毎に異なるカラーフィルタが配置されている。つまり、列方向に隣接する画素群の上方に同じ色のカラーフィルタが配置されている。なお、「G」は緑のカラーフィルタ、「B」は青のカラーフィルタ、「R」は赤のカラーフィルタを意味するが、シアン、マゼンタ、イエローでも構わない。   In FIG. 3, different color filters are arranged for every two adjacent rows and four columns. That is, a color filter of the same color is arranged above a pixel group adjacent in the column direction. “G” means a green color filter, “B” means a blue color filter, and “R” means a red color filter, but it may be cyan, magenta, or yellow.

また、本実施形態に係る固体撮像装置では、隣接する4列毎に異なる集光素子が配置されている。具体的には、1列目から4列目に配置された画素で構成された各画素群の上に集光素子302が配置され、5列目から8列目に配置された画素で構成された各画素群の上に集光素子304が配置されている。   Further, in the solid-state imaging device according to the present embodiment, different condensing elements are arranged for every four adjacent rows. Specifically, the condensing element 302 is arranged on each pixel group constituted by the pixels arranged from the first column to the fourth column, and is constituted by the pixels arranged from the fifth column to the eighth column. A condensing element 304 is disposed on each pixel group.

集光素子302及び304は、それぞれの下方に配置された各画素群へ光を集光する。本実施形態のように、集光素子は、例えば、複数の凸レンズが並列に並んで配置されたレンチキュラレンズで構成されていてもよい。この場合、集光素子302及び304がそれぞれ一つの凸レンズに該当し、各凸レンズの下方に配置され、対応する画素群へ光を集光する。   The condensing elements 302 and 304 condense light to each pixel group arranged below each. Like this embodiment, the condensing element may be comprised with the lenticular lens by which the some convex lens was arrange | positioned along with parallel, for example. In this case, each of the light condensing elements 302 and 304 corresponds to one convex lens, and is disposed below each convex lens, and condenses light to the corresponding pixel group.

図4(a)(b)(c)はそれぞれ、集光素子、カラーフィルタの配置のバリエーションを示す図である。なお、以下に示す配置は一例であり、配置の仕方は任意である。   4A, 4B, and 4C are diagrams showing variations in arrangement of the light collecting elements and the color filters, respectively. The arrangement shown below is an example, and the arrangement is arbitrary.

図4(a)は、隣接する4列毎に集光素子302a及び304aが配置されている場合を示している。そして、図3や図4(a)に示すように、隣接する1行4列、2行4列又は4行4列に配置される複数の画素に対して1種類のカラーフィルタが配置されていてもよい。   FIG. 4A shows a case where the condensing elements 302a and 304a are arranged for every four adjacent rows. As shown in FIG. 3 and FIG. 4A, one kind of color filter is arranged for a plurality of pixels arranged in adjacent 1 row 4 columns, 2 rows 4 columns, or 4 rows 4 columns. May be.

図4(b)は、隣接する3列毎に集光素子302b及び304bが配置されている場合を示している。そして、図4(b)に示すように、隣接する1行3列又は3行3列に配置される複数の画素に対して1種類のカラーフィルタが配置されていてもよい。   FIG. 4B shows a case where the light collecting elements 302b and 304b are arranged for every three adjacent rows. And as shown in FIG.4 (b), one type of color filter may be arrange | positioned with respect to the several pixel arrange | positioned at adjacent 1 row 3 columns or 3 rows 3 columns.

図4(c)は、隣接する5列毎に集光素子302c及び304cが配置されている場合を示している。そして、図4(c)に示すように、隣接する1行5列又は5行5列に配置される複数の画素に対して1種類のカラーフィルタが配置されていてもよい。   FIG. 4C shows a case where the light collecting elements 302c and 304c are arranged for every five adjacent rows. And as shown in FIG.4 (c), one type of color filter may be arrange | positioned with respect to the several pixel arrange | positioned at adjacent 1 row 5 columns or 5 rows 5 columns.

(裏面照射型、積層型)
図5(a)(b)は、光電変換部が配線層の上に配置される裏面照射型の場合、又は、光電変換膜が透明な上部電極と任意の下部電極とで挟まれ、下部電極が配線層の上に配置される積層型の場合の断面図を示している。なお、本明細書において、「上」「上方」等の単語は、画素から集光素子への方向を意味し、「下」「下方」等の単語は、その逆の方向を意味する。
(Back-illuminated type, laminated type)
5 (a) and 5 (b) show a case where the photoelectric conversion part is a back-illuminated type disposed on the wiring layer, or the photoelectric conversion film is sandwiched between a transparent upper electrode and an arbitrary lower electrode, and the lower electrode Sectional drawing in the case of the laminated type arrange | positioned on a wiring layer is shown. In this specification, words such as “upper” and “upper” mean the direction from the pixel to the light collecting element, and words such as “lower” and “lower” mean the opposite direction.

図5(a)は図3のXX´断面の一例を示す図である。集光素子302は画素300−11から画素300−14で構成される画素群の上に配置され、集光素子304は画素300−15から300−18で構成される画素群の上に配置されている。画素の上には層間膜500、カラーフィルタ502及び504が配置されている。各画素群内の画素300−11から300−14、及び画素300−15から300−18の上方には、同じ色のカラーフィルタが配置されている。   FIG. 5A is a diagram showing an example of the XX ′ cross section of FIG. The condensing element 302 is disposed on the pixel group including the pixels 300-11 to 300-14, and the condensing element 304 is disposed on the pixel group including the pixels 300-15 to 300-18. ing. An interlayer film 500 and color filters 502 and 504 are disposed on the pixel. A color filter of the same color is disposed above the pixels 300-11 to 300-14 and the pixels 300-15 to 300-18 in each pixel group.

カラーフィルタは集光素子よりも画素に近い位置に配置されることが望ましい。カラーフィルタで入射光が散乱されてしまうため、カラーフィルタの位置が画素から離れる程、画素での受光量が低下してしまうからである。   The color filter is desirably arranged at a position closer to the pixel than the light collecting element. This is because incident light is scattered by the color filter, so that the amount of light received by the pixel decreases as the position of the color filter moves away from the pixel.

層間膜500は絶縁膜で構成されている。層間膜500は、集光素子302及び304を配置する部分を平坦化する役割、設計上の光学膜厚の確保の役割や電気的絶縁性の確保の役割の少なくともいずれかの役割を担う。   The interlayer film 500 is composed of an insulating film. The interlayer film 500 plays at least one of the role of flattening the portion where the light collecting elements 302 and 304 are arranged, the role of ensuring the optical film thickness in design, and the role of ensuring electrical insulation.

図5(b)は図3のYY´断面の一例を示す図である。カラーフィルタ502と異なる色のカラーフィルタ506が、第3行及び第4行、且つ、第1列から第4列までの画素の上に配置されている。   FIG. 5B is a diagram showing an example of a YY ′ cross section in FIG. 3. A color filter 506 having a color different from that of the color filter 502 is disposed on the pixels in the third and fourth rows and the first to fourth columns.

また、図6(a)及び図6(b)に示すように、隣接する画素群間の境界上方であって、異なる色のカラーフィルタ間に第1の隔壁600が配置されていてもよい。第1の隔壁600は層間膜500と屈折率の異なる材料や金属材料のような遮光材料であってもよい。この構成により、入射光を第1の隔壁600によって反射させ、隣接画素へのクロストークを抑制できる。   Further, as shown in FIGS. 6A and 6B, the first partition wall 600 may be disposed between the color filters of different colors above the boundary between adjacent pixel groups. The first partition wall 600 may be a light shielding material such as a material having a different refractive index from the interlayer film 500 or a metal material. With this configuration, incident light is reflected by the first partition wall 600, and crosstalk to adjacent pixels can be suppressed.

また、第1の隔壁600はカラーフィルタ502、504及び506よりも屈折率の低い材料で構成されていてもよい。この場合、第1の隔壁600の近傍に入射した光は相対的に屈折率の高いカラーフィルタ側へ偏光されるため、隣接画素へのクロストークを抑制できる。   Further, the first partition wall 600 may be made of a material having a lower refractive index than the color filters 502, 504, and 506. In this case, since the light incident in the vicinity of the first partition wall 600 is polarized toward the color filter having a relatively high refractive index, crosstalk to adjacent pixels can be suppressed.

第1の隔壁600の形状は、図7(a)及び図7(b)に示すように、上面(集光素子側)の面積が下面(画素側)の面積より小さい方が好ましい。第1の隔壁600の上面で反射される入射光量を抑えるためである。   As shown in FIGS. 7A and 7B, the shape of the first partition wall 600 is preferably such that the area of the upper surface (condenser element side) is smaller than the area of the lower surface (pixel side). This is because the amount of incident light reflected from the upper surface of the first partition wall 600 is suppressed.

図8(a)及び図8(b)は遮光材料で構成された第1の隔壁600がない場合と、ある場合の違いをFinite-difference time-domain method(FDTD法)を用いて光学シミュレーションした結果を示している。   8A and 8B are optical simulations using the Finite-difference time-domain method (FDTD method) for the difference between the case where there is no first partition wall 600 made of a light shielding material and the case where there is no first partition wall 600. Results are shown.

図8(a)は隔壁が無い場合、そして図8(b)は隔壁が有る場合に、集光素子Zで集光された入射光が画素Dへ入射する様子を示している。   FIG. 8A shows a state where incident light collected by the light collecting element Z enters the pixel D when there is no partition, and FIG. 8B shows a case where there is a partition.

図8(a)に示すように、隔壁が無い場合は例えば、画素Dに入射する光が隣接する画素Yに入射している。他方、図8(b)に示すように、隔壁が有る場合は例えば、画素Xに入射する光が画素Aに入射せず、画素Dに入射する光が画素Yに入射することがないため、クロストークを抑制できる。   As shown in FIG. 8A, when there is no partition, for example, light incident on the pixel D is incident on the adjacent pixel Y. On the other hand, as shown in FIG. 8B, when there is a partition wall, for example, light incident on the pixel X does not enter the pixel A, and light incident on the pixel D does not enter the pixel Y. Crosstalk can be suppressed.

図9(a)及び図9(b)はそれぞれ、図8(a)と図8(b)における撮像部の入射角度特性を画素A、B、C、Dに関してプロットしている。縦軸は感度[a.u.]、横軸は集光素子Zに入射する入射光の入射角度[°]である。   FIGS. 9A and 9B plot the incident angle characteristics of the imaging unit in FIGS. 8A and 8B with respect to the pixels A, B, C, and D, respectively. The vertical axis represents sensitivity [a. u. The horizontal axis represents the incident angle [°] of the incident light incident on the light condensing element Z.

図9(a)に示すように、隔壁が無い場合は、特に入射角度が約15°以上及び約−15°以下で、隣接する集光素子に集光された光によるクロストークが生じている。他方、図9(b)に示すように、隔壁がある場合は、特に入射角度が約15°以上及び約−15°以下で、クロストークが抑制できている。   As shown in FIG. 9A, in the case where there is no partition wall, crosstalk occurs due to the light condensed on the adjacent condensing elements, particularly when the incident angle is about 15 ° or more and about −15 ° or less. . On the other hand, as shown in FIG. 9B, when there is a partition wall, the crosstalk can be suppressed particularly when the incident angle is about 15 ° or more and about −15 ° or less.

図10(a)及び図10(b)に示すように、各画素群内の各画素間の境界上方であって、隣接するカラーフィルタ間を分離するように、第2の隔壁1000を配置してもよい。この場合、第2の隔壁1000は、カラーフィルタ502、504及び506より屈折率の低い材料で構成されていることが好ましい。このような構成とすることで、第2の隔壁1000の近傍に入射した光は相対的に屈折率の高いカラーフィルタ側へ偏光されるため、隣接画素へのクロストークを抑制できる。   As shown in FIGS. 10A and 10B, the second partition wall 1000 is disposed above the boundary between the pixels in each pixel group so as to separate adjacent color filters. May be. In this case, the second partition wall 1000 is preferably made of a material having a lower refractive index than the color filters 502, 504, and 506. With such a configuration, light incident in the vicinity of the second partition wall 1000 is polarized toward the color filter having a relatively high refractive index, so that crosstalk to adjacent pixels can be suppressed.

(表面照射型)
図11(a)(b)は、配線層が光電変換部上に配置された表面照射型の場合の断面図を示している図である。
(Surface irradiation type)
FIGS. 11A and 11B are cross-sectional views in the case of the surface irradiation type in which the wiring layer is disposed on the photoelectric conversion unit.

図11(a)及び図11(b)はそれぞれ、図3のX−X´断面、Y−Y´断面の一例を示す図である。表面照射型の撮像素子の場合、配線層1100の上方、且つ、集光素子302及び304の下方に、層間膜500より屈折率の高い材料から構成されるマイクロレンズ1102が配置されている。マイクロレンズ1102により入射光が集光されるため、配線層1100によって遮光されにくくなる。   FIG. 11A and FIG. 11B are diagrams showing examples of the XX ′ section and the YY ′ section in FIG. 3, respectively. In the case of a front-illuminated imaging element, a microlens 1102 made of a material having a higher refractive index than the interlayer film 500 is disposed above the wiring layer 1100 and below the light condensing elements 302 and 304. Since incident light is collected by the microlens 1102, the wiring layer 1100 is less likely to be shielded from light.

また、図12a及び図12bに示すように、マイクロレンズ1102の代わりに、受光面に垂直な方向の軸を中心軸として複数の光透過膜1202を同心構造に配置した屈折率分布型のマイクロレンズ1204であってもよい。光透過膜1202は、絶縁性を有し、且つ、層間膜500より屈折率の高い材料であれば良い。   12A and 12B, instead of the microlens 1102, a refractive index distribution type microlens in which a plurality of light transmission films 1202 are arranged in a concentric structure with an axis in a direction perpendicular to the light receiving surface as a central axis. 1204 may be sufficient. The light transmission film 1202 may be any material that has an insulating property and a higher refractive index than the interlayer film 500.

この場合、隣接する光透過膜1202の幅が、撮像素子に入射する入射光の波長と同程度かそれより小さいときには、光が感じる実効屈折率は、光透過膜1202と層間膜500との体積比によって算出できる。   In this case, when the width of the adjacent light transmission film 1202 is approximately equal to or smaller than the wavelength of incident light incident on the image sensor, the effective refractive index felt by the light is the volume of the light transmission film 1202 and the interlayer film 500. It can be calculated by the ratio.

図12c及び図12dは、マイクロレンズ1204の配置を示した平面図である。図12cに示すように、マイクロレンズ1204の同心構造の同心軸が、対応する画素の中心軸を通るように配置しても良い。また、図12dに示すように、例えば、画素群内の両端のマイクロレンズ1204の同心軸が、対応する画素の中心軸からずれて配置してもよい。なお、本実施形態に係る屈折率分布型のマイクロレンズ1204の配置は図12c及び図12dに示した配置に限定されない。なお、カラーフィルタの配置は図に示した配置に限定されない。   12c and 12d are plan views showing the arrangement of the microlenses 1204. FIG. As shown in FIG. 12c, the concentric axis of the concentric structure of the microlens 1204 may be disposed so as to pass through the central axis of the corresponding pixel. Further, as shown in FIG. 12d, for example, the concentric axes of the microlenses 1204 at both ends in the pixel group may be shifted from the central axis of the corresponding pixel. The arrangement of the gradient index microlens 1204 according to the present embodiment is not limited to the arrangement shown in FIGS. 12c and 12d. The arrangement of the color filters is not limited to the arrangement shown in the figure.

また、図13(a)、図13(b)のように、画素部の上方、且つ、集光素子302及び304の下方に、光の散乱損失を防止するために配線層1100を貫くように配置された光導波路1300を設けてもよい。光導波路1300は層間膜500よりも屈折率の高い材料であれば良い。   Further, as shown in FIGS. 13A and 13B, the wiring layer 1100 is penetrated above the pixel portion and below the condensing elements 302 and 304 in order to prevent light scattering loss. A disposed optical waveguide 1300 may be provided. The optical waveguide 1300 may be any material having a higher refractive index than the interlayer film 500.

また、図14(a)、図14(b)のように、配線層1100及び光導波路1300の上方に、カラーフィルタ502及び504を分離するように、第1の隔壁600及び第2の隔壁1000を配置してもよい。このような構成とすることで、配線層1100に反射される光を低減することができる。   14A and 14B, the first partition wall 600 and the second partition wall 1000 are provided so as to separate the color filters 502 and 504 above the wiring layer 1100 and the optical waveguide 1300. May be arranged. With such a structure, light reflected by the wiring layer 1100 can be reduced.

また、図15(a)、図15(b)のように、光導波路1300の上方にマイクロレンズ1102を設け、マイクロレンズ1102の上方にカラーフィルタ502、504及び506を設ける構成としてもよい。このような構成とすることで、集光率をさらに向上できる。なお、図16(a)及び図16(b)に示すように、マイクロレンズ1102の代わりに、屈折率分布型のマイクロレンズ1204を配置してもよい。   15A and 15B, a micro lens 1102 may be provided above the optical waveguide 1300, and color filters 502, 504, and 506 may be provided above the micro lens 1102. By setting it as such a structure, a condensing rate can further be improved. Note that, as shown in FIGS. 16A and 16B, a refractive index distribution type microlens 1204 may be arranged instead of the microlens 1102.

(信号処理方法)
上記で説明した構造を有する撮像部からの信号を処理する信号処理方法の説明を以下で行う。
(Signal processing method)
A signal processing method for processing a signal from the imaging unit having the structure described above will be described below.

図17は、カメラレンズ102を通過した光が、図6(a)のXX´断面図で示される画素300−11から300−18に入射し、信号に光電変換されるまでの様子を示した図である。   FIG. 17 shows a state in which light that has passed through the camera lens 102 enters the pixels 300-11 to 300-18 shown in the XX ′ sectional view of FIG. 6A and is photoelectrically converted into a signal. FIG.

カメラレンズ102を仮想的に分割して定義する透過領域A、B、C、Dを通過した入射光をそれぞれ入射光LA、LB、LC、LDとする。そして、入射光LA、LB、LC、LDがそれぞれ、各画素群内の対応する画素に集光され、光電変換された信号をそれぞれ、信号PA、PB、PC、PDとする。   Incident light that has passed through transmission areas A, B, C, and D defined by virtually dividing the camera lens 102 is referred to as incident light LA, LB, LC, and LD, respectively. The incident lights LA, LB, LC, and LD are collected on the corresponding pixels in each pixel group, and the photoelectrically converted signals are referred to as signals PA, PB, PC, and PD, respectively.

第1の立体画像は左目対応の合成信号3DLeftと右目対応の合成信号3DRightによって形成される。合成信号3DLeftは式1で表され、合成信号3DRightは式2で表される。 The first stereoscopic image is formed by a composite signal 3D Left corresponding to the left eye and a composite signal 3D Right corresponding to the right eye. The combined signal 3D Left is expressed by Equation 1, and the combined signal 3D Right is expressed by Equation 2.

α3DL、β3DL、γ3DL、δ3DLはそれぞれ左目対応の信号を導出するときに信号PA、PB、PC、PDに乗算する係数(任意の実数)を表しており、α3DR、β3DR、γ3DR、δ3DRはそれぞれ右目対応の信号を導出するときに信号PA、PB、PC、PDに乗算する係数(任意の実数)を表している。 α 3DL , β 3DL , γ 3DL , and δ 3DL represent coefficients (arbitrary real numbers) by which the signals PA, PB, PC, and PD are multiplied when a signal corresponding to the left eye is derived, and α 3DR , β 3DR , γ 3DR and δ 3DR represent coefficients (arbitrary real numbers) by which the signals PA, PB, PC, and PD are multiplied when a signal corresponding to the right eye is derived, respectively.

また、第1の立体画像と異なる視差の第2の立体画像を形成する合成信号3D´Leftと合成信号3D´Rightを、合成信号3DLeftと合成信号3DRightと同時に生成できる。つまり、本実施形態に係る固体撮像装置であれば、視差の異なる複数の立体画像を同時に形成できる。もちろん、複数の立体画像を別々に形成することもできる。 Further, a composite signal 3D' Left and synthesized signal 3D' Right to form a second three-dimensional image of the parallax different from the first three-dimensional image, the composite signal 3D Left synthetic signal 3D Right simultaneously be generated. That is, the solid-state imaging device according to the present embodiment can simultaneously form a plurality of stereoscopic images with different parallaxes. Of course, a plurality of stereoscopic images can be formed separately.

平面画像を形成する合成信号2Dは、式3で表される。   A composite signal 2D for forming a planar image is expressed by Equation 3.

α2D、β2D、γ2D、δ2Dは平面画像を取得する際に信号PA、PB、PC、PDに乗算する係数(任意の実数)を表している。本実施形態によれば、合成信号2Dも、立体画像形成用の合成信号と同時に生成できる。もちろん、平面画像を立体画像と別々に形成することもできる。 α 2D , β 2D , γ 2D , and δ 2D represent coefficients (arbitrary real numbers) by which the signals PA, PB, PC, and PD are multiplied when a planar image is acquired. According to the present embodiment, the composite signal 2D can be generated simultaneously with the composite signal for stereoscopic image formation. Of course, the planar image can be formed separately from the stereoscopic image.

[平面画像取得モード]
図18及び図19は平面画像を取得する場合の2つの例(平面モード1、平面モード2)の条件を表している。
[Plane image acquisition mode]
18 and 19 show conditions of two examples (planar mode 1 and planar mode 2) when a planar image is acquired.

(平面モード1)
図18(a)及び(b)に示すように、平面モード1では、カメラレンズ102の透過領域B及びCを通過した光によって生じる信号PBとPCの2種類の信号を用いる。係数を式4のように定めると、合成信号2Dは式5のように表される。
(Plane mode 1)
As shown in FIGS. 18A and 18B, in the plane mode 1, two types of signals PB and PC generated by the light that has passed through the transmission regions B and C of the camera lens 102 are used. When the coefficient is determined as in Expression 4, the combined signal 2D is expressed as in Expression 5.

その結果、合成信号2Dは図18(c)に表される合成感度1500として得られる。   As a result, the synthesized signal 2D is obtained as a synthesized sensitivity 1500 shown in FIG.

図19(a)及び(b)に示すように、平面モード2では、カメラレンズ102の透過領域A、B、C、Dを通過した光によって生じる信号PA、PB、PC、PDの4種類の信号を用いる。係数を式6のように定めると、合成信号2Dは式7のように表される。   As shown in FIGS. 19A and 19B, in the plane mode 2, four types of signals PA, PB, PC, and PD generated by light that has passed through the transmission areas A, B, C, and D of the camera lens 102 are obtained. Use the signal. When the coefficient is determined as in Expression 6, the combined signal 2D is expressed as in Expression 7.

その結果、合成信号2Dは図19(c)に表される合成感度1502として得られる。   As a result, the synthesized signal 2D is obtained as a synthesized sensitivity 1502 shown in FIG.

なお、式4及び式6で示した合成信号2Dの係数の値は例示である。つまり、係数は上述した値に限定されるものではなく、あらゆる数値の組み合わせによる平面画像出力が可能である。また、式5と式7で表される合成信号を同時に出力することも出来るし、別々に出力することも出来る。   Note that the values of the coefficients of the combined signal 2D shown in Expression 4 and Expression 6 are examples. That is, the coefficient is not limited to the above-described values, and a flat image output by any combination of numerical values is possible. In addition, the combined signals represented by Expression 5 and Expression 7 can be output simultaneously, or can be output separately.

[立体画像取得モード]
図20から図24は立体画像を取得する場合の5種類のモード(立体モード1〜5)の条件を表している。
[Stereoscopic image acquisition mode]
20 to 24 show conditions of five types of modes (stereo modes 1 to 5) when a stereo image is acquired.

(立体モード1)
図20(a)及び(b)に示すように、立体モード1では、カメラレンズ102の透過領域B、Cを通過した光によって生じる信号PB、PCの2種類の信号を用いる。左目対応の合成信号3DLeftの係数を式8、右目対応の合成信号3DRightの係数を式9のように定めると、合成信号はそれぞれ、式10及び式11のように表される。
(3D mode 1)
As shown in FIGS. 20A and 20B, in the stereoscopic mode 1, two types of signals PB and PC generated by light passing through the transmission regions B and C of the camera lens 102 are used. When the coefficient of the composite signal 3D Left corresponding to the left eye is determined as shown in Expression 8 and the coefficient of the composite signal 3D Right corresponding to the right eye is determined as shown in Expression 9, the combined signals are expressed as Expression 10 and Expression 11, respectively.

図20(c)に示すように、この場合、合成信号3DLeftは入射角度約5°において最も高い感度を示し、合成信号3DRightは入射角度約−5°において最も高い感度を示している。 As shown in FIG. 20 (c), in this case, the composite signal 3D Left showed the highest sensitivity at the incident angle of about 5 °, the combined signal 3D Right has the highest sensitivity at the incident angle of approximately -5 °.

(立体モード2)
図21(a)及び(b)に示すように、立体モード2では、カメラレンズ102の透過領域A、B、C、Dを通過した光によって生じる信号PA、PB、PC、PDの4種類の信号を用いる。左目対応の合成信号3DLeftの係数を式12、右目対応の合成信号3DRightの係数を式13のように定めると、合成信号はそれぞれ、式14及び式15のように表される。
(3D mode 2)
As shown in FIGS. 21A and 21B, in the stereoscopic mode 2, four types of signals PA, PB, PC, and PD generated by light passing through the transmission areas A, B, C, and D of the camera lens 102 are obtained. Use the signal. When the coefficient of the composite signal 3D Left corresponding to the left eye is determined as shown in Expression 12 and the coefficient of the composite signal 3D Right corresponding to the right eye is determined as shown in Expression 13, the combined signals are expressed as Expression 14 and Expression 15, respectively.

図21(c)に示すように、この場合、合成信号3DLeftは入射角度約7°において最も高い感度を示し、合成信号3DRightは入射角度約−7°において最も高い感度を示している。 As shown in FIG. 21C, in this case, the synthesized signal 3D Left shows the highest sensitivity at an incident angle of about 7 °, and the synthesized signal 3D Right shows the highest sensitivity at an incident angle of about −7 °.

(立体モード3)
図22(a)及び(b)に示すように、立体モード3では、カメラレンズ102の透過領域A、B、C、Dを通過した光によって生じる信号PA、PB、PC、PDの4種類の信号を用いる。左目対応の合成信号3DLeftの係数を式16、右目対応の合成信号3DRightの係数を式17のように定めると、合成信号はそれぞれ、式18及び式19のように表される。
(3D mode 3)
As shown in FIGS. 22A and 22B, in the stereoscopic mode 3, four types of signals PA, PB, PC, and PD generated by the light that has passed through the transmission regions A, B, C, and D of the camera lens 102 are obtained. Use the signal. When the coefficient of the composite signal 3D Left corresponding to the left eye is defined as Equation 16 and the coefficient of the composite signal 3D Right corresponding to the right eye is defined as Equation 17, the composite signal is expressed as Equation 18 and Equation 19, respectively.

図22(c)に示すように、この場合、合成信号3DLeftは入射角度約13°において最も高い感度を示し、合成信号3DRightは入射角度約−13°において最も高い感度を示している。 As shown in FIG. 22C, in this case, the synthesized signal 3D Left shows the highest sensitivity at an incident angle of about 13 °, and the synthesized signal 3D Right shows the highest sensitivity at an incident angle of about −13 °.

(立体モード4)
図23(a)及び(b)に示すように、立体モード4では、カメラレンズ102の透過領域A、Dを通過した光によって生じる信号PA、PDの2種類の信号を用いる。左目対応の合成信号3DLeftの係数を式20、右目対応の合成信号3DRightの係数を式21のように定めると、合成信号はそれぞれ、式22及び式23のように表される。
(3D mode 4)
As shown in FIGS. 23A and 23B, in the stereoscopic mode 4, two types of signals PA and PD generated by light passing through the transmission areas A and D of the camera lens 102 are used. If the coefficient of the composite signal 3D Left corresponding to the left eye is defined as Equation 20 and the coefficient of the composite signal 3D Right corresponding to the right eye is defined as Equation 21, the composite signal is expressed as Equation 22 and Equation 23, respectively.

図23(c)に示すように、この場合、合成信号3DLeftは入射角度約13°において最も高い感度を示し、合成信号3DRightは入射角度約−13°において最も高い感度を示している。 As shown in FIG. 23C , in this case, the synthesized signal 3D Left shows the highest sensitivity at an incident angle of about 13 °, and the synthesized signal 3D Right shows the highest sensitivity at an incident angle of about −13 °.

(立体モード5)
図24(a)及び(b)に示すように、立体モード5では、カメラレンズ102の透過領域A、B、C、Dを通過した光によって生じる信号PA、PB、PC、PDの4種類の信号を用いる。左目対応の合成信号3DLeftの係数を式24、右目対応の合成信号3DRightの係数を式25のように定めると、合成信号はそれぞれ、式26及び式27のように表される。
(3D mode 5)
As shown in FIGS. 24A and 24B, in the stereoscopic mode 5, four types of signals PA, PB, PC, and PD generated by light passing through the transmission areas A, B, C, and D of the camera lens 102 are obtained. Use the signal. When the coefficient of the composite signal 3D Left corresponding to the left eye is determined as shown in Expression 24 and the coefficient of the composite signal 3D Right corresponding to the right eye is determined as shown in Expression 25, the combined signals are expressed as Expression 26 and Expression 27, respectively.

図24(c)に示すように、この場合、合成信号3DLeftは入射角度約7°から13°にかけて最も高い感度を示し、合成信号3DRightは入射角度約−7°から−13°にかけて最も高い感度を示している。 As shown in FIG. 24C , in this case, the combined signal 3D Left shows the highest sensitivity from an incident angle of about 7 ° to 13 °, and the combined signal 3D Right is the highest from an incident angle of about −7 ° to −13 °. High sensitivity is shown.

立体モード1から立体モード4に移行するに従い、カメラレンズ102の外縁寄りの透過領域A、Dを通過する入射光により生じる信号PA、PDに乗ずる係数を高める一方、カメラレンズ102の中心寄りの透過領域B、Cを通過する入射光により生じる信号PB、PCに乗ずる係数を小さくする。そうすることで、動的に右目として扱う信号の平均入射角度すなわち右目重心と、左目として扱う信号の平均入射角度すなわち左目重心との間隔を電子的な制御で広めることが可能になる。このような信号処理を行うことで自由自在に目の間隔を制御でき、観察者にとって最適な立体感の立体画像を得ることができる。   As the mode shifts from the stereoscopic mode 1 to the stereoscopic mode 4, the coefficient multiplied by the signals PA and PD generated by the incident light passing through the transmission areas A and D near the outer edge of the camera lens 102 is increased, while the transmission near the center of the camera lens 102 is increased. The coefficients multiplied by the signals PB and PC generated by the incident light passing through the regions B and C are reduced. By doing so, it becomes possible to widen the interval between the average incident angle of the signal handled dynamically as the right eye, that is, the right eye centroid, and the average incident angle of the signal handled as the left eye, that is, the left eye centroid, by electronic control. By performing such signal processing, the distance between the eyes can be freely controlled, and a stereoscopic image having the optimal stereoscopic effect for the observer can be obtained.

また、立体モード5においては、他のモードと比較して、図24(c)に示すように広い入射角度に対して高感度な立体画像を撮像できる。   Also, in the stereoscopic mode 5, as compared with other modes, a highly sensitive stereoscopic image can be taken with respect to a wide incident angle as shown in FIG.

なお、本実施形態における合成信号の係数の値は例示である。つまり、係数は上述した値に限定されるものではなく、あらゆる数値の組み合わせによる画像出力が可能である。   In addition, the value of the coefficient of the composite signal in this embodiment is an example. That is, the coefficients are not limited to the above-described values, and image output by any combination of numerical values is possible.

(使用画素の選択方法)
次に、使用する信号の選択方法について説明する。使用する信号の選択は固体撮像装置の内部又は外部、撮像装置の外部のどこで行ってもよい。
(Selection method of used pixels)
Next, a method for selecting a signal to be used will be described. The signal to be used may be selected anywhere inside or outside the solid-state imaging device or outside the imaging device.

例えば、固体撮像装置の内部で行う場合の一例を図25に示す。画素2202が画素部2200に行列状に配置されている。選択行制御線2204を介して垂直走査回路2211によって選択された行に配置された画素2202で光電変換されたアナログ信号(画素信号)が列信号線2205に出力される。列信号線2205に接続されたADコンバータ2206によって、当該アナログ信号はデジタル信号へ変換される。使用画素選択部2214は、使用するデジタル信号のみを選択し、マルチプレクサ回路2208が選択的に水平走査回路2210へ出力する。   For example, FIG. 25 shows an example of the case where it is performed inside a solid-state imaging device. Pixels 2202 are arranged in a matrix in the pixel portion 2200. An analog signal (pixel signal) photoelectrically converted by the pixel 2202 arranged in the row selected by the vertical scanning circuit 2211 via the selected row control line 2204 is output to the column signal line 2205. The analog signal is converted into a digital signal by the AD converter 2206 connected to the column signal line 2205. The use pixel selection unit 2214 selects only the digital signal to be used, and the multiplexer circuit 2208 selectively outputs it to the horizontal scanning circuit 2210.

図25は、信号PB、PCのみを出力している場合を示した図である。水平走査回路2210に出力された信号は、入力I/F2212に入力される。このように、固体撮像装置から必要な信号のみを取得し、転送データを減らすことで、信号処理速度を向上できる。   FIG. 25 is a diagram showing a case where only signals PB and PC are output. The signal output to the horizontal scanning circuit 2210 is input to the input I / F 2212. In this way, by acquiring only necessary signals from the solid-state imaging device and reducing transfer data, the signal processing speed can be improved.

図26は、全信号PA、PB、PC、PDを一旦、固体撮像装置から出力した後、固体撮像装置、又は撮像装置の外部にて使用する信号(信号PB、PC)を選択する場合を示した図である。この場合、ADコンバータ2206で変換された全てのデジタル信号が水平走査回路に出力され、その後、入力I/F2212に入力される。そして、使用する信号の選択は固体撮像装置、又は撮像装置の外部に設けられた外部選択回路2216で行われる。このように、全データを出力して、固体撮像装置の外部、又は撮像装置の外部の記憶媒体に記憶しておけば、撮像後であっても、式1、式2及び式3から任意の合成信号を取得できる。   FIG. 26 shows a case where all signals PA, PB, PC, and PD are once output from the solid-state imaging device, and then the solid-state imaging device or signals (signals PB and PC) to be used outside the imaging device are selected. It is a figure. In this case, all digital signals converted by the AD converter 2206 are output to the horizontal scanning circuit and then input to the input I / F 2212. A signal to be used is selected by a solid-state imaging device or an external selection circuit 2216 provided outside the imaging device. In this way, if all data is output and stored in a storage medium outside the solid-state imaging device or outside the imaging device, any of the equations 1, 2 and 3 can be used even after imaging. A composite signal can be acquired.

(補正行列)
信号PA、PB、PC、PDを式28のように計算することで角度成分を補正することも可能である。
(Correction matrix)
It is also possible to correct the angle component by calculating the signals PA, PB, PC, PD as shown in Equation 28.

ここでαpqは行列の成分であり、p、qはそれぞれ行番号、列番号を示している。式28の例ではp、qは共に1以上、4以下の整数である。つまり、各画素群内のn(ここではn=4)個の画素から出力されたn種類の信号PA、PB、PC、PDに、それぞれ補正係数を乗算した後に合算することで、新たなn種類の信号PA´、PB´、PC´、PD´を生成する。 Here, α pq is a matrix component, and p and q indicate a row number and a column number, respectively. In the example of Expression 28, p and q are both integers of 1 or more and 4 or less. That is, n types of signals PA, PB, PC, and PD output from n (here, n = 4) pixels in each pixel group are multiplied by a correction coefficient and added together to obtain a new n. Kinds of signals PA ′, PB ′, PC ′, PD ′ are generated.

図27は、補正前後の斜入射特性を示す図である。縦軸は感度[a.u.]、横軸は入射角度[°]である。αpqは図26に示す補正前の斜入射特性を使って導く。つまり、隣接画素間でクロストークが生じる入射角度における感度を低減させるように、式28におけるαpqを設定すればよい。例えば、信号PBであれば、入射角度が約−10°以下、及び約0°以上において感度を低下させたPB´を導き出せるα21、α22、α23、α24を適宜設定すればよい。上記手法により得られた補正後の斜入射特性を図27に示す。 FIG. 27 is a diagram showing oblique incidence characteristics before and after correction. The vertical axis represents sensitivity [a. u. The horizontal axis represents the incident angle [°]. α pq is derived using the oblique incidence characteristic before correction shown in FIG. That is, α pq in Expression 28 may be set so as to reduce sensitivity at an incident angle at which crosstalk occurs between adjacent pixels. For example, in the case of the signal PB, α 21 , α 22 , α 23 , and α 24 that can derive PB ′ with reduced sensitivity when the incident angle is about −10 ° or less and about 0 ° or more may be set as appropriate. FIG. 27 shows the corrected oblique incidence characteristic obtained by the above method.

本発明の固体撮像装置は、デジタルスチルカメラ、デジタルビデオカメラ又はカメラ付き携帯機器、医療用または工業用内視鏡カメラ、距離計測カメラなどに利用が可能であり、産業上有用である。   The solid-state imaging device of the present invention can be used for a digital still camera, a digital video camera or a camera-equipped portable device, a medical or industrial endoscope camera, a distance measuring camera, and the like, and is industrially useful.

100 撮像装置
102 カメラレンズ
104 撮像部
106 信号処理部
108 モニタ
110 記録媒体
200 被写体
202 固体撮像装置
204 受光点
300 画素部
302、304 集光素子
302a〜c、304a〜c 集光素子
500 層間膜
502、504、506 カラーフィルタ
600 第1の隔壁
1000 第2の隔壁
1100 配線層
1102 マイクロレンズ
1202 光透過膜
1204 屈折率分布型のマイクロレンズ
1300 光導波路
2200 画素部
2202 画素
2204 選択行制御線
2205 列信号線
2206 ADコンバータ
2208 マルチプレクサ回路
2210 水平走査回路
2211 垂直走査回路
2212 入力I/F
2214 使用画素選択部
2216 外部選択回路
DESCRIPTION OF SYMBOLS 100 Image pick-up device 102 Camera lens 104 Image pick-up part 106 Signal processing part 108 Monitor 110 Recording medium 200 Subject 202 Solid-state image pick-up device 204 Receiving point 300 Pixel part 302, 304 Condensing element 302a-c, 304a-c Condensing element 500 Interlayer film 502 , 504, 506 Color filter 600 First partition 1000 Second partition 1100 Wiring layer 1102 Microlens 1202 Light transmission film 1204 Refractive index distribution type microlens 1300 Optical waveguide 2200 Pixel section 2202 Pixel 2204 Selected row control line 2205 Column signal Line 2206 AD converter 2208 Multiplexer circuit 2210 Horizontal scanning circuit 2211 Vertical scanning circuit 2212 Input I / F
2214 Used pixel selection unit 2216 External selection circuit

Claims (14)

複数の画素が行列状に配置された画素部と、
前記画素部の上方に配置された集光素子と、
信号処理部とを備え、
前記複数の画素はそれぞれ、光電変換部を有し、
前記画素部は、第1の画素群を含む複数の画素群を有し、
前記複数の画素群はそれぞれ、前記複数の画素のうち、同じ行、且つ、隣接するn列(n:3以上の整数)に配置された画素で構成され、
前記信号処理部は、前記第1の画素群内の任意の画素から出力された信号にそれぞれ、任意の実数を乗算した後に合算することで、
第1の平面画像を形成する第1の合成信号と、
第1の立体画像を形成する第2の合成信号及び第3の合成信号とを同時に、又は、別々に生成する
固体撮像装置。
A pixel portion in which a plurality of pixels are arranged in a matrix;
A light condensing element disposed above the pixel portion;
A signal processing unit,
Each of the plurality of pixels has a photoelectric conversion unit,
The pixel portion has a plurality of pixel groups including a first pixel group,
Each of the plurality of pixel groups is composed of pixels arranged in the same row and adjacent n columns (n: an integer of 3 or more) among the plurality of pixels.
The signal processing unit multiplies the signals output from arbitrary pixels in the first pixel group by arbitrary real numbers, respectively, and then adds them.
A first composite signal forming a first planar image;
A solid-state imaging device that generates the second synthesized signal and the third synthesized signal forming the first stereoscopic image simultaneously or separately.
前記信号処理部は、前記第1の画素群内の任意の画素から出力された信号にそれぞれ、任意の実数を乗算した後に合算することで、
第1の立体画像と異なる視差の第2の立体画像を形成する第4の合成信号及び第5の合成信号とを、
前記第1から第3の合成信号と同時に、又は、別々に生成する
請求項1に記載の固体撮像装置。
The signal processing unit multiplies the signals output from arbitrary pixels in the first pixel group by arbitrary real numbers, respectively, and then adds them.
A fourth combined signal and a fifth combined signal that form a second stereoscopic image having a different parallax from the first stereoscopic image;
The solid-state imaging device according to claim 1, wherein the solid-state imaging device is generated simultaneously with or separately from the first to third synthesized signals.
前記集光素子は、複数の凸レンズが並列に並んで配置されたレンチキュラレンズで構成され、
各凸レンズは、前記各凸レンズの下方に配置され、対応する前記画素群へ光を集光する
請求項1又は2に記載の固体撮像装置。
The condensing element is composed of a lenticular lens in which a plurality of convex lenses are arranged in parallel,
The solid-state imaging device according to claim 1, wherein each convex lens is disposed below each convex lens and collects light to the corresponding pixel group.
前記固体撮像装置は、さらに、
前記画素部の上方、且つ、前記集光素子の下方に配置された複数のカラーフィルタを備え、
各画素群内の前記画素の上方には、同じ色の前記カラーフィルタが配置されている
請求項1から3のいずれかに記載の固体撮像装置。
The solid-state imaging device further includes:
A plurality of color filters disposed above the pixel unit and below the light collecting element;
The solid-state imaging device according to claim 1, wherein the color filters of the same color are disposed above the pixels in each pixel group.
前記複数の画素群は、同じ色の前記カラーフィルタが上方に配置された第1の画素群と第2の画素群とを含み、
前記第1の画素群と前記第2の画素群とは列方向に隣接している
請求項4に記載の固体撮像装置。
The plurality of pixel groups include a first pixel group and a second pixel group in which the color filters of the same color are disposed above,
The solid-state imaging device according to claim 4, wherein the first pixel group and the second pixel group are adjacent to each other in a column direction.
前記固体撮像装置は、さらに、
異なる色の前記カラーフィルタ間に配置された第1の隔壁を備え、
前記第1の隔壁は前記カラーフィルタよりも屈折率の低い材料、又は、遮光材料で構成されている
請求項4又は5に記載の固体撮像装置。
The solid-state imaging device further includes:
A first partition disposed between the color filters of different colors;
The solid-state imaging device according to claim 4, wherein the first partition is made of a material having a refractive index lower than that of the color filter or a light shielding material.
前記固体撮像装置は、さらに、
前記画素部の上方、且つ、前記集光素子の下方に配置された配線層と、
前記配線層の上方、且つ、前記集光素子の下方に配置された複数のマイクロレンズとを備える
請求項1から6のいずれかに記載の固体撮像装置。
The solid-state imaging device further includes:
A wiring layer disposed above the pixel portion and below the light collecting element;
The solid-state imaging device according to claim 1, further comprising: a plurality of microlenses arranged above the wiring layer and below the light collecting element.
前記複数のマイクロレンズはそれぞれ、複数の光透過膜を同心構造に配置した屈折率分布型のマイクロレンズである
請求項7に記載の固体撮像装置。
The solid-state imaging device according to claim 7, wherein each of the plurality of microlenses is a refractive index distribution type microlens in which a plurality of light transmission films are arranged in a concentric structure.
前記マイクロレンズは、対応する前記画素の中心軸と、前記同心構造の同心軸とがずれて配置されている屈折率分布型のマイクロレンズを含む
請求項8に記載の固体撮像装置。
The solid-state imaging device according to claim 8, wherein the microlens includes a refractive index distribution type microlens in which a central axis of the corresponding pixel and a concentric axis of the concentric structure are shifted from each other.
前記固体撮像装置は、さらに、
前記画素部の上方、且つ、前記集光素子の下方に配置された配線層と、
前記各画素の上方に配置され、前記配線層を貫くように配置された光導波路とを備え、
請求項1から9のいずれかに記載の固体撮像装置。
The solid-state imaging device further includes:
A wiring layer disposed above the pixel portion and below the light collecting element;
An optical waveguide disposed above each pixel and disposed so as to penetrate the wiring layer;
The solid-state imaging device according to claim 1.
前記固体撮像装置は、さらに、
各画素群内の各画素間の境界上方であって、隣接する前記カラーフィルタ間に配置された第2の隔壁を備え、
前記第2の隔壁は、前記カラーフィルタよりも屈折率の低い材料で構成される
請求項4から9のいずれかに記載の固体撮像装置。
The solid-state imaging device further includes:
A second partition disposed above the boundary between the pixels in each pixel group and disposed between the adjacent color filters;
The solid-state imaging device according to claim 4, wherein the second partition wall is made of a material having a refractive index lower than that of the color filter.
前記信号処理部は、各画素群内のn個の画素から出力されたn種類の信号に、それぞれ補正係数を乗算した後に合算することで、新たなn種類の信号を生成する
請求項1から11のいずれかに記載の固体撮像装置。
The signal processing unit generates new n types of signals by multiplying n types of signals output from n pixels in each pixel group, respectively, after multiplying each by a correction coefficient. The solid-state imaging device according to any one of 11.
前記固体撮像装置は、さらに、使用画素選択部を備え、
前記使用画素選択部は、各画素群内の前記画素から出力された信号のうち、使用する信号のみを選択する
請求項1から12のいずれかに記載の固体撮像装置。
The solid-state imaging device further includes a use pixel selection unit,
The solid-state imaging device according to claim 1, wherein the use pixel selection unit selects only a signal to be used among signals output from the pixels in each pixel group.
請求項1から13のいずれかに記載の固体撮像装置を含む撮像装置であって、
前記撮像装置は、カメラレンズを備え、
前記カメラレンズは仮想的にn個の透過領域に分割され、
前記n個の領域を透過した入射光はそれぞれ、前記集光素子によって、各画素群内のn個の画素のうち、対応する前記画素に集光される
撮像装置。
An imaging apparatus including the solid-state imaging apparatus according to claim 1,
The imaging device includes a camera lens,
The camera lens is virtually divided into n transmission regions,
The incident light that has passed through the n regions is condensed by the light condensing element onto the corresponding pixel among n pixels in each pixel group.
JP2013038383A 2013-02-28 2013-02-28 Solid-state image pickup device and imaging apparatus Pending JP2014165907A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013038383A JP2014165907A (en) 2013-02-28 2013-02-28 Solid-state image pickup device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013038383A JP2014165907A (en) 2013-02-28 2013-02-28 Solid-state image pickup device and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2014165907A true JP2014165907A (en) 2014-09-08

Family

ID=51616088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013038383A Pending JP2014165907A (en) 2013-02-28 2013-02-28 Solid-state image pickup device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2014165907A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016002574A1 (en) * 2014-07-03 2016-01-07 ソニー株式会社 Solid-state imaging element and electronic device
WO2020145218A1 (en) * 2019-01-10 2020-07-16 富士フイルム株式会社 Structure, solid-state imaging element, and image display device
JP2021015984A (en) * 2014-12-18 2021-02-12 ソニー株式会社 Solid-state image pickup device and electronic equipment
JP2021044582A (en) * 2016-01-27 2021-03-18 ソニー株式会社 Photodetection device and electronic device
JP2021145121A (en) * 2020-03-10 2021-09-24 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Solid-state imaging element

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170170222A1 (en) * 2014-07-03 2017-06-15 Sony Corporation Solid-state imaging device and electronic apparatus
US10074682B2 (en) 2014-07-03 2018-09-11 Sony Corporation Phase difference detection in pixels
WO2016002574A1 (en) * 2014-07-03 2016-01-07 ソニー株式会社 Solid-state imaging element and electronic device
US11252360B2 (en) 2014-12-18 2022-02-15 Sony Corporation Solid-state image pickup device and electronic apparatus
US11711629B2 (en) 2014-12-18 2023-07-25 Sony Group Corporation Solid-state image pickup device and electronic apparatus
JP2021015984A (en) * 2014-12-18 2021-02-12 ソニー株式会社 Solid-state image pickup device and electronic equipment
JP7180658B2 (en) 2014-12-18 2022-11-30 ソニーグループ株式会社 Solid-state image sensor and electronic equipment
US11444112B2 (en) 2016-01-27 2022-09-13 Sony Group Corporation Solid-state image pickup device and electronic apparatus having a wall between the first pixel and the second pixel
JP7088272B2 (en) 2016-01-27 2022-06-21 ソニーグループ株式会社 Photodetectors and electronic devices
JP2021044582A (en) * 2016-01-27 2021-03-18 ソニー株式会社 Photodetection device and electronic device
US11776978B2 (en) 2016-01-27 2023-10-03 Sony Group Corporation Solid-state image pickup device and electronic apparatus having a separation wall between the first photodiode and the second photodiode
JPWO2020145218A1 (en) * 2019-01-10 2021-11-04 富士フイルム株式会社 Structure, solid-state image sensor and image display device
WO2020145218A1 (en) * 2019-01-10 2020-07-16 富士フイルム株式会社 Structure, solid-state imaging element, and image display device
US11961860B2 (en) 2019-01-10 2024-04-16 Fujifilm Corporation Structural body, solid-state imaging element, and image display device
KR20210114837A (en) * 2020-03-10 2021-09-24 비스에라 테크놀러지스 컴퍼니 리미티드 Solid-state image sensor
KR102435449B1 (en) * 2020-03-10 2022-08-24 비스에라 테크놀러지스 컴퍼니 리미티드 Solid-state image sensor
JP2021145121A (en) * 2020-03-10 2021-09-24 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Solid-state imaging element
US11631709B2 (en) * 2020-03-10 2023-04-18 Visera Technologies Company Limited Solid-state image sensor

Similar Documents

Publication Publication Date Title
US11082680B2 (en) Imaging apparatus and image sensor array
CN205211754U (en) Image sensor
KR102103983B1 (en) Light field image capturing apparatus including shifted microlens array
KR101824265B1 (en) Stereoscopic imaging method and system that divides a pixel matrix into subgroups
JP6131545B2 (en) Image processing apparatus, imaging apparatus, and image processing program
WO2013136819A1 (en) Image sensor, imaging device and imaging system
JP2014165907A (en) Solid-state image pickup device and imaging apparatus
US20150103144A1 (en) Image processing device, imaging device, and image processing program
JP5584270B2 (en) Imaging device
JPWO2015001788A1 (en) Imaging device
JP6197316B2 (en) Imaging device and imaging apparatus
WO2013136820A1 (en) Imaging element and imaging device
JP5979137B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP5978736B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6234024B2 (en) Imaging device and imaging apparatus
JP5978737B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6205770B2 (en) Imaging device and imaging system
JP6086681B2 (en) Imaging device and imaging apparatus
JP5978735B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP6051568B2 (en) Imaging device and imaging apparatus
JP2013219180A (en) Image sensor and image pick-up device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150225