JP2015162562A - Imaging apparatus and digital camera - Google Patents

Imaging apparatus and digital camera Download PDF

Info

Publication number
JP2015162562A
JP2015162562A JP2014036663A JP2014036663A JP2015162562A JP 2015162562 A JP2015162562 A JP 2015162562A JP 2014036663 A JP2014036663 A JP 2014036663A JP 2014036663 A JP2014036663 A JP 2014036663A JP 2015162562 A JP2015162562 A JP 2015162562A
Authority
JP
Japan
Prior art keywords
photoelectric conversion
imaging
image sensor
imaging element
focus detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014036663A
Other languages
Japanese (ja)
Other versions
JP6458343B2 (en
Inventor
寛信 村田
Hironobu Murata
寛信 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014036663A priority Critical patent/JP6458343B2/en
Publication of JP2015162562A publication Critical patent/JP2015162562A/en
Application granted granted Critical
Publication of JP6458343B2 publication Critical patent/JP6458343B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/17Colour separation based on photon absorption depth, e.g. full colour resolution obtained simultaneously at each pixel location

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform focus detection in a pupil division phase difference manner using infrared light and also to pick up a visible light image.SOLUTION: An imaging apparatus includes: a first imaging element which photoelectrically converts light made incident on a surface side of a semiconductor substrate; a second imaging element which is stacked and arranged on a surface side of the first imaging element, and photoelectrically converts infrared light by using an organic photoelectric film absorbing the infrared light and transmitting the visible light; and a microlens array which is stacked and arranged on the opposite side of the second imaging element from the first imaging element. The first imaging element has a plurality of first pixels which output a first photoelectric conversion signal, and the second imaging element has a plurality of first pixels which output a second photoelectric conversion signal. The second pixels are pixels for focus detection which output a focus detection signal for detecting a focus adjustment state of an imaging optical system in a pupil division phase difference manner, and a light guide which guides the visible light transmitted through the second pixels of the second imaging element to the first pixels of the first imaging element is formed between the second imaging element and first imaging element.

Description

本発明は、撮像装置およびデジタルカメラに関する。   The present invention relates to an imaging apparatus and a digital camera.

可視光(RGB)を光電変換する光電変換部を有する半導体基板の上方に、赤外光を吸収して光電変換する光電変換膜が配置され、可視光画像の撮影と赤外光画像の撮影とを同時に行えるように構成された撮像素子が知られている(特許文献1参照)。   A photoelectric conversion film that absorbs infrared light and performs photoelectric conversion is disposed above a semiconductor substrate having a photoelectric conversion unit that photoelectrically converts visible light (RGB), and captures a visible light image and an infrared light image. There is known an image pickup device configured to be able to simultaneously perform (see Patent Document 1).

特開2012−169676号公報JP 2012-169676 A

上記従来技術では、瞳分割位相差方式による焦点検出を行うことはできなかった。   In the above prior art, focus detection by the pupil division phase difference method cannot be performed.

(1)請求項1に記載の撮像装置は、半導体基板の表面側に入射した光を光電変換して第1光電変換信号を生成し、半導体基板の表面側に形成された配線層を介して第1光電変換信号を出力する第1撮像素子と、第1撮像素子の表面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して第2光電変換信号を生成し、配線層を介して第2光電変換信号を出力する第2撮像素子と、第2撮像素子の第1撮像素子とは反対側に積層配置され、複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイと、を備え、第1撮像素子は、マイクロレンズの各々に対応して設けられ、第1光電変換信号を出力する第1画素を複数有し、第2撮像素子は、マイクロレンズの各々に対応して設けられ、第2光電変換信号を出力する第2画素を複数有し、第2画素は、瞳分割位相差方式により結像光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素であり、第2撮像素子と第1撮像素子との間には、第2撮像素子の第2画素を透過した可視光を第1撮像素子の第1画素に導光する光導波路が形成されていることを特徴とする。
(2)請求項3に記載の撮像装置は、半導体基板の裏面側に入射した光を光電変換して第1光電変換信号を生成し、半導体基板の表面側に形成された配線層を介して第1光電変換信号を出力する裏面照射型の第1撮像素子と、第1撮像素子の裏面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して第2光電変換信号を生成し、配線層を介して第2光電変換信号を出力する第2撮像素子と、第2撮像素子の第1撮像素子とは反対側に積層配置され、複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイと、を備え、第1撮像素子は、マイクロレンズの各々に対応して設けられ、第1光電変換信号を出力する第1画素を複数有し、第2撮像素子は、マイクロレンズの各々に対応して設けられ、第2光電変換信号を出力する第2画素を複数有し、第2画素は、瞳分割位相差方式により結像光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素であることを特徴とする。
(3)請求項7に記載のデジタルカメラは、請求項1〜6のいずれか一項に記載の撮像装置と、第1撮像素子から出力される第1光電変換信号に基づいて画像信号を生成する画像生成手段と、第2撮像素子から出力される第2光電変換信号に基づいて瞳分割位相差方式により結像光学系の焦点調節状態を検出する第1焦点検出手段と、を備えることを特徴とする。
(1) The imaging device according to claim 1 photoelectrically converts light incident on the surface side of the semiconductor substrate to generate a first photoelectric conversion signal, and via a wiring layer formed on the surface side of the semiconductor substrate. Infrared light is photoelectrically converted using a first imaging element that outputs a first photoelectric conversion signal and an organic photoelectric film that is laminated on the surface side of the first imaging element and absorbs infrared light and transmits visible light. The second image sensor that generates the second photoelectric conversion signal and outputs the second photoelectric conversion signal via the wiring layer, and the second image sensor is stacked on the opposite side of the first image sensor, and a plurality of micro-elements are arranged. A microlens array in which lenses are two-dimensionally arranged, and the first imaging element is provided corresponding to each of the microlenses and includes a plurality of first pixels that output a first photoelectric conversion signal, The second image sensor is provided corresponding to each of the micro lenses, and the second light There are a plurality of second pixels that output conversion signals, and the second pixels are focus detection pixels that output focus detection signals for detecting the focus adjustment state of the imaging optical system by the pupil division phase difference method. An optical waveguide that guides visible light transmitted through the second pixel of the second image sensor to the first pixel of the first image sensor is formed between the second image sensor and the first image sensor. It is characterized by.
(2) The imaging device according to claim 3, photoelectrically converts light incident on the back surface side of the semiconductor substrate to generate a first photoelectric conversion signal, and via a wiring layer formed on the front surface side of the semiconductor substrate Infrared light using a back-illuminated first imaging element that outputs a first photoelectric conversion signal and an organic photoelectric film that is laminated on the back side of the first imaging element and absorbs infrared light and transmits visible light The second imaging element that photoelectrically converts the second imaging signal to generate the second photoelectric conversion signal and outputs the second photoelectric conversion signal via the wiring layer is stacked on the opposite side of the second imaging element from the first imaging element. A microlens array in which a plurality of microlenses are two-dimensionally arranged, and a first imaging element is provided corresponding to each of the microlenses and includes a first pixel that outputs a first photoelectric conversion signal. A plurality of second image sensors are provided corresponding to each of the micro lenses. And a second pixel that outputs a second photoelectric conversion signal, and the second pixel outputs a focus detection signal for detecting a focus adjustment state of the imaging optical system by a pupil division phase difference method. It is a pixel for use.
(3) A digital camera according to a seventh aspect generates an image signal based on the imaging device according to any one of the first to sixth aspects and a first photoelectric conversion signal output from the first imaging element. And a first focus detection unit that detects a focus adjustment state of the imaging optical system by a pupil division phase difference method based on a second photoelectric conversion signal output from the second image sensor. Features.

本発明によれば、赤外光を用いた瞳分割位相差方式の焦点検出を行うことができ、且つ可視光画像を撮像することができる。   ADVANTAGE OF THE INVENTION According to this invention, the focus detection of a pupil division | segmentation phase difference system using infrared light can be performed, and a visible light image can be imaged.

デジタルカメラの構成例を説明するブロック図である。It is a block diagram explaining the structural example of a digital camera. 撮像部の概要を説明する図である。It is a figure explaining the outline | summary of an imaging part. (a)はカラーフィルターの配置例を説明する図であり、(b)は第2撮像素子の各画素の出力を説明する図であり、(c)は第1撮像素子の各画素の出力を説明する図である。(A) is a figure explaining the example of arrangement | positioning of a color filter, (b) is a figure explaining the output of each pixel of a 2nd image sensor, (c) is the output of each pixel of a 1st image sensor. It is a figure explaining. 第1の実施の形態において、(a)は撮像部の半導体レイアウトの一例を説明する図であり、(b)は撮像部を切断線A−Bで切断したときの断面図であり、(c)は撮像部を切断線C−Dで切断したときの断面図である。In the first embodiment, (a) is a diagram for explaining an example of a semiconductor layout of an imaging unit, (b) is a cross-sectional view when the imaging unit is cut along a cutting line AB, and (c) ) Is a cross-sectional view when the imaging unit is cut along a cutting line CD. (a)は撮像部を切断線A−Bで切断したときの断面図であり、(b)は第2撮像素子における切断線A−Bの画素位置を説明する図である。(A) is sectional drawing when an imaging part is cut | disconnected by cutting line AB, (b) is a figure explaining the pixel position of cutting line AB in a 2nd image pick-up element. (a)は撮像部を切断線C−Dで切断したときの断面図であり、(b)は第2撮像素子における切断線C−Dの画素位置を説明する図である。(A) is sectional drawing when an imaging part is cut | disconnected by the cutting line CD, (b) is a figure explaining the pixel position of the cutting line CD in a 2nd image pick-up element. 図6(a)の一部を拡大した図である。It is the figure which expanded a part of Fig.6 (a). 撮像部における1つの画素の回路構成を例示する図である。It is a figure which illustrates the circuit structure of one pixel in an imaging part. 焦点検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a focus detection process. 撮影処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of imaging | photography process. 第2の実施の形態において、(a)は撮像部の半導体レイアウトの一例を説明する図であり、(b)は撮像部を切断線A−Bで切断したときの断面図であり、(c)は撮像部を切断線C−Dで切断したときの断面図である。In 2nd Embodiment, (a) is a figure explaining an example of the semiconductor layout of an imaging part, (b) is sectional drawing when an imaging part is cut | disconnected by the cutting line AB, (c) ) Is a cross-sectional view when the imaging unit is cut along a cutting line CD. 変形例による撮像部を切断線C−Dで切断したときの断面図である。It is sectional drawing when the imaging part by a modification is cut | disconnected by the cutting line CD. 変形例による撮像部の概要を説明する図である。It is a figure explaining the outline | summary of the imaging part by a modification.

(第1の実施の形態)
図1は、本発明の第1の実施の形態によるデジタルカメラ1の構成を例示する図である。デジタルカメラ1は、撮影光学系10、制御部11、撮像部12、操作部13、液晶モニタ15、およびバッファメモリ16を有する。また、デジタルカメラ1には、メモリカード17が装着されている。
(First embodiment)
FIG. 1 is a diagram illustrating the configuration of a digital camera 1 according to the first embodiment of the invention. The digital camera 1 includes a photographing optical system 10, a control unit 11, an imaging unit 12, an operation unit 13, a liquid crystal monitor 15, and a buffer memory 16. In addition, a memory card 17 is attached to the digital camera 1.

撮影光学系10は、複数のレンズにより構成され、撮像部12の撮像面に被写体像を結像させる。撮影光学系10を構成する複数のレンズには、ピント位置を調節するために光軸方向に駆動されるフォーカスレンズが含まれる。フォーカスレンズは、不図示のレンズ駆動部により光軸方向に駆動される。   The photographing optical system 10 is composed of a plurality of lenses, and forms a subject image on the imaging surface of the imaging unit 12. The plurality of lenses constituting the photographing optical system 10 include a focus lens that is driven in the optical axis direction in order to adjust the focus position. The focus lens is driven in the optical axis direction by a lens driving unit (not shown).

制御部11は、マイクロプロセッサおよびその周辺回路から構成され、不図示のROMに格納された制御プログラムを実行することにより、デジタルカメラ1の各種の制御を行う。また、制御部11は、焦点検出部11aと、画像生成部11bとを機能的に有する。これらの各機能部は、上記の制御プログラムによりソフトウェア的に実装される。なお、これらの各機能部を電子回路により構成することも可能である。   The control unit 11 includes a microprocessor and its peripheral circuits, and performs various controls of the digital camera 1 by executing a control program stored in a ROM (not shown). The control unit 11 functionally includes a focus detection unit 11a and an image generation unit 11b. Each of these functional units is implemented in software by the control program described above. Each of these functional units can also be configured by an electronic circuit.

焦点検出部11aは、撮像部12からの出力信号に基づき、撮影光学系10の焦点調節状態を検出する。画像生成部11bは、撮像部12からの出力信号に基づき、カラー画像信号を生成する。   The focus detection unit 11 a detects the focus adjustment state of the photographing optical system 10 based on the output signal from the imaging unit 12. The image generation unit 11b generates a color image signal based on the output signal from the imaging unit 12.

撮影光学系10によって撮像部12上に結像された被写体像は、撮像部12によって光電変換される。撮像部12からの出力信号は、不図示のA/D変換部でデジタル画像信号に変換され、バッファメモリ16に格納される。   The subject image formed on the imaging unit 12 by the imaging optical system 10 is photoelectrically converted by the imaging unit 12. An output signal from the imaging unit 12 is converted into a digital image signal by an A / D conversion unit (not shown) and stored in the buffer memory 16.

バッファメモリ16に格納されたデジタル画像信号は、各種の画像処理が行われた後、液晶モニタ15に表示されたり、メモリカード17に格納されたりする。メモリカード17は、不揮発性のフラッシュメモリなどから構成され、デジタルカメラ1に対して着脱可能である。   The digital image signal stored in the buffer memory 16 is displayed on the liquid crystal monitor 15 or stored in the memory card 17 after various image processing is performed. The memory card 17 is composed of a non-volatile flash memory or the like and is detachable from the digital camera 1.

操作部13は、レリーズボタンやモード切り替えボタン、電源ボタンなど各種の操作ボタンから構成され、撮影者により操作される。操作部13は、撮影者による上記の各操作ボタンの操作に応じた操作信号を制御部11へ出力する。   The operation unit 13 includes various operation buttons such as a release button, a mode switching button, and a power button, and is operated by a photographer. The operation unit 13 outputs an operation signal corresponding to the operation of each operation button by the photographer to the control unit 11.

<撮像部の説明>
図2は、本実施形態に係る撮像部12の概要を示す図である。なお、図2では、撮像部12の光入射側を上側とした状態を示している。このため、以下の説明では、撮像部12の光入射側の方向を「上方」または「上」とし、光入射側に対して反対側の方向を「下方」または「下」とする。撮像部12は、第1撮像素子31と、第1撮像素子31の光入射側(上側)で同一光路上に配置された第2撮像素子32とを有する。第2撮像素子32は、赤外光を吸収(光電変換)する有機光電膜で構成される。第2撮像素子32で吸収(光電変換)されなかった可視光は、第2撮像素子32を透過して第1撮像素子31に入射し、第1撮像素子31で光電変換される。第1撮像素子31は、フォトダイオードにより光電変換を行う。第2撮像素子32と第1撮像素子31とは同一の半導体基板上に形成され、各画素位置は一対一に対応する。たとえば第2撮像素子32の1行1列目の画素は、第1撮像素子31の1行1列目の画素に対応する。
<Description of imaging unit>
FIG. 2 is a diagram illustrating an overview of the imaging unit 12 according to the present embodiment. FIG. 2 shows a state where the light incident side of the imaging unit 12 is the upper side. Therefore, in the following description, the direction on the light incident side of the imaging unit 12 is “upper” or “upper”, and the direction opposite to the light incident side is “lower” or “lower”. The imaging unit 12 includes a first imaging element 31 and a second imaging element 32 disposed on the same optical path on the light incident side (upper side) of the first imaging element 31. The second imaging element 32 is configured by an organic photoelectric film that absorbs infrared light (photoelectric conversion). Visible light that has not been absorbed (photoelectrically converted) by the second image sensor 32 passes through the second image sensor 32 and enters the first image sensor 31, and is photoelectrically converted by the first image sensor 31. The first image sensor 31 performs photoelectric conversion using a photodiode. The second image sensor 32 and the first image sensor 31 are formed on the same semiconductor substrate, and each pixel position corresponds to one to one. For example, the pixel in the first row and the first column of the second image sensor 32 corresponds to the pixel in the first row and the first column of the first image sensor 31.

図3(a)は、第2撮像素子32の上方に設けられるカラーフィルターCFの配置を示す。図3(b)は、第2撮像素子32の各画素の出力を示す。図3(c)は、第1撮像素子31の各画素の出力を示す。図3(a)〜(c)において、横方向をx軸、縦方向をy軸とし、画素Pの座標をP(x,y)と表記する。   FIG. 3A shows the arrangement of the color filter CF provided above the second image sensor 32. FIG. 3B shows the output of each pixel of the second image sensor 32. FIG. 3C shows the output of each pixel of the first image sensor 31. 3A to 3C, the horizontal direction is the x axis, the vertical direction is the y axis, and the coordinates of the pixel P are represented as P (x, y).

第2撮像素子32の上方には、図3(a)に示すように、赤(R)、緑(G)、青(B)の3色をそれぞれ透過するカラーフィルターCFがいわゆるベイヤ配列で設けられている。このカラーフィルターCFは、RGBいずれかの光のほか、赤外光も透過するように構成されている。なお、カラーフィルターCFの上方には赤外フィルターは設けられていない。具体的には、画素P(1,1)の上方に配置されたカラーフィルターCF(1,1)は、Gの光と赤外光とを透過する。このため、第2撮像素子の画素P(1,1)にはGの光と赤外光が入射される。同様に、画素P(2,1)の上方に配置されたカラーフィルターCF(2,1)は、Bの光と赤外光とを透過する。このため、第2撮像素子の画素P(2,1)にはBの光と赤外光が入射される。   Above the second image sensor 32, as shown in FIG. 3A, a color filter CF that transmits red (R), green (G), and blue (B) is provided in a so-called Bayer array. It has been. The color filter CF is configured to transmit infrared light in addition to any of RGB light. Note that no infrared filter is provided above the color filter CF. Specifically, the color filter CF (1, 1) disposed above the pixel P (1, 1) transmits G light and infrared light. For this reason, G light and infrared light are incident on the pixel P (1,1) of the second image sensor. Similarly, the color filter CF (2, 1) disposed above the pixel P (2, 1) transmits B light and infrared light. For this reason, B light and infrared light are incident on the pixel P (2, 1) of the second image sensor.

図3(b)に示す第2撮像素子32では、各画素Pを、赤外光を光電変換する有機光電膜としている。そのため、各画素Pで赤外光が吸収され、可視光が透過される。たとえば、赤外光およびGの光が入射される画素P(1,1)は、赤外光(IR)を光電変換してGの光を透過する。同様に、赤外光およびBの光が入射される画素P(2,1)は、赤外光(IR)を光電変換してBの光を透過する。赤外光およびRの光が入射される画素P(1,2)は、赤外光(IR)を光電変換してRの光を透過する。また、詳しくは後述するが、第2撮像素子32の各画素Pは、瞳分割位相差方式に対応する焦点検出用画素で構成される。   In the second image sensor 32 shown in FIG. 3B, each pixel P is an organic photoelectric film that photoelectrically converts infrared light. Therefore, each pixel P absorbs infrared light and transmits visible light. For example, the pixel P (1, 1) to which infrared light and G light are incident photoelectrically converts infrared light (IR) and transmits G light. Similarly, the pixel P (2,1) to which the infrared light and B light are incident photoelectrically converts the infrared light (IR) and transmits the B light. The pixels P (1, 2) on which the infrared light and R light are incident photoelectrically convert the infrared light (IR) and transmit the R light. Further, as will be described in detail later, each pixel P of the second image sensor 32 is composed of focus detection pixels corresponding to the pupil division phase difference method.

図3(c)に示す第1撮像素子31では、各画素Pにおいて、第2撮像素子32を透過する可視光を光電変換する。第1撮像素子31において、たとえばGの光が入射される画素P(1,1)ではG成分の画像信号が得られる。同様に、Bの光が入射される画素P(2,1)ではB成分の画像信号、Rの光が入射される画素P(1,2)ではR成分の画像信号がそれぞれ得られる。   In the first image sensor 31 shown in FIG. 3C, the visible light transmitted through the second image sensor 32 is photoelectrically converted in each pixel P. In the first image sensor 31, for example, an image signal of the G component is obtained at the pixel P (1, 1) on which G light is incident. Similarly, a B component image signal is obtained at the pixel P (2,1) where the B light is incident, and an R component image signal is obtained at the pixel P (1,2) where the R light is incident.

このように、本実施形態に係る撮像部12では、有機光電膜で構成される第2撮像素子32が第1撮像素子31に対して赤外フィルターの役割を果たす。したがって、従来のデジタルカメラにおいて撮像素子の手前に設置していた赤外フィルターを省略することができる。   As described above, in the imaging unit 12 according to the present embodiment, the second imaging element 32 formed of an organic photoelectric film serves as an infrared filter with respect to the first imaging element 31. Therefore, the infrared filter installed in front of the image sensor in the conventional digital camera can be omitted.

また、本実施形態に係る撮像部12では、第1撮像素子31に撮像用画素を配置し、第2撮像素子32に焦点検出用画素を全面に均等に配置している。したがって、撮像用画素の一部に焦点検出用画素を配置する従来技術のように複雑な画素補間処理を行う必要がなく、第2撮像素子32からは赤外光による焦点検出用信号、第1撮像素子31からは可視光によるカラー(RGB)画像信号をそれぞれ独立して得ることができる。なお、撮像部12では、第1撮像素子31と第2撮像素子32とがそれぞれ独立に駆動できるように構成されているので、自由度の高い蓄積時間制御が可能となっている。   Further, in the imaging unit 12 according to the present embodiment, imaging pixels are arranged on the first imaging element 31 and focus detection pixels are arranged uniformly on the entire surface of the second imaging element 32. Therefore, it is not necessary to perform complicated pixel interpolation processing as in the prior art in which focus detection pixels are arranged in a part of the image pickup pixels, and the focus detection signal from the second image pickup element 32, the first A color (RGB) image signal by visible light can be obtained independently from the image sensor 31. Note that the imaging unit 12 is configured such that the first imaging element 31 and the second imaging element 32 can be independently driven, so that accumulation time control with a high degree of freedom is possible.

図4(a)は、撮像部12の半導体レイアウトの一例である。尚、図4(a)は、先に説明した図3の各画素P(1,1)から画素P(2,2)に対応する。図4(b)および図5(a)は、図4(a)の画素P(1,1)および画素(2,1)を水平方向に切断線A−Bで切断したときの断面図である。また、図5(b)は、第2撮像素子32における切断線A−Bの画素位置がわかり易いように描いた図である。切断線A−Bは、光電変換部PC_A(1,1)およびPC_A(2,1)の部分を切断する。図4(c)および図6(a)は、図4(a)の画素P(2,1)および画素(2,2)を垂直方向に切断線C−Dで切断したときの断面図である。また、図6(b)は、第2撮像素子32における切断線C−Dの画素位置がわかり易いように描いた図である。切断線C−Dは、光電変換部PC_A(2,1),PC_B(2,1),PC_A(2,2)およびPC_B(2,2)の部分を切断する。図7は、図6(a)の一部を拡大した図である。   FIG. 4A is an example of a semiconductor layout of the imaging unit 12. 4A corresponds to each pixel P (1,1) to pixel P (2,2) in FIG. 3 described above. 4B and 5A are cross-sectional views when the pixel P (1,1) and the pixel (2,1) of FIG. 4A are cut along the cutting line AB in the horizontal direction. is there. FIG. 5B is a diagram depicting the pixel position of the cutting line AB in the second image sensor 32 so that it can be easily understood. The cutting line AB cuts portions of the photoelectric conversion units PC_A (1, 1) and PC_A (2, 1). 4C and 6A are cross-sectional views when the pixel P (2,1) and the pixel (2,2) of FIG. 4A are cut along the cutting line CD in the vertical direction. is there. FIG. 6B is a diagram depicting the pixel position of the cutting line CD in the second image sensor 32 so that it can be easily understood. The cutting line CD cuts the photoelectric conversion units PC_A (2,1), PC_B (2,1), PC_A (2,2), and PC_B (2,2). FIG. 7 is an enlarged view of a part of FIG.

図5に示すように、第1撮像素子31は、いわゆる表面照射型の撮像素子であり、半導体基板50の表面側に入射した光をフォトダイオードPDにより光電変換し、半導体基板50の表面側に形成された配線層51を介して光電変換信号を出力する。有機光電膜を用いた第2撮像素子32は、第1撮像素子31の上記表面側に積層配置される。また、第2撮像素子32の上方(すなわち第1撮像素子31とは反対側)には、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイが積層配置されている。第1撮像素子31および第2撮像素子32の各画素は、マイクロレンズMLの各々に対応して設けられている。また、第2撮像素子32の各画素と各マイクロレンズMLとの間には、上述したカラーフィルターCFが配置されている。   As shown in FIG. 5, the first image sensor 31 is a so-called surface irradiation type image sensor, and photoelectrically converts light incident on the surface side of the semiconductor substrate 50 by the photodiode PD and A photoelectric conversion signal is output through the formed wiring layer 51. The second image sensor 32 using the organic photoelectric film is stacked on the surface side of the first image sensor 31. A microlens array in which a plurality of microlenses ML are two-dimensionally arranged is stacked above the second imaging element 32 (that is, on the side opposite to the first imaging element 31). Each pixel of the first image sensor 31 and the second image sensor 32 is provided corresponding to each microlens ML. In addition, the above-described color filter CF is disposed between each pixel of the second image sensor 32 and each microlens ML.

第2撮像素子32から出力される光電変換信号は、配線層51を介して信号出力端52から取り出される。信号出力端52の両側は分離層53,54が配置されている。また、分離層53,54を隔ててフォトダイオードPD(1,1)およびPD(2,1)が配置されている。第1撮像素子31の各画素Pは、撮像用画素であり、1つの撮像用画素に対して1つのフォトダイオードPDが設けられている。なお、図4〜図6では、配線層51は3層構造になっているが2層構造であってもよい。   The photoelectric conversion signal output from the second image sensor 32 is taken out from the signal output end 52 via the wiring layer 51. Separation layers 53 and 54 are disposed on both sides of the signal output end 52. Further, the photodiodes PD (1,1) and PD (2,1) are arranged with the separation layers 53 and 54 therebetween. Each pixel P of the first imaging element 31 is an imaging pixel, and one photodiode PD is provided for one imaging pixel. 4 to 6, the wiring layer 51 has a three-layer structure, but may have a two-layer structure.

また、図6に示すように、第2撮像素子32の各画素Pは、焦点検出用画素であり、1つの画素Pが図中縦方向に2分割され、1つの画素Pにつき2つの光電変換部PC_AおよびPC_Bが設けられている。たとえば、画素P(2,1)には、光電変換部PC_A(2,1)と光電変換部PC_B(2,1)が設けられている。具体的には、図7に示すように、画素P(2,1)では、共通電極uと部分電極d_A(2,1)との間に有機光電膜mを挟んで光電変換部PC_A(2,1)が構成される。また、共通電極uと部分電極d_B(2,1)との間に有機光電膜mを挟んで光電変換部PC_B(2,1)が構成される。なお、共通電極uはマイクロレンズML側に配置され、部分電極d_A,d_Bは第1撮像素子31側に配置される。また、共通電極uと部分電極d_A,d_Bは透明電極である。部分電極d_A(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中上側に設けられ、部分電極d_B(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中下側に設けられる。部分電極d_A(2,1)と部分電極d_B(2,1)とは、互いに接しないように、それぞれマイクロレンズML(2,1)の中心O(2,1)から若干の間隔をおいて設けられる。他の画素Pについても同様に構成される。   Further, as shown in FIG. 6, each pixel P of the second image sensor 32 is a focus detection pixel, and one pixel P is divided into two in the vertical direction in the figure, and two photoelectric conversions per one pixel P are performed. Parts PC_A and PC_B are provided. For example, the pixel P (2, 1) is provided with a photoelectric conversion unit PC_A (2, 1) and a photoelectric conversion unit PC_B (2, 1). Specifically, as shown in FIG. 7, in the pixel P (2,1), the photoelectric conversion unit PC_A (2) with the organic photoelectric film m sandwiched between the common electrode u and the partial electrode d_A (2,1). , 1) is configured. In addition, the photoelectric conversion unit PC_B (2, 1) is configured by sandwiching the organic photoelectric film m between the common electrode u and the partial electrode d_B (2, 1). The common electrode u is disposed on the microlens ML side, and the partial electrodes d_A and d_B are disposed on the first imaging element 31 side. The common electrode u and the partial electrodes d_A and d_B are transparent electrodes. The partial electrode d_A (2,1) is provided on the upper side in the drawing with respect to the center O (2,1) of the microlens ML (2,1), and the partial electrode d_B (2,1) is provided on the microlens ML ( 2,1) with respect to the center O (2,1). The partial electrode d_A (2,1) and the partial electrode d_B (2,1) are spaced apart from the center O (2,1) of the microlens ML (2,1) so as not to contact each other. Provided. The other pixels P are similarly configured.

第2撮像素子32の各画素Pは、光電変換部PC_Aと光電変換部PC_Bとにより撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束をそれぞれ受光し、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する。ここで、図5(a)の配線層51は、図6(a)において、配線層51Aと配線層51Bとに対応する。配線層51Aは有機光電膜の光電変換部PC_A(2,1)の信号を信号出力端52Aに出力し、配線層51Bは有機光電膜の光電変換部PC_B(2,1)の信号を信号出力端52Bに出力する。図5(a)の配線層51では、配線層51Aと配線層51Bとが重なっているため1つしか見えていない。   Each pixel P of the second image sensor 32 receives a pair of light beams that have passed through a pair of pupil regions of the imaging optical system 10 by the photoelectric conversion unit PC_A and the photoelectric conversion unit PC_B, respectively, and images by the pupil division phase difference method. A focus detection signal for detecting the focus adjustment state of the optical system 10 is output. Here, the wiring layer 51 in FIG. 5A corresponds to the wiring layer 51A and the wiring layer 51B in FIG. 6A. The wiring layer 51A outputs the signal of the photoelectric conversion unit PC_A (2, 1) of the organic photoelectric film to the signal output terminal 52A, and the wiring layer 51B outputs the signal of the photoelectric conversion unit PC_B (2, 1) of the organic photoelectric film. Output to the end 52B. In the wiring layer 51 of FIG. 5A, only one is visible because the wiring layer 51A and the wiring layer 51B overlap.

第1撮像素子31および第2撮像素子32の同じ位置の画素Pは、同一のマイクロレンズMLから入射する被写体光を受光する。たとえば、図5に示すように、画素P(1,1)に対応するマイクロレンズML(1,1)から入射された被写体光のうち、赤外光およびGの光はカラーフィルターCF(1,1)を透過し、RおよびBの光はカラーフィルターCF(1,1)により遮蔽される。第2撮像素子32において、画素P(1,1)の光電変換部を構成する有機光電膜による光電変換部PC_A(1,1)および光電変換部PC_B(1,1)は、カラーフィルターCF(1,1)を透過した赤外光を光電変換し、Gの光を透過する。第1撮像素子31において、画素P(1,1)を構成するフォトダイオードPD(1,1)は、光電変換部PC(1,1)を透過したGの光を受光して光電変換する。   The pixels P at the same positions of the first image sensor 31 and the second image sensor 32 receive subject light incident from the same microlens ML. For example, as shown in FIG. 5, among the subject light incident from the microlens ML (1, 1) corresponding to the pixel P (1, 1), infrared light and G light are color filters CF (1, 1). 1) is transmitted, and R and B light is shielded by the color filter CF (1, 1). In the second image sensor 32, the photoelectric conversion unit PC_A (1,1) and the photoelectric conversion unit PC_B (1,1) by the organic photoelectric film constituting the photoelectric conversion unit of the pixel P (1,1) are color filters CF ( 1,1) is subjected to photoelectric conversion, and G light is transmitted. In the first image sensor 31, the photodiode PD (1, 1) constituting the pixel P (1, 1) receives G light transmitted through the photoelectric conversion unit PC (1, 1) and performs photoelectric conversion.

また、図5に示すように、第2撮像素子32と第1撮像素子31との間には、第1撮像素子31の隣接する画素間の境界部分(信号出力端52および分離層53,54)の上に、配線層51を内部に含む平坦化層55が形成されている。さらに、第2撮像素子32と第1撮像素子31との間には、第1撮像素子31の各画素PのフォトダイオードPDの上に、平坦化層55よりも高屈折率の材料で構成された光導波路56が形成されている。光導波路56は、第2撮像素子32の各画素Pを透過した可視光を、光導波路56と平坦化層55との境界面57で全反射させ、第1撮像素子31の各画素PのフォトダイオードPDに導光する。また、光導波路56の第2撮像素子32側の寸法は、第1撮像素子31側(フォトダイオードPD側)の寸法よりも大きくなっている。以上のような構成により、第2撮像素子32の各画素を透過した光束同士でクロストークが発生して、第1撮像素子31の1つの画素に第2撮像素子32の複数の画素を通過した光束が入射するのを防止することができる。すなわち、第2撮像素子32および第1撮像素子31の同じ位置の画素が、同一のマイクロレンズMLからの入射光を受光することができる。   Further, as shown in FIG. 5, between the second image sensor 32 and the first image sensor 31, the boundary portion between the adjacent pixels of the first image sensor 31 (the signal output end 52 and the separation layers 53 and 54). ), A planarization layer 55 including the wiring layer 51 therein is formed. Further, the second image sensor 32 and the first image sensor 31 are made of a material having a higher refractive index than the planarizing layer 55 on the photodiode PD of each pixel P of the first image sensor 31. An optical waveguide 56 is formed. The optical waveguide 56 totally reflects the visible light transmitted through each pixel P of the second image sensor 32 at the boundary surface 57 between the optical waveguide 56 and the planarization layer 55, and the photo of each pixel P of the first image sensor 31. The light is guided to the diode PD. Further, the dimension of the optical waveguide 56 on the second imaging element 32 side is larger than the dimension on the first imaging element 31 side (photodiode PD side). With the configuration described above, crosstalk occurs between the light beams transmitted through the pixels of the second image sensor 32, and a plurality of pixels of the second image sensor 32 pass through one pixel of the first image sensor 31. It is possible to prevent the light beam from entering. That is, the pixels at the same position of the second image sensor 32 and the first image sensor 31 can receive incident light from the same microlens ML.

図8は、撮像部12における1つの画素P(x,y)の回路構成を例示する図である。画素P(x,y)は、第1撮像素子31を構成するための回路として、フォトダイオードPDと、転送トランジスタTxと、リセットトランジスタRと、出力トランジスタSFと、選択トランジスタSELとを有する。フォトダイオードPDは、入射光の光量に応じた電荷を蓄積する。転送トランジスタTxは、フォトダイオードPDに蓄積された電荷を出力トランジスタSF側の浮遊拡散領域(FD部)に転送する。出力トランジスタSFは選択トランジスタSELを介して電流源PWとソースホロワを構成し、FD部に蓄積された電荷に応じた電気信号を出力信号OUTとして垂直信号線VLINEに出力する。なお、リセットトランジスタRは、FD部の電荷を電源電圧Vccにリセットする。   FIG. 8 is a diagram illustrating a circuit configuration of one pixel P (x, y) in the imaging unit 12. The pixel P (x, y) includes a photodiode PD, a transfer transistor Tx, a reset transistor R, an output transistor SF, and a selection transistor SEL as a circuit for configuring the first imaging element 31. The photodiode PD accumulates charges according to the amount of incident light. The transfer transistor Tx transfers the charge accumulated in the photodiode PD to the floating diffusion region (FD portion) on the output transistor SF side. The output transistor SF forms a current source PW and a source follower via the selection transistor SEL, and outputs an electric signal corresponding to the electric charge accumulated in the FD section as an output signal OUT to the vertical signal line VLINE. The reset transistor R resets the charge in the FD portion to the power supply voltage Vcc.

また、画素P(x,y)は、第2撮像素子32を構成するための回路として、有機光電膜による光電変換部PC_A,PC_Bと、リセットトランジスタR_A,R_Bと、出力トランジスタSF_A,SF_Bと、選択トランジスタSEL_A,SEL_Bとを有する。有機光電膜による光電変換部PC_A,PC_Bは、非透過光を光量に応じた電気信号に変換し、選択トランジスタSEL_A,SEL_Bを介して電流源PW_AおよびPW_Bとそれぞれソースホロワを構成する出力トランジスタSF_A,SF_Bを介して出力信号OUT_A,OUT_Bとして垂直信号線VLINE_A,VLINE_Bにそれぞれ出力する。なお、リセットトランジスタR_A,R_Bは、光電変換部PC_A,PC_Bの出力信号をリファレンス電圧Vrefにリセットする。また、有機光電膜の動作用として高電圧Vpcが与えられている。各トランジスタはMOS_FETで構成される。   The pixel P (x, y) includes, as a circuit for configuring the second imaging element 32, photoelectric conversion units PC_A and PC_B using organic photoelectric films, reset transistors R_A and R_B, output transistors SF_A and SF_B, It has selection transistors SEL_A and SEL_B. Photoelectric conversion units PC_A and PC_B using organic photoelectric films convert non-transmitted light into electrical signals according to the amount of light, and output transistors SF_A and SF_B constituting source followers with current sources PW_A and PW_B via selection transistors SEL_A and SEL_B, respectively. Are output to the vertical signal lines VLINE_A and VLINE_B as output signals OUT_A and OUT_B, respectively. Note that the reset transistors R_A and R_B reset the output signals of the photoelectric conversion units PC_A and PC_B to the reference voltage Vref. Further, a high voltage Vpc is applied for the operation of the organic photoelectric film. Each transistor is composed of a MOS_FET.

ここで、第1撮像素子31に係る回路の動作について説明する。まず、選択信号φSELが”High”になると、選択トランジスタSELがオンする。次に、リセット信号φRが”High”になると、FD部で電源電圧Vccにリセットされ、出力信号OUTもリセットレベルになる。そして、リセット信号φRが”Low”になった後、転送信号φTxが”High”になり、フォトダイオードPDに蓄積された電荷がFD部に転送され、出力信号OUTが電荷量に応じて変化し始め、安定する。そして、転送信号φTxが”Low”になり、画素から垂直信号線VLINEに読み出される出力信号OUTの信号レベルが確定する。そして、垂直信号線VLINEに読み出された各画素の出力信号OUTは、不図示の水平出力回路に行毎に一時的に保持された後、撮像部12から出力される。このようにして、撮像部12の第1撮像素子31の各画素から信号が読み出される。   Here, the operation of the circuit relating to the first image sensor 31 will be described. First, when the selection signal φSEL becomes “High”, the selection transistor SEL is turned on. Next, when the reset signal φR becomes “High”, the FD section resets the power supply voltage Vcc, and the output signal OUT also becomes the reset level. Then, after the reset signal φR becomes “Low”, the transfer signal φTx becomes “High”, the charge accumulated in the photodiode PD is transferred to the FD portion, and the output signal OUT changes according to the amount of charge. Start and stabilize. Then, the transfer signal φTx becomes “Low”, and the signal level of the output signal OUT read from the pixel to the vertical signal line VLINE is determined. The output signal OUT of each pixel read to the vertical signal line VLINE is temporarily held for each row in a horizontal output circuit (not shown) and then output from the imaging unit 12. In this way, a signal is read from each pixel of the first image sensor 31 of the imaging unit 12.

また、第2撮像素子32に係る回路の動作について説明する。まず、選択信号φSEL_A(またはφSEL_B)が”High”になると、選択トランジスタSEL_A(またはSEL_B)がオンする。次にリセット信号φR_A(またはφR_B)が”High”になり、出力信号OUT_A(またはφOUT_B)もリセットレベルになる。そして、リセット信号φR_A(またはφR_B)が”Low”になった直後から有機光電膜による光電変換部PC_A(またはPC_B)の電荷蓄積が開始され、電荷量に応じて出力信号OUT_A(または出力信号OUT_B)が変化する。そして、出力信号OUT_A(または出力信号OUT_B)が不図示の水平出力回路に行毎に一時的に保持された後、撮像部12から出力される。このようにして、撮像部12の第2撮像素子32の各画素から信号が読み出される。   The operation of the circuit relating to the second image sensor 32 will be described. First, when the selection signal φSEL_A (or φSEL_B) becomes “High”, the selection transistor SEL_A (or SEL_B) is turned on. Next, the reset signal φR_A (or φR_B) becomes “High”, and the output signal OUT_A (or φOUT_B) also becomes the reset level. Then, immediately after the reset signal φR_A (or φR_B) becomes “Low”, the charge accumulation of the photoelectric conversion unit PC_A (or PC_B) by the organic photoelectric film is started, and the output signal OUT_A (or the output signal OUT_B) according to the amount of charge. ) Will change. The output signal OUT_A (or the output signal OUT_B) is temporarily held for each row in a horizontal output circuit (not shown), and then output from the imaging unit 12. In this way, a signal is read from each pixel of the second image sensor 32 of the imaging unit 12.

<焦点検出処理>
次に、制御部11により実行される焦点検出処理の流れを、図9に示すフローチャートを用いて説明する。図9に示す焦点検出処理は、制御部11が実行する制御プログラムに含まれる。撮影者により所定の焦点検出操作(例えばレリーズボタンを半押しする操作など)が行われると、制御部11は、図9に示す焦点検出処理を開始する。
<Focus detection processing>
Next, the flow of the focus detection process executed by the control unit 11 will be described using the flowchart shown in FIG. The focus detection process illustrated in FIG. 9 is included in a control program executed by the control unit 11. When a predetermined focus detection operation (for example, an operation of pressing the release button halfway) is performed by the photographer, the control unit 11 starts a focus detection process illustrated in FIG.

まず、ステップS1で撮像部12に被写体像を撮像させる。これにより、第1撮像素子31および第2撮像素子32のそれぞれから光電変換信号が出力される。   First, in step S1, the imaging unit 12 is caused to capture a subject image. Thereby, a photoelectric conversion signal is output from each of the first image sensor 31 and the second image sensor 32.

ステップS2において、焦点検出部11aは、第2撮像素子32から出力された赤外光による焦点検出信号に基づいて、瞳分割位相差方式による焦点検出処理を実行し、撮影光学系10の焦点調節状態を示すデフォーカス量を算出する。なお、瞳分割位相差方式による焦点検出処理については周知技術であるため、詳細な説明は省略する。   In step S <b> 2, the focus detection unit 11 a performs focus detection processing by the pupil division phase difference method based on the focus detection signal by infrared light output from the second image sensor 32, and adjusts the focus of the imaging optical system 10. A defocus amount indicating the state is calculated. Since focus detection processing by the pupil division phase difference method is a well-known technique, detailed description thereof is omitted.

ステップS3において、制御部11は、ステップS2の焦点検出処理によってデフォーカス量が算出できたか、すなわち焦点検出できたかを判定する。焦点検出できた場合には、制御部11は、ステップS3を肯定判定してステップS4へ進む。一方、焦点検出できなかった場合には、制御部11は、ステップS3を否定判定してステップS6へ進む。   In step S3, the control unit 11 determines whether the defocus amount has been calculated by the focus detection process in step S2, that is, whether the focus has been detected. If the focus can be detected, the control unit 11 makes a positive determination in step S3 and proceeds to step S4. On the other hand, if the focus cannot be detected, the control unit 11 makes a negative determination in step S3 and proceeds to step S6.

ステップS4において、焦点検出部11aは、ステップS2で算出されたデフォーカス量に基づいて、不図示のレンズ駆動部を制御して、撮影光学系10のフォーカスレンズを駆動させ、合焦位置へ移動させる。   In step S4, the focus detection unit 11a controls a lens driving unit (not shown) based on the defocus amount calculated in step S2, drives the focus lens of the photographing optical system 10, and moves to the in-focus position. Let

ステップS5において、制御部11は、焦点検出処理の終了が指示されたか否かを判定する。焦点検出処理の終了が指示された場合にはステップS5を肯定判定して、制御部11は、焦点検出処理を終了する。一方、焦点検出処理の終了が指示されていない場合にはステップS5を否定判定して、制御部11は、ステップS1に戻る。   In step S5, the control unit 11 determines whether or not an instruction to end the focus detection process is given. When the end of the focus detection process is instructed, step S5 is affirmed and the control unit 11 ends the focus detection process. On the other hand, when the end of the focus detection process is not instructed, the determination in step S5 is negative, and the control unit 11 returns to step S1.

ステップS3が否定判定された場合に進むステップS6において、焦点検出部11aは、第2撮像素子32の各画素Pにおいて、隣接する2つの光電変換部PC_A,PC_Bから出力される光電変換信号を加算して、1つの画素Pにつき1つの信号を生成する。これにより、第2撮像素子32で撮像された赤外光画像を取得することができる。   In step S6 that proceeds when a negative determination is made in step S3, the focus detection unit 11a adds the photoelectric conversion signals output from the two adjacent photoelectric conversion units PC_A and PC_B in each pixel P of the second image sensor 32. Thus, one signal is generated for each pixel P. Thereby, the infrared light image imaged with the 2nd image sensor 32 is acquirable.

ステップS7において、焦点検出部11aは、ステップS6で取得した赤外光画像に基づいて、コントラスト方式による焦点検出処理を実行する。具体的には、焦点検出部11aは、取得した赤外光画像に基づいて、焦点評価値(コントラスト値)を演算する。なお、コントラスト方式を簡単に説明すると、フォーカスレンズを駆動させながら周期的に被写体像を撮像し、フォーカスレンズの位置ごとの被写体像のコントラスト量を調べ、コントラスト量が極大となるフォーカスレンズの位置を合焦位置として特定する方式である。   In step S7, the focus detection unit 11a performs a focus detection process by a contrast method based on the infrared light image acquired in step S6. Specifically, the focus detection unit 11a calculates a focus evaluation value (contrast value) based on the acquired infrared light image. To briefly explain the contrast method, the subject lens is picked up periodically while driving the focus lens, the contrast amount of the subject image is examined for each focus lens position, and the position of the focus lens where the contrast amount is maximized is determined. This is a method for specifying the in-focus position.

ステップS8において、焦点検出部11aは、ステップS7で演算した焦点評価値に基づいてフォーカスレンズが合焦位置にあるか、すなわち焦点検出されたかを判定する。フォーカスレンズが合焦位置にあると判定された場合には、制御部11は、ステップS8を肯定判定して、ステップS5へ進む。一方、フォーカスレンズが合焦位置にないと判定された場合、または、赤外光信号による焦点検出を行えないと判定された場合には、制御部11は、ステップS8を否定判定して、ステップS9へ進む。   In step S8, the focus detection unit 11a determines whether the focus lens is in the focused position, that is, whether the focus is detected, based on the focus evaluation value calculated in step S7. If it is determined that the focus lens is in the in-focus position, the control unit 11 makes a positive determination in step S8 and proceeds to step S5. On the other hand, if it is determined that the focus lens is not in the in-focus position, or if it is determined that focus detection cannot be performed using an infrared light signal, the control unit 11 makes a negative determination in step S8 and performs step Proceed to S9.

ステップS9において、焦点検出部11aは赤外光信号による焦点検出が可能か否かを判定する。赤外光信号で焦点検出できない、もしくは精度が足りない、もしくは可視光での焦点検出が必要であると判定された場合には、制御部11は、ステップS9を否定判定してステップS11へ進む。一方、赤外光信号による焦点検出が可能であると判定された場合には、制御部11は、ステップS9を肯定判定してステップS10へ進む。   In step S9, the focus detection unit 11a determines whether focus detection using an infrared light signal is possible. When it is determined that the focus cannot be detected with the infrared light signal, or the accuracy is insufficient, or the focus detection with visible light is necessary, the control unit 11 makes a negative determination in step S9 and proceeds to step S11. . On the other hand, if it is determined that focus detection using an infrared light signal is possible, the control unit 11 makes an affirmative determination in step S9 and proceeds to step S10.

ステップS10において、焦点検出部11aは、いわゆる山登り動作によって合焦位置を探索するために、不図示のレンズ駆動部を制御して、フォーカスレンズを所定方向に所定量だけ駆動させて、ステップS6に戻る。すなわち、焦点検出部11aは、ステップS6〜S10を繰り返して、焦点評価値が極大となるフォーカスレンズの位置、すなわち合焦位置を探索して、合焦位置にフォーカスレンズを駆動させる。   In step S10, the focus detection unit 11a controls a lens driving unit (not shown) to drive the focus lens by a predetermined amount in a predetermined direction in order to search for a focus position by a so-called hill climbing operation, and then proceeds to step S6. Return. That is, the focus detection unit 11a repeats steps S6 to S10 to search for the position of the focus lens where the focus evaluation value is maximized, that is, the focus position, and drives the focus lens to the focus position.

ステップS9が否定判定された場合に進むステップS11において、焦点検出部11aは、第1撮像素子31で撮像された可視光画像に基づいて、コントラスト方式による焦点検出処理を実行する。具体的には、焦点検出部11aは、取得した可視光画像に基づいて、焦点評価値(コントラスト値)を演算する。   In step S <b> 11 that proceeds when a negative determination is made in step S <b> 9, the focus detection unit 11 a performs focus detection processing by a contrast method based on the visible light image captured by the first image sensor 31. Specifically, the focus detection unit 11a calculates a focus evaluation value (contrast value) based on the acquired visible light image.

ステップS12において、焦点検出部11aは、ステップS11で演算した焦点評価値に基づいて、フォーカスレンズが合焦位置にあるか、すなわち焦点検出されたかを判定する。フォーカスレンズが合焦位置にあると判定された場合には、制御部11は、ステップS12を肯定判定して、ステップS5へ進む。一方、フォーカスレンズが合焦位置にないと判定された場合には、制御部11は、ステップS12を否定判定して、ステップS13へ進む。   In step S12, the focus detection unit 11a determines whether the focus lens is in the focused position, that is, whether the focus is detected, based on the focus evaluation value calculated in step S11. If it is determined that the focus lens is in the in-focus position, the control unit 11 makes a positive determination in step S12 and proceeds to step S5. On the other hand, if it is determined that the focus lens is not at the in-focus position, the control unit 11 makes a negative determination in step S12 and proceeds to step S13.

ステップS13において、焦点検出部11aは、いわゆる山登り動作によって合焦位置を探索するために、不図示のレンズ駆動部を制御して、フォーカスレンズを所定方向に所定量だけ駆動させて、ステップS11に戻る。すなわち、焦点検出部11aは、ステップS11〜S13を繰り返して、焦点評価値が極大となるフォーカスレンズの位置、すなわち合焦位置を探索して、合焦位置にフォーカスレンズを駆動させる。   In step S13, the focus detection unit 11a controls a lens driving unit (not shown) to drive the focus lens by a predetermined amount in a predetermined direction in order to search for the in-focus position by so-called hill climbing operation, and then proceeds to step S11. Return. In other words, the focus detection unit 11a repeats steps S11 to S13, searches for the position of the focus lens where the focus evaluation value is maximized, that is, the focus position, and drives the focus lens to the focus position.

このように、本実施形態のデジタルカメラ1では、撮像部12からの出力信号に基づいて以下の3種類の焦点検出処理を行うことができ、以下の3種類の焦点検出処理を適宜使い分けることができる。
(1)第2撮像素子32からの赤外光信号に基づく瞳分割位相差方式による焦点検出処理
(2)第2撮像素子32からの赤外光信号に基づくコントラスト方式による焦点検出処理
(3)第1撮像素子31からの可視光信号に基づくコントラスト方式による焦点検出処理
Thus, in the digital camera 1 of the present embodiment, the following three types of focus detection processing can be performed based on the output signal from the imaging unit 12, and the following three types of focus detection processing can be used appropriately. it can.
(1) Focus detection process based on the pupil division phase difference method based on the infrared light signal from the second image sensor 32 (2) Focus detection process based on the contrast method based on the infrared light signal from the second image sensor 32 (3) Focus detection processing by a contrast method based on a visible light signal from the first image sensor 31

<撮影処理>
図10は、制御部11が実行する撮影処理の流れを説明するフローチャートである。制御部11は、メインスイッチがオン操作されると、撮像部12に所定のフレームレートで光電変換を開始させ、画像信号に基づくスルー画像を液晶モニタ15に逐次再生表示させると共に、図10に例示した処理を実行するプログラムを起動する。なお、スルー画像は、撮影指示前に取得するモニタ用の画像である。
<Shooting process>
FIG. 10 is a flowchart for explaining the flow of imaging processing executed by the control unit 11. When the main switch is turned on, the control unit 11 causes the imaging unit 12 to start photoelectric conversion at a predetermined frame rate, and sequentially reproduces and displays a through image based on the image signal on the liquid crystal monitor 15, as illustrated in FIG. 10. Start the program that executes the process. Note that the through image is a monitor image acquired before an imaging instruction.

図10のステップS21において、制御部11は、撮影指示が行われたか否かを判定する。制御部11は、レリーズボタンが押下操作されると、ステップS21を肯定判定してステップS22へ進む。制御部11は、レリーズボタンが押下操作されない場合には、ステップS21を否定判定してステップS28へ進む。   In step S <b> 21 of FIG. 10, the control unit 11 determines whether a shooting instruction has been issued. When the release button is pressed, the control unit 11 makes a positive determination in step S21 and proceeds to step S22. If the release button is not pressed, the control unit 11 makes a negative determination in step S21 and proceeds to step S28.

ステップS28において、制御部11は、タイムアップか否かを判定する。制御部11は、所定時間(たとえば、5秒)を計時した場合にステップS28を肯定判定して図9による処理を終了する。制御部11は、計時時間が所定時間に満たない場合には、ステップS28を否定判定してステップS21へ戻る。   In step S28, the control unit 11 determines whether the time is up. The control unit 11 makes an affirmative decision in step S28 when a predetermined time (for example, 5 seconds) is counted, and ends the process of FIG. If the timed time is less than the predetermined time, the control unit 11 makes a negative determination in step S28 and returns to step S21.

ステップS22において、制御部11は、AE処理およびAF処理を行う。AE処理では、上記スルー画像用の画像信号のレベルに基づいて露出演算を行い、適正露出が得られるように絞り値AVとシャッター速度TVを決定する。AF処理は、設定されている焦点検出エリアに含まれる画素列からの出力信号列に基づいて、上述した焦点検出処理を行ってフォーカス調節をする。制御部11は、以上のAE、AF処理を行うとステップS23へ進む。   In step S22, the control unit 11 performs AE processing and AF processing. In the AE process, an exposure calculation is performed based on the level of the image signal for the through image, and an aperture value AV and a shutter speed TV are determined so that an appropriate exposure can be obtained. In the AF process, the focus adjustment is performed by performing the above-described focus detection process based on the output signal string from the pixel string included in the set focus detection area. When the control unit 11 performs the above AE and AF processes, the process proceeds to step S23.

ステップS23において、制御部11は撮影処理を行ってステップS24へ進む。具体的には、上記AVに基づいて不図示の絞りを制御し、上記TVに基づく蓄積時間で撮像部12に記録用の光電変換を行わせる。   In step S23, the control unit 11 performs a photographing process and proceeds to step S24. Specifically, a diaphragm (not shown) is controlled based on the AV, and the imaging unit 12 performs photoelectric conversion for recording in the accumulation time based on the TV.

ステップS24において、制御部11の画像生成部11bは、第1撮像素子31からの出力信号を用いて画像信号を生成する。上述したように第1撮像素子31からはいわゆるベイヤ配列の画像信号を取得することができるので、画像生成部11bは、公知の色補間処理を用いて第1撮像素子31の出力信号からRGB3色のカラー画像信号を生成することができる。さらに画像生成部11bは、生成したカラー画像信号に対して所定の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス調整処理など)を行う。   In step S <b> 24, the image generation unit 11 b of the control unit 11 generates an image signal using the output signal from the first image sensor 31. As described above, since a so-called Bayer array image signal can be acquired from the first image sensor 31, the image generation unit 11b uses a known color interpolation process to output RGB three colors from the output signal of the first image sensor 31. Color image signals can be generated. Further, the image generation unit 11b performs predetermined image processing (gradation conversion processing, contour enhancement processing, white balance adjustment processing, etc.) on the generated color image signal.

ステップS25において、制御部11は、ステップS24の画像処理後の撮影画像を液晶モニタ15に表示させて、ステップS26へ進む。   In step S25, the control unit 11 displays the captured image after the image processing in step S24 on the liquid crystal monitor 15, and proceeds to step S26.

ステップS26において、制御部11は、ステップS24の画像処理後の撮影画像を記録するための画像ファイルを生成し、ステップS27へ進む。   In step S26, the control unit 11 generates an image file for recording the captured image after the image processing in step S24, and proceeds to step S27.

ステップS27において、制御部11は、ステップS26で生成した画像ファイルをメモリカード17に記録して、撮影処理を終了する。   In step S27, the control unit 11 records the image file generated in step S26 on the memory card 17, and ends the photographing process.

以上説明した実施形態によれば、次の作用効果が得られる。
デジタルカメラ1の撮像部12は、半導体基板50の表面側に入射した光を光電変換して光電変換信号を生成し、半導体基板50の表面側に形成された配線層51を介して光電変換信号を出力する第1撮像素子31を備える。また、撮像部12は、第1撮像素子31の半導体基板50の表面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して光電変換信号を生成し、配線層51を介して光電変換信号を出力する第2撮像素子32を備える。また、撮像部12は、第2撮像素子32の第1撮像素子31とは反対側に積層配置され、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイを備える。第1撮像素子31は、マイクロレンズMLの各々に対応して設けられた撮像用画素を複数有する。第2撮像素子32は、マイクロレンズMLの各々に対応して設けられた焦点検出用画素を複数有する。焦点検出用画素は、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素である。第2撮像素子32と第1撮像素子31との間には、第2撮像素子32の焦点検出用画素を透過した可視光を第1撮像素子31の撮像用画素に導光する光導波路56が形成されている。このような構成により、第2撮像素子32からの赤外光の焦点検出信号に基づいて、高速且つ高精度な瞳分割位相差方式による焦点検出を行うことができる。赤外光により焦点検出を行うので、暗視野、低輝度時にも焦点検出精度を高めることができる。さらに、第2撮像素子32の各焦点検出用画素を透過した光束同士でクロストークが発生するのを防止することができ、第1撮像素子31により可視光画像を適切に撮像することができる。
According to the embodiment described above, the following operational effects can be obtained.
The imaging unit 12 of the digital camera 1 photoelectrically converts light incident on the surface side of the semiconductor substrate 50 to generate a photoelectric conversion signal, and the photoelectric conversion signal via the wiring layer 51 formed on the surface side of the semiconductor substrate 50. Is provided. The imaging unit 12 is stacked on the surface side of the semiconductor substrate 50 of the first imaging element 31 and photoelectrically converts infrared light using an organic photoelectric film that absorbs infrared light and transmits visible light. A second imaging element 32 that generates a conversion signal and outputs a photoelectric conversion signal via the wiring layer 51 is provided. In addition, the imaging unit 12 includes a microlens array in which the second imaging element 32 is stacked on the opposite side of the first imaging element 31 and a plurality of microlenses ML are two-dimensionally arranged. The first imaging element 31 has a plurality of imaging pixels provided corresponding to each of the microlenses ML. The second imaging element 32 has a plurality of focus detection pixels provided corresponding to each of the microlenses ML. The focus detection pixel is a focus detection pixel that outputs a focus detection signal for detecting the focus adjustment state of the photographing optical system 10 by the pupil division phase difference method. Between the second image sensor 32 and the first image sensor 31, there is an optical waveguide 56 that guides visible light transmitted through the focus detection pixels of the second image sensor 32 to the image pixels of the first image sensor 31. Is formed. With such a configuration, it is possible to perform focus detection by the pupil division phase difference method with high speed and high accuracy based on the focus detection signal of the infrared light from the second image sensor 32. Since focus detection is performed using infrared light, focus detection accuracy can be increased even in dark fields and low luminance. Furthermore, it is possible to prevent crosstalk from occurring between the light fluxes transmitted through the focus detection pixels of the second image sensor 32, and a visible light image can be appropriately captured by the first image sensor 31.

(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。以下の説明では、第2の実施形態における撮像部112について、第1の実施形態と異なっている点を主に説明し、第1の実施形態と同様の構成については説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the following description, the imaging unit 112 in the second embodiment will be described mainly with respect to differences from the first embodiment, and the description of the same configuration as in the first embodiment will be omitted.

図11を用いて第2の実施の形態による撮像部112の構成について説明する。図11(a)は、撮像部112の半導体レイアウトの一例である。尚、図11(a)は、先に説明した図3の各画素P(1,1)から画素P(2,2)に対応する。図11(b)は、図11(a)の画素P(1,1)および画素(2,1)を水平方向に切断線A−Bで切断したときの断面図である。図11(c)は、図11(a)の画素P(2,1)および画素(2,2)を垂直方向に切断線C−Dで切断したときの断面図である。   The configuration of the imaging unit 112 according to the second embodiment will be described with reference to FIG. FIG. 11A is an example of a semiconductor layout of the imaging unit 112. FIG. 11A corresponds to each pixel P (1,1) to pixel P (2,2) in FIG. 3 described above. FIG. 11B is a cross-sectional view of the pixel P (1,1) and the pixel (2,1) in FIG. 11A when cut in the horizontal direction along the cutting line AB. FIG. 11C is a cross-sectional view of the pixel P (2,1) and the pixel (2,2) of FIG. 11A cut along the cutting line CD in the vertical direction.

第1の実施の形態と異なり、第2の実施の形態における第1撮像素子131は、いわゆる裏面照射型の撮像素子である。したがって第1撮像素子131は、半導体基板150の裏面側に入射した光をフォトダイオードPDにより光電変換して光電変換信号を生成し、半導体基板150の表面側に形成された配線層151を介して上記光電変換信号を出力する。第1の実施の形態と同様の有機光電膜を用いた第2撮像素子132は、第1撮像素子131の上記裏面側に積層配置される。第1の実施の形態と同様に、第2撮像素子132の上方(すなわち第1撮像素子131とは反対側)には、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイが積層配置されている。また、第2撮像素子132の各画素と各マイクロレンズMLとの間には、第1の実施の形態と同様に、カラーフィルターCFが配置されている。   Unlike the first embodiment, the first image sensor 131 in the second embodiment is a so-called back-illuminated image sensor. Therefore, the first image sensor 131 photoelectrically converts light incident on the back surface side of the semiconductor substrate 150 by the photodiode PD to generate a photoelectric conversion signal, and passes through the wiring layer 151 formed on the front surface side of the semiconductor substrate 150. The photoelectric conversion signal is output. A second image sensor 132 using an organic photoelectric film similar to that of the first embodiment is stacked on the back side of the first image sensor 131. Similar to the first embodiment, a microlens array in which a plurality of microlenses ML are two-dimensionally arranged is stacked above the second imaging element 132 (that is, on the side opposite to the first imaging element 131). Has been placed. In addition, a color filter CF is disposed between each pixel of the second image sensor 132 and each microlens ML, as in the first embodiment.

第1撮像素子131の半導体基板150には、第2撮像素子132と配線層151とを接続するための貫通ビア(シリコン貫通電極(TSV:Through Silicon Via))152が形成されている。第2撮像素子132から出力される光電変換信号は、貫通ビア152を介して配線層151から出力される。貫通ビア152は、第2撮像素子132の各画素Pの各光電変換部PC_A,PC_B(部分電極d_A,d_B)ごとに設けられている。   A through via (through silicon via (TSV)) 152 for connecting the second image sensor 132 and the wiring layer 151 is formed in the semiconductor substrate 150 of the first image sensor 131. The photoelectric conversion signal output from the second image sensor 132 is output from the wiring layer 151 through the through via 152. The through via 152 is provided for each photoelectric conversion unit PC_A, PC_B (partial electrode d_A, d_B) of each pixel P of the second imaging element 132.

第2の実施の形態の撮像部112では、第1撮像素子131を裏面照射型で構成したので、第1の実施の形態と異なり、第2撮像素子132と第1撮像素子131の受光面との間に配線層が設けられていない。したがって、第2の実施の形態では、第1の実施形態と比べて第2撮像素子132と第1撮像素子131の受光面との間の距離を短くできるので、第2撮像素子132の各画素を透過した光束同士でクロストークが発生して、第1撮像素子31の1つの画素に第2撮像素子132の複数の画素を通過した光束が入射するのを防止することができる。すなわち、第2撮像素子132および第1撮像素子131の同じ位置の画素が、同一のマイクロレンズMLからの入射光を受光することができる。   In the imaging unit 112 of the second embodiment, since the first imaging element 131 is configured as a back-illuminated type, unlike the first embodiment, the second imaging element 132 and the light receiving surfaces of the first imaging element 131 There is no wiring layer between them. Therefore, in the second embodiment, since the distance between the second image sensor 132 and the light receiving surface of the first image sensor 131 can be shortened compared to the first embodiment, each pixel of the second image sensor 132 can be reduced. It is possible to prevent crosstalk from occurring between the light fluxes that have passed through the first imaging element 31 and prevent the light fluxes that have passed through the plurality of pixels of the second imaging element 132 from entering one pixel of the first imaging element 31. That is, the pixels at the same position of the second image sensor 132 and the first image sensor 131 can receive incident light from the same microlens ML.

以上説明した実施形態によれば、次の作用効果が得られる。
撮像部112は、半導体基板150の裏面側に入射した光を光電変換して光電変換信号を生成し、半導体基板150の表面側に形成された配線層151を介して光電変換信号を出力する裏面照射型の第1撮像素子131を備える。また、撮像部112は、第1撮像素子131の半導体基板150の裏面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して光電変換信号を生成し、配線層151を介して光電変換信号を出力する第2撮像素子132を備える。また、撮像部112は、第2撮像素子132の第1撮像素子131とは反対側に積層配置され、複数のマイクロレンズMLが二次元状に配列されたマイクロレンズアレイを備える。第1撮像素子131は、マイクロレンズMLの各々に対応して設けられた撮像用画素を複数有する。第2撮像素子132は、マイクロレンズMLの各々に対応して設けられた焦点検出用画素を複数有する。焦点検出用画素は、瞳分割位相差方式により撮影光学系10の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素である。このような構成により、第2撮像素子32からの赤外光の焦点検出信号に基づいて、高速且つ高精度な瞳分割位相差方式による焦点検出を行うことができる。さらに、第2撮像素子32の各焦点検出用画素を透過した光束同士でクロストークが発生するのを防止することができ、第1撮像素子31により可視光画像を適切に撮像することができる。
According to the embodiment described above, the following operational effects can be obtained.
The imaging unit 112 photoelectrically converts light incident on the back surface side of the semiconductor substrate 150 to generate a photoelectric conversion signal, and outputs the photoelectric conversion signal via the wiring layer 151 formed on the front surface side of the semiconductor substrate 150. An irradiation-type first imaging element 131 is provided. The imaging unit 112 is stacked on the back side of the semiconductor substrate 150 of the first imaging element 131 and photoelectrically converts infrared light using an organic photoelectric film that absorbs infrared light and transmits visible light. A second imaging element 132 that generates a conversion signal and outputs a photoelectric conversion signal via the wiring layer 151 is provided. The imaging unit 112 includes a microlens array in which the second imaging element 132 is stacked on the opposite side of the first imaging element 131 and a plurality of microlenses ML are two-dimensionally arranged. The first imaging element 131 has a plurality of imaging pixels provided corresponding to each of the microlenses ML. The second imaging element 132 has a plurality of focus detection pixels provided corresponding to each of the microlenses ML. The focus detection pixel is a focus detection pixel that outputs a focus detection signal for detecting the focus adjustment state of the photographing optical system 10 by the pupil division phase difference method. With such a configuration, it is possible to perform focus detection by the pupil division phase difference method with high speed and high accuracy based on the focus detection signal of the infrared light from the second image sensor 32. Furthermore, it is possible to prevent crosstalk from occurring between the light fluxes transmitted through the focus detection pixels of the second image sensor 32, and a visible light image can be appropriately captured by the first image sensor 31.

(変形例1)
上述した実施の形態では、第2撮像素子32の焦点検出用画素の各々が2つの光電変換部PC_AおよびPC_Bを有し、光電変換部PC_Aが撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束のうちの一方を受光し、光電変換部PC_Bが、上記一対の光束のうちの他方を受光する例について説明した。
(Modification 1)
In the embodiment described above, each of the focus detection pixels of the second image sensor 32 has two photoelectric conversion units PC_A and PC_B, and the photoelectric conversion unit PC_A has passed through a pair of pupil regions of the imaging optical system 10, respectively. The example in which one of the pair of light beams is received and the photoelectric conversion unit PC_B receives the other of the pair of light beams has been described.

しかしながら、焦点検出用画素は上記のような構成に限らなくてよく、たとえば、図12に示すように、光電変換部PC_Aのみを有する焦点検出用画素と、光電変換部PC_Bのみを有する焦点検出用画素が交互に配置されているようにしてもよい。たとえば、画素P(2,1)は、共通電極uと部分電極d_A(2,1)との間に有機光電膜mを挟んで構成された光電変換部PC_A(2,1)のみを有する。部分電極d_A(2,1)は、マイクロレンズML(2,1)の中心O(2,1)に対して図中上側に設けられる。また、画素P(2,2)は、共通電極uと部分電極d_B(2,2)との間に有機光電膜mを挟んで構成された光電変換部PC_B(2,2)のみを有する。部分電極d_B(2,2)は、マイクロレンズML(2,2)の中心O(2,2)に対して図中下側に設けられる。図12に示す構成では、部分電極d_Aおよび部分電極d_BをそれぞれマイクロレンズMLの中心Oから間隔を空けずに設けることができるので、上述した実施の形態の構成(図7)と比べて、光電変換部PC_Aおよび光電変換部PC_Bの面積を広くすることができる。   However, the focus detection pixel is not limited to the above configuration. For example, as shown in FIG. 12, the focus detection pixel having only the photoelectric conversion unit PC_A and the focus detection pixel having only the photoelectric conversion unit PC_B. The pixels may be arranged alternately. For example, the pixel P (2,1) has only the photoelectric conversion unit PC_A (2,1) configured by sandwiching the organic photoelectric film m between the common electrode u and the partial electrode d_A (2,1). The partial electrode d_A (2, 1) is provided on the upper side in the drawing with respect to the center O (2, 1) of the microlens ML (2, 1). Further, the pixel P (2, 2) has only the photoelectric conversion unit PC_B (2, 2) configured by sandwiching the organic photoelectric film m between the common electrode u and the partial electrode d_B (2, 2). The partial electrode d_B (2, 2) is provided on the lower side in the drawing with respect to the center O (2, 2) of the microlens ML (2, 2). In the configuration shown in FIG. 12, the partial electrode d_A and the partial electrode d_B can be provided without being spaced from the center O of the microlens ML, respectively. The areas of the conversion unit PC_A and the photoelectric conversion unit PC_B can be increased.

なお、第2撮像素子32において、各焦点検出用画素における瞳分割方向は、上述した方向に限らなくてよく、縦方向、横方向、斜め方向のいずれであってもよいし、様々な方向の焦点検出用画素が混在するようにしてもよい。   In the second image sensor 32, the pupil division direction in each focus detection pixel is not limited to the above-described direction, and may be any of the vertical direction, the horizontal direction, and the diagonal direction, and may be in various directions. Focus detection pixels may be mixed.

(変形例2)
上述した第2の実施の形態による撮像部112において、第1撮像素子131についても、瞳分割位相差方式の焦点検出を行えるようにしてもよい。すなわち、第1撮像素子131の各画素Pに2つのフォトダイオードPD_AおよびPD_Bを設け、2つのフォトダイオードPD_AおよびPD_Bが撮影光学系10の一対の瞳領域をそれぞれ通過した一対の光束をそれぞれ受光するように構成してもよい。第1撮像素子131には赤外光がカットされた光束が入射されるため、可視光での瞳分割位相差方式の焦点検出を行うことができる。また、この場合、たとえば、図13に示すように、第2撮像素子132においては各焦点検出用画素の瞳分割方向を縦方向とし、第1撮像素子131においては各焦点検出用画素の瞳分割方向を横方向とするなど、第2撮像素子132と第1撮像素子131とで瞳分割方向を変えるようにしてもよい。こうすることにより、たとえば、瞳分割方向が縦方向である方が焦点検出しやすい被写体の場合には第2撮像素子132からの出力信号を用いて焦点検出を行うことができる。一方、瞳分割方向が横方向である方が焦点検出しやすい被写体の場合には第1撮像素子131からの出力信号を用いて焦点検出を行うことができる。このように、第1撮像素子131と第2撮像素子132を適宜使い分けることができ、焦点検出精度を高めることができる。また、第1撮像素子131において瞳分割方向が縦方向の焦点検出用画素と横方向の焦点検出用画素とを混在させるようにしてもよいし、第2撮像素子132において瞳分割方向が縦方向の焦点検出用画素と横方向の焦点検出用画素とを混在させるようにしてもよい。
(Modification 2)
In the imaging unit 112 according to the second embodiment described above, the pupil detection phase difference type focus detection may be performed for the first imaging element 131 as well. That is, two photodiodes PD_A and PD_B are provided in each pixel P of the first image sensor 131, and the two photodiodes PD_A and PD_B respectively receive a pair of light beams that have passed through a pair of pupil regions of the imaging optical system 10, respectively. You may comprise as follows. Since the light beam from which the infrared light is cut is incident on the first image sensor 131, the pupil division phase difference type focus detection with visible light can be performed. In this case, for example, as shown in FIG. 13, in the second image sensor 132, the pupil division direction of each focus detection pixel is the vertical direction, and in the first image sensor 131, the pupil division of each focus detection pixel is set. The pupil division direction may be changed between the second image sensor 132 and the first image sensor 131, for example, the direction is the horizontal direction. In this way, for example, in the case of a subject whose focus is easier to detect when the pupil division direction is the vertical direction, focus detection can be performed using the output signal from the second image sensor 132. On the other hand, when the subject is easier to detect the focus when the pupil division direction is the horizontal direction, focus detection can be performed using the output signal from the first image sensor 131. As described above, the first image sensor 131 and the second image sensor 132 can be properly used, and the focus detection accuracy can be increased. Further, in the first image sensor 131, focus detection pixels whose pupil division direction is vertical and horizontal focus detection pixels may be mixed, and in the second image sensor 132, the pupil division direction is vertical. These focus detection pixels and horizontal focus detection pixels may be mixed.

(変形例3)
上述した実施の形態のデジタルカメラ1に、赤外線投光器を設けるようにしてもよい。赤外線投光器により赤外線を投光することにより、上述した赤外光による焦点検出処理においてさらに焦点検出精度を高めることができる。赤外線投光器は一様な赤外光を照射してもよいし、照射する赤外光にパターンを持たせてもよい。照射する赤外光にパターンを持たせる場合は、焦点検出を補助するような投影像としてもよいし、グリッド状に配置した多点像を投影してもよい。グリッド状に配置した多点像を投影する場合は、投影されたグリッドの歪量を演算することで、距離検出を行うこともできる。
(Modification 3)
You may make it provide the infrared projector in the digital camera 1 of embodiment mentioned above. By projecting infrared rays with an infrared projector, the focus detection accuracy can be further increased in the above-described focus detection processing using infrared light. The infrared projector may emit uniform infrared light, or the infrared light to be irradiated may have a pattern. When the infrared light to be irradiated has a pattern, it may be a projection image that assists in focus detection, or a multi-point image arranged in a grid shape may be projected. When projecting a multipoint image arranged in a grid, distance detection can be performed by calculating the amount of distortion of the projected grid.

(変形例4)
上述した実施の形態では、第2撮像素子32の各焦点検出用画素において隣接する光電変換部同士の光電変換信号を加算することで赤外光画像を取得し、コントラスト方式による焦点検出に用いる例について説明したが、赤外光画像をこの他の用途に用いてもよい。たとえば、第1撮像素子31により撮像された可視光画像と第2撮像素子32により撮像された赤外光画像とを比較して、可視光画像上ではヘッドライトなどの強い光によって隠れた人物を赤外光画像上で検出するようにしてもよい。また、赤外光は波長が長く物体の最表面よりも深部の像が得られるため、人間の顔を撮影した赤外光画像に基づいて人間の肌の内部を解析して、たとえば、肌の内部に隠れたしみなどの検出を行うこともできる。
(Modification 4)
In the above-described embodiment, an example in which an infrared light image is acquired by adding photoelectric conversion signals between adjacent photoelectric conversion units in each focus detection pixel of the second image sensor 32 and used for focus detection by a contrast method. However, infrared light images may be used for other purposes. For example, a visible light image captured by the first image sensor 31 is compared with an infrared light image captured by the second image sensor 32, and a person hidden by strong light such as a headlight is displayed on the visible light image. You may make it detect on an infrared-light image. In addition, since infrared light has a long wavelength and an image deeper than the outermost surface of an object is obtained, the inside of human skin is analyzed based on an infrared light image obtained by photographing a human face, for example, It can also detect stains hidden inside.

(変形例5)
上述した実施の形態では、カラーフィルターの配置をベイヤ配列として、第1撮像素子31からベイヤ配列の画像信号を得られる例について説明したが、カラーフィルターの配置をこの他の配置としてもよい。また、R、G、Bの光をそれぞれ透過するカラーフィルターを配置する例について説明したが、これに限らなくてよく、たとえば、Cy、Mg、Yeの光をそれぞれ透過するカラーフィルターを配置するようにしてもよい。
(Modification 5)
In the above-described embodiment, an example in which the color filter arrangement is a Bayer array and an image signal of the Bayer array can be obtained from the first image sensor 31 has been described, but the color filter arrangement may be another arrangement. Further, the example in which the color filters that respectively transmit R, G, and B light have been described has been described. However, the present invention is not limited to this. For example, color filters that respectively transmit Cy, Mg, and Ye light may be disposed. It may be.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。各実施形態および変形例は、適宜組合せてもよい。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Each embodiment and modification may be combined as appropriate. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1…デジタルカメラ、10…撮影光学系、11…制御部、11a…焦点検出部、11b…画像生成部、12,112…撮像部、31,131…第1撮像素子、32,132…第2撮像素子 DESCRIPTION OF SYMBOLS 1 ... Digital camera, 10 ... Imaging optical system, 11 ... Control part, 11a ... Focus detection part, 11b ... Image generation part, 12, 112 ... Imaging part, 31, 131 ... 1st image sensor, 32, 132 ... 2nd Image sensor

Claims (8)

半導体基板の表面側に入射した光を光電変換して第1光電変換信号を生成し、前記半導体基板の表面側に形成された配線層を介して前記第1光電変換信号を出力する第1撮像素子と、
前記第1撮像素子の前記表面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して第2光電変換信号を生成し、前記配線層を介して前記第2光電変換信号を出力する第2撮像素子と、
前記第2撮像素子の前記第1撮像素子とは反対側に積層配置され、複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイと、
を備え、
前記第1撮像素子は、前記マイクロレンズの各々に対応して設けられ、前記第1光電変換信号を出力する第1画素を複数有し、
前記第2撮像素子は、前記マイクロレンズの各々に対応して設けられ、前記第2光電変換信号を出力する第2画素を複数有し、
前記第2画素は、瞳分割位相差方式により結像光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素であり、
前記第2撮像素子と前記第1撮像素子との間には、前記第2撮像素子の前記第2画素を透過した可視光を前記第1撮像素子の前記第1画素に導光する光導波路が形成されていることを特徴とする撮像装置。
First imaging that photoelectrically converts light incident on the surface side of the semiconductor substrate to generate a first photoelectric conversion signal, and outputs the first photoelectric conversion signal via a wiring layer formed on the surface side of the semiconductor substrate Elements,
A second photoelectric conversion signal is generated by photoelectrically converting infrared light using an organic photoelectric film that is laminated on the surface side of the first imaging element and absorbs infrared light and transmits visible light, and generates the second photoelectric conversion signal. A second imaging element that outputs the second photoelectric conversion signal through a layer;
A microlens array in which a plurality of microlenses are arranged in a two-dimensional manner and stacked on the opposite side of the second imaging element from the first imaging element;
With
The first imaging element is provided corresponding to each of the microlenses, and includes a plurality of first pixels that output the first photoelectric conversion signal,
The second imaging element is provided corresponding to each of the microlenses, and includes a plurality of second pixels that output the second photoelectric conversion signal,
The second pixel is a focus detection pixel that outputs a focus detection signal for detecting a focus adjustment state of the imaging optical system by a pupil division phase difference method,
Between the second image sensor and the first image sensor, there is an optical waveguide for guiding visible light transmitted through the second pixel of the second image sensor to the first pixel of the first image sensor. An imaging device characterized by being formed.
請求項1に記載の撮像装置において、
前記第2撮像素子と前記第1撮像素子との間には、隣接する前記第1画素間の境界部分の上に前記配線層を内部に含む平坦化層が形成され、
前記光導波路は、各々の前記第1画素の光電変換部の上に形成され、前記平坦化層よりも高屈折率の材料で構成されており、前記第2撮像素子の前記第2画素を透過した可視光を前記光導波路と前記平坦化層との境界面で全反射させ、前記第1撮像素子の前記第1画素に導光することを特徴とする撮像装置。
The imaging device according to claim 1,
Between the second image sensor and the first image sensor, a planarization layer including the wiring layer inside is formed on a boundary portion between the adjacent first pixels,
The optical waveguide is formed on the photoelectric conversion portion of each of the first pixels, is made of a material having a refractive index higher than that of the planarization layer, and transmits the second pixel of the second imaging element. An image pickup apparatus, wherein the visible light is totally reflected at a boundary surface between the optical waveguide and the planarization layer, and guided to the first pixel of the first image pickup element.
半導体基板の裏面側に入射した光を光電変換して第1光電変換信号を生成し、前記半導体基板の表面側に形成された配線層を介して前記第1光電変換信号を出力する裏面照射型の第1撮像素子と、
前記第1撮像素子の前記裏面側に積層配置され、赤外光を吸収し可視光を透過する有機光電膜を用いて赤外光を光電変換して第2光電変換信号を生成し、前記配線層を介して前記第2光電変換信号を出力する第2撮像素子と、
前記第2撮像素子の前記第1撮像素子とは反対側に積層配置され、複数のマイクロレンズが二次元状に配列されたマイクロレンズアレイと、
を備え、
前記第1撮像素子は、前記マイクロレンズの各々に対応して設けられ、前記第1光電変換信号を出力する第1画素を複数有し、
前記第2撮像素子は、前記マイクロレンズの各々に対応して設けられ、前記第2光電変換信号を出力する第2画素を複数有し、
前記第2画素は、瞳分割位相差方式により結像光学系の焦点調節状態を検出するための焦点検出信号を出力する焦点検出用の画素であることを特徴とする撮像装置。
Back-illuminated type that photoelectrically converts light incident on the back side of the semiconductor substrate to generate a first photoelectric conversion signal and outputs the first photoelectric conversion signal through a wiring layer formed on the front side of the semiconductor substrate A first imaging device of
A second photoelectric conversion signal is generated by photoelectrically converting infrared light using an organic photoelectric film that is stacked on the back side of the first imaging element and absorbs infrared light and transmits visible light, and generates the second photoelectric conversion signal. A second imaging element that outputs the second photoelectric conversion signal through a layer;
A microlens array in which a plurality of microlenses are arranged in a two-dimensional manner and stacked on the opposite side of the second imaging element from the first imaging element;
With
The first imaging element is provided corresponding to each of the microlenses, and includes a plurality of first pixels that output the first photoelectric conversion signal,
The second imaging element is provided corresponding to each of the microlenses, and includes a plurality of second pixels that output the second photoelectric conversion signal,
2. The imaging apparatus according to claim 1, wherein the second pixel is a focus detection pixel that outputs a focus detection signal for detecting a focus adjustment state of the imaging optical system by a pupil division phase difference method.
請求項3に記載の撮像装置において、
前記第1撮像素子の前記半導体基板には、前記第2撮像素子と前記配線層とを接続するための接続部が形成されていることを特徴とする撮像装置。
The imaging device according to claim 3.
An image pickup apparatus, wherein a connection portion for connecting the second image pickup element and the wiring layer is formed on the semiconductor substrate of the first image pickup element.
請求項1〜4のいずれか一項に記載の撮像装置において、
前記第2画素の各々は、第1光電変換部および第2光電変換部を有し、
前記第1光電変換部は、前記結像光学系の一対の瞳領域をそれぞれ通過した一対の光束のうちの一方を受光し、前記第2光電変換部は、前記一対の光束のうちの他方を受光することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
Each of the second pixels has a first photoelectric conversion unit and a second photoelectric conversion unit,
The first photoelectric conversion unit receives one of a pair of light beams that have passed through a pair of pupil regions of the imaging optical system, and the second photoelectric conversion unit receives the other of the pair of light beams. An imaging apparatus characterized by receiving light.
請求項1〜4のいずれか一項に記載の撮像装置において、
複数の前記第2画素は、前記結像光学系の一対の瞳領域をそれぞれ通過した一対の光束のうちの一方を受光する第1焦点検出用画素と、前記一対の光束のうちの他方を受光する第2焦点検出用画素とを含み、
前記第2撮像素子において、前記第1焦点検出用画素と前記第2焦点検出用画素とが交互に配置されていることを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 4,
The plurality of second pixels receive a first focus detection pixel that receives one of a pair of light beams that have passed through a pair of pupil regions of the imaging optical system, and receives the other of the pair of light beams. And a second focus detection pixel.
In the second imaging element, the first focus detection pixels and the second focus detection pixels are alternately arranged.
請求項1〜6のいずれか一項に記載の撮像装置と、
前記第1撮像素子から出力される第1光電変換信号に基づいて画像信号を生成する画像生成手段と、
前記第2撮像素子から出力される第2光電変換信号に基づいて瞳分割位相差方式により前記結像光学系の焦点調節状態を検出する第1焦点検出手段と、
を備えることを特徴とするデジタルカメラ。
The imaging device according to any one of claims 1 to 6,
Image generating means for generating an image signal based on a first photoelectric conversion signal output from the first image sensor;
First focus detection means for detecting a focus adjustment state of the imaging optical system by a pupil division phase difference method based on a second photoelectric conversion signal output from the second image sensor;
A digital camera comprising:
請求項7に記載のデジタルカメラにおいて、
前記第1撮像素子から出力される第1光電変換信号、または前記第2撮像素子から出力される第2光電変換信号に基づいて、コントラスト方式により前記結像光学系の焦点調節状態を検出する第2焦点検出手段をさらに備えることを特徴とするデジタルカメラ。
The digital camera according to claim 7, wherein
Based on a first photoelectric conversion signal output from the first image sensor or a second photoelectric conversion signal output from the second image sensor, a focus adjustment state of the imaging optical system is detected by a contrast method. A digital camera further comprising bifocal point detection means.
JP2014036663A 2014-02-27 2014-02-27 Imaging device Active JP6458343B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014036663A JP6458343B2 (en) 2014-02-27 2014-02-27 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014036663A JP6458343B2 (en) 2014-02-27 2014-02-27 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018244753A Division JP2019086785A (en) 2018-12-27 2018-12-27 Imaging element and imaging device

Publications (2)

Publication Number Publication Date
JP2015162562A true JP2015162562A (en) 2015-09-07
JP6458343B2 JP6458343B2 (en) 2019-01-30

Family

ID=54185471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014036663A Active JP6458343B2 (en) 2014-02-27 2014-02-27 Imaging device

Country Status (1)

Country Link
JP (1) JP6458343B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016033982A (en) * 2014-07-31 2016-03-10 キヤノン株式会社 Solid-state imaging sensor and imaging system
WO2016158618A1 (en) * 2015-03-31 2016-10-06 株式会社ニコン Imaging device
JP2017098513A (en) * 2015-11-27 2017-06-01 株式会社ニコン Imaging device, imaging apparatus, and focusing apparatus
CN106899790A (en) * 2015-12-17 2017-06-27 佳能株式会社 Camera head and camera
JP2017118477A (en) * 2015-12-23 2017-06-29 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Image sensor and imaging device
WO2017119447A1 (en) * 2016-01-08 2017-07-13 株式会社ニコン Image pickup device and electronic camera
WO2017169314A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Solid-state imaging element and electronic device
JP2017183992A (en) * 2016-03-30 2017-10-05 リコーイメージング株式会社 Image pickup device, focus detection apparatus, and imaging apparatus
WO2017199771A1 (en) * 2016-05-20 2017-11-23 ソニー株式会社 Solid-state imaging device and electronic apparatus
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus
JP2018006725A (en) * 2016-07-07 2018-01-11 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Camera module
CN108428710A (en) * 2018-04-10 2018-08-21 昆山锐芯微电子有限公司 Semiconductor structure and forming method thereof and working method
JP2018139272A (en) * 2017-02-24 2018-09-06 キヤノン株式会社 Imaging element and imaging device
JP2018160779A (en) * 2017-03-22 2018-10-11 キヤノン株式会社 Imaging element and control method thereof, imaging device, focus detector and method
CN109155323A (en) * 2016-03-31 2019-01-04 株式会社尼康 Capturing element and filming apparatus
CN109923670A (en) * 2016-09-29 2019-06-21 株式会社尼康 Photographing element, focus detection device and electronic camera
CN109950281A (en) * 2019-02-27 2019-06-28 武汉华星光电半导体显示技术有限公司 A kind of display panel, preparation method and its terminal part
JP2020120067A (en) * 2019-01-28 2020-08-06 日本放送協会 Imaging element
CN112470466A (en) * 2018-07-31 2021-03-09 索尼半导体解决方案公司 Solid-state image pickup device
US10991741B2 (en) 2018-09-12 2021-04-27 Canon Kabushiki Kaisha Photoelectric conversion apparatus and equipment
CN113873132A (en) * 2021-10-26 2021-12-31 维沃移动通信有限公司 Lens module, mobile terminal, shooting method and shooting device

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140246A (en) * 2001-11-02 2003-05-14 Canon Inc Camera
JP2008028105A (en) * 2006-07-20 2008-02-07 Nikon Corp Solid-state imaging element and imaging apparatus using same
JP2008218787A (en) * 2007-03-06 2008-09-18 Fujifilm Corp Image pick-up device
JP2008227091A (en) * 2007-03-12 2008-09-25 Fujifilm Corp Photoelectric converting element and solid-state image pickup device
JP2011029337A (en) * 2009-07-23 2011-02-10 Sony Corp Solid-state imaging device, method of manufacturing the same, and electronic apparatus
JP2013003501A (en) * 2011-06-21 2013-01-07 Nikon Corp Camera
WO2013105481A1 (en) * 2012-01-13 2013-07-18 株式会社ニコン Solid-state image pickup device and electronic camera
WO2013147198A1 (en) * 2012-03-30 2013-10-03 株式会社ニコン Imaging device and image sensor
JP2014075393A (en) * 2012-10-02 2014-04-24 Canon Inc Solid state image sensor, imaging apparatus, and control method
JP2016127043A (en) * 2014-12-26 2016-07-11 ソニー株式会社 Solid-state image pickup element and electronic equipment
WO2016158618A1 (en) * 2015-03-31 2016-10-06 株式会社ニコン Imaging device
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003140246A (en) * 2001-11-02 2003-05-14 Canon Inc Camera
JP2008028105A (en) * 2006-07-20 2008-02-07 Nikon Corp Solid-state imaging element and imaging apparatus using same
JP2008218787A (en) * 2007-03-06 2008-09-18 Fujifilm Corp Image pick-up device
JP2008227091A (en) * 2007-03-12 2008-09-25 Fujifilm Corp Photoelectric converting element and solid-state image pickup device
JP2011029337A (en) * 2009-07-23 2011-02-10 Sony Corp Solid-state imaging device, method of manufacturing the same, and electronic apparatus
JP2013003501A (en) * 2011-06-21 2013-01-07 Nikon Corp Camera
WO2013105481A1 (en) * 2012-01-13 2013-07-18 株式会社ニコン Solid-state image pickup device and electronic camera
WO2013147198A1 (en) * 2012-03-30 2013-10-03 株式会社ニコン Imaging device and image sensor
JP2014075393A (en) * 2012-10-02 2014-04-24 Canon Inc Solid state image sensor, imaging apparatus, and control method
JP2016127043A (en) * 2014-12-26 2016-07-11 ソニー株式会社 Solid-state image pickup element and electronic equipment
WO2016158618A1 (en) * 2015-03-31 2016-10-06 株式会社ニコン Imaging device
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016033982A (en) * 2014-07-31 2016-03-10 キヤノン株式会社 Solid-state imaging sensor and imaging system
US11546536B2 (en) 2015-03-31 2023-01-03 Nikon Corporation Image sensor with photoelectric conversion units arranged in different directions
WO2016158618A1 (en) * 2015-03-31 2016-10-06 株式会社ニコン Imaging device
JP2016192645A (en) * 2015-03-31 2016-11-10 株式会社ニコン Imaging device, focus adjustment device, and imaging apparatus
US10511760B2 (en) 2015-03-31 2019-12-17 Nikon Corporation Image sensor with photoelectric conversion units arranged in different directions
US11102432B2 (en) 2015-03-31 2021-08-24 Nikon Corporation Image sensor with photoelectric conversion units arranged in different directions
JP2017098513A (en) * 2015-11-27 2017-06-01 株式会社ニコン Imaging device, imaging apparatus, and focusing apparatus
CN106899790A (en) * 2015-12-17 2017-06-27 佳能株式会社 Camera head and camera
JP2017118477A (en) * 2015-12-23 2017-06-29 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Image sensor and imaging device
US9906706B2 (en) 2015-12-23 2018-02-27 Visera Technologies Company Limited Image sensor and imaging device
US11012604B2 (en) 2016-01-08 2021-05-18 Nikon Corporation Image-capturing device and electronic camera
WO2017119447A1 (en) * 2016-01-08 2017-07-13 株式会社ニコン Image pickup device and electronic camera
JPWO2017119447A1 (en) * 2016-01-08 2018-12-06 株式会社ニコン Imaging apparatus and electronic camera
CN108702472A (en) * 2016-01-08 2018-10-23 株式会社尼康 Photographic device and electronic camera
JP2017183992A (en) * 2016-03-30 2017-10-05 リコーイメージング株式会社 Image pickup device, focus detection apparatus, and imaging apparatus
US11335722B2 (en) 2016-03-31 2022-05-17 Sony Corporation Solid-state imaging device and electronic apparatus
WO2017169314A1 (en) * 2016-03-31 2017-10-05 ソニー株式会社 Solid-state imaging element and electronic device
JPWO2017169314A1 (en) * 2016-03-31 2019-02-07 ソニー株式会社 Solid-state imaging device and electronic device
CN109155323A (en) * 2016-03-31 2019-01-04 株式会社尼康 Capturing element and filming apparatus
KR20180127327A (en) 2016-03-31 2018-11-28 소니 주식회사 Solid-state image pickup device, and electronic device
US10847581B2 (en) 2016-05-20 2020-11-24 Sony Corporation Solid-state imaging apparatus and electronic apparatus
US12029054B2 (en) 2016-05-20 2024-07-02 Sony Group Corporation Solid-state imaging apparatus and electronic apparatus
US20190189696A1 (en) * 2016-05-20 2019-06-20 Sony Corporation Solid-state imaging apparatus and electronic apparatus
WO2017199771A1 (en) * 2016-05-20 2017-11-23 ソニー株式会社 Solid-state imaging device and electronic apparatus
JP2017229001A (en) * 2016-06-24 2017-12-28 株式会社ニコン Imaging apparatus and distance measuring apparatus
US10063763B2 (en) 2016-07-07 2018-08-28 Tdk Taiwan Corp. Camera module
CN107592436A (en) * 2016-07-07 2018-01-16 采钰科技股份有限公司 Camera module
CN107592436B (en) * 2016-07-07 2020-01-10 采钰科技股份有限公司 Camera module
JP2018006725A (en) * 2016-07-07 2018-01-11 采▲ぎょく▼科技股▲ふん▼有限公司VisEra Technologies Company Limited Camera module
CN109923670A (en) * 2016-09-29 2019-06-21 株式会社尼康 Photographing element, focus detection device and electronic camera
JP7071055B2 (en) 2017-02-24 2022-05-18 キヤノン株式会社 Image sensor and image sensor
JP2018139272A (en) * 2017-02-24 2018-09-06 キヤノン株式会社 Imaging element and imaging device
JP2018160779A (en) * 2017-03-22 2018-10-11 キヤノン株式会社 Imaging element and control method thereof, imaging device, focus detector and method
CN108428710A (en) * 2018-04-10 2018-08-21 昆山锐芯微电子有限公司 Semiconductor structure and forming method thereof and working method
CN112470466A (en) * 2018-07-31 2021-03-09 索尼半导体解决方案公司 Solid-state image pickup device
CN112470466B (en) * 2018-07-31 2023-06-20 索尼半导体解决方案公司 Solid-state image pickup device
US10991741B2 (en) 2018-09-12 2021-04-27 Canon Kabushiki Kaisha Photoelectric conversion apparatus and equipment
JP2020120067A (en) * 2019-01-28 2020-08-06 日本放送協会 Imaging element
WO2020172957A1 (en) * 2019-02-27 2020-09-03 武汉华星光电半导体显示技术有限公司 Display panel, manufacturing method therefor and terminal device thereof
CN109950281A (en) * 2019-02-27 2019-06-28 武汉华星光电半导体显示技术有限公司 A kind of display panel, preparation method and its terminal part
CN113873132A (en) * 2021-10-26 2021-12-31 维沃移动通信有限公司 Lens module, mobile terminal, shooting method and shooting device
CN113873132B (en) * 2021-10-26 2024-03-22 维沃移动通信有限公司 Lens module, mobile terminal, shooting method and shooting device

Also Published As

Publication number Publication date
JP6458343B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6458343B2 (en) Imaging device
US10686004B2 (en) Image capturing element and image capturing device image sensor and image-capturing device
JP7298635B2 (en) Imaging element and imaging device
JP5547349B2 (en) Digital camera
JP5276374B2 (en) Focus detection device
US20150358593A1 (en) Imaging apparatus and image sensor
US8988576B2 (en) Solid-state imaging device and digital camera
JP2014178603A (en) Imaging device
JP6174940B2 (en) Imaging device and imaging apparatus
JP6693567B2 (en) Imaging device, focus detection device, and electronic camera
JP2021100253A (en) Image pickup device and image pickup apparatus
KR20180033128A (en) Image pickup device, image pickup method, and program
US20190371847A1 (en) Image sensor, focus detection apparatus, and electronic camera
JP2011123133A (en) Imaging apparatus
JP2016191875A (en) Focus detection device and imaging device
JP6601465B2 (en) Imaging device
JP7419975B2 (en) Imaging element and imaging device
JP2018046563A (en) Imaging element
JP7238896B2 (en) Focus detection device, imaging device, and interchangeable lens
JP2015159231A (en) Solid-state image pickup device
JP2014215526A (en) Imaging element and camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180627

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6458343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250