JP7358771B2 - 3D imaging unit, camera, and 3D image generation method - Google Patents

3D imaging unit, camera, and 3D image generation method Download PDF

Info

Publication number
JP7358771B2
JP7358771B2 JP2019085204A JP2019085204A JP7358771B2 JP 7358771 B2 JP7358771 B2 JP 7358771B2 JP 2019085204 A JP2019085204 A JP 2019085204A JP 2019085204 A JP2019085204 A JP 2019085204A JP 7358771 B2 JP7358771 B2 JP 7358771B2
Authority
JP
Japan
Prior art keywords
frame
charge
digital data
timing
charge distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085204A
Other languages
Japanese (ja)
Other versions
JP2020182147A (en
Inventor
正規 永瀬
圭吾 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2019085204A priority Critical patent/JP7358771B2/en
Publication of JP2020182147A publication Critical patent/JP2020182147A/en
Application granted granted Critical
Publication of JP7358771B2 publication Critical patent/JP7358771B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、距離を含めた3次元(3D)画像を撮像する3D撮像ユニットに関し、特に画素をマトリクス状に配列したCMOSイメージセンサ(CIS)又はこのCISを用いた3D撮像ユニット、この3D撮像ユニットを利用したカメラ及び3D画像生成方法に関する。 The present invention relates to a 3D imaging unit that captures three-dimensional (3D) images including distance, and in particular, a CMOS image sensor (CIS) in which pixels are arranged in a matrix, a 3D imaging unit using this CIS, and this 3D imaging unit. The present invention relates to a camera and a 3D image generation method using .

近年、距離画像(3D画像)を撮像する固体撮像装置の開発が活発に行われている。3D固体撮像装置においても、従来CCDイメージセンサ(CCD)が主流であったが、現在は、CISが主流となりつつある。 In recent years, solid-state imaging devices that capture distance images (3D images) have been actively developed. Conventionally, CCD image sensors (CCD) have been the mainstream in 3D solid-state imaging devices, but CIS is now becoming mainstream.

各種距離画像取得手法の中でも、光飛行時間(TOF)型は距離精度が高く、又測定可能距離範囲が広く且つ距離演算が比較的容易な手法である。TOF型距離画像素子は、主に連続波変調(CW)型と光パルス同期型とがある。CW型及び光パルス型のいずれもフォトダイオード(PD)からなる光電変換部等の光ディテクタに複数の電荷振分機構が付加された構造をなしており、この複数の電荷振分機構のオン/オフを繰り返すロックイン駆動を行っている。 Among various distance image acquisition methods, the time-of-flight (TOF) type is a method that has high distance accuracy, a wide measurable distance range, and relatively easy distance calculation. TOF type distance imaging elements mainly include continuous wave modulation (CW) type and optical pulse synchronization type. Both the CW type and the optical pulse type have a structure in which a plurality of charge distribution mechanisms are added to a photodetector such as a photoelectric conversion unit consisting of a photodiode (PD), and the on/off of the plurality of charge distribution mechanisms is It performs lock-in drive that repeatedly turns off.

TOF型距離画像素子は、信号光に赤外光を用い、環境光(背景光)を除去するために、バンドパスフィルタ等を用い信号光以外の光を出来るだけカットして使用するのが一般的である。しかし、環境光をすべて除去することは非常に困難である。3タップロックインピクセルと称される3分岐型ロックインピクセルでは、3つの電荷振分機構の内の最初に電荷を振り分ける一つの電荷振分機構を環境光の除去専用に用いており、環境光除去能力が高いので、室外や明るい室内等、環境光の影響が大きい環境での使用に適している。 TOF type distance imaging elements generally use infrared light as the signal light, and use a bandpass filter to remove as much light as possible other than the signal light to remove environmental light (background light). It is true. However, it is very difficult to remove all ambient light. In a three-branch lock-in pixel called a 3-tap lock-in pixel, one of the three charge distribution mechanisms, which distributes charge first, is used exclusively for removing ambient light. Due to its high removal ability, it is suitable for use in environments where the influence of ambient light is large, such as outdoors or brightly lit rooms.

このように、3分岐型ロックインピクセルにより、環境光耐性が高く、精度の高い距離画像素子が実現できる。しかしながら、従来の3分岐型ロックインピクセルは画素内の素子数が多く画素の内部構造が複雑であるため、多画素化、高解像度化、即ち、画素の微細化が難しいという課題があった。 In this way, the three-branch lock-in pixel makes it possible to realize a distance imaging element with high resistance to ambient light and high precision. However, the conventional three-branch type lock-in pixel has a large number of elements in the pixel and has a complicated internal structure, so it has been difficult to increase the number of pixels and increase the resolution, that is, to miniaturize the pixels.

国際公開第2007/026779号パンフレットInternational Publication No. 2007/026779 pamphlet

上記問題点を鑑み、本発明は、従来の3分岐型ロックインピクセル、更には4分岐型ロックインピクセル以上の複雑な画素構造と等価な機能を単純な構造で実現し、高解像度化が可能で高精度な3D撮像ユニット、この3D撮像ユニットを利用したカメラ、及び3D画像生成方法を提供することを目的とする。 In view of the above problems, the present invention realizes a function equivalent to a pixel structure more complicated than a conventional three-branch lock-in pixel, or even a four-branch lock-in pixel, with a simple structure, and can achieve high resolution. The present invention aims to provide a highly accurate 3D imaging unit, a camera using this 3D imaging unit, and a 3D image generation method.

本発明の第1の態様は、(a)対象物からのパルス状の反射光を受光して光電変換する複数の画素を、マトリクス状に配列した画素アレイ部と、(b)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで画素を駆動して第1のアナログ信号を生成し、第1フレームとは異なる時間領域の第2フレームにおいて、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで画素を駆動して第2のアナログ信号を生成する駆動部と、(c)第1及び第2フレームのそれぞれにおいて、マトリクスの特定の行に配置された複数の画素からの第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するカラム処理回路と、(d)第1及び第2のデジタルデータを互いに弁別して出力する分配器と、(e)弁別された第1及び第2のデジタルデータを独立して格納する第1及び第2メモリと、(f)第1及び第2メモリから読み出された第1及び第2のデジタルデータを入力し、対象物までの距離を算出する距離演算部を備える3D撮像ユニットであることを要旨とする。 A first aspect of the present invention includes (a) a pixel array section in which a plurality of pixels that receive pulsed reflected light from an object and perform photoelectric conversion are arranged in a matrix; and (b) in a first frame. , the pixels are driven to generate a first analog signal at the timing of the first acquisition achievement period defined in synchronization with the pulse of the projection light that generates the reflected light, and the second analog signal is generated in a time domain different from the first frame. In the frame, a driving unit that drives a pixel to generate a second analog signal at the timing of a second acquisition period defined for a pulse of projection light with a length different from the first acquisition period; ) In each of the first and second frames, first and second analog signals from a plurality of pixels arranged in a specific row of the matrix are independently read out and converted into first and second digital data. a column processing circuit; (d) a distributor that discriminates and outputs first and second digital data; and (e) first and second digital data that independently store the discriminated first and second digital data. 2 memory, and (f) a distance calculation unit that inputs the first and second digital data read from the first and second memories and calculates the distance to the target object. This is the summary.

本発明の第2の態様は、(a)対象物からのパルス状の反射光を受光して光電変換し、互いに異なる電荷移動経路に沿って光電変換された信号電荷を転送する第1及び第2電荷振分機構を光電変換部の周辺にそれぞれ有した、複数の画素をマトリクス状に配列した画素アレイ部と、(b)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで第1電荷振分機構を駆動して第1のアナログ信号を生成し、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで第2電荷振分機構を駆動して第2のアナログ信号を生成し、第2フレームにおいて、投影光のパルスを出射しない状態で、第1取得達成期間のタイミングで第1電荷振分機構を駆動して第3のアナログ信号を生成し、第2取得達成期間のタイミングで第2電荷振分機構を駆動して第4のアナログ信号を生成する駆動部と、(c)マトリクスの特定の行に配置された複数の画素からの第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するカラム処理回路と、(d)第1~第4のデジタルデータを互いに弁別して出力する分配器と、(e)弁別された第1~第4のデジタルデータをそれぞれ独立して格納する第1~第4メモリと、(f)第1~第4メモリから読み出されたデータを入力し、対象物までの距離を算出する距離演算部を備える3D撮像ユニットであることを要旨とする。 A second aspect of the present invention provides (a) a first and a second device that receives pulsed reflected light from a target object, performs photoelectric conversion on the received pulsed light, and transfers the photoelectrically converted signal charges along mutually different charge transfer paths. (b) A pixel array section in which a plurality of pixels are arranged in a matrix, each having a charge distribution mechanism around the photoelectric conversion section; drive the first charge distribution mechanism to generate the first analog signal at the timing of the first acquisition achievement period defined by the first acquisition achievement period; drive the second charge distribution mechanism to generate the second analog signal at the timing of the second acquisition achievement period, and in the second frame, drive the second charge distribution mechanism at the timing of the first acquisition achievement period without emitting pulses of projection light. a drive unit that drives the first charge distribution mechanism to generate a third analog signal, and drives the second charge distribution mechanism to generate a fourth analog signal at the timing of the second acquisition achievement period; (c) a column processing circuit that independently reads first to fourth analog signals from a plurality of pixels arranged in a specific row of the matrix and converts them into first to fourth digital data; (d) (e) a distributor that discriminates and outputs the first to fourth digital data; (e) first to fourth memories that independently store the discriminated first to fourth digital data; and (f) The gist of the present invention is that it is a 3D imaging unit that includes a distance calculation section that inputs data read out from the first to fourth memories and calculates the distance to an object.

本発明の第3の態様は、(a)対象物に光パルスを出射する発光部と、(b)対象物からのパルス状の反射光の光路を調整する撮像光学系と、(c)撮像光学系によって調整された反射光を受光して光電変換する複数の画素を、マトリクス状に配列した画素アレイ部と、(d)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで画素を駆動して第1のアナログ信号を生成し、第1フレームとは異なる時間領域の第2フレームにおいて、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで画素を駆動して第2のアナログ信号を生成する駆動部と、(f)第1及び第2フレームのそれぞれにおいて、マトリクスの特定の行に配置された複数の画素からの第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するカラム処理回路と、(g)第1及び第2のデジタルデータを互いに弁別して出力する分配器と、(h)弁別された第1及び第2のデジタルデータを独立して格納する第1及び第2メモリと、(i)第1及び第2メモリから読み出された第1及び第2のデジタルデータを入力し、対象物までの距離を算出する距離演算部を備えるカメラであることを要旨とする。 A third aspect of the present invention includes (a) a light emitting unit that emits light pulses to a target object, (b) an imaging optical system that adjusts the optical path of pulsed reflected light from the target object, and (c) an imaging optical system. (d) A pixel array section in which a plurality of pixels that receive reflected light adjusted by an optical system and photoelectrically convert it are arranged in a matrix; drive the pixels to generate the first analog signal at the timing of the first acquisition achievement period defined by (f) a drive section that drives the pixels to generate the second analog signal at the timing of the second acquisition achievement period defined for the pulse of the projection light; (g) a column processing circuit that independently reads first and second analog signals from a plurality of pixels arranged in a specific row and converts them into first and second digital data; (h) first and second memories that independently store the discriminated first and second digital data; (i) first and second memories; The gist is that the camera is equipped with a distance calculation unit that inputs first and second digital data read from the camera and calculates the distance to the target object.

本発明の第4の態様は、(a)対象物に光パルスを出射する発光部と、(b)対象物からのパルス状の反射光の光路を調整する撮像光学系と、(c)撮像光学系によって調整された反射光を受光して光電変換し、互いに異なる電荷移動経路に沿って光電変換された信号電荷を転送する第1及び第2電荷振分機構を光電変換部の周辺にそれぞれ有した、複数の画素をマトリクス状に配列した画素アレイ部と、(d)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで第1電荷振分機構を駆動して第1のアナログ信号を生成し、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで第2電荷振分機構を駆動して第2のアナログ信号を生成し、第2フレームにおいて、投影光のパルスを出射しない状態で、第1取得達成期間のタイミングで第1電荷振分機構を駆動して第3のアナログ信号を生成し、第2取得達成期間のタイミングで第2電荷振分機構を駆動して第4のアナログ信号を生成する駆動部と、(e)マトリクスの特定の行に配置された複数の画素からの第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するカラム処理回路と、(f)第1~第4のデジタルデータを互いに弁別して出力する分配器と、(g)弁別された第1~第4のデジタルデータをそれぞれ独立して格納する第1~第4メモリと、(h) 第1~第4メモリから読み出されたデータを入力し、対象物までの距離を算出する距離演算部を備えるカメラであることを要旨とする。 A fourth aspect of the present invention includes (a) a light emitting unit that emits light pulses to a target object, (b) an imaging optical system that adjusts the optical path of pulsed reflected light from the target object, and (c) an imaging optical system. First and second charge distribution mechanisms are provided around the photoelectric conversion section, respectively, for receiving the reflected light adjusted by the optical system, photoelectrically converting it, and transferring the photoelectrically converted signal charges along different charge transfer paths. (d) in the first frame, at the timing of the first acquisition achievement period defined in synchronization with the pulse of the projection light that generates the reflected light; A second charge distribution mechanism is driven to generate a first analog signal, and a second charge distribution mechanism is driven to generate a first analog signal, and a second charge distribution mechanism is generated at a timing of a second acquisition achievement period defined for a pulse of projection light with a length different from the first acquisition achievement period. The dividing mechanism is driven to generate a second analog signal, and in the second frame, without emitting pulses of projection light, the first charge distribution mechanism is driven at the timing of the first acquisition achievement period to generate a third analog signal. (e) a drive section that generates an analog signal of , and drives a second charge distribution mechanism to generate a fourth analog signal at the timing of the second acquisition achievement period; (f) a column processing circuit that independently reads the first to fourth analog signals from the pixels and converts them into first to fourth digital data, and (f) distinguishes the first to fourth digital data from each other and outputs them. (g) first to fourth memories that independently store the discriminated first to fourth digital data, and (h) data read from the first to fourth memories. The gist is that the camera is equipped with a distance calculation unit that inputs input data and calculates the distance to the target object.

本発明の第5の態様は、(a)複数の画素をマトリクス状に配列した画素アレイ部を用い、対象物からのパルス状の反射光を受光して光電変換するステップと、(b)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで画素を駆動して第1のアナログ信号を生成するステップと、(c)第1フレームとは異なる時間領域の第2フレームにおいて、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで画素を駆動して第2のアナログ信号を生成するステップと、(d)第1及び第2フレームのそれぞれにおいて、マトリクスの特定の行に配置された複数の画素からの第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するステップと、(e)第1及び第2のデジタルデータを互いに弁別して出力するステップと、(f)弁別された第1及び第2のデジタルデータを独立して第1及び第2メモリにそれぞれ格納するステップと、(g)第1及び第2メモリから読み出された第1及び第2のデジタルデータを入力し、対象物までの距離を算出するステップを含む3D画像生成方法であることを要旨とする。 A fifth aspect of the present invention includes (a) using a pixel array section in which a plurality of pixels are arranged in a matrix to receive and photoelectrically convert pulsed reflected light from an object; (c) generating a first analog signal by driving a pixel at the timing of a first acquisition achievement period defined in synchronization with a pulse of projection light that generates reflected light in one frame; (c) a first frame; In a second frame in a time domain different from the first acquisition period, the pixel is driven at the timing of a second acquisition period defined for the pulse of the projection light with a length different from the first acquisition period to generate a second analog signal. (d) in each of the first and second frames, independently reading first and second analog signals from a plurality of pixels arranged in a specific row of the matrix; (e) discriminating the first and second digital data from each other and outputting the same; (f) converting the discriminated first and second digital data into the first digital data independently; and (g) inputting the first and second digital data read from the first and second memories and calculating the distance to the target object. The gist is that it is a generation method.

本発明の第6の態様は、(a)互いに異なる電荷移動経路に沿って信号電荷を転送する第1及び第2電荷振分機構を、信号電荷を生成する光電変換部の周辺にそれぞれ有した複数の画素をマトリクス状に配列した画素アレイ部を用い、対象物からのパルス状の反射光を受光して光電変換するステップと、(b)第1フレームにおいて、反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで第1電荷振分機構を駆動して第1のアナログ信号を生成し、第1取得達成期間とは異なる長さで投影光のパルスに対し規定される第2取得達成期間のタイミングで第2電荷振分機構を駆動して第2のアナログ信号を生成するステップと、(c)第2フレームにおいて、投影光のパルスを出射しない状態で、第1取得達成期間のタイミングで第1電荷振分機構を駆動して第3のアナログ信号を生成し、第2取得達成期間のタイミングで第2電荷振分機構を駆動して第4のアナログ信号を生成するステップと、(d)マトリクスの特定の行に配置された複数の画素からの第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するステップと、(e)第1~第4のデジタルデータを互いに弁別して出力するステップと、(f)弁別された第1~第4のデジタルデータをそれぞれ独立して第1~第4メモリに格納するステップと、(g)第1~第4メモリから読み出されたデータを入力し、対象物までの距離を算出するステップを含む3D画像生成方法であることを要旨とする。 A sixth aspect of the present invention provides (a) first and second charge distribution mechanisms that transfer signal charges along different charge transfer paths, respectively, in the periphery of a photoelectric conversion unit that generates signal charges. (b) using a pixel array section in which a plurality of pixels are arranged in a matrix to receive and photoelectrically convert pulsed reflected light from an object; and (b) converting projection light to generate reflected light in the first frame. A first charge distribution mechanism is driven to generate a first analog signal at the timing of a first acquisition achievement period defined in synchronization with the pulse, and a pulse of projection light is generated with a length different from the first acquisition achievement period. (c) a state in which pulses of projection light are not emitted in the second frame; Then, the first charge distribution mechanism is driven at the timing of the first acquisition achievement period to generate the third analog signal, and the second charge distribution mechanism is driven at the timing of the second acquisition achievement period to generate the fourth analog signal. (d) independently reading first to fourth analog signals from a plurality of pixels arranged in a specific row of the matrix and converting them into first to fourth digital data; (e) discriminating the first to fourth digital data from each other and outputting the same; and (f) storing the discriminated first to fourth digital data independently in the first to fourth memories. and (g) inputting the data read from the first to fourth memories and calculating the distance to the target object.

本発明によれば、従来の3分岐型ロックインピクセル等の複雑な画素構造と等価な機能を単純な構造で実現し、高解像度化が可能で高精度な3D撮像ユニット、この3D撮像ユニットを利用したカメラ、及び3D画像生成方法を提供できる。 According to the present invention, a high-precision 3D imaging unit that achieves functions equivalent to a conventional three-branch lock-in pixel or other complex pixel structure with a simple structure, and is capable of achieving high resolution. The camera used and the 3D image generation method can be provided.

本発明の第1の実施形態に係る3D撮像ユニットの主要部の一例の概略を説明する論理的なブロック図である。FIG. 2 is a logical block diagram schematically explaining an example of a main part of the 3D imaging unit according to the first embodiment of the present invention. 第1の実施形態に係る3D撮像ユニットの要素に含まれる受光部及び記憶部の内部構造を説明する模式的なブロック図である。FIG. 2 is a schematic block diagram illustrating the internal structure of a light receiving section and a storage section included in the elements of the 3D imaging unit according to the first embodiment. 第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置の周辺回路に含まれる制御部の内部構造をハードウェア資源として説明する論理的なブロック図である。FIG. 2 is a logical block diagram illustrating the internal structure of a control unit included in the peripheral circuit of the solid-state imaging device, which is an element of the 3D imaging unit according to the first embodiment, as a hardware resource. 第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置の1分岐型画素の構造の概略を説明する平面図である。FIG. 2 is a plan view schematically illustrating the structure of a one-branch pixel of a solid-state imaging device that is an element of a 3D imaging unit according to a first embodiment. 第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置の1分岐型画素の例を示す回路図である。FIG. 3 is a circuit diagram showing an example of a one-branch type pixel of a solid-state imaging device that is an element of the 3D imaging unit according to the first embodiment. 第1の実施形態に係る3D画像生成方法を説明するタイミング図である。FIG. 3 is a timing diagram illustrating a 3D image generation method according to the first embodiment. 異なる厚さのシリコン(Si)エピタキシャル成長層における波長に対する光電変換割合の変化を示すグラフである。2 is a graph showing changes in photoelectric conversion ratio with respect to wavelength in silicon (Si) epitaxial growth layers of different thicknesses. 異なる厚さのSiエピタキシャル成長層を用いた場合の画素のアスペクト比を示す模式図である。FIG. 3 is a schematic diagram showing the aspect ratio of a pixel when Si epitaxial growth layers of different thicknesses are used. 第1の実施形態に係る3D撮像ユニットの断面図の例を示す模式図である。FIG. 2 is a schematic diagram showing an example of a cross-sectional view of the 3D imaging unit according to the first embodiment. 第1の実施形態に係る3D撮像ユニットの他の断面図の例を示す別の模式図である。FIG. 7 is another schematic diagram showing an example of another cross-sectional view of the 3D imaging unit according to the first embodiment. 第1の実施形態に係る3D撮像ユニットの更に他の断面図の例を示す、更に別の模式図である。FIG. 7 is yet another schematic diagram showing yet another example of a cross-sectional view of the 3D imaging unit according to the first embodiment. 本発明の第2の実施形態に係る3D画像生成方法を説明するタイミング図である。FIG. 7 is a timing diagram illustrating a 3D image generation method according to a second embodiment of the present invention. 第2の実施形態の第1変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 1st modification of 2nd Embodiment. 第2の実施形態の第2変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 2nd modification of 2nd Embodiment. 第2の実施形態の第3変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 3rd modification of 2nd Embodiment. 本発明の第3の実施形態に係る3D撮像ユニットの要素である固体撮像装置の2分岐型画素の構造の概略を説明する平面図である。FIG. 7 is a plan view schematically illustrating the structure of a two-branch pixel of a solid-state imaging device that is an element of a 3D imaging unit according to a third embodiment of the present invention. 第3の実施形態に係る3D撮像ユニットの要素である固体撮像装置の画素の例を示す回路図である。FIG. 7 is a circuit diagram showing an example of a pixel of a solid-state imaging device that is an element of a 3D imaging unit according to a third embodiment. 第3の実施形態に係る3D画像生成方法を説明するタイミング図である。FIG. 7 is a timing diagram illustrating a 3D image generation method according to a third embodiment. 本発明の第1及び第3の実施形態、並びに従来技術に係る3D撮像ユニットを構成する固体撮像装置の画素の面積を比較するための平面図である。FIG. 3 is a plan view for comparing the areas of pixels of solid-state imaging devices that constitute a 3D imaging unit according to the first and third embodiments of the present invention and a conventional technique. 第3の実施形態の第1変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 1st modification of 3rd Embodiment. 第3の実施形態の第2変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 2nd modification of 3rd Embodiment. 第3の実施形態の第3変形例に係る3D画像生成方法を説明する模式図である。It is a schematic diagram explaining the 3D image generation method based on the 3rd modification of 3rd Embodiment. その他の実施形態に係る3D撮像ユニットの周辺回路による調整動作の流れの概略を説明するフローチャートである。7 is a flowchart illustrating an outline of an adjustment operation performed by a peripheral circuit of a 3D imaging unit according to another embodiment. その他の実施形態に係る3D画像生成方法を説明するタイミング図である。FIG. 7 is a timing diagram illustrating a 3D image generation method according to another embodiment. 更に他の実施形態に係る3D画像生成方法を説明するタイミング図である。FIG. 7 is a timing diagram illustrating a 3D image generation method according to still another embodiment. 本発明の第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットの利用分野の一例であるカメラの構造の概略を説明するブロック図である。1 is a block diagram illustrating an outline of the structure of a camera, which is an example of a field of application of a 3D imaging unit according to first to third embodiments of the present invention and modifications thereof; FIG. 比較例に係る固体撮像装置の画素の構造の概略を説明する平面図である。FIG. 2 is a plan view schematically illustrating the structure of a pixel of a solid-state imaging device according to a comparative example. 比較例に係る固体撮像装置を駆動する際の動作を説明するタイミング図である。FIG. 7 is a timing diagram illustrating an operation when driving a solid-state imaging device according to a comparative example. 比較のために、従来の固体撮像装置の主要部の一例の概略を説明する論理的なブロック図である。1 is a logical block diagram illustrating an outline of an example of a main part of a conventional solid-state imaging device for comparison. 従来の固体撮像装置に含まれる受光部及び記憶部の内部構造を説明する模式的なブロック図である。FIG. 2 is a schematic block diagram illustrating the internal structure of a light receiving section and a storage section included in a conventional solid-state imaging device. 従来の固体撮像装置の3分岐型画素の構造の概略を説明する平面図である。FIG. 2 is a plan view schematically illustrating the structure of a three-branch pixel of a conventional solid-state imaging device. 従来の固体撮像装置の画素の例を示す回路図である。FIG. 2 is a circuit diagram showing an example of a pixel of a conventional solid-state imaging device. 従来の固体撮像装置を駆動する際の動作を説明するタイミング図である。FIG. 2 is a timing diagram illustrating an operation when driving a conventional solid-state imaging device. 従来の固体撮像装置を駆動する際の動作の概略を説明するタイミング図である。FIG. 2 is a timing diagram illustrating an outline of an operation when driving a conventional solid-state imaging device. 従来の固体撮像装置を駆動する際の動作を説明するタイミング図である。FIG. 2 is a timing diagram illustrating an operation when driving a conventional solid-state imaging device.

次に、図面を参照して、本発明の第1~第3の実施形態を説明する。第1~第3の実施形態及びそれらの変形例に係る図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、各部材の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。又、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。 Next, first to third embodiments of the present invention will be described with reference to the drawings. In the description of the drawings related to the first to third embodiments and their modifications, the same or similar parts are given the same or similar symbols. However, it should be noted that the drawings are schematic and that the relationship between the thickness and the planar dimension, the ratio of the thickness of each member, etc. may differ from the actual one. Therefore, the specific thickness and dimensions should be determined with reference to the following explanation. Furthermore, it goes without saying that the drawings include portions with different dimensional relationships and ratios.

又、第1~第3の実施形態及びそれらの変形例は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、回路素子や回路ブロックの構成や配置、或いは半導体チップ上でのレイアウト等を下記のものに特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。 Further, the first to third embodiments and their modifications illustrate devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention The following does not specify the structure or arrangement of circuit blocks, or the layout on a semiconductor chip. The technical idea of the present invention can be modified in various ways within the technical scope defined by the claims.

尚、以下の第1~第3の実施形態及びそれらの変形例の説明では、第1伝導型をp型、第2伝導型をn型として説明するが、第1伝導型をn型、第2伝導型をp型としても、電気的な極性を反対にすれば同様な効果が得られることは容易に理解できるであろう。この場合、パルス波形のハイレベルとローレベルも、当業者の技術常識に応じて、適宜反転する必要が発生する場合もあることは勿論である。例えば、以下の図2には、説明の便宜上、複数の画素(測距素子)が画素アレイ部に2次元マトリクス状に配列された3D撮像装置を基礎とする3D撮像ユニットを示すが、単なる例示に過ぎない。画素アレイ部に1次元的に測距素子が画素として配列されたラインセンサのレイアウトでも構わない。又、画素アレイ部に単一の測距素子のみが配置された単純な構造の距離センサであっても構わない。 In the following description of the first to third embodiments and their modifications, the first conductivity type is p-type and the second conductivity type is n-type. It will be easily understood that even if the 2-conductivity type is changed to the p-type, the same effect can be obtained by reversing the electrical polarity. In this case, it goes without saying that the high level and low level of the pulse waveform may also need to be appropriately inverted according to the technical common sense of those skilled in the art. For example, for convenience of explanation, FIG. 2 below shows a 3D imaging unit based on a 3D imaging device in which a plurality of pixels (ranging elements) are arranged in a two-dimensional matrix in a pixel array section, but this is merely an example. It's nothing more than that. A line sensor layout in which distance measuring elements are one-dimensionally arranged as pixels in a pixel array section may also be used. Alternatively, the distance sensor may have a simple structure in which only a single distance measuring element is arranged in the pixel array section.

(第1の実施形態)
図1に示すように、本発明の第1の実施形態に係る3D撮像ユニットは、受光部18と、受光部18の周辺に配置した駆動部15等の周辺回路部を集積化した2次元イメージセンサ(固体撮像装置)を要素とする。固体撮像装置を構成する受光部18には、図2に示すように、2次元マトリクス状に多数の画素Xij(i=1~n,j=1~m;m,nはそれぞれ2以上の正の整数である。)が配列されており、方形状の画素アレイを構成している。そして、画素アレイをなす受光部18の上辺部には駆動部15が、下辺部には図1において図示を省略した水平走査回路22が、それぞれ画素行X11~X1m;X21~X2m;……;Xn1~Xnm方向に沿って設けられている。受光部18の左辺部には、画素列X11~Xn1;X12~Xn2;……;X1j~Xnj;……;X1m~Xnm方向に沿って、図1において図示を省略した垂直走査回路21が設けられている。駆動部15には各画素Xijが測距素子として距離測定を行うに必要な光を繰り返しパルス信号として投影する発光部19が接続されている。
(First embodiment)
As shown in FIG. 1, the 3D imaging unit according to the first embodiment of the present invention has a two-dimensional image in which a light receiving section 18 and peripheral circuit sections such as a driving section 15 arranged around the light receiving section 18 are integrated. The element is a sensor (solid-state imaging device). As shown in FIG. 2, the light receiving section 18 constituting the solid-state imaging device has a large number of pixels X ij (i=1 to n, j=1 to m; m and n are each 2 or more) in a two-dimensional matrix. ) are arranged, forming a rectangular pixel array. The driving unit 15 is located on the upper side of the light receiving unit 18 forming the pixel array, and the horizontal scanning circuit 22 (not shown in FIG. 1) is located on the lower side of the pixel rows X 11 to X 1m ; ;...; Provided along the X n1 to X nm direction. On the left side of the light receiving section 18, there are pixel columns X 11 to X n1 ; X 12 to X n2 ;...; X 1j to X nj ;...; A vertical scanning circuit 21, which is omitted, is provided. The driving unit 15 is connected to a light emitting unit 19 that repeatedly projects light necessary for each pixel X ij to measure distance as a distance measuring element as a pulse signal.

図2において、画素アレイをなす受光部18の下辺と水平走査回路22の間には、受光部18からの信号を処理するノイズ処理回路NC~NCが設けられている。ノイズ処理回路NCは、相関二重サンプリング回路(CDS)23とアナログ―デジタル変換回路(ADC)24から構成される。受光部18からの出力信号は、相関二重サンプリング回路23によりノイズ抑制されたのち、アナログ―デジタル変換回路24によりデジタルデータに変換される。図示を省略しているが、ノイズ処理回路NC~NCも、ノイズ処理回路NCと同様に、相関二重サンプリング回路(CDS)23とアナログ―デジタル変換回路(ADC)24から構成されている。 In FIG. 2, noise processing circuits NC 1 to NC m for processing signals from the light receiving section 18 are provided between the lower side of the light receiving section 18 forming the pixel array and the horizontal scanning circuit 22. The noise processing circuit NC 1 includes a correlated double sampling circuit (CDS) 23 and an analog-to-digital conversion circuit (ADC) 24. The output signal from the light receiving section 18 is subjected to noise suppression by a correlated double sampling circuit 23 and then converted into digital data by an analog-digital conversion circuit 24. Although not shown, the noise processing circuits NC 2 to NC m are also composed of a correlated double sampling circuit (CDS) 23 and an analog-to-digital conversion circuit (ADC) 24, similar to the noise processing circuit NC 1 . There is.

駆動部15には、制御部14から駆動部15を制御する制御信号が伝達される。制御部14には、制御部14での一連の動作を命令するプログラムを記憶したプログラム記憶装置17と、制御部14における論理演算に必要なデータやしきい値等を記憶するデータ記憶装置13が接続される。制御部14には更に、制御部14における論理演算の結果を出力する出力部16が接続されている。データ記憶装置13には受光部18からの出力信号を、記憶部11を介して入力し、距離画像の形成に必要な演算処理を実施する距離演算部12が接続されている。距離演算部12は、図1に示した対象物10と受光部18との推定距離Lを計算する。 A control signal for controlling the drive unit 15 is transmitted from the control unit 14 to the drive unit 15 . The control unit 14 includes a program storage device 17 that stores a program that instructs a series of operations in the control unit 14, and a data storage device 13 that stores data, threshold values, etc. necessary for logical operations in the control unit 14. Connected. The control section 14 is further connected to an output section 16 that outputs the results of logical operations in the control section 14 . A distance calculation section 12 is connected to the data storage device 13, which inputs the output signal from the light receiving section 18 via the storage section 11 and performs calculation processing necessary for forming a distance image. The distance calculating section 12 calculates an estimated distance L between the object 10 and the light receiving section 18 shown in FIG.

駆動部15、水平走査回路22、垂直走査回路21によって受光部18内の画素Xijが順次走査され、画素信号の読み出しや電子シャッタ動作が実行される。即ち、本発明の第1の実施形態に係る3D撮像ユニットでは、受光部18を各画素行X11~X1m;X21~X2m;……;Xn1~Xnm単位で垂直方向に走査することにより、各画素行X11~X1m;X21~X2m;……;Xn1~Xnmの画素信号を各画素列X11~Xn1;X12~Xn2;……;X1j~Xnj;……;X1m~Xnm毎に設けられた垂直出力信号線によって画素信号を読み出す構成となっている。 The driving section 15, the horizontal scanning circuit 22, and the vertical scanning circuit 21 sequentially scan the pixels X ij in the light receiving section 18, and read out pixel signals and perform an electronic shutter operation. That is, in the 3D imaging unit according to the first embodiment of the present invention, the light receiving unit 18 is scanned in the vertical direction in units of each pixel row X 11 to X 1m ; By doing so, the pixel signals of each pixel row X 11 ~ X 1m ;X 21 ~ X 2m ; ...; The pixel signal is read out by vertical output signal lines provided every 1j to Xnj ;...; X1m to Xnm .

尚、図2に主要部を示した、画素アレイをなす受光部18及び受光部18の周辺に位置する駆動部15(図1参照。)、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NCを同一半導体チップにモノリシックに集積化し、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16等を他の半導体チップに集積された構造でも、受光部18、駆動部15、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NC、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16が同一半導体チップに集積された構造でもかまわない。 The main parts are shown in FIG. 2, including a light receiving section 18 forming a pixel array, a driving section 15 located around the light receiving section 18 (see FIG. 1), a horizontal scanning circuit 22, a vertical scanning circuit 21, and a noise processing circuit. NC 1 to NC m are monolithically integrated on the same semiconductor chip, and the distance calculation section 12, control section 14, program storage device 17, data storage device 13, storage section 11, output section 16, etc. are integrated on another semiconductor chip. Even in the structure, the light receiving section 18, the driving section 15, the horizontal scanning circuit 22, the vertical scanning circuit 21, the noise processing circuits NC 1 to NC m , the distance calculation section 12, the control section 14, the program storage device 17, the data storage device 13, A structure in which the storage section 11 and the output section 16 are integrated on the same semiconductor chip may be used.

具体的には、画素アレイをなす受光部18、駆動部15、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NCを第1の半導体チップに集積化し、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16等を第2の半導体チップに集積化して、第1の半導体チップと第2の半導体チップを積層化して一体化した構造でもかまわない。あるいは、受光部18を第1の半導体チップに構成し、駆動部15、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NCを第2半導体チップに集積化し、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16等を第3の半導体チップに集積化して、第1~第3の半導体チップを積層化して一体化した構造でもかまわない。 Specifically, the light receiving section 18, the driving section 15, the horizontal scanning circuit 22, the vertical scanning circuit 21, and the noise processing circuits NC1 to NCm forming a pixel array are integrated on a first semiconductor chip, and the distance calculating section 12, The control section 14, program storage device 17, data storage device 13, storage section 11, output section 16, etc. are integrated into a second semiconductor chip, and the first semiconductor chip and the second semiconductor chip are stacked and integrated. A similar structure is acceptable. Alternatively, the light receiving section 18 is configured on the first semiconductor chip, the driving section 15, the horizontal scanning circuit 22, the vertical scanning circuit 21, and the noise processing circuits NC 1 to NC m are integrated on the second semiconductor chip, and the distance calculating section 12 , a structure in which the control section 14, program storage device 17, data storage device 13, storage section 11, output section 16, etc. are integrated in a third semiconductor chip, and the first to third semiconductor chips are stacked and integrated. But it doesn't matter.

いずれにせよ、これらの集積化構造は、単なる例示に過ぎないので、図1に示したトポロジやレイアウトに限定されない。図1において破線で囲んだ領域内に位置する距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16の少なくとも一部の回路等が別々のチップや基板等に搭載される態様でも構わない。例えば、図26に示したカメラの構成における中央処理制御部361に図1の制御部14の機能を分担させるような構成でもかまわない。 In any event, these integrated structures are merely exemplary and are not limited to the topology or layout shown in FIG. At least some of the circuits of the distance calculating section 12, the control section 14, the program storage device 17, the data storage device 13, the storage section 11, and the output section 16 located within the area surrounded by the broken line in FIG. It may also be mounted on a board or the like. For example, a configuration may be adopted in which the central processing control section 361 in the camera configuration shown in FIG. 26 is made to share the functions of the control section 14 in FIG.

測距素子としての各画素X11~X1m;X21~X2m;……;Xn1~Xnmからの信号読み出しについては、概ね通常のCMOSイメージセンサと同様である。但し、各画素X11~X1m;X21~X2m;……;Xn1~Xnmのそれぞれの光電変換部からの信号電荷転送させるための第1駆動信号G1は、駆動部15から全画素X11~X1m;X21~X2m;……;Xn1~Xnmに同時に与えられ、しかも高い周波数の信号であるので、その期間には、スイッチングノイズが発生する。したがって画素部からの信号読み出しは、ノイズ処理回路NC~NCによる処理が終了した後に読み出し期間を設けて行う。記憶部11は、分配器(デマルチプレクサ)113、第1メモリ111及び第2メモリ112から構成される。1つの信号ラインから出力されたデジタルデータが、分配器(デマルチプレクサ)により弁別されて第1メモリ111又は第2メモリ112に記憶される。第1メモリ111及び第2メモリ112に格納されたデータは、距離演算部12に転送され、推定距離Lが計算される。 Signal reading from each pixel X 11 to X 1m ; X 21 to X 2m ;...; However, the first drive signal G1 for transferring signal charge from each photoelectric conversion section of each pixel X 11 to X 1m ; X 21 to X 2m ;...; Since the signals are simultaneously applied to the pixels X 11 to X 1m ; X 21 to X 2m ;...; Therefore, signal readout from the pixel portion is performed with a readout period provided after the processing by the noise processing circuits NC 1 to NC m is completed. The storage unit 11 includes a distributor (demultiplexer) 113, a first memory 111, and a second memory 112. Digital data output from one signal line is discriminated by a distributor (demultiplexer) and stored in the first memory 111 or the second memory 112. The data stored in the first memory 111 and the second memory 112 are transferred to the distance calculating section 12, and the estimated distance L is calculated.

制御部14は、図3に論理的な構成をブロック図で示すように、時間設定論理回路141、時間設定値出力制御回路142、距離画像出力制御回路143、設定値判定回路144及びシーケンス制御回路145をハードウェア資質として備える。時間設定論理回路141は、後述する図6に示す光投影時間T、第1取得達成期間τAA1、第2取得達成期間τAA2、第1電荷蓄積時間Ta1、第2電荷蓄積時間Ta2の値等を設定し、或いは、設定値判定回路144の出力信号に応じて、時間設定論理回路141は、後述する図6に示す光投影時間T、第1取得達成期間τAA1の値等を、適宜変更する論理回路である。 The control unit 14 includes a time setting logic circuit 141, a time setting value output control circuit 142, a distance image output control circuit 143, a setting value determination circuit 144, and a sequence control circuit, as shown in a block diagram of a logical configuration in FIG. 145 as the hardware qualification. The time setting logic circuit 141 has a light projection time T 0 , a first acquisition achievement period τ AA1 , a second acquisition achievement period τ AA2 , a first charge accumulation time T a1 , and a second charge accumulation time T a2 shown in FIG. 6 which will be described later. , or in accordance with the output signal of the set value determination circuit 144, the time setting logic circuit 141 sets the values of the light projection time T 0 and the first acquisition achievement period τ AA1 shown in FIG. This is a logic circuit that changes as appropriate.

時間設定値出力制御回路142は、時間設定論理回路141が設定若しくは変更した繰り返し周期時間T、光投影時間T、第1取得達成期間τAA1、第2取得達成期間τAA2、第1電荷蓄積時間Ta1、第2電荷蓄積時間Ta2及び電荷転送時間Ton等を駆動部15に制御信号として出力する論理回路である。第1駆動信号G1のパルス幅として定義される電荷転送時間Tonは、図6に示すようにオフセット時間を挟んだ異なるタイミングに時間設定されている。 The time setting value output control circuit 142 controls the repetition cycle time T C , the light projection time T 0 , the first acquisition achievement period τ AA1 , the second acquisition achievement period τ AA2 , and the first charge set or changed by the time setting logic circuit 141 . This is a logic circuit that outputs an accumulation time T a1 , a second charge accumulation time T a2 , a charge transfer time T on , etc. to the driving section 15 as a control signal. The charge transfer time T on defined as the pulse width of the first drive signal G1 is set at different timings with an offset time in between, as shown in FIG.

距離画像出力制御回路143は、距離画像のデータとして合成し、出力部16に出力する論理回路である。 The distance image output control circuit 143 is a logic circuit that synthesizes distance image data and outputs it to the output unit 16.

シーケンス制御回路145は時間設定論理回路141、時間設定値出力制御回路142、距離画像出力制御回路143、設定値判定回路144、プログラム記憶装置17及びデータ記憶装置13のそれぞれの動作をクロック信号に依拠して順次シーケンス制御する論理回路である。時間設定論理回路141、時間設定値出力制御回路142、距離画像出力制御回路143、設定値判定回路144及びシーケンス制御回路145のそれぞれはバス146を介して情報の送受信が可能である。 The sequence control circuit 145 relies on clock signals to operate each of the time setting logic circuit 141, time setting value output control circuit 142, distance image output control circuit 143, setting value determination circuit 144, program storage device 17, and data storage device 13. This is a logic circuit that performs sequential sequence control. Each of the time setting logic circuit 141, time setting value output control circuit 142, distance image output control circuit 143, setting value determination circuit 144, and sequence control circuit 145 can transmit and receive information via the bus 146.

図1に例示したコンピュータシステムにおいて、データ記憶装置13は、複数のレジスタ、複数のキャッシュメモリ、主記憶装置、補助記憶装置を含む一群の内から適宜選択された任意の組み合わせとすることも可能である。又、キャッシュメモリは1次キャッシュメモリと2次キャッシュメモリの組み合わせとしてもよく、更に3次キャッシュメモリを備えるヒエラルキーを有しても構わない。図示を省略しているが、データ記憶装置13に複数のレジスタが含まれる場合等においては、バス146はプログラム記憶装置17及びデータ記憶装置13等にまで延長されていても構わない。 In the computer system illustrated in FIG. 1, the data storage device 13 can be any combination appropriately selected from a group including a plurality of registers, a plurality of cache memories, a main storage device, and an auxiliary storage device. be. Further, the cache memory may be a combination of a primary cache memory and a secondary cache memory, or may have a hierarchy including a tertiary cache memory. Although not shown, if the data storage device 13 includes a plurality of registers, the bus 146 may be extended to the program storage device 17, the data storage device 13, etc.

図1に示した制御部14は、マイクロチップとして実装されたマイクロプロセッサ(MPU)等を使用してコンピュータシステムを構成することが可能である。又、コンピュータシステムを構成する制御部14として、算術演算機能を強化し信号処理に特化したデジタルシグナルプロセッサ(DSP)や、メモリや周辺回路を搭載し組込み機器制御を目的としたマイクロコントローラ(マイコン)等を用いてもよい。或いは、現在の汎用コンピュータのメインCPUを制御部14に用いてもよい。 The control unit 14 shown in FIG. 1 can configure a computer system using a microprocessor (MPU) or the like implemented as a microchip. In addition, the control unit 14 that makes up the computer system includes a digital signal processor (DSP) with enhanced arithmetic functions and specialized for signal processing, and a microcontroller (microcontroller) equipped with memory and peripheral circuits for the purpose of controlling embedded devices. ) etc. may be used. Alternatively, the main CPU of a current general-purpose computer may be used as the control unit 14.

更に、制御部14の一部の構成又はすべての構成をフィールド・プログラマブル・ゲート・アレイ(FPGA)のようなプログラマブル・ロジック・デバイス(PLD)で構成してもよい。PLDによって、制御部14の一部又はすべてを構成した場合は、データ記憶装置13は、PLDを構成する論理ブロックの一部に含まれるメモリブロック等のメモリ要素として構成することができる。更に、制御部14は、CPUコア風のアレイとPLD風のプログラム可能なコアを同じチップに搭載した構造でもよい。このCPUコア風のアレイは、予めPLD内部に搭載されたハードマクロCPUと、PLDの論理ブロックを用いて構成したソフトマクロCPUを含む。つまりPLDの内部においてソフトウェア処理とハードウェア処理を混在させた構成でもよい。 Furthermore, part or all of the configuration of the control unit 14 may be configured with a programmable logic device (PLD) such as a field programmable gate array (FPGA). When part or all of the control unit 14 is configured by a PLD, the data storage device 13 can be configured as a memory element such as a memory block included in a part of the logical blocks that configure the PLD. Furthermore, the control unit 14 may have a structure in which a CPU core-like array and a PLD-like programmable core are mounted on the same chip. This CPU core-like array includes a hard macro CPU pre-installed inside the PLD and a soft macro CPU configured using logic blocks of the PLD. In other words, a configuration in which software processing and hardware processing are mixed within the PLD may be used.

図2に示した第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素X11~X1m;X21~X2m;……;Xn1~Xnmのそれぞれの内の信号生成部181の具体的な平面構造の一例を、図4に示す。又、図4に示す平面構造に対応する等価的な回路図を図5に示す。 フォトダイオード(PD)からなる光電変換部41の下端の右側に、n型の電荷蓄積領域43aが浮遊ドレイン領域FD1として、配置されている。又、光電変換部41の領域を囲むように、光電変換部41の左端の中央に電荷蓄積領域43aから離間して、n型の電荷排出領域43bが排出用ドレイン領域として配置されている。 Signal generation in each of the pixels X 11 to X 1m ; X 21 to X 2m ;...; An example of a specific planar structure of the portion 181 is shown in FIG. Further, an equivalent circuit diagram corresponding to the planar structure shown in FIG. 4 is shown in FIG. An n + type charge storage region 43a is arranged as a floating drain region FD1 on the right side of the lower end of the photoelectric conversion section 41 made of a photodiode (PD). Further, an n + type charge discharge region 43b is arranged as a drain region for discharge at the center of the left end of the photoelectric conversion section 41 and spaced apart from the charge accumulation region 43a so as to surround the region of the photoelectric conversion section 41.

図示していない遮光膜によって開口部以外を遮光して領域を定義された光電変換部41の周りを囲むように、1つの電荷振分機構を構成する転送トランジスタG1の転送ゲート電極42aと、1つの電荷排出機構を構成する排出トランジスタGDの排出ゲート電極42bが配置されている。転送ゲート電極42a及び排出ゲート電極42bには、それぞれ絶縁ゲート型トランジスタ構造を構成するように多結晶シリコン等の導電体薄膜が用いられている。 The transfer gate electrode 42a of the transfer transistor G1 constituting one charge distribution mechanism surrounds the photoelectric conversion section 41 whose region is defined by blocking light except for the opening with a light-shielding film (not shown); A discharge gate electrode 42b of a discharge transistor GD constituting one charge discharge mechanism is arranged. A conductive thin film such as polycrystalline silicon is used for the transfer gate electrode 42a and the discharge gate electrode 42b so as to form an insulated gate transistor structure, respectively.

絶縁ゲート型トランジスタ(MOSトランジスタ)構造をなす転送トランジスタG1のドレイン領域として、電荷蓄積領域43aが設けられ、排出トランジスタGDのドレイン領域として、電荷排出領域43bが設けられている。図5に示すように浮遊ドレイン領域FD1には補助容量C1が接続されている。図5の浮遊ドレイン領域FD1は、図4の電荷蓄積領域43aに対応する。補助容量C1は例えばデプリーション型MOS構造が採用可能である。図5に示す等価回路に対応して図4の平面パターンの光電変換部41の上の方には、光電変換部41の上側に隣接する他の光電変換部に接続される補助容量C1の平面構造が図示されている。図4の上に示した隣接する画素の補助容量C1は、基板の垂直方向に沿って、n型の拡散領域49と、n型に繋がったn型の拡散領域49の上に設けられたゲート絶縁膜(図示省略)と、このゲート絶縁膜の上に設けられたゲート電極47でMOSFETのゲート構造を構成して、nチャネルのデプリーション型MOS構造を実現している。ゲート電極47には多結晶シリコン等の導電体薄膜が採用可能である。 A charge storage region 43a is provided as a drain region of a transfer transistor G1 having an insulated gate transistor (MOS transistor) structure, and a charge discharge region 43b is provided as a drain region of a discharge transistor GD. As shown in FIG. 5, an auxiliary capacitor C1 is connected to the floating drain region FD1. Floating drain region FD1 in FIG. 5 corresponds to charge storage region 43a in FIG. 4. For example, a depletion type MOS structure can be adopted as the auxiliary capacitor C1. Corresponding to the equivalent circuit shown in FIG. 5, above the photoelectric conversion section 41 in the planar pattern of FIG. The structure is illustrated. The auxiliary capacitance C1 of the adjacent pixel shown in the upper part of FIG. 4 is provided on the n + type diffusion region 49 and the n type diffusion region 49 connected to the n + type along the vertical direction of the substrate. The gate insulating film (not shown) and the gate electrode 47 provided on the gate insulating film constitute the gate structure of the MOSFET, thereby realizing an n - channel depletion type MOS structure. For the gate electrode 47, a conductive thin film such as polycrystalline silicon can be used.

同様に、図4の中央の光電変換部(PD)41に対し、電荷蓄積領域43aを介して回路的に接続される補助容量C1は、平面パターン上、光電変換部41の下側の位置にn型の拡散領域と、n型に繋がったn型の拡散領域の上に設けられたゲート絶縁膜と、ゲート絶縁膜の上に設けられたゲート電極47によって、デプリーション型MOS構造を構成できる。図4の平面パターンの上方に位置する電荷蓄積領域43aの角部の内部に示した白抜きの四角形は、上側に隣接する他の光電変換部の電荷蓄積領域43aのコンタクトホールを模式的に示す。図4の平面パターンの上側に位置するゲート電極47の上部の右側に示した白抜きの四角形は、上側に隣接する他の光電変換部のゲート電極47のコンタクトホールを模式的に示すものである。図4では、上下の二つの白抜きの四角形を接続する縦の太い実線で模式的に示しているが、電荷蓄積領域43aと補助容量C1のゲート電極47とは、表面配線等を介して接続される。 Similarly, the auxiliary capacitor C1, which is circuit-connected to the photoelectric conversion unit (PD) 41 in the center of FIG. A depletion type MOS structure is formed by an n + type diffusion region, a gate insulating film provided on an n type diffusion region connected to the n + type, and a gate electrode 47 provided on the gate insulating film. Can be configured. The white rectangle shown inside the corner of the charge storage region 43a located above the plane pattern in FIG. 4 schematically shows the contact hole of the charge storage region 43a of another photoelectric conversion section adjacent to the upper side. . The white rectangle shown on the right side of the upper part of the gate electrode 47 located above the plane pattern in FIG. 4 schematically shows the contact hole of the gate electrode 47 of another photoelectric conversion section adjacent to the upper side. . In FIG. 4, the vertical thick solid line connecting the upper and lower two white squares is schematically shown, but the charge storage region 43a and the gate electrode 47 of the auxiliary capacitor C1 are connected via surface wiring etc. be done.

ここで、補助容量C1は、図4に示すように、MOS容量素子として付加してもよいが、本質的には、pn接合容量、配線間容量等、意図的な素子の付加がなくてもよい。ただし、第1の実施形態に係る3D撮像ユニットは、画素を微細化する目的を有するため、MOS容量を意図的に付加して、よりレイアウトが難しくなる条件について例示し、画素を微細化しても素子容量が減少しないことを説明する。即ち、第1の実施形態に係る3D撮像ユニットによれば、画素構造の平面パターンを微細化させた場合であっても、所望の平面パターンサイズの補助容量C1を画素内に配置可能である。図4の平面パターンにおいて、ゲート電極47の上辺の右側から、ゲート電極47の上方に突出した部分となる拡散領域49の内部に示した白抜きの四角形は、拡散領域49のコンタクトホールを示す。3カ所において直角に折れ曲がったい実線で模式的に示しているが、拡散領域49のコンタクトホールの上に延びる表面配線を介して、拡散領域49は接地電位(GND)に接続される。 Here, the auxiliary capacitor C1 may be added as a MOS capacitive element as shown in FIG. good. However, since the 3D imaging unit according to the first embodiment has the purpose of miniaturizing pixels, we will exemplify a condition in which MOS capacitance is intentionally added and the layout becomes more difficult, even if the pixels are miniaturized. Explain that the element capacitance does not decrease. That is, according to the 3D imaging unit according to the first embodiment, even when the planar pattern of the pixel structure is miniaturized, it is possible to arrange the auxiliary capacitor C1 of a desired planar pattern size within the pixel. In the planar pattern of FIG. 4, an open rectangle shown inside the diffusion region 49, which is a portion protruding above the gate electrode 47 from the right side of the upper side of the gate electrode 47, indicates a contact hole of the diffusion region 49. The diffusion region 49 is connected to the ground potential (GND) through a surface wiring extending above the contact hole of the diffusion region 49, as shown schematically by solid lines bent at right angles at three places.

光電変換部41に着目すると、光電変換部41の右下に位置する電荷蓄積領域43aをソース領域として、リセットゲート電極44を有するリセットトランジスタRTが構成されている。図4の上部には、光電変換部41の上側に隣接する他の光電変換部の電荷蓄積領域43aが示され、電荷蓄積領域43aをソース領域として、リセットゲート電極44を有する他の光電変換部のリセットトランジスタRTが構成されている。いずれのリセットゲート電極44も、多結晶シリコン等の導電体薄膜で構成できる。リセットトランジスタRTは、リセットゲート電極44を介して電荷蓄積領域43aに対向するリセットドレイン(RD)領域50を有する。 Focusing on the photoelectric conversion section 41, a reset transistor RT having a reset gate electrode 44 is configured using a charge storage region 43a located at the lower right of the photoelectric conversion section 41 as a source region. In the upper part of FIG. 4, a charge storage region 43a of another photoelectric conversion section adjacent to the upper side of the photoelectric conversion section 41 is shown, and the charge storage region 43a is used as a source region and the other photoelectric conversion section has a reset gate electrode 44. A reset transistor RT is configured. Each of the reset gate electrodes 44 can be made of a conductive thin film such as polycrystalline silicon. Reset transistor RT has a reset drain (RD) region 50 that faces charge storage region 43a via reset gate electrode 44.

リセットドレイン領域50は、増幅トランジスタSF1の増幅ドレイン領域と共通領域を構成している。増幅トランジスタSF1は、リセットドレイン領域50と共通領域を構成する増幅ドレイン領域と、増幅ドレイン領域に対向する増幅ソース領域51と、増幅ドレイン領域と増幅ソース領域51の間のチャネル領域の上にゲート絶縁膜を介して設けられた増幅ゲート電極47で構成される。図4の上側のパターンから分かるように、増幅ゲート電極47は、補助容量C1のゲート電極47と共通の導電体薄膜から構成されるので、図4では同一の符号を付している。補助容量C1のゲート電極47は電荷蓄積領域43aと電気的に接続されているので増幅トランジスタSF1の増幅ゲート電極47も電荷蓄積領域43aと電気的に接続される。図4の中央に示した光電変換部41に着目すると、光電変換部41の下側に示した増幅トランジスタSF1の増幅ゲート電極47も同様に、光電変換部41の電荷蓄積領域43aと電気的に接続されている。 The reset drain region 50 forms a common region with the amplification drain region of the amplification transistor SF1. The amplification transistor SF1 includes an amplification drain region forming a common region with the reset drain region 50, an amplification source region 51 opposite to the amplification drain region, and a gate insulating region over a channel region between the amplification drain region and the amplification source region 51. It is composed of an amplification gate electrode 47 provided through a film. As can be seen from the upper pattern in FIG. 4, the amplification gate electrode 47 is composed of the same conductive thin film as the gate electrode 47 of the auxiliary capacitor C1, and therefore is given the same reference numeral in FIG. Since the gate electrode 47 of the auxiliary capacitor C1 is electrically connected to the charge storage region 43a, the amplification gate electrode 47 of the amplification transistor SF1 is also electrically connected to the charge storage region 43a. Focusing on the photoelectric conversion section 41 shown in the center of FIG. It is connected.

図4の上と下に示した二つのリセットドレイン領域50のパターンの中央にそれぞれ示した1個の白抜きの四角形は、それぞれコンタクトホールを模式的に示すものである。太い実線で模式的に示したように、リセットドレイン領域50のコンタクトホールの上に延びる表面配線を介して、リセットドレイン領域50は電源電位(VDD)に接続される。電荷排出領域43bは、1個の白抜きの四角形で模式的に示したコンタクトホールの上を走る表面配線等を介して電源電位(VDD)に接続されている。増幅トランジスタSF1の増幅ソース領域51は、画素選択用の選択トランジスタSL1の選択ドレイン電極との共通領域として構成されている。選択トランジスタSL1は、増幅ソース領域51と共通領域を構成する選択ドレイン領域と、選択ドレイン領域に対向する選択ソース領域52と、選択ドレイン領域と選択ソース領域52の間のチャネル領域の上にゲート絶縁膜を介して設けられた選択ゲート電極46で構成される。 A single white rectangle shown at the center of each of the two patterns of the reset drain region 50 shown at the top and bottom of FIG. 4 schematically represents a contact hole. As schematically shown by the thick solid line, the reset drain region 50 is connected to the power supply potential (V DD ) via the surface wiring extending above the contact hole of the reset drain region 50. The charge discharge region 43b is connected to a power supply potential (V DD ) via a surface wiring or the like running over a contact hole schematically shown as a single white rectangle. The amplification source region 51 of the amplification transistor SF1 is configured as a common region with the selection drain electrode of the selection transistor SL1 for pixel selection. The selection transistor SL1 includes a selection drain region forming a common region with the amplification source region 51, a selection source region 52 opposite to the selection drain region, and a gate insulating region over the channel region between the selection drain region and the selection source region 52. It is composed of a selection gate electrode 46 provided through a film.

図4の平面パターンでは、選択トランジスタSL1の選択ソース領域52の内部には、1個の白抜きの四角形で模式的にコンタクトホールが示されている。選択トランジスタSL1の選択ソース領域52は、コンタクトホールを介して、第1の垂直出力信号線Sig1に接続される。選択トランジスタSL1の選択ゲート電極46には水平ラインの選択用制御信号Sが図2に示した垂直走査回路21から与えられる。選択用制御信号Sをハイレベルにすることにより、選択トランジスタSL1が導通し、ソースフォロア型の増幅トランジスタSF1で増幅された電荷蓄積領域43aの電位に対応する電位に第1の垂直出力信号線Sig1がなる。 In the planar pattern of FIG. 4, a contact hole is schematically shown as a single white rectangle inside the selection source region 52 of the selection transistor SL1. The selection source region 52 of the selection transistor SL1 is connected to the first vertical output signal line Sig1 via a contact hole. A horizontal line selection control signal S is applied to the selection gate electrode 46 of the selection transistor SL1 from the vertical scanning circuit 21 shown in FIG. By setting the selection control signal S to a high level, the selection transistor SL1 becomes conductive, and the first vertical output signal line Sig1 is brought to a potential corresponding to the potential of the charge storage region 43a amplified by the source follower type amplification transistor SF1. becomes.

光電変換部41の受光領域で発生した光電子は、転送ゲート電極42aを導通状態にすると、電荷蓄積領域43aに移動する。図1に示す撮像素子とほぼ同じ位置からパルス光を出射し、対象物10からの反射光を撮像素子で受光する。投影光は、例えば、発光ダイオード(LED)や半導体レーザ(LD)を用い、例えばnsオーダーからfsオーダーの極短時間のパルス光を投影させる。受信光は、対象物10と撮像素子との間の距離に応じて、投影光を出射した時間から遅延時間Tdだけ遅れて撮像素子に入射する。なお、図4の破線で囲まれた領域は、画素境界を決定する境界線である。 Photoelectrons generated in the light receiving region of the photoelectric conversion section 41 move to the charge storage region 43a when the transfer gate electrode 42a is turned on. Pulsed light is emitted from approximately the same position as the image sensor shown in FIG. 1, and reflected light from the object 10 is received by the image sensor. As the projection light, for example, a light emitting diode (LED) or a semiconductor laser (LD) is used to project extremely short pulsed light of, for example, ns order to fs order. The received light enters the image sensor after a delay time Td from the time when the projection light is emitted, depending on the distance between the object 10 and the image sensor. Note that the area surrounded by the broken line in FIG. 4 is a boundary line that determines a pixel boundary.

図6は、第1の実施形態に係る3D画像生成方法を説明するタイミング図である。図6(a)は、第1オンフレーム(ON1フレーム)と第2オンフレーム(ON2フレーム)の動作を交互に繰り返し行うことを示し、図6(b)は第1オンフレームのタイミング図であり、図6(c)は第2オンフレームのタイミング図である。図6(b)に示すように、第1オンフレームでは、光投影時間Tのタイミングで投影光を出射する。第1オンフレームにおける第1駆動信号G1のパルスも、光投影時間Tに同期させ第1取得達成期間τAA1を規定する。図6(a)に示すように、第1取得達成期間τAA1は第1電荷蓄積時間Ta1と同じ値に設定できる(τAA1=Ta1)。投影光は繰り返し周期時間(サイクルタイム)Tで周期的に発光する。 FIG. 6 is a timing diagram illustrating the 3D image generation method according to the first embodiment. FIG. 6(a) shows that the operations of the first on-frame (ON1 frame) and the second on-frame (ON2 frame) are alternately repeated, and FIG. 6(b) is a timing diagram of the first on-frame. , FIG. 6(c) is a timing diagram of the second on-frame. As shown in FIG. 6(b), in the first on-frame, the projection light is emitted at the timing of the light projection time T0 . The pulse of the first drive signal G1 in the first on-frame is also synchronized with the light projection time T 0 to define the first acquisition achievement period τ AA1 . As shown in FIG. 6A, the first acquisition achievement period τ AA1 can be set to the same value as the first charge accumulation time Ta1AA1 = Ta1 ). The projection light is periodically emitted with a repetition period time (cycle time) TC .

この第1取得達成期間τAA1のタイミングでパルス幅Tonの第1駆動信号G1を転送ゲート電極42aに印加することにより、第1駆動信号G1のパルスに合わせて電荷蓄積領域43aに蓄積される光電子は、受信光が遅れた分、受信光により発生した光電子より減少する。図6(c)に示すように、第2オンフレームでも、第1オンフレームと同様に、光投影時間Tのタイミングで投影光を出射する。第2オンフレームにおける第1駆動信号G1のパルスのタイミングは、光投影時間Tに同期した第2取得達成期間τAA2を規定するように決定され、パルス幅Tonの第1駆動信号G1が転送ゲート電極42aに印加される。第2取得達成期間τAA2は、投影光の立ち上がりから測られる時間であり、第2電荷蓄積時間Ta2とは異なる時間である。図6(c)に示すように、第2電荷蓄積時間Ta2は、排出トランジスタGDの排出ゲート電極42bに印加されるパルスの立ち下がりから測られて定義される。第2取得達成期間τAA2で取得された光電子は、電荷蓄積領域43aに蓄積される。図6(c)に示すタイミングで第1駆動信号G1を転送ゲート電極42aに印加することにより、第1駆動信号G1のパルスに合わせて電荷蓄積領域43aに第2取得達成期間τAA2で測定される光電子は、受信光が遅れた分、受信光により発生した光電子のうち、第1オンフレームで減少した分と同じ量だけ増加する。即ち被写体距離に応じて各々のフレームに対応した蓄積電荷量に違いが生じるため、各々のフレームにおける蓄積電荷量から被写体距離を求めることができる。 By applying the first drive signal G1 with a pulse width T on to the transfer gate electrode 42a at the timing of this first acquisition achievement period τ AA1 , charge is accumulated in the charge storage region 43a in accordance with the pulse of the first drive signal G1. The number of photoelectrons decreases compared to the number of photoelectrons generated by the received light due to the delay in the received light. As shown in FIG. 6C, in the second on-frame as well, projection light is emitted at the timing of the light projection time T0 , similarly to the first on-frame. The timing of the pulses of the first drive signal G1 in the second on-frame is determined to define a second acquisition achievement period τ AA2 synchronized with the optical projection time T 0 , and the first drive signal G1 with a pulse width T on is It is applied to the transfer gate electrode 42a. The second acquisition achievement period τ AA2 is a time measured from the rise of the projection light, and is a time different from the second charge accumulation time T a2 . As shown in FIG. 6(c), the second charge accumulation time T a2 is defined by being measured from the fall of the pulse applied to the discharge gate electrode 42b of the discharge transistor GD. The photoelectrons acquired during the second acquisition achievement period τ AA2 are accumulated in the charge accumulation region 43a. By applying the first drive signal G1 to the transfer gate electrode 42a at the timing shown in FIG . The number of photoelectrons generated by the received light increases by the same amount as the amount of photoelectrons generated by the received light that decreased during the first on-frame due to the delay in the received light. That is, since the amount of accumulated charge corresponding to each frame differs depending on the distance to the subject, the distance to the subject can be determined from the amount of accumulated charge in each frame.

第1オンフレームにおいて第1取得達成期間τAA1で取得される電荷量をQ1、第2オンフレームにおいて第2取得達成期間τAA2で取得される電荷量をQ1とすると、被写体距離は、

L=cT/2×Q1/(Q1+Q1) …(1)

で求められる。ここで、cは光速である。
If the amount of charge acquired in the first acquisition achievement period τ AA1 in the first on-frame is Q1 1 and the amount of charge acquired in the second acquisition achievement period τ AA2 in the second on-frame is Q1 2 , the subject distance is

L=cT 0 /2×Q1 2 /(Q1 1 +Q1 2 )...(1)

is required. Here, c is the speed of light.

図31に示すような従来の3分岐型ロックインピクセルでは、3つの振分ゲートを有していたが、第1の実施形態にかかる3D撮像ユニットは1つの転送トランジスタG1のみを振分ゲートとして有している。そのため、第1オンフレームと第2オンフレームのサイクル動作を繰り返すには、蓄積時間以外に発生しフォトダイオードに収集された電荷を素早く排出する構造が必要である。この排出動作を行うためには、電源にドレインが接続された排出トランジスタGDの排出ゲート電極42bを駆動して、排出トランジスタGDをオンにすればよい。 The conventional three-branch lock-in pixel shown in FIG. 31 has three distribution gates, but the 3D imaging unit according to the first embodiment uses only one transfer transistor G1 as a distribution gate. have. Therefore, in order to repeat the cycle operation of the first on-frame and the second on-frame, a structure is required that quickly discharges the charges generated and collected in the photodiode outside of the storage time. In order to perform this discharge operation, the discharge gate electrode 42b of the discharge transistor GD whose drain is connected to the power source may be driven to turn on the discharge transistor GD.

このように、第1の実施形態に係る3D撮像ユニットによれば、1つの光検出部PDに対し、1つの転送トランジスタG1と1つの排出トランジスタGDを持つ1分岐型ロックインピクセルの簡単な構造により、精度の高い、微細画素距離センサが実現できる。既に説明したように、第1の実施形態に係る3D撮像ユニットにおいては、1つの転送トランジスタG1を介して、1つの光検出部PDが浮遊ドレイン領域FD1及び補助容量C1が接続され、更に、1つの電荷排出機構を構成する排出トランジスタGDのドレインとして機能する電荷排出領域43bが電源VDDに接続され、光検出部PDから電荷が排出される。そして、1分岐型ロックインピクセルの簡単な構造であるので、画素サイズのより微細化が可能になり、撮像画像の解像度が向上ずる。 As described above, the 3D imaging unit according to the first embodiment has a simple structure of a one-branch lock-in pixel that has one transfer transistor G1 and one discharge transistor GD for one photodetector PD. As a result, a highly accurate, fine pixel distance sensor can be realized. As already explained, in the 3D imaging unit according to the first embodiment, one photodetection section PD is connected to the floating drain region FD1 and the auxiliary capacitor C1 via one transfer transistor G1, and one A charge discharge region 43b functioning as a drain of a discharge transistor GD constituting one charge discharge mechanism is connected to a power source VDD , and charges are discharged from the photodetector PD. Furthermore, since it has a simple structure of a one-branch type lock-in pixel, the pixel size can be further miniaturized, and the resolution of the captured image is improved.

図1に示した第1の実施形態に係る3D撮像ユニットの制御部14は以下のように動作する。制御部14の時間設定論理回路141が、第1駆動信号G1のパルス信号を印加するタイミングを、投影光の出射パルスの立ち上がりのタイミングを基礎として決定し、第1取得達成期間τAA1を設定する。設定された第1取得達成期間τAA1を、時間設定値出力制御回路142が図1に示した駆動部15に制御信号として出力する。制御部14の時間設定値出力制御回路142から駆動部15を通して与えられた制御信号に応じて、発光部19から、パルス発光がなされる。対象物10を反射したパルス光が、レンズ20やBPF(バンドパスフィルタ)などを通して図1に示した受光部18が構成する画素アレイ部の各画素Xijに照射される。 The control section 14 of the 3D imaging unit according to the first embodiment shown in FIG. 1 operates as follows. The time setting logic circuit 141 of the control unit 14 determines the timing of applying the pulse signal of the first drive signal G1 based on the rising timing of the output pulse of the projection light, and sets the first acquisition achievement period τ AA1 . . The time setting value output control circuit 142 outputs the set first acquisition achievement period τ AA1 to the drive section 15 shown in FIG. 1 as a control signal. The light emitting section 19 emits pulsed light in response to a control signal applied from the time set value output control circuit 142 of the control section 14 through the driving section 15 . The pulsed light reflected from the object 10 is applied to each pixel X ij of the pixel array section constituted by the light receiving section 18 shown in FIG. 1 through a lens 20, a BPF (band pass filter), and the like.

第1オンフレームにおいて、図6(b)に示す駆動タイミングで駆動部15が画素アレイ部の各画素Xijを、ロックインピクセル駆動し、各画素Xijの光電変換部41の信号電荷がそれぞれの画素Xijの電荷蓄積領域43aに蓄積される。その後、垂直走査回路21により、受光部18の画素アレイ部(X11~X1m;X21~X2m;……;Xn1~Xnm)の行が選択される。第1オンフレームで選択された行の画素(Xi1~Xim:i=1~n)の信号電位とリセット電位が、1つの信号線を通り、相関二重サンプリング回路23によりノイズ抑制されたのち、アナログ―デジタル変換回路24にてデジタルデータに変換される。相関二重サンプリング回路23とアナログ―デジタル変換回路24によって、マトリクスの特定の行に配置された複数個の電荷蓄積領域43aに蓄積された信号電荷による信号をそれぞれ独立に読み出し、ノイズ抑制及びアナログ―デジタル変換するカラム処理回路(23,24)が構成されている。カラム処理回路(23,24)によって、デジタルデータに変換された第1オンフレームのデータは、水平走査回路22により列選択され、記憶部11に転送される。記憶部11では、転送された第1オンフレームのデジタルデータが、駆動部15と同期した分配器(デマルチプレクサ)113により、複数のメモリ(111、112)のいずれかに弁別されて記憶される。例えば、第1オンフレームで得られた信号データは第1メモリ111に格納され、第2オンフレームで得られた信号データは第2メモリ112に格納されるように弁別される。 In the first on-frame, the drive section 15 drives each pixel X ij of the pixel array section as a lock-in pixel at the drive timing shown in FIG. 6(b), and the signal charge of the photoelectric conversion section 41 of each pixel X ij is is accumulated in the charge accumulation region 43a of the pixel X ij . Thereafter, the vertical scanning circuit 21 selects a row of the pixel array section (X 11 to X 1m ; X 21 to X 2m ; . . . ; X n1 to X nm ) of the light receiving section 18 . The signal potential and reset potential of the pixels (X i1 to X im : i=1 to n) in the row selected in the first on-frame pass through one signal line, and noise is suppressed by the correlated double sampling circuit 23. Thereafter, it is converted into digital data by an analog-to-digital conversion circuit 24. The correlated double sampling circuit 23 and the analog-to-digital conversion circuit 24 independently read signals based on the signal charges accumulated in the plurality of charge accumulation regions 43a arranged in a specific row of the matrix, and perform noise suppression and analog-to-digital conversion. A column processing circuit (23, 24) for digital conversion is configured. The first on-frame data converted into digital data by the column processing circuits (23, 24) is column-selected by the horizontal scanning circuit 22 and transferred to the storage unit 11. In the storage unit 11, the transferred first on-frame digital data is discriminated and stored in one of the plurality of memories (111, 112) by a distributor (demultiplexer) 113 synchronized with the drive unit 15. . For example, signal data obtained in the first on-frame is stored in the first memory 111, and signal data obtained in the second on-frame is stored in the second memory 112.

予め決定した所定の繰り返し周期時間(サイクルタイム)Tが経過し、図6(a)に示した第1オンフレームの動作が終了すると、図6(b)に示した第2オンフレームの動作が開始される。投影光が出射するタイミングより遅延して到達する受信光のタイミングに調整可能なように、制御部14の時間設定論理回路141が第2取得達成期間τAA2を設定する。即ち、時間設定論理回路141は、投影光の出射タイミングに同期して、第1取得達成期間τAA1よりも長い第2取得達成期間τAA2を設定する。設定された第2取得達成期間τAA2を時間設定値出力制御回路142が駆動部15に制御信号として出力する。制御部14の時間設定値出力制御回路142から駆動部15を通して与えられた制御信号に応じて、発光部19から、パルス発光がなされる。対象物10を反射したパルス光が、受光部18が構成する画素アレイ部の各画素Xijに照射される。 When a predetermined repetition period time (cycle time) T C elapses and the first on-frame operation shown in FIG. 6(a) ends, the second on-frame operation shown in FIG. 6(b) starts. is started. The time setting logic circuit 141 of the control unit 14 sets the second acquisition achievement period τ AA2 so that the timing of the received light arriving later than the timing of the projection light can be adjusted. That is, the time setting logic circuit 141 sets the second acquisition achievement period τ AA2 which is longer than the first acquisition achievement period τ AA1 in synchronization with the emission timing of the projection light. The time setting value output control circuit 142 outputs the set second acquisition achievement period τ AA2 to the drive section 15 as a control signal. The light emitting section 19 emits pulsed light in response to a control signal applied from the time set value output control circuit 142 of the control section 14 through the driving section 15 . The pulsed light reflected from the object 10 is irradiated onto each pixel X ij of the pixel array section constituted by the light receiving section 18 .

第2オンフレームにおいて、図6(c)に示す駆動タイミングでロックインピクセル駆動をし、電荷が各画素Xijの電荷蓄積領域43aに蓄積される。その後、垂直走査回路21により、受光部18の画素アレイ部(X11~X1m;X21~X2m;……;Xn1~Xnm)の行が選択され、第2オンフレームのデジタルデータが、記憶部11に転送される。記憶部11では、転送された第2オンフレームのデジタルデータが、分配器(デマルチプレクサ)113により、第1メモリ111及び第2メモリ112のうち、第1オンフレームで使用されなかった方のメモリに記憶される。 In the second on-frame, lock-in pixel driving is performed at the drive timing shown in FIG. 6(c), and charges are accumulated in the charge accumulation region 43a of each pixel X ij . Thereafter, the vertical scanning circuit 21 selects the row of the pixel array section (X 11 to X 1m ; X 21 to X 2m ; ...; is transferred to the storage unit 11. In the storage unit 11, the transferred second on-frame digital data is transferred by a distributor (demultiplexer) 113 to the first memory 111 and the second memory 112, whichever memory was not used during the first on-frame. is memorized.

記憶部11の第1メモリ111及び第2メモリに格納されたデータが距離演算部12に転送され式(1)により、距離が演算される。記憶部11から距離演算部12へのデータの転送は、第1オンフレーム及び第2オンフレームのデータがすべて記憶部11のメモリに格納された時点で行う方法でもよく、又は第2オンフレームのデータが記憶部11のメモリに格納され始めた時点で順次行う方法でもよい。又、第1オンフレームと第2オンフレームの順序は、第1オンフレームが先でも、第2オンフレームが先でもどちらでもよい。 The data stored in the first memory 111 and the second memory of the storage section 11 is transferred to the distance calculation section 12, and the distance is calculated using equation (1). The data may be transferred from the storage unit 11 to the distance calculation unit 12 when all of the data of the first on-frame and the second on-frame are stored in the memory of the storage unit 11, or when the data of the second on-frame is transferred. A method may also be used in which the data is sequentially performed at the time when the data starts to be stored in the memory of the storage unit 11. Further, the order of the first on-frame and the second on-frame may be either the first on-frame or the second on-frame.

ここで、図4と従来の3分岐型ロックインピクセル構造を示す図31を比較してみる。図32は、図5に対応する従来の3分岐型ロックインピクセルの回路図である。第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素は1つの電荷振分機構を構成する転送トランジスタG1と、1つの電荷排出機構を構成する排出トランジスタGDを有しているが、従来の固体撮像装置の画素は3つの電荷振分機構である第1転送トランジスタG1、第2転送トランジスタG2及び第3転送トランジスタG3と、1つの電荷排出機構を構成する排出トランジスタGDを有している。図31では、第1転送トランジスタG1、第2転送トランジスタG2及び第3転送トランジスタG3のそれぞれが第1転送ゲート電極92a、第2転送ゲート電極92b及び第3転送ゲート電極92cを有するものとして平面パターンが例示されている。又、排出トランジスタGDが排出ゲート電極92dを有するものとして平面パターンが示されている。 Here, let us compare FIG. 4 with FIG. 31, which shows a conventional three-branch lock-in pixel structure. FIG. 32 is a circuit diagram of a conventional three-branch lock-in pixel corresponding to FIG. 5. A pixel of the solid-state imaging device that constitutes the 3D imaging unit according to the first embodiment has a transfer transistor G1 that constitutes one charge distribution mechanism and a discharge transistor GD that constitutes one charge discharge mechanism. , a pixel of a conventional solid-state imaging device has three charge distribution mechanisms, a first transfer transistor G1, a second transfer transistor G2, and a third transfer transistor G3, and a discharge transistor GD, which constitutes one charge discharge mechanism. ing. In FIG. 31, a plane pattern is shown in which each of the first transfer transistor G1, second transfer transistor G2, and third transfer transistor G3 has a first transfer gate electrode 92a, a second transfer gate electrode 92b, and a third transfer gate electrode 92c. is exemplified. Further, a planar pattern is shown in which the discharge transistor GD has a discharge gate electrode 92d.

図4及び図5において、第1の実施形態に係る3D撮像ユニットの転送トランジスタG1に電荷蓄積領域43a、補助容量C1、増幅トランジスタSF1が配線等を介して接続された簡単な構造を示した。図31及び図32において、3つの電荷振分機構である第1転送トランジスタG1、第2転送トランジスタG2及び第3転送トランジスタG3のそれぞれに、図4及び図5に示した転送トランジスタG1と同様に、第1電荷蓄積領域93a、第2電荷蓄積領域93b、第3電荷蓄積領域93c、第1補助容量C1、第2補助容量C2、第3補助容量C3、増幅トランジスタSF1、第2増幅トランジスタSF2、第3増幅トランジスタSF3が配線等を介して接続された複雑な構造をなしている。 4 and 5 show a simple structure in which a charge storage region 43a, an auxiliary capacitor C1, and an amplification transistor SF1 are connected to the transfer transistor G1 of the 3D imaging unit according to the first embodiment via wiring or the like. In FIGS. 31 and 32, the first transfer transistor G1, the second transfer transistor G2, and the third transfer transistor G3, which are three charge distribution mechanisms, have the same structure as the transfer transistor G1 shown in FIGS. 4 and 5, respectively. , first charge storage region 93a, second charge storage region 93b, third charge storage region 93c, first auxiliary capacitor C1, second auxiliary capacitor C2, third auxiliary capacitor C3, amplification transistor SF1, second amplification transistor SF2, The third amplification transistor SF3 has a complicated structure connected via wiring and the like.

図4に示す画素平面図と、図31に示す画素平面図は、互いに同じレイアウトルールで構成されており、図4に示す画素平面図の面積は図31に示す画素平面図の面積の4分の1の大きさである。なお、図31の破線で囲まれた領域は、画素境界を決定する境界線である。 The pixel plan view shown in FIG. 4 and the pixel plan view shown in FIG. 31 are configured with the same layout rule, and the area of the pixel plan view shown in FIG. 4 is four times the area of the pixel plan view shown in FIG. 31. The size is 1. Note that the area surrounded by the broken line in FIG. 31 is a boundary line that determines a pixel boundary.

図1と図29に示す従来の固体撮像装置の内部構造を比較すると、従来の固体撮像装置には図1に示されている記憶部11が省略されている。又、図2と図30を比較すると、図2においては、垂直走査回路21によって受光部18の画素アレイ部(X11~X1m;X21~X2m;……;Xn1~Xnm)の選択された行の信号電位とリセット電位は、1つの信号線を通り、デジタルデータに変換されたのち、記憶部11のメモリに格納される。これに対し、図30においては、垂直走査回路81によって受光部71の画素アレイ部(X11~X1m;X21~X2m;……;Xn1~Xnm)の選択された行の信号電位とリセット電位は、2つの信号線のうちのいずれかを通り、デジタルデータに変換されたのち、距離演算部72に転送される。 Comparing the internal structures of the conventional solid-state imaging device shown in FIG. 1 and FIG. 29, it is found that the storage section 11 shown in FIG. 1 is omitted in the conventional solid-state imaging device. Furthermore, when comparing FIG. 2 and FIG . 30, in FIG. 2, the vertical scanning circuit 21 scans the pixel array section (X 11 to X 1m ; The signal potential and reset potential of the selected row pass through one signal line, are converted into digital data, and then stored in the memory of the storage unit 11. On the other hand, in FIG. 30, the signal of the selected row of the pixel array section (X 11 to X 1m ; X 21 to X 2m ; ...; X n1 to X nm ) of the light receiving section 71 is The potential and the reset potential pass through either of the two signal lines, are converted into digital data, and then transferred to the distance calculation unit 72.

従来の固体撮像装置の光電変換部91の受光領域で発生した光電子は、第1電荷振分機構92aを導通状態にすると、第1電荷蓄積領域93aに移動する。同様に、従来の固体撮像装置の第2電荷振分機構92bを導通状態にすると、第2電荷蓄積領域93bに移動し、第3電荷振分機構92cを導通状態にすると、3電荷蓄積領域93cに移動する。従来の固体撮像装置においても、図29に示す撮像素子とほぼ同じ位置からパルス光を出射し、対象物10からの反射光を撮像素子で受光する点、投影光は、例えば、発光ダイオード(LED)や半導体レーザ(LD)を用い、例えばnsオーダーからfsオーダーの極短時間のパルス光を投影させる点は、第1の実施形態に係る3D撮像ユニットの場合と同様である。 Photoelectrons generated in the light receiving region of the photoelectric conversion section 91 of the conventional solid-state imaging device move to the first charge accumulation region 93a when the first charge distribution mechanism 92a is turned on. Similarly, when the second charge distribution mechanism 92b of the conventional solid-state imaging device is brought into a conductive state, it moves to the second charge accumulation region 93b, and when the third charge distribution mechanism 92c is rendered conductive, it moves to the third charge accumulation region 93c. Move to. In the conventional solid-state imaging device, pulsed light is emitted from almost the same position as the image sensor shown in FIG. ) or a semiconductor laser (LD) to project extremely short pulsed light of, for example, ns order to fs order, as in the case of the 3D imaging unit according to the first embodiment.

図33は、従来の固体撮像装置を駆動する際の動作を説明するタイミング図である。受信光は、対象物10と撮像素子との間の距離に応じて、投影光を出射した時間から遅延時間Tだけ遅れて撮像素子に入射する。投影光の発光時間Tと、第1駆動信号G1、第2駆動信号G2及び第3駆動信号G3のオン/オフ電圧パルスを同期させれば、第1駆動信号G1のパルスに応じて第1電荷蓄積領域93aへ、第2駆動信号G2のパルスに応じて第2電荷蓄積領域93bへ、第3駆動信号第3転送トランジスタG3のパルスに応じて第3電荷蓄積領域93cへと、受信光の遅れ、即ち被写体距離に応じて各々のゲートに対応した電荷蓄積量に違いが生じ、被写体距離が求められる。 FIG. 33 is a timing diagram illustrating an operation when driving a conventional solid-state imaging device. The received light enters the image sensor after a delay time T d from the time when the projection light is emitted, depending on the distance between the object 10 and the image sensor. If the emission time T0 of the projection light is synchronized with the on/off voltage pulses of the first drive signal G1, the second drive signal G2, and the third drive signal G3, the first The received light is transferred to the charge accumulation region 93a, to the second charge accumulation region 93b in response to the pulse of the second drive signal G2, and to the third charge accumulation region 93c in response to the pulse of the third drive signal third transfer transistor G3. Depending on the delay, that is, the distance to the subject, a difference occurs in the amount of charge accumulation corresponding to each gate, and the distance to the subject is determined.

又、従来の固体撮像装置に用いる投影光は、図33に示すように、2つ目の電荷蓄積時間G2に同期させることが望ましい。電荷蓄積時間G2に同期させることにより、第1電荷蓄積領域93aには、受信光以外の環境光及び暗電流等、距離測定には不要な電子のみが蓄積されるようになる。ここで、環境光及び暗電流等、距離測定には不要な電子は、第2電荷蓄積領域93b及び第3電荷蓄積領域93cにも同様に蓄積されるが、第1電荷蓄積領域93aには不要な電子のみが蓄積されることにより、単純なオフセット成分となり、以下の式(2)によって、環境光等の影響を除外した正確な被写体距離測定が可能になる。 Furthermore, it is desirable that the projection light used in the conventional solid-state imaging device be synchronized with the second charge accumulation time G2, as shown in FIG. By synchronizing with the charge accumulation time G2, only electrons unnecessary for distance measurement, such as environmental light other than received light and dark current, are accumulated in the first charge accumulation region 93a. Here, electrons unnecessary for distance measurement, such as environmental light and dark current, are similarly accumulated in the second charge accumulation region 93b and third charge accumulation region 93c, but are unnecessary in the first charge accumulation region 93a. By accumulating only the electrons, it becomes a simple offset component, and according to the following equation (2), it becomes possible to accurately measure the distance to the object excluding the influence of environmental light and the like.

従来の固体撮像装置における第1電荷蓄積領域93aに蓄積された電荷量をQ2、第2電荷蓄積領域93bに蓄積された電荷量をQ2、第3電荷蓄積領域93cに蓄積された電荷量をQ2とすると、

L=cT/2×Q3’/(Q2’+Q3’) …(2)

で求められる。ここで、Q2’=Q2―Q2、Q3’=Q2―Q2である。
In a conventional solid-state imaging device, the amount of charge accumulated in the first charge accumulation region 93a is Q2 1 , the amount of charge accumulated in the second charge accumulation region 93b is Q2 2 , and the amount of charge accumulated in the third charge accumulation region 93c If Q2 is 3 , then

L=cT 0 /2×Q3'/(Q2'+Q3')...(2)

is required. Here, Q2'=Q2 2 -Q2 1 and Q3'=Q2 3 -Q2 1 .

ここで、やや遠い被写体に対して距離測定を行う場合、第3電荷蓄積領域93cに蓄積されるべき光電子が、次の周期の第1電荷蓄積領域93aに蓄積される。第1電荷蓄積領域93aに蓄積される電荷は環境光等によるオフセット成分であるため、第1電荷蓄積領域93aに受信光成分が加わると、距離精度が大きく劣化する。そこで、従来の固体撮像装置においても、第3電荷蓄積領域93cの蓄積時間の次に、電源にドレインが接続された排出トランジスタGDをオンにすれば、遅れた受信光成分は排出され、次の周期の第1電荷蓄積領域93aに遅れた受信光成分が入らず、距離精度が良好に保てる。 Here, when distance measurement is performed to a somewhat distant subject, photoelectrons that should be accumulated in the third charge accumulation region 93c are accumulated in the first charge accumulation region 93a in the next cycle. Since the charge accumulated in the first charge accumulation region 93a is an offset component due to environmental light or the like, when a received light component is added to the first charge accumulation region 93a, the distance accuracy is greatly degraded. Therefore, in the conventional solid-state imaging device as well, if the discharge transistor GD whose drain is connected to the power supply is turned on after the accumulation time of the third charge accumulation region 93c, the delayed received light component is discharged and the next A delayed received light component does not enter the periodic first charge accumulation region 93a, and distance accuracy can be maintained favorably.

3D撮像ユニットの受光部は、例えば、n行m列(n×m)の画素アレイで構成される。このn行m列の画素アレイからの信号を全て順次読み出しすると、1枚の2次元距離画像及び2次元画像ができる。この1枚の画像を1フレームとすると、連続するフレームによって2次元距離動画像及び2次元動画像ができる。ここで図34に示すように、従来の固体撮像装置の1フレーム時間(T)は、光照射期間(T)と、信号読み出し期間(T)で構成される。従来の3D画像生成方法は、光照射期間(T)内の、更に1サイクル(繰返し周期)内の駆動タイミングである。 The light receiving section of the 3D imaging unit is composed of, for example, a pixel array of n rows and m columns (n×m). By sequentially reading out all the signals from this pixel array of n rows and m columns, one two-dimensional distance image and one two-dimensional image are created. If this one image is defined as one frame, a two-dimensional distance moving image and a two-dimensional moving image are created by consecutive frames. Here, as shown in FIG. 34, one frame time (T f ) of the conventional solid-state imaging device is composed of a light irradiation period (T L ) and a signal readout period (T R ). In the conventional 3D image generation method, the drive timing is within one cycle (repetition period) within the light irradiation period (T L ).

TOFロックインピクセルは、光速を利用して距離を測るため、1回当たりの電荷蓄積時間が非常に短い。図35は、従来の固体撮像装置を用いて最大約5.1mの距離測定を行う場合の駆動タイミングの一例である。図35に示すように、1回当たりの電荷蓄積時間は34nsと短く、1回の露光では受光による光電子はほとんど発生しない。そこで、従来の固体撮像装置では同じサイクルを、例えば数千から数十万回と膨大に繰り返すことにより、トータルの蓄積時間を増やすことで信号量を増やしており、図35においては、9万サイクルの例を示す。なお、TOFロックインピクセルでは、電荷蓄積時間は、全画素同時に駆動させる、グローバルシャッタ駆動が一般的である。サイクル回数を増やせば、トータルの露光時間が増すため、信号量は増える。しかし、露光時間を増やすと、動画性能(即ちフレームレート)を落とす、というトレードオフ関係がある。 TOF lock-in pixels measure distance using the speed of light, so the charge accumulation time per time is extremely short. FIG. 35 shows an example of drive timing when measuring a maximum distance of about 5.1 m using a conventional solid-state imaging device. As shown in FIG. 35, the charge accumulation time per exposure is as short as 34 ns, and almost no photoelectrons are generated by light reception during one exposure. Therefore, in conventional solid-state imaging devices, the signal amount is increased by increasing the total accumulation time by repeating the same cycle a huge number of times, for example, from thousands to hundreds of thousands of times. Here is an example. Note that in the TOF lock-in pixel, the charge accumulation time is generally global shutter drive in which all pixels are driven simultaneously. Increasing the number of cycles increases the total exposure time and therefore increases the signal amount. However, there is a trade-off in that increasing the exposure time reduces video performance (ie, frame rate).

図35は、従来の固体撮像装置において、スムーズな動画が得られる30FPS(フレーム/秒)の例である。30FPSであるとき、1フレーム時間(T)は約33msとなる。読出しに必要な時間(T)を約6msとすると、光照射時間(T)は約27msとなる。従来の固体撮像装置では、サイクルタイム(T)を300nsとしているので、光照射時間(T)中に繰り返すことができる最大のサイクル数は90000回となる。 FIG. 35 is an example of a conventional solid-state imaging device at 30 FPS (frames per second) at which smooth moving images can be obtained. At 30 FPS, one frame time (T f ) is approximately 33 ms. If the time required for reading (T R ) is about 6 ms, the light irradiation time (T L ) is about 27 ms. In the conventional solid-state imaging device, the cycle time (T C ) is 300 ns, so the maximum number of cycles that can be repeated during the light irradiation time (T L ) is 90,000 times.

図7は、第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置に必要なシリコン(Si)エピタキシャル成長層の厚さを決定するための基本的な特性であって、光電変換割合の波長に対する変化を示すグラフである。第1の実施形態に係る3D撮像ユニットのようなTOF型距離画像素子は、信号光として赤外光を用いることが一般的であり、代表的な赤外光波長は850nm及び940nmである。図7に示すように、波長850nmの赤外光は、Siエピタキシャル成長層の厚さが10μmのとき、入射された光子のうちの46%が光電子に変換され、Siエピタキシャル成長層の厚さが20μmのとき、入射された光子のうちの71%が光電子に変換され、Siエピタキシャル成長層の厚さが30μmのとき、入射された光子のうちの87%が光電子に変換される。 FIG. 7 shows basic characteristics for determining the thickness of the silicon (Si) epitaxial growth layer necessary for the solid-state imaging device constituting the 3D imaging unit according to the first embodiment, and shows the wavelength of the photoelectric conversion rate. FIG. A TOF distance imaging device such as the 3D imaging unit according to the first embodiment generally uses infrared light as signal light, and typical infrared light wavelengths are 850 nm and 940 nm. As shown in FIG. 7, when the thickness of the Si epitaxial growth layer is 10 μm, 46% of the incident photons of infrared light with a wavelength of 850 nm are converted into photoelectrons, and when the thickness of the Si epitaxial growth layer is 20 μm, When the thickness of the Si epitaxial growth layer is 30 μm, 87% of the incident photons are converted into photoelectrons.

又、波長940nmの赤外光は、Siエピタキシャル成長層の厚さが10μmのとき、入射された光子のうちの27%が光電子に変換され、Siエピタキシャル成長層の厚さが20μmのとき、入射された光子のうちの47%が光電子に変換され、Siエピタキシャル成長層の厚さが30μmのとき、入射された光子のうちの62%が光電子に変換される。光電変換される割合は高いほど望ましいため、例えば、50%程度かそれ以上を目安とすれば、波長850nmの赤外光のとき、Siエピタキシャル成長層の厚さは10μm以上必要であり、波長940nmのとき、Siエピタキシャル成長層の厚さは20μm以上必要となる。 In addition, when the thickness of the Si epitaxial growth layer is 10 μm, 27% of the incident photons of infrared light with a wavelength of 940 nm are converted into photoelectrons, and when the thickness of the Si epitaxial growth layer is 20 μm, the incident photons are converted into photoelectrons. 47% of photons are converted to photoelectrons, and when the thickness of the Si epitaxial growth layer is 30 μm, 62% of incident photons are converted to photoelectrons. The higher the photoelectric conversion ratio, the more desirable it is, so for example, if we aim for around 50% or more, the thickness of the Si epitaxial growth layer will need to be 10 μm or more for infrared light with a wavelength of 850 nm, and for infrared light with a wavelength of 940 nm. In this case, the thickness of the Si epitaxial growth layer needs to be 20 μm or more.

図8は、Siエピタキシャル成長層の厚さが10μm、20μm及び30μmのときの、画素の寸法(分母)に対するSiエピタキシャル成長層の厚さ(分子)で定義されるアスペクト比を示す。即ち、図8(a)は第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置の画素面積に対応する画素の寸法を基礎として定義されるアスペクト比を示す。図8(b)は後述する第3の実施形態に係る3D撮像ユニットの要素である2分岐型ロックインピクセルの場合の画素面積に対応する画素の寸法を基礎として定義されるアスペクト比を、図8(c)は従来の3分岐型ロックインピクセルの画素面積の場合でのアスペクト比を示す。後述する図19からも分かるが、図8(c)が最も画素面積が大きく、(b)(a)の順に、画素の面積が小さくなる。微細画素であっても、必要なSiエピタキシャル成長層の厚さは、その光の波長で決まるため、薄くできず、その結果、図8に示すように、画素面積が微細になるほど、アスペクト比が大きくなる。 FIG. 8 shows the aspect ratio defined by the thickness (numerator) of the Si epitaxial growth layer relative to the pixel dimension (denominator) when the thickness of the Si epitaxial growth layer is 10 μm, 20 μm, and 30 μm. That is, FIG. 8A shows the aspect ratio defined based on the pixel dimension corresponding to the pixel area of the solid-state imaging device that is an element of the 3D imaging unit according to the first embodiment. FIG. 8(b) shows the aspect ratio defined based on the pixel dimension corresponding to the pixel area in the case of a bifurcated lock-in pixel, which is an element of a 3D imaging unit according to a third embodiment, which will be described later. 8(c) shows the aspect ratio in the case of the pixel area of a conventional three-branch type lock-in pixel. As can be seen from FIG. 19, which will be described later, the pixel area in FIG. 8(c) is the largest, and the pixel area decreases in the order of (b) and (a). Even for fine pixels, the required thickness of the Si epitaxial growth layer is determined by the wavelength of the light, so it cannot be made thin. As a result, as shown in Figure 8, the smaller the pixel area, the larger the aspect ratio. Become.

図9に、第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素の断面構造を模式的に示す。図8に示したように、画素面積が微細になるほど、アスペクト比が大きくなる。代表例として、Siエピタキシャル成長層の厚さは20μm、即ちアスペクト比が6.3の場合を示している。アスペクト比が大きくなると、画素間のクロストークが増加し、画素を微細にして画素数を増やしても、所望の解像度が得られなくなる。図9(a)は表面照射(FSI)型の場合であり、図9(b)は裏面照射(BSI)型の場合である。図9(a)に示す表面照射(FSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ(MCL)215、配線層216、光電変換部214、素子分離領域213、p型エピタキシャル成長層212、p基板211から構成される。 FIG. 9 schematically shows a cross-sectional structure of a pixel of a solid-state imaging device that constitutes a 3D imaging unit according to the first embodiment. As shown in FIG. 8, the smaller the pixel area, the larger the aspect ratio. As a typical example, the thickness of the Si epitaxial growth layer is 20 μm, that is, the aspect ratio is 6.3. As the aspect ratio increases, crosstalk between pixels increases, and even if the pixels are made finer and the number of pixels is increased, the desired resolution cannot be obtained. FIG. 9(a) shows the case of the front-side illumination (FSI) type, and FIG. 9(b) shows the case of the back-side illumination (BSI) type. The 3D imaging unit according to the first embodiment of the front surface illumination (FSI) type shown in FIG. It is composed of a layer 212 and a p + substrate 211.

アスペクト比が大きくなった場合のクロストークを防止するための構造として、図9の素子分離領域213では、深いトレンチを用いたディープ・トレンチ・アイソレーション(DTI)構造を例示している。クロストークを減らすためには、少なくとも、光電変換されて発生した光電子が、クロストークせず、自画素のフォトダイオードに収集されることが望ましく、図9に示すDTI構造による素子分離構造が効果的である。又、図9(b)に示す裏面照射(BSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ215、金属遮光膜217、素子分離領域213、光電変換部214、配線層216、p型エピタキシャル成長層212、p型基板または、p型表面ピンニング層222から構成される。 As a structure for preventing crosstalk when the aspect ratio becomes large, the element isolation region 213 in FIG. 9 exemplifies a deep trench isolation (DTI) structure using a deep trench. In order to reduce crosstalk, it is desirable that at least the photoelectrons generated by photoelectric conversion are collected in the photodiode of the self-pixel without crosstalk, and an element isolation structure using the DTI structure shown in FIG. 9 is effective. It is. Further, the 3D imaging unit according to the first embodiment of the backside illumination (BSI) type shown in FIG. , a p-type epitaxial growth layer 212, a p + -type substrate, or a p + -type surface pinning layer 222.

ここで、Siエピタキシャル成長層の厚さが20μmであれば、15μm深さ程度以上のトレンチが望ましく、Siエピタキシャル成長層の厚さが30μmであれば、25μm深さ程度以上のトレンチが望ましい。即ち、Siエピタキシャル成長層の厚さから5μm引いた値の深さ以上のトレンチが望ましい。例えば、0.6μm幅、深さ15μm、即ちアスペクト比25程度かそれ以上、即ち0.6μm幅よりも狭い幅の素子分離領域が望ましい。アスペクト比25程度は、アスペクト比40程度の可視光BSI型微細画素の素子分離領域よりも小さく、トレンチキャパシタを用いたDRAMと同程度であり、既存技術で製造可能である。 Here, if the thickness of the Si epitaxial growth layer is 20 μm, a trench with a depth of about 15 μm or more is desirable, and if the thickness of the Si epitaxial growth layer is 30 μm, a trench with a depth of about 25 μm or more is desirable. That is, it is desirable that the trench has a depth equal to or greater than the thickness of the Si epitaxial growth layer minus 5 μm. For example, it is desirable to have an element isolation region with a width of 0.6 μm and a depth of 15 μm, that is, an aspect ratio of about 25 or more, that is, a width narrower than 0.6 μm. The aspect ratio of about 25 is smaller than the element isolation region of a visible light BSI type fine pixel with an aspect ratio of about 40, is comparable to a DRAM using a trench capacitor, and can be manufactured using existing technology.

素子分離領域213に用いる深いトレンチには、例えばイオン注入等でp型不純物をドーピングすれば、界面で発生する暗電流を抑制させられる。さらに深いトレンチには、例えば5nm程度の薄い熱酸化膜を形成させた後、酸化膜を埋め込んでもよく、埋め込み性の良いノンドープポリシリコンを埋め込んでもよく、不純物ドーピングをしたポリシリコンを埋め込んでトレンチDRAMのようにMOS容量としてもよい。 If the deep trench used for the element isolation region 213 is doped with a p-type impurity, for example by ion implantation, dark current generated at the interface can be suppressed. For deeper trenches, for example, after forming a thin thermal oxide film of about 5 nm, an oxide film may be buried, or non-doped polysilicon with good embedding properties may be buried, or polysilicon doped with impurities may be buried to form a trench DRAM. It is also possible to use a MOS capacitor as shown in FIG.

図10に、第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の他の断面構造の模式図を示す。図10(a)は表面照射(FSI)型の場合であり、図10(b)は裏面照射(BSI)型の場合である。図10(a)に示す表面照射(FSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ215、配線層216、導波路221、光電変換部214、素子分離領域213、p型エピタキシャル成長層212、p基板211から構成される。又、図10(b)に示す裏面照射(BSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ215、導波路221、金属遮光膜217、素子分離領域213、光電変換部214、配線層216、p型エピタキシャル成長層212、p型基板または、p型表面ピンニング層222から構成される。 FIG. 10 shows a schematic diagram of another cross-sectional structure of the solid-state imaging device that constitutes the 3D imaging unit according to the first embodiment. FIG. 10(a) shows the case of the front-side illumination (FSI) type, and FIG. 10(b) shows the case of the back-side illumination (BSI) type. The 3D imaging unit according to the first embodiment of the front surface illumination (FSI) type shown in FIG. It is composed of an epitaxial growth layer 212 and a p + substrate 211. Further, the 3D imaging unit according to the first embodiment of the backside illumination (BSI) type shown in FIG. , a wiring layer 216, a p-type epitaxial growth layer 212, a p + -type substrate, or a p + -type surface pinning layer 222.

図9の断面構造の説明で示したように、光電変換されて発生した光電子のクロストークを抑制するために、素子分離構造をとっても、高角度入射光によるクロストークは抑制できない。入射光によるクロストークは、マイクロレンズで、ある程度抑制されるが、このような大きなアスペクト比の構造では、十分に抑制できない。入射光のクロストークを抑制するためには、入射光をSi基板にできるだけ垂直に照射するよう導くことが良く、図10に示すような、導波路によるコリメータが効果的である。導波路には、例えば、屈折率2程度の窒化シリコン(Sixy)を用いればよく、既存技術で製造可能である。なお、図10では素子分離領域と導波路の組み合わせを用いているが、導波路のみを形成する構造でもよい。 As shown in the explanation of the cross-sectional structure in FIG. 9, even if an element isolation structure is provided to suppress crosstalk of photoelectrons generated by photoelectric conversion, crosstalk due to high angle incident light cannot be suppressed. Crosstalk caused by incident light can be suppressed to some extent by microlenses, but it cannot be suppressed sufficiently with a structure with such a large aspect ratio. In order to suppress crosstalk of incident light, it is best to guide the incident light so that it irradiates as perpendicularly to the Si substrate as possible, and a collimator using a waveguide as shown in FIG. 10 is effective. For example, silicon nitride (Si x N y ) having a refractive index of about 2 may be used for the waveguide, and it can be manufactured using existing technology. Note that although a combination of an element isolation region and a waveguide is used in FIG. 10, a structure in which only a waveguide is formed may be used.

図11に、第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の更に他の断面構造の模式図を示す。図11(a)は表面照射(FSI)型の場合であり、図11(b)は裏面照射(BSI)型の場合である。図11(a)に示す表面照射(FSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ215、配線層216、導波路221、光電変換部214、素子分離領域213、p型の第2エピタキシャル成長層212、p型の第1エピタキシャル成長層231、p基板211から構成される。又、図11(b)に示す裏面照射(BSI)型の第1の実施形態に係る3D撮像ユニットは、マイクロレンズ215、導波路221、金属遮光膜217、素子分離領域213、光電変換部214、配線層216、p型の第2エピタキシャル成長層232、p型の第1エピタキシャル成長層231、p型基板または、p型表面ピンニング層222から構成される。 FIG. 11 shows a schematic diagram of still another cross-sectional structure of the solid-state imaging device that constitutes the 3D imaging unit according to the first embodiment. FIG. 11(a) shows the case of the front-side illumination (FSI) type, and FIG. 11(b) shows the case of the back-side illumination (BSI) type. The 3D imaging unit according to the first embodiment of the front surface illumination (FSI) type shown in FIG. , a p-type first epitaxial growth layer 231 , and a p + substrate 211 . Further, the 3D imaging unit according to the first embodiment of the backside illumination (BSI) type shown in FIG. , a wiring layer 216 , a p-type second epitaxial growth layer 232 , a p-type first epitaxial growth layer 231 , and a p + -type substrate or a p + -type surface pinning layer 222 .

図9を用いて説明したように、光電変換されて発生した光電子のクロストークを抑制するために、素子分離構造をとっても、高角度入射光によるクロストークは抑制できない。図10を用いて説明したように、入射光をSi基板にできるだけ垂直に照射するよう導くために、導波路によるコリメータ構造をとることが、入射光のクロストーク抑制に効果的である。しかし、第1の実施形態に係る3D撮像ユニットにおいては、フォトダイオードから遠い領域には電界をかけられないため、発生した光電子は、拡散によるランダムウォークをし、信号として使えるフォトダイオードに到達するまでの時間が長くかかり、感度の低下や、距離精度の劣化をもたらす。拡散によるランダムウォークを抑制させるためには、Si基板に電界をかけることがよく、図11に示すような、基板に濃度差をつける構造が効果的である。 As described using FIG. 9, even if an element isolation structure is provided to suppress crosstalk of photoelectrons generated by photoelectric conversion, crosstalk due to high angle incident light cannot be suppressed. As explained using FIG. 10, it is effective to suppress the crosstalk of the incident light by using a collimator structure using a waveguide in order to guide the incident light so as to irradiate the Si substrate as perpendicularly as possible. However, in the 3D imaging unit according to the first embodiment, since an electric field cannot be applied to a region far from the photodiode, the generated photoelectrons undergo a random walk due to diffusion until they reach the photodiode that can be used as a signal. This takes a long time, resulting in a decrease in sensitivity and distance accuracy. In order to suppress random walks due to diffusion, it is best to apply an electric field to the Si substrate, and a structure in which the substrate has a concentration difference as shown in FIG. 11 is effective.

例えば、p型の第1エピタキシャル成長層231には、1×1015/cmのSiをエピタキシャル成長させ、p型の第2エピタキシャル成長層212,232には、第1エピタキシャル成長層231よりも薄い1×1013/cmの不純物密度のSiをエピタキシャル成長させてやれば、0.1V強の電界をかけることができ、ランダムウォークを抑制でき、信号として使えるフォトダイオードに到達するまでの時間が短くなり、感度の低下や、距離精度の劣化を防ぐことができる。 For example, the p-type first epitaxial growth layer 231 is epitaxially grown with 1×10 15 /cm 3 of Si, and the p-type second epitaxial growth layers 212 and 232 are made with a 1×10 By epitaxially growing Si with an impurity density of 13 / cm3 , it is possible to apply an electric field of over 0.1V, suppress random walk, shorten the time it takes to reach a photodiode that can be used as a signal, and improve sensitivity. It is possible to prevent a decrease in distance accuracy and a decrease in distance accuracy.

図11(a)に示した第1エピタキシャル成長層231と第2エピタキシャル成長層212との積層ウェーハ及び図11(b)に示した第1エピタキシャル成長層231と第2エピタキシャル成長層232との積層ウェーハは、既存技術で製造可能である。さらに電圧をp基板にかける、即ちバックバイアスをかけることにより、ランダムウォークを抑制してもよい。なお、図11では、2層積層エピタキシャル成長基板としているが、2層に限定する必要は無く、3層でも、もっと多層でもよい。又、図11では、素子分離領域と導波路と積層基板の組み合わせを用いているが、積層基板のみを形成する構造でもよいし、積層基板と素子分離領域の組み合わせでもよいし、積層基板と導波路の組み合わせでもよい。 The laminated wafer of the first epitaxial growth layer 231 and the second epitaxial growth layer 212 shown in FIG. 11(a) and the laminated wafer of the first epitaxial growth layer 231 and the second epitaxial growth layer 232 shown in FIG. 11(b) are It can be manufactured using technology. Furthermore, random walk may be suppressed by applying a voltage to the p + substrate, that is, by applying a back bias. Although FIG. 11 shows a two-layer epitaxial growth substrate, there is no need to limit the number of layers to two, and three or more layers may be used. Furthermore, in FIG. 11, a combination of an element isolation region, a waveguide, and a laminated substrate is used, but a structure in which only a laminated substrate is formed, a combination of a laminated substrate and an element isolation region, or a laminated substrate and a laminated substrate may be used. A combination of wave paths may also be used.

近年、特に2次元距離センサは、多画素化、高解像度化、即ち、画素の微細化が進んでいる。従来の3分岐型ロックインピクセルは、素子数が多く、微細化するにつれて、感度が落ち、素子の配置自体ができなくなるという問題がある。これに対し、第1の実施形態に係る3D撮像ユニットによれば、1つの光検出部PDに対し、1つの転送トランジスタG1と1つの排出トランジスタGDを持つ1分岐型ロックインピクセルの簡単な構造により、精度の高い、微細画素距離センサが実現できる。特に、1分岐型ロックインピクセルの簡単な構造であるので、画素面積の縮小が可能になり、撮像画像の解像度が向上ずる。 In recent years, particularly in two-dimensional distance sensors, the number of pixels and resolution has increased, that is, the pixels have become smaller. Conventional three-branch lock-in pixels have a large number of elements, and as they become smaller, the sensitivity decreases and the elements cannot be arranged. In contrast, the 3D imaging unit according to the first embodiment has a simple structure of a one-branch lock-in pixel that has one transfer transistor G1 and one discharge transistor GD for one photodetector PD. As a result, a highly accurate, fine pixel distance sensor can be realized. In particular, since the structure is a simple one-branch lock-in pixel, the pixel area can be reduced and the resolution of the captured image can be improved.

(第2の実施形態)
第2の実施形態に係る3D撮像ユニットの構造は、図1~5に示す、第1の実施形態に係る3D撮像ユニットの構造とほぼ同様である。第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置を駆動する際は、図6(a)に示すように、第1フレームの第1オンフレームと第2フレームの第2オンフレームの動作を交互に繰り返し行った。第1オンフレーム及び第2オンフレームのそれぞれで得られた信号データを、図2に示す記憶部11の第1メモリ111及び第2メモリ112に格納した。これに対し、第2の実施形態に係る3D撮像ユニットにおいては、図12(a)に示すように、第1フレーム(第1オンフレーム)、第2フレーム(第2オンフレーム)及び第3フレーム(オフフレーム)の動作を順に繰り返し行う。
(Second embodiment)
The structure of the 3D imaging unit according to the second embodiment is almost the same as the structure of the 3D imaging unit according to the first embodiment shown in FIGS. 1 to 5. When driving the solid-state imaging device that is an element of the 3D imaging unit according to the first embodiment, as shown in FIG. 6(a), the first on-frame of the first frame and the second on-frame of the second frame are The actions were repeated alternately. The signal data obtained in each of the first on-frame and the second on-frame were stored in the first memory 111 and second memory 112 of the storage unit 11 shown in FIG. On the other hand, in the 3D imaging unit according to the second embodiment, as shown in FIG. 12(a), the first frame (first on-frame), the second frame (second on-frame), and the third frame (Off-frame) operations are repeated in sequence.

「第1オンフレーム」及び「第2オンフレーム」は、第1の実施形態に係る3D撮像ユニットと同様に、それぞれ投影光を照射して、受信光により発生した光電子を電荷蓄積領域43aに蓄積するフレームである。第3フレームの「オフフレーム」は、投影光を照射しないで、光電子を電荷蓄積領域43aに蓄積するフレームである。このため、第2の実施形態に係る3D撮像ユニットは、第1の実施形態に係る3D撮像ユニットの記憶部11の第1メモリ111及び第2メモリ112に加えて、第3フレームで得られた信号データを格納するための第3メモリを有する点が図2に示した構造とは異なる。 Similarly to the 3D imaging unit according to the first embodiment, the "first on-frame" and the "second on-frame" each irradiate projection light and accumulate photoelectrons generated by the received light in the charge accumulation region 43a. This is a frame that The third frame "off frame" is a frame in which photoelectrons are accumulated in the charge accumulation region 43a without irradiating projection light. Therefore, in the 3D imaging unit according to the second embodiment, in addition to the first memory 111 and the second memory 112 of the storage unit 11 of the 3D imaging unit according to the first embodiment, The structure differs from that shown in FIG. 2 in that it includes a third memory for storing signal data.

図12は、第2の実施形態に係る3D画像生成方法を説明するタイミング図である。図12(a)は、第1オンフレーム、第2オンフレーム及びオフフレームの動作を順に繰り返し行うことを示す。図12(b)は第1オンフレームのタイミング図、図12(c)は第2オンフレームのタイミング図、図12(d)はオフフレームのタイミング図であり、図12(b),(c)は図6(b),(c)と同じ図である。第1オンフレーム及び第2オンフレームの第2の実施形態に係る3D撮像ユニットの動作は、第1の実施形態に係る3D撮像ユニットの動作と同様である。図12(b)に示すように、第1オンフレームでは、光投影時間Tのタイミングで投影光を出射する。パルス幅Tonの第1駆動信号G1のパルスのタイミングは光投影時間Tに同期し、第1取得達成期間τAA1で規定されて動作する。図12(b)に示すように、第1取得達成期間τAA1は第1電荷蓄積時間Ta1と同じ値に設定できる(τAA1=Ta1)。投影光は、第1の実施形態と同様に、繰り返し周期時間(サイクルタイム)Tで周期的に発光する。 FIG. 12 is a timing diagram illustrating the 3D image generation method according to the second embodiment. FIG. 12A shows that the first on-frame, second on-frame, and off-frame operations are repeated in order. 12(b) is a timing diagram of the first on-frame, FIG. 12(c) is a timing diagram of the second on-frame, and FIG. 12(d) is a timing diagram of the off-frame. ) is the same diagram as FIGS. 6(b) and 6(c). The operation of the 3D imaging unit according to the second embodiment of the first on-frame and second on-frame is similar to the operation of the 3D imaging unit according to the first embodiment. As shown in FIG. 12(b), in the first on-frame, the projection light is emitted at the timing of the light projection time T0 . The timing of the pulse of the first drive signal G1 having a pulse width T on is synchronized with the optical projection time T 0 and operates as defined by the first acquisition achievement period τ AA1 . As shown in FIG. 12(b), the first acquisition achievement period τ AA1 can be set to the same value as the first charge accumulation time Ta1AA1 = Ta1 ). As in the first embodiment, the projection light is periodically emitted at a repetition period time (cycle time) TC .

図12(c)に示すように、第2オンフレームでは、第1オンフレームと同様に、光投影時間Tのタイミングで投影光を出射させる。第2オンフレームにおける第1駆動信号G1のパルスのタイミングは、光投影時間Tに同期した第2取得達成期間τAA2を規定するように決定され、パルス幅Tonの第1駆動信号G1が転送ゲート電極42aに印加される。第2取得達成期間τAA2は、投影光の立ち上がりから測られる時間であり、第2電荷蓄積時間Ta2とは異なる時間である。図12(c)に示すように、第2電荷蓄積時間Ta2は、排出トランジスタGDの排出ゲート電極42bに印加されるパルスの立ち下がりを基礎として定義される。第2取得達成期間τAA2で取得された光電子は、電荷蓄積領域43aに蓄積される。図12(c)に示すタイミングで第1駆動信号G1を転送ゲート電極42aに印加することにより、第1駆動信号G1のパルスに合わせて電荷蓄積領域43aに第2取得達成期間τAA2で測定される光電子は、受信光が遅れた分、受信光により発生した光電子のうち、第1オンフレームで減少した分と同じ量だけ増加する。 As shown in FIG. 12(c), in the second on-frame, projection light is emitted at the timing of the light projection time T0 , similarly to the first on-frame. The timing of the pulses of the first drive signal G1 in the second on-frame is determined to define a second acquisition achievement period τ AA2 synchronized with the optical projection time T 0 , and the first drive signal G1 with a pulse width T on is It is applied to the transfer gate electrode 42a. The second acquisition achievement period τ AA2 is a time measured from the rise of the projection light, and is a time different from the second charge accumulation time T a2 . As shown in FIG. 12(c), the second charge accumulation time T a2 is defined based on the fall of the pulse applied to the discharge gate electrode 42b of the discharge transistor GD. The photoelectrons acquired during the second acquisition achievement period τ AA2 are accumulated in the charge accumulation region 43a. By applying the first drive signal G1 to the transfer gate electrode 42a at the timing shown in FIG . The number of photoelectrons generated by the received light increases by the same amount as the amount of photoelectrons generated by the received light that decreased during the first on-frame due to the delay in the received light.

図12(d)に示すように、第3フレームとなるオフフレームでは、投影光を出射させないで第1オンフレームと同じ動作をさせる。即ち、オフレームでは、投影光を出射させない状態で、第1駆動信号G1のパルスを第1取得達成期間τAA1で動作させる。オフレームでは投影光を出射させないため、電荷蓄積領域43aには、受信光以外の環境光及び暗電流等、距離測定には不要な電子のみが蓄積される。なお、第1オンフレーム、第2オンフレーム及びオフフレームの順序は、どのような順序であってもかまわない。 As shown in FIG. 12(d), in the off-frame, which is the third frame, the same operation as in the first on-frame is performed without emitting the projection light. That is, in the over-frame, the pulse of the first drive signal G1 is operated during the first acquisition achievement period τ AA1 without emitting the projection light. Since the O-frame does not emit projection light, only electrons unnecessary for distance measurement, such as environmental light other than the received light and dark current, are accumulated in the charge accumulation region 43a. Note that the first on-frame, second on-frame, and off-frame may be in any order.

受信光以外の環境光及び暗電流等、距離測定に不要な電子は、第1オンフレーム及び第2オンフレームの電荷蓄積領域43aにも同様に蓄積されるため、第1オンフレーム及び第2オンフレームのそれぞれで得られた信号データに対して、オフフレームで得られた信号データは、不要な電子のみが蓄積されることにより、単純なオフセット成分となり、以下の式(3)によって、環境光等の影響を除外した正確な被写体距離測定が可能になる。 Electrons unnecessary for distance measurement, such as environmental light other than the received light and dark current, are similarly accumulated in the charge accumulation regions 43a of the first on-frame and second on-frame. With respect to the signal data obtained in each frame, the signal data obtained in the off-frame becomes a simple offset component due to the accumulation of unnecessary electrons, and according to the following equation (3), the signal data obtained in the off-frame This makes it possible to accurately measure the distance to the object, excluding the effects of such factors.

第1オンフレームにおいて取得され電荷蓄積領域43aに蓄積される電荷量をQ2、第2オンフレームにおいて取得され電荷蓄積領域43aに蓄積される電荷量をQ2、オフフレームにおいて取得され電荷蓄積領域43aに蓄積される電荷量をQ2OFFとすると、

L=cT/2×Q2’/(Q2’+Q2’) …(3)

で求められる。ここで、Q2’=Q2―Q2OFF、Q2’=Q2―Q2OFFである。
Q2 1 is the amount of charge acquired in the first on-frame and accumulated in the charge accumulation region 43a, Q2 2 is the amount of charge acquired in the second on-frame and accumulated in the charge accumulation region 43a, and Q2 2 is the amount of charge acquired in the off-frame and accumulated in the charge accumulation region 43a. If the amount of charge accumulated in 43a is Q2 OFF , then

L=cT 0 /2×Q2 2 '/(Q2 1 '+Q2 2 ')...(3)

is required. Here, Q2 1 ′=Q2 1 −Q2 OFF and Q2 2 ′=Q2 2 −Q2 OFF .

図31に示したような従来の固体撮像装置は、複数の振分ゲートを有していたが、第2の実施形態においては、1つの振分ゲートとなる転送トランジスタG1のみを有しており、第1オンフレーム、第2オンフレーム及びオフフレームのサイクル動作を繰り返すためには、蓄積時間以外に発生し光電変換部に収集された電荷を素早く排出する必要がある。この排出動作を行うためには、電源に接続された排出トランジスタGDをオンにすればよい。 The conventional solid-state imaging device shown in FIG. 31 has a plurality of distribution gates, but the second embodiment has only a transfer transistor G1 serving as one distribution gate. In order to repeat the cyclic operation of the first on-frame, second on-frame, and off-frame, it is necessary to quickly discharge the charges generated and collected in the photoelectric conversion unit other than the storage time. In order to perform this drain operation, the drain transistor GD connected to the power source may be turned on.

このように、第2の実施形態に係る3D撮像ユニットにおいても、1つの光検出部PDから、1つの振分ゲートとなる転送トランジスタG1を介して浮遊ドレイン領域FD1及び補助容量C1が接続することが可能であり、1つの排出トランジスタGDを介して電源VDDに接続されている構造を持つ1分岐型ロックインピクセルにより、精度の高い、微細画素距離センサが実現できる。 In this way, also in the 3D imaging unit according to the second embodiment, the floating drain region FD1 and the auxiliary capacitor C1 are connected from one photodetecting section PD via the transfer transistor G1 serving as one distribution gate. A highly accurate, fine pixel distance sensor can be realized by a one-branch lock-in pixel having a structure connected to a power supply V DD through one discharge transistor GD.

図12(d)は、第3フレームとなるオフフレームで第1オンフレームと同じ動作をさせる場合を示したが例示に過ぎない。投影光を出射させないオフフレームの動作は、第1オンフレームの動作と同じか又は第2オンフレームと同じ動作のいずれでも構わない。又、フレーム数が増加すると、動画特性が落ちる。環境光成分は、蓄積時間に比例するため、オフフレームは、例えば、繰り返し回数を減らしてもよく、その場合は、比例定数を加えるだけで補正が可能になる。このように、オフフレームの時間を短縮することで、高速化手段を行ってもよい。 Although FIG. 12D shows a case where the same operation as the first on-frame is performed in the third off-frame, this is merely an example. The off-frame operation in which projection light is not emitted may be the same as the first on-frame operation or the same operation as the second on-frame operation. Furthermore, as the number of frames increases, the video characteristics deteriorate. Since the ambient light component is proportional to the accumulation time, off-frames can be corrected by, for example, reducing the number of repetitions, and in that case, simply adding a proportionality constant. In this way, speeding up means may be implemented by shortening the off-frame time.

オフフレームの動作を、第1オンフレーム、又は第2オンフレームの動作と同じにすると、同じ構成出力部によって環境光成分をオフセット成分として削除できるので、1フレーム内の違う出力でオフセットする時に必要なゲイン補正を無くすことができ、処理が軽くなる。 If the off-frame operation is the same as the first on-frame or second on-frame operation, the ambient light component can be removed as an offset component using the same configuration output section, which is necessary when offsetting different outputs within one frame. This eliminates the need for gain correction, making processing easier.

―第2の実施形態の第1変形例―
図13は、第2の実施形態の第1変形例に係る3D画像生成方法を説明する図である。第2の実施形態の第1変形例に係る3D撮像ユニットを構成する固体撮像装置の画素構造は、図4に示した第1の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素構造と同じであり、開口部以外を遮光されたフォトダイオード(PD)からなる光電変換部41に1つの転送トランジスタG1が繋がった1分岐型ロックインピクセルである。転送トランジスタG1は浮遊ドレイン領域FD1を有し、浮遊ドレイン領域FD1には補助容量C1及びソースフォロア型の増幅トランジスタSF1が配線等を介して繋がっている。
-First modification of the second embodiment-
FIG. 13 is a diagram illustrating a 3D image generation method according to the first modification of the second embodiment. The pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the first modification of the second embodiment is the same as the pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the first embodiment shown in FIG. This is a one-branch type lock-in pixel in which one transfer transistor G1 is connected to a photoelectric conversion section 41 consisting of a photodiode (PD) whose portion other than the opening is shielded from light. The transfer transistor G1 has a floating drain region FD1, and an auxiliary capacitor C1 and a source follower type amplification transistor SF1 are connected to the floating drain region FD1 via wiring or the like.

第2の実施形態の第1変形例に係る3D画像生成方法は、図12に示した第2の実施形態と基本的な技術的思想は同じであり、第1フレームでは、投影光を、第1フレームの第1取得達成期間のタイミングに同期させて投影し、転送トランジスタG1も第1フレームの第1取得達成期間のタイミングに同期させる。第2フレームでは、投影光を、第1フレームの第1取得達成期間のタイミングに同期させて投影するが、転送トランジスタG1は第2フレームで設定されている第2取得達成期間のタイミングに同期させ、第3フレームでは、投影光を出射させない。なお、第1フレーム、第2フレーム及び第3フレームの順序は、第1の実施形態同様、どのような順であってもかまわない。 The 3D image generation method according to the first modification of the second embodiment has the same basic technical idea as the second embodiment shown in FIG. The projection is performed in synchronization with the timing of the first acquisition achievement period of one frame, and the transfer transistor G1 is also synchronized with the timing of the first acquisition achievement period of the first frame. In the second frame, the projection light is projected in synchronization with the timing of the first acquisition achievement period of the first frame, but the transfer transistor G1 is projected in synchronization with the timing of the second acquisition achievement period set in the second frame. , the projection light is not emitted in the third frame. Note that the order of the first frame, second frame, and third frame may be any order as in the first embodiment.

第2の実施形態の第1変形例と、第2の実施形態との違いは、各フレームで得られた画像から、距離画像のオフセット成分、即ち環境光等の悪影響を除外する方法にある。より具体的には、第2の実施形態の第1変形例では、投影光無し(第1オフフレーム)、投影光あり(第1オンフレーム)に設定された第1取得達成期間に転送トランジスタG1を同期、投影光あり(第2オンフレーム)で設定されている第2取得達成期間に転送トランジスタG1を同期、投影光無し(第2オフフレーム)の4フレームを一組とし、環境光等の悪影響を除外するためのフレームを第2の実施形態の1つではなく、前後2つを使うことにある。 The difference between the first modification of the second embodiment and the second embodiment lies in the method of excluding the offset component of the distance image, that is, the negative effects of environmental light and the like, from the images obtained in each frame. More specifically, in the first modification of the second embodiment, the transfer transistor G1 is set during the first acquisition achievement period set to no projection light (first off-frame) and with projection light (first on-frame). The transfer transistor G1 is synchronized to the second acquisition achievement period set with projection light (second on-frame), and a set of 4 frames with no projection light (second off-frame) is set, and environmental light, etc. The purpose of this embodiment is to use two frames, one before and one after, instead of using one frame as in the second embodiment.

その際、図13に示すように、オフフレームは、オフフレームの前の第1及び第2オンフレームのセット及びオフフレームの後の第1及び第2オンフレームのセットの両方に対して使用される。このとき、例えば、図13に示した様に、第1及び第2オンフレームのセットの前のオフフレームと、第1及び第2オンフレームのセットの後のオフフレームとの平均値を、環境光等の悪影響を除外するために用いれば、その時間変動が、より正確に検出でき、環境光が強いときや、変化があるときの距離測定の精度をあげることができる。ここで、投影光を出射させないフレームの動作は、第2の実施形態と同様、さまざまな時間短縮方法を行っても良い。 In that case, as shown in FIG. 13, the off-frame is used for both the first and second on-frame set before the off-frame and the first and second on-frame set after the off-frame. Ru. At this time, for example, as shown in FIG. 13, the average value of the off-frame before the first and second on-frame sets and the off-frame after the first and second on-frame sets is calculated based on the environment. If used to exclude the harmful effects of light, etc., the temporal fluctuations can be detected more accurately, and the accuracy of distance measurement can be improved when the environmental light is strong or changes. Here, for the operation of the frame in which the projection light is not emitted, various time reduction methods may be used as in the second embodiment.

-第2の実施形態の第2変形例-
図14は、第2の実施形態の第2変形例に係る3D画像生成方法を説明する図である。第2の実施形態の第2変形例に係る3D撮像ユニットを構成する固体撮像装置の画素構造は、第2の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素構造と同じ1分岐型ロックインピクセルであり、1電荷蓄積領域(浮遊ドレイン領域)と1電荷排出部(ドレイン)を有する。従来の固体撮像装置では、1つのフレーム内で、3つの振り分けゲートのデータ、即ち、環境光等の悪影響を除外した距離画像が得られたが、第2の実施形態に係る3D撮像ユニットでは、3つのフレームを用いて、従来の固体撮像装置の機能を実現する場合について説明した。
-Second modification of second embodiment-
FIG. 14 is a diagram illustrating a 3D image generation method according to a second modification of the second embodiment. The pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the second modification of the second embodiment is the same one-branch type as the pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the second embodiment. It is a lock-in pixel and has one charge storage region (floating drain region) and one charge discharge region (drain). In the conventional solid-state imaging device, data of three distribution gates, that is, a distance image excluding adverse effects such as environmental light, was obtained within one frame, but in the 3D imaging unit according to the second embodiment, A case has been described in which the functions of a conventional solid-state imaging device are realized using three frames.

第2の実施形態に係る3D撮像ユニットの要素である固体撮像装置を駆動では、各々のフレームレートを変化させなければ、トータルのフレームレートが1/3となり、動解像度が低下してしまう。第2の実施形態の第2変形例では、上記問題に対し、図14(a)に示すように、1つの投影光無しのオフフレームに対して、2組の投影光ありのオンフレームのセットを連続した駆動にし、1つのオフフレームを後続の2組のオンフレームの環境光等の悪影響を除外するためのフレームとして用いることにより、第2の実施形態の6/5倍という速いフレームレートで、従来技術の2/5倍という遅いフレームレートで動作させつつ、従来技術の機能が実現できる。即ち、動解像度の低下を抑制できる。 When driving the solid-state imaging devices that are elements of the 3D imaging unit according to the second embodiment, unless the respective frame rates are changed, the total frame rate will be reduced to ⅓, and the dynamic resolution will be reduced. In the second modification of the second embodiment, to solve the above problem, as shown in FIG. 14(a), for one off-frame without projection light, two sets of on-frame with projection light are provided. By driving continuously and using one off-frame as a frame for excluding the negative effects of the following two on-frames such as environmental light, the frame rate is 6/5 times faster than that of the second embodiment. , the functions of the prior art can be realized while operating at a frame rate 2/5 times slower than that of the prior art. That is, it is possible to suppress a decrease in dynamic resolution.

図14(b)に示すように、投影光ありの第1オンフレームと第2オンフレームのセットの連続は、3組(3セット)にしても良い。第1オンフレームと第2オンフレームのセットが、3セット連続する駆動の場合、第2の実施形態の9/7倍という速いフレームレートで、従来技術の、3/7倍という遅いフレームレートで動作させつつ、従来技術の機能が実現できる。即ち、Jを2以上の自然数として、J個の連続した投影光ありのオンフレームとする駆動としてもよく、その場合、第2の実施形態の3J/(2J+1)倍という速いフレームレートで、従来技術よりは、J/(2J+1)倍という遅いフレームレートで動作させつつ、従来技術の機能が実現できる。即ち、動解像度の低下を抑制できる。なお、第2の実施形態と同様、オフフレームは、オンフレームの前でも、後でも構わない。又、オフフレームの動作は、第2の実施形態と同様、さまざまな時間短縮方法を行っても良い。 As shown in FIG. 14(b), the number of consecutive sets of the first on-frame and second on-frame with projection light may be three (3 sets). When the first on-frame and second on-frame sets are driven in three consecutive sets, the frame rate is 9/7 times faster than that of the second embodiment, and the frame rate is 3/7 times slower than that of the conventional technology. The functions of the conventional technology can be realized while operating the system. That is, J may be a natural number of 2 or more, and driving may be performed in which J consecutive projection lights are present. This technology allows the functions of the conventional technology to be realized while operating at a frame rate as slow as J/(2J+1) times. That is, it is possible to suppress a decrease in dynamic resolution. Note that, similarly to the second embodiment, the off-frame may be placed before or after the on-frame. Further, as in the second embodiment, various time reduction methods may be used for off-frame operations.

―第2の実施形態の第3変形例-
図15は、第2の実施形態の第3変形例に係る3D画像生成方法を説明する図である。第2の実施形態の第3変形例は、第2の実施形態の第1変形例と、第2の実施形態の第2変形例との組み合わせであり、第2の実施形態よりも動解像度の低下を抑制しつつ、第2の実施形態及び第2の実施形態の第2変形例より、環境光が強いときや、変化があるときの距離測定の精度をあげることができる。
-Third modification of the second embodiment-
FIG. 15 is a diagram illustrating a 3D image generation method according to a third modification of the second embodiment. The third modified example of the second embodiment is a combination of the first modified example of the second embodiment and the second modified example of the second embodiment, and has a higher dynamic resolution than the second embodiment. While suppressing the decrease, it is possible to improve the accuracy of distance measurement when the environmental light is strong or when there is a change, compared to the second embodiment and the second modification of the second embodiment.

(第3の実施形態)
第3の実施形態に係る3D撮像ユニットの構造は、第1の実施形態に係る3D撮像ユニットの構造とほぼ同様であるが、図16に示すように、2つの電荷振分機構である第1転送トランジスタG1及び第2転送トランジスタG2を備える点が図4に示した構造とは異なる。図16では、第1転送トランジスタG1及び第2転送トランジスタG2のそれぞれが第1転送ゲート電極152a及び第2転送ゲート電極152bを有するものとして平面パターンが例示されている。第3の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素は2つの電荷振分機構に加え、1つの電荷排出機構を構成する排出トランジスタGDを有している。排出トランジスタGDは、排出ゲート電極152cを有するものとして図16に示されている。
(Third embodiment)
The structure of the 3D imaging unit according to the third embodiment is almost the same as the structure of the 3D imaging unit according to the first embodiment, but as shown in FIG. The structure differs from that shown in FIG. 4 in that it includes a transfer transistor G1 and a second transfer transistor G2. In FIG. 16, a planar pattern is illustrated in which the first transfer transistor G1 and the second transfer transistor G2 each have a first transfer gate electrode 152a and a second transfer gate electrode 152b. A pixel of a solid-state imaging device constituting a 3D imaging unit according to the third embodiment has a discharge transistor GD constituting one charge discharging mechanism in addition to two charge distribution mechanisms. Drain transistor GD is shown in FIG. 16 as having a drain gate electrode 152c.

第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置を駆動する際は、図6(a)に示すように、第1オンフレーム(ON1フレーム)と第2オンフレーム(ON2フレーム)の動作を交互に繰り返し行う。第1オンフレーム及び第2オンフレームのそれぞれで得られた信号データを、図2に示す記憶部11の第1メモリ111及び第2メモリ112に格納する。第3の実施形態に係る3D撮像ユニットにおいては、図18(a)に示すように、オンフレームとオフフレームの動作を交互に繰り返し行う。 When driving the solid-state imaging device that is an element of the 3D imaging unit according to the first embodiment, as shown in FIG. 6(a), a first on-frame (ON1 frame) and a second on-frame (ON2 frame) Repeat these actions alternately. The signal data obtained in each of the first on-frame and the second on-frame are stored in the first memory 111 and the second memory 112 of the storage unit 11 shown in FIG. In the 3D imaging unit according to the third embodiment, on-frame and off-frame operations are alternately repeated, as shown in FIG. 18(a).

図18(b)(c)に示すように、オンフレーム、オフフレームのそれぞれで、第1駆動信号G1のパルスに応じたデータ及び第2駆動信号G2のパルスに応じたデータが得られ、得られたデータはすべて記憶部11のメモリに格納される。このため、第3の実施形態に係る3D撮像ユニットは、第1の実施形態に係る3D撮像ユニットの記憶部11のオンフレームで得られた信号データを格納するための第1メモリ111及び第2メモリ112に加えて、オフフレームで得られた信号データを格納するための第3メモリ及び第4メモリを有する特徴が第1の実施形態に係る3D撮像ユニットとは異なる。 As shown in FIGS. 18(b) and 18(c), data corresponding to the pulse of the first drive signal G1 and data corresponding to the pulse of the second drive signal G2 are obtained in each of the on-frame and off-frame. All the stored data is stored in the memory of the storage unit 11. Therefore, the 3D imaging unit according to the third embodiment has a first memory 111 and a second memory for storing signal data obtained on-frame in the storage section 11 of the 3D imaging unit according to the first embodiment. The 3D imaging unit according to the first embodiment is different from the 3D imaging unit according to the first embodiment in that, in addition to the memory 112, it includes a third memory and a fourth memory for storing signal data obtained off-frame.

図16に示す第3の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素平面図と、図31に示す従来技術に係る画素平面図は、互いに同じレイアウトルールで描画されているが、図16に示す画素平面図の面積は図31に示す画素平面図の面積の2分の1の大きさである。図16及び図17に示すように、第3の実施形態に係る3D撮像ユニットにおいては、第1転送トランジスタG1には、図4及び図5に示した第1の実施形態に係る3D撮像ユニットの転送トランジスタG1と同様に、第1電荷蓄積領域153a、第1補助容量C1及び第1増幅トランジスタSF1が配線等を介して接続されている。更に、第3の実施形態に係る3D撮像ユニットにおいては、第2転送トランジスタG2にも、第2電荷蓄積領域153b、第2補助容量C2及び第2増幅トランジスタSF2が配線等を介して接続されている。 Although the pixel plan view of the solid-state imaging device constituting the 3D imaging unit according to the third embodiment shown in FIG. 16 and the pixel plan view according to the conventional technology shown in FIG. 31 are drawn using the same layout rule, The area of the pixel plan view shown in FIG. 16 is half the area of the pixel plan view shown in FIG. 31. As shown in FIGS. 16 and 17, in the 3D imaging unit according to the third embodiment, the first transfer transistor G1 has the same function as that of the 3D imaging unit according to the first embodiment shown in FIGS. Similar to the transfer transistor G1, the first charge storage region 153a, the first auxiliary capacitor C1, and the first amplification transistor SF1 are connected via wiring or the like. Furthermore, in the 3D imaging unit according to the third embodiment, the second charge storage region 153b, the second auxiliary capacitor C2, and the second amplification transistor SF2 are also connected to the second transfer transistor G2 via wiring or the like. There is.

第3の実施形態に係る3D撮像ユニットの第1補助容量C1及び第2補助容量C2は、MOS容量素子として付加してもよい。ただし、本質的には、pn接合容量、配線間容量等の寄生容量で代用できるので、意図的な素子の付加がなくてもよい。又、第1補助容量C1及び第2補助容量C2は、第1の実施形態に係る3D撮像ユニットの補助容量(第1補助容量)C1とほぼ同じサイズのMOS容量となるようレイアウトされている。 The first auxiliary capacitor C1 and the second auxiliary capacitor C2 of the 3D imaging unit according to the third embodiment may be added as MOS capacitive elements. However, since parasitic capacitances such as pn junction capacitance and inter-wiring capacitance can essentially be used instead, there is no need to intentionally add any elements. Further, the first auxiliary capacitor C1 and the second auxiliary capacitor C2 are laid out to be MOS capacitors having approximately the same size as the auxiliary capacitor (first auxiliary capacitor) C1 of the 3D imaging unit according to the first embodiment.

光電変換部151の受光領域で発生した光電子は、第1転送ゲート電極152aに第1転送トランジスタG1を導通状態にするゲート電圧を印加すると、光電子は第1電荷蓄積領域153aに移動する。一方、第2転送ゲート電極152bに第2転送トランジスタG2を導通状態にするゲート電圧を印加すると、光電変換部151の受光領域で発生した光電子は、第2電荷蓄積領域153bに移動する。第3の実施形態に係る3D撮像ユニットとほぼ同じ位置からパルス光を出射し、対象物からの反射光を撮像素子で受光する点、投影光は、例えば、発光ダイオード(LED)や半導体レーザ(LD)を用い、例えばnsオーダーからfsオーダーの極短時間のパルス光を投影させる点は、第1の実施形態に係る3D撮像ユニットの場合と同様である。 When a gate voltage that turns on the first transfer transistor G1 is applied to the first transfer gate electrode 152a, the photoelectrons generated in the light receiving region of the photoelectric conversion unit 151 move to the first charge storage region 153a. On the other hand, when a gate voltage that turns on the second transfer transistor G2 is applied to the second transfer gate electrode 152b, photoelectrons generated in the light receiving region of the photoelectric conversion section 151 move to the second charge storage region 153b. The pulsed light is emitted from almost the same position as the 3D imaging unit according to the third embodiment, the reflected light from the object is received by the imaging element, and the projection light is emitted from, for example, a light emitting diode (LED) or a semiconductor laser ( This is similar to the 3D imaging unit according to the first embodiment in that an extremely short pulsed light of, for example, ns order to fs order is projected using an LD (LD).

図18は、第3の実施形態に係る3D画像生成方法を説明するタイミング図である。図18(a)は、第1フレーム(オンフレーム)と第2フフレーム(オフフレーム)の動作を交互に繰り返し行うことを示し、図18(b)はオンフレームのタイミング図であり、図18(c)はオフフレームのタイミング図である。図18(b)に示すように、オンフレームでは、光投影時間Tのタイミングで投影光を出射させ、パルス幅Tonの第1駆動信号G1のパルスのタイミングは第1取得達成期間τAA1で規定されて第1転送ゲート電極152aに印加される。第1取得達成期間τAA1は第1電荷蓄積時間Ta1と同じ値に設定できる(τAA1=Ta1)。第1取得達成期間τAA1で取得された光電子は、第1電荷蓄積領域153aに蓄積される。 FIG. 18 is a timing diagram illustrating a 3D image generation method according to the third embodiment. FIG. 18(a) shows that the operations of the first frame (on-frame) and the second frame (off-frame) are alternately repeated, and FIG. 18(b) is a timing diagram of the on-frame. (c) is an off-frame timing diagram. As shown in FIG. 18(b), in the on-frame, the projection light is emitted at the timing of the light projection time T0 , and the timing of the pulse of the first drive signal G1 with the pulse width T on is the first acquisition achievement period τ AA1 is applied to the first transfer gate electrode 152a. The first acquisition achievement period τ AA1 can be set to the same value as the first charge accumulation time Ta1AA1 = Ta1 ). The photoelectrons acquired during the first acquisition achievement period τ AA1 are accumulated in the first charge accumulation region 153a.

更に図18(b)に示すように、オンフレームでは、第2駆動信号G2のパルスのタイミングが光投影時間Tに同期した第2取得達成期間τAA2を規定するように決定される。そして、パルス幅Tonの第2駆動信号G2が、第2取得達成期間τAA2のタイミングで第2転送ゲート電極152bに印加される。第2取得達成期間τAA2は、投影光の立ち上がりから測られる時間である。第2取得達成期間τAA2で取得された光電子は、第2電荷蓄積領域153bに蓄積される。図18(b)に示すタイミングで第2電荷蓄積領域153bに蓄積される光電子は、受信光が遅れた分、受信光により発生した光電子のうち、第1取得達成期間τAA1で取得できなかった分と同じ量だけ増加する。 Further, as shown in FIG. 18(b), in the on-frame, the timing of the pulse of the second drive signal G2 is determined to define a second acquisition achievement period τ AA2 synchronized with the optical projection time T 0 . Then, the second drive signal G2 with a pulse width T on is applied to the second transfer gate electrode 152b at the timing of the second acquisition achievement period τ AA2 . The second acquisition achievement period τ AA2 is the time measured from the rise of the projection light. The photoelectrons acquired during the second acquisition achievement period τ AA2 are accumulated in the second charge accumulation region 153b. The photoelectrons accumulated in the second charge accumulation region 153b at the timing shown in FIG. 18(b) cannot be acquired during the first acquisition achievement period τ AA1 out of the photoelectrons generated by the received light due to the delay in the received light. increases by the same amount as the minute.

第2駆動信号G2のパルスのタイミングは、受信光が完全に到達した時間を含むような長さの第2取得達成期間τAA2に同期させる。図18(b)に示すタイミングにすることにより、第1駆動信号G1のパルスに合わせて第1電荷蓄積領域153aへ、第2駆動信号G2のパルスに合わせて第2電荷蓄積領域153bへと、受信光の遅れ、即ち被写体距離に応じて、各々のゲートに対応した蓄積電荷量に違いが生じ、被写体距離が求められる。 The timing of the pulses of the second drive signal G2 is synchronized with the second acquisition achievement period τ AA2 that is long enough to include the time when the received light has completely arrived. By setting the timing shown in FIG. 18(b), to the first charge accumulation region 153a in accordance with the pulse of the first drive signal G1, and to the second charge accumulation region 153b in accordance with the pulse of the second drive signal G2, Depending on the delay of the received light, that is, the distance to the subject, a difference occurs in the amount of accumulated charge corresponding to each gate, and the distance to the subject is determined.

図18(c)に示すように、第2フレームとなるオフフレームでは、投影光を出射させないで第1オンフレームと同じ動作をさせる。即ち、オフレームでは、投影光を出射させない状態で、第1駆動信号G1のパルスを第1取得達成期間τAA1で動作させ、第2駆動信号G2のパルスを第2取得達成期間τAA2で動作させる。オフレームでは投影光を出射させないため、第1電荷蓄積領域153a及び第2電荷蓄積領域153bには、受信光以外の環境光及び暗電流等、距離測定には不要な電子のみが蓄積される。 As shown in FIG. 18C, in the off-frame, which is the second frame, the same operation as in the first on-frame is performed without emitting the projection light. That is, in the O-frame, the pulse of the first drive signal G1 is operated during the first acquisition achievement period τ AA1 and the pulse of the second drive signal G2 is operated during the second acquisition achievement period τ AA2 without emitting the projection light. let Since the O-frame does not emit projection light, only electrons unnecessary for distance measurement, such as environmental light other than the received light and dark current, are accumulated in the first charge accumulation region 153a and the second charge accumulation region 153b.

なお、第1フレームと第2フレームは、順序が逆、即ち第1フレームが投影光を出射させないオフフレームの動作で、第2フレームが投影光を出射させるオンフレームの動作であってもかまわない。第3の実施形態に係る3D撮像ユニットにおいては、オフフレームで第1電荷蓄積領域153a及び第2電荷蓄積領域153bに蓄積され、受信光以外の環境光及び暗電流等、距離測定には不要な電子は、オンフレームの第1電荷蓄積領域153a及び第2電荷蓄積領域153bにも蓄積されるため、オンフレームの各々の出力に対して、オフフレームの出力は、単純なオフセット成分となり、以下の式(4)を用いることにより、環境光等の影響を除外した正確な被写体距離測定が可能になる。 Note that the first frame and the second frame may be performed in the opposite order, that is, the first frame may be an off-frame operation that does not emit projection light, and the second frame may be an on-frame operation that emit projection light. . In the 3D imaging unit according to the third embodiment, environmental light other than received light and dark current are accumulated in the first charge accumulation region 153a and the second charge accumulation region 153b during off-frames, and are unnecessary for distance measurement. Since electrons are also accumulated in the on-frame first charge accumulation region 153a and second charge accumulation region 153b, the off-frame output becomes a simple offset component with respect to each on-frame output, and is expressed as follows. By using equation (4), it becomes possible to accurately measure the distance to the object excluding the influence of environmental light and the like.

オンフレームにおいて取得され第1電荷蓄積領域153aに蓄積される電荷量をQ3、第2電荷蓄積領域153bに蓄積される電荷量をQ3、オフフレームにおいて取得され第1電荷蓄積領域153aに蓄積される電荷量をQ31OFF、オフフレームにおいて取得され第2電荷蓄積領域153bに蓄積される電荷量をQ32OFFとすると、

L=cT/2×Q3’/(Q3’+Q3’) …(4)

で求められる。ここで、Q3’=Q3―Q31OFF、Q3’=Q3―Q32OFFである。
Q3 1 is the amount of charge acquired in the on-frame and accumulated in the first charge accumulation region 153a, Q3 2 is the amount of charge acquired in the off-frame and accumulated in the first charge accumulation region 153a. If the amount of charge obtained is Q3 1OFF and the amount of charge acquired in the off-frame and accumulated in the second charge accumulation region 153b is Q3 2OFF , then

L=cT 0 /2×Q3 2 '/(Q3 1 '+Q3 2 ')...(4)

is required. Here, Q3 1 ′=Q3 1 −Q3 1OFF and Q3 2 ′=Q3 2 −Q3 2OFF .

オンフレームで、やや遠い被写体になると、第2電荷蓄積領域153bに入るべき光電子が、次の繰り返し周期時間Tの周期の第1電荷蓄積領域153aに入ってしまう。第1電荷蓄積領域153aも信号成分であるため、繰り返し周期時間Tを超えて第1電荷蓄積領域153aに遅れた受信光成分が入ると、距離精度が大きく劣化する。そこで、第2電荷蓄積領域153bの蓄積時間の後に、電源にドレイン(電荷排出領域)が接続された排出トランジスタGDをオンにすれば、遅れた受信光成分は排出され、更に次の繰り返し周期時間Tの周期の第1電荷蓄積領域153aには遅れた受信光成分が入らなくなり、距離精度が良好に保てる。 When the subject is on-frame and a little far away, photoelectrons that should have entered the second charge accumulation region 153b end up entering the first charge accumulation region 153a at the next repetition cycle time TC . Since the first charge accumulation region 153a is also a signal component, if a delayed received light component enters the first charge accumulation region 153a beyond the repetition cycle time TC , the distance accuracy will be significantly degraded. Therefore, if the discharge transistor GD whose drain (charge discharge region) is connected to the power source is turned on after the accumulation time of the second charge accumulation region 153b, the delayed received light component is discharged, and then the next repetition cycle time The delayed received light component does not enter the first charge storage region 153a with a period of T C , and good distance accuracy can be maintained.

このように、1つの光検出部PDに2つの振り分けゲートとしての第1転送トランジスタG1、第2転送トランジスタG2、及び1つの排出トランジスタGDが接続されている簡単な構造を持つ2分岐型ロックインピクセルにより画素面積を縮小し、精度の高い、微細画素距離センサが実現できる。第3の実施形態に係る3D撮像ユニットにおいては、1つの光検出部PDから、第1転送トランジスタG1及び第2転送トランジスタG2をそれぞれ介して2つの第1浮遊ドレイン領域FD1及び第2浮遊ドレイン領域FD2並びに2つの第1補助容量C1及び第2補助容量C2が接続され、1つの排出トランジスタGDを介して、1つの光検出部PDから、電源VDDに接続されたドレイン(電荷排出領域)を持つ2分岐型ロックインピクセルの構造をなし、画素面積の縮小化を実現し、精度の高い測距とともに、解像度の高い画像が提供できる。 In this way, the two-branch type lock-in has a simple structure in which the first transfer transistor G1, the second transfer transistor G2, and one discharge transistor GD as two distribution gates are connected to one photodetector PD. By reducing the pixel area, a highly accurate, fine pixel distance sensor can be realized. In the 3D imaging unit according to the third embodiment, two first floating drain regions FD1 and two second floating drain regions are connected from one photodetecting section PD via first transfer transistor G1 and second transfer transistor G2, respectively. FD2 and two first auxiliary capacitors C1 and second auxiliary capacitors C2 are connected, and a drain (charge discharge region) connected to a power supply V DD is connected from one photodetector PD through one discharge transistor GD. It has a two-branch lock-in pixel structure, which reduces the pixel area and provides highly accurate ranging and high-resolution images.

第3の実施形態に係る3D撮像ユニットにおいて、投影光を出射させないオフフレームの動作は、オンフレームと同じにするのが良いが、フレーム数が増えると、動画特性が落ちる。環境光成分は、蓄積時間に比例するため、例えば、オフフレームにおいて、繰り返し回数を減らす、又は、第1転送ゲート電極152a又は第2転送ゲート電極152bのいずれかのみを駆動させる、等を行い、比例定数を加えるのみで補正が可能となる。この他にも、例えば、オフフレームの時間を短縮する等、様々な高速化手段を行ってもよい。 In the 3D imaging unit according to the third embodiment, the off-frame operation in which projection light is not emitted is preferably the same as the on-frame operation, but as the number of frames increases, the moving image characteristics deteriorate. Since the ambient light component is proportional to the accumulation time, for example, in off-frames, the number of repetitions is reduced, or only either the first transfer gate electrode 152a or the second transfer gate electrode 152b is driven, etc. Correction is possible by simply adding a proportionality constant. In addition to this, various speed-up measures may be taken, such as shortening the off-frame time.

又、第3の実施形態に係る3D撮像ユニットにおいては、オフフレームの動作を、オンフレームと同じにすると、オンフレームとオフフレームにおけるそれぞれの第1電荷蓄積領域153aに蓄積された電荷量同士、第2電荷蓄積領域153bに蓄積された電荷量同士によって環境光成分をオフセット成分として削除できるので、従来技術におけるように、1フレーム内の異なる2つの第1浮遊ドレイン領域FD1及び第2浮遊ドレイン領域FD2同士でオフセットする時に必要なゲイン補正を無くすことができ、処理が軽くなる。 Further, in the 3D imaging unit according to the third embodiment, if the off-frame operation is the same as the on-frame operation, the amount of charge accumulated in the first charge accumulation region 153a in the on-frame and off-frame is different from that of the on-frame operation. Since the ambient light component can be removed as an offset component depending on the amount of charge accumulated in the second charge accumulation region 153b, unlike the prior art, two different first floating drain regions FD1 and second floating drain regions within one frame can be removed. Gain correction required when offsetting between FD2s can be eliminated, and processing becomes lighter.

図19は、第1の実施形態、第3の実施形態、従来技術のそれぞれに係る固体撮像装置の画素平面図を比較する図であり、図19(a)は第1の実施形態、(b)は第3の実施形態、(c)は従来の固体撮像装置の画素平面図である。それぞれの1画素の1辺の長さは、図19(a)は3.2μm、(b)は4.5μm、(c)は6.4μmである。第1の実施形態に係る3D撮像ユニットの要素である固体撮像装置は、従来の固体撮像装置とは同じレイアウトルールで、画素の面積は4分の1であり、同じ画素アレイの面積中に、4倍の画素数が集積できる。第3の実施形態に係る撮像ユニッの要素である固体撮像装置は、従来の固体撮像装置とは同じレイアウトルールで、画素の面積は2分の1であり、同じ画素アレイの面積中に、2倍の画素数が集積できる。 FIG. 19 is a diagram comparing pixel plan views of solid-state imaging devices according to the first embodiment, the third embodiment, and the conventional technology, with FIG. 19(a) showing the first embodiment, and FIG. ) is a pixel plan view of the third embodiment, and (c) is a pixel plan view of a conventional solid-state imaging device. The length of one side of each pixel is 3.2 μm in FIG. 19(a), 4.5 μm in FIG. 19(b), and 6.4 μm in FIG. 19(c). The solid-state imaging device, which is an element of the 3D imaging unit according to the first embodiment, has the same layout rule as the conventional solid-state imaging device, and the pixel area is one-fourth of that of the conventional solid-state imaging device. Four times as many pixels can be integrated. The solid-state imaging device, which is an element of the imaging unit according to the third embodiment, has the same layout rule as the conventional solid-state imaging device, and has a pixel area that is half the size of the conventional solid-state imaging device. Double the number of pixels can be integrated.

アスペクト比が大きくなると、画素間のクロストークが増加し、画素を微細にして画素数を増やしても、所望の解像度が得られなくなる。アスペクト比は1以下が望ましく、特別な施策、具体的にはプロセス的な施策を施さずにクロストークが許容できる範囲は、必要な仕様により異なり、一概に決定することは困難であるが、せいぜいアスペクト比2程度である。つまり、図8においては、波長850nmの赤外光、10μmの厚さのときの従来技術のみが、特別な施策、具体的にはプロセス的な施策を施さずにクロストークが許容できる範囲となり、その他の条件では、クロストークが許容できないという問題がある。第3の実施形態に係る3D撮像ユニットの要素である固体撮像装置においても、図9~図11に示したような深いトレンチを用いたDTI構造等の施策によって、素子分離領域213を構成すれば、画素面積が微細になっても、クロストークを防止することが可能である。 As the aspect ratio increases, crosstalk between pixels increases, and even if the pixels are made finer and the number of pixels is increased, the desired resolution cannot be obtained. It is desirable that the aspect ratio be 1 or less, and the range that crosstalk can be tolerated without taking special measures, specifically process-related measures, varies depending on the required specifications and is difficult to make a general decision. The aspect ratio is about 2. In other words, in FIG. 8, only the conventional technology using infrared light with a wavelength of 850 nm and a thickness of 10 μm has crosstalk within an allowable range without taking any special measures, specifically, process measures. Under other conditions, there is a problem that crosstalk cannot be tolerated. Even in the solid-state imaging device that is an element of the 3D imaging unit according to the third embodiment, if the element isolation region 213 is configured by a measure such as a DTI structure using a deep trench as shown in FIGS. , crosstalk can be prevented even if the pixel area becomes smaller.

-第3の実施形態の第1変形例-
図20は、第3の実施形態の第1変形例に係る3D画像生成方法を説明する図である。第3の実施形態の第1変形例に係る3D撮像ユニットを構成する固体撮像装置の画素構造は、図16に示した第3の実施形態に係る3D撮像ユニットと同じであり、開口部以外を遮光された光電変換部に2つの振り分けゲートとして第1転送トランジスタG1及び第2転送トランジスタG2が繋がっている2分岐型ロックインピクセルである。第1転送トランジスタG1は第1浮遊ドレイン領域FD1を有し、第1浮遊ドレイン領域FD1には、第1補助容量C1及び第1増幅トランジスタSF1のゲート電極が配線等を介して繋がっている。第2転送トランジスタG2は第2浮遊ドレイン領域FD2を有し、第2浮遊ドレイン領域FD2には、第2補助容量C2 及び第2増幅トランジスタSF2が配線等を介して繋がっている。
-First modification of third embodiment-
FIG. 20 is a diagram illustrating a 3D image generation method according to the first modification of the third embodiment. The pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the first modification of the third embodiment is the same as the 3D imaging unit according to the third embodiment shown in FIG. 16, except for the opening. This is a two-branch type lock-in pixel in which a first transfer transistor G1 and a second transfer transistor G2 are connected as two distribution gates to a light-shielded photoelectric conversion section. The first transfer transistor G1 has a first floating drain region FD1, and the first auxiliary capacitor C1 and the gate electrode of the first amplification transistor SF1 are connected to the first floating drain region FD1 via wiring or the like. The second transfer transistor G2 has a second floating drain region FD2, and a second auxiliary capacitor C2 and a second amplification transistor SF2 are connected to the second floating drain region FD2 via wiring or the like.

第3の実施形態の第1変形例に係る3D画像生成方法も、第3の実施形態に係る3D撮像ユニットと同じであり、第1フレーム(オンフレーム)では、投影光を第1フレームの第1取得達成期間τAA1及び第2取得達成期間τAA2に同期させ、第2フレーム(オフフレーム)では、投影光を出射させない。なお、第1の実施例同様、第1フレームと第2フレームは、順序が逆、即ち、第1フレームが投影光を出射させない動作で、第2フレームが投影光を出射させる動作であってもかまわない。 The 3D image generation method according to the first modification of the third embodiment is also the same as the 3D imaging unit according to the third embodiment, and in the first frame (on-frame), the projection light is The projection light is not emitted in the second frame (off frame) in synchronization with the first acquisition achievement period τ AA1 and the second acquisition achievement period τ AA2 . Note that, as in the first embodiment, even if the first frame and the second frame are in the reverse order, that is, the first frame is an operation that does not emit projection light, and the second frame is an operation that causes projection light to be emitted. I don't mind.

第3の実施形態の第1変形例に係る3D撮像ユニットと、第3の実施形態に係る3D撮像ユニットとの違いは、各フレームで得られた画像から、距離画像のオフセット成分、即ち環境光等の悪影響を除外する方法にある。より具体的には、第3の実施形態の第1変形例では、投影光無し、投影光あり、投影光無しの3フレームを一組としている。そして、環境光等の悪影響を除外するためのフレームを第3の実施形態の1つではなく、投影光ありのオンフレームの前後2つの投影光なしのオフフレームを使うことにある。 The difference between the 3D imaging unit according to the first modification of the third embodiment and the 3D imaging unit according to the third embodiment is that the offset component of the distance image, that is, the environmental light There are ways to exclude such negative effects. More specifically, in the first modification of the third embodiment, a set of three frames includes one without projection light, one with projection light, and one without projection light. In addition, instead of using one frame as in the third embodiment as a frame for excluding the adverse effects of environmental light, two off-frames without projection light are used before and after an on-frame with projection light.

その際、図20に示すように、投影光無しのオフフレームは、前後の投影光ありのオンフレームの両方に対して使用される。このとき、例えば、図20に示した様に、オンフレームの前後の2つのオフフレームの平均値を、環境光等の悪影響を除外するために用いる。オフフレームの平均値を用いれば、その時間変動が、より正確に検出でき、環境光が強いときや、変化があるときの距離測定の精度をあげることができる。第3の実施形態の第1変形例に係る3D撮像ユニットにおける、投影光を出射させないオフフレームの動作は、第3の実施形態と同様、さまざまな時間短縮方法を行っても良い。 At this time, as shown in FIG. 20, the off-frame without projection light is used for both the preceding and succeeding on-frames with projection light. At this time, for example, as shown in FIG. 20, the average value of the two off-frames before and after the on-frame is used to exclude the adverse effects of ambient light and the like. If the off-frame average value is used, the temporal variation can be detected more accurately, and the accuracy of distance measurement can be improved when the ambient light is strong or changes. In the off-frame operation in which projection light is not emitted in the 3D imaging unit according to the first modification of the third embodiment, various time reduction methods may be performed as in the third embodiment.

-第3の実施形態の第2変形例-
図21は、第3の実施形態の第2変形例に係る3D画像生成方法を説明する図である。第3の実施形態の第2変形例に係る3D撮像ユニットを構成する固体撮像装置の画素構造は、第3の実施形態に係る3D撮像ユニットを構成する固体撮像装置の画素構造と同じ2分岐型ロックインピクセルであり、2つの電荷蓄積領域(浮遊ドレイン領域)と1つの電荷排出部(ドレイン)を有している。従来の固体撮像装置では、1つのフレーム内で、3つの振り分けゲートのデータ、即ち、環境光等の悪影響を除外した距離画像が得られたが、第3の実施形態に係る3D撮像ユニットでは、2つのフレームを用いて、従来技術と等価な機能を実現している。第3の実施形態における駆動では、各々のフレームレートを変化させなければ、トータルのフレームレート(単位時間あたりのコマ数)が1/2となり、動解像度が低下してしまう。
-Second modification of third embodiment-
FIG. 21 is a diagram illustrating a 3D image generation method according to a second modification of the third embodiment. The pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the second modification of the third embodiment is the same two-branch type as the pixel structure of the solid-state imaging device constituting the 3D imaging unit according to the third embodiment. It is a lock-in pixel and has two charge storage regions (floating drain region) and one charge discharge region (drain). In the conventional solid-state imaging device, data of three distribution gates, that is, a distance image excluding negative effects such as environmental light, was obtained within one frame, but in the 3D imaging unit according to the third embodiment, Functions equivalent to those of the conventional technology are achieved using two frames. In the driving in the third embodiment, if each frame rate is not changed, the total frame rate (number of frames per unit time) will be reduced to 1/2, and the dynamic resolution will be reduced.

第3の実施形態の第2変形例では、上記問題に対し、図21(a)に示すように、1つのオフフレームに対して、2つのオンフレームを連続した駆動にし、1つのオフフレームを後続の2つのオンフレームの環境光等の悪影響を除外するためのフレームとして用いることにより、第3の実施形態の4/3倍という速いフレームレートで、従来技術の2/3倍という遅いフレームレートで動作させつつ、従来例の機能が実現できる。即ち、動解像度の低下を抑制できる。 In the second modification of the third embodiment, in order to solve the above problem, two on-frames are continuously driven for one off-frame, and one off-frame is driven as shown in FIG. 21(a). By using the subsequent two on-frames as a frame for excluding the negative effects of environmental light, etc., the frame rate is 4/3 times faster than that of the third embodiment, and the frame rate is 2/3 times slower than that of the conventional technology. It is possible to realize the functions of the conventional example while operating the system. That is, it is possible to suppress a decrease in dynamic resolution.

図21(b)に示すように、オンフレームの連続は、3つにしても良い。3つの連続したオンフレームとする駆動の場合、実施例1の3/2倍という速いフレームレートで、従来技術の3/4倍という遅いフレームレートで動作させつつ、従来例の機能が実現できる。即ち、J(2以上の自然数)個の連続したオンフレームとする駆動としてもよく、その場合、第3の実施形態の2J/(J+1)倍という速いフレームレートで、従来例よりは、J/(J+1)倍という遅いフレームレートで動作させつつ、従来例の機能が実現できる。即ち、動解像度の低下を抑制できる。なお、第3の実施形態同様、オフフレームは、オンフレームの前でも、後でも構わない。又、オフフレームの動作は、第3の実施形態と同様、さまざまな時間短縮方法を行っても良い。 As shown in FIG. 21(b), the number of consecutive on-frames may be three. In the case of driving with three consecutive on-frames, the functions of the conventional example can be realized while operating at a frame rate as fast as 3/2 times that of the first embodiment and as slow as 3/4 times that of the prior art. In other words, it may be driven with J (a natural number of 2 or more) consecutive on-frames, and in that case, the frame rate is 2J/(J+1) times faster than that of the third embodiment, and the frame rate is J/(J+1) times faster than that of the conventional example. The functions of the conventional example can be realized while operating at a frame rate as low as (J+1) times. That is, it is possible to suppress a decrease in dynamic resolution. Note that, as in the third embodiment, the off-frame may be placed before or after the on-frame. Further, as in the third embodiment, various time reduction methods may be used for off-frame operations.

-第3の実施形態の第3変形例-
図22は、第3の実施形態の第3変形例に係る3D画像生成方法を説明する図である。第3の実施形態の第3変形例は、第3の実施形態の第1変形例と、第3の実施形態の第2変形例との組み合わせであり、第3の実施形態よりも動解像度の低下を抑制しつつ、第3及び第3の実施形態の第2変形例より、環境光が強いときや、変化があるときの距離測定の精度をあげることができる。
-Third modification of third embodiment-
FIG. 22 is a diagram illustrating a 3D image generation method according to a third modification of the third embodiment. The third modified example of the third embodiment is a combination of the first modified example of the third embodiment and the second modified example of the third embodiment, and has a higher dynamic resolution than the third embodiment. While suppressing the decrease, it is possible to improve the accuracy of distance measurement when the environmental light is strong or when there is a change, compared to the third and second modified examples of the third embodiment.

(その他の実施形態)
上記のように、本発明は第1~第3の実施形態及びそれらの変形例によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。第2の実施形態の第2及び第3変形例並びに第3の実施形態の第2及び第3変形例に係る3D撮像ユニットの要素である固体撮像装置を駆動は、本発明の基本となる、第1の実施形態、第2の実施形態、第2の実施形態の第1変形例、第3の実施形態、第3の実施形態の第1変形例に係る3D撮像ユニットの要素である固体撮像装置を駆動よりも動解像度を上げる駆動であるが、その駆動は、環境光等の変化に対して、距離精度はやや劣る。
(Other embodiments)
As mentioned above, the present invention has been described using the first to third embodiments and their modifications, but it should be understood that the statements and drawings that form part of this disclosure limit the present invention. do not have. Various alternative embodiments, implementations, and operational techniques will be apparent to those skilled in the art from this disclosure. Driving the solid-state imaging device, which is an element of the 3D imaging unit according to the second and third modified examples of the second embodiment and the second and third modified examples of the third embodiment, is the basis of the present invention. Solid-state imaging that is an element of a 3D imaging unit according to the first embodiment, the second embodiment, the first modification of the second embodiment, the third embodiment, and the first modification of the third embodiment Although this drive improves the dynamic resolution of the device, its distance accuracy is somewhat inferior to changes in environmental light and the like.

即ち、通常は、第1の実施形態、第2の実施形態、第2の実施形態の第1変形例、第3の実施形態、第3の実施形態の第1変形例に係る3D撮像ユニットの要素である固体撮像装置の基本駆動を行い、動解像度を上げたい時には、第2の実施形態の第2及び第3変形例並びに第3の実施形態の第2及び第3変形例に係る3D撮像ユニットの要素である固体撮像装置の動解像度を上げる駆動にすれば良い。これらは、例えば、図26のような撮像素子を搭載したカメラのモードスイッチにより、撮影者が、環境を見、選択すれば実現可能である。 That is, normally, the 3D imaging unit according to the first embodiment, the second embodiment, the first modification of the second embodiment, the third embodiment, and the first modification of the third embodiment When performing basic driving of the solid-state imaging device that is an element and wishing to increase the dynamic resolution, 3D imaging according to the second and third modified examples of the second embodiment and the second and third modified examples of the third embodiment is used. It is sufficient to drive the solid-state imaging device, which is an element of the unit, to increase the dynamic resolution. These can be realized, for example, by the photographer viewing the environment and making a selection using the mode switch of a camera equipped with an image sensor as shown in FIG.

例えば、基本駆動と動解像度を上げる駆動の選択を、撮影者による選択ではなく、自動で行うような代替実施の形態も可能である。図23に、その他の実施形態に係る3D画像生成の動作の一例の流れの概略を説明するフローチャートを示す。図23のステップS311において、「基本駆動」に設定する。ここで、「基本駆動」とは、2分岐型ロックインピクセルの場合ならば、第3の実施形態や、第3の実施形態の第1変形例であり、1分岐型ロックインピクセルの場合ならば、第1の実施形態や、第2の実施形態、第2の実施形態の第1変形例である。 For example, an alternative embodiment is also possible in which the selection between the basic drive and the drive for increasing the dynamic resolution is performed automatically, rather than being selected by the photographer. FIG. 23 shows a flowchart outlining the flow of an example of 3D image generation operation according to another embodiment. In step S311 of FIG. 23, "basic drive" is set. Here, "basic drive" means the third embodiment or the first modification of the third embodiment in the case of a two-branch lock-in pixel, and the "basic drive" in the case of a one-branch lock-in pixel. Examples include the first embodiment, the second embodiment, and a first modification of the second embodiment.

ステップS312において、設定された「基本駆動」で「距離測定」を行い、引き続きステップS313において、「環境光画像を記憶」し、ステップS314において、「距離画像出力」を行う。ここで、「環境光画像を記憶」は、図23のフローチャートの例では、環境光出力を元に判断するためであるが、環境光画像だけに限らず、距離画像、各タップの画像等を記憶しても良い。 In step S312, ``distance measurement'' is performed using the set ``basic drive'', followed by ``storing an ambient light image'' in step S313, and ``outputting a distance image'' in step S314. Here, in the example of the flowchart in FIG. 23, "memorize the ambient light image" is used to make a judgment based on the ambient light output, but it is not limited to only the ambient light image, but also includes distance images, images of each tap, etc. You can memorize it.

次に、ステップS315において、「前フレームの環境光画像との差を比較して、その差が、あらかじめ決められたしきい値よりも小さいかどうか」をチェックする。差をチェックして、差が小さいとき(Yes)は、環境の変化が少ないと判断し、環境光画像を取得するフレームを減らす、ステップS316の「高速駆動に設定」変更し、差が大きいとき(No)は、環境の変化が大きいと判断し、環境光画像を取得するフレームと、環境光を含む距離画像を取得するフレームが一対になる、ステップS311の「基本駆動に設定」変更し、次の撮像を行う。ここで、ステップS315において、立ち上がり直後は、記憶画像が無いため、そのまま「No」として、次のフレームの撮像をしても良いし、前の立ち下がり時に記憶した環境光画像と比較しても良い。 Next, in step S315, it is checked whether "the difference with the ambient light image of the previous frame is compared and the difference is smaller than a predetermined threshold value." Check the difference, and if the difference is small (Yes), it is determined that there is little change in the environment, and the number of frames for acquiring the environmental light image is reduced.If the difference is large, the "set to high speed drive" in step S316 is changed. If (No), it is determined that the change in the environment is large, and the frame for acquiring the ambient light image and the frame for acquiring the distance image including the ambient light are paired, and the "set to basic drive" is changed in step S311, Perform the next imaging. Here, in step S315, since there is no stored image immediately after the rise, you may leave the answer "No" and capture the next frame, or you may compare it with the ambient light image stored at the previous fall. good.

図23のフローチャートの「高速駆動」とは、2分岐ロックインピクセルの場合ならば、第3の実施形態の第2変形例や、第3変形例であり、1分岐ロックインピクセルの場合ならば、第2の実施形態の第2変形例や、第3変形例である。又、「高速駆動に設定」変更する場合は、オンフレームの連続数を、あらかじめ決めて固定してもよいし、じょじょに連続数を増やしていく駆動としてもよい。以上の動作により、通常は、基本駆動を行い、動解像度を上げたい時には、動解像度を上げる駆動にする駆動選択を、撮影者による手動選択ではなく、撮像素子を搭載したカメラによる自動選択で行うことができる。 In the flowchart of FIG. 23, "high-speed drive" refers to the second modification or the third modification of the third embodiment in the case of a two-branch lock-in pixel, and in the case of a one-branch lock-in pixel. , a second modification example and a third modification example of the second embodiment. Further, when changing to "set to high speed drive", the number of consecutive on-frames may be determined in advance and fixed, or the number of consecutive on-frames may be gradually increased. As a result of the above operation, the basic drive is normally performed, and when you want to increase the dynamic resolution, the drive selection to increase the dynamic resolution is not done manually by the photographer, but is automatically selected by the camera equipped with an image sensor. be able to.

図27には比較例として、7分岐・1排出部型のロックインピクセルの平面パターンを示す。図27では、図示していない遮光膜によって開口部以外を遮光された穴あき型の光電変換部321に8つのMOSゲートである第1転送トランジスタG1、第2転送トランジスタG2、第3転送トランジスタG3、第4転送トランジスタG4、第5転送トランジスタG5、第6転送トランジスタG6、第7転送トランジスタG7と排出トランジスタGDが繋がっている。8つのMOSゲートのうちの第1転送トランジスタG1~第7転送トランジスタG7には、第1浮遊ドレイン領域FD1~第7浮遊ドレイン領域FD7、と補助容量(図示なし)、及び、ソースフォロア型の増幅トランジスタ(図示なし)が配線等を介して繋がっている。残りの1つの電荷排出機構を構成する排出トランジスタGDのドレイン(電荷排出領域)は、電源VDDに接続されている。 As a comparative example, FIG. 27 shows a planar pattern of a lock-in pixel with seven branches and one discharge section. In FIG. 27, a perforated photoelectric conversion section 321 whose portion other than the opening is shielded from light by a light-shielding film (not shown) has eight MOS gates, a first transfer transistor G1, a second transfer transistor G2, and a third transfer transistor G3. , the fourth transfer transistor G4, the fifth transfer transistor G5, the sixth transfer transistor G6, and the seventh transfer transistor G7 are connected to the drain transistor GD. The first transfer transistor G1 to the seventh transfer transistor G7 of the eight MOS gates include a first floating drain region FD1 to a seventh floating drain region FD7, an auxiliary capacitor (not shown), and a source follower type amplification. Transistors (not shown) are connected via wiring or the like. The drain (charge discharge region) of the discharge transistor GD constituting the remaining charge discharge mechanism is connected to the power supply V DD .

光電変換部で発生し、収集された光電子は、光電変換部につながった第1転送トランジスタG1~第7転送トランジスタG7の振り分けゲートのうちの一つ、例えば第1転送トランジスタG1に、ハイレベルを与えられた場合は、第1浮遊ドレイン領域FD1に光電子が移動し、同様に第2転送トランジスタG2、第3転送トランジスタG3、第4転送トランジスタG4、第5転送トランジスタG5、第6転送トランジスタG6、第7転送トランジスタG7に、ハイレベルを与えると光電変換部から第2浮遊ドレイン領域FD2、第3浮遊ドレイン領域FD3、第4浮遊ドレイン領域FD4、第5浮遊ドレイン領域FD5、第6浮遊ドレイン領域FD6、第7浮遊ドレイン領域FD7に光電子が移動する。 The photoelectrons generated and collected in the photoelectric conversion section are sent to one of the distribution gates of the first transfer transistor G1 to the seventh transfer transistor G7 connected to the photoelectric conversion section, for example, the first transfer transistor G1, at a high level. If given, photoelectrons move to the first floating drain region FD1, and similarly the second transfer transistor G2, the third transfer transistor G3, the fourth transfer transistor G4, the fifth transfer transistor G5, the sixth transfer transistor G6, When a high level is applied to the seventh transfer transistor G7, the photoelectric conversion unit supplies the second floating drain region FD2, the third floating drain region FD3, the fourth floating drain region FD4, the fifth floating drain region FD5, and the sixth floating drain region FD6. , photoelectrons move to the seventh floating drain region FD7.

図28に示すように、被写体が比較的近い場合には、投影光を出射した時間から遅延時間Tdnだけ遅れ、比較的遠い場合にはTdfだけ遅れる。投射光の発光時間(T)と、第1転送トランジスタG1~第7転送トランジスタG7に応じたオン/オフ電圧パルスを同期させる。例えば、被写体が比較的近い場合には、第2転送トランジスタG2のパルスに合わせて第2浮遊ドレイン領域FD2へ、第3転送トランジスタG3のパルスに合わせて第3浮遊ドレイン領域FD3へと、反射光の遅れ(Tdn)により、各々の浮遊ドレイン領域に蓄積される電荷に違いが生じ、被写体距離が求められる。同様に、被写体が比較的遠い場合には、第5転送トランジスタG5のパルスに合わせて第5浮遊ドレイン領域FD5へ、第6転送トランジスタG6のパルスに合わせて第6浮遊ドレイン領域FD6へと、反射光の遅れ(Tdf)により、各々の浮遊ドレイン領域に蓄積される電荷に違いが生じ、被写体距離が求められる。 As shown in FIG. 28, when the subject is relatively close, there is a delay time T dn from the time when the projection light is emitted, and when the subject is relatively far away, there is a delay T df . The emission time (T 0 ) of the projected light and the on/off voltage pulses corresponding to the first to seventh transfer transistors G1 to G7 are synchronized. For example, when the subject is relatively close, the reflected light is transmitted to the second floating drain region FD2 in accordance with the pulse of the second transfer transistor G2, and to the third floating drain region FD3 in accordance with the pulse of the third transfer transistor G3. The delay (T dn ) causes a difference in the charge accumulated in each floating drain region, and the object distance is determined. Similarly, when the subject is relatively far away, the reflection is reflected to the fifth floating drain region FD5 in accordance with the pulse of the fifth transfer transistor G5, and to the sixth floating drain region FD6 in accordance with the pulse of the sixth transfer transistor G6. The light delay (T df ) causes a difference in the charge accumulated in each floating drain region, which determines the object distance.

図28に示すように、振り分けゲート数を増加させると、電荷蓄積時間(Ta)が同じ周期であれば、振り分けゲート数が多くなった分、長い距離の測定が可能になり、同じ距離を測る場合は、Ta時間を短く設定すれば、振り分けゲート数が多くなった分、測定距離の分解能をあげることができる。図24は、図16に示した2分岐型ロックインピクセルを用いて、図28に示した比較例と同等な機能を持たせる駆動方法を示している。 As shown in FIG. 28, when the number of distribution gates is increased, if the charge accumulation time (T a ) is the same cycle, the increased number of distribution gates makes it possible to measure a longer distance. When measuring, by setting the T a time short, the resolution of the measurement distance can be increased by the increase in the number of distributed gates. FIG. 24 shows a driving method that uses the two-branch lock-in pixel shown in FIG. 16 to provide the same function as the comparative example shown in FIG. 28.

図24(a)及び(b)のそれぞれの上段に記載した(1)~(4)は、その下に位置する第1オンフレーム1~第4オンフレームの位置を示す。図24(c)のタイミング図の縦方向に記載した(1)~(4)の数字は第1オンフレーム1~第4オンフレームに対応する。図24(a)は、白抜きのオフフレームと網掛けのオンフレームを交互に連続した駆動とし、オフフレームをオンフレームの環境光等の悪影響を除外するためのフレームとして用いる例である。図24(b)は、1つの白抜きのオフフレームに対して、4つの網掛けの第1オンフレーム1~第4オンフレームを連続した駆動にし、1つのオフフレームを後続の4つの第1オンフレーム1~第4オンフレームの環境光等の悪影響を除外するためのフレームとして用いる。図24のように、4つの第1オンフレーム1~第4オンフレームを組み合わせれば、8つの浮遊ドレイン領域と1つの電荷排出部(ドレイン)を有する8分岐型ロックインピクセルと同等な機能が実現できる。さらに、この方法を用いれば、原理上は、無限に分岐数(=タップ数)を増やせる。 (1) to (4) shown in the upper row of each of FIGS. 24(a) and (b) indicate the positions of the first on-frame 1 to the fourth on-frame located below. Numbers (1) to (4) written in the vertical direction of the timing diagram in FIG. 24(c) correspond to first on-frame 1 to fourth on-frame. FIG. 24(a) is an example in which white off-frames and shaded on-frames are alternately and continuously driven, and the off-frames are used as frames for excluding the negative effects of on-frames such as environmental light. In FIG. 24(b), four shaded first on-frames 1 to 4 are continuously driven for one white off-frame, and one off-frame is driven sequentially to the four subsequent first on-frames. It is used as a frame for excluding the negative effects of environmental light and the like in on-frames 1 to 4. As shown in Figure 24, by combining the four first on-frames 1 to 4 on-frames, a function equivalent to an eight-branch lock-in pixel with eight floating drain regions and one charge discharge part (drain) can be obtained. realizable. Furthermore, using this method, in principle, the number of branches (=number of taps) can be increased infinitely.

図25は、図4に示した1分岐型ロックインピクセルを用いて、図28に示した比較例と同等な機能を持たせる他の実施形態に係る3D画像生成方法を示している。図25(a)及び(b)に網掛けのセルとして示した第1オンフレーム(ON1)~第4オンフレーム(ON4)及びハッチングを施したセルとして示した第5オンフレーム(ON5)~第7オンフレーム(ON7)は、図25(c)の第1オンフレーム(ON1)~第7オンフレーム(ON7)に対応する。図25(a)は、白抜きのオフフレームと第1オンフレーム(ON1)~第7オンフレーム(ON7)を交互に連続した駆動とする例である。 FIG. 25 shows a 3D image generation method according to another embodiment that uses the one-branch lock-in pixel shown in FIG. 4 to provide the same function as the comparative example shown in FIG. 28. In FIGS. 25(a) and 25(b), the first on-frame (ON1) to fourth on-frame (ON4) shown as shaded cells and the fifth on-frame (ON5) to fourth on-frame shown as hatched cells The 7th on-frame (ON7) corresponds to the first on-frame (ON1) to the seventh on-frame (ON7) in FIG. 25(c). FIG. 25A shows an example in which the white off-frame and the first on-frame (ON1) to the seventh on-frame (ON7) are alternately and consecutively driven.

図25(b)は、1つのオフフレームに対して、第1オンフレーム(ON1)~第7オンフレーム(ON7)の連続セルを、2組タンデムに連続した駆動にし、1つのオフフレームを後続の2組の第1オンフレーム(ON1)~第7オンフレーム(ON7)の連続セルの環境光等の悪影響を除外するためのフレームとして用いる。図25のように、8組のフレームを組み合わせれば、7つの浮遊ドレイン領域と1つの電荷排出部(ドレイン)を有した7分岐型ロックインピクセルと同等な機能が実現できる。さらに、この方法を用いれば、原理上は、無限にフレーム数を増やして、1分岐型ロックインピクセルを用いて等価的なタップ数を増やせる。 FIG. 25(b) shows that for one off-frame, consecutive cells from the first on-frame (ON1) to the seventh on-frame (ON7) are sequentially driven in tandem, and one off-frame is driven sequentially. It is used as a frame for excluding the adverse effects of environmental light and the like on the two consecutive cells of the first on-frame (ON1) to the seventh on-frame (ON7). As shown in FIG. 25, by combining eight sets of frames, a function equivalent to a seven-branch lock-in pixel having seven floating drain regions and one charge discharge part (drain) can be realized. Furthermore, if this method is used, in principle, the number of frames can be infinitely increased and the equivalent number of taps can be increased using a single-branch lock-in pixel.

即ち、Pを4以上の正の整数として、分配器113と距離演算部12の間に、P個のメモリを並列に有する構造によって、フレーム数をP個とすることができる。この場合、図1に示した駆動部15は、(P-1)個のフレームにおいて、それぞれ異なる取得達成期間のタイミングで電荷振分機構を駆動して(P-1)個のアナログ信号を生成し、1個のフレームで、投影光のパルスを出射しない状態で、(P-1)個のフレームの内のいずれかのフレームの取得達成期間と同じタイミングで電荷振分機構を駆動して1個のアナログ信号を生成し、電荷振分機構の駆動終了後、電荷排出機構を駆動する。そして、図1に示したカラム処理回路(23,24)が、P個のアナログ信号をそれぞれ独立に読み出し、P個のデジタルデータに変換し、分配器113が、P個のデジタルデータを互いに弁別して出力し、P個のメモリが、弁別されたP個のデジタルデータを格納し、距離演算部12が、P個のメモリから読み出されたP個のデジタルデータを対象物までの距離の算出の補正データとして用いることができる。 That is, by setting P to be a positive integer of 4 or more and having P memories in parallel between the distributor 113 and the distance calculating section 12, the number of frames can be set to P. In this case, the drive unit 15 shown in FIG. 1 drives the charge distribution mechanism at different acquisition achievement period timings in (P-1) frames to generate (P-1) analog signals. Then, in one frame, without emitting pulses of projection light, the charge distribution mechanism is driven at the same timing as the acquisition period of any one of the (P-1) frames. After the charge distribution mechanism is driven, the charge discharging mechanism is driven. The column processing circuits (23, 24) shown in FIG. The P pieces of memory store the discriminated P pieces of digital data, and the distance calculation unit 12 calculates the distance to the target object using the P pieces of digital data read from the P pieces of memory. can be used as correction data.

本発明の第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットの電荷振分機構や電荷排出機構の構造は、ラテラル電界制御電荷変調素子(LEFM)や絶縁ゲートトランジスタの電極構造等、信号電荷を輸送や転送ができる機能を備える構成であれば、上述した転送トランジスタの構造に限定されない。本発明の第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットの光電変換部は、pn接合型のフォトダイオードや、透明電極をゲート電極としたMOS構造を用いた光電変換部を有するフォトゲートの構造に限定されるものではなく、その他、同様な光電変換機能を備える構成であれば、構わない。このように、本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 The structure of the charge distribution mechanism and the charge discharge mechanism of the 3D imaging unit according to the first to third embodiments of the present invention and their modifications is the electrode structure of a lateral electric field controlled charge modulation element (LEFM) and an insulated gate transistor. The structure of the transfer transistor is not limited to the above-described structure as long as it has a function of transporting and transferring signal charges. The photoelectric conversion section of the 3D imaging unit according to the first to third embodiments of the present invention and their modifications is a photoelectric conversion section using a pn junction type photodiode or a MOS structure with a transparent electrode as a gate electrode. The present invention is not limited to the photogate structure having the following structure, and any other structure having a similar photoelectric conversion function may be used. Thus, it goes without saying that the present invention includes various embodiments not described here. Therefore, the technical scope of the present invention is determined only by the matters specifying the invention in the claims that are reasonable from the above description.

本発明の第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットは、例えば図26に例示的に示すカメラ等の技術分野における3D撮像装置として利用可能である。図26に例示的に示すように、技術分野として利用可能性のあるビデオカメラ等のカメラは、対象物10(図1参照。)からの光路を調整する撮像光学系2と、撮像光学系2の光軸に沿って入射する対象物10の像を撮像する第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットの要素を用いた撮像チップ368と、オートフォーカス(AF)に用いる第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットを構成する固体撮像装置の画素を主要部として用いた距離センサ(測距素子)374を備える。 The 3D imaging units according to the first to third embodiments of the present invention and their modifications can be used as 3D imaging devices in the technical field, such as cameras exemplarily shown in FIG. 26, for example. As exemplarily shown in FIG. 26, a camera such as a video camera that can be used in the technical field includes an imaging optical system 2 that adjusts the optical path from an object 10 (see FIG. 1), and an imaging optical system 2 that adjusts the optical path from an object 10 (see FIG. 1). An imaging chip 368 that uses the elements of the 3D imaging unit according to the first to third embodiments and their modifications to capture an image of the object 10 incident along the optical axis of the image sensor, and an autofocus (AF) A distance sensor (distance measuring element) 374 is provided, which uses as a main part the pixels of a solid-state imaging device constituting the 3D imaging unit according to the first to third embodiments and their modifications.

図26に例示する撮像チップ368は、図1に示した受光部18を第1の半導体チップに構成し、駆動部15、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NCを第2半導体チップに集積化し、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16等を第3の半導体チップに集積化して、第1~第3の半導体チップを順に積層化して一体化した構造のチップでもかまわない。又、図1に示した受光部18を第1の半導体チップに構成し、駆動部15、水平走査回路22、垂直走査回路21、ノイズ処理回路NC~NCを第2半導体チップに集積化し、第1及び第2の半導体チップを積層化して一体化した構造のチップを、撮像チップ368として採用し、距離演算部12、制御部14、プログラム記憶装置17、データ記憶装置13、記憶部11及び出力部16等を図26に例示的に示すカメラの他の構成に機能させてもかまわない。 The imaging chip 368 illustrated in FIG . 26 includes the light receiving section 18 shown in FIG . are integrated on a second semiconductor chip, and the distance calculation section 12, control section 14, program storage device 17, data storage device 13, storage section 11, output section 16, etc. are integrated on a third semiconductor chip, and the first to A chip having a structure in which third semiconductor chips are sequentially stacked and integrated may also be used. Further, the light receiving section 18 shown in FIG. 1 is configured on a first semiconductor chip, and the driving section 15, horizontal scanning circuit 22, vertical scanning circuit 21, and noise processing circuits NC 1 to NC m are integrated on a second semiconductor chip. , a chip having a structure in which the first and second semiconductor chips are stacked and integrated is adopted as the imaging chip 368, and includes the distance calculation section 12, the control section 14, the program storage device 17, the data storage device 13, and the storage section 11. The output unit 16 and the like may be made to function in other configurations of the camera exemplarily shown in FIG. 26.

本発明を利用する可能性のあるカメラは、第1~第3の実施形態及びそれらの変形例に係る3D撮像ユニットの要素を用いた撮像チップ368から出力された画像データをデジタルデータに変換するA/D変換回路365と、A/D変換回路365がデジタルデータに変換した画像データを格納するメモリ(半導体記憶装置)364と、メモリ364から画像データを受信する中央処理制御部(CPU)361と、中央処理制御部361を介して画像データを受信して画像データを処理する画像処理部362とを備える。そして、画像処理部362には、撮像チップ368及び距離センサ(測距素子)374の調整データを保存する調整データ記憶装置363が接続されている。 A camera that may utilize the present invention converts image data output from the imaging chip 368 using the elements of the 3D imaging unit according to the first to third embodiments and their modifications into digital data. An A/D conversion circuit 365, a memory (semiconductor storage device) 364 that stores image data converted into digital data by the A/D conversion circuit 365, and a central processing control unit (CPU) 361 that receives image data from the memory 364. and an image processing unit 362 that receives image data via a central processing control unit 361 and processes the image data. An adjustment data storage device 363 that stores adjustment data of the imaging chip 368 and the distance sensor (distance measuring element) 374 is connected to the image processing unit 362.

尚、図26は例示に過ぎず、撮像チップ368又は距離センサ(測距素子)374が搭載される半導体チップ上に中央処理制御部361から送信された調整データを保存する調整データ記憶装置が接続され、半導体チップ上の駆動回路に調整データを供給するような構造でもよい。本発明を利用する可能性のあるカメラとしては、更に、中央処理制御部361に接続された駆動部366、メディアコントローラ等のメモリカード・インターフェイス378、操作部377、液晶ディスプレイ(LCD)駆動回路375、モータドライバ373a、373b、373c、ストロボ制御回路380を備えることができる。LCD駆動回路375にはLCDからなる表示部376が接続され、ストロボ制御回路380にはストロボ装置387が接続されている。ストロボ装置387は図1に示した発光部1を構成することが可能である。 Note that FIG. 26 is only an example, and an adjustment data storage device for storing adjustment data sent from the central processing control unit 361 is connected to the semiconductor chip on which the imaging chip 368 or the distance sensor (distance measuring element) 374 is mounted. A structure may also be used in which adjustment data is supplied to a drive circuit on a semiconductor chip. Cameras that may utilize the present invention further include a drive unit 366 connected to the central processing control unit 361, a memory card interface 378 such as a media controller, an operation unit 377, and a liquid crystal display (LCD) drive circuit 375. , motor drivers 373a, 373b, 373c, and a strobe control circuit 380. A display section 376 made of an LCD is connected to the LCD drive circuit 375, and a strobe device 387 is connected to the strobe control circuit 380. The strobe device 387 can constitute the light emitting section 1 shown in FIG.

図26に例示したカメラの中央処理制御部361は、中央処理制御部361に接続された画像処理部362、駆動部366、メモリ364,メモリカード・インターフェイス378、操作部377、LCD駆動回路375、距離センサ(測距素子)374、モータドライバ373a、373b、373c、ストロボ制御装置のそれぞれの動作や処理を制御する命令や電気信号を出力する。図示を省略しているが、中央処理制御部361には、画像処理部362、駆動部366、メモリ364,メモリカード・インターフェイス378、操作部377、LCD駆動回路375、距離センサ(測距素子)374、モータドライバ373a、373b、373c、ストロボ制御装置のそれぞれの動作をそれぞれ実行させる命令出力回路の他、オートホワイトバランス(AWB)調整を施すWB調整命令出力回路等の種々の論理回路等が論理的なハードウェア資源として組込まれている。 The central processing control section 361 of the camera illustrated in FIG. 26 includes an image processing section 362 connected to the central processing control section 361, a driving section 366, a memory 364, a memory card interface 378, an operation section 377, an LCD drive circuit 375, It outputs commands and electrical signals that control the operations and processes of the distance sensor (distance measuring element) 374, motor drivers 373a, 373b, 373c, and strobe control device. Although not shown, the central processing control unit 361 includes an image processing unit 362, a drive unit 366, a memory 364, a memory card interface 378, an operation unit 377, an LCD drive circuit 375, and a distance sensor (distance measuring element). 374, motor drivers 373a, 373b, 373c, various logic circuits such as a WB adjustment command output circuit that performs auto white balance (AWB) adjustment, in addition to command output circuits that execute the respective operations of the strobe control device. It is incorporated as a standard hardware resource.

撮像光学系(369,370)を構成する撮影レンズ370は、図26に示すように、例えば主レンズ370aと、主レンズ370aに隣接したズームレンズ370bと、ズームレンズ370bに隣接したフォーカスレンズ370c等を備えることができる。図26に例示した構造では、ズームレンズ370bにはズームモータ371aが、フォーカスレンズ370cにはフォーカスモータ371bが接続されている。フォーカスレンズ370cと撮像チップ368の間には撮像光学系(369,370)を構成する絞り369が配置されている。例えば、5枚の絞り羽根からなる絞り369には、絞り羽根を駆動するアイリスモータ371cが接続されている。ズームモータ371a、フォーカスモータ371b及びアイリスモータ371cはステッピングモータからなり、中央処理制御部361に接続されたモータドライバ373a、373b、373cから送信される駆動パルスにより動作制御され、レリーズボタン等の操作部377からの信号により撮像準備処理を行う。 As shown in FIG. 26, the photographing lens 370 constituting the imaging optical system (369, 370) includes, for example, a main lens 370a, a zoom lens 370b adjacent to the main lens 370a, a focus lens 370c adjacent to the zoom lens 370b, etc. can be provided. In the structure illustrated in FIG. 26, a zoom motor 371a is connected to the zoom lens 370b, and a focus motor 371b is connected to the focus lens 370c. A diaphragm 369 that constitutes an imaging optical system (369, 370) is arranged between the focus lens 370c and the imaging chip 368. For example, an iris motor 371c that drives the aperture blades is connected to an aperture 369 made up of five aperture blades. The zoom motor 371a, the focus motor 371b, and the iris motor 371c are composed of stepping motors, and their operation is controlled by drive pulses sent from motor drivers 373a, 373b, and 373c connected to the central processing control unit 361. Imaging preparation processing is performed based on the signal from 377.

ズームモータ371aは、ズームレンズ370bを例えば20~50段階でワイド側又はテレ側に移動させ、撮影レンズ370のズーミングを行う。フォーカスモータ371bは、対象物10からの距離やズームレンズ370bの変倍に応じてフォーカスレンズ370cを移動させ、カメラの撮像条件が最適となるように撮影レンズ370の焦点調整を行う。アイリスモータ371cは、絞り369の絞り羽根を動作させて絞り369の開口面積を変化し、例えば、絞り値F2.8~F16まで1AV刻みで5段階に撮影レンズ370の露光調整を行う。 The zoom motor 371a moves the zoom lens 370b to the wide side or the telephoto side in 20 to 50 steps, for example, and zooms the photographic lens 370. The focus motor 371b moves the focus lens 370c according to the distance from the object 10 and the magnification of the zoom lens 370b, and adjusts the focus of the photographing lens 370 so that the imaging conditions of the camera are optimized. The iris motor 371c operates the diaphragm blades of the diaphragm 369 to change the aperture area of the diaphragm 369, and adjusts the exposure of the photographing lens 370 in five steps, for example, from aperture value F2.8 to F16 in steps of 1 AV.

撮影レンズ370は図26に例示する構成に限定されるものではなく、例えば、カメラに対して着脱できる交換式レンズであっても構わない。撮影レンズ370は、主レンズ370a、ズームレンズ370b及びフォーカスレンズ370c等の複数の光学レンズ群から構成されることにより、対象物10からの光束をその焦点面近傍に配置された撮像チップ368の表面に結像させる。 The photographing lens 370 is not limited to the configuration illustrated in FIG. 26, and may be an interchangeable lens that can be attached to and detached from the camera, for example. The photographing lens 370 is composed of a plurality of optical lens groups such as a main lens 370a, a zoom lens 370b, and a focus lens 370c, so that the light beam from the object 10 is directed to the surface of the imaging chip 368 arranged near the focal plane of the object 10. to form an image.

第1~第3の実施形態及びそれらの変形例に係る撮像チップ368は、ガラスやセラミックからなるチップ搭載基板(パッケージ基板)367に搭載されている。撮像チップ368には、タイミングジェネレータ(TG)372が接続され、タイミングジェネレータ372は駆動部366を介して中央処理制御部361に接続されている。中央処理制御部361から駆動部366を介して送られる信号により、タイミングジェネレータ372がタイミング信号(クロックパルス)を発生し、タイミング信号はチップ搭載基板367を介して撮像チップ368を構成する半導体チップ上に周辺回路として設けられた駆動回路からの電子シャッタ用信号として各行のピクセルに送られる。 The imaging chip 368 according to the first to third embodiments and their modifications is mounted on a chip mounting substrate (package substrate) 367 made of glass or ceramic. A timing generator (TG) 372 is connected to the imaging chip 368 , and the timing generator 372 is connected to the central processing control section 361 via a drive section 366 . The timing generator 372 generates a timing signal (clock pulse) in response to a signal sent from the central processing control unit 361 via the drive unit 366, and the timing signal is sent to the semiconductor chip constituting the imaging chip 368 via the chip mounting board 367. The signal is sent to pixels in each row as an electronic shutter signal from a drive circuit provided as a peripheral circuit.

即ち中央処理制御部361は駆動部366を介してタイミングジェネレータ372を制御し、撮像チップ368の電子シャッタのシャッタ速度を制御する。尚、タイミングジェネレータ372は、撮像チップ368を構成する半導体チップ上の周辺回路として、モノリシックに集積化しても構わない。 That is, the central processing control section 361 controls the timing generator 372 via the drive section 366 to control the shutter speed of the electronic shutter of the imaging chip 368. Note that the timing generator 372 may be monolithically integrated as a peripheral circuit on a semiconductor chip that constitutes the imaging chip 368.

撮像チップ368を構成する半導体チップの中央の画素アレイ部から出力された撮像信号は、半導体チップの周辺部に周辺回路として設けられた相関二重サンプリング回路(CDS)に入力され、撮像チップ368の各ピクセルの蓄積電荷量に正確に対応したR、G、Bの画像データとして撮像チップ368から出力される。撮像チップ368から出力された画像データは、図示を省略した増幅器で増幅され、A/D変換回路365でデジタルデータに変換される。撮像チップ368は、駆動部366によりタイミング制御されて、撮像チップ368の受光面上に結像された対象物10の像を画像信号に変換してA/D変換回路365へ出力する。 The imaging signal output from the central pixel array section of the semiconductor chip constituting the imaging chip 368 is input to a correlated double sampling circuit (CDS) provided as a peripheral circuit on the periphery of the semiconductor chip. The image pickup chip 368 outputs R, G, and B image data that accurately corresponds to the amount of accumulated charge in each pixel. Image data output from the imaging chip 368 is amplified by an amplifier (not shown), and converted into digital data by an A/D conversion circuit 365. The imaging chip 368 is timing controlled by the driving unit 366, converts the image of the object 10 formed on the light receiving surface of the imaging chip 368 into an image signal, and outputs the image signal to the A/D conversion circuit 365.

図示を省略しているが、図26に例示したカメラの画像処理部362は、ホワイトバランス調整に用いるWB制御量を算出するWB制御量演算回路、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、その積算値を出力する自動露出(AE)検出用論理演算回路、AE検出用論理演算回路が出力した積算値からAEに必要な対象物10の明るさ(撮影Ev値)を算出する撮影Ev値算出回路、更に、階調変換処理回路、ホワイトバランス補正処理回路、γ補正処理回路等の、各種画像処理や画像処理に伴う演算を画像データに対し施す種々の論理回路(ハードウェア・モジュール)を、論理構成上のハードウェア資源として備えることも可能である。 Although not shown, the image processing unit 362 of the camera illustrated in FIG. A logical operation circuit for automatic exposure (AE) detection that integrates G signals weighted differently between the area and the peripheral area and outputs the integrated value. A shooting Ev value calculation circuit that calculates the brightness (shooting Ev value) of the object 10, and various image processing and calculations associated with image processing, such as a gradation conversion processing circuit, a white balance correction processing circuit, a γ correction processing circuit, etc. It is also possible to provide various logic circuits (hardware modules) that perform the following on image data as hardware resources in the logic configuration.

図26に例示したカメラの画像処理部362は、画像処理エンジン等があれば実現可能である。又、特徴量生成や識別処理に演算負荷が高い場合、ハードウェアに実装してもよい。例えば、マイクロチップとして実装されたMPU等を使用してコンピュータシステムで画像処理部362を構成することも可能である。又、コンピュータシステムを構成する画像処理部362として、算術演算機能を強化し信号処理に特化したDSPや、メモリや周辺回路を搭載し組込み機器制御を目的としたマイコン等を用いてもよい。或いは、現在の汎用コンピュータのメインCPUを画像処理部362に用いてもよい。更に、画像処理部362の一部の構成又はすべての構成をFPGAのようなPLDで構成してもよい。 The image processing unit 362 of the camera illustrated in FIG. 26 can be realized if there is an image processing engine or the like. Furthermore, if the calculation load is high for feature value generation and identification processing, it may be implemented in hardware. For example, it is also possible to configure the image processing unit 362 in a computer system using an MPU or the like implemented as a microchip. Further, as the image processing unit 362 constituting the computer system, a DSP with enhanced arithmetic operation functions and specialized for signal processing, a microcomputer equipped with memory and peripheral circuits and intended for embedded device control, etc. may be used. Alternatively, the main CPU of a current general-purpose computer may be used for the image processing section 362. Furthermore, part or all of the image processing unit 362 may be configured with a PLD such as an FPGA.

10……対象物、11……記憶部、12,72……距離演算部、13,73……データ記憶装置、14,74……制御部、15,75……駆動部、16,76……出力部、17,77……プログラム記憶装置、18,71……受光部、19……発光部、20…… レンズ、21,81……垂直走査回路、22,82……水平走査回路、23……相関二重サンプリング回路23……アナログ―デジタル変換回路、111……第1メモリ、112……第2メモリ、113……分配器(デマルチプレクサ)、181……信号生成部、141……時間設定論理回路、142……時間設定値出力制御回路、143……距離画像出力制御回路、144……設定値判定回路、145……シーケンス制御回路、146……バス、41,91,151,214,321……光電変換部、42a,92a,152a……転送ゲート電極、42b,92d,152c……排出ゲート電極、43a,153a……電荷蓄積領域(第1電荷蓄積領域)、43b……電荷排出領域,153b……第2電荷蓄積領域、44,94a……リセットゲート電極、46……選択ゲート電極、47……ゲート電極(増幅トランジスタの増幅ゲート電極)、48……仮想線、49……拡散領域、50……リセットドレイン領域、51……増幅ソース領域、52……選択ソース領域、92b,152b……第2転送ゲート電極、92c……第3転送ゲート電極、93a……第1電荷蓄積領域、93b……第2電荷蓄積領域、93c……第3電荷蓄積領域、94b……第2リセットゲート電極、94c……第3リセットゲート電極、211……p基板、212……エピタキシャル成長層(第2エピタキシャル成長層)、213……素子分離領域、215……マイクロレンズ、216……配線層、217……金属遮光膜、221……導波路、222……p型基板またはp型表面ピンニング層、231……第1エピタキシャル成長層、232……第2エピタキシャル成長層、361……中央処理制御部、362……画像処理部、363……調整データ記憶装置、364……メモリ、365……A/D変換回路、366……駆動部、367……チップ搭載基板、368……固体撮像装置、369……絞り、370……撮影レンズ、370a……主レンズ、370b……ズームレンズ、370c……フォーカスレンズ、371a……ズームモータ、371b……フォーカスモータ、371c……アイリスモータ、372……タイミングジェネレータ(TG)、373a,373b,373c……モータドライバ、374……距離センサ、375……LCD駆動回路、376……表示部、377……操作部、378……メモリカード・インターフェイス、379……メモリカード、380……ストロボ制御回路、387……ストロボ装置


10...Object, 11...Storage unit, 12,72...Distance calculation unit, 13,73...Data storage device, 14,74...Control unit, 15,75...Drive unit, 16,76... ...output section, 17,77...program storage device, 18,71...light receiving section, 19...light emitting section, 20...lens, 21,81...vertical scanning circuit, 22,82...horizontal scanning circuit, 23... Correlated double sampling circuit 23... Analog-digital conversion circuit, 111... First memory, 112... Second memory, 113... Distributor (demultiplexer), 181... Signal generation section, 141... ... Time setting logic circuit, 142 ... Time setting value output control circuit, 143 ... Distance image output control circuit, 144 ... Setting value judgment circuit, 145 ... Sequence control circuit, 146 ... Bus, 41, 91, 151 , 214, 321...Photoelectric conversion unit, 42a, 92a, 152a...Transfer gate electrode, 42b, 92d, 152c...Ejection gate electrode, 43a, 153a...Charge storage region (first charge storage region), 43b... ... Charge discharge region, 153b ... Second charge storage region, 44, 94a ... Reset gate electrode, 46 ... Selection gate electrode, 47 ... Gate electrode (amplification gate electrode of amplification transistor), 48 ... Virtual line, 49... Diffusion region, 50... Reset drain region, 51... Amplification source region, 52... Selected source region, 92b, 152b... Second transfer gate electrode, 92c... Third transfer gate electrode, 93a... 1st charge accumulation region, 93b...2nd charge accumulation region, 93c...3rd charge accumulation region, 94b...2nd reset gate electrode, 94c...3rd reset gate electrode, 211...p + substrate, 212 ... Epitaxial growth layer (second epitaxial growth layer), 213 ... Element isolation region, 215 ... Microlens, 216 ... Wiring layer, 217 ... Metal light shielding film, 221 ... Waveguide, 222 ... P + type substrate or p + type surface pinning layer, 231... first epitaxial growth layer, 232... second epitaxial growth layer, 361... central processing control section, 362... image processing section, 363... adjustment data storage device, 364... Memory, 365...A/D conversion circuit, 366...Drive unit, 367...Chip mounting board, 368...Solid-state imaging device, 369...Aperture, 370...Photographing lens, 370a...Main lens, 370b... ...Zoom lens, 370c...Focus lens, 371a...Zoom motor, 371b...Focus motor, 371c...Iris motor, 372...Timing generator (TG), 373a, 373b, 373c...Motor driver, 374... Distance sensor, 375...LCD drive circuit, 376...Display section, 377...Operation section, 378...Memory card interface, 379...Memory card, 380...Strobe control circuit, 387...Strobe device


Claims (12)

対象物からのパルス状の反射光を受光して光電変換する複数の画素を、マトリクス状に配列した画素アレイ部と、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記画素を駆動して第1のアナログ信号を生成し、前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミングで前記画素を駆動して第2のアナログ信号を生成する駆動部と、
前記第1及び第2フレームのそれぞれにおいて、前記マトリクスの特定の行に配置された複数の前記画素からの前記第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するカラム処理回路と、
前記第1及び第2のデジタルデータを互いに弁別して出力する分配器と、
前記弁別された前記第1及び第2のデジタルデータを独立して格納する第1及び第2メモリと、
前記第1及び第2メモリから読み出された前記第1及び第2のデジタルデータを入力し、前記対象物までの距離を算出する距離演算部
を備えることを特徴とする3D撮像ユニット。
a pixel array section in which a plurality of pixels are arranged in a matrix to receive pulsed reflected light from an object and convert it into electricity;
In a first frame, the pixel is driven to generate a first analog signal at the timing of a first acquisition achievement period defined in synchronization with the pulse of the projection light that generates the reflected light, and the pixel is driven to generate a first analog signal. drives the pixel in a second frame in a different time domain at the timing of a second acquisition achievement period, which is defined for the pulse of the projection light and has a different length from the first acquisition achievement period, to obtain a second acquisition period. a drive unit that generates an analog signal;
In each of the first and second frames, the first and second analog signals from the plurality of pixels arranged in a specific row of the matrix are independently read out, and first and second digital data are read out. A column processing circuit that converts
a distributor that discriminates and outputs the first and second digital data;
first and second memories that independently store the discriminated first and second digital data;
A 3D imaging unit comprising: a distance calculation unit that inputs the first and second digital data read from the first and second memories and calculates a distance to the target object.
前記画素のそれぞれが、
前記反射光を光電変換する光電変換部と、
前記光電変換部の周辺に配置され、前記光電変換部で生成された信号電荷を、電荷移動経路に沿って転送する電荷振分機構と、
前記電荷振分機構と離間して前記光電変換部の周辺に配置され、前記信号電荷以外の電荷を前記光電変換部から排出する電荷排出機構と、
前記光電変換部の周辺に前記電荷振分機構に接して配置され、前記電荷振分機構によって転送された前記信号電荷を蓄積する電荷蓄積領域
を有することを特徴とする請求項1に記載の3D撮像ユニット。
Each of the pixels is
a photoelectric conversion unit that photoelectrically converts the reflected light;
a charge distribution mechanism disposed around the photoelectric conversion unit and transferring signal charges generated in the photoelectric conversion unit along a charge transfer path;
a charge discharging mechanism disposed around the photoelectric conversion unit apart from the charge distribution mechanism, and discharging charges other than the signal charges from the photoelectric conversion unit ;
3D according to claim 1, further comprising a charge accumulation region that is arranged around the photoelectric conversion unit in contact with the charge distribution mechanism and that accumulates the signal charge transferred by the charge distribution mechanism. Imaging unit.
前記駆動部は、前記第1フレームにおいて、前記第1取得達成期間のタイミングで前記電荷振分機構を駆動し、前記電荷振分機構の駆動終了後、前記電荷排出機構を駆動し、前記第2フレームにおいて、前記第2取得達成期間のタイミングで前記電荷振分機構を駆動し、前記電荷振分機構の駆動終了後前記電荷排出機構を駆動することを特徴とする請求項2に記載の3D撮像ユニット。 In the first frame, the drive unit drives the charge distribution mechanism at the timing of the first acquisition achievement period, drives the charge discharge mechanism after driving the charge distribution mechanism, and drives the charge discharge mechanism at the timing of the first acquisition achievement period. 3D imaging according to claim 2, wherein in the frame, the charge distribution mechanism is driven at the timing of the second acquisition achievement period, and the charge discharge mechanism is driven after the drive of the charge distribution mechanism is completed. unit. 前記分配器と前記距離演算部の間に、前記第1及び第2メモリと並列に第3メモリを更に有し、
前記駆動部は、前記第1及び第2フレームとは異なる時間領域の第3フレームにおいて、前記投影光のパルスを出射しない状態で、前記第1取得達成期間のタイミングで前記電荷振分機構を駆動して第3のアナログ信号を生成し、前記電荷振分機構の駆動終了後、前記電荷排出機構を駆動し、
前記カラム処理回路が、前記第3フレームにおいて、前記マトリクスの特定の行に配置された複数の前記画素からの前記第3のアナログ信号をそれぞれ独立に読み出し、第3のデジタルデータに変換し、
前記分配器が、前記第1~第3のデジタルデータを互いに弁別して出力し、
前記第3メモリが、前記弁別された前記第3のデジタルデータを格納し、
前記距離演算部が、前記第3メモリから読み出された第3のデジタルデータを前記対象物までの距離の算出の補正データとして用いることを特徴とする請求項3に記載の3D撮像ユニット。
further comprising a third memory between the distributor and the distance calculation unit in parallel with the first and second memories;
The drive unit drives the charge distribution mechanism at the timing of the first acquisition achievement period in a third frame in a time domain different from the first and second frames, while not emitting pulses of the projection light. to generate a third analog signal, and after driving the charge distribution mechanism, drive the charge discharge mechanism;
The column processing circuit independently reads out the third analog signals from the plurality of pixels arranged in a specific row of the matrix in the third frame, and converts them into third digital data,
the distributor discriminates and outputs the first to third digital data;
the third memory stores the discriminated third digital data;
4. The 3D imaging unit according to claim 3, wherein the distance calculation section uses the third digital data read from the third memory as correction data for calculating the distance to the object.
Pを4以上の正の整数として、前記分配器と前記距離演算部の間に、P個のメモリを並列に有し、
前記駆動部は、(P-1)個のフレームにおいて、それぞれ異なる取得達成期間のタイミングで前記電荷振分機構を駆動して(P-1)個のアナログ信号を生成し、1個のフレームで、前記投影光のパルスを出射しない状態で、前記(P-1)個のフレームの内のいずれかのフレームの取得達成期間と同じタイミングで前記電荷振分機構を駆動して1個のアナログ信号を生成し、前記電荷振分機構の駆動終了後、前記電荷排出機構を駆動し、
前記カラム処理回路が、P個のアナログ信号をそれぞれ独立に読み出し、P個のデジタルデータに変換し、
前記分配器が、P個のデジタルデータを互いに弁別して出力し、
前記P個のメモリが、前記弁別された前記P個のデジタルデータを格納し、
前記距離演算部が、前記P個のメモリから読み出されたP個のデジタルデータを前記対象物までの距離の算出の補正データとして用いることを特徴とする請求項4に記載の3D撮像ユニット。
P memories are provided in parallel between the distributor and the distance calculation unit, where P is a positive integer of 4 or more,
The drive unit drives the charge distribution mechanism at timings of different acquisition achievement periods in (P-1) frames to generate (P-1) analog signals, and generates (P-1) analog signals in one frame. , in a state where the pulse of the projection light is not emitted, drive the charge distribution mechanism at the same timing as the acquisition period of any one of the (P-1) frames to generate one analog signal; after driving the charge distribution mechanism, driving the charge discharging mechanism;
The column processing circuit reads P analog signals independently and converts them into P digital data,
the distributor discriminates and outputs P pieces of digital data;
the P memories store the discriminated P pieces of digital data;
5. The 3D imaging unit according to claim 4, wherein the distance calculation section uses the P pieces of digital data read from the P pieces of memory as correction data for calculating the distance to the object.
対象物からのパルス状の反射光を受光して光電変換し、互いに異なる電荷移動経路に沿って前記光電変換された信号電荷を転送する第1及び第2電荷振分機構を光電変換部の周辺にそれぞれ有した、複数の画素をマトリクス状に配列した画素アレイ部と、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第1のアナログ信号を生成し、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第2のアナログ信号を生成し、前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスを出射しない状態で、前記第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第3のアナログ信号を生成し、前記第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第4のアナログ信号を生成する駆動部と、
前記マトリクスの特定の行に配置された複数の前記画素からの前記第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するカラム処理回路と、
前記第1~第4のデジタルデータを互いに弁別して出力する分配器と、
前記弁別された前記第1~第4のデジタルデータをそれぞれ独立して格納する第1~第4メモリと、
前記第1~第4メモリから読み出されたデータを入力し、前記対象物までの距離を算出する距離演算部
を備えることを特徴とする3D撮像ユニット。
First and second charge distribution mechanisms are installed around the photoelectric conversion unit to receive pulsed reflected light from a target object, photoelectrically convert it, and transfer the photoelectrically converted signal charges along different charge transfer paths. a pixel array section in which a plurality of pixels are arranged in a matrix, each having a pixel array section;
In a first frame, drive the first charge distribution mechanism at the timing of a first acquisition achievement period defined in synchronization with a pulse of projection light that generates the reflected light to generate a first analog signal; The second charge distribution mechanism is driven to generate a second analog signal at the timing of a second acquisition achievement period that is defined for the pulse of the projection light and has a different length from the first acquisition achievement period. , in a second frame in a time domain different from the first frame, in a state where the pulse of the projection light is not emitted, the first charge distribution mechanism is driven at the timing of the first acquisition achievement period to generate a third charge distribution mechanism; a driving unit that generates an analog signal and drives the second charge distribution mechanism at the timing of the second acquisition achievement period to generate a fourth analog signal;
a column processing circuit that independently reads out the first to fourth analog signals from the plurality of pixels arranged in a specific row of the matrix and converts them into first to fourth digital data;
a distributor that discriminates and outputs the first to fourth digital data;
first to fourth memories each independently storing the discriminated first to fourth digital data;
A 3D imaging unit comprising: a distance calculation section that inputs data read out from the first to fourth memories and calculates a distance to the object.
前記画素のそれぞれが、
前記第1及び第2電荷振分機構と離間して前記光電変換部の周辺に配置され、前記信号電荷以外の電荷を前記光電変換部から排出する電荷排出機構と、
前記光電変換部の周辺に前記第1電荷振分機構に接して配置され、前記第1電荷振分機構によって転送された前記信号電荷を蓄積する第1電荷蓄積領域と、
前記光電変換部の周辺に前記第2電荷振分機構に接して配置され、前記第2電荷振分機構によって転送された前記信号電荷を蓄積する第2電荷蓄積領域
を更に有することを特徴とする請求項6に記載の3D撮像ユニット。
Each of the pixels is
a charge discharging mechanism disposed around the photoelectric conversion unit apart from the first and second charge distribution mechanisms, and discharging charges other than the signal charges from the photoelectric conversion unit ;
a first charge accumulation region disposed around the photoelectric conversion unit in contact with the first charge distribution mechanism and accumulating the signal charge transferred by the first charge distribution mechanism;
It is characterized by further comprising a second charge accumulation region disposed around the photoelectric conversion unit in contact with the second charge distribution mechanism and for accumulating the signal charges transferred by the second charge distribution mechanism. The 3D imaging unit according to claim 6.
前記駆動部は、前記第1フレームにおいて、前記第1及び第2電荷振分機構の駆動が共に終了後、前記電荷排出機構を駆動し、前記第2フレームにおいて、前記第1及び第2電荷振分機構の駆動が共に終了後、前記電荷排出機構を駆動することを特徴とする請求項7に記載の3D撮像ユニット。 The drive unit drives the charge discharging mechanism after both the first and second charge distributing mechanisms have been driven in the first frame, and the drive unit drives the charge discharging mechanism in the second frame. 8. The 3D imaging unit according to claim 7, wherein the charge discharging mechanism is driven after both of the separation mechanisms have been driven. 対象物に光パルスを出射する発光部と、
前記対象物からのパルス状の反射光の光路を調整する撮像光学系と、
前記撮像光学系によって調整された前記反射光を受光して光電変換する複数の画素を、マトリクス状に配列した画素アレイ部と、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記画素を駆動して第1のアナログ信号を生成し、前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミングで前記画素を駆動して第2のアナログ信号を生成する駆動部と、
前記第1及び第2フレームのそれぞれにおいて、前記マトリクスの特定の行に配置された複数の前記画素からの前記第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するカラム処理回路と、
前記第1及び第2のデジタルデータを互いに弁別して出力する分配器と、
前記弁別された前記第1及び第2のデジタルデータを独立して格納する第1及び第2メモリと、
前記第1及び第2メモリから読み出された前記第1及び第2のデジタルデータを入力し、前記対象物までの距離を算出する距離演算部
を備えることを特徴とするカメラ。
a light emitting unit that emits a light pulse to a target object;
an imaging optical system that adjusts the optical path of the pulsed reflected light from the target object;
a pixel array section in which a plurality of pixels are arranged in a matrix to receive and photoelectrically convert the reflected light adjusted by the imaging optical system;
In a first frame, the pixel is driven to generate a first analog signal at the timing of a first acquisition achievement period defined in synchronization with the pulse of the projection light that generates the reflected light, and the pixel is driven to generate a first analog signal. drives the pixel in a second frame in a different time domain at the timing of a second acquisition achievement period, which is defined for the pulse of the projection light and has a different length from the first acquisition achievement period, to obtain a second acquisition period. a drive unit that generates an analog signal;
In each of the first and second frames, the first and second analog signals from the plurality of pixels arranged in a specific row of the matrix are independently read out, and first and second digital data are read out. A column processing circuit that converts
a distributor that discriminates and outputs the first and second digital data;
first and second memories that independently store the discriminated first and second digital data;
A camera comprising: a distance calculation section that inputs the first and second digital data read from the first and second memories and calculates a distance to the target object.
対象物に光パルスを出射する発光部と、
前記対象物からのパルス状の反射光の光路を調整する撮像光学系と、
前記撮像光学系によって調整された前記反射光を受光して光電変換し、互いに異なる電荷移動経路に沿って前記光電変換された信号電荷を転送する第1及び第2電荷振分機構を光電変換部の周辺にそれぞれ有した、複数の画素をマトリクス状に配列した画素アレイ部と、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第1のアナログ信号を生成し、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第2のアナログ信号を生成し、前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスを出射しない状態で、前記第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第3のアナログ信号を生成し、前記第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第4のアナログ信号を生成する駆動部と、
前記マトリクスの特定の行に配置された複数の前記画素からの前記第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するカラム処理回路と、
前記第1~第4のデジタルデータを互いに弁別して出力する分配器と、
前記弁別された前記第1~第4のデジタルデータをそれぞれ独立して格納する第1~第4メモリと、
前記第1~第4メモリから読み出されたデータを入力し、前記対象物までの距離を算出する距離演算部
を備えることを特徴とするカメラ。
a light emitting unit that emits a light pulse to a target object;
an imaging optical system that adjusts the optical path of the pulsed reflected light from the target object;
A photoelectric conversion unit includes first and second charge distribution mechanisms that receive and photoelectrically convert the reflected light adjusted by the imaging optical system and transfer the photoelectrically converted signal charges along mutually different charge transfer paths. a pixel array section in which a plurality of pixels are arranged in a matrix, each having a plurality of pixels around the periphery of the pixel array section;
In a first frame, drive the first charge distribution mechanism at the timing of a first acquisition achievement period defined in synchronization with a pulse of projection light that generates the reflected light to generate a first analog signal; The second charge distribution mechanism is driven to generate a second analog signal at the timing of a second acquisition achievement period that is defined for the pulse of the projection light and has a different length from the first acquisition achievement period. , in a second frame in a time domain different from the first frame, in a state where the pulse of the projection light is not emitted, the first charge distribution mechanism is driven at the timing of the first acquisition achievement period to generate a third charge distribution mechanism; a driving unit that generates an analog signal and drives the second charge distribution mechanism at the timing of the second acquisition achievement period to generate a fourth analog signal;
a column processing circuit that independently reads out the first to fourth analog signals from the plurality of pixels arranged in a specific row of the matrix and converts them into first to fourth digital data;
a distributor that discriminates and outputs the first to fourth digital data;
first to fourth memories each independently storing the discriminated first to fourth digital data;
A camera characterized by comprising: a distance calculation section that inputs data read out from the first to fourth memories and calculates a distance to the object.
複数の画素をマトリクス状に配列した画素アレイ部を用い、対象物からのパルス状の反射光を受光して光電変換するステップと、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記画素を駆動して第1のアナログ信号を生成するステップと、
前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミング
で前記画素を駆動して第2のアナログ信号を生成するステップと、
前記第1及び第2フレームのそれぞれにおいて、前記マトリクスの特定の行に配置された複数の前記画素からの前記第1及び第2のアナログ信号をそれぞれ独立に読み出し、第1及び第2のデジタルデータに変換するステップと、
前記第1及び第2のデジタルデータを互いに弁別して出力するステップと、
前記弁別された前記第1及び第2のデジタルデータを独立して第1及び第2メモリにそれぞれ格納するステップと、
前記第1及び第2メモリから読み出された前記第1及び第2のデジタルデータを入力し、前記対象物までの距離を算出するステップ
を含むことを特徴とする3D画像生成方法。
Using a pixel array section in which a plurality of pixels are arranged in a matrix, receiving pulsed reflected light from an object and photoelectrically converting it;
In a first frame, driving the pixel at a timing of a first acquisition achievement period defined in synchronization with a pulse of projection light that generates the reflected light to generate a first analog signal;
In a second frame in a time domain different from the first frame, driving the pixel at the timing of a second acquisition achievement period that is defined for the pulse of the projection light and has a length different from the first acquisition achievement period. generating a second analog signal;
In each of the first and second frames, the first and second analog signals from the plurality of pixels arranged in a specific row of the matrix are independently read out, and first and second digital data are read out. and the step of converting it to
discriminating the first and second digital data from each other and outputting the same;
storing the discriminated first and second digital data independently in first and second memories, respectively;
A 3D image generation method, comprising: inputting the first and second digital data read from the first and second memories and calculating a distance to the target object.
互いに異なる電荷移動経路に沿って信号電荷を転送する第1及び第2電荷振分機構を、前記信号電荷を生成する光電変換部の周辺にそれぞれ有した複数の画素をマトリクス状に配列した画素アレイ部を用い、対象物からのパルス状の反射光を受光して光電変換するステップと、
第1フレームにおいて、前記反射光を生成する投影光のパルスに同期して規定される第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第1のアナログ信号を生成し、前記投影光のパルスに対し規定される、前記第1取得達成期間とは異なる長さの第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第2のアナログ信号を生成するステップと、
前記第1フレームとは異なる時間領域の第2フレームにおいて、前記投影光のパルスを出射しない状態で、前記第1取得達成期間のタイミングで前記第1電荷振分機構を駆動して第3のアナログ信号を生成し、前記第2取得達成期間のタイミングで前記第2電荷振分機構を駆動して第4のアナログ信号を生成するステップと、
前記マトリクスの特定の行に配置された複数の前記画素からの前記第1~第4のアナログ信号をそれぞれ独立に読み出し、第1~第4のデジタルデータに変換するステップと、
前記第1~第4のデジタルデータを互いに弁別して出力するステップと、
前記弁別された前記第1~第4のデジタルデータをそれぞれ独立して第1~第4メモリに格納するステップと、
前記第1~第4メモリから読み出されたデータを入力し、前記対象物までの距離を算出するステップ
を含むことを特徴とする3D画像生成方法。
A pixel array in which a plurality of pixels are arranged in a matrix, each of which has first and second charge distribution mechanisms that transfer signal charges along different charge transfer paths, respectively, around a photoelectric conversion section that generates the signal charges. a step of receiving pulsed reflected light from a target object and photoelectrically converting it using a device;
In a first frame, drive the first charge distribution mechanism at the timing of a first acquisition achievement period defined in synchronization with a pulse of projection light that generates the reflected light to generate a first analog signal; The second charge distribution mechanism is driven to generate a second analog signal at the timing of a second acquisition achievement period that is defined for the pulse of the projection light and has a different length from the first acquisition achievement period. step and
In a second frame in a time domain different from the first frame, in a state in which the pulse of the projection light is not emitted, the first charge distribution mechanism is driven at the timing of the first acquisition achievement period to generate a third analog signal. generating a signal and driving the second charge distribution mechanism at the timing of the second acquisition achievement period to generate a fourth analog signal;
independently reading out the first to fourth analog signals from the plurality of pixels arranged in a specific row of the matrix and converting them into first to fourth digital data;
discriminating the first to fourth digital data from each other and outputting the same;
storing the discriminated first to fourth digital data independently in first to fourth memories;
A 3D image generation method, comprising the step of inputting data read from the first to fourth memories and calculating a distance to the target object.
JP2019085204A 2019-04-26 2019-04-26 3D imaging unit, camera, and 3D image generation method Active JP7358771B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019085204A JP7358771B2 (en) 2019-04-26 2019-04-26 3D imaging unit, camera, and 3D image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085204A JP7358771B2 (en) 2019-04-26 2019-04-26 3D imaging unit, camera, and 3D image generation method

Publications (2)

Publication Number Publication Date
JP2020182147A JP2020182147A (en) 2020-11-05
JP7358771B2 true JP7358771B2 (en) 2023-10-11

Family

ID=73023547

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085204A Active JP7358771B2 (en) 2019-04-26 2019-04-26 3D imaging unit, camera, and 3D image generation method

Country Status (1)

Country Link
JP (1) JP7358771B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001337166A (en) 2000-05-26 2001-12-07 Minolta Co Ltd Method and device for three-dimensional input
JP2007248227A (en) 2006-03-15 2007-09-27 Toyota Central Res & Dev Lab Inc Object detection device
JP2008249673A (en) 2007-03-30 2008-10-16 Fujifilm Corp Distance measuring device, distance measurement method, and distance measurement system
JP2018137569A (en) 2017-02-21 2018-08-30 ソニーセミコンダクタソリューションズ株式会社 Distance-measuring device and distance-measuring method
WO2019054099A1 (en) 2017-09-14 2019-03-21 パナソニックIpマネジメント株式会社 Solid-state imaging device and imaging device equipped with same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001337166A (en) 2000-05-26 2001-12-07 Minolta Co Ltd Method and device for three-dimensional input
JP2007248227A (en) 2006-03-15 2007-09-27 Toyota Central Res & Dev Lab Inc Object detection device
JP2008249673A (en) 2007-03-30 2008-10-16 Fujifilm Corp Distance measuring device, distance measurement method, and distance measurement system
JP2018137569A (en) 2017-02-21 2018-08-30 ソニーセミコンダクタソリューションズ株式会社 Distance-measuring device and distance-measuring method
WO2019054099A1 (en) 2017-09-14 2019-03-21 パナソニックIpマネジメント株式会社 Solid-state imaging device and imaging device equipped with same

Also Published As

Publication number Publication date
JP2020182147A (en) 2020-11-05

Similar Documents

Publication Publication Date Title
US10690755B2 (en) Solid-state imaging device having increased distance measurement accuracy and increased distance measurement range
JP6738200B2 (en) Imaging device
US20180269241A1 (en) Imaging apparatus
KR101348522B1 (en) Solid state imaging device and distance image measurement device
JP5404112B2 (en) Solid-state imaging device, driving method thereof, and imaging system
JP5934930B2 (en) Solid-state imaging device and driving method thereof
KR101508410B1 (en) Distance image sensor and method for generating image signal by time-of-flight method
JP5635937B2 (en) Solid-state imaging device
JP5898692B2 (en) Capture of gated and ungated light on the same photosensitive surface in the same frame
JP2021507584A (en) Global Shutter Pixel Circuits and Methods for Computer Vision Applications
JP2010267720A (en) Light receiving device and method of controlling the same
JP7428133B2 (en) Distance measuring device, camera, and distance measuring device drive adjustment method
WO2016047474A1 (en) Solid state imaging device, and electronic device
TWI837107B (en) Pixel structure, image sensor device and system with pixel structure, and method of operating the pixel structure
WO2020008962A1 (en) Distance measurement device, camera, inspection adjustment device, distance measurement device drive adjustment method, and distance measurement device inspection adjustment method
JP2004309701A (en) Range-finding/photometric sensor and camera
JP2008034836A (en) Solid-state image sensing device
JP2016184868A (en) Imaging device and driving method of imaging device
JP7358771B2 (en) 3D imaging unit, camera, and 3D image generation method
JP2020028115A (en) Imaging apparatus
JP6930556B2 (en) Image sensor and image sensor
JP6320132B2 (en) Imaging system
JP2017208397A (en) Backside irradiation type solid-state imaging element and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7358771

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150