JP7401986B2 - Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method - Google Patents

Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method Download PDF

Info

Publication number
JP7401986B2
JP7401986B2 JP2019132654A JP2019132654A JP7401986B2 JP 7401986 B2 JP7401986 B2 JP 7401986B2 JP 2019132654 A JP2019132654 A JP 2019132654A JP 2019132654 A JP2019132654 A JP 2019132654A JP 7401986 B2 JP7401986 B2 JP 7401986B2
Authority
JP
Japan
Prior art keywords
signal
pixel
spad
charge
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019132654A
Other languages
Japanese (ja)
Other versions
JP2020016654A (en
Inventor
イービン ミシェル ワン,
リーロン シ,
イリア オフシアンイコフ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/140,529 external-priority patent/US11294039B2/en
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2020016654A publication Critical patent/JP2020016654A/en
Application granted granted Critical
Publication of JP7401986B2 publication Critical patent/JP7401986B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G04HOROLOGY
    • G04FTIME-INTERVAL MEASURING
    • G04F10/00Apparatus for measuring unknown time intervals by electric means
    • G04F10/005Time-to-digital converters [TDC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

本発明は、イメージセンサに関し、より詳細には、蓄積された光子検出イベントからグレイスケールイメージを生成するTOF(Time-Of-Flight)イメージセンサ及びイメージングユニット並びにオブジェクトのグレイスケールイメージを生成する方法に関する。 The present invention relates to an image sensor, and more particularly to a time-of-flight (TOF) image sensor and imaging unit that generates a grayscale image from accumulated photon detection events and a method for generating a grayscale image of an object. .

3次元(3D)イメージング(Imaging)システムは、工業生産、ビデオゲーム、コンピュータグラフィックス、ロボット手術、消費者ディスプレイ、監視映像、3Dモデリング、不動産販売などのような広範囲で多様なアプリケーションにおいて、ますます多く使用されている。現存する3Dイメージング技術は、例えばTOF(Time-Of-Flight)ベースの距離イメージング、ステレオビジョンシステム、及び構造光(SL:Structured Light)の方法を含む。 Three-dimensional (3D) imaging systems are increasingly being used in a wide range of diverse applications such as industrial manufacturing, video games, computer graphics, robotic surgery, consumer displays, surveillance video, 3D modeling, real estate sales, etc. Used a lot. Existing 3D imaging technologies include, for example, time-of-flight (TOF)-based distance imaging, stereo vision systems, and structured light (SL) methods.

TOF方法では、3Dオブジェクトまでの距離は、知られている光の速度に基づいて、光信号がイメージの各点についてカメラと3Dオブジェクトとの間を移動するのに必要とする往復時間を測定することにより決定される。TOFカメラは、各レーザー又は光パルスでシーン全体をキャプチャーするために、スキャナレス(scannerless)のアプローチを使用することができる。TOF方法の一部の模範的なアプリケーションは、リアルタイムの距離イメージに基づく能動的歩行者保護や衝突前検出のような改善された車両アプリケーション、ビデオゲームコンソール上のゲームとの間の相互作用のように、人々の動きを追跡すること、産業マシンビジョン(industrial machine vision)におけるベルトコンベア上の物品のようなオブジェクトを識別してロボットによる物品の探し出しを助けることなどを含む。 In the TOF method, the distance to the 3D object is measured based on the known speed of light and the round trip time required for the light signal to travel between the camera and the 3D object for each point in the image. Determined by TOF cameras can use a scannerless approach to capture the entire scene with each laser or light pulse. Some exemplary applications of TOF methods are improved vehicle applications such as active pedestrian protection and pre-collision detection based on real-time range images, interaction with games on video game consoles, etc. This includes tracking people's movements, identifying objects such as items on a conveyor belt in industrial machine vision, and helping robots locate items.

ステレオスコピックイメージング(stereoscopic-imaging)又はステレオビジョンシステムにおいて、互いに水平に配置された2台のカメラがシーン又はシーン内の3Dオブジェクトから2つの異なる視野を獲得するために使用される。このような2つのイメージを比較することにより、3Dオブジェクトに対する相対的なデプス(depth)情報が獲得される。ステレオビジョンは、ロボット工学などのような分野において特に重要であり、自律システム/ロボットの近くにある3Dオブジェクトの相対的な位置に対する情報を抽出する。ロボット工学のための他のアプリケーションは、オブジェクトの認識を含む。ここで、ステレオスコピックのデプス情報により、ロボットシステムは隠しているイメージの構成要素を分離する。これがないと、ロボットは、1つのオブジェクトが他の1つの前に位置して他の1つのオブジェクトを部分的に又は完全に隠す2つのオブジェクトを区別することができない。3Dステレオディスプレイは、またエンターテイメントや自動化されたシステムで使用され得る。 In stereoscopic-imaging or stereo vision systems, two cameras placed horizontally to each other are used to obtain two different views of a scene or a 3D object within a scene. By comparing these two images, relative depth information for the 3D object is obtained. Stereo vision is particularly important in fields such as robotics, where it extracts information about the relative position of 3D objects in the vicinity of an autonomous system/robot. Other applications for robotics include object recognition. Here, the stereoscopic depth information allows the robot system to separate the hidden image components. Without this, the robot would not be able to distinguish between two objects, with one object positioned in front of the other and partially or completely obscuring the other. 3D stereo displays may also be used in entertainment and automated systems.

SL方法において、オブジェクトの3D形状は、照射された光のパターン及びイメージングのためのカメラを用いて測定される。SL方法において、光の既知のパターン(しばしば、格子や水平線や並列ストライプのパターン)がシーン又はシーン内の3Dオブジェクトに照射される。照射されたパターンは、3Dオブジェクトの表面に衝突する際に変形されるか又は変換される。このような変形により、SLビジョンシステムはオブジェクトのデプス及び表面の情報を計算することができる。従って、狭帯域の光を3D表面に照射することは、プロジェクターの視点と異なる視点から歪曲されて表われる照明ラインを生成し、照明された表面形態の幾何学的再構成に使用される。SLベースの3Dイメージングは、警察による3Dシーン内の指紋の撮影、製造工程中の構成要素のインライン検査(inline inspection)、人体形態、及び/又は皮膚の微細構造のライブ測定のためのヘルスケアのような多様なアプリケーションにおいて使用される。 In the SL method, the 3D shape of an object is measured using an illuminated light pattern and a camera for imaging. In SL methods, a known pattern of light (often a grid or pattern of horizontal lines or parallel stripes) is illuminated onto a scene or a 3D object within the scene. The illuminated pattern is deformed or transformed upon impacting the surface of the 3D object. Such a transformation allows the SL vision system to calculate depth and surface information of the object. Therefore, illuminating a 3D surface with a narrow band of light produces illumination lines that appear distorted from a different perspective than that of the projector and are used for geometrical reconstruction of the illuminated surface morphology. SL-based 3D imaging can be used by police to capture fingerprints in a 3D scene, inline inspection of components during manufacturing processes, and in healthcare for live measurements of human morphology and/or skin microstructure. used in a variety of applications such as

米国特許第9516244号明細書US Patent No. 9516244 米国特許出願公開第2010/0127160号明細書US Patent Application Publication No. 2010/0127160 米国特許出願公開第2017/0052065号明細書US Patent Application Publication No. 2017/0052065

NICLASS, Cristiano, et al.,“Cmos Imager Based on Single Photon Avalanche Diodes,”The 13th International Conference on Solid-State Sensors, Actuators and Microsystems, 2005, Digest of Technical Papers, TRANSDUCERS ’05, August 22, 2005, 5 pages.NICLASS, Cristiano, et al. , “Cmos Imager Based on Single Photon Avalanche Diodes,”The 13th International Conference on Solid-State Sensors, Actuators and Microsystems, 2005, Digest of Technical Papers, TRANSDUCERS '05, August 22, 2005, 5 pages. NICLASS, Cristiano, et al.,“Toward a 3-D Camera Based on Single Photon Avalanche Diodes,”IEEE Journal of Selected Topics in Quantum Electronics, Vol. 10, No. 4, July/August 2004, pp. 796-802.NICLASS, Cristiano, et al. , “TOWARD A 3 -D Camera Basle ON SINGLE PHOTON AVALANCHE DIODES,“ IEEE JOURNAL OF SELECTED TOPICS in QUANTICS in QUANTUMS ELECTRONICS, VOL . 10, No. 4, July/August 2004, pp. 796-802. STOPPA, David, et al.,“A CMOS 3-D Imager Based on Single Photon Avalanche Diode,”IEEE Transactions on Circuits and Systems, I: Regular Papers, Vol. 54, No. 1, January 2007, pp. 4-12.STOPPA, David, et al. , “A CMOS 3-D Imager Based on Single Photon Avalanche Diode,” IEEE Transactions on Circuits and Systems, I: Regular Papers, V ol. 54, No. 1, January 2007, pp. 4-12.

本発明は、上記従来技術に鑑みてなされたものであって、本発明の目的は、オブジェクトから反射された光パルスを感知してオブジェクトの3Dイメージ及び2Dイメージの両方を生成するイメージセンサ及びイメージングユニット並びにオブジェクトのグレイスケールイメージを生成する方法を提供することにある。 The present invention has been made in view of the above-mentioned prior art, and an object of the present invention is to provide an image sensor and an imaging sensor that senses light pulses reflected from an object and generates both a 3D image and a 2D image of the object. The object of the present invention is to provide a method for generating grayscale images of units and objects.

上記目的を達成するためになされた本発明の一態様によるイメージセンサは、オブジェクトに向けて照射された光パルスに対応して前記オブジェクトから反射された1つ以上の光子を少なくとも1つのピクセルによって検出することに応答して、第1信号及び第2信号のペアを出力する前記少なくとも1つのピクセルを含む時間分解センサと、前記第1信号及び第2信号のペアに基づいて、前記光パルスが反射された前記オブジェクトの表面反射率を判定するプロセッサと、を備え、前記ペアの第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例する。 In order to achieve the above object, an image sensor according to an aspect of the present invention detects, by at least one pixel, one or more photons reflected from an object in response to a light pulse directed toward the object. a time-resolved sensor including the at least one pixel that outputs a first signal and a second signal pair in response to the light pulse being reflected; a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair; , a second ratio of the amplitude of the second signal of the pair to the sum of the amplitude of the first signal and the second signal of the pair, proportional to the time of flight of the detected one or more photons; is proportional to the time of flight of the detected one or more photons.

前記プロセッサは、前記第1信号及び第2信号のペアに基づいて前記オブジェクトまでの距離を更に決定し得る。
前記時間分解センサは、前記オブジェクトに向けて照射された複数の光パルスに対して前記オブジェクトから反射された1つ以上の光子を前記ピクセルによって検出することに応答して、各第1信号及び第2信号のペアが各光パルスに対応する複数の第1信号及び第2信号のペアを出力し、前記プロセッサは、前記複数の第1信号及び第2信号のペアに基づいて前記複数の光パルスが反射された前記オブジェクトの表面反射率を判定し得る。
The processor may further determine a distance to the object based on the first signal and second signal pair.
The time-resolved sensor is responsive to detecting by the pixel one or more photons reflected from the object in response to a plurality of light pulses directed toward the object. the processor outputs a plurality of first and second signal pairs, one pair of signals corresponding to each light pulse; may determine a surface reflectance of the object on which is reflected.

上記目的を達成するためになされた本発明の一態様によるイメージングユニットは、オブジェクトの表面に向けて照射される一連の光パルスで前記オブジェクトを照明する光源と、前記光源に同期化され、前記オブジェクトの表面から反射された光パルスに対応する1つ以上の光子を検出することに応答して、第1信号及び第2信号のペアを出力する前記少なくとも1つのピクセルを含む時間分解センサと、前記第1信号及び第2信号のペアに基づいて、前記オブジェクトまでの距離を判定し、前記第1信号及び第2信号のペアに基づいて、前記光パルスが反射された前記オブジェクトの表面反射率を判定するプロセッサと、を備え、前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例する。 An imaging unit according to an aspect of the present invention made to achieve the above object includes: a light source that illuminates an object with a series of light pulses directed toward a surface of the object; a time-resolved sensor comprising said at least one pixel that outputs a first signal and a second signal pair in response to detecting one or more photons corresponding to a light pulse reflected from a surface of said determining a distance to the object based on a first signal and a second signal pair; and determining a surface reflectance of the object from which the light pulse was reflected based on the first signal and second signal pair. a processor for determining, a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair, a second ratio of the amplitude of the second signal of the pair to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair is proportional to the time of flight of a photon of the detected one. It is proportional to the flight time of the photon.

前記時間分解センサは、前記オブジェクトから反射された1つ以上の光子を前記ピクセルによって検出することに応答して、前記第1信号及び第2信号のペアのそれぞれが前記オブジェクトに向けて照射された複数の光パルスのそれぞれに対応する複数の第1信号及び第2信号のペアを出力し、前記プロセッサは、対応する前記第1信号及び第2信号のペアに基づいて、前記オブジェクトの複数の表面反射率を更に判定し得る。
前記プロセッサは、前記複数の表面反射率に基づいて、前記オブジェクトのグレイスケールイメージを更に生成し得る。
The time-resolved sensor is responsive to detecting by the pixel one or more photons reflected from the object such that each of the first and second signal pairs is directed toward the object. outputting a plurality of first and second signal pairs corresponding to each of a plurality of light pulses, the processor detecting a plurality of surfaces of the object based on the corresponding first and second signal pairs; Reflectance may further be determined.
The processor may further generate a grayscale image of the object based on the plurality of surface reflectances.

上記目的を達成するためになされた本発明のオブジェクトのグレイスケールイメージを生成する方法は、光源から一連の光パルスを前記オブジェクトの表面に向けて照射するステップと、ピクセルで、前記オブジェクトの表面から反射された光パルスに対応する1つ以上の光子を検出するステップと、前記光源に同期化される時間分解センサにより、前記1つ以上の光子を検出することに応答して、第1信号及び第2信号のペアを生成するステップと、プロセッサにより、前記第1信号及び第2信号のペアに基づいて、前記オブジェクトまでの距離を判定するステップと、前記プロセッサにより、前記第1信号及び第2信号のペアに基づいて、前記オブジェクトの表面反射率を判定するステップと、を有し、前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例する。 A method of generating a grayscale image of an object according to the present invention, which has been made to achieve the above object, comprises the steps of: directing a series of light pulses from a light source toward the surface of the object; detecting one or more photons corresponding to a reflected light pulse; and in response to detecting the one or more photons by a time-resolved sensor synchronized to the light source, a first signal and a generating a pair of second signals; determining, by a processor, a distance to the object based on the pair of first and second signals; determining a surface reflectance of the object based on a pair of signals, the first signal of the pair relative to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair. is proportional to the time-of-flight of the detected one or more photons, and the first ratio of the amplitude of the first signal of the pair to the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons. A second ratio of signal amplitude is proportional to the time of flight of the detected one or more photons.

前記方法は、前記ピクセルで、前記オブジェクトに向けて照射されて複数の第1信号及び第2信号のペアの各々が前記一連の光パルスのそれぞれの光パルスに対応する複数の光パルスに対して前記オブジェクトから反射された1つ以上の光子を検出するステップと、前記プロセッサにより、前記複数の第1信号及び第2信号のペアの少なくとも1つに基づいて、前記オブジェクトの表面反射率を判定するステップと、を更に含み得る。
前記方法は、前記プロセッサにより、前記複数のピクセルの予め定められたピクセルによって検出される光子の到達時間の少なくとも1つのヒストグラムを生成して前記グレイスケールイメージを生成するステップと、を更に含み得る。
The method includes, at the pixel, a plurality of light pulses directed toward the object, each of a plurality of pairs of first and second signals corresponding to a respective light pulse of the series of light pulses; detecting one or more photons reflected from the object; and determining, by the processor, a surface reflectance of the object based on at least one of the plurality of first and second signal pairs. The method may further include a step.
The method may further include generating, by the processor, at least one histogram of arrival times of photons detected by predetermined pixels of the plurality of pixels to generate the grayscale image.

本発明によると、オブジェクトに向けて光パルスを照射する時からオブジェクトから反射された光パルスが感知されるまで、充電電荷が移された量が第1信号に変換され、充電電荷の残りの電荷量が第2信号に変換される。第1信号及び第2信号に基づいて光パルスの飛行時間が計算され、飛行時間から距離が計算されて3Dイメージが生成される。第1信号及び第2信号に基づいて、反射された光パルスの電力が計算され、計算された電力又は計算された距離から反射率が計算され、オブジェクトの2Dグレイスケールイメージが生成される。 According to the present invention, from the time of illuminating a light pulse toward an object until the light pulse reflected from the object is sensed, the amount of charged charge transferred is converted into a first signal, and the remaining charge of the charged charge is converted into a first signal. The quantity is converted into a second signal. A time of flight of the light pulse is calculated based on the first signal and the second signal, and a distance is calculated from the time of flight to generate a 3D image. Based on the first signal and the second signal, a power of the reflected light pulse is calculated, and a reflectance is calculated from the calculated power or the calculated distance to generate a 2D grayscale image of the object.

イメージセンサシステムの概略構成図である。FIG. 1 is a schematic configuration diagram of an image sensor system. 図1のイメージセンサシステムの動作の一例を説明するための構成図である。2 is a configuration diagram for explaining an example of the operation of the image sensor system of FIG. 1. FIG. 3Dデプスの測定がどのように遂行されるかの一例を示すフローチャートである。3 is a flowchart illustrating an example of how 3D depth measurement is performed. 3Dデプスの測定のためにポイントのスキャンがどのように遂行されるかの一例を説明するための図である。FIG. 3 is a diagram illustrating an example of how points are scanned to measure 3D depth; 図2のピクセルの一例を示すブロック図である。3 is a block diagram illustrating an example of the pixel of FIG. 2. FIG. ピクセルアレイ構造の一例を示す図である。FIG. 3 is a diagram showing an example of a pixel array structure. ピクセルアレイ構造の他の例を示す図である。FIG. 7 is a diagram showing another example of a pixel array structure. ピクセルアレイ構造の更に他の例を示す図である。FIG. 7 is a diagram showing still another example of a pixel array structure. ピクセルの一例を示す回路図である。FIG. 2 is a circuit diagram showing an example of a pixel. 図7のピクセルで変調された電荷の転送メカニズムの概要の一例を説明するためのタイミング図である。8 is a timing diagram for explaining an example of an outline of a transfer mechanism of charges modulated by the pixels of FIG. 7; FIG. 図7のピクセルがTOF値を測定するためのピクセルアレイで使用される場合の、図1及び図2のイメージセンサシステムにおける異なる信号の一例を示すタイミング図である。8 is a timing diagram illustrating an example of different signals in the image sensor system of FIGS. 1 and 2 when the pixels of FIG. 7 are used in a pixel array for measuring TOF values; FIG. 論理ユニットがピクセルでどのように具現されるかを説明するための図である。FIG. 2 is a diagram illustrating how a logical unit is implemented using pixels. 図1及び図2のイメージセンサシステムでTOF値がどのように判定されるかの一例を示すフローチャートである。3 is a flowchart illustrating an example of how the TOF value is determined in the image sensor system of FIGS. 1 and 2. FIG. イメージセンサユニットの一部分の一例を示すレイアウト図である。FIG. 2 is a layout diagram showing an example of a portion of an image sensor unit. ピクセルの他の例を示す回路図である。FIG. 7 is a circuit diagram showing another example of pixels. 図13のピクセルがTOF値を測定するためのピクセルアレイに使用される場合の、図1及び図2のイメージセンサシステムの異なる信号の他の例を示すタイミング図である。14 is a timing diagram illustrating another example of different signals of the image sensor system of FIGS. 1 and 2 when the pixels of FIG. 13 are used in a pixel array for measuring TOF values; FIG. 時間分解センサの一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a time-resolved sensor. 図15の時間分解センサのSPAD回路の一例を示す回路図である。16 is a circuit diagram showing an example of a SPAD circuit of the time-resolved sensor of FIG. 15. FIG. 図15の時間分解センサの論理回路の一例を示す回路図である。16 is a circuit diagram showing an example of a logic circuit of the time-resolved sensor of FIG. 15. FIG. 図15の時間分解センサのPPD回路の一例を示す回路図である。16 is a circuit diagram showing an example of a PPD circuit of the time-resolved sensor of FIG. 15. FIG. 図15の時間分解センサに対する一例を示す相対的な信号のタイミング図である。16 is a relative signal timing diagram illustrating an example for the time-resolved sensor of FIG. 15; FIG. 時間分解センサの他の例を示すブロック図である。FIG. 3 is a block diagram showing another example of a time-resolved sensor. 図20の時間分解センサの第2のPPD回路の一例を示す回路図である。21 is a circuit diagram showing an example of a second PPD circuit of the time-resolved sensor of FIG. 20. FIG. 図20の時間分解センサの他の例を示す相対的な信号のタイミング図である。21 is a relative signal timing diagram illustrating another example of the time-resolved sensor of FIG. 20; FIG. 時間分解センサの更に他の例を示す回路図である。FIG. 7 is a circuit diagram showing still another example of a time-resolved sensor. 図23の時間分解センサの更に他の例を示す相対的な信号のタイミング図である。24 is a relative signal timing diagram showing still another example of the time-resolved sensor of FIG. 23. FIG. 図23の時間分解センサを利用して時間を分解する方法の一例を示すフローチャートである。24 is a flowchart illustrating an example of a method for resolving time using the time-resolving sensor of FIG. 23. FIG. SPADからのトリガー波形出力の一例を示す図である。It is a figure which shows an example of the trigger waveform output from SPAD. 形成されるピクセルの光検出時間の一例を示すヒストグラムである。It is a histogram showing an example of the light detection time of the formed pixel. ヒストグラムの一例として、照射されたパルス(図示せず)のFWHMを示すウィンドウ幅を表し、イベントカウントの最大(event count maximum)が判定されることを説明するための図である。FIG. 6 is a diagram showing, as an example of a histogram, a window width indicating the FWHM of an emitted pulse (not shown), and for explaining that the maximum event count is determined. ヒストグラムの一例を示し、SPAD(図26)から出力されたトリガー波形がヒストグラムでコンボリューションされてイベントカウントの最大が判定されることを説明するための図である。FIG. 26 is a diagram showing an example of a histogram and explaining that the trigger waveform output from the SPAD (FIG. 26) is convolved with the histogram to determine the maximum event count. ピクセルに対する一例を示すヒストグラムである。2 is a histogram showing an example of pixels. シーンのデプス又は範囲、マップ、及びグレイスケールイメージを生成する一例を示す方法のフローチャートである。1 is a flowchart of an example method for generating scene depth or extent, maps, and grayscale images. シーンの一例を示すイメージである。This is an image showing an example of a scene. 図29aに示したシーンの一例を示すデプスマップである。29a is a depth map showing an example of the scene shown in FIG. 29a. 図29aに示したシーンの一例を示すグレイスケールイメージである。29a is a grayscale image showing an example of the scene shown in FIG. 29a; FIG. 図1及び図2に示したイメージングシステムの全体的なレイアウトの一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the overall layout of the imaging system shown in FIGS. 1 and 2. FIG.

以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。しかし、本発明は、このような特定の実施形態に限定されずに実施され得ることが、この分野における熟練した者に理解される。よく知られた方法、手順、構成要素、及び回路は、本発明を曖昧にしないために詳細に記述しない。また、本発明は、これらに限定されず、スマートフォン、ユーザー装置(UE)、及び/又はラップトップコンピュータを含む任意のイメージングデバイス又はシステムで、低消費電力、3Dデプスの測定を遂行するように具現される。 Hereinafter, specific examples of modes for carrying out the present invention will be described in detail with reference to the drawings. However, it will be understood by those skilled in the art that the invention may be practiced without being limited to these specific embodiments. Well-known methods, procedures, components, and circuits have not been described in detail in order not to obscure the present invention. Additionally, the present invention can be implemented to perform low power, 3D depth measurements on any imaging device or system, including, but not limited to, a smartphone, a user equipment (UE), and/or a laptop computer. be done.

本明細書で「一実施例」又は「実施例」の参照は、その実施例に関連して記述する特定の特色、構造、又は特性が本明細書に記載した少なくとも1つの実施例に含まれ得ることを意味する。従って、本明細書の多様な部分において「一実施形態では」、「実施形態では」、又は「一実施例による」のフレーズ(又は類似の意味を有する他のフレーズ)の登場は、全て同じ実施例を参照するものとしてはならない。なお、特定の特色、構造、又は特性は、1つ以上の実施例で任意の適切な方法で組み合わせられる。これに関連して、本明細書で使用するように、「模範的な」の言葉は、「1つの例、事例、又は実例として提供される」ということを意味する。ここで「模範的な」と記述する任意の実施例は、他の実施例よりも選好されたり、長所を有するものとされたりしてはならない。また、特定の特色、構造、又は特性は、1つ以上の実施例で任意の適切な方法で組み合わせられる。また、本明細書で説明するコンテキストに依存して、単数形は対応する複数形を含み、複数形は対応する単数形を含み得る。同様に、ハイフンで連結された用語(例えば、「2-次元」、「事前に-定められた」、「ピクセル-特化」など)は、時折対応するハイフンなしのバージョン(例えば、「2次元」、「事前に定められた」、「ピクセル特化」など)に代替して使用され、英文の大文字の項目(例えば、「カウンタクロック(Counter Clock)」、「行選択(Row Select)」、「PIXOUT」など)は、対応する大文字なしのバージョン(例えば、「カウンタクロック(counter clock)」、「行選択(row select)」、「pixout」など)に代替して使用され得る。このような不定期的な代替使用は、互いに矛盾するものとされてはならない。
なお、本明細書に記載するコンテキストに依存して、単数形は対応する複数形を含み、複数形は対応する単数形を含み得る。本明細書に示して説明する多様な図面(構成要素図を含む)は、説明の目的のためのみであり、同じ比率に限定されない。同様に、多様な波形及びタイミング図が説明の目的のためのみに示される。例えば、要素の一部の次元は明確性のために他の要素よりも強調されることがある。また、適切であると思われる場合、参照符号は図面で繰り返されて対応する及び/又は類似の要素を指す。
References herein to "an embodiment" or "an embodiment" include references to "an embodiment" or "an embodiment" in which a particular feature, structure, or characteristic described in connection with that embodiment is included in at least one embodiment described herein. It means to get. Therefore, appearances of the phrases "in one embodiment,""in an embodiment," or "according to one example" (or other phrases of similar meaning) in various parts of this specification all refer to the same implementation. It should not be used as a reference to examples. Note that the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. In this context, the word "exemplary," as used herein, means "serving as an example, instance, or illustration." Any embodiment described herein as "exemplary" is not to be construed as preferred or advantageous over other embodiments. Also, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. Also, depending on the context described herein, singular terms may include corresponding plural terms, and plural terms may include corresponding singular terms. Similarly, hyphenated terms (e.g., "2-dimensional,""pre-defined,""pixel-specific," etc.) sometimes refer to corresponding unhyphenated versions (e.g., "2-dimensional,""pre-defined,""pixel-specific," etc.) ”, “predetermined”, “pixel specific”, etc.), and are used instead of items with English capital letters (e.g., “Counter Clock”, “Row Select”, "PIXOUT," etc.) may be used in place of the corresponding non-capitalized versions (eg, "counter clock,""rowselect,""pixout," etc.). Such occasional alternative uses shall not be deemed mutually exclusive.
It should be noted that, depending on the context described herein, singular terms may include corresponding plural terms, and plural terms may include corresponding singular terms. The various drawings (including component views) shown and described herein are for illustrative purposes only and are not limited to scale. Similarly, various waveforms and timing diagrams are shown for illustrative purposes only. For example, some dimensions of an element may be emphasized more than others for clarity. Also, where appropriate, reference signs may be repeated in the drawings to refer to corresponding and/or similar elements.

本明細書で使用する用語は、いくつかの実施例を説明する目的のためのみであり、本発明の限定を意図しない。本明細書で使用するように、コンテキストから明らかに異なるものとされない限り、単数形は複数形もまた含むことを意味する。本明細書で使用される場合、「含む(comprise)」及び/又は「含む(comprising)」の用語は、言及する特色、整数、ステップ、動作、要素、及び/又は構成要素の存在を明示し、1つ以上の他の特色、整数、ステップ、動作、要素、構成要素、及び/又はこれらのグループの存在を排除しない。本明細書で使用するように、「第1」、「第2」などの用語は、これらが後に続く名詞に対するラベルに使用され、明らかにそのように定義されない場合、任意の形態の順序(例えば、空間的、時間的、論理的など)を示唆しない。また、同一の参照符号は、2つ以上の図面で使用されて同じ又は類似の機能を有する部品、構成要素、ブロック、回路、ユニット、又はモジュールを示すことがある。しかし、このような使用は、説明の単純化及び説明の容易さのためのみであり、このような構成要素、ユニットの構造、又は構造的詳細さが全ての実施例に亘って同一であるか、或いはこのような共通で参照される部品/モジュールが本明細書に記載された実施例の一部を具現する唯一の方法であることを示唆するものではない。 The terminology used herein is for the purpose of describing some embodiments only and is not intended as a limitation of the invention. As used herein, the singular term also includes the plural term, unless the context clearly dictates otherwise. As used herein, the terms "comprise" and/or "comprising" indicate the presence of the referenced feature, integer, step, act, element, and/or component. , one or more other features, integers, steps, acts, elements, components, and/or groups thereof. As used herein, terms such as "first", "second", etc. are used as labels for the nouns they follow and are not explicitly defined as such in any form of ordering (e.g. , spatial, temporal, logical, etc.). Also, the same reference numeral may be used in more than one drawing to indicate a part, component, block, circuit, unit, or module having the same or similar function. However, such use is for simplicity of explanation and ease of explanation only, and does not imply that the structure of such components, units, or structural details are the same across all embodiments. There is no suggestion that such commonly referenced components/modules are the only ways to implement some of the embodiments described herein.

要素又は階層が他の要素又は階層の上にあるか、接続されるか、又は結合されることで参照される場合、その要素又は階層は、他の要素又は階層の直ぐ上にあるか、直接連結されるか、又は直接結合されることがあり、また割り込み要素又は階層が存在することが理解される。逆に、要素が他の要素又は階層の直上にあるか、直接連結されるか、又は直接結合されることで参照される場合、割り込み要素又は階層が存在しない。類似の参照符号は、全体的に類似の要素を指す。本明細書で使用するように、「及び/又は」の用語は、関連して列挙する物品の1つ以上のものの任意且つ全ての組み合わせを含む。 When an element or hierarchy is referred to as being on top of, connected to, or combined with another element or hierarchy, that element or hierarchy is directly above or directly above another element or hierarchy. It is understood that they may be concatenated or directly coupled and that there are interrupting elements or hierarchies. Conversely, if an element is directly above, directly connected to, or referenced by being directly coupled to another element or hierarchy, there is no intervening element or hierarchy. Like reference numbers refer to similar elements throughout. As used herein, the term "and/or" includes any and all combinations of one or more of the associated listed items.

本明細書で使用するように、「第1」、「第2」などの用語は、これらが後に続く名詞に対するラベルに使用され、明らかにそのように定義しない場合、任意の形態の順序(例えば、空間的、時間的、論理的など)を示唆しない。また、2つ以上の図面に亘って使用する同一の参照符号は、同じ又は類似の機能を有する部品、構成要素、ブロック、回路、ユニット、又はモジュールを指す。しかし、このような使用は、説明の単純化及び説明の容易さのためのみであり、このような構成要素、ユニットの構造、又は構造的詳細さが全ての実施例に亘って同一であるか、或いはこのような共通に参照される部品/モジュールが本明細書に記述する実施例の一部を具現する唯一の方法であることを示唆するものではない。 As used herein, terms such as "first", "second", etc. are used as labels for the nouns that follow them, and when not explicitly defined as such, any form of ordering (e.g. , spatial, temporal, logical, etc.). Also, the use of the same reference numerals in two or more drawings refers to parts, components, blocks, circuits, units, or modules that have the same or similar functionality. However, such use is for simplicity of explanation and ease of explanation only, and does not imply that the structure of such components, units, or structural details are the same across all embodiments. , or that such commonly referenced components/modules are not the only ways to implement some of the embodiments described herein.

図面に示すように、「の(真)下に」、「より下に」、「下位の」、「の上に」、「上位の」などのような空間的に相対的な用語は、ここで1つの要素又は特色の異なる要素(複数の要素)又は特色(複数の特色)に対する関係を記述する説明の容易さのために使用される。空間的に相対的な用語は、図面で示す方向に加えて使用又は動作中のデバイスの他の方向を含むことを意図することが理解される。例えば、図面のデバイスを裏返した場合、他の要素又は特色の「より下に」又は「の下に」に説明する要素は、他の要素又は特色の「の上に」の方向であり得る。従って、「より下に」の用語は上下方向の両方を含む。デバイスが違う方向に向けられると(90度回転すると、又は他の方向に)、本明細書で使用する空間的に相対的な説明は、それに応じて解釈される。 As shown in the drawings, spatially relative terms such as "below", "below", "below", "above", "superior", etc. are used here. is used for ease of explanation to describe the relationship of one element or feature to another element(s) or feature(s). It is understood that spatially relative terms are intended to include other orientations of the device in use or operation in addition to the orientation shown in the drawings. For example, when the device in the drawings is turned over, elements described as "below" or "beneath" other elements or features may be oriented "above" other elements or features. Accordingly, the term "below" includes both upward and downward directions. If the device is oriented differently (rotated 90 degrees or in other directions), the spatially relative descriptions used herein will be interpreted accordingly.

異なった方法で定義しない場合、本明細書で使用する全ての用語(技術的及び科学的用語を含む)は、本発明の属する分野における通常の技術を有する者によって共通に理解されるものと同じ意味を有する。共通に使用される辞典で定義されたものと同じ用語は、関連分野のコンテキストにおいてそれらの意味と一致する意味を有するものと解釈されるべきであり、本明細書で明確にそのように定義されない場合、理想化されたり、過度に形式的に解釈されたりすべきではない。 Unless defined differently, all terms (including technical and scientific terms) used herein are the same as commonly understood by one of ordinary skill in the art to which this invention pertains. have meaning. The same terms as defined in a commonly used dictionary should be construed to have meanings consistent with their meaning in the context of the relevant field, and are not expressly defined as such herein. should not be idealized or overly formalized.

本明細書で使用するように、「モジュール」の用語は、モジュールに関連付けられて本明細書に記述する機能を提供するように構成されるソフトウェア、ファームウェア、及び/又はハードウェアの任意の組み合わせを指す。ソフトウェアは、ソフトウェアパッケージ、コード、及び/又はコマンドセット若しくはコマンドで搭載され、本明細書で記述する任意の具現で使用する「ハードウェア」の用語は、例えば単独又は任意の組み合わせでプログラム可能な回路によって実行されるコマンドを格納するハードウェアの内蔵されたハードワイアード(hardwired)回路、プログラム可能な回路、状態マシン回路、及び/又はファームウェアを含み得る。モジュールは、総括的に又は個別的に、例えばこれらに限定されないが、集積回路(IC)、システム・オン・チップ(SoC)などのより大規模なシステムの一部を形成する回路として搭載され得る。 As used herein, the term "module" refers to any combination of software, firmware, and/or hardware that is associated with the module and configured to provide the functionality described herein. Point. Software is implemented in software packages, code, and/or command sets or commands, and the term "hardware" as used in any implementation described herein includes, for example, programmable circuits, alone or in any combination. The hardware may include embedded hardwired circuitry, programmable circuitry, state machine circuitry, and/or firmware that stores commands executed by the hardware. Modules may be implemented collectively or individually as circuits forming part of a larger system, such as, but not limited to, an integrated circuit (IC), a system on a chip (SoC), etc. .

上述した3D技術は多くの問題点を有する。例えば、TOFベースの3Dイメージング(imaging)システムは、光学的又は電気的シャッターを動作させるために電力を必要とする。このようなシステムは、通常数メートルから数十メートルの範囲に亘って動作するが、このようなシステムの解像度は短い距離の測定において減少し、約1メートルの距離で3Dイメージを作ることは殆ど不可能である。従って、TOFシステムは、写真が殆ど近くの距離で撮影される携帯電話ベースのカメラアプリケーションに対しては好ましくない。TOFセンサは、また通常7μmよりも大きいピクセルサイズを有する特殊なピクセルを必要とする。このようなピクセルは、また周辺光に脆弱である。 The 3D technology described above has many problems. For example, TOF-based 3D imaging systems require power to operate optical or electrical shutters. Such systems typically operate over ranges of a few meters to tens of meters, but the resolution of such systems decreases in short distance measurements and it is rarely possible to create 3D images at distances of about 1 meter. It's impossible. Therefore, TOF systems are not preferred for mobile phone-based camera applications where photos are taken mostly at close range. TOF sensors also require special pixels with pixel sizes typically larger than 7 μm. Such pixels are also sensitive to ambient light.

ステレオスコピックイメージングの方法は、一般的にテクスチャード(textured)表面のみで動作する。これは特徴に整合してオブジェクトのステレオペアのイメージ間の対応性を探し出す必要によって高い演算の複雑度を有する。これは高いシステム電力を必要とし、スマートフォンのように省電力が必要なアプリケーションにおいて適切な特性ではない。また、ステレオイメージングは、2つのレンズと共に2つの常設の高ビット解像度のセンサを必要とするため、デバイスの所有地(デバイス空間)が重要視される携帯電話又はタブレットのようにポータブル機器のアプリケーションに対してアセンブリ全体が適合しない。 Stereoscopic imaging methods generally operate only on textured surfaces. This has high computational complexity due to the need to match features and find correspondences between images of stereo pairs of objects. This requires high system power and is not an appropriate characteristic for applications that require power savings, such as smartphones. Stereo imaging also requires two permanently mounted high-bit resolution sensors along with two lenses, making it suitable for applications on portable devices such as mobile phones or tablets where device real estate (device space) is at a premium. However, the entire assembly does not fit.

SLの方法は、距離の曖昧さを示し、高いシステム電力を必要とする。3Dデプスの測定に対して、SLの方法は多数のパターンを有する多数のイメージを必要とすることがある。これらの全ては、演算の複雑度及び消費電力を増加させる。なお、SLイメージングは、高ビット解像度を有する常設のイメージセンサを必要とする。従って、構造化された光ベースのシステムは、スマートフォンの低コスト、低消費電力、コンパクトイメージセンサに適さない可能性がある。 SL methods exhibit distance ambiguity and require high system power. For 3D depth measurements, SL methods may require multiple images with multiple patterns. All of these increase computational complexity and power consumption. Note that SL imaging requires a permanent image sensor with high bit resolution. Therefore, structured light-based systems may not be suitable for low-cost, low-power, compact image sensors in smartphones.

3D技術と対照的に、本明細書で記述するいくつかの実施例は、スマートフォン、タブレット、ユーザー装置(UE)のようなポータブル電子装置の低消費電力3Dイメージングシステムを具現することを提供する。本明細書で記述するいくつかの実施例による2Dイメージングセンサは、2D RGB(赤、緑、青)のイメージと可視光レーザースキャンで3Dデプスの測定をキャプチャーし、3Dデプスの測定中に周辺光を遮断することができる。次の技術で、ポイントスキャンのための光として可視光レーザーについて頻繁に言及し、イメージ/光キャプチャーデバイスとして2D RGBセンサについて頻繁に言及するが、このような言及は、説明の一貫性の目的のためのみである。以下で記述する可視光レーザーやRGBセンサベースの例は、スマートフォン、タブレット、ユーザー装置(UE)のようなカメラを有する低消費電力、消費者グレード(consumer-grade)モバイル電子装置でアプリケーションを見つけることができる。しかし、本発明は、以下で言及する可視光RGBセンサベースの例に限定されない。代わりに、本明細書に記載するいくつかの実施例によると、ポイントスキャンベースの3Dデプスの測定及び周辺光遮断方法は、これらに限定されないが、(i)レーザーソースが赤色光(R)、緑色光(G)、又は青光(B)のレーザー又はレーザーソースがこのような光の組み合わせを生成する可視光レーザーソースを備えた2Dカラー(RGB)センサ、(ii)赤外線(IR)遮断フィルタを有する2D RGBカラーセンサを備えた可視光レーザー、(iii)2D IRセンサを備えた近赤外線(NIR)レーザー、(iv)2D NIRセンサを備えたNIRレーザー、(v)2D RGBセンサ(IR遮断フィルタがない)を備えたNIRレーザー、(vi)2D RGBセンサ(NIR遮断フィルタがない)を備えたNIRレーザー、(vii)可視光又はNIRレーザーを備えた2D RGB-IRセンサ、(viii)可視光又はNIRレーザーを備えた2D RGBW(赤、緑、青、白)センサなどのような2Dセンサ及びレーザー光源(ポイントスキャンのため)の多数の異なる組み合わせを用いて遂行され得る。 In contrast to 3D technology, some embodiments described herein provide for implementing low power 3D imaging systems for portable electronic devices such as smartphones, tablets, and user equipment (UE). A 2D imaging sensor according to some embodiments described herein captures 3D depth measurements with 2D RGB (red, green, blue) images and visible light laser scans, and captures 3D depth measurements with a 2D RGB (red, green, blue) image and a visible light laser scan, and captures ambient light during 3D depth measurements. can be blocked. Although the following techniques frequently refer to visible light lasers as light for point scanning and frequently refer to 2D RGB sensors as image/light capture devices, such references are for purposes of descriptive consistency. It is only for the purpose. The visible-light laser and RGB sensor-based examples described below may find applications in low-power, consumer-grade mobile electronic devices with cameras such as smartphones, tablets, and user equipment (UE). I can do it. However, the invention is not limited to the visible light RGB sensor-based examples mentioned below. Alternatively, in accordance with some embodiments described herein, point scan-based 3D depth measurement and ambient light blocking methods include, but are not limited to, (i) the laser source is red light (R); a 2D color (RGB) sensor with a green light (G) or blue light (B) laser or a visible light laser source producing a combination of such light; (ii) an infrared (IR) blocking filter; (iii) a near-infrared (NIR) laser with a 2D IR sensor; (iv) a NIR laser with a 2D NIR sensor; (v) a 2D RGB sensor (with IR blocking); (vi) NIR laser with 2D RGB sensor (no NIR blocking filter), (vii) 2D RGB-IR sensor with visible light or NIR laser, (viii) visible It can be accomplished using a number of different combinations of 2D sensors and laser light sources (for point scanning), such as 2D RGBW (red, green, blue, white) sensors with optical or NIR lasers.

3Dデプスの測定のうち、全てのセンサはレーザースキャンに関連してバイナリセンサーとして動作して3Dコンテンツを再構成する。いくつかの実施例で、センサのピクセルサイズは1μmほど小さい可能性がある。なお、低ビット解像度のため、本明細書に記載するいくつかの実施例によるイメージセンサのアナログ/デジタル変換器(ADC)ユニットは、通常的な3Dイメージングシステムにおける高ビット分解能センサに必要なものよりも非常に少ない処理電力を必要とすることがある。低処理電力の必要によって、本発明による3Dイメージングモジュールは、低システム消費電力を必要とし、従ってスマートフォンのような低消費電力装置に含まれることに非常に適する。 For 3D depth measurements, all sensors operate as binary sensors in conjunction with laser scanning to reconstruct the 3D content. In some embodiments, the sensor pixel size can be as small as 1 μm. Note that due to the low bit resolution, the analog-to-digital converter (ADC) unit of the image sensor according to some embodiments described herein may be smaller than that required for a high bit resolution sensor in a typical 3D imaging system. may also require very little processing power. Due to the need for low processing power, the 3D imaging module according to the present invention requires low system power consumption and is therefore well suited for inclusion in low power consumption devices such as smartphones.

いくつかの実施例で、本発明は、ラインセンサのグループにより3Dデプスの測定のためのレーザー光源で三角測量及びポイントスキャンを使用する。レーザースキャン平面及びイメージング平面はエピポーラ線幾何(epipolar geometry)を用いて方向付けられる。本明細書に記載する一実施例によるイメージセンサは、タイムスタンプを用いて三角測量の方法の曖昧さを除去する。従ってデプス演算及びシステム電力の量を減らす。3Dレーザースキャンモードだけでなく、通常、2D(RGBカラー又は非RGB)イメージングモードで同一のイメージセンサ(即ち、イメージセンサの各ピクセル)が使用される。しかし、レーザースキャンモードで、イメージセンサのADCの解像度は、バイナリ出力(1ビット分解能)に減少する。従ってイメージセンサに関連付けられる処理ユニットを含むチップで読み出し速度が向上し、消費電力(例えば、ADCユニット内のスイッチングに起因する)が節減される。ポイントスキャン方法は、システムが一度に全ての測定をすることによって、デプスの測定のためのレイテンシを減らし、モーションブラー(被写体ぶれ)を減らす。 In some embodiments, the invention uses triangulation and point scanning with a laser light source for 3D depth measurement with a group of line sensors. The laser scanning plane and imaging plane are oriented using epipolar geometry. An image sensor according to one embodiment described herein uses time stamps to disambiguate the method of triangulation. Thus reducing the amount of depth computation and system power. The same image sensor (ie, each pixel of the image sensor) is typically used in 2D (RGB color or non-RGB) imaging mode, as well as in 3D laser scanning mode. However, in laser scanning mode, the resolution of the image sensor's ADC is reduced to a binary output (1 bit resolution). Readout speeds are thus increased and power consumption (e.g. due to switching within the ADC unit) is reduced in chips containing processing units associated with image sensors. The point scan method reduces latency for depth measurements and reduces motion blur by having the system take all measurements at once.

上述したように、いくつかの実施例で、全体のイメージセンサは、可視光レーザースキャンを用いた3Dデプスイメージだけではなく、例えば周辺光を用いた通常の2D RGBカラーイメージのためにも使用される。このような同じカメラユニットの二重使用は、モバイル装置の空間及びコストを節約することができる。特定のアプリケーションにおいて、3Dアプリケーションのための可視光レーザーは、近赤外線(NIR)レーザーと比較して、ユーザーの目の安全のためにより良い可能性がある。センサは、NIRスペクトルよりは可視スペクトルであり、より高い量子効率を有し、光源の低消費電力を引き出すことができる。一実施例で、二重使用のイメージセンサは、通常、2Dセンサとして2Dイメージングのための動作の線形モードで動作する。しかし、3Dイメージングのために、センサは、通常の光条件下では線形モードで動作し、強力な周辺光の下では対数(logarithmic)モードで動作し、強力な周辺光を遮断して可視レーザー光源の持続的な使用を可能にする。周辺光の遮断は、例えばRGBセンサに採用されたIR遮断フィルタの通過帯域の帯域幅が十分に広くない場合に、NIRレーザーでもまた必要になることがある。 As mentioned above, in some embodiments the entire image sensor is used not only for 3D depth imaging using visible light laser scanning, but also for regular 2D RGB color imaging using e.g. ambient light. Ru. Such dual use of the same camera unit can save space and cost of the mobile device. In certain applications, visible light lasers for 3D applications may be better for user eye safety compared to near-infrared (NIR) lasers. The sensor is in the visible spectrum rather than the NIR spectrum, has higher quantum efficiency, and can derive lower power consumption from the light source. In one example, the dual-use image sensor typically operates as a 2D sensor in a linear mode of operation for 2D imaging. However, for 3D imaging, the sensor operates in linear mode under normal light conditions and in logarithmic mode under strong ambient light, blocking strong ambient light and using visible laser light sources. enable sustainable use. Ambient light blocking may also be necessary in NIR lasers, for example if the passband bandwidth of the IR blocking filter employed in the RGB sensor is not wide enough.

要約すると、本明細書の記載は、ピクセルで多数の隣接するSPADからの出力によって制御される振幅変調(amplitude-modulated)の電荷転送(charge-transfer)動作を有する時間電荷変換(TCC:time-to-charge converter)としてピクセルで埋め込みフォトダイオード(PPD:pinned photodiode)を使用してTOFを決定する。周辺光が高い場合、SPADは反射された光子(例えば、反射された光パルス37内の)の代わりに周辺光子によってトリガーされる確率が高い。このようなトリガーに対する依存は、距離の測定エラーを誘発し得る。従って、本明細書の記載で、電子シャッターがオンである場合のように、2つ以上のSPADが非常に短く、予め定義された時間間隔にトリガーされた場合、PPD電荷転送は停止されてTOFのみが記録される。その結果、本明細書の記載の教示に従った全天候型自律走行システムは、例えば、低光、霧、悪天候、強力な周辺光などのような難しい走行条件で運転者に改善された視野を提供することができる。いくつかの実施例で、本明細書の記載の教示に従った走行システムは、100kLuxまでの高い周辺光を遮断することができる。いくつかの実施例で、より少ないピクセルサイズで高い空間解像度のピクセル構造がSPAD対PPDで1:1の比率として提供される。いくつかの実施例で、SPADはブレークダウン電圧(breakdown voltage)よりも低くバイアスされ、アバランシェフォトダイオード(APD:avalanche photodiode)モードで使用される。 In summary, the present description describes time-to-charge conversion (TCC) with amplitude-modulated charge-transfer operation controlled by outputs from multiple adjacent SPADs at a pixel. TOF is determined using a pinned photodiode (PPD) at the pixel as a to-charge converter. When ambient light is high, there is a high probability that SPAD will be triggered by ambient photons instead of reflected photons (eg, within reflected light pulse 37). Reliance on such triggers can induce distance measurement errors. Therefore, in the description herein, if two or more SPADs are triggered in a very short, predefined time interval, such as when the electronic shutter is on, PPD charge transfer is stopped and the TOF only are recorded. As a result, all-weather autonomous driving systems in accordance with the teachings described herein provide improved visibility to drivers in difficult driving conditions, such as low light, fog, adverse weather, strong ambient light, etc. can do. In some embodiments, a driving system according to the teachings described herein can block up to 100 kLux of high ambient light. In some embodiments, a smaller pixel size and higher spatial resolution pixel structure is provided as a 1:1 ratio of SPAD to PPD. In some embodiments, the SPAD is biased below a breakdown voltage and used in an avalanche photodiode (APD) mode.

図1は、イメージングシステム150の概略構成図であり、図2は、図1のイメージセンサシステムの動作の一例を説明するための構成図である。システム15は、プロセッサモジュール(又は単にプロセッサ)19又はホストに結合されて通信するイメージングモジュール17を含む。システム15は、またプロセッサモジュール19に結合されてイメージングモジュール17から受信されるイメージデータなどのコンテンツを格納するメモリモジュール(又は、単にメモリ)20を含む。いくつかの実施例で、システム全体は、単一の集積回路(IC)又はチップにカプセル化され得る。また、モジュール(17、19、20)のそれぞれは、分離されたチップで具現され得る。メモリモジュール20は、1つ以上のメモリチップを含み、プロセッサモジュール19は、また多数のプロセッシングチップを含み得る。図1のモジュールのパッケージの詳細、モジュールがどのように製造されるか又は具現されるかに対する詳細(シングルチップ、又は多数の分離されたチップ)は、本説明に関係しないため、このような詳細は本明細書で提供しない。 FIG. 1 is a schematic configuration diagram of an imaging system 150, and FIG. 2 is a configuration diagram for explaining an example of the operation of the image sensor system of FIG. 1. System 15 includes an imaging module 17 coupled to and in communication with a processor module (or simply processor) 19 or host. System 15 also includes a memory module (or simply memory) 20 coupled to processor module 19 for storing content such as image data received from imaging module 17 . In some examples, the entire system may be encapsulated in a single integrated circuit (IC) or chip. Additionally, each of the modules (17, 19, 20) may be implemented as a separate chip. Memory module 20 may include one or more memory chips, and processor module 19 may also include multiple processing chips. Details of the packaging of the module of FIG. 1, details of how the module is manufactured or implemented (single chip or multiple separated chips) are not relevant to this description, so such details are not included. are not provided herein.

システム15は、本発明による2D及び3Dカメラアプリケーションのために構成された任意の低消費電力の電子機器であり得る。システム15は、ポータブルであるか又はポータブルではない。システム15のポータブルバージョンの一部の例は、これらに限定されないが、モバイル装置、携帯電話、スマートフォン、ユーザー装置(UE)、タブレット、デジタルカメラ、ノートパソコン又はデスクトップコンピュータ、電子スマート時計、マシンツーマシン(M2M)通信ユニット、バーチャルリアリティ(VR)装置又はモジュール、ロボットなどのような一般的な消費者電子ツールを含む。一方、システム15のポータブルでないバージョンの一部の例は、ビデオアーケードのゲームコンソール、インタラクティブビデオ端末、自動車、マシン視野システム、産業ロボット、VR装置、自動車の運転者側の実装カメラ(例えば、運転者が居眠りしている否かをモニターする)などを含む。本明細書に記載する3Dイメージング機能は、これらに限定されないが、全天候自律走行、及び低光又は悪天候条件における運転者支援などの自動車アプリケーション、ヒューマンマシンインターフェース及びゲーミングアプリケーション、並びにマシンビジョン及びロボット工学アプリケーションのような多くのアプリケーションにおいて使用される得る。 System 15 may be any low power electronic device configured for 2D and 3D camera applications according to the present invention. System 15 may be portable or non-portable. Some examples of portable versions of system 15 include, but are not limited to, mobile devices, cell phones, smart phones, user equipment (UE), tablets, digital cameras, laptop or desktop computers, electronic smart watches, machine-to-machine (M2M) communication units, virtual reality (VR) devices or modules, robots, etc. On the other hand, some examples of non-portable versions of system 15 include video arcade game consoles, interactive video terminals, automobiles, machine viewing systems, industrial robots, VR devices, driver-side mounted cameras of automobiles (e.g., (monitoring whether the person is dozing off or not). The 3D imaging capabilities described herein are useful for automotive applications such as, but not limited to, all-weather autonomous driving and driver assistance in low-light or adverse weather conditions, human-machine interface and gaming applications, and machine vision and robotics applications. can be used in many applications such as

本明細書に記載するいくつかの実施例で、イメージングモジュール17は、プロジェクターモジュール(又は、光源モジュール22)及びイメージセンサユニット24を含む。プロジェクターモジュール22の光源は、例えば近赤外線(NIR:Near Infrared)、短波赤外線(SWIR:Short Wave Infrared)レーザーのような赤外線(IR)レーザーであり、照明が目に見えないようにする。他の実施例で、光源は可視光レーザーであり得る。イメージセンサユニット24は、図2に示すように、ピクセルアレイと補助処理回路とを含む。 In some embodiments described herein, imaging module 17 includes a projector module (or light source module 22) and an image sensor unit 24. The light source of the projector module 22 is an infrared (IR) laser, such as a Near Infrared (NIR), Short Wave Infrared (SWIR) laser, making the illumination invisible. In other embodiments, the light source can be a visible light laser. Image sensor unit 24 includes a pixel array and auxiliary processing circuitry, as shown in FIG.

一実施例で、プロセッサモジュール19は、汎用マイクロプロセッサである中央処理装置(CPU)である。本明細書で使用するように、「プロセッサ」及び「CPU」の用語は、代替して使用され得る。しかし、CPUの代わりに又はCPUに加えて、プロセッサモジュール19は、これらに限定されないが、マイクロコントローラ、デジタル信号プロセッサ(DSP)、グラフィックス処理装置(GPU)、特定用途向け集積回路(ASIC)プロセッサなどのような他の任意のタイプのプロセッサを含む。一実施例で、プロセッサモジュール19(又は、ホスト)は分散処理環境で動作する1つ以上のCPUを含む。プロセッサモジュール19は、コマンドを実行し、これらに限定されないが、RISC(Reduced Instruction Set Computer)命令セットアーキテクチャ(ISA:Instruction Set Architecture)に依存するx86命令セットアーキテクチャ(32ビット又は64ビットバージョン)やパワーPC(登録商標)ISA又はMIPS(Microprocessor without Interlocked Pipeline Stages)命令セットアーキテクチャのような特殊なISA:に基づいてデータを処理するように構成され得る。一実施例で、プロセッサモジュール19は、CPUの機能に追加的な機能を有するシステムオンチップ(SoC)である。 In one embodiment, processor module 19 is a central processing unit (CPU) that is a general purpose microprocessor. As used herein, the terms "processor" and "CPU" may be used interchangeably. However, instead of or in addition to a CPU, processor module 19 may include, but is not limited to, a microcontroller, a digital signal processor (DSP), a graphics processing unit (GPU), an application specific integrated circuit (ASIC) processor. Including any other type of processor such as. In one embodiment, processor module 19 (or host) includes one or more CPUs operating in a distributed processing environment. The processor module 19 executes commands and uses an x86 instruction set architecture (32-bit or 64-bit version) that relies on the Reduced Instruction Set Computer (RISC) It may be configured to process data based on a special ISA, such as a PC® ISA or a Microprocessor without Interlocked Pipeline Stages (MIPS) instruction set architecture. In one embodiment, processor module 19 is a system-on-chip (SoC) that has functionality additional to that of a CPU.

いくつかの実施例で、メモリモジュール20は、これらに限定されないが、同期式DRAM(SDRAM)、高帯域幅メモリ(HBM)モジュール、ハイブリッドメモリキューブ(HMC)メモリモジュールのようなDRAMベースの3次元スタック(3DS)メモリモジュールのようなダイナミックランダムアクセスメモリ(DRAM)であり得る。他の実施例で、メモリモジュール20は、ソリッドステートドライブ(SSD)、非3DS DRAMモジュール、これらに限定されないが、静的ランダムアクセスメモリ(SRAM)、相変化ランダムアクセスメモリ(PRAM又はPCRAM)、抵抗性ランダムアクセスメモリ(ReRAM)、導電性ブリッジRAM(CBRAM)、磁気RAM(MRAM)、又はスピントランスファートルクMRAM(STT-MRAM)のような他の任意の半導体ベースのストレージシステムであり得る。 In some embodiments, the memory module 20 is a DRAM-based three-dimensional memory module, such as, but not limited to, a synchronous dynamic random access memory (SDRAM), a high bandwidth memory (HBM) module, or a hybrid memory cube (HMC) memory module. It may be a dynamic random access memory (DRAM) such as a stacked (3DS) memory module. In other embodiments, the memory module 20 may include, but is not limited to, a solid state drive (SSD), a non-3DS DRAM module, a static random access memory (SRAM), a phase change random access memory (PRAM or PCRAM), a resistive It can be any other semiconductor-based storage system, such as random access memory (ReRAM), conductive bridge RAM (CBRAM), magnetic RAM (MRAM), or spin-transfer torque MRAM (STT-MRAM).

図2は、本発明による図1のイメージングシステム15の例示的な動作の構成を示す。システム15は、個々のオブジェクト又はシーン(図示せず)内のオブジェクトであるオブジェクト(又は、3Dオブジェクト)26のようなオブジェクトに対する距離又はデプス情報(Z-軸に沿って)を獲得するために使用される。システム15は、(ピクセルアレイの)イメージフレーム当たり単一のパルスが使用される直接のTOFイメージャー(imager)であり得る。いくつかの実施例で、多数の短いパルスがオブジェクト26に伝送され得る。一実施例で、距離/デプス情報は、イメージセンサユニット24から受信されるスキャンデータに基づいてプロセッサモジュール19によって判定される。他の実施例で、距離/デプス情報は、イメージセンサユニット24によって判定される。いくつかの実施例で、デプス情報は3Dユーザーインターフェースの一部としてプロセッサモジュール19によって使用され、システム15のユーザーがオブジェクトの3Dイメージとコミュニケーションするか、或いはオブジェクトの3Dイメージをシステム15で実行されているゲーム又は自律走行アプリケーションのような他のアプリケーションの一部として使用させることができる。本発明による3Dイメージングは、また他の目的又はアプリケーションのために使用され、実質的に任意のシーンや3Dオブジェクトにも適用され得る。 FIG. 2 shows an exemplary operational configuration of the imaging system 15 of FIG. 1 in accordance with the present invention. The system 15 is used to obtain distance or depth information (along the Z-axis) for an object, such as an object (or 3D object) 26, either an individual object or an object within a scene (not shown). be done. System 15 may be a direct TOF imager where a single pulse per image frame (of a pixel array) is used. In some embodiments, multiple short pulses may be transmitted to object 26. In one embodiment, distance/depth information is determined by processor module 19 based on scan data received from image sensor unit 24 . In other embodiments, the distance/depth information is determined by image sensor unit 24. In some embodiments, the depth information is used by processor module 19 as part of a 3D user interface to allow a user of system 15 to communicate with a 3D image of an object, or to display a 3D image of an object executed by system 15. It can be used as part of other applications, such as games or autonomous driving applications. 3D imaging according to the invention may also be used for other purposes or applications and applied to virtually any scene or 3D object.

図2において、X軸はシステム15の前面に沿った水平方向であり、Y軸は垂直方向であり(視野内のページの外側)、Z軸はシステム15からイメージになるオブジェクト26の一般的な方向に伸長される方向である。デプスの測定のために、光源モジュール22、イメージセンサユニット24の光軸がZ軸に平行する。他の光学配列が使用されて、本明細書に記述する原理を具現することができ、このような代替的な配列は、本発明の範囲内であると考えられる。 In FIG. 2, the X-axis is horizontal along the front surface of system 15, the Y-axis is vertical (outside the page in view), and the Z-axis is the general direction of the object 26 that will be imaged from system 15. This is the direction in which it is stretched. For depth measurement, the optical axes of the light source module 22 and image sensor unit 24 are parallel to the Z axis. Other optical arrangements may be used to implement the principles described herein, and such alternative arrangements are considered within the scope of the invention.

光学視野(FOV:Field of View)内でオブジェクト26をポイントスキャンするために使用される光ビーム又は光学的放射(optical radiation)の照明経路を示す対応する点線(30、31)に関連付けられた矢印(28、29)で示すように、プロジェクター(又は光源)モジュール22はオブジェクト26を照明する。オブジェクト表面のライン単位のポイントスキャンは、一実施例で、レーザーコントローラ34によって動作されて制御されるレーザー光源(又は、単にレーザー)33である光学的放射源を利用して遂行される。レーザー光源33からの光ビームは、レーザーコントローラ34の制御下で、投影装置のレンズ35を通してオブジェクト26の表面のX-Y方向にポイントスキャンされる。ポイントスキャンは、図4を参照してより詳細に説明するように、スキャンラインに沿ってオブジェクトの表面に光の点を投影する。投影装置のレンズ35は、レーザー光源33からのレーザービームをオブジェクト26の表面のポイント若しくは点に集中させる集中レンズ、ガラス/プラスチック表面、又は他の円筒形の光学要素であり得る。図2に示した実施例で、投影装置のレンズ35として凸構造を図示する。しかし、他の任意の適切なレンズが投影装置で選択され得る。オブジェクト26は、レーザー光源33からの照明光が投影装置のレンズ35によって光点に集中する集中位置に配置される。従って、ポイントスキャンで、オブジェクト26の表面のポイント又は狭いエリア/スポットは、投影装置のレンズ35から集中された光ビームによって順次に照明される。 Arrows associated with corresponding dotted lines (30, 31) indicating the illumination path of the light beam or optical radiation used to point-scan the object 26 within the field of view (FOV). As shown at (28, 29), the projector (or light source) module 22 illuminates the object 26. Line-by-line point scanning of the object surface is accomplished using an optical radiation source, which in one embodiment is a laser source (or simply a laser) 33 operated and controlled by a laser controller 34 . The light beam from the laser light source 33 is point-scanned in the XY direction on the surface of the object 26 through the lens 35 of the projection device under the control of the laser controller 34 . Point scanning projects points of light onto the surface of an object along a scan line, as described in more detail with reference to FIG. The lens 35 of the projection device may be a focusing lens, a glass/plastic surface, or other cylindrical optical element that focuses the laser beam from the laser light source 33 onto a point or points on the surface of the object 26. In the embodiment shown in FIG. 2, a convex structure is illustrated as the lens 35 of the projection device. However, any other suitable lens may be selected in the projection device. The object 26 is placed in a concentrated position where the illumination light from the laser light source 33 is focused into a light spot by the lens 35 of the projection device. Thus, in a point scan, points or narrow areas/spots on the surface of the object 26 are sequentially illuminated by a focused light beam from the lens 35 of the projection device.

いくつかの実施例で、レーザー光源33(又は照明ソース)は、可視光を発光するダイオードレーザー若しくは発光ダイオード(LED)、NIRレーザー、ポイント光源、可視光スペクトル内の単色の照明ソース(白色ランプ及び単色光器(monochromator)の組み合わせのような)、又は他の任意のタイプのレーザー光源であり得る。レーザー33は、システム15のハウジング内の1つの位置に固定されるが、X-Y方向に回転可能である。レーザー光源33は、X-Yアドレス指定可能であり(例えば、レーザーコントローラ34によって)、3Dオブジェクト26のポイントスキャンを遂行することができる。一実施例で、可視光は、実質的に緑色光であり得る。レーザー光源33からの可視光照明は鏡(図示せず)を利用して3Dオブジェクト26の表面に投影され、またポイントのスキャンは完全に鏡なしに遂行され得る。いくつかの実施例で、光源モジュール22は、図2に示した実施例よりも多いか又は少ない構成要素を含み得る。 In some embodiments, the laser light source 33 (or illumination source) may include a diode laser or light emitting diode (LED) that emits visible light, a NIR laser, a point light source, a monochromatic illumination source within the visible light spectrum (white lamps and (such as a combination of monochromators), or any other type of laser light source. Laser 33 is fixed in one position within the housing of system 15, but is rotatable in the XY directions. Laser light source 33 is XY addressable (eg, by laser controller 34) and can perform a point scan of 3D object 26. In one example, the visible light may be substantially green light. Visible light illumination from the laser light source 33 is projected onto the surface of the 3D object 26 using a mirror (not shown), and point scanning can be accomplished completely without a mirror. In some embodiments, light source module 22 may include more or fewer components than the embodiment illustrated in FIG.

図2の実施例で、オブジェクト26のポイントスキャンから反射された光は、矢印(36、37)及び点線(38、39)で示した収集経路に沿って移動する。光収集経路は、レーザー光源33からの光が受信されるにつれて、オブジェクト26の表面から反射又は散乱された光子を運ぶ。ここで、図2の(そしてまた、図4にも適用可能な)実線の矢印及び点線を用いた多様な伝送経路の表示は、説明の目的のみのためのものであり、実際にある光信号伝送経路を示するものと見なしてはならない。実際に、照明や収集信号経路は、図2に示したものと異なる場合があり、図2に示すように明確に定義されない可能性がある。 In the example of FIG. 2, the light reflected from the point scan of object 26 travels along the collection path shown by arrows (36, 37) and dotted lines (38, 39). The light collection path carries photons reflected or scattered from the surface of the object 26 as light from the laser light source 33 is received. Here, the representation of various transmission paths using solid arrows and dotted lines in FIG. 2 (and also applicable to FIG. 4) is for illustrative purposes only; It shall not be considered as indicating a transmission path. In fact, the illumination and collection signal paths may differ from those shown in FIG. 2 and may not be as clearly defined as shown in FIG.

照明したオブジェクト26から受信される光は、イメージセンサユニット24の収集装置のレンズ44を通して2Dピクセルアレイ(又は、単にピクセルアレイ)42のいずれか1つ以上のピクセルに集中する。投影装置のレンズ35と同様に、収集装置のレンズ44は、オブジェクト26から受信された反射光を2Dピクセルアレイ42内の1つ以上のピクセルに集中させる集中レンズ、ガラス/プラスチック表面、又は他の円筒形の光学要素である。図2に示した実施例で、収集装置のレンズ44として凸構造を示す。しかし、任意の他の適切なレンズのデザインが収集装置のレンズ44として選択され得る。図2で、ピクセルアレイ42は、単に3×3ピクセルアレイであるものとして図示されるが、最新のピクセルアレイは、数千個又は数百万個のピクセルを含むことが理解されるべきである。ピクセルアレイ42は、異なるピクセルが異なる色の光信号を収集するRGBピクセルアレイであり得る。いくつかの実施例で、ピクセルアレイ42は、これらに限定されないが、IR遮断フィルタを備えた2D RGBセンサ、2D IRセンサ、2D NIRセンサ、2D RGBWセンサ、又は2D RGB-IRセンサのような任意の2Dセンサであり得る。システム15は、オブジェクト26の2D RGBカラーイメージングだけでなく、オブジェクト26の3Dイメージング(デプスの測定を含む)のために、同じピクセルアレイ42を使用することができる。 Light received from the illuminated object 26 is focused through a collector lens 44 of the image sensor unit 24 onto any one or more pixels of a 2D pixel array (or simply pixel array) 42 . Similar to the projection device lens 35, the collection device lens 44 may be a concentrating lens, glass/plastic surface, or other material that focuses the reflected light received from the object 26 onto one or more pixels within the 2D pixel array 42. It is a cylindrical optical element. In the embodiment shown in FIG. 2, a convex structure is shown as the lens 44 of the collecting device. However, any other suitable lens design may be selected as the collection device lens 44. Although pixel array 42 is illustrated in FIG. 2 as simply being a 3x3 pixel array, it should be understood that modern pixel arrays include thousands or even millions of pixels. . Pixel array 42 may be an RGB pixel array where different pixels collect light signals of different colors. In some embodiments, pixel array 42 may include any sensor, such as, but not limited to, a 2D RGB sensor with an IR blocking filter, a 2D IR sensor, a 2D NIR sensor, a 2D RGBW sensor, or a 2D RGB-IR sensor. 2D sensor. System 15 may use the same pixel array 42 for 3D imaging (including depth measurements) of object 26 as well as 2D RGB color imaging of object 26.

ピクセルアレイ42は受信された光子を対応する電気信号に変換し、電気信号はその後に関連付けられるピクセル処理ユニット46によって処理され、オブジェクト26の3Dデプスイメージが判定される。一実施例で、ピクセル処理ユニット46は、デプスの測定のための三角測量を利用する。三角測量の方法は、図4を参照して後述する。ピクセル処理ユニット46は、ピクセルアレイ42の動作を制御するための回路を含む。 Pixel array 42 converts the received photons into corresponding electrical signals, which are subsequently processed by associated pixel processing unit 46 to determine a 3D depth image of object 26. In one embodiment, pixel processing unit 46 utilizes triangulation for depth measurements. The method of triangulation will be described later with reference to FIG. Pixel processing unit 46 includes circuitry for controlling operation of pixel array 42.

プロセッサ19は、光源モジュール22及びイメージセンサユニット24の動作を制御する。例えば、システム15は、2Dイメージングモードを3Dイメージングモードに切り替えるように、ユーザーによって制御可能なモードスイッチ(図示せず)を有することができる。ユーザーがモードスイッチを利用して2Dイメージングモードを選択すると、プロセッサ19はイメージセンサユニット24を活性化することができるが、2Dイメージングモードは、周辺光を使用するため、光源モジュール22を活性化できないこともある。一方、ユーザーがモードスイッチを利用して3Dイメージングモードを選択すると、プロセッサ19は、光源モジュール22及びイメージセンサユニット24の両方を活性化し、またピクセル処理ユニット46でリセット(RST)信号のレベルの変化をトリガーする。例えば周辺光が強すぎて線形モードが拒否されると、(以下で、更に記述するように)、プロセッサ19は、線形モードから対数モードに変更することができる。ピクセル処理ユニット46から受信される処理されたイメージデータは、プロセッサ19によってメモリ20に格納される。プロセッサ19は、またユーザーによって選択された2D又は3Dイメージをシステム15のディスプレイスクリーン(図示せず)に表示することができる。プロセッサ19は、ソフトウェア又はファームウェアでプログラムされて、本明細書に記述する様々な処理タスクを行うことができる。代わりに又はそれに加えて、プロセッサ19は、プロセッサ19の機能の一部又は全部を遂行するためのプログラム可能なハードウェア論理回路を含み得る。いくつかの実施例で、メモリ20は、プロセッサ19にプロセッサ19の機能を提供するプログラムコード、検索表、及び/又は中間演算結果を格納する。 The processor 19 controls the operation of the light source module 22 and the image sensor unit 24. For example, system 15 can have a mode switch (not shown) controllable by the user to switch from 2D imaging mode to 3D imaging mode. When the user selects the 2D imaging mode using the mode switch, the processor 19 can activate the image sensor unit 24, but cannot activate the light source module 22 because the 2D imaging mode uses ambient light. Sometimes. On the other hand, when the user selects the 3D imaging mode using the mode switch, the processor 19 activates both the light source module 22 and the image sensor unit 24, and also changes the level of the reset (RST) signal in the pixel processing unit 46. trigger. For example, if the ambient light is too strong and linear mode is rejected (as described further below), processor 19 can change from linear mode to logarithmic mode. Processed image data received from pixel processing unit 46 is stored in memory 20 by processor 19 . Processor 19 may also display 2D or 3D images selected by the user on a display screen (not shown) of system 15. Processor 19 can be programmed with software or firmware to perform various processing tasks described herein. Alternatively or in addition, processor 19 may include programmable hardware logic to perform some or all of the functions of processor 19. In some embodiments, memory 20 stores program code, lookup tables, and/or intermediate operation results that provide processor 19 with the functionality of processor 19 .

図3は、3Dデプスの測定がどのように遂行されるかの一例を示すフローチャート50である。図3に示した様々な動作は、システム15内の単一のモジュール、複数のモジュール、又はシステムの構成要素の組み合わせによって遂行され得る。特定のタスクは、例示的にのみ、特定のモジュール又はシステムの構成要素によって遂行されるものとして記述する。他のモジュール又はシステムの構成要素が、このようなタスクを遂行するように適切に構成される。 FIG. 3 is a flowchart 50 illustrating an example of how 3D depth measurements are performed. The various operations illustrated in FIG. 3 may be performed by a single module within system 15, multiple modules, or a combination of system components. Specific tasks are described, by way of example only, as being performed by specific modules or components of the system. Other modules or system components are suitably configured to perform such tasks.

図3において、ステップ52で、システム15(より詳細には、プロセッサモジュール19)は、光源モジュール22のような光源を利用し、スキャンラインに沿って図2のオブジェクト26のような3Dオブジェクトの1次元(1D)ポイントスキャンを遂行する。ポイントスキャンの一部として、光源モジュール22は、例えばプロセッサ19により線単位の方法で3Dオブジェクト26の表面に一連の光点を投影するように構成される。ステップ54で、システム15のピクセル処理ユニット46は、2Dピクセルアレイ42のようなイメージセンサのピクセルの行を選択する。2Dピクセルアレイ42は、メージ平面を形成する2Dアレイ内に配列された複数のピクセルを含み、ピクセルの選択された行はイメージ平面上のスキャニングライン(ステップ52で)のエピポーラ線(epipolar line)を形成する。エピポーラ線幾何の簡単な説明を、図4を参照して提供する。ステップ56で、ピクセル処理ユニット46は、ピクセルの行の対応するピクセルを利用して各光点を検出するようにプロセッサ19によって協調的に構成される。照明光の点から反射された光は、照明点から反射された光が収集装置のレンズ44により2つ以上の隣接するピクセルに集中するのと同様に、単一のピクセル又は1つ以上のピクセルによって検出されることに留意しなければならない。2つ以上の光点から反射された光は、また2Dピクセルアレイ42内の単一のピクセルで収集される。タイムスタンプベースの方法は、2つの異なる点が同じピクセルによってイメージされるか、又は単一の点が2つの異なるピクセルによってイメージされることに起因するデプスの計算に関連する曖昧さを除去するために使用される。ステップ58で、ピクセル処理ユニット46(プロセッサ19によって適切に構成されるにつれて)は、一連の光点(ステップ52のポイントスキャンの)の対応する光点のピクセル特定の検出(ステップ56で)に応答して、ピクセル特定の出力を生成する。その結果、ステップ60で、ピクセル処理ユニット46は、少なくともピクセル特定の出力(ステップ58で)及び対応する光点(ステップ52で)を投影するために、光源によって使用されたスキャン角に基づいて3Dオブジェクトの表面の対応する光点の3D距離(又はデプス)を判定する。デプスの特定は、図4を参照してより詳細に説明する。 3, at step 52, system 15 (more specifically, processor module 19) utilizes a light source, such as light source module 22, to scan a 3D object, such as object 26 of FIG. 2, along a scan line. Perform a dimensional (1D) point scan. As part of a point scan, the light source module 22 is configured to project a series of light points onto the surface of the 3D object 26 in a line-by-line manner, for example by the processor 19. At step 54, pixel processing unit 46 of system 15 selects a row of pixels of an image sensor, such as 2D pixel array 42. 2D pixel array 42 includes a plurality of pixels arranged in a 2D array forming an image plane, with selected rows of pixels forming epipolar lines of the scanning line (at step 52) on the image plane. Form. A brief explanation of epipolar line geometry is provided with reference to FIG. At step 56, pixel processing unit 46 is cooperatively configured by processor 19 to detect each light spot utilizing a corresponding pixel in the row of pixels. The light reflected from a point of illumination light is concentrated into a single pixel or one or more adjacent pixels in the same way that the light reflected from a point of illumination is focused by the lens 44 of the collection device onto two or more adjacent pixels. It must be noted that this is detected by Light reflected from more than one light spot is also collected at a single pixel within the 2D pixel array 42. Timestamp-based methods eliminate ambiguities associated with depth calculations due to two different points being imaged by the same pixel or a single point being imaged by two different pixels. used for. At step 58, pixel processing unit 46 (as suitably configured by processor 19) is responsive to pixel-specific detection (at step 56) of a corresponding light spot of the series of light spots (of the point scan of step 52). to produce pixel-specific output. Consequently, in step 60, the pixel processing unit 46 performs a 3D process based on the scan angle used by the light source to project at least a pixel-specific output (in step 58) and a corresponding light spot (in step 52). Determine the 3D distance (or depth) of the corresponding light spot on the surface of the object. Depth identification will be explained in more detail with reference to FIG. 4.

図4は、3Dデプスの測定のためにポイントのスキャンがどのように遂行されるかの一例を説明するための図である。図4に、レーザー光源33のXY回転能力を、X方向(角度βを有する)及びY方向(角度αを有する)でレーザーの角運動を示す矢印(62、64)によって示す。一実施例で、レーザーコントローラ34は、プロセッサ19から受信されたスキャンコマンド/入力に基づいてレーザー光源33のXY回転を制御する。例えば、ユーザーが3Dイメージモードを選択すると、プロセッサ19は、レーザーコントローラ34が投影装置のレンズ35に対向するオブジェクトの表面の3Dデプスの測定を開始するように構成・制御する。それに応答して、レーザーコントローラ34は、レーザー光源33のXY移動を通じて、オブジェクト表面の1D XYポイントのスキャンを開始する。図4に示したように、レーザー33は、1Dスキャニングラインに沿って光点を投影することにより、オブジェクト26の表面をポイントスキャンする。2つのスキャニングライン(S66及びSR+168)を図4に点線で示す。オブジェクト26の表面の曲がりのため、光点70~73は、図4でスキャンニングラインS66を形成する。スキャンニングラインSR+168を形成する光点は参照符号で示していない。レーザー33は、例えば行(R、R+1)に沿って左側から右側方向に一度に1つのスポットずつオブジェクト26をスキャンする。行(R、R+1)の値は、2Dピクセルアレイ42のピクセルの行を参照して知ることができる。例えば、図4の2Dピクセルアレイ42で、ピクセルの行(R)を参照番号「75」を用いて示し、行(R+1)を参照番号「76」を用いて示す。行(R、R+1)は、説明の目的のみのために複数の行から選択されることが理解される。 FIG. 4 is a diagram illustrating an example of how points are scanned to measure 3D depth. The XY rotational capability of the laser source 33 is illustrated in FIG. 4 by arrows (62, 64) indicating the angular movement of the laser in the X direction (with angle β) and the Y direction (with angle α). In one embodiment, laser controller 34 controls the XY rotation of laser light source 33 based on scan commands/inputs received from processor 19. For example, when a user selects a 3D image mode, processor 19 configures and controls laser controller 34 to begin measuring the 3D depth of the surface of the object facing lens 35 of the projection device. In response, laser controller 34 begins scanning 1D XY points on the object surface through XY movement of laser light source 33 . As shown in FIG. 4, the laser 33 point-scans the surface of the object 26 by projecting a light spot along a 1D scanning line. Two scanning lines (S R 66 and S R+1 68) are shown in dotted lines in FIG. Due to the curvature of the surface of the object 26, the light spots 70-73 form a scanning line S R 66 in FIG. The light spot forming the scanning line S R+1 68 is not indicated by reference numerals. The laser 33 scans the object 26 one spot at a time from left to right along the row (R, R+1), for example. The value of row (R, R+1) can be found by reference to the row of pixels of the 2D pixel array 42. For example, in the 2D pixel array 42 of FIG. 4, a row (R) of pixels is designated using the reference number "75" and a row (R+1) is designated using the reference number "76." It is understood that row (R, R+1) is selected from the plurality of rows for illustrative purposes only.

2Dピクセルアレイ42のピクセルの行を含む平面はイメージ平面と呼ばれ、ライン(S、SR+1)のようなスキャンラインを含む平面はスキャン平面と呼ばれる。図4に示した実施例で、イメージ平面及びスキャン平面は、2Dピクセルアレイ42で、各行(R、R+1)が対応するスキャンライン(S、SR+1)のエピポーラ線を形成するようにエピポーラ線幾何を用いて方向付けられる。イメージ平面上の照明スポットの投影(スキャンラインで)が行(R)に沿って明瞭なスポットを形成する場合、ピクセルの行(R)は、スキャンラインに対応するエピポーラ線と見なされる。例えば、図4において、矢印68は、レーザー光源33による光点71の照明を示し、矢印80は、光点71が収集装置のレンズ44によって行(R)に沿ってイメージ化や投影されることを示す。図4に示していないが、光点(70~73)の全ては、行(R)の対応するピクセルでイメージ化されるはずである。従って、一実施例で、位置及び方向のようなレーザー光源33とピクセルアレイ42の物理的な配列はオブジェクト26の表面のスキャンラインの照明された光点がピクセルアレイ42の対応する行のピクセルによってキャプチャー又は検出され、ピクセルの該当する行はスキャンラインのエピポーラ線を形成する。 The plane containing the rows of pixels of the 2D pixel array 42 is called the image plane, and the plane containing the scan lines, such as lines (S R , S R+1 ), is called the scan plane. In the embodiment shown in FIG. 4, the image plane and the scan plane are epipolar lines such that each row (R, R+1) forms an epipolar line of a corresponding scan line (S R , S R+1 ) in the 2D pixel array 42. Oriented using geometry. If the projection of the illumination spot on the image plane (at the scan line) forms a clear spot along the row (R), then the row (R) of pixels is considered to be an epipolar line corresponding to the scan line. For example, in FIG. 4, arrow 68 indicates the illumination of light spot 71 by laser light source 33, and arrow 80 indicates that light spot 71 is imaged or projected along a row (R) by lens 44 of the collection device. shows. Although not shown in FIG. 4, all of the light spots (70-73) would be imaged with corresponding pixels in row (R). Thus, in one embodiment, the physical arrangement of the laser light source 33 and the pixel array 42, such as the position and direction, is such that the illuminated light spot of a scan line on the surface of the object 26 is determined by the pixels of the corresponding row of the pixel array 42. The relevant row of pixels that are captured or detected form the epipolar line of the scan line.

2Dピクセルアレイ42のピクセルは、行及び列に配列される。照明された光点は、ピクセルアレイ42の対応する行及び列によって参照される。例えば、図4において、スキャンライン(S)の光点71はXR,iに指定され、光点71がピクセルアレイ42の行R及び列i(C)によってイメージされることを示す。列(C)は点線82で示される。他の照明されたスポットは、同様に識別される。上述したように、2つ以上の光の点から反射された光は行内の単一のピクセルによって受信されるか、或いは単一の光点から反射された光はピクセルの行の1つ以上のピクセルによって受信される。タイムスタンプベースの方法は、このような多重又は重複投影から発生するデプスの計算の曖昧さを除去するために使用され得る。 The pixels of 2D pixel array 42 are arranged in rows and columns. Illuminated light spots are referenced by corresponding rows and columns of pixel array 42. For example, in FIG. 4, light spot 71 of scan line (S R ) is designated as X R,i , indicating that light spot 71 is imaged by row R and column i (C i ) of pixel array 42 . Column (C i ) is indicated by a dotted line 82 . Other illuminated spots are similarly identified. As mentioned above, light reflected from two or more points of light is received by a single pixel in a row, or light reflected from a single point of light is received by one or more of a row of pixels. received by the pixel. Timestamp-based methods can be used to remove ambiguities in depth calculations arising from such multiple or overlapping projections.

図4において、参照番号「84」を有する矢印は、システム15の前面に沿って、図2に示したX軸のようなX軸から光点71のデプスや距離Z(Z-軸に沿う)を示す。図4において、参照番号「86」を有する点線は、投影装置のレンズ35及び収集装置のレンズ44もまた含む垂直平面に含まれるものとして視覚化される軸を示す。しかし、三角測量ベースの説明をし易くするために、図4のレーザー光源33を、投影装置のレンズ35の代わりにX軸86に存在するのもので示す。三角測量ベースの方法で、Zの値は次の数学式1を用いて判定される。 In FIG. 4, the arrow with the reference number "84" indicates the depth or distance Z (along the Z-axis) of the light spot 71 from the X-axis, such as the X-axis shown in FIG. 2, along the front surface of the system 15. shows. In FIG. 4, the dotted line with the reference number "86" indicates an axis that is visualized as being contained in a vertical plane that also includes the lens 35 of the projection device and the lens 44 of the collection device. However, to facilitate the triangulation-based explanation, the laser light source 33 in FIG. 4 is shown as being at the X-axis 86 instead of the projection device lens 35. In a triangulation-based method, the value of Z is determined using Equation 1 below.

Figure 0007401986000001
Figure 0007401986000001

数学式1において、「h」は、収集装置のレンズ44とピクセルアレイ42との間のZ-軸に沿った距離であり、収集装置のレンズ44の後面の垂直平面にあるものとみなされる。「d」は、イメージセンサユニット24に関連付けられたレーザー光源33と収集装置のレンズ44との間のオフセット距離である。「q」は、収集装置のレンズ44に対応する光点を検出したピクセル(図4の例で、検出/イメージングピクセル(i)を、光点(XR,i)71に関連付けられた列(C)で示す)との間のオフセット距離を示す。「θ」は、関連付けられた光点(図4の例で、光点71)に対する光源のスキャン角度又はビーム角度である。代案的に、「q」は、またピクセルアレイ42の視野内の光点のオフセットであると考えられる。数学式1のパラメータを、また図4に示す。 In Equation 1, "h" is the distance along the Z-axis between the collector lens 44 and the pixel array 42, considered to be in the vertical plane of the back surface of the collector lens 44. "d" is the offset distance between the laser light source 33 associated with the image sensor unit 24 and the collection device lens 44. "q" denotes the pixel that detected the light spot corresponding to the lens 44 of the collection device (in the example of FIG. 4, detecting/imaging pixel ( i )) in the column ( C i )). "θ" is the scan angle or beam angle of the light source with respect to the associated light spot (light spot 71 in the example of FIG. 4). Alternatively, "q" can also be considered to be the offset of the light spot within the field of view of the pixel array 42. The parameters of Equation 1 are also shown in FIG.

数学式1から、パラメータ(θ、q)のみが与えられたポイントのスキャンに対する変数であるh及びdは、システム15の物理的な幾何学的情報に基づいて、原則として予め定められるか又は固定されることが見られる。行(R)75がスキャンライン(SR)のエピポーラ線であるため、オブジェクト26のデプスの差異やデプスプロファイルはイメージ化される、異なる光点についてqの値として示されるように、水平方向にイメージの移動が反映される。タイムスタンプベースの方法は、キャプチャーされた光点のピクセル位置とレーザー光源33の対応するスキャン角との間の対応性を見つけることに使用される。即ち、タイムスタンプは、qとθの値との間の関係を示すことができる。従って、スキャン角(θ)の知られた値とイメージ化された光点(qに示すように)の対応する位置から、光点への距離Zは数学式1の三角測量を利用して判定することができる。距離測定のための三角測量は、また例えばブラウンなど(Brown et al.)によって出願された米国特許出願公開公報第2011/0102763A1号を含む関連文献に記述される。従って、三角測量ベースの距離測定に関連付けられるブラウンの公開文書の記載は、全体的に本明細書に参照として含まれる。 From Equation 1, the variables h and d for scanning a point with only parameters (θ, q) given are in principle predetermined or fixed based on the physical geometric information of the system 15. I can see what will happen. Since the row (R) 75 is an epipolar line of the scan line (SR), the depth difference or depth profile of the object 26 is imaged, horizontally as shown as the value of q for different light points. The movement of is reflected. A timestamp-based method is used to find the correspondence between the pixel position of the captured light spot and the corresponding scan angle of the laser light source 33. That is, the timestamp can indicate the relationship between the values of q and θ. Therefore, from a known value of the scan angle (θ) and the corresponding position of the imaged light spot (as shown in q), the distance Z to the light spot can be determined using triangulation in Equation 1. can do. Triangulation for distance measurement is also described in related literature, including, for example, US Patent Application Publication No. 2011/0102763A1 filed by Brown et al. Accordingly, the descriptions of Brown's published documents relating to triangulation-based distance measurements are incorporated herein by reference in their entirety.

図5は、図2のピクセルアレイ42のピクセル43のようなピクセルの一例を示すブロック図である。TOF測定のために、ピクセル43は、時間分解センサとして動作することができる。図5に示したように、ピクセル43は、PPDコア部分(又は、単にPPDコア)502に電気的に連結されるSPADコア部分(又は、単にSPADコア)501を含む。本明細書に記載したように、ピクセル内のSPAD及びPPDコア配列の他の例示的な構成を図6a~図6cに示す。SPADコア部分501は、第1制御回路504に協調的に連結される2つ以上のSPAD503を含む。1つ以上のSPAD503は入射光505を受信して対応するSPAD特定の電気信号を生成し、SPAD特定の電気信号は第1制御回路504によって処理されてSPAD特定のデジタル出力を生成する。このようなSPAD特定のデジタル出力の全てを、図5の矢印506で統合的且つ記号的に示す。PPDコア502は、PPD508に結合される第2制御回路507を含む。第2制御回路507は、SPAD出力506を受信し、SPAD出力506に応答してPPD508からの電荷転送を制御してピクセル特定のアナログ出力信号(又は、単にピクセル出力)(PIXOUT510)を生成する。より具体的には、以下でより詳細に説明するように、ピクセル43内の2つ以上の隣接する多数のSPAD503が予め定められた時間間隔内で入射光505から(反射された)光子を検出したときにのみ、PPD508からの電荷の転送が第2制御回路507によって停止され、TOF値と3Dオブジェクト26に対する対応する距離を記録させる。言い換えると、少なくとも2つの隣接するSPAD503の出力間の空間的/時間的相関がPPD508の動作を制御するために使用される。ピクセル43に対して、光感知機能はSPAD503によって行われ、PPD508は光感知要素の代わりにTCCに使用される。反射された光子(反射された光パルス37の)は、伝送された光パルス28に相関し(相関しない周辺光と比較して)、PPD508からの電荷転送の制御が予め定められた時間間隔内で2つ以上の隣接するSPADのトリガーに基づいており、周辺光子を排除することによって強い周辺光の状況でイメージセンサユニット24の改善された性能を提供する。従って実質的に距離測定エラーを防止することができる。 FIG. 5 is a block diagram illustrating an example of a pixel, such as pixel 43 of pixel array 42 of FIG. For TOF measurements, pixel 43 can operate as a time-resolved sensor. As shown in FIG. 5, pixel 43 includes a SPAD core portion (or simply SPAD core) 501 that is electrically coupled to a PPD core portion (or simply PPD core) 502. As shown in FIG. Other exemplary configurations of SPAD and PPD core arrays within a pixel, as described herein, are shown in FIGS. 6a-6c. SPAD core portion 501 includes two or more SPADs 503 that are cooperatively coupled to a first control circuit 504 . One or more SPADs 503 receive incident light 505 and generate corresponding SPAD-specific electrical signals, which are processed by a first control circuit 504 to generate SPAD-specific digital outputs. All such SPAD-specific digital outputs are collectively and symbolically indicated by arrow 506 in FIG. PPD core 502 includes a second control circuit 507 coupled to PPD 508 . A second control circuit 507 receives the SPAD output 506 and controls charge transfer from the PPD 508 in response to the SPAD output 506 to generate a pixel specific analog output signal (or simply pixel output) (PIXOUT 510). More specifically, as described in more detail below, two or more adjacent SPADs 503 within pixel 43 detect photons (reflected) from incident light 505 within a predetermined time interval. Only then is the transfer of charge from the PPD 508 stopped by the second control circuit 507, causing the TOF value and the corresponding distance to the 3D object 26 to be recorded. In other words, the spatial/temporal correlation between the outputs of at least two adjacent SPADs 503 is used to control the operation of the PPD 508. For pixel 43, the light sensing function is performed by SPAD 503 and PPD 508 is used for TCC instead of the light sensing element. The reflected photons (of reflected light pulse 37) are correlated to the transmitted light pulse 28 (compared to uncorrelated ambient light) and control of charge transfer from PPD 508 occurs within a predetermined time interval. and provides improved performance of the image sensor unit 24 in strong ambient light situations by eliminating ambient photons. Therefore, distance measurement errors can be substantially prevented.

図6a~図6cは、ピクセルアレイ構造の3つの異なる例をそれぞれ示す図である。図6a~図6cに示したピクセルアレイ構造のいずれも、図2のピクセルアレイ42を具現するために使用され得る。図6aにおいて、例示的な2×2ピクセルアレイ構造600Aを示し、各ピクセル(601~604)(一部の実施例で、図5のピクセル43を示す)は、1つのピクセル特定のPPDコア及び4つのピクセル特定のSPADコアを含む。単純化のために、PPD及びSPADコアはピクセル601についてのみ識別され、PPDコアを参照番号「605」で示し、SPADコアを参照番号「606~609」で示す。 Figures 6a-6c are diagrams showing three different examples of pixel array structures, respectively. Any of the pixel array structures shown in FIGS. 6a-6c may be used to implement pixel array 42 of FIG. 2. In FIG. 6a, an exemplary 2×2 pixel array structure 600A is shown, where each pixel (601-604) (in some embodiments, pixel 43 of FIG. 5 is shown) has one pixel-specific PPD core and Contains four pixel specific SPAD cores. For simplicity, the PPD and SPAD cores are identified only for pixel 601, with the PPD core designated by the reference number "605" and the SPAD cores designated by the reference numbers "606-609."

図6aに示した構造600Aは、与えられたサイズの半導体ダイの各ピクセルによって占有される物理的空間のために、低(空間的)解像度構造とされる。その結果、3×3ピクセルアレイ構造のより高い解像度を提供する図6bの例示的な構造600Bと比較して、比較的に少ない数のピクセルがダイのピクセルアレイに形成される。図6bのより高い解像度構造600Bで、1つのSPADコアは4つ(2×2)の隣接するPPDコアによって共有される。例えば、図6bにおいて、SPADコア625は、隣接するピクセル(621~624)(一部の実施例で、これらのそれぞれは、図5のピクセル43を示す)のPPDコアにより共有されるものとして示される。単純化のために、図6bのピクセルアレイ構造600Bの他の構成要素は参照番号で識別されていない。1つのSPADが、4つの隣接するピクセルの間に共有される図6bのピクセルアレイ構造600Bの構成は、ピクセル内のPPDとピクセルに関連するSPADとの間に1:1の効率的な比率を提供する。 The structure 600A shown in FIG. 6a is a low (spatial) resolution structure due to the physical space occupied by each pixel of a semiconductor die of a given size. As a result, relatively fewer pixels are formed in the die's pixel array compared to the exemplary structure 600B of FIG. 6b, which provides the higher resolution of a 3×3 pixel array structure. In the higher resolution structure 600B of FIG. 6b, one SPAD core is shared by four (2×2) neighboring PPD cores. For example, in FIG. 6b, SPAD core 625 is shown as being shared by PPD cores of adjacent pixels (621-624) (in some implementations, each of these is shown as pixel 43 in FIG. 5). It will be done. For simplicity, other components of pixel array structure 600B in FIG. 6b are not identified with reference numbers. The configuration of pixel array structure 600B of FIG. 6b, in which one SPAD is shared between four adjacent pixels, provides an efficient 1:1 ratio between the PPD within a pixel and the SPAD associated with the pixel. provide.

このような共有は、図6cのピクセルアレイ構造600Cによって示されるように、3×3の共有又はそれより多くに拡張される。各SPADがダイの隣接するピクセルで共有されると、ピクセルアレイに、より多くのピクセルが形成されるため、図6bに示したSPAD共有構成は、ピクセルアレイに対する高い(空間)解像度の構造を提供する。従ってダイのより多くの空間がより多くのピクセルを収容することができる。なお、図6bのピクセルアレイ構造600Bのピクセルが、2×2構成で4つのSPADコアに関連付けられた単一のPPDコアを有するため、4つまでの一致する光子が各ピクセルにより検出(即ち、SPAD当たり1つの光子)される。 Such sharing extends to 3x3 sharing or more, as shown by pixel array structure 600C in Figure 6c. The SPAD sharing configuration shown in Figure 6b provides a high (spatial) resolution structure for the pixel array, since more pixels are formed in the pixel array when each SPAD is shared by adjacent pixels of the die. do. Therefore more space on the die can accommodate more pixels. Note that because the pixels of pixel array structure 600B of FIG. 6b have a single PPD core associated with four SPAD cores in a 2x2 configuration, up to four coincident photons can be detected by each pixel (i.e. one photon per SPAD).

図6a及び図6bは、単一のダイでPPD及びSPADが具現された例示的なピクセルアレイ構造を示している。即ち、SPAD及びPPDは、ダイ内の同じレベルに有る。対照的に、図6cは、ピクセルが積層されたダイに具現された例示的な4×4ピクセルアレイ構造600cを示す。例えば、SPADコアは上位ダイに具現され、PPDコア(及び読み出し回路)は下部ダイに具現される。従って、PPD及びSPADは積層された2つの異なるダイに有り、このダイの回路要素(PPD、SPAD、トランジスタなど)は配線や金属バンプによって電気的に連結され得る。図6bの構造600Bのように、図6cのピクセルアレイ構造600Cは、また単一SPADコアが9個(3×3)の隣接するPPDコアによって共有される高解像度構造を提供する。同様に、図6cに示したように、PPDコア641のような単一のPPDコアは、SPADコア(642~650)の9つのSPADコアに関連して単一のピクセルを形成する。SPADコア(642~650)は、また他のピクセルによって共有される。単純化のために、他のピクセル、それらのPPDコア、及び関連するSPADコアは、図6cで参照番号により識別されていない。更に、図6cのピクセルアレイ構造600Cのピクセルが3×3構成の9つのSPADコアに関連付けられた単一のPPDコアを有するため、9個までの一致する光子が各ピクセルにより検出(即ち、SPAD当たり1つの光子)される。 6a and 6b illustrate an exemplary pixel array structure in which a PPD and a SPAD are implemented in a single die. That is, SPAD and PPD are at the same level within the die. In contrast, FIG. 6c shows an exemplary 4×4 pixel array structure 600c implemented in a die with stacked pixels. For example, the SPAD core may be implemented on an upper die, and the PPD core (and readout circuitry) may be implemented on a lower die. Thus, the PPD and SPAD are in two different stacked dies, and the circuit elements of the dies (PPD, SPAD, transistor, etc.) may be electrically connected by wiring or metal bumps. Like structure 600B of FIG. 6b, pixel array structure 600C of FIG. 6c also provides a high resolution structure in which a single SPAD core is shared by nine (3×3) adjacent PPD cores. Similarly, as shown in FIG. 6c, a single PPD core, such as PPD core 641, forms a single pixel in conjunction with nine SPAD cores (642-650). SPAD cores (642-650) are also shared by other pixels. For simplicity, other pixels, their PPD cores, and associated SPAD cores are not identified by reference numbers in FIG. 6c. Furthermore, because the pixels of pixel array structure 600C of FIG. one photon per photon).

図7は、ピクセル700の一例を示す回路図である。図7に示したピクセル700は、図2及び図5に示したより包括的なピクセル43の例であり得る。電子シャッター信号701が各ピクセルに提供(図8、図9、及び図14のタイミング図を参照して次により詳細に説明するように)され、ピクセル700が反射された光パルス37によって誘発されたピクセル特定の光電子を時間関連の方法でキャプチャーする。より一般的に、ピクセル700は、電荷転送トリガーの部分、電荷の生成及び転送部分、並びに電荷収集及び出力部分を有するものとされ得る。電荷転送トリガー部分はSPADコア501及び論理ユニット702を含む。電荷の生成及び転送部分は、PPD508、第1NMOSFET(N-channel Metal Oxide Semiconductor Field Effect Transistor)(又は第1NMOSトランジスタ)(又は、単に第1トランジスタ)703、第2NMOSトランジスタ704、及び第3NMOSトランジスタ705を含む。電荷収集及び出力部分は、第3NMOSトランジスタ705、第4NMOSトランジスタ706、及び第5NMOSトランジスタ707を含む。いくつかの実施例で、図7のピクセル700のPPDコア及び図13のピクセル900のPPDコアは、PMOSFET(P-channel Metal Oxide Semiconductor Field Effect Transistors)、PMOSトランジスタ若しくは他のタイプのトランジスタ、又は電荷転送デバイスで形成される。なお、本明細書で記述したピクセル700の各部分は、説明の目的のみのためのものである。いくつかの実施例で、ピクセル700の各部分は、本明細書に記述したものよりもより多いか、より少ないか、又は他の回路要素を含み得る。 FIG. 7 is a circuit diagram illustrating an example of a pixel 700. Pixel 700 shown in FIG. 7 may be an example of the more general pixel 43 shown in FIGS. 2 and 5. An electronic shutter signal 701 is provided to each pixel (as described in more detail below with reference to the timing diagrams of FIGS. 8, 9, and 14), and the pixel 700 is triggered by the reflected light pulse 37. Capturing pixel-specific photoelectrons in a time-related manner. More generally, pixel 700 may have a charge transfer trigger portion, a charge generation and transfer portion, and a charge collection and output portion. The charge transfer trigger part includes a SPAD core 501 and a logic unit 702. The charge generation and transfer portion includes a PPD 508, a first NMOSFET (N-channel Metal Oxide Semiconductor Field Effect Transistor) (or first NMOS transistor) (or simply the first transistor) 703, a second NMOS transistor 704, and a third NMSFET. OS transistor 705 include. The charge collection and output section includes a third NMOS transistor 705, a fourth NMOS transistor 706, and a fifth NMOS transistor 707. In some embodiments, the PPD core of pixel 700 of FIG. 7 and the PPD core of pixel 900 of FIG. Formed by a transfer device. It should be noted that portions of pixel 700 described herein are for illustrative purposes only. In some examples, each portion of pixel 700 may include more, fewer, or other circuit elements than those described herein.

PPD508は、キャパシタと同様に電荷を貯蔵することができる。一実施例で、PPD508は、カバーされることによって光に応答しない可能性がある。従って、PPD508は、光感知要素の代わりにTCCに使用され得る。しかし、上述したように、光感知機能はSPADコア501内のSPADによって達成される。いくつかの実施例で、フォトゲート(photogate)又は他の半導体デバイス(適切な修正を有する)が図7及び図13のピクセル構成のPPDの代わりに使用され得る。 PPD 508 can store charge like a capacitor. In one example, PPD 508 may not respond to light by being covered. Therefore, PPD 508 can be used in TCC instead of a light sensing element. However, as mentioned above, the light sensing function is accomplished by the SPAD within the SPAD core 501. In some embodiments, a photogate or other semiconductor device (with appropriate modifications) may be used in place of the PPD in the pixel configurations of FIGS. 7 and 13.

電荷転送トリガー部分は、電子シャッター信号701の制御下で転送アクティブ(TXEN)信号708を生成して、PPD508に貯蔵された電荷の転送をトリガーする。SPADは図2のオブジェクト26のようなオブジェクトから反射されて伝送された光パルスの光子を検出(以下、「光子検出イベント」と呼ぶ)してパルス信号を出力し、パルス信号は論理ユニット702による後続の処理のために電子シャッター信号701の協調的な制御下でラッチされる。論理ユニット702は、例えば電子シャッター信号701が活性化された間の予め定められた時間間隔内に、少なくとも2つの隣接するSPADから受信された出力506がある場合に、全てのデジタルSPAD出力506を処理してTXEN信号708を生成する論理回路を含む。 The charge transfer trigger portion generates a transfer active (TXEN) signal 708 under control of the electronic shutter signal 701 to trigger the transfer of the charge stored in the PPD 508 . The SPAD detects photons of a light pulse reflected and transmitted from an object such as object 26 in FIG. It is latched under cooperative control of electronic shutter signal 701 for subsequent processing. Logic unit 702 controls all digital SPAD outputs 506 if, for example, there are outputs 506 received from at least two adjacent SPADs within a predetermined time interval during which electronic shutter signal 701 is activated. It includes logic circuitry to process and generate the TXEN signal 708.

電荷生成及び転送部分で、PPD508は、初期に第3トランジスタ705と共にリセット信号(RST)を用いてそれ自体のフルウェルキャパシティ(full well capacity)に設定される。第1トランジスタ703は、第1トランジスタ703のドレイン端子から伝送電圧(VTX)信号710を受信してゲート端子でTXEN信号708を受信する。TX信号711は、第1トランジスタ703のソース端子から利用可能であり、第2トランジスタ704のゲート端子に印加される。図示したように、第1トランジスタ703のソース端子は、第2トランジスタ704のゲート端子に連結される。VTX信号710(又は、等価的にTX信号711)は、振幅変調信号として使用されて第2トランジスタ704のソース端子に連結されたPPD508から伝送される電荷を制御する。第2トランジスタ704は、ソース端子からのPPD508の電荷をトランジスタ704のドレイン端子に転送し、ドレイン端子は、第4トランジスタ706のゲート端子に連結され、フローティングディフュージョン(FD:Floating Diffusion)ノード/ジャンクション712で参照される電荷の「コレクションサイト(collection site)」を形成する。いくつかの実施例で、PPD508から転送される電荷は振幅変調信号(VTX信号710)(又は、等価的にTX信号711)によって提供される変調に依存する。図7及び図13の実施例で、転送される電荷は電子である。しかし、本発明は、本記載に限定されず、他の設計を有するPPDが使用され、転送される電荷はホールであり得る。 In the charge generation and transfer portion, the PPD 508 is initially set to its full well capacity with the third transistor 705 using a reset signal (RST). The first transistor 703 receives a transmission voltage (VTX) signal 710 from its drain terminal and receives a TXEN signal 708 from its gate terminal. A TX signal 711 is available from the source terminal of the first transistor 703 and applied to the gate terminal of the second transistor 704. As shown, the source terminal of the first transistor 703 is coupled to the gate terminal of the second transistor 704. The VTX signal 710 (or equivalently, the TX signal 711) is used as an amplitude modulation signal to control the charge transferred from the PPD 508 coupled to the source terminal of the second transistor 704. The second transistor 704 transfers the charge of the PPD 508 from the source terminal to the drain terminal of the transistor 704, and the drain terminal is coupled to the gate terminal of the fourth transistor 706 to form a floating diffusion (FD) node/junction 712. It forms a "collection site" of charges referenced by . In some embodiments, the charge transferred from PPD 508 depends on modulation provided by an amplitude modulated signal (VTX signal 710) (or equivalently, TX signal 711). In the embodiments of FIGS. 7 and 13, the charges transferred are electrons. However, the invention is not limited to this description, PPDs with other designs can be used and the transferred charges can be holes.

電荷収集及び出力部分で、第3トランジスタ705は、第3トランジスタ705のゲート端子でRST信号709を受信して第3トランジスタ705のドレイン端子からピクセル電圧(VPIX)信号713を受信する。第3トランジスタ705のソース端子は、フローティングディフュージョンノード/ジャンクション712に連結される。一実施例で、VPIX信号713の電圧レベルは、総括電源電圧(VDD)の電圧レベルと同じであり、2.5Vから3.0Vの範囲内であり得る。第4トランジスタ706のドレイン端子は、またVPIX信号713を受信する。いくつかの実施例で、第4トランジスタ706は、NMOSのソースフォロワー(source follower)として動作し、バッファアンプとして機能する。第4トランジスタ706のソース端子は、第5トランジスタ707のドレイン端子に連結され、第5トランジスタ707のドレイン端子は、ソースフォロワーの第4トランジスタ706とカスコード(cascode)である、第5トランジスタ707のゲート端子は、選択(SEL)信号714を受信する。PPD508から転送されてフローティングディフュージョンノード/ジャンクション712で収集された電荷は第5トランジスタ707のソース端子にピクセル特定の出力(PIXOUT)のデータラインとして現われる。 In the charge collection and output portion, the third transistor 705 receives the RST signal 709 at the gate terminal of the third transistor 705 and the pixel voltage (VPIX) signal 713 from the drain terminal of the third transistor 705 . A source terminal of third transistor 705 is coupled to floating diffusion node/junction 712 . In one embodiment, the voltage level of the VPIX signal 713 is the same as the voltage level of the global power supply voltage (VDD), which may be in the range of 2.5V to 3.0V. The drain terminal of the fourth transistor 706 also receives the VPIX signal 713. In some embodiments, the fourth transistor 706 operates as an NMOS source follower and functions as a buffer amplifier. The source terminal of the fourth transistor 706 is coupled to the drain terminal of the fifth transistor 707, and the drain terminal of the fifth transistor 707 is connected to the gate of the fifth transistor 707, which is in cascode with the fourth transistor 706 of the source follower. The terminal receives a selection (SEL) signal 714. The charge transferred from PPD 508 and collected at floating diffusion node/junction 712 appears at the source terminal of fifth transistor 707 as a pixel specific output (PIXOUT) data line.

PPD508からフローティングディフュージョンノード/ジャンクション712に転送された電荷はVTX信号710(及び、TX信号711)によって制御される。フローティングディフュージョンノード/ジャンクション712に到達する電荷の量はTX信号711によって変調される。一実施例で、転送電圧(VTX)信号710(及び、TX信号711)は、傾斜された(ramped)PPD508からの電荷をフローティングディフュージョンノード/ジャンクション712に漸進的に伝達する。従って、転送される電荷の量は振幅変調信号(TX信号711)の関数であり、TX信号711の傾斜(ramping)は時間の関数である。従って、PPD508からフローティングディフュージョンノード/ジャンクション712に転送される電荷の量は、また時間の関数である。PPD508からフローティングディフュージョンノード/ジャンクション712への電荷の転送中に、SPADコア501で、少なくとも2つの隣接するSPADに対して光子検出イベントが発生したことに起因するSPADコア501によるTXEN信号708の生成のために第2トランジスタ704がターンオフされると、PPD508からフローティングディフュージョンノード/ジャンクション712への電荷の転送は停止する。その結果、フローティングディフュージョンノード/ジャンクション712に転送される電荷の量とPPD508に残った電荷の量の両方は、入射する光子のTOFの関数である。その結果は、時間電荷変換であり、シングルエンド差動信号変換である。従って、PPD508は、時間電荷変換(TCC:time-to-charge converter)として動作する。電荷がフローティングディフュージョンノード/ジャンクション712により多く転送されるほど、フローティングディフュージョンノード/ジャンクション712の電圧がより大きく減少してPPD508の電圧がより大きく増加する。 The charge transferred from PPD 508 to floating diffusion node/junction 712 is controlled by VTX signal 710 (and TX signal 711). The amount of charge reaching floating diffusion node/junction 712 is modulated by TX signal 711. In one embodiment, transfer voltage (VTX) signal 710 (and TX signal 711) progressively transfers charge from ramped PPD 508 to floating diffusion node/junction 712. Therefore, the amount of charge transferred is a function of the amplitude modulation signal (TX signal 711) and the ramping of the TX signal 711 is a function of time. Therefore, the amount of charge transferred from PPD 508 to floating diffusion node/junction 712 is also a function of time. Generation of TXEN signal 708 by SPAD core 501 due to photon detection events occurring in SPAD core 501 for at least two adjacent SPADs during charge transfer from PPD 508 to floating diffusion node/junction 712. When the second transistor 704 is turned off, the transfer of charge from the PPD 508 to the floating diffusion node/junction 712 stops. As a result, both the amount of charge transferred to floating diffusion node/junction 712 and the amount of charge remaining on PPD 508 is a function of the TOF of the incident photon. The result is a time-to-charge conversion and a single-ended differential signal conversion. Therefore, PPD 508 operates as a time-to-charge converter (TCC). The more charge is transferred to floating diffusion node/junction 712, the more the voltage at floating diffusion node/junction 712 decreases and the more the voltage at PPD 508 increases.

フローティングディフュージョンノード/ジャンクション712の電圧は、その後にPIXOUT信号として第5トランジスタ707を介してアナログ/デジタル変換器(ADC)ユニット(図示せず)に伝送され、更なる処理のために適切なデジタル信号/値に変換され得る。図7の多様な信号のタイミング及び動作のより多くの詳細は、図9の説明を参照して提供される。その場合、図7の実施例で、フローティングディフュージョンノード/ジャンクション712はPPD508の電荷を電圧に変換し、電荷がフローティングディフュージョンノード/ジャンクション712に完全に転送された後、第5トランジスタ707は、ピクセル700を選択するためのSEL信号714を受信してフローティングディフュージョンノード/ジャンクション712に転送された電荷をPIXOUT1(又はピクセル出力1)電圧として出力し、PPD508に残った電荷をPIXOUT2(又はピクセル出力2)電圧として出力することができる。ピクセル出力510のデータラインは、順次にPIXOUT1及びPIXOUT2信号を、図10を参照して後述するように、順次に読み出して出力する。他の実施例で、PIXOUT1信号とPIXOUT2信号の両方ではなく、1つが読み出される。 The voltage at the floating diffusion node/junction 712 is then transmitted as a PIXOUT signal through a fifth transistor 707 to an analog-to-digital converter (ADC) unit (not shown) to generate the appropriate digital signal for further processing. /value. More details of the timing and operation of the various signals of FIG. 7 are provided with reference to the description of FIG. 9. In that case, in the embodiment of FIG. 7, the floating diffusion node/junction 712 converts the charge on the PPD 508 into a voltage, and after the charge is completely transferred to the floating diffusion node/junction 712, the fifth transistor 707 The charge transferred to the floating diffusion node/junction 712 upon receiving the SEL signal 714 for selecting is output as the PIXOUT1 (or pixel output 1) voltage, and the charge remaining in the PPD 508 is output as the PIXOUT2 (or pixel output 2) voltage. It can be output as The data line of pixel output 510 sequentially reads out and outputs the PIXOUT1 and PIXOUT2 signals in sequence, as described below with reference to FIG. In other embodiments, one rather than both the PIXOUT1 and PIXOUT2 signals are read.

図8は、図7のピクセル700で変調された電荷の転送メカニズムの概要の一例を示すタイミング図800である。図8に示した波形(図9及び図14もまた)は、事実上単純化されて説明の目的のみとして参照される。実際の波形は、回路の具現に依存して形態だけでなくタイミングも異なる場合がある。図7及び図8で、共通の信号は、同一の参照符号を用いて識別され、VPIX信号713、RST信号709、電子シャッター信号701、及びVTX信号710を含む。図8で、2つの異なる波形(801、802)がまた示され、電荷転送の間にVTX信号710が印加されたときのPPD508内の電荷の状態及びフローティングディフュージョンノード/ジャンクション712内の電荷の状態をそれぞれ示す。図8の実施例で、VPIX信号713は、ピクセル700の動作中に、低い論理電圧(例えば、論理0又は0V)から開始してピクセル700を初期化した後、高い論理電圧(例えば、論理1又は3V)に変化する。リセット(RST)信号709は、ピクセル700の初期化の間に高い論理電圧パルス(例えば、論理0から論理1に変化してから論理0に戻るパルス)で開始してPPD508内の電荷をフルウェルキャパシティに設定し、フローティングディフュージョンノード/ジャンクション712の電荷をゼロクーロン(0C、zero Coulombs)に設定する。フローティングディフュージョンノード/ジャンクション712のためのリセット電圧レベルは論理1レベルである。距離(TOF)測定動作中に、フローティングディフュージョンノード/ジャンクション712がPPD508からより多くの電子を受け取るほど、フローティングディフュージョンノード/ジャンクション712の電圧はより低くなる。ピクセル700の初期化の間に電子シャッター信号701は、低い論理電圧(例えば、論理0又は0V)から開始し、ピクセル700の動作中に最小測定距離に対応する時間に論理1レベル(例えば、3V)に変化してSPADコア501のSPAD503に反射された光パルス37の光子(秒)を検出させ、その後に最大測定距離に対応する時間に論理0レベル(例えば、0V)に変化する。従って、電子シャッター信号701の論理1レベルの区間は事前に定義された時間区間/ウィンドウを提供し、その時間のうちに隣接するSPADから受信される出力は空間的及び時間的相関を有する。PPD508内の電荷は初期化中に完全に充電されて開始し、VTX信号710が0Vからより高い電圧に傾斜される(なるべく線形的に)につれて減少する。振幅変調信号(VTX信号710)の制御下のPPD電荷レベルは、図8で801の参照番号を有する波形によって示される。PPD電荷の減少はVTX信号がどれくらい長く傾斜されるかの関数であり、これはPPD508からフローティングディフュージョンノード/ジャンクション712に特定量の電荷転送を誘発する。従って、図8で801の参照番号を有する波形によって示されるように、フローティングディフュージョンノード/ジャンクション712の電荷は、低い電荷(例えば、0C)から開始してVTX信号710が0Vからより高いレベルに傾斜されるにつれて増加し、PPD508からフローティングディフュージョンノード/ジャンクション712に特定量の電荷を部分的に転送する。電荷転送はVTX信号710がどれくらい長く傾斜されるかの関数である。 FIG. 8 is a timing diagram 800 illustrating an example overview of a modulated charge transfer mechanism in pixel 700 of FIG. The waveforms shown in FIG. 8 (also FIGS. 9 and 14) are simplified in nature and are referred to for illustrative purposes only. The actual waveforms may differ not only in form but also in timing depending on the circuit implementation. In FIGS. 7 and 8, common signals are identified using the same reference numerals and include the VPIX signal 713, the RST signal 709, the electronic shutter signal 701, and the VTX signal 710. In FIG. 8, two different waveforms (801, 802) are also shown, the state of charge in PPD 508 and the state of charge in floating diffusion node/junction 712 when VTX signal 710 is applied during charge transfer. are shown respectively. In the example of FIG. 8, VPIX signal 713 initializes pixel 700 during operation of pixel 700 starting from a low logic voltage (e.g., logic 0 or 0V) and then to a high logic voltage (e.g., logic 1 or 3V). The reset (RST) signal 709 starts with a high logic voltage pulse (e.g., a pulse that changes from a logic 0 to a logic 1 and back to a logic 0) during initialization of the pixel 700 to bring the charge in the PPD 508 to a full well. The charge on the floating diffusion node/junction 712 is set to zero Coulombs (0C). The reset voltage level for floating diffusion node/junction 712 is a logic one level. During a TOF measurement operation, the more electrons the floating diffusion node/junction 712 receives from the PPD 508, the lower the voltage at the floating diffusion node/junction 712. During initialization of pixel 700 electronic shutter signal 701 starts at a low logic voltage (e.g., logic 0 or 0V) and increases to a logic one level (e.g., 3V) at times corresponding to the minimum measurement distance during operation of pixel 700. ) to cause the SPAD 503 of the SPAD core 501 to detect photons (seconds) of the reflected light pulse 37, and then change to a logic 0 level (eg, 0V) at a time corresponding to the maximum measurement distance. Therefore, the logic one level interval of the electronic shutter signal 701 provides a predefined time interval/window during which the outputs received from adjacent SPADs have spatial and temporal correlation. The charge in PPD 508 starts fully charged during initialization and decreases as VTX signal 710 is ramped (preferably linearly) from 0V to a higher voltage. The PPD charge level under control of the amplitude modulation signal (VTX signal 710) is illustrated in FIG. 8 by the waveform having the reference number 801. The reduction in PPD charge is a function of how long the VTX signal is ramped, which induces a certain amount of charge transfer from PPD 508 to floating diffusion node/junction 712. Thus, as shown by the waveform having the reference numeral 801 in FIG. increases as the voltage increases, partially transferring a certain amount of charge from PPD 508 to floating diffusion node/junction 712. Charge transfer is a function of how long VTX signal 710 is ramped.

上述したように、PIXOUT510のデータラインへのピクセル特定の出力は、フローティングディフュージョンノード/ジャンクション712に転送されたPPD電荷から導出される。従って、PIXOUT信号510は、振幅変調信号(VTX信号710)(又は、等価的にTX信号711)によって、時間に応じて振幅変調されたものとされ得る。このような方式で、TOF情報がVTX信号710(又は、等価的にTX信号711)を用いたピクセル特定の出力の振幅変調を通じて提供される。いくつかの実施例で、VTX信号710を生成するための変調関数は単調(monotonic)である。図8、図9、及び図14に示した例示的な実施例で、振幅変調信号は、傾斜関数(ramp function)を用いて生成される。従ってこれらは傾斜タイプの波形を有するものとみられる。しかし、他の実施例で、他のタイプのアナログ波形/関数が変調信号として使用され得る。 As mentioned above, the pixel specific output to the data line of PIXOUT 510 is derived from the PPD charge transferred to floating diffusion node/junction 712. Therefore, the PIXOUT signal 510 can be amplitude-modulated according to time by an amplitude modulation signal (VTX signal 710) (or equivalently, TX signal 711). In this manner, TOF information is provided through amplitude modulation of pixel specific outputs using VTX signal 710 (or equivalently, TX signal 711). In some embodiments, the modulation function for generating VTX signal 710 is monotonic. In the exemplary embodiments shown in FIGS. 8, 9, and 14, the amplitude modulated signal is generated using a ramp function. Therefore, these appear to have a slope type waveform. However, in other embodiments, other types of analog waveforms/functions may be used as the modulation signal.

一実施例で、2つのピクセルの出力の合計(ここで、PIXOUT1+PIXOUT2)に対する1つのピクセルの出力(例えば、PIXOUT1)の比率は、例えば図9に示され、以下でより詳細に説明するようにTtofとTdlyとの時間差に比例する。例えば、ピクセル700の例で、パラメータ(Ttof)はSPADコアに501で2つ以上のSPADによって受信された光信号のピクセル特定のTOF値であり、遅延時間のパラメータ(Tdly)は光信号(光パルス28)が初期に伝送されたときからVTX信号710が傾斜し始めるまでの時間である。通常、電子シャッター信号701が開かれたときに発生するVTX信号710が傾斜し始めた後に光パルス28が伝送されると、遅延時間(Tdly)は負である。比例関係は、数学式2で表される。 In one example, the ratio of the output of one pixel (e.g., PIXOUT1) to the sum of the outputs of two pixels (here, PIXOUT1 + PIXOUT2) is T It is proportional to the time difference between tof and Tdly . For example, in the example of pixel 700, the parameter (T tof ) is the pixel-specific TOF value of an optical signal received by two or more SPADs at 501 in the SPAD core, and the delay time parameter (T dly ) is the This is the time from when (light pulse 28) is initially transmitted until the VTX signal 710 begins to slope. Typically, if the light pulse 28 is transmitted after the VTX signal 710 generated when the electronic shutter signal 701 is opened begins to ramp, the delay time (T dly ) is negative. The proportional relationship is expressed by mathematical formula 2.

Figure 0007401986000002
Figure 0007401986000002

しかし、本発明は、数学式2の関係に限定されない。以下で説明するように、数学式2の比率は、オブジェクトのデプスや距離を計算するために使用され、PIXOUT1とPIXOUT2との合計が常に同じでない場合、ピクセルツーピクセルの変動よりもそれほど敏感ではない。 However, the present invention is not limited to the relationship shown in Formula 2. As explained below, the ratio in Equation 2 is used to calculate the depth or distance of an object and is less sensitive than pixel-to-pixel variation if the sum of PIXOUT1 and PIXOUT2 is not always the same. .

便宜のために、本明細書で使用するように、「P1」の用語は「PIXOUT1」を示すのに使用され、「P2」の用語は「PIXOUT2」を示すのに使用される。ピクセル特定のTOF値は、ピクセル特定の出力値(P1、P2)の比率で判定されることが数学式2の関係から示される。いくつかの実施例で、ピクセル特定のTOF値が判定されると、オブジェクト(図2のオブジェクト26のような)へのピクセル特定の距離D(Distance)、範囲R(Range)、又はオブジェクト上の特定の位置が数学式3により与えられる。 For convenience, as used herein, the term "P1" is used to refer to "PIXOUT1" and the term "P2" is used to refer to "PIXOUT2." The relationship in Equation 2 shows that the pixel-specific TOF value is determined by the ratio of the pixel-specific output values (P1, P2). In some embodiments, once a pixel-specific TOF value is determined, a pixel-specific distance D to an object (such as object 26 of FIG. 2), a range R, or a The specific position is given by Equation 3.

Figure 0007401986000003
Figure 0007401986000003

ここで、cは光速度である。或いは、いくつかの実施例で、図7のVTX信号710(又はTX信号711)のような変調信号は、例えばシャッターウィンドウ内で線形であり、範囲(又は距離)は数学式4で計算される。 Here, c is the speed of light. Alternatively, in some embodiments, the modulating signal, such as VTX signal 710 (or TX signal 711) of FIG. 7, is linear within the shutter window, for example, and the range (or distance) is calculated by Equation 4. .

Figure 0007401986000004
Figure 0007401986000004

従って、オブジェクト26のようなオブジェクトの3Dイメージは、上記で与えられた数学式により判定されたピクセル特定の範囲の値に基づいてTOFシステム15によって生成され得る。 Accordingly, a 3D image of an object, such as object 26, may be generated by TOF system 15 based on pixel-specific ranges of values determined by the mathematical formulas given above.

ピクセル内の振幅変調ベースの操作又はPPD電荷分散の制御は、距離測定及び解像度もまた制御可能にする。PPD電荷のピクセルレベル振幅変調は、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサのようなローリングシャッター、又は例えばCCD(Charge Coupled Device)イメージセンサのようなグローバルシャッターである。本明細書での記載は、図1及び図2のシステム15のような単一パルスTOFイメージングシステムのコンテキストで主に提供されるが、本明細書で説明するピクセルレベルの内部振幅変調方法の原理は、適切な修正(必要な場合に)を通して、ピクセル43(図5参照)を備えた連続波変調のTOFイメージングシステム又は非TOFシステムでも具現され得る。 Amplitude modulation-based manipulation within pixels or control of PPD charge distribution also allows range measurement and resolution to be controlled. The pixel level amplitude modulation of the PPD charge is a rolling shutter, such as in a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or a global shutter, such as in a CCD (Charge Coupled Device) image sensor. Although the description herein is provided primarily in the context of single-pulse TOF imaging systems, such as system 15 of FIGS. 1 and 2, the principles of the pixel-level internal amplitude modulation methods described herein can also be implemented in a continuous wave modulated TOF imaging system with pixels 43 (see FIG. 5) or in a non-TOF system through appropriate modifications (if necessary).

図9は、図7のピクセル700がTOF値を測定するための図2及び図12のピクセルアレイ42のようなピクセルアレイで使用される場合の、図1及び図2のシステム15における異なる信号の一例を示すタイミング図900である。図2及び図7の実施例に示されて伝送された光パルス28、VPIX信号713、TXEN信号708などのような多様な信号が同一の参照符号号を用いて図9で識別される。図9の説明に先立ち、図9のコンテキストで(そして、図14の場合にもまた)、パラメータTdlyは、参照番号「901」で示すように、照射された光パルス28の立ち上がりエッジとVTX信号710が傾斜し始めるときとの間の時間遅延を示し、パラメータTtofは、参照番号「902」で示すように、照射された光パルス28及び反射された光パルス37の立ち上がりエッジ間の遅延で測定されるピクセル特定のTOF値を示し、パラメータTshは、参照番号「903」で示すように、そして電子シャッター信号701の活性化(例えば、論理1又はオン)及び非活性化(例えば、論理0又はオフ)に与えられるように、電子シャッターのオープニング(opening)とクロージング(closing)との間の時間区間を示すことに留意しなければならない。従って、電子シャッター信号701は、参照番号「904」で識別される区間Tshの間に活性化されると考えられる。いくつかの実施例で、遅延Tdlyは、予め定められて動作条件に関係なく固定され得る。他の実施例で、遅延Tdlyは、例えば外部の気象条件に依存してリアルタイムで調節可能である。ここで、高いか又は低い信号レベルは、ピクセル700の設計に関連することに留意しなければならない。図9に示した信号の極性やバイアスレベルは、例えばトランジスタや使用される他の回路構成要素のタイプに基づいて、他のタイプのピクセル設計で異なることがある。 FIG. 9 illustrates the different signals in the system 15 of FIGS. 1 and 2 when the pixel 700 of FIG. 7 is used in a pixel array, such as the pixel array 42 of FIGS. 2 and 12, for measuring TOF values. FIG. 9 is a timing diagram 900 illustrating an example. The various signals shown and transmitted in the embodiments of FIGS. 2 and 7, such as optical pulses 28, VPIX signal 713, TXEN signal 708, etc., are identified in FIG. 9 using the same reference numerals. Prior to the discussion of FIG. 9, in the context of FIG. 9 (and also in the case of FIG. 14), the parameter T dly is defined as the rising edge of the applied light pulse 28 and the VTX indicates the time delay between when the signal 710 begins to slope, and the parameter T tof is the delay between the rising edges of the emitted light pulse 28 and the reflected light pulse 37, as indicated by the reference number "902". indicates the pixel-specific TOF value measured at , and the parameter T sh is indicated by the reference numeral "903" and the activation (e.g., logic 1 or on) and deactivation (e.g., It should be noted that we indicate the time interval between the opening and closing of the electronic shutter as given by a logic 0 or off). Therefore, the electronic shutter signal 701 is considered to be activated during the interval Tsh identified by the reference number "904". In some embodiments, the delay T dly may be predetermined and fixed regardless of operating conditions. In other embodiments, the delay T dly is adjustable in real time depending on, for example, external weather conditions. It should be noted here that the higher or lower signal level is related to the design of the pixel 700. The polarities and bias levels of the signals shown in FIG. 9 may differ for other types of pixel designs, based, for example, on the types of transistors and other circuit components used.

上述したように、図9の波形(図14でも、また)は、事実上単純化されたものであり、そして説明の目的だけのためであり、実際の波形は、回路の具現に依存して形態だけでなくタイミングでも異なり得る。図9に示したように、反射された光パルス37は、照射された光パルス28の時間方式で遅延されたバージョンである。いくつかの実施例で、照射された光パルス28は、例えば約5ns~約10nsの範囲内のような非常に短い区間であり得る。反射された光パルス37は、ピクセル700の2つ以上のSPADを用いて感知される。電子シャッター信号701は、SPADを活性化して反射された光パルス37のピクセル特定の光子をキャプチャーする。電子シャッター信号701は、ゲーテッドディレイ(gated delay)(照射された光パルス28に対する)を有し、ピクセルアレイ42に到達することによる光散乱を回避することができる。照射された光パルス28の光散乱は、例えば悪天候が原因で発生することがある。 As mentioned above, the waveforms in FIG. 9 (also in FIG. 14) are simplified in nature and are for illustrative purposes only; the actual waveforms may vary depending on the implementation of the circuit. They can differ not only in form but also in timing. As shown in FIG. 9, the reflected light pulse 37 is a time-delayed version of the emitted light pulse 28. In some embodiments, the emitted light pulse 28 can be of very short duration, such as within a range of about 5 ns to about 10 ns. Reflected light pulses 37 are sensed using two or more SPADs of pixel 700. Electronic shutter signal 701 activates the SPAD to capture pixel specific photons of reflected light pulse 37. The electronic shutter signal 701 may have a gated delay (relative to the emitted light pulse 28 ) to avoid light scattering due to reaching the pixel array 42 . Light scattering of the emitted light pulses 28 may occur, for example, due to bad weather.

多様な外部信号(例えば、VPIX信号713、RST信号709など)及び内部信号(例えば、TX信号711、TXEN信号708、フローティングディフュージョンノード/ジャンクション712の電圧)に加えて、図9のタイミング図900は、また次のイベントや時間区間を識別する。次のイベントや時間区間は、(i)RST、VTX、TXEN、及びX信号がハイ(high)であり、そしてVPIX信号713及び電子シャッター信号701がロー(low)であるときのPPDプリセット905、(ii)RST信号がハイ(high)からロー(low)に戻るまでのTX信号がロー(low)であるときからの第1フローティングディフュージョンリセット906、(iii)遅延時間Tdly901、(iv)飛行時間Ttof902、(v)電子シャッターオンや活性化区間Tsh903、及び(vi)第2時間の間のRST信号709が論理1のときの区間に対する第2FDリセットイベント907を含む。図9は、また電子シャッターが初期にいつクロージング(closing)されるのか又はオフであるのか(参照番号「908」で示す)、初期にフローティングディフュージョンノード/ジャンクション712に転送された電荷がPIXOUT510のデータラインを通じていつ読み出されるのか(参照番号「909」で示す)、第2FDリセットイベント907でフローティングディフュージョンノード/ジャンクション712の電圧がいつ第2時間をリセットするのか、そしてPPD508に残った電荷がいつフローティングディフュージョンノード/ジャンクション712に伝送されてイベント910で読み出されるのか(例えば、PIXOUT510への出力として)を示す。一実施例で、シャッターオン区間TshはVTX信号710の傾斜時間よりも短いか又は同じである。 In addition to various external signals (e.g., VPIX signal 713, RST signal 709, etc.) and internal signals (e.g., TX signal 711, TXEN signal 708, voltage at floating diffusion node/junction 712), timing diagram 900 of FIG. , and also identify the next event or time interval. The following events or time intervals are: (i) PPD preset 905 when RST, VTX, TXEN, and X signals are high and VPIX signal 713 and electronic shutter signal 701 are low; (ii) first floating diffusion reset 906 from when the TX signal is low until the RST signal returns from high to low; (iii) delay time T dly 901; (iv) It includes a time of flight T tof 902, (v) an electronic shutter-on or activation period T sh 903, and (vi) a second FD reset event 907 for the period when the RST signal 709 is logic 1 during the second time. FIG. 9 also shows when the electronic shutter is initially closing or off (indicated by reference numeral "908"), the charge initially transferred to the floating diffusion node/junction 712, and the data on PIXOUT 510. line (indicated by reference number "909"), when the voltage at the floating diffusion node/junction 712 resets the second time at the second FD reset event 907, and when the charge remaining on the PPD 508 is transferred to the floating diffusion Indicates whether it is transmitted to node/junction 712 and read at event 910 (eg, as an output to PIXOUT 510). In one embodiment, the shutter-on period T sh is less than or equal to the ramp time of the VTX signal 710 .

図9を参照すると、図7のピクセル700の例で、PPD508は、初期化の段階で電荷それ自体のフルウェルキャパシティまで満たされる(例えば、PPDプリセット905イベント)。PPDプリセット905時間の間に、図示したように、RST信号709、VTX信号710、TXEN信号708、及びTX信号711はハイであり、VPIX信号713及び電子シャッター信号701はローである。その後に、VTX信号710(そして、TX信号711)はローになって第2トランジスタ704をシャットオフし、VPIX信号713はハイになって完全に充電されたPPD508からの電荷転送を開始する。いくつかの実施例で、ピクセルアレイ42のピクセルの行の全てのピクセルは、同時に共に選択され、選択された行の全てのピクセルのPPDはRST信号709を用いて共にリセットされる。ピクセルの選択された行の各ピクセルは個別に読み出され、アナログベースのPIXOUT信号は対応する列ADCユニット(図示せず)によってデジタル値に変換され得る。一実施例で、ピクセルの選択されない行のRSTラインはハイ又はオンに維持されてブルーミングが防止される。 Referring to FIG. 9, in the example pixel 700 of FIG. 7, the PPD 508 is filled to its full well capacity of charge during initialization (eg, PPD preset 905 event). During PPD preset 905 time, as shown, RST signal 709, VTX signal 710, TXEN signal 708, and TX signal 711 are high, and VPIX signal 713 and electronic shutter signal 701 are low. Thereafter, VTX signal 710 (and TX signal 711) goes low to shut off second transistor 704 and VPIX signal 713 goes high to begin charge transfer from fully charged PPD 508. In some embodiments, all pixels in a row of pixels of pixel array 42 are selected together at the same time, and the PPDs of all pixels in the selected row are reset together using RST signal 709. Each pixel of a selected row of pixels may be read out individually and the analog-based PIXOUT signal may be converted to a digital value by a corresponding column ADC unit (not shown). In one embodiment, the RST line of unselected rows of pixels is kept high or on to prevent blooming.

図9に示した実施例で、TXEN信号708を除く全ての信号は、図示したように論理0又はローレベルから始まる。初期に、RST信号709、VTX信号710、TXEN信号708、及びTX信号711が論理1レベルになり、そしてVPIX信号713がローに維持されているとき、PPD508はプリセットされる。その後、VTX信号710及びTX信号711が論理0になり、VPIX信号713がハイ(又は論理1)になるとき、RST信号709が論理1である間にフローティングディフュージョンノード/ジャンクション712はリセットされる。便宜のために、図7のフローティングディフュージョンノード/ジャンクション及び図9のタイミング図の関連する電圧波形を示すために同じ参照番号「712」を使用する。フローティングディフュージョンノード/ジャンクション712がハイ(例えば、電荷ドメインから0C)にリセットされた後で、TXEN信号708が論理1である間にVTX信号710が傾斜する。飛行時間TtofのTOF区間902は、光パルス28が伝送されたときから反射された光パルス37が受信されるまでであり、また電荷がPPD508からフローティングディフュージョンノード/ジャンクション712に部分的に転送される時間の間である。VTX信号710(そして、TX信号711)は、電子シャッター信号701がオン又は開いている間に傾斜する。これは、PPD508内の相当量の電荷がフローティングディフュージョンノード/ジャンクション712に転送され、VTXがどれくらい長く傾斜するかの関数である。伝送された光パルス28がオブジェクト26で反射されてピクセル700のSPADコア501内の少なくとも2つのSPADによって受信されると、生成されたSPAD出力506は論理ユニット702によって処理される、言い換えると、TXEN信号708が固定された論理0になるようにする。従って、時間的に相関する方法では、少なくとも2つの隣接SPADによる反射された光パルス37の検出(即ち、シャッターがオン又は活性化されるとき)はTXEN信号708の論理0レベルによって示される。TXEN信号708の論理ローレベルは、第1トランジスタ703及び第2トランジスタ704をターンオフし、これは電荷のPPD508からのフローティングディフュージョンのノード/ジャンクション712への転送を停止する。電子シャッター信号701が論理0になり、そしてSEL信号714(図9で示される)が論理1になると、フローティングディフュージョンノード/ジャンクション712の電荷はPIXOUT510の電圧(PIXOUT1)のデータラインに出力される。その後、フローティングディフュージョンノード/ジャンクション712は、論理ハイのRST信号709に再びリセット(参照番号「907」で示すように)される。その後、TXEN信号708が論理1になると、PPD508に残った電荷はフローティングディフュージョンノード/ジャンクション712に実質的に完全に伝達され、PIXOUT510から電圧(PIXOUT2)のデータラインに出力される。上述したように、PIXOUT1及びPIXOUT2信号は、適切なADCユニット(図示せず)によって対応するデジタル値(P1、P2)に変換され得る。特定の実施例で、このようなP1及びP2の値は、上記数学式3又は数学式4で使用され、ピクセル700とオブジェクト26とのピクセル特定の距離(又は範囲)を判定することができる。 In the embodiment shown in FIG. 9, all signals except TXEN signal 708 start at a logic 0 or low level as shown. Initially, PPD 508 is preset when RST signal 709, VTX signal 710, TXEN signal 708, and TX signal 711 are at a logic one level and VPIX signal 713 is held low. Thereafter, when VTX signal 710 and TX signal 711 go to logic 0 and VPIX signal 713 goes high (or logic 1), floating diffusion node/junction 712 is reset while RST signal 709 is logic 1. For convenience, the same reference number "712" will be used to refer to the floating diffusion node/junction of FIG. 7 and the associated voltage waveforms of the timing diagram of FIG. After floating diffusion node/junction 712 is reset high (eg, 0C from the charge domain), VTX signal 710 ramps while TXEN signal 708 is a logic one. TOF interval 902 of time of flight T tof is from when optical pulse 28 is transmitted until reflected optical pulse 37 is received and when charge is partially transferred from PPD 508 to floating diffusion node/junction 712. It is during the time when VTX signal 710 (and TX signal 711) ramps while electronic shutter signal 701 is on or open. This is a function of how much charge in PPD 508 is transferred to floating diffusion node/junction 712 and how long VTX ramps. Once the transmitted light pulse 28 is reflected off the object 26 and received by at least two SPADs in the SPAD core 501 of the pixel 700, the generated SPAD output 506 is processed by the logic unit 702, in other words, the TXEN Force signal 708 to be a fixed logic zero. Thus, in a time-correlated manner, detection of reflected light pulses 37 by at least two adjacent SPADs (ie, when the shutters are turned on or activated) is indicated by a logic zero level of TXEN signal 708. The logic low level of the TXEN signal 708 turns off the first transistor 703 and the second transistor 704, which stops the transfer of charge from the PPD 508 to the floating diffusion node/junction 712. When the electronic shutter signal 701 becomes a logic 0 and the SEL signal 714 (shown in FIG. 9) becomes a logic 1, the charge on the floating diffusion node/junction 712 is output to the data line at the voltage of PIXOUT 510 (PIXOUT1). Floating diffusion node/junction 712 is then reset again to a logic high RST signal 709 (as indicated by reference numeral "907"). Thereafter, when the TXEN signal 708 becomes a logic 1, the remaining charge on the PPD 508 is substantially completely transferred to the floating diffusion node/junction 712 and output from the PIXOUT 510 to the voltage (PIXOUT2) data line. As mentioned above, the PIXOUT1 and PIXOUT2 signals may be converted into corresponding digital values (P1, P2) by a suitable ADC unit (not shown). In certain embodiments, such values of P1 and P2 can be used in Equation 3 or Equation 4 above to determine a pixel-specific distance (or range) between pixel 700 and object 26.

一実施例で、論理ユニット702は、論理回路(図示せず)を含み、G()関数(図10を参照して説明する)に基づいて出力を生成し、その後に出力を図14に示すTXRMD信号1401に類似する信号のような内部的に生成された信号と論理的にOR演算し、最終的にTXEN信号708を獲得することができる。このような内部的に生成された信号は、電子シャッターがオンの間にローに保持されるが、TXEN信号708が論理1になってPPD508に残った電荷の転送(図9のイベント910)が可能になるようにハイに活性化される。いくつかの実施例で、TXRMD信号又は類似の信号は外部から供給され得る。 In one embodiment, logic unit 702 includes logic circuitry (not shown) to generate an output based on a G() function (described with reference to FIG. 10), and then generates an output as shown in FIG. It can be logically ORed with an internally generated signal, such as a signal similar to TXRMD signal 1401, to ultimately obtain TXEN signal 708. These internally generated signals are held low while the electronic shutter is on, but when the TXEN signal 708 becomes a logic 1 and the transfer of the remaining charge on the PPD 508 (event 910 in FIG. 9) occurs. Activated high to enable. In some embodiments, the TXRMD signal or similar signal may be provided externally.

図10は、論理ユニット702(図7)又は論理ユニット1319(図13)のような論理ユニットがピクセル700(図7)又はピクセル1300(図13)のようなピクセルでどのように具現されるかを説明するための図である。図10は、図6a又は図6bに示したものに類似する2×2構造の構成であり、4つのSPADコア(1002~1005)に関連付けられたPPDコア1001を備えたピクセル1000(ピクセル700又は1300いずれかを示す)の非常に単純化された図面を示す。4つのSPADの利用可能性は、時間的及び空間的に相関する4つの同時発生的な光子の検出を可能にする。いくつかの実施例で、ピクセル1000の論理ユニット(図示せず)は、図10に示した関数F(x、y)及びG(a、b、c)を具現する論理回路(図示せず)を含む。図10のF(x、y)ブロック(1006~1009)は、関数F(x、y)を具現する論理回路の入力及び出力を示す。従って、F(x、y)ブロック(1006~1009)は、このような論理回路を示し、そしてピクセル1000の論理ユニットの一部を総括的に形成する。説明の容易さのために、このようなブロックは、F(x、y)ブロックで参照される。便宜性のために、F(x、y)ブロック(1006~1009)をPPDコア1001の外部要素として図示するが、F(x、y)ブロック(1006~1009)の機能を具現する論理回路は、PPDコア1001内の論理ユニット(図示せず)の一部であり得ることを理解すべきである。 FIG. 10 shows how a logic unit, such as logic unit 702 (FIG. 7) or logic unit 1319 (FIG. 13), is implemented in a pixel, such as pixel 700 (FIG. 7) or pixel 1300 (FIG. 13). FIG. FIG. 10 shows a 2×2 configuration similar to that shown in FIG. 6a or 6b, with pixel 1000 (pixel 700 or 1300 (shown either). The availability of four SPADs allows the detection of four simultaneous photons that are temporally and spatially correlated. In some embodiments, the logic unit (not shown) of pixel 1000 includes a logic circuit (not shown) that implements the functions F(x,y) and G(a,b,c) shown in FIG. including. The F(x,y) blocks (1006 to 1009) in FIG. 10 indicate the inputs and outputs of the logic circuit that implements the function F(x,y). Thus, the F(x,y) blocks (1006-1009) represent such logic circuits and collectively form part of the logic unit of pixel 1000. For ease of explanation, such blocks are referred to as F(x,y) blocks. For convenience, the F(x,y) block (1006-1009) is illustrated as an external element of the PPD core 1001, but the logic circuit that implements the function of the F(x,y) block (1006-1009) is , may be part of a logical unit (not shown) within PPD core 1001.

図示したように、各F(x、y)のブロック(1006~1009)は、2つの入力(x、y)、即ち2つの関連するSPADコアのそれぞれから1つの入力を受信する。図5及び図7のコンテキストにおいて、このような入力はSPADコア501からの出力信号(SPAD出力506)の形態である。図13のコンテキストにおいて、SPAD出力(1310、1318)は、論理ユニット1319内のF(x、y)ブロックに必要な入力(x、y)を示す。SPADコアのペア当たり類似する2つの入力のF(x、y)ブロックが、例えば図6cのピクセルアレイの構成600cのようなPPDコアに関連付けられた4つよりも多くのSPADコアを有するピクセルに対して提供される。いくつかの実施例で、F(x、y)ブロック(1006~1009)の全ては、SPAD出力(それ自体のx及びyの入力として)の異なるペアに対して動作するように構成され、個々のF(x、y)ブロック(1006~1009)の機能を具現する論理回路を含むPPDコア1001内の単一F(x、y)ユニットを通して統合されて具現され得る。上述したように、本明細書に記載したTOF測定は、ピクセル内の少なくとも2つのSPADによる空間的及び時間的に相関する光子の検出に基づいて行われる。従って、図10で言及したように、各F(x、y)ブロック(1006~1009)(より詳細には、F(x、y)のブロック内の論理回路)は、事前に定義された次の動作を遂行するように構成され得る。事前に定義された動作は、(i)2つ又は4つの同時発生的な光子を検出するための対応するそれぞれの入力x及び入力yに対する否定NAND論理演算((x*y)で与えられる)、並びに(ii)3つの同時発生的な光子を検出するための対応するそれぞれの入力x及び入力yに対するの否定NOR論理演算((x+y)で与えられる)を含む。従って、SPADコア(1002~1005)からの信号(SPAD出力506)(図5)が2つ(又は4つ全て)のSPADがシャッターオン区間の間に検出された光子を有することを示す場合、F(x、y)ブロック(1006~1009)を具現する論理回路は、NAND論理演算を遂行する。同様に、SPADコア(1002~1005)からの信号(SPAD出力506)が3つのSPADがシャッターオン区間の間に検出された光子を有することを示す場合、NOR論理演算が選択される。図10に示した例で、3つのパルス(1010~1012)を図示し、3つのSPADコア(1003~1005)のそれぞれが反射された光パルス37(図2)のような入射光を検出した時に3つの同時発生的な光子を検出する例を示す。 As shown, each F(x,y) block (1006-1009) receives two inputs (x,y), one input from each of the two associated SPAD cores. In the context of FIGS. 5 and 7, such input is in the form of an output signal from SPAD core 501 (SPAD output 506). In the context of FIG. 13, the SPAD outputs (1310, 1318) indicate the required inputs (x, y) to the F(x, y) block within logic unit 1319. F(x,y) blocks of two similar inputs per pair of SPAD cores are used for pixels with more than four SPAD cores associated with the PPD cores, such as pixel array configuration 600c of FIG. 6c. provided for. In some embodiments, all of the F(x,y) blocks (1006-1009) are configured to operate on different pairs of SPAD outputs (as their own x and y inputs), and each can be integrated and implemented through a single F(x,y) unit within the PPD core 1001, which includes logic circuits implementing the functions of the F(x,y) blocks (1006-1009). As mentioned above, the TOF measurements described herein are based on the detection of spatially and temporally correlated photons by at least two SPADs within a pixel. Therefore, as mentioned in FIG. 10, each F(x,y) block (1006-1009) (more specifically, the logic circuit within the block of F(x,y)) may be configured to perform the operations of. The predefined operations are: (i) Negation NAND logical operation on corresponding respective inputs x and inputs y to detect two or four simultaneous photons (given by (x*y)); , and (ii) corresponding negated NOR logic operations on the respective inputs x and y (given by (x+y)) to detect three simultaneous photons. Therefore, if the signals from the SPAD cores (1002-1005) (SPAD outputs 506) (FIG. 5) indicate that two (or all four) SPADs have photons detected during the shutter-on interval, A logic circuit implementing the F(x,y) blocks (1006-1009) performs a NAND logic operation. Similarly, if the signals from the SPAD cores (1002-1005) (SPAD outputs 506) indicate that three SPADs have photons detected during the shutter-on interval, the NOR logic operation is selected. In the example shown in Figure 10, three pulses (1010-1012) are illustrated, each of the three SPAD cores (1003-1005) detecting an incident light beam such as reflected light pulse 37 (Figure 2). An example is shown in which sometimes three simultaneous photons are detected.

再び図10を参照すると、各F(x、y)のブロック(1006~1009)の出力は対応する参照文字(a、b、c、d)を用いて表示される。PPDコア1001内の論理ユニット(図示せず)は、出力(a~d)を受信して処理する追加的な論理回路(図示せず)を含む。論理回路は、このような出力4つの全てを入力として受信し、事前に定義された論理関数G(a,b,c,d)に基づいてこれらについて演算する。例えば、図10に示したように、2つの同時発生的な光子を検出する場合に、G()関数は入力(a~d)の4つの全てに対してNAND論理演算((a*b*c*d)で与えられる)を行う。一方、3つ又は4つの同時発生的な光子を検出する場合、G()関数は入力(a~d)の4つの全てに対してNOR論理演算((a+b+c+d)で与えられる)を遂行する。一実施例で、図7のTXEN信号708又は図13のTXEN信号1325のようなTXEN信号はG()関数を具現する論理回路の出力である。他の実施例において、G()関数のための論理回路の出力は、図14のTXRMD信号1401のような内部的に生成された信号と論理和(OR)演算されて、最終的なTXEN信号を獲得することができる。 Referring again to FIG. 10, the output of each F(x,y) block (1006-1009) is represented using a corresponding reference character (a, b, c, d). A logic unit (not shown) within PPD core 1001 includes additional logic circuitry (not shown) to receive and process the outputs (a-d). The logic circuit receives all four such outputs as input and operates on them based on a predefined logic function G(a, b, c, d). For example, as shown in Figure 10, when detecting two simultaneous photons, the G() function performs a NAND logic operation ((a*b* c*d)). On the other hand, when detecting three or four simultaneous photons, the G() function performs a NOR logic operation (given by (a+b+c+d)) on all four of the inputs (a-d). In one embodiment, the TXEN signal, such as TXEN signal 708 of FIG. 7 or TXEN signal 1325 of FIG. 13, is the output of a logic circuit that implements the G( ) function. In other embodiments, the output of the logic circuit for the G() function is ORed with an internally generated signal, such as the TXRMD signal 1401 of FIG. 14, to produce the final TXEN signal. can be obtained.

図11は、図1及び図2のシステム15でTOF値がどのように判定されるかの一例を示すフローチャート1100である。図11に示した多様なステップは、システム15の単一のモジュールやモジュールの組み合わせやシステム構成要素によって遂行され得る。本明細書の説明で、例示の手段としてのみ特定のタスクが特定のモジュール又はシステム構成要素によって遂行されるものとして記述する。他のモジュール又はシステム構成要素は、またこのようなタスクを遂行するように適切に構成され得る。ステップ1101で言及するように、システム15(より詳細には、プロジェクターモジュール22)は、図2の光パルス28のようなレーザーパルスを図2のオブジェクト26のようなオブジェクトに照射する。ステップ1102で、プロセッサ19(又は特定の実施例でピクセル処理ユニット46)は、図7のVTX信号710のような振幅変調信号を図7のピクセル700内のPPD508のようなピクセル内のPPDに印加する。ピクセル700は、図2のピクセルアレイ42のピクセル43の任意のものである。ステップ1103で、ピクセル処理ユニット46は、振幅変調信号(VTX信号710)から受信された変調に基づいて、PPD508に格納された電荷の一部の転送を開始する。このような電荷転送を開始するために、ピクセル処理ユニット46は、電子シャッター信号701、VPIX信号713、及びRST信号709のような多様な外部信号を、図9の例示的なタイミング図に示した論理レベルでピクセル700に提供する。ステップ1104で、反射された光パルス37のような反射されたパルスがピクセル700内の複数のSPADを用いて検出される。上述したように、反射された光パルス37はオブジェクト26から反射された照射された光パルス28であり、ピクセル700内の各SPAD(SPADコア501内の)は反射されたパルスから受信された明るさを、対応する(SPAD特定)電気信号に変換する。 FIG. 11 is a flowchart 1100 illustrating an example of how TOF values are determined in system 15 of FIGS. 1 and 2. The various steps illustrated in FIG. 11 may be performed by a single module or combination of modules or system components of system 15. In the description herein, certain tasks are described as being performed by particular modules or system components, by way of example only. Other modules or system components may also be suitably configured to perform such tasks. As noted in step 1101, system 15 (more specifically, projector module 22) applies a laser pulse, such as light pulse 28 of FIG. 2, to an object, such as object 26 of FIG. 2. At step 1102, processor 19 (or pixel processing unit 46 in a particular embodiment) applies an amplitude modulated signal, such as VTX signal 710 of FIG. 7, to a PPD within the pixel, such as PPD 508 within pixel 700 of FIG. do. Pixel 700 is any of pixels 43 of pixel array 42 of FIG. At step 1103, pixel processing unit 46 begins transferring a portion of the charge stored in PPD 508 based on the modulation received from the amplitude modulated signal (VTX signal 710). To initiate such charge transfer, pixel processing unit 46 receives various external signals, such as electronic shutter signal 701, VPIX signal 713, and RST signal 709, as shown in the exemplary timing diagram of FIG. Provided to pixel 700 at a logic level. At step 1104, reflected pulses, such as reflected light pulse 37, are detected using multiple SPADs within pixel 700. As mentioned above, reflected light pulse 37 is the illuminated light pulse 28 reflected from object 26, and each SPAD within pixel 700 (within SPAD core 501) receives the brightness from the reflected pulse. to a corresponding (SPAD specific) electrical signal.

明るさを受信する各SPADに対して、ピクセル700内のSPADコア501内の第1制御回路504は、対応する(SPAD-特定)電気信号を処理してSPAD特定のデジタル出力を生成する(ステップ1105)。このようなSPAD特定のデジタル出力の全ては、図5及び図7の参照番号「506」を有する矢印により総括的に表される。図9の説明を参照して言及したように、論理ユニット702は、SPAD出力506を処理し、出力が時間的及び空間的に相関する限りTXEN信号708を論理0(ロー)の状態に置く。TXEN信号708の論理0レベルはピクセル700内の第1トランジスタ703及び第2トランジスタ704をターンオフし、これはPPD508からフローティングディフュージョンノード/ジャンクション712への電荷の転送を停止する。従って、ステップ1106で、図9の区間(シャッターオン区間904)のシャッター内のような予め定められた時間区間の間に少なくとも2つのSPADのデジタル出力が生成されるに伴い、第2制御回路507は先に開始された電荷の一部の転送(ステップ1103で)を終了する。 For each SPAD receiving brightness, a first control circuit 504 within the SPAD core 501 within the pixel 700 processes the corresponding (SPAD-specific) electrical signal to produce a SPAD-specific digital output (step 1105). All such SPAD specific digital outputs are collectively represented by the arrows having the reference number "506" in FIGS. 5 and 7. As mentioned with reference to the description of FIG. 9, logic unit 702 processes SPAD outputs 506 and places TXEN signal 708 in a logic 0 (low) state as long as the outputs are temporally and spatially correlated. The logic 0 level of the TXEN signal 708 turns off the first transistor 703 and the second transistor 704 within the pixel 700, which stops the transfer of charge from the PPD 508 to the floating diffusion node/junction 712. Therefore, in step 1106, as the digital outputs of at least two SPADs are generated during a predetermined time interval, such as within the shutter of the interval (shutter-on interval 904) of FIG. 9, the second control circuit 507 ends the previously started transfer of a portion of the charge (at step 1103).

図7を参照して上述したように、フローティングディフュージョンノード/ジャンクション712に転送された電荷の一部はPIXOUT1信号として読み出されて適切なデジタル値P1に変換され、デジタル値P1は後続で生成されるデジタル値P2(PIXOUT2信号に対して)と共に使用され、「P1/(P1+P1)」の比率からTOF情報を獲得するために使用される。従って、ステップ1107で、終了(ステップ1106で)により、転送されたアナログ電荷の一部分に基づいて、システム15内のピクセル処理ユニット46又はプロセッサ19は、反射された光パルス37のTOF値を判定することができる。 As discussed above with reference to FIG. 7, a portion of the charge transferred to the floating diffusion node/junction 712 is read out as the PIXOUT1 signal and converted to the appropriate digital value P1, which is subsequently generated. is used with the digital value P2 (for the PIXOUT2 signal) to obtain the TOF information from the ratio of "P1/(P1+P1)". Accordingly, at step 1107, upon termination (at step 1106), based on the portion of the transferred analog charge, the pixel processing unit 46 or processor 19 within the system 15 determines the TOF value of the reflected light pulse 37. be able to.

図12は、イメージセンサユニット1200の一部分の一例を示すレイアウト図である。イメージセンサユニット1200は、図1及び図2に示したイメージセンサユニット24に対応する。図12に示したイメージセンサユニット1200の一部分は、反射された光をキャプチャーしてTOF値(数学式2から)の後続の計算のためのP1及びP2の値を生成し、必要に応じてオブジェクト26の3Dイメージの生成のために必要な信号を提供することに関連付けられる。図2の場合のように、図12のイメージセンサユニット1200内のピクセルアレイ1201を、便宜のために3×3に配置された9つのピクセルを有するものとして示す。実際には、ピクセルアレイは多数の行及び列で数十万又は数百万個のピクセルを含み得る。いくつかの実施例で、ピクセルアレイ1201の各ピクセルは同じ構成を有することができ、従って各ピクセルは図12に示したように同一の参照番号「1202」を用いて識別される。図12の実施例で、2Dピクセルアレイ1201は、各ピクセル1202が図13に示すピクセル1300の可能性があるCMOS(Complementary Metal Oxide Semiconductor)アレイであり得る。図12の例示的なレイアウトは図13のピクセル構成に関するものであるが、図12のイメージセンサユニット1200は、各ピクセル1202が図7に示した構成を有する場合に適切に修正され得ることが理解されるべきである。いくつかの実施例で、ピクセル1202は、図7及び図13に示すものとは異なる構成を有することができ、行デコーダ/ドライバ1203、列デコーダ1204などのような図12の補助処理ユニットは、必要なピクセル構成で動作するために適切に修正され得る。 FIG. 12 is a layout diagram showing an example of a portion of the image sensor unit 1200. Image sensor unit 1200 corresponds to image sensor unit 24 shown in FIGS. 1 and 2. A portion of the image sensor unit 1200 shown in FIG. 12 captures the reflected light to generate values of P1 and P2 for subsequent calculation of the TOF value (from Equation 2) and, if necessary, 26 associated with providing the necessary signals for the generation of 3D images. As in FIG. 2, the pixel array 1201 in the image sensor unit 1200 of FIG. 12 is shown for convenience as having nine pixels arranged in a 3×3 arrangement. In practice, a pixel array may include hundreds of thousands or millions of pixels in numerous rows and columns. In some embodiments, each pixel of pixel array 1201 can have the same configuration, and thus each pixel is identified using the same reference number "1202" as shown in FIG. 12. In the example of FIG. 12, 2D pixel array 1201 may be a complementary metal oxide semiconductor (CMOS) array, where each pixel 1202 may be a pixel 1300 as shown in FIG. Although the exemplary layout of FIG. 12 is for the pixel configuration of FIG. 13, it is understood that the image sensor unit 1200 of FIG. 12 may be suitably modified if each pixel 1202 has the configuration shown in FIG. It should be. In some implementations, pixels 1202 can have a different configuration than shown in FIGS. 7 and 13, and the auxiliary processing units of FIG. 12, such as row decoder/driver 1203, column decoder 1204, etc. It can be modified appropriately to work with the required pixel configuration.

ピクセルアレイ1201に加えて、図12に示した実施例で、イメージセンサユニット1200は、また行デコーダ/ドライバ1203、列デコーダ1204、そして2D及び3Dイメージング中に使用される列特定のアナログ/デジタル変換器(ADC)だけでなく、相関ダブルサンプリング(CDS)のための回路を含むピクセルの列ユニット1205を含む。一実施例で、ピクセルの列当たり1つのADCが有る。いくつかの実施例で、処理ユニット(1203、1204、1205)は、図2に示したピクセル処理ユニット46の一部であり得る。図12の実施例で、行デコーダ/ドライバ1203は、ピクセルの行の各ピクセル1202への入力として6つの異なる信号を提供してピクセルアレイ1201のピクセルの動作を制御することにより、列特定のPIXOUT信号(1206~1208)の生成を可能にするものとして示される。図12の矢印(1209~1211)のそれぞれは、対応する行の各ピクセル43への入力に適用されるこのような信号の行特定のセットを示す。このような信号は、リセット(RST)信号、第2伝送(TX2)信号、電子シャッター(SH)信号、伝送電圧(VTX)信号、ピクセル電圧(VPIX)信号、及び行選択(SEL)信号を含む。図13は、このような信号がピクセルにどのように印加されるのかを示す。図14は、このような信号の多数を含む例示的なタイミング図を示す。 In addition to the pixel array 1201, in the embodiment shown in FIG. 12, the image sensor unit 1200 also includes a row decoder/driver 1203, a column decoder 1204, and a column-specific analog-to-digital conversion used during 2D and 3D imaging. It includes a pixel column unit 1205 that includes circuitry for correlated double sampling (CDS) as well as an ADC. In one embodiment, there is one ADC per column of pixels. In some examples, processing units (1203, 1204, 1205) may be part of pixel processing unit 46 shown in FIG. 2. In the embodiment of FIG. 12, the row decoder/driver 1203 controls the operation of the pixels in the pixel array 1201 by providing six different signals as inputs to each pixel 1202 in the row of pixels to control the operation of the pixels in the pixel array 1201. Shown as enabling the generation of signals (1206-1208). Each of the arrows (1209-1211) in FIG. 12 indicates a row-specific set of such signals applied to the input to each pixel 43 of the corresponding row. Such signals include a reset (RST) signal, a second transmission (TX2) signal, an electronic shutter (SH) signal, a transmission voltage (VTX) signal, a pixel voltage (VPIX) signal, and a row selection (SEL) signal. . Figure 13 shows how such a signal is applied to a pixel. FIG. 14 shows an exemplary timing diagram including a number of such signals.

一実施例で、行選択(SEL)信号は、ピクセルの適切な行を選択するために活性化される。行デコーダ/ドライバ1203は、例えばプロセッサ19から行アドレス/制御入力1212を介して、選択される行に対するアドレス又は制御情報を受信する。行デコーダ/ドライバ1203は、受信された行アドレス/制御入力1212をデコードし、行デコーダ/ドライバ1203がSEL信号を用いて適切な行を選択するようにし、また対応するRST、VTX、及び他の信号を選択された/デコーディングされた行に提供する。ピクセル入力として適用される場合、このような信号のより詳細な説明を、図13及び図14の説明を参照して後に提供する。いくつかの実施例で、行デコーダ/ドライバ1203は、また例えばプロセッサ19から制御信号(図示せず)を受信し、矢印(1209~1211)で示したSEL、RST、VTX、SH、及び多様な他の信号のために、適切な電圧レベルを印加するように行デコーダ/ドライバ1203を構成する。 In one embodiment, a row select (SEL) signal is activated to select the appropriate row of pixels. Row decoder/driver 1203 receives address or control information for the selected row via row address/control input 1212, for example from processor 19. Row decoder/driver 1203 decodes the received row address/control input 1212, causing row decoder/driver 1203 to select the appropriate row using the SEL signal, and the corresponding RST, VTX, and other Provide a signal to the selected/decoded row. A more detailed description of such signals when applied as pixel inputs is provided below with reference to the descriptions of FIGS. 13 and 14. In some embodiments, the row decoder/driver 1203 also receives control signals (not shown), such as from the processor 19, and controls the SEL, RST, VTX, SH, and various For other signals, row decoder/driver 1203 is configured to apply appropriate voltage levels.

ピクセルの列ユニット1205は、選択された行のピクセルからPIXOUT信号(1206~1208)を受信し、これらを処理してTOF測定が獲得されるピクセル特定の信号値を生成する。信号値は、図12の矢印1213で示すように、上述したP1及びP2の値である。各列特定のADCユニットは、受信された入力(PIXOUT信号)を処理して、対応するデジタルデータ出力(P1及びP2の値)を生成する。ピクセルの列ユニット1205内のCDS及びADC回路(図示せず)によって提供されるCDS及びADCの動作の追加的な詳細は、図14を参照して以下に提供する。図12に示した実施例で、列デコーダ1204は、ピクセルの列ユニット1205に結合されるものして図示される。列デコーダ1204は、与えられた行選択(SEL)信号に関連して選択される列に対する列アドレス/制御入力1214を、例えばプロセッサ19から受信する。列の選択は順次的であり、従って対応するSEL信号により選択された行の各ピクセルからのピクセル出力の順次受信が可能である。プロセッサ19は、適切な行アドレス入力を提供してピクセルの行を選択し、また適切な列アドレス入力を列デコーダ1204に提供してピクセルの列ユニット1205が選択された行の個々のピクセルから出力(PIXOUT信号)を受信するようにする。 Pixel column unit 1205 receives PIXOUT signals (1206-1208) from the selected row of pixels and processes them to generate pixel-specific signal values from which TOF measurements are obtained. The signal values are the values of P1 and P2 described above, as shown by arrow 1213 in FIG. Each column specific ADC unit processes the received input (PIXOUT signal) and produces a corresponding digital data output (P1 and P2 values). Additional details of the operation of the CDS and ADC provided by CDS and ADC circuitry (not shown) within pixel column unit 1205 are provided below with reference to FIG. In the embodiment shown in FIG. 12, column decoder 1204 is shown coupled to a column unit 1205 of pixels. Column decoder 1204 receives a column address/control input 1214, for example from processor 19, for a column to be selected in conjunction with a provided row select (SEL) signal. Column selection is sequential, thus allowing sequential reception of pixel output from each pixel in the row selected by the corresponding SEL signal. Processor 19 provides appropriate row address inputs to select a row of pixels and also provides appropriate column address inputs to column decoder 1204 to cause pixel column units 1205 to output from individual pixels of the selected row. (PIXOUT signal).

図13は、ピクセル1300の他の例を示す回路図である。図13のピクセル1300は、図2に示したより包括的なピクセル43の他の例である。ピクセル1300は、SPADコアの一部として多数のSPADコア(即ち、SPADコア1~SPADコアN、Nは2以上)を含み得る。図13で、2つのこのようなSPADコア(1301A及び1301N)をいくつかの回路の詳細と共に示す。いくつかの実施例で、類似の回路が図7のピクセル700内のSPADコアのために採用され得ることに留意しなければならない。SPADコア1300Aは、抵抗性素子1304(抵抗のような)を介してSPAD動作電圧(VSPAD)1303を受信するSPAD1302を含む。しかし、SPADの構成は図13に示したものに限定されない。一実施例で、レジスタ1304とSPAD1302との位置は交換され得る。SPADコア1301Aで、SPAD1302は光に応答する。SPAD1302が光子を受信すると、SPAD1302は、VSPADのレベルから0Vになり、VSPADに復元するパルスを出力する。SPAD1302からの出力は、キャパシタ1305を介してフィルタリングされてインバータ1306(バッファ及びラッチの組み合わせで機能する)に印加される。一実施例で、キャパシタ1305は省略され得る。SPADコア1301Aは、ゲート端子で電子シャッター信号1308を受信するPMOSトランジスタ1307を含み、トランジスタ1307のドレイン端子はキャパシタ(そしてインバータ1306の入力)に連結され、トランジスタ1307のソース端子は供給電圧1309(VDD)(又は一部の実施例でVPIXの電圧)を受信する。電子シャッター信号1308がターンオフされると(例えば、論理0又はローレベル)、トランジスタ1307は導通し、インバータ1306の出力1310は、SPADコア1301Aから受信された任意の出力の状態とは無関係に固定された電圧レベル(例えば、論理ロー又は論理0の状態)に維持される。電子シャッター信号1308がターンオン又は活性である場合、SPADコア1301Aからの出力は、PPDコア1311のみ適用される。シャッターが活性である場合(例えば、論理1レベル)、トランジスタ1307はターンオフされ、SPAD生成出力はインバータ1306に転送(カップリングキャパシタ1305を介して)されて出力ライン1310で正のパルス(ローからハイに)として表われる。 FIG. 13 is a circuit diagram showing another example of the pixel 1300. Pixel 1300 in FIG. 13 is another example of the more comprehensive pixel 43 shown in FIG. Pixel 1300 may include multiple SPAD cores (ie, SPAD core 1 to SPAD core N, where N is 2 or more) as part of the SPAD cores. Two such SPAD cores (1301A and 1301N) are shown in FIG. 13 along with some circuit details. It should be noted that in some embodiments, a similar circuit may be employed for the SPAD core within pixel 700 of FIG. SPAD core 1300A includes a SPAD 1302 that receives a SPAD operating voltage (VSPAD) 1303 via a resistive element 1304 (such as a resistor). However, the configuration of SPAD is not limited to that shown in FIG. 13. In one embodiment, the locations of register 1304 and SPAD 1302 may be swapped. In SPAD core 1301A, SPAD 1302 responds to light. When SPAD 1302 receives a photon, SPAD 1302 outputs a pulse that goes from the level of VSPAD to 0V and restores VSPAD. The output from SPAD 1302 is filtered through capacitor 1305 and applied to inverter 1306 (which functions as a combination buffer and latch). In one embodiment, capacitor 1305 may be omitted. SPAD core 1301A includes a PMOS transistor 1307 that receives an electronic shutter signal 1308 at its gate terminal, the drain terminal of transistor 1307 is coupled to a capacitor (and the input of inverter 1306), and the source terminal of transistor 1307 is connected to supply voltage 1309 (VDD ) (or the voltage of VPIX in some embodiments). When electronic shutter signal 1308 is turned off (e.g., logic 0 or low level), transistor 1307 conducts and output 1310 of inverter 1306 is fixed regardless of the state of any output received from SPAD core 1301A. voltage level (eg, a logic low or logic 0 state). When electronic shutter signal 1308 is turned on or active, the output from SPAD core 1301A is applied only to PPD core 1311. When the shutter is active (e.g., logic 1 level), transistor 1307 is turned off and the SPAD generated output is transferred to inverter 1306 (via coupling capacitor 1305) to generate a positive pulse (low to high) on output line 1310. ).

SPADコア1301Nは、回路の詳細でSPADコア1301Aと同一の可能性があり、従ってSPADコア1301Nの動作的詳細は提供されない。図示したように、SPADコア1310Nは、コア特定のSPAD1312、VSPAD信号1303をSPAD1312に供給する抵抗性素子1313、及び電子シャッター信号1308の入力を介してインバータ1316の動作を制御するPMOSトランジスタ1317を含む。インバータ1316の出力は、更なる処理のためにPPDコア1311に提供される。いくつかの実施例で、VSPAD信号1303、VDD信号1309、及び電子シャッター信号1308は、図2のピクセル処理ユニット46(又はプロセッサ)の図12に示した行デコーダ/ドライバ1203又は他の任意のモジュール(図示せず)のような外部ユニットから各SPADコア(1301A、1301N)に供給される得る。SPADコア特定の出力(1310、1318)の両方は、総括的に図5の参照番号「506」を用いて識別される信号を形成する。 SPAD core 1301N may be identical to SPAD core 1301A in circuit details, so operational details of SPAD core 1301N are not provided. As shown, the SPAD core 1310N includes a core-specific SPAD 1312, a resistive element 1313 that provides a VSPAD signal 1303 to the SPAD 1312, and a PMOS transistor 1317 that controls the operation of an inverter 1316 via an input of an electronic shutter signal 1308. . The output of inverter 1316 is provided to PPD core 1311 for further processing. In some embodiments, the VSPAD signal 1303, the VDD signal 1309, and the electronic shutter signal 1308 are input to the row decoder/driver 1203 shown in FIG. 12 of the pixel processing unit 46 (or processor) of FIG. 2 or any other module. Each SPAD core (1301A, 1301N) may be supplied from an external unit such as (not shown). Both SPAD core specific outputs (1310, 1318) form a signal collectively identified with reference numeral "506" in FIG.

従って、電子シャッター信号1308は、SPADコア(1301A、1301N)からの出力(1310、1318)がピクセル1300の中のSPADコア(1301A、1301N)の隣接する位置によって空間的に相関することに加えて、時間的に(又は時間方式で)相関する。追加のピクセル幾何情報は、図6a~図6cの例示的な実施例に示される。 Therefore, electronic shutter signal 1308 is generated in addition to the fact that the outputs (1310, 1318) from SPAD cores (1301A, 1301N) are spatially correlated by the adjacent positions of SPAD cores (1301A, 1301N) within pixel 1300. , are temporally (or temporally) correlated. Additional pixel geometry information is shown in the exemplary embodiments of FIGS. 6a-6c.

図7のピクセル700のように、図13のピクセル1300は、またPPD508、論理ユニット1319、第1NMOSトランジスタ1320、第2NMOSトランジスタ1321、第3NMOSトランジスタ1322、第4NMOSトランジスタ1323、及び第5NMOSトランジスタ1324を含み、内部入力(TXEN信号1325)を生成し、外部入力のRST信号1326、VTX信号1327(そして、TX信号1328)、VPIX信号1329、及びSEL信号1330を受信し、フローティングディフュージョン(FD)ノード/ジャンクション1331を有し、PIXOUT信号510を出力する。図7のピクセル700とは異なるように、図13のピクセル1300は、またTXEN信号1325の相補信号であり第6NMOSトランジスタ1334のゲート端子に供給されるTXEN信号(TXENB)1333を生成する。第6NMOSトランジスタ1334は、第1NMOSトランジスタ1320のソース端子に連結されたドレイン端子及び接地(GND)電位1335に連結されたソース端子を有する。TXENB信号1333は、GND電位を第2NMOSトランジスタ1321(TXトランジスタ)のゲート端子に移すのに使用される。TXENB信号1333がない場合、TXEN信号1325がローになる時に第2NMOSトランジスタ1321(TXトランジスタ)のゲートはフローティングされ、PPD508からの電荷の転送が完全に終了しない可能性がある。このような状況は、TXENB信号1333を利用して改善される。更に、ピクセル1300は、またストレージディフュージョン(SD)キャパシタ1336及び第7NMOSトランジスタ1337を含む。SDキャパシタ1336は、第2NMOSトランジスタ1321のドレイン端子及び第7NMOSトランジスタ1337のソース端子のジャンクションに連結され、ジャンクションにSDノード1338を形成する。第7NMOSトランジスタ1337は、ゲート端子で入力として異なる第2伝送(TX2)信号1339を受信する。第7NMOSトランジスタ1337のドレインは、図示したようにFDノード1331に連結される。 Like the pixel 700 of FIG. 7, the pixel 1300 of FIG. , generates an internal input (TXEN signal 1325) and receives external inputs RST signal 1326, VTX signal 1327 (and TX signal 1328), VPIX signal 1329, and SEL signal 1330, and connects a floating diffusion (FD) node/junction. 1331 and outputs a PIXOUT signal 510. Unlike pixel 700 of FIG. 7, pixel 1300 of FIG. 13 also generates a TXEN signal (TXENB) 1333, which is the complement of TXEN signal 1325 and is provided to the gate terminal of a sixth NMOS transistor 1334. The sixth NMOS transistor 1334 has a drain terminal connected to the source terminal of the first NMOS transistor 1320 and a source terminal connected to a ground (GND) potential 1335. The TXENB signal 1333 is used to transfer the GND potential to the gate terminal of the second NMOS transistor 1321 (TX transistor). In the absence of the TXENB signal 1333, the gate of the second NMOS transistor 1321 (TX transistor) is floated when the TXEN signal 1325 goes low, and there is a possibility that the charge transfer from the PPD 508 is not completely completed. This situation can be improved using the TXENB signal 1333. Furthermore, pixel 1300 also includes a storage diffusion (SD) capacitor 1336 and a seventh NMOS transistor 1337. The SD capacitor 1336 is connected to a junction between the drain terminal of the second NMOS transistor 1321 and the source terminal of the seventh NMOS transistor 1337, forming an SD node 1338 at the junction. The seventh NMOS transistor 1337 receives as input a different second transmission (TX2) signal 1339 at its gate terminal. A drain of the seventh NMOS transistor 1337 is connected to the FD node 1331 as shown.

いくつかの実施例で、RST信号、VTX信号、VPIX信号、TX2信号、及びSEL信号は図12に示した行デコーダ/ドライバ1203のような外部ユニットからピクセル1300に供給され得る。いくつかの実施例で、SDキャパシタ1336は、余分のキャパシタではなく、単にSDノード1338のジャンクションキャパシタである可能性もある。図5と図13との比較は、ピクセル1300でSPADコア(1301A、1301N)の全てが総括的に図5のSPAD503を形成し、各SPADコア(1301A、1301N)からの非SPAD回路要素の全てが総括的に図5の第1制御回路504を形成し、そしてPPDコア502の非PPD回路要素の全てが図5の第2制御回路507を形成できることを示す。 In some embodiments, the RST, VTX, VPIX, TX2, and SEL signals may be provided to pixel 1300 from an external unit, such as row decoder/driver 1203 shown in FIG. 12. In some embodiments, SD capacitor 1336 may simply be a junction capacitor at SD node 1338 rather than an extra capacitor. A comparison between FIG. 5 and FIG. 13 shows that in pixel 1300 all of the SPAD cores (1301A, 1301N) collectively form SPAD 503 of FIG. collectively form the first control circuit 504 of FIG. 5, and that all of the non-PPD circuit elements of the PPD core 502 can form the second control circuit 507 of FIG.

ピクセル1300において、電荷転送トリガー部分はSPADコア(1301A、1301N)(そして、他のこのようなコア)及び論理ユニット1319を含む。電荷の生成及び転送部分は、PPD508、NMOSトランジスタ(1320~1322、1334、1337)、及びSDキャパシタ1336を含む。電荷収集及び出力部分はNMOSトランジスタ(1322~1324)を含む。様々な回路構成要素のそれぞれの部分への分割は、例示的で説明の目的のみのためのものであることに留意しなければならない。いくつかの実施例で、このような部分は、本明細書に記載したものよりも多いか又はより少ない他の回路構成要素を含み得る。 In pixel 1300, the charge transfer trigger portion includes SPAD cores (1301A, 1301N) (and other such cores) and logic unit 1319. The charge generation and transfer portion includes a PPD 508, NMOS transistors (1320-1322, 1334, 1337), and an SD capacitor 1336. The charge collection and output portion includes NMOS transistors (1322-1324). It should be noted that the division of various circuit components into respective parts is exemplary and for explanation purposes only. In some embodiments, such portions may include more or fewer other circuit components than those described herein.

上述したように、CDSベースの電荷収集及び出力部分を除いて、図13のピクセル構成は、図7のものと実質的に類似する。従って、便宜のために、トランジスタ(1320~1234)に関連付けられた入力(RST信号、SEL信号、VPIX信号など)のような図7と図13との間で共通の回路部分及び信号は、本明細書で説明しない。CDSは、ピクセル/センサ出力電圧(PIXOUT)のような電気的値を不必要なオフセットの除去を許容する方法で測定するためのノイズ低減技術である。いくつかの実施例で、列特定のCDSユニット(図示せず)は、ピクセルの列ユニット1205(図12)に採用されて相関する二重サンプリングを行うことができる。CDSで、図13のピクセル1300のようなピクセルの出力は、一回は知られている条件で、そして一回は知られていない条件で二回測定され得る。知られている条件から測定された値は、知られていない条件から測定された値から減算され、測定される物理量に対する既知の関係を有する値、即ち受信された光のピクセル特定の部分を表すPPD電荷を生成することができる。CDSを用いて、各電荷転送の終わりでピクセルの信号電圧からピクセルの基準電圧(例えば、リセットされた後のピクセルの電圧)を除去することにより、ノイズが低減され得る。従って、CDSで、ピクセルの電荷が出力に転送される前にリセット/基準値がサンプルされ、これはその後にピクセルの電荷が転送された後の値から差し引かれる。 As mentioned above, except for the CDS-based charge collection and output portions, the pixel configuration of FIG. 13 is substantially similar to that of FIG. 7. Therefore, for convenience, circuit parts and signals common between FIG. 7 and FIG. Not explained in the specification. CDS is a noise reduction technique for measuring electrical values such as pixel/sensor output voltages (PIXOUT) in a manner that allows removal of unnecessary offsets. In some embodiments, a column-specific CDS unit (not shown) can be employed in a pixel's column unit 1205 (FIG. 12) to perform correlated double sampling. With CDS, the output of a pixel, such as pixel 1300 in FIG. 13, can be measured twice, once under known conditions and once under unknown conditions. The value measured from known conditions is subtracted from the value measured from unknown conditions, representing a value that has a known relationship to the physical quantity being measured, i.e. represents a pixel-specific portion of the received light. PPD charges can be generated. Using CDS, noise may be reduced by removing the pixel's reference voltage (eg, the pixel's voltage after being reset) from the pixel's signal voltage at the end of each charge transfer. Thus, in the CDS, a reset/reference value is sampled before the pixel's charge is transferred to the output, and this is then subtracted from the value after the pixel's charge is transferred.

図13の実施例で、SDキャパシタ1336(又は関連するSDノード1338)は、PPD電荷がフローティングディフュージョンノード1331に転送される前に、PPD電荷を格納し、従って電荷がフローティングディフュージョンノード1331に転送される前にフローティングディフュージョンノード1331で適切なリセット値が樹立(そしてサンプリング)されるようにする。その結果、各ピクセル特定の出力(PIXOUT1及びPIXOUT2)は、ピクセルの列ユニット1205(図12)の列特定のCDSユニット(図示せず)で処理され、ピクセル特定のCDS出力のペアを獲得することができる。その後に、ピクセル特定のCDS出力は、ピクセルの列ユニット1205の各列特定のADCユニット(図示せず)によって、図12の矢印1213で示されるP1及びP2のようなデジタル値に変換され得る。図13のトランジスタ(1334、1337)、並びにTXENB信号1333及びTX2信号1339は、CDSベーのス電荷転送を遂行するために必要且つ補助的な回路構成要素を提供する。一実施例で、P1及びP2の値は、例えば列特定のADCユニットの一部としてADC回路の同じペアを利用して並列に生成され得る。従って、PIXOUT1及びPIXOUT2信号のリセットレベルと対応するPPD電荷レベルとの間の差は、列並列ADCによってデジタル値に変換されてピクセル特定の信号値(即ち、P1及びP2)に出力され、上記数学式2に基づいてピクセル1300に対する反射された光パルス37のピクセル特定のTOF値の計算を可能にする。上述したように、このような計算は、システム15のピクセル処理ユニット46又はプロセッサ19によって遂行され得る。その結果、オブジェクト26(図2)のピクセル特定の距離も、また例えば数学式3及び数学式4を用いて判定され得る。ピクセル単位の電荷収集動作は、ピクセルアレイ42のピクセルの行の全てに対して繰り返しされる。ピクセルアレイ42のピクセル43のピクセル特定の距離又は範囲の値に基づいて、オブジェクト26の3Dイメージは、例えばプロセッサ19によって生成されてシステム15に関連する適切なディスプレイ又はユーザーインターフェースに表示され得る。オブジェクト26の2Dイメージは、例えば範囲の値が計算されない場合又は値の範囲が可能であるにも拘らず2Dイメージが必要な場合に、P1及びP2の値を単純に加えることで生成される。いくつかの実施例で、このような2Dイメージは、例えばIRレーザーが使用されたときに、単純にグレイスケールイメージである。 In the embodiment of FIG. 13, SD capacitor 1336 (or associated SD node 1338) stores PPD charge before the PPD charge is transferred to floating diffusion node 1331, so that the charge is transferred to floating diffusion node 1331. The appropriate reset value is established (and sampled) at the floating diffusion node 1331 before it is activated. As a result, each pixel specific output (PIXOUT1 and PIXOUT2) is processed in a column specific CDS unit (not shown) of the pixel column unit 1205 (FIG. 12) to obtain a pair of pixel specific CDS outputs. I can do it. Thereafter, the pixel-specific CDS outputs may be converted to digital values, such as P1 and P2, as indicated by arrows 1213 in FIG. 12, by each column-specific ADC unit (not shown) of pixel column unit 1205. Transistors (1334, 1337) and TXENB signal 1333 and TX2 signal 1339 of FIG. 13 provide necessary and auxiliary circuitry to accomplish CDS-based charge transfer. In one embodiment, the values of P1 and P2 may be generated in parallel utilizing the same pair of ADC circuits, eg, as part of a column-specific ADC unit. Therefore, the difference between the reset level of the PIXOUT1 and PIXOUT2 signals and the corresponding PPD charge level is converted to a digital value by the column-parallel ADC and output to the pixel-specific signal values (i.e., P1 and P2), and the above math Allows calculation of the pixel-specific TOF value of the reflected light pulse 37 for the pixel 1300 based on Equation 2. As discussed above, such calculations may be performed by pixel processing unit 46 or processor 19 of system 15. Consequently, the pixel-specific distance of object 26 (FIG. 2) may also be determined using, for example, Equation 3 and Equation 4. The pixel-by-pixel charge collection operation is repeated for all rows of pixels in pixel array 42. Based on the pixel-specific distance or range values of pixels 43 of pixel array 42, a 3D image of object 26 may be generated by processor 19 and displayed on a suitable display or user interface associated with system 15, for example. A 2D image of object 26 is generated by simply adding the values of P1 and P2, for example if a range of values is not calculated or if a range of values is possible but a 2D image is required. In some embodiments, such 2D images are simply grayscale images, for example when an IR laser is used.

図7及び図13に示したピクセル構成は例示的なものに過ぎないことに留意しなければならない。多数のSPADを有する他のタイプのPPDベースのピクセル、もまた本発明を具現するために使用され得る。このようなピクセルは、例えば単一の出力(図7及び図13の実施例のPIXOUT510のデータラインような)を有するピクセル又はPIXOUT1及びPIXOUT信号がピクセルで異なる出力を介して出力される二重出力を有するピクセルを含む。 It should be noted that the pixel configurations shown in FIGS. 7 and 13 are exemplary only. Other types of PPD-based pixels with multiple SPADs may also be used to implement the present invention. Such a pixel may, for example, be a pixel with a single output (such as the data line of PIXOUT 510 in the embodiments of Figures 7 and 13) or a dual output where the PIXOUT1 and PIXOUT signals are output through different outputs at the pixel. contains pixels with .

図14は、図2及び図12のピクセルアレイ42のようなピクセルアレイで図13のピクセル1300がTOF値を測定するために使用される場合の、図1及び図2のシステム15の異なる信号の他の例を示すタイミング図1400である。図14のタイミング図1400は、特にVTX信号、シャッター信号、VPIX信号、及びTX信号の波形、そして例えばPPDリセットイベント、シャッターオン区間、及び遅延時間区間(Tdly)などのような多様な時間区間又はイベントの識別について図9のタイミング図900に類似する。図9のタイミング図900の上述した広範な説明に対し、便宜のために図14のタイミング図1400で区別される特色の概略的な説明を提供する。 FIG. 14 illustrates the different signals of system 15 of FIGS. 1 and 2 when pixel 1300 of FIG. 13 is used to measure TOF values in a pixel array such as pixel array 42 of FIGS. 2 and 12. FIG. 14 is a timing diagram 1400 illustrating another example. The timing diagram 1400 of FIG. 14 shows, among other things, the waveforms of the VTX signal, the shutter signal, the VPIX signal, and the TX signal, and various time intervals, such as the PPD reset event, the shutter-on interval, and the delay time interval (T dly ). or similar to timing diagram 900 of FIG. 9 for event identification. In contrast to the above extensive description of the timing diagram 900 of FIG. 9, a general description of the distinguishing features of the timing diagram 1400 of FIG. 14 is provided for convenience.

図14で、VPIX信号1329、RST信号1326、電子シャッター信号1308、振幅変調信号(VTX信号1327)、TX2信号1339のような多様な外部的に供給される信号、及び内部的に生成されたTXEN信号1325を、図13で使用したものと同じ参照符号を用いて識別する。同様に、便宜のために、同じ参照番号「1331」を、図13のフローティングディフュージョンノード1331と図14のタイミング図の関連する電圧を示すのに使用する。伝送モード(TXRMD信号1401)を図14に示すが、図13又は図10のタイミング図には示していない。いくつかの実施例で、TXRMD信号1401は、論理ユニット1319によって内部的に生成さるか、又は行デコーダ/ドライバ(図12の行デコーダ/ドライバ1203のような)によって論理ユニット1319に、外部的に供給され得る。一実施例で、論理ユニット1319は、G()関数(図10)に基づいて出力を生成し、その後に出力をTXRMD信号1401のような内部的に生成された信号と論理和(OR)演算して最終的なTXEN信号1325を獲得する論理回路(図示せず)を含む。図14に示したように、一実施例で、このような内部的に生成されたTXRMD信号1401は、電子シャッターがオンの間ローに保持され、その後にハイに活性化されてTXEN信号1325が論理1になってPPDの残りの電荷の転送(図14のイベント1410)が遂行される。 In FIG. 14, various externally provided signals such as VPIX signal 1329, RST signal 1326, electronic shutter signal 1308, amplitude modulation signal (VTX signal 1327), TX2 signal 1339, and internally generated TXEN Signal 1325 is identified using the same reference numerals as used in FIG. Similarly, for convenience, the same reference number "1331" is used to indicate the floating diffusion node 1331 of FIG. 13 and the associated voltages of the timing diagram of FIG. 14. The transmission mode (TXRMD signal 1401) is shown in FIG. 14, but not shown in the timing diagrams of FIG. 13 or FIG. 10. In some embodiments, TXRMD signal 1401 is generated internally by logic unit 1319 or externally provided to logic unit 1319 by a row decoder/driver (such as row decoder/driver 1203 of FIG. 12). can be supplied. In one embodiment, logic unit 1319 generates an output based on the G() function (FIG. 10) and then OR's the output with an internally generated signal, such as TXRMD signal 1401. and logic circuitry (not shown) to obtain the final TXEN signal 1325. As shown in FIG. 14, in one embodiment, such an internally generated TXRMD signal 1401 is held low while the electronic shutter is on, and then activated high to generate the TXEN signal 1325. At logic 1, the transfer of the remaining charge on the PPD (event 1410 in FIG. 14) is accomplished.

図14のPPDプリセット1403イベント、遅延時間(Tdly)1404、TOF区間(Ttof)1405、シャッターオフ区間1406、シャッターオン区間1408又は有効区間(Tsh)1407、及びFDリセット信号1409は、図9に示した対応するイベント又は時間区間に類似する。従って、このようなパラメータの追加的な説明は提供されない。初期に、FDリセット1409イベントは、図示したように、FD1331信号がハイになることをもたらす。SDノード1338は、PPD508がローにプリセットされた後にハイにリセットされる。更に詳しくは、PPDプリセット1403のイベントの間に、TX信号1328はハイであり、TX2信号1339はハイであり、RST信号1326はハイであり、VPIX信号1329はローであり、電子をPPD508に満たし、そしてPPD508を0Vにプリセットする。その後、TX信号1328はローになり、TX2信号1339及びRST信号1326は、短くハイに残って、ハイのVPIX信号1329と共にSDノード1338をハイにリセットしてSDキャパシタ1336から電子を除去する。同時に、FDノード1331はリセットされる(FDリセット1409イベントに続いて)。SDノード1338の電圧やSDリセット信号は、図14に示していない。 The PPD preset 1403 event, delay time (T dly ) 1404, TOF interval (T tof ) 1405, shutter-off interval 1406, shutter-on interval 1408 or valid interval (T sh ) 1407, and FD reset signal 1409 in FIG. Similar to the corresponding event or time interval shown in 9. Therefore, no additional explanation of such parameters is provided. Initially, the FD Reset 1409 event causes the FD 1331 signal to go high, as shown. SD node 1338 is reset high after PPD 508 is preset low. More specifically, during the event of PPD preset 1403, TX signal 1328 is high, TX2 signal 1339 is high, RST signal 1326 is high, and VPIX signal 1329 is low, causing electrons to fill PPD 508. , and preset PPD 508 to 0V. The TX signal 1328 then goes low, and the TX2 signal 1339 and RST signal 1326 remain high briefly to reset the SD node 1338 high and remove electrons from the SD capacitor 1336, along with the VPIX signal 1329 high. At the same time, FD node 1331 is reset (following the FD Reset 1409 event). The voltage at SD node 1338 and the SD reset signal are not shown in FIG.

図7及び図9の実施例とは対照的に、電子シャッター信号1308が活性化され、VTX信号1327が傾斜して上がると、TX信号1328の波形に示したように、PPD電荷は振幅変調され、そして初期にSDノード1338に転送(SDキャパシタ1336を介して)される。シャッターオン区間1408の間にピクセル1300(図13)で、少なくとも2つのSPADによる光子の検出に応じて、TXEN信号1325はローになり、そしてPPD508からSDノード1338への初期電荷転送は停止する。SDノード1338に格納して転送された電荷は第1読み出し区間1412の間にPIXOUT510のデータラインから(PIXOUT1出力として)読み出される。第1読み出し区間1412で、RST信号1326は、電子シャッター信号1308が非活性化又はオフされた後、短くハイに活性化されてフローティングディフュージョンノード1331をリセットする。その後、TX2信号1339はハイのパルスとなり、TX2信号1339がハイである間にSDノード1338からの電荷をフローティングディフュージョンノード1331に転送する。フローティングディフュージョンノード1331の電圧波形は電荷転送動作を示す。転送された電荷は、その後、第1読み出し区間1412の間にPIXOUT510のデータラインを介してSEL信号1330(図14に示さず)を用いて(PIXOUT1電圧として)読み出される。 In contrast to the embodiments of FIGS. 7 and 9, when electronic shutter signal 1308 is activated and VTX signal 1327 ramps up, the PPD charge is amplitude modulated, as shown in the waveform of TX signal 1328. , and is initially transferred to SD node 1338 (via SD capacitor 1336). In response to detection of photons by at least two SPADs at pixel 1300 (FIG. 13) during shutter-on interval 1408, TXEN signal 1325 goes low and initial charge transfer from PPD 508 to SD node 1338 is stopped. The charge stored and transferred to SD node 1338 is read out from the data line of PIXOUT 510 (as the PIXOUT1 output) during a first read interval 1412. In the first read period 1412, the RST signal 1326 is briefly activated to high to reset the floating diffusion node 1331 after the electronic shutter signal 1308 is deactivated or turned off. The TX2 signal 1339 then pulses high, transferring the charge from the SD node 1338 to the floating diffusion node 1331 while the TX2 signal 1339 is high. The voltage waveform at floating diffusion node 1331 indicates a charge transfer operation. The transferred charge is then read out (as a PIXOUT1 voltage) via the data line of PIXOUT 510 during a first read interval 1412 using a SEL signal 1330 (not shown in FIG. 14).

第1読み出し区間1412の間に、初期の電荷がSDノードからFDノードに転送され、TX2信号1339が論理ローレベルに復帰した後、TXRMD信号1401はハイに活性化(パルスのように)されてTXEN信号1325の入力にハイパルスを生成する。図14で参照番号「1402」に示したように、順番にTX信号1328の入力にハイパルスを生成してPPD508の残りの電荷をSDノード1338に転送(SDキャパシタ1336を介して)する。その後、RST信号1326が短くハイに再び活性化されると、FDノード1331は再びリセットされる。第2RSTハイパルスは第2読み出し区間1413を定義し、TX2信号1339は再びパルスのようにハイになり、TX2信号がハイである間にPPD508の残りの電荷をSDノード1338からフローティングディフュージョンノード1331に転送(イベント1410)する。フローティングディフュージョンノード1331の電圧波形は第2電荷転送動作を示す。転送された残りの電荷はその後に第2読み出し区間1413の間にPIXOUT510のデータラインを介してSEL信号1330(図14に示さず)を用いて読み出される(PIXOUT2電圧として)。上述したように、PIXOUT1及びPIXOUT2信号は、適切なADCユニット(図示せず)によって、対応するデジタル値(P1、P2)に変換され得る。特定の実施例で、P1及びP2の値は、上記数学式3又は数学式4で使用され、ピクセル1300とオブジェクト26との間のピクセル特定の距離(又は範囲)を判定することができる。図14に示したSDベースの電荷転送は、図13の説明を参照して上述したように、ピクセル特定のCDS出力のペアの生成を可能にする。CDSベースの信号処理は追加的なノイズ低減を提供する。 During the first read interval 1412, after the initial charge is transferred from the SD node to the FD node and the TX2 signal 1339 returns to a logic low level, the TXRMD signal 1401 is activated (pulsed) high. Generate a high pulse at the input of the TXEN signal 1325. In turn, a high pulse is generated at the input of TX signal 1328 to transfer the remaining charge of PPD 508 to SD node 1338 (via SD capacitor 1336), as indicated by reference numeral "1402" in FIG. Thereafter, when RST signal 1326 is briefly reactivated high, FD node 1331 is reset again. The second RST high pulse defines a second readout interval 1413, and the TX2 signal 1339 pulses high again, transferring the remaining charge of the PPD 508 from the SD node 1338 to the floating diffusion node 1331 while the TX2 signal is high. (Event 1410). The voltage waveform at floating diffusion node 1331 indicates a second charge transfer operation. The remaining transferred charge is then read out (as the PIXOUT2 voltage) via the data line of PIXOUT 510 using the SEL signal 1330 (not shown in FIG. 14) during a second read interval 1413. As mentioned above, the PIXOUT1 and PIXOUT2 signals may be converted into corresponding digital values (P1, P2) by a suitable ADC unit (not shown). In certain embodiments, the values of P1 and P2 can be used in Equation 3 or Equation 4 above to determine a pixel-specific distance (or range) between pixel 1300 and object 26. The SD-based charge transfer shown in FIG. 14 allows for the generation of pixel-specific CDS output pairs, as described above with reference to the description of FIG. CDS-based signal processing provides additional noise reduction.

図15は、時間分解センサ1500の一例を示すブロック図である。時間分解センサ1500は、SPAD回路1501、論理回路1503、及びPPD回路1505を含む。 FIG. 15 is a block diagram showing an example of a time-resolved sensor 1500. Time-resolved sensor 1500 includes a SPAD circuit 1501, a logic circuit 1503, and a PPD circuit 1505.

SPAD回路1501は、光子を検出するためのSPADと、VSPAD電圧を受信する第1入力と、電子シャッターの開閉を制御するためのシャッター信号を受信する第2入力と、VDD電圧を受信する第3入力と、検出イベント(DE)信号を出力するための出力と、を含む。光子を受信することに応答して、SPAD回路1501は、VSPAD電圧からSPAD破壊電圧よりも低い電圧まで急速に上昇し、その後にVSPAD電圧から徐々に復帰するパルス信号を出力する。 The SPAD circuit 1501 includes a SPAD for detecting photons, a first input for receiving a VSPAD voltage, a second input for receiving a shutter signal for controlling opening and closing of an electronic shutter, and a third input for receiving a VDD voltage. It includes an input and an output for outputting a detection event (DE) signal. In response to receiving photons, the SPAD circuit 1501 outputs a pulse signal that rapidly increases from the VSPAD voltage to a voltage below the SPAD breakdown voltage, and then gradually returns from the VSPAD voltage.

論理回路1503は、SPAD回路1501からのDE信号出力に連結される第1入力と、PPD回路1505のPPD内に残った電荷をFDノードに完全に転送するためのTXRMD信号を受信するための第2入力と、TXEN信号を出力するための出力と、を含む。 Logic circuit 1503 has a first input coupled to the DE signal output from SPAD circuit 1501 and a first input for receiving a TXRMD signal for completely transferring the charge remaining in the PPD of PPD circuit 1505 to the FD node. It includes two inputs and an output for outputting the TXEN signal.

PPD回路1505は、論理回路1503からのTXEN信号出力に連結される第1入力と、電荷をPPD回路1505のPPDからPPD回路1505のFDノードに部分的又は完全に転送するためのVTX信号を受信する第2入力と、FDノードの電荷をリセットしてPPDの電荷をプリセットするためのRST信号を受信する第3入力と、PPD回路1505に対するVPIXの信号を受信する第4入力と、PIXOUT1信号(FDノードの電荷を表す)又はPIXOUT2信号(PPDに残った電荷を示す)の読み出しを可能にするためのSEL信号を受信する第5入力と、SEL信号に応答してPIXOUT1信号及びPIXOUT2信号を出力するためのPIXOUT出力と、を含む。 PPD circuit 1505 receives a first input coupled to the TXEN signal output from logic circuit 1503 and a VTX signal for partially or fully transferring charge from the PPD of PPD circuit 1505 to the FD node of PPD circuit 1505. a second input that receives the RST signal for resetting the charge of the FD node and presetting the charge of the PPD, a fourth input that receives the signal of VPIX for the PPD circuit 1505, and a fourth input that receives the PIXOUT1 signal ( a fifth input for receiving the SEL signal to enable reading of the FD node charge (representing the charge on the FD node) or the PIXOUT2 signal (indicating the charge remaining on the PPD) and outputting the PIXOUT1 and PIXOUT2 signals in response to the SEL signal; and a PIXOUT output for.

図16は、図15の時間分解センサ1500のSPAD回路1501の一例を示す回路図である。一実施例で、SPAD回路1501は、抵抗1601、SPAD1603、キャパシタ1605、pタイプMOSFET1607、及びバッファ1609を含む。抵抗1601は、VSPAD電圧を受信する第1端子及び第2端子を含む。SPAD1603は、接地電位に連結された正極及び抵抗1601の第2端子に連結された負極を含む。他の実施例で、抵抗1601とSPAD1603との位置は交換され得る。SPAD1603は光に応答する。光子を受信することに応答して、SPAD1603は、VSPAD電圧から絶縁破壊電圧よりも低い電圧に急激に変化してその後にVSPAD電圧へより徐々に復帰するパルス信号を出力する。一例で、破壊(ブレークダウン)電圧は、特定の閾値電圧である。 FIG. 16 is a circuit diagram showing an example of the SPAD circuit 1501 of the time-resolved sensor 1500 of FIG. 15. In one embodiment, SPAD circuit 1501 includes resistor 1601, SPAD 1603, capacitor 1605, p-type MOSFET 1607, and buffer 1609. Resistor 1601 includes a first terminal and a second terminal that receive the VSPAD voltage. SPAD 1603 includes a positive electrode connected to ground potential and a negative electrode connected to a second terminal of resistor 1601. In other embodiments, the positions of resistor 1601 and SPAD 1603 may be swapped. SPAD 1603 is responsive to light. In response to receiving photons, the SPAD 1603 outputs a pulse signal that changes rapidly from the VSPAD voltage to a voltage below the breakdown voltage and then returns more gradually to the VSPAD voltage. In one example, the breakdown voltage is a particular threshold voltage.

キャパシタ1605は、SPAD1603の負極に接続された第1端子及びもう一方の第2端子を含む。代案的な実施例で、キャパシタ1605は省略され得る。PタイプMOSFET1607は、キャパシタ1605の第2端子に連結された第1のS/D端子と、VPIX電圧(VDD)を受信する第2のS/D端子と、シャッター信号を受信するゲートと、を含む。バッファ1609は、キャパシタ1605の第2端子に連結された入力と、DE信号を出力する出力と、を含む。DE信号は、SPAD回路1501のDE出力に対応する。代案的な実施例で、バッファ1609はインバータであり得る。 Capacitor 1605 includes a first terminal connected to the negative electrode of SPAD 1603 and the other second terminal. In alternative embodiments, capacitor 1605 may be omitted. P-type MOSFET 1607 has a first S/D terminal coupled to the second terminal of capacitor 1605, a second S/D terminal that receives the VPIX voltage (VDD), and a gate that receives the shutter signal. include. Buffer 1609 includes an input coupled to the second terminal of capacitor 1605 and an output that outputs the DE signal. The DE signal corresponds to the DE output of the SPAD circuit 1501. In an alternative embodiment, buffer 1609 may be an inverter.

図17は、図15の時間分解センサ1500の論理回路1503の一例を示す回路図である。論理回路1503は、ラッチ1701及び2入力論理和(OR)ゲート1703を含む。 FIG. 17 is a circuit diagram showing an example of the logic circuit 1503 of the time-resolved sensor 1500 of FIG. 15. Logic circuit 1503 includes a latch 1701 and a two-input logical sum (OR) gate 1703.

ラッチ1701は、SPAD回路1501からのDE信号出力に連結される入力及びその出力を含む。DE信号に応答して、ラッチ1701は、例えば論理1から論理0に変化し、論理0を維持するためのロジック信号を出力する。言い換えると、ラッチ1701は、パルスタイプの信号を論理0から論理0に変化させ、そしてリセットされるまで論理1に復帰せずに論理0を維持する信号に変換する。ラッチ出力はDE信号の先頭エッジによってトリガーされ、ここでリードエッジはSPAD回路1501の設計に依存して正又は負の方向である。 Latch 1701 includes an input coupled to the DE signal output from SPAD circuit 1501 and its output. In response to the DE signal, latch 1701 outputs a logic signal to change from, for example, a logic 1 to a logic 0 and maintain a logic 0. In other words, the latch 1701 converts a pulse type signal into a signal that changes from a logic 0 to a logic 0 and remains at a logic 0 without returning to a logic 1 until reset. The latch output is triggered by the leading edge of the DE signal, where the leading edge is in the positive or negative direction depending on the design of the SPAD circuit 1501.

2入力ORゲート1703は、ラッチ1701の出力に連結された第1入力と、TXRMD信号を受信する第2入力と、TXEN信号を出力する出力と、を含む。2入力ORゲート1703は、論理OR関数を遂行して結果をTXEN信号に出力する。具体的には、シャッター信号が論理1のとき、SPAD回路1501によって光子が受信されるか、又はPPD回路1505のPPDの残りの電荷がPIXOUT2信号に読み出されるためにFDノードに完全に転送されるときに発生するTXRMD信号が論理1のとき、2入力ORゲート1703の出力は論理1になる。 Two-input OR gate 1703 includes a first input coupled to the output of latch 1701, a second input that receives the TXRMD signal, and an output that outputs the TXEN signal. Two-input OR gate 1703 performs a logical OR function and outputs the result on the TXEN signal. Specifically, when the shutter signal is a logic 1, a photon is received by the SPAD circuit 1501 or the remaining charge of the PPD of the PPD circuit 1505 is completely transferred to the FD node for being read out to the PIXOUT2 signal. When the TXRMD signal that occurs is a logic one, the output of the two-input OR gate 1703 will be a logic one.

図18は、図15の時間分解センサ1500のPPD回路1505の一例を示す回路図である。PPD回路1505は、第1トランジスタ1803、第2トランジスタ1805、第3トランジスタ1807、第4トランジスタ1809、第5トランジスタ1811、及びPPD1801を含む。 FIG. 18 is a circuit diagram showing an example of the PPD circuit 1505 of the time-resolved sensor 1500 of FIG. 15. The PPD circuit 1505 includes a first transistor 1803, a second transistor 1805, a third transistor 1807, a fourth transistor 1809, a fifth transistor 1811, and a PPD 1801.

PPD1801は、接地電位に連結された正極及びもう一方の負極を含む。PPD1801は、キャパシタに類似する方式で電荷を格納する。一実施例で、PPD1801はカバーされ、従って光に応答せずに光感知素子の代わりにTCCとして使用され得る。 PPD 1801 includes a positive electrode and another negative electrode connected to ground potential. PPD 1801 stores charge in a manner similar to a capacitor. In one embodiment, PPD 1801 is covered and therefore does not respond to light and can be used as a TCC instead of a light sensing element.

第1トランジスタ1803は、論理回路1503のTXEN信号出力に連結されるゲート端子と、VTX信号を受信する第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第1トランジスタ1803は、VTX信号を受信してVTX信号がTXEN信号の制御下で第1トランジスタ1803を通過して第1トランジスタ1803の第2のS/D端子からTX信号を出力する。 The first transistor 1803 includes a gate terminal connected to the TXEN signal output of the logic circuit 1503, a first S/D terminal for receiving the VTX signal, and another second S/D terminal. The first transistor 1803 receives the VTX signal, passes the VTX signal through the first transistor 1803 under the control of the TXEN signal, and outputs the TX signal from the second S/D terminal of the first transistor 1803.

第2トランジスタ1805は、第1トランジスタ1803の第2のS/D端子に連結されたゲート端子と、PPD1801の負極に連結された第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第2のトランジスタ1805は、ゲート端子でTX信号を受信してソース端子のPPD1801の電荷をFDノードに連結されたドレイン端子に転送する。図18に示していないが、FDノードと接地との間にストレーキャパシタンス(stray capacitance、寄生容量)が存在し得る。一実施例で、寄生容量は、またFDノードと接地との間に連結され得る。 The second transistor 1805 has a gate terminal connected to the second S/D terminal of the first transistor 1803, a first S/D terminal connected to the negative electrode of the PPD 1801, and a second S/D terminal connected to the second S/D terminal of the first transistor 1803. D terminal. The second transistor 1805 receives the TX signal at its gate terminal and transfers the charge of the PPD 1801 at its source terminal to its drain terminal connected to the FD node. Although not shown in FIG. 18, stray capacitance (parasitic capacitance) may exist between the FD node and ground. In one embodiment, a parasitic capacitance may also be coupled between the FD node and ground.

第3トランジスタ1807は、RST信号を受信するゲート端子と、VPIX信号を受信する第1のS/D端子と、第2のトランジスタ1805の第2のS/D端子に連結された第2のS/D端子と、を含む。 The third transistor 1807 has a gate terminal for receiving the RST signal, a first S/D terminal for receiving the VPIX signal, and a second S/D terminal coupled to the second S/D terminal of the second transistor 1805. /D terminal.

第4トランジスタ1809は、第2トランジスタ1805の第2のS/D端子に連結されたゲート端子と、第3トランジスタ1807の第1のS/D端子に連結された第1のS/D端子と、もう一方の第2のS/D端子と、を含む。 The fourth transistor 1809 has a gate terminal connected to the second S/D terminal of the second transistor 1805 and a first S/D terminal connected to the first S/D terminal of the third transistor 1807. , and the other second S/D terminal.

第5トランジスタ1811は、SEL信号を受信するゲート端子と、第4トランジスタ1809の第2のS/D端子に連結された第1のS/D端子と、PPD回路1505のPIXOUT出力である第2のS/D端子と、を含む。第5トランジスタ1811は、ピクセルを選択するためのSEL信号を受信してFDノードの電荷(PIXOUT1として)又はPPD(1801)の残りの電荷(PIXOUT2として)を読み出す。 The fifth transistor 1811 has a gate terminal that receives the SEL signal, a first S/D terminal coupled to the second S/D terminal of the fourth transistor 1809, and a second S/D terminal that is the PIXOUT output of the PPD circuit 1505. S/D terminal of. The fifth transistor 1811 receives the SEL signal for selecting a pixel and reads out the charge of the FD node (as PIXOUT1) or the remaining charge of the PPD (1801) (as PIXOUT2).

PPD1801からFDノードに転送される電荷はTX信号によって制御される。一実施例で、VTX信号は第1トランジスタを介して結合されてTX信号になる。VTX信号は上方向に傾斜して、PPD1801からFDノードに電荷を徐々に多く転送する。PPD1801からFDノードに転送される電荷の量はTX信号のレベルの関数であり、TX信号の傾きは時間の関数である。従って、PPD1801からFDノードに転送される電荷は時間の関数である。PPD1801からFDノードへの電荷の転送の間に、第2トランジスタ1805は入射する光子を検出するSPAD回路1501に応答してターンオフされ、PPD1801からFDノードへの電荷の転送は停止する。FDノードに転送される電荷の量及びPPD1801に残った電荷の量は全て入射する光子のTOFに関連付けられる。TX信号及び入射する光子の検出に基づくPPD1801からFDノードへの電荷の転送は、電荷から時間へのシングルエンドの差動変換を提供するものと見なされる。 The charge transferred from PPD 1801 to the FD node is controlled by the TX signal. In one embodiment, the VTX signal is coupled through the first transistor to become the TX signal. The VTX signal slopes upward to gradually transfer more and more charge from PPD 1801 to the FD node. The amount of charge transferred from PPD 1801 to the FD node is a function of the level of the TX signal, and the slope of the TX signal is a function of time. Therefore, the charge transferred from PPD 1801 to the FD node is a function of time. During the transfer of charge from the PPD 1801 to the FD node, the second transistor 1805 is turned off in response to the SPAD circuit 1501 detecting the incoming photon, and the transfer of charge from the PPD 1801 to the FD node is stopped. The amount of charge transferred to the FD node and the amount of charge remaining on PPD 1801 are all related to the TOF of the incident photon. The transfer of charge from PPD 1801 to the FD node based on the TX signal and the detection of incident photons is considered to provide a single-ended differential conversion from charge to time.

第4トランジスタ1809は、FDノードに格納された電荷を第4トランジスタ1809の第2のS/D端子で電圧に変換する。SEL信号は、ピクセルを選択してFDノードに転送された電荷に対応するPIXOUT1信号又は後続するPPD1801の残りの電荷がFDノードに転送された後にPPD1801に残った電荷に対応するPIXOUT2信号を読み出すために使用される。一実施例で、PIXOUT1信号とPIXOUT2信号との和に対するPIXOUT1信号の比率は、上記数学式2の比率に示したように、ピクセルによって受信された光信号のTOFと遅延時間との差に比例する。VTX信号が上方に傾斜し始めた後に光パルスが伝送される実施例で、遅延時間は負である。 The fourth transistor 1809 converts the charge stored in the FD node into a voltage at the second S/D terminal of the fourth transistor 1809. The SEL signal selects a pixel and reads the PIXOUT1 signal corresponding to the charge transferred to the FD node or the PIXOUT2 signal corresponding to the charge remaining in the PPD 1801 after the remaining charge of the subsequent PPD 1801 is transferred to the FD node. used for. In one embodiment, the ratio of the PIXOUT1 signal to the sum of the PIXOUT1 signal and the PIXOUT2 signal is proportional to the difference between the TOF and the delay time of the optical signal received by the pixel, as shown in the ratio of Equation 2 above. . In embodiments where the optical pulse is transmitted after the VTX signal begins to slope upward, the delay time is negative.

時間分解センサ1500について、上記数学式2で記述した比率は、オブジェクトのデプス又は範囲を判定するために使用され、PIXOUT1信号とPIXOUT2信号との和が測定毎に変化しない場合、測定値の変動にそれほど敏感ではない。一実施例で、VTX信号は理想的に線形であり、TOFピクセルアレイの異なるピクセルに亘って理想的に均一である。しかし、実際に、TOFピクセルアレイの異なるピクセルに印加されるVTX信号は、ピクセル単位で変化し、従ってピクセル単位のVTX信号の可変に依存する範囲の測定にエラーを誘導し、また測定単位で変化し得る。 For the time-resolved sensor 1500, the ratio described in Equation 2 above is used to determine the depth or range of an object, and if the sum of the PIXOUT1 and PIXOUT2 signals does not change from measurement to measurement, Not so sensitive. In one embodiment, the VTX signal is ideally linear and ideally uniform across different pixels of the TOF pixel array. However, in reality, the VTX signals applied to different pixels of a TOF pixel array vary on a pixel-by-pixel basis, thus inducing errors in range measurements that depend on the variation of the VTX signal on a pixel-by-pixel basis, and also vary on a measurement unit. It is possible.

一実施例で、第1トランジスタ1803、第2トランジスタ1805、第3トランジスタ1807、第4トランジスタ1809、及び第5トランジスタ1811は、それぞれn型MOSFET又はpタイプMOSFETである。しかし、任意の適切なトランジスタが使用され得るため、本発明はn型MOSFET又はp型MOSFETを使用するものに限定されない。 In one embodiment, the first transistor 1803, the second transistor 1805, the third transistor 1807, the fourth transistor 1809, and the fifth transistor 1811 are each an n-type MOSFET or a p-type MOSFET. However, the invention is not limited to the use of n-type or p-type MOSFETs, as any suitable transistor may be used.

図19は、図15の時間分解センサ1500に対する一例を示す相対的な信号のタイミング図である。図19において、シャッターオフ(初期化)区間の間、RST信号、VTX信号、及びTX信号のそれぞれは、ハイ(論理1)になり、後に0(論理0)に戻りPPD回路1505をリセットする。TXEN信号はハイである。PPD1801は、初期化区間でそれ自体のフルウェルキャパシティまで電荷で満たされる。VTX信号及びTX信号はローになってPPD回路1505の第2トランジスタ1805をターンオフする。VPIX信号はハイになり、従ってFDノードがリセットされる。光パルスは、RST信号が0に戻るときに、又はそれから暫くオブジェクトに向けて光パルスを伝送する。VTX信号は、その後に上方に傾斜し始め、そしてシャッター信号はハイになって、シャッターオン区間を開始する。 FIG. 19 is a relative signal timing diagram illustrating an example for the time-resolved sensor 1500 of FIG. 15. In FIG. 19, during the shutter-off (initialization) period, each of the RST signal, VTX signal, and TX signal becomes high (logic 1), and later returns to 0 (logic 0) to reset the PPD circuit 1505. The TXEN signal is high. PPD 1801 is filled with charge to its full well capacity during the initialization period. The VTX and TX signals go low, turning off the second transistor 1805 of the PPD circuit 1505. The VPIX signal goes high, thus resetting the FD node. A light pulse is transmitted toward the object when the RST signal returns to zero, or some time thereafter. The VTX signal then begins to ramp upward and the shutter signal goes high, beginning the shutter-on interval.

VTX信号が上方に傾斜するにつれて、TX信号もまた上方に傾斜し、そしてFDノードの電荷はTX信号に応答して減少し始める。反射された光パルスによって、TXEN信号がロー(論理0)になり、従ってFDノードとPPD1801との間の電荷の転送が停止される。 As the VTX signal slopes upward, the TX signal also slopes upward and the charge on the FD node begins to decrease in response to the TX signal. The reflected light pulse causes the TXEN signal to go low (logic 0), thus stopping charge transfer between the FD node and PPD 1801.

遅延時間(Tdly)は、伝送された光パルスの開始とTX信号が上方に傾斜し始める時との間の間隔を示す。飛行時間(Ttof)は、伝送された光パルスの開始とリターン信号が受信される時との間の時間を示す。シャッターオン区間(Tsh)は、電子シャッターが開かれたときから電子シャッターが閉じたときまでの時間(シャッターオン区間)を示す。一実施例で、シャッター区間(Tsh)はVTX信号の傾斜時間と同じか又はそれより少ない。 The delay time (T dly ) indicates the interval between the start of the transmitted light pulse and the time when the TX signal begins to slope upward. The time of flight (T tof ) indicates the time between the beginning of the transmitted light pulse and the time the return signal is received. The shutter-on period (T sh ) indicates the time (shutter-on period) from when the electronic shutter is opened to when the electronic shutter is closed. In one embodiment, the shutter interval (T sh ) is equal to or less than the ramp time of the VTX signal.

転送された電荷は転送された電荷の読出し区間でPIXOUT1信号として読み出される。シャッター信号がローである間、RST信号は2番目のハイになってFDノードの電荷をリセットし、その後にTXRMD信号、TXEN信号、及びTX信号はハイになってPPD1801に残った電荷をPIXOUT2信号に読み出すためにFDノードに転送する。 The transferred charge is read out as a PIXOUT1 signal in a read period of the transferred charge. While the shutter signal is low, the RST signal goes a second high to reset the charge on the FD node, after which the TXRMD, TXEN, and TX signals go high to transfer the remaining charge in the PPD1801 to the PIXOUT2 signal. The data is transferred to the FD node for reading.

図20は、時間分解センサ2000の他の例を示すブロック図である。時間分解センサ2000は、SPAD回路2001、論理回路2003、及び第2のPPD回路2005を含む。 FIG. 20 is a block diagram showing another example of the time-resolved sensor 2000. Time-resolved sensor 2000 includes a SPAD circuit 2001, a logic circuit 2003, and a second PPD circuit 2005.

SPAD回路2001は、光子を検出するためのSPADと、VSPAD電圧を受信する第1入力と、電子シャッターの開閉を制御するためのシャッター信号を受信する第2入力と、VDD電圧(VDD)を受信する第3入力と、検出イベント(DE)信号を出力するための出力と、を含む。光子を受信することに応答して、SPAD回路2001は、急速にVSPADから0になり、ゆっくりとVSPADに戻るパルス信号を出力する。一実施例で、SPAD回路2001は、図15に示したSPAD回路1501と同じである。 The SPAD circuit 2001 includes a SPAD for detecting photons, a first input for receiving a VSPAD voltage, a second input for receiving a shutter signal for controlling opening and closing of an electronic shutter, and a VDD voltage (VDD). and an output for outputting a detection event (DE) signal. In response to receiving photons, SPAD circuit 2001 outputs a pulse signal that rapidly goes from VSPAD to 0 and slowly returns to VSPAD. In one embodiment, SPAD circuit 2001 is the same as SPAD circuit 1501 shown in FIG.

論理回路2003は、SPAD回路2001のDE出力に連結された第1入力及び第2のPPD回路2005のPPDに残った電荷を完全に転送するためのTXRMD信号を受信する第2入力と、TXEN信号を出力するための出力と、を含む。一実施例で、論理回路2003は、図15に示した論理回路1503と同じである。 The logic circuit 2003 has a first input coupled to the DE output of the SPAD circuit 2001 and a second input for receiving a TXRMD signal for completely transferring the charge remaining in the PPD of the second PPD circuit 2005, and a TXEN signal. and an output for outputting the . In one embodiment, logic circuit 2003 is the same as logic circuit 1503 shown in FIG.

第2のPPD回路2005は、論理回路2003からのTXEN信号出力に連結された第1入力と、TXRMD信号を受信する論理回路2003の第2入力に連結された第2入力と、第2のPPD回路2005のPPDから第2のPPD回路2005の第1フローティングディフュージョン(FD1)ノードに電荷を部分的又は完全に転送するためのVTX信号を受信する第3入力と、FD1ノードの電荷をリセットしてPPDの電荷をプリセットするためのRST信号を受信する第4入力と、第2のPPD回路2005に対するVPIX信号を受信する第5入力と、FD1ノードの電荷に対応するPIXOUT1信号をPIXOUT1出力から読み出して第2のPPD回路2005のPPDに残った電荷に対応するPIXOUT2信号をPIXOUT2出力から読み出すためのSEL信号を受信する第6入力と、を含む。 A second PPD circuit 2005 has a first input coupled to the TXEN signal output from logic circuit 2003 and a second input coupled to a second input of logic circuit 2003 that receives the TXRMD signal; a third input receiving a VTX signal for partially or completely transferring charge from the PPD of the circuit 2005 to a first floating diffusion (FD1) node of the second PPD circuit 2005 and resetting the charge of the FD1 node; A fourth input receives the RST signal for presetting the charge of the PPD, a fifth input receives the VPIX signal for the second PPD circuit 2005, and reads the PIXOUT1 signal corresponding to the charge of the FD1 node from the PIXOUT1 output. and a sixth input for receiving a SEL signal for reading a PIXOUT2 signal corresponding to the charge remaining in the PPD of the second PPD circuit 2005 from the PIXOUT2 output.

図21は、図20の時間分解センサ2000の第2のPPD回路2005の一例を示す回路図である。第2のPPD回路2005は、第1トランジスタ2103、第2トランジスタ2105、第3トランジスタ2107、第4トランジスタ2109、第5トランジスタ2111、第6トランジスタ2113、第7トランジスタ2115、第8トランジスタ2117、第9トランジスタ2119、及びPPD2101を含む。 FIG. 21 is a circuit diagram showing an example of the second PPD circuit 2005 of the time-resolved sensor 2000 in FIG. 20. The second PPD circuit 2005 includes a first transistor 2103, a second transistor 2105, a third transistor 2107, a fourth transistor 2109, a fifth transistor 2111, a sixth transistor 2113, a seventh transistor 2115, an eighth transistor 2117, a ninth transistor A transistor 2119 and a PPD 2101 are included.

PPD2101は、接地電位に連結された正極及びもう一方の負極を含む。PPD2101は、キャパシタと同様の方法で電荷を貯蔵する。一実施例で、PPD2101は、カバーされ、従って光に応答せずに光感知素子の代わりにTCCとして使用され得る。 PPD 2101 includes a positive electrode and another negative electrode connected to ground potential. PPD 2101 stores charge in a manner similar to a capacitor. In one embodiment, PPD 2101 is covered and therefore does not respond to light and can be used as a TCC instead of a light sensing element.

第1トランジスタ2103は、TXEN信号出力を受信する論理回路2003の出力に連結されるゲート端子と、PPD2101からの電荷の転送を制御するためのVTX電圧を受信する第1のS/D端子と、もう一方の第2のS/D端子と、を含む。 The first transistor 2103 has a gate terminal coupled to the output of the logic circuit 2003 that receives the TXEN signal output, and a first S/D terminal that receives the VTX voltage for controlling charge transfer from the PPD 2101. and the other second S/D terminal.

第2トランジスタ2105は、PPD2101からの電荷を転送するためのTX信号を受信するために第1トランジスタ2103の第2のS/D端子に連結されたゲート端子と、PPD2101の負極に接続された第1のS/D端子と、PPD2101から電荷が転送される第1フローティングディフュージョン(FD1)ノードに連結された第2のS/D端子と、を含む。FD1ノードは、第1キャパシタを有し得る。FD1ノードと接地との間に、図21に示さないストレーキャパシタンスが存在し得る。一実施例で、物理的キャパシタもまたFD1ノードと接地との間に連結され得る。PPD2101から第2トランジスタ2105を介してFD1ノードに転送される電荷はTX信号によって制御される。 The second transistor 2105 has a gate terminal connected to the second S/D terminal of the first transistor 2103 to receive a TX signal for transferring charge from the PPD 2101, and a gate terminal connected to the negative terminal of the PPD 2101. 1 and a second S/D terminal connected to a first floating diffusion (FD1) node to which charge is transferred from the PPD 2101. The FD1 node may have a first capacitor. Stray capacitance not shown in FIG. 21 may exist between the FD1 node and ground. In one embodiment, a physical capacitor may also be coupled between the FD1 node and ground. The charge transferred from the PPD 2101 to the FD1 node via the second transistor 2105 is controlled by the TX signal.

第3トランジスタ2107は、FD1ノード及び第2トランジスタ2105の第2のS/D端子に連結されたゲート端子と、VPIXの電圧を受信する第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第3トランジスタ2107は、FD1ノードに格納された電荷を第3トランジスタ2107の第2のS/D端子で電圧に変換する。 The third transistor 2107 has a gate terminal connected to the FD1 node and the second S/D terminal of the second transistor 2105, a first S/D terminal that receives the voltage of VPIX, and another second S/D terminal. S/D terminal. The third transistor 2107 converts the charge stored in the FD1 node into a voltage at the second S/D terminal of the third transistor 2107.

第4トランジスタ2109は、FD1ノードの電荷レベルを設定するためのRST信号を受信するゲート端子と、VPIXの電圧を受信する第1のS/D端子と、第2トランジスタ2105の第2のS/D端子に連結された第2のS/D端子と、を含む。 The fourth transistor 2109 has a gate terminal that receives an RST signal for setting the charge level of the FD1 node, a first S/D terminal that receives the voltage of VPIX, and a second S/D terminal of the second transistor 2105. a second S/D terminal coupled to the D terminal.

第5トランジスタ2111は、FD1ノードの電荷を読み出すためのSEL信号を受信するゲート端子と、第3トランジスタ2107の第2のS/D端子に連結された第1のS/D端子と、FD1ノードの電荷に対応する電圧をPIXOUT1信号として出力するためのピクセル出力(PIXOUT1)のデータラインに連結された第2のS/D端子と、を含む。 The fifth transistor 2111 has a gate terminal that receives an SEL signal for reading the charge of the FD1 node, a first S/D terminal connected to the second S/D terminal of the third transistor 2107, and a first S/D terminal connected to the FD1 node. a second S/D terminal connected to the data line of the pixel output (PIXOUT1) for outputting a voltage corresponding to the charge of the pixel as a PIXOUT1 signal.

第6トランジスタ2113は、PPD2101に残った電荷を第2フローティングディフュージョン(FD2)ノードに完全に転送するためのTXRMD信号を受信するゲート端子と、PPD2101の負極に連結された第1のS/D端子と、FD2ノードに連結された第2のS/D端子と、を含む。FD2ノードは、第2キャパシタンスを有し得る。FD2ノードと接地との間に図21に示していないストレーキャパシタンスが存在し得る。一実施例で、物理的キャパシタもまたFD2ノードと接地との間に連結され得る。一実施例で、FD2ノードの第2キャパシタンスはFD1ノードの第1キャパシタンスと同じであり得る。PPD2101に残った任意の残りの電荷は第6トランジスタ2113を介してFD2ノードに転送される。 The sixth transistor 2113 has a gate terminal that receives a TXRMD signal for completely transferring the charge remaining in the PPD 2101 to a second floating diffusion (FD2) node, and a first S/D terminal connected to the negative electrode of the PPD 2101. and a second S/D terminal connected to the FD2 node. The FD2 node may have a second capacitance. Stray capacitance not shown in FIG. 21 may exist between the FD2 node and ground. In one embodiment, a physical capacitor may also be coupled between the FD2 node and ground. In one embodiment, the second capacitance of the FD2 node may be the same as the first capacitance of the FD1 node. Any remaining charge remaining in PPD 2101 is transferred to the FD2 node via the sixth transistor 2113.

第7トランジスタ2115は、第6トランジスタ2113の第2のS/Dノード及びFD2ノードに連結されたゲート端子と、VPIX信号を受信する第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第7トランジスタ2115は、FD2ノードに格納された電荷を第7トランジスタの第2のS/D端子で電圧に変換する。 The seventh transistor 2115 has a gate terminal connected to the second S/D node and the FD2 node of the sixth transistor 2113, a first S/D terminal that receives the VPIX signal, and the other second S/D terminal. /D terminal. The seventh transistor 2115 converts the charge stored in the FD2 node into a voltage at the second S/D terminal of the seventh transistor.

第8トランジスタ2117は、FD2ノードの電荷レベルを設定するためのRST信号を受信するゲート端子と、VPIX信号を受信する第1のS/D端子と、第6トランジスタ2113の第2のS/D端子に連結された第2のS/D端子と、を含む。 The eighth transistor 2117 has a gate terminal that receives the RST signal for setting the charge level of the FD2 node, a first S/D terminal that receives the VPIX signal, and a second S/D terminal of the sixth transistor 2113. a second S/D terminal coupled to the terminal.

第9トランジスタ2119は、ピクセルを選択してFD2ノードの電荷に対応する電圧を読み出すためのSEL信号を受信するゲート端子と、第7トランジスタ2115の第2のS/D端子に連結された第1のS/D端子と、FD2ノードの電荷に対応する電圧をPIXOUT2信号に出力するためのピクセル出力(PIXOUT2)のデータラインに連結された第2のS/D端子と、を含む。 The ninth transistor 2119 has a gate terminal for receiving an SEL signal for selecting a pixel and reading a voltage corresponding to the charge of the FD2 node, and a first transistor connected to the second S/D terminal of the seventh transistor 2115. and a second S/D terminal coupled to a data line of the pixel output (PIXOUT2) for outputting a voltage corresponding to the charge of the FD2 node as a PIXOUT2 signal.

一実施例で、VTX信号(そしてTX信号)は、上方に傾斜してPPD2101からFD1ノードに電荷を転送する。PPD2101からFD1ノードに転送される電荷の量は、TX信号のレベルの関数であり、TX信号の傾きは時間の関数である。従って、PPD2101からFD1ノードに転送される電荷は時間の関数である。PPD2101からFD1ノードへの電荷の転送の間に、SPAD回路2001が入射する光子を検出することに応答して第2トランジスタ2105がターンオフされると、PPD2101からFD1ノードへの電荷の転送は停止し、FD1ノードに転送された電荷の量及びPPD2101に残った電荷の量の全ては入射する光子のTOFに関連付けられる。TX信号及び入射する光子の検出に基づくPPD2101からFD1ノードへの電荷の転送は、チャージツータイムのシングルエンド差動変換(single-ended-to-differential conversion of charge to time)を提供する。 In one embodiment, the VTX signal (and thus the TX signal) slopes upward to transfer charge from PPD 2101 to the FD1 node. The amount of charge transferred from PPD 2101 to the FD1 node is a function of the level of the TX signal, and the slope of the TX signal is a function of time. Therefore, the charge transferred from PPD 2101 to the FD1 node is a function of time. During the transfer of charge from the PPD 2101 to the FD1 node, if the second transistor 2105 is turned off in response to SPAD circuit 2001 detecting an incident photon, the transfer of charge from the PPD 2101 to the FD1 node is stopped. , the amount of charge transferred to the FD1 node and the amount of charge remaining on PPD 2101 are all related to the TOF of the incident photon. Transfer of charge from PPD 2101 to FD1 node based on the detection of the TX signal and incoming photons provides a single-ended-to-differential conversion of charge to time.

時間分解センサ2000について、上記数学式2に記述した比率は、オブジェクトのデプス又は範囲を判定するために使用され、PIXOUT1とPIXOUT2信号との合計が測定毎に変化しなければ測定値の変動にそれほど敏感ではない。一実施例で、VTX信号は理想的に線形であり得る、TOFピクセルアレイの異なるピクセルに亘って理想的に均一であり得る。しかし、実際にTOFピクセルアレイの異なるピクセルに印加されるVTX信号はピクセル毎に変動し、従ってピクセル毎にVTX信号の変動に依存して範囲の測定にエラーを誘発し、また測定毎に変動し得る。 For the time-resolved sensor 2000, the ratio described in Equation 2 above is used to determine the depth or range of an object, and if the sum of the PIXOUT1 and PIXOUT2 signals does not change from measurement to measurement, it will be Not sensitive. In one example, the VTX signal may be ideally linear and may be ideally uniform across different pixels of the TOF pixel array. However, in reality, the VTX signals applied to different pixels of the TOF pixel array vary from pixel to pixel, and therefore induce errors in range measurement depending on the variation of the VTX signal from pixel to pixel, and also vary from measurement to measurement. obtain.

一実施例で、第1トランジスタ2103、第2トランジスタ2105、第3トランジスタ2107、第4トランジスタ2109、第5トランジスタ2111、第6トランジスタ2113、第7トランジスタ2115、第8トランジスタ2117、及び第9トランジスタ2119は、それぞれn型MOSFET又はp型MOSFETであり得るが、任意の他の適切なトランジスタが用いられる。 In one embodiment, the first transistor 2103, the second transistor 2105, the third transistor 2107, the fourth transistor 2109, the fifth transistor 2111, the sixth transistor 2113, the seventh transistor 2115, the eighth transistor 2117, and the ninth transistor 2119. may each be an n-type MOSFET or a p-type MOSFET, but any other suitable transistor may be used.

図22は、図20の時間分解センサ2000の他の例を示す相対的な信号のタイミング図2200である。図22の信号タイミング図は図19の信号タイミング図に類似しており、類似点は図19を参照して説明される。図22の信号タイミング図は、FD信号を含み、シャッターオン区間のエンド部分でPPD2101の残りの電荷がTXRMD信号の動作によってFD2ノードに転送される点で異なる。また、PIXOUT1とPIXOUT2信号は同時に読み出される。 FIG. 22 is a relative signal timing diagram 2200 illustrating another example of the time-resolved sensor 2000 of FIG. The signal timing diagram of FIG. 22 is similar to the signal timing diagram of FIG. 19, and the similarities will be explained with reference to FIG. The signal timing diagram of FIG. 22 differs in that it includes the FD signal and the remaining charge of the PPD 2101 is transferred to the FD2 node by the operation of the TXRMD signal at the end of the shutter-on period. Further, the PIXOUT1 and PIXOUT2 signals are read out simultaneously.

第2のPPD回路2005は、変わらないフルウェルキャパシティに依存して最大の範囲を判定するが、時間分解センサ2000の実際の具現は、異なる第2のPPD回路2005との間の熱雑音に基づいてPPD2101に対するフルウェルキャパシティ変動を経験することに留意しなければならない。また、VTX信号は、ピクセルアレイのピクセルの位置に基づいて異なる傾斜(傾き)を有することができる。即ち、ピクセルで、VTX信号の傾斜(傾き)は、ピクセルがVTX信号のソースからどれくらい近いかに依存して変動する。 Although the second PPD circuit 2005 relies on the unchanged full well capacity to determine the maximum range, the actual implementation of the time-resolved sensor 2000 depends on the thermal noise between the different second PPD circuits 2005. It should be noted that full-well capacity variations for PPD2101 will be experienced based on the PPD2101. Also, the VTX signal can have a different slope based on the location of the pixel in the pixel array. That is, at a pixel, the slope of the VTX signal varies depending on how close the pixel is from the source of the VTX signal.

図23は、時間分解センサ2300の更に他の例を示す回路図である。時間分解センサ2300は、1つ以上のSPAD回路(2301a~2301n)、論理回路2303、及び第3のPPD回路2305を含む。 FIG. 23 is a circuit diagram showing still another example of the time-resolved sensor 2300. Time-resolved sensor 2300 includes one or more SPAD circuits (2301a-2301n), a logic circuit 2303, and a third PPD circuit 2305.

一実施例で、1つ以上のSPAD回路2301のそれぞれは、SPAD2311、抵抗2313、キャパシタ2315、pタイプMOSFETトランジスタ2317、及びバッファ2319を含む。SPAD2311は、接地電位に連結された正極及びもう一方の負極を含む。抵抗2313は、VSPAD電圧を受信する第1端子及びSPAD2311の負極に連結された第2端子を含む。他の実施例で、SPAD2311と抵抗2313との位置は交換され得る。SPAD2311は光に応答する。光子を受信することに応答して、SPAD2311は、急激にVSPAD電圧からブレークダウン電圧よりも低い電圧になり、その後にVSPAD電圧によってゆっくり復帰するパルス信号を出力する。 In one embodiment, each of the one or more SPAD circuits 2301 includes a SPAD 2311, a resistor 2313, a capacitor 2315, a p-type MOSFET transistor 2317, and a buffer 2319. SPAD 2311 includes a positive electrode and another negative electrode connected to ground potential. Resistor 2313 includes a first terminal that receives the VSPAD voltage and a second terminal coupled to the negative terminal of SPAD 2311 . In other embodiments, the positions of SPAD 2311 and resistor 2313 may be swapped. SPAD 2311 is responsive to light. In response to receiving a photon, the SPAD 2311 outputs a pulse signal that abruptly drops from the VSPAD voltage to a voltage below the breakdown voltage and then slowly returns to the VSPAD voltage.

キャパシタ2315は、SPAD2311の負極に連結された第1端子及びもう一方の第2端子を含む。代案的な実施例で、キャパシタ2315は省略され得る。PタイプMOSFETトランジスタ2317は、シャッター信号を受信するゲート端子と、キャパシタ2315の第2端子に連結された第1のS/D端子と、VPIXの電圧(VDD)を受信する第2のS/D端子と、を含む。バッファ2319は、キャパシタ2315の第2端子に連結される入力と、SPAD回路2311の出力に対応するDE信号を出力する反転出力と、を含む。代案的な実施例で、バッファ2319は反転しない可能性がある。 The capacitor 2315 includes a first terminal connected to the negative electrode of the SPAD 2311 and a second terminal. In alternative embodiments, capacitor 2315 may be omitted. P-type MOSFET transistor 2317 has a gate terminal that receives the shutter signal, a first S/D terminal coupled to the second terminal of capacitor 2315, and a second S/D terminal that receives the voltage (VDD) of VPIX. including a terminal. Buffer 2319 includes an input coupled to the second terminal of capacitor 2315 and an inverted output that outputs a DE signal corresponding to the output of SPAD circuit 2311. In alternative embodiments, buffer 2319 may not be inverted.

論理回路2303は、1つ以上のSPAD回路(2301a~2301n)のそれぞれのDE信号出力に連結される入力と、TXEN信号及びTXEN信号の反転であるTXENB信号を出力する出力と、を含む。 Logic circuit 2303 includes an input coupled to the DE signal output of each of one or more SPAD circuits (2301a-2301n), and an output that outputs a TXEN signal and a TXENB signal, which is the inverse of the TXEN signal.

第3のPPD回路2305は、容量性デバイス(SC)、第1トランジスタ2351、第2トランジスタ2353、第3トランジスタ2355、第4トランジスタ2357、第5トランジスタ2359、第6トランジスタ2361、第7トランジスタ2363、第8トランジスタ2365、第9トランジスタ2367、第10トランジスタ2369、第11トランジスタ2371、第12トランジスタ2373、及び第13トランジスタ2375を含む。 The third PPD circuit 2305 includes a capacitive device (SC), a first transistor 2351, a second transistor 2353, a third transistor 2355, a fourth transistor 2357, a fifth transistor 2359, a sixth transistor 2361, a seventh transistor 2363, An eighth transistor 2365, a ninth transistor 2367, a tenth transistor 2369, an eleventh transistor 2371, a twelfth transistor 2373, and a thirteenth transistor 2375 are included.

容量性デバイス(SC)は、接地電位に連結された第1端子及びもう一方の第2端子を含む。容量性デバイス(SC)は、キャパシタに類似する方式で電荷を貯蔵する。一実施例で、容量性デバイス(SC)はキャパシタであり得る。他の実施例で、容量性デバイス(SC)はカバーされて光に応答していないPPDであり得る。もうひとつの実施例で、容量性デバイス(SC)はTCCの一部として使用され得る。 A capacitive device (SC) includes a first terminal coupled to a ground potential and another second terminal. Capacitive devices (SCs) store charge in a manner similar to capacitors. In one example, the capacitive device (SC) may be a capacitor. In other embodiments, the capacitive device (SC) can be a PPD that is covered and non-responsive to light. In another example, a capacitive device (SC) may be used as part of the TCC.

第1トランジスタ2351は、RST信号に連結されたゲート端子2351と、接地電位に連結された第1のS/D端子と、容量性デバイス(SC)の第2端子に連結された第2のS/D端子と、を含む。 The first transistor 2351 has a gate terminal 2351 connected to the RST signal, a first S/D terminal connected to ground potential, and a second S/D terminal connected to the second terminal of the capacitive device (SC). /D terminal.

第2トランジスタ2353は、TXA信号に連結されたゲート端子と、第1フローティングディフュージョン(FD1)ノードに連結された第1のS/D端子と、第1トランジスタ2351の第2のS/D端子及び容量性デバイス(SC)の第2端子に連結された第2のS/D端子と、を含む。第1フローティングディフュージョン(FD1)ノードは、図23で、キャパシタ符号で表される。FD1ノードと接地との間に、図23に示していないストレーキャパシタンスが存在し得る。一実施例で、物理的キャパシタもまたFD1ノードと接地との間に連結され得る。 The second transistor 2353 has a gate terminal connected to the TXA signal, a first S/D terminal connected to the first floating diffusion (FD1) node, a second S/D terminal of the first transistor 2351, and a first S/D terminal connected to the first floating diffusion (FD1) node. a second S/D terminal coupled to a second terminal of the capacitive device (SC). The first floating diffusion (FD1) node is represented by a capacitor symbol in FIG. Stray capacitance not shown in FIG. 23 may exist between the FD1 node and ground. In one embodiment, a physical capacitor may also be coupled between the FD1 node and ground.

第3トランジスタ2355は、FD1ノード及び第2トランジスタ2353の第1のS/Dノードに連結されたゲート端子と、VPIXの電圧に連結された第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第3トランジスタ2355は、FD1ノードの電荷を第3トランジスタ2355の第2のS/D端子で電圧に変換する。 The third transistor 2355 has a gate terminal connected to the FD1 node and the first S/D node of the second transistor 2353, a first S/D terminal connected to the voltage of VPIX, and the other second S/D terminal. S/D terminal of. The third transistor 2355 converts the charge at the FD1 node into a voltage at the second S/D terminal of the third transistor 2355.

第4トランジスタ2357は、RST信号に連結されたゲート端子と、VPIXの電圧に連結された第1のS/D端子と、第3トランジスタ2355の第1のS/D端子及びFD1に連結された第2のS/D端子と、を含む。 The fourth transistor 2357 has a gate terminal connected to the RST signal, a first S/D terminal connected to the voltage of VPIX, and a first S/D terminal of the third transistor 2355 and FD1. A second S/D terminal.

第5トランジスタ2359は、TXEN信号に連結されたゲート端子と、VTX信号に接続された第1のS/D端子と、第2トランジスタ2353のゲート端子に連結された第2のS/D端子と、を含む。 The fifth transistor 2359 has a gate terminal connected to the TXEN signal, a first S/D terminal connected to the VTX signal, and a second S/D terminal connected to the gate terminal of the second transistor 2353. ,including.

第6トランジスタ2361は、TXENB信号に連結されたゲート端子と、接地電位に連結された第1のS/D端子と、第2トランジスタ2353のゲート端子及び第5トランジスタ2359の第2のS/D端子に連結された第2のS/D端子と、を含む。 The sixth transistor 2361 has a gate terminal connected to the TXENB signal, a first S/D terminal connected to the ground potential, a gate terminal of the second transistor 2353, and a second S/D terminal of the fifth transistor 2359. a second S/D terminal coupled to the terminal.

第7トランジスタ2363は、SEL信号に連結されたゲート端子と、第3トランジスタ2355の第2のS/D端子に連結された第1のS/D端子と、ピクセル出力のデータライン(PIXA)に連結された第2のS/D端子と、を含む。 The seventh transistor 2363 has a gate terminal connected to the SEL signal, a first S/D terminal connected to the second S/D terminal of the third transistor 2355, and a data line (PIXA) of the pixel output. and a connected second S/D terminal.

第8トランジスタ2365は、TXB信号に連結されたゲート端子と、第2フローティングディフュージョン(FD2)ノードに連結された第1のS/D端子と、第1トランジスタ2351の第2のS/D端子、容量性デバイス(SC)の第2端子、及び第2トランジスタ2353の第2のS/D端子に連結された第2のS/D端子と、を含む。第2フローティングディフュージョン(FD2)ノードは、図23で、キャパシタ符号で示される。FD2ノードと接地との間に、図23に示していないストレーキャパシタンスが存在し得る。一実施例で、物理的キャパシタもまたFD2ノードと接地との間に連結され得る。 The eighth transistor 2365 has a gate terminal connected to the TXB signal, a first S/D terminal connected to the second floating diffusion (FD2) node, a second S/D terminal of the first transistor 2351, a second S/D terminal coupled to a second terminal of the capacitive device (SC) and a second S/D terminal of the second transistor 2353. The second floating diffusion (FD2) node is indicated by the capacitor symbol in FIG. Stray capacitance not shown in FIG. 23 may exist between the FD2 node and ground. In one embodiment, a physical capacitor may also be coupled between the FD2 node and ground.

第9トランジスタ2367は、FD2ノード及び第8トランジスタ2365の第1のS/D端子に連結されたゲート端子と、VPIXの電圧に連結された第1のS/D端子と、もう一方の第2のS/D端子と、を含む。第9トランジスタ2367は、FD2ノードの電荷を第9トランジスタ2367の第2のS/D端子で電圧に変換する。 The ninth transistor 2367 has a gate terminal connected to the FD2 node and the first S/D terminal of the eighth transistor 2365, a first S/D terminal connected to the voltage of VPIX, and a second S/D terminal connected to the FD2 node and the first S/D terminal of the eighth transistor 2365. S/D terminal of. The ninth transistor 2367 converts the charge at the FD2 node into a voltage at the second S/D terminal of the ninth transistor 2367.

第10トランジスタ2369は、RST信号に連結されたゲート端子と、VPIXの電圧に連結された第1のS/D端子と、第9トランジスタ2367のゲート端子、FD2ノード、及び第8トランジスタ2365の第2のS/D端子に連結された第2のS/D端子と、を含む。 The tenth transistor 2369 has a gate terminal connected to the RST signal, a first S/D terminal connected to the voltage of VPIX, a gate terminal of the ninth transistor 2367, an FD2 node, and a first S/D terminal of the eighth transistor 2365. a second S/D terminal connected to the second S/D terminal.

第11トランジスタ2371は、TXENB信号に連結されたゲート端子と、VTX信号に連結された第1のS/D端子と、第8トランジスタ2365のゲート端子に連結された第2のS/D端子と、を含む。 The eleventh transistor 2371 has a gate terminal connected to the TXENB signal, a first S/D terminal connected to the VTX signal, and a second S/D terminal connected to the gate terminal of the eighth transistor 2365. ,including.

第12トランジスタ2373は、TXEN信号に連結されたゲート端子と、接地電位に連結された第1のS/D端子と、第8トランジスタ2365のゲート端子及び第11トランジスタ2371の第2のS/D端子に連結された第2のS/D端子と、を含む。 The twelfth transistor 2373 has a gate terminal connected to the TXEN signal, a first S/D terminal connected to the ground potential, a gate terminal of the eighth transistor 2365, and a second S/D terminal of the eleventh transistor 2371. a second S/D terminal coupled to the terminal.

第13トランジスタ2375は、SEL信号に連結されたゲート端子と、第9トランジスタ2367の第2のS/D端子に連結された第1のS/D端子と、ピクセル出力のデータライン(PIXB)に連結された第2のS/D端子と、を含む。 The thirteenth transistor 2375 has a gate terminal connected to the SEL signal, a first S/D terminal connected to the second S/D terminal of the ninth transistor 2367, and a data line (PIXB) of the pixel output. and a connected second S/D terminal.

図24は、図23の時間分解センサ2300の更に他の例を示す相対的な信号のタイミング図である。図24の信号タイミング図は図19及び図22の信号タイミング図に類似し、類似点は、図19を参照して記述される。図24の信号タイミング図は、TXRMD信号及びTX信号を含まず、代わりにTXENB信号、TXA信号、及びTXB信号を含むことが、図22の信号タイミング図と異なる。 FIG. 24 is a relative signal timing diagram showing yet another example of the time-resolved sensor 2300 of FIG. 23. The signal timing diagram of FIG. 24 is similar to the signal timing diagrams of FIGS. 19 and 22, and the similarities will be described with reference to FIG. The signal timing diagram of FIG. 24 differs from the signal timing diagram of FIG. 22 in that it does not include the TXRMD signal and the TX signal, but instead includes the TXENB signal, TXA signal, and TXB signal.

図24の信号タイミング図で、TXENB信号はTXEN信号の反転信号である。シャッター信号がハイに活性(アクティブ)であるときにTXEN信号は活性であり、VTX信号は第5トランジスタ2359を通過してTXA信号が活性化されるようにする。容量性デバイス(SC)の電荷は第2トランジスタ2353を介してFD1ノードに転送される。同時に、接地電位は第12トランジスタ2373を通過してTXB信号が非活性化されるようにする。 In the signal timing diagram of FIG. 24, the TXENB signal is an inverted signal of the TXEN signal. When the shutter signal is active high, the TXEN signal is active, and the VTX signal passes through the fifth transistor 2359 so that the TXA signal is activated. The charge of the capacitive device (SC) is transferred to the FD1 node via the second transistor 2353. At the same time, the ground potential passes through the twelfth transistor 2373 to deactivate the TXB signal.

検出イベント(DE)が発生(反射された光パルスを受信)したときにTXEN信号は非活性化され、TXENB信号は活性化される。TXEN信号が非活性化されると、TXA信号もまた非活性化され、電荷が容量性デバイス(SC)から第2トランジスタ2353を介してFD1ノードに転送されることが停止される。TXENB信号が活性化されると、TXB信号は活性化され、電荷は容量性デバイス(SC)から第8トランジスタ2365を介してFD2ノードに転送される。 When a detection event (DE) occurs (receives a reflected light pulse), the TXEN signal is deactivated and the TXENB signal is activated. When the TXEN signal is deactivated, the TXA signal is also deactivated, stopping charge from being transferred from the capacitive device (SC) through the second transistor 2353 to the FD1 node. When the TXENB signal is activated, the TXB signal is activated and charge is transferred from the capacitive device (SC) to the FD2 node through the eighth transistor 2365.

シャッター信号が終了すると、TXB信号は非活性化され、電荷が容量性デバイス(SC)から第8トランジスタ2365を介してFD2ノードに転送されることが停止される。FD1ノード及びFD2ノードの電荷に関連付けられたそれぞれの電圧はPIXA及びPIXBの出力ラインから読み出される。 When the shutter signal ends, the TXB signal is deactivated and charge is stopped from being transferred from the capacitive device (SC) through the eighth transistor 2365 to the FD2 node. The respective voltages associated with the charges on the FD1 and FD2 nodes are read from the PIXA and PIXB output lines.

ピクセル単位のVTX信号の傾きの変動及び容量性デバイス(SC)のキャパシタンスの変動は、第2トランジスタ2353(TXA)及び第8トランジスタ2365(TXB)がアクティブ(活性)シャッター信号の間に線形モードである限り、範囲の測定エラーが発生しないことに留意しなければならない。 The variation in the slope of the VTX signal on a pixel-by-pixel basis and the variation in the capacitance of the capacitive device (SC) is such that the second transistor 2353 (TXA) and the eighth transistor 2365 (TXB) are in linear mode during the active shutter signal. It must be noted that as long as there is no range measurement error.

図25は、図23の時間分解センサ2300を利用して時間を分解する方法2500の一例を示すフローチャートである。方法はステップ2501から始まる。ステップ2502で、アクティブシャッター信号が生成される。ステップ2503で、アクティブシャッター信号の間に少なくとも1つのSPAD回路2301に入射する1つ以上の光子が検出される。1つ以上の検出された光子はオブジェクトから反射されたものである。ステップ2504で、検出イベント(DE)に基づいて出力信号が生成される。ステップ2505で、検出イベント(DE)に対する出力信号に基づいて第1アクティブ(活性)信号(例えば、TXEN)及び第2アクティブ信号(例えば、TXENB)が生成される。一実施例で、第1アクティブ信号はアクティブシャッター信号の開始に応答して活性化されて出力信号に応答して非活性化され、第2アクティブ信号は出力信号に応答して活性化されてアクティブシャッター信号の終了に応答して非活性化される。 FIG. 25 is a flowchart illustrating an example of a method 2500 for resolving time using the time-resolving sensor 2300 of FIG. The method begins at step 2501. At step 2502, an active shutter signal is generated. At step 2503, one or more photons incident on at least one SPAD circuit 2301 during an active shutter signal are detected. One or more of the detected photons are those reflected from the object. At step 2504, an output signal is generated based on the detected event (DE). At step 2505, a first active signal (eg, TXEN) and a second active signal (eg, TXENB) are generated based on the output signal for the detected event (DE). In one embodiment, the first active signal is activated in response to the initiation of the active shutter signal and deactivated in response to the output signal, and the second active signal is activated and activated in response to the output signal. Deactivated in response to termination of the shutter signal.

ステップ2506で、第1アクティブ(活性)信号がアクティブである場合、容量性デバイス(SC)の電荷が第1フローティングディフュージョン(FD1)ノードに転送され、第1フローティングディフュージョン(FD1)ノードで第1電荷を形成する。ステップ2507で、第2アクティブ信号が活性である場合、容量性デバイス(SC)の残りの電荷が第2フローティングディフュージョン(FD2)ノードに転送され、第2フローティングディフュージョン(FD2)ノードで第2電荷を形成する。ステップ2508で、第1電荷に基づく第1電圧及び第2電荷に基づく第2電圧が出力される。第1電圧と第2電圧との和に対する第1電圧の第1比率は1つ以上の検出された光子の飛行時間に比例し、第1電圧及び第2電圧の和に対する第2電圧の第2比率は1つ以上の検出された光子の飛行時間に比例する。ステップ2509で、方法が終了する。 In step 2506, if the first active signal is active, the charge of the capacitive device (SC) is transferred to the first floating diffusion (FD1) node, and the first charge is transferred to the first floating diffusion (FD1) node. form. In step 2507, if the second active signal is active, the remaining charge of the capacitive device (SC) is transferred to the second floating diffusion (FD2) node, and the second charge is transferred to the second floating diffusion (FD2) node. Form. At step 2508, a first voltage based on the first charge and a second voltage based on the second charge are output. a first ratio of the first voltage to the sum of the first voltage and the second voltage is proportional to the time of flight of the one or more detected photons; The ratio is proportional to the time of flight of one or more detected photons. At step 2509, the method ends.

一実施例で、第1電荷及び第2電荷を転送するステップは、傾斜関数(ramp function)に基づいてVTX信号(又は駆動信号)を変更するステップを含み、VTX信号(又は駆動信号)は、1つ以上の光子が検出される光パルスの開始時間に応答して変化し始め、アクティブシャッター信号の終了まで変化する。また、容量性デバイスの電荷を第1フローティングディフュージョン(FD1)ノードに転送して第1フローティングディフュージョン(FD1)ノードで第1電荷を形成するステップは、更に第1アクティブ信号がアクティブのときにVTX信号(又は駆動信号)のレベルに基づき行われ、容量デバイスの残りの電荷を第2フローティングディフュージョン(FD2)ノードに転送して第2フローティングディフュージョン(FD2)ノードで第2電荷を形成するステップは、更に第2アクティブ信号がアクティブのときにVTX信号(又は駆動信号)のレベルに基づき行われる。 In one embodiment, transferring the first charge and the second charge includes modifying the VTX signal (or drive signal) based on a ramp function, the VTX signal (or drive signal) comprising: The one or more photons begin to change in response to the start time of the detected light pulse and continue to change until the end of the active shutter signal. The step of transferring the charge of the capacitive device to the first floating diffusion (FD1) node to form the first charge at the first floating diffusion (FD1) node further includes the step of transferring the charge of the capacitive device to the first floating diffusion (FD1) node to form a first charge at the first floating diffusion (FD1) node when the first active signal is active. (or the drive signal), the step of transferring the remaining charge of the capacitive device to the second floating diffusion (FD2) node to form a second charge at the second floating diffusion (FD2) node further comprises: This is performed based on the level of the VTX signal (or drive signal) when the second active signal is active.

他の実施例で、第1電圧と第2電圧との和に対する第1電圧の第1比率は、更に1つ以上の検出された光子の飛行時間から遅延時間を差し引いた時間に比例する。同様に、第1電圧と第2電圧との和に対する第2電圧の第2割合は、更に1つ以上の検出された光子の飛行時間から遅延時間を差し引いた時間に比例する。遅延時間は光パルスの伝送時間の開始とVTX信号(又は駆動信号)が変化し始めた時との間の時間を含む。 In other embodiments, the first ratio of the first voltage to the sum of the first voltage and the second voltage is further proportional to a time of flight minus a delay time of the one or more detected photons. Similarly, the second ratio of the second voltage to the sum of the first voltage and the second voltage is further proportional to the time of flight of the one or more detected photons minus the delay time. The delay time includes the time between the start of the optical pulse's transmission time and when the VTX signal (or drive signal) begins to change.

SPADを使用するLiDAR(光検出、並びに距離測定)システムは、一般的に光強度に基づくイメージングの能力を提供しない。距離情報と共に強度をイメージングすることは、向上した運転者補助システム(ADAS)及び自律走行アプリケーションにおけるオブジェクト認識性能を大幅に向上させることができる。本発明は、距離測定及び強度イメージング情報の両方を提供するイメージングシステムを提供する。距離イメージ及び強度イメージの両方は、同じソースから生成され、イメージの整列問題が存在せず、また複雑な混合アルゴリズムを必要としない。本明細書に記載したピクセルの実施例はTCCになるように構成される。更に、時間デジタル変換器に(TDCに)なるように構成されるピクセルは、また使用され得るが、TCCになるように構成されるピクセルよりも空間的により低い解像度を有するイメージを提供することができる。即ち、TCCになるように構成されるピクセルは、より小さくそしてTDCになるように構成されるピクセルを用いる画素アレイよりも高い解像度を有するピクセルアレイを提供することができる。 LiDAR (light detection and ranging) systems that use SPADs generally do not provide light intensity-based imaging capabilities. Imaging intensity along with distance information can significantly improve object recognition performance in advanced driver assistance systems (ADAS) and autonomous driving applications. The present invention provides an imaging system that provides both distance measurement and intensity imaging information. Both the range and intensity images are generated from the same source, there are no image alignment problems, and there is no need for complex blending algorithms. The pixel embodiments described herein are configured to be TCC. Additionally, pixels configured to be time-to-digital converters (TDCs) may also be used, but may provide images with spatially lower resolution than pixels configured to be TCCs. can. That is, pixels configured to be TCC can provide a pixel array that is smaller and has a higher resolution than a pixel array using pixels configured to be TDC.

距離及び光強度情報を提供するイメージング処理システムの一例は図1に示したイメージングシステム15である。ピクセルアレイ42は、図5に示したピクセル43、図7に示したピクセル700、図13に示したピクセル1300、図21に示したピクセル2100、及び/又は図23に示したピクセル2300のような本明細書に記載したTCCピクセルの実施例を含む。光源22は、図3及び図4に連携して記載したように、ピクセル処理ユニット46に同期化されるポイントのスキャンを提供するように制御される。ポイントスキャンは、多数回繰り返され、距離情報及び光強度情報の両方に対する統計的平均を提供することができる。光強度情報は、イメージ処理システム15の視野内のオブジェクトの反射率を判定するのに使用され得る。代案的な実施例で、光源モジュール22は、シーン全体を照明するように制御され得る。多数の光パルスが照射されてキャプチャーされると、各ピクセルに対するヒストグラムが形成され、ヒストグラムでのピーク周辺のビン(bins)を加算することにより、ADAS及び自律走行アプリケーションにおけるオブジェクト認識性能を大幅に向上させるのに使用されるグレイスケールイメージが生成され得る。代案的な実施例は、TDCの出力を提供するように構成されるピクセルを使用することができることに留意しなければならない。 An example of an imaging processing system that provides distance and light intensity information is imaging system 15 shown in FIG. Pixel array 42 may include pixels such as pixel 43 shown in FIG. 5, pixel 700 shown in FIG. 7, pixel 1300 shown in FIG. 13, pixel 2100 shown in FIG. Includes an example of a TCC pixel as described herein. Light source 22 is controlled to provide a scan of points that is synchronized to pixel processing unit 46 as described in conjunction with FIGS. 3 and 4. The point scan can be repeated many times to provide a statistical average for both distance and light intensity information. Light intensity information may be used to determine the reflectance of objects within the field of view of image processing system 15. In an alternative embodiment, light source module 22 may be controlled to illuminate the entire scene. When multiple light pulses are emitted and captured, a histogram is formed for each pixel, and the bins around the peaks in the histogram are summed to greatly improve object recognition performance in ADAS and autonomous driving applications. A grayscale image can be generated that can be used to create an image. It should be noted that alternative embodiments may use pixels configured to provide a TDC output.

イメージセンサユニット24によってキャプチャーされる各点の反射率は、各点に対する距離及びグレイスケール値に基づいて判定され得る。グレイスケールイメージは、またレーザーパルスなしに生成され得る。多数のフレームを共に加算することで、イメージセンサユニット24はピクセル当たりのフレーム当たり最大1つの光子をキャプチャーする量子(Quanta)イメージセンサのように動作することができる。多数のビットプレーン(即ち、フレーム)を共に加算する場合、高いダイナミック距離イメージングが達成され得る。オブジェクト認識のための同じイメージセンサユニットから生成される3D及び2Dイメージの両方を利用することにより、複雑なイメージの混合処理が回避されて認識の性能が向上され得る。 The reflectance of each point captured by image sensor unit 24 may be determined based on the distance and grayscale value for each point. Grayscale images can also be generated without laser pulses. By summing multiple frames together, image sensor unit 24 can operate like a Quanta image sensor that captures up to one photon per frame per pixel. High dynamic range imaging can be achieved when adding together multiple bitplanes (ie, frames). By utilizing both 3D and 2D images generated from the same image sensor unit for object recognition, complex image blending processing may be avoided and recognition performance may be improved.

一実施例で、ピクセルのグレイスケール値は、ピクセルによって検出された光子の到着時間(即ち、検出時間)のヒストグラムのピーク値を直接に利用することで生成され得る。ウィンドウ幅は、照射されたレーザー光又はパルスの半値幅(FWHM:full width at half-maximum)と同じであり得る。光検出時間のヒストグラムが形成されて検出された光のピーク数に対応するビン(bin)は、光パルスが反射されたポイントでオブジェクトの表面反射率を測定するのに使用され得る。代案的に、ピクセルのヒストグラムは、SPADから出力されたトリガー波形でコンボリューションされ、最大検出された光子カウントがその後選択され得る。 In one example, the grayscale value of a pixel may be generated by directly utilizing the peak value of a histogram of arrival times (ie, detection times) of photons detected by the pixel. The window width may be the same as the full width at half-maximum (FWHM) of the applied laser light or pulse. A histogram of light detection times is formed with bins corresponding to the number of peaks of detected light that can be used to measure the surface reflectance of the object at the point where the light pulse was reflected. Alternatively, the histogram of pixels can be convolved with the trigger waveform output from the SPAD, and the maximum detected photon count can then be selected.

図26aは、SPADからのトリガー波形2600出力の一例を示す図である。図26の横軸は相対的な時間(単位なし)であり、図26の縦軸は相対的な振幅(単位なし)である。図26bは、形成されるピクセルの光検出時間の一例を示すヒストグラム2601である。図26bの横軸は相対的な正規化された時間であり、縦軸は光子検出イベントのカウントを示す。 FIG. 26a is a diagram illustrating an example of a trigger waveform 2600 output from a SPAD. The horizontal axis of FIG. 26 is relative time (no units), and the vertical axis of FIG. 26 is relative amplitude (no units). FIG. 26b is a histogram 2601 showing an example of the light detection time of the formed pixels. The horizontal axis in Figure 26b is relative normalized time and the vertical axis shows counts of photon detection events.

図26cは、ヒストグラム2602の一例として、照射されたパルス(図示せず)のFWHMを示すウィンドウ幅を2602aに示したウィンドウで表し、イベントカウントの最大が判定されることを説明するための図である。図26dは、ヒストグラム2603の一例を示し、SPADから出力されたトリガー波形(図26a)がヒストグラムでコンボリューションされてイベントカウントの最大が判定されることを説明するための図である。 FIG. 26c is a diagram for explaining that, as an example of the histogram 2602, the window width indicating the FWHM of the irradiated pulse (not shown) is represented by the window 2602a, and the maximum event count is determined. be. FIG. 26d shows an example of the histogram 2603, and is a diagram for explaining that the trigger waveform (FIG. 26a) output from the SPAD is convolved with the histogram to determine the maximum event count.

表面反射率(S)は、次の数学式5からスタートして測定される。 The surface reflectance (S) is measured starting from Equation 5 below.



Figure 0007401986000005
Figure 0007401986000005

ここで、Pはピクセル値であり、αはルクス(lux)をピクセル値に変換するシステム依存の定数であり、Sは表面反射率であり、Lは光強度である。光強度(L)は、LambとLlaserとの合計で表され、それぞれのセンサに到達する周辺光の強度及びレーザー光の強度である。 where P is the pixel value, α is a system-dependent constant that converts lux to pixel value, S is the surface reflectance, and L is the light intensity. The light intensity (L) is expressed as the sum of L amb and L laser , which is the intensity of the ambient light and the intensity of the laser light reaching each sensor.

従って、表面反射率(S)は、数学式6で測定される。 Therefore, the surface reflectance (S) is measured using Equation 6.

Figure 0007401986000006
Figure 0007401986000006

周辺光の強度(Lamb)は数学式7で表される。 The intensity of ambient light (L amb ) is expressed by Equation 7.

Figure 0007401986000007
Figure 0007401986000007

ここで、Nは光パルスから検出されたイベントの数であり、Mは光パルスが検出される前に検出されたイベント(即ち、周辺から)の数であり、Dは測定された距離であり、βは補償される他のシステムに依存する変数である。 where N is the number of events detected from the light pulse, M is the number of events detected before the light pulse is detected (i.e. from the surroundings), and D is the measured distance. , β are variables that depend on the other systems being compensated.

図27は、ピクセルに対する一例を示すヒストグラム2700である。ヒストグラム2700の横軸は相対的な時間(単位なし)であり、ヒストグラム2700の縦軸は光子検出イベントのカウントである。光パルスの前に検出されたイベントの数(M)を2701に示す。光パルスのうちの検出されたイベントの数(N)を2702に示す。 FIG. 27 is a histogram 2700 showing an example for pixels. The horizontal axis of histogram 2700 is relative time (without units) and the vertical axis of histogram 2700 is count of photon detection events. The number of events (M) detected before the light pulse is shown at 2701. The number (N) of detected events among the light pulses is shown at 2702.

放射するレーザーパワー(Ilaserで示す)と受信されるレーザーパワー(Llaser)との間の関係は、数学式8である。 The relationship between the emitted laser power (denoted Ilaser ) and the received laser power ( Llaser ) is Equation 8.

Figure 0007401986000008
Figure 0007401986000008

ここで、γはシステム定数である。 Here, γ is a system constant.

その後、「<x、y>」位置における反射率(S)の測定は、数学式9で表される。 Thereafter, the measurement of the reflectance (S) at the “<x, y>” position is expressed by Equation 9.

Figure 0007401986000009
Figure 0007401986000009

ここで、f(D)は距離に依存する関数である。即ち、数学式10で導出される。 Here, f(D) is a distance-dependent function. That is, it is derived from mathematical formula 10.

Figure 0007401986000010
Figure 0007401986000010

図28は、シーンのデプス又は範囲、マップ、及びグレイスケールイメージを生成する一例を示す方法のフローチャート2800である。方法はステップ2801から始まる。ステップ2802で、シーンは、例えば図1に示したイメージングシステム15によってポイントスキャンされる。イメージングシステム15のピクセルアレイ(42)は、例示的なピクセル(43(図5)、700(図7)、1300(図13)、2100(図21)、及び/又は2300(図23))を含み得る。ポイントスキャンは一回だけ実行され得るが、ポイントスキャンを多数回繰り返すことにより、より良い結果が得られることがあるものと理解すべきである。ステップ2803で、光検出イベントがピクセルアレイ42のピクセルに対して累積される。ステップ2804で、デプス又は範囲、マップが本明細書に記載したように生成される。距離情報は、ピクセル処理ユニット46及び/又はプロセッサ19によって判定される。ステップ2805で、シーンのグレイスケールイメージがシーンの反射率の測定に基づいて生成される。グレイスケールイメージは、ピクセル処理ユニット46及び/又はプロセッサ19によって判定される。方法は、ステップ2806で終了する。 FIG. 28 is a flowchart 2800 of an example method for generating scene depth or extent, a map, and a grayscale image. The method begins at step 2801. At step 2802, the scene is point-scanned by, for example, imaging system 15 shown in FIG. The pixel array (42) of the imaging system 15 includes exemplary pixels (43 (FIG. 5), 700 (FIG. 7), 1300 (FIG. 13), 2100 (FIG. 21), and/or 2300 (FIG. 23)). may be included. Although the point scan may be performed only once, it should be understood that better results may be obtained by repeating the point scan many times. At step 2803, light detection events are accumulated for pixels of pixel array 42. At step 2804, a depth or extent map is generated as described herein. Distance information is determined by pixel processing unit 46 and/or processor 19. At step 2805, a grayscale image of the scene is generated based on the reflectance measurements of the scene. The gray scale image is determined by pixel processing unit 46 and/or processor 19. The method ends at step 2806.

図29aは、シーン2900の一例を示すイメージである。図29b及び図29cは、図29aに示したシーンの一例をそれぞれ示すデプスマップ2901及びグレイスケールイメージ2902である。図29bの右側のスケールはメートルである。 FIG. 29a is an image showing an example of a scene 2900. 29b and 29c are a depth map 2901 and a grayscale image 2902, respectively, showing an example of the scene shown in FIG. 29a. The scale on the right side of Figure 29b is in meters.

図30は、図1及び図2に示したイメージングシステム15の全体的なレイアウトの一例を示すブロック図である。イメージングモジュール17は、図2、図5、図7(又は図13)の模範的な実施例で示した必要なハードウェアを含み、本実施形態の進歩した側面に基づいて2D/3Dイメージング及びTOF測定を達成することができる。プロセッサ19は、多数の外部装置に接続するように構成される。一実施例で、イメージングモジュール17は、図12のP1及びP2のような処理されたピクセル出力の形態でプロセッサ19に更なる処理のためにデータ入力を提供する入力装置として機能することができる。プロセッサ19は、またシステム15の一部である他の入力デバイス(図示せず)から入力を受信することができる。このような入力装置の一部の例は、コンピュータキーボード、タッチパッド、タッチスクリーン、ジョイスティック、物理的若しくは仮想の「クリック可能なボタン」、及び/又はコンピュータマウス/ポインティングデバイスを含み得る。図30において、プロセッサ19は、システムメモリ20、周辺ストレージユニット275、1つ以上の出力装置(ディスプレイユニット277)、及びネットワークインターフェース278に結合される。いくつかの実施例で、システム15は、図示した装置の1つ以上のインスタンスを含み得る。システム15の一部の例は、コンピュータシステム(デスクトップ又はラップトップ)、タブレットコンピュータ、モバイル装置、携帯電話、ビデオゲームユニット又はコンソール、マシンツーマシン(M2M)通信ユニット、ロボット、自動車、バーチャルリアリティ装置、ステートレスシンクライアントシステム(stateless thin client system)、車両のダッシュカム(dash-cam)又は後方注視(rearview)カメラシステム、自律走行システム、及び他の全てのタイプのコンピューティング又はデータ処理装置を含む。多様な実施例で、図30に示した構成要素の全ては、単一のハウジング内に実装され得る。従って、システム15は、スタンドアロンシステム又は他の任意の適切なフォームファクタで構成され。いくつかの実施例で、システム15は、サーバシステムではないクライアントシステムに構成され得る。 FIG. 30 is a block diagram showing an example of the overall layout of the imaging system 15 shown in FIGS. 1 and 2. As shown in FIG. Imaging module 17 includes the necessary hardware shown in the exemplary embodiments of FIGS. 2, 5, 7 (or 13) and provides 2D/3D imaging and TOF imaging based on advanced aspects of the present embodiments. measurements can be achieved. Processor 19 is configured to connect to a number of external devices. In one embodiment, imaging module 17 may function as an input device that provides data input for further processing to processor 19 in the form of processed pixel outputs such as P1 and P2 in FIG. Processor 19 may also receive input from other input devices (not shown) that are part of system 15. Some examples of such input devices may include a computer keyboard, touch pad, touch screen, joystick, physical or virtual "clickable buttons," and/or computer mouse/pointing device. In FIG. 30, processor 19 is coupled to system memory 20, peripheral storage unit 275, one or more output devices (display unit 277), and network interface 278. In some examples, system 15 may include one or more instances of the illustrated devices. Some examples of system 15 include a computer system (desktop or laptop), a tablet computer, a mobile device, a cell phone, a video game unit or console, a machine-to-machine (M2M) communication unit, a robot, an automobile, a virtual reality device, This includes stateless thin client systems, vehicle dash-cam or rearview camera systems, autonomous driving systems, and all other types of computing or data processing equipment. In various embodiments, all of the components shown in FIG. 30 may be implemented within a single housing. Accordingly, system 15 may be configured as a stand-alone system or any other suitable form factor. In some embodiments, system 15 may be configured as a client system rather than a server system.

いくつかの実施例で、システム15は1つ以上のプロセッサ(例えば、分散処理構成で)を含み得る。システム15がマルチプロセッサシステムである場合、プロセッサ19の1つ以上のインスタンスが存在するか、又はそれぞれのインターフェース(図示せず)を介してプロセッサ19に結合される多数のプロセッサが存在し得る。プロセッサ19は、システムオンチップ(SoC)であり、1つ以上の中央処理ユニット(CPU)を含み得る。 In some embodiments, system 15 may include one or more processors (eg, in a distributed processing configuration). If system 15 is a multiprocessor system, there may be one or more instances of processor 19, or there may be multiple processors coupled to processor 19 via respective interfaces (not shown). Processor 19 is a system on a chip (SoC) and may include one or more central processing units (CPUs).

システムメモリ20は、例えば、DRAM、SRAM、PRAM、ReRAM、CBRAM、MRAM、STT-MRAMなどのような半導体ベースのストレージシステムであり得る。いくつかの実施例で、メモリユニット20は、1つ以上の非3DSメモリモジュールと共に少なくとも1つの3DSメモリモジュールを含み得る。非3DSメモリモジュールは、ダブルデータレート、ダブルデータレート2、3、又は4同期ダイナミックランダムアクセスメモリ(DDR/DDR2/DDR3/DDR4 SDRAM)、ラムバス(登録商標)DRAM、フラッシュメモリ、様々な形態の読み取り専用メモリ(ROM)などを含み得る。また、一部の実施例で、システムメモリ20は、単一のタイプのメモリではなく多数の異なるタイプの半導体メモリを含み得る。他の実施例で、システムメモリ20は、非一時的データ貯蔵媒体であり得る。 System memory 20 may be a semiconductor-based storage system such as, for example, DRAM, SRAM, PRAM, ReRAM, CBRAM, MRAM, STT-MRAM, etc. In some examples, memory unit 20 may include at least one 3DS memory module along with one or more non-3DS memory modules. Non-3DS memory modules include double data rate, double data rate 2, 3, or 4 synchronous dynamic random access memory (DDR/DDR2/DDR3/DDR4 SDRAM), Rambus DRAM, flash memory, various forms of read It may include dedicated memory (ROM) and the like. Also, in some embodiments, system memory 20 may include multiple different types of semiconductor memory rather than a single type of memory. In other embodiments, system memory 20 may be a non-transitory data storage medium.

周辺ストレージユニット275は、様々な実施例で、ハードディスクドライブ、光学ディスク(コンパクトディスク(CD)又はデジタル多用途ディスク(DVD)のような)、不揮発性ランダムアクセスメモリ(RAM)デバイスなどのような磁気、光学、磁気光学、又はソリッド・ステート・ストレージ媒体を含み得る。いくつかの実施例で、周辺ストレージユニット275は、ディスクアレイ(適切なRAID(Redundant Array of Independent Disks)構成であり得る)、又はストレージエリアネットワーク(SAN)のような、より複雑なストレージデバイス/システムを含み、周辺ストレージユニット275は、SCSI(Small Computer System Interface)インターフェース、ファイバチャネルインターフェース、ファイヤーワイヤー(登録商標)(IEEE1394)インターフェース、PCIe Express(登録商標)(Peripheral Component Interconnect Express)標準ベースのインターフェース、USB(Universal Serial Bus)プロトコルベースのインターフェース、又は他の適切なインターフェースのような標準的な周辺インターフェースを介してプロセッサ19に結合され得る。このような多様なストレージデバイスは、非一時的データ記憶媒体であり得る。 Peripheral storage unit 275 may include, in various embodiments, a hard disk drive, an optical disk (such as a compact disc (CD) or a digital versatile disc (DVD)), a non-volatile random access memory (RAM) device, etc. , optical, magneto-optical, or solid state storage media. In some embodiments, peripheral storage unit 275 may include a disk array (which may be a suitable Redundant Array of Independent Disks (RAID) configuration) or a more complex storage device/system, such as a storage area network (SAN). The peripheral storage unit 275 includes a SCSI (Small Computer System Interface) interface, a fiber channel interface, a Firewire (registered trademark) (IEEE1394) interface, a PCIe Express (registered trademark) (Peripheral Component Interconnect). t Express) standards-based interface, It may be coupled to processor 19 via a standard peripheral interface, such as a Universal Serial Bus (USB) protocol-based interface, or other suitable interface. Such various storage devices may be non-transitory data storage media.

ディスプレイユニット277は出力装置の例であり得る。出力装置の他の例は、グラフィックス/ディスプレイ装置、コンピュータスクリーン、警告システム、CAD/CAM(Computer Aided Design/Computer Aided Machining)システム、ビデオゲームステーション、スマートフォンのディスプレイスクリーン、自動車のダッシュボードの搭載ディスプレイスクリーン、又は他の適切なタイプのデータ出力装置を含む。いくつかの実施例で、イメージングモジュール17のような入力装置(複数可)及びディスプレイユニット277のような出力装置(複数可)は、I/Oや周辺インターフェースを介してプロセッサ19と結合され得る。 Display unit 277 may be an example of an output device. Other examples of output devices are graphics/display devices, computer screens, warning systems, CAD/CAM (Computer Aided Design/Computer Aided Machining) systems, video game stations, smartphone display screens, car dashboard mounted displays. including a screen or other suitable type of data output device. In some embodiments, input device(s) such as imaging module 17 and output device(s) such as display unit 277 may be coupled to processor 19 via an I/O or peripheral interface.

一実施例で、ネットワークインターフェース278はプロセッサ19と通信し、システム15がネットワーク(図示せず)に結合される。他の実施例で、ネットワークインターフェース278は全くない可能性がある。ネットワークインターフェース278は、システムを無線又は有線でネットワークに連結するための適切な装置、媒体、及び/又はプロトコルのコンテンツを含み得る。多様な実施例で、ネットワークは、LAN(Local Area Networks)、WAN(Wide Area Networks)、有線若しくは無線イーサネット(登録商標)、無線通信ネットワーク、衛星リンク、又は他の適切なタイプのネットワークを含み得る。 In one embodiment, network interface 278 communicates with processor 19 and couples system 15 to a network (not shown). In other embodiments, there may be no network interface 278 at all. Network interface 278 may include appropriate equipment, media, and/or protocol content for wirelessly or wiredly coupling the system to a network. In various embodiments, a network may include a local area network (LAN), a wide area network (WAN), a wired or wireless Ethernet, a wireless communication network, a satellite link, or other suitable type of network. .

システム15は、オン・ボードの電源供給ユニット280を含み、図30に示した多様なシステム構成要素に電気的電力を供給する。電源供給ユニット280は、バッテリを含み、AC電気電力アウトレット(outlet)、又は自動車ベースの電力アウトレットに連結され得る。一実施例で、電源供給ユニット280は、太陽エネルギーや他の再生可能なエネルギーを電力に変換することができる。 System 15 includes an on-board power supply unit 280 that provides electrical power to the various system components shown in FIG. Power supply unit 280 includes a battery and may be coupled to an AC electrical power outlet or a vehicle-based power outlet. In one embodiment, power supply unit 280 can convert solar energy or other renewable energy into electrical power.

一実施例で、イメージングモジュール17は、例えばUSB(Universal Serial Bus)2.0又は3.0インターフェースのような、任意のパーソナルコンピュータ(PC)又はラップトップコンピュータに組み込まれる高速インターフェースに集積され得る。例えば、システムメモリ20又はCD/DVDのような周辺データストレージユニットのような、コンピュータ読み取り可能な非一時的記録媒体は、プログラムコード又はソフトウェアを格納することができる。イメージングモジュール17のプロセッサ19及び/又はピクセル処理ユニット46(図2)はプログラムコードを実行するように構成され、システム15は、図1~~図29を参照して上述したオペレーションのような、2Dイメージング(例えば、3Dオブジェクトのグレイスケールイメージ)、TOF及び距離測定、並びにピクセル特定の距離(又は範囲)の値を用いたオブジェクトの3Dイメージの生成を行うことができる。例えば、特定の実施例で、プログラムコードの実行に応じて、プロセッサ19及び/又はピクセル処理ユニット46は、図12の行デコーダ/ドライバ1203及び列デコーダ1204のような関連する回路構成要素を適切に構成(又は活性化)して、シャッター信号、RST信号、VTX信号、SEL信号などのような適切な入力信号をピクセルアレイ42のピクセル43に印加し、反射されたレーザーパルスから光をキャプチャーし、後続してTOF及び距離の測定に必要なピクセル特定値(P1、P2)のためにピクセル出力を処理する。プログラムコード又はソフトウェアは、プロセッサ19及び/又はピクセル処理ユニット46のような適切な処理エンティティで実行されることによって、処理エンティティが多様なピクセル特定のADCの出力(P1及びP2の値)を処理して距離の値を判定し、その結果を、例えばTOFベースの距離測定に基づいて、遠くにあるオブジェクトの3Dイメージを表示することを含む多様な形態で提示する登録ソフトウェア又はオープンソースのソフトウェアであり得る。特定の実施例で、イメージングモジュール17のピクセル処理ユニット46は、ピクセル出力データが追加の処理及び表示のためのプロセッサ19に伝送される前に、ピクセル出力の処理の一部を遂行することができる。他の実施例で、プロセッサ19は、またピクセル処理ユニット46の機能の一部又は全部を遂行することができる。この場合、ピクセル処理ユニット46はイメージングモジュール17の一部ではない可能性がある。 In one embodiment, the imaging module 17 may be integrated into a high-speed interface built into any personal computer (PC) or laptop computer, such as a USB (Universal Serial Bus) 2.0 or 3.0 interface. For example, a computer readable non-transitory storage medium, such as system memory 20 or a peripheral data storage unit such as a CD/DVD, may store program code or software. Processor 19 and/or pixel processing unit 46 (FIG. 2) of imaging module 17 is configured to execute program code, and system 15 performs 2D processing, such as the operations described above with reference to FIGS. Imaging (eg, grayscale images of 3D objects), TOF and distance measurements, and generation of 3D images of objects using pixel-specific distance (or range) values can be performed. For example, in certain embodiments, in response to execution of program code, processor 19 and/or pixel processing unit 46 may appropriately configure associated circuitry, such as row decoder/driver 1203 and column decoder 1204 of FIG. configuring (or activating) and applying an appropriate input signal, such as a shutter signal, RST signal, VTX signal, SEL signal, etc., to a pixel 43 of pixel array 42 to capture light from the reflected laser pulse; The pixel outputs are subsequently processed for pixel specific values (P1, P2) required for TOF and distance measurements. Program code or software is executed on a suitable processing entity, such as processor 19 and/or pixel processing unit 46, so that the processing entity processes various pixel-specific ADC outputs (values of P1 and P2). Registered or open source software that determines distance values based on TOF-based distance measurements and presents the results in various forms, including displaying 3D images of distant objects, for example based on TOF-based distance measurements. obtain. In certain embodiments, pixel processing unit 46 of imaging module 17 may perform a portion of the processing of the pixel output before the pixel output data is transmitted to processor 19 for additional processing and display. . In other embodiments, processor 19 may also perform some or all of the functions of pixel processing unit 46. In this case, pixel processing unit 46 may not be part of imaging module 17.

以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。 Although the embodiments of the present invention have been described above in detail with reference to the drawings, the present invention is not limited to the above-described embodiments, and can be variously modified without departing from the technical scope of the present invention. It is possible to implement it.

15 システム
17 イメージングモジュール
19 プロセッサ(モジュール)
20 メモリ(モジュール)、システムメモリ
22 プロジェクターモジュール(光源モジュール)
24 イメージセンサユニット
26 (3D)オブジェクト
28 光パルス
33 レーザー(光源)
34 レーザーコントローラ
35 投影装置のレンズ
37 反射された光パルス
42、1201 (2D)ピクセルアレイ
43、601~604、621~624、700、1000、1202、1300 ピクセル
44 収集装置のレンズ、
46 ピクセル処理ユニット
66 スキャニングライン(S
68 スキャニングライン(SR+1
70~73 光点
75 行
77 RST電子
275 周辺ストレージユニット
277 ディスプレイユニット
278 ネットワークインターフェース
280 電源供給ユニット
501、606~609、625、642~650、1002~1005、1301A~1301N SPADコア(部分)
502、605、1001、1311 PPDコア(部分)
503 多数のSPAD
504 第1制御回路
505 入射光
506、1310、1318 SPAD出力 507 第2制御回路
508 PPD
510、540、1206~1208 ピクセル(特定アナログ)出力(PIXOUT)信号
600A、600B ピクセルアレイ構造 641 PDRコア
701、1308 電子シャッター信号
702、1319 論理ユニット
703~707 第1~第5(NMOS)トランジスタ
708、1325 転送アクティブ(TXEN)信号
709、1326 RST信号
710、1327 伝送電圧(VTX)信号(振幅変調信号)
711、1328 TX信号
712、1331 フローティングディフュージョン(FD)ノード/ジャンクション
713、1329 ピクセル電圧(VPIX)信号
714、1330 選択(SEL)信号
801 PPD内の電荷
802 FD内の電荷
901、1404 遅延時間Tdly
902、1405 TOF区間(飛行時間)Ttof
903、904、1407、1408 シャッターオン区間Tsh
905 PPDプリセット
906、907、1409 フローティングディフュージョン(FD)リセット
908、1406 シャッターオフ区間 1006~1009 F(x、y)ブロック
1200 イメージセンサユニット
1203 行デコーダ/ドライバ(ユニット)
1204 列デコーダ(ユニット)
1205 ピクセルの列ユニット(列CDS及び列ADC)
1209、1210、1211 RST,VTX,VPIXシャッター,TX2,SEL信号 1212 行アドレス/制御入力
1213 P1/P2値
1214 列アドレス/制御入力
1302、1312、1603、2311 SPAD
1303 SPAD動作電圧(VSPAD)(信号)
1304、1313、1601、2313 抵抗(性素子)
1305、1315、1605、2315 キャパシタ
1306、1316 インバータ
1307、1317 (PMOS)トランジスタ
1309 供給電圧(VDD)(信号)
1310、1318 出力
1320、1321、1322、1323、1324、1334、1337 第1~第7(NMOS)トランジスタ1337
1333 TXENB信号
1335 接地(GND)電位
1336 ストレージディフュージョン(SD)キャパシタ
1338 SDノード
1339 第2伝送(TX2)信号
1401 TXRMD信号
1403 PPDプリセット
1500、2000、2300 時間分解センサ
1501、2001 SPAD回路
1503、2003、2303 論理回路
1505 PPD回路
1607、2317 PタイプMOSFET
1609、2319 バッファ
1701 ラッチ
1703 2入力論理和(OR)ゲート
1801、2101 PPD
1803、1805、1807、1809、1811 第1~第5トランジスタ
2005 第2のPPD回路
2103、2105、2107、2111、2113、2115、2117、2119 第1~第9トランジスタ 2301a~2301n 1つ以上のSPAD回路
2305 第3のPPD回路
2351、2353、2355、2357、2359、2361、2363、2365、2367、2369、2371、2373、2375 第1~第13トランジスタ

15 System 17 Imaging module 19 Processor (module)
20 Memory (module), system memory 22 Projector module (light source module)
24 Image sensor unit 26 (3D) object 28 Light pulse 33 Laser (light source)
34 laser controller 35 projection device lens 37 reflected light pulses 42, 1201 (2D) pixel array 43, 601-604, 621-624, 700, 1000, 1202, 1300 pixels 44 collection device lens;
46 Pixel processing unit 66 Scanning line (S R )
68 scanning line ( SR+1 )
70-73 Light spot 75 Row 77 RST electronic 275 Peripheral storage unit 277 Display unit 278 Network interface 280 Power supply unit 501, 606-609, 625, 642-650, 1002-1005, 1301A-1301N SPAD core (part)
502, 605, 1001, 1311 PPD core (part)
503 Many SPADs
504 First control circuit 505 Incident light 506, 1310, 1318 SPAD output 507 Second control circuit 508 PPD
510, 540, 1206 to 1208 Pixel (specific analog) output (PIXOUT) signal 600A, 600B Pixel array structure 641 PDR core 701, 1308 Electronic shutter signal 702, 1319 Logic unit 703 to 707 First to fifth (NMOS) transistors 708 , 1325 Transfer active (TXEN) signal 709, 1326 RST signal 710, 1327 Transmission voltage (VTX) signal (amplitude modulation signal)
711, 1328 TX signal 712, 1331 Floating diffusion (FD) node/junction 713, 1329 Pixel voltage (VPIX) signal 714, 1330 Selection (SEL) signal 801 Charge in PPD 802 Charge in FD 901, 1404 Delay time T dly
902, 1405 TOF section (flight time) T tof
903, 904, 1407, 1408 Shutter-on section T sh
905 PPD preset 906, 907, 1409 Floating diffusion (FD) reset 908, 1406 Shutter off section 1006 to 1009 F (x, y) block 1200 Image sensor unit 1203 Row decoder/driver (unit)
1204 Column decoder (unit)
1205 pixel column units (column CDS and column ADC)
1209, 1210, 1211 RST, VTX, VPIX shutter, TX2, SEL signal 1212 Row address/control input 1213 P1/P2 value 1214 Column address/control input 1302, 1312, 1603, 2311 SPAD
1303 SPAD operating voltage (VSPAD) (signal)
1304, 1313, 1601, 2313 Resistance (sexual element)
1305, 1315, 1605, 2315 Capacitor 1306, 1316 Inverter 1307, 1317 (PMOS) Transistor 1309 Supply voltage (VDD) (signal)
1310, 1318 Output 1320, 1321, 1322, 1323, 1324, 1334, 1337 1st to 7th (NMOS) transistors 1337
1333 TXENB signal 1335 Ground (GND) potential 1336 Storage diffusion (SD) capacitor 1338 SD node 1339 Second transmission (TX2) signal 1401 TXRMD signal 1403 PPD preset 1500, 2000, 2300 Time-resolved sensor 1501, 2001 SPAD circuit 1503, 2003, 2303 Logic circuit 1505 PPD circuit 1607, 2317 P type MOSFET
1609, 2319 Buffer 1701 Latch 1703 2-input OR gate 1801, 2101 PPD
1803, 1805, 1807, 1809, 1811 First to fifth transistors 2005 Second PPD circuit 2103, 2105, 2107, 2111, 2113, 2115, 2117, 2119 First to ninth transistors 2301a to 2301n One or more SPADs Circuit 2305 Third PPD circuit 2351, 2353, 2355, 2357, 2359, 2361, 2363, 2365, 2367, 2369, 2371, 2373, 2375 1st to 13th transistors

Claims (16)

イメージセンサであって、
オブジェクトに向けて照射された光パルスに対応して前記オブジェクトから反射された1つ以上の光子を少なくとも1つのピクセルによって検出することに応答して、各光パルスに対応する複数の第1信号及び第2信号のペアを出力する複数のピクセルを含む時間分解センサと、
前記複数の第1信号及び第2信号のペアに基づいて、複数の光パルスが反射された前記オブジェクトの表面反射率を判定するプロセッサと、を備え、
前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記複数のピクセルの少なくとも1つのピクセルは、
各単一光子アバランシェダイオード(SPAD)がアクティブシャッター信号に応答して前記オブジェクトから反射されて該SPADに入射する1つ以上の光子を検出することに基づいて信号を出力する少なくとも1つのSPADと、
前記アクティブシャッター信号の開始に応答して活性化され、前記少なくとも1つのSPADの出力信号に応答して非活性化される第1活性信号、及び前記少なくとも1つのSPADの出力信号に応答して活性化され、前記アクティブシャッター信号の終了に応答して非活性化される第2活性信号を生成する前記少なくとも1つのSPADの出力信号に連結される論理回路と、
前記第1活性信号及び第2活性信号に連結される差動時間電荷変換(DTCC)回路と、を含むことを特徴とするイメージセンサ
An image sensor,
a plurality of first signals corresponding to each light pulse in response to detecting by at least one pixel one or more photons reflected from the object in response to a light pulse directed toward the object; a time-resolved sensor including a plurality of pixels outputting a second pair of signals;
a processor that determines a surface reflectance of the object from which a plurality of light pulses are reflected based on the plurality of first and second signal pairs;
a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons; ,
a second ratio of the amplitude of the second signal of the pair to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons; ,
At least one pixel of the plurality of pixels is
at least one SPAD, each single photon avalanche diode (SPAD) outputting a signal based on detecting one or more photons reflected from the object and incident on the SPAD in response to an active shutter signal;
a first activation signal activated in response to the initiation of the active shutter signal and deactivated in response to the output signal of the at least one SPAD; and activated in response to the output signal of the at least one SPAD. a logic circuit coupled to an output signal of the at least one SPAD to generate a second activation signal that is activated and deactivated in response to termination of the active shutter signal;
An image sensor comprising: a differential time-to-charge conversion (DTCC) circuit coupled to the first activation signal and the second activation signal.
前記プロセッサは、前記複数の第1信号及び第2信号のペアに基づいて、前記オブジェクトまでの距離を更に判定することを特徴とする請求項1に記載のイメージセンサ。 The image sensor according to claim 1, wherein the processor further determines a distance to the object based on the plurality of pairs of first and second signals. 前記プロセッサは、前記複数の第1信号及び第2信号のペアに基づいて、前記オブジェクトのグレイスケールイメージを生成することを特徴とする請求項に記載のイメージセンサ。 The image sensor of claim 1 , wherein the processor generates a grayscale image of the object based on the plurality of first and second signal pairs. 前記プロセッサは、前記複数のピクセルの予め定められたピクセルによって検出される光子の到達時間の少なくとも1つのヒストグラムを生成して前記グレイスケールイメージを生成することを特徴とする請求項に記載のイメージセンサ。 The image of claim 3 , wherein the processor generates at least one histogram of arrival times of photons detected by predetermined pixels of the plurality of pixels to generate the grayscale image. sensor. 前記DTCC回路は、
第1端子と接地電位に連結された第2端子とを含む容量性デバイスと、
前記容量性デバイスの第1端子に連結された第1端子、第1フローティングディフュージョンノードに連結された第2端子、及び前記第1活性信号に連結される第3端子を有し、前記第1活性信号に応答して前記容量性デバイスの第1電荷を前記第1フローティングディフュージョンノードに転送する第1スイッチングデバイスと、
前記容量性デバイスの第1端子に連結された第1端子、第2フローティングディフュージョンノードに連結された第2端子、及び前記第2活性信号に連結される第3端子を有し、前記第2活性信号に応答して前記容量性デバイスの残りの電荷を前記第2フローティングディフュージョンノードに転送する第2スイッチングデバイスと、
前記第1フローティングディフュージョンノードの前記第1電荷に基づく第1電圧を含む前記第1信号、及び前記第2フローティングディフュージョンノードの前記残りの電荷に基づく第2電圧を含む前記第2信号のペアを出力する出力回路と、を含むことを特徴とする請求項に記載のイメージセンサ。
The DTCC circuit is
a capacitive device including a first terminal and a second terminal coupled to ground potential;
a first terminal coupled to the first terminal of the capacitive device, a second terminal coupled to the first floating diffusion node, and a third terminal coupled to the first activation signal; a first switching device that transfers a first charge of the capacitive device to the first floating diffusion node in response to a signal;
a first terminal coupled to a first terminal of the capacitive device, a second terminal coupled to a second floating diffusion node, and a third terminal coupled to the second activation signal; a second switching device responsive to a signal to transfer the remaining charge of the capacitive device to the second floating diffusion node;
outputting a pair of the first signal including a first voltage based on the first charge on the first floating diffusion node and the second signal including a second voltage based on the remaining charge on the second floating diffusion node; The image sensor according to claim 1 , further comprising an output circuit that performs the following steps.
前記イメージセンサは、傾斜関数に基づいて変化する駆動信号を更に含み、
前記駆動信号は、前記1つ以上の光子が検出される光パルスの開始時間に応答して変化を開始し、前記アクティブシャッター信号の終了まで変化し、
前記駆動信号は、
前記第1活性信号がアクティブである場合、前記第1スイッチングデバイスの第3端子に連結され、
前記第2活性信号がアクティブである場合、前記第2スイッチングデバイスの第3端子に連結されることを特徴とする請求項に記載のイメージセンサ
The image sensor further includes a drive signal that varies based on a slope function;
the drive signal begins changing in response to a start time of a light pulse in which the one or more photons are detected and changes until the end of the active shutter signal;
The drive signal is
when the first activation signal is active, the first activation signal is coupled to a third terminal of the first switching device;
The image sensor of claim 5 , wherein when the second activation signal is active, it is connected to a third terminal of the second switching device.
前記第1電圧と前記第2電圧との和に対する前記第1電圧の第1比率は、前記1つ以上の光子の飛行時間から遅延時間を差し引いた値に更に比例し、
前記第1電圧と前記第2電圧との和に対する前記第2電圧の第2比率は、前記1つ以上の光子の飛行時間から遅延時間を差し引いた値に更に比例し、
前記遅延時間は、前記光パルスの伝送時間の開始から前記駆動信号が変化を開始する時間までの間の時間を含むことを特徴とする請求項に記載のイメージセンサ。
a first ratio of the first voltage to the sum of the first voltage and the second voltage is further proportional to a time of flight of the one or more photons minus a delay time;
a second ratio of the second voltage to the sum of the first voltage and the second voltage is further proportional to a time of flight of the one or more photons minus a delay time;
The image sensor according to claim 6 , wherein the delay time includes the time from the start of the transmission time of the optical pulse to the time when the drive signal starts changing.
前記容量性デバイスは、キャパシタ又は埋め込みダイオードであることを特徴とする請求項に記載のイメージセンサ。 The image sensor according to claim 6 , wherein the capacitive device is a capacitor or a buried diode. イメージングユニットであって、
オブジェクトの表面に向けて照射される一連の光パルスで前記オブジェクトを照明する光源と、
前記光源に同期化され、前記オブジェクトの表面から反射された光パルスに対応する1つ以上の光子を少なくとも1つのピクセルで検出することに応答して、各光パルスに対応する複数の第1信号及び第2信号のペアを出力する複数のピクセルを含む時間分解センサと、
前記複数の第1信号及び第2信号のペアに基づいて、前記オブジェクトまでの距離を判定し、前記複数の第1信号及び第2信号のペアに基づいて、複数の光パルスが反射された前記オブジェクトの表面反射率を判定するプロセッサと、を備え、
前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記複数のピクセルの少なくとも1つのピクセルは、
各単一光子アバランシェダイオード(SPAD)がアクティブシャッター信号に応答して前記オブジェクトから反射されて該SPADに入射する1つ以上の光子を検出することに基づいて信号を出力する少なくとも1つのSPADと、
前記アクティブシャッター信号の開始に応答して活性化され、前記少なくとも1つのSPADの出力信号に応答して非活性化される第1活性信号、及び前記少なくとも1つのSPADの出力信号に応答して活性化され、前記アクティブシャッター信号の終了に応答して非活性化される第2活性信号を生成する前記少なくとも1つのSPADの出力信号に連結される論理回路と、
前記第1活性信号及び第2活性信号に連結される差動時間電荷変換(DTCC)回路と、を含むことを特徴とするイメージングユニット。
An imaging unit,
a light source illuminating the object with a series of light pulses directed toward the surface of the object;
a plurality of first signals synchronized with the light source and corresponding to each light pulse in response to detecting at least one pixel one or more photons corresponding to a light pulse reflected from a surface of the object; and a time-resolved sensor including a plurality of pixels outputting a second pair of signals;
determining a distance to the object based on the plurality of first and second signal pairs; a processor for determining surface reflectance of the object;
a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons; ,
a second ratio of the amplitude of the second signal of the pair to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons; ,
At least one pixel of the plurality of pixels is
at least one SPAD, each single photon avalanche diode (SPAD) outputting a signal based on detecting one or more photons reflected from the object and incident on the SPAD in response to an active shutter signal;
a first activation signal activated in response to the initiation of the active shutter signal and deactivated in response to the output signal of the at least one SPAD; and activated in response to the output signal of the at least one SPAD. a logic circuit coupled to an output signal of the at least one SPAD to generate a second activation signal that is activated and deactivated in response to termination of the active shutter signal;
An imaging unit comprising: a differential time-to-charge conversion (DTCC) circuit coupled to the first activation signal and the second activation signal .
前記プロセッサは、前記複数の表面反射率に基づいて、前記オブジェクトのグレイスケールイメージを更に生成することを特徴とする請求項に記載のイメージングユニット。 10. The imaging unit of claim 9 , wherein the processor further generates a grayscale image of the object based on the plurality of surface reflectances. 前記プロセッサは、前記複数のピクセルの予め定められたピクセルによって検出される光子の到達時間の少なくとも1つのヒストグラムを生成して前記グレイスケールイメージを生成することを特徴とする請求項10に記載のイメージングユニット。 Imaging according to claim 10 , wherein the processor generates at least one histogram of arrival times of photons detected by predetermined pixels of the plurality of pixels to generate the grayscale image. unit. 前記DTCC回路は、
第1端子と接地電位に連結された第2端子とを含む容量性デバイスと、
前記容量性デバイスの第1端子に連結された第1端子、第1フローティングディフュージョンノードに結合された第2端子、及び前記第1活性信号に連結される第3端子を有し、前記第1活性信号に応答して前記容量性デバイスの第1電荷を前記第1フローティングディフュージョンノードに転送する第1スイッチングデバイスと
前記容量性デバイスの第1端子に連結された第1端子、第2フローティングディフュージョンノードに連結された第2端子、及び前記第2活性信号に連結される第3端子を有し、前記第2活性信号に応答して前記容量性デバイスの残りの電荷を前記第2フローティングディフュージョンノードに転送する第2スイッチングデバイスと、を含み、
前記第1信号は、前記第1フローティングディフュージョンノードの前記第1電荷に基づく第1電圧を含み、
前記第2信号は、前記第2フローティングディフュージョンノードの前記残りの電荷に基づく第2電圧を含み、
前記イメージングユニットは、前記1つ以上の光子が検出される光パルスの開始時間に応答して変化を開始し、前記アクティブシャッター信号の終了まで変化する駆動信号を更に含み、
前記駆動信号は、
前記第1活性信号がアクティブである場合、前記第1スイッチングデバイスの第3端子に連結され、
前記第2活性信号がアクティブである場合、前記第2スイッチングデバイスの第3端子に連結されることを特徴とする請求項に記載のイメージングユニット。
The DTCC circuit is
a capacitive device including a first terminal and a second terminal coupled to ground potential;
a first terminal coupled to the first terminal of the capacitive device, a second terminal coupled to the first floating diffusion node, and a third terminal coupled to the first activation signal; a first switching device that transfers a first charge of the capacitive device to the first floating diffusion node in response to a signal; a first terminal coupled to the first terminal of the capacitive device; a second terminal coupled to the second activation signal, and a third terminal coupled to the second activation signal to transfer the remaining charge of the capacitive device to the second floating diffusion node in response to the second activation signal. a second switching device,
the first signal includes a first voltage based on the first charge of the first floating diffusion node;
the second signal includes a second voltage based on the remaining charge of the second floating diffusion node;
The imaging unit further includes a drive signal that begins changing in response to a start time of a light pulse in which the one or more photons are detected and changes until the end of the active shutter signal;
The drive signal is
when the first activation signal is active, the first activation signal is coupled to a third terminal of the first switching device;
The imaging unit of claim 9 , wherein when the second activation signal is active, it is coupled to a third terminal of the second switching device.
前記容量性デバイスは、キャパシタ又は埋め込みダイオードであることを特徴とする請求項12に記載のイメージングユニット。 Imaging unit according to claim 12 , characterized in that the capacitive device is a capacitor or a buried diode. オブジェクトのグレイスケールイメージを生成する方法であって、
光源から一連の光パルスを前記オブジェクトの表面に向けて照射するステップと、
少なくとも1つのピクセルで、前記オブジェクトの表面から反射された光パルスに対応する1つ以上の光子を検出するステップと、
複数のピクセルを含んで前記光源に同期化される時間分解センサにより、前記1つ以上の光子を検出することに応答し、各ピクセルに対して、各々が前記一連の光パルスに対応する複数の第1信号及び第2信号のペアを生成するステップと、
プロセッサにより、前記複数の第1信号及び第2信号のペアに基づいて、前記オブジェクトまでの距離を判定するステップと、
前記プロセッサにより、前記複数の第1信号及び第2信号のペアの少なくとも1つに基づいて、前記オブジェクトの表面反射率を判定するステップと、を有し、 前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第1信号の振幅の第1比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記ペアの前記第1信号の振幅と前記第2信号の振幅との和に対する前記ペアの前記第2信号の振幅の第2比率は、前記検出された1つ以上の光子の飛行時間に比例し、
前記複数のピクセルの少なくとも1つのピクセルは、
各単一光子アバランシェダイオード(SPAD)がアクティブシャッター信号に応答して前記オブジェクトから反射されて該SPADに入射する1つ以上の光子を検出することに基づいて信号を出力する少なくとも1つのSPADと、
前記アクティブシャッター信号の開始に応答して活性化され、前記少なくとも1つのSPADの出力信号に応答して非活性化される第1活性信号、及び前記少なくとも1つのSPADの出力信号に応答して活性化され、前記アクティブシャッター信号の終了に応答して非活性化される第2活性信号を生成する前記少なくとも1つのSPADの出力信号に連結される論理回路と、
前記第1活性信号及び第2活性信号に連結される差動時間電荷変換(DTCC)回路と、を含むことを特徴とする方法。
A method of generating a grayscale image of an object, the method comprising:
directing a series of light pulses from a light source toward the surface of the object;
detecting , at least one pixel, one or more photons corresponding to a light pulse reflected from a surface of the object;
responsive to detecting the one or more photons by a time-resolved sensor synchronized to the light source and including a plurality of pixels; generating a pair of first and second signals;
determining, by a processor, a distance to the object based on the plurality of pairs of first and second signals;
determining, by the processor, a surface reflectance of the object based on at least one of the plurality of pairs of first and second signals, the amplitude of the first signal of the pair; a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the second signal is proportional to the time of flight of the detected one or more photons;
a second ratio of the amplitude of the second signal of the pair to the sum of the amplitude of the first signal and the amplitude of the second signal of the pair is proportional to the time of flight of the detected one or more photons; ,
At least one pixel of the plurality of pixels is
at least one SPAD, each single photon avalanche diode (SPAD) outputting a signal based on detecting one or more photons reflected from the object and incident on the SPAD in response to an active shutter signal;
a first activation signal activated in response to the initiation of the active shutter signal and deactivated in response to the output signal of the at least one SPAD; and activated in response to the output signal of the at least one SPAD. a logic circuit coupled to an output signal of the at least one SPAD to generate a second activation signal that is activated and deactivated in response to termination of the active shutter signal;
a differential time-to-charge conversion (DTCC) circuit coupled to the first activation signal and the second activation signal .
前記プロセッサにより、前記複数の第1信号及び第2信号のペアに基づいて、前記オブジェクトのグレイスケールイメージを生成するステップを含むことを特徴とする請求項14に記載の方法。 15. The method of claim 14 , comprising generating, by the processor, a grayscale image of the object based on the plurality of first and second signal pairs. 前記プロセッサにより、前記複数のピクセルの予め定められたピクセルによって検出される光子の到達時間の少なくとも1つのヒストグラムを生成して前記グレイスケールイメージを生成するステップを更に含むことを特徴とする請求項15に記載の方法。
16. The method further comprising: generating, by the processor, at least one histogram of arrival times of photons detected by predetermined pixels of the plurality of pixels to generate the grayscale image. The method described in.
JP2019132654A 2018-07-24 2019-07-18 Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method Active JP7401986B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862702891P 2018-07-24 2018-07-24
US62/702,891 2018-07-24
US16/140,529 US11294039B2 (en) 2018-07-24 2018-09-24 Time-resolving image sensor for range measurement and 2D greyscale imaging
US16/140,529 2018-09-24

Publications (2)

Publication Number Publication Date
JP2020016654A JP2020016654A (en) 2020-01-30
JP7401986B2 true JP7401986B2 (en) 2023-12-20

Family

ID=69179246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019132654A Active JP7401986B2 (en) 2018-07-24 2019-07-18 Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method

Country Status (4)

Country Link
JP (1) JP7401986B2 (en)
KR (1) KR20200011351A (en)
CN (1) CN110779459B (en)
TW (1) TWI801572B (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR102592139B1 (en) 2017-03-13 2023-10-23 옵시스 테크 엘티디 Eye-Safe Scanning LIDAR System
JP6865492B2 (en) 2017-07-28 2021-04-28 オプシス テック リミテッド VCSEL array LIDAR transmitter with small angle divergence
KR102589319B1 (en) 2017-11-15 2023-10-16 옵시스 테크 엘티디 Noise adaptive solid-state lidar system
CN111919137A (en) 2018-04-01 2020-11-10 欧普赛斯技术有限公司 Noise adaptive solid state LIDAR system
WO2020210176A1 (en) 2019-04-09 2020-10-15 OPSYS Tech Ltd. Solid-state lidar transmitter with laser control
CN113906316A (en) 2019-05-30 2022-01-07 欧普赛斯技术有限公司 Eye-safe long-range LIDAR system using actuators
JP7438564B2 (en) 2019-06-10 2024-02-27 オプシス テック リミテッド Eye-safe long-range solid-state LIDAR system
TWI748460B (en) * 2019-06-21 2021-12-01 大陸商廣州印芯半導體技術有限公司 Time of flight device and time of flight method
JP7255513B2 (en) * 2020-02-18 2023-04-11 株式会社デンソー OBJECT DETECTION DEVICE, LIGHT SENSOR, AND CONTROL METHOD OF OBJECT DETECTION DEVICE
WO2021236201A2 (en) * 2020-03-05 2021-11-25 OPSYS Tech Ltd. Noise filtering system and method for solid-state lidar
WO2021186817A1 (en) * 2020-03-18 2021-09-23 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element and electronic device
CN113038041B (en) * 2020-06-12 2022-09-13 深圳市汇顶科技股份有限公司 Imaging system and related electronic device and operating method of imaging system
WO2021248427A1 (en) 2020-06-12 2021-12-16 深圳市汇顶科技股份有限公司 Depth sensing device and related electronic device, and method for operating depth sensing device
PL3955566T3 (en) 2020-08-14 2023-10-02 Alpsentek Gmbh Image sensor with configurable pixel circuit and method
US11726187B2 (en) 2020-10-30 2023-08-15 Taiwan Semiconductor Manufacturing Co., Ltd. High resolution low power inter-correlation SPAD assisted time-of-flight sensor
CN113820726B (en) * 2021-09-30 2023-06-13 中国科学院光电技术研究所 Noise suppression method based on multidimensional filtering in non-visual field target detection
CN114267283B (en) * 2021-12-29 2023-11-07 武汉天马微电子有限公司 Display panel and display device
KR102632064B1 (en) * 2022-01-19 2024-01-31 연세대학교 산학협력단 Image sensor using spad array
KR20230114071A (en) * 2022-01-24 2023-08-01 삼성전자주식회사 Electronic device obtaining depth information and method for controlling the same
JP2024005071A (en) * 2022-06-29 2024-01-17 ソニーセミコンダクタソリューションズ株式会社 Ranging device, ranging system, and ranging method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294420A (en) 2003-02-03 2004-10-21 Shoji Kawahito Distance image sensor
JP2005235893A (en) 2004-02-18 2005-09-02 National Univ Corp Shizuoka Univ Light time-of-flight type range sensor
JP2009047662A (en) 2007-08-22 2009-03-05 Hamamatsu Photonics Kk Solid imaging device and depth map measuring device
JP2009192499A (en) 2008-02-18 2009-08-27 Stanley Electric Co Ltd Apparatus for generating distance image
JP2014081254A (en) 2012-10-16 2014-05-08 Toyota Central R&D Labs Inc Optical ranging apparatus
US20180217261A1 (en) 2017-01-27 2018-08-02 Samsung Electronics Co., Ltd. Apparatus and method for range measurement
US10116925B1 (en) 2017-05-16 2018-10-30 Samsung Electronics Co., Ltd. Time-resolving sensor using shared PPD + SPAD pixel and spatial-temporal correlation for range measurement

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5585903B2 (en) * 2008-07-30 2014-09-10 国立大学法人静岡大学 Distance image sensor and method for generating imaging signal by time-of-flight method
LU91688B1 (en) * 2010-05-17 2011-11-18 Iee Sarl Scanning 3D imager
EP2469301A1 (en) * 2010-12-23 2012-06-27 André Borowski Methods and devices for generating a representation of a 3D scene at very high speed
WO2012123809A1 (en) * 2011-03-17 2012-09-20 Universitat Politècnica De Catalunya System, method and computer program for receiving a light beam
JP6483725B2 (en) * 2014-04-07 2019-03-13 サムスン エレクトロニクス カンパニー リミテッド Method for sensing optical events, optical event sensor therefor, and distance measuring mobile device
US10620300B2 (en) * 2015-08-20 2020-04-14 Apple Inc. SPAD array with gated histogram construction
US10557925B2 (en) * 2016-08-26 2020-02-11 Samsung Electronics Co., Ltd. Time-of-flight (TOF) image sensor using amplitude modulation for range measurement
US10291895B2 (en) * 2016-10-25 2019-05-14 Omnivision Technologies, Inc. Time of flight photosensor

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004294420A (en) 2003-02-03 2004-10-21 Shoji Kawahito Distance image sensor
JP2005235893A (en) 2004-02-18 2005-09-02 National Univ Corp Shizuoka Univ Light time-of-flight type range sensor
JP2009047662A (en) 2007-08-22 2009-03-05 Hamamatsu Photonics Kk Solid imaging device and depth map measuring device
JP2009192499A (en) 2008-02-18 2009-08-27 Stanley Electric Co Ltd Apparatus for generating distance image
JP2014081254A (en) 2012-10-16 2014-05-08 Toyota Central R&D Labs Inc Optical ranging apparatus
US20180217261A1 (en) 2017-01-27 2018-08-02 Samsung Electronics Co., Ltd. Apparatus and method for range measurement
US10116925B1 (en) 2017-05-16 2018-10-30 Samsung Electronics Co., Ltd. Time-resolving sensor using shared PPD + SPAD pixel and spatial-temporal correlation for range measurement

Also Published As

Publication number Publication date
TWI801572B (en) 2023-05-11
KR20200011351A (en) 2020-02-03
CN110779459B (en) 2022-08-05
TW202018329A (en) 2020-05-16
JP2020016654A (en) 2020-01-30
CN110779459A (en) 2020-02-11

Similar Documents

Publication Publication Date Title
JP7401986B2 (en) Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method
US10735714B2 (en) Time-resolving sensor using shared PPD+SPAD pixel and spatial-temporal correlation for range measurement
US10397554B2 (en) Time-resolving sensor using shared PPD+SPAD pixel and spatial-temporal correlation for range measurement
US11988777B2 (en) Time-resolving image sensor for range measurement and 2D greyscale imaging
KR102371368B1 (en) Time-of-flight (tof) image sensor using amplitude modulation for range measurement
KR102532487B1 (en) Cmos image sensor for depth measurement using triangulation with point scan
US10021284B2 (en) Epipolar plane single-pulse indirect TOF imaging for automotives
US9661308B1 (en) Increasing tolerance of sensor-scanner misalignment of the 3D camera with epipolar line laser point scanning
US20230007175A1 (en) Concurrent rgbz sensor and system
CN106067968B (en) Image sensor unit and system
US9967539B2 (en) Timestamp error correction with double readout for the 3D camera with epipolar line laser point scanning
US20190187256A1 (en) Non-spad pixels for direct time-of-flight range measurement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7401986

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150