KR20200011351A - A time-resolving image sensor for range measurement and 2d greyscale imaging - Google Patents

A time-resolving image sensor for range measurement and 2d greyscale imaging Download PDF

Info

Publication number
KR20200011351A
KR20200011351A KR1020190053973A KR20190053973A KR20200011351A KR 20200011351 A KR20200011351 A KR 20200011351A KR 1020190053973 A KR1020190053973 A KR 1020190053973A KR 20190053973 A KR20190053973 A KR 20190053973A KR 20200011351 A KR20200011351 A KR 20200011351A
Authority
KR
South Korea
Prior art keywords
signal
pixel
terminal
photons
time
Prior art date
Application number
KR1020190053973A
Other languages
Korean (ko)
Inventor
이빙 미쉘 왕
릴롱 쉬
일리아 오브시안니코브
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/140,529 external-priority patent/US11294039B2/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20200011351A publication Critical patent/KR20200011351A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • H04N5/36965
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G04HOROLOGY
    • G04FTIME-INTERVAL MEASURING
    • G04F10/00Apparatus for measuring unknown time intervals by electric means
    • G04F10/005Time-to-digital converters [TDC]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers

Abstract

An image sensor comprises a time-resolved sensor and a processor. The time-resolved sensor outputs a pair of a first signal and a second signal in response to detecting, by at least one pixel, one or more photons reflected from an object corresponding to a light pulse irradiated toward the object. A first ratio of the amplitude of the first signal to the sum of the amplitude of the first signal and the amplitude of the second signal is proportional to flight time of the one or more detected photons. A second ratio of the amplitude of the second signal to the amplitude of the first signal and the amplitude of the second signal is proportional to the flight time of the one or more detected photons. The processor determines a surface reflectance of the object to which the light pulse is reflected based on the pair of the first signal and the second signal.

Description

거리 측정 및 2차원 그레이 스케일 이미징을 위한 시간 분해 이미지 센서{A TIME-RESOLVING IMAGE SENSOR FOR RANGE MEASUREMENT AND 2D GREYSCALE IMAGING}A TIME-RESOLVING IMAGE SENSOR FOR RANGE MEASUREMENT AND 2D GREYSCALE IMAGING}

여기에 기재된 주제는 일반적으로 이미지 센서들에 관한 것이다. 더 상세하게는, 여기에 기재된 주제는 축적된 광자-검출 사건들로부터 그레이 스케일 이미지 또한 생성하는 TOF (Time-Of-Flight) 이미지 센서에 관한 것이다.The subject matter described herein relates generally to image sensors. More specifically, the subject matter described herein relates to a time-of-flight (TOF) image sensor that also produces a gray scale image from accumulated photon-detecting events.

3차원(3D) 이미징(imaging) 시스템들은 산업 제조, 비디오 게임들, 컴퓨터 그래픽들, 로봇 수술들, 소비자 디스플레이들, 감시 영상들, 3D 모델링, 부동산 판매들 등과 같은 광범위하고 다양한 응용들에서 점점 더 많이 사용되고 있다. 현존하는 3D 이미징 기술들은, 예를 들어, TOF (Time-Of-Flight) 기반 거리 이미징, 스테레오 비전 시스템들, 그리고 구조 광(SL)(structured light) 방법들을 포함한다.Three-dimensional (3D) imaging systems are increasingly used in a wide variety of applications such as industrial manufacturing, video games, computer graphics, robotic surgeries, consumer displays, surveillance images, 3D modeling, real estate sales, etc. It is used a lot. Existing 3D imaging techniques include, for example, time-of-flight (TOF) based distance imaging, stereo vision systems, and structured light (SL) methods.

TOF 방법에서, 3D 대상까지의 거리는 알려진 광의 속도에 기반하여, 광 신호가 이미지의 각 지점에 대해 카메라와 3D 대상 사이를 이동하는 데에 소요된 왕복 시간을 측정함으로써 결정된다. TOF 카메라는 스캐너 없는(scannerless) 방법을 사용하여 각 레이저 또는 광 펄스로 전체 장면을 캡처할 수 있다. TOF 방법의 일부 모범적인 응용들은 실시간으로 거리 이미지들에 기반한 능동 보행자 보호 또는 충돌 전 검출과 같은 개선된 차량 응용들; 비디오 게임 콘솔에서 게임들과의 상호 작용 동안과 같이 사람들의 움직임들을 추적하는 것; 그리고 산업 기계 시야(industrial machine vision)에서 컨베이어 벨트 위의 물품들과 같은 대상들을 식별하고 그리고 로봇들이 물품들을 찾는 것을 돕는 것을 포함할 수 있다.In the TOF method, the distance to the 3D object is determined by measuring the round trip time taken for the optical signal to travel between the camera and the 3D object for each point in the image, based on the known speed of light. TOF cameras can capture the entire scene with each laser or light pulse using a scannerless method. Some exemplary applications of the TOF method include improved vehicle applications such as active pedestrian protection or pre-collision detection based on street images in real time; Tracking people's movements, such as during interaction with games on a video game console; And identifying objects such as items on the conveyor belt in industrial machine vision and helping robots find the items.

스테레오스코픽-이미징(stereoscopic-imaging) 또는 스테레오-비전 시스템들에서, 서로 수평으로 배치된 두 개의 카메라들이 장면 또는 장면 내의 3D 대상에서 두 개의 상이한 시야들을 획득하는 데에 사용된다. 이러한 두 개의 이미지들을 비교함으로써, 3D 대상에 대한 상대적인 깊이 정보가 획득될 수 있다. 스테레오 비전은 로봇 공학과 같은 분야들에서 특히 중요하며, 자율 시스템들/로봇들 근처의 3D 대상들의 상대적인 위치에 대한 정보를 추출한다. 로봇 공학들을 위한 다른 응용들은 대상 인식을 포함하며, 여기에서 스테레오스코픽 깊이 정보가 로봇 시스템이 가로막는 이미지 구성 요소들을 분리하게 하며, 이것이 없으면 로봇은 하나의 대상이 다른 하나의 앞에 위치하여 다른 하나의 대상을 부분적으로 또는 완전히 숨기는 두 개의 대상들을 구별할 수 없다. 3D 스테레오 디스플레이들은 또한 엔터테인먼트 및 자동화된 시스템들에서 사용될 수 있다.In stereoscopic-imaging or stereo-vision systems, two cameras arranged horizontally with each other are used to obtain two different fields of view in the scene or 3D object in the scene. By comparing these two images, relative depth information for the 3D object can be obtained. Stereo vision is particularly important in fields such as robotics and extracts information about the relative position of 3D objects near autonomous systems / robots. Other applications for robotics include object recognition, where stereoscopic depth information separates the image components intercepted by the robotic system, in which case the robot is placed in front of one another Cannot distinguish two objects that partially or completely hide 3D stereo displays can also be used in entertainment and automated systems.

SL 방법에서, 대상의 3D 형태는 조사된 광 패턴 및 이미징을 위한 카메라를 이용하여 측정될 수 있다. SL 방법에서, 광의 알려진 패턴(종종 격자들 또는 수평선들 또는 병렬 줄무늬들의 패턴들)이 장면 또는 장면 내의 3D 대상에 조사된다. 조사된 패턴은 3D 대상의 표면에 충돌할 때에 변형되거나 대체될 수 있다. 이러한 변형은 SL 비전 시스템이 대상의 깊이 및 표면 정보를 계산하게 할 수 있다. 따라서, 협대역의 광을 3D 표면에 조사하는 것은 프로젝터의 관점과 다른 관점들로부터 왜곡되어 나타날 수 있는 빛의 선을 생성할 수 있으며, 조명된 표면 형태의 기하학적 재구성에 사용될 수 있다. SL 기반 3D 이미징은, 경찰에 의한 3D 장면 내의 지문들의 촬영, 제조 공정 동안의 구성 요소들의 즉시 검사(inline inspection), 인체 형태들 그리고/또는 피부의 미세 구조들의 생생한 측정들을 위한 헬스 케어와 같은 다양한 응용들에서 사용될 수 있다.In the SL method, the 3D shape of the subject can be measured using the illuminated light pattern and the camera for imaging. In the SL method, a known pattern of light (often gratings or horizontal lines or patterns of parallel stripes) is irradiated to the scene or 3D object within the scene. The irradiated pattern can be deformed or replaced when impacting the surface of the 3D object. This modification can allow the SL vision system to calculate the depth and surface information of the object. Thus, irradiating narrowband light onto a 3D surface can produce lines of light that can appear distorted from the perspective of the projector and other perspectives, and can be used for geometric reconstruction of the illuminated surface shape. SL-based 3D imaging can be used for a variety of applications, such as the imaging of fingerprints in 3D scenes by police, inline inspection of components during the manufacturing process, and healthcare for vivid measurements of human forms and / or skin microstructures. Can be used in applications.

본 발명의 목적은 대상으로부터 반사된 광 펄스를 감지하여, 대상의 3D 이미지 및 2D 이미지 모두를 생성하는 장치 및 방법을 제공하는 것이다.It is an object of the present invention to provide an apparatus and method for sensing light pulses reflected from a subject, thereby generating both 3D and 2D images of the subject.

예시적인 실시 예는 시간-분해 센서 및 프로세서를 포함할 수 있는 이미지 센서를 제공한다. 시간-분해 센서는 적어도 하나의 픽셀을 포함할 수 있고, 그리고 대상을 향해 조사된 광 펄스에 대응하는 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 적어도 하나의 픽셀에 의해 검출하는 것에 응답하여 제1 신호 및 제2 신호의 쌍을 출력할 수 있고, 여기에서 쌍의 제1 신호의 진폭 및 제2 신호의 진폭의 합에 대한 쌍의 제1 신호의 진폭의 제1 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고, 그리고 쌍의 제1 신호의 진폭 및 제2 신호의 진폭에 대한 쌍의 제2 신호의 진폭의 제2 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례한다. 프로세서는 제1 신호 및 제2 신호의 쌍에 기반하여, 광 펄스가 반사된 대상의 표면 반사율을 판단할 수 있다. 프로세서는 제1 신호 및 제2 신호의 상에 기반하여 대상까지의 거리를 더 판단할 수 있다. 일 실시 예에서, 대상을 향해 조사된 복수의 광 펄스들에 대해 픽셀에서 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 시간-분해 센서는 복수의 제1 신호 및 제2 신호의 쌍들을 출력할 수 있고, 여기에서 각 제1 신호 및 제2 신호의 쌍은 각 광 펄스에 대응하고, 그리고 프로세서는 복수의 제1 신호 및 제2 신호의 쌍들에 기반하여, 복수의 광 펄스들이 반사된 대상의 표면 반사율을 판단할 수 있다.Exemplary embodiments provide an image sensor that may include a time-resolved sensor and a processor. The time-resolved sensor may comprise at least one pixel, and the first signal in response to detecting by the at least one pixel one or more photons reflected from the object corresponding to the light pulse irradiated towards the object. And a pair of second signals, wherein the first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the pair of first signals and the amplitude of the second signal is one or more detected photons. And the second ratio of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair to the amplitude of the second signal is proportional to the flight time of one or more detected photons. The processor may determine the surface reflectance of the object on which the light pulse is reflected, based on the pair of the first signal and the second signal. The processor may further determine a distance to the object based on the images of the first signal and the second signal. In one embodiment, in response to detecting one or more photons reflected from the object at a pixel for a plurality of light pulses directed toward the object, the time-resolved sensor is configured to determine the plurality of first and second signals. Pairs, wherein each pair of first and second signals corresponds to a respective light pulse, and the processor is based on the plurality of first and second signal pairs, The surface reflectance of the reflected object may be determined.

예시적인 실시 예는 광원, 시간-분해 센서 및 프로세서를 포함할 수 있는 이미징 유닛을 제공한다. 광원은 대상의 표현을 향해 조사되는 일련의 광 펄스들로 대상을 조명할 수 있다. 시간-분해 센서는 적어도 하나의 픽셀을 포함할 수 있고, 광원과 동기화될 수 있고, 그리고 적어도 하나의 픽셀에서 대상의 표면으로부터 반사된 광 펄스에 대응하는 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여 제1 신호 및 제2 신호의 쌍을 출력하고, 여기에서 쌍의 제1 신호의 진폭 및 제2 신호의 진폭의 합에 대한 쌍의 제1 신호의 진폭의 제1 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고, 그리고 쌍의 제1 신호의 진폭 및 제2 신호의 진폭에 대한 쌍의 제2 신호의 진폭의 제2 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례할 수 있다. 프로세서는 제1 신호 및 제2 신호의 상에 기반하여 대상까지의 거리를 판단하고, 그리고 제1 신호 및 제2 신호의 쌍에 기반하여 광 펄스가 반사된 대상의 표면 반사율을 판단할 수 있다. 일 실시 예에서, 픽셀에서 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 시간-분해 센서는 복수의 제1 신호 및 제2 신호의 쌍들을 출력할 수 있고, 여기에서 제1 신호 및 제2 신호의 쌍들의 각각은 대상을 향해 조사된 복수의 광 펄스들의 각각에 대응할 수 있다. 프로세서는 대응하는 제1 신호 및 제2 신호의 쌍에 기반하여 대상의 복수의 표면 반사율들을 더 판단할 수 있다. 일 실시 예에서, 프로세서는 복수의 표면 반사율들에 기반하여 대상의 그레이 스케일 이미지를 더 생성할 수 있다.An example embodiment provides an imaging unit that may include a light source, a time-resolved sensor, and a processor. The light source can illuminate the object with a series of light pulses that are directed toward the representation of the object. The time-resolved sensor can include at least one pixel, can be synchronized with the light source, and in response to detecting one or more photons corresponding to the light pulses reflected from the surface of the object at at least one pixel. Outputs a pair of the first signal and the second signal, wherein a first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal is one or more detected; And the second ratio of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair to the amplitude of the second signal may be proportional to the flight time of one or more detected photons. have. The processor may determine the distance to the object based on the images of the first signal and the second signal, and determine the surface reflectance of the object on which the light pulse is reflected based on the pair of the first signal and the second signal. In one embodiment, in response to detecting one or more photons reflected from an object in a pixel, the time-resolved sensor may output a plurality of pairs of first and second signals, where the first signal And each of the pair of second signals may correspond to each of the plurality of light pulses irradiated toward the object. The processor may further determine the plurality of surface reflectances of the object based on the pair of corresponding first and second signals. In one embodiment, the processor may further generate a gray scale image of the object based on the plurality of surface reflectances.

예시적인 실시 예는 대상의 그레이 스케일 이미지를 생성하는 방법을 제공하고, 여기에서 방법은: 광원으로부터 일련의 광 펄스들을 대상의 표면을 향해 조사하는 단계; 픽셀에서 대상의 표면으로부터 반사된 광 펄스에 대응하는 하나 또는 그보다 많은 광자들을 검출하는 단계; 그보다 많은 광자들을 검출하는 단계;An example embodiment provides a method of generating a gray scale image of a subject, wherein the method includes: irradiating a series of light pulses from a light source towards a surface of the subject; Detecting one or more photons corresponding to the light pulses reflected from the surface of the object in the pixel; Detecting more photons;

시간-분해 센서에 의해, 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여 제1 신호 및 제2 신호의 쌍을 생성하는 단계, 시간-분해 센서는 광원과 동기되고, 쌍의 제1 신호의 진폭 및 제2 신호의 진폭의 합에 대한 쌍의 제1 신호의 진폭의 제1 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고, 그리고 쌍의 제1 신호의 진폭 및 제2 신호의 진폭에 대한 쌍의 제2 신호의 진폭의 제2 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고; 프로세서에 의해, 제1 신호 및 제2 신호의 쌍에 기반하여 대상까지의 거리를 판단하는 단계; 그리고 프로세서에 의해, 제1 신호 및 제2 신호의 쌍에 기반하여, 대상의 표면 반사율을 판단하는 단계를 포함한다. 일 실시 예에서, 방법은 대상을 향해 조사된 복수의 광 펄스들에 대해, 픽셀에서 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 단계, 복수의 제1 신호 및 제2 신호의 쌍들의 각각은 일련의 광 펄스들의 각 광 펄스에 대응하고; 그리고 프로세서에 의해, 복수의 제1 신호 및 제2 신호의 쌍들의 적어도 하나에 기반하여 대상의 표면 반사율을 판단하는 단계를 더 포함할 수 있다. 일 실시 예에서, 방법은 프로세서에 의해, 복수의 픽셀들의 미리 정해진 픽셀에 의해 검출되는 광자들의 도달 시간의 적어도 하나의 히스토그램을 생성하여 그레이 스케일 이미지를 생성하는 단계를 더 포함할 수 있다.Generating, by the time-resolved sensor, a pair of the first signal and the second signal in response to detecting one or more photons, the time-resolved sensor being synchronized with the light source, the amplitude of the first signal of the pair and The first ratio of the amplitude of the first signal of the pair to the sum of the amplitudes of the second signal is proportional to the flight time of one or more detected photons and to the amplitude of the first signal of the pair and the amplitude of the second signal. A second ratio of the amplitudes of the second signal of the pair for is proportional to the flight time of one or more detected photons; Determining, by the processor, a distance to the object based on the pair of the first signal and the second signal; And determining, by the processor, the surface reflectance of the object based on the pair of the first signal and the second signal. In one embodiment, the method includes detecting one or more photons reflected from the object in a pixel for a plurality of light pulses irradiated toward the object, each of the plurality of first and second pairs of signals Corresponding to each light pulse in the series of light pulses; And determining, by the processor, the surface reflectance of the object based on at least one of the plurality of first and second signal pairs. In one embodiment, the method may further include generating, by the processor, a gray scale image by generating at least one histogram of the arrival times of the photons detected by the predetermined pixel of the plurality of pixels.

본 발명에 따르면, 대상을 향해 광 펄스를 조사할 때부터 대상으로부터 반사된 광 펄스가 감지될 때까지, 충전 전하가 옮겨진 양이 제1 신호로 변환됩니다. 충전 전하의 잔여 전하의 양이 제2 신호로 변환됩니다. 제1 신호 및 제2 신호에 기반하여, 광 펄스의 비행 시간이 계산되고, 비행 시간으로부터 거리가 계산되어 3D 이미지가 생성됩니다. 제1 신호 및 제2 신호에 기반하여, 반사된 광 펄스의 전력이 계산되고, 계산된 전력 및 계산된 거리로부터 반사율이 계산되어, 대상의 2D 그레이 스케일 이미지가 생성됩니다.According to the present invention, the amount of charge charge transferred is converted into the first signal from the irradiation of the light pulse toward the object until the light pulse reflected from the object is detected. The amount of residual charge in the charge charge is converted into a second signal. Based on the first and second signals, the flight time of the light pulse is calculated, and the distance from the flight time is calculated to produce a 3D image. Based on the first and second signals, the power of the reflected light pulse is calculated, and the reflectance is calculated from the calculated power and the calculated distance, producing a 2D gray scale image of the object.

다음의 섹션에서, 여기에 기재된 주제의 측면들이 도면들에 도시된 모범적인 실시 예들을 참조하여 설명될 것이다.
도 1은 여기에 기재된 주제에 따른 이미지-센서 시스템의 매우 단순화된 부분 구성을 보여준다.
도 2는 여기에 기재된 주제에 따른 도 1의 이미지-센서 시스템의 예시적인 동작 구성을 보여준다.
도 3은 여기에 기재된 주제에 따른, 3D깊이 측정이 어떻게 수행되는 지의 예의 순서 도를 보여준다.
도 4는 여기에 기재된 주제에 따른, 3D-깊이 측정들을 위해 예시적인 포인트 스캔이 어떻게 수행될 수 있는지를 보여준다.
도 5는 여기에 기재된 주제에 따른 예시적인 픽셀의 블록 도를 보여준다.
도 6a 내지 도 6c는 여기에 기재된 주제에 따른 픽셀 어레이 아키텍처들의 세 개의 서로 다른 예들을 각각 보여준다.
도 7은 여기에 기재된 주제에 따른 픽셀의 예시적인 실시 예의 회로 상세들을 보여준다.
도 8은 여기에 기재된 주제에 따른, 도 7의 픽셀에서 변조된 전하 전송 메커니즘의 개괄을 제공하는 예시적인 타이밍 도이다.
도 9는 여기에 기재된 주제에 따른, 도 7의 실시 예의 픽셀들이 TOF 값들을 측정하기 위한 픽셀 어레이에 사용될 때에, 도 1 및 도 2의 이미지-센서 시스템에서 서로 다른 신호들의 예시적인 타이밍의 타이밍 도이다.
도 10은 여기에 기재된 주제에 따른 픽셀에서 논리 유닛이 어떻게 구현되는지를 보여준다.
도 11은 여기에 기재된 주제에 따른, 도 1 및 도 2의 이미지-센서 시스템에서 TOF 값이 어떻게 판단될 수 있는지를 보여주는 예시적인 순서 도를 보여준다.
도 12는 여기에 기재된 주제에 따른 이미지-센서 부의 부분의 예시적인 레이아웃이다.
도 13은 여기에 기재된 주제에 따른 픽셀의 다른 예시적인 실시 예를 보여준다.
도 14는 여기에 기재된 구제에 따른, 도 13에 도시된 실시 예의 픽셀들이 TOF 값들을 측정하기 위한 픽셀 어레이에 사용될 때, 도 1 및 도 2의 이미지-센서 시스템의 서로 다른 신호들의 예시적인 타이밍들의 타이밍 도이다.
도 15는 여기에 기재된 주제에 따른 시간-분해 센서의 예시적인 실시 예의 블록 도를 보여준다.
도 16은 여기에 기재된 주제에 따른, 도 15의 시간-분해 센서의 SPAD 회로의 예시적인 실시 예의 개념 도를 보여준다.
도 17은 여기에 기재된 주제에 따른, 도 15의 시간-분해 센서의 논리 회로의 예시적인 실시 예의 개념 도를 보여준다.
도 18은 여기에 기재된 주제에 따른, 도 15의 시간-분해 센서의 핀드 포토다이오드의 예시적인 실시 예의 개념 도를 보여준다.
도 19는 여기에 기재된 주제에 따른 도 15의 시간-분해 센서에 대한 예시적인 상대적인 신호 타이밍 도를 보여준다.
도 20은 여기에 기재된 주제에 따른 시간-분해 센서의 다른 예시적인 실시 예의 블록 도를 보여준다.
도 21은 여기에 기재된 주제에 따른 도 20의 시간-분해 센서의 제2 PPD 회로의 예시적인 실시 예의 개념 도를 보여준다.
도 22는 여기에 기재된 주제에 따른 도 20의 시간-분해 센서에 대한 예시적인 신소 타이밍 도를 보여준다.
도 23은 여기에 기재된 주제에 따른 시간-분해 센서의 또 다른 예시적인 실시 예의 블록 도를 보여준다.
도 24는 여기에 기재된 주제에 따른 도 23의 시간-분해 센서에 대한 예시적인 상대적인 신호 타이밍 도를 보여준다.
도 25는 여기에 기재된 주제에 따른 도 23의 시간-분해 센서를 이용하여 시간을 분해하는 방법의 순서 도를 보여준다.
도 26a는 SPAD로부터의 예시적인 트리거 파형 출력을 보여준다.
도 26b는 여기에 기재된 주제에 따라 형성될 수 있는 예시적인 픽셀의 광-검출 시간들의 예시적인 히스토그램을 보여준다.
도 26c는 여기에 기재된 주제에 따른 예시적인 히스토그램을 보여주며, 조사된 펄스(미도시)의 FWHM을 나타내는 윈도 폭이 표시되고, 사건 카운트 최대가 판단될 수 있다.
도 26d는 여기에 기재된 주제에 따른 예시적인 히스토그램을 보여주며, SPAD(도 26)로부터의 트리거 파형 출력이 히스토그램으로 감겨 사건 카운트 최대를 판단한다.
도 27은 여기에 기재된 주제에 따른 예시적인 픽셀에 대한 예시적인 히스토그램을 보여준다.
도 28은 여기에 기재된 주제에 따른 장면의 깊이 또는 거리 지도 및 그레이 스케일 이미지를 생성하는 예시적인 방법의 순서 도를 보여준다.
도 29a는 예시적인 장면을 보여준다.
도 29b 및 도 29c는 여기에 기재된 주제에 따른 도 29a에 도시된 장면의 예시적인 깊이 지도 및 예시적인 그레이 스케일 이미지를 각각 보여준다.
도 30은 여기에 기재된 주제에 따른 도 1 및 도 2에 도시된 이미징 시스템의 전체 레이아웃의 예시적인 실시 예를 보여준다.
In the following section, aspects of the subject matter described herein will be described with reference to exemplary embodiments shown in the figures.
1 shows a very simplified partial configuration of an image-sensor system according to the subject matter described herein.
2 shows an exemplary operational configuration of the image-sensor system of FIG. 1 in accordance with the subject matter described herein.
3 shows a flowchart of an example of how 3D depth measurements are performed, according to the subject matter described herein.
4 shows how an exemplary point scan can be performed for 3D-depth measurements, in accordance with the subject matter described herein.
5 shows a block diagram of an example pixel according to the subject matter described herein.
6A-6C each show three different examples of pixel array architectures in accordance with the subject matter described herein.
7 shows circuit details of an example embodiment of a pixel according to the subject matter described herein.
8 is an exemplary timing diagram providing an overview of the charge transfer mechanism modulated at the pixel of FIG. 7, according to the subject matter described herein.
9 is a timing diagram of exemplary timing of different signals in the image-sensor system of FIGS. 1 and 2 when the pixels of the embodiment of FIG. 7 are used in a pixel array for measuring TOF values, according to the subject matter described herein. to be.
10 shows how a logic unit is implemented in a pixel according to the subject matter described herein.
11 shows an exemplary flow chart showing how TOF values can be determined in the image-sensor system of FIGS. 1 and 2, according to the subject matter described herein.
12 is an exemplary layout of a portion of an image-sensor portion according to the subject matter described herein.
13 shows another exemplary embodiment of a pixel according to the subject matter described herein.
14 shows exemplary timings of different signals of the image-sensor system of FIGS. 1 and 2 when the pixels of the embodiment shown in FIG. 13 are used in a pixel array for measuring TOF values, according to the remedy described herein. Timing diagram.
15 shows a block diagram of an exemplary embodiment of a time-resolved sensor in accordance with the subject matter described herein.
FIG. 16 shows a conceptual diagram of an exemplary embodiment of the SPAD circuit of the time-resolved sensor of FIG. 15, in accordance with the subject matter described herein.
FIG. 17 shows a conceptual diagram of an example embodiment of the logic circuit of the time-decomposition sensor of FIG. 15, in accordance with the subject matter described herein.
18 shows a conceptual diagram of an exemplary embodiment of the pinned photodiode of the time-resolved sensor of FIG. 15, in accordance with the subject matter described herein.
19 shows an exemplary relative signal timing diagram for the time-resolved sensor of FIG. 15 in accordance with the subject matter described herein.
20 shows a block diagram of another exemplary embodiment of a time-resolved sensor in accordance with the subject matter described herein.
FIG. 21 shows a conceptual diagram of an exemplary embodiment of a second PPD circuit of the time-decomposition sensor of FIG. 20 in accordance with the subject matter described herein.
FIG. 22 shows an exemplary burn timing diagram for the time-resolved sensor of FIG. 20 in accordance with the subject matter described herein.
23 shows a block diagram of another exemplary embodiment of a time-resolved sensor in accordance with the subject matter described herein.
24 shows an exemplary relative signal timing diagram for the time-resolved sensor of FIG. 23 in accordance with the subject matter described herein.
FIG. 25 shows a flow chart of a method of decomposing time using the time-decomposition sensor of FIG. 23 in accordance with the subject matter described herein.
26A shows an exemplary trigger waveform output from SPAD.
26B shows an example histogram of light-detection times of an example pixel that may be formed according to the subject matter described herein.
FIG. 26C shows an exemplary histogram according to the subject matter described herein, where a window width representing the FWHM of the irradiated pulses (not shown) is displayed, and an event count maximum can be determined.
FIG. 26D shows an exemplary histogram according to the subject matter described herein, wherein the trigger waveform output from the SPAD (FIG. 26) is wound into a histogram to determine the event count maximum.
27 shows example histograms for example pixels according to the subject matter described herein.
28 shows a flowchart of an example method of generating a depth or distance map and a gray scale image of a scene according to the subject matter described herein.
29A shows an example scene.
29B and 29C show example depth maps and example gray scale images of the scene shown in FIG. 29A, respectively, according to the subject matter described herein.
30 shows an exemplary embodiment of the overall layout of the imaging system shown in FIGS. 1 and 2 according to the subject matter described herein.

다음의 상세한 설명에서, 다수의 특정한 상세들이 본 기재의 완전한 이해를 제공하기 위해 제공된다. 그러나 기재된 측면들은 이러한 특정한 상세들 없이도 실시될 수 있음이 이 분야에 숙련된 자들에게 이해될 것이다. 다른 예들에서, 잘 알려진 방법들, 절차들, 구성 요소들, 그리고 회로들은 여기에 기재된 주제를 모호하게 하지 않기 위해 상세히 기술되지 않는다. 또한, 기술된 측면들은, 이들에 한정되지 않지만, 스마트 폰, 사용자 장치(UE), 그리고/또는 랩톱 컴퓨터를 포함하는 임의의 이미징 장치 또는 시스템에서 저 전력, 3D 깊이 측정들을 수행하도록 구현될 수 있다.In the following detailed description, numerous specific details are provided to provide a thorough understanding of the present disclosure. However, it will be understood by those skilled in the art that the described aspects may be practiced without these specific details. In other instances, well known methods, procedures, components, and circuits have not been described in detail in order not to obscure the subject matter described herein. In addition, the described aspects may be implemented to perform low power, 3D depth measurements in any imaging device or system, including, but not limited to, a smartphone, a user device (UE), and / or a laptop computer. .

이 명세서에서 '일 실시 예' 또는 '실시 예'에 대한 참조는 해당 실시 예와 연관하여 기술된 특정한 특색, 구조 또는 특성이 여기에 기재된 적어도 하나의 실시 예에 포함될 수 있음을 의미한다. 따라서, 이 명세서의 다양한 위치들에서 '일 실시 예에서' 또는 '실시 예에서' 또는 '일 실시 예에 따른'의 문구들(또는 유사한 의미를 갖는 다른 문구들)의 등장은 모두 동일한 실시 예를 참조하는 것으로 여겨지지 않아야 한다. 또한, 특정한 특색들, 구조들 또는 특성들은 하나 또는 그보다 많은 실시 예들에서 임의의 적절한 방법으로 조합될 수 있다. 이와 관련되어, 여기에서 사용되는 바와 같이, '모범적인'의 단어는 '하나의 예, 사례 또는 실례로 제공되는' 것을 의미한다. 여기에서 '모범적인' 것으로 기술되는 임의의 실시 예는 다른 실시 예들보다 선호되거나 장점을 갖는 것으로 여겨지지 않아야 한다. 또한, 특정한 특색들, 구조들 또는 특성들은 하나 또는 그보다 많은 실시 예들에서 임의의 적절한 방법으로 조합될 수 있다. 또한, 여기에서 논의되는 맥락에 의존하여, 단수 형태는 대응하는 복수 형태들을 포함할 수 있으며, 복수 형태는 대응하는 단수 형태를 포함할 수 있다. 마찬가지로, 하이픈으로 연결된 용어(예를 들어, '2-차원', '미리-정해진', '픽셀-특화' 등)는 때때로 대응하는 하이픈 없는 버전(예를 들어, '2차원', '미리 정해진', '픽셀 특화' 등)으로 대체되어 사용될 수 있으며, 영문의 대문자 항목(예를 들어, '카운터 클럭(Counter Clock)', 행 선택(Row Select)', 'PIXOUT” 등)은 대응하는 대문자 없는 버전(예를 들어, '카운터 클럭(counter clock)', '행 선택(row select)', 'pixout' 등)으로 대체되어 사용될 수 있다. 이러한 비정기적인 대체 사용들은 서로 모순되는 것으로 여겨지지 않아야 한다.Reference herein to 'one embodiment' or 'an embodiment' means that a particular feature, structure, or characteristic described in connection with the embodiment can be included in at least one embodiment described herein. Thus, the appearances of the phrases “in one embodiment” or “in an embodiment” or “according to an embodiment” (or other phrases having similar meanings) in various places in the specification are all equivalent to the same embodiment. It should not be considered to be a reference. In addition, certain features, structures or features may be combined in any suitable manner in one or more embodiments. In this regard, as used herein, the word 'model' means 'provided as one example, example or illustration'. Any embodiment described herein as 'exemplary' should not be considered preferred or advantageous over other embodiments. In addition, certain features, structures or features may be combined in any suitable manner in one or more embodiments. Also, depending on the context discussed herein, the singular forms may include corresponding plural forms, and the plural forms may include corresponding singular forms. Similarly, terms that are hyphenated (e.g. '2-dimensional', 'pre-determined', 'pixel-specific', etc.) sometimes have corresponding hyphen free versions (e.g. 'two-dimensional', 'predetermined'). "," Pixel specialization ", etc.), and uppercase English letters (e.g.," Counter Clock "," Row Select "," PIXOUT ", etc.) It can be used in place of a missing version (e.g. 'counter clock', 'row select', 'pixout', etc.). Such occasional alternative uses should not be considered inconsistent with each other.

또한, 여기에 기재된 맥락에 의존하여, 단수 형태는 대응하는 복수 형태들을 포함할 수 있고, 복수 형태는 대응하는 단수 형태를 포함할 수 있다. 여기에서 보여지고 논의되는 다양한 도면들(구성 요소 도들을 포함하여)은 설명의 목적만을 위한 것이며, 동일한 비율로 한정되지 않는다. 마찬가지로, 다양한 파형들 및 타이밍 도들이 설명의 목적만을 위하여 보여진다. 예를 들어, 요소들의 일부의 차원들은 명확성을 위하여 다른 요소들보다 강조될 수 있다. 또한, 적절하다고 여겨지면, 참조 번호들은 도면들에서 반복되어 대응하는 그리고/또는 유사한 요소들을 가리킨다.Also, depending on the context described herein, the singular forms may include corresponding plural forms, and the plural forms may include corresponding singular forms. The various drawings (including component diagrams) shown and discussed herein are for illustrative purposes only and are not limited to the same proportions. Likewise, various waveforms and timing diagrams are shown for purposes of explanation only. For example, some dimensions of the elements may be emphasized over others for clarity. Also, where considered appropriate, reference numerals are repeated in the figures to indicate corresponding and / or similar elements.

여기에서 사용되는 용어들은 일부 예시적인 실시 예들을 설명하는 목적만을 위한 것이며, 청구된 주제들의 한정을 의도하지 않는다. 여기에서 사용되는 바와 같이, 문맥이 명백히 다르게 지칭하지 않으면, 단수 형태들은 복수 형태들 또한 포함하는 것을 의도한다. 이 명세서에서 사용될 때, '포함한다' 그리고/또는 '포함하는'의 용어들은 언급된 특색들, 정수들, 단계들, 동작들, 요소들 그리고/또는 구성 요소들의 존재를 명시하며, 하나 또는 그보다 많은 다른 특색들, 정수들, 단계들, 동작들, 요소들, 구성 요소들 그리고/또는 이들의 그룹들의 존재를 배제하지 않는다. 여기에서 사용되는 바와 같이, '제1', '제2' 등의 용어들은 이들이 선행하는 명사들에 대한 표지들로 사용되며, 명백히 그렇게 정의되지 않으면 임의의 형태의 순서(예를 들어, 공간적, 시간적, 논리적 등)를 암시하지 않는다. 또한, 동일한 참조 번호들은 둘 또는 그보다 많은 도면들에서 사용되어 동일한 또는 유사한 기능을 갖는 부품들, 구성 요소들, 블록들, 회로들, 유닛들 또는 모듈들을 가리킬 수 있다. 그러나 이러한 사용은 설명의 단순화 및 논의의 용이함만을 위한 것이며, 이러한 구성 요소들 또는 유닛들의 구조 또는 구조적 상세들이 모든 실시 예들에 걸쳐 동일하거나 또는 이러한 공통으로 참조되는 부품들/모듈들이 여기에 기재된 예시적인 실시 예들의 일부를 구현하는 유일한 방법임을 암시하지 않는다.The terminology used herein is for the purpose of describing some example embodiments only and is not intended to be limiting of the claimed subject matter. As used herein, the singular forms are intended to include the plural forms as well, unless the context clearly indicates otherwise. As used herein, the terms 'comprises' and / or 'comprising' specify the presence of the recited features, integers, steps, actions, elements and / or components, and one or more. It does not exclude the presence of many other features, integers, steps, actions, elements, components, and / or groups thereof. As used herein, the terms 'first', 'second' and the like are used as markers for preceding nouns and, unless expressly so defined, in any form of order (e.g., spatial, Temporal, logical, etc.). In addition, the same reference numerals may be used in two or more figures to refer to parts, components, blocks, circuits, units or modules having the same or similar function. However, this use is for simplicity of explanation and ease of discussion only, and the structural or structural details of these components or units may be the same or such commonly referenced parts / modules throughout all embodiments described herein. It does not imply that it is the only way to implement some of the embodiments.

요소 또는 계층이 다른 요소 또는 계층의 위에 있거나 연결되거나 또는 결합되는 것으로 참조될 때, 해당 요소 또는 계층은 다른 요소 또는 계층의 바로 위에 있거나 직접 연결되거나 직접 결합될 수 있고, 또는 끼어드는 요소들 또는 계층들이 존재할 수 있음이 이해될 것이다. 반대로, 요소가 다른 요소 또는 계층의 바로 위에 있거나, 직접 연결되거나 또는 직접 결합되는 것으로 참조될 때, 끼어드는 요소들 또는 계층들이 존재하지 않는다. 유사한 참조 번호들은 전체적으로 유사한 요소들을 가리킨다. 여기에서 사용되는 바와 같이, '그리고/또는'의 용어는 연관되어 나열된 물품들의 하나 또는 그보다 많은 것들의 임의의 그리고 모든 조합들을 포함한다.When an element or layer is referred to as being above, connected or combined with another element or hierarchy, that element or hierarchy may be directly above or directly connected or directly joined to another element or hierarchy, or intervening elements or hierarchy It will be understood that these may exist. Conversely, when an element is referenced directly above, directly connected to, or directly coupled to another element or hierarchy, there are no intervening elements or layers. Like reference numerals refer to like elements throughout. As used herein, the term 'and / or' includes any and all combinations of one or more of the articles listed in association.

여기에서 사용되는 바와 같이, '제1', '제2' 등의 용어들은 이들이 선행하는 명사들에 대한 표지들로 사용되며, 그렇게 명백히 정의되지 않으면 임의의 형태의 순서(예를 들어, 공간적, 시간적, 논리적 등)를 암시하지 않는다. 또한, 둘 또는 그보다 많은 도면들에 걸쳐 사용되는 동일한 참조 번호들은 동일한 또는 유사한 기능을 갖는 부품들, 구성 요소들, 블록들, 회로들, 유닛들 또는 모듈들을 가리킨다. 그러나 이러한 사용은 설명의 단순화 및 논의의 용이함만을 위한 것이며, 이러한 구성 요소들 또는 유닛들의 구조 또는 구조적 상세들이 모든 실시 예들에 걸쳐 동일하거나 또는 이러한 공통으로 참조되는 부품들/모듈들이 여기에 기술된 예시적인 실시 예들의 일부를 구현하는 유일한 방법임을 암시하지 않는다.As used herein, the terms 'first', 'second' and the like are used as markers for preceding nouns and, unless so explicitly defined, in any form of order (e.g., spatial, Temporal, logical, etc.). Also, like reference numerals used throughout the two or more figures refer to parts, components, blocks, circuits, units or modules having the same or similar functionality. This use, however, is for simplicity of explanation and ease of discussion only, and the structure or structural details of these components or units may be the same or such commonly referenced parts / modules throughout all embodiments described herein. It is not implied that it is the only way to implement some of the illustrative embodiments.

도면들에서 도시되는 바와 같이, '밑', '아래', '낮은', '위', '높은' 등과 같은 공간적으로 상대적인 용어들은 여기에서 하나의 요소 또는 특색의 다른 요소(들) 또는 특색(들)에 대한 관계를 기술하는 설명의 용이함을 위해 사용된다. 공간적으로 상대적인 용어들은 도면들에서 도시된 방향에 더하여 사용 또는 동작 중인 장치의 다른 방향들을 포함하는 것을 의도함이 이해될 것이다. 예를 들어, 도면들의 장치가 뒤집어지면, 다른 요소들 또는 특색들의 '아래' 또는 '밑'으로 설명된 요소들은 다른 요소들 또는 특색들의 '위' 방향일 수 있다. 따라서, '아래'의 용어는 위 및 아래의 방향 모두를 포함한다. 장치가 다르게 지향되면(90도 회전되면 또는 다른 방향들로), 여기에서 사용되는 공간적으로 상대적인 설명들은 그에 따라 해석된다.As shown in the figures, spatially relative terms such as 'bottom', 'bottom', 'low', 'top', 'high', etc., are used herein to refer to one element or feature of another element (s) or feature (s). Are used for ease of explanation describing the relationship. It will be understood that the spatially relative terms are intended to include other directions of the device in use or operation in addition to the direction shown in the figures. For example, if the apparatus of the figures is turned upside down, elements described as 'below' or 'below' of other elements or features may be in the 'up' direction of other elements or features. Thus, the term 'below' encompasses both up and down directions. If the device is oriented differently (rotated 90 degrees or in other directions), the spatially relative descriptions used herein are interpreted accordingly.

다르게 정의되지 않으면, 여기에서 사용되는 모든 용어들(기술적 그리고 과학적 용어들을 포함하여)은 이 주제가 속한 분야에 통상의 기술을 가진 자에 의해 공통으로 이해되는 것과 동일한 의미를 갖는다. 공통으로 사용되는 사전들에서 정의된 것과 같은 용어들은 연관된 분야의 맥락에서 그들의 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 여기에서 명백히 그렇게 정의되지 않으면 이상화되거나 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms used herein (including technical and scientific terms) have the same meaning as commonly understood by one of ordinary skill in the art to which this subject belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having meanings consistent with their meanings in the context of the associated field, and unless expressly so defined herein, will not be idealized or overly formal.

여기에서 사용되는 바와 같이, '모듈'의 용어는 모듈과 연관되어 여기에서 기술된 기능을 제공하도록 구성되는 소프트웨어, 펌웨어 그리고/또는 하드웨어의 임의의 조합을 가리킨다. 소프트웨어는 소프트웨어 패키지, 코드 그리고/또는 명령 세트 또는 명령들로 탑재되고, 여기에서 기술되는 임의의 구현에서 사용되는 '하드웨어'의 용어는, 예를 들어, 홀로 또는 임의의 조합에서, 프로그램 가능한 회로에 의해 실행되는 명령들을 저장하는 하드웨어 내장된(hardwired) 회로, 프로그램 가능한 회로, 상태 기계 회로, 그리고/또는 펌웨어를 포함할 수 있다. 모듈들은 총괄적으로 또는 개별적으로, 예를 들어, 이들로 한정되지 않지만, 집적 회로(IC), 시스템-온-칩(SoC) 등의 더 큰 시스템의 일부를 형성하는 회로로 탑재될 수 있다.As used herein, the term 'module' refers to any combination of software, firmware and / or hardware that is configured to associate with a module and provide the functionality described herein. Software is embodied in software packages, code and / or instruction sets or instructions, and the term 'hardware' used in any implementation described herein refers to programmable circuitry, for example, alone or in any combination. Hardware hardwired circuitry, programmable circuitry, state machine circuitry, and / or firmware that stores instructions executed by the processor. Modules may be mounted collectively or separately, for example, but not limited to, circuitry that forms part of a larger system such as an integrated circuit (IC), a system-on-chip (SoC), or the like.

앞서 언급된 3D 기술들은 많은 문제점들을 갖는다. 예를 들어, TOF 기반 3D 이미징(imaging) 시스템은 광학 또는 전기적 셔터들을 동작하는데 고 전력을 필요로 할 수 있다. 이러한 시스템들은 통상 수 미터들 내지 수십 미터들의 범위에 걸쳐 동작하지만, 이러한 시스템들의 해상도는 짧은 거리들의 측정들에서 감소하며, 따라서 약 1미터의 거리 내에서 3D 이미지를 만드는 것은 거의 불가능하다. 따라서, TOF 시스템은 사진들이 대부분 가까운 거리들에서 촬영되는 핸드폰 기반 카메라 응용들에 대해 바람직하지 않다. TOF 센서는 또한 보통 7um보다 큰 픽셀 사이즈들을 갖는 특수한 픽셀들을 필요로 한다. 이러한 픽셀들은 또한 주변 광에 취약하다.The aforementioned 3D techniques have many problems. For example, a TOF based 3D imaging system may require high power to operate optical or electrical shutters. Such systems typically operate over a range of several meters to tens of meters, but the resolution of such systems decreases in short distance measurements, thus making it impossible to produce 3D images within a distance of about 1 meter. Thus, the TOF system is undesirable for cell phone based camera applications where pictures are mostly taken at close ranges. TOF sensors also require special pixels with pixel sizes usually greater than 7 um. These pixels are also vulnerable to ambient light.

스테레오스코픽 이미징 방법은 일반적으로 구조화된(textured) 표면들에서만 동작한다. 이는 특색들을 정합하고 그리고 대상의 스테레오 쌍의 이미지들 사이의 대응성들을 찾는 필요로 인해 높은 연산 복잡도를 갖는다. 이는 높은 시스템 전력을 필요로 하며, 스마트 폰들과 같이 전력 절감이 필요한 응용들에서 적합한 특성이 아니다. 또한, 스테레오 이미징은 두 개의 렌즈들과 함께 두 개의 상설 고 비트 해상도 센서들을 필요로 하며, 전체 어셈블리를 장치 공간이 품귀 상태인 핸드폰들 또는 태블릿들과 같은 포터블 장치들의 응용들에 대해 부적절하게 한다.Stereoscopic imaging methods generally operate only on textured surfaces. This has a high computational complexity due to the need to match features and find correspondences between the images of the stereo pair of the object. This requires high system power and is not a suitable feature for applications that require power savings, such as smartphones. In addition, stereo imaging requires two permanent high bit resolution sensors along with two lenses, making the entire assembly inadequate for applications in portable devices such as mobile phones or tablets that are out of device space.

SL 방법은 거리의 모호성을 나타내며, 또한 높은 시스템 전력을 필요로 한다. 3D 깊이 측정들에 대해, SL 방법은 다수의 패턴들을 갖는 다수의 이미지들을 필요로 할 수 있다. 이들 모두는 연산 복잡도 및 전력 소비를 증가시킨다. 또한, SL 이미징은 고 비트 해상도를 갖는 상설 이미지 센서들을 필요로 할 수 있다. 따라서, 구조화된 광 기반 시스템은 스마트 폰들의 저 비용, 저 전력, 컴팩트 이미지 센서들에 적합하지 않을 수 있다.The SL method exhibits ambiguity in distance and also requires high system power. For 3D depth measurements, the SL method may require multiple images with multiple patterns. All of these increase computational complexity and power consumption. In addition, SL imaging may require permanent image sensors with high bit resolution. Thus, a structured light based system may not be suitable for low cost, low power, compact image sensors of smartphones.

위에서 언급된 3D 기술들과 반대로, 여기에서 기술되는 일부 실시 예들은 스마트 폰들, 태블릿들, 사용자 장치들(UE들)과 같은 포터블 전자 장치들에 저 전력 3D 이미징 시스템을 구현하는 것을 제공한다. 여기에 기술된 일부 실시 예들에 따른 2D 이미징 센서는 2D RGB(적색, 녹색, 청색) 이미지들 및 가시 광 레이저 스캔으로 3D 깊이 측정들을 캡처하며, 3D 깊이 측정들 동안 주변 광을 차단할 수 있다. 다음의 기술이 포인트 스캔을 위한 광원으로서 가시 광 레이저를 자주 언급하고, 그리고 이미지/광 캡처 장치로서 2D RGB 센서를 자주 언급하지만, 이러한 언급은 설명 및 논의의 일관성의 목적만을 위한 것이다. 아래에서 기술되는 가시 광 레이저 및 RGB 센서 기반 예들은 스마트 폰들, 태블릿들 또는 사용자 장치들(UE들)과 같은 카메라를 갖는 저 전력, 소비자 등급(consumer-grade) 모바일 전자 장치들에서 응용들을 찾을 수 있다. 그러나 여기에 기재된 주제는 아래에서 언급되는 가시 광-RGB 센서-기반 예들로 한정되지 않는다. 대신, 여기에 기재된 일부 실시 예들에 따르면, 포인트-스캔 기반 3D 깊이 측정들 및 주변 광 차단 방법은, 이들로 한정되지 않지만, (i) 레이저 소스가 적색(R), 녹색(G), 또는 청색(B) 광 레이저 또는 레이저 소스가 이러한 광들의 조합을 생성하는 가시 광 레이저 소스를 구비한 2D 컬러(RGB) 센서; (ii) 적외선(IR) 차단 필터를 갖는 2D RGB 컬러 센서를 구비한 가시 광 레이저; (iii) 2D IR 센서를 구비한 근 적외선(NIR) 레이저; (iv) 2D NIR 센서를 구비한 NIR 레이저; (v) 2D RGB 센서(IR 차단 필터가 없는)를 구비한 NIR 레이저; (vi) 2D RGB 센서(NIR 차단 필터가 없는)를 구비한 NIR 레이저; (vii) 가시 또는 NIR 레이저를 구비한 2D RGB-IR 센서; (viii) 가시 또는 NIR 레이저를 구비한 2D RGBW(적색, 녹색, 청색, 흰색) 센서 등과 같은 2D 센서들 및 레이저 광원들(포인트 스캔들을 위한)의 다수의 상이한 조합들을 이용하여 수행될 수 있다.In contrast to the 3D technologies mentioned above, some embodiments described herein provide for implementing a low power 3D imaging system in portable electronic devices such as smart phones, tablets, user devices (UEs). A 2D imaging sensor in accordance with some embodiments described herein captures 3D depth measurements with 2D RGB (red, green, blue) images and visible light laser scan and can block ambient light during 3D depth measurements. Although the following technique frequently mentions a visible light laser as a light source for point scan, and a 2D RGB sensor as an image / light capture device, this reference is for the purpose of consistency of explanation and discussion only. Visible light laser and RGB sensor based examples described below may find applications in low power, consumer-grade mobile electronic devices with a camera such as smartphones, tablets or user devices (UEs). have. However, the subject matter described herein is not limited to the visible light-RGB sensor-based examples mentioned below. Instead, according to some embodiments described herein, the point-scan based 3D depth measurements and the ambient light blocking method are not limited thereto, but (i) the laser source is red (R), green (G), or blue. (B) a 2D color (RGB) sensor with a visible light laser source wherein the light laser or laser source produces a combination of these lights; (ii) a visible light laser with a 2D RGB color sensor with an infrared (IR) blocking filter; (iii) a near infrared (NIR) laser with a 2D IR sensor; (iv) a NIR laser with a 2D NIR sensor; (v) a NIR laser with a 2D RGB sensor (without IR cutoff filter); (vi) a NIR laser with a 2D RGB sensor (without NIR blocking filter); (vii) a 2D RGB-IR sensor with a visible or NIR laser; (viii) can be performed using a number of different combinations of 2D sensors such as 2D RGBW (red, green, blue, white) sensor with visible or NIR laser and laser light sources (for point scans).

3D 깊이 측정들 동안, 모든 센서는 레이저 스캔과 험께 이진 센서로 동작하여 3D 콘텐츠를 재구성한다. 일부 실시 예들에서, 센서의 픽셀 사이즈는 1um만큼 작을 수 있다. 또한, 낮은 비트 해상도로 인해, 여기에 기재된 일부 실시 예들에 따른 이미지 센서의 아날로그-디지털 변환기(ADC) 유닛들은 통상적은 3D 이미징 시스템에의 고 비트 해상도 센서들에 필요한 것보다 매우 적은 처리 전력을 필요로 할 수 있다. 더 적은 처리 전력의 필요로 인해, 여기에 기재된 주제에 따른 3D 이미징 모듈은 낮은 시스템 전력을 필요로 하고, 따라서 스마트 폰들과 같은 저 전력 장치들에 포함되기에 매우 적합하다.During 3D depth measurements, all sensors act as laser scans and rough binary sensors to reconstruct 3D content. In some embodiments, the pixel size of the sensor may be as small as 1 um. In addition, due to the low bit resolution, analog-to-digital converter (ADC) units of the image sensor according to some embodiments described herein typically require much less processing power than is required for high bit resolution sensors in a 3D imaging system. You can do Due to the need for less processing power, the 3D imaging module according to the subject matter described here requires low system power and is therefore well suited for inclusion in low power devices such as smartphones.

일부 실시 예들에서, 여기에 기재된 주제는 라인 센서들의 그룹으로 3D 깊이 측정들을 위해, 레이저 광원으로 삼각 측량 및 포인트 스캔들을 사용한다. 레이저 스캔 평면 및 이미징 평면은 등극선 기하(epipolar geometry)를 이용하여 지향된다. 여기에 기재된 일 실시 예에 따른 이미지 센서는 타임스탬프를 이용하여 삼각측량 방법의 모호성을 제거하고, 따라서 깊이 연산들 및 시스템 전력의 양을 줄인다. 3D 레이저 스캔 모드뿐 아니라 통상 2D(RGB 컬러 또는 비-RGB) 이미징 모드에서 동일한 이미지 센서(즉, 이미지 센서의 각 픽셀)가 사용될 수 있다. 그러나 레이저 스캔 모드에서, 이미지 센서의 ADC들의 해상도는 이진 출력(1비트 해상도)으로 감소되고, 따라서 이미지 센서 및 연관된 처리 유닛들을 포함하는 칩에서 독출 속도가 향상되고 전력 소비(예를 들어, ADC 유닛들 내의 스위칭으로 인한)가 절감된다. 포인트 스캔 방법은 시스템이 한 번에 모든 측정들을 하게 하며, 따라서 깊이 측정들의 레이턴시를 줄이고 모션 블러를 줄인다.In some embodiments, the subject matter described herein uses triangulation and point scans with a laser light source for 3D depth measurements with a group of line sensors. The laser scan plane and imaging plane are directed using epipolar geometry. An image sensor according to one embodiment described herein uses timestamps to eliminate ambiguity in the triangulation method, thus reducing the amount of depth operations and system power. The same image sensor (i.e. each pixel of the image sensor) can be used in the 2D (RGB color or non-RGB) imaging mode as well as the 3D laser scan mode. However, in laser scan mode, the resolution of the ADCs of the image sensor is reduced to binary output (1 bit resolution), thus improving read speed and reducing power consumption (eg, ADC unit) in the chip comprising the image sensor and associated processing units. Due to switching in the field). The point scan method allows the system to make all measurements at once, thus reducing latency in depth measurements and reducing motion blur.

앞서 언급된 바와 같이, 일부 실시 예들에서, 전체 이미지 센서는 가시 레이저 스캔을 이용한 3D 깊이 이미징뿐 아니라, 예를 들어 주변 광을 이용한 통상적인 2D RGB 컬러 이미징을 위해서도 사용될 수 있다. 이러한 동일 카메라 유닛의 이중 사용은 모바일 장치들의 공간 및 비용을 절약할 수 있다. 특정한 응용들에서, 3D 응용들을 위한 가시 레이저는 근 적외선(NIR) 레이저와 비교하여 사용자 눈 안전에 더 좋을 수 있다. 센서는 NIR 스펙트럼에서보다 가시 스펙트럼에서 더 높은 양자 효율을 가지며, 광원의 더 적은 전력 소비를 이끌 수 있다. 일 실시 예에서, 이중 사용 이미지 센서는 통상적인 2D 센서로서 2D 이미징을 위한 선형 동작 모드에서 동작할 수 있다. 그러나 3D 이미징을 위해, 센서는 보통의 광 조건하에서 선형 모드로 동작하고, 강한 주변 광 하에서 대수(logarithmic) 모드로 동작하여, 강한 주변 광의 차단을 통해 가시 레이저 소스의 지속 사용을 가능하게 한다. 주변 광 차단은, 예를 들어 RGB 센서에 채용된 IR 차단 필터의 통과 대역의 대역폭이 충분히 좁지 않은 때에, NIR 레이저의 경우에도 필요할 수 있다.As mentioned above, in some embodiments, the entire image sensor may be used for 3D depth imaging using visible laser scan, as well as for conventional 2D RGB color imaging with ambient light, for example. Dual use of this same camera unit can save space and cost of mobile devices. In certain applications, visible lasers for 3D applications may be better for user eye safety compared to near infrared (NIR) lasers. The sensor has a higher quantum efficiency in the visible spectrum than in the NIR spectrum and can lead to less power consumption of the light source. In one embodiment, the dual use image sensor may operate in a linear mode of operation for 2D imaging as a conventional 2D sensor. However, for 3D imaging, the sensor operates in linear mode under normal light conditions, and in logarithmic mode under strong ambient light, enabling the continuous use of visible laser sources through the blocking of strong ambient light. Ambient light blocking may also be required for NIR lasers, for example, when the bandwidth of the pass band of the IR blocking filter employed in the RGB sensor is not narrow enough.

요약하면, 본 기재는 진폭-변조(amplitude-modulated) 전하-전송(charge-transfer) 동작을 갖는 시간-전하 변환기(TCC)(time-to-charge converter)가 픽셀에서의 다수의 인접한 SPAD들로부터의 출력들에 의해 제어되어 TOF를 결정할 때 픽셀에서 핀드 포토다이오드(PPD)(pinned photodiode)를 사용한다. 주변 광이 높을 때, SPAD가 반사된 광자(예를 들어, 반사된 펄스(37) 내의) 대신 주변 광자에 의해 트리거 될 확률이 높다. 이러한 트리거에 대한 의존은 거리 측정 에러를 유발할 수 있다. 따라서, 본 기재에서, 전자 셔터가 온 일 때와 같이, 둘 또는 그보다 많은 SPAD들이 매우 짧은, 미리 정의된 시간 간격 내에 트리거 될 때만, TOF를 기록하기 위해 PPD 전하 전송이 중지된다. 결과적으로, 본 기재의 가르침에 따른 전천후 자율 주행 시스템은, 예를 들어 낮은 광, 안개, 나쁜 날씨, 강한 주변 광 등과 같은 어려운 주행 조건들에서 운전자들에게 개선된 시야를 제공할 수 있다. 일부 실시 예들에서, 본 기재의 가르침들에 따른 주행 시스템은 100kLux까지의 높은 주변 광 차단을 가질 수 있다. 일부 실시 예들에서, 더 적은 픽셀 사이즈로 높은 공간 해상도 픽셀 구조가 1:1의 SPAD 대 PPD 비율로 제공될 수 있다. 일부 실시 예들에서, SPAD들은 파괴 전압(breakdown voltage)보다 낮게 바이어스되고, 그리고 아발란체 포토다이오드(APD)(avalanche photodiode) 모드에서 사용될 수 있다.In summary, the present disclosure discloses that a time-to-charge converter (TCC) with amplitude-modulated charge-transfer operation is obtained from multiple adjacent SPADs in a pixel. The pinned photodiode (PPD) is used in the pixel when determining the TOF, controlled by the outputs of the < RTI ID = 0.0 > When the ambient light is high, there is a high probability that the SPAD will be triggered by the ambient photons instead of the reflected photons (eg, within the reflected pulse 37). Dependence on such a trigger can cause a ranging error. Thus, in this disclosure, PPD charge transfer is stopped to write TOF only when two or more SPADs are triggered within a very short, predefined time interval, such as when the electronic shutter is on. As a result, an all-weather autonomous driving system in accordance with the teachings of the present disclosure may provide drivers with improved visibility in difficult driving conditions, such as, for example, low light, fog, bad weather, strong ambient light, and the like. In some embodiments, the travel system according to the teachings of the present disclosure can have high ambient light shielding up to 100 kLux. In some embodiments, a higher spatial resolution pixel structure with a smaller pixel size may be provided at a SPAD to PPD ratio of 1: 1. In some embodiments, the SPADs are biased below the breakdown voltage, and can be used in avalanche photodiode (APD) mode.

도 1은 여기에 기재된 주제에 따른 이미징 시스템(150)의 매우 단순화된 부분 구성을 보여준다. 시스템(15)은 프로세서 모듈(19) 또는 호스트와 결합되고 통신하는 이미징 모듈(17)을 포함할 수 있다. 시스템(15)은 또한 프로세서 모듈(19)과 결합되고 이미징 모듈(17)로부터 수신되는 이미지 데이터와 같은 콘텐츠를 저장하는 메모리 모듈(20)을 포함할 수 있다. 일부 실시 예들에서, 전체 시스템(150)은 단일 집적 회로(IC) 또는 칩에 캡슐화될 수 있다. 또는, 모듈들(17, 19, 20)의 각각은 분리된 칩으로 구현될 수 있다. 메모리 모듈(20)은 하나 또는 그보다 많은 메모리 칩을 포함하고, 프로세서 모듈(19)은 또한 다수의 프로세싱 칩들을 포함할 수 있다. 도 1의 모듈들의 패키징의 상세들, 그리고 모듈들이 어떻게 제조되는지 또는 구현되는지에 대한 상세들(단일 칩에서든 또는 다수의 분리된 칩들에서든)은 본 논의에 연관되지 않으며, 따라서 이러한 상세들인 여기에서 제공되지 않는다.1 shows a very simplified partial configuration of an imaging system 150 according to the subject matter described herein. System 15 may include processor module 19 or imaging module 17 in communication with and in communication with a host. System 15 may also include a memory module 20 that is coupled with processor module 19 and stores content such as image data received from imaging module 17. In some embodiments, the entire system 150 may be encapsulated in a single integrated circuit (IC) or chip. Alternatively, each of the modules 17, 19, 20 may be implemented as a separate chip. Memory module 20 may include one or more memory chips, and processor module 19 may also include multiple processing chips. The details of the packaging of the modules of FIG. 1 and the details of how the modules are manufactured or implemented (either on a single chip or on a plurality of separate chips) are not relevant to the present discussion and thus these details are provided herein. It doesn't work.

시스템(15)은 여기에 기재된 주제에 따른 2D 그리고 3D 카메라 응용들을 위해 구성된 임의의 저 전력 전자 장치일 수 있다. 시스템(15)은 포터블 또는 포터블이 아닐 수 있다. 시스템(15)의 포터블 버전의 일부 예들은, 이들에 한정되지 않지만, 모바일 장치, 핸드폰, 스마트 폰, 사용자 장치(UE), 태블릿, 디지털 카메라, 랩톱 또는 데스크톱 컴퓨터, 전자 스마트시계, 기계-대-기계(M2M) 통신 유닛, 가상 현실(VR) 장치 또는 모듈, 로봇 등과 같은 대중적인 소비자 전자 도구들을 포함할 수 있다. 반대로, 시스템(15)의 포터블이지 않은 버전의 일부 예들은 비디오 아케이드의 게임 콘솔, 인터랙티브 비디오 터미널, 자동차, 기계 시야 시스템, 산업 로봇, VR 장치, 자동차의 운전자 측 실장 카메라(예를 들어, 운전자가 졸고 이는지 아닌지를 관찰하기 위한) 등을 포함할 수 있다. 여기에 기재된 3D 이미징 기능은, 이들로 한정되지 않지만, 전천후 자율 주행 및 낮은 광 또는 궂은 날씨 조건들에서의 운전자 지원과 같은 자동차 응용들, 인간-기계 인터페이스 및 게이밍 응용들, 기계 시야 및 로봇 공학 응용들과 같은 많은 응용들에서 사용될 수 있다.System 15 may be any low power electronic device configured for 2D and 3D camera applications in accordance with the subject matter described herein. System 15 may or may not be portable. Some examples of portable versions of system 15 include, but are not limited to, mobile devices, mobile phones, smart phones, user devices (UEs), tablets, digital cameras, laptops or desktop computers, electronic smart watches, machine-to- Popular consumer electronic tools such as machine (M2M) communication units, virtual reality (VR) devices or modules, robots, and the like. Conversely, some examples of non-portable versions of system 15 are game consoles in interactive video arcades, interactive video terminals, automobiles, machine vision systems, industrial robots, VR devices, and driver-side mounting cameras (e.g. Dozing and observing whether or not) and the like. The 3D imaging functions described herein include, but are not limited to, automotive applications such as all-weather autonomous driving and driver assistance in low light or inclement weather conditions, human-machine interface and gaming applications, machine vision and robotics applications. It can be used in many applications such as

여기에 기재된 일부 실시 예들에서, 이미징 모듈(17)은 프로젝터 모듈(또는 광원 모듈)(22) 및 이미지 센서 유닛(24)을 포함할 수 있다. 프로젝터 모듈(22)의 광원은, 예를 들어 근 적외선(NIR)(Near Infrared) 또는 단파 적외선(SWIR)(Short Wave Infrared) 레이저와 같은 적외선(IR) 레이저일 수 있으며, 조명이 눈에 띄게 하지 않을 수 있다. 다른 실시 예들에서, 광원은 가시 광 레이저일 수 있다. 이미지 센서 유닛(24)은 도 2에 도시된 바와 같이 픽셀 어레이 및 보조 처리 회로들을 포함할 수 있다.In some embodiments described herein, the imaging module 17 may include a projector module (or light source module) 22 and an image sensor unit 24. The light source of the projector module 22 may be, for example, an infrared (IR) laser, such as a near infrared (NIR) or short wave infrared (SWIR) laser, so that illumination is not noticeable. You may not. In other embodiments, the light source can be a visible light laser. The image sensor unit 24 may include a pixel array and auxiliary processing circuits as shown in FIG. 2.

일 실시 예에서, 프로세서 모듈(19)은 범용 마이크로프로세서인 중앙 처리 유닛(CPU)일 수 있다. 여기에서 사용되는 바와 같이, '프로세서' 및 'CPU'의 용어들은 서로 교환되어 사용될 수 있다. 그러나 CPU 대신 또는 CPU에 더하여, 프로세서 모듈(19)은, 이들로 한정되지 않지만, 마이크로 컨트롤러, 디지털 신호 처리기(DSP), 그래픽 처리부(GPU), 전용의 응용 특화 집적 회로(ASIC) 프로세서 등과 같은 다른 임의의 타입의 프로세서를 포함할 수 있다. 일 실시 예에서, 프로세서 모듈/호스트(19)는 분산 처리 환경에서 동작하는 하나보다 많은 CPU를 포함할 수 있다. 프로세서 모듈(19)은 명령들을 실행하고, 그리고 이들로 한정되지 않지만, RISC(Reduced Instruction Set Computer) ISA에 의존하는 x86 명령 세트 구조(32비트 또는 64비트 버전들), 파워 PC®ISA, 또는 MIPS(Microprocessor without Interlocked Pipeline Stages) 명령 세트 구조와 같은 특정한 명령 세트 구조(ISA)(Instruction Set Architecture)에 따라 데이터를 처리하도록 구성될 수 있다. 일 실시 예에서, 프로세서 모듈(19)은 CPU 기능에 추가적인 기능을 갖는 시스템 온 칩(SoC)일 수 있다.In one embodiment, processor module 19 may be a central processing unit (CPU) that is a general purpose microprocessor. As used herein, the terms 'processor' and 'CPU' may be used interchangeably. However, instead of or in addition to the CPU, the processor module 19 may include, but is not limited to, other such as microcontrollers, digital signal processors (DSPs), graphics processing units (GPUs), dedicated application specific integrated circuits (ASIC) processors, and the like. It may include any type of processor. In one embodiment, processor module / host 19 may include more than one CPU operating in a distributed processing environment. The processor module 19 executes instructions, and is not limited to these, but x86 instruction set architecture (32-bit or 64-bit versions), Power PC®ISA, or MIPS that relies on the Reduced Instruction Set Computer (RISC) ISA. (Microprocessor without Interlocked Pipeline Stages) may be configured to process data according to a particular instruction set architecture (ISA), such as an instruction set structure. In one embodiment, the processor module 19 may be a system on chip (SoC) with additional functionality in addition to the CPU functionality.

일부 실시 예들에서, 메모리 모듈(20)은, 이들로 한정되지 않지만, 동기식 DRAM(SDRAM)과 같은 동적 랜덤 액세스 메모리(DRAM) 또는, 이들로 한정되지 않지만, 고대역폭 메모리(HBM) 모듈 또는 하이브리드 메모리 큐브(HMC) 메모리 모듈과 같은 DRAM 기반 3차원 스택(3DS) 메모리 모듈일 수 있다. 다른 실시 예들에서, 메모리 모듈(20)은 솔리드 스테이트 드라이브(SSD), 비-3DS DRAM 모듈, 또는 이들로 한정되지 않지만, 정적 랜덤 액세스 메모리(SRAM), 상 변화 랜덤 액세스 메모리(PRAM 또는 PCRAM), 저항성 랜덤 액세스 메모리(RRAM 또는 ReRAM), 도전성-브릿지 RAM(CBRAM), 자기 RAM(MRAM), 또는 스핀 트랜스퍼 토크 MRAM(STT-MRAM)과 같은 다른 임의의 반도체 기반 저장 시스템일 수 있다.In some embodiments, memory module 20 may be, but is not limited to, dynamic random access memory (DRAM) such as synchronous DRAM (SDRAM), or a high bandwidth memory (HBM) module or hybrid memory. DRAM-based three-dimensional stack (3DS) memory modules, such as cube (HMC) memory modules. In other embodiments, memory module 20 may be a solid state drive (SSD), a non-3DS DRAM module, or not limited to, but not limited to, static random access memory (SRAM), phase change random access memory (PRAM or PCRAM), Or any other semiconductor based storage system such as resistive random access memory (RRAM or ReRAM), conductive-bridge RAM (CBRAM), magnetic RAM (MRAM), or spin transfer torque MRAM (STT-MRAM).

도 2는 여기에 기재된 주제에 따른 도 1의 이미징 시스템(15)의 예시적인 동작 구성을 보여준다. 시스템(15)은 개별 대상 또는 장면(미도시) 내의 대상일 수 있는 대상(26)과 같은 대상에 대한 거리 또는 깊이 정보(Z-축을 따라)를 획득하는 데 사용될 수 있다. 시스템(15)은 (픽셀 어레이의)이미지 프레임 당 단일 펄스가 사용될 수 있는 직접 TOF 이미저(imager)일 수 있다. 일부 실시 예들에서, 다수의 짧은 펄스들이 대상(26)에 전송될 수 있다. 일 실시 예에서, 거리/깊이 정보는 이미지 센서 유닛(24)으로부터 수신되는 스캔 데이터에 기반하여 프로세서 모듈(19)에 의해 판단될 수 있다. 다른 실시 예에서, 거리/깊이 정보는 이미지 센서 유닛(24)에 의해 판단될 수 있다. 일부 실시 예들에서, 깊이 정보는 3D 사용자 인터페이스의 일부로서 프로세서 모듈(19)에 의해 사용되어, 시스템(15)의 사용자가 대상의 3D 이미지와 소통하거나 또는 대상의 3D 이미지를 시스템(15)에서 실행되는 게임 또는 자율 주행 응용과 같은 다른 응용의 일부로 사용하게 할 수 있다. 여기에 기재된 주제에 따른 3D 이미징은 또한 다른 목적들 또는 응용들을 위해 사용될 수 있으며, 실질적으로 어떤 장면 또는 3D 대상들에도 적용될 수 있다.2 shows an exemplary operating configuration of the imaging system 15 of FIG. 1 in accordance with the subject matter described herein. System 15 may be used to obtain distance or depth information (along the Z-axis) for an object, such as object 26, which may be an individual object or an object within a scene (not shown). System 15 may be a direct TOF imager in which a single pulse per image frame (of an array of pixels) may be used. In some embodiments, multiple short pulses may be sent to the object 26. In one embodiment, the distance / depth information may be determined by the processor module 19 based on scan data received from the image sensor unit 24. In other embodiments, distance / depth information may be determined by the image sensor unit 24. In some embodiments, depth information is used by processor module 19 as part of a 3D user interface such that a user of system 15 communicates with or executes a 3D image of an object in system 15. It can be used as part of other applications such as games or autonomous driving applications. 3D imaging according to the subject matter described herein can also be used for other purposes or applications, and can be applied to virtually any scene or 3D object.

도 2에서, X축은 시스템(15)의 전면에 따른 수평 방향이고, Y축은 수직 방향이고(시야 내의 페이지의 바깥), 그리고 Z축은 시스템(15)으로부터 이미지 될 대상(26)의 일반적인 방향으로 신장된다. 깊이 측정들을 위해, 모듈들(22, 24)의 광학 축들이 Z축에 평행할 수 있다. 다른 광학 배열들이 사용되어 여기에 기술된 원리들을 구현할 수 있으며, 이러한 대안적인 배열들은 여기에 기재된 주제의 범위 내인 것으로 여겨진다.In FIG. 2, the X axis is in the horizontal direction along the front of the system 15, the Y axis is in the vertical direction (out of the page in the field of view), and the Z axis extends in the general direction of the object 26 to be imaged from the system 15. do. For depth measurements, the optical axes of the modules 22, 24 can be parallel to the Z axis. Other optical arrangements may be used to implement the principles described herein, and such alternative arrangements are considered to be within the scope of the subject matter described herein.

광학 시야(FOV)(Field of View) 내에서 대상(26)을 포인트 스캔하는 데에 사용될 수 있는 광 빔 또는 광학 복사(optical radiation)의 조명 경로를 나타내는 대응하는 점선들(30, 31)과 연관된 화살표들(28, 29)로 표시되는 바와 같이, 프로젝터(또는 광원) 모듈(22) 은 대상(26)을 조명할 수 있다. 대상 표면의 라인 단위의 포인트 스캔은, 일 실시 예에서 레이저 제어기(34)에 의해 동작되고 제어되는 레이저 광원(33)일 수 있는 광학 복사원을 이용하여 수행될 수 있다. 레이저 소스(33)로부터의 광 빔은, 레이저 제어기(34)의 제어 하에, 투영 장치(35)를 통해 대상(26)의 표면을 가로질러 X-Y 방향으로 포인트 스캔 된다. 포인트 스캔은 도 4를 참조하여 더 상세히 논의되는 바와 같이, 스캔 라인을 따라 대상의 표면에 광 점들을 투영한다. 투영 장치(35)는 레이저(33)로부터의 레이저 빔을 대상(26)의 표면에 포인트 또는 점으로 집중하는 집중 렌즈, 유리/플라스틱 표면, 또는 다른 원통형 광학 요소일 수 있다. 도 2에 도시된 실시 예에서, 집중 렌즈(35)로서 볼록 구조가 도시된다. 그러나 다른 임의의 적절한 렌즈 설계가 투영 장치(35)로 선택될 수 있다. 대상(26)은 광원(33)으로부터의 조명 광이 투영 장치(35)에 의해 광 점으로 집중되는 집중 위치에 위치할 수 있다. 따라서, 포인트 스캔에서, 대상(26)의 표면의 포인트 또는 좁은 영역/지점은 투영 장치(35)로부터의 집중된 광 빔에 의해 순차적으로 조명될 수 있다.Associated with corresponding dotted lines 30, 31 representing an illumination path of an optical beam or optical radiation that can be used to point scan the object 26 within an optical field of view (FOV). As indicated by arrows 28 and 29, projector (or light source) module 22 may illuminate object 26. The point-by-line point scan of the object surface may be performed using an optical radiation source, which in one embodiment may be a laser light source 33 operated and controlled by the laser controller 34. The light beam from the laser source 33 is point scanned in the X-Y direction across the surface of the object 26 via the projection device 35 under the control of the laser controller 34. Point scan projects light points on the surface of the object along the scan line, as discussed in more detail with reference to FIG. 4. Projection device 35 may be a focusing lens, glass / plastic surface, or other cylindrical optical element that concentrates a laser beam from laser 33 point or point onto surface of object 26. In the embodiment shown in FIG. 2, a convex structure is shown as the focusing lens 35. However, any other suitable lens design can be selected as the projection device 35. The object 26 may be located at a concentrated position where the illumination light from the light source 33 is concentrated by the projection device 35 at the light point. Thus, in a point scan, the point or narrow area / point of the surface of the object 26 can be sequentially illuminated by the concentrated light beam from the projection device 35.

일부 실시 예들에서, 광원(33)(또는 조명 소스)은 가시 광을 발광하는 다이오드 레이저 또는 발광 다이오드(LED), NIR 레이저, 포인트 광원, 가시 광 스펙트럼 내의 단색의 조명 소스(흰색 램프 및 단색기(monochromator)의 조합과 같은), 또는 다른 임의의 형태의 레이저 광원일 수 있다. 레이저(33)는 시스템(15)의 하우징 내의 하나의 위치에 고정될 수 있지만, X-Y 방향들로 회전 가능할 수 있다. 레이저(33)는 X-Y 주소 지정 가능하여(예를 들어, 레이저 제어기(34)에 의해) 3D 대상(26)의 포인트 스캔을 수행할 수 있다. 일 실시 예에서, 가시 광은 실질적으로 녹색 광일 수 있다. 레이저 소스(33)로부터의 가시 광 조명은 거울(미도시)을 이용하여 3D 대상(26)의 표면에 투영될 수 있으며, 또는 포인트 스캔은 완전히 거울 없이 수행될 수 있다. 일부 실시 예들에서, 광원 모듈(22)은 도 2에 도시된 예시적인 실시 예에 도시된 것들보다 많거나 또는 적은 구성 요소들을 포함할 수 있다.In some embodiments, the light source 33 (or illumination source) is a diode laser or light emitting diode (LED) that emits visible light, an NIR laser, a point light source, a monochromatic illumination source in the visible light spectrum (white lamp and monochromator ( such as a combination of monochromators), or any other form of laser light source. The laser 33 may be fixed at one location within the housing of the system 15, but may be rotatable in the X-Y directions. The laser 33 is X-Y addressable (eg, by the laser controller 34) to perform a point scan of the 3D object 26. In one embodiment, the visible light may be substantially green light. Visible light illumination from the laser source 33 can be projected onto the surface of the 3D object 26 using a mirror (not shown), or the point scan can be performed completely without the mirror. In some embodiments, the light source module 22 may include more or fewer components than those shown in the exemplary embodiment shown in FIG. 2.

도 2의 실시 예에서, 대상(26)의 포인트 스캔으로부터 반사된 광은 화살표들(36, 37) 및 점선들(38, 39)로 표시된 수집 경로를 따라 이동할 수 있다. 광 수집 경로는 레이저 소스(33)로부터의 조명이 수신됨에 따라, 대상(26)의 표면으로부터 반사 또는 산란된 광자들을 운반할 수 있다. 여기에서, 도 2에서(그리고 또한 도 4에도 적용 가능한) 실선 화살표 및 점선들을 이용한 다양한 전송 경로들의 표시는 설명 목적만을 위한 것이며, 해당 도시는 어떤 실제 광학 신호 전송 경로들을 도시하는 것으로 여겨지지 않아야 한다. 실제로, 조명 및 수집 신호 경로들은 도 2에 도시된 것들과 다를 수 있으며, 도 2의 도시와 같이 명확히 정의되지 않을 수 있다.In the embodiment of FIG. 2, light reflected from the point scan of the object 26 may travel along the collection path indicated by arrows 36 and 37 and dotted lines 38 and 39. The light collection path may carry photons reflected or scattered from the surface of the object 26 as illumination from the laser source 33 is received. Here, the display of the various transmission paths using solid arrows and dashed lines in FIG. 2 (and also applicable to FIG. 4) is for illustrative purposes only, and the illustration should not be considered to show any actual optical signal transmission paths. . In practice, the illumination and acquisition signal paths may differ from those shown in FIG. 2 and may not be clearly defined as shown in FIG. 2.

조명된 대상(26)으로부터 수신되는 광은 이미지 센서 유닛(24)의 수집 장치(44)를 통해 2D 픽셀 어레이(42)의 하나 또는 그보다 많은 픽셀들에 집중될 수 있다. 투영 장치(35)와 마찬가지로, 수집 장치(44)는 대상(26)으로부터 수신된 반사 광을 어레이(42) 내의 하나 또는 그보다 많은 픽셀들에 집중하는 집중 렌즈, 유리/플라스틱 표면, 또는 다른 원통형의 광학 요소일 수 있다. 도 2에 도시된 실시 예에서, 집중 렌즈(44)로서 볼록 구조가 도시된다. 그러나 임의의 다른 적절한 렌즈 디자인이 수집 장치(44)로 선택될 수 있다. 도 2에서 픽셀 어레이(42)는 단지 3X3 픽셀 어레이인 것으로 도시되지만, 최신 픽셀 어레이들은 수천 개의 또는 수백만 개의 픽셀들을 포함할 수 있음이 이해되어야 한다. 픽셀 어레이(42)는 서로 다른 픽셀들이 서로 다른 색들의 광 신호들을 수집할 수 있는 RGB 픽셀 어레이일 수 있다. 일부 실시 예들에서, 픽셀 어레이(42)는, 이들로 한정되지 않지만, IR 차단 필터를 구비한 2D RGB 센서, 2D IR 센서, 2D NIR 센서, 2D RGBW 센서, 2D RGB-IR 센서와 같은 임의의 2D 센서일 수 있다. 시스템(15)은 대상(26)의 3D 이미징(깊이 측정들을 포함하는)뿐만 아니라 대상(26)의 2D RGB 컬러 이미징에 대해 동일한 픽셀 어레이(42)를 사용할 수 있다.Light received from the illuminated object 26 may be focused on one or more pixels of the 2D pixel array 42 via the collecting device 44 of the image sensor unit 24. Like the projection device 35, the collection device 44 may be of a focused lens, glass / plastic surface, or other cylindrical shape that focuses the reflected light received from the object 26 to one or more pixels in the array 42. It may be an optical element. In the embodiment shown in FIG. 2, a convex structure is shown as the focusing lens 44. However, any other suitable lens design can be selected as the collecting device 44. Although pixel array 42 is shown in FIG. 2 as only a 3 × 3 pixel array, it should be understood that modern pixel arrays may include thousands or millions of pixels. The pixel array 42 may be an RGB pixel array in which different pixels may collect light signals of different colors. In some embodiments, pixel array 42 may be any 2D such as, but not limited to, 2D RGB sensor, 2D IR sensor, 2D NIR sensor, 2D RGBW sensor, 2D RGB-IR sensor with IR blocking filter. It may be a sensor. System 15 may use the same pixel array 42 for 3D imaging (including depth measurements) of object 26 as well as for 2D RGB color imaging of object 26.

픽셀 어레이(42)는 수신된 광자들을 대응하는 전기 신호들로 변환할 수 있고, 전기 신호들은 이후에 연관된 픽셀 처리 유닛(46)에 의해 처리되어 대상(26)의 3D 깊이 이미지를 판단할 수 있다. 일 실시 예에서, 픽셀 처리 유닛(46)은 깊이 측정들을 위한 삼각 측량을 이용할 수 있다. 삼각 측량 방법은 이후에 도 4를 참조하여 설명된다. 픽셀 처리 유닛(46)은 또한 픽셀 어레이(42)의 동작을 제어하기 위한 회로들을 포함할 수 있다.The pixel array 42 may convert the received photons into corresponding electrical signals, which may then be processed by an associated pixel processing unit 46 to determine a 3D depth image of the object 26. . In one embodiment, pixel processing unit 46 may use triangulation for depth measurements. The triangulation method is described later with reference to FIG. 4. Pixel processing unit 46 may also include circuits for controlling the operation of pixel array 42.

프로세서(19)는 광원 모듈(22) 및 이미지 센서 유닛(24)의 동작들을 제어할 수 있다. 예를 들어, 시스템(15)은 2D 이미징 모드를 3D 이미징 모드로 전환하도록 사용자에 의해 제어 가능할 수 있는 모드 스위치(미도시)를 가질 수 있다. 사용자가 모드 스위치를 이용하여 2D 이미징 모드를 선택하면, 프로세서(19)는 이미지 센서 유닛(24)을 활성화할 수 있지만, 2D 이미징 모드는 주변 광을 사용하므로 광원 모듈(22)을 활성화하지 않을 수 있다. 반면, 사용자가 모드 스위치를 이용하여 3D 이미징 모드를 선택하면, 프로세서(19)는 모듈들(22, 24) 모두를 활성화할 수 있고, 그리고 또한 픽셀 처리 유닛(46)에서 리셋(RST) 신호의 레벨의 변화를 트리거하여, 예를 들어 주변 광이 너무 강하여 선형 모드에 의해 거부되면(아래에서 더 기술되는 바와 같이), 선형 모드로부터 대수 모드로 변경할 수 있다. 픽셀 처리 유닛(46)으로부터 수신되는 처리된 이미지 데이터는 프로세서(19)에 의해 메모리(20)에 저장될 수 있다. 프로세서(19)는 또한 사용자에 의해 선택된 2D 또는 3D 이미지를 시스템(15)의 디스플레이 스크린(미도시)에 표시할 수 있다. 프로세서(19)는 소프트웨어 또는 펌웨어로 프로그램되어, 여기에 기술된 다양한 처리 작업들을 수행할 수 있다. 그 대신 또는 그에 더하여, 프로세서(19)는 프로세서(19)의 기능의 일부 또는 전부를 수행하기 위한 프로그램 가능한 하드웨어 논리 회로들을 포함할 수 있다. 일부 실시 예들에서, 메모리(20)는 프로세서(19)가 프로세서(19)의 기능들을 제공하게 하는 프로그램 코드, 검색표들, 그리고/또는 중간 연산 결과들을 저장할 수 있다.The processor 19 may control the operations of the light source module 22 and the image sensor unit 24. For example, system 15 may have a mode switch (not shown) that may be controllable by a user to switch the 2D imaging mode to the 3D imaging mode. When the user selects the 2D imaging mode by using the mode switch, the processor 19 may activate the image sensor unit 24, but the 2D imaging mode uses ambient light so that the light source module 22 may not be activated. have. On the other hand, if the user selects the 3D imaging mode using the mode switch, the processor 19 can activate both modules 22 and 24, and also the reset (RST) signal in the pixel processing unit 46. By triggering a change in level, for example, if the ambient light is so strong that it is rejected by the linear mode (as described further below), it can change from linear mode to algebraic mode. The processed image data received from pixel processing unit 46 may be stored in memory 20 by processor 19. The processor 19 may also display a 2D or 3D image selected by the user on a display screen (not shown) of the system 15. The processor 19 may be programmed with software or firmware to perform the various processing tasks described herein. Instead or in addition, the processor 19 may include programmable hardware logic circuits to perform some or all of the functionality of the processor 19. In some embodiments, memory 20 may store program code, lookup tables, and / or intermediate computational results that cause processor 19 to provide the functions of processor 19.

도 3은 여기에 기재된 주제에 따라 3D 깊이 측정들이 어떻게 수행될 수 있는지의 예시적인 실시 예의 순서 도(50)를 보여준다. 도 3에 도시된 다양한 동작들은 시스템(15) 내의 단일 모듈 또는 모듈들 또는 시스템 구성 요소들의 조합에 의해 수행될 수 있다. 특정한 작업들은 예시적으로만 특정한 모듈들 또는 시스템 구성 요소들에 의해 수행되는 것으로 기술된다. 다른 모듈들 또는 시스템 구성 요소들이 이러한 작업들을 수행하도록 적절히 구성될 수 있다.3 shows a flowchart 50 of an exemplary embodiment of how 3D depth measurements may be performed in accordance with the subject matter described herein. The various operations shown in FIG. 3 may be performed by a single module or a combination of modules or system components in system 15. Certain tasks are described as being performed by specific modules or system components only by way of example. Other modules or system components may be appropriately configured to perform these tasks.

도 3에서, 52 동작에서, 시스템(15)(더 상세하게는, 프로세서(19))은 광원 모듈(22)과 같은 광원을 이용하여 스캔 라인을 따라, 도 2의 대상(26)과 같은 3D 대상의 1차원(1D) 포인트 스캔을 수행할 수 있다. 포인트 스캔의 일부로서, 광원 모듈(22)은, 예를 들어 프로세서(19)에 의해, 선 단위 방법으로 3D 대상(26)의 표면에 일련의 광 점들을 투영하도록 구성될 수 있다. 54 동작에서, 시스템(15)의 픽셀 처리 유닛(46)은 2D 픽셀 어레이(42)와 같은 이미지 센서에서 픽셀들의 행을 선택할 수 있다. 이미지 센서(42)는 이미지 평면을 형성하는 2D 어레이 내에 배열된 복수의 픽셀들을 포함할 수 있고, 픽셀들의 선택된 행은 이미지 평면 상의 스캐닝 라인(52 동작에서)의 등극선(epipolar line)을 형성한다. 등극선 기하의 간략한 설명이 도 4를 참조하여 제공된다. 56 동작에서, 픽셀 처리 유닛(46)은 픽셀들의 행에서 대응하는 픽셀을 이용하여 각 광 점을 검출하도록 프로세서(19)에 의해 협조적으로 구성될 수 있다. 조명 광 점으로부터 반사된 광은, 조명 점으로부터 반사된 광이 수집 장치(44)에 의해 둘 또는 그보다 많은 인접한 픽셀들에 집중되는 것과 같이, 단일 픽셀 또는 하나보다 많은 픽셀들에 의해 검출될 수 있음에 유의하여야 한다. 둘 또는 그보다 많은 광 점들로부터 반사된 광 또한 2D 픽셀 어레이(42) 내의 단일 픽셀에서 수집될 수 있다. 타임스탬프 기반 방법은 두 개의 서로 다른 지점들이 동일 픽셀에 의해 이미지화되는 것 또는 단일 지점이 서로 다른 두 개의 픽셀들에 의해 이미지화되는 것으로부터 기인하는 깊이 계산과 연관된 모호성을 제거하는 데에 사용될 수 있다. 58 동작에서, 픽셀 처리 유닛(46)(프로세서(19)에 의해 적절히 구성됨에 따라)은 일련의 광 점들(동작(52)의 포인트 스캔의)의 대응하는 광 점의 픽셀-특정 검출(56 동작에서)에 응답하여, 픽셀-특정 출력을 생성할 수 있다. 결과적으로, 60 동작에서, 픽셀 처리 유닛(46)은 적어도 픽셀-특정 출력(58 동작에서) 및 대응하는 광 점(52 동작에서)을 투영하기 위해 광원에 의해 사용된 스캔 각에 기반하여, 3D 대상의 표면의 대응하는 광 점에 대한 3D 거리(또는 깊이)를 판단할 수 있다. 깊이 특정은 도 4를 참조하여 더 상세히 설명된다.In FIG. 3, in operation 52, the system 15 (more specifically, the processor 19) uses a light source, such as the light source module 22, along a scan line to display a 3D, such as object 26 of FIG. 2. One-dimensional (1D) point scan of the object may be performed. As part of the point scan, the light source module 22 may be configured to project a series of light points on the surface of the 3D object 26 in a line-by-line manner, for example by the processor 19. In operation 54, pixel processing unit 46 of system 15 may select a row of pixels in an image sensor, such as 2D pixel array 42. Image sensor 42 may include a plurality of pixels arranged in a 2D array forming an image plane, wherein the selected row of pixels forms an epipolar line of the scanning line (in operation 52) on the image plane. . A brief description of the isopolar geometry is provided with reference to FIG. 4. In operation 56, pixel processing unit 46 may be cooperatively configured by processor 19 to detect each light point using a corresponding pixel in a row of pixels. Light reflected from the illumination light point may be detected by a single pixel or more than one pixel, such that light reflected from the illumination point is concentrated by two or more adjacent pixels by the collecting device 44. It should be noted that Light reflected from two or more light points may also be collected at a single pixel in the 2D pixel array 42. The timestamp based method may be used to remove ambiguity associated with depth calculations resulting from two different points being imaged by the same pixel or a single point being imaged by two different pixels. In operation 58, pixel processing unit 46 (as properly configured by processor 19) performs pixel-specific detection of the corresponding light point of the series of light points (of the point scan of operation 52). Responsive to), it may generate pixel-specific output. As a result, in operation 60, the pixel processing unit 46 is based on the scan angle used by the light source to project at least the pixel-specific output (in operation 58) and the corresponding light point (in operation 52), 3D. The 3D distance (or depth) for the corresponding light point on the surface of the object can be determined. Depth specification is described in more detail with reference to FIG. 4.

도 4는 여기에 기재된 주제에 따른 3D 깊이 측정들을 위해 예시적인 포인트 스캔이 어떻게 수행되는지를 보여준다. 도 4에서, 레이저 소스(33)의 X-Y 회전 능력이 X-방향(각도 β를 갖는) 및 Y-방향(각도 α를 갖는)에서 레이저의 각 이동을 보여주는 화살표들(62, 64)에 의해 표시된다. 일 실시 예에서, 레이저 제어기(34)는 프로세서(19)로부터 수신되는 스캔 명령들/입력에 기반하여 레이저 소스(33)의 X-Y 회전을 제어할 수 있다. 예를 들어, 사용자가 3D 이미징 모드를 선택하면, 프로세서(19)는 레이저 제어기(34)가 투영 장치(35)와 마주하는 대상 표면의 3D 깊이 측정을 개시하도록 구성 및 제어할 수 있다. 이에 응답하여, 레이저 제어기(34)는 레이저 광원(33)의 X-Y 이동을 통해, 대상 표면의 1D X-Y 포인트 스캔을 개시할 수 있다. 도 4에 도시된 바와 같이, 레이저(33)는 1D 스캐닝 라인들을 따라 광 점들을 투영함으로써 대상(26)의 표면을 포인트 스캔할 수 있으며, 두 개의 스캐닝 라인들(SR(66) 및 SR+ 1(68))이 도 4에 점선으로 표시된다. 대상(26)의 표면의 굽음으로 인해, 광 점들(70~73)은 도 4에서 스캔 라인 SR(66)을 형성한다. 스캔 라인 SR+1(68)을 형성하는 광 점들은 참조 번호들로 표시되지 않는다. 레이저(33)는, 예를 들어, 행들(R, R+1)을 따라 좌측으로부터 우측 방향으로 한 번에 하나의 지점씩 대상(26)을 스캔할 수 있다. 행들(R, R+1)의 값들은 2D 픽셀 어레이(42)의 픽셀들의 행들을 참조하며, 알려져 있다. 예를 들어, 도 4의 2D 픽셀 어레이(42)에서, 픽셀 행(R)은 참조 번호 '75'를 이용하여 표시되고, 행(R+1)은 참조 번호 '76'을 이용하여 표시된다. 행들(R, R+1)은 설명의 목적만을 위하여 픽셀들의 복수의 행들로부터 선택됨이 이해될 것이다.4 shows how an example point scan is performed for 3D depth measurements according to the subject matter described herein. In FIG. 4, the XY rotational capability of the laser source 33 is indicated by arrows 62, 64 showing the angular movement of the laser in the X-direction (with angle β) and Y-direction (with angle α). do. In one embodiment, the laser controller 34 may control the XY rotation of the laser source 33 based on scan commands / inputs received from the processor 19. For example, if the user selects a 3D imaging mode, the processor 19 may configure and control the laser controller 34 to initiate a 3D depth measurement of the object surface facing the projection device 35. In response, the laser controller 34 may initiate a 1D XY point scan of the object surface via the XY movement of the laser light source 33. As shown in FIG. 4, the laser 33 can point scan the surface of the object 26 by projecting light points along the 1D scanning lines, with two scanning lines S R 66 and S R +. 1 (68) is indicated by dashed lines in FIG. Due to the bending of the surface of the object 26, the light points 70-73 form a scan line S R 66 in FIG. 4. Light points forming scan line S R + 1 68 are not indicated by reference numbers. The laser 33 can scan the object 26 one point at a time, for example, from left to right along the rows R, R + 1. The values of rows R, R + 1 refer to the rows of pixels of 2D pixel array 42 and are known. For example, in the 2D pixel array 42 of FIG. 4, the pixel row R is indicated using the reference numeral '75' and the row R + 1 is indicated using the reference numeral '76'. It will be appreciated that the rows R, R + 1 are selected from a plurality of rows of pixels for illustrative purposes only.

2D 픽셀 어레이(42)의 픽셀들의 행들을 포함하는 평면은 이미지 평면이라 불릴 수 있으며, 라인들(SR, SR+1)과 같은 스캔 라인들을 포함하는 평면은 스캔 평면이라 불릴 수 있다. 도 4에 도시된 실시 예에서, 이미지 평면 및 스캔 평면은 2D 픽셀 어레이(42)에서 픽셀들의 각 행들(R, R+1)이 대응하는 스캔 라인(SR, SR+1)의 등극선을 형성하도록 등극선 기하를 이용하여 지향된다. 이미지 평면 상의 조명 지점의 투영(스캔 라인에서)이 행(R)자체인 라인을 따라 별개의 지점을 형성할 수 있으면, 픽셀들의 행(R)은 대응하는 스캔 라인에 대한 등극선으로 여겨질 수 있다. 예를 들어, 도 4에서, 화살표(78)는 레이저(33)에 의한 광 점(71)의 조명을 가리키고, 화살표(80)는 광 점(71)이 집중 렌즈(44)에 의해 행(R)을 따라 이미지화 또는 투영되는 것을 보여준다. 도 4에 도시되지 않았지만, 광 점들(70~73) 모두는 행(R)의 대응하는 픽셀들에서 이미지화 될 것이다. 따라서, 일 실시 예에서, 위치 및 방향과 같은 레이저(33) 및 픽셀 어레이(42)의 물리적 배열은, 대상(26)의 표면의 스캔 라인의 조명된 광 점들이 픽셀 어레이(42)의 대응하는 행의 픽셀들에 의해 캡처 또는 검출될 수 있도록 되며, 픽셀들의 해당 행은 스캔 라인의 등극선을 형성한다.The plane containing the rows of pixels of the 2D pixel array 42 may be called an image plane, and the plane containing scan lines, such as lines S R and S R + 1 , may be called a scan plane. In the embodiment shown in FIG. 4, the image plane and the scan plane are the isolines of the scan line S R , S R + 1 to which each row R, R + 1 of the pixels in the 2D pixel array 42 corresponds. Oriented using isopolar geometry to form If the projection of the illumination point on the image plane (in the scan line) can form a separate point along the line that is the row R itself, then the row R of pixels can be considered as an isopolar line for the corresponding scan line. have. For example, in FIG. 4, the arrow 78 indicates the illumination of the light spot 71 by the laser 33, and the arrow 80 indicates that the light spot 71 is in a row R by the focusing lens 44. To be imaged or projected. Although not shown in FIG. 4, all of the light points 70-73 will be imaged at the corresponding pixels in row R. FIG. Thus, in one embodiment, the physical arrangement of laser 33 and pixel array 42, such as position and direction, is such that the illuminated light points of the scan line of the surface of object 26 correspond to that of pixel array 42. It can be captured or detected by the pixels in a row, the corresponding row of pixels forming the isolines of the scan line.

2D 픽셀 어레이(42)의 픽셀들은 행들 및 열들로 배열될 수 있다. 조명된 광 점은 픽셀 어레이(42)의 대응하는 행 및 열에 의해 참조될 수 있다. 예를 들어, 도 4에서, 스캔 라인(SR)의 광 점(71)은 XR,i로 지정되어, 지점(71)이 픽셀 어레이(42)의 행(R) 및 열 i(Ci)에 의해 이미지화 될 수 있음을 가리킨다. 열(Ci)은 점선(82)으로 표시된다. 다른 조명된 지점들은 유사하게 식별될 수 있다. 앞서 언급된 바와 같이, 둘 또는 그보다 많은 광 점들로부터 반사된 광은 행 내의 단일 픽셀에 의해 수신될 수 있고, 또는, 단일 광 점으로부터 반사된 광은 픽셀들의 행 내의 하나 또는 그보다 많은 픽셀들에 의해 수신될 수 있다. 타임스탬프 기반 방법은 이러한 다중 또는 중복 투영들로부터 발생하는 깊이 계산들의 모호성을 제거하는 데에 사용될 수 있다.The pixels of the 2D pixel array 42 may be arranged in rows and columns. Illuminated light points can be referenced by corresponding rows and columns of pixel array 42. For example, in FIG. 4, the light point 71 of the scan line S R is designated as X R, i such that the point 71 has a row R and a column i (C i ) of the pixel array 42. Can be imaged by Column C i is indicated by dashed line 82. Other illuminated points can be similarly identified. As mentioned above, light reflected from two or more light points may be received by a single pixel in a row, or light reflected from a single light point may be received by one or more pixels in a row of pixels. Can be received. Timestamp based methods can be used to remove ambiguity in depth calculations resulting from such multiple or overlapping projections.

도 4에서, 참조 번호 '84'를 갖는 화살표는 시스템(15)의 전면을 따라, 도 2에 도시된 X-축과 같은 X-축으로부터 광 점(71)의 깊이 또는 거리(Z)(Z-축을 따른)를 나타낸다. 도 4에서, 참조 번호 '86'을 갖는 점선은 투영 장치(35) 및 수집 장치(44) 또한 포함하는 수직 평면에 포함되는 것으로 시각화될 수 있는 축을 나타낸다. 그러나 삼각측량 기반의 설명의 용이성을 위해, 도 4에서 레이저 소스(33)는 투영 장치(35) 대신 X-축(86)에 있는 것으로 도시된다. 삼각측량 기반 방법에서, Z의 값은 다음의 수학식 1을 이용하여 결정될 수 있다.In FIG. 4, an arrow with reference numeral '84' indicates the depth or distance Z of the light point 71 from the X-axis, such as the X-axis shown in FIG. 2, along the front of the system 15. Along the axis). In FIG. 4, the dotted line with the reference numeral '86' represents an axis that can be visualized as being included in a vertical plane that also includes the projection device 35 and the collection device 44. However, for ease of triangulation based description, in FIG. 4 the laser source 33 is shown as being on the X-axis 86 instead of the projection device 35. In a triangulation based method, the value of Z can be determined using Equation 1 below.

Figure pat00001
Figure pat00001

수학식 1에서, 'h'는 수집 장치(44) 및 이미지 센서(42) 사이의 Z-축을 따른 거리이고, 수집 장치(44) 뒤의 수직 평면에 있는 것으로 간주된다. 'd'는 이미지 센서 유닛(24)과 연관된 광원(33) 및 수집 장치(44) 사이의 오프셋 거리이다. 'q'는 수집 장치(44) 및 대응하는 광 점을 검출한 픽셀(도 4의 예에서, 검출/이미징 픽셀(i)은 광 점(XR,i)(71)과 연관된 열(Ci)로 표시됨) 사이의 오프셋 거리를 나타낸다. 'θ는 고려중인 광 점(도 4의 예에서, 광 점(71))에 대한 광원의 스캔 각 또는 빔 각이다. 또는, 'q'는 또한 픽셀 어레이(42)의 시야 내의 광 점의 오프셋으로 여겨질 수 있다. 수학식 1의 파라미터들은 또한 도 4에 표시된다.In Equation 1, 'h' is the distance along the Z-axis between the collecting device 44 and the image sensor 42 and is considered to be in the vertical plane behind the collecting device 44. 'd' is the offset distance between the light source 33 and the collecting device 44 associated with the image sensor unit 24. 'q' is the pixel that detected the collecting device 44 and the corresponding light point (in the example of FIG. 4, the detection / imaging pixel i is a column C i associated with the light point X R, i 71). (Indicated by)). 'θ is the scan angle or beam angle of the light source with respect to the light point under consideration (in the example of FIG. 4, light point 71). Alternatively, 'q' may also be considered as the offset of the light point within the field of view of pixel array 42. The parameters of equation 1 are also represented in FIG. 4.

수학식 1로부터, 파라미터들(θq)만이 주어진 포인트 스캔에 대한 변수이고, h 및 d는 시스템(15)의 물리적 기하정보에 기반하여 원칙적으로 미리 정해지거나 고정됨이 보여진다. 행(R)(75)이 스캔 라인(SR)의 등극선 이므로, 대상(26)의 깊이 차이 또는 깊이 프로파일은 이미지화 되는 서로 다른 광 점들에 대해 q의 값들로 표시되는 바와 같이 수평 방향으로 이미지 이동에 반영될 수 있다. 타임스탬프 기반 방법은 캡처된 광 점의 픽셀 위치 및 레이저 소스(33)의 대응하는 스캔 각 사이의 대응성을 찾는 데에 사용될 수 있다. 즉, 타임스탬프는 q 및 θ값들 사이의 관계를 나타낼 수 있다. 따라서, 스캔 각(θ의 알려진 값 및 이미지화 된 광 점(q로 나타내는 바와 같이)의 대응하는 위치로부터, 광 점으로의 거리(Z)가 수학식 1의 삼각측량을 이용하여 결정될 수 있다. 거리 측정들을 위한 삼각 측량은 또한, 예를 들어, 브라운 등(Brown et al.)에 의해 출원된 미국특허출원공개공보 제2011/0102763A1호를 포함하는 관련 문헌들에 기술된다. 따라서, 삼각측량 기반 거리 측정과 연관된 브라운의 공개문서의 기재는 전체적으로 여기에 참조로 포함된다.From Equation 1 it is shown that only parameters θq are variables for a given point scan, and h and d are in principle predetermined or fixed based on the physical geometry of the system 15. Since row R 75 is an isoline of scan line S R , the depth difference or depth profile of object 26 is imaged in the horizontal direction as indicated by the values of q for the different light points being imaged. Can be reflected in the movement. The timestamp based method can be used to find correspondence between the pixel position of the captured light point and the corresponding scan angle of the laser source 33. That is, the time stamp may indicate a relationship between q and θ values. Thus, from the known value of the scan angle (θ) and the corresponding position of the imaged light point (as indicated by q), the distance Z to the light point can be determined using triangulation in equation (1). Triangulation for measurements is also described in related documents, including, for example, US Patent Application Publication No. 2011 / 0102763A1, filed by Brown et al. The disclosure of Brown's publications relating to the measurements is hereby incorporated by reference in its entirety.

도 5는 여기에 기재된 주제에 따른 도 2의 픽셀 어레이(42)의 픽셀(43)과 같은 픽셀의 예시적인 실시 예의 블록 도를 보여준다. TOF 측정들을 위해, 픽셀(43)은 시간-분해 센서로 동작할 수 있다. 도 5에 도시된 바와 같이, 픽셀(43)은 PPD 코어 부분(502)에 전기적으로 연결된 SPAD 코어 부분(501)을 포함할 수 있다. 여기에 기재된 바와 같이, 픽셀 내의 SPAD 및 PPD 코어 배열들의 다른 예시적인 구성들이 도 6a 내지 도 6c에 도시된다. SPAD 코어 부분(501)은 제1 제어 회로(504)와 동작 가능하게 연결되는 둘 또는 그보다 많은 SPAD들(503)을 포함할 수 있다. 하나 또는 그보다 많은 SPAD들(503)은 입사 광(505)을 수신하고, 그리고 대응하는 SPAD-특정 전기 신호를 생성하며, 해당 전기 신호는 제1 제어 회로(504)에 의해 처리되어 SPAD-특정 디지털 출력을 생성할 수 있다. 이러한 SPAD-특정 디지털 출력들 모두는 도 5에서 화살표(506)로 통합적으로 그리고 기호적으로 표시된다. PPD 코어(502)는 PPD(508)과 결합되는 제2 제어 회로(507)를 포함할 수 있다. 제2 제어 회로(507)는 SPAD 출력들(506)을 수신하고, 그리고 이에 응답하여 PPD(508)로부터의 전하 전송을 제어하여, 픽셀-특정 아날로그 출력(PIXOUT)(510)을 생성할 수 있다. 더 구체적으로, 아래에서 더 상세히 논의되는 바와 같이, 픽셀(43) 내의 둘 또는 그보다 많은 인접한 SPAD들(503)이 입사 광(505)에서 미리 정해진 시간 간격 내에서 (반사된)광자들을 검출한 때에만, PPD(508)로부터의 전하 전송이 제2 제어 회로(507)에 의해 중지되어 TOF 값 및 3D 대상(26)에 대한 대응하는 거리를 기록하게 한다. 다시 말하면, 적어도 두 개의 인접한 SPAD들(503)의 출력들 사이의 공간적-시간적 상관이 PPD(508)의 동작을 제어하는 데에 사용된다. 픽셀(43)에 대해, 광 감지 기능은 SPAD들(503)에 의해 수행되고, PPD(508)는 광 감지 요소 대신 TCC로 사용된다. 반사된 광자들(반환된 광 펄스(37)의)은 전송된 펄스(28)와 상관되고(상관되지 않은 주변 광자들과 비교하여), PPD(508)로부터의 전하의 전송의 제어가 미리 정해진 시간 간격 내에서 둘 또는 그보다 많은 인접한 SPAD들의 트리거에 기반하며, 주변 광자들을 거부함으로써 강한 주변 광 조건들에서 이미지 센서 유닛(24)의 개선된 성능을 제공하며, 따라서 실질적으로 거리 측정 에러들을 방지한다.5 shows a block diagram of an exemplary embodiment of a pixel, such as pixel 43 of pixel array 42 of FIG. 2 in accordance with the subject matter described herein. For TOF measurements, pixel 43 can act as a time-resolved sensor. As shown in FIG. 5, the pixel 43 may include a SPAD core portion 501 electrically connected to the PPD core portion 502. As described herein, other exemplary configurations of SPAD and PPD core arrangements in a pixel are shown in FIGS. 6A-6C. The SPAD core portion 501 may include two or more SPADs 503 operatively connected with the first control circuit 504. One or more SPADs 503 receive the incident light 505 and generate a corresponding SPAD-specific electrical signal, which is processed by the first control circuit 504 to be SPAD-specific digital. You can generate output. All of these SPAD-specific digital outputs are represented integrally and symbolically by arrow 506 in FIG. 5. The PPD core 502 may include a second control circuit 507 coupled with the PPD 508. The second control circuit 507 can receive the SPAD outputs 506 and in response to control the charge transfer from the PPD 508 to produce a pixel-specific analog output (PIXOUT) 510. . More specifically, as discussed in greater detail below, when two or more adjacent SPADs 503 in pixel 43 detect (reflected) photons within a predetermined time interval in incident light 505 However, charge transfer from the PPD 508 is stopped by the second control circuit 507 to record the TOF value and the corresponding distance to the 3D object 26. In other words, the spatial-temporal correlation between the outputs of at least two adjacent SPADs 503 is used to control the operation of the PPD 508. For pixel 43, the light sensing function is performed by SPADs 503, and PPD 508 is used as a TCC instead of a light sensing element. Reflected photons (of returned light pulses 37) are correlated with the transmitted pulse 28 (compared to unrelated ambient photons), and control of the transfer of charge from the PPD 508 is predetermined. Based on the trigger of two or more adjacent SPADs within a time interval, rejecting ambient photons provides improved performance of the image sensor unit 24 in strong ambient light conditions, thus substantially preventing distance measurement errors. .

도 6a 내지 도 6c는 여기에 기재된 주제에 따른 픽셀 어레이 구조들의 세 개의 서로 다른 예들을 각각 보여준다. 도 6a 내지 도 6c에 도시된 픽셀 어레이 구조들 중 임의의 것이 도 2의 픽셀 어레이(42)를 구현하는 데에 사용될 수 있다. 도 6a에서, 예시적인 2x2 픽셀 어레이 구조(600A)가 도시되며, 2x2 픽셀 어레이 구조(600A)에서 각 픽셀(601~604)(일부 실시 예들에서 도 5의 픽셀(43)을 나타낼 수 있는)은 하나의 픽셀-특정 PPD 코어 및 네 개의 픽셀-특정 SPAD 코어들을 포함한다. 단순화를 위해, PPD 및 SPAD 코어들은 픽셀(601)에 대해서만 식별되며, PPD 코어는 참조 번호 '605'로 표시되고, SPAD 코어들은 참조 번호들'606~609'로 표시된다.6A-6C each show three different examples of pixel array structures in accordance with the subject matter described herein. Any of the pixel array structures shown in FIGS. 6A-6C can be used to implement the pixel array 42 of FIG. 2. In FIG. 6A, an exemplary 2x2 pixel array structure 600A is shown, wherein each pixel 601-604 (which may represent pixel 43 of FIG. 5 in some embodiments) is shown in 2x2 pixel array structure 600A. It includes one pixel-specific PPD core and four pixel-specific SPAD cores. For simplicity, PPD and SPAD cores are identified only for pixel 601, PPD cores are indicated by reference numeral '605', and SPAD cores are indicated by reference numerals '606-609'.

도 6a에 도시된 구조(600A)는 주어진 사이즈의 반도체 다이의 각 픽셀에 의해 점유되는 물리적 공간으로 인해, 저(공간적) 해상도 구조로 여겨질 수 있다. 결과적으로, 더 높은 해상도의 3x3 픽셀 어레이 구조를 제공하는 도 6b의 예시적인 구조(600B)와 비교하여, 상대적으로 적은 수의 픽셀들이 다이의 픽셀 어레이에 형성될 수 있다. 도 6b의 더 높은 해상도 구조(600B)에서, 하나의 SPAD 코어는 네 개(2x2)의 인접한 PPD 코어들에 의해 공유된다. 예를 들어, 도 6b에서, SPAD 코어(625)는 인접한 픽셀들(621~624)(일부 실시 예들에서, 이들 각각은 도 5의 픽셀(43)을 나타낼 수 있음)의 PPD 코어들에 의해 공유되는 것으로 도시된다. 단순화를 위해, 도 6b의 픽셀 어레이 구조(600B)의 다른 구성 요소들은 참조 번호들로 식별되지 않는다. 하나의 SPAD가 네 개의 인접한 픽셀들 사이에 공유되는 도 6b의 픽셀 어레이 구조(600B)의 구성은 픽셀 내의 PPD 및 픽셀과 연관된 SPAD들 사이에 1:1의 효율적인 비율을 제공한다.The structure 600A shown in FIG. 6A may be considered a low (spatial) resolution structure due to the physical space occupied by each pixel of a semiconductor die of a given size. As a result, a relatively small number of pixels can be formed in the pixel array of the die, compared to the example structure 600B of FIG. 6B which provides a higher resolution 3x3 pixel array structure. In the higher resolution structure 600B of FIG. 6B, one SPAD core is shared by four (2 × 2) adjacent PPD cores. For example, in FIG. 6B, the SPAD core 625 is shared by PPD cores of adjacent pixels 621-624 (in some embodiments, each of which may represent pixel 43 of FIG. 5). It is shown to be. For simplicity, other components of the pixel array structure 600B of FIG. 6B are not identified by reference numerals. The configuration of pixel array structure 600B of FIG. 6B in which one SPAD is shared between four adjacent pixels provides an efficient ratio of 1: 1 between the PPDs in the pixel and the SPADs associated with the pixel.

이러한 공유는 도 6c에서 픽셀 어레이 구조(600C)에 의해 도시되는 바와 같이 3x3 공유 또는 그보다 많게 확장될 수 있다. 각 SPAD가 다이의 이웃하는 픽셀들에서 공유되면 픽셀 어레이에 더 많은 픽셀들이 형성될 수 있으므로, 도 6b에 도시된 SPAD 공유 구성은 픽셀 어레이에 대한 높은(공간적) 해상도 구조를 제공하며, 따라서 다이의 더 많은 공간이 더 많은 픽셀들을 수용하게 할 수 있다. 또한, 도 6b의 픽셀 어레이 구조(600B)의 픽셀이 2x2 구성에서 네 개의 SPAD 코어들과 연관된 단일 PPD 코어를 가지므로, 네 개까지의 일치하는 광자들이 각 픽셀에 의해 검출(즉, SPAD 당 하나의 광자)될 수 있다.This sharing can be extended to 3x3 shares or more, as shown by pixel array structure 600C in FIG. 6C. As each SPAD is shared by neighboring pixels of the die, more pixels can be formed in the pixel array, so the SPAD sharing configuration shown in FIG. 6B provides a high (spatial) resolution structure for the pixel array, thus More space can be made to accommodate more pixels. In addition, since the pixels of the pixel array structure 600B of FIG. 6B have a single PPD core associated with four SPAD cores in a 2 × 2 configuration, up to four matching photons are detected by each pixel (ie, one per SPAD). Photons).

도 6a 및 도 6b는 단일 다이에서 PPD들 및 SPAD들이 실현될 수 있는 예시적인 픽셀 어레이 구조들을 보여준다. 즉, SPAD들 및 PPD들은 다이 내의 동일 레벨에 있을 수 있다. 반대로, 도 6c는 픽셀들이 적층된 다이들에 실현될 수 있는 예시적인 4x4 픽셀 어레이 구조(600c)를 보여준다. 예를 들어, SPAD 코어들은 상위 다이에 실현될 수 있고, PPD 코어들(및 독출 회로들)은 하부 다이에 실현될 수 있다. 따라서, PPD들 및 SPAD들은 적층될 수 있는 서로 다른 두 개의 다이들에 있을 수 있고 그리고 이 다이들의 회로 요소들(PPD들, SPAD들, 트랜지스터들 등)은 배선들 또는 금속 범프들에 의해 전기적으로 연결될 수 있다. 도 6b의 구조(600B)와 같이, 도 6c의 픽셀 어레이 구조(600C)는 또한 단일 SPAD 코어가 아홉 개(3x3)의 인접한 PPD 코어들에 의해 공유되는 고해상도 구조를 제공할 수 있다. 마찬가지로, 도 6c에 도시된 바와 같이, PPD 코어(641)와 같은 단일 PPD 코어는 SPAD 코어들(642~650)과 같은 아홉 개의 SPAD 코어들과 연관되어 단일 픽셀을 형성할 수 있다. SPAD 코어들(642~650)은 또한 다른 픽셀들에 의해 공유될 수 있다. 단순화를 위해, 다른 픽셀들, 그들의 PPD 코어들, 그리고 연관된 SPAD 코어들은 도 6c에서 참조 번호들로 식별되지 않는다. 추가적으로, 도 6c의 픽셀 어레이 구조(600C)의 픽셀이 3x3 구성의 아홉 개의 SPAD 코어들과 연관된 단일 PPD 코어를 가지므로, 아홉 개까지의 일치하는 광자들이 각 픽셀에 의해 검출(즉, SPAD 당 하나의 광자)될 수 있다.6A and 6B show exemplary pixel array structures in which PPDs and SPADs can be realized in a single die. That is, the SPADs and PPDs may be at the same level in the die. In contrast, FIG. 6C shows an exemplary 4x4 pixel array structure 600c that may be realized in dies in which pixels are stacked. For example, SPAD cores can be realized on the upper die, and PPD cores (and read circuits) can be realized on the lower die. Thus, the PPDs and SPADs can be in two different dies that can be stacked and the circuit elements of these dies (PPDs, SPADs, transistors, etc.) are electrically connected by wires or metal bumps. Can be connected. Like the structure 600B of FIG. 6B, the pixel array structure 600C of FIG. 6C may also provide a high resolution structure in which a single SPAD core is shared by nine (3 × 3) adjacent PPD cores. Likewise, as shown in FIG. 6C, a single PPD core, such as PPD core 641, may be associated with nine SPAD cores, such as SPAD cores 642-650, to form a single pixel. SPAD cores 642-650 can also be shared by other pixels. For simplicity, other pixels, their PPD cores, and associated SPAD cores are not identified by reference numerals in FIG. 6C. Additionally, since the pixels of the pixel array structure 600C of FIG. 6C have a single PPD core associated with nine SPAD cores in a 3x3 configuration, up to nine matching photons are detected by each pixel (ie, one per SPAD). Photons).

도 7은 여기에 기재된 주제에 따른 픽셀(700)의 예시적인 실시 예의 회로 상세들을 보여준다. 도 7에 도시된 픽셀(700)은 도 2 및 도 5에 도시된 더 포괄적인 픽셀(43)의 예일 수 있다. 전자 셔터 신호(701)가 각 픽셀에 제공(도 8, 도 9 및 도 14의 타이밍 도들을 참조하여 다음에 더 상세히 논의되는 바와 같이)되어, 픽셀(700)이 반환된 광 펄스(37)에 의해 유발된 픽셀-특정 광전자들을 시간-연관 방법으로 캡처하게 한다. 더 일반적으로, 픽셀(700)은 전하 전송 트리거 부분, 전하 생성 및 전송 부분, 그리고 전하 수집 및 출력 부분을 갖는 것으로 여겨질 수 있다. 전하 전송 트리거 부분은 SPAD 코어들(501) 및 논리 유닛(702)을 포함할 수 있다. 전하 생성 및 전송 부분은 PPD(508), 제1 NMOSFET(N-channel Metal Oxide Semiconductor Field Effect Transistor) 또는 NMOS 트랜지스터(703), 제2 NMOS 트랜지스터(704), 그리고 제3 NMOS 트랜지스터(705)를 포함할 수 있다. 전하 수집 및 출력 부분은 제3 NMOS 트랜지스터(705), 제4 NMOS 트랜지스터(706), 그리고 제5 NMOS 트랜지스터(707)를 포함할 수 있다. 일부 실시 예들에서, 도 7의 픽셀(700)의 PPD 코어 및 도 13의 픽셀(900)의 PPD 코어는 PMOSFET(P-channel Metal Oxide Semiconductor Field Effect Transistors) 또는 PMOS 트랜지스터, 또는 다른 타입의 트랜지스터들 또는 전하 전송 장치로 형성될 수 있다. 또한, 여기에 기술된 픽셀(700)의 각 부분들은 설명 및 논의의 목적만을 위한 것이다. 일부 실시 예들에서, 부분들은 여기에 기술된 것들보다 더 많거나, 더 적거나, 그리고/또는 다른 회로 요소들을 포함할 수 있다.7 shows circuit details of an example embodiment of a pixel 700 according to the subject matter described herein. The pixel 700 shown in FIG. 7 may be an example of the more comprehensive pixel 43 shown in FIGS. 2 and 5. An electronic shutter signal 701 is provided to each pixel (as discussed in more detail below with reference to the timing diagrams of FIGS. 8, 9 and 14), so that pixel 700 is returned to the returned light pulse 37. Enable pixel-specific photoelectrons to be captured in a time-related manner. More generally, pixel 700 may be considered to have a charge transfer trigger portion, a charge generation and transfer portion, and a charge collection and output portion. The charge transfer trigger portion may include SPAD cores 501 and a logic unit 702. The charge generation and transfer portion includes a PPD 508, a first N-channel metal oxide semiconductor field effect transistor (NMOSFET) or an NMOS transistor 703, a second NMOS transistor 704, and a third NMOS transistor 705. can do. The charge collection and output portion may include a third NMOS transistor 705, a fourth NMOS transistor 706, and a fifth NMOS transistor 707. In some embodiments, the PPD core of pixel 700 of FIG. 7 and the PPD core of pixel 900 of FIG. 13 may be P-channel metal oxide semiconductor field effect transistors (PMOSFETs) or PMOS transistors, or other types of transistors, or It can be formed as a charge transfer device. In addition, each portion of pixel 700 described herein is for purposes of illustration and discussion only. In some embodiments, portions can include more, fewer, and / or other circuit elements than those described herein.

PPD(508)는 커패시터와 유사하게 전하를 저장할 수 있다. 일 실시 예에서, PPD(508)는 덮이고, 따라서 광에 응답하지 않을 수 있다. 따라서, PPD(508)는 광 감지 요소 대신 TCC로 사용될 수 있다. 그러나 앞서 언급된 바와 같이, 광 감지 기능은 SPAD 코어들(501) 내의 SPAD들에 의해 달성될 수 있다. 일부 실시 예들에서, 포토게이트 또는 다른 반도체 장치(적절한 수정들을 갖는)가 도 7 및 도 13의 픽셀 구성들의 PPD 대신에 사용될 수 있다.PPD 508 may store charge similar to a capacitor. In one embodiment, the PPD 508 is covered and thus may not respond to light. Thus, PPD 508 can be used as a TCC instead of a light sensing element. However, as mentioned above, the light sensing function may be accomplished by the SPADs in the SPAD cores 501. In some embodiments, a photogate or other semiconductor device (with appropriate modifications) may be used instead of the PPD of the pixel configurations of FIGS. 7 and 13.

전하 전송 트리거 부분은 전자 셔터 신호(701)의 제어 하에 전송 활성(TXEN) 신호(708)를 생성하여, PPD(508)에 저장된 전하의 전송을 트리거 할 수 있다. SPAD는 도 2의 대상(26)과 같은 대상으로부터 반사되어 전송된 광 펄스의 광자를 검출(이하에서, '광자 검출 사건'이라 불림)하고, 그리고 펄스 신호를 출력하며, 펄스 신호는 논리 유닛(702)에 의한 후속 처리를 위해 셔터 신호(701)의 동작 제어 하에 래치될 수 있다. 논리 유닛(702)은, 예를 들어 셔터 신호(701)가 활성화된 동안에 출력들(506)이 미리 정해진 시간 간격 내에 적어도 두 개의 인접한 SPAD들로부터 수신되는 때에 모든 디지털 SPAD 출력들(506)을 처리하여 TXEN 신호(708)를 생성하는 논리 회로들을 포함할 수 있다.The charge transfer trigger portion may generate a transfer active (TXEN) signal 708 under the control of the electronic shutter signal 701 to trigger the transfer of charge stored in the PPD 508. The SPAD detects photons of light pulses reflected and transmitted from an object such as the object 26 of FIG. It may be latched under the control of the operation of the shutter signal 701 for subsequent processing by 702. Logic unit 702 processes all digital SPAD outputs 506 when, for example, outputs 506 are received from at least two adjacent SPADs within a predetermined time interval while shutter signal 701 is active. Logic circuits to generate the TXEN signal 708.

전하 생성 및 전송 부분에서, PPD(508)는 초기에 제3 트랜지스터(705)와 함께 리셋 신호(RST)를 이용하여 자신의 총 용량(full well capacity)으로 설정될 수 있다. 제1 트랜지스터(703)는 제1 트랜지스터(703)의 드레인 터미널에서 전송 전압(VTX) 신호(710)를 수신하고 그리고 게이트 터미널에서 TXEN 신호(708)를 수신할 수 있다. TX 신호(711)는 제1 트랜지스터(703)의 소스 터미널에서 가용하고, 제2 트랜지스터(704)의 게이트 터미널에 인가될 수 있다. 도시된 바와 같이, 제1 트랜지스터(703)의 소스 터미널은 제2 트랜지스터(704)의 게이트 터미널에 연결될 수 있다. VTX 신호(710)(또는, 등가적으로, TX 신호(711))는 진폭 변조 신호로 사용되어, 전하가 제2 트랜지스터(704)의 소스 터미널에 연결될 수 있는 PPD(508)로부터 전송되도록 제어할 수 있다. 제2 트랜지스터(704)는 PPD(508)의 전하를 트랜지스터(704)의 소스 터미널에서 트랜지스터(704)의 드레인 터미널로 전송하며, 해당 터미널은 제4 트랜지스터(706)의 게이트 터미널에 연결될 수 있고 그리고 여기에서 플로팅 디퓨전(FD)(Floating Diffusion) 노드/정션(712)으로 지칭되는 전하 '수집장(collection site)'을 형성할 수 있다. 일부 실시 예들에서, PPD(508)로부터 전송되는 전하는 진폭 변조 신호(710)(또는, 등가적으로, TX 신호(711))에 의해 제공되는 변조에 의존할 수 있다. 도 7 및 도 13의 실시 예들에서, 전송되는 전하는 전자들이다. 그러나 여기에 기재된 주제는 본 기재로 한정되지 않으며, 전송되는 전하는 홀들일 수 다른 설계를 갖는 PPD가 사용될 수 있다.In the charge generation and transfer portion, the PPD 508 may initially be set to its full well capacity using the reset signal RST together with the third transistor 705. The first transistor 703 can receive the transfer voltage (VTX) signal 710 at the drain terminal of the first transistor 703 and the TXEN signal 708 at the gate terminal. The TX signal 711 is available at the source terminal of the first transistor 703 and can be applied to the gate terminal of the second transistor 704. As shown, the source terminal of the first transistor 703 may be connected to the gate terminal of the second transistor 704. The VTX signal 710 (or, equivalently, the TX signal 711) is used as an amplitude modulated signal to control the charge to be transferred from the PPD 508, which may be connected to the source terminal of the second transistor 704. Can be. The second transistor 704 transfers the charge of the PPD 508 from the source terminal of the transistor 704 to the drain terminal of the transistor 704, which terminal may be connected to the gate terminal of the fourth transistor 706 and A charge “collection site” referred to herein as a floating diffusion node / junction 712 may be formed. In some embodiments, the charge transmitted from PPD 508 may depend on the modulation provided by amplitude modulated signal 710 (or, equivalently, TX signal 711). In the embodiments of FIGS. 7 and 13, the transmitted charges are electrons. However, the subject matter described herein is not limited to this disclosure, and PPDs having different designs may be used as the charges to be transmitted may be holes.

전하 수집 및 출력 부분에서, 제3 트랜지스터(705)는 제3 트랜지스터(705)의 게이트 터미널에서 RST 신호(709)를 수신하고, 그리고 제3 트랜지스터(705)의 드레인 터미널에서 픽셀 전압(VPIX) 신호(713)를 수신할 수 있다. 제3 트랜지스터(705)의 소스 터미널은 플로팅 디퓨전 노드/정션(712)에 연결될 수 있다. 일 실시 예에서, VPIX 신호(713)의 전압 레벨은 총괄 전원 전압(VDD)의 전압 레벨과 같을 수 있으며, 2.5V 내지 3.0V의 범위 내일 수 있다. 제4 트랜지스터(706)의 드레인 터미널은 또한 VPIX 신호(713)를 수신할 수 있다. 일부 실시 예들에서, 제4 트랜지스터(706)는 NMOS 소스 팔로워(source follower)로 동작하며, 버퍼 증폭기로 기능할 수 있다. 제4 트랜지스터(706)의 소스 터미널은 제5 트랜지스터(707)의 드레인 터미널에 연결될 수 있으며, 해당 드레인 터미널은 소스 팔로워(706)와 캐스코드(cascade)일 수 있고, 제5 트랜지스터(707)의 게이트 터미널에서 선택(SEL) 신호(714)를 수신할 수 있다. PPD(508)로부터 전송되고 그리고 플로팅 디퓨전 노드/정션(712)에서 수집되는 전하는 제5 트랜지스터(707)의 소스 터미널에서 픽셀-특정 출력(PIXOUT) 데이터 라인으로서 나타날 수 있다.In the charge collection and output portion, the third transistor 705 receives the RST signal 709 at the gate terminal of the third transistor 705, and the pixel voltage VPIX signal at the drain terminal of the third transistor 705. 713 may be received. The source terminal of the third transistor 705 may be connected to the floating diffusion node / junction 712. In one embodiment, the voltage level of the VPIX signal 713 may be equal to the voltage level of the collective power supply voltage VDD, and may be in the range of 2.5V to 3.0V. The drain terminal of the fourth transistor 706 may also receive the VPIX signal 713. In some embodiments, the fourth transistor 706 acts as an NMOS source follower and can function as a buffer amplifier. The source terminal of the fourth transistor 706 may be connected to the drain terminal of the fifth transistor 707, and the corresponding drain terminal may be a cascode with the source follower 706 and the cas terminal of the fifth transistor 707. A select (SEL) signal 714 may be received at the gate terminal. The charge transmitted from the PPD 508 and collected at the floating diffusion node / junction 712 may appear as a pixel-specific output (PIXOUT) data line at the source terminal of the fifth transistor 707.

PPD(508)로부터 FD 노드/정션(712)으로 전송된 전하는 VTX 신호(710)(그리고 TX 신호(711))에 의해 제어된다. 플로팅 디퓨전 노드/정션(712)에 도달하는 전하의 양은 TX 신호(711)에 의해 변조된다. 일 실시 예에서, 전송 전압(VTX) 신호(710)(그리고 TX(711))는 경사지게 되어(ramped) 전하를 PPD(508)에서 플로팅 디퓨전 노드/정션(712)으로 점진적으로 전달할 수 있다. 따라서, 전송되는 전하의 양은 진폭 변조 신호(711)(TX)의 함수이고, TX 신호(711)의 경사(ramping)는 시간의 함수이다. 따라서, PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로 전송되는 전하의 양은 또한 시간의 함수이다. PPD로부터 플로팅 디퓨전 노드/정션(712)으로의 전하의 전송 중에, SPAD 코어들(501)에서 적어도 두 개의 인접한 SPAD들에 대해 광-검출 사건들이 발생함에 따른 SPAD 코어들(501)에 의한 TXEN 신호(708)의 생성으로 인해 제2 트랜지스터(704)가 턴-오프 되면, PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로의 전하의 전송은 중지한다. 결과적으로, 플로팅 디퓨전 노드/정션(712)으로 전송되는 전하의 양 및 PPD(508)에 남아 있는 전하의 양 모두는 입사되는 광자(들)의 TOF의 함수이다. 그 결과는 시간-전하 변환이고, 그리고 싱글 엔드-차동 신호 변환이다. 따라서, PPD(508)는 시간-전하 변환기(TCC)(time-to-charge converter)로 동작한다. 전하가 플로팅 디퓨전 노드/정션(712)으로 더 많이 전송될수록, 플로팅 디퓨전 노드/정션(712)의 전압이 더 많이 감소하고 그리고 PPD(508)의 전압이 더 많이 증가한다.The charge transmitted from the PPD 508 to the FD node / junction 712 is controlled by the VTX signal 710 (and the TX signal 711). The amount of charge that reaches the floating diffusion node / junction 712 is modulated by the TX signal 711. In one embodiment, the transfer voltage (VTX) signal 710 (and TX 711) may be ramped to gradually transfer charge from the PPD 508 to the floating diffusion node / junction 712. Thus, the amount of charge transferred is a function of the amplitude modulated signal 711 (TX), and the ramping of the TX signal 711 is a function of time. Thus, the amount of charge transferred from the PPD 508 to the floating diffusion node / junction 712 is also a function of time. During the transfer of charge from the PPD to the floating diffusion node / junction 712, the TXEN signal by the SPAD cores 501 as photo-detection events occur for at least two adjacent SPADs in the SPAD cores 501. When the second transistor 704 is turned off due to the generation of 708, the transfer of charge from the PPD 508 to the floating diffusion node / junction 712 stops. As a result, both the amount of charge transferred to floating diffusion node / junction 712 and the amount of charge remaining in PPD 508 are a function of the TOF of the incident photon (s). The result is a time-to-charge transformation, and a single end-differential signal transformation. Accordingly, PPD 508 operates as a time-to-charge converter (TCC). The more charge is transferred to the floating diffusion node / junction 712, the more the voltage at the floating diffusion node / junction 712 decreases and the more the voltage at the PPD 508 increases.

플로팅 디퓨전 노드/정션(712)의 전압은 이후에 PIXOUT 신호로서 제5 트랜지스터(707)를 통해 아날로그-디지털 변환기(ADC) 유닛(미도시)으로 전송되고 그리고 추가 처리를 위해 적절한 디지털 신호/값으로 변환될 수 있다. 도 7의 다양한 신호들의 타이밍 및 동작의 더 많은 상세들은 도 9의 논의를 참조하여 제공된다. 도 7의 실시 예에서, PPD(508)의 전하를 전압으로 변환하는 플로팅 디퓨전 노드/정션(712)으로 전하가 완전히 전송된 후에, 제5 트랜지스터(707)는 픽셀(700)을 선택하기 위한 SEL 신호(714)를 수신하여, 플로팅 디퓨전 노드/정션(714)의 전하를 PIXOUT1(또는 픽셀 출력 1) 전압으로 그리고 PPD(508)에 남아있는 전하를 PIXOUT2(또는 픽셀 출력 2) 전압으로 독출할 수 있으며, 픽셀 출력 데이터 라인(510)은 순차적으로 PIXOUT1 및 PIXOUT2 신호들을 도 10을 참조하여 이후에 논의될 것과 같이 순차적으로 출력한다. 다른 실시 예에서, PIXOUT1 신호 또는 PIXOUT2 신호 모두가 아닌 하나가 독출될 수 있다.The voltage of the floating diffusion node / junction 712 is then transmitted as a PIXOUT signal through the fifth transistor 707 to an analog-to-digital converter (ADC) unit (not shown) and with an appropriate digital signal / value for further processing. Can be converted. More details of the timing and operation of the various signals of FIG. 7 are provided with reference to the discussion of FIG. 9. In the embodiment of FIG. 7, after the charge is fully transferred to the floating diffusion node / junction 712 that converts the charge of the PPD 508 into a voltage, the fifth transistor 707 selects the SEL for selecting the pixel 700. The signal 714 can be received to read the charge of the floating diffusion node / junction 714 into the PIXOUT1 (or pixel output 1) voltage and the charge remaining in the PPD 508 to the PIXOUT2 (or pixel output 2) voltage. The pixel output data line 510 sequentially outputs the PIXOUT1 and PIXOUT2 signals sequentially as will be discussed later with reference to FIG. 10. In another embodiment, not one of the PIXOUT1 signal or the PIXOUT2 signal may be read.

도 8은 여기에 기재된 주제에 따른 도 7의 픽셀(700)에서 변조된 전하 전송 메커니즘의 개괄을 제공하는 예시적인 타이밍 도(800)이다. 도 8에 도시된 파형들(도 9 및 도 14 또한)은 사실상 단순화되었고 그리고 설명의 목적만을 위한 것이다. 실제 파형들은 회로 구현들에 의존하여 형태뿐 아니라 타이밍에서도 다를 수 있다. 도 7 및 도 8에서 공통인 신호들은 동일한 참조 번호들을 이용하여 식별되며, VPIX 신호(713), RST 신호(709), 전자 셔터 신호(701), 그리고 진폭 변조 신호(710)를 포함한다. 도 8에서 두 개의 추가 파형들(801, 802)이 또한 도시되어, 전하 전송 동안에 진폭 변조 신호(710)가 인가된 때의 PPD(508) 내의 전하의 상태 및 플로팅 디퓨전 노드/정션(712) 내의 전하의 상태를 각각 보여준다. 도 8의 실시 예에서, VPIX 신호(713)는 픽셀(700)의 동작 동안에 낮은 논리 전압(예를 들어, 논리 0 또는 0V)으로 시작하여 픽셀(700)을 개시하고 그리고 높은 논리 전압(예를 들어, 논리 1 또는 3V)으로 변환한다. 리셋(RST) 신호(709)는 픽셀(700)의 초기화 동안에 높은 논리 전압 펄스(예를 들어, 논리 0으로부터 논리 1로 갔다가 논리 0으로 돌아오는 펄스)로 시작하여, PPD(508) 내의 전하를 총 용량으로 설정하고 그리고 플로팅 디퓨전 노드/정션(712)의 전하를 영 쿨롱(0C)(zero Coulombs)으로 설정한다. 플로팅 디퓨전 노드/정션(712)을 위한 리셋 전압 레벨은 논리 1 레벨일 수 있다. 거리(TOF) 측정 동작 동안, 플로팅 디퓨전 노드/정션(712)이 PPD(508)로부터 더 많은 전자들을 수신할수록, 플로팅 디퓨전 노드/정션(712)의 전압은 더 낮아진다. 픽셀(700)의 초기와 동안에 전자 셔터 신호(701)는 낮은 논리 전압(예를 들어, 논리 0 또는 0V)으로 시작하고, 픽셀(700)의 동작 동안 최소 측정 거리에 대응하는 시간에 논리 1 레벨(예를 들어, 3V)로 변화하여, SPAD 코어들(501)의 SPAD들(503)이 반환된 광 펄스(37)의 광자(들)를 검출하게 하고, 이후에 최대 측정 거리에 대응하는 시간에 논리 0 레벨(예를 들어, 0V)로 변화한다. 따라서, 셔터 신호(701)의 논리 1 레벨의 구간은 해당 시간 동안 인접한 SPAD들로부터 수신되는 출력들이 공간적 및 시간적 상관을 갖도록 미리 정의된 시간 구간/윈도를 제공한다. PPD(508) 내의 전하는 초기화 동안 완전 충전되어 시작하고, 그리고 VTX 신호(710)가 0V로부터 더 높은 전압으로 경사짐(가급적 선형 방식으로)에 따라 감소한다. 진폭 변조 신호(VTX)(710)의 제어 하의 PPD 전하 레벨은 도 8에서 801의 참조 번호를 갖는 파형에 의해 표시된다. PPD 전하 감소는 VTX 신호가 얼마나 오래 경사지는지의 함수일 수 있으며, 이는 PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로의 특정 양의 전하의 전송을 유발한다. 따라서, 도 8에서 801의 참조 번호를 갖는 파형에 의해 표시된 바와 같이, 플로팅 디퓨전 노드/정션(712)의 전하는 낮은 전하(예를 들어, 0C)에서 시작하고 그리고 VTX 신호(710)가 0V로부터 더 높은 레벨로 경사짐에 따라 증가하며, PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로 특정 양의 전하를 부분적으로 전송한다. 전하 전송은 VTX 신호(710)가 얼마나 오래 경사지는지의 함수이다.FIG. 8 is an exemplary timing diagram 800 that provides an overview of the modulated charge transfer mechanism in pixel 700 of FIG. 7 in accordance with the subject matter described herein. The waveforms shown in FIG. 8 (as well as FIGS. 9 and 14) are in fact simplified and for illustrative purposes only. Actual waveforms may vary in shape as well as timing depending on circuit implementations. Common signals in FIGS. 7 and 8 are identified using the same reference numerals and include a VPIX signal 713, an RST signal 709, an electronic shutter signal 701, and an amplitude modulated signal 710. In FIG. 8 two additional waveforms 801, 802 are also shown, showing the state of charge in the PPD 508 and the floating diffusion node / junction 712 when the amplitude modulation signal 710 is applied during charge transfer. Show the state of charge, respectively. In the embodiment of FIG. 8, the VPIX signal 713 starts the pixel 700 starting with a low logic voltage (eg, logic 0 or 0V) during operation of the pixel 700 and then starts a high logic voltage (eg, For example, to logic 1 or 3V). The reset (RST) signal 709 starts with a high logic voltage pulse (eg, a pulse from logic 0 to logic 1 and back to logic 0) during the initialization of the pixel 700, thereby recovering the charge in the PPD 508. Set to total capacity and set charge of floating diffusion node / junction 712 to zero Coulombs. The reset voltage level for floating diffusion node / junction 712 may be a logic one level. During a distance (TOF) measurement operation, the more electrons the floating diffusion node / junction 712 receives from the PPD 508, the lower the voltage of the floating diffusion node / junction 712. The electronic shutter signal 701 starts with a low logic voltage (e.g., logic 0 or 0V) at the beginning and during the pixel 700 and at a logic 1 level at a time corresponding to the minimum measurement distance during operation of the pixel 700 Change to (e.g., 3V), causing the SPADs 503 of the SPAD cores 501 to detect the photon (s) of the returned light pulse 37, and then the time corresponding to the maximum measurement distance To a logic zero level (e.g. 0V). Thus, the logical one level interval of the shutter signal 701 provides a predefined time interval / window such that the outputs received from adjacent SPADs during that time have spatial and temporal correlation. The charge in PPD 508 starts fully charged during initialization, and decreases as the VTX signal 710 slopes (preferably in a linear fashion) from 0V to a higher voltage. The PPD charge level under control of the amplitude modulated signal (VTX) 710 is represented by a waveform with reference numeral 801 in FIG. 8. The PPD charge reduction may be a function of how long the VTX signal slopes, which causes the transfer of a certain amount of charge from the PPD 508 to the floating diffusion node / junction 712. Thus, as indicated by the waveform with reference numeral 801 in FIG. 8, the charge of the floating diffusion node / junction 712 starts at a low charge (eg, 0C) and the VTX signal 710 is further from 0V. Incrementally ramps to a high level and partially transfers a certain amount of charge from the PPD 508 to the floating diffusion node / junction 712. Charge transfer is a function of how long the VTX signal 710 slopes.

앞서 언급된 바와 같이, 데이터 라인(510)(PIXOUT)의 픽셀-특정 출력은 플로팅 디퓨전 노드/정션(712)으로 전송되는 PPD 전하로부터 도출된다. 따라서, PIXOUT 신호(510)는 진폭 변조 신호(710)(VTX)(또는, 등가적으로, TX 신호(711))에 의해 시간에 따라 진폭 변조된 것으로 여겨질 수 있다. 이러한 방식으로, TOF 정보가 진폭 변조 신호(710)(VTX)(또는, 등가적으로, TX 신호(711))를 이용한 픽셀 특정 출력(715)의 진폭 변조를 통해 제공된다. 일부 실시 예들에서, VTX 신호(710)를 생성하기 위한 변조 함수는 단조(monotonic)일 수 있다. 도 8, 도 9 및 도 14에 도시된 예시적인 실시 예들에서, 진폭 변조 신호들은 경사 함수(ramp function)를 이용하여 생성되며, 따라서 이들은 경사-타입 파형들을 갖는 것으로 보여진다. 그러나 다른 실시 예들에서, 다른 타입들의 아날로그 파형들/함수들이 변조 신호들로 사용될 수 있다.As mentioned above, the pixel-specific output of data line 510 (PIXOUT) is derived from the PPD charge transferred to floating diffusion node / junction 712. Accordingly, PIXOUT signal 510 may be considered to be amplitude modulated over time by amplitude modulated signal 710 (VTX) (or, equivalently, TX signal 711). In this way, TOF information is provided via amplitude modulation of pixel specific output 715 using amplitude modulation signal 710 (VTX) (or, equivalently, TX signal 711). In some embodiments, the modulation function for generating the VTX signal 710 can be monotonic. In the exemplary embodiments shown in FIGS. 8, 9 and 14, amplitude modulated signals are generated using a ramp function, so they are shown to have gradient-type waveforms. However, in other embodiments, other types of analog waveforms / functions may be used as the modulation signals.

일 실시 예에서, 두 개의 픽셀 출력들의 합(여기에서, PIXOUT1+PIXOUT2)에 대한 하나의 픽셀 출력(예를 들어, PIXOUT1)의 비율은, 예를 들어 도 9에서 보여지고 그리고 아래에서 더 상세히 설명되는 바와 같이, Ttof 및 Tdly의 시간 차이에 비례할 수 있다. 예를 들어, 픽셀(700)의 예에서, 파라미터(Ttof)는 SPAD 코어들(501)에서 둘 또는 그보다 많은 SPAD들에 의해 수신된 광 신호의 픽셀-특정 TOF 값일 수 있고, 지연 시간 파라미터(Tdly)는 광 신호(28)가 초기에 전송된 때로부터 VTX 신호(710)가 경사지기 시작할 때까지의 시간일 수 있다. 통상적으로 전자 셔터(701)가 열린 때에 발생하는 VTX 신호(710)가 경사지기 시작한 후에 광 펄스(28)가 전송되면, 지연 시간(Tdly)은 음일 수 있다. 비례 관계는 수학식 2로 표현될 수 있다.In one embodiment, the ratio of one pixel output (eg, PIXOUT1) to the sum of two pixel outputs (here, PIXOUT1 + PIXOUT2) is shown, for example, in FIG. 9 and described in more detail below. As can be seen, it can be proportional to the time difference between T tof and T dly . For example, in the example of pixel 700, parameter T tof may be a pixel-specific TOF value of an optical signal received by two or more SPADs in SPAD cores 501, and may include a delay time parameter ( T dly ) may be the time from when the optical signal 28 is initially transmitted until the VTX signal 710 starts to slope. Typically, if the optical pulse 28 is transmitted after the VTX signal 710, which occurs when the electronic shutter 701 is opened, begins to slope, the delay time T dly may be negative. The proportional relationship may be expressed by Equation 2.

Figure pat00002
Figure pat00002

그러나 여기에 기재된 주제는 수학식 2의 관계로 한정되지 않는다. 아래에서 논의되는 바와 같이, 수학식 2의 비율은 대상의 깊이 또는 거리를 계산하는 데에 사용될 수 있으며, PIXOUT1 및 PIXOUT2의 합이 항상 동일하지 않으면, 픽셀-대-픽셀 변동에 덜 민감하다.However, the subject matter described herein is not limited to the relationship in equation (2). As discussed below, the ratio of Equation 2 can be used to calculate the depth or distance of the object and is less susceptible to pixel-to-pixel variation unless the sum of PIXOUT1 and PIXOUT2 is always the same.

편의를 위해, 여기에서 사용되는 바와 같이, 'P1'의 용어는 'PIXOUT1'을 가리키는 데에 사용되고, 'P2'의 용어는 'PIXOUT2'를 가리키는 데에 사용될 수 있다. 픽셀-특정 TOF 값은 픽셀 특정 출력 값들(P1, P2)의 비율로 결정될 수 있음이 수학식 2의 관계일 수 있다. 일부 실시 예들에서, 픽셀-특정 TOF 값이 그렇게 결정되면, 대상(도 2의 대상(26)과 같은)으로의 픽셀-특정 거리(D)(Distance) 또는 범위(R)(Range) 또는 대상 위의 특정 위치가 수학식 3으로 주어질 수 있다.For convenience, as used herein, the term 'P1' may be used to refer to 'PIXOUT1' and the term 'P2' may be used to refer to 'PIXOUT2'. It may be the relationship of Equation 2 that the pixel-specific TOF value may be determined as the ratio of pixel specific output values P1 and P2. In some embodiments, if the pixel-specific TOF value is so determined, the pixel-specific distance (D) or range (R) or over the object (such as object 26 in FIG. 2). The specific position of may be given by Equation 3.

Figure pat00003
Figure pat00003

여기에서, c는 빛의 속도이다. 또는, 도 7의 VTX 신호(710)(또는 TX 신호(711))와 같은 변조 신호가 예를 들어 셔터 윈도 내에서 선형인 일부 실시 예들에서,범위/거리는 수학식 4로 계산될 수 있다.Where c is the speed of light. Alternatively, in some embodiments in which a modulated signal, such as the VTX signal 710 (or TX signal 711) of FIG. 7 is linear, for example within a shutter window, the range / distance may be calculated by equation (4).

Figure pat00004
Figure pat00004

따라서, 대상(26)과 같은 대상의 3D 이미지는 위에서 주어진 바와 같이 결정된 픽셀-특정 범위 값들에 기반하여, TOF 시스템(15)에 의해 생성될 수 있다.Thus, a 3D image of an object, such as object 26, may be generated by TOF system 15, based on pixel-specific range values determined as given above.

픽셀 내의 PPD 전하 분산의 진폭 변조 기반 조작 또는 제어는 거리 측정 및 해상도 또한 제어 가능하게 한다. PPD 전하의 픽셀 레벨 진폭 변조는, 예를 들어 CMOS(Complementary Metal Oxide Semiconductor) 이미지 센서에서와 같은 롤링 셔터, 또는, 예를 들어 CCD(Charge Coupled Device) 이미지 센서에서와 같은 글로벌 셔터일 수 있는 전자 셔터와 함께 작동할 수 있다. 여기의 기재는 도 1 및 도 2의 시스템(15)과 같은 단일 펄스 TOF 이미징 시스템의 맥락에서 주로 제공되지만, 여기에서 논의되는 픽셀-레벨 내부 진폭 변조 방법의 원리들은 적절한 수정들(필요한 경우에)을 통해, 픽셀들(43)(도 5)을 구비한 연속파 변조 TOF 이미징 시스템 또는 비-TOF 시스템에서도 구현될 수 있다.Amplitude modulation based manipulation or control of the PPD charge dispersion within the pixels also enables control of distance measurement and resolution. The pixel level amplitude modulation of the PPD charge may be a rolling shutter, for example in a complementary metal oxide semiconductor (CMOS) image sensor, or an electronic shutter, which may be a global shutter, for example in a charge coupled device (CCD) image sensor. Can work with The description herein is in the context of a single pulse TOF imaging system such as system 15 of FIGS. 1 and 2. Although primarily provided, the principles of the pixel-level internal amplitude modulation method discussed herein are, through appropriate modifications (if necessary), a continuous wave modulation TOF imaging system or non-TOF with pixels 43 (FIG. 5). It can also be implemented in the system.

도 9는 여기에 기재된 주제에 따른 TOF 값들을 측정하기 위해 도 7의 실시 예의 픽셀(700)이 도 2 및 도 12의 픽셀 어레이(42)와 같은 픽셀 어레이에서 사용될 때의, 도 1 및 도 2의 시스템(15)에서 상이한 신호들의 예시적인 타이밍의 타이밍 도(900)이다. 도 2 및 도 7의 실시 예들에 표시된 전송된 펄스(28), VPIX 신호(713), TXEN 신호(708) 등과 같은 다양한 신호들이 동일한 참조 번호들을 이용하여 도 9에서 식별된다. 도 9의 논의에 앞서, 도 9의 맥락에서(그리고 도 14의 경우에도 또한), 파라미터(Tdly)는 참조 번호 901로 표시된 바와 같이, 조사된 펄스(28)의 상승 에지 및 VTX 신호(710)가 경사지기 시작할 때의 시간 사이의 시간 지연을 가리키고; 파라미터(Ttof)는 참조 번호 902로 표시되는 바와 같이, 조사된 펄스(28) 및 수신된 펄스(37)의 상승 에지들 사이의 지연으로 측정되는 픽셀-특정 TOF 값을 가리키고; 그리고 파라미터(Tsh)는 참조 번호 903으로 표시되는 바와 같이 그리고 셔터 신호(701)의 활성화(예를 들어, 논리 1 또는 온) 및 비활성화(예를 들어, 논리 0 또는 오프)로 주어지는 바와 같이, 전자 셔터의 열림 및 닫힘 사이의 시간 구간을 가리킴에 유의하여야 한다. 따라서, 전자 셔터(701)는 참조 번호 904로도 식별되는 구간(Tsh) 동안 활성화인 것으로 여겨진다. 일부 실시 예들에서, 지연(Tdly)은 동작 조건들에 관계없이 미리 정해지고 고정될 수 있다. 다른 실시 예들에서, 지연(Tdly)은, 예를 들어 외부 날씨 조건에 의존하여 실행시 조절 가능할 수 있다. 여기에서 높은 또는 낮은 신호 레벨들은 픽셀(700)의 설계와 연관됨에 유의하여야 한다. 도 9에 도시된 신호 극성들 또는 바이어스 레벨들은, 예를 들어 트랜지스터들 또는 사용되는 다른 회로 구성 요소들의 타입들에 기반하여 다른 타입의 픽셀 설계들에서 다를 수 있다.9 shows FIGS. 1 and 2 when pixel 700 of the embodiment of FIG. 7 is used in a pixel array such as pixel array 42 of FIGS. 2 and 12 to measure TOF values according to the subject matter described herein. A timing diagram 900 of exemplary timing of different signals in system 15 of FIG. Various signals, such as transmitted pulse 28, VPIX signal 713, TXEN signal 708, and the like, shown in the embodiments of FIGS. 2 and 7, are identified in FIG. 9 using the same reference numerals. Prior to the discussion of FIG. 9, in the context of FIG. 9 (and also in the case of FIG. 14), the parameter T dly is denoted by reference numeral 901, the rising edge of the irradiated pulse 28 and the VTX signal 710. ) Indicates a time delay between the times when it starts to slope; The parameter T tof indicates a pixel-specific TOF value measured with a delay between the rising edges of the irradiated pulse 28 and the received pulse 37, as indicated by reference numeral 902; And the parameter T sh is indicated by reference numeral 903 and given by the activation (e.g., logic 1 or on) and inactivation (e.g., logic 0 or off) of the shutter signal 701, Note the time interval between opening and closing of the electronic shutter. Accordingly, the electronic shutter 701 is considered to be active during the period T sh , which is also identified by reference numeral 904. In some embodiments, the delay T dly may be predetermined and fixed regardless of operating conditions. In other embodiments, the delay T dly may be adjustable at runtime, for example, depending on external weather conditions. It should be noted here that high or low signal levels are associated with the design of pixel 700. The signal polarities or bias levels shown in FIG. 9 may differ in other types of pixel designs, for example based on the types of transistors or other circuit components used.

위에서 언급된 바와 같이, 도 9의 파형들(또한 도 14의)은 사실상 단순화된 것이고 그리고 설명의 목적만을 위한 것이며, 실제 파형은 회로 구현에 의존하여 형태뿐 아니라 타이밍들에서도 다를 수 있다. 도 9에 도시된 바와 같이, 반환된 펄스(37)는 조사된 펄스(28)의 시간 방식으로 지연된 버전일 수 있다. 일부 실시 예들에서, 조사된 펄스(28)는, 예를 들어 약 5ns 내지 약 10ns의 범위 내와 같은 매우 짧은 구간일 수 있다. 반환된 펄스(37)는 픽셀(700)의 둘 또는 그보다 많은 SPAD들을 이용하여 감지될 수 있다. 전자 셔터 신호(701)는 SPAD들이 수신된 광(37)에서 픽셀-특정 광자(들)를 캡처하게 할 수 있다. 전자 셔터 신호(701)는 광 산란이 픽셀 어레이(42)에 도달하는 것을 피하기 위해 게이트 지연을 가질 수 있다. 조사된 펄스(28)의 광 산란들은, 예를 들어 악천후로 인해 발생할 수 있다.As mentioned above, the waveforms of FIG. 9 (also of FIG. 14) are in fact simplified and for illustrative purposes only, and the actual waveforms may vary in timing as well as shape depending on the circuit implementation. As shown in FIG. 9, the returned pulse 37 may be a time delayed version of the irradiated pulse 28. In some embodiments, the irradiated pulse 28 may be a very short interval, such as in the range of about 5 ns to about 10 ns, for example. The returned pulse 37 can be sensed using two or more SPADs of the pixel 700. The electronic shutter signal 701 may cause the SPADs to capture pixel-specific photon (s) in the received light 37. The electronic shutter signal 701 may have a gate delay to avoid light scattering reaching the pixel array 42. Light scattering of the irradiated pulses 28 may occur due to bad weather, for example.

다양한 외부 신호들(예를 들어, VPIX 신호(713), RST 신호(709) 등) 및 내부 신호들(예를 들어, TX 신호(711), TXEN 신호(708), 그리고 플로팅 디퓨전 노드/정션(712)의 전압)에 더하여, 도 9의 타이밍 도(900)는 또한 다음의 사건들 또는 시간 구간들을 식별한다. 다음의 사건들 또는 시간 구간들은 (i) RST, VTX, TXEN, 및 TX 신호들이 하이이고 그리고 VPIX 및 셔터 신호들(713, 701)이 로우일 때의 PPD 프리셋 사건(905); (ii) RST 신호가 하이로부터 로우로 돌아갈 때까지 TX 신호가 로우일 때로부터의 제1 플로팅 디퓨젼 리셋 사건(906); (iii) 지연 시간(Tdly)(901); (iv) 비행 시간(Ttof)(902); (v) 전자 셔터 온 또는 활성화 구간(Tsh)(903); 그리고 (vi) 제2 시간 동안 RST 신호(709)가 논리 1일 때의 구간에 대한 제2 FD 리셋 사건(907)을 포함한다. 도 9는 또한 전자 셔터가 초기에 언제 닫히는지 또는 오프인지(참조 번호 908)로 표시되는), 전자 셔터가 초기에 언제 열리는지 또는 온인지(참조 번호 904로 표시되는), 초기에 플로팅 디퓨전 노드/정션(712)으로 전송된 전하가 PIXOUT 데이터 라인(510)을 통해 언제 독출되는지(참조 번호 909로 표시되는), 907에서 플로팅 디퓨전 노드/정션(712) 전압이 언제 두번째로(다시) 리셋되는지, 그리고 PPD(508)에 남아있는 전하가 언제 플로팅 디퓨전 노드/정션(712)으로 전송되고 그리고 사건(910)에서 다시 독출되는지(예를 들어, PIXOUT(510)으로의 출력으로서)를 보여준다. 일 실시 예에서, 셔터 온 구간(Tsh)은 VTX 신호(710)의 경사 시간보다 작거나 같을 수 있다.Various external signals (eg, VPIX signal 713, RST signal 709, etc.) and internal signals (eg, TX signal 711, TXEN signal 708, and floating diffusion node / junction ( In addition to the voltage of 712, the timing diagram 900 of FIG. 9 also identifies the following events or time intervals. The following events or time intervals include (i) a PPD preset event 905 when the RST, VTX, TXEN, and TX signals are high and the VPIX and shutter signals 713, 701 are low; (ii) a first floating diffusion reset event 906 from when the TX signal is low until the RST signal returns from high to low; (iii) delay time T dly 901; (iv) flight time T tof 902; (v) electronic shutter on or activation interval T sh 903; And (vi) a second FD reset event 907 for the interval when the RST signal 709 is logic 1 for a second time. 9 also shows when the electronic shutter is initially closed or off (indicated by reference number 908), when the electronic shutter is initially open or on (indicated by reference number 904), and initially a floating diffusion node. When the charge transferred to junction 712 is read out via PIXOUT data line 510 (indicated by reference number 909), and when the floating diffusion node / junction 712 voltage is reset second (again) at 907. And when the charge remaining in PPD 508 is transferred to floating diffusion node / junction 712 and read back in event 910 (eg, as output to PIXOUT 510). In an embodiment, the shutter-on period T sh may be less than or equal to the inclination time of the VTX signal 710.

도 9를 참조하면, 도 7의 픽셀(700)의 예에서, PPD(508)는 초기화 단계에서 전하로 자신의 총 용량까지 채워질 수 있다(예를 들어, PPD 프리셋 사건(905)). PPD 프리셋 시간(905) 동안, 도시된 바와 같이, RST 신호(709), VTX 신호(710), TXEN 신호(708), 그리고 TX 신호(711)는 하이이고, VPIX 신호(713) 및 셔터 신호(710)는 로우일 수 있다. 이후에, VTX 신호(710)(그리고 TX 신호(711))는 로우가 되어 제2 트랜지스터(704)를 셧 오프 하고, VPIX 신호(713)는 하이가 되어 완전 충전된 PPD(508)로부터의 전하 전송을 시작할 수 있다. 일부 실시 예들에서, 픽셀 어레이(42)의 픽셀들의 행의 모든 픽셀들은 동시에 함께 선택될 수 있고, 선택된 행의 모든 픽셀들의 PPD들은 RST 신호(709)를 이용하여 함께 리셋될 수 있다. 픽셀들의 선택된 행의 각 픽셀은 개별적으로 읽혀지고 그리고 아날로그 기반 PIXOUT 신호는 대응하는 열 ADC 유닛(미도시)에 의해 디지털 값으로 변환될 수 있다. 일 실시 예에서, RST 라인들은 블루밍을 방지하기 위해 비선택된 행들에 대해 하이 또는 온으로 유지될 수 있다.Referring to FIG. 9, in the example of pixel 700 of FIG. 7, PPD 508 may be filled up to its total capacity with charge in an initialization step (eg, PPD preset event 905). During the PPD preset time 905, as shown, the RST signal 709, the VTX signal 710, the TXEN signal 708, and the TX signal 711 are high, and the VPIX signal 713 and shutter signal ( 710 may be low. Thereafter, the VTX signal 710 (and the TX signal 711) goes low to shut off the second transistor 704 and the VPIX signal 713 goes high to charge from the fully charged PPD 508. You can start the transfer. In some embodiments, all the pixels of a row of pixels of pixel array 42 may be selected together at the same time, and the PPDs of all the pixels of the selected row may be reset together using RST signal 709. Each pixel of the selected row of pixels is read separately and the analog based PIXOUT signal can be converted to a digital value by a corresponding column ADC unit (not shown). In one embodiment, the RST lines may remain high or on for unselected rows to prevent blooming.

도 9에 도시된 실시 예에서, TXEN 신호(708)를 제외한 모든 신호들은 도시된 바와 같이 논리 0 또는 로우 레벨에서 시작한다. 초기에, RST 신호(709), VTX 신호(710), TXEN 신호(708), 그리고 TX 신호(711)가 논리 1 레벨이 되고 그리고 VPIX 신호(713)가 로우로 남아있을 때, PPD(508)는 프리셋 된다. 이후에, VTX 신호(710) 및 TX 신호(711)가 논리 0이 되고 VPIX 신호(713)가 하이(또는 논리 1)가 될 때, RST 신호(709)가 논리 1인 동안 플로팅 디퓨전 노드/정도 9에 도시된 실시 예에서, TXEN 신호(708)를 제외한 모든 신호들은 도시된 바와 같이 논리 0 또는 로우 레벨에서 시작한다. 초기에, RST 신호(709), VTX 신호(710), TXEN 신호(708), 그리고 TX 신호(711)가 논리 1 레벨이 되고 그리고 VPIX 신호(713)가 로우로 남아있을 때, PPD(508)는 프리셋 된다. 이후에, VTX 신호(710) 및 TX 신호(711)가 논리 0이 되고 VPIX 신호(713)가 하이(또는 논리 1)가 될 때, RST 신호(709)가 논리 1인 동안 플로팅 디퓨전 노드/정션(712)은 리셋 된다. 편의를 위해, 도 7의 플로팅 디퓨전 노드/정션 및 도 9의 타이밍 도의 연관된 전압 파형을 가리키는 데에 동일한 참조 번호(712)가 사용된다. 플로팅 디퓨전 노드/정션(712)이 하이(예를 들어, 전하 도메인에서 0C)로 리셋 된 후에, TXEN 신호(708)가 논리 1인 동안 VTX 신호(710)가 경사지게 된다. 비행 시간(Ttof) 구간(901)은 펄스 광(28)이 전송된 때로부터 반환된 광(37)이 수신될 때까지 이며, 또한 전하가 PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로 부분적으로 전송되는 시간 동안이다. VTX 신호(710)(그리고 TX 신호(711)는 셔터(701)가 온 또는 열린 동안 경사지게 된다. 이는 PPD(508) 내의 상당량의 전하가 플로팅 디퓨전 노드/정션(712)으로 전송되게 하며, VTX가 얼마나 오래 경사지는 지의 함수일 수 있다. 전송된 펄스(28)가 대상(26)에서 반사되고 픽셀(700)의 SPAD 코어들(501) 내의 적어도 두 개의 SPAD들에 의해 수신될 때, 생성된 SPAD 출력들(506)은 논리 유닛(702)에 의해 처리되며, 결국 TXEN 신호(708)가 고정된 논리 0이 되게 한다. 따라서, 시간적으로 상관된 방식으로 적어도 두 개의 인접한 SPAD들에 의한 반환된 광(37)의 검출(즉, 셔터가 온 또는 활성화될 때)은 TXEN 신호(708)에 대한 논리 0 레벨에 의해 표시된다. TXEN 신호(708)의 논리 로우 레벨은 제1 트랜지스터(703) 및 제2 트랜지스터(704)를 턴 오프 하며, 이는 PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로의 전하의 전송을 중지한다. 전자 셔터 신호(701)가 논리 0이 되고 그리고 SEL 신호(714)(도 9에서 미도시됨)가 논리 1이 될 때, 플로팅 디퓨전 노드/정션(712)의 전하는 PIXOUT 라인(510)에서 전압(PIXOUT1)으로 출력된다. 이후에, 플로팅 디퓨전 노드/정션(712)은 논리 하이인 RST 펄스(709)로 다시 리셋(참조 번호 907로 표시된 바와 같이)될 수 있다. 이후에, TXEN 신호(708)가 논리 1이 될 때, PPD(508)에 남아있는 전하는 플로팅 디퓨전 노드/정션(712)으로 실질적으로 완전히 전달되고, PIXOUT 라인(510)에서 전압(PIXOUT2)으로 출력된다. 앞서 언급된 바와 같이, PIXOUT1 및 PIXOUT2 신호들은 적절한 ADC 유닛(미도시)에 의해 대응하는 디지털 값들(P1, P2)로 변환될 수 있다. 특정한 실시 예들에서, 이러한 P1 및 P2 값들은 수학식 3 또는 수학식 4에서 사용되어, 픽셀(700) 및 대상(26) 사이의 픽셀 특정 거리/범위를 결정할 수 있다.In the embodiment shown in FIG. 9, all signals except the TXEN signal 708 start at a logic zero or low level as shown. Initially, the PPD 508 when the RST signal 709, the VTX signal 710, the TXEN signal 708, and the TX signal 711 are at a logic one level and the VPIX signal 713 remains low. Is preset. Thereafter, when the VTX signal 710 and the TX signal 711 become logic 0 and the VPIX signal 713 goes high (or logic 1), the floating diffusion node / degree while the RST signal 709 is logic 1 In the embodiment shown in 9, all signals except the TXEN signal 708 start at a logic zero or low level as shown. Initially, the PPD 508 when the RST signal 709, the VTX signal 710, the TXEN signal 708, and the TX signal 711 are at a logic one level and the VPIX signal 713 remains low. Is preset. Thereafter, when the VTX signal 710 and the TX signal 711 become logic 0 and the VPIX signal 713 goes high (or logic 1), the floating diffusion node / junction while the RST signal 709 is logic 1 712 is reset. For convenience, the same reference numeral 712 is used to indicate the floating diffusion node / junction of FIG. 7 and the associated voltage waveform of the timing diagram of FIG. 9. After the floating diffusion node / junction 712 is reset to high (eg, 0C in the charge domain), the VTX signal 710 is tilted while the TXEN signal 708 is logic one. The flight time T tof interval 901 is from when the pulsed light 28 is transmitted until the returned light 37 is received and also charges from the PPD 508 to the floating diffusion node / junction 712. Partly during the time of transmission. The VTX signal 710 (and the TX signal 711 is tilted while the shutter 701 is on or open. This causes a significant amount of charge in the PPD 508 to be transferred to the floating diffusion node / junction 712, where the VTX is It can be a function of how long it slopes in. The generated SPAD output when the transmitted pulse 28 is reflected at the object 26 and received by at least two SPADs in the SPAD cores 501 of the pixel 700. 506 are processed by logic unit 702, resulting in TXEN signal 708 being a fixed logic 0. Thus, the returned light by at least two adjacent SPADs in a temporally correlated manner, The detection of 37 (ie, when the shutter is on or activated) is indicated by a logical zero level for the TXEN signal 708. The logic low level of the TXEN signal 708 is represented by the first transistor 703 and the second. Turn off transistor 704, which is floating diffusion node / junction 712 from PPD 508. Stops the transfer of charge to the electric charge .. When the electronic shutter signal 701 becomes logic 0 and the SEL signal 714 (not shown in Figure 9) becomes logic 1, the charge of the floating diffusion node / junction 712 is Output is a voltage PIXOUT1 at PIXOUT line 510. Thereafter, floating diffusion node / junction 712 may be reset (as indicated by reference numeral 907) back to RST pulse 709, which is logic high. Thereafter, when the TXEN signal 708 becomes logic 1, the charge remaining in the PPD 508 is substantially completely transferred to the floating diffusion node / junction 712 and output from the PIXOUT line 510 to the voltage PIXOUT2. As mentioned above, the PIXOUT1 and PIXOUT2 signals may be converted into corresponding digital values P1, P2 by an appropriate ADC unit (not shown) In certain embodiments, these P1 and P2 values are Used in equations 3 or 4, to pick between pixel 700 and object 26 You can determine a specific distance / range.

일 실시 예에서, 논리 유닛(702)은 논리 회로들(미도시)을 포함하여, G() 함수(도 10을 참조하여 보여지고 논의됨)에 기반하여 출력을 생성하고, 이후에 출력을 도 14에 도시된 TXRMD 신호(1401)와 유사한 신호와 같은 내부적으로 생성된 신호와 논리적으로 OR 연산하여 최종 TXEN 신호(708)를 획득할 수 있다. 이러한 내부적으로 생성된 신호는 전자 셔터가 온인 동안 로우로 유지되지만, TXEN 신호(708)가 논리 1이 되어 PPD(508)에 남아있는 전하의 전송(도 9에서 사건(910))을 용이하게 하도록 하이로 활성화될 수 있다. 일부 실시 예들에서, TXRMD 신호 또는 유사한 신호는 외부적으로 공급될 수 있다.In one embodiment, logic unit 702 generates logic based on the G () function (shown and discussed with reference to FIG. 10), including logic circuits (not shown), and then plots the output. The final TXEN signal 708 can be obtained by logically ORing the internally generated signal, such as a signal similar to the TXRMD signal 1401 shown in FIG. 14. This internally generated signal remains low while the electronic shutter is on, but the TXEN signal 708 becomes logic 1 to facilitate the transfer of charge remaining in the PPD 508 (event 910 in FIG. 9). Can be activated high. In some embodiments, the TXRMD signal or similar signal can be supplied externally.

도 10은 여기에 기재된 주제에 따른, 논리 유닛(702)(도 7) 또는 논리 유닛(1319)(도 13)과 같은 논리 유닛이 픽셀(700)(도 7) 또는 픽셀(1300)(도 13)과 같은 픽셀에서 어떻게 구현되는지를 보여준다. 도 10은 도 6a 또는 도 6b에 도시된 것과 유사한 2x2 구조 구성에서, 네 개의 SPAD 코어들(1002~1005)과 연관된 PPD 코어(1001)를 구비한 픽셀(1000)(픽셀들(700 또는 1300) 중 임의의 것을 나타내는)의 매우 단순화된 도면을 보여준다. 네 개의 SPAD들의 가용성은 시간적으로 그리고 공간적으로 상관된 네 개까지의 동시의 광자(들)의 검출을 가능하게 한다. 일부 실시 예들에서, 픽셀(1000)의 논리 유닛(미도시)은 도 10에 도시된 함수들(F(x,y) 및 G(a,b,c))을 구현하는 논리 회로들(미도시)을 포함할 수 있다. 도 10의 블록들(1006~1009)은 함수(F(x,y))를 구현하는 논리 회로들의 입력들 및 출력들을 보여준다. 따라서, 블록들(1006~1009)은 이러한 논리 회로들을 나타내고 그리고 픽셀(1000)의 논리 유닛의 일부를 총괄적으로 형성하는 것으로 여겨질 수 있다. 논의의 용이함을 위하여, 이러한 블록들은 F(x,y) 블록들로 지칭될 수 있다. 용이성을 위해 블록들(1006~1009)이 PPD 코어(1001)의 외부에 도시되지만, 블록들(1006~1009)의 기능들을 구현하는 논리 회로들은 PPD 코어(1001) 내의 논리 유닛(미도시)의 일부일 수 있음이 이해되어야 한다.FIG. 10 illustrates that a logic unit, such as logic unit 702 (FIG. 7) or logic unit 1319 (FIG. 13), may be pixels 700 (FIG. 7) or pixels 1300 (FIG. 13), according to the subject matter described herein. Shows how it is implemented in such a pixel. FIG. 10 shows a pixel 1000 (pixels 700 or 1300) with a PPD core 1001 associated with four SPAD cores 1002-1005, in a 2 × 2 structural configuration similar to that shown in FIG. 6A or 6B. A very simplified diagram of which) is represented. The availability of four SPADs enables detection of up to four simultaneous photon (s) correlated temporally and spatially. In some embodiments, the logic unit (not shown) of the pixel 1000 is configured with logic circuits (not shown) that implement the functions F (x, y) and G (a, b, c) shown in FIG. 10. ) May be included. Blocks 1006-1009 of FIG. 10 show the inputs and outputs of the logic circuits that implement the function F (x, y). Thus, blocks 1006-1009 represent such logic circuits and may be considered to collectively form part of the logic unit of pixel 1000. For ease of discussion, these blocks may be referred to as F (x, y) blocks. Although blocks 1006-1009 are shown outside of the PPD core 1001 for ease of use, logic circuits that implement the functions of blocks 1006-1009 may be implemented in a logic unit (not shown) within the PPD core 1001. It should be understood that it may be part of it.

도시된 바와 같이, 각 F(x,y) 블록(1006~1009)은 두 개의 입력들(x, y), 즉 두 개의 연관된 SPAD 코어들 각각으로부터 하나의 입력을 수신한다. 도 5 및 도 7의 맥락에서, 이러한 입력들은 SPAD 코어들(501)로부터의 출력 신호들(506)의 형태일 수 있다. 도 13의 맥락에서, SPAD 출력들(1310, 1318)은 논리 유닛(1319) 내의 F(x,y) 블록들에 필요한 입력들(x,y)을 나타낼 수 있다. SPAD 코어들의 쌍당 유사한 두 개의 입력 F(x,y) 블록들이, 예를 들어 도 6c의 픽셀 어레이 구성(600c)과 같은 PPD 코어와 연관된 네 개보다 많은 SPAD 코어들을 갖는 픽셀들에 제공될 수 있다. 일부 실시 예들에서, F(x,y) 블록들(1006~1009)의 모두는 SPAD 출력들(자신의 x 및 y 입력들로서)의 서로 다른 쌍들에 대해 동작하도록 구성되어 개별 F(x,y) 블록들(1006~1009)의 기능을 구현하는 논리 회로들을 포함하는 PPD 코어(1001) 내의 단일 F(x,y) 유닛을 통해 통합되고 구현될 수 있다. 앞서 언급된 바와 같이, 여기에 기재된 TOF 측정은 픽셀 내의 적어도 두 개의 SPAD들에 의한 공간 및 시간 상관된 광자들의 검출에 기반할 수 있다. 따라서, 도 10에서 언급된 바와 같이, 각 F(x,y) 블록(1006~1009)(더 상세하게는, F(x,y) 블록 내의 논리 회로)은 다음의 미리 정의된 동작들을 수행하도록 구성될 수 있다. 미리 정의된 동작들은 (i) 둘 또는 네 개의 동시의 광자들을 검출하기 위한 각각의 입력들(x, y)에 대한 논리적 부정 논리곱(NAND) 연산((x*y)으로 주어지는); (ii) 세 개의 동시의 광자들을 검출하기 위한 각각의 입력들(x, y)에 대한 부정 논리합(NOR) 연산((x+y)로 주어지는)을 포함한다. 따라서, SPAD 코어들(1002~1005)로부터의 신호들(506)(도 5)이 두 개(또는 네 개 모두)의 SPAD들이 셔터 온 구간 동안 광자들을 검출했음을 가리킬 때, F(x,y) 블록들(1006~1009)을 구현하는 논리 회로는 논리적 NAND 연산을 수행할 수 있다. 마찬가지로, SPAD 코어들(1002~1005)로부터의 신호들(506)이 세 개의 SPAD들이 셔터 온 구간 동안에 광자들을 검출했음을 가리킬 때, 논리적 NOR 연산이 선택될 수 있다. 도 10의 예시적 도면에서, 세 개의 펄스들(1010~1012)은 세 개의 SPAD 코어들(1003~1005) 각각이 반환된 펄스(37)(도 2)와 같은 입사 광을 검출한 때에 세 개의 동시의 광자들의 검출을 나타내는 것으로 도시된다.As shown, each F (x, y) block 1006-1009 receives one input from each of two inputs (x, y), namely two associated SPAD cores. In the context of FIGS. 5 and 7, these inputs may be in the form of output signals 506 from SPAD cores 501. In the context of FIG. 13, the SPAD outputs 1310, 1318 may represent the inputs (x, y) needed for the F (x, y) blocks in the logic unit 1319. Two similar input F (x, y) blocks per pair of SPAD cores may be provided for pixels with more than four SPAD cores associated with the PPD core, such as, for example, the pixel array configuration 600c of FIG. 6C. . In some embodiments, all of the F (x, y) blocks 1006-1009 are configured to operate on different pairs of SPAD outputs (as their x and y inputs) to separate F (x, y) It may be integrated and implemented through a single F (x, y) unit in the PPD core 1001 that includes logic circuits that implement the functionality of blocks 1006-1009. As mentioned above, the TOF measurement described herein may be based on the detection of spatial and temporally correlated photons by at least two SPADs in a pixel. Thus, as mentioned in FIG. 10, each F (x, y) block 1006-1009 (more specifically, a logic circuit within the F (x, y) block) is adapted to perform the following predefined operations. Can be configured. Predefined operations include (i) a logical negative AND operation (given by (x * y)) for respective inputs (x, y) for detecting two or four simultaneous photons; (ii) a NOR operation (given by (x + y)) for each of the inputs (x, y) to detect three simultaneous photons. Thus, when signals 506 (FIG. 5) from SPAD cores 1002-1005 indicate that two (or four) SPADs have detected photons during the shutter on period, F (x, y) The logic circuit implementing the blocks 1006 to 1009 may perform a logical NAND operation. Similarly, a logical NOR operation may be selected when signals 506 from SPAD cores 1002-1005 indicate that three SPADs detected photons during the shutter on period. In the example diagram of FIG. 10, the three pulses 1010-1012 are three when each of the three SPAD cores 1003-1005 detects incident light, such as the returned pulse 37 (FIG. 2). It is shown to represent the detection of simultaneous photons.

다시 도 10을 참조하면, 각 F(x,y) 블록(1006~1009)의 출력은 대응하는 참조 문자(a, b, c, d)를 이용하여 표시된다. PPD 코어(1001) 내의 논리 유닛(미도시)은 또한 출력들a 내지 d을 수신하고 처리하는 추가적인 논리 회로(미도시)를 포함할 수 있다. 논리 회로는 이러한 출력들 네 개 모두를 입력들로 수신하고 그리고 미리 정의된 논리 함수(G(a,b,c,d))에 따라 이들에 대해 연산할 수 있다. 예를 들어, 도 10에 도시된 바와 같이, 두 개의 동시의 광자들의 검출의 경우에, G() 함수는 입력들(a 내지 d) 네 개 모두에 대해 논리적 NAND 연산((a*b*c*d)로 주어지는)을 수행할 수 있다. 반면, 세 개 또는 네 개의 동시의 광자들의 검출의 경우에, G() 함수는 입력들(a 내지 d) 네 개 모두에 대해 논리적 NOR 연산((a+b+c+d)로 주어지는)을 수행할 수 있다. 일 실시 예에서, 도 7의 TXEN 신호(708) 또는 도 13의 TXEN 신호(1325)와 같은 TXEN 신호는 G() 함수를 구현하는 논리 회로의 출력일 수 있다. 다른 실시 예에서, G() 함수를 위한 논리 회로의 출력은 도 14의 TXRMD 신호(1401)와 같은 내부적으로 생성된 신호와 논리합(OR) 연산되어 최종 TXEN 신호를 획득할 수 있다.Referring back to FIG. 10, the output of each F (x, y) block 1006-1009 is indicated using the corresponding reference characters a, b, c, d. The logic unit (not shown) in the PPD core 1001 may also include additional logic circuitry (not shown) that receives and processes the outputs a through d. The logic circuitry receives all four of these outputs as inputs and can operate on them according to a predefined logic function G (a, b, c, d). For example, as shown in FIG. 10, in the case of the detection of two simultaneous photons, the G () function is a logical NAND operation ((a * b * c) for all four inputs a to d. given by * d). On the other hand, in the case of detection of three or four simultaneous photons, the G () function performs a logical NOR operation (given by (a + b + c + d)) on all four inputs (a to d). Can be done. In one embodiment, the TXEN signal, such as the TXEN signal 708 of FIG. 7 or the TXEN signal 1325 of FIG. 13, may be an output of a logic circuit that implements a G () function. In another embodiment, the output of the logic circuit for the G () function may be ORed with an internally generated signal, such as the TXRMD signal 1401 of FIG. 14, to obtain a final TXEN signal.

도 11은 여기에 기재된 주제에 따른 도 1 및 도 2의 시스템(15)에서 TOF 값이 어떻게 결정되는지를 보여주는 예시적인 순서 도(1100)를 보여준다. 도 11에 도시된 다양한 단계들은 시스템(15)의 단일 모듈 또는 모듈들의 조합 또는 시스템 구성 요소들에 의해 수행될 수 있다. 여기의 논의에서, 예시의 수단으로만, 특정한 작업들이 특정한 모듈들 또는 시스템 구성 요소들에 의해 수행되는 것으로 기술된다. 다른 모듈들 또는 시스템 구성 요소들 또한 이러한 작업들을 수행하도록 적절히 구성될 수 있다. 1101 동작에서 언급되는 바와 같이, 시스템(15)(더 상세하게는, 프로젝터 모듈(22))은 도 2의 펄스(28)와 같은 레이저 펄스를 도 2의 대상(26)과 같은 대상에 조사할 수 있다. 1102 동작에서, 프로세서(19)(또는 특정 실시 예들에서 픽셀 처리 유닛(46))는 도 7의 VTX 신호(710)와 같은 진폭 변조 신호를 도 7의 픽셀(700) 내의 PPD(508)와 같은 픽셀 내의 PPD에 조사할 수 있다. 픽셀(700)은 도 2의 픽셀 어레이(42)의 임의의 픽셀 (43)일 수 있다. 1103 동작에서, 픽셀 처리 유닛(46)은 진폭 변조 신호(710)로부터 수신되는 변조에 기반하여, PPD(508)에 저장된 전하의 일부의 전송을 개시할 수 있다. 이러한 전하 전송을 개시하기 위해, 픽셀 처리 회로(46)는 전자 셔터 신호(701), VPIX 신호(713), 그리고 RST 신호(709)와 같은 다양한 외부 신호들을 도 9의 예시적인 타이밍 도에 표시된 논리 레벨들에서 픽셀(700)에 제공할 수 있다. 1104 동작에서, 반환된 펄스(37)와 같은 반환된 펄스가 픽셀(700) 내의 복수의 SPAD들을 이용하여 검출될 수 있다. 앞서 언급된 바와 같이, 반환된 펄스(37)는 대상(26)으로부터 반사되는 조사된 펄스(28)일 수 있고, 픽셀(700) 내의 각 SPAD(SPAD 코어들(501) 내의)는 반환된 펄스로부터 수신되는 밝기를 대응하는(SPAD-특정) 전기 신호로 변환할 수 있다.FIG. 11 shows an exemplary flow chart 1100 showing how the TOF value is determined in the system 15 of FIGS. 1 and 2 in accordance with the subject matter described herein. The various steps shown in FIG. 11 may be performed by a single module or combination of modules or system components of system 15. In the discussion herein, by means of example only, certain tasks are described as being performed by specific modules or system components. Other modules or system components may also be appropriately configured to perform these tasks. As mentioned in operation 1101, the system 15 (more specifically, the projector module 22) may irradiate a laser pulse, such as the pulse 28 of FIG. 2, to an object, such as the object 26 of FIG. 2. Can be. In operation 1102, the processor 19 (or the pixel processing unit 46 in certain embodiments) transmits an amplitude modulated signal, such as the VTX signal 710 of FIG. 7, such as a PPD 508 within the pixel 700 of FIG. 7. The PPD in the pixel can be examined. Pixel 700 may be any pixel 43 of pixel array 42 of FIG. 2. In operation 1103, pixel processing unit 46 may initiate the transfer of a portion of the charge stored in PPD 508 based on the modulation received from amplitude modulated signal 710. To initiate this charge transfer, the pixel processing circuit 46 may add various external signals such as the electronic shutter signal 701, the VPIX signal 713, and the RST signal 709 to the logic shown in the exemplary timing diagram of FIG. 9. May be provided to pixel 700 at levels. In operation 1104, a returned pulse, such as the returned pulse 37, may be detected using a plurality of SPADs within the pixel 700. As mentioned above, the returned pulse 37 may be an irradiated pulse 28 reflected from the object 26, with each SPAD in the pixel 700 (in SPAD cores 501) returned a pulse. The brightness received from can be converted into a corresponding (SPAD-specific) electrical signal.

밝기를 수신하는 각 SPAD에 대해, 픽셀(700) 내의 SPAD 코어들(501) 내의 제1 제어 회로(504)는 대응하는(SPAD-특정) 전기 신호를 처리하여 SPAD 특정 디지털 출력을 생성할 수 있다(1105 동작). 이러한 SPAD-특정 디지털 출력들 모두는 도 5 및 도 7의 참조 번호(506)를 갖는 화살표로 총괄적으로 표현된다. 도 9의 논의를 참조하여 언급된 바와 같이, 논리 유닛(702)은 출력들(506)을 처리할 수 있고, 출력들이 시간적으로 그리고 공간적으로 상관되는 한, TXEN 신호(708)를 논리 0(로우) 상태에 둘 수 있다. TXEN 신호(708)의 논리 0 레벨은 픽셀(700) 내의 제1 트랜지스터(703) 및 제2 트랜지스터(704)를 턴 오프 하고, 이는 PPD(508)로부터 플로팅 디퓨전 노드/정션(712)으로의 전하의 전송을 중지한다. 따라서, 1106 동작에서, 도 9의 구간(904)의 셔터 내와 같은 미리 정해진 시간 구간 동안 적어도 두 개의 SPAD-특정 디지털 출력들이 생성됨에 따라, 제2 제어 회로(507)는 미리 개시된 전하의 일부분의 전송(1103 동작에서)을 종료할 수 있다.For each SPAD receiving the brightness, the first control circuit 504 in the SPAD cores 501 in the pixel 700 can process the corresponding (SPAD-specific) electrical signal to produce a SPAD specific digital output. (Operation 1105). All of these SPAD-specific digital outputs are collectively represented by arrows with reference numeral 506 of FIGS. 5 and 7. As mentioned with reference to the discussion of FIG. 9, the logic unit 702 can process the outputs 506, and as long as the outputs are correlated temporally and spatially, the TXEN signal 708 is logical 0 (low). ) State. The logic zero level of the TXEN signal 708 turns off the first transistor 703 and the second transistor 704 in the pixel 700, which charges from the PPD 508 to the floating diffusion node / junction 712. Stops transmission. Thus, in operation 1106, as at least two SPAD-specific digital outputs are generated during a predetermined time interval, such as in the shutter of section 904 of FIG. The transmission may be terminated (in operation 1103).

도 7을 참조하여 앞서 논의된 바와 같이, 플로팅 디퓨전 노드/정션(712)으로 전송된 전하의 일부분은 PIXOUT1 신호로 독출되고, 그리고 적절한 디지털 값(P1)으로 변환되며, 디지털 값(P1)은 후속으로 생성되는 디지털 값(P2)(PIXOUT2 신호에 대해)과 함께 사용되어 'P1/(P1+P1)'의 비율로부터 TOF 정보를 획득하는 데에 사용될 수 있다. 따라서, 1107 동작에서, 종료(1106 동작에서)에 따라, 전송된 아날로그 전하의 일부분에 기반하여, 시스템(15) 내의 픽셀 처리 유닛(46) 또는 프로세서(19)는 반환된 펄스(37)의 TOF 값을 판단할 수 있다.As discussed above with reference to FIG. 7, a portion of the charge transferred to the floating diffusion node / junction 712 is read into the PIXOUT1 signal, and converted into an appropriate digital value P1, which is then followed. It can be used in conjunction with the digital value P2 (for PIXOUT2 signal) generated to obtain TOF information from the ratio of P1 / (P1 + P1). Thus, at operation 1107, upon termination (at operation 1106), based on the portion of the analog charge transmitted, pixel processing unit 46 or processor 19 in system 15 may return the TOF of the returned pulse 37. The value can be determined.

도 12는 여기에 기재된 주제에 따른 이미지 센서 유닛(1200)의 일부분의 예시적인 레이아웃이다. 이미지 센서 유닛(1200)은 도 1 및 도 2에 도시된 이미지 센서 유닛(24)에 대응할 수 있다. 도 12에 도시된 이미지 센서 유닛(1200)의 일부분은 반환된 광을 캡처하고, TOF 값들(수학식 2로부터)의 후속 계산들 그리고 원하는 경우 대상(26)의 3D 이미지의 생성을 위해 P1 및 P2 값들을 생성하는데 필요한 신호들을 제공하는 것과 연관된다. 도 2의 경우와 같이, 도 12의 이미지 센서 유닛(1200) 내의 픽셀 어레이(1201)는 편의를 위해 3x3으로 배열된 아홉 개의 픽셀들을 갖는 것으로 도시된다. 실제로, 픽셀 어레이는 다수의 행들 및 열들에서 수십만 또는 수백만 개의 픽셀들을 포함할 수 있다. 일부 실시 예들에서, 픽셀 어레이(1201)의 각 픽셀은 동일한 구성을 가질 수 있으며, 따라서 각 픽셀은 도 12에 도시된 바와 같이 동일한 참조 번호(1202)를 이용하여 식별된다. 도 12의 실시 예에서, 2D 픽셀 어레이(1201)는 각 픽셀(1202)이 도 13에 도시된 픽셀(1300)일 수 있는 CMOS(Complementary Metal Oxide Semiconductor) 어레이일 수 있다. 도 12의 예시적인 레이아웃이 도 13의 픽셀 구성에 관한 것이지만, 도 12의 이미지 센서 유닛(1200)은 각 픽셀(1202)이 도 7에 도시된 구성을 가질 때에 적절히 수정될 수 있음이 이해되어야 한다. 일부 실시 예들에서, 픽셀들(1202)은 도 7 및 도 13에 도시된 것들과 다른 구성들을 가질 수 있고, 행 디코더/드라이버(1203), 열 디코더(1204) 등과 같은 도 12의 보조 처리 유닛들은 원하는 픽셀 구성에서 동작하기 위해 적절히 수정될 수 있다.12 is an exemplary layout of a portion of an image sensor unit 1200 in accordance with the subject matter described herein. The image sensor unit 1200 may correspond to the image sensor unit 24 illustrated in FIGS. 1 and 2. A portion of the image sensor unit 1200 shown in FIG. 12 captures the returned light, P1 and P2 for subsequent calculations of TOF values (from Equation 2) and for the generation of a 3D image of the object 26 if desired. Associated with providing the signals needed to generate the values. As in the case of FIG. 2, the pixel array 1201 in the image sensor unit 1200 of FIG. 12 is shown as having nine pixels arranged in 3 × 3 for convenience. Indeed, a pixel array may contain hundreds of thousands or millions of pixels in multiple rows and columns. In some embodiments, each pixel of pixel array 1201 may have the same configuration, so each pixel is identified using the same reference numeral 1202 as shown in FIG. 12. In the embodiment of FIG. 12, the 2D pixel array 1201 may be a complementary metal oxide semiconductor (CMOS) array in which each pixel 1202 may be the pixel 1300 illustrated in FIG. 13. Although the example layout of FIG. 12 relates to the pixel configuration of FIG. 13, it should be understood that the image sensor unit 1200 of FIG. 12 may be modified as appropriate when each pixel 1202 has the configuration shown in FIG. 7. . In some embodiments, pixels 1202 may have other configurations than those shown in FIGS. 7 and 13, and the auxiliary processing units of FIG. 12, such as row decoder / driver 1203, column decoder 1204, and the like, may be used. It may be modified as appropriate to operate at the desired pixel configuration.

픽셀 어레이(1201)에 더하여, 도 12에 도시된 실시 예에서 이미지 센서 유닛(1200)은 또한 행 디코더/드라이버(1203), 열 디코더(1204), 그리고 2D 및 3D 이미징 동안 사용되는 열-특정 아날로그-디지털 변환기들(ADC들)뿐 아니라 상관 더블 샘플링(CDS)을 위한 회로들을 포함하는 픽셀 열 유닛(1205)을 포함할 수 있다. 일 실시 예에서, 픽셀들의 열 당 하나의 ADC가 있을 수 있다. 일부 실시 예들에서, 처리 유닛들(1203, 1204, 1205)은 도 2에 도시된 픽셀 처리 유닛(46)의 일부일 수 있다. 도 12의 실시 예에서, 행 디코더/드라이버(1203)는 픽셀들의 행의 각 픽셀(1202)로의 입력들로서 여섯 개의 서로 다른 신호들을 제공하여 픽셀 어레이(1201)의 픽셀들의 동작을 제어함으로써, 열-특정 PIXOUT 신호들(1206~1208)의 생성을 가능하게 하는 것으로 도시된다. 도 12의 화살표들(1209~1211)의 각각은 대응하는 행의 각 픽셀(43)로의 입력들로 적용되는 이러한 신호들의 행-특정 세트를 보여준다. 이러한 신호들은, 리셋(RST) 신호, 제2 전송(TX2) 신호, 전자 셔터(SH) 신호, 전송 전압(VTX) 신호, 픽셀 전압(VPIX) 신호 및 행 선택(SEL) 신호를 포함한다. 도 13은 이러한 신호들이 픽셀에 어떻게 인가되는지를 보여준다. 도 14는 이러한 신호들의 다수를 포함하는 예시적인 타이밍 도를 보여준다.In addition to the pixel array 1201, in the embodiment shown in FIG. 12, the image sensor unit 1200 also includes a row decoder / driver 1203, a column decoder 1204, and column-specific analogs used during 2D and 3D imaging. A pixel column unit 1205 including circuits for correlated double sampling (CDS) as well as digital converters (ADCs). In one embodiment, there may be one ADC per column of pixels. In some embodiments, the processing units 1203, 1204, 1205 may be part of the pixel processing unit 46 shown in FIG. 2. In the embodiment of FIG. 12, the row decoder / driver 1203 provides six different signals as inputs to each pixel 1202 of a row of pixels to control the operation of the pixels of the pixel array 1201. It is shown to enable the generation of certain PIXOUT signals 1206-1208. Each of the arrows 1209-1211 of FIG. 12 shows a row-specific set of these signals applied as inputs to each pixel 43 of the corresponding row. These signals include a reset (RST) signal, a second transfer (TX2) signal, an electronic shutter (SH) signal, a transfer voltage (VTX) signal, a pixel voltage (VPIX) signal, and a row select (SEL) signal. Figure 13 shows how these signals are applied to the pixel. 14 shows an example timing diagram that includes many of these signals.

일 실시 예에서, 행 선택(SEL) 신호는 픽셀들의 적절한 행을 선택하기 위해 활성화될 수 있다. 행 디코더/드라이버(1203)는, 예를 들어 프로세서(19)로부터 행 주소/제어 입력들(1212)을 통해, 선택될 행에 대한 주소 또는 제어 정보를 수신할 수 있다. 행 디코더/드라이버(1203)는 수신된 입력들(1212)을 디코드하여 행 디코더/드라이버(1203)가 SEL 신호를 이용하여 적절한 행을 선택하게 하고, 그리고 또한 대응하는 RST, VTX 그리고 다른 신호들을 선택된/디코딩된 행에 제공한다. 픽셀 입력들로서 적용될 때에, 이러한 신호들의 더 상세한 설명은 도 13 및 도 14의 논의를 참조하여 이후에 제공된다. 일부 실시 예들에서, 행 디코더/드라이버(1203)는 또한, 예를 들어 프로세서(19)로부터 제어 신호들(미도시)을 수신하여, 화살표들(1209~1211)에 표시된 SEL, RST, VTX, SH, 그리고 다양한 다른 신호들을 위해 적절한 전압 레벨들을 인가하도록 행 디코더/드라이버(1203)를 구성할 수 있다.In one embodiment, the row select (SEL) signal may be activated to select the appropriate row of pixels. The row decoder / driver 1203 may receive the address or control information for the row to be selected, for example, from the processor 19 via the row address / control inputs 1212. The row decoder / driver 1203 decodes the received inputs 1212 to cause the row decoder / driver 1203 to select the appropriate row using the SEL signal, and also to select the corresponding RST, VTX and other signals. Provide to the decoded row. When applied as pixel inputs, a more detailed description of these signals is provided later with reference to the discussion of FIGS. 13 and 14. In some embodiments, the row decoder / driver 1203 also receives control signals (not shown), for example, from the processor 19, such that the SEL, RST, VTX, SH indicated by arrows 1209-1211. And row decoder / driver 1203 to apply appropriate voltage levels for various other signals.

픽셀 열 유닛(1205)은 선택된 행의 픽셀들로부터 PIXOUT 신호들(1206~1208)을 수신하고 그리고 이들을 처리하여 TOF 측정들이 획득될 수 있는 픽셀-특정 신호 값들을 생성할 수 있다. 신호 값들은 도 12에서 화살표(1213)로 표시된 바와 같이, 앞서 기술된 P1 및 P2 값들일 수 있다. 각 열-특정 ADC 유닛은 수신된 입력들(PIXOUT 신호들)을 처리하여 대응하는 디지털 데이터 출력들(P1/P2 값들)을 생성할 수 있다. 픽셀 열 유닛(1205) 내의 CDS 및 ADC 회로들(미도시)에 의해 제공되는 CDS 및 ADC 동작들의 추가적인 상세들은 도 14를 참조하여 아래에서 제공된다. 도 12에 도시된 실시 예에서, 열 디코더(1204)는 픽셀 열 유닛(1205)과 결합되는 것으로 도시된다. 열 디코더(1204)는 주어진 행 선택(SEL) 신호와 연관되어 선택될 열들에 대한 열 주소/제어 입력(1214)을, 예를 들어 프로세서(19)로부터 수신할 수 있다. 열 선택은 순차적이며, 따라서 대응하는 SEL 신호에 의해 선택된 행의 각 픽셀로부터의 픽셀 출력의 순차 수신이 가능하다. 프로세서(19)는 적절한 행 주소 입력들을 제공하여 픽셀들의 행을 선택할 수 있고, 또한 적절한 열 주소 입력들을 열 디코더(1204)에 제공하여 픽셀 열 유닛(1205)이 선택된 행의 개별 픽셀들로부터 출력들(PIXOUT들)을 수신하게 할 수 있다.The pixel column unit 1205 can receive PIXOUT signals 1206-1208 from the pixels in the selected row and process them to generate pixel-specific signal values from which TOF measurements can be obtained. The signal values may be the P1 and P2 values described above, as indicated by arrow 1213 in FIG. 12. Each column-specific ADC unit may process the received inputs (PIXOUT signals) to generate corresponding digital data outputs (P1 / P2 values). Further details of the CDS and ADC operations provided by the CDS and ADC circuits (not shown) in the pixel column unit 1205 are provided below with reference to FIG. 14. In the embodiment shown in FIG. 12, column decoder 1204 is shown coupled with pixel column unit 1205. The column decoder 1204 may receive, for example, from the processor 19 a column address / control input 1214 for the columns to be selected in association with a given row select (SEL) signal. Column selection is sequential, thus enabling sequential reception of pixel output from each pixel of the row selected by the corresponding SEL signal. The processor 19 may select the row of pixels by providing the appropriate row address inputs, and also provide the appropriate column address inputs to the column decoder 1204 so that the pixel column unit 1205 outputs from the individual pixels of the selected row. (PIXOUTs) can be received.

도 13은 여기에 기재된 주제에 따른 픽셀(1300)의 다른 예시적인 실시 예를 보여준다. 도 13의 픽셀(1300)은 도 2에 도시된 더 포괄적인 픽셀(43)의 다른 예이다. 픽셀(1300)은 SPAD 코어들의 일부로서 다수의 SPAD 코어들(즉, SPAD 코어 1 내지 SPAD 코어 N)(N은 2 이상)을 포함할 수 있다. 도 13에서, 두 개의 이러한 SPAD 코어들(1301A 및 1301N)이 일부 회로 상세들과 함께 도시된다. 일부 실시 예들에서, 유사한 회로들이 도 7의 픽셀(700) 내의 SPAD 코어들을 위해 채용될 수 있음에 유의하여야 한다. SPAD 코어(1300A)는 저항성 소자(1304)(저항과 같은)를 통해 SPAD 동작 전압(VSPAD)(1303)을 수신하는 SPAD(1302)를 포함할 수 있다. 그러나 SPAD의 구성은 도 13에 도시된 것으로 한정되지 않는다. 일 실시 예에서, 레지스터(1304) 및 SPAD(1302)의 위치들은 교환될 수 있다. 픽셀(1301A)에서, SPAD(1302)는 광에 응답한다. SPAD(1302)가 광자를 수신할 때, SPAD(1302)는 VSPAD의 레벨로부터 0V로 가고 그리고 VSPAD로 복원하는 펄스를 출력할 수 있다. SPAD(1302)로부터의 출력은 커패시터(1305)를 통해 필터링 될 수 있고, 그리고 인버터(1306)(버퍼 및 래치의 조합으로 기능할 수 있는)로 인가될 수 있다. 일 실시 예에서, 커패시터(1305)는 생략될 수 있다. SPAD 코어(1301A)는 게이트 터미널에서 전자 셔터 신호(1308)를 수신하는 PMOS 트랜지스터(1307)를 포함할 수 있고, 트랜지스터(1307)의 드레인 터미널은 커패시터(그리고 인버터(1306)의 입력)에 연결되고, 그리고 트랜지스터(1307)의 소스 터미널은 공급 전압(1309)(VDD)(또는 일부 실시 예들에서 VPIX 전압)을 수신할 수 있다. 전자 셔터 신호(1308)가 턴 오프 될 때(예를 들어, 논리 0 또는 로우 레벨), 트랜지스터(1307)는 도통하고 그리고 인버터(1306)의 출력(1310)은 SPAD(1301A)로부터 수신되는 임의의 출력들의 상태와 무관하게 고정된 전압 레벨(예를 들어, 논리 로우 또는 논리 0 상태)에 남을 수 있다. 전자 셔터 신호(1308)가 턴 온 되거나 활성일 때만, SPAD(1301A)로부터의 출력은 PPD 코어(1311)로 적용될 수 있다. 셔터가 활성일 때(예를 들어, 논리 1 레벨), 트랜지스터(1307)는 턴 오프 되고, SPAD-생성 출력은 인버터(1306)로 전송(커플링 커패시터(1305)를 통해)되고, 그리고 출력 라인(1310)에서 양의 펄스(로우에서 하이로)로 나타날 수 있다.13 shows another exemplary embodiment of a pixel 1300 according to the subject matter described herein. Pixel 1300 of FIG. 13 is another example of the more comprehensive pixel 43 shown in FIG. The pixel 1300 may include a number of SPAD cores (ie, SPAD cores 1 to SPAD core N) (N is two or more) as part of the SPAD cores. In FIG. 13, two such SPAD cores 1301A and 1301N are shown with some circuit details. It should be noted that in some embodiments, similar circuits may be employed for the SPAD cores in pixel 700 of FIG. 7. The SPAD core 1300A may include a SPAD 1302 that receives the SPAD operating voltage (VSPAD) 1303 through the resistive element 1304 (such as a resistor). However, the configuration of the SPAD is not limited to that shown in FIG. In one embodiment, the locations of register 1304 and SPAD 1302 may be exchanged. In pixel 1301A, SPAD 1302 responds to light. When the SPAD 1302 receives a photon, the SPAD 1302 may output a pulse that goes from the level of VSPAD to 0V and restores to VSPAD. The output from the SPAD 1302 can be filtered through the capacitor 1305 and applied to the inverter 1306 (which can function as a combination of buffer and latch). In one embodiment, the capacitor 1305 may be omitted. The SPAD core 1301A may include a PMOS transistor 1307 that receives an electronic shutter signal 1308 at the gate terminal, where the drain terminal of the transistor 1307 is connected to a capacitor (and an input of the inverter 1306) and In addition, the source terminal of the transistor 1307 may receive the supply voltage 1309 (VDD) (or the VPIX voltage in some embodiments). When the electronic shutter signal 1308 is turned off (eg, logic zero or low level), the transistor 1307 is conducting and the output 1310 of the inverter 1306 is any received from the SPAD 1301A. Regardless of the state of the outputs, it may remain at a fixed voltage level (eg, a logic low or logic 0 state). Only when the electronic shutter signal 1308 is turned on or active, the output from the SPAD 1301A can be applied to the PPD core 1311. When the shutter is active (eg, logic one level), transistor 1307 is turned off, the SPAD-generating output is sent to inverter 1306 (via coupling capacitor 1305), and the output line It may appear as a positive pulse (low to high) at 1310.

SPAD 코어(1301N)는 회로 상세들에서 SPAD 코어(1301A)와 동일할 수 있고, 따라서 SPAD 코어(1301N)의 동작적 상세들은 제공되지 않는다. 도시된 바와 같이, SPAD 코어(1310N)는 코어-특정 SPAD(1312), VSPAD 전압(1303)이 이를 통하여 SPAD(1312)로 공급되는 저항성 소자(1313), 커플링 커패시터(1315), SPAD(1312)에 의해 생성된 출력을 래칭하고 출력하기 위한 인버터(1316), 그리고 셔터 입력(1308)을 통해 인버터(1316)의 동작을 제어하는 PMOS 트랜지스터(1317)를 포함할 수 있다. 인버터(1316)의 출력은 추가 처리를 위해 PPD 코어(1311)로 제공될 수 있다. 일부 실시 예들에서, VSPAD 신호(1303), VDD 신호(1309), 그리고 전자 셔터 신호(1308)는 도 12에 도시된 행 디코더/드라이버(1203) 또는 도 2의 픽셀 처리 유닛(46)(또는 프로세서)의 다른 임의의 모듈(미도시)과 같은 외부 유닛으로부터 각 SPAD 코어(1301A, 1301N)에 공급될 수 있다. SPAD 코어-특정 출력들(1310, 1318)의 모두는 총괄적으로 도 5에서 참조 번호(506)를 이용하여 식별되는 신호들을 형성할 수 있다.The SPAD core 1301N may be the same as the SPAD core 1301A in circuit details, so no operational details of the SPAD core 1301N are provided. As shown, the SPAD core 1310N includes a resistive element 1313, a coupling capacitor 1315, and a SPAD 1312 through which the core-specific SPAD 1312, the VSPAD voltage 1303 is supplied to the SPAD 1312. Inverter 1316 for latching and outputting the output generated by < RTI ID = 0.0 >), < / RTI > and a PMOS transistor 1317 for controlling the operation of inverter 1316 via shutter input 1308. The output of inverter 1316 may be provided to PPD core 1311 for further processing. In some embodiments, the VSPAD signal 1303, the VDD signal 1309, and the electronic shutter signal 1308 may be the row decoder / driver 1203 shown in FIG. 12 or the pixel processing unit 46 (or processor) of FIG. 2. May be supplied to each SPAD core 1301A, 1301N from an external unit, such as any other module of FIG. All of the SPAD core-specific outputs 1310, 1318 can collectively form the signals identified using reference numeral 506 in FIG. 5.

따라서, 전자 셔터 신호(1308)는 SPAD 코어들(1301A, 1301N)로부터의 출력들(1310, 1318)이 픽셀(1300) 내에서 SPAD 코어들(1301A, 1301N)의 인접한 위치들로 인해 공간적으로 상관되는 것에 더하여, 시간적으로(또는 시간 방식으로) 상관되게 한다. 추가적인 픽셀 기하 정보들은 도 6a 내지 도 6c의 예시적인 실시 예들에 도시된다.Thus, the electronic shutter signal 1308 is spatially correlated due to the adjacent positions of the SPAD cores 1301A, 1301N within the pixel 1300 with the outputs 1310, 1318 from the SPAD cores 1301A, 1301N. In addition to being correlated, it is correlated in time (or in a time manner). Additional pixel geometric information is shown in the example embodiments of FIGS. 6A-6C.

도 7의 픽셀(700)과 같이, 도 13의 픽셀(1300) 또한 PPD(508), 논리 유닛(1319), 제1 NMOS 트랜지스터(1320), 제2 NMOS 트랜지스터(1321), 제3 NMOS 트랜지스터(1322), 제4 NMOS 트랜지스터(1323), 제5 NMOS 트랜지스터(1324)를 포함하며; 내부 입력(TXEN 신호)(1325)을 생성하고; 외부 입력들RST 신호(1326), VTX 신호(1327)(그리고 TX 신호(1328)), VPIX 신호(1329), 그리고 SEL 신호(1330)를 수신하고; 플로팅 디퓨전(FD) 노드/정션(1332)을 갖고, PIXOUT 신호(510)를 출력한다. 도 7의 픽셀(700)과 다르게, 도 13의 픽셀(1300)은 또한 TXEN 신호(1325)의 상보 신호이고 제6 NMOS 트랜지스터(1334)의 게이트 터미널에 공급될 수 있는 제2 TXEN 신호(TXENB)(1333)를 생성한다. 제6 NMOS 트랜지스터(1334)는 제1 트랜지스터(1320)의 소스 터미널에 연결되는 드레인 터미널, 그리고 접지(GND) 전위(1335)에 연결되는 소스 터미널을 가질 수 있다. TXENB 신호(1333)는 GND 전위를 제2 NMOS 트랜지스터(1321)(TX 트랜지스터)의 게이트 터미널로 옮기는 데에 사용될 수 있다. TXENB 신호(1333)가 없으면, TXEN 신호(1325)가 로우가 될 때에 제2 트랜지스터(1321)(TX 트랜지스터)의 게이트는 플로팅 되고, PPD(508)로부터의 전하 전송은 완전히 종료되지 않을 수 있다. 이러한 상황은 TXENB 신호(1325)를 이용하여 개선될 수 있다. 추가적으로, 픽셀(1300)은 또한 저장 디퓨전(SD) 커패시터(1336) 및 제7 NMOS 트랜지스터(1337)를 포함할 수 있다. SD 커패시터(1336)는 제2 트랜지스터(1321)의 드레인 터미널 및 제7 트랜지스터(1337)의 소스 터미널의 정션에 연결될 수 있고, 정션에서 SD 노드(1338)를 형성할 수 있다. 제7 NMOS 트랜지스터(1337)는 게이트 터미널에서 입력으로서 상이한 제2 전송(TX2) 신호(1339)를 수신할 수 있다. 제7 트랜지스터(1337)의 드레인은 도시된 바와 같이 FD 노드(1331)에 연결될 수 있다.Like the pixel 700 of FIG. 7, the pixel 1300 of FIG. 13 also includes a PPD 508, a logic unit 1319, a first NMOS transistor 1320, a second NMOS transistor 1321, and a third NMOS transistor ( 1322, fourth NMOS transistor 1323, and fifth NMOS transistor 1324; Generate an internal input (TXEN signal) 1325; Receive external inputs RST signal 1326, VTX signal 1327 (and TX signal 1328), VPIX signal 1333, and SEL signal 1330; It has a floating diffusion (FD) node / junction 1332 and outputs a PIXOUT signal 510. Unlike pixel 700 of FIG. 7, pixel 1300 of FIG. 13 is also a complementary signal of TXEN signal 1325 and a second TXEN signal TXENB that can be supplied to the gate terminal of sixth NMOS transistor 1334. (1333). The sixth NMOS transistor 1334 may have a drain terminal connected to the source terminal of the first transistor 1320, and a source terminal connected to the ground (GND) potential 1335. The TXENB signal 1333 can be used to transfer the GND potential to the gate terminal of the second NMOS transistor 1321 (TX transistor). Without the TXENB signal 1333, the gate of the second transistor 1321 (TX transistor) is floated when the TXEN signal 1325 goes low, and charge transfer from the PPD 508 may not be terminated completely. This situation can be improved using the TXENB signal 1325. Additionally, the pixel 1300 may also include a storage diffusion (SD) capacitor 1336 and a seventh NMOS transistor 1335. The SD capacitor 1336 may be connected to the junction of the drain terminal of the second transistor 1321 and the source terminal of the seventh transistor 1335, and may form an SD node 1338 at the junction. The seventh NMOS transistor 1335 may receive a different second transmit (TX2) signal 1335 as an input at the gate terminal. The drain of the seventh transistor 1335 may be connected to the FD node 1331 as shown.

일부 실시 예들에서, RST 신호, VTX 신호, VPIX 신호, TX2 신호, 그리고 SEL 신호는 도 12에 도시된 행 디코더/드라이버(1203)와 같은 외부 유닛으로부터 픽셀(1300)로 공급될 수 있다. 일부 실시 예들에서, SD 커패시터(1336)는 여분 커패시터가 아니고, 단지 SD 노드(1338)의 정션 커패시터일 수도 있다. 도 5 및 도 13의 비교는, 픽셀(1300)에서 SPAD들(1301A, 1301N 등)의 모두가 총괄적으로 도 5의 SPAD들(503)을 형성하고; 각 SPAD 코어(1301A, 1301N 등)로부터의 비 SPAD 회로 요소들의 모두가 총괄적으로 도 5의 제1 제어 회로(504)를 형성하고; 그리고 PPD 코어(502)의 비 PPD 회로 요소들의 모두가 도 5의 제2 제어 회로(507)를 형성할 수 있음을 보여준다.In some embodiments, the RST signal, VTX signal, VPIX signal, TX2 signal, and SEL signal may be supplied to the pixel 1300 from an external unit such as the row decoder / driver 1203 shown in FIG. 12. In some embodiments, SD capacitor 1336 is not a spare capacitor, but may just be a junction capacitor of SD node 1338. Comparison of FIGS. 5 and 13 shows that all of the SPADs 1301A, 1301N, etc. in the pixel 1300 collectively form the SPADs 503 of FIG. 5; All of the non-SPAD circuit elements from each SPAD core 1301A, 1301N, etc. collectively form the first control circuit 504 of FIG. 5; And all of the non-PPD circuit elements of the PPD core 502 can form the second control circuit 507 of FIG. 5.

픽셀(1300)에서, 전하 전송 트리거 부분은 SPAD 코어들(1301A, 1301N)(그리고 다른 이러한 코어들) 및 논리 유닛(1319)을 포함할 수 있다. 전하 생성 및 전송 부분은 PPD(508), NMOS 트랜지스터들(1320~1322, 1334, 1337), 그리고 SD 커패시터(1336)를 포함할 수 있다. 전하 수집 및 출력 부분은 NMOS 트랜지스터들(1322~1324)을 포함할 수 있다. 다양한 회로 구성 요소들의 각각의 부분들로의 분할은 예시적이고 설명의 목적만을 위한 것임에 유의하여야 한다. 일부 실시 예들에서, 이러한 부분들은 여기에 나열된 것들보다 많거나 또는 더 적은 다른 회로 구성 요소들을 포함할 수 있다.In pixel 1300, the charge transfer trigger portion may include SPAD cores 1301A, 1301N (and other such cores) and logic unit 1319. The charge generation and transfer portion may include a PPD 508, NMOS transistors 1320-1322, 1334, and 1337, and an SD capacitor 1336. The charge collection and output portion may include NMOS transistors 1322-1324. It should be noted that the division into the respective portions of the various circuit components is exemplary and for illustrative purposes only. In some embodiments, these portions may include more or fewer other circuit components than those listed herein.

앞서 언급된 바와 같이, CDS 기반 전하 수집 및 출력 부분을 제외하고, 도 13의 픽셀 구성은 도 7의 것과 실질적으로 유사하다. 따라서, 편의를 위해, 트랜지스터들(1320~1234) 및 연관된 입력들(RST 신호, SEL 신호, VPIX 신호 등)과 같은 도 7 및 도 13 실시 예들 사이에서 공통인 회로 부분들 및 신호들은 여기에서 논의되지 않는다. CDS는 픽셀/센서 출력 전압(PIXOUT)과 같은 전기적 값을 불필요한 오프셋의 제거를 허용하는 방식으로 측정하기 위한 노이즈 감소 기술이다. 일부 실시 예들에서, 열-특정 CDS 유닛(미도시)은 픽셀 열 유닛(1205)(도 12)에 채용되어, 상관된 더블 샘플링을 수행할 수 있다. CDS에서, 도 13의 픽셀(1300)과 같은 픽셀의 출력(들)은 한 번은 알려진 조건에서, 그리고 한 번은 알려지지 않은 조건에서 두 번 측정될 수 있다. 알려진 조건으로부터 측정된 값은 알려지지 않은 조건으로부터 측정된 값으로부터 감해져, 측정될 물리량에 대한 알려진 관계를 갖는 값, 즉 수신된 광의 픽셀-특정 부분을 나타내는 PPD 전하를 생성할 수 있다. CDS를 이용하여, 각 전하 전송의 종말에서 픽셀의 신호 전압으로부터 픽셀의 기준 전압(예를 들어, 리셋 된 후의 픽셀의 전압)을 제거함으로써, 노이즈가 감소될 수 있다. 따라서, CDS에서, 픽셀의 전하가 출력으로 전송되기 전에, 리셋/기준 값이 샘플 되고, 이는 이후에 픽셀의 전하가 전송된 후의 값으로부터 공제된다.As mentioned above, except for the CDS based charge collection and output portion, the pixel configuration of FIG. 13 is substantially similar to that of FIG. Thus, for convenience, circuit parts and signals common between FIGS. 7 and 13 embodiments, such as transistors 1320-1234 and associated inputs (RST signal, SEL signal, VPIX signal, etc.) are discussed herein. It doesn't work. CDS is a noise reduction technique for measuring electrical values such as pixel / sensor output voltage (PIXOUT) in a way that allows for the elimination of unnecessary offsets. In some embodiments, a column-specific CDS unit (not shown) may be employed in pixel column unit 1205 (FIG. 12) to perform correlated double sampling. In the CDS, the output (s) of a pixel, such as pixel 1300 of FIG. 13, can be measured twice, once in known conditions and once in unknown conditions. The value measured from the known condition can be subtracted from the value measured from the unknown condition to produce a value having a known relationship to the physical quantity to be measured, ie a PPD charge representing the pixel-specific portion of the received light. Using CDS, noise can be reduced by removing the pixel's reference voltage (eg, the voltage of the pixel after reset) from the signal voltage of the pixel at the end of each charge transfer. Thus, in the CDS, the reset / reference value is sampled before the charge of the pixel is transferred to the output, which is then subtracted from the value after the charge of the pixel is transferred.

도 13의 실시 예에서, SD 커패시터(1336)(또는 연관된 SD 노드(1338))는 PPD 전하가 플로팅 디퓨전 노드(1331)로 전송되기 전에 PPD 전하를 저장하며, 따라서 전하가 플로팅 디퓨전 노드(1331)로 전송되기 전에 플로팅 디퓨전 노드(1331)에서 적절한 리셋 값들이 수립(그리고 샘플링)되게 한다. 결과적으로, 각 픽셀-특정 출력(PIXOUT1 및 PIXOUT2)은 픽셀 열 유닛(1205)(도 12)의 열-특정 CDS 유닛(미도시)에서 처리되어, 픽셀-특정 CDS 출력들의 쌍을 획득할 수 있다. 이후에, 픽셀-특정 CDS 출력들은 픽셀 열 유닛(1205)의 각 열-특정 ADC 유닛(미도시)에 의해, 도 12에서 화살표(1213)에 의해 표시되는 P1 및 P2와 같은 디지털 값들로 변환될 수 있다. 도 13의 트랜지스터들(1334, 1337), TXENB 신호(1333) 및 TX2 신호(1339)는 CDS 기반 전하 전송을 용이하게 하는 데에 필요한 보조적인 회로 구성 요소들을 제공한다. 일 실시 예에서, P1 및 P2 값들은, 예를 들어 열-특정 ADC 유닛의 일부로서 ADC 회로들의 동일한 쌍을 이용하여 병렬로 생성될 수 있다. 따라서, PIXOUT1 및 PIXOUT2 신호들의 리셋 레벨들 및 대응하는 PPD 전하 레벨들 사이의 차이는 열 병렬 ADC에 의해 디지털 값들로 변환될 수 있고, 그리고 픽셀-특정 신호 값들(즉, P1 및 P2)로 출력되어 수학식 2에 기반하여 픽셀(1300)에 대한 반환된 펄스(37)의 픽셀-특정 TOF 값의 계산을 가능하게 한다. 앞서 언급된 바와 같이, 이러한 계산은 시스템(15)의 픽셀 처리 유닛(46) 또는 프로세서(19)에 의해 수행될 수 있다. 결과적으로, 대상(26)(도 2)에 대한 픽셀-특정 거리는 또한, 예를 들어 수학식 3 및 수학식 4를 이용하여 결정될 수 있다. 픽셀 단위의 전하 수집 동작은 픽셀 어레이(42)의 픽셀들의 행들 모두에 대해 반복될 수 있다. 픽셀 어레이(42)의 픽셀들(43)에 대한 모든 픽셀-특정 거리 또는 범위 값들에 기반하여, 대상(26)의 3D 이미지는, 예를 들어 프로세서(19)에 의해 생성되고 그리고 시스템(15)과 연관된 적절한 디스플레이 또는 사용자 인터페이스에 표시될 수 있다. 대상(26)의 2D이미지는, 예를 들어 범위 값들이 계산되지 않을 때 또는 범위 값들이 가능함에도 2D 이미지가 필요할 때, P1 및 P2 값들을 단순히 더함으로써 생성될 수 있다. 일부 실시 예들에서, 이러한 2D 이미지는, 예를 들어 IR 레이저가 사용된 때에 단순히 그레이 스케일 이미지일 수 있다.In the embodiment of FIG. 13, the SD capacitor 1336 (or associated SD node 1338) stores the PPD charge before the PPD charge is transferred to the floating diffusion node 1331, so that the charge is floating diffusion node 1331. Appropriate reset values are established (and sampled) at floating diffusion node 1331 before being sent to. As a result, each pixel-specific output PIXOUT1 and PIXOUT2 may be processed in a column-specific CDS unit (not shown) of the pixel column unit 1205 (FIG. 12) to obtain a pair of pixel-specific CDS outputs. . The pixel-specific CDS outputs are then converted by the respective column-specific ADC unit (not shown) of the pixel column unit 1205 into digital values such as P1 and P2 indicated by arrows 1213 in FIG. 12. Can be. The transistors 1334, 1337, TXENB signal 1333, and TX2 signal 1339 of FIG. 13 provide auxiliary circuit components needed to facilitate CDS based charge transfer. In one embodiment, P1 and P2 values may be generated in parallel using the same pair of ADC circuits, for example, as part of a column-specific ADC unit. Thus, the difference between the reset levels of the PIXOUT1 and PIXOUT2 signals and the corresponding PPD charge levels can be converted into digital values by a column parallel ADC and output as pixel-specific signal values (ie, P1 and P2). Based on Equation 2 enables the calculation of the pixel-specific TOF value of the returned pulse 37 for the pixel 1300. As mentioned above, this calculation may be performed by the pixel processing unit 46 or the processor 19 of the system 15. As a result, the pixel-specific distance to the object 26 (FIG. 2) can also be determined using, for example, equations (3) and (4). The pixel-by-pixel charge collection operation can be repeated for all of the rows of pixels of pixel array 42. Based on all pixel-specific distance or range values for the pixels 43 of the pixel array 42, the 3D image of the object 26 is for example generated by the processor 19 and the system 15 May be displayed on an appropriate display or user interface associated with the. A 2D image of the object 26 can be generated by simply adding the P1 and P2 values, for example when no range values are calculated or when a 2D image is needed even though range values are possible. In some embodiments, such a 2D image may be simply a gray scale image, for example when an IR laser is used.

도 7 및 도 13에 도시된 픽셀 구성들은 예시적인 것에 불과함에 유의하여야 한다. 다수의 SPAD들을 갖는 다른 타입의 PPD 기반 픽셀들 또한 여기에 기재된 주제를 구현하는 데에 사용될 수 있다. 이러한 픽셀들은, 예를 들어 단일 출력(도 7 및 도 13의 실시 예들의 PIXOUT 라인(510)과 같은)을 갖는 픽셀들 또는 PIXOUT1 및 PIXOUT@ 신호들이 픽셀에서 서로 다른 출력들을 통해 출력될 수 있는 이중 출력들을 갖는 픽셀들을 포함할 수 있다.It should be noted that the pixel configurations shown in FIGS. 7 and 13 are merely exemplary. Other types of PPD based pixels with multiple SPADs can also be used to implement the subject matter described herein. Such pixels can be, for example, pixels having a single output (such as the PIXOUT line 510 of the embodiments of FIGS. 7 and 13) or a double in which the PIXOUT1 and PIXOUT @ signals can be output through different outputs at the pixel. It can include pixels with outputs.

도 14는 여기에 기재된 주제에 따른 TOF 값들을 측정하기 위한 도 2 및 도 12의 픽셀 어레이(42)와 같은 픽셀 어레이에서 도 13에 도시된 실시 예의 픽셀들(1300)이 사용될 때, 도 1 및 도 2의 시스템(15)의 서로 다른 신호들의 예시적인 타이밍을 보여주는 타이밍 도(1400) 이다. 도 14의 타이밍 도(1300)는 특히 VTX 신호, 셔터 신호, VPIX 신호 및 TX 신호의 파형들, 그리고 예를 들어 PPD 리셋 사건, 셔터 온 구간, 지연 시간 구간(Tdly) 등과 같은 다양한 시간 구간들 또는 사건들의 식별에 대해 도 9의 타이밍 도(900)와 유사하다. 도 9의 타이밍 도(900)의 앞선 광범위한 논의로 인해, 편의를 위해 도 14의 타이밍 도(1400)에서 구별되는 특색들의 간략한 논의가 제공된다.FIG. 14 shows when the pixels 1300 of the embodiment shown in FIG. 13 are used in a pixel array such as the pixel array 42 of FIGS. 2 and 12 for measuring TOF values according to the subject matter described herein. 2 is a timing diagram 1400 showing exemplary timing of different signals of the system 15 of FIG. The timing diagram 1300 of FIG. 14 shows, in particular, the waveforms of the VTX signal, the shutter signal, the VPIX signal, and the TX signal, and various time intervals such as, for example, a PPD reset event, a shutter on interval, a delay time interval (T dly ), and the like. Or similar to timing diagram 900 of FIG. 9 for identification of events. The foregoing extensive discussion of the timing diagram 900 of FIG. 9 provides a brief discussion of the features distinguished from the timing diagram 1400 of FIG. 14 for convenience.

도 14에서, VPIX 신호(1329), RST 신호(1326), 전자 셔터 신호(1308), 진폭 변조 신호(VTX)(1327), TX2 신호(1339)와 같은 다양한 외부적으로 공급되는 신호들, 그리고 내부적으로 생성되는 TXEN 신호(1325)가 도 13에서 사용된 것들과 동일한 참조 번호들을 이용하여 식별된다. 마찬가지로, 편의를 위해, 동일한 참조 번호(1331)가 도 13의 플로팅 디퓨전 노드(1332) 및 도 14의 타이밍 도의 연관된 전압 파형을 가리키는 데에 사용된다. 전송 모드(TXRMD) 신호(1401)가 도 14에 도시되지만, 도 13에서 또는 도 10의 앞선 타이밍 도에서 도시되지 않는다. 일부 실시 예들에서, TXRMD 신호(1401)는 논리 유닛(1319)에 의해 내부적으로 생성되거나 또는 행 디코더/드라이버(도 12의 행 디코더/드라이버(1203)와 같은)에 의해 논리 유닛(1319)에 외부적으로 공급될 수 있다. 일 실시 예에서, 논리 유닛(1319)은 G() 함수(도 10)에 기반하여 출력을 생성하고 이후에 출력을 TXRMD 신호(1401)와 같은 내부적으로 생성된 신호와 논리적으로 논리합(OR) 연산하여 최종 TXEN 신호(1325)를 획득하는 논리 회로들(미도시)을 포함할 수 있다. 도 14에 도시된 바와 같이, 일 실시 예에서, 이러한 내부적으로 생성된 TXRMD 신호(1401)는 전자 셔터가 온일 동안 로우로 유지되지만, 이후에 하이로 활성화되어 TXEN 신호(1325)가 논리 1이 되어 PPD의 잔여 전하의 전송(도 14의 사건(1402))을 용이하게 할 수 있다.In FIG. 14, various externally supplied signals, such as VPIX signal 1333, RST signal 1326, electronic shutter signal 1308, amplitude modulated signal (VTX) 1327, TX2 signal 1333, and An internally generated TXEN signal 1325 is identified using the same reference numbers as those used in FIG. 13. Likewise, for convenience, the same reference numeral 1331 is used to indicate the floating diffusion node 1332 of FIG. 13 and the associated voltage waveform of the timing diagram of FIG. 14. Although the transmission mode (TXRMD) signal 1401 is shown in FIG. 14, it is not shown in FIG. 13 or in the earlier timing diagram of FIG. 10. In some embodiments, TXRMD signal 1401 is generated internally by logic unit 1319 or external to logic unit 1319 by a row decoder / driver (such as row decoder / driver 1203 in FIG. 12). Can be supplied as In one embodiment, the logic unit 1319 generates an output based on the G () function (FIG. 10) and then logically ORs the output with an internally generated signal, such as the TXRMD signal 1401. Logic circuits (not shown) to obtain the final TXEN signal 1325. As shown in FIG. 14, in one embodiment, this internally generated TXRMD signal 1401 remains low while the electronic shutter is on, but is subsequently activated high to cause the TXEN signal 1325 to be logic one. It may facilitate the transfer of residual charge of the PPD (event 1402 of FIG. 14).

도 14의 PPD 리셋 사건(1403), 지연 시간(Tdly)(1404), TOF 구간(Ttof)(1405), 셔터 오프 구간(1406), 셔터 온 또는 활성화 구간(Tsh)(1407 또는 1408), 그리고 FD 리셋 사건(1409)은 도 9에 도시된 대응하는 사건들 또는 시간 구간들과 유사하다. 따라서, 이러한 파라미터들의 추가적인 논의는 제공되지 않는다. 초기에, FD 리셋 사건(1409)은 도시된 바와 같이 FD 신호(1331)가 하이가 되는 것을 초래한다. SD 노드(1338)는 PPD(508)가 로우로 프리셋 된 후에 하이로 리셋 된다. 더 상세하게는, PPD 프리셋 사건(1403) 동안, TX 신호(1328)는 하이일 수 있고, TX2 신호(1339)는 하이일 수 있고, RST 신호(1326)는 하이일 수 있고, 그리고 VPIX 신호(1329)는 로우일 수 있으며, 전자들을 PPD(508)에 채우고 그리고 PPD(508)를 0V로 프리셋한다. 이후에, TX 신호(1328)는 로우가 되고, TX2 신호(1339) 및 RST 신호(1326)는 짧게 하이로 남아서, 하이의 VPIX 신호(1329)와 함께 SD 노드(1338)를 하이로 리셋하고 SD 커패시터(1336)로부터 전자들을 제거할 수 있다. 동시에, FD 노드(1331)는 리셋된다(FD 리셋 사건(1409)에 이어). SD 노드(1338)의 전압 또는 SD 리셋 사건은 도 14에 도시되지 않는다.PPD reset event 1403, delay time T dly 1404, TOF interval T tof 1405, shutter off interval 1406, shutter on or activation interval T sh (1407 or 1408). And the FD reset event 1409 is similar to the corresponding events or time intervals shown in FIG. 9. Thus, no further discussion of these parameters is provided. Initially, the FD reset event 1409 causes the FD signal 1331 to go high as shown. The SD node 1338 is reset high after the PPD 508 is preset low. More specifically, during the PPD preset event 1403, the TX signal 1328 can be high, the TX2 signal 1333 can be high, the RST signal 1326 can be high, and the VPIX signal ( 1329 may be low, filling electrons PPD 508 and preset PPD 508 to 0V. Thereafter, the TX signal 1328 goes low, and the TX2 signal 1333 and the RST signal 1326 briefly remain high, resetting the SD node 1338 high with the high VPIX signal 1333 and SD. Electrons may be removed from the capacitor 1336. At the same time, FD node 1331 is reset (following FD reset event 1409). The voltage or SD reset event of the SD node 1338 is not shown in FIG. 14.

도 7 및 도 9의 실시 예와 반대로, 셔터(1308)가 활성화되고 그리고 VTX 신호(1327)가 경사지게 올라갈 때, TX 파형(1328)에 도시된 바와 같이, PPD 전하는 진폭 변조되고, 그리고 초기에 SD 노드(1338)로 전송(SD 커패시터(1336)를 통해)된다. 셔터 온 구간(1408) 동안 픽셀(1300)(도 13)에서 적어도 두 개의 SPAD들에 의한 광자들의 검출에 따라, TXEN 신호(1325)는 로우가 되고 그리고 PPD(508)로부터 SD 노드(1338)로의 초기 전하 전송은 중지한다. SD 노드(1338)에 저장된 전송된 전하는 제1 독출 구간(1412) 동안 PIXOUT 라인(510)에서(PIXOUT1 출력으로서) 독출될 수 있다. 제1 독출 구간(1412)에서, RST 신호(1326)는 전자 셔터(1308)가 비활성화 또는 턴 오프된 후에 짧게 하이로 활성화되어 플로팅 디퓨전 노드(1331)를 리셋할 수 있다. 이후에, TX2 신호(1409)는 하이의 펄스가 되어, TX2 신호(1339)가 하이인 동안 전하를 SD 노드(1338)로부터 플로팅 디퓨전 노드(1331)로 전송할 수 있다. 플로팅 디퓨전 전압 파형(1331)은 전하 전송 동작을 보여준다. 전송된 전하는 이후에 제1 독출 구간(1412) 동안 PIXOUT 라인(510)을 통해 SEL 신호(1330)(도 14에 미도시)를 이용하여(PIXOUT1 전압으로서) 독출될 수 있다.In contrast to the embodiment of FIGS. 7 and 9, when the shutter 1308 is activated and the VTX signal 1327 is tilted up, the PPD charge is amplitude modulated, and initially SD, as shown in the TX waveform 1328. Sent to node 1338 (via SD capacitor 1336). Upon detection of photons by at least two SPADs in pixel 1300 (FIG. 13) during shutter on interval 1408, TXEN signal 1325 goes low and from PPD 508 to SD node 1338. Initial charge transfer stops. The transmitted charge stored at the SD node 1338 may be read at the PIXOUT line 510 (as the PIXOUT1 output) during the first readout period 1412. In the first readout period 1412, the RST signal 1326 may be briefly activated high after the electronic shutter 1308 is inactivated or turned off to reset the floating diffusion node 1331. Thereafter, the TX2 signal 1409 becomes a high pulse to transfer charge from the SD node 1338 to the floating diffusion node 1331 while the TX2 signal 1335 is high. Floating diffusion voltage waveform 1331 shows charge transfer operation. The transmitted charge can then be read (as a PIXOUT1 voltage) using the SEL signal 1330 (not shown in FIG. 14) via the PIXOUT line 510 during the first readout period 1412.

제1 독출 구간(1412) 동안, 초기 전하가 SD 노드로부터 FD 노드로 전송되고 그리고 TX2 신호(1339)가 논리 로우 레벨로 복귀한 후에, TXRMD 신호(1401)는 하이로 활성화(펄스화)되어 TXEN 입력(1325)에 하이 펄스를 생성하고, 도 14에서 참조 번호(1402)로 표시된 바와 같이, 이는 차례로 TX 입력(1328)에 하이 펄스를 생성하여 PPD(508)의 잔여 전하를 SD 노드(1338)로 전송(SD 커패시터(1336)를 통해)하게 한다. 이후에, RST 신호(1326)가 짧게 하이로 다시 활성화될 때, FD 노드(1331)는 다시 리셋될 수 있다. 제2 RST 하이 펄스는 제2 독출 구간(1413)을 정의할 수 있으며, 여기에서 TX2 신호(1339)는 다시 하이로 펄스화 되어 TX2 신호가 하이인 동안 PPD(508)의 잔여 전하를 SD 노드(1338)로부터 플로팅 디퓨전 노드(1331)로 전송(사건(1402))할 수 있다. 플로팅 디퓨전 전압 파형(1331)은 제2 전하 전송 동작을 보여준다. 전송된 잔여 전하는 이후에 제2 독출 구간(1418) 동안 PIXOUT 라인(510)을 통해 SEL 신호(1332)(도 14에서 미도시)를 이용하여 독출(PIXOUT2 전압으로서)될 수 있다. 앞서 언급된 바와 같이, PIXOUT1 및 PIXOUT2 신호들은 적절한 ADC 유닛(미도시)에 의해 대응하는 디지털 값들(P1, P2)로 변환될 수 있다. 특정한 실시 예들에서, P1 및 P2 값들은 수학식 3 또는 수학식 4에서 사용되어, 픽셀(1300) 및 대상(26) 사이의 픽셀-특정 거리/범위를 결정할 수 있다. 도 14에 도시된 SD 기반 전하 전송은 도 13의 논의를 참조하여 앞서 논의된 바와 같이, 픽셀-특정 CDS 출력들의 쌍의 생성을 가능하게 한다. CDS 기반 신호 처리는 추가적인 노이즈 감소를 제공한다.During the first readout period 1412, after the initial charge is transferred from the SD node to the FD node and the TX2 signal 1339 returns to the logic low level, the TXRMD signal 1401 is activated (pulsed) high to TXEN Generate a high pulse at input 1325, and as indicated by reference number 1402 in FIG. 14, this in turn generates a high pulse at TX input 1328 to convert residual charge of PPD 508 to SD node 1338. (Via SD capacitor 1336). Thereafter, when the RST signal 1326 is briefly reactivated high, the FD node 1331 may be reset again. The second RST high pulse may define a second readout period 1413, where the TX2 signal 1339 is pulsed high again to draw the remaining charge of the PPD 508 while the TX2 signal is high to the SD node ( From 1338 to floating diffusion node 1331 (event 1402). Floating diffusion voltage waveform 1331 shows a second charge transfer operation. The transmitted residual charge can then be read (as the PIXOUT2 voltage) using the SEL signal 1332 (not shown in FIG. 14) via the PIXOUT line 510 during the second readout period 1418. As mentioned above, the PIXOUT1 and PIXOUT2 signals can be converted into corresponding digital values P1, P2 by a suitable ADC unit (not shown). In certain embodiments, P1 and P2 values may be used in Equation 3 or 4 to determine the pixel-specific distance / range between pixel 1300 and object 26. The SD based charge transfer shown in FIG. 14 enables the generation of a pair of pixel-specific CDS outputs, as discussed above with reference to the discussion of FIG. 13. CDS-based signal processing provides additional noise reduction.

도 15는 여기에 기재된 주제에 따른 시간-분해 센서(1500)의 예시적인 실시 예의 블록 도를 보여준다. 시간-분해 센서(1500)는 SPAD 회로(1501), 논리 회로(1503), 그리고 PPD 회로(1505)를 포함할 수 있다.15 shows a block diagram of an example embodiment of a time-decomposition sensor 1500 in accordance with the subject matter described herein. The time-decomposition sensor 1500 may include a SPAD circuit 1501, a logic circuit 1503, and a PPD circuit 1505.

SPAD 회로(1501)는 광자들을 검출하기 위한 SPAD, VSPAD 전압을 수신하기 위한 제1 입력, 전자 셔터의 열림 및 닫힘을 제어하기 위한 셔터 신호를 수신하기 위한 제2 입력, VDD 전압을 수신하기 위한 제3 입력, 그리고 검출 사건(DE) 신호를 출력하기 위한 출력을 포함할 수 있다. 광자를 수신하는 것에 응답하여, SPAD 회로(1501)는 VSPAD 전압으로부터 SPAD 파괴 전압보다 낮은 전압까지 빠르게 상승하고, 그리고 이후에 VSPAD 전압으로 더 천천히 복귀하는 펄스 신호를 출력할 수 있다.The SPAD circuit 1501 includes a SPAD for detecting photons, a first input for receiving a VSPAD voltage, a second input for receiving a shutter signal for controlling the opening and closing of the electronic shutter, and a V DD voltage for receiving the VAD signal. And a third input, and an output for outputting a detection event (DE) signal. In response to receiving the photons, the SPAD circuit 1501 may output a pulse signal that rises quickly from the VSPAD voltage to a voltage lower than the SPAD breakdown voltage, and then returns more slowly to the VSPAD voltage.

논리 회로(1503)는 SPAD 회로(1501)로부터의 DE 신호 출력에 연결되는 제1 입력, PPD 회로(1505)의 PPD 내에 남아있는 전하를 FD 노드로 완전히 전송하기 위한 TXRMD 신호를 수신하기 위한 제2 입력, 그리고 TXEN 신호를 출력하기 위한 출력을 포함할 수 있다.The logic circuit 1503 is a first input coupled to the DE signal output from the SPAD circuit 1501, a second to receive a TXRMD signal for completely transferring charge remaining in the PPD of the PPD circuit 1505 to the FD node. It may include an input and an output for outputting a TXEN signal.

PPD 회로(1505)는 논리 회로(1503)로부터의 TXEN 신호 출력에 연결되는 제1 입력, 전하를 PPD 회로(1505)의 PPD로부터 PPD 회로(1505)의 FD 노드로 부분적으로 또는 완전히 전송하기 위한 VTX 신호를 수신하기 위한 제2 입력, FD 노드의 전하를 리셋하고 그리고 PPD 내의 전하를 프리셋하기 위한 RST 신호를 수신하기 위한 제3 입력, PPD 회로(1505)에 대한 VPIX 전압을 수신하기 위한 제4 입력, PIXOUT1 신호(FD 노드의 전하를 나타내는) 또는 PIXOUT2 신호(PPD에 남아있는 전하를 나타내는)의 독출을 가능하게 하기 위한 SEL 신호를 수신하기 위한 제5 입력, 그리고 SEL 신호에 응답하여 PIXOUT1 신호 및 PIXOUT2 신호를 출력하기 위한 PIXOUT 출력을 포함할 수 있다.The PPD circuit 1505 is a VTX for partially or completely transferring the first input, charge, connected to the TXEN signal output from the logic circuit 1503 from the PPD of the PPD circuit 1505 to the FD node of the PPD circuit 1505. A second input to receive a signal, a third input to reset the charge at the FD node and a RST signal to preset the charge in the PPD, and a fourth input to receive a VPIX voltage for the PPD circuit 1505 A fifth input for receiving a SEL signal to enable reading of the PIXOUT1 signal (which represents the charge of the FD node) or the PIXOUT2 signal (which represents the charge remaining in the PPD), and a PIXOUT1 signal and a PIXOUT2 in response to the SEL signal. It may include a PIXOUT output for outputting a signal.

도 16은 여기에 기재된 주제에 따른 시간-분해 센서(1500)의 SPAD 회로(1501)의 예시적인 실시 예의 개념 도를 보여준다. 일 실시 예에서, SPAD 회로(1501)는 저항(1601), SPAD(1603), 커패시터(1605), p-타입 MOSFET 트랜지스터(1607), 그리고 버퍼(1609)를 포함할 수 있다. 저항(1601)은 VSPAD 전압을 수신하기 위한 제1 터미널, 그리고 제2 터미널을 포함할 수 있다. SPAD(1603)는 접지 전위에 연결된 양극, 그리고 저항(1601)의 제2 터미널에 연결된 음극을 포함할 수 있다. 다른 실시 예에서, 저항(1601) 및 SPAD(1603)의 위치들은 교환될 수 있다. SPAD(1603)는 광에 응답할 수 있다. 광자를 수신하는 것에 응답하여, SPAD(1603)는 VSPAD 전압으로부터 파괴 전압보다 낮은 전압으로 급격히 상승하고, 그리고 이후에 VSPAD 전압으로 더 천천히 복귀하는 펄스 신호를 출력할 수 있다. 일 예에서, 파괴 전압은 특정한 문턱 전압일 수 있다.16 shows a conceptual diagram of an example embodiment of a SPAD circuit 1501 of a time-decomposition sensor 1500 according to the subject matter described herein. In one embodiment, the SPAD circuit 1501 may include a resistor 1601, a SPAD 1603, a capacitor 1605, a p-type MOSFET transistor 1607, and a buffer 1609. The resistor 1601 may include a first terminal and a second terminal for receiving a VSPAD voltage. The SPAD 1603 may include a positive electrode connected to a ground potential and a negative electrode connected to a second terminal of the resistor 1601. In other embodiments, the locations of resistor 1601 and SPAD 1603 may be exchanged. The SPAD 1603 may respond to light. In response to receiving the photons, the SPAD 1603 may output a pulse signal that rises sharply from the VSPAD voltage to a voltage lower than the breakdown voltage and then returns more slowly to the VSPAD voltage. In one example, the breakdown voltage may be a specific threshold voltage.

커패시터(1605)는 SPAD(1603)의 음극에 연결되는 제1 터미널, 그리고 제2 터미널을 포함할 수 있다. 대안적인 실시 예에서, 커패시터(1604)는 생략될 수 있다. P-타입 MOSFET(1607)은 커패시터(1605)의 제2 터미널에 연결되는 제1 S/D 터미널, 셔터 신호를 수신하기 위한 게이트, 그리고 VPIX 전압(VDD)을 수신하기 위한 제2 S/D 터미널을 포함할 수 있다. 버퍼(1609)는 커패시터(1605)의 제2 터미널에 연결되는 입력, 그리고 DE 신호를 출력하는 출력을 포함할 수 있다. DE 신호는 SPAD 회로(1501)의 DE 출력에 대응할 수 있다. 대안적인 실시 예에서, 버퍼(1609)는 인버터일 수 있다.The capacitor 1605 may include a first terminal and a second terminal connected to the cathode of the SPAD 1603. In alternative embodiments, the capacitor 1604 may be omitted. P-type MOSFET 1607 includes a first S / D terminal connected to a second terminal of capacitor 1605, a gate for receiving a shutter signal, and a second S / D for receiving a VPIX voltage (V DD ). It may include a terminal. The buffer 1609 may include an input connected to the second terminal of the capacitor 1605 and an output for outputting a DE signal. The DE signal may correspond to the DE output of the SPAD circuit 1501. In alternative embodiments, buffer 1609 may be an inverter.

도 17은 여기에 기재된 주제에 따른 시간-분해 센서(1500)의 논리 회로(1503)의 예시적인 실시 예의 개념 도를 보여준다. 논리 회로(1503)는 래치(1701) 및 2입력 논리합(OR) 게이트(1703)를 포함할 수 있다.17 shows a conceptual diagram of an example embodiment of a logic circuit 1503 of a time-decomposition sensor 1500 in accordance with the subject matter described herein. The logic circuit 1503 may include a latch 1701 and a two-input OR gate 1703.

래치(1701)는 SPAD 회로(1501)로부터의 DE 신호 출력에 연결되는 입력, 그리고 출력을 포함할 수 있다. DE 신호에 응답하여, 래치(1701)는, 예를 들어 논리 1로부터 논리 0으로 가고, 그리고 논리 0을 유지하는 논리 신호를 출력할 수 있다. 다시 말하면, 래치(1701)는 펄스 타입 신호를 논리 1으로부터 논리 0으로 가고 그리고 리셋 때까지 논리 1로 복귀하지 않고 논리 0을 유지하는 신호로 변환할 수 있다. 래치 출력은 DE 신호의 선두 에지에 의해 트리거 되며, 여기에서 선두 에지는 SPAD 회로(1501)의 설계에 의존하여 양으로 가거나 음으로 갈 수 있다.The latch 1701 may include an input and an output coupled to the DE signal output from the SPAD circuit 1501. In response to the DE signal, latch 1701 may, for example, go from logic 1 to logic 0 and output a logic signal that holds logic 0. In other words, latch 1701 may convert the pulse type signal from logic 1 to logic 0 and into a signal that maintains logic 0 without returning to logic 1 until reset. The latch output is triggered by the leading edge of the DE signal, where the leading edge can be positive or negative depending on the design of the SPAD circuit 1501.

2 입력 OR 게이트(1703)는 래치(1701)의 출력에 연결되는 제1 입력, TXRMD 신호를 수신하기 위한 제2 입력, 그리고 TXEN 신호를 출력하는 출력을 포함할 수 있다. 2 입력 OR 게이트(1703)는 논리적 OR 함수를 수행하고 그리고 결과를 TXEN 신호로 출력할 수 있다. 특히, 셔터 신호가 논리 1일 때에 SPAD 회로(1501)에 의해 광자가 수신되거나, 또는 PPD 회로(1505)의 PPD의 잔여 전하가 PIXOUT2 신호로 독출되기 위해 FD 노드로 완전히 전송될 때에 발생하는 TXRMD 신호가 논리 1일 때, 2 입력 OR 게이트(1703)의 출력은 논리 1이 된다.The two input OR gate 1703 may include a first input coupled to the output of the latch 1701, a second input for receiving a TXRMD signal, and an output for outputting a TXEN signal. The two input OR gate 1703 may perform a logical OR function and output the result as a TXEN signal. In particular, a TXRMD signal that occurs when a photon is received by the SPAD circuit 1501 when the shutter signal is logic 1, or when the remaining charge of the PPD of the PPD circuit 1505 is completely transferred to the FD node for reading into the PIXOUT2 signal. Is a logic one, the output of the two input OR gate 1703 is a logic one.

도 18은 여기에 기재된 주제에 따른 시간-분해 센서(1500)의 PPD 회로(1505)의 예시적인 실시 예의 개념 도를 보여준다. PPD 회로(1505)는 PPD(1801), 제1 트랜지스터(1803), 제2 트랜지스터(1805), 제3 트랜지스터(1807), 제4 트랜지스터(1809), 그리고 제5 트랜지스터(1811)를 포함할 수 있다.18 shows a conceptual diagram of an exemplary embodiment of a PPD circuit 1505 of a time-decomposition sensor 1500 according to the subject matter described herein. The PPD circuit 1505 may include a PPD 1801, a first transistor 1803, a second transistor 1805, a third transistor 1807, a fourth transistor 1809, and a fifth transistor 1811. have.

PPD(1801)는 접지 전위에 연결되는 양극, 그리고 음극을 포함할 수 있다. PPD(1801)는 커패시터와 유사한 방식으로 전하를 저장할 수 있다. 일 실시 예에서, PPD(1801)는 덮이고, 따라서 광에 응답하지 않으며, 광-감지 소자 대신에 TCC로 사용될 수 있다.The PPD 1801 may include an anode and a cathode connected to ground potential. PPD 1801 may store charge in a manner similar to a capacitor. In one embodiment, the PPD 1801 is covered and thus not responding to light, and can be used as a TCC instead of a light-sensitive element.

제1 트랜지스터(1803)는 논리 회로(1503)의 TXEN 신호 출력에 연결되는 게이트 터미널, VTX 신호를 수신하기 위한 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제1 트랜지스터(1803)는 VTX 신호를 수신하고, 그리고 VTX 신호가 TXEN 신호의 제어 하에 제1 트랜지스터(1803)를 통과하여 제1 트랜지스터(1803)의 제2 S/D 터미널에서 TX 신호를 출력하게 할 수 있다.The first transistor 1803 may include a gate terminal connected to the TXEN signal output of the logic circuit 1503, a first S / D terminal for receiving a VTX signal, and a second S / D terminal. The first transistor 1803 receives the VTX signal and causes the VTX signal to pass through the first transistor 1803 under the control of the TXEN signal to output the TX signal at the second S / D terminal of the first transistor 1803. can do.

제2 트랜지스터(1805)는 제1 트랜지스터(1803)의 제2 S/D 터미널에 연결되는 게이트 터미널, PPD(1801)의 음극에 연결되는 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제2 트랜지스터(1805)는 게이트 터미널에서 TX 신호를 수신하고, 그리고 소스 터미널의 PPD(1801)의 전하를 FD 노드에 연결된 드레인 터미널로 전송할 수 있다. 도 18에 도시되지 않았지만, FD 노드 및 접지 사이에 기생 커패시턴스가 존재할 수 있다. 일 실시 예에서, 물리적 커패시턴스 또한 FD 노드 및 접지 사이에 연결될 수 있다.The second transistor 1805 includes a gate terminal connected to the second S / D terminal of the first transistor 1803, a first S / D terminal connected to the cathode of the PPD 1801, and a second S / D terminal. It may include. The second transistor 1805 may receive the TX signal at the gate terminal and transfer the charge of the PPD 1801 of the source terminal to the drain terminal connected to the FD node. Although not shown in FIG. 18, parasitic capacitance may be present between the FD node and ground. In one embodiment, physical capacitance may also be coupled between the FD node and ground.

제3 트랜지스터(1807)는 RST 신호를 수신하기 위한 게이트 터미널, VPIX 전압을 수신하기 위한 제1 S/D 터미널, 그리고 제2 트랜지스터(1805)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The third transistor 1807 is connected to a gate terminal for receiving an RST signal, a first S / D terminal for receiving a VPIX voltage, and a second S / D terminal connected to the second S / D terminal of the second transistor 1805. It may include a D terminal.

제4 트랜지스터(1809)는 제2 트랜지스터(1805)의 제2 S/D 터미널에 연결되는 게이트 터미널, 제3 트랜지스터(1807)의 제1 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다.The fourth transistor 1809 is a gate terminal connected to the second S / D terminal of the second transistor 1805, a first S / D terminal connected to the first S / D terminal of the third transistor 1807, and It may include a second S / D terminal.

제5 트랜지스터(1811)는 SEL 신호를 수신하기 위한 게이트 터미널, 제4 트랜지스터(1809)의 제2 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 PPD 회로(1505)의 PIXOUT 출력인 제2 S/D 터미널을 포함할 수 있다. 제5 트랜지스터(1811)는 픽셀을 선택하기 위한 SEL 신호를 수신하여, FD 노드의 전하(PIXOUT1로서) 또는 PPD(1801)의 잔여 전하(PIXOUT2로서)를 독출할 수 있다.The fifth transistor 1811 is a gate terminal for receiving a SEL signal, a first S / D terminal connected to the second S / D terminal of the fourth transistor 1809, and a PIXOUT output of the PPD circuit 1505. It may include 2 S / D terminals. The fifth transistor 1811 may receive a SEL signal for selecting a pixel to read the charge (as PIXOUT1) of the FD node or the residual charge (as PIXOUT2) of the PPD 1801.

PPD(1801)로부터 FD 노드로 전송되는 전하는 TX 신호에 의해 제어된다. 일 실시 예에서, VTX 신호는 제1 트랜지스터를 통해 결합되어 TX 신호가 된다. VTX 신호는 위 방향으로 경사져서, PPD(1801)로부터 FD 노드로 전하를 점점 더 많이 전송한다. PPD(1801)로부터 FD 노드로 전송되는 전하의 양은 TX 신호의 레벨의 함수일 수 있으며, TX 신호의 경사는 시간의 함수일 수 있다. 따라서, PPD(1801)로부터 FD 노드로 전송되는 전하는 시간의 함수일 수 있다. PPD(1801)로부터 FD 노드로의 전하의 전송 동안, 제2 트랜지스터(1805)는 입사하는 광자들을 검출하는 SPAD 회로(1501)에 응답하여 턴 오프 되면, PPD(1801)로부터 FD 노드로의 전하의 전송은 중지된다. FD 노드로 전송되는 전하의 양 및 PPD(1801)에 남아있는 전하의 양은 모두 입사하는 광자의 TOF와 연관될 수 있다. TX 신호 및 입사하는 광자들의 검출에 기반한 PPD(1801)로부터 FD 노드로의 전하의 전송은, 전하의 시간에 대한 싱글-엔드의 차동 변환을 제공하는 것으로 여겨질 수 있다.The charge transmitted from the PPD 1801 to the FD node is controlled by the TX signal. In one embodiment, the VTX signal is coupled through the first transistor to become a TX signal. The VTX signal slopes upwards, transferring more and more charge from the PPD 1801 to the FD node. The amount of charge transferred from the PPD 1801 to the FD node may be a function of the level of the TX signal, and the slope of the TX signal may be a function of time. Thus, the charge transmitted from the PPD 1801 to the FD node may be a function of time. During transfer of charge from the PPD 1801 to the FD node, when the second transistor 1805 is turned off in response to the SPAD circuit 1501 detecting incident photons, the charge of the charge from the PPD 1801 to the FD node is lost. The transmission is stopped. The amount of charge transferred to the FD node and the amount of charge remaining in the PPD 1801 can both be associated with the TOF of the incident photons. The transfer of charge from the PPD 1801 to the FD node based on the TX signal and the detection of incident photons can be considered to provide a single-ended differential conversion of the charge's time.

제4 트랜지스터(1809)는 FD 노드에 저장된 전하를 제4 트랜지스터(1809)의 제2 S/D 터미널에서 전압으로 변환할 수 있다. SEL 신호는 픽셀을 선택하여, FD 노드로 전송된 전하에 대응하는 PIXOUT1 신호 또는 후속하여, PPD(1801)의 잔여 전하가 FD 노드로 전송된 후에 PPD(1801)에 남아있는 전하에 대응하는 PIXOUT2 신호를 독출하는 데에 사용될 수 있다. 일 실시 예에서, PIXOUT1 신호 및 PIXOUT2 신호의 합에 대한 PIXOUT1 신호의 비율은, 수학식 2의 비율에 나타나는 바와 같이, 픽셀에 의해 수신된 광 신호의 TOF 및 지연 시간 사이의 차이에 비례할 수 있다. VTX 신호가 위로 경사지기 시작한 후에 광 펄스가 전송되는 실시 예에서, 지연 시간은 음일 수 있다.The fourth transistor 1809 may convert charge stored in the FD node into a voltage at the second S / D terminal of the fourth transistor 1809. The SEL signal selects a pixel so that the PIXOUT1 signal corresponds to the charge transferred to the FD node, or subsequently the PIXOUT2 signal corresponding to the charge remaining in the PPD 1801 after the residual charge of the PPD 1801 is transferred to the FD node. Can be used to read. In one embodiment, the ratio of the PIXOUT1 signal to the sum of the PIXOUT1 signal and the PIXOUT2 signal may be proportional to the difference between the TOF and the delay time of the optical signal received by the pixel, as shown in the ratio of equation (2). . In an embodiment in which an optical pulse is transmitted after the VTX signal begins to slope upward, the delay time may be negative.

시간-분해 센서(1500)에 대해, 수학식 2에서 기술된 비율은 대상의 깊이 또는 범위를 결정하는 데에 사용될 수 있고, 그리고 PIXOUT1 신호 및 PIXOUT2 신호의 합이 측정값마다 다르지 않은 경우 측정 간 변동에 덜 민감하다. 일 실시 예에서, VTX 신호는 이상적으로 선형일 수 있으며, TOF 픽셀 어레이의 서로 다른 픽셀들에 걸쳐 이상적으로 균일할 수 있다. 그러나 실제로, TOF 픽셀 어레이의 서로 다른 픽셀들에 인가될 수 있는 VTX 신호는 픽셀마다 다를 수 있으며, 따라서 픽셀간 VTX 신호의 변화에 의존하는 범위 측정에 에러가 발생하고 또한 측정마다 다를 수 있다.For the time-decomposition sensor 1500, the ratios described in Equation 2 can be used to determine the depth or range of the subject, and fluctuations between measurements if the sum of the PIXOUT1 and PIXOUT2 signals does not vary from measurement to measurement. Less sensitive to In one embodiment, the VTX signal may be ideally linear and ideally uniform across different pixels of the TOF pixel array. In practice, however, the VTX signal that may be applied to the different pixels of the TOF pixel array may vary from pixel to pixel, thus causing errors in range measurements that depend on changes in the VTX signal between pixels and may also vary from measurement to measurement.

일 실시 예에서, 제1 트랜지스터(1803), 제2 트랜지스터(1805), 제3 트랜지스터(1807), 제4 트랜지스터(1809), 그리고 제5 트랜지스터(1811)는 각각 n-타입 MOSFET 또는 p-타입 MOSFET일 수 있다. 그러나 임의의 적절한 트랜지스터가 사용될 수 있으므로, 여기에 기재된 주제는 n-타입 MOSFET들 또는 p-타입 MOSFET들을 사용하는 것으로 한정되지 않는다.In one embodiment, the first transistor 1803, the second transistor 1805, the third transistor 1807, the fourth transistor 1809, and the fifth transistor 1811 are each an n-type MOSFET or a p-type, respectively. It may be a MOSFET. However, any suitable transistor can be used, so the subject matter described herein is not limited to using n-type MOSFETs or p-type MOSFETs.

도 19는 여기에 기재된 주제에 따른 도 15의 시간-분해 센서(1500)에 대한 예시적인 상대적인 신호 타이밍 도를 보여준다. 도 19에서, 셔터 오프(초기화) 구간 동안, RST 신호, VTX 신호, 그리고 TX 신호 각각은 하이(논리 1)가 되고, 이후에 0(논리 0)으로 돌아가 PPD 회로(1505)를 리셋한다. TXEN 신호는 하이이다. PPD(1801)는 초기화 구간에서 자신의 총 용량까지 전하로 채워질 수 있다. VTX 신호 및 TX 신호는 로우가 되어 PPD 회로(1505)의 제2 트랜지스터(1805)를 턴 오프 한다. VPIX 전압은 하이가 되고, 따라서 FD 노드가 리셋되게 한다. 광 펄스는 RST 신호가 0으로 돌아올 때 또는 그로부터 잠시 후에 대상을 향해 전송된다. VTX 신호는 이후에 위로 경사지기 시작하고, 그리고 셔터 신호는 하이가 되어 셔터 온 구간을 시작한다.FIG. 19 shows an exemplary relative signal timing diagram for the time-resolved sensor 1500 of FIG. 15 in accordance with the subject matter described herein. In Fig. 19, during the shutter off (initialization) period, each of the RST signal, the VTX signal, and the TX signal becomes high (logical 1), and then returns to 0 (logical 0) to reset the PPD circuit 1505. TXEN signal is high. The PPD 1801 may be filled with charge up to its total capacity in the initialization period. The VTX signal and the TX signal go low to turn off the second transistor 1805 of the PPD circuit 1505. The VPIX voltage goes high, thus causing the FD node to reset. The light pulse is transmitted towards the object when the RST signal returns to zero or after a while. The VTX signal then begins to slope up, and the shutter signal goes high to start the shutter on period.

VTX 신호가 위로 경사짐에 따라, TX 신호 또한 위로 경사지고 그리고 FD 노드의 전하는 TX 신호에 응답하여 감소하기 시작한다. 반환된 광 펄스는 TXEN 신호가 로우(논리 0)가 되게 하고, 따라서 FD 노드 및 PPD(1801) 사이의 전하들의 전송을 중지한다.As the VTX signal slopes up, the TX signal also slopes up and the charge of the FD node begins to decrease in response to the TX signal. The returned light pulse causes the TXEN signal to go low (logical 0), thus stopping the transfer of charges between the FD node and the PPD 1801.

지연 시간(Tdly)은 전송된 광 펄스의 시작 및 TX 신호가 위로 경사지기 시작하는 시간 사이의 시간을 나타낸다. 비행 시간(Ttof)은 전송된 광 펄스의 시작 및 반환 신호가 수신되는 시간 사이의 시간을 나타낸다. 전자 셔터 시간(Tsh)은 전자 셔터가 열린 때로부터 전자 셔터가 닫힌 시간까지의 시간(셔터 온 구간)을 나타낸다. 일 실시 예에서, 전자 셔터 시간(Tsh)은 VTX 신호의 경사 시간과 같거나 그보다 적을 수 있다.The delay time T dly represents the time between the start of the transmitted light pulse and the time when the TX signal starts to slope upward. The flight time T tof represents the time between the start of the transmitted light pulse and the time when the return signal is received. The electronic shutter time T sh represents the time (shutter on section) from when the electronic shutter is opened to when the electronic shutter is closed. In one embodiment, the electronic shutter time T sh may be less than or equal to the inclination time of the VTX signal.

전송된 전하는 전송된 전하 읽기 구간 동안 PIXOUT1 신호로서 독출된다. 셔터 신호가 로우인 동안, RST 신호는 두 번째로 하이가 되어 FD 노드의 전하를 리셋하고, 이후에 TXRMD 신호, TXEN 신호 및 TX 신호는 하이가 되어 PPD(1801)에 남아있는 전하를 PIXOUT2 신호로 독출하기 위해 FD 노드로 전송한다.The transferred charge is read as the PIXOUT1 signal during the transferred charge read interval. While the shutter signal is low, the RST signal goes high second to reset the charge at the FD node, after which the TXRMD signal, TXEN signal, and TX signal go high to transfer the charge remaining in the PPD 1801 to the PIXOUT2 signal. Send it to the FD node for reading.

도 20은 여기에 기재된 주제에 따른 시간-분해 센서(2000)의 다른 예시적인 실시 예의 블록 도를 보여준다. 시간-분해 센서(2000)는 SPAD 회로(2001), 논리 회로(2003), 그리고 제2 PPD 회로(2005)를 포함할 수 있다.20 shows a block diagram of another exemplary embodiment of a time-decomposition sensor 2000 according to the subject matter described herein. The time-decomposition sensor 2000 may include a SPAD circuit 2001, a logic circuit 2003, and a second PPD circuit 2005.

SPAD 회로(2001)는 광자들을 검출하기 위한 SPAD, VSPAD 전압을 수신하기 위한 제1 입력, 전자 셔터의 열림 및 닫힘을 제어하기 위한 셔터 신호를 수신하기 위한 제2 입력, VDD 전압(VDD)을 수신하기 위한 제3 입력, 그리고 검출 사건(DE) 신호를 출력하기 위한 출력을 포함할 수 있다. 광자를 수신하는 것에 응답하여, SPAD 회로(2001)는 빠르게 VSPAD로부터 0으로 되고 그리고 천천히 VSPAD로 돌아오는 펄스 신호를 출력할 수 있다. 일 실시 예에서, SPAD 회로(2001)는 도 15에 도시된 SPAD 회로(1501)와 동일할 수 있다.The SPAD circuit 2001 receives a SPAD for detecting photons, a first input for receiving a VSPAD voltage, a second input for receiving a shutter signal for controlling the opening and closing of the electronic shutter, and a VDD voltage VDD. A third input for outputting and an output for outputting a detection event (DE) signal. In response to receiving the photons, the SPAD circuit 2001 may output a pulse signal that quickly goes from VSPAD to zero and slowly returns to VSPAD. In one embodiment, the SPAD circuit 2001 may be the same as the SPAD circuit 1501 shown in FIG. 15.

논리 회로(2003)는 SPAD 회로(2001)의 DE 출력에 연결되는 제1 입력, 제2 PPD 회로(2005)의 PPD에 남아있는 전하를 완전히 전송하기 위한 TXRMD 신호를 수신하기 위한 제2 입력, 그리고 TXEN 신호를 출력하기 위한 출력을 포함할 수 있다. 일 실시 예에서, 논리 회로(2003)는 도 15에 도시된 논리 회로(1503)와 동일할 수 있다.The logic circuit 2003 has a first input coupled to the DE output of the SPAD circuit 2001, a second input for receiving a TXRMD signal for fully transferring charge remaining in the PPD of the second PPD circuit 2005, and It may include an output for outputting the TXEN signal. In one embodiment, the logic circuit 2003 may be the same as the logic circuit 1503 shown in FIG. 15.

제2 PPD 회로(2005)는 논리 회로(2003)로부터의 TXEN 신호 출력에 연결되는 제1 입력, TXRMD 신호를 수신하기 위한 논리 회로(2003)의 제2 입력에 연결되는 제2 입력, 제2 PPD 회로(2005)의 PPF로부터 제2 PPD 회로(2005)의 제1 플로팅 디퓨젼(FD1) 노드로 전하를 부분적으로 또는 완전히 전송하기 위한 VTX 신호를 수신하기 위한 제3 입력, FD1 노드의 전하를 리셋하고 그리고 PPD의 전하를 프리셋하기 위한 RST 신호를 수신하기 위한 제4 입력, 제2 PPD 회로(2005)에 대한 VPIX 신호를 수신하기 위한 제5 입력, FD1 노드의 전하에 대응하는 PIXOUT1 신호를 PIXOUT1 출력에서 독출하게 하고, 그리고 제2 PPD 회로(2005)의 PPD에 남아있는 전하에 대응하는 PIXOUT2 신호를 PIXOUT2 출력에서 독출하게하는 SEL 신호를 수신하기 위한 제6 입력을 포함할 수 있다.The second PPD circuit 2005 has a first input coupled to the TXEN signal output from the logic circuit 2003, a second input coupled to the second input of the logic circuit 2003 for receiving the TXRMD signal, and a second PPD. Reset charge at the third input, FD1 node to receive a VTX signal for partially or fully transferring charge from the PPF of circuit 2005 to the first floating diffusion FD1 node of second PPD circuit 2005. And a fourth input for receiving an RST signal for presetting the charge of the PPD, a fifth input for receiving a VPIX signal for the second PPD circuit 2005, and a PIXOUT1 signal corresponding to the charge of the FD1 node. And a sixth input for receiving a SEL signal to read from the PIXOUT2 output a PIXOUT2 signal corresponding to the charge remaining in the PPD of the second PPD circuit 2005.

도 21은 여기에 기재된 주제에 따른 시간-분해 센서(2000)의 제2 PPD 회로(2005)의 예시적인 실시 예의 개념 도를 보여준다. 제2 PPD 회로(2005)는 PPD(2101), 제1 트랜지스터(2103), 제2 트랜지스터(2105), 제3 트랜지스터(2107), 제4 트랜지스터(2109), 제5 트랜지스터(2111), 제6 트랜지스터(2113), 제7 트랜지스터(2115), 제8 트랜지스터(2117), 그리고 제9 트랜지스터(2119)를 포함할 수 있다.21 shows a conceptual diagram of an exemplary embodiment of a second PPD circuit 2005 of a time-decomposition sensor 2000 according to the subject matter described herein. The second PPD circuit 2005 includes a PPD 2101, a first transistor 2103, a second transistor 2105, a third transistor 2107, a fourth transistor 2109, a fifth transistor 2111, and a sixth transistor. The transistor 2113, the seventh transistor 2115, the eighth transistor 2117, and the ninth transistor 2119 may be included.

PPD(2101)는 접지 전위에 연결된 양극, 그리고 음극을 포함할 수 있다. PPD(2101)는 커패시터와 유사한 방식으로 전하를 저장할 수 있다. 일 실시 예에서, PPD(2101)는 덮이고, 따라서 광에 응답하지 않으며, 광-감지 소자 대신 TCC로 사용될 수 있다.The PPD 2101 may include an anode connected to ground potential, and a cathode. PPD 2101 can store charge in a manner similar to a capacitor. In one embodiment, the PPD 2101 is covered and thus not responding to light, and may be used as a TCC instead of a light-sensitive element.

제1 트랜지스터(2103)는 TXEN 신호 출력을 수신하기 위한 논리 회로(2003)의 출력에 연결되는 게이트 터미널, PPD(2101)로부터의 전하의 전송을 제어하기 위한 VTX 전압을 수신하기 위한 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다.The first transistor 2103 is a gate terminal connected to the output of a logic circuit 2003 for receiving a TXEN signal output, a first S / for receiving a VTX voltage for controlling the transfer of charge from the PPD 2101. And a second S / D terminal.

제2 트랜지스터(2105)는 PPD(2101)로부터 전하를 전송하기 위한 TX 신호를 수신하기 위한 제1 트랜지스터(2103)의 제2 S/D 터미널에 연결되는 게이트 터미널, PPD(2101)의 음극에 연결되는 제2 S/D 터미널, 그리고 PPD(2101)로부터 전하가 전송되는 제1 플로팅 디퓨전(FD1) 노드에 연결되는 제2 S/D 터미널을 포함할 수 있다. FD1 노드는 제1 커패시터를 가질 수 있다. FD1 노드 및 접지 사이에, 도 21에 도시되지 않은 기생 커패시턴스가 존재할 수 있다. 일 실시 예에서, 물리적 커패시턴스 또한 FD1 노드 및 접지 사이에 연결될 수 있다. PPD(2101)로부터 제2 트랜지스터(2105)를 통해 FD1 노드로 전송되는 전하는 TX 신호에 의해 제어될 수 있다.The second transistor 2105 is connected to a gate terminal connected to a second S / D terminal of the first transistor 2103 for receiving a TX signal for transferring charge from the PPD 2101, to a cathode of the PPD 2101. And a second S / D terminal connected to the first floating diffusion (FD1) node through which charge is transferred from the PPD 2101. The FD1 node may have a first capacitor. Between the FD1 node and ground, there may be parasitic capacitance not shown in FIG. In one embodiment, physical capacitance may also be coupled between the FD1 node and ground. The charge transmitted from the PPD 2101 to the FD1 node through the second transistor 2105 may be controlled by the TX signal.

제3 트랜지스터(2107)는 FD1 노드 및 제2 트랜지스터(2105)의 제2 S/D 터미널에 연결되는 게이트 터미널, VPIX 전압을 수신하기 위한 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제3 트랜지스터(2107)는 FD1 노드에 저장된 전하를 제3 트랜지스터(2107)의 제2 S/D 터미널에서 전압으로 변환할 수 있다.The third transistor 2107 includes a gate terminal connected to the FD1 node and the second S / D terminal of the second transistor 2105, a first S / D terminal for receiving a VPIX voltage, and a second S / D terminal. It may include. The third transistor 2107 may convert charge stored in the FD1 node into a voltage at the second S / D terminal of the third transistor 2107.

제4 트랜지스터(2109)는 FD1 노드의 전하 레벨을 세팅하기 위한 RST 신호를 수신하기 위한 게이트 터미널, VPIX 전압을 수신하기 위한 제1 S/D 터미널, 그리고 제2 트랜지스터(2105)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The fourth transistor 2109 is a gate terminal for receiving the RST signal for setting the charge level of the FD1 node, a first S / D terminal for receiving the VPIX voltage, and a second S / of the second transistor 2105. It may include a second S / D terminal connected to the D terminal.

제5 트랜지스터(2111)는 FD1 노드의 전하를 독출하기 위한 SEL 신호를 수신하기 위한 게이트 터미널, 제3 트랜지스터(2107)의 제2 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 FD1 노드의 전하에 대응하는 전압을 PIXOUT1 신호로 출력하기 위한 픽셀 출력(PIXOUT1) 데이터 라인에 연결되는 제2 S/D 터미널을 포함할 수 있다.The fifth transistor 2111 is a gate terminal for receiving a SEL signal for reading the charge of the FD1 node, a first S / D terminal connected to the second S / D terminal of the third transistor 2107, and an FD1 node. And a second S / D terminal connected to the pixel output PIXOUT1 data line for outputting a voltage corresponding to the charge of the PIXOUT1 signal.

제6 트랜지스터(2113)는 PPD(2101)에 남아있는 전하를 제2 플로팅 디퓨전(FD2) 노드로 완전히 전송하기 위한 TXRMD 신호를 수신하기 위한 게이트 터미널, PPD(2101)의 음극에 연결되는 제1 S/D 터미널, 그리고 FD2 노드에 연결되는 제2 S/D 터미널을 포함할 수 있다. FD2 노드는 제2 커패시턴스를 가질 수 있다. FD2 노드 및 접지 사이에, 도 21에 도시되지 않은 기생 커패시턴스가 존재할 수 있다. 일 실시 예에서, 물리적 커패시턴스 또한 FD2 노드와 접지 사이에 연결될 수 있다. 일 실시 예에서, FD2 노드의 제2 커패시턴스는 FD1 노드의 제1 커패시턴스와 같을 수 있다. PPD(2101)에 남아있는 임의의 잔여 전하는 제6 트랜지스터(2113)를 통해 FD2 노드로 전송될 수 있다.The sixth transistor 2113 is a gate terminal for receiving a TXRMD signal for completely transferring the charge remaining in the PPD 2101 to the second floating diffusion (FD2) node, and a first S connected to the cathode of the PPD 2101. / D terminal, and a second S / D terminal connected to the FD2 node. The FD2 node may have a second capacitance. Between the FD2 node and ground, there may be parasitic capacitance that is not shown in FIG. In one embodiment, physical capacitance may also be coupled between the FD2 node and ground. In one embodiment, the second capacitance of the FD2 node may be equal to the first capacitance of the FD1 node. Any residual charge remaining in PPD 2101 may be transferred to node FD2 through sixth transistor 2113.

제7 트랜지스터(2115)는 제6 트랜지스터(2113)의 제2 S/D 노드 및 FD2 노드에 연결되는 게이트 터미널, VPIX 전압을 수신하기 위한 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제7 트랜지스터(2115)는 FD2 노드에 저장된 전하를 제7 트랜지스터의 제2 S/D 터미널에서 전압으로 변환할 수 있다.The seventh transistor 2115 includes a gate terminal connected to the second S / D node and the FD2 node of the sixth transistor 2113, a first S / D terminal for receiving a VPIX voltage, and a second S / D terminal. It may include. The seventh transistor 2115 may convert charge stored in the FD2 node into a voltage at the second S / D terminal of the seventh transistor.

제8 트랜지스터(2117)는 FD2 노드의 전하 레벨을 세팅하기 위한 RST 신호를 수신하기 위한 게이트 터미널, VPIX 신호를 수신하기 위한 제1 S/D 터미널, 그리고 제6 트랜지스터(2113)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The eighth transistor 2117 is a gate terminal for receiving the RST signal for setting the charge level of the FD2 node, a first S / D terminal for receiving the VPIX signal, and a second S / of the sixth transistor 2113. It may include a second S / D terminal connected to the D terminal.

제9 트랜지스터(2119)는 픽셀을 선택하여 FD2 노드의 전하에 대응하는 전압을 독출하기 위한 SEL 신호를 수신하기 위한 게이트 터미널, 제7 트랜지스터(2115)의 제2 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 FD2 노드의 전하에 대응하는 전압을 PIXOUT2 신호로 출력하기 위한 픽셀 출력(PIXOUT2) 데이터 라인에 연결되는 제2 S/D 터미널을 포함할 수 있다.The ninth transistor 2119 is a gate terminal for receiving a SEL signal for selecting a pixel and reading a voltage corresponding to the charge of the FD2 node, and a first S / D terminal connected to the second S / D terminal of the seventh transistor 2115. An S / D terminal and a second S / D terminal connected to a pixel output (PIXOUT2) data line for outputting a voltage corresponding to the charge of the FD2 node as a PIXOUT2 signal.

일 실시 예에서, VTX 신호(그리고 TX 신호)는 위로 경사져서 PPD(2101)로부터 FD1 노드로 전하를 전송할 수 있다. PPD(2101)로부터 FD1 노드로 전송되는 전하의 양은 TX 신호의 레벨의 함수일 수 있으며, TX 신호의 경사는 시간의 함수일 수 있다. 따라서, PPD(2101)로부터 FD1 노드로 전송되는 전하는 시간의 함수일 수 있다. PPD(2101)로부터 FD1 노드로의 전하의 전송 동안에, SPAD 회로(2001)가 입사하는 광자를 검출하는 것에 응답하여 제2 트랜지스터(2105)가 턴 오프 되면, PPD(2101)로부터 FD1 노드로의 전하의 전송은 중지되고, 그리고 FD1 노드로 전송된 전하의 양 및 PPD(2101)에 남아있는 전하의 양 모두는 입사하는 광자의 TOF에 연관된다. TX 신호 및 입사하는 광자들의 검출에 기반한 PPD(2101)로부터 FD1 노드로의 전하의 전송은 전하의 시간에 대한 싱글 엔드-차동 변환을 제공한다.In one embodiment, the VTX signal (and the TX signal) can be sloped upward to transfer charge from the PPD 2101 to the FD1 node. The amount of charge transferred from the PPD 2101 to the FD1 node may be a function of the level of the TX signal, and the slope of the TX signal may be a function of time. Thus, the charge transmitted from the PPD 2101 to the FD1 node may be a function of time. During transfer of charge from the PPD 2101 to the FD1 node, the charge from the PPD 2101 to the FD1 node is turned off when the second transistor 2105 is turned off in response to detecting the photon incident by the SPAD circuit 2001. Is stopped, and both the amount of charge transferred to the FD1 node and the amount of charge remaining in the PPD 2101 is associated with the TOF of the incident photons. The transfer of charge from the PPD 2101 to the FD1 node based on the TX signal and the detection of incident photons provides a single end-to-differential conversion over the time of charge.

시간-분해 센서(2000)에 대해, 수학식 2에 기술된 비율은 대상의 깊이 또는 범위를 판단하는 데에 사용될 수 있고, PIXOUT1 및 PIXOUT2 신호들의 합이 측정 단위로 변화하지 않으면 측정 단위 변동들에 덜 민감하다. 일 실시 예에서, VTX 신호는 이상적으로 선형일 수 있고, TOF 픽셀 어레이의 서로 다른 픽셀들에 걸쳐 이상적으로 균일할 수 있다. 그러나 실제로, TOF 픽셀 어레이의 서로 다른 픽셀들에 인가되는 VTX 신호는 픽셀 단위로 변동하고, 따라서 픽셀 단위의 VTX 신호의 변동에 의존하여 범위 측정에 에러를 유발하며, 또한 측정 단위로 변동할 수 있다.For the time-decomposition sensor 2000, the ratio described in Equation 2 can be used to determine the depth or range of the object, and if the sum of the PIXOUT1 and PIXOUT2 signals does not change in units of measurement, Less sensitive. In one embodiment, the VTX signal may be ideally linear and ideally uniform across different pixels of the TOF pixel array. In practice, however, the VTX signal applied to the different pixels of the TOF pixel array fluctuates on a pixel basis, thus causing errors in range measurement depending on the variation of the VTX signal on a pixel basis and may also fluctuate on a measurement basis. .

일 실시 예에서, 제1 트랜지스터(2103), 제2 트랜지스터(2105), 제3 트랜지스터(2107), 제4 트랜지스터(2109), 제5 트랜지스터(2111), 제6 트랜지스터(2113), 제7 트랜지스터(2115), 제8 트랜지스터(2117), 그리고 제9 트랜지스터(2119)는 각각 n-타입 MOSFET 또는 p-타입 MOSFET일 수 있지만, 임의의 다른 적절한 트랜지스터가 사용될 수 있다.In one embodiment, the first transistor 2103, the second transistor 2105, the third transistor 2107, the fourth transistor 2109, the fifth transistor 2111, the sixth transistor 2113, and the seventh transistor. 2115, eighth transistor 2117, and ninth transistor 2119 may each be an n-type MOSFET or a p-type MOSFET, but any other suitable transistor may be used.

도 22는 여기에 기재된 주제에 따른 시간-분해 센서(2000)에 대한 예시적인 상대적인 신호 타이밍 도(2200)를 보여준다. 도 22의 신호 타이밍 도는 도 19의 신호 타이밍 도와 유사하며, 유사점들은 도 19를 참조하여 설명된다. 도 22의 신호 타이밍 도는 FD 신호를 포함하고 그리고 셔터 온 구간의 마지막에서 PPD(2101)의 잔여 전하가 TXRMD 신호의 동작에 의해 FD2 노드로 전송되는 점에서 다르다. 추가적으로, PIXOUT1 및 PIXOUT2 신호들은 동시에 읽혀질 수 있다.22 shows an exemplary relative signal timing diagram 2200 for a time-resolved sensor 2000 according to the subject matter described herein. The signal timing diagram of FIG. 22 is similar to the signal timing diagram of FIG. 19, and similarities are described with reference to FIG. 19. The signal timing diagram of FIG. 22 differs in that it includes the FD signal and at the end of the shutter-on period, the remaining charge of the PPD 2101 is transferred to the FD2 node by the operation of the TXRMD signal. In addition, the PIXOUT1 and PIXOUT2 signals can be read simultaneously.

제2 PPD 회로(2005)는 변하지 않는 총 용량에 의존하여 최대 범위를 판단하지만, 시간-분해 센서(2000)의 실제 구현은 서로 다른 제2 PPD 회로들(2005) 사이의 열 잡음에 기반하여 PPD(2101)에 대한 총 용량 변동을 경험할 수 있음에 유의하여야 한다. 추가적으로, VTX 신호는 픽셀 어레이의 픽셀의 위치에 기반하여 서로 다른 경사들(기울기들)을 가질 수 있다. 즉, 픽셀에서 VTX 신호의 경사(기울기)는 픽셀이 VTX 신호의 소스로부터 얼마나 가까운지에 의존하여 변동할 수 있다.Although the second PPD circuit 2005 determines the maximum range depending on the total capacity which does not change, the actual implementation of the time-decomposition sensor 2000 is based on the thermal noise between the different second PPD circuits 2005. It should be noted that the total dose variation for (2101) may be experienced. In addition, the VTX signal may have different inclinations (tilts) based on the position of the pixels in the pixel array. That is, the slope (tilt) of the VTX signal at the pixel may vary depending on how close the pixel is from the source of the VTX signal.

도 23은 여기에 기재된 주제에 따른 시간-분해 센서(2300)의 또 다른 예시적인 실시 예의 블록 도를 보여준다. 시간-분해 센서(2300)는 하나 또는 그보다 많은 SPAD 회로들(2301a~2301n), 논리 회로(2303), 그리고 제3 PPD 회로(2305)를 포함할 수 있다.FIG. 23 shows a block diagram of another exemplary embodiment of a time-decomposition sensor 2300 in accordance with the subject matter described herein. The time-decomposition sensor 2300 may include one or more SPAD circuits 2301a-2301n, a logic circuit 2303, and a third PPD circuit 2305.

일 실시 예에서, 하나 또는 그보다 많은 SPAD 회로들(2301)의 각각은 SPAD(3211), 저항(2313), 커패시터(2315), p-타입 MOSFET 트랜지스터(2317), 그리고 버퍼(2319)를 포함할 수 있다. SPAD(2311)는 접지 전위에 연결되는 양극, 그리고 음극을 포함할 수 있다. 저항(2313)은 VSPAD 전압을 수신하기 위한 제1 터미널 및 SPAD(2311)의 음극에 연결되는 제2 터미널을 포함할 수 있다. 다른 실시 예에서, SPAD(2311) 및 저항(2313)의 위치들은 교환될 수 있다. SPAD(2311)는 광에 응답할 수 있다. 광자를 수신하는 것에 응답하여, SPAD(2311)는 급격히 VSPAD 전압으로부터 파괴 전압보다 낮은 전압으로 되고, 이후에 VSPAD 전압으로 더 천천히 복귀하는 펄스 신호를 출력할 수 있다.In one embodiment, each of the one or more SPAD circuits 2301 may include a SPAD 3211, a resistor 2313, a capacitor 2315, a p-type MOSFET transistor 2317, and a buffer 2319. Can be. The SPAD 2311 may include a positive electrode and a negative electrode connected to a ground potential. The resistor 2313 may include a first terminal for receiving a VSPAD voltage and a second terminal connected to a cathode of the SPAD 2311. In other embodiments, the locations of SPAD 2311 and resistor 2313 may be exchanged. SPAD 2311 may respond to light. In response to receiving the photons, the SPAD 2311 may output a pulse signal that suddenly goes from the VSPAD voltage to a voltage lower than the breakdown voltage and then returns more slowly to the VSPAD voltage.

커패시터(2315)는 SPAD(2311)의 음극에 연결되는 제1 터미널, 그리고 제2 터미널을 포함할 수 있다. 대안적인 실시 예에서, 커패시터(2315)는 생략될 수 있다. P-타입 MOSFET 트랜지스터(2317)는 커패시터(2315)의 제2 터미널에 연결되는 제1 S/D 터미널, 셔터 신호를 수신하기 위한 게이트 터미널, 그리고 VPIX 전압(VDD)을 수신하기 위한 제2 S/D 터미널을 포함할 수 있다. 버퍼(2319)는 커패시터(2315)의 제2 터미널에 연결되는 입력, 그리고 SPAD 회로(2311)의 출력에 대응하는 DE 신호를 출력할 수 있는 반전 출력을 포함할 수 있다. 대안적인 실시 예에서, 버퍼(2319)는 반전하지 않을 수 있다.The capacitor 2315 may include a first terminal and a second terminal connected to the cathode of the SPAD 2311. In alternative embodiments, capacitor 2315 may be omitted. P-type MOSFET transistor 2317 is a first S / D terminal connected to a second terminal of capacitor 2315, a gate terminal for receiving a shutter signal, and a second S for receiving VPIX voltage (V DD ). May include the / D terminal. The buffer 2319 may include an input connected to the second terminal of the capacitor 2315, and an inverted output capable of outputting a DE signal corresponding to the output of the SPAD circuit 2311. In alternative embodiments, buffer 2319 may not be inverted.

논리 회로(2303)는 하나 또는 그보다 많은 SPAD 회로들(2301a~2301n)의 각각의 DE 신호 출력에 연결되는 입력들, 그리고 TXEN 신호 및 TXEN 신호의 반전일 수 있는 TXENB 신호를 출력하는 출력들을 포함할 수 있다.Logic circuit 2303 may include inputs coupled to each DE signal output of one or more SPAD circuits 2301a-2301n and outputs that output a TXENB signal, which may be the inversion of the TXEN signal and the TXEN signal. Can be.

제3 PPD 회로(2305)는 용량성 장치(SC), 제1 트랜지스터(2351), 제2 트랜지스터(2353), 제3 트랜지스터(2355), 제4 트랜지스터(2357), 제5 트랜지스터(2359), 제6 트랜지스터(2361), 제7 트랜지스터(2363), 제8 트랜지스터(2365), 제9 트랜지스터(2367), 제10 트랜지스터(2369), 제11 트랜지스터(2371), 제12 트랜지스터(2373), 그리고 제13 트랜지스터(2375)를 포함할 수 있다.The third PPD circuit 2305 includes the capacitive device SC, the first transistor 2351, the second transistor 2353, the third transistor 2355, the fourth transistor 2357, the fifth transistor 2359, The sixth transistor 2361, the seventh transistor 2363, the eighth transistor 2365, the ninth transistor 2367, the tenth transistor 2369, the eleventh transistor 2237, the twelfth transistor 2373, and The thirteenth transistor 2375 may be included.

용량성 장치(SC)는 접지 전위에 연결되는 제1 터미널, 그리고 제2 터미널을 포함할 수 있다. 용량성 장치(SC)는 커패시터와 유사한 방식으로 전하를 저장할 수 있다. 일 실시 예에서, 용량성 장치(SC)는 커패시터일 수 있다. 다른 실시 예에서, 용량성 장치(SC)는 덮여져서 광에 응답하지 않는 PPD일 수 있다. 또 다른 실시 예에서, 용량성 장치(SC)는 TCC의 일부로 사용될 수 있다.The capacitive device SC may include a first terminal connected to a ground potential, and a second terminal. The capacitive device SC can store charge in a manner similar to a capacitor. In one embodiment, the capacitive device SC may be a capacitor. In another embodiment, the capacitive device SC may be a PPD that is covered and does not respond to light. In another embodiment, the capacitive device SC can be used as part of the TCC.

제1 트랜지스터(2351)는 RST 신호에 연결되는 게이트 터미널(2351), 접지 전위에 연결되는 제1 S/D 터미널, 그리고 용량성 장치(SC)의 제2 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The first transistor 2351 has a gate terminal 2351 connected to the RST signal, a first S / D terminal connected to the ground potential, and a second S / D terminal connected to the second terminal of the capacitive device SC. It may include.

제2 트랜지스터(2353)는 TXA 신호에 연결되는 게이트 터미널, 제1 플로팅 디퓨전(FD1) 노드에 연결되는 제1 S/D 터미널, 그리고 제1 트랜지스터(2351)의 제2 S/D 터미널 및 용량성 장치(SC)의 제2 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다. 제1 플로팅 디퓨전(FD1) 노드는 도 23에서 커패시터 부호로 표현된다. FD1 노드 및 접지 사이에, 도 23에 표시되지 않은 기생 커패시턴스가 존재할 수 있다. 일 실시 예에서, 물리적 커패시턴스 또한 FD1 노드와 접지의 사이에 연결될 수 있다.The second transistor 2353 is a gate terminal connected to a TXA signal, a first S / D terminal connected to a first floating diffusion (FD1) node, and a second S / D terminal and a capacitive property of the first transistor 2351. It may include a second S / D terminal connected to the second terminal of the device (SC). The first floating diffusion FD1 node is represented by a capacitor sign in FIG. 23. Between the FD1 node and ground, there may be parasitic capacitances not shown in FIG. In one embodiment, the physical capacitance may also be coupled between the FD1 node and ground.

제3 트랜지스터(2355)는 FD1 노드 및 제2 트랜지스터(2353)의 제1 S/D 노드에 연결되는 게이트 터미널, VPIX 전압에 연결되는 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제3 트랜지스터(2355)는 FD1 노드의 전하를 제3 트랜지스터(2355)의 제2 S/D 터미널에서 전압으로 변환할 수 있다.The third transistor 2355 includes a gate terminal connected to the FD1 node and the first S / D node of the second transistor 2353, a first S / D terminal connected to the VPIX voltage, and a second S / D terminal. can do. The third transistor 2355 may convert the charge of the FD1 node into a voltage at the second S / D terminal of the third transistor 2355.

제4 트랜지스터(2357)는 RST 신호에 연결되는 게이트 터미널, VPIX 전압에 연결되는 제1 S/D 터미널, 그리고 제1 트랜지스터(2351)의 제2 S/D 터미널 및 용량성 장치(SC)의 제2 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The fourth transistor 2357 includes a gate terminal connected to the RST signal, a first S / D terminal connected to the VPIX voltage, and a second S / D terminal of the first transistor 2351 and the first of the capacitive device SC. It may include a second S / D terminal connected to the two terminals.

제5 트랜지스터(2359)는 TXEN 신호에 연결되는 게이트 터미널, VTX 신호에 연결되는 제1 S/D 터미널, 그리고 제2 트랜지스터(2353)의 게이트 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The fifth transistor 2359 may include a gate terminal connected to the TXEN signal, a first S / D terminal connected to the VTX signal, and a second S / D terminal connected to the gate terminal of the second transistor 2353. have.

제6 트랜지스터(2361)는 TXENB 신호에 연결되는 게이트 터미널, 접지 전위에 연결되는 제1 S/D 터미널, 그리고 제2 트랜지스터(2353)의 게이트 터미널 및 제5 트랜지스터(2359)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The sixth transistor 2361 includes a gate terminal connected to the TXENB signal, a first S / D terminal connected to a ground potential, and a gate terminal of the second transistor 2353 and a second S / D of the fifth transistor 2359. It may include a second S / D terminal connected to the terminal.

제7 트랜지스터(2363)는 SEL 신호에 연결되는 게이트 터미널, 제3 트랜지스터(2355)의 제2 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 픽셀 출력 라인(PIXA)에 연결되는 제2 S/D 터미널을 포함할 수 있다.The seventh transistor 2363 has a gate terminal connected to the SEL signal, a first S / D terminal connected to the second S / D terminal of the third transistor 2355, and a second connected to the pixel output line PIXA. It may include an S / D terminal.

제8 트랜지스터(2365)는 TXB 신호에 연결되는 게이트 터미널, 제2 플로팅 디퓨전(FD2) 노드에 연결되는 제1 S/D 터미널, 그리고 제1 트랜지스터(2351)의 제2 S/D 터미널, 용량성 장치(SC)의 제2 터미널 및 제2 트랜지스터(2353)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다. 제2 플로팅 디퓨전(FD2) 노드는 도 23에서 커패시터 부호로 표시된다. FD2 노드와 접지 사이에, 도 23에 표시되지 않은 기생 커패시턴스가 존재할 수 있다. 일 실시 예에서, 물리적 커패시턴스 또한 FD2 노드와 접지 사이에 연결될 수 있다.The eighth transistor 2365 includes a gate terminal connected to the TXB signal, a first S / D terminal connected to a second floating diffusion (FD2) node, and a second S / D terminal of the first transistor 2351, and a capacitive property. And a second S / D terminal connected to the second terminal of the device SC and the second S / D terminal of the second transistor 2353. The second floating diffusion FD2 node is indicated by the capacitor symbol in FIG. Between the FD2 node and ground, there may be parasitic capacitances not shown in FIG. In one embodiment, physical capacitance may also be coupled between the FD2 node and ground.

제9 트랜지스터(2367)는 FD2 노드 및 제8 트랜지스터(2365)의 제1 S/D 터미널에 연결되는 게이트 터미널, VPIX 전압에 연결되는 제1 S/D 터미널, 그리고 제2 S/D 터미널을 포함할 수 있다. 제9 트랜지스터(2367)는 FD2 노드의 전하를 제9 트랜지스터(2367)의 제2 S/D 터미널에서 전압으로 변환할 수 있다.The ninth transistor 2367 includes a gate terminal connected to the FD2 node and the first S / D terminal of the eighth transistor 2365, a first S / D terminal connected to the VPIX voltage, and a second S / D terminal. can do. The ninth transistor 2367 may convert the charge of the FD2 node into a voltage at the second S / D terminal of the ninth transistor 2367.

제10 트랜지스터(2369)는 RST 신호에 연결되는 게이트 터미널, VPIX 전압에 연결되는 제1 S/D 터미널, 그리고 제1 트랜지스터(2351)의 제2 S/D 터미널, 용량성 장치(SC)의 제2 터미널 및 제8 트랜지스터(2365)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The tenth transistor 2369 includes a gate terminal connected to the RST signal, a first S / D terminal connected to a VPIX voltage, a second S / D terminal of the first transistor 2351, and a first of the capacitive device SC. A second S / D terminal connected to the second terminal and the second S / D terminal of the eighth transistor 2365 may be included.

제11 트랜지스터(2371)는 TXENB 신호에 연결되는 게이트 터미널, VTX 신호에 연결되는 제1 S/D 터미널, 그리고 제8 트랜지스터(2365)의 게이트 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The eleventh transistor 2861 may include a gate terminal connected to the TXENB signal, a first S / D terminal connected to the VTX signal, and a second S / D terminal connected to the gate terminal of the eighth transistor 2365. have.

제12 트랜지스터(2373)는 TXEN 신호에 연결되는 게이트 터미널, 접지 전위에 연결되는 제1 S/D 터미널, 그리고 제8 트랜지스터(2365)의 게이트 터미널 및 제11 트랜지스터(2371)의 제2 S/D 터미널에 연결되는 제2 S/D 터미널을 포함할 수 있다.The twelfth transistor 2373 includes a gate terminal connected to a TXEN signal, a first S / D terminal connected to a ground potential, a gate terminal of an eighth transistor 2365, and a second S / D of an eleventh transistor 2237. It may include a second S / D terminal connected to the terminal.

제13 트랜지스터(2375)는 SEL 신호에 연결되는 게이트 터미널, 제9 트랜지스터(2367)의 제2 S/D 터미널에 연결되는 제1 S/D 터미널, 그리고 픽셀 출력 라인(PIXB)에 연결되는 제2 S/D 터미널을 포함할 수 있다.The thirteenth transistor 2375 may include a gate terminal connected to a SEL signal, a first S / D terminal connected to a second S / D terminal of a ninth transistor 2367, and a second connected to a pixel output line PIXB. It may include an S / D terminal.

도 24는 여기에 기재된 주제에 따른 시간-분해 센서(2300)에 대한 예시적인 상대적인 신호 타이밍 도를 보여준다. 도 24의 신호 타이밍 도는 도 19 및 도 22의 신호 타이밍 도들과 유하사며, 유사점들은 도 19를 참조하여 기술된다. 도 24의 신호 타이밍 도는 TXRMD 신호 및 TX 신호를 포함하지 않고 대신 TXENB 신호, TXA 신호 및 TXB 신호를 포함함으로써, 도 22의 신호 타이밍 도와 다르다.24 shows an exemplary relative signal timing diagram for a time-resolved sensor 2300 in accordance with the subject matter described herein. The signal timing diagram of FIG. 24 is similar to the signal timing diagrams of FIGS. 19 and 22, with similarities being described with reference to FIG. 19. The signal timing diagram of FIG. 24 differs from the signal timing diagram of FIG. 22 by not including the TXRMD signal and the TX signal but instead including the TXENB signal, the TXA signal, and the TXB signal.

도 24의 신호 타이밍 도에서, TXENB 신호는 TXEN 신호의 반전이다. 셔터 신호가 하이로 활성일 때, TXEN 신호는 활성이고 그리고 VTX 신호는 제5 트랜지스터(2359)를 통과하여 TXA 신호가 활성화되게 한다. 용량성 장치(SC)의 전하는 제2 트랜지스터(2353)를 통해 FD1 노드로 전송된다. 동시에, 접지 전위는 제12 트랜지스터(2373)를 통과하여 TXB 신호가 비활성화 되게 한다.In the signal timing diagram of FIG. 24, the TXENB signal is the inversion of the TXEN signal. When the shutter signal is active high, the TXEN signal is active and the VTX signal passes through the fifth transistor 2359 to cause the TXA signal to become active. Charge of the capacitive device SC is transmitted to the FD1 node through the second transistor 2353. At the same time, the ground potential passes through the twelfth transistor 2373 so that the TXB signal is deactivated.

검출 사건(DE)이 발생할 때, TXEN 신호는 비활성화되고 TXENB 신호는 활성화된다. TXEN 신호가 비활성화될 때, TXA 신호 또한 비활성화되고, 전하가 용량성 장치(SC)로부터 제2 트랜지스터(2353)를 통해 FD1 노드로 전송되는 것이 중지된다. TXENB 신호가 활성화되면, TXB 신호는 활성화되고, 전하는 용량성 장치(SC)로부터 제8 트랜지스터(2365)를 통해 FD2 노드로 전송된다.When a detection event DE occurs, the TXEN signal is deactivated and the TXENB signal is activated. When the TXEN signal is deactivated, the TXA signal is also deactivated and the transfer of charge from the capacitive device SC through the second transistor 2353 is stopped. When the TXENB signal is activated, the TXB signal is activated and charge is transmitted from the capacitive device SC through the eighth transistor 2365 to the FD2 node.

셔터 신호가 종료하면, TXB 신호는 비활성화되고, 전하가 용량성 장치(SC)로부터 제8 트랜지스터(2365)를 통해 FD2 노드로 전송되는 것이 중지된다. FD1 노드 및 FD2 노드의 전하들에 연관된 각각의 전압들은 PIXA 및 PIXB 출력 라인들로부터 독출된다.When the shutter signal ends, the TXB signal is deactivated and the charge is stopped from the capacitive device SC through the eighth transistor 2365 to the FD2 node. Respective voltages associated with the charges of the FD1 node and the FD2 node are read from the PIXA and PIXB output lines.

픽셀 간 VTX 신호의 기울기의 변동들 및 용량성 장치(SC)의 커패시턴스의 변동들은, 제2 트랜지스터(2353)(TXA) 및 제8 트랜지스터(2365)(TXB)가 활성 셔터 신호 동안 선형 모드인 한, 범위 측정 에러들을 유발하지 않음에 유의하여야 한다.Variations in the slope of the VTX signal between pixels and variations in the capacitance of the capacitive device SC are provided as long as the second transistor 2353 (TXA) and the eighth transistor 2365 (TXB) are in linear mode during the active shutter signal. Note that this does not cause range measurement errors.

도 25는 여기에 기재된 주제에 따른 시간-분해 센서(2300)를 이용하여 시간을 분해하는 방법(2500)의 순서 도를 보여준다. 방법은 2501에서 시작한다. 2502에서, 활성 셔터 신호가 생성된다. 2503에서, 하나 또는 그보다 많은 검출된 광자들이 대상으로부터 반사된 활성 셔터 신호 동안에 적어도 하나의 SPAD 회로(2301)로 입사되는 하나 또는 그보다 많은 광자들이 검출된다. 2504에서, 검출 사건(DE)에 기반하여 출력 신호가 생성된다. 2505에서, 검출 사건(DE)에 대한 출력 신호에 기반하여, 제1 활성 신호(예를 들어, TXEN) 및 제2 활성 신호(예를 들어, TXENB)가 생성된다. 일 실시 예에서, 제1 활성 신호는 활성 셔터 신호의 시작에 응답하여 활성화되고 그리고 출력 신호에 응답하여 비활성화되며, 제2 활성 신호는 출력 신호에 응답하여 활성화되고 그리고 활성 셔터 신호의 종료에 응답하여 비활성화된다.25 shows a flowchart of a method 2500 of time decomposition using a time-decomposition sensor 2300 according to the subject matter described herein. The method starts at 2501. At 2502, an active shutter signal is generated. At 2503, one or more photons incident on the at least one SPAD circuit 2301 are detected during the active shutter signal in which one or more detected photons are reflected from the object. At 2504, an output signal is generated based on the detection event DE. At 2505, based on the output signal for the detection event DE, a first activation signal (eg TXEN) and a second activation signal (eg TXENB) are generated. In one embodiment, the first active signal is activated in response to the start of the active shutter signal and deactivated in response to the output signal, and the second active signal is activated in response to the output signal and in response to the end of the active shutter signal. Deactivated.

2506에서, 제1 활성 신호가 활성이면, 용량성 장치(SC)의 전하가 제1 플로팅 디퓨전(FD1) 노드로 전송되어 제1 플로팅 디퓨전(FD1) 노드에서 제1 전하를 형성한다. 2507에서, 제2 활성 신호가 활성이면, 용량성 장치(SC)의 잔여 전하가 제2 플로팅 디퓨전(FD2) 노드로 전송되어 제2 플로팅 디퓨전(FD2) 노드에서 제2 전하를 형성한다. 2508에서, 제1 전하에 기반한 제1 전압 및 제2 전하에 기반한 제2 전압이 출력된다. 제1 및 제2 전압들의 합에 대한 제1 전압의 제1 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고, 그리고 제1 및 제2 전압들의 합에 대한 제2 전압의 제2 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례한다. 2509에서, 방법이 종료한다.At 2506, if the first active signal is active, charge of the capacitive device SC is transferred to the first floating diffusion FD1 node to form a first charge at the first floating diffusion FD1 node. At 2507, if the second active signal is active, residual charge of the capacitive device SC is transferred to the second floating diffusion FD2 node to form a second charge at the second floating diffusion FD2 node. At 2508, a first voltage based on the first charge and a second voltage based on the second charge are output. The first ratio of the first voltage to the sum of the first and second voltages is proportional to the flight time of one or more detected photons, and the second ratio of the second voltage to the sum of the first and second voltages Is proportional to the flight time of one or more detected photons. At 2509, the method ends.

일 실시 예에서, 제1 및 제2 전하들을 전송하는 것은 경사 함수(ramp function)에 따라 VTX 신호(또는 구동 신호)를 변경하는 것을 포함하고, 이 경사 함수에서 VTX 신호(또는 구동 신호)는 하나 또는 그보다 많은 광자들이 검출되는 광 펄스의 시작 시간에 응답하여 활성 셔터 신호의 종료까지 변화하기 시작한다. 추가적으로, 용량성 장치의 전하를 제1 플로팅 디퓨전(FD1) 노드로 전송하여 제1 플로팅 디퓨전(FD1) 노드에서 제1 전하를 형성하는 것은 제1 활성 신호가 활성일 때 VTX 신호(또는 구동 신호)의 레벨에 더 기반할 수 있으며, 용량성 장치의 잔여 전하를 제2 플로팅 디퓨전(FD2) 노드로 전송하여 제2 플로팅 디퓨전(FD2) 노드에서 제2 전하를 형성하는 것은 제2 활성 신호가 활성일 때 VTX 신호(또는 구동 신호)의 레벨에 더 기반할 수 있다.In one embodiment, transmitting the first and second charges includes changing the VTX signal (or drive signal) in accordance with a ramp function, where the VTX signal (or drive signal) is one. Or more photons begin to change until the end of the active shutter signal in response to the start time of the detected light pulse. Additionally, transferring charge of the capacitive device to the first floating diffusion (FD1) node to form a first charge at the first floating diffusion (FD1) node may result in a VTX signal (or drive signal) when the first active signal is active. It may be further based on the level of, and to transfer the remaining charge of the capacitive device to the second floating diffusion (FD2) node to form a second charge at the second floating diffusion (FD2) node, the second active signal is active When based on the level of the VTX signal (or drive signal).

다른 실시 예에서, 제1 및 제2 전압들에 대한 제1 전압의 제1 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간으로부터 지연 시간을 감한 것에 더 비례할 수 있다. 마찬가지로, 제1 및 제2 전압들에 대한 제2 전압의 제2 비율은 하나 또는 그보다 많은 검출된 광자들의 비행 시간으로부터 지연 시간을 감한 것에 더 비례할 수 있으며, 지연 시간은 광 펄스의 전송 시간의 시작 및 VTX 신호(또는 구동 신호)가 변화하기 시작한 시간 사이의 시간을 포함할 수 있다.In another embodiment, the first ratio of the first voltage to the first and second voltages may be more proportional to the delay time subtracted from the flight time of one or more detected photons. Similarly, the second ratio of the second voltage to the first and second voltages may be more proportional to the delay time subtracted from the flight time of one or more detected photons, wherein the delay time is equal to the transmission time of the light pulse. It may include the time between the start and the time when the VTX signal (or drive signal) started to change.

SPAD들을 사용하는 LiDAR(광 검출 및 거리 측정) 시스템들은 통상적으로 광 강도에 기반한 이미징 능력을 제공하지 않는다. 거리 정보와 함께 강도를 이미징 하는 것은 향상된 운전자-보조 시스템(ADAS) 및 자율 주행 응용들에서 대상 인식 성능을 크게 개선할 수 있다. 여기에 기재된 주제는 거리 측정 및 강도 이미징 정보 모두를 제공하는 이미징 시스템을 제공한다. 거리 이미지 및 강도 이미지 모두는 동일한 소스로부터 생성되며, 따라서 이미지 정렬 이슈가 존재하지 않고 그리고/또는 복잡한 혼합 알고리즘이 필요하지 않다. 여기에 기재된 픽셀들의 실시 예들은 TCC들이 되도록 구성된다. 추가적으로, 시간-디지털 변환기들(TDC들)이 되도록 구성되는 픽셀들은 또한 사용될 수 있지만, TCC들이 되도록 구성되는 픽셀들보다 공간적으로 더 낮은 해상도를 갖는 이미지를 제공할 수 있다. 즉, TCC들이 되도록 구성되는 픽셀들은 더 작고, 그리고 TDC들이 되도록 구성되는 픽셀들을 이용하는 픽셀 어레이들보다 더 높은 해상도를 갖는 픽셀 어레이들을 제공할 수 있다.LiDAR (light detection and distance measurement) systems using SPADs typically do not provide light intensity based imaging capabilities. Imaging intensity along with distance information can greatly improve object recognition performance in advanced driver-assisted systems (ADAS) and autonomous driving applications. The subject matter described herein provides an imaging system that provides both ranging and intensity imaging information. Both the distance image and the intensity image are generated from the same source, so there is no image alignment issue and / or no complicated blending algorithm is needed. Embodiments of the pixels described herein are configured to be TCCs. Additionally, pixels configured to be time-to-digital converters (TDCs) may also be used, but may provide an image with a spatially lower resolution than pixels configured to be TCCs. That is, pixels configured to be TCCs are smaller and may provide pixel arrays with higher resolution than pixel arrays using pixels configured to be TDCs.

거리 및 광 강도 정보를 제공할 수 있는 이미징 시스템의 일 예시적인 실시 예는 도 1에 도시된 이미징 시스템(15)이다. 픽셀 어레이(42)는 도 5에 도시된 픽셀(43), 도 7에 도시된 픽셀(700), 도 13에 도시된 픽셀(1300), 도 12에 도시된 픽셀(2100), 그리고/또는 도 23에 도시된 픽셀(2300)과 같은, 여기에 기재된 TCC 픽셀들의 실시 예들을 포함할 수 있다. 광원(22)은 도 3 및 도 4와 연계하여 기재된 바와 같이, 픽셀 처리 유닛(46)과 동기화되는 포인트 스캔을 제공하도록 제어된다. 포인트 스캔은 다수 회 반복되어, 거리 정보 및 광 강도 정보 모두에 대한 통계적 평균을 제공할 수 있다. 광 강도 정보는 이미징 시스템(15)의 시야 내의 대상들의 반사율을 판단하는 데에 사용될 수 있다. 대안적인 실시 예에서, 광원(22)은 전체 장면을 조명하도록 제어될 수 있다. 다수의 광 펄스들이 조사되고 캡처되면, 각 픽셀에 대한 히스토그램이 형성될 수 있고, 그리고 히스토그램에서 피크 주변의 빈들(bins)을 합함으로써, ADAS들 및 자율 주행 응용들에서 대상 인식 성능을 크게 향상하는 데에 사용될 수 있는 그레이 스케일 이미지가 생성될 수 있다. 대안적인 실시 예는 TDC 출력을 제공하도록 구성되는 픽셀들을 사용할 수 있음에 유의하여야 한다.One exemplary embodiment of an imaging system capable of providing distance and light intensity information is the imaging system 15 shown in FIG. 1. Pixel array 42 includes pixel 43 shown in FIG. 5, pixel 700 shown in FIG. 7, pixel 1300 shown in FIG. 13, pixel 2100 shown in FIG. 12, and / or FIG. It may include embodiments of the TCC pixels described herein, such as pixel 2300 shown in 23. The light source 22 is controlled to provide a point scan that is synchronized with the pixel processing unit 46, as described in connection with FIGS. 3 and 4. The point scan may be repeated a number of times, providing a statistical mean for both distance information and light intensity information. Light intensity information can be used to determine reflectance of objects within the field of view of imaging system 15. In alternative embodiments, light source 22 may be controlled to illuminate the entire scene. When multiple light pulses are irradiated and captured, a histogram can be formed for each pixel, and by combining bins around the peak in the histogram, greatly improving object recognition performance in ADASs and autonomous driving applications. A gray scale image can be generated that can be used to generate the image. It should be noted that alternative embodiments may use pixels that are configured to provide a TDC output.

이미지 센서 유닛(24)에 의해 캡처되는 각 지점의 반사율은 각 지점에 대한 거리 및 그레이 스케일 값에 기반하여 판단될 수 있다. 그레이 스케일 이미지는 또한 레이저 펄스들 없이 생성될 수 있다. 다수의 프레임들을 함께 합함으로써, 이미지 센서 유닛(24)은 픽셀 당 프레임당 최대 하나의 광자를 캡처하는 콴타(Quanta) 이미지 센서와 같이 동작할 수 있다. 다수의 비트 플레인들(즉, 프레임들)을 함께 합할 때, 높은 동적-거리 이미징이 달성될 수 있다. 대상 인식을 위한 동일한 이미지 센서 유닛으로부터 생성되는 3D 및 2D 이미지 모두를 이용함으로써, 복잡한 이미지 혼합 프로세스가 회피될 수 있고, 그리고 인식의 성능이 향상될 수 있다.The reflectance of each point captured by the image sensor unit 24 may be determined based on the distance and gray scale value for each point. Gray scale images can also be created without laser pulses. By combining the multiple frames together, the image sensor unit 24 can operate like a Quanta image sensor that captures at most one photon per frame per pixel. When combining multiple bit planes (ie, frames) together, high dynamic-distance imaging can be achieved. By using both 3D and 2D images generated from the same image sensor unit for object recognition, complicated image mixing processes can be avoided, and the performance of recognition can be improved.

일 실시 예에서, 픽셀에 대한 그레이 스케일 값은 픽셀에 의해 검출된 광자들의 도착 시간(즉, 검출 시간)의 히스토그램의 피크 값을 직접 이용함으로써 생성될 수 있다. 윈도 폭은 조사된 레이저, 광 또는 펄스의 반치폭(FWHM)(full width at half-maximum)과 동일할 수 있다. 광-검출 시간들의 히스토그램은 형성될 수 있고, 그리고 검출된 광들의 피크 수에 대응하는 빈(bin)은 광 펄스가 반사된 지점에서 대상의 표면 반사율(s)을 측정하는 데에 사용될 수 있다. 대안적으로, 픽셀에 대한 히스토그램은 SPAD로부터 출력되는 트리거 파형으로 감길(convolve) 수 있고, 최대 검출된 광자 카운트가 이후에 선택될 수 있다.In one embodiment, the gray scale value for the pixel may be generated by directly using the peak value of the histogram of the arrival time (ie, detection time) of the photons detected by the pixel. The window width may be equal to the full width at half-maximum (FWHM) of the irradiated laser, light or pulse. A histogram of light-detection times can be formed, and a bin corresponding to the peak number of detected lights can be used to measure the surface reflectance s of the object at the point where the light pulse is reflected. Alternatively, the histogram for the pixel can be convolved with the trigger waveform output from the SPAD, and the maximum detected photon count can then be selected.

도 26a는 SPAD로부터의 예시적인 트리거 파형(2600)을 보여준다. 도 26의 가로축은 상대적인 시간(단위 없음)이고, 그리고 도 26의 세로축은 상대적인 진폭(단위 없음)이다. 도 26b는 여기에 기재된 주제에 따라 형성될 수 있는 예시적인 픽셀의 광-검출 시간들의 예시적인 히스토그램(2601)을 보여준다. 도 26b의 가로축은 상대적인 정규화된 시간이고, 세로축은 광자 검출 사건 카운트를 가리킨다.26A shows an exemplary trigger waveform 2600 from SPAD. The horizontal axis in FIG. 26 is relative time (unitless), and the vertical axis in FIG. 26 is relative amplitude (unitless). 26B shows an example histogram 2601 of photo-detection times of an example pixel that may be formed according to the subject matter described herein. The horizontal axis in FIG. 26B is the relative normalized time, and the vertical axis indicates the photon detection event count.

도 26c는 예시적인 히스토그램(2602)을 보여주며, 히스토그램(2602)에서는 조사된 펄스(미도시)의 FWHM을 나타내는 윈도 폭이 2602a에 표시되어 사건 카운트 최대가 결정될 수 있는 윈도를 나타낸다. 도 26d는 예시적인 히스토그램(2603)을 보여주며, 히스토그램(2603)에선 SPAD(도 26)로부터 출력된 트리거 파형이 히스토그램으로 감겨 사건 카운트 최대를 판단한다.FIG. 26C shows an exemplary histogram 2602, where a window width representing the FWHM of the irradiated pulse (not shown) is indicated at 2602a to indicate a window in which an event count maximum can be determined. FIG. 26D shows an exemplary histogram 2603, and in the histogram 2603, a trigger waveform output from the SPAD (FIG. 26) is wound into a histogram to determine an event count maximum.

표면 반사율(S)은 다음의 수학식 5로부터 시작하여 추정될 수 있다.The surface reflectance S can be estimated starting from the following equation (5).

Figure pat00005
Figure pat00005

여기에서, P는 픽셀 값이고; α는 룩스(lux)를 픽셀 값으로 변환하는 시스템 의존 상수이고; S는 표현 반사율이고, L은 광 강도이다. 광 강도(L)는 Lamb 및 Llaser의 합으로 표현되며, 각각 센서에 도달하는 주변 광 강도 및 레이저 광 강도이다.Where P is the pixel value; α is a system dependent constant that converts lux into pixel values; S is the expressive reflectance and L is the light intensity. Light intensity L is expressed as the sum of L amb and L laser and is the ambient light intensity and laser light intensity reaching the sensor, respectively.

따라서, 표면 반사율(S)은 수학식 6으로 측정될 수 있다.Therefore, the surface reflectance S can be measured by Equation 6.

Figure pat00006
Figure pat00006

주변 광 강도(Lamb)는 수학식 7로 표현될 수 있다.The ambient light intensity L amb may be expressed by Equation 7.

Figure pat00007
Figure pat00007

여기에서, N은 광 펄스로부터 검출된 사건들의 수이고, M은 광 펄스가 검출되기 전에 검출된 사건들(즉, 주변으로부터)의 수이고, D는 측정된 거리이고, 그리고 β는 보정될 수 있는 다른 시스템 의존 변수이다.Where N is the number of events detected from the light pulse, M is the number of events detected (ie from the periphery) before the light pulse is detected, D is the measured distance, and β can be corrected Is another system-dependent variable.

도 27은 여기에 기재된 주제에 따른 예시적인 픽셀에 대한 예시적인 히스토그램(2700)을 보여준다. 히스토그램(2700)의 가로축은 상대적인 시간(단위 없음)이고, 히스토그램(2700)의 세로축은 광자 검출 사건들의 카운트이다. 광 펄스가 검출되기 이전에 검출된 사건들의 수(M)는 2701에 표시된다. 광 펄스 내에서 검출된 사건들의 수(N)는 2702에 표시된다.27 shows an example histogram 2700 for example pixels in accordance with the subject matter described herein. The horizontal axis of the histogram 2700 is relative time (unitless), and the vertical axis of the histogram 2700 is the count of photon detection events. The number M of events detected before the light pulse is detected is indicated at 2701. The number N of events detected within the light pulse is indicated at 2702.

방사하는 레이저 파워(Ilaser로 표시된) 및 수신되는 레이저 파워(Llaser) 사이의 관계는 수학식 8일 수 있다.The relationship between the emitting laser power (indicated by I laser ) and the received laser power (L laser ) may be:

Figure pat00008
Figure pat00008

여기에서,

Figure pat00009
는 시스템 상수이다.From here,
Figure pat00009
Is a system constant.

이후에, '<x, y>' 위치에서 반사율(S)의 측정은 수학식 9로 표현될 수 있다.Subsequently, the measurement of the reflectance S at the '<x, y>' position may be expressed by Equation 9.

Figure pat00010
Figure pat00010

여기에서, f(D)는 거리 의존 함수이며, 즉 수학식 10으로 도출된다.Here, f (D) is a distance dependent function, i.e., derived from equation (10).

Figure pat00011
Figure pat00011

도 28은 여기에 기재된 주제에 따른 장면의 깊이 또는 거리, 지도 및 그레이 스케일 이미지를 생성하는 예시적인 방법의 순서 도(2800)를 보여준다. 방법은 2801에서 시작한다. 2802에서, 장면은, 예를 들어 도 1에 도시된 이미징 시스템(150)에 의해 포인트 스캔 된다. 이미징 시스템(15)의 픽셀 어레이(42)는 예시적인 픽셀들(43(도 5), 700(도 7), 1300(도 13), 2100(도 21), 그리고/또는 2300(도 23))을 포함할 수 있다. 포인트 스캔은 한 번만 수행될 수 있지만, 포인트 스캔을 다수 회 반복함으로써 더 나은 결과들이 획득될 수 있음이 이해되어야 한다. 2803에서, 광 검출 사건들이 픽셀 어레이(42)의 픽셀들에 대해 누적된다. 2804에서, 깊이 또는 거리 지도가 여기에 기재된 바와 같이 생성된다. 거리 정보는 픽셀 처리 유닛(46) 그리고/또는 프로세서(19)에 의해 판단될 수 있다. 2805에서, 장면의 그레이 스케일 이미지가 장면의 반사율의 측정에 기반하여 생성된다. 그레이 스케일 이미지는 픽셀 처리 유닛(46) 그리고/또는 프로세서(19)에 의해 판단될 수 있다. 방법은 2806에서 종료한다.28 shows a flowchart 2800 of an example method of generating depth or distance, maps, and gray scale images of a scene according to the subject matter described herein. The method starts at 2801. At 2802, the scene is point scanned by the imaging system 150 shown in FIG. 1, for example. The pixel array 42 of the imaging system 15 may include exemplary pixels 43 (FIG. 5), 700 (FIG. 7), 1300 (FIG. 13), 2100 (FIG. 21), and / or 2300 (FIG. 23). It may include. Although a point scan may be performed only once, it should be understood that better results may be obtained by repeating the point scan multiple times. At 2803, light detection events are accumulated for the pixels of pixel array 42. At 2804, a depth or distance map is generated as described herein. The distance information may be determined by the pixel processing unit 46 and / or the processor 19. At 2805, a gray scale image of the scene is generated based on the measurement of the reflectance of the scene. The gray scale image may be determined by the pixel processing unit 46 and / or the processor 19. The method ends at 2806.

도 29a는 예시적인 장면(2900)을 보여준다. 도 29b 및 도 29c는 여기에 기재된 주제에 따라 형성된 도 29a에 도시된 장면의 예시적인 깊이 지도(2901) 및 예시적인 그레이 스케일 이미지(2902)를 각각 보여준다. 도 29b의 우측의 스케일은 미터들이다.29A shows an example scene 2900. 29B and 29C show example depth maps 2901 and example gray scale images 2902 of the scene shown in FIG. 29A, respectively, formed according to the subject matter described herein. The scale on the right side of FIG. 29B is meters.

도 30은 여기에 기재된 주제에 따른 도 1 및 도 2에 도시된 이미징 시스템(15)의 전체적인 레이아웃의 예시적인 실시 예를 보여준다. 이미징 모듈(17)은 도 2, 도 5, 도 7(또는 도 13)의 모범적인 실시 예들에 도시된 필요한 하드웨어를 포함하여, 본 기재의 진보한 측면들에 따라 2D/3D 이미징 및 TOF 측정들을 달성할 수 있다. 프로세서(19)는 다수의 외부 장치들과 접속하도록 구성될 수 있다. 일 실시 예에서, 이미징 모듈(17)은 추가 처리를 위해 도 12의 P1 및 P2와 같은 처리된 픽셀 출력들의 형태로 프로세서(19)에 데이터 입력들을 제공하는 입력 장치로 기능할 수 있다. 프로세서(19)는 또한 시스템(15)의 일부일 수 있는 다른 입력 장치들(미도시)로부터 입력들을 수신할 수 있다. 이러한 입력 장치들의 일부 예들은 컴퓨터 키보드, 터치 패드, 터치 스크린, 조이스틱, 물리적 또는 가상의 '클릭 가능한 버튼', 그리고/또는 컴퓨터 마우스/포인팅 장치를 포함한다. 도 30에서, 프로세서(19)는 시스템 메모리(20), 주변 스토리지 유닛(275), 하나 또는 그보다 많은 출력 장치들(277), 그리고 네트워크 인터페이스(278)와 결합되는 것으로 도시된다. 도 30에서, 디스플레이 유닛은 출력 장치(277)로서 도시된다. 일부 실시 예들에서, 시스템(15)은 도시된 장치들의 하나보다 많은 인스턴스들을 포함할 수 있다. 시스템(15)의 일부 예들은 컴퓨터 시스템(데스크톱 또는 랩톱), 태블릿 컴퓨터, 모바일 장치, 핸드폰, 비디오 게이밍 유닛 또는 콘솔, 기계-대-기계(M2M) 통신 유닛, 로봇, 자동차, 가상현실 장치, 스테이트리스 씬 클라이언트 시스템(stateless thin client system), 차량의 대쉬-캠(dash-cam) 또는 후방 주시(rearview) 카메라 시스템, 자율 주행 시스템, 또는 다른 어떤 타입의 컴퓨팅 또는 데이터 처리 장치를 포함한다. 다양한 실시 예들에서, 도 30에 도시된 구성 요소들의 전부는 단일 하우징 내에 수용될 수 있다. 따라서, 시스템(15)은 독립형 시스템 또는 다른 임의의 적절한 폼 팩터로 구성될 수 있다. 일부 실시 예들에서, 시스템(15)은 서버 시스템이 아닌 클라이언트 시스템으로 구성될 수 있다.30 shows an exemplary embodiment of the overall layout of the imaging system 15 shown in FIGS. 1 and 2 according to the subject matter described herein. Imaging module 17 includes 2D / 3D imaging and TOF measurements in accordance with advanced aspects of the present disclosure, including the necessary hardware shown in the exemplary embodiments of FIGS. 2, 5, 7 (or 13). Can be achieved. The processor 19 may be configured to connect with a plurality of external devices. In one embodiment, the imaging module 17 may function as an input device for providing data inputs to the processor 19 in the form of processed pixel outputs such as P1 and P2 of FIG. 12 for further processing. Processor 19 may also receive inputs from other input devices (not shown) that may be part of system 15. Some examples of such input devices include computer keyboards, touch pads, touch screens, joysticks, physical or virtual 'clickable buttons', and / or computer mouse / pointing devices. In FIG. 30, processor 19 is shown coupled with system memory 20, peripheral storage unit 275, one or more output devices 277, and network interface 278. In FIG. 30, the display unit is shown as an output device 277. In some embodiments, system 15 may include more than one instance of the depicted devices. Some examples of system 15 are computer systems (desktop or laptop), tablet computers, mobile devices, mobile phones, video gaming units or consoles, machine-to-machine (M2M) communication units, robots, automobiles, virtual reality devices, states Stateless thin client systems, dash-cam or rearview camera systems of vehicles, autonomous driving systems, or any other type of computing or data processing device. In various embodiments, all of the components shown in FIG. 30 can be housed in a single housing. Thus, system 15 may be configured as a standalone system or any other suitable form factor. In some embodiments, system 15 may be configured as a client system rather than a server system.

일부 실시 예들에서, 시스템(15)은 하나보다 많은 프로세서(예를 들어, 분산 처리 구성에서)를 포함할 수 있다. 시스템(15)이 다중 프로세서 시스템일 때, 프로세서(19)의 하나보다 많은 인스턴스가 존재할 수 있거나, 또는 각각의 인터페이스(미도시)를 통해 프로세서(19)와 결합되는 다수의 프로세서들이 있을 수 있다. 프로세서(19)는 시스템 온 칩(SoC)일 수 있으며, 그리고/또는 하나보다 많은 중앙 처리 유닛(CPU)를 포함할 수 있다.In some embodiments, system 15 may include more than one processor (eg, in a distributed processing configuration). When system 15 is a multiprocessor system, there may be more than one instance of processor 19, or there may be multiple processors coupled with processor 19 through respective interfaces (not shown). The processor 19 may be a system on chip (SoC) and / or may include more than one central processing unit (CPU).

시스템 메모리(20)는, 예를 들어 DRAM, SRAM, PRAM, RRAM, CBRAM, MRAM, STT-MRAM 등과 같은 반도체 기반 저장 시스템일 수 있다. 일부 실시 예들에서, 메모리 유닛(20)은 하나 또는 그보다 많은 비 3DS 메모리 모듈들과 함께 적어도 하나의 3DS 메모리 모듈을 포함할 수 있다. 비 3DS 메모리 모듈은 더블 데이터 율 또는 더블 데이터 율 2, 3 또는 4 동기식 동적 랜덤 액세스 메모리(DDR/DDR2/DDR3/DDR4 SDRAM), 또는 램버스® DRAM, 플래시 메모리, 다양한 형태의 읽기 전용 메모리(ROM) 등을 포함할 수 있다. 또한, 일부 실시 예들에서, 시스템 메모리(20)는 단일 타입 메모리와 반대로 다수의 서로 다른 타입의 반도체 메모리들을 포함할 수 있다. 다른 실시 예들에서, 시스템 메모리(20)는 비-임시의 데이터 저장 매체일 수 있다.The system memory 20 may be, for example, a semiconductor based storage system such as DRAM, SRAM, PRAM, RRAM, CBRAM, MRAM, STT-MRAM, or the like. In some embodiments, memory unit 20 may include at least one 3DS memory module along with one or more non-3DS memory modules. Non-3DS memory modules can be either double data rate or double data rate 2, 3 or 4 synchronous dynamic random access memory (DDR / DDR2 / DDR3 / DDR4 SDRAM), or Rambus DRAM, flash memory, and various forms of read-only memory (ROM). And the like. In addition, in some embodiments, system memory 20 may include a number of different types of semiconductor memories as opposed to a single type memory. In other embodiments, system memory 20 may be a non-temporary data storage medium.

주변 스토리지 유닛(275)은, 다양한 실시 예들에서, 하드 드라이브들, 광학 디스크들(컴팩트 디스크들(CD들) 또는 디지털 다용도 디스크들(DVD들)과 같은), 불휘발성 랜덤 액세스 메모리(RAM) 장치들 등과 같은, 자기, 광학, 자기-광학 또는 솔리드 스테이트 저장 매체에 대한 지원을 포함할 수 있다. 일부 실시 예들에서, 주변 스토리지 유닛(275)은 디스크 어레이들(적절한 RAID(Redundant Array of Independent Disks) 구성에 있을 수 있는) 또는 스토리지 영역 네트워크들(SAN들)과 같은 더 복잡한 저장 장치들/시스템들을 포함할 수 있고, 주변 스토리지 유닛(275)은 SCSI(Small Computer System Interface) 인터페이스, 파이버 채널 인터페이스, 파이어와이아®(IEEE 1394) 인터페이스, PCIe ExpressTM(Peripheral Component Interconnect Express) 표준 기반 인터페이스, USB(Universal Serial Bus) 프로토콜 기반 인터페이스, 또는 다른 적절한 인터페이스와 같은 표준 주변 인터페이스를 통해 프로세서(19)와 결합될 수 있다. 이러한 다양한 저장 장치들은 비임시의 데이터 저장 매체일 수 있다.Peripheral storage unit 275 may, in various embodiments, comprise hard drives, optical disks (such as compact disks (CDs) or digital versatile disks (DVDs)), nonvolatile random access memory (RAM) devices. And support for magnetic, optical, magneto-optical or solid state storage media. In some embodiments, peripheral storage unit 275 may be configured with more complex storage devices / systems, such as disk arrays (which may be in an appropriate Redundant Array of Independent Disks (RAID) configuration) or storage area networks (SANs). The peripheral storage unit 275 may include a Small Computer System Interface (SCSI) interface, a Fiber Channel interface, a FireWire® (IEEE 1394) interface, a Peripheral Component Interconnect Express (PCIe) TM standard-based interface, a USB ( Universal Serial Bus) may be coupled with the processor 19 via a standard peripheral interface, such as a protocol based interface, or other suitable interface. These various storage devices may be non-temporary data storage media.

디스플레이 유닛(277)은 출력 장치의 예일 수 있다. 출력 자치의 다른 예들은 그래픽/디스플레이 장치, 컴퓨터 스크린, 경고 시스템, CAD/CAM(Computer Aided Design/Computer Aided Machining) 시스템, 비디오 게임 스테이션, 스마트 폰 디스플레이 스크린, 자동차의 대쉬보드 탑재 디스플레이 스크린, 또는 다른 적절한 타입의 데이터 출력 장치를 포함한다. 일부 실시 예들에서, 이미징 모듈(17)과 같은 입력 장치(들) 및 디스플레이 유닛(277)과 같은 출력 장치(들)는 I/O 또는 주변 인터페이스(들)를 통해 프로세서(19)와 결합될 수 있다.The display unit 277 may be an example of an output device. Other examples of output autonomy include graphics / display devices, computer screens, warning systems, Computer Aided Design / Computer Aided Machining (CAD / CAM) systems, video game stations, smartphone display screens, car dashboard display screens, or other It includes an appropriate type of data output device. In some embodiments, input device (s) such as imaging module 17 and output device (s) such as display unit 277 may be coupled with processor 19 via I / O or peripheral interface (s). have.

일 실시 예에서, 네트워크 인터페이스(278)는 프로세서(19)와 통신하여, 시스템(15)이 네트워크(미도시)와 결합되게 할 수 있다. 다른 실시 예에서, 네트워크 인터페이스(278)는 전혀 없을 수 있다. 네트워크 인터페이스(278)는 시스템을 무선이든 또는 유선이든 네트워크와 연결하기 위한 적절한 장치들, 매체 그리고/또는 프로토콜 콘텐츠를 포함할 수 있다. 다양한 실시 예들에서, 네트워크는 LAN들(Local Area Networks), WAN들(Wide Area Networks), 유선 또는 무선 이더넷, 무선통신 네트워크들, 위성 링크들, 또는 다른 적절한 타입의 네트워크들을 포함할 수 있다.In one embodiment, network interface 278 may communicate with processor 19 to allow system 15 to be coupled with a network (not shown). In other embodiments, there may be no network interface 278 at all. Network interface 278 may include suitable devices, media and / or protocol content for connecting the system to the network, wireless or wired. In various embodiments, the network may include local area networks (LANs), wide area networks (WANs), wired or wireless Ethernet, wireless communications networks, satellite links, or other suitable type of networks.

시스템(15)은 온-보드 전원 공급 유닛(280)을 포함하여, 도 30에 도시된 다양한 시스템 구성 요소들에 전기적 전력을 공급할 수 있다. 전원 공급 유닛(280)은 배터리들을 수 있으며, 또는 AC 전기 전력 아웃릿(outlet) 또는 자동차 기반 전력 아웃릿에 연결될 수 있다. 일 실시 예에서, 전원 공급 유닛(280)은 태양 에너지 또는 다른 재생 가능한 에너지를 전기 전력으로 변환할 수 있다.System 15 may include an on-board power supply unit 280 to supply electrical power to the various system components shown in FIG. 30. The power supply unit 280 may have batteries or may be connected to an AC electrical power outlet or an automotive based power outlet. In one embodiment, the power supply unit 280 may convert solar energy or other renewable energy into electrical power.

일 실시 예에서, 이미징 모듈(17)은, 예를 들어, 위의 USB(Universal Serial Bus) 2.0 또는 3.0 인터페이스와 같은, 임의의 개인용 컴퓨터(PC) 또는 랩톱에 꽂힐 수 있는 고속 인터페이스로 집적될 수 있다. 예를 들어, 시스템 메모리(20) 또는 CD/DVD와 같은 주변 데이터 스토리지 유닛과 같은 비임시의, 컴퓨터로 독출 가능한 저장 매체는 프로그램 코드 또는 소프트웨어를 저장할 수 있다. 이미징 모듈(17)의 프로세서(19) 그리고/또는 픽셀 처리 유닛(46)(도 2)은 프로그램 코드를 실행하도록 구성될 수 있고, 이에 의해 시스템(15)은 도 1 내지 도 29를 참조하여 앞서 논의된 동작들과 같은, 2D 이미징(예를 들어, 3D 대상의 그레이 스케일 이미지), TOF 및 거리 측정들, 그리고 픽셀-특정 거리/범위 값을 이용한 대상의 3D 이미지의 생성을 수행할 수 있다. 예를 들어, 특정한 실시 예들에서, 프로그램 코드의 실행시, 프로세서(19) 그리고/또는 픽셀 처리 유닛(46)은, 도 12의 행 디코더/드라이버(125) 및 픽셀 열 유닛(128)과 같은 연관된 회로 구성 요소들을 적절히 구성(또는 활성화)하여, 셔터 신호, RST 신호, SEL 신호 등과 같은 적절한 입력 신호들을 픽셀 어레이(42)의 픽셀들(43)에 인가하여, 반환된 레이저 펄스로부터 광을 캡처하게 하고, 그리고 후속하여 TOF 및 거리 측정들에 필요한 픽셀-특정 값들(P1, P2)을 위해 픽셀 출력들을 처리할 수 있다. 프로그램 코드 또는 소프트웨어는, 프로세서(19) 그리고/또는 픽셀 처리 유닛(46)과 같은 적절한 처리 엔티티에 의해 실행시, 처리 엔티티가 다양한 픽셀-특정 ADC 출력들(P1 및 P2 값들)을 처리하고, 거리 값들을 판단하고, 결과들을, 예를 들어 TOF 기반 거리 측정들에 기반하여 거리 대상의 3D 이미지를 표시하는 것을 포함하는 다양한 형태들로 제시하는 등록 소프트웨어 또는 오픈 소스 소프트웨어일 수 있다. 특정한 실시 예들에서, 이미징 모듈(17)의 픽셀 처리 유닛(46)은 픽셀 출력 데이터가 추가 처리 및 표시를 위해 프로세서(19)로 전송되기 전에, 픽셀 출력들의 처리의 일부를 수행할 수 있다. 다른 실시 예들에서, 프로세서(19)는 또한 픽셀 처리 유닛(46)의 기능의 일부 또는 전부를 수행할 수 있으며, 이 경우에 픽셀 처리 유닛(46)은 이미징 모듈(17)의 일부가 아닐 수 있다.In one embodiment, the imaging module 17 may be integrated into a high speed interface that can be plugged into any personal computer (PC) or laptop, such as, for example, the Universal Serial Bus (USB) 2.0 or 3.0 interface above. have. For example, a non-temporary, computer-readable storage medium, such as system memory 20 or a peripheral data storage unit such as a CD / DVD, may store program code or software. The processor 19 and / or pixel processing unit 46 (FIG. 2) of the imaging module 17 may be configured to execute program code, whereby the system 15 may have been previously described with reference to FIGS. 1 to 29. 2D imaging (eg, a gray scale image of a 3D object), TOF and distance measurements, and the generation of a 3D image of the object using pixel-specific distance / range values, such as the operations discussed may be performed. For example, in certain embodiments, upon execution of program code, processor 19 and / or pixel processing unit 46 may be associated with, for example, row decoder / driver 125 and pixel column unit 128 of FIG. 12. Properly configure (or activate) the circuit components to apply appropriate input signals, such as a shutter signal, an RST signal, a SEL signal, to the pixels 43 of the pixel array 42 to capture light from the returned laser pulses. And subsequently process pixel outputs for pixel-specific values P1, P2 required for TOF and distance measurements. The program code or software, when executed by a suitable processing entity, such as processor 19 and / or pixel processing unit 46, may process the various pixel-specific ADC outputs (P1 and P2 values) It can be registration software or open source software that determines the values and presents the results in various forms, including displaying a 3D image of the distance object based on, for example, TOF based distance measurements. In certain embodiments, pixel processing unit 46 of imaging module 17 may perform some of the processing of pixel outputs before pixel output data is sent to processor 19 for further processing and display. In other embodiments, the processor 19 may also perform some or all of the functionality of the pixel processing unit 46, in which case the pixel processing unit 46 may not be part of the imaging module 17. .

이 분야에 숙련된 자들이게 이해될 바와 같이, 여기에 기술된 혁신적인 사상들은 응용들의 넓은 범위에 걸쳐 수정되고 변동될 수 있다. 따라서, 청구된 주제의 범위는 위에서 논의된 어느 특정한 모범적인 가르침으로 한정되지 않아야 하며, 대신 다음의 청구항들에 의해 정의된다.As will be appreciated by those skilled in the art, the innovative ideas described herein may be modified and varied over a wide range of applications. Thus, the scope of the claimed subject matter should not be limited to any particular exemplary teaching discussed above, but instead is defined by the following claims.

15: 시스템
17: 이미징 모듈
19: 프로세서 모듈
20: 메모리 모듈
22: 프로젝터 모듈
24: 이미지 센서 유닛
26: 대상
33: 레이저
34: 레이저 제어기
35: 투영 장치
42: 2D 픽셀 어레이
46: 픽셀 어레이 제어 및 처리 회로들
501: SPAD 코어들
502: PPD 코어
503: 다수의 SPAD들
504: 제1 제어 회로
505: 입사 광
507: 제2 제어 회로
508: PPD
700: 픽셀
701: 전자 셔터 신호
702: 제2 제어 회로
703~707: 제1 내지 제5 트랜지스터들
1200: 이미지 센서 유닛
1202: 픽셀들
1203: 행 디코더/드라이버
1204: 열 디코더
1205: 픽셀 열 유닛
1500: 시간-분해 센서
1501: SPAD 회로
1503: 논리 회로
1505: PPD 회로
2000: 시간-분해 센서
2001: SPAD 회로
2003: 논리 회로
2005: 제2 PPD 회로
2300: 시간-분해 센서
2301a~2301n: 하나 또는 그보다 많은 SPAD 회로들
2303: 논리 회로
2305: 제3 PPD 회로
15: System
17: imaging module
19: Processor module
20: memory module
22: Projector Module
24: image sensor unit
26: destination
33: laser
34: laser controller
35: projection device
42: 2D pixel array
46: pixel array control and processing circuits
501: SPAD cores
502: PPD core
503: multiple SPADs
504: first control circuit
505: incident light
507: second control circuit
508: PPD
700: pixels
701: electronic shutter signal
702: second control circuit
703-707: first to fifth transistors
1200: image sensor unit
1202: pixels
1203: row decoder / driver
1204: thermal decoder
1205: pixel column unit
1500: time-decomposition sensor
1501: SPAD circuit
1503: logic circuit
1505: PPD circuit
2000: time-decomposition sensor
2001: SPAD circuit
2003: logic circuit
2005: second PPD circuit
2300: time-decomposition sensor
2301a-2301n: one or more SPAD circuits
2303: logic circuit
2305: third PPD circuit

Claims (20)

이미지 센서에 있어서:
적어도 하나의 픽셀을 포함하는 시간-분해 센서; 대상을 향해 조사된 광 펄스에 대응하는 상기 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 상기 적어도 하나의 픽셀에 의해 검출하는 것에 응답하여, 상기 시간-분해 센서는 제1 신호 및 제2 신호의 쌍을 출력하고; 상기 쌍의 상기 제1 신호의 진폭 및 상기 제2 신호의 진폭의 합에 대한 상기 쌍의 상기 제1 신호의 상기 진폭의 제1 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고; 상기 쌍의 상기 제1 신호의 상기 진폭 및 상기 제2 신호의 상기 진폭에 대한 상기 쌍의 상기 제2 신호의 상기 진폭의 제2 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 상기 비행 시간에 비례하고; 그리고
상기 제1 신호 및 상기 제2 신호의 상기 쌍에 기반하여, 상기 광 펄스가 반사된 상기 대상의 표면 반사율을 판단하는 프로세서를 포함하는 이미지 센서.
In the image sensor:
A time-decomposition sensor comprising at least one pixel; In response to detecting by the at least one pixel one or more photons reflected from the object corresponding to a light pulse directed towards the object, the time-resolved sensor detects a pair of first and second signals. Output; A first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal is proportional to the flight time of the one or more detected photons; The second ratio of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair to the amplitude of the second signal is proportional to the flight time of the one or more detected photons and ; And
And a processor to determine a surface reflectance of the object on which the light pulse is reflected, based on the pair of the first signal and the second signal.
제1항에 있어서,
상기 프로세서는 상기 제1 신호 및 상기 제2 신호의 상기 상에 기반하여 상기 대상까지의 거리를 더 판단하는 이미지 센서.
The method of claim 1,
And the processor further determines a distance to the object based on the phase of the first signal and the second signal.
제1항에 있어서,
상기 대상을 향해 조사된 복수의 광 펄스들에 대해 상기 픽셀에서 상기 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 상기 시간-분해 센서는 복수의 제1 신호 및 제2 신호의 쌍들을 출력하고, 각 제1 신호 및 제2 신호의 쌍은 각 광 펄스에 대응하고, 그리고
상기 프로세서는 상기 복수의 제1 신호 및 제2 신호의 쌍들에 기반하여, 상기 복수의 광 펄스들이 반사된 상기 대상의 표면 반사율을 판단하는 이미지 센서.
The method of claim 1,
In response to detecting one or more photons reflected from the object in the pixel for a plurality of light pulses directed toward the object, the time-resolved sensor includes a plurality of first and second signal pairs. Each pair of first and second signals corresponds to a respective light pulse, and
And the processor determines a surface reflectance of the object on which the plurality of light pulses are reflected, based on the plurality of first and second signal pairs.
제3항에 있어서,
복수의 픽셀들의 각각에서, 상기 대상을 향해 조사된 각 광 펄스에 대응하여 상기 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 상기 시간-분해 센서는 상기 복수의 제1 신호 및 제2 신호의 상기 쌍들의 각각을 출력하고,
상기 프로세서는 상기 복수의 제1 신호 및 상기 제2 신호의 상기 쌍들에 기반하여, 상기 대상의 그레이 스케일 이미지를 더 생성하는 이미지 센서.
The method of claim 3,
In each of the plurality of pixels, in response to detecting one or more photons reflected from the object in response to each light pulse directed toward the object, the time-resolved sensor is configured to generate the plurality of first signals and the first signal. Output each of the pairs of two signals,
The processor further generates a gray scale image of the object based on the pairs of the plurality of first signals and the second signal.
제4항에 있어서,
상기 프로세서는 상기 복수의 픽셀들의 미리 정해진 픽셀에 의해 검출되는 광자들의 도달 시간의 적어도 하나의 히스토그램을 생성하여 상기 그레이 스케일 이미지를 생성하는 이미지 센서.
The method of claim 4, wherein
And the processor generates the gray scale image by generating at least one histogram of arrival times of photons detected by a predetermined pixel of the plurality of pixels.
제3항에 있어서,
상기 시간-분해 센서는 복수의 픽셀들을 포함하고,
상기 복수의 픽셀들의 적어도 하나의 픽셀은:
적어도 하나의 단일-광자 아발란체 다이오드(SPAD)(Single-Photon Avalanche Diode); 각 SPAD는 활성 셔터 신호에 응답하여, 상기 대상으로부터 반사되었고 상기 SPAD에 입사되는 하나 또는 그보다 많은 광자들을 검출하는 것에 기반하여 신호를 출력하고;
상기 적어도 하나의 SPAD의 상기 출력 신호와 결합되는 논리 회로; 상기 논리 회로는 제1 활성 신호 및 제2 활성 신호를 생성하고; 상기 제1 활성 신호는 상기 활성 셔터 신호의 시작에 응답하여 활성화되고 그리고 상기 적어도 하나의 SPAD의 출력 신호에 응답하여 비활성화되고; 그리고 상기 제2 활성 신호는 상기 적어도 하나의 SPAD의 상기 출력 신호에 응답하여 활성화되고 그리고 상기 활성 셔터 신호의 종료에 응답하여 비활성화되고; 그리고
상기 제1 및 제2 활성 신호들과 결합되는 차동 시간-전하 변환기(DTCC)(Differential time-to-charge converter) 회로를 포함하고,
상기 DTCC 회로는:
제1 터미널, 및 접지 전압과 결합되는 제2 터미널을 포함하는 용량성 장치;
제1, 제2 및 제3 터미널들을 갖는 제1 스위칭 장치; 상기 제1 스위칭 장치의 상기 제1 터미널은 상기 용량성 장치의 제1 터미널과 결합되고; 상기 제1 스위칭 장치의 상기 제2 터미널은 제1 플로팅 디퓨전 노드와 결합되고; 상기 제1 스위칭 장치의 상기 제3 터미널은 상기 제1 활성 신호와 결합되고; 그리고 상기 제1 스위칭 장치는 상기 제1 활성 신호에 응답하여 상기 용량성 장치의 제1 전하를 상기 제1 플로팅 디퓨전 노드로 전송하고;
제1, 제2 및 제3 터미널들을 갖는 제2 스위칭 장치; 상기 제2 스위칭 장치의 상기 제1 터미널은 상기 용량성 장치의 상기 제1 터미널과 결합되고; 상기 제2 스위칭 장치의 상기 제2 터미널은 제2 플로팅 디퓨전 노드와 결합되고; 상기 제2 스위칭 장치의 상기 제3 터미널은 상기 제2 활성 신호와 결합되고; 그리고 상기 제2 스위칭 장치는 상기 제2 활성 신호에 응답하여 상기 용량성 장치의 나머지 전하를 상기 제2 플로팅 디퓨전 노드로 전송하고; 그리고
상기 제1 신호 및 상기 제2 신호의 상기 쌍을 출력하는 출력 회로; 상기 제1 신호는 상기 제1 플로팅 디퓨전 노드의 상기 제1 전하에 기반하는 제1 전압을 포함하고; 상기 제2 신호는 상기 제2 플로팅 디퓨전 노드의 상기 나머지 전하에 기반하는 제2 전압을 포함하는 이미지 센서.
The method of claim 3,
The time-resolved sensor comprises a plurality of pixels,
At least one pixel of the plurality of pixels is:
At least one single-photon avalanche diode (SPAD); Each SPAD, in response to an active shutter signal, outputs a signal based on detecting one or more photons reflected from the object and incident on the SPAD;
Logic circuitry coupled with the output signal of the at least one SPAD; The logic circuit generates a first active signal and a second active signal; The first activation signal is activated in response to the start of the active shutter signal and deactivated in response to an output signal of the at least one SPAD; And the second activation signal is activated in response to the output signal of the at least one SPAD and deactivated in response to the termination of the active shutter signal; And
A differential time-to-charge converter (DTCC) circuit coupled with the first and second active signals,
The DTCC circuit is:
A capacitive device comprising a first terminal and a second terminal coupled with a ground voltage;
A first switching device having first, second and third terminals; The first terminal of the first switching device is coupled with the first terminal of the capacitive device; The second terminal of the first switching device is coupled with a first floating diffusion node; The third terminal of the first switching device is coupled with the first active signal; And the first switching device sends a first charge of the capacitive device to the first floating diffusion node in response to the first active signal;
A second switching device having first, second and third terminals; The first terminal of the second switching device is coupled with the first terminal of the capacitive device; The second terminal of the second switching device is coupled with a second floating diffusion node; The third terminal of the second switching device is coupled with the second active signal; And the second switching device sends the remaining charge of the capacitive device to the second floating diffusion node in response to the second active signal; And
An output circuit outputting the pair of the first signal and the second signal; The first signal comprises a first voltage based on the first charge of the first floating diffusion node; And the second signal comprises a second voltage based on the remaining charge of the second floating diffusion node.
제6항에 있어서,
경사 함수(ramp function)에 기반하여 변화하는 구동 신호를 더 포함하고, 상기 구동 신호는 상기 하나 또는 그보다 많은 광자들이 검출되는 광 펄스의 시작 시간에 응답하여 상기 활성 셔터 신호의 상기 종료까지 변화하기 시작하고, 상기 구동 신호는 상기 제1 활성 신호가 활성이면 상기 제1 스위칭 장치의 상기 제3 터미널에 연결되고 그리고 상기 제2 활성 신호가 활성이면 상기 제2 스위칭 장치의 상기 제3 터미널에 연결되는 이미지 센서.
The method of claim 6,
Further comprising a drive signal that changes based on a ramp function, the drive signal starting to change until the end of the active shutter signal in response to a start time of the light pulse at which the one or more photons are detected. And the driving signal is connected to the third terminal of the first switching device if the first active signal is active and to the third terminal of the second switching device if the second activation signal is active. sensor.
제7항에 있어서,
상기 제1 전압 및 상기 제2 전압의 상기 합에 대한 상기 제1 전압의 상기 제1 비율은 상기 하나 또는 그보다 많은 광자들의 비행 시간에서 지연 시간을 감한 것에 더 비례하고, 상기 제1 전압 및 상기 제2 전압의 상기 합에 대한 상기 제2 전압의 상기 제2 비율은 상기 하나 또는 그보다 많은 광자들의 상기 비행 시간으로부터 상기 지연 시간을 감한 것에 더 비례하고, 상기 지연 시간은 상기 광 펄스의 전송 시간의 시작부터 상기 구동 신호가 변화하기 시작하는 시간까지의 사이의 시간을 포함하는 이미지 센서.
The method of claim 7, wherein
The first ratio of the first voltage to the sum of the first voltage and the second voltage is more proportional to the delay time from the flight time of the one or more photons, and the first voltage and the first voltage The second ratio of the second voltage to the sum of two voltages is more proportional to the delay time subtracted from the flight time of the one or more photons, the delay time beginning of the transmission time of the light pulse To a time from when the drive signal starts to change.
제6항에 있어서,
상기 용량성 장치는 커패시터 또는 핀드 다이오드(pinned diode)를 포함하는 이미지 센서.
The method of claim 6,
The capacitive device comprises a capacitor or a pinned diode.
이미징 유닛(imaging unit)에 있어서:
대상의 표현을 향해 조사되는 일련의 광 펄스들로 상기 대상을 조명하는 광원;
적어도 하나의 픽셀을 포함하는 시간-분해 센서; 상기 시간-분해 센서는 상기 광원과 동기화되고 그리고 상기 적어도 하나의 픽셀에서 상기 대상의 상기 표면으로부터 반사된 광 펄스에 대응하는 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여 제1 신호 및 제2 신호의 쌍을 출력하고; 상기 쌍의 상기 제1 신호의 진폭 및 상기 제2 신호의 진폭의 합에 대한 상기 쌍의 상기 제1 신호의 상기 진폭의 제1 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고; 상기 쌍의 상기 제1 신호의 상기 진폭 및 상기 제2 신호의 상기 진폭에 대한 상기 쌍의 상기 제2 신호의 상기 진폭의 제2 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 상기 비행 시간에 비례하고; 그리고
상기 제1 신호 및 상기 제2 신호의 상기 쌍에 기반하여 상기 대상까지의 거리를 판단하고, 그리고 상기 제1 신호 및 상기 제2 신호의 상기 쌍에 기반하여 상기 광 펄스가 반사된 상기 대상의 표면 반사율을 판단하는 프로세서를 포함하는 이미징 유닛.
In the imaging unit:
A light source illuminating the object with a series of light pulses directed towards a representation of the object;
A time-decomposition sensor comprising at least one pixel; The time-resolved sensor is synchronized with the light source and in response to detecting one or more photons corresponding to the light pulses reflected from the surface of the object in the at least one pixel of the first and second signals. Output the pair; A first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal is proportional to the flight time of the one or more detected photons; The second ratio of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair to the amplitude of the second signal is proportional to the flight time of the one or more detected photons and ; And
Determine a distance to the object based on the pair of the first signal and the second signal, and a surface of the object on which the light pulse is reflected based on the pair of the first signal and the second signal An imaging unit comprising a processor for determining a reflectance.
제10항에 있어서,
상기 픽셀에서 상기 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 상기 시간-분해 센서는 복수의 제1 신호 및 제2 신호의 쌍들을 출력하고; 상기 제1 신호 및 상기 제2 신호의 상기 쌍들의 각각은 상기 대상을 향해 조사된 복수의 광 펄스들의 각각에 대응하고, 그리고
상기 프로세서는 대응하는 제1 신호 및 제2 신호의 쌍에 기반하여 상기 대상의 복수의 표면 반사율들을 더 판단하는 이미징 유닛.
The method of claim 10,
In response to detecting one or more photons reflected from the object at the pixel, the time-resolved sensor outputs a plurality of pairs of first and second signals; Each of said pairs of said first signal and said second signal corresponds to each of a plurality of light pulses directed toward said object, and
And the processor further determines a plurality of surface reflectances of the object based on the pair of corresponding first and second signals.
제11항에 있어서,
상기 프로세서는 상기 복수의 표면 반사율들에 기반하여 상기 대상의 그레이 스케일 이미지를 더 생성하는 이미징 유닛.
The method of claim 11,
And the processor further generates a gray scale image of the object based on the plurality of surface reflectances.
제12항에 있어서,
상기 프로세서는 상기 복수의 픽셀들의 미리 정해진 픽셀에 의해 검출되는 광자들의 도달 시간의 적어도 하나의 히스토그램을 생성하여 상기 그레이 스케일 이미지를 생성하는 이미징 유닛.
The method of claim 12,
And the processor generates the gray scale image by generating at least one histogram of arrival times of photons detected by a predetermined pixel of the plurality of pixels.
제11항에 있어서,
상기 시간-분해 센서는 복수의 픽셀들을 더 포함하고, 상기 복수의 픽셀들의 적어도 하나의 픽셀은:
적어도 하나의 단일-광자 아발란체 다이오드(SPAD)(Single-Photon Avalanche Diode); 각 SPAD는 활성 셔터 신호에 응답하여, 상기 대상으로부터 반사되었고 상기 SPAD에 입사되는 하나 또는 그보다 많은 광자들을 검출하는 것에 기반하여 신호를 출력하고;
상기 적어도 하나의 SPAD의 상기 출력 신호와 결합되는 논리 회로; 상기 논리 회로는 제1 활성 신호 및 제2 활성 신호를 생성하고; 상기 제1 활성 신호는 상기 활성 셔터 신호의 시작에 응답하여 활성화되고 그리고 상기 적어도 하나의 SPAD의 출력 신호에 응답하여 비활성화되고; 그리고 상기 제2 활성 신호는 상기 적어도 하나의 SPAD의 상기 출력 신호에 응답하여 활성화되고 그리고 상기 활성 셔터 신호의 종료에 응답하여 비활성화되고; 그리고
상기 제1 신호 및 상기 제2 신호를 출력하는 상기 제1 및 제2 활성 신호들과 결합되는 차동 시간-전하 변환기(DTCC)(Differential time-to-charge converter) 회로를 포함하는 이미징 장치.
The method of claim 11,
The time-resolved sensor further comprises a plurality of pixels, wherein at least one pixel of the plurality of pixels is:
At least one single-photon avalanche diode (SPAD); Each SPAD, in response to an active shutter signal, outputs a signal based on detecting one or more photons reflected from the object and incident on the SPAD;
Logic circuitry coupled with the output signal of the at least one SPAD; The logic circuit generates a first active signal and a second active signal; The first activation signal is activated in response to the start of the active shutter signal and deactivated in response to an output signal of the at least one SPAD; And the second activation signal is activated in response to the output signal of the at least one SPAD and deactivated in response to the termination of the active shutter signal; And
And a differential time-to-charge converter (DTCC) circuit coupled with the first and second active signals that output the first signal and the second signal.
제14항에 있어서,
상기 DTCC 회로는:
제1 터미널, 및 접지 전압과 결합되는 제2 터미널을 포함하는 용량성 장치;
제1, 제2 및 제3 터미널들을 갖는 제1 스위칭 장치; 상기 제1 스위칭 장치의 상기 제1 터미널은 상기 용량성 장치의 제1 터미널과 결합되고; 상기 제1 스위칭 장치의 상기 제2 터미널은 제1 플로팅 디퓨전 노드와 결합되고; 상기 제1 스위칭 장치의 상기 제3 터미널은 상기 제1 활성 신호와 결합되고; 그리고 상기 제1 스위칭 장치는 상기 제1 활성 신호에 응답하여 상기 용량성 장치의 제1 전하를 상기 제1 플로팅 디퓨전 노드로 전송하고; 그리고
제1, 제2 및 제3 터미널들을 갖는 제2 스위칭 장치; 상기 제2 스위칭 장치의 상기 제1 터미널은 상기 용량성 장치의 상기 제1 터미널과 결합되고; 상기 제2 스위칭 장치의 상기 제2 터미널은 제2 플로팅 디퓨전 노드와 결합되고; 상기 제2 스위칭 장치의 상기 제3 터미널은 상기 제2 활성 신호와 결합되고; 그리고 상기 제2 스위칭 장치는 상기 제2 활성 신호에 응답하여 상기 용량성 장치의 나머지 전하를 상기 제2 플로팅 디퓨전 노드로 전송하고;
상기 제1 신호는 상기 제1 플로팅 디퓨전 노드의 상기 제1 전하에 기반하는 제1 전압을 포함하고, 그리고 상기 제2 신호는 상기 제2 플로팅 디퓨전 노드의 상기 나머지 전하에 기반하는 제2 전압을 포함하고,
경사 함수에 따라 변하는 구동 신호는 상기 하나 또는 그보다 많은 광자들이 검출되는 광 펄스의 시작 시간에 응답하여 상기 활성 셔터 신호의 상기 종료까지 변화하기 시작하고, 상기 구동 신호는 상기 제1 활성 신호가 활성이면 상기 제1 스위칭 장치의 상기 제3 터미널에 연결되고 그리고 상기 제2 활성 신호가 활성이면 상기 제2 스위칭 장치의 상기 제3 터미널에 연결되는 이미징 유닛.
The method of claim 14,
The DTCC circuit is:
A capacitive device comprising a first terminal and a second terminal coupled with a ground voltage;
A first switching device having first, second and third terminals; The first terminal of the first switching device is coupled with the first terminal of the capacitive device; The second terminal of the first switching device is coupled with a first floating diffusion node; The third terminal of the first switching device is coupled with the first active signal; And the first switching device sends a first charge of the capacitive device to the first floating diffusion node in response to the first active signal; And
A second switching device having first, second and third terminals; The first terminal of the second switching device is coupled with the first terminal of the capacitive device; The second terminal of the second switching device is coupled with a second floating diffusion node; The third terminal of the second switching device is coupled with the second active signal; And the second switching device sends the remaining charge of the capacitive device to the second floating diffusion node in response to the second active signal;
The first signal includes a first voltage based on the first charge of the first floating diffusion node, and the second signal includes a second voltage based on the remaining charge of the second floating diffusion node. and,
The drive signal that changes according to the gradient function begins to change until the end of the active shutter signal in response to the start time of the light pulse at which the one or more photons are detected, and the drive signal is active if the first active signal is active. An imaging unit coupled to the third terminal of the first switching device and to the third terminal of the second switching device if the second active signal is active.
제15항에 있어서,
상기 용량성 장치는 커패시터 또는 핀드 다이오드(pinned diode)를 포함하는 이미징 유닛.
The method of claim 15,
The capacitive device includes a capacitor or a pinned diode.
대상의 그레이 스케일 이미지를 생성하는 방법에 있어서:
광원으로부터 일련의 광 펄스들을 대상의 표면을 향해 조사하는 단계;
픽셀에서 상기 대상의 상기 표면으로부터 반사된 광 펄스에 대응하는 하나 또는 그보다 많은 광자들을 검출하는 단계;
시간-분해 센서에 의해, 상기 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여 제1 신호 및 제2 신호의 쌍을 생성하는 단계; 상기 시간-분해 센서는 상기 광원과 동기되고; 상기 쌍의 상기 제1 신호의 진폭 및 상기 제2 신호의 진폭의 합에 대한 상기 쌍의 상기 제1 신호의 상기 진폭의 제1 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 비행 시간에 비례하고; 그리고 상기 쌍의 상기 제1 신호의 상기 진폭 및 상기 제2 신호의 상기 진폭에 대한 상기 쌍의 상기 제2 신호의 상기 진폭의 제2 비율은 상기 하나 또는 그보다 많은 검출된 광자들의 상기 비행 시간에 비례하고;
프로세서에 의해, 상기 제1 신호 및 상기 제2 신호의 상기 쌍에 기반하여 상기 대상까지의 거리를 판단하는 단계; 그리고
상기 프로세서에 의해, 상기 제1 신호 및 상기 제2 신호의 상기 쌍에 기반하여, 상기 대상의 표면 반사율을 판단하는 단계를 포함하는 방법.
In a method for generating a grayscale image of an object:
Irradiating a series of light pulses from the light source toward the surface of the object;
Detecting one or more photons in the pixel corresponding to a light pulse reflected from the surface of the object;
Generating, by a time-resolved sensor, a pair of first and second signals in response to detecting the one or more photons; The time-decomposition sensor is synchronized with the light source; A first ratio of the amplitude of the first signal of the pair to the sum of the amplitude of the first signal of the pair and the amplitude of the second signal is proportional to the flight time of the one or more detected photons; And a second ratio of the amplitude of the first signal of the pair and the amplitude of the second signal of the pair to the amplitude of the second signal is proportional to the flight time of the one or more detected photons and;
Determining, by a processor, a distance to the object based on the pair of the first signal and the second signal; And
Determining, by the processor, a surface reflectance of the object based on the pair of the first signal and the second signal.
제17항에 있어서,
상기 대상을 향해 조사된 복수의 광 펄스들에 대해, 상기 픽셀에서 상기 대상으로부터 반사된 하나 또는 그보다 많은 광자들을 검출하는 단계; 복수의 제1 신호 및 제2 신호의 쌍들의 각각은 상기 일련의 광 펄스들의 각 광 펄스에 대응하고; 그리고
상기 프로세서에 의해, 상기 복수의 제1 신호 및 제2 신호의 상기 쌍들의 적어도 하나에 기반하여 상기 대상의 표면 반사율을 판단하는 단계를 더 포함하는 방법.
The method of claim 17,
Detecting one or more photons reflected from the object in the pixel for a plurality of light pulses directed toward the object; Each of the plurality of first and second signal pairs corresponds to each light pulse of the series of light pulses; And
Determining, by the processor, a surface reflectance of the object based on at least one of the pairs of the plurality of first and second signals.
제17항에 있어서,
상기 복수의 픽셀들의 각각에서 하나 또는 그보다 많은 광자들을 검출하는 단계; 검출된 하나 또는 그보다 많은 광자들의 각각은 상기 광원으로부터 각 스캔 라인에 대해 상기 대상의 상기 표면을 향해 조사된 상기 일련의 광 펄스들의 대응하는 광 펄스에 대해 상기 대상으로부터 반사되고;
상기 시간-분해 센서에 의해, 상기 하나 또는 그보다 많은 광자들을 검출하는 것에 응답하여, 각 픽셀에 대해 제1 신호 및 제2 신호의 쌍을 생성하는 단계; 그리고
상기 프로세서에 의해, 상기 복수의 제1 신호 및 제2 신호의 상기 쌍들에 기반하여 상기 대상의 그레이 스케일 이미지를 생성하는 단계를 포함하는 방법.
The method of claim 17,
Detecting one or more photons in each of the plurality of pixels; Each of the detected one or more photons is reflected from the object for a corresponding light pulse of the series of light pulses irradiated from the light source toward the surface of the object for each scan line;
Generating, by the time-resolved sensor, in response to detecting the one or more photons, a pair of first and second signals for each pixel; And
Generating, by the processor, a gray scale image of the object based on the pairs of the plurality of first and second signals.
제19항에 있어서,
상기 프로세서에 의해, 상기 복수의 픽셀들의 미리 정해진 픽셀에 의해 검출되는 광자들의 도달 시간의 적어도 하나의 히스토그램을 생성하여 상기 그레이 스케일 이미지를 생성하는 단계를 더 포함하는 방법.
The method of claim 19,
Generating, by the processor, the gray scale image by generating at least one histogram of arrival times of photons detected by a predetermined pixel of the plurality of pixels.
KR1020190053973A 2018-07-24 2019-05-08 A time-resolving image sensor for range measurement and 2d greyscale imaging KR20200011351A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862702891P 2018-07-24 2018-07-24
US62/702,891 2018-07-24
US16/140,529 US11294039B2 (en) 2018-07-24 2018-09-24 Time-resolving image sensor for range measurement and 2D greyscale imaging
US16/140,529 2018-09-24

Publications (1)

Publication Number Publication Date
KR20200011351A true KR20200011351A (en) 2020-02-03

Family

ID=69179246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190053973A KR20200011351A (en) 2018-07-24 2019-05-08 A time-resolving image sensor for range measurement and 2d greyscale imaging

Country Status (4)

Country Link
JP (1) JP7401986B2 (en)
KR (1) KR20200011351A (en)
CN (1) CN110779459B (en)
TW (1) TWI801572B (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021236201A3 (en) * 2020-03-05 2022-02-24 OPSYS Tech Ltd. Noise filtering system and method for solid-state lidar
US11513195B2 (en) 2019-06-10 2022-11-29 OPSYS Tech Ltd. Eye-safe long-range solid-state LIDAR system
WO2023140535A1 (en) * 2022-01-24 2023-07-27 삼성전자 주식회사 Electronic device for acquiring distance information, and control method therefor
WO2023140471A1 (en) * 2022-01-19 2023-07-27 연세대학교 산학협력단 Image sensor using spad array
US11740331B2 (en) 2017-07-28 2023-08-29 OPSYS Tech Ltd. VCSEL array LIDAR transmitter with small angular divergence
US11762068B2 (en) 2016-04-22 2023-09-19 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US11802943B2 (en) 2017-11-15 2023-10-31 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
US11846728B2 (en) 2019-05-30 2023-12-19 OPSYS Tech Ltd. Eye-safe long-range LIDAR system using actuator
US11906663B2 (en) 2018-04-01 2024-02-20 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
US11927694B2 (en) 2017-03-13 2024-03-12 OPSYS Tech Ltd. Eye-safe scanning LIDAR system
US11965964B2 (en) 2019-04-09 2024-04-23 OPSYS Tech Ltd. Solid-state LIDAR transmitter with laser control

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI748460B (en) * 2019-06-21 2021-12-01 大陸商廣州印芯半導體技術有限公司 Time of flight device and time of flight method
JP7255513B2 (en) * 2020-02-18 2023-04-11 株式会社デンソー OBJECT DETECTION DEVICE, LIGHT SENSOR, AND CONTROL METHOD OF OBJECT DETECTION DEVICE
CN115211102A (en) * 2020-03-18 2022-10-18 索尼半导体解决方案公司 Solid-state imaging element and electronic device
CN111432144B (en) * 2020-06-12 2021-06-18 深圳市汇顶科技股份有限公司 Imaging system and related electronic device and operating method of imaging system
EP3952271A4 (en) 2020-06-12 2022-06-01 Shenzhen Goodix Technology Co., Ltd. Depth sensing device and related electronic device, and method for operating depth sensing device
EP3955566B1 (en) 2020-08-14 2023-06-07 Alpsentek GmbH Image sensor with configurable pixel circuit and method
US11726187B2 (en) 2020-10-30 2023-08-15 Taiwan Semiconductor Manufacturing Co., Ltd. High resolution low power inter-correlation SPAD assisted time-of-flight sensor
CN113820726B (en) * 2021-09-30 2023-06-13 中国科学院光电技术研究所 Noise suppression method based on multidimensional filtering in non-visual field target detection
CN114267283B (en) * 2021-12-29 2023-11-07 武汉天马微电子有限公司 Display panel and display device
JP2024005071A (en) * 2022-06-29 2024-01-17 ソニーセミコンダクタソリューションズ株式会社 Ranging device, ranging system, and ranging method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4235729B2 (en) 2003-02-03 2009-03-11 国立大学法人静岡大学 Distance image sensor
JP4280822B2 (en) 2004-02-18 2009-06-17 国立大学法人静岡大学 Optical time-of-flight distance sensor
JP5171158B2 (en) 2007-08-22 2013-03-27 浜松ホトニクス株式会社 Solid-state imaging device and range image measuring device
JP2009192499A (en) 2008-02-18 2009-08-27 Stanley Electric Co Ltd Apparatus for generating distance image
JP5585903B2 (en) * 2008-07-30 2014-09-10 国立大学法人静岡大学 Distance image sensor and method for generating imaging signal by time-of-flight method
LU91688B1 (en) * 2010-05-17 2011-11-18 Iee Sarl Scanning 3D imager
EP2469301A1 (en) * 2010-12-23 2012-06-27 André Borowski Methods and devices for generating a representation of a 3D scene at very high speed
US9689667B2 (en) * 2011-03-17 2017-06-27 Universitat Politecnica De Catalunya System, method and computer program for receiving a light beam
JP6225411B2 (en) 2012-10-16 2017-11-08 株式会社豊田中央研究所 Optical distance measuring device
DE112015001704T5 (en) * 2014-04-07 2016-12-29 Samsung Electronics Co., Ltd. Image sensor with high resolution, frame rate and low power consumption
US10620300B2 (en) * 2015-08-20 2020-04-14 Apple Inc. SPAD array with gated histogram construction
US10557925B2 (en) * 2016-08-26 2020-02-11 Samsung Electronics Co., Ltd. Time-of-flight (TOF) image sensor using amplitude modulation for range measurement
US10291895B2 (en) * 2016-10-25 2019-05-14 Omnivision Technologies, Inc. Time of flight photosensor
US10527728B2 (en) 2017-01-27 2020-01-07 Samsung Electronics Co., Ltd Apparatus and method for range measurement
US10116925B1 (en) 2017-05-16 2018-10-30 Samsung Electronics Co., Ltd. Time-resolving sensor using shared PPD + SPAD pixel and spatial-temporal correlation for range measurement

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11762068B2 (en) 2016-04-22 2023-09-19 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US11927694B2 (en) 2017-03-13 2024-03-12 OPSYS Tech Ltd. Eye-safe scanning LIDAR system
US11740331B2 (en) 2017-07-28 2023-08-29 OPSYS Tech Ltd. VCSEL array LIDAR transmitter with small angular divergence
US11802943B2 (en) 2017-11-15 2023-10-31 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
US11906663B2 (en) 2018-04-01 2024-02-20 OPSYS Tech Ltd. Noise adaptive solid-state LIDAR system
US11965964B2 (en) 2019-04-09 2024-04-23 OPSYS Tech Ltd. Solid-state LIDAR transmitter with laser control
US11846728B2 (en) 2019-05-30 2023-12-19 OPSYS Tech Ltd. Eye-safe long-range LIDAR system using actuator
US11513195B2 (en) 2019-06-10 2022-11-29 OPSYS Tech Ltd. Eye-safe long-range solid-state LIDAR system
WO2021236201A3 (en) * 2020-03-05 2022-02-24 OPSYS Tech Ltd. Noise filtering system and method for solid-state lidar
WO2023140471A1 (en) * 2022-01-19 2023-07-27 연세대학교 산학협력단 Image sensor using spad array
WO2023140535A1 (en) * 2022-01-24 2023-07-27 삼성전자 주식회사 Electronic device for acquiring distance information, and control method therefor

Also Published As

Publication number Publication date
JP7401986B2 (en) 2023-12-20
TWI801572B (en) 2023-05-11
JP2020016654A (en) 2020-01-30
TW202018329A (en) 2020-05-16
CN110779459B (en) 2022-08-05
CN110779459A (en) 2020-02-11

Similar Documents

Publication Publication Date Title
JP7401986B2 (en) Time-resolved image sensor and imaging unit for grayscale imaging, and grayscale image generation method
US10735714B2 (en) Time-resolving sensor using shared PPD+SPAD pixel and spatial-temporal correlation for range measurement
US10397554B2 (en) Time-resolving sensor using shared PPD+SPAD pixel and spatial-temporal correlation for range measurement
KR102371368B1 (en) Time-of-flight (tof) image sensor using amplitude modulation for range measurement
US20220146683A1 (en) Time-resolving image sensor for range measurement and 2d greyscale imaging
US20210041226A1 (en) Cmos image sensor for 2d imaging and depth measurement with ambient light rejection
US10021284B2 (en) Epipolar plane single-pulse indirect TOF imaging for automotives
US9661308B1 (en) Increasing tolerance of sensor-scanner misalignment of the 3D camera with epipolar line laser point scanning
US20230007175A1 (en) Concurrent rgbz sensor and system
CN106067968B (en) Image sensor unit and system
US9967539B2 (en) Timestamp error correction with double readout for the 3D camera with epipolar line laser point scanning
US20190187256A1 (en) Non-spad pixels for direct time-of-flight range measurement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal