KR102473740B1 - Concurrent rgbz sensor and system - Google Patents

Concurrent rgbz sensor and system Download PDF

Info

Publication number
KR102473740B1
KR102473740B1 KR1020160034841A KR20160034841A KR102473740B1 KR 102473740 B1 KR102473740 B1 KR 102473740B1 KR 1020160034841 A KR1020160034841 A KR 1020160034841A KR 20160034841 A KR20160034841 A KR 20160034841A KR 102473740 B1 KR102473740 B1 KR 102473740B1
Authority
KR
South Korea
Prior art keywords
rows
group
pixel
row
pixels
Prior art date
Application number
KR1020160034841A
Other languages
Korean (ko)
Other versions
KR20160124666A (en
Inventor
일리아 오브시안니코브
이빙 미쉘 왕
그레고리 왈리고르스키
치앙 장
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/842,822 external-priority patent/US10145678B2/en
Priority claimed from US14/856,552 external-priority patent/US20160309135A1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20160124666A publication Critical patent/KR20160124666A/en
Application granted granted Critical
Publication of KR102473740B1 publication Critical patent/KR102473740B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/365Image reproducers using digital micromirror devices [DMD]
    • H04N5/335

Abstract

2차원(2D)컬러 정보와 3D 깊이 정보는 2D 픽셀 어레이로부터 동시에 얻어진다. 2D 픽셀 어레이는 복수의 제1그룹의 로우들로 배열되어 있다. 상기 어레이의 제2 그룹은 2D 컬러 정보를 생성하기 위해 동작할 수 있고 픽셀 어레이의 제3 그룹의 픽셀들은 3D 깊이 정보를 생성하기 위해 동작할 수 있다. 상기 제1 그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함한다. 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함한다. 또는, 2D 컬러 정보는 상기 제2그룹의 로우들로부터 선택된 로우로부터 수신되고, 3D 깊이 정보는 상기 제3 그룹의 로우들로부터 선택된 로우로부터 수신된다. Two-dimensional (2D) color information and 3D depth information are obtained simultaneously from the 2D pixel array. The 2D pixel array is arranged in a plurality of first group rows. The second group of the array is operable to generate 2D color information and the pixels of the third group of the pixel array are operable to generate 3D depth information. The rows of the first group include a first number of rows, and the rows of the second group include a second number of rows less than or equal to the first number of rows. The third group of rows includes a third number of rows less than or equal to the second number of rows. Alternatively, 2D color information is received from a row selected from the second group of rows, and 3D depth information is received from a row selected from the third group of rows.

Description

동시 RGBZ 센서 및 시스템{CONCURRENT RGBZ SENSOR AND SYSTEM}CONCURRENT RGBZ SENSOR AND SYSTEM}

본 발명은 이미지 센서들에 관한 것으로, 보다 구체적으로, 제한되는 것은 아니나, 본 발명에 개시된 특정 실시 예는 레이저 포인트 스캔 및 상보 금속 산화물 반도체(CMOS) 이미지 센서(3D 객체의 2 차원 영상을 위해서도 사용)를 이용하는 삼각 기반 (triangulation based)시스템 및 3차원 객체(object)에 대한 깊이 측정방법에 관한 것이다. The present invention relates to image sensors, and more specifically, but not limited to, certain embodiments disclosed herein are laser point scan and complementary metal oxide semiconductor (CMOS) image sensors (also used for two-dimensional imaging of 3D objects). ) and a method for measuring depth for a 3D object.

3 차원 (3D) 이미징 시스템들은 산업 생산, 비디오 게임, 컴퓨터 그래픽, 로봇 수술, 소비자 디스플레이, 감시 비디오, 3D 모델링, 부동산 판매 등과 같은 다양한 응용 분야에서의 이용이 증가하고 있다. Three-dimensional (3D) imaging systems are increasingly used in a variety of applications such as industrial production, video games, computer graphics, robotic surgery, consumer displays, surveillance video, 3D modeling, real estate sales, and more.

현존 3 차원 영상 기술들은 예를 들면, 레인지 이미징, 스테레오 비전 시스템 및 구조형 광(SL: structured light)방법들에 기반하는 비행 시간(TOF: time-of-flight)를 포함할 수 있다. Existing three-dimensional imaging technologies may include time-of-flight (TOF) based range imaging, stereo vision systems and structured light (SL) methods, for example.

TOF 방법에서, 3차원 객체(object)까지의 거리가 공지의 광 속도에 기반하여 해결된다. 즉 광 신호가 카메라와 이미지의 각 포인트에 대한 3차원 객체 사이를 가는데 까지 걸리는 왕복시간(RTT: round trip time)을 측정함에 의해 3차원 객체까지의 거리가 얻어진다. TOF 카메라는 각 레이저 또는 광 펄스를 가지고 전체 장면을 캡쳐하기 위해 스캐너리스 방식(scannerless approach)을 사용할 수 있다. TOF 방법의 일부 예시적인 응용은 활동 보행자의 안전 또는 실시간 거리 이미지들에 근거한 선 충돌 검출 등과 같은 진보된 자동차 어플리케이션들을 포함할 수 있다. 또한, TOF 방법의 일부 예시적인 응용은 비디오 게임 콘솔의 게임과 상호 작용하는 것과 같은 인간의 움직임을 추적하는 것을 포함할 수 있다. 또한, 예시적인 응용은 산업용 머신 비전에서 객체들을 분류하고 컨베이어 벨트 상의 아이템들 -등과 같은 아이템들을 로봇들이 찾도록 돕는 것을 포함할 수 있다. In the TOF method, the distance to a three-dimensional object is solved based on the known speed of light. That is, the distance to the 3D object is obtained by measuring the round trip time (RTT) required for the light signal to travel between the camera and the 3D object for each point of the image. A TOF camera may use a scannerless approach to capture the entire scene with each laser or light pulse. Some example applications of the TOF method may include advanced automotive applications such as active pedestrian safety or line collision detection based on real-time street images. Additionally, some example applications of the TOF method may include tracking human motion, such as interacting with a game on a video game console. Also, example applications may include helping robots find items, such as sorting objects in industrial machine vision, items on a conveyor belt - and the like.

입체 영상 또는 스테레오 비전 시스템에서 수평적으로 서로 떨어져 있는 두 개의 카메라가 장면이나 장면 내의 3차원 객체에 대한 두 개의 다른 장면(view)들을 얻기 위해 사용된다. 이들 두 이미지들을 비교함에 의해, 상대적 깊이 정보가 3차원 객체에 대하여 얻어질 수 있다. 스테레오 비전은 자율적인 시스템/로봇의 부근에서 3D 객체들의 상대적 위치에 대한 정보를 추출하기 위해 로봇 공학 등의 분야에서 매우 중요하다. 로봇 공학에 대한 다른 응용은 입체 깊이 정보가 로보틱 시스템으로 하여금 폐쇄 이미지 성분들을 분리할 수 있게 하는 객체 인식을 포함할 수 있다. 로봇은 그렇지 않으면 다른 객체를 부분 혹은 완전히 숨기는 또 다른 객체 앞의 하나의 객체 등과 같이 두 개의 분리된 객체들로 구별을 할 수 없다. 3차원 스테레오 디스플레이는 엔터테인먼트 및 자동화 시스템에 또한 사용된다.In a stereoscopic or stereo vision system, two cameras spaced apart horizontally are used to obtain two different views of a scene or a three-dimensional object within a scene. By comparing these two images, relative depth information can be obtained for a 3D object. Stereo vision is very important in fields such as robotics to extract information about the relative position of 3D objects in the vicinity of an autonomous system/robot. Other applications for robotics may include object recognition where stereoscopic depth information enables a robotic system to separate closed image components. The robot cannot otherwise differentiate between two separate objects, such as one object in front of another that partially or completely hides the other object. Three-dimensional stereo displays are also used in entertainment and automation systems.

SL 방식에서, 객체의 3차원 형상은 투영 광 패턴 및 이미징 카메라를 사용하여 측정될 수 있다. SL방법에서는, 공지의 광 패턴 즉 오픈 그리드, 수평 바아 또는 병렬 스트라이프 패턴이 장면 또는 장면 내의 3차원 객체 상으로 투영된다. 투영 패턴은 3차원 객체의 표면을 타격할 때 변형되거나 이동(displacement)될 수 있다. 그러한 변형으로 인해 SL 비전 시스템은 객체의 깊이 및 표면을 계산할 수 있다. 따라서 3차원 표면에 협 대역의 광을 투영하는 것은 라인 광을 생성할 수 있다. 라인 광은 프로젝터의 왜곡보다 다른 투영으로부터 더 왜곡되게 나타날 수 있다. 또한 투영은 광 표면 형상의 기하학적 재구성에 사용될 수 있다. SL 기반의 3D 영상은 3D 장면 내에서 경찰력에 의한 지문 촬영, 생산 과정에서의 부품의 인라인 검사, 인체 바디 형상이나 사람의 피부 및 그와 유사한 마이크로 구조의 라이브 측정을 위한 건강 관리 등과 같은 다른 응용들에 사용될 수 있다. In the SL method, the three-dimensional shape of an object can be measured using a projection light pattern and an imaging camera. In the SL method, a known light pattern, i.e. an open grid, horizontal bar or parallel stripe pattern, is projected onto a scene or a three-dimensional object within the scene. The projected pattern may be deformed or displaced when hitting the surface of a three-dimensional object. Such transformations allow the SL vision system to calculate the depth and surface of an object. Thus, projecting a narrow band of light onto a three-dimensional surface can produce line light. Line light may appear more distorted from other projections than the projector's distortion. Projection can also be used for geometric reconstruction of the optical surface shape. SL-based 3D imaging has other applications, such as fingerprinting by police forces within a 3D scene, in-line inspection of parts in production, health care for live measurement of human body shape or human skin and similar microstructures. can be used for

본 발명이 해결하고자 하는 기술적 과제는, 삼각측량 기반 (triangulation based)시스템 및 3차원 객체에 대한 깊이 측정 방법을 제공함에 있다.A technical problem to be solved by the present invention is to provide a triangulation-based system and a depth measurement method for a 3D object.

본 발명의 실시 예는 이미지 센서에서 적어도 하나의 객체의 이미지를 수신하고, 상기 이미지 센서는 복수의 제1그룹의 로우들(rows)내에 배열된 2차원(2D) 픽셀 어레이를 포함하며, 상기 어레이의 제2그룹의 로우들의 픽셀들은 상기 적어도 하나의 객체의 2차원 컬러 정보를 생성하기 위해 동작 가능하게 되어 있고, 상기 어레이의 제3 그룹의 픽셀들은 상기 적어도 하나의 객체의 3차원 깊이 정보를 생성하기 위해 동작 가능하게 되어 있고, 상기 제1그룹의 로우들은 로우 들의 제1 개수를 포함하고, 상기 제2그룹의 로우들은 상기 제1 개수 의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함한다. 본 발명의 실시 예는 상기 제2그룹의 로우들로부터 선택된 한 로우로부터 적어도 하나의 객체의 2차원 컬러 정보를 교대로 수신하고, 상기 제3 그룹의 로우들로부터 선택된 한 로우로부터 적어도 하나의 객체의 3차원 깊이 정보를 수신한다. An embodiment of the present invention receives an image of at least one object from an image sensor, the image sensor including a two-dimensional (2D) pixel array arranged in a plurality of rows of a first group, the array pixels in rows of a second group are operable to generate two-dimensional color information of the at least one object, and pixels in a third group of the array generate three-dimensional depth information of the at least one object wherein the first group of rows includes a first number of rows, the second group of rows includes a second number of rows less than or equal to the first number of rows, and The three groups of rows include a third number of rows less than or equal to the second number of rows. An embodiment of the present invention alternately receives 2D color information of at least one object from one row selected from the rows of the second group, and receives 2D color information of at least one object from one row selected from the rows of the third group. Receive 3D depth information.

본 발명의 실시 예는 2차원 픽셀 어레이와 컨트롤러를 포함하는 이미지 센서 유닛을 제공한다. 2차원 픽셀 어레이는 제1 그룹의 복수의 로우들로 배열된다. 상기 어레이의 제2 그룹의 로우들의 픽셀들은 2차원 픽셀 어레이에 의해 수신된 적어도 하나의 객체의 이미지에 근거하여 2차원 컬러 정보를 생성하기 위해 동작 가능하다. 상기 어레이의 제3 그룹의 픽셀들은 적어도 하나의 객체의 3차원 깊이 정보를 생성하기 위해 동작 가능하다. 상기 제1 그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2 그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함한다. 컨트롤러는 제2 그룹의 로우들로부터 한 로우를 교대로 선택하고 적어도 하나의 객체의 이미지에 근거하여 생성된 2차원 컬러 정보를 출력하고, 상기 제3 그룹의 로우들로부터 한 로우를 선택하여 적어도 하나의 객체의 생성된 3차원 깊이 정보를 출력한다. An embodiment of the present invention provides an image sensor unit including a 2D pixel array and a controller. The two-dimensional pixel array is arranged in a first group of a plurality of rows. The pixels of the second group of rows of the array are operable to generate two-dimensional color information based on an image of at least one object received by the two-dimensional pixel array. A third group of pixels of the array is operable to generate 3-dimensional depth information of at least one object. The rows of the first group include a first number of rows, the rows of the second group include a second number of rows less than or equal to the first number of rows, and the rows of the third group include the second number of rows. and a third number of rows less than or equal to the number of rows. The controller alternately selects one row from the rows of the second group and outputs 2D color information generated based on the image of at least one object, selects one row from the rows of the third group, and outputs at least one row. Outputs the generated 3D depth information of the object of

본 발명의 실시 예는 2차원 픽셀 어레이, 컨트롤러, 및 디스플레이를 포함하는 시스템을 제공한다. 2차원 픽셀 어레이는 상기 어레이의 제2 그룹의 로우들의 픽셀들이 2차원 픽셀 어레이에 의해 수신된 적어도 하나의 객체의 2차원 컬러 정보를 생성하기 위해 동작 가능하게 되는 제1 그룹의 복수의 로우들로 배열된다. 상기 어레이의 제3 그룹의 픽셀들은 적어도 하나의 객체의 3차원 깊이 정보를 생성하기 위해 동작 가능하다. 상기 제1 그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2 그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함한다. 컨트롤러는 제2 그룹의 로우들로부터 한 로우를 교대로 선택하여 적어도 하나의 객체의 이미지에 근거하여 생성된 2차원 컬러 정보를 출력하고, 상기 제3 그룹의 로우들로부터 한 로우를 선택하여 적어도 하나의 객체의 생성된 3차원 깊이 정보를 출력한다. 디스플레이는 2차원 픽셀 어레이와 컨트롤러에 연결되며, 생성된 2차원 컬러 정보에 근거하여 적어도 하나의 객체의 제1 이미지를 디스플레이하고 생성된 3차원 깊이 정보에 근거하여 적어도 하나의 객체의 제2 이미지를 디스플레이 한다.An embodiment of the present invention provides a system including a two-dimensional pixel array, a controller, and a display. The two-dimensional pixel array has a plurality of rows of a first group in which the pixels of the rows of the second group of the array are operable to generate two-dimensional color information of at least one object received by the two-dimensional pixel array. are arranged A third group of pixels of the array is operable to generate 3-dimensional depth information of at least one object. The rows of the first group include a first number of rows, the rows of the second group include a second number of rows less than or equal to the first number of rows, and the rows of the third group include the second number of rows. and a third number of rows less than or equal to the number of rows. The controller alternately selects one row from the rows of the second group and outputs 2D color information generated based on the image of at least one object, and selects one row from the rows of the third group to output at least one row. Outputs the generated 3D depth information of the object of The display is connected to the 2D pixel array and the controller, displays a first image of at least one object based on the generated 2D color information and displays a second image of at least one object based on the generated 3D depth information. display

본 발명의 실시 예에 따르면, 3차원 객체에 대한 깊이 측정이 구현된다.According to an embodiment of the present invention, depth measurement for a 3D object is implemented.

도 1은 본 발명의 일 실시 예에 따른 시스템의 고단순화 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 도 1의 시스템의 예시적인 동작 구성을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 3차원 깊이 측정의 수행을 보여주는 예시적 플로우챠트이다.
도 4는 본 발명의 일 실시 예에 따른 3차원 깊이 측정을 위해 포인트 스캔의 수행을 보여주는 예시적 도면이다.
도 5는 본 발명의 일 실시 예에 따른 스캔된 광 스팟들에 대한 예시적 타임스탬핑을 보여주는 도면이다.
도 6은 본 발명의 일 실시 예에 따는 도 1 및 2 내의 이미지 센서의 2차원 픽셀 어레이의 예시적 상세 회로 및 이미지 프로세싱 유닛의 관련 프로세싱 회로의 일부를 보여주는 도면이다.
도 7a는 본 발명의 일 실시 예에 따른 이미지 센서 유닛의 예시적 구성도이다.
도 7b는 본 발명의 일 실시 예에 따른 3차원 깊이 측정을 위한 CDS+ADC 유닛의 예시적 상세 구성도이다.
도 8은 본 발명의 다른 실시 예에 따른 3차원 선형 모드(linear mode)의 동작에서 타임스탬프 기반의 픽셀 별 출력들을 생성하기 위해 도 1 및 2의 시스템 내에서 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도이다.
도 9는 본 발명의 다른 실시 예에 따른 3차원 깊이 값들을 결정하기 위해 LUT의 사용을 나타내기 위한 룩업 테이블(LUT)을 예시적으로 보여준다.
도 10은 본 발명의 다른 실시 예에 따른 2차원 선형 모드(linear mode) 동작을 이용하여 2차원 RGB 이미지를 생성하기 위해 도 1 및 2의 시스템 내의 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도이다.
도 11은 본 발명의 다른 실시 예에 따른 3차원 대수 모드(logarithmic(log) mode) 동작내의 타임스탬프 기반의 픽셀 별 출력들을 생성하기 위해 도 1 및 2의 시스템 내에서 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도이다.
도 12는 본 발명의 실시 예에 따른 도 1 및 2의 시스템 내의 전체 구성을 보여주는 도면이다.
도 13은 본 발명의 실시 예에 따른 2차원 컬러 정보와 3차원 깊이 정보를 동시에 생성하고 얻기 위한 과정을 보여주는 예시적 플로우챠트이다.
도 14는 본 발명의 일 실시 예에 따른 반투명 객체에 대한 거리와 반투명 객체 뒤의 객체에 대한 거리가 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여주는 도면이다.
도 15는 본 발명의 일 실시 예에 따른 반투명 매체의 깊이 이미징이 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여주는 도면이다.
도 16은 본 발명의 일 실시 예에 따른 객체의 깊이 이미징이 다중 리턴 경로들의 존재 시에 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여주는 도면이다.
1 is a diagram showing a highly simplified configuration of a system according to an embodiment of the present invention.
2 illustrates an exemplary operational configuration of the system of FIG. 1 according to one embodiment of the present invention.
3 is an exemplary flowchart illustrating performance of 3D depth measurement according to an embodiment of the present invention.
4 is an exemplary diagram illustrating execution of a point scan for 3D depth measurement according to an embodiment of the present invention.
5 is a diagram showing exemplary timestamping of scanned light spots according to an embodiment of the present invention.
FIG. 6 is a diagram showing some exemplary detailed circuitry of the two-dimensional pixel array of the image sensor in FIGS. 1 and 2 and associated processing circuitry of the image processing unit in accordance with one embodiment of the present invention.
7A is an exemplary configuration diagram of an image sensor unit according to an embodiment of the present invention.
7B is an exemplary detailed configuration diagram of a CDS+ADC unit for 3D depth measurement according to an embodiment of the present invention.
8 illustrates exemplary timing of different signals within the system of FIGS. 1 and 2 to generate timestamp-based pixel-by-pixel outputs in a three-dimensional linear mode of operation in accordance with another embodiment of the present invention. It is also the timing.
9 exemplarily shows a lookup table (LUT) for indicating use of the LUT to determine 3D depth values according to another embodiment of the present invention.
10 is a timing diagram exemplarily showing the timing of different signals in the system of FIGS. 1 and 2 to generate a 2D RGB image using a 2D linear mode operation according to another embodiment of the present invention. .
11 illustrates exemplary timing of different signals within the system of FIGS. 1 and 2 to generate timestamp-based pixel-by-pixel outputs within a three-dimensional logarithmic (log) mode of operation in accordance with another embodiment of the present invention. This is the timing diagram shown by
FIG. 12 is a diagram showing an overall configuration within the system of FIGS. 1 and 2 according to an embodiment of the present invention.
13 is an exemplary flowchart showing a process for simultaneously generating and obtaining 2D color information and 3D depth information according to an embodiment of the present invention.
14 is a diagram exemplarily showing that a distance to a translucent object and a distance to an object behind the translucent object are performed for 3D depth measurement according to an embodiment of the present invention.
15 is a diagram exemplarily showing that depth imaging of a translucent medium is performed for 3D depth measurement according to an embodiment of the present invention.
16 is a diagram exemplarily illustrating that depth imaging of an object is performed for 3D depth measurement in the presence of multiple return paths according to an embodiment of the present invention.

이하의 상세한 설명에서, 다양한 특정 상세들이 본 발명에 대한 철저한 이해를 제공하기 위해 설명된다. 그러나, 이 기술 분야에서 통상의 지식을 가진 사람은 이들 특정 상세들이 없이도 본 발명의 개념을 구현할 수 있음을 이해하여야 한다. 다른 예들에서, 잘 알려진 방법들, 절차들, 구성요소들, 및 회로들은 실시 예의 양상을 불필요하게 흐리지 않게 하기 위해서 상세히 설명되지 않는다. 또한, 본 발명의 실시 예는 예컨대 스마트폰, 유저 장치(UE), 랩탑 컴퓨터 등을 포함하는 임의의 이미징 장치 또는 시스템 내에서 저전력을 수행하기 위해 3차원 측정기를 구현할 수 있다. In the detailed description that follows, numerous specific details are set forth in order to provide a thorough understanding of the present invention. However, it should be understood that a person skilled in the art may implement the inventive concepts without these specific details. In other instances, well-known methods, procedures, components, and circuits have not been described in detail in order not to unnecessarily obscure aspects of an embodiment. In addition, embodiments of the present invention may implement a 3D measuring device to perform low power in any imaging device or system including, for example, a smart phone, a user equipment (UE), a laptop computer, and the like.

본 명세서의 전반에 걸쳐 "하나의 실시 예" 또는 "실시 예"는 특별한 특징, 구조, 또는 실시 예와 관련하여 언급된 특성이 개시된 하나의 실시 예 내에 적어도 포함되어 있다는 것을 의미한다. 따라서, "하나의 실시 예 내에서", "한 실시 예 내에서", 또는 "하나의 실시 예에 따라"(또는 유사한 도입을 가지는 다른 문구)라는 문구는 같은 실시 예에 반드시 모두 참조되지는 않는다. Reference throughout this specification to “one embodiment” or “an embodiment” means that a particular feature, structure, or characteristic recited in connection with the embodiment is at least included in the one embodiment disclosed. Thus, the phrases “in one embodiment,” “within an embodiment,” or “according to an embodiment” (or other phrases having a similar introduction) are not necessarily all referring to the same embodiment. .

본 명세서에서 사용되는 "예시적"이라는 용어는 "일례 또는 실례로서 제공됨"을 의미한다. 임의의 실시 예에서 "예시적으로"라는 의미는 타 실시 예 상의 필수적으로 바람직하거나 이점이 있는 것으로 해석되어서는 아니 된다. 더욱이, 특별한 특징들, 구조들, 또는 특성들은 하나 이상의 실시 예들 내에서 적당한 수법으로 결합될 수도 있다. 또한, 여기에 개시되는 문맥에 의존하여, 단수 용어는 대응되는 복수의 형태를 포함할 수 있고 복수의 용어는 대응되는 단수 형태를 포함할 수 있다. 유사하게, "2-차원", "미리-설정된", 또는 "픽셀-별" 등과 같은 하이픈 용어는 예를 들어, "2 차원", "미리 설정된", 또는 "특정 픽셀" 등과 같은 대응되는 비 하이픈 버전으로 때때로 상호 교환적으로 사용될 수 있고, 대문자 항목(예를 들어, "카운터 클럭(Counter Clock)", "로우 선택", "PIXOUT" 등)은 상호교환적으로 대응하는 비 대문자 버전(예, "카운터 클럭(counter clock) ","로우 선택 ","pixout "등)으로 사용될 수 있다. 이러한 이따금 교환적인 사용은 서로 일치하지 않는 것으로 간주되어서는 아니 된다. The term "exemplary" as used herein means "serving as an example or illustration." The meaning of “exemplarily” in any embodiment should not be construed as necessarily preferred or advantageous over other embodiments. Moreover, particular features, structures, or characteristics may be combined in any suitable manner within one or more embodiments. Also, depending on the context of this disclosure, singular terms may include a corresponding plural form and plural terms may include a corresponding singular form. Similarly, hyphenated terms such as "two-dimensional", "pre-set", or "pixel-by-pixel" may be used with corresponding non-corresponding terms such as, for example, "two-dimensional", "pre-set", or "specific pixel". The hyphenated versions can sometimes be used interchangeably, and capitalized items (e.g., "Counter Clock", "row select", "PIXOUT", etc.) interchangeably correspond to non-capitalized versions (e.g. , "counter clock", "row selection", "pixout", etc.). These occasional interchangeable uses are not to be regarded as inconsistent.

초기에 언급되는 용어 "연결된", "동작적으로 연결된", "접속된", "연결" "전기적으로 연결된", 등은 본 명세서에서 동작적인 방법으로 전기/전자적으로 연결되어 있는 상태를 일반적으로 나타내기 위하여 상호교환 적으로 사용될 수 있다. The terms “connected,” “operably connected,” “connected,” “connected,” “electrically connected,” and the like referred to herein generally refer to being electrically/electronically connected in an operative manner herein. can be used interchangeably to indicate

유사하게, 제1 엔티티가 제2 엔티티 로/로부터 정보 신호들(어드레스, 데이터, 또는 제어 정보를 포함)을 신호 타입(아나로그 또는 디지털)에 무관하게 전기적으로 전송 및/또는 수신하는 경우에(유선 또는 무선을 통해)수신한다면, 제1 엔티티는 제2 엔티티 (또는 엔티티들)과 "통신"되는 것으로 간주된다. 여기에 도시되고 논의되는 다양한 도면들(구성요소 도면들을 포함)은 도시의 목적만을 위해서이고, 일정한 비율로 도시되지 않음을 유의하여야 한다. 유사하게, 다양한 파형 및 타이밍도가 도시의 목적만으로 나타나 있다.Similarly, if a first entity electrically transmits and/or receives information signals (including address, data, or control information) to/from a second entity, regardless of signal type (analog or digital) ( If receiving (via wire or wireless), the first entity is considered to be “communicating” with the second entity (or entities). It should be noted that the various figures (including component figures) shown and discussed herein are for illustrative purposes only and are not drawn to scale. Similarly, various waveforms and timing diagrams are shown for illustrative purposes only.

본 명세서에서 사용되는 "제1", "제2", 등의 용어는 앞서는 명사들에 대한 라벨로서 사용되며, 명시적으로 정의되는 것을 제외하고는, 임의의 형태의 순서(예를 들어, 공간적, 시간적, 논리적, 등)을 시사하지 않는다. 또한, 동일한 참조 부호는 동일 또는 유사한 기능을 가지는 부품, 구성 요소, 블록, 회로, 유닛, 또는 모듈을 인용하기 위해 두 도면 이상에 걸쳐 사용될 수 있다. 이러한 사용은 설명의 용이성과의 간략화를 위해서이고, 그러한 구성 요소나 유닛의 구성 또는 구조적 세부가 모든 실시 예들에 걸쳐 동일하다는 것을 의미하지는 않으며, 그러한 공통적으로 참조된 부품/모듈들이 특별한 실시 예들의 지침을 구현하기 위한 방법이라는 것만을 의미하지 않는다. The terms "first", "second", etc., as used herein, are used as labels for preceding nouns, except as explicitly defined, in any form of order (e.g., spatial , temporal, logical, etc.) Also, the same reference number may be used across two or more drawings to refer to parts, components, blocks, circuits, units, or modules having the same or similar functions. This use is for ease of description and brevity, and does not imply that configurations or structural details of such components or units are the same across all embodiments, and that such commonly referenced parts/modules do not serve as guidelines for a particular embodiment. It does not just mean that it is a way to implement

이미 언급된 3D 기술은 많은 결점들을 가짐이 여기에서 관찰된다. 예를 들면 TOF 기반 3D 이미징 시스템은 광(optical)이나 전자적 셔터들을 구동하기 위해 고전력을 요구할 수 잇다. 이들 시스템은 전형적으로 수 미터들 내지 수십 미터들의 범위에 걸쳐 동작하지만, 이들 시스템들의 해상도(resolution)는 단거리들 상의 측정에 대해서 감소하여, 1미터 정도의 거리 내에서 3D 이미징을 만드는 것은 거의 비실용적이다. 그러므로, TOF 시스템은 대부분의 사진들이 가까운 거리에서 촬영되는 휴대전화 기반 카메라 어플리케이션들에는 요구되지 않는다. TOF 센서는 대개 7 미크론(μm)이상의 큰 픽셀 사이즈들을 가지는 특정한 픽셀들을 또한 요구할 수 있다. 이들 픽셀들은 또한, 주변 광에 취약 할 수 있다.It is observed here that the already mentioned 3D technology has many drawbacks. For example, a TOF-based 3D imaging system may require high power to drive optical or electronic shutters. These systems typically operate over ranges of a few meters to tens of meters, but the resolution of these systems is reduced for measurements over short distances, making 3D imaging within distances of the order of one meter impractical. . Therefore, a TOF system is not required for cell phone-based camera applications where most pictures are taken at close range. A TOF sensor may also require specific pixels with large pixel sizes, usually 7 microns (μm) or more. These pixels may also be susceptible to ambient light.

입체 이미징 방식은 텍스쳐드 표면들에 대해서만 작동한다. 객체의 스테레오 쌍(pair)의 이미지들 사이에서 특징들을 매칭하고 대응물을 찾는 것을 필요로 하기 때문에 이는 높은 계산 복잡성(high-computational complexity)을 가진다. 이것은 높은 시스템 파워를 요구하고, 스마트폰들에서와 같이, 파워 절약이 필요한 어플리케이션들에서 바람직한 특성이 아닌 것이다. 게다가 입체 이미징은 2개의 레귤러, 두 개의 렌즈들과 함께 하이 비트 해상도 센서들을 요구하며, 장치가 재산적으로도 소중하게 여겨지게 되는 셀 폰이나 태블릿 등과 같은 휴대용 장치들에서 전체 어셈블리가 어플리케이션에 적합하지 않도록 만든다. The stereoscopic imaging scheme only works for textured surfaces. It has high-computational complexity because it requires matching features and finding a counterpart between images of a stereo pair of objects. This is an undesirable feature in applications that require high system power and need to save power, such as in smartphones. In addition, stereo imaging requires high-bit resolution sensors with two regular, two lenses, making the entire assembly unsuitable for applications in portable devices such as cell phones and tablets, where devices are often valued as property. make

SL 방식은 거리의 모호함을 수반하고, 또한 높은 시스템 전력을 요구한다. 3D 깊이 측정을 위해, SL 방법은 계산의 복잡성 및 전력 소비를 증가시키는 다중 패턴들을 가지는 다중 이미지들을 필요로 할 수 있다. 또한, SL 이미징은 높은 비트 해상도를 가지는 레귤러 이미지 센서들을 요구할 수 있다. 따라서, 구조 광 기반 시스템은 저비용, 저전력, 스마트폰의 소형 이미지 센서에는 적합하지 않을 수 있다.The SL scheme involves distance ambiguity and also requires high system power. For 3D depth measurement, the SL method may require multiple images with multiple patterns which increases computational complexity and power consumption. Also, SL imaging may require regular image sensors with high bit resolution. Therefore, structured light-based systems may not be suitable for low-cost, low-power, small image sensors in smartphones.

상술한 3D 기술과는 대조적으로, 본 발명의 특정 실시 예는 스마트폰, 태블릿, 단말기 등의 휴대용 전자 장치에서 저전력, 3D 이미징 시스템을 구현하는 기술을 제공한다. 여기에 개시된 특별한 실시 예로서의 2D 이미지 센서는 2D RGB (적색, 녹색, 청색) 이미지들과 가시 광선 레이저 스캐닝을 가지는 3D 깊이 측정을 모두를 캡쳐할 수 있다. 한편, 3D 깊이 측정시 주변 광이 거부될 수는 있다. 비록, 이하의 설명에서 이미지/광 캡쳐 디바이스로서 포인트 스캔 및 2D RGB 센서를 위한 광원으로서 가시광 레이저가 자주 언급될 것이나, 그러한 언급은 도시 및 설명의 일관성 만을 위한 의도임을 이해하여야 한다. 이하에서 설명되는 가시 레이저 및 RGB 센서 기반의 예시에서 스마트폰, 태블릿, 단말기(UEs) 등에서 카메라들을 가지는 저전력, 소비자용 모바일 전자 장치들의 어플리케이션들을 알 수 있다. 여기에 개시된 본 발명이 이하에서 언급되는 가시 레이저 RGB 센서 기반의 예시들에 제한되지 않음은 이해될 것이다. 오히려, 여기에 개시된 본 발명의 실시 예들에 따라, 포인트 스캔 기반 3D 깊이 측정 및 주변광 거부 방법은, 2D 센서들 및 레이저 광원들(포인트 스캔을 위한)의 다양한 조합들을 사용하여 수행될 수 있고, 레이저 광원들은 제한되는 것은 아니나, (i) R,G,B 광 레이저나 이들 광의 조합을 생성하는 레이저 소스가 되는 가시광 레이저 소스를 갖는 a 2D color (RGB) 센서; (ii) 적외선(IR) 컷 필터를 가지는 2D RGB 컬러 센서를 가지는 가시광 레이저; (iii) 2D IR 센서를 가지는 a Near Infrared (NIR) 레이저; (iv) an NIR laser with a 2D NIR sensor; (v) an NIR laser with a 2D RGB sensor (without an IR cut filter); (vi) an NIR laser with a 2D RGB sensor (without an NIR cut filter); (vii) a 2D RGB-IR sensor with visible or NIR laser; (viii) a 2D RGBW (red, green, blue, white) sensor with either visible or NIR laser; 및 기타 등등이 될 수 있다. In contrast to the 3D technology described above, certain embodiments of the present invention provide a technology for implementing a low-power, 3D imaging system in portable electronic devices such as smart phones, tablets, and terminals. A 2D image sensor as a particular embodiment disclosed herein can capture both 2D RGB (red, green, blue) images and 3D depth measurement with visible light laser scanning. Meanwhile, ambient light may be rejected during 3D depth measurement. Although, in the description below, visible light lasers will often be referred to as light sources for point scan and 2D RGB sensors as image/light capture devices, it should be understood that such references are intended for consistency of illustration and description only. Applications of low-power, consumer mobile electronic devices having cameras in smartphones, tablets, terminals (UEs), and the like can be seen in the visible laser and RGB sensor-based examples described below. It will be appreciated that the invention disclosed herein is not limited to the visible laser RGB sensor based examples discussed below. Rather, according to embodiments of the invention disclosed herein, a point scan based 3D depth measurement and ambient light rejection method can be performed using various combinations of 2D sensors and laser light sources (for point scan), The laser light sources include, but are not limited to, (i) a 2D color (RGB) sensor having a visible light laser source being a laser source generating an R, G, B light laser or a combination of these lights; (ii) a visible light laser with a 2D RGB color sensor with an infrared (IR) cut filter; (iii) a Near Infrared (NIR) laser with a 2D IR sensor; (iv) an NIR laser with a 2D NIR sensor; (v) an NIR laser with a 2D RGB sensor (without an IR cut filter); (vi) an NIR laser with a 2D RGB sensor (without an NIR cut filter); (vii) a 2D RGB-IR sensor with visible or NIR laser; (viii) a 2D RGBW (red, green, blue, white) sensor with either visible or NIR laser; and so forth.

3D 깊이 측정 동안, 전체 센서는 3D 컨텐츠를 재구성하기 위해 레이저 스캔과 협력하여 바이너리 센서로서 동작할 수 있다. 특정한 실시 예에서, 센서의 픽셀 사이즈는 1미크론 정도로 작을 수 있다. 또한, 낮은 비트 해상도에 기인하여, 여기에 개시된 특정한 실시 예들에 따르는 이미지 센서내의 아날로그-디지털 변환기(ADC)유닛들은 전형적인 3D 이미징 시스템 내에서 높은 비트 해상도 센서들에 대해 필요한 전력에 비해 현저히 낮은 프로세싱 전력을 필요로 할 수 있다. 왜냐하면, 본 발명의 실시 예에 따른 3D 이미징 모듈은 낮은 시스템 전력을 요구하므로, 보다 적은 프로세싱 전력의 필요가 스마트폰 등과 같은 저전력 장치들 내에 적용되는 것에 아주 적합해질 수 있기 때문이다. During 3D depth measurement, the entire sensor can operate as a binary sensor in cooperation with the laser scan to reconstruct the 3D content. In certain embodiments, the sensor's pixel size may be as small as 1 micron. Also, due to the low bit resolution, analog-to-digital converter (ADC) units within an image sensor according to certain embodiments disclosed herein require significantly less processing power compared to the power required for higher bit resolution sensors within a typical 3D imaging system. may require Because, since the 3D imaging module according to the embodiment of the present invention requires low system power, the need for less processing power can be well suited for application in low-power devices such as smart phones.

특별한 실시 예에서, 여기에 개시된 본 발명은 라인 센서들의 그룹을 가지는 3D 깊이 측정을 위한 레이저 광원을 가지고 삼각 및 포인트 스캔을 사용한다. 레이저 스캐닝 플레인 및 이미징 플레인은 등극선 기하(epipolar geometry)를 이용하는 것이 지향된다. 본 발명의 일실시 예에 따라 이미지 센서는 삼각측량 방식(triangulation approach)내에서의 모호성을 제거하기 위해 타임스탬프들(timestamps)을 사용할 수 있으며, 그에 따라 깊이 계산들의 양과 시스템 파워가 감소된다. 동일 이미지 센서 즉 이미지 센서 내의 각 픽셀은 노말 2D(RGB color 또는 non-RGB)이미징 모드는 물론이고 3D 레이저 스캔 모드에서 사용될 수 있다. 레이저 스캔 모드에서, 그렇지만 이미지 센서 내의 ADC 들의 해상도는 바이너리 출력(1비트 해상도 만)으로 줄어들어, 이미지 센서와 관련된 처리 유닛들을 합체하는 칩 내에서, 읽기 속도가 개선되고 예를 들면 ADC 유닛들 내에서 스위칭에 기인하는 파워 소모가 줄어든다. 더욱이, 포인트 스캔 방식은 시스템이 하나의 패스 내에서 모든 측정들을 취하는 것을 허용하므로, 깊이 측정에 대한 레이턴시(latency)가 줄어들고 모션 블러(motion blur)가 감소된다. In a particular embodiment, the invention disclosed herein uses a triangular and point scan with a laser light source for 3D depth measurement with a group of line sensors. The laser scanning plane and imaging plane are oriented to use epipolar geometry. According to one embodiment of the present invention, an image sensor may use timestamps to remove ambiguity within a triangulation approach, thereby reducing the amount of depth calculations and system power. Each pixel within the same image sensor or image sensor can be used in 3D laser scan mode as well as normal 2D (RGB color or non-RGB) imaging mode. In laser scan mode, however, the resolution of the ADCs in the image sensor is reduced to a binary output (only 1-bit resolution), so that within the chip incorporating the image sensor and related processing units, the read speed is improved and, for example, within the ADC units Power consumption due to switching is reduced. Moreover, since the point scan scheme allows the system to take all measurements within one pass, latency for depth measurement is reduced and motion blur is reduced.

전술한 바와 같이, 특별한 실시 예들에서, 전체 이미지 센서는 예를 들면 주변광뿐만 아니라 가시레이저 스캔을 이용하는 3D 깊이 이미징을 사용하는 루틴 2D RGB 컬러 이미징을 위해 사용될 수 있다. 동일 카메라 유닛의 그러한 2중 사용은 모바일 디바이스들에 대한 공간과 비용을 절약할 수 있다. 더욱이, 임의의 어플리케이션들에서, 3D 어플리케이션들에 대한 가시 레이저는 근적외선 레이저(Near Infrared:NIR) 에 비해 사용자 눈 안정성을 위해 더 좋을 수 있다. 센서는 광원의 저전력 소비를 초래하면서 NIR 스펙트럼 보다는 가시 스펙트럼에서 높은 양자화 계수를 가질 수 있다. 일실시 예에서, 듀얼 사용 이미지 센서는 레귤러 2D 센서로서의 2D 이미징에 대한 리니어 모드의 동작에 적절히 작용할 수 있다. 그러나 3D 이미징에 대하여, 센서는 일반 광 조건 하의 리니어 모드와 강한 주변광의 거부를 통해 가시 레이저 소스의 연속된 사용을 촉진하기 위해 강한 주변 광 아래에서의 대수 모드(logarithmic mode)에서 작용할 수 있다. 게다가, 주변 광 거부는 RGB 센서를 가지고서 적용된 IR 컷 필터의 통과 대역의 대역폭이 아주 좁지 않다면, 또한 NIR 레이저에도 필요해질 수 있다. As noted above, in particular embodiments, the full image sensor may be used for routine 2D RGB color imaging using ambient light as well as 3D depth imaging using visible laser scans, for example. Such dual use of the same camera unit can save space and cost for mobile devices. Moreover, in certain applications, visible lasers for 3D applications may be better for user eye stability compared to Near Infrared (NIR) lasers. The sensor can have a higher quantization coefficient in the visible spectrum than in the NIR spectrum, resulting in lower power consumption of the light source. In one embodiment, the dual-use image sensor may properly operate in a linear mode for 2D imaging as a regular 2D sensor. However, for 3D imaging, the sensor can operate in linear mode under normal light conditions and in logarithmic mode under strong ambient light to facilitate continued use of visible laser sources through rejection of strong ambient light. In addition, ambient light rejection may also be required for NIR lasers, unless the bandwidth of the passband of the IR cut filter applied with the RGB sensor is very narrow.

도 1은 본 발명의 일 실시 예에 따른 시스템(15)의 고단순화 구성을 보여준다. 도시된 바와 같이, 시스템 (15)은 프로세서나 호스트(19)에 연결되어 통신하는 이미징 모듈(17)을 포함할 수 있다. 시스템(15)은 프로세서(19)에 연결되는 메모리 모듈(20)을 포함할 수 있다. 메모리 모듈(20)은 이미징 모듈(17)로부터 수신된 이미지 데이터와 같은 정보 컨텐츠(content)를 저장한다. 특정한 실시 예에서, 전체 시스템(15)은 단일 IC 나 칩 내에 캡슐화될 수 있다. 또는, 모듈들(17,19,20)은 각기 분리된 칩에서 구현될 수 있다. 더욱이, 메모리 모듈(20)은 하나 이상의 메모리 칩을 포함할 수 있으며, 프로세서 모듈(19)은 다중 프로세싱 칩들도 포함할 수 있다. 어떤 경우에, 도 1내의 모듈들의 패키징에 관한 상세와 모듈들이 어떻게 제조되고 구현되는 가(단일 칩에서 또는 멀티플 이산 칩들을 이용)는 본 발명의 실시 예에서 설명되지 않으며 그러한 상세들은 여기에서 제공되지 않는다. 1 shows a highly simplified configuration of system 15 according to one embodiment of the present invention. As shown, system 15 may include an imaging module 17 that is coupled to and communicates with a processor or host 19 . System 15 may include a memory module 20 coupled to processor 19 . The memory module 20 stores information content such as image data received from the imaging module 17 . In a particular embodiment, the entire system 15 may be encapsulated within a single IC or chip. Alternatively, the modules 17, 19, and 20 may be implemented on separate chips. Furthermore, memory module 20 may include more than one memory chip, and processor module 19 may include multiple processing chips as well. In any case, details regarding the packaging of the modules in Figure 1 and how the modules are fabricated and implemented (either on a single chip or using multiple discrete chips) are not described in an embodiment of the present invention and such details are not provided herein. don't

시스템(15)은 본 발명의 실시 예에 따라 2D 및 3D 카메라 어플리케이션들을 위해 구성된 저전력 전자 장치가 될 수 있다. 시스템(15)은 휴대용 혹은 비 휴대용이 될 수 있다. 휴대용 시스템(15)의 일실시 예들은 한정되는 것은 아니나. 모바일 장치, 휴대전화, 스마트폰, 사용자 장치(UE), 태블릿, 디지털 카메라, 랩탑 컴퓨터나 데스크탑 컴퓨터, 전자 스마트워치(smartwatch), Machine-to-Machine (M2M) 통신 유닛, 가상현실(VR)장치나 모듈, 로봇, 및 기타 등등과 같은 대중적 소비자 전자 도구들을 포함할 수 있다. 한편, 비 휴대용 시스템(15)의 일실시 예들은 비디오 아케이드 내의 게임 콘솔, 양방향 비디오 단말기, 자동차, 기계용 시스템, 산업용 로봇, VR 장치, 자동차 내에 운전측 탑재 카메라(예를 들면 운전자가 졸음 운전인지 아닌 지를 모니터링) 등을 포함할 수 있다. 본 발명의 실시 예에 따라 제공되는 3D 이미징 기능성은 여기에 제한되는 것은 아니지만, 가상현실 장치상의 가상현실 어플리케이션들, 온라인 채팅/게이밍, 3D 텍스팅, 프로덕트(예를 들면 한 조각의 푸드 아이템의 칼로리 컨텐츠)에 관련된 정보를 얻기 위해 프로덕트의 3D 이미지를 이용하여 온라인 혹은 로컬(디바이스 기반) 카탈로그/데이터 베이스의 검색, 로보틱스 및 머신 비젼 어플리케이션들, 자동차 어플리케이션들, 자동자 드라이빙 어플리케이션들 등과 같은 다양한 어플리케이션들에 사용될 수 있다. System 15 may be a low power electronic device configured for 2D and 3D camera applications according to an embodiment of the present invention. System 15 may be portable or non-portable. Although one embodiment of the portable system 15 is not limited. Mobile devices, cell phones, smartphones, user equipment (UE), tablets, digital cameras, laptop or desktop computers, electronic smartwatches, machine-to-machine (M2M) communication units, virtual reality (VR) devices or popular consumer electronic tools such as modules, robots, and the like. On the other hand, one embodiment of the non-portable system 15 is a game console in a video arcade, an interactive video terminal, a vehicle, a machine system, an industrial robot, a VR device, a driver-side mounted camera in a vehicle (eg, whether the driver is drowsy driving) monitoring), etc. 3D imaging functionality provided in accordance with an embodiment of the present invention is not limited to, but is not limited to, virtual reality applications on a virtual reality device, online chatting/gaming, 3D texting, products (e.g., calories in a piece of food item). contents) for various applications such as searching online or local (device-based) catalogs/databases, robotics and machine vision applications, automotive applications, car driving applications, etc. can be used

본 명세서에 기재된 특정 실시 예에서, 이미징 모듈 (17)은 광원(22)과 이미지 센서 유닛(24)을 포함할 수 있다. 이하에서 도 2를 참조하여 보다 상세하게 설명되는 바와 같이, 일 실시 예에서, 광원(22)은 가시 레이저 일 수 있다. 다른 실시 예에서, 광원은 NIR 레이저일 수 있다. 이미지 센서 유닛(24)은 도 2에 도시된 바와 같이 픽셀 어레이 및 보조 처리 회로를 포함 할 수 있으며, 이하에서 또한 설명될 것이다. In certain embodiments described herein, imaging module 17 may include light source 22 and image sensor unit 24 . As described in more detail with reference to FIG. 2 below, in one embodiment, light source 22 may be a visible laser. In another embodiment, the light source may be a NIR laser. The image sensor unit 24 may include a pixel array and auxiliary processing circuitry as shown in FIG. 2, which will also be described below.

일 실시 예에서, 프로세서(19)는 범용 마이크로 프로세서가 될 수 있는 CPU 일 수 있다. 본 발명의 설명에서, 용어 "프로세서" 및 "CPU"는 설명의 편의를 위해 상호 교환적으로 사용될 수 있다. 그러나 CPU 대신 또는 CPU에 부가하여, 프로세서 (19)는 여기에 한정되는 아니지만, 마이크로 컨트롤러, 디지털 신호 프로세서(DSP), 그래픽 처리 장치(GPU), 전용 응용 집적 회로(ASIC) 프로세서 등과 같은 임의의 다른 유형의 프로세서를 포함 할 수 있다는 것이 이해될 것이다. 또한, 일실시 예에서, 프로세서/호스트(19)는 분산 처리 환경에서 동작할 수 있는 하나 이상의 CPU를 포함할 수 있다. 프로세서(19)는 여기에 제한되는 아니지만 x86 명령 세트 아키텍쳐(32-bit or 64-bit 버젼들), 파워 PC® ISA, 또는 RISC (Reduced Instruction Set Computer) ISA에 의존하는 MIPS(Microprocessor without Interlocked Pipeline Stages) 명령 세트 아키텍쳐 등과 같은 특정한 명령 세트 아키텍쳐에 따라 명령들을 실행하고 데이터를 처리하도록 구성될 수 있다. 일 실시 예에서, 프로세서(19)는 CPU의 기능에 더한 부가 기능을 갖는 시스템 온 칩(SOC)일 수 있다.In one embodiment, processor 19 may be a CPU, which may be a general purpose microprocessor. In the description of the present invention, the terms "processor" and "CPU" may be used interchangeably for convenience of description. However, instead of or in addition to a CPU, processor 19 may be any other processor, such as, but not limited to, a microcontroller, digital signal processor (DSP), graphics processing unit (GPU), dedicated application integrated circuit (ASIC) processor, or the like. It will be appreciated that it may include a tangible processor. Additionally, in one embodiment, processor/host 19 may include one or more CPUs capable of operating in a distributed processing environment. Processor 19 is a MIPS (Microprocessor without Interlocked Pipeline Stages) that relies on, but is not limited to, x86 instruction set architecture (32-bit or 64-bit versions), Power PC® ISA, or Reduced Instruction Set Computer (RISC) ISA. ) to execute instructions and process data according to a particular instruction set architecture, such as an instruction set architecture. In one embodiment, the processor 19 may be a system on chip (SOC) having additional functions in addition to the functions of a CPU.

특정한 실시 예에서, 메모리 모듈(20)은 제한되는 것은 아니지만, 동기 DRAM (SDRAM), 또는 한정되는 것은 아니나 고대역폭 메모리(HBM) 모듈이나 하이브리드 메모리 큐브(HMC) 메모리 모듈과 같은 DRAM 기반 3차원 스택(3DS) 메모리 모듈과 같은 다이나믹 랜덤 액세스액세스 메모리(DRAM)일 수 있다. 다른 실시 예에서, 메모리 모듈(20)은 Solid-State Drive(SSD), 비-3DS DRAM 모듈, 또는 기타 다른 반도체 기반 스토리지 시스템이 될 수 있으며, 반도체 기반 스토리지 시스템은 한정되는 것은 아니지만, Static Random Access Memory (SRAM), Phase-Change Random Access Memory (PRAM or PCRAM), Resistive Random Access Memory (RRAM or ReRAM), Conductive-Bridging RAM (CBRAM), Magnetic RAM (MRAM), Spin-Transfer Torque MRAM (STT-MRAM), 및 기타 등등을 포함할 수 있다. In a particular embodiment, the memory module 20 is a DRAM-based three-dimensional stack, such as but not limited to synchronous DRAM (SDRAM), or a DRAM-based memory module, such as but not limited to a High Bandwidth Memory (HBM) module or a Hybrid Memory Cube (HMC) memory module. (3DS) may be a dynamic random access memory (DRAM) such as a memory module. In other embodiments, memory module 20 may be a Solid-State Drive (SSD), non-3DS DRAM module, or other semiconductor-based storage system, including but not limited to Static Random Access Memory (SRAM), Phase-Change Random Access Memory (PRAM or PCRAM), Resistive Random Access Memory (RRAM or ReRAM), Conductive-Bridging RAM (CBRAM), Magnetic RAM (MRAM), Spin-Transfer Torque MRAM (STT-MRAM) ), and the like.

도 2는 본 발명의 일 실시 예에 따라 도 1의 시스템(15)의 예시적인 동작 구성을 도시한다. 시스템 15는 개별적 객체나 장면(scene)내의 객체가 될 수 있는 3D 객체(26)와 같은 3D 객체에 대한 깊이 정보(Z 축을 따라)를 얻기 위해 사용될 수 있다. 일 실시 예에서, 깊이 정보는 이미지 센서 유닛(24)으로부터 수신된 스캔 데이터에 근거하여 프로세서(19)에 의해 계산될 수 있다. 다른 실시 예에서, 깊이 정보는 도 7A의 실시 예에서의 이미지 센서 유닛의 경우와 같이 이미지 센서 유닛(24) 자체에 의해 계산될 수 있다. 특정한 실시 예에서, 깊이 정보는 시스템(15)의 유저가 객체의 3D 이미지와 상호작용을 수행하거나 게임의 일부나 시스템(15)에 구동되는 다른 어플리케이션으로서, 객체의 3D 이미지를 사용하도록 하기 위해 3D 유저 인터페이스의 일부로서 프로세서(19)에 의해 사용될 수 있다. 개시된 본 발명의 일 실시 예에 따라 3D 이미징은 다른 목적들이나 응용들에 사용될 수 있을 뿐 아니라, 실질적인 어떤 장면이나 3D 객체들에 적용될 수 있다.FIG. 2 illustrates an exemplary operational configuration of system 15 of FIG. 1 according to one embodiment of the present invention. System 15 may be used to obtain depth information (along the Z axis) for a 3D object, such as 3D object 26, which may be an individual object or an object within a scene. In one embodiment, depth information may be calculated by the processor 19 based on scan data received from the image sensor unit 24 . In another embodiment, the depth information may be calculated by the image sensor unit 24 itself, as in the case of the image sensor unit in the embodiment of FIG. 7A. In particular embodiments, the depth information is 3D to allow a user of the system 15 to interact with the 3D image of the object or to use the 3D image of the object as part of a game or other application running on the system 15. It can be used by processor 19 as part of a user interface. According to an embodiment of the present invention, 3D imaging can be used for other purposes or applications, and can be applied to practically any scene or 3D objects.

도 2에서 X 축은 장치(15)의 정면을 따라 수평 방향이 되게 취해진 것이고, Y 축은 수직 방향(도면에서는 페이지의 외부)이고, Z 축은 객체(26)의 일반적인 방향이 이미지화되어 있는 내에서 장치(15)로부터 떨어져 연장된 것이다. 깊이 측정을 위해, 모듈들(22 및 24)의 광축들은 Z축에 대해 평행일수 있다. 기타 옵티컬 배열은 여기에 개시된 원리를 구현하기 위해 적절히 사용될 수 있고, 이들의 대치적 배열들은 본 발명의 기술적 사상의 범위 내에 있는 것으로 해석되어야 한다. 2 the X axis is taken to be horizontal along the front of the device 15, the Y axis is the vertical direction (outside the page in the figure), and the Z axis is the general orientation of the object 26 within which the device is imaged ( 15) and extended away from it. For depth measurements, the optical axes of modules 22 and 24 may be parallel to the Z axis. Other optical arrangements may be suitably used to implement the principles disclosed herein, and alternative arrangements thereof should be construed as falling within the scope of the technical spirit of the present invention.

광원 모듈(22)은 3D 객체(26)를 대응되는 점선들(30,31)과 관련된 화살표(28,29)에 의해 예시적으로 보여지는 바와 같이, 발광(illumination)할 수 있다. 상기 점선들은 광빔의 조사 경로나 옵티컬 필드 장면내에서의 3D 객체(26)를 포인트 스캔하는데 사용될 수 있는 광방사(optical radiation)를 나타낸다. 객체 표면의 라인-바이-라인(line-by-line)포인트 스캔은 실시 예에서 레이저 컨트롤러(34)에 의해 구동되고 제어되는 레이저 광원(33)이 될 수 있는 광방사 소스(source)를 이용함에 의해 수행될 수 있다. 레이저 소스(33)로부터의 광빔은 레이저 컨트롤러(34)의 제어 하에서, 프로젝션 옵틱들(35)를 경유하여 3D 객체(26)의 표면을 가로 질러 X-Y 방향에서, 포인트 스캔될 수 있다. 포인트 스캔은 도 4 및 도 5를 참조로 이하에서 보다 상세히 설명되는 바와 같이, 스캔 라인을 따라 3D 객체의 표면 상의 광 스팟들(spots)을 투영(project)할 수 있다. 프로젝션 옵틱들은 집속 렌즈들, 유리/플라스틱 표면, 또는 객체(26)의 그 표면 상에 레이저(33)의 레이저 빔을 포인트 또는 스팟으로서 집중시키는 기타 원통형의 광학 소자일 수 있다. 도 2의 실시 예에서, 볼록한 구조는 집속 렌즈(35)로서 나타나 있다. 그러나 이외에도 다른 적합한 렌즈 디자인이 프로젝션 옵틱들(35)을 위해 선택될 수 있다. 객체(26)는 광원(33)으로부터의 조사 광이 광 스팟으로서의 프로젝션 옵틱들(35)에 의해 집속되는 경우에 집속 위치에 놓여질 수 있다. 따라서, 포인트 스캔 내에서, 3D 객체(26)의 표면 상에서 포인트 혹은 좁은 영역/스팟은 프로젝션 옵틱들(35)로부터의 집속된 광빔에 의해 순차적으로 비춰질 수 있다. The light source module 22 may illuminate the 3D object 26 as exemplarily shown by arrows 28 and 29 associated with corresponding dotted lines 30 and 31 . The dotted lines represent optical radiation that can be used to point scan a 3D object 26 in an optical field scene or an irradiation path of a light beam. The line-by-line point scan of the surface of an object uses an optical radiation source, which in an embodiment can be a laser light source 33 driven and controlled by a laser controller 34. can be performed by A light beam from the laser source 33 may be point scanned, in the X-Y direction, across the surface of the 3D object 26 via the projection optics 35 under the control of the laser controller 34 . The point scan may project light spots on the surface of the 3D object along a scan line, as described in more detail below with reference to FIGS. 4 and 5 . The projection optics may be focusing lenses, a glass/plastic surface, or other cylindrical optical element that focuses the laser beam of laser 33 as a point or spot onto that surface of object 26 . In the embodiment of FIG. 2 , the convex structure is shown as a focusing lens 35 . However, other suitable lens designs may be selected for the projection optics 35 in addition to this. The object 26 may be placed at a convergence position when irradiation light from the light source 33 is focused by the projection optics 35 as a light spot. Thus, within a point scan, a point or narrow area/spot on the surface of the 3D object 26 can be sequentially illuminated by the focused light beams from the projection optics 35 .

특별한 실시 예에서, 광원(33: 혹은 조사 원)은 다이오드 레이저나 LED(Light Emitting Diode) 발광 가시광, NIR 레이저, 점광원, 가시광 스펙트럼 내의 단색 조사 원(예를 들면 화이트 램프와 단색화장치(monochromater)의 조합 등), 또는 기타 유형의 레이저 광원이 될 수 있다. In a particular embodiment, the light source (33: or irradiation source) is a diode laser, a light emitting diode (LED) emitting visible light, a NIR laser, a point light source, or a monochromatic irradiation source within the visible light spectrum (eg, a white lamp and a monochromator). combinations, etc.), or other types of laser light sources.

레이저(33)는 장치(15)의 하우징 내에서 한 위치에 고정 될 수 있지만, X-Y 방향으로 회전할 수 있다. 레이저(33)는 3D 객체(26)의 포인트 스캔을 수행하기 위해, X-Y 어드레싱 될 수 있다(예를 들면, 레이저 컨트롤러(34)에 의해). 일 실시 예에서, 가시광은 실질적으로 녹색 광일 수 있다. 레이저 광원(33)으로부터 가시 광 조명은 3D의 표면(도시 생략)에 미러(미도시)를 이용하여 투영될 수 있고, 혹은 포인트 스캔은 전적으로 미러 없이 이루어질 수 있다. 특별한 실시 예에서, 광원 모듈(22)은 도 2의 예시적인 실시 예에서 보여지는 것들에 비해 가감된 구성요소들을 포함할 수 있다. Laser 33 may be fixed in one position within the housing of device 15, but may rotate in the X-Y direction. Laser 33 may be X-Y addressed (eg, by laser controller 34) to perform a point scan of 3D object 26. In one embodiment, visible light may be substantially green light. Visible light illumination from the laser light source 33 can be projected onto a 3D surface (not shown) using a mirror (not shown), or the point scan can be done entirely without a mirror. In a particular embodiment, the light source module 22 may include added or subtracted components compared to those shown in the exemplary embodiment of FIG. 2 .

도 2의 실시 예에서, 객체(26)의 포인트 스캔으로부터 반영된 광은 화살표들(36 및 37)과 점선들(38 및 39)에 의해 나타낸 수집 경로를 따라 이동(travel)할 수 있다. 집광 경로는 레이저 광원(33)으로부터 조명을 수신 시에, 객체(26)의 표면으로부터 반사되거나 산란된 광자를 전달할 수 있다. 도 2(도 4 및 도 5에서도 마찬가지로 적용)내의 실선으로 표시된 화살표들 및 점선들을 이용하는 다양한 전파 경로의 묘사는 도시의 목적만을 위한 것임을 이해하여야 한다. 묘사는 실제 광 신호 전파 경로를 도시하기 위한 것으로 해석되어서는 아니 된다. 실제로는, 조명 및 수집 신호 경로들은 도 2에 도시된 것과 상이할 수 있다. 도 2에서 도시된 바와 같이 명확하게 정의되지 않을 수 있다.In the embodiment of FIG. 2 , light reflected from a point scan of object 26 may travel along a collection path indicated by arrows 36 and 37 and dotted lines 38 and 39 . When light is received from the laser light source 33 , the light condensing path may transfer photons reflected or scattered from the surface of the object 26 . It should be understood that the depiction of the various propagation paths using solid arrows and dotted lines in FIG. 2 (which applies to FIGS. 4 and 5 as well) is for illustrative purposes only. Depictions should not be construed as depicting actual optical signal propagation paths. In practice, the illumination and collection signal paths may differ from those shown in FIG. 2 . As shown in FIG. 2, it may not be clearly defined.

조사된 객체(26)로부터 수신된 광은 이미지 센서 유닛(24)내의 수집 옵틱스(35)를 통해 2D 픽셀(화소)어레이(42)의 하나 이상의 픽셀에 집속될 수 있다. 프로젝션 옵틱스(35)과 마찬가지로, 수집 옵틱스(44)는 집속 렌즈들, 유리/플라스틱 표면, 또는 객체(26)로부터 수신된 투영된 광을 2D 어레이(42)내의 하나 이상의 픽셀들에 집중시키는 기타 원통형의 옵티컬 소자일 수 있다. 도 2의 실시 예에서. 볼록한 구조는 집속 렌즈(44)로서 도시된다. 그러나, 임의의 다른 적합한 렌즈 디자인은, 수집 옵틱스(44)를 위해 선택될 수 있다. 또한, 설명의 용이성을 위해, 3 x 3 픽셀 어레이 만이 도 2(또한 도 6에서)에서 나타나 있다. 그러나, 그러한 최신의 픽셀 어레이들이 수천 또는 심지어 수백만의 픽셀들을 포함하고 있음이 이해될 것이다. 픽셀 어레이(42)는 서로 다른 픽셀들이 다른 컬러들의 광 신호들을 수집할 수 있는 RGB 픽셀 어레이 일 수 있다. 전술한 바와 같이, 특정한 실시 예에서 픽셀 어레이(42)는 IR 컷 필터를 갖는 2D RGB 센서, 2D IR 센서, 2D NIR 센서, 2D RGBW 센서, 2D RGB-IR 센서, 및 기타 등등과 같은 임의의 2D 센서일 수 있다. 이후에 자세히 설명되는 바와 같이, 시스템(15)은 객체(26)의 2D RGB 컬러 이미지(또는 객체를 포함하는 장면)뿐만 아니라 객체(26)의 3D 이미지(깊이 측정을 포함)에 대해 동일한 픽셀 어레이(42)를 사용할 수 있다. 픽셀 어레이(42)의 부가적인 구조적 세부 사항은 도 6을 참조로 후술된다. Light received from the irradiated object 26 may be focused on one or more pixels of the 2D pixel (pixel) array 42 via collection optics 35 in the image sensor unit 24 . Like projection optics 35 , collection optics 44 may include focusing lenses, glass/plastic surfaces, or other cylindrical objects that focus the projected light received from object 26 onto one or more pixels within 2D array 42 . It may be an optical element of. In the embodiment of Figure 2. The convex structure is shown as a focusing lens 44 . However, any other suitable lens design may be selected for collection optics 44 . Also, for ease of explanation, only a 3 x 3 pixel array is shown in FIG. 2 (also in FIG. 6). However, it will be appreciated that such state-of-the-art pixel arrays contain thousands or even millions of pixels. The pixel array 42 may be an RGB pixel array in which different pixels may collect light signals of different colors. As noted above, in certain embodiments, pixel array 42 may include any 2D RGB sensor, such as a 2D RGB sensor with an IR cut filter, a 2D IR sensor, a 2D NIR sensor, a 2D RGBW sensor, a 2D RGB-IR sensor, and the like. may be a sensor. As will be described in more detail below, system 15 uses the same pixel array for a 2D RGB color image of object 26 (or a scene containing the object) as well as a 3D image of object 26 (including depth measurements). (42) can be used. Additional structural details of pixel array 42 are discussed below with reference to FIG.

픽셀 어레이(42)는 수신된 광자들(photons)을 대응되는 전기적 신호들로 변환하고, 전기적 신호들은 객체(26)의 3D 깊이 이미지를 결정하기 위해 관련된 이미지 처리 유닛(46)에 의해 처리된다. 일 실시 예에서, 이미지 처리 유닛(46)은 깊이 측정을 위해 삼각측량을 사용할 수 있다. 삼각측량 방식은 도 4를 참조로 후술될 것이다. 이미지 처리 유닛(46)은 픽셀 어레이(42)의 동작을 제어하기 위한 관련 회로들을 포함할 수 있다. 이미지 처리 및 제어 회로들의 예시는 도 7a 및 도 7b에서 설명되고, 이하에서 후술된다. The pixel array 42 converts the received photons into corresponding electrical signals, which are processed by an associated image processing unit 46 to determine a 3D depth image of the object 26 . In one embodiment, image processing unit 46 may use triangulation for depth measurement. The triangulation method will be described later with reference to FIG. 4 . The image processing unit 46 may include related circuits for controlling the operation of the pixel array 42 . An example of image processing and control circuits is illustrated in FIGS. 7A and 7B , and described further below.

프로세서(19)는 광원 모듈 (22)과 이미지 센서 유닛(24)의 동작들을 제어할 수 있다. 예를 들어, 시스템(15)는 2D 이미지 모드에서부터 3D 이미지 모드까지 스위칭하기 위해, 사용자에 의해 제어가능한 모드 스위치(미도시)를 가질 수 있다. 사용자가 모드 스위치를 사용하여 2D 이미지 모드를 선택하면, 프로세서(19)는 이미지 센서 유닛(24)을 활성화할 수 있지만, 2D 이미징이 주변광을 사용할 수 있기 때문에 광원 모듈(22)을 비활성화할 수 있다. 한편, 사용자가 모드 스위치를 사용하여 3D 이미지를 선택하면, 프로세서(19)는 모듈들(22 및 24) 모두를 활성화할 수 있으며, 주변 광이 너무 강하여 선형 모드(이하에 설명됨)로써 거부될 수 없는 경우와 같이, 이미지를 선형 모드에서 대수 모드로 스위칭하기 위해 이미지 처리 유닛(46)내의 리셋(RST)신호의 레벨에서의 변화를 또한 유발(trigger)할 수 있다. 이미지 처리 유닛(46)으로부터 수신된 처리된 이미지 데이터는 프로세서(19)에 의해 메모리(20)내에 저장될 수 있다. 프로세서(19)는 또한 장치(15)의 디스플레이 스크린(미도시)상에 사용자에 의해 선택된 2D나 3D 이미지를 디스플레이할 수 있다. 프로세서(19)는 본 발명에서 개시되는 다양한 처리 타스크들을 수행하기 위해 소프트웨어나 펌웨어로 프로그램될 수 있다. 대안적으로나 부가적으로, 프로세서(19)는 프로세서(19)의 일부 또는 모든 기능들을 수행하기 위한 프로그래머블 하드웨어 로직 회로들을 포함할 수 있다. 특별한 실시 예에서, 메모리(20)는 프로그램 코드, 룩업 테이블들(도 9에서 나타낸 것과 같고, 후술 될 것임), 및/또는 프로세서(19)의 기능들을 수행하기 위해 프로세서(19)를 인에이블하기 위한 중간 계산 결과들을 저장할 수 있다. The processor 19 may control operations of the light source module 22 and the image sensor unit 24 . For example, system 15 may have a mode switch (not shown) controllable by a user to switch from a 2D image mode to a 3D image mode. When the user selects the 2D image mode using the mode switch, the processor 19 can activate the image sensor unit 24 but disable the light source module 22 since 2D imaging can use ambient light. have. On the other hand, if the user selects a 3D image using the mode switch, processor 19 may activate both modules 22 and 24, and ambient light may be too strong to be rejected as linear mode (described below). As in the case of an unavailable number, it may also trigger a change in the level of the reset (RST) signal in the image processing unit 46 to switch the image from linear mode to logarithmic mode. Processed image data received from image processing unit 46 may be stored in memory 20 by processor 19 . Processor 19 may also display a 2D or 3D image selected by the user on a display screen (not shown) of device 15. Processor 19 may be programmed with software or firmware to perform various processing tasks described herein. Alternatively or additionally, processor 19 may include programmable hardware logic circuits to perform some or all functions of processor 19 . In a particular embodiment, memory 20 may include program code, look-up tables (as shown in FIG. 9, and will be described below), and/or memory 20 to enable processor 19 to perform functions of processor 19. Intermediate calculation results can be stored for

도 3은 본 발명의 일 실시 예에 따라 3차원 깊이 측정이 어떻게 수행되는 자를 보여주는 예시적 플로우챠트(50)이다. 도 3에 도시된 다양한 동작들은 시스템 (15)내에서 하나의 모듈, 모듈들의 조합, 또는 시스템 컴포넌트들에 의해 수행될 수 있다. 여기에 개시되는 설명에서, 실시 예만을 통해서, 특정한 태스크들(tasks)이 특별한 모듈들이나 시스템 컴포넌트들에 의해 수행되는 것으로 설명된다. 다른 모듈들이나 시스템 컴포넌트들이 그러한 태스크들을 잘 수행하기 위해 적절히 구성될 것이다. 3 is an exemplary flow chart 50 showing how a three-dimensional depth measurement is performed according to one embodiment of the present invention. The various operations shown in FIG. 3 may be performed by one module, a combination of modules, or system components within system 15. In the description disclosed herein, only through embodiments, specific tasks are described as being performed by special modules or system components. Other modules or system components will be suitably configured to perform those tasks well.

도 3에서, 블록(52)에서, 시스템(15)는(보다 구체적으로 프로세서: 19)는 도 2에서의 객체(26)과 같은 3D 객체의 1차원(1D)포인트 스캔을, 도 2 내에서의 광원 모듈(22)과 같은 광원을 이용하여 스캐닝 라인을 따라 수행할 수 있다. 포인트 스캔의 일부로서, 광원 모듈(22)는 라인-바이-라인 방법으로 3D 객체(26)의 표면 상에서 일련의 광 스팟들을 투영하기 위해 예를 들면 프로세서(19)에 의해 구성될 수 있다. 블록(54)에서, 시스템(15)내에서의 픽셀 처리 유닛(46)은 도 2내의 2D 픽셀 어레이(42)와 같은 이미지 센서 내에서 픽셀들의 로우(row)를 선택할 수 있다. 이미지 센서(42)는 이미지 플레인을 형성하는 2D 어레이 내에 배열된 복수의 픽셀들을 가지며, 픽셀들의 선택된 로우는 이미지 플레인 상의 스캐닝 라인(블록 52에서)의 등극선(epipolar line)을 형성한다. 등극선 기하(epipolar geometry)의 간략한 설명은 도 4를 참조로 이하에서 제공된다. 블록(56)에서, 픽셀 처리 유닛(46)은 픽셀들의 로우 내에서 대응되는 픽셀을 이용하여 각각의 광 스팟을 검출하기 위해 프로세서(19)에 의해 동작적으로 구성될 수 있다. 조사된 광 스팟으로부터 반영된 광이 수집 옵틱스(44)에 의해 2개 이상의 인접 픽셀들 상에 집광되는 것과 같이, 조사된 광 스팟으로부터 반영된 광이 단일 픽셀이나 하나 이상의 픽셀에 의해 검출되는 것이 여기서 관찰된다. 한편, 2개 이상의 광 스팟들로부터 반사된 광은 2D 어레이(42)내의 단일 픽셀에서 수집될 수도 있을 것이다. 이하에서 논의되는 타임 스탬프 기반(timestamp-based)방식은 동일 픽셀에 의한 두 개의 다른 스팟들의 이미지나, 두 개의 다른 픽셀들에 의한 단일 스팟의 이미지로부터 야기되는 깊이 계산관련 모호성(depth calculation-related ambiguities)을 제거한다. 블록(58)에서, 프로세서(19)에 의해 적절히 구성되는 바로서, 이미지 처리 유닛(46)은 일련의 광 스팟들(블록 52에서 포인트 스캔 내에서)대응되는 광 스팟의 픽셀 별 검출(블록 56)에 응답하여 픽셀 별 출력을 생성할 수 있다. 결과적으로, 블록(60)에서, 이미지 처리 유닛(46)은 3D 객체의 표면 상에 대응되는 광 스팟에 대해 적어도 픽셀 별 출력(블록 58에서) 및 대응되는 광 스팟(블록 52에서)을 투영하기 위한 광원에 의해 사용되는 주사각(scan angle)에 근거하여 3D 거리(또는 깊이)를 결정할 수 있다. 깊이 측정은 도 4를 참조로 보다 상세히 설명될 것이다. In FIG. 3, at block 52, system 15 (more specifically processor 19) performs a one-dimensional (1D) point scan of a 3D object, such as object 26 in FIG. It can be performed along the scanning line using a light source such as the light source module 22 of As part of a point scan, light source module 22 may be configured, for example by processor 19, to project a series of light spots onto the surface of 3D object 26 in a line-by-line manner. At block 54, pixel processing unit 46 within system 15 may select a row of pixels within an image sensor, such as 2D pixel array 42 in FIG. The image sensor 42 has a plurality of pixels arranged in a 2D array forming an image plane, with selected rows of pixels forming an epipolar line of a scanning line (at block 52) on the image plane. A brief description of the epipolar geometry is provided below with reference to FIG. 4 . At block 56, pixel processing unit 46 may be operatively configured by processor 19 to detect each light spot using a corresponding pixel within the row of pixels. It is observed here that light reflected from an irradiated light spot is detected by a single pixel or more than one pixel, such that light reflected from an irradiated light spot is focused by collection optics 44 onto two or more adjacent pixels. . On the other hand, light reflected from two or more light spots may be collected at a single pixel in the 2D array 42 . The timestamp-based method discussed below avoids depth calculation-related ambiguities resulting from images of two different spots by the same pixel or an image of a single spot by two different pixels. ) is removed. At block 58, as suitably configured by processor 19, image processing unit 46 performs pixel-by-pixel detection (block 56) of a corresponding light spot in a series of light spots (within a point scan at block 52). ) to generate pixel-by-pixel output. Consequently, at block 60, the image processing unit 46 projects at least the pixel-by-pixel output (at block 58) and the corresponding light spot (at block 52) for the corresponding light spot on the surface of the 3D object. The 3D distance (or depth) can be determined based on the scan angle used by the light source for the image. Depth measurement will be described in more detail with reference to FIG. 4 .

도 4는 본 발명의 일 실시 예에 따라 포인트 스캔이 어떻게 3차원 깊이 측정에 수행되는 지를 보여주는 예시적 도면이다. 도 4에서, 레이저 소스(33)의 X-Y 회전능력은 X 방향(angle "β" 를 가짐)및 Y 방향(angle "α"를 가짐)내에서 레이저의 앵글 모션들을 나타내는 화살표들(62 및 64)를 이용하여 나타나 있다. 일 실시 예에서, 레이저 컨트롤러(34)는 스캐닝 명령들/프로세서(19)로부터 수신된 입력에 근거하여 레이저 소스(33)의 X-Y 회전을 제어할 수 있다. 예를 들면, 유저가 3D 이미징 모드를 선택하면, 프로세서(19)는 레이저 컨트롤러(34)가 프로젝션 옵틱스(35)를 마주보는 객체 표면의 3D 깊이 측정을 개시하도록 명령할 수 있다. 레이저 컨트롤러(34)는 이에 응답하여 레이저 광원(33)의 X-Y 움직임을 통해 객체 표면의 1D X-Y 포인트 스캔을 개시할 수 있다. 도 4에 도시된 바와 같이, 레이저(33)는 1D 수평 스캐닝 라인들(SR (66) 및 SR+1(68)은 도 4내에서 점선들에 의해 구별된다)을 따라 광 스팟들을 투영함에 의해 객체(26)의 표면을 포인트 스캔할 수 있다. 객체(26)의 표면의 곡률 때문에 광 스팟들(70-73)은 도 4 내에서 스캐닝 라인(SR (66))을 형성할 수 있다. 설명의 편의 및 명확성을 위해, 스캔 라인(SR+1(68))을 구성하는 광 스팟들은 참조부호들을 이용하여 식별되지 않는다. 레이저(33)는 로우들(R, R+1) 등(예를 들면 좌에서 우로 향하는 방향(left-to-right direction)에서 한번에 한 스팟과 같이)을 따라 객체(26)를 스캔할 수 있다. 로우들(R, R+1)의 값들 등은 2D 픽셀 어레이(42)내에서 픽셀들의 로우들과 관련될 수 있고, 따라서 이들 값들은 알려져 있다. 예를 들면, 도 4내의 2D 픽셀 어레이(42)내에서, 픽셀 로우 R은 참조부호 75를 이용하여 식별되고, 픽셀 로우 R+1은 참조부호 76을 이용하여 식별된다. 로우들(R, R+1)이 도시의 목적만을 위해 픽셀들의 복수의 로우들로부터 선택되는 것임이 이해될 것이다. 4 is an exemplary diagram showing how a point scan is performed for 3D depth measurement according to an embodiment of the present invention. In Fig. 4, the XY rotation capability of the laser source 33 is indicated by the arrows 62 and 64 representing the angular motions of the laser in the X direction (with angle "β") and in the Y direction (with angle "α"). is shown using In one embodiment, laser controller 34 may control the XY rotation of laser source 33 based on scanning commands/input received from processor 19 . For example, if the user selects a 3D imaging mode, processor 19 may instruct laser controller 34 to initiate a 3D depth measurement of the object surface facing projection optics 35 . Laser controller 34 may, in response, initiate a 1D XY point scan of the object surface through XY movement of laser light source 33 . As shown in FIG. 4, the laser 33 projects light spots along 1D horizontal scanning lines (S R 66 and S R+1 68 are distinguished by dotted lines in FIG. 4). By doing so, the surface of the object 26 can be point-scanned. Because of the curvature of the surface of object 26, light spots 70-73 may form a scanning line S R 66 in FIG. For convenience and clarity of explanation, light spots constituting the scan line S R+1 (68) are not identified using reference numerals. Laser 33 may scan object 26 along rows R, R+1, etc. (e.g., one spot at a time in a left-to-right direction). . The values of rows R, R+1, etc. may be associated with rows of pixels within the 2D pixel array 42, so these values are known. For example, within the 2D pixel array 42 in FIG. 4, pixel row R is identified using reference numeral 75 and pixel row R+1 is identified using reference numeral 76. It will be appreciated that rows R and R+1 are selected from a plurality of rows of pixels for illustrative purposes only.

2D 픽셀 어레이(42)내의 픽셀들의 로우들을 포함하는 평면은 이미지 평면으로 칭해질 수 있고, 반면에 라인들(SR 및 SR+1)과 같이 스캐닝 라인들을 포함하는 평면은 스캐닝 평면으로 칭해질 수 있다. 도 4의 실시 예에서, 이미지 평면 및 스캐닝 평면은, 픽셀들(R, R+1)의 각 로우 및 기타 등이 2D 픽셀 어레이(42)내에서 대응되는 스캐닝 라인(SR 및 SR+1) 및 기타 등의 등극선 (epipolar line)을 형성하도록, 등극선 기하를 사용하는 것이 지향된다. 픽셀들 R의 로우는 이미지 평면으로 조사된 스팟(스캐닝 라인 내에서)의 프로젝션이 로우(R)자체가 되는 라인을 따라 구별 스팟(distinct spot)을 형성하면, 대응되는 스캐닝 라인(SR)에 대해 동일한 극성을 갖는 것으로 간주될 수 있다. 예를 들면, 도 4에서, 화살표(78)은 레이저(33)에 의한 광 스팟(71)의 투영(illumination)을 나타내고, 반면에 화살표(80)은 광 스팟(71)이 집광 렌즈(44)에 의해 로우 R(75)을 따라 이미지화 또는 투영되고 있음을 나타낸다. 도 4에 도시되지 않았지만, 광 스팟들(70-73)의 모두가 로우 R 내에서 대응되는 픽셀들에 의해 이미지화될 수 있음이 관찰된다. 따라서, 일 실시 예에서, 레이저(33) 및 픽셀 어레이(42)의 위치 및 방향 등과 같은 물리적인 배열은 픽셀 어레이(42)내에서 대응되는 로우(픽셀들의 로우는 스캐닝 라인의 등극선을 형성)내의 픽셀들에 의해 객체(26)의 표면상의 스캐닝 라인 내에서 조사된 광 스팟들이 캡쳐되거나 검출되도록 설정될 수 있다. A plane containing the rows of pixels in the 2D pixel array 42 may be referred to as an image plane, whereas a plane containing scanning lines such as lines S R and S R+1 may be referred to as a scanning plane. can In the embodiment of FIG. 4 , the image plane and the scanning plane are such that each row of pixels R, R+1 and so forth has a corresponding scanning line S R and S R+1 within the 2D pixel array 42. ) and others are directed to use epipolar geometry. A row of pixels R is relative to the corresponding scanning line SR if the projection of the illuminated spot (within the scanning line) into the image plane forms a distinct spot along the line being the row R itself. can be considered to have the same polarity. For example, in FIG. 4 , arrow 78 represents the illumination of light spot 71 by laser 33 , while arrow 80 indicates that light spot 71 is illuminated by condensing lens 44 . indicates being imaged or projected along row R 75 by . Although not shown in FIG. 4, it is observed that all of the light spots 70-73 can be imaged by corresponding pixels within row R. Thus, in one embodiment, the physical arrangements, such as the position and orientation of lasers 33 and pixel array 42, correspond to corresponding rows within pixel array 42 (rows of pixels form the epipolar lines of the scanning line). Light spots irradiated within the scanning line on the surface of the object 26 may be set to be captured or detected by the pixels within.

2D 픽셀 어레이(42)내에서 픽셀들이 로우들 및 컬럼들로 배열될 수 있음은 이해될 것이다. 조사된 광 스팟은 픽셀 어레이(42)내의 대응되는 로우 및 컬럼에 의해 참조될 수 있다. 예를 들면, 도 4에서, 스캐닝 라인(SR)내에서 광 스팟(71)은 스팟(71)이 픽셀 어레이(42)내에서 로우 R 및 컬럼 i (Ci)에 의해 이미지화 되었음을 나타내기 위해 XR,i 로서 지정될 수 있다. 컬럼 Ci는 점선(82)에 의해 표시된다. 다른 조사된 스팟들은 유사하게 식별될 수 있다. 전술된 바로서, 2개 이상의 광 스팟들로부터 반사된 광이 로우 내의 단일 픽셀에 의해 수신되거나, 단일 광 스팟으로부터 반영된 광이 픽셀들의 로우 내에서 하나 이상의 픽셀들에 의해 수신될 수도 있을 것이다. 이제 설명될 타임 스탬프 기반 방식이 그러한 다중 또는 오버래핑 투영으로부터 제기되는 깊이 계산들의 모호성을 해소할 수 있다. It will be appreciated that within the 2D pixel array 42 the pixels may be arranged in rows and columns. The irradiated light spots can be referenced by corresponding rows and columns in the pixel array 42 . For example, in FIG. 4, light spot 71 in scanning line SR is X R to indicate that spot 71 has been imaged by row R and column i (Ci) in pixel array 42. , can be specified as i . Column Ci is indicated by a dotted line 82. Other irradiated spots can be similarly identified. As noted above, light reflected from two or more light spots may be received by a single pixel within a row, or light reflected from a single light spot may be received by one or more pixels within a row of pixels. A timestamp-based approach, which will now be described, can disambiguate depth calculations arising from such multiple or overlapping projections.

도 4에서, 참조부호 84를 가지는 화살표는 장치(15)의 정면을 따라 도 2내에서 보여지는 X축과 같은 X 축으로부터 광 스팟(71)의 깊이 또는 거리 Z(Z축을 따라)를 나타낸다. 도 4에서, 참조 부호 86을 가지는 점선은 프로젝션 옵틱들(35)과 수집 옵틱들(44)을 포함하는 수직 평면 내에서 포함되어 있는 바와 같이 가시화될 수 있는 축을 나타낸다. 삼각측량 방법의 설명 편의를 위해 레이저 소스(33)가 도 4에서 프로젝션 옵틱들(35)대신에 X축(86)상에 존재하는 것과 같이 도시된다. 삼각측량 방식에서, Z의 값은 다음의 식을 이용하여 결정될 수 있다. In FIG. 4 , an arrow with reference numeral 84 indicates the depth or distance Z (along the Z axis) of the light spot 71 from the X axis, such as the X axis shown in FIG. 2 along the front of the device 15 . In FIG. 4 , the dotted line with reference numeral 86 represents an axis that can be visualized as being contained within a vertical plane containing the projection optics 35 and the collection optics 44 . For convenience of explanation of the triangulation method, the laser source 33 is shown as being on the X-axis 86 instead of the projection optics 35 in FIG. 4 . In the triangulation method, the value of Z can be determined using the equation

Figure 112016028070097-pat00001
Figure 112016028070097-pat00001

상기 식(1)내의 파라미터들은 도 4에서 또한 보여진다. 장치(15)의 물리적인 구성에 근거하여, 식(1)의 우측의 파라미터들에 대한 값들은 미리 결정될 수 있다. 식(1)에서 파라미터 h는 수집 광학계(44)와 이미지 센서(42)사이의 거리(Z축을 따라)이고(수집 광학계(44)뒤의 수직 평면 내에 존재하게 되는 것으로 가정); 파라미터 d는 광원(33)과 이미지 센서(24)와 관련된 수집 광학계(44)사이의 오프셋 거리이고; 파라미터 q는 수집 광학계(44)와 대응되는 광 스팟(도 4의 예에서, 검출/이미징 픽셀 i는 광 스팟 XR,i (7)1과 관련된 컬럼 Ci로써 나타난다)을 검출하는 픽셀 사이의 오프셋 거리이고;파라미터 θ는 고찰(도 4의 예에서 광 스팟 71)하에서 광 스팟에 대한 광원의 스캔 각도나 빔 각도이다. 또는, 파라미터 q는 픽셀 어레이(42)의 장면 필드 내에서 광 스팟의 오프셋으로서 간주될 수 있다. The parameters in equation (1) above are also shown in FIG. 4 . Based on the physical configuration of the device 15, the values for the parameters on the right side of equation (1) can be determined in advance. Parameter h in equation (1) is the distance (along the Z-axis) between the collection optics 44 and the image sensor 42 (assumed to lie in the vertical plane behind the collection optics 44); parameter d is the offset distance between the light source 33 and the collection optics 44 associated with the image sensor 24; Parameter q is the offset between the collection optics 44 and the pixel detecting the corresponding light spot (in the example of Fig. 4, the detection/imaging pixel i is represented by the column Ci associated with the light spot X R,i (7)1). is the distance; the parameter θ is the scan angle or beam angle of the light source with respect to the light spot under consideration (light spot 71 in the example of Fig. 4). Alternatively, the parameter q may be regarded as an offset of a light spot within the scene field of pixel array 42 .

파라미터들 θ 와 q 가 주어진 포인트 스캔을 위해 가변된다는 것이 식(1)을 통해 보여지며, 다른 파라미터들 h 및 d는 장치(15)의 물리적 지오메트리에 기인하여 필수적으로 고정된다. 로우 R(75)이 스캐닝 라인(SR)의 등극선 이므로 객체(26)의 깊이 차이 혹은 깊이 프로파일은, 수평 방향으로 이미지화된 차이 광 스팟들에 대한 파라미터 q의 값들에 의해 나타낸 바와 같이, 이미지 시프트만큼 반영될 수 있다. 후술되는 바와 같이, 여기에 개시되는 특별한 실시 예에 따라 타임스탬프 기반 방식은 캡쳐된 광 스팟의 픽셀 위치와 레이저 소스(33)의 대응되는 스캔 각도 사이의 대응을 찾기 위해 사용될 수 있다. 한편, 타임스탬프는 파라미터들 θ 와 q 의 값들 사이의 관련성을 나타낼 수 있다. 스캔 각도 θ의 알려진 값과 이미지화된 광 스팟의 대응 위치(파라미터 q에 의해 나타나는 바로서)로부터, 광 스팟에 대한 거리 Z이 삼각 식(1)을 이용하여 결정될 수 있다. It is shown through equation (1) that the parameters θ and q vary for a given point scan, while the other parameters h and d are essentially fixed due to the physical geometry of the device 15. Since row R 75 is an epipolar of the scanning line S R , the depth difference or depth profile of object 26, as indicated by the values of parameter q for difference light spots imaged in the horizontal direction, is equal to It can be reflected as much as the shift. As described below, according to a particular embodiment disclosed herein, a timestamp-based method may be used to find a correspondence between the pixel position of the captured light spot and the corresponding scan angle of the laser source 33 . On the other hand, the timestamp may represent the relationship between the values of the parameters θ and q. From the known value of the scan angle θ and the corresponding position of the imaged light spot (as indicated by parameter q), the distance Z to the light spot can be determined using trigonometric equation (1).

거리 측정 용 삼각 측량의 사용은 예를 들면 US 특허 출원 공개 번호 2011/0102763 A1(Brown et al)를 포함하는 관련 문헌에서 개시된다. 삼각 측량 기반 거리 측정에 관련된 브라운의 위 공보 내의 설명은 그 전체가 본 명세서에 참조로서 포함된다. The use of triangulation for distance measurement is disclosed in related literature including, for example, US Patent Application Publication No. 2011/0102763 A1 (Brown et al). The description in Brown's above publication relating to triangulation-based distance measurement is incorporated herein by reference in its entirety.

도 5는 본 발명의 일 실시 예에 따라 스캔된 광 스팟들에 대한 예시적 타임스탬핑을 보여준다. 개별적 타임스탬프들 발생의 부가적인 세부사항은 도 8의 설명을 참조로 후술될 것이다. 도 4에 비해, 도 5의 실시 예에서, 수집 광학계(44)와 레이저(33)는 도 2의 실시 예에서 보여지는 바와 같이, 이들 컴포넌트들의 실질적인 물리적 지오메트리를 반영하기 위해 오프셋 배열로 보여진다. 예시적으로, 스캐닝 라인(66)은 대응 광 스팟들(70-73)을 따라 도 5에서 보여진다. 전술된 바로서 대응 광 스팟들은 스파스(sparse) 레이저 포인트 소스(33)에 의해 오프젝트 표면의 좌에서 우방향으로의 포인트 스캔에 근거하여 투영될 수 있다. 따라서 도시된 바와 같이, 제1 광 스팟(70)은 시각 t1에서 투영될 수 있고, 제2 광 스팟(71)은 시각 t2에서 투영될 수 있고, 그 밖의 광 스팟들도 이와 같다. 이들 광 스팟들은 전술된 바로서 스캐닝 라인(SR) 의 등극선 라인인 픽셀 로우 R(75)내에서 각 픽셀들 90-93에 의해 검출/이미지화 될 수 있다. 일 실시 예에서, 각 픽셀에 의해 수집된 전하(charge)는 광 스팟 검출이 아나로그 전압의 형태로 수행되는 경우에, 후술되는 바와 같은 픽셀 별 깊이 결정을 위해 이미지 처리 유닛(46)으로 출력될 수 있다. 아나로그 픽셀 출력들(pixouts)은 도 5내의 화살표 95에 의해 집중적으로 나타나 있다. 5 shows exemplary timestamping for light spots scanned according to an embodiment of the present invention. Additional details of the generation of individual timestamps will be discussed later with reference to the description of FIG. 8 . Compared to FIG. 4 , in the embodiment of FIG. 5 , collection optics 44 and laser 33 are shown in an offset arrangement to reflect the actual physical geometry of these components, as shown in the embodiment of FIG. 2 . Illustratively, scanning line 66 is shown in FIG. 5 along with corresponding light spots 70-73. As mentioned above, the corresponding light spots can be projected based on a point scan from left to right of the object surface by the sparse laser point source 33 . Therefore, as shown, the first light spot 70 can be projected at time t 1 , the second light spot 71 can be projected at time t 2 , and other light spots are the same. These light spots can be detected/imaged by each of the pixels 90-93 within pixel row R 75, which is the epipolar line of the scanning line S R as described above. In one embodiment, the charge collected by each pixel is output to the image processing unit 46 for determining the depth per pixel as described below when light spot detection is performed in the form of an analog voltage. can Analog pixel outputs (pixouts) are indicated centrally by arrow 95 in FIG. 5 .

도 5에서 보여지는 바와 같이, 로우 R 내에서 각 검출 픽셀(90-93)은 관련된 컬럼 번호(여기서, 컬럼들 C1 내지 C4)를 가질 수 있다. 게다가, 각 픽셀 컬럼 Ci (i = 1, 2, 3, ...)이 식(1)내에서 파라미터 q에 대한 관련된 값을 가진다는 것이 도 4로부터 보여진다. 따라서, 후술되는 바와 같이 픽셀 별 타임스탬프(t1-t4)가 검출 픽셀들(90-93)에 대해 생성되면, 타임스탬프는 픽셀의 컬럼 수를 나타낼 수 있으며, 이는 파라미터 q의 픽셀 별 값이 된다. 부가적으로 실시 예에서, 픽셀 어레이(42)내에서 픽셀들을 이용하는 스팟-바이-스팟 검출(spot-by-spot detection)은 이미지 처리 유닛(46)이 대응되는 조사된 스팟에 각 타임스탬프를 링크하는 것을 허용하여, 결국, 미리 설정된 값들을 가지고서 요구되는 시퀀스 내에서 레이저(33)가 각 스팟을 조사하기 위해 적절히 제어되기 때문에 스팟 별 스캔 각도(θ)에 링크하는 것을 허용한다. 따라서, 타임스탬프들은 캡쳐된 레이저 스팟의 픽셀 위치와, 픽셀 어레이(42)로부터 수신된 각 픽셀 별 신호에 대해, 식(1)내의 파라미터들 (θ 와 q)에 대한 값들의 형태 내에서 각각의 스캔 각도 사이의 대응을 제공한다. 전술한 바와 같이, 스캔 각도 및 픽셀 어레이(42)내의 검출된 스팟의 대응 위치의 값들은 식(1)내의 파라미터(q)의 값을 통해 반영된 바와 같이, 광 스팟에 대한 깊이 결정을 허용할 수 있다. 이 방법에서, 픽셀 어레이(42)의 필드 장면내에서 객체(26)의 표면에 대한 3D 깊이 맵은 생성될 수 있다. As shown in FIG. 5 , each detection pixel 90-93 within row R may have an associated column number (here, columns C 1 to C 4 ). Furthermore, it is seen from Fig. 4 that each pixel column C i (i = 1, 2, 3, ...) has an associated value for the parameter q in equation (1). Therefore, as will be described later, if a per-pixel timestamp (t 1 -t 4 ) is generated for the detection pixels 90-93, the timestamp may indicate the number of columns of pixels, which is the per-pixel value of the parameter q. becomes In an additional embodiment, spot-by-spot detection using pixels within pixel array 42 causes image processing unit 46 to link each timestamp to a corresponding irradiated spot. After all, since the laser 33 is properly controlled to irradiate each spot within the required sequence with preset values, it allows linking to the scan angle θ for each spot. Accordingly, the timestamps are each in the form of values for the parameters (θ and q) in equation (1), for the pixel location of the captured laser spot and for each pixel-by-pixel signal received from the pixel array 42. Provides a correspondence between scan angles. As described above, the values of the scan angle and the corresponding position of the detected spot in the pixel array 42, as reflected through the value of the parameter q in equation (1), can allow the depth determination for the light spot. have. In this way, a 3D depth map of the surface of object 26 within the field scene of pixel array 42 may be created.

도 6은 본 발명의 일 실시 예에 따라 2차원 픽셀 어레이(42)의 예시적 상세 회로 및 도 1 및 2 내의 이미지 센서(24)의 이미지 프로세싱 유닛(46)내에서의 관련된 처리 회로들의 일부를 보여준다. 전술된 바로서, 픽셀 어레이(42)는 도시의 편의성만을 위해 3x3 어레이로서 배열된 9개의 픽셀들(100-108)을 가지는 것으로 보여지나, 실제로는 픽셀 어레이는 다중 로우들과 컬럼들로 수만 내지 수백만 개의 픽셀들을 포함할 수 있다. 일 실시 예에서, 각 픽셀(100-108)은 도 6에서 보여지는 바와 같이 동일한 구성을 가질 수 있다. 도 6의 실시 예에서, 2D 픽셀 어레이(42)는 각 픽셀이 Four Transistor Pinned Photo-diode (4T PPD)픽셀로 되어 있는 Complementary Metal Oxide Semiconductor (CMOS) 어레이를 포함한다. 도시의 편의를 위해, 픽셀(108)만의 구성 회로요소들이 참조부호들로 표시된다. 픽셀(108)의 동작의 이하 설명은 다른 픽셀들(101-107)에 대해서 동일하게 적용되고, 각 개별 픽셀들의 동작은 여기에서 설명되지 않는다.6 shows exemplary detailed circuitry of two-dimensional pixel array 42 and some of the associated processing circuitry within image processing unit 46 of image sensor 24 in FIGS. 1 and 2, in accordance with one embodiment of the present invention. show As noted above, while pixel array 42 is shown as having nine pixels 100-108 arranged as a 3x3 array for ease of illustration only, in reality the pixel array may consist of tens to thousands of pixels in multiple rows and columns. It may contain millions of pixels. In one embodiment, each pixel 100 - 108 may have the same configuration as shown in FIG. 6 . In the embodiment of FIG. 6 , the 2D pixel array 42 includes a Complementary Metal Oxide Semiconductor (CMOS) array in which each pixel is a Four Transistor Pinned Photo-diode (4T PPD) pixel. For convenience of illustration, constituent circuit elements of only the pixel 108 are denoted by reference numerals. The description below of the operation of pixel 108 applies equally to the other pixels 101-107, and the operation of each individual pixel is not described here.

4T PPD 픽셀 108(다른 픽셀들 101-107도 유사)은 도면에서와 같이 연결되는 구조로, pinned photo-diode (PPD) 110 및 4개의 N-channel Metal Oxide Semiconductor Field Effect Transistors (NMOS) 111-114를 포함한다. 트랜지스터(111)는 전달 게이트(TG), 플로팅 확산(FD)트랜지스터로서 동작할 수 있고, 넓게, 4T PPD 픽셀(108)는 다음과 같이 동작할 수 있다. 첫째로, PPD(110)는 입사된 광자를 전자로 변환하여 광 입력 신호를 전하 영역(charge domain)에서의 전기 신호로 변환되도록 한다. 그러면, 상기 전달 게이트(111)는 PPD(110)에 서 플로팅 확산까지 모든 광자 생성 전자들을 전달하기 위해 "클로즈" 될 수 있다. 따라서 전하 도메인 내의 신호는 후속 처리와 측정의 편의를 위해 전압 도메인으로 변환된다. 플로팅 확산에서의 전압은 트랜지스터(114)를 이용하여 ADC로 픽스 아웃(PIXOUT)신호로서 나중에 전송될 수 있고, 후속의 처리를 위해 적절한 디지털 신호로 변환될 수 있다. 픽셀 아웃(PIXOUT)생성 및 처리의 보다 상세한 것은 도 8,10, 및 11을 참조로 이하에서 설명될 것이다. The 4T PPD pixel 108 (other pixels 101-107 are similar) is connected as shown in the figure, with a pinned photo-diode (PPD) 110 and four N-channel Metal Oxide Semiconductor Field Effect Transistors (NMOS) 111-114. includes Transistor 111 can operate as a transfer gate (TG), floating diffusion (FD) transistor, and broadly, 4T PPD pixel 108 can operate as follows. First, the PPD 110 converts incident photons into electrons so that an optical input signal is converted into an electrical signal in a charge domain. The transfer gate 111 can then be “closed” to transfer all photon-generated electrons from the PPD 110 to the floating diffusion. Thus, signals in the charge domain are converted to the voltage domain for convenience of subsequent processing and measurement. The voltage at the floating diffusion can later be transmitted as a PIXOUT signal to the ADC using transistor 114 and converted into an appropriate digital signal for subsequent processing. Further details of PIXOUT generation and processing will be described below with reference to FIGS. 8, 10, and 11.

도 6의 실시 예에서, 이미지 처리 유닛(46)내의 로우 디코더/드라이버(116)는 픽셀 어레이(42)내의 픽셀들의 동작을 제어하기 위해 3개의 다른 신호들을 제공하여 컬럼 별 픽스아웃(PIXOUT) 신호들(117-119)를 생성하는 것이 나타나 있다. 도 5의 실시 예에서, 출력(95)는 그러한 PIXOUT 신호들(117-119)를 집중적으로 나타낼 수 있다. 로우 선택(RSEL) 신호는 적절한 픽셀들의 로우를 선택하기 위해 제공될 수 있다. 일 실시 예에서, 선택될 로우는 레이저 소스(33)에 의해 투영되는 현재 스캐닝 라인(광 스팟들의)의 등극선 (epipolar line)이 된다. 로우 디코더/드라이버(116)는 예를 들면 프로세서(19)로부터, 로우 어드레스/컨트롤 입력들(126)을 통해 선택될 로우를 위해 어드레스나 제어 정보를 수신할 수 있다. 본 설명에서는, 로우 디코더/드라이버(116)가 픽셀(108)을 포함하는 픽셀들의 로우를 선택하는 것이라고 가정한다. 트랜지스터(114)와 같은 트랜지스터는, 픽셀 어레이(42)내의 픽셀들의 각 로우 내에서, 도시된 바와 같이 각각의 RSEL 라인(122-124)에 연결될 수 있다. 리셋(RST)신호는 미리 설정된 고전압 레벨로 픽셀들을 리셋하기 위해 선택된 로우 내의 픽셀들로 인가될 수 있다. 각 로우 별 RST 신호(128-130)은 도 6에서 나타나 있으며, 도 8,10, 및 11 내에서의 파형들을 참조로 보다 상세히 설명될 것이다. 트랜지스터(112)와 같은 트랜지스터는, 각 픽셀 내에서, 도시된 바와 같이 각각의 RST 신호를 수신할 수 있다. 전송(TX)신호는 연속 처리를 위해 픽셀 별 출력 전압(PIXOUT)의 전송을 개시하기 위해 제공될 수 있다. 각 로우 별 TX 라인(132-134)은 도 6에서 보여진다. 트랜지스터(111)와 같은 전송 게이트 트랜지스터는 도 6에서 보여지는 바와 같이 각 TX 신호를 수신할 수 있다. 6, row decoder/driver 116 in image processing unit 46 provides three different signals to control the operation of pixels in pixel array 42, resulting in a per-column PIXOUT signal. s 117-119 are shown. In the embodiment of FIG. 5, output 95 may centrally represent those PIXOUT signals 117-119. A row select (RSEL) signal may be provided to select the appropriate row of pixels. In one embodiment, the row to be selected is the epipolar line of the current scanning line (of light spots) projected by the laser source 33 . Row decoder/driver 116 may receive address or control information for a row to be selected via row address/control inputs 126, for example, from processor 19. For purposes of this discussion, it is assumed that row decoder/driver 116 selects the row of pixels that contains pixel 108. A transistor, such as transistor 114, may be connected to each RSEL line 122-124 as shown, within each row of pixels in pixel array 42. A reset (RST) signal may be applied to the pixels in the selected row to reset the pixels to a preset high voltage level. RST signals 128-130 for each row are shown in FIG. 6 and will be described in more detail with reference to waveforms in FIGS. 8, 10, and 11. A transistor, such as transistor 112, within each pixel, may receive each RST signal as shown. A transmit (TX) signal may be provided to initiate transmission of the pixel-by-pixel output voltage (PIXOUT) for subsequent processing. TX lines 132-134 for each row are shown in FIG. A transfer gate transistor such as transistor 111 may receive each TX signal as shown in FIG. 6 .

전술한 바와 같이, 여기에 개시된 특별한 실시예 들에서, 2D 어레이(42)와 이미지 센서 유닛(24)내의 나머지 컴포넌트들은 2D RGB(또는 비-RGB) 뿐만 아니라 3D 깊이 측정을 위해 이용될 수 있다. 결과적으로, 도 6에서 도시된 바와 같이, 이미지 센서 유닛(24)은 2D 및 3D 이미징 동안 사용되기 위해 Correlated Double Sampling (CDS) 뿐만 아니라 픽셀들의 컬럼마다 하나가 소요되는 column-specific ADCs를 위한 회로들을 구비하는 픽셀 컬럼 유닛(138)을 포함할 수 있다. 픽셀 컬럼 유닛(138)은 2D 이미지가 생성되거나 3D 깊이 측정이 얻어질 수 있는 디지털 데이터 출력(Dout)신호(140)를 생성하기 위해 PIXOUT 신호들(117-119)을 수신하여 처리할 수 있다. 픽셀 컬럼 유닛(138)은 PIXOUT 신호들(117-119)의 처리 동안에 기준 입력(142)과 램프 입력(143)을 또한 수신할 수 있다. 픽셀 컬럼 유닛(138)의 보다 상세한 동작은 후술될 것이다. 도 6의 실시 예에서, 컬럼 디코더 유닛(145)는 픽셀 컬럼 유닛(138)에 연결된다. 컬럼 디코더(145)는 주어진 로우 선택(RSEL)신호와 함께 선택될 컬럼을 위해 컬럼 어드레스/컨트롤 입력(147)을 예를 들면 프로세서(19)로부터 수신할 수 있다. 컬럼 선택은 순차적으로 될 수 있어, 대응되는 RSEL 신호에 의해 선택되는 각 픽셀로부터 픽셀 출력의 순차적인 수신이 가능해진다. 프로세서(19)는 광 스팟들의 현재 투영된 스캐닝 라인을 인식할 수 있고, 현 스캐닝 라인의 등극선 을 형성하는 픽셀들의 로우를 선택하기 위해 적절한 로우 어드레스 입력들을 제공할 수 있고 또한, 선택된 로우 내에 개별적인 픽셀들로부터 출력들을 수신하는 픽셀 컬럼 유닛(138)을 인에이블하기 위해 적절한 컬럼 어드레스 입력들을 제공할 수 있다. As noted above, in particular embodiments disclosed herein, the remaining components within 2D array 42 and image sensor unit 24 may be used for 2D RGB (or non-RGB) as well as 3D depth measurement. As a result, as shown in FIG. 6, the image sensor unit 24 includes circuits for Correlated Double Sampling (CDS) as well as column-specific ADCs, one per column of pixels, to be used during 2D and 3D imaging. It may include a pixel column unit 138 having. The pixel column unit 138 may receive and process the PIXOUT signals 117-119 to generate a digital data output (Dout) signal 140 from which a 2D image may be created or a 3D depth measurement may be obtained. Pixel column unit 138 may also receive reference input 142 and ramp input 143 during processing of PIXOUT signals 117-119. More detailed operation of the pixel column unit 138 will be described later. In the embodiment of FIG. 6 , column decoder unit 145 is coupled to pixel column unit 138 . The column decoder 145 may receive, for example, a column address/control input 147 from the processor 19 for a column to be selected together with a given row select (RSEL) signal. Column selection can be sequential, enabling sequential reception of pixel outputs from each pixel selected by the corresponding RSEL signal. The processor 19 may recognize the currently projected scanning line of light spots and provide appropriate row address inputs to select a row of pixels forming an epipolar line of the current scanning line, and may also provide an individual row address within the selected row. Appropriate column address inputs may be provided to enable the pixel column unit 138 to receive outputs from the pixels.

여기에서의 설명이 주로 본 발명의 기술적 사상에 따라 2D 및 3D 이미징을 위해 도 6내에서 보여지는 4T PPD 픽셀 디자인에 대하여 집중되어 있지만, 픽셀들의 다른 유형이 다른 실시 예들에서 픽셀 어레이(42)내에 사용될 수 있을 것이다. 예를 들면, 일 실시 예에서, 픽셀 어레이(42)내의 각 픽셀은 도 6내의 4T PPD 디자인에서 트랜지스터(111)등과 같이, 전송 게이트 트랜지스터를 생략한 3T 픽셀이 될 수 있다. 다른 실시 예들에서, 1T 픽셀이나 2T 픽셀들이 또한 사용될 수 있다. 또한 다른 실시 예에서, 픽셀 어레이(42)내의 각 픽셀은 트랜지스터들과 독출된 회로들이 2이상의 이웃 픽셀들 사이에서 공유될 수 있는 공유 트랜지스터 픽셀 구성을 가질 수 있다. 공유 트랜지스터 픽셀 구성에서, 각 픽셀은 적어도 하나의 포토다이오드와 하나의 전송 게이트 트랜지스터를 가질 수 있으며, 트랜지스터들의 나머지는 2이상의 픽셀들 사이에 공유될 수 있다. 그러한 공유 트랜지스터 픽셀의 일 예는 5개의 트랜지스터들(T)가 2개의 픽셀들을 위해 사용되어 2.5T/픽셀 구성을 초래하는 2 공유(1x2) 2.5T 픽셀이다. 픽셀 어레이(42)내에 사용될 수 있는 공유 트랜지스터 픽셀의 다른 예는 4개의 픽셀들이 독출된 회로를 공유하지만 각 픽셀들이 적어도 하나의 포토다이오드와 하나의 TX 트랜지스터를 가지는 1x4 4 공유 픽셀이다. 여기에 열거된 것과는 다른 다른 픽셀 구성들은 개시된 본 발명의 기술적 사상에 따라 2D 및 3D 이미징을 위해 적절히 구현될 수 있다. Although the discussion herein is focused primarily on the 4T PPD pixel design shown in FIG. 6 for 2D and 3D imaging in accordance with the spirit of the present invention, other types of pixels may be used within pixel array 42 in other embodiments. will be able to use For example, in one embodiment, each pixel in the pixel array 42 may be a 3T pixel omitting a transfer gate transistor, such as transistor 111 in the 4T PPD design in FIG. 6 . In other embodiments, 1T pixels or 2T pixels may also be used. In another embodiment, each pixel in pixel array 42 may have a shared transistor pixel configuration in which transistors and readout circuits may be shared between two or more neighboring pixels. In a shared transistor pixel configuration, each pixel may have at least one photodiode and one transfer gate transistor, and the remainder of the transistors may be shared between two or more pixels. One example of such a shared transistor pixel is a 2 shared (1x2) 2.5T pixel where 5 transistors (T) are used for 2 pixels resulting in a 2.5T/pixel configuration. Another example of a shared transistor pixel that can be used in pixel array 42 is a 1x4 4 shared pixel in which four pixels share a readout circuit, but each pixel has at least one photodiode and one TX transistor. Other pixel configurations than those enumerated herein may be implemented as appropriate for 2D and 3D imaging in accordance with the spirit of the disclosed subject matter.

도 7a는 본 발명의 일 실시 예에 따라 도 6내의 이미지 센서 유닛(24)과 같은 이미지 센서 유닛의 예시적 구성도이다. 복잡성을 피하기 위해, 도 7a내에서 구성의 간략한 설명이 여기에서 제공되며, 그 이상의 관련 동작의 상세는 도 8,10, 및 11을 참조로 후술될 것이다. 도시된 바와 같이, 도 7a내의 이미지 센서 유닛(24)은 로우 디코더 유닛(149)과 로우 드라이버 유닛(150)을 포함할 수 있으며, 그들 중 모두는 도 6내에서 로우 디코더/드라이버(116)을 수집적으로 포함할 수 있다. 도 7a에서는 도시되진 않았지만, 로우 디코더 유닛(149)는 로우 어드레스 입력(도 6내에서는 입력 126과 같이)을 예를 들면 프로세서(19)로부터 수신하고, 적절한 RSEL, RST, 및 TX 신호들을 로우 디코더(149)에 의해 선택/디코딩된 로우로 제공하는 로우 드라이버 유닛(150)을 인에이블 하기 위해 입력을 디코딩할 수 있다. 로우 드라이버 유닛(150)은 또한, 로우 드라이버 유닛(150)이 RSEL, RST, 및 TX 신호들에 대한 적절한 전압 레벨들을 인가하도록 하기 위해, 컨트롤 신호들(미도시)을 예를 들면 프로세서(19)로부터 수신할 수 있다. 도 7a 내의 이미지 센서 유닛(24)에서, 컬럼 ADC 유닛(153)은 도 6내의 픽셀 컬럼 유닛(138)을 나타낼 수 있다. 도시의 편의 상, 도 7a에서, 로우 드라이버(150)으로부터 RSEL, RST, 및 TX 신호들과 같은 다양한 로우 별 드라이버 신호들은 단일 참조 부호(155)를 이용하여 집중적으로 참조될 것이다. 유사하게, 도 6내의 PIXOUT 신호들(117-119)과 같은 컬럼 별 픽셀 출력들(PIXOUTS)은 모두, 단일 참조 부호(157)를 이용하여 수집적으로 참조될 것이다. 컬럼 ADC 유닛(153)는 PIXOUT 신호들(157), 기준 입력(142: 기준 신호 발생기 159로부터), 및 램프 신호(143)를, 픽셀들의 컬럼에 대한 대응되는 컬럼 별 ADC에 의해 픽셀 별 출력을 생성하기 위해 수신할 수 있다. 2D 이미징은 도 10을 참조하여 보다 구체적으로 후술될 것이다. 일 실시 예에서, ADC 유닛(153)은 픽셀의 리셋 레벨과 수신된 신호의 레벨 간의 차이가 되는 CDS 출력(미도시)을 생성하기 위해, 도 6내의 픽셀 컬럼 유닛(138)의 경우로서, CDS를 위한 회로들을 포함할 수 있다. 특별한 실시 예에서, 3D 깊이 값들은 객체의 3D 이미지를 생성하기 위해 2D 이미지와 결합될 수 있다. 7A is an exemplary configuration diagram of an image sensor unit such as image sensor unit 24 in FIG. 6 according to an embodiment of the present invention. For the avoidance of complexity, a brief description of the configuration within FIG. 7A is provided herein, further details of relevant operation will be described below with reference to FIGS. 8, 10, and 11. As shown, the image sensor unit 24 in FIG. 7A may include a row decoder unit 149 and a row driver unit 150, both of which correspond to the row decoder/driver 116 in FIG. Can be included collectively. Although not shown in FIG. 7A, row decoder unit 149 receives a row address input (such as input 126 in FIG. 6) from processor 19, for example, and transmits the appropriate RSEL, RST, and TX signals to the row decoder. The input may be decoded to enable the row driver unit 150 to provide to the row selected/decoded by (149). Row driver unit 150 may also send control signals (not shown) to, for example, processor 19 to allow row driver unit 150 to apply appropriate voltage levels for the RSEL, RST, and TX signals. can be received from In image sensor unit 24 in FIG. 7A , column ADC unit 153 may represent pixel column unit 138 in FIG. 6 . For convenience of illustration, in FIG. 7A , various driver signals for each row, such as RSEL, RST, and TX signals from the row driver 150, will be collectively referenced using a single reference numeral 155. Similarly, column-by-column pixel outputs (PIXOUTS), such as PIXOUT signals 117-119 in FIG. 6, will all be collectively referenced using a single reference number 157. The column ADC unit 153 receives the PIXOUT signals 157, a reference input 142 (from the reference signal generator 159), and a ramp signal 143 into a pixel-by-pixel output by a corresponding column-by-column ADC for a column of pixels. You can receive to create. 2D imaging will be described later in more detail with reference to FIG. 10 . In one embodiment, the ADC unit 153, as in the case of the pixel column unit 138 in FIG. 6, generates a CDS output (not shown) that is the difference between the reset level of the pixel and the level of the received signal. may include circuits for In a particular embodiment, 3D depth values may be combined with a 2D image to create a 3D image of an object.

컬럼 ADC 유닛(153)은 2D 어레이(42)내에서 픽셀 컬럼 당 분리 ADC를 포함할 수 있다. 각 컬럼 별 ADC는 PIXOUT 신호들(157)과 함께 램프 신호 발생기(163)으로부터 각 램프 입력(143)을 수신할 수 있다. 일 실시 예에서, 램프 신호 발생기(163)는 기준 신호 발생기(159)로부터 수신되는 기준 전압 레벨에 근거하여 램프 입력(143)을 생성할 수 있다. ADC 유닛(153)내의 각각의 컬럼 별 ADC는 대응되는 디지털 데이터 출력(Dout)신호(140)를 생성하기 위해 수신되는 입력들을 처리할 수 있다. ADC 유닛(153)은 컬럼 ADC 출력이 독출되어 Dout 버스(140)로 전송되는 것에 관하여 컬럼 디코더(145)로부터 정보를 수신할 수 있으며, 적절한 픽셀 출력을 수신하기 위해 주어진 로우에 대해 선택하고자 하는 컬럼에 관한 정보를 수신할 수 있다. 도 7a에서는 미도시 되었지만, 컬럼 디코더 유닛(145)은 예를 들면 프로세서(19)로부터 컬럼 어드레스 입력(도 6의 입력 147과 같은)을 수신할 수 있고, 적절한 픽셀 컬럼을 선택하는 컬럼 ADC 유닛(153)을 인에이블 하기 위해 입력을 디코딩할 수 있다. 도 7a의 실시 예에서, 디코딩된 컬럼 어드레스 신호들은 참조 부호(165)를 이용하여 집중적으로 식별될 수 있다. The column ADC unit 153 may include a separate ADC per pixel column within the 2D array 42 . The ADC for each column may receive each ramp input 143 from the ramp signal generator 163 together with the PIXOUT signals 157 . In one embodiment, the ramp signal generator 163 may generate the ramp input 143 based on a reference voltage level received from the reference signal generator 159 . Each column-specific ADC in the ADC unit 153 may process the received inputs to generate a corresponding digital data output (Dout) signal 140 . The ADC unit 153 can receive information from the column decoder 145 about which column ADC outputs are read and sent to the Dout bus 140, the column to select for a given row to receive the appropriate pixel output. information about can be received. Although not shown in FIG. 7A, the column decoder unit 145 may receive a column address input (such as input 147 in FIG. 6) from the processor 19, and select an appropriate pixel column (a column ADC unit). 153) to decode the input. In the embodiment of FIG. 7A , the decoded column address signals may be collectively identified using reference numeral 165 .

ADC 유닛들로부터의 디지털 데이터 출력(140)은 디지털 처리 블록(167)에 의해 처리될 수 있다. 2D RGB 이미징 모드에 대한 일 실시 예에서, 각 ADC 별 데이터 출력(140)은 각 픽셀에 의해 수집된 실제적인 광자 전하에 실질적으로 상응하는 멀티 비트 디지털 값일 수 있다. 한편, 3D 깊이 측정 모드에서, 각 ADC 별 데이터 출력(140)은 각 픽셀이 대응되는 광 스팟을 검출 시의 시각을 나타내는 타임스탬프 값일 수 있다. 본 발명의 실시 예에 따른 이러한 타임 스탬핑 어프로치는 후술되는 설명에서 보다 상세해질 것이다. 디지털 처리 블록(167)은 타이밍 생성을 제공하는 회로들, 2D 이미징 모드를 위한 데이터 출력들(140)의 처리 및 3D 이미징 모드를 위한 깊이 계산을 위한 처리와 같은 이미지 신호 처리(ISP), 및 기타 등을 포함할 수 있다. 이것에 대하여, 디지털 처리 블록(167)은 예를 들면, 장치(15)의 디스플레이 스크린(미도시)상에 2D RGB/넌 RGB 이미지, 혹은 3D 객체 상의 3D 깊이 이미지를 행하는 프로세서(19)를 인에이블 하고자, 출력(170)과 같이 처리된 데이터를 제공하기 위해 인터페이스 유닛(168)에 연결될 수 있다. 인터페이스 유닛(168)은 디지털 처리 블록(167)내에서 타이밍 발생 기능성(functionality)을 지원하는 클럭 신호들의 생성을 위한 위상고정루프(PLL)유닛을 포함할 수 있다. 또한, 인터페이스 유닛(168)은 디지털 블록(167)에 의해 생성된 데이터를 위해 장치(15)내의 다른 컴포넌트들 혹은 회로 소자들에 대하여 산업 스탠다드 하드웨어 및 소프트웨어 인터페이스를 제공하는 모바일 인더스트리 프로세서 인터페이스(MIPI)를 포함할 수 있다. MIPI 사양들은 광 범위의 모바일 제품들을 지원하고 모바일 디바이스의 카메라, 디스플레이 스크린, 파워 매니지먼트, 배터리 인터페이스 등에 대한 사양들을 제공한다. MIPI 스탠다드 인터페이스들은 스마트폰의 카메라나 디스플레이 스크린, 및 모바일 디바이스의 응용 프로세서(들)와 같은 모바일 디바이스의 주변들 간의 개선된 동작성을 생산할 수 있다. 여기서, 상기 주변들을 제공하는 벤더(들)는 동일 벤더가 아닐 수 있다.The digital data output 140 from the ADC units may be processed by a digital processing block 167. In one embodiment for the 2D RGB imaging mode, the data output 140 for each ADC may be a multi-bit digital value substantially corresponding to the actual photon charge collected by each pixel. Meanwhile, in the 3D depth measurement mode, the data output 140 for each ADC may be a timestamp value indicating a time when each pixel detects a corresponding light spot. This time stamping approach according to an embodiment of the present invention will be described in more detail in the following description. The digital processing block 167 includes circuits that provide timing generation, image signal processing (ISP), such as processing of data outputs 140 for 2D imaging mode and processing for depth calculation for 3D imaging mode, and others. etc. may be included. In this regard, the digital processing block 167 inputs the processor 19 to perform, for example, a 2D RGB/non-RGB image on a display screen (not shown) of the device 15, or a 3D depth image on a 3D object. To enable, it may be coupled to interface unit 168 to provide processed data, such as output 170 . Interface unit 168 may include a phase locked loop (PLL) unit for generation of clock signals supporting timing generation functionality within digital processing block 167 . In addition, interface unit 168 is a mobile industry processor interface (MIPI) providing industry standard hardware and software interfaces to other components or circuit elements in device 15 for data generated by digital block 167. can include MIPI specifications support a wide range of mobile products and provide specifications for a mobile device's camera, display screen, power management, battery interface, and more. MIPI standard interfaces can produce improved operability between a mobile device's peripherals, such as a smartphone's camera or display screen, and the mobile device's application processor(s). Here, the vendor(s) providing the neighborhoods may not be the same vendor.

도 7a의 실시 예에서, 타임스탬프 측정 유닛(171)은 개별적인 컬럼 별 ADCs에 대하여 적절한 측정 신호들(172)을 생성하기 위해 컬럼 ADC 유닛(153)에 연결되어, 3D 측정 모드에서 픽셀 별 타임스탬프 값을 나타내는 출력을 생성한다. 이 타임 스탬핑 어프로치는 도 8을 참조로 보다 구체적으로 설명될 것이다. In the embodiment of FIG. 7A , timestamp measurement unit 171 is coupled to column ADC unit 153 to generate measurement signals 172 appropriate for the individual column-by-column ADCs, thus measuring the pixel-by-pixel timestamp in 3D measurement mode. Produces output representing values. This time stamping approach will be described in more detail with reference to FIG. 8 .

도 7b는 본 발명의 일 실시 예에 따라 3차원 깊이 측정을 위한 CDS+ADC 유닛(175)의 예시적 상세 구성을 보여준다. 설명의 편의를 위해, 상기 유닛(175)은 이하에서 'ADC 유닛'으로 칭해질 것이지만, 상기 유닛(175)는 ADC 기능에 더하여 CDS 기능을 포함하는 것이 이해될 수 있을 것이다. CDS 유닛의 간략화된 버전은 도 7b에서 커패시터(176)를 사용하여 나타나 있다. 일 실시 예에서, 2D 픽셀 어레이(42)내의 각 컬럼은 ADC 유닛(175)과 유사하게, 컬럼 별, 싱글 슬로프 ADC 유닛을 가질 수 있다. 도 6의 실시 예에서, 컬럼 당 하나의 ADC를 예로 들면 픽셀 컬럼 유닛(138)내에는 3개의 ADC 유닛들이 존재할 수 있다. 도시된 바와 같이, 도 7b의 실시 예에서 ADC(175)는 바이너리 카운터(181) 및 라인 메모리 유닛(183)과 직렬로 연결된 2개의 Operational Transconductance Amplifiers (OTA) 177 및 179를 포함할 수 있다. 도시의 편의상, OTA(177 및 179)에 대한 반전(-) 및 비반전(+)전압 입력들이 도 7b에서 도시되며, 바이어싱 입력들과 전원 공급 연결들은 미도시 되어 있다. OTA가 다른 입력 전압이 출력 전류를 생성하는 증폭기인 것이 이해될 수 있을 것이다. 따라서, OTA 는 전압 제어 전류 소스로서 기능할 수 있다. 바이어싱 입력들은 증폭기의 트랜스컨턱턴스를 제어하기 위한 전류 또는 전압을 제공하기 위해 사용될 수 있다. 제1 OTA(177)는 CDS 유닛(176)으로부터 컬럼 디코더(145)로부터 수신된 컬럼 수를 이용하여 활성화된 로우 내에서 선택된 도 6내의 픽셀(108)과 같은 픽셀로부터의 PIXOUT 전압의 CDS 버전을 수신할 수 있다. 픽스 아웃 신호의 CDS 버전은 'PIX_CDS'로서 칭해질 것이다. OTA(177)은 또한 램프 신호 발생기(163: 도 7a)로부터 Vramp 전압(143)을 수신할 수 있다. OTA(177)은 픽스아웃 전압(157)이 Vramp 전압(143)이하로 떨어지면 도 8을 참조로 후술되는 바와 같이 출력 전류를 생성할 수 있다. OTA(177)의 출력은 바이너리 카운터(181)로 인가되기 이전에 제2 OTA(179)에 의해 필터링될 수 있다. 일 실시 예에서, 바이너리 카운터(181)는 클럭(Clk)입력(185)을 수신하고 제1 OTA(177)에 의한 출력전류의 생성에 의해 설정된 타임이 트리거되는 동안에 카운트되는 클럭 사이클들에 근거하여 타임스탬프 값(186)을 생성하는 10비트 리플 카운터일 수 있다. 도 7a의 실시 예의 내용에서, 클럭 입력(185)는 시스템 와이드 클럭, PLL유닛(168)이나 장치(15)내의 다른 클럭 발생기(미도시) 에 의해 생성된 이미지 센서 별 클럭일 수 있다. 픽셀 별 타임스탬프 값(186)은 픽셀의 컬럼 수(컬럼 #)에 대하여 라인 메모리(183)에 저장될 수 있고, Dout 신호(140)로서 디지털 처리 블록(167)으로 연속적으로 출력될 수 있다. 컬럼 수 입력(165)는 도 7a에서 보여지는 바와 같이 컬럼 디코더 유닛(145)로부터 수신될 수 있다. 7B shows an exemplary detailed configuration of a CDS+ADC unit 175 for 3D depth measurement according to an embodiment of the present invention. For convenience of explanation, the unit 175 will be referred to as an 'ADC unit' hereinafter, but it will be appreciated that the unit 175 includes a CDS function in addition to the ADC function. A simplified version of the CDS unit is shown using capacitor 176 in FIG. 7B. In one embodiment, each column in the 2D pixel array 42 may have a single slope ADC unit per column, similar to the ADC unit 175. In the embodiment of FIG. 6, taking one ADC per column as an example, three ADC units may exist in the pixel column unit 138. As shown, in the embodiment of FIG. 7B , the ADC 175 may include two Operational Transconductance Amplifiers (OTA) 177 and 179 serially connected to the binary counter 181 and the line memory unit 183. For ease of illustration, inverting (−) and non-inverting (+) voltage inputs to OTAs 177 and 179 are shown in FIG. 7B, and biasing inputs and power supply connections are not shown. It will be appreciated that an OTA is an amplifier in which a different input voltage produces an output current. Thus, the OTA can function as a voltage controlled current source. The biasing inputs can be used to provide current or voltage to control the transconductance of the amplifier. The first OTA 177 uses the column number received from the column decoder 145 from the CDS unit 176 to obtain a CDS version of the PIXOUT voltage from a pixel such as pixel 108 in FIG. 6 selected within the active row. can receive The CDS version of the fix out signal will be referred to as 'PIX_CDS'. OTA 177 may also receive Vramp voltage 143 from ramp signal generator 163 (FIG. 7A). The OTA 177 may generate an output current when the fixout voltage 157 drops below the Vramp voltage 143 as will be described later with reference to FIG. 8 . The output of the OTA 177 may be filtered by the second OTA 179 before being applied to the binary counter 181 . In one embodiment, the binary counter 181 receives the clock (Clk) input 185 and generates an output current by the first OTA 177 based on the clock cycles counted while the set time is triggered. It can be a 10-bit ripple counter that produces timestamp value 186. In the context of the embodiment of FIG. 7A , the clock input 185 may be a system wide clock, a clock for each image sensor generated by the PLL unit 168 or another clock generator (not shown) in the device 15 . The timestamp value 186 for each pixel may be stored in the line memory 183 for the number of columns (column #) of the pixel, and may be continuously output to the digital processing block 167 as the Dout signal 140 . Column number input 165 may be received from column decoder unit 145 as shown in FIG. 7A.

특별한 실시 예에서, RGB 컬러 모델은 센싱, 재현, 및 도 1 및 2에서 장치(15)와 같이 모바일 디바이스들 상에서 이미지들의 디스플레이를 위해 이용될 수 있다. RGB 컬러 모델에서, R,G,B 와 같이 3개의 주된 컬러들을 가지는 광 신호들은 파이널 이미지 내의 컬러들의 넓은 어레이를 생성하기 위해 다양한 방법으로 함께 추가될 수 있다. CDS 방법은 바람직하지 않은 오프셋을 제거를 허용하는 방법으로, 픽셀/센서 출력 전압과 같은 전자적인 값을 측정하기 위해 2D RGB 이미징에 이용될 수 있다. 예를 들면, CDS 유닛(176)과 같은 CDS 유닛은 상관 더블 샘플링을 수행하기 위해 ADC 유닛(175)과 같은 각 컬럼 별 ADC 유닛 내에 적용될 수 있다. CDS에서, 픽셀의 출력은 알려진 조건으로 한번, 알려지지 않은 조건으로 한번으로 2번 측정될 수 있다. 알려진 조건으로 측정된 값은 측정되는 물리적 양에 대한 알려진 상관을 가지는 값을 생성하기 위해 미지의 조건으로부터 측정된 값에서 감산될 수 있다. 즉 광전자 전하는 이미지 신호의 픽셀 별 부분을 나타낸다. CDS를 이용하여, 각 집적 구간의 끝에서 픽셀의 신호 전압으로부터 픽셀의 기준전압(리셋 후의 픽셀의 전압과 같은)을 제거함에 의해 노이즈가 감소될 수 있다. 따라서, CDS에서, 픽셀의 전하가 출력으로 전달되기 이전에, 리셋 값은 샘플링된다. 기준 값은 픽셀의 전하가 전송된 후에 값으로부터 "차감"된다. In a particular embodiment, the RGB color model may be used for sensing, reproduction, and display of images on mobile devices, such as apparatus 15 in FIGS. 1 and 2 . In the RGB color model, light signals having three primary colors, such as R, G and B, can be added together in a variety of ways to create a wide array of colors in the final image. The CDS method can be used in 2D RGB imaging to measure electronic values, such as pixel/sensor output voltages, in a way that allows the removal of undesirable offsets. For example, a CDS unit such as CDS unit 176 may be applied within an ADC unit for each column such as ADC unit 175 to perform correlated double sampling. In CDS, the output of a pixel can be measured twice, once with known conditions and once with unknown conditions. A value measured under known conditions can be subtracted from a value measured under unknown conditions to produce a value that has a known correlation to the physical quantity being measured. That is, the photoelectronic charge represents the pixel-by-pixel portion of the image signal. With CDS, noise can be reduced by removing the pixel's reference voltage (such as the pixel's voltage after reset) from the pixel's signal voltage at the end of each integration period. Thus, in CDS, the reset value is sampled before the pixel's charge is transferred to the output. The reference value is "subtracted" from the value after the pixel's charge is transferred.

특별한 실시 예에서, ADC 유닛(175)가 2D 이미징 및 3D 깊이 측정 모두를 위해 이용되는 것이 관찰된다. 그러한 공유 구성을 위한 모든 입력들은 도 7b에서는 미도시된다. 공유 사용의 경우에 대응되는 Vramp 신호는 2D 이미징에 대해 또한 달라질 수 있다. In a particular embodiment, it is observed that the ADC unit 175 is used for both 2D imaging and 3D depth measurement. All inputs for such a shared configuration are not shown in FIG. 7B. The Vramp signal corresponding to the case of shared use may also be different for 2D imaging.

도 8은 본 발명의 다른 실시 예에 따라 3차원 선형 모드의 동작에서 타임스탬프 기반의 픽셀 별 출력들을 생성하기 위해 도 1 및 2의 시스템(15) 내에서 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도(190)이다. 전술한 바와 같이, 특정한 실시 예에서, 동일 이미지 센서(24)내의 모든 픽셀들은 2D 뿐만 아니라 3D 이미징에 대해 사용될 수 있다. 3D 깊이 측정은 주변광의 레벨에 의존하여 3D 선형 모드나 3D 대수 모드를 사용하여 수행될 수 있다. 도 11을 참조로 후술되는 바와 같이, 3D 대수 모드는 주변 광 거부가 필요한 경우에 깊이 측정에 이용될 수 있다. 도 8의 설명은 그러나, 3D 리니어 모드에 관련된 타이밍 파형들에 관한 것이다. 8 is a timing diagram illustrating the timing of different signals within the system 15 of FIGS. 1 and 2 to generate timestamp-based pixel-by-pixel outputs in a three-dimensional linear mode of operation in accordance with another embodiment of the present invention. Fig. 190. As noted above, in certain embodiments, all pixels within the same image sensor 24 may be used for 2D as well as 3D imaging. 3D depth measurement can be performed using 3D linear mode or 3D logarithmic mode depending on the level of ambient light. As described below with reference to FIG. 11 , the 3D logarithmic mode can be used for depth measurement when ambient light rejection is required. The description of FIG. 8, however, relates to timing waveforms related to the 3D linear mode.

간략히, 도 4 및 5를 참조로 전술된 바와 같이, 3D 객체(26)는 픽셀 어레이(42)의 로우 R(75)을 따라 레이저 광원(33)에 의해 한번에 하나의 스팟으로 포인트 스캐닝될 수 있다. 여기서, R은 스캐닝 라인 SR (66)과 관련하여 대응되는 등극선 관계에 근거한다. 한 로우의 스캐닝 후에, 스캐닝 동작은 다른 로우에 대해 반복한다. 레이저가 다음 스팟을 투영하면, 이전의 투영된 광 스팟은 로우 R내에서의 대응되는 픽셀에 의해 이미지화될 수 있다. 로우 R내의 모든 픽셀들로부터 픽셀 별 출력들은 도 7a의 디지털 처리 블록(167)내의 깊이 처리 회로/모듈로 독출될 수 있다.Briefly, as described above with reference to FIGS. 4 and 5 , 3D object 26 may be point scanned by laser light source 33 along row R 75 of pixel array 42 one spot at a time. . Here, R is based on the corresponding epipolar relationship with respect to the scanning line S R (66). After scanning one row, the scanning operation repeats for the other rows. When the laser projects the next spot, the previous projected light spot can be imaged by the corresponding pixel in row R. The pixel-by-pixel outputs from all pixels in row R can be read into the depth processing circuit/module in digital processing block 167 of FIG. 7A.

픽셀 별 출력을 생성하기 위해, 대응되는 로우는 RSEL 신호를 이용하여 초기에 선택되어야 할 수 있다. 도 8의 맥락에서, 도 6내의 로우 디코더/드라이버(116)이 도 8에서 보여지는 바와 같이 하이레벨로 RSEL 신호(122)를 제공함에 의해 픽셀들(106-108)을 포함하는 픽셀들의 로우를 선택하는 것이라고 가정한다. 따라서, 모든 픽셀들(106-`108)은 함께 선택된다. 설명의 편의상, 동일 참조 부호들이 도 6 및 7내에서 보여지는 바와 같이 신호들, 입력들, 또는 출력들에 대해 도 8내에서 사용된다. 초기에, 선택된 로우 내의 모든 픽셀들(106-108)은 RST 라인(128)을 이용하여 고전압으로 리셋될 수 있다. 픽셀의 리셋 레벨은 대응되는 광 스팟의 픽셀 별 검출의 부재를 나타낼 수 있다. 본 발명의 일 실시 예에 따른 3D 리니어 모드에서, RST 신호(128)는 픽셀들(106-108)에 의해 수신된 광전자들의 집적을 촉진하고 대응되는 픽셀 출력(PIXOUT)신호들(117-119)를 얻기 위해 미리 설정된 타임 동안 하이레벨에서 해제될 수 있다. 광전자들의 집적을 촉진하고 대응되는 픽셀 출력신호를 얻는 것은 도 8에서 보여지고, 이하에서 후술될 것이다. PIXOUT1 신호(119)는 픽셀(108)에 의해 대응되는 ADC 유닛으로 공급되는 출력을 나타내고, 이는 패턴 "- ‥ - ‥ -"을 갖는 파선(dashed line)을 이용하여 표시된다. PIXOUT2 신호(118)는 픽셀(107)에 의해 대응되는 ADC 유닛으로 공급되는 출력을 나타내고, 이는 패턴 "…………"을 갖는 점선을 이용하여 표시된다. 한편, 본 발명의 일 실시 예에 따른 3D 대수 모드에서, RST 신호는 후술되는 바와 같이 픽셀 출력의 발생동안에 선택된 로우를 위해 하이로 남을 수 있다. 일 실시 예에서, 도 6에서의 라인들(129-130)과 같은 다른 RST 라인들은 블루밍을 방지하기 위해 비선택된 로우들을 위해 하이 또는"온" 으로 유지될 수 있다. 정확히 말하면, 도 8(도 10,11에서의 유사한 pixout 신호들)에서의 PIXOUT 신호들(118 및 119)은 도 7b내의 ADC 유닛(175)과 같은 각각의 컬럼 별 ADC 유닛 내에서 도 7b의 OTA(177)와 같은 제1 OTA에 대해 PIX_CDS 신호들이 적용되기 전에, 도 7b내의 CDS 유닛(176)과 같은 CDS 유닛에 의해 약간 변경될 수 있다. 도시의 간략화 및 설명의 편의를 위해, 도 8,10, 및 11 내의 PIXOUT 신호들은 각각의 PIX_CDS 신호들(미도시)의 대표로서 취급되고 각 OTAs(177)에 대해 직접적인 입력이 있는 것으로 간주된다. To generate per-pixel output, the corresponding row may have to be initially selected using the RSEL signal. In the context of FIG. 8, row decoder/driver 116 in FIG. 6 converts a row of pixels, including pixels 106-108, by providing RSEL signal 122 at a high level as shown in FIG. Suppose you choose Thus, all pixels 106-`108 are selected together. For convenience of explanation, the same reference numbers are used in FIG. 8 for signals, inputs, or outputs as shown in FIGS. 6 and 7 . Initially, all pixels 106-108 in the selected row may be reset to a high voltage using RST line 128. The reset level of the pixel may indicate the absence of pixel-by-pixel detection of the corresponding light spot. In 3D linear mode according to an embodiment of the present invention, RST signal 128 promotes integration of photoelectrons received by pixels 106-108 and results in corresponding pixel output (PIXOUT) signals 117-119. It can be released from the high level for a preset time to obtain Facilitating the integration of photoelectrons and obtaining a corresponding pixel output signal is shown in Fig. 8 and will be described below. The PIXOUT1 signal 119 represents the output supplied by the pixel 108 to the corresponding ADC unit, which is represented using a dashed line with the pattern "------". The PIXOUT2 signal 118 represents the output supplied by the pixel 107 to the corresponding ADC unit, which is represented using a dotted line with the pattern "……". On the other hand, in 3D logarithmic mode according to an embodiment of the present invention, the RST signal may remain high for a selected low during generation of the pixel output as described below. In one embodiment, other RST lines, such as lines 129-130 in FIG. 6, can be kept high or “on” for unselected rows to prevent blooming. To be precise, the PIXOUT signals 118 and 119 in FIG. 8 (similar pixout signals in FIGS. 10 and 11) are OTA in FIG. 7B within each column-specific ADC unit, such as ADC unit 175 in FIG. Before the PIX_CDS signals are applied for the first OTA, such as 177, they may be slightly modified by a CDS unit, such as CDS unit 176 in FIG. 7B. For simplicity of illustration and ease of explanation, the PIXOUT signals in FIGS. 8, 10, and 11 are treated as representative of respective PIX_CDS signals (not shown) and are considered to have direct input to respective OTAs 177.

리셋 후, 픽셀 내의 포토다이오드가 3D 객체(26)의 표면상에 투영된 광 스팟으로부터 반영된 광 내에서 광전자들과 같은, 입사 휘도(incident luminance)를 수신하면, 포토다이오드는 대응되는 광전류를 생성할 수 있다. 픽셀에 의해 입사광의 검출은 "온 이벤트"로 칭해질 수 있고, 반면에 입사광의 밀도 감소는 "오프 이벤트"를 생성할 수 있다. 온 이벤트에 응답하여 생성되는 광전류는 초기 리셋 레벨로부터 픽셀 출력 전압(PIXOUT)을 감소시킬 수 있다. 픽셀은 수신된 휘도/광 신호를 도 6,8,10,11에서 PIXOUT 신호로서 지정된 바와 같은 대응되는 전기적(아날로그)전압으로 변환하는 트랜스듀서로서 기능한다. 각 픽셀은 실시 예에서 대응되는 광 스팟들이 레이저 소스에 의해 투영되는 시퀀스 내에서 개별적으로 읽혀질 수 있다. 아나로그 픽스아웃 신호는 대응되는 컬럼 ADC에 의해 디지털 값으로 변환될 수 있다. 2D 이미징 모드에서, ADC는 ADC로서 기능하고 멀티비트 출력을 생성할 수 있다. 후술되는 바로서, 3D 깊이 측정모드에서, ADC는 시간-디지털 변환기(time-to-digital converter)로서 기능하고 광 스팟이 픽셀에 의해 검출될 때의 시간을 나타내는 타임스탬프 값을 생성할 수 있다. After resetting, if a photodiode in a pixel receives incident luminance, such as photoelectrons in light reflected from a light spot projected onto the surface of the 3D object 26, the photodiode will generate a corresponding photocurrent. can Detection of incident light by a pixel may be referred to as an "on event", whereas decreasing the density of incident light may produce an "off event". The photocurrent generated in response to the on event may decrease the pixel output voltage PIXOUT from an initial reset level. The pixels function as transducers that convert received luminance/light signals into corresponding electrical (analog) voltages as designated as PIXOUT signals in FIGS. 6, 8, 10, and 11. Each pixel may be individually read in a sequence in which corresponding light spots are projected by a laser source in an embodiment. The analog fixout signal may be converted into a digital value by a corresponding column ADC. In 2D imaging mode, the ADC can function as an ADC and generate multibit outputs. As described below, in the 3D depth measurement mode, the ADC functions as a time-to-digital converter and can generate a timestamp value representing the time when a light spot is detected by a pixel.

다시 도 8을 참조하면, 픽셀 리셋 (RST 128이 하이) 수행된 후, RST가 해제되기 전에 픽셀들(106-108)과 연관된 컬럼 ADC는 물론 리셋될 수 있다. 전송(TX) 신호(132)는, 그러나, 내내 하이로 유지될 수 있다. ADCs는 공통 ADC 리셋 신호 또는 개별 ADC 별 리셋 신호를 이용하여 리셋될 수 있다. 도 8의 실시 예에서. 공통 ADC_RST 신호(192)는 간단히 컬럼 ADC 유닛(153: 도 7a)에서, ADC (175)와 같은 컬럼 별 ADCs를 리셋(하이 레벨로)하기 위해 나타나 있는 것으로 도시되어있다. 일 실시 예에서, ADCs는 이진수 "0"또는 다른 공지의 수와 같은 설정된 바이너리 값으로, 픽셀이 리셋 된 후, 리셋될 수 있다. 도 8에서, 픽셀들 (108 및 107)과 관련된 ADCs에 대한 이들 리셋 값들은 각각의 신호들 ADCOUT1 (or ADC output "A") 및 ADCOUT2 (or ADC output "B")내에서 "필드"(194 및 195)로써 각기 보여진다. 도 8,10,11에서 보여지는 ADC 출력을 설명할 때만 편의상 용어 "필드"가 편의상 사용됨을 주목하여야 한다. ADC 출력이 실제로 동시에 이러한 "필드"를 모두 포함하지 않을 수 있지만, ADC에 대한 신호 처리의 현재 스테이지에 따라 특정 디지털 값이 될 수 있음이 이해될 것이다. 즉, ADC가 리셋되는 경우, 출력은 이진수 "0"일 수 있으며, ADC가 클럭 펄스를 카운트하기 위해 트리거되는 경우, 출력은 도 8 및 11내의 3D 깊이 측정의 경우와 같이 카운트 값이 될 수 있다. ADC가 도 10의 경우에서와 같이 2D 컬러 이미징을 위해 사용되면, 출력은 이미지 신호를 나타내는 멀티 비트 값이 될 수 있다. 따라서, 도 8, 10 및 11의 ADC 출력 신호들은 단지 다른 디지털 값을 나타내기 위해 그러한 "필드"로 도시되며, ADC는 진행하는 방향으로 최종 출력을 생성할 수 있다. 도 8에서 참조부호 "197"은 픽셀(108)과 관련된 ADC의 출력을 나타내는 ADCOUT1 신호를 참조하는데 사용되고, 참조 부호 "198"은 픽셀(107)과 관련된 ADC의 출력을 나타내는 ADCOUT2 신호를 참조하는데 사용된다. 각 출력들(197 및 198) 은 각 ADC가 메모리 판독시 컬럼 디코더에 의해 선택 될 때. Dout 신호(140)로 (도 6 및 7)로서 나타날 수 있다. 리셋되기 전에, ADC 출력들(197 및 198)은 필드 들(199 및 200)에서 부호 "X"로 표시된 바와 같이, 미지의 값을 가질 수 있다.Referring back to Figure 8, after a pixel reset (RST 128 is high) is performed, the column ADCs associated with pixels 106-108 may of course be reset before RST is released. The transmit (TX) signal 132, however, may remain high throughout. ADCs can be reset using either a common ADC reset signal or an individual ADC-specific reset signal. In the embodiment of Figure 8. The common ADC_RST signal 192 is simply shown appearing in the column ADC unit 153 (FIG. 7A) to reset (to a high level) column-specific ADCs, such as ADC 175. In one embodiment, the ADCs can be reset after the pixel is reset to a set binary value, such as a binary "0" or other known number. 8, these reset values for the ADCs associated with pixels 108 and 107 are "fields" (194) within signals ADCOUT1 (or ADC output "A") and ADCOUT2 (or ADC output "B"), respectively. and 195), respectively. It should be noted that the term “field” is used for convenience only when describing the ADC outputs shown in FIGS. 8, 10, and 11. It will be appreciated that the ADC output may not actually contain all of these "fields" at the same time, but may be a particular digital value depending on the current stage of signal processing for the ADC. That is, if the ADC is reset, the output can be a binary “0”, and if the ADC is triggered to count clock pulses, the output can be a count value as in the case of 3D depth measurements in FIGS. 8 and 11. . If the ADC is used for 2D color imaging as in the case of FIG. 10, the output may be a multi-bit value representing an image signal. Accordingly, the ADC output signals of FIGS. 8, 10 and 11 are shown as such "fields" merely to represent different digital values, and the ADC may produce a final output in the forward direction. In FIG. 8, reference numeral "197" is used to refer to the ADCOUT1 signal representing the output of the ADC related to the pixel 108, and reference numeral "198" is used to refer to the ADCOUT2 signal representing the output of the ADC related to the pixel 107. do. Each of the outputs 197 and 198 is selected by the column decoder when each ADC reads the memory. Dout signal 140 (Figs. 6 and 7). Before being reset, ADC outputs 197 and 198 may have an unknown value, as indicated by the symbol "X" in fields 199 and 200.

ADC가 리셋 된 후에 소정의 문턱 값은 픽셀 리셋 신호(128) 및 ADC 리셋 신호(192)가 해제된 이후에 램프 입력(Vramp: 143)을 미리 정의된 전압 레벨로 다시 인가함에 의해 인에이블될 수 있다. 도 8의 실시 예에서, RAMP 입력(143)는 모든 컬럼 개별 ADC들에 대하여 공통이므로 각각의 ADC에 동일한 Vramp 전압을 제공한다. 그러나, 다른 실시 예에서, 다른 Vramp 값들은 별개로 두 개 이상의 ADC들에 ADC 별 램프 입력으로서, 인가될 수 있다. 또한, 특정 실시 예에서, 상기 Vramp 문턱 값은 원하는 대로 변할 수 있도록 프로그램 가능한 파라미터일 수 있다. 문턱 값(RAMP 신호)가 활성화 된 후, 픽셀 별 ADCs는 도 7b내의 카운터 (181)와 같이, 2진 카운터의 동작 전에 대응하는 픽셀의 "ON 이벤트"를 기다릴 수 있다. After the ADC is reset, the predetermined threshold can be enabled by reapplying the ramp input (Vramp: 143) to a predefined voltage level after the pixel reset signal 128 and the ADC reset signal 192 are released. have. In the embodiment of Figure 8, the RAMP input 143 is common to all column individual ADCs, thus providing the same Vramp voltage to each ADC. However, in another embodiment, different Vramp values may be separately applied to two or more ADCs as ramp inputs for each ADC. Also, in certain embodiments, the Vramp threshold may be a programmable parameter that can be changed as desired. After the threshold value (RAMP signal) is activated, the ADCs per pixel can wait for the “ON event” of the corresponding pixel before operating the binary counter, like the counter 181 in FIG. 7B.

3D 깊이 측정 모드에서, 각각의 ADC는 2D 이미징 모드(이하에서 설명)의 경우에는 멀티 비트 출력과는 반대로, 이진수 "0" 또는 "1"을 나타내는 단일 비트 출력을 생성할 수 있다. 따라서, RGB 센서의 경우, RGB 픽셀 어레이(42)내의 픽셀에 의해 수신된 모든 컬러 정보는 효과적으로 무시될 수 있다. 픽셀에 의해 감지된 입사광의 부재 시에, 대응되는 ADCOUT 신호는 이진수 "0"값을 유지할 수 있다. 따라서, 어떠한 온 이벤트 없이 컬럼들은 그들의 각 ADCOUT 신호들을 위해, 디지털 값 "0" (또는 다른 알려진 수)을 유지할 수 있다. 전술 한 바와 같이 픽셀이 입사광과 충돌하는 경우, 그러나, 픽셀의 PIXOUT 라인은 도 8내의 PIXOUT1 및 PIXOUT2 신호의 하향 기울기로 나타낸 바와 같이, 리셋 레벨에서 떨어지기 시작할 수 있다. 로우 내에서 최우측 픽셀로 시작하여 도 5에서와 같이 예를 들어 최좌측 픽셀로 끝나는 리딩과 같이, 픽셀 전하가 먼저 전하를 수신하는 픽셀로 시작하여 리딩되는 것이라고 하면, t1은 최단 시간 인스턴트이고, t4는 최장 시간 인스턴트이다. 따라서, 도 8의 실시 예에서, 픽셀(108:PIXOUT1)의 출력은 픽셀(107 PIXOUT2)의 출력 이전에 판독될 수 있다. 즉시 점진적으로 처지는 PIXOUT1는 상기 Vramp 임계치(143)에 도달하며, 단일 비트 ADCOUT1은 이진수 "0" 에서 "1"까지 플립(flip)될 수 있다. 비트 출력 "1" 대신에, 그러나, 해당 ADC는 비트가 "1"에서 "0"으로 플립할 때. 시간을 기록할 수 있다. 즉, 픽셀(108)과 관련된 ADC는 ADCOUT1에서 "카운트 업"필드(202)로서 나타낸 바와 같이, ADC내에서 이진 카운터를 시작하여 타임 대 디지털 컨버터로서 기능할 수 있다. "업 카운트"기간 동안, ADC 내의 카운터도, 예를 들면, 도 7b에서 도시된 바와 같이, 각각의 ADC에 인가될 수 있는 CLK 신호(185)의 클럭 펄스를 카운트할 수 있다. 카운트된 클럭 펄스는 도 8내의 카운터 클럭-1 신호(204)와 같이 나타난다. "업 카운트" 필드에서 카운터 값은 픽셀(108)에 대한 픽셀 별 출력으로서 제공될 수 있다. 유사한 카운팅은 도 8의 카운터 클럭-2 신호(205)로 나타낸 바와 같이. 픽셀(107)에 의해 수집된 전하에 대하여 픽셀(107)과 관련된 ADC에서 발생할 수 있다. 픽셀 별 카운트 값("업 카운트" 필드 207)은 픽셀(107)에 대한 픽셀 별 출력으로서 각각의 ADC에 의해 제공될 수 있다. 한 로우 내의 모든 픽셀들을 스캐닝 한 후에, 픽셀 바이 픽셀 전하 수집 동작은 이전 스캔 로우로부터의 출력들이 디지털 블록(167)내의 깊이 계산 유닛으로 읽히는 동안에, 다른 로우에 대해 반복될 수 있다. In 3D depth measurement mode, each ADC can produce a single bit output representing a binary “0” or “1” as opposed to multi-bit output in the case of 2D imaging mode (described below). Thus, in the case of an RGB sensor, all color information received by pixels in the RGB pixel array 42 can be effectively ignored. In the absence of incident light sensed by a pixel, the corresponding ADCOUT signal may hold a binary "0" value. Thus, without any on event the columns can hold the digital value "0" (or other known number) for their respective ADCOUT signals. When a pixel is struck by incident light as described above, however, the pixel's PIXOUT line may begin to drop at the reset level, as indicated by the downward slopes of the PIXOUT1 and PIXOUT2 signals in FIG. If pixel charge is to be read starting with the pixel receiving charge first, such as a reading starting with the rightmost pixel within a row and ending with the leftmost pixel, e.g., as in FIG. 5, then t1 is the shortest time instant; t4 is the longest time instant. Thus, in the embodiment of FIG. 8 , the output of pixel 108 (PIXOUT1) may be read before the output of pixel 107 PIXOUT2. As soon as the progressively falling PIXOUT1 reaches the Vramp threshold 143, the single bit ADCOUT1 can be flipped from binary "0" to "1". Instead of bit output "1", however, when that ADC flips the bit from "1" to "0". time can be recorded. That is, the ADC associated with pixel 108 may start a binary counter within the ADC to act as a time-to-digital converter, as indicated by the "count up" field 202 in ADCOUT1. During the “up count” period, a counter in the ADC may also count the clock pulses of the CLK signal 185 that may be applied to each ADC, for example, as shown in FIG. 7B. The counted clock pulse appears as counter clock-1 signal 204 in FIG. The counter value in the "up count" field may be provided as a per-pixel output for pixel 108. A similar counting is shown by the counter clock-2 signal 205 in FIG. 8. For the charge collected by the pixel 107 may occur at the ADC associated with the pixel 107. A per-pixel count value ("up count" field 207) may be provided by each ADC as a per-pixel output for pixel 107. After scanning all the pixels in one row, the pixel-by-pixel charge collection operation can be repeated for another row while the outputs from the previous scan row are read into the depth calculation unit in digital block 167.

각 ADC 출력은, 레이저 광원 (33)에 의해 비춰진 객체 표면상의 광 스팟의 픽셀에 의해 검출의 시간적 표시를 제공하는 각 타임스탬프 값을 효과적으로 나타낼 수 있다. Each ADC output can effectively represent a respective timestamp value providing a temporal indication of detection by a pixel of a light spot on the surface of an object illuminated by laser light source 33.

타임스탬프는 픽셀에 대한 광 도착 시간을 포착하기 위한 것으로 고려될 수 있다 일 실시 예에서, 타임 스탬프 값은 ADC 유닛으로부터 수신되는 카운트 값(카운트된 클럭 펄스들)으로부터 디지털 처리 블록(167)에 의해 검출된 광 스팟에 대해 생성될 수 있다. 예를 들어, 디지털 블록(167)은 내부 시스템 시간 또는 다른 기준 시간으로 카운트 값을 관련시킴에 의해 타임 스탬프를 생성할 수 있다. 타임 스탬프는 수신 단에서 생성되므로, 해당 광 스팟이 광원에 의해 투영될 때의 정확한 시간을 반드시 나타내지 않을 수도 있다. 타임 스탬프 값은, 그러나, 디지털 블록 (167)은 시간 상관에 의해 특정 시간적 순서로 타임스탬프된 광 스팟들 사이의 시간 상관을 확립하는 것을 허용할 수 있다. 즉, 시간 상관은 마지막으로 비춰(조명)된 광 스팟까지의 거리가 결정될 때까지 초기에 비춰진 광 스팟에 대한 거리가 첫 번째 및 기타 등으로 결정되는 지는 것을 가리킨다. 일 실시 예에서, 타임 스탬프 어프로치는 또한 후술하는 바와 같이, 동일 픽셀에 이미징되는 멀티플 광 스팟으로부터 야기될 수 있는 모호성의 해결을 용이하게 할 수 있다.A timestamp can be considered to capture the time of arrival of light for a pixel. In one embodiment, the timestamp value is calculated by the digital processing block 167 from a count value (counted clock pulses) received from the ADC unit. It may be generated for the detected light spot. For example, digital block 167 may generate a time stamp by relating the count value to an internal system time or other reference time. Since the time stamp is generated at the receiving end, it may not necessarily indicate the exact time when the light spot is projected by the light source. The time stamp value, however, may allow digital block 167 to establish a time correlation between light spots timestamped in a particular temporal order by time correlation. That is, time correlation indicates that the distance to the initially illuminated light spot is determined first and so on until the distance to the last illuminated (illuminated) light spot is determined. In one embodiment, the time stamp approach may also facilitate resolution of ambiguities that may result from multiple light spots being imaged on the same pixel, as described below.

모든 ADC 기반 카운터들은 램프 신호(143)가 미리 결정된 타임 기간이 경과 한 후에 다시 제공될 때 동시에 정지할 수 있다. 도 8에서, 픽셀 전하 집적을 위한 미리 결정된 시간 기간의 결과를 마킹하는 램프 신호 (143)의 천이는 점선(210)에 의해 표시된다. RSEL(122) 및 RST(128)신호는 램프 신호(라인210에서, 143)의 레벨 내에서의 변화를 가지고, 실질적으로 동시에 그 상태들로 천이될 수 있다. 일 실시 예에서, 모든 ADC 기반 카운터들이 라인(210)에서 리셋될 수 있다. 다른 실시 예에서 모든 ADC 기반 카운터들은 픽셀 전하를 판독하는 픽셀의 다음 로우의 선택 이전에 언제든지 리셋될 수 있다. 한 로우의 픽셀 스캐닝의 종료시 ADC 카운터의 리셋에도 불구하고, 픽셀 어레이 (42)의 각 픽셀에 대한 타임 스탬프 값은, 구별을 남길 수 있다. 왜냐하면, 내부 시스템 시간 또는 다른 시간 기준 소스에 대해 인해 타임 스탬프 값의 관계 성립이 글로벌 및 지속적인 러닝(global and continuously-running)을 남길 수 있기 때문이다. All ADC based counters may stop simultaneously when ramp signal 143 is provided again after a predetermined time period has elapsed. In FIG. 8 , the transition of ramp signal 143 marking the result of the predetermined time period for pixel charge integration is indicated by dashed line 210 . The RSEL 122 and RST 128 signals have changes in the level of the ramp signal (line 210, 143) and can transition to their states substantially simultaneously. In one embodiment, all ADC based counters may be reset on line 210. In another embodiment, all ADC-based counters can be reset any time prior to selection of the next row of pixels to read the pixel charge. Despite the reset of the ADC counter at the end of scanning a row of pixels, the time stamp value for each pixel in pixel array 42 may remain distinct. This is because the establishment of a relationship of timestamp values due to internal system time or other sources of time reference may leave global and continuously-running.

도 8의 실시 예에서, 후 스캔 픽셀, 예컨대 픽셀(107)은 픽셀(108)과 같이 이전에 스캔되어진 픽셀의 출력보다 작은 ADC 출력을 가질 수 있다. 따라서, 도시 한 바와 같이, ADCOUT2는 ADCOUT1보다 작은 카운트 값(또는 작게 카운트된 클럭 펄스들의 수)을 가질 수 있다. 또는 다른 실시 예에서, 픽셀의 픽스아웃 신호가 주어진 문턱값(Vramp)이하로 처진 경우와 같이 온 이벤트가 감지된 때, 각각의 ADC 별 카운터가 카운팅을 하는 경우에, 후 스캔 픽셀은 이전 스캔된 픽셀보다 큰 ADC 출력을 가질 수 있다. In the example of FIG. 8 , a post-scan pixel, e.g., pixel 107, may have an ADC output that is less than the output of a previously scanned pixel, such as pixel 108. Therefore, as shown, ADCOUT2 may have a smaller count value (or smaller counted number of clock pulses) than ADCOUT1. Or, in another embodiment, when the counter for each ADC counts when an on event is detected, such as when the pixel's fixout signal falls below a given threshold value (Vramp), the post-scan pixel is the same as the previous scan pixel. It can have an ADC output larger than a pixel.

도 6, 8, 10, 및 11에서 보여지는 회로 및 파형도는 컬럼 업 커운터들당 단일 슬로프 ADCs에 근거한다. 타임스탬핑 방식은 설계 선택에 따라 상향 또는 하향 카운터로써 구현될 수 있음을 이해하여야 한다. 또한, 글로벌 카운터들을 가지는 단일 슬로프 ADCs도 잘 사용될 수 있다. The circuit and waveform diagrams shown in Figures 6, 8, 10, and 11 are based on single slope ADCs per column up counters. It should be understood that the timestamping scheme may be implemented as an up or down counter depending on design choices. Also, single slope ADCs with global counters can be used as well.

예를 들어, 일 실시 예에서, 개별적인 컬럼 기반 카운터를 사용하는 대신에, 글로벌 카운터(도시 생략)가 모든 컬럼 ADC들에 의해 공유될 수 있다. 이 경우, ADC는, 컬럼 기반 비교기 유닛이 램프 문턱값(143)아래로 처지는 각각의 픽스아웃 신호를 처음 감지할 때와 같이 컬럼 기반 비교기 유닛이 온 이벤트를 감지하는 경우에, 도 7b의 라인 메모리(183)와 같은 컬럼 메모리가 각 ADC 내에서 적절한 ADC 개별 출력을 생성하기 위해 글로벌 카운터의 출력을 래치할 수 있도록 구성될 수 있다. For example, in one embodiment, instead of using a separate column-based counter, a global counter (not shown) can be shared by all column ADCs. In this case, the ADC enters the line memory of FIG. 7B when the column-based comparator unit detects an on event, such as when the column-based comparator unit first detects the respective fixout signal drooping below the ramp threshold 143. A column memory such as (183) can be configured to latch the output of the global counter to generate the appropriate ADC individual output within each ADC.

도 8에서는 도시되지 않았으나, 암전류(dark current) 오프셋은 암전류의 감소와 동일한 비율로 Vramp문턱값을 줄임에 의해 제거될 수 있다. 암전류는 광자들이 포토다이오드와 같은 감광장치로 들어오지 않는 경우라 할지라도, 감광장치를 통해 흐르는 상대적으로 적은 전기적 전류일 수 있다. 이미지 센서에서의 암전류는 수집된 전하내에서, 잡음이나 원치 않는 결과물을 유발할 수 있다. 암전류는 픽셀들 내의 결함에 의해 발생 될 수 있으며, 광전류와 같은 결과를 가질 수 있다. 이에 따라, 암전류에 기인하여, 픽셀 출력은 여전히 광의 존재 없이도(또는 픽셀에 의해 수신되는 광의 부재) 감소할 수 있다. 도 5의 로우(75)의 맥락에서 도시되고 도 8을 참조로 설명되는 바와 같이, 따라서, 전하 수집 동안, 로우내의 픽셀들이, 예를 들면, 오른쪽에서 왼쪽으로 스캔되는 경우에 좌측의 픽셀들은 우측의 픽셀들보다 더 많은 암전류를 집적할 수 있다. 따라서 암전류에 기인하여 어떤 거짓 이벤트의 등록을 막기위해, 미리 결정된 램프 문턱값(Vramp)이, 암전류에 기인하여 픽셀 출력의 감소된 레벨을 보상하기 위해 픽셀들의 로우를 따라 암전류가 증가하는 비율로, 감소되거나 조절될 수 있다. 일 실시 예에서, 조정된 문턱 값은 픽셀의 PIXOUT 신호의 레벨을 비교하는 픽셀에 대해 사용될 수 있다. 따라서, 문턱 전압(Vramp)의 값은 각 ADC에 대해 가변되고 개별적으로 프로그램될 수 있다. 일 실시 예에서, 특정한 ADC와 연관된 모든 픽셀은 동일한 상기 Vramp 값을 가질 수 있다. 다른 실시 예에서, 각 픽셀은 대응되는 ADC내에서 프로그램 가능한 픽셀 별 Vramp 값을 가질 수 있다.Although not shown in FIG. 8 , the dark current offset can be removed by reducing the Vramp threshold at the same rate as the reduction of the dark current. Dark current can be a relatively small electrical current flowing through a photosensitive device, even when photons do not enter the photosensitive device, such as a photodiode. Dark current in the image sensor can cause noise or unwanted artifacts in the collected charge. Dark current may be generated by defects in pixels and may have the same result as photocurrent. Thus, due to the dark current, the pixel output can still decrease without the presence of light (or the absence of light received by the pixel). As shown in the context of row 75 in FIG. 5 and described with reference to FIG. 8 , therefore, during charge collection, pixels in a row are scanned from right to left, for example, pixels on the left are on the right. It is possible to integrate more dark current than pixels of . Thus, to prevent registration of any false events due to the dark current, a predetermined ramp threshold (Vramp) is set at the rate at which the dark current increases along a row of pixels to compensate for the reduced level of pixel output due to the dark current: can be reduced or adjusted. In one embodiment, the adjusted threshold may be used for a pixel to compare the level of the pixel's PIXOUT signal. Accordingly, the value of the threshold voltage (Vramp) can be varied and individually programmed for each ADC. In one embodiment, all pixels associated with a specific ADC may have the same Vramp value. In another embodiment, each pixel may have a programmable Vramp value for each pixel in a corresponding ADC.

광 스팟들의 로우가 객체의 표면을 따라 스캐닝하는 경우, 스캔되는 객체로부터 둘 이상의 상이한 스팟들이 동일 픽셀상에 이미지화될 수 있음이 여기에서 관찰된다. 스팟들은 동일한 스캐닝 라인내에 있거나 또는 인접하는 스캐닝 라인 상에 있을 수 있다. 멀티플 스팟들이 객체의 표면을 가로 질러 스캔되는 경우, 그러한 중첩 이미지는 그 스팟들의 상관 및 픽셀 온 이벤트에 부정적인 영향을 미칠 수 있고, 깊이 측정의 모호성을 유발할 수 있다. 깊이 측정이 식(1)에서의 파라미터 q로 주어진 바와 같이, 스캔 각도(θ) 및 이미지화된 광 스팟의 픽셀 위치와 관련이 있음은 예를 들어, 앞서 언급한 식(1)으로부터 알 수 있다. 주어진 광 스팟에 대해 스캔 각도가 정확하게 알려지지 않는 경우에 깊이 측정은 정확하지 않을 수 있다. 유사하게, 둘 이상의 광 스팟들이 동일한 q 값을 가지는 경우에 깊이 계산도 또한 모호해질 수 있다. 본 발명에 개시된 특정 실시 예에 따른 타임 스탬프 기반 접근법은 캡쳐된 광 스팟의 픽셀 위치와 레이저 소스의 대응되는 스캔 각도 사이의 정확한 상관 관계를 유지하는데 사용될 수 있다. 즉, 타임 스탬프는 파라미터 q와 θ의 값들 사이의 관계를 나타낼 수 있다. 두 스팟들이 장면의 데이터 출력 포인트로부터 동일 픽셀이나 컬럼 상에 있는 경우에, 타임스탬핑 방식 내에서 시간-디지털 변환은 이미징 시스템 즉 도 7b의 디지털 처리 블록(167)이 어느 광 스팟이 제일 먼저 수신되었는 가를 규명하기 위해 이들 두 스팟들 사이의 시간 상관을 성립하는 것을 허용할 수 있다. 그러한 상관(correlation)은 전술된 바와 같은 스테레오 비젼 시스템들이나 구조광 방식을 시용하는 시스템들과 같이, 타임스탬핑을 이용하지 않는 시스템 내에서 쉽게 가능하지 않을 수 있다. 결과로서, 그러한 시스템들은 해당되는 문제들을 해결하기 위해 많은 데이터의 검색과 픽셀 매칭을 수행할 필요가 있다.It is observed herein that when a row of light spots scans along the surface of an object, two or more different spots from the scanned object can be imaged on the same pixel. Spots can be within the same scanning line or on adjacent scanning lines. When multiple spots are scanned across the surface of an object, such overlapping images can negatively affect the correlation of those spots and pixel on events, and can lead to depth measurement ambiguity. It can be seen, for example, from the aforementioned equation (1) that the depth measurement is related to the scan angle θ and the pixel location of the imaged light spot, as given by the parameter q in equation (1). Depth measurements may not be accurate if the scan angle is not precisely known for a given light spot. Similarly, depth calculation can also be ambiguous if two or more light spots have the same q value. A timestamp-based approach according to certain embodiments disclosed herein may be used to maintain an accurate correlation between the pixel position of a captured light spot and the corresponding scan angle of the laser source. That is, the time stamp may indicate a relationship between values of parameters q and θ. If both spots are on the same pixel or column from the data output point of the scene, the time-to-digital conversion within the timestamping scheme determines which light spot was first received by the imaging system, i.e., the digital processing block 167 of FIG. 7B. It is allowed to establish a temporal correlation between these two spots to establish . Such correlation may not be readily possible in systems that do not use timestamping, such as stereo vision systems as described above or systems using structured light schemes. As a result, such systems need to perform a lot of data retrieval and pixel matching to solve the corresponding problems.

일 실시 예에서, 멀티플 광 스팟들이 동일한 픽셀에 의해 이미지화되면, 이러한 광 스팟들의 타임 스탬프들은 이전의 수신된 광 스팟을 식별하기 위해 비교 될 수 있고, 거리는 동일 픽셀에서 연속적으로 수신되는 모든 광 스팟들을 무시하면서, 그 광 스팟에 대해서만 계산될 수 있다. 본 실시 예에서, 최초 수신된 광 스팟의 타임스탬프는 대응하는 픽셀에 대한 픽셀 별 출력으로서 취급될 수 있다. 또는, 다른 실시 예에서, 거리는 동일 픽셀에 의해 이미지화된 모든 다른 광 스팟들을 무시하면서, 마지막으로 수신된 광 스팟에 대해 계산될 수 있다. 어떤 경우, 첫 번째 또는 마지막 광 스팟 사이에서 수신된 어떤 광 스팟이 깊이 계산에 무시될 수 있다. 수학적으로, 광원에서 투영된 광 스팟들의 스캔 시간은 t (i+1) - t(i) = d(t) (상수)인 t(1),..., t(n)으로 주어질 수 있다. 픽셀/ 컬럼 출력들은 온 이벤트들에 대한 타임스탬프인 a(0), a(1),..., a(n)으로 주어질 수 있다. a(i)는 항상 t(i) 다음이나 a(i+1)보다는 이전이다. a(i) 및 a(k) (i  k)가 동일 픽셀/컬럼과 연관되면 단지 그들 중 하나가 깊이 계산에 어떤 모호성을 제거하기 이전에 논의 된 바와 같이 구제될 수 있다. 스캔 시간과 출력 시간(타임 스탬프에 의해 표시되는) 사이의 시간 관계에 기초하여, 예컨대 디지털 블록 (167)과 같은 처리 유닛은, 출력 포인트 (들)이 누락되는 출력을 구성할 수 있다. 처리 유닛은 누락 위치를 복구하지 못할 수 있지만, 가능한 출력 포인트로부터 깊이 계산들이 객체의 허용 가능한 3D 깊이 프로파일을 제공하기에 충분할 수 있다. 이는 일 실시 예에서, 동일한 광 스팟의 각 부분을 이미지화하기 위해 두 개의 다른 픽셀들에 대해 가능할 수 있다는 것에 유의하여야 한다. 실시 예에서, 두 픽셀들로부터의 출력 타임 스탬프 값의 근접도에 기초하여, 처리 유닛은 하나의 광 스팟이 두 개의 다른 픽셀에 의해 이미지화된 것으로 추론할 수 있다. 모호성을 해결하기 위해, 처리 유닛은 공유된 광 스팟에 대해 3D 깊이를 계산하기 위해 각각의 위치 값 q의 평균을 찾기 위해 타임 스탬프를 사용할 수 있고, 식(1)내의 q의 평균값을 사용할 수 있다.In one embodiment, if multiple light spots are imaged by the same pixel, the time stamps of these light spots can be compared to identify the previously received light spot, and the distance is the distance between all light spots successively received at the same pixel. Neglecting, it can be computed only for that light spot. In this embodiment, the timestamp of the first received light spot can be treated as a pixel-by-pixel output for the corresponding pixel. Or, in another embodiment, the distance may be calculated for the last received light spot, ignoring all other light spots imaged by the same pixel. In some cases, any light spot received between the first or last light spot may be disregarded for depth calculation. Mathematically, the scan time of the light spots projected from the light source can be given as t(1),..., t(n) where t (i+1) - t(i) = d(t) (constant) . Pixel/column outputs can be given as a(0), a(1),...,a(n) timestamps for on events. a(i) is always after t(i) but before a(i+1). If a(i) and a(k) (i  k) are associated with the same pixel/column then only one of them can be salvaged as discussed before to remove any ambiguity in the depth computation. Based on the temporal relationship between the scan time and the output time (indicated by the timestamp), a processing unit, eg digital block 167, may construct an output in which the output point(s) are missing. The processing unit may not be able to recover the missing position, but depth calculations from possible output points may be sufficient to provide an acceptable 3D depth profile of the object. It should be noted that, in one embodiment, it may be possible for two different pixels to image each part of the same light spot. In an embodiment, based on the proximity of the output timestamp values from the two pixels, the processing unit may infer that one light spot is imaged by two different pixels. To resolve the ambiguity, the processing unit can use the timestamp to find the average of each position value q, and use the average value of q in equation (1) to calculate the 3D depth for the shared light spot. .

도 9는 본 발명의 다른 실시 예에 따라 3차원 깊이 값들을 결정하기 위해 룩업테이블(LUT)의 사용을 나타내기 위한 룩업 테이블(LUT:215)을 예시적으로 보여준다.LUT 기반 방식은 식(1)을 이용하는 온 더 플라이(on-the-fly)를 앞서 설명한 삼각 측량 기반 깊이 계산 대신에 사용될 수 있다. LUT(215)는 스캔 라인 SR 에 대한 파라미터 θ, q 및 Z를 리스팅한다. 이들 파라미터들 사이의 관계는 상기 식(1)에 의해 주어진다. LUT(215)는 멀티플 스캔 라인들에 대한 이들 파라미터들의 값들을 미리 저장할 수 있다. 스캔 라인 SR 중의 하나 만이 도 9에서 나타나 있다. 미리 구성된 LUT(215)는 프로세서 (19)의 내부 메모리 (미도시)내에서, 시스템 메모리(20) (도 1 및 도 2)에 저장되거나 디지털 처리 블록 내의 167 (도 7a)내에 저장될 수 있다. 우선, LUT(215)를 구성하기 위해, 스캔 라인(SR )을 따라 광 스팟은 예를 들어 1미터 및 특정 스캔 각도 θi를 사용하여 기준 거리 Zi에서 투영될 수 있다. 미리 결정된 값들 Zi 및 θi 는 대응되는 값 qi를 얻기 위해 사용될 수 있다. 값 qi는 이미지화된 스팟이 스캔 라인 SR 에 대해 나타나야 하는 컬럼/픽셀을 가리킬 수 있다. Zi 와 θi 간의 차이 값들은 대응되는 값 qi를 얻기 위해 사용될 수 있다. 실질적인 것과 스캐닝 라인 SR 내에서 광 스팟에 대한 미리 설정된 값 Zi 간의 차이 ΔZ이 있다면, 대응되는 컬럼/픽셀은 Δq만큼 이동되어야 한다. LUT (215)의 값은 필요에 따라 조절될 수 있다. 이러한 방식으로, 각각의 스캐닝 라인 SR 에 대해, LUT (215)는 삼각 측량 식(1)을 사용하는 θi 와 qi 의 함수로서 깊이 값들 Zi을 가지고서 미리 구성될 수 있다. 앞서 언급 한 바와 같이, 사전에 구성된 LUT 는 장치(15)내에 저장 될 수 있다. 동작 중에, 사용자 선택된 3D 객체상에 투영된 광 스팟들의 스캔 라인 내에서 각 광 스팟에 대한 실질적인 값들 θi 와 qi는 대응되는 값 Zi를 룩업하기 위해 LUT(215)와 같은 LUT에 대하여 입력들로서 사용될 수 있다. 프로세서(19) 또는 디지털 블록(167)은 예컨대 룩업을 수행하도록 구성될 수 있다. 따라서, 특정 실시 예에서, 객체의 3D 프로파일은 삼각 측량을 사용하여 계산된 LUT 내로 보간(interpolating)을 행함에 의해 생성될 수 있다.9 exemplarily shows a look-up table (LUT:215) for illustrating the use of a look-up table (LUT) to determine 3-dimensional depth values according to another embodiment of the present invention. ) can be used instead of the triangulation-based depth calculation described above. LUT 215 lists the parameters θ, q and Z for scan line S R . The relationship between these parameters is given by equation (1) above. The LUT 215 may pre-store the values of these parameters for multiple scan lines. Only one of the scan lines S R is shown in FIG. 9 . The preconfigured LUT 215 may be stored within internal memory (not shown) of processor 19, system memory 20 (FIGS. 1 and 2) or stored within 167 in digital processing block (FIG. 7A). . First, to construct the LUT 215, a light spot along the scan line S R can be projected at a reference distance Z i using, for example, 1 meter and a specific scan angle θi. The predetermined values Z i and θ i may be used to obtain the corresponding value qi. The value qi may indicate the column/pixel in which the imaged spot should appear for scan line S R . The difference values between Z i and θ i can be used to obtain the corresponding value qi. If there is a difference ΔZ between the actual and the preset value Z i for the light spot within the scanning line S R , then the corresponding column/pixel must be moved by Δq. The value of LUT 215 can be adjusted as needed. In this way, for each scanning line S R , LUT 215 can be pre-configured with depth values Z i as a function of θ i and q i using triangulation equation (1). As mentioned previously, pre-configured LUTs may be stored within the device 15. During operation, the actual values θ i and q i for each light spot within the scan line of the light spots projected onto the user-selected 3D object are input to a LUT such as LUT 215 to look up the corresponding value Z i can be used as Processor 19 or digital block 167 may be configured to perform a lookup, for example. Thus, in certain embodiments, a 3D profile of an object may be created by interpolating into a LUT calculated using triangulation.

본 발명에 개시된 특정 실시 예에 따라 삼각 측량을 이용하는 타임스탬프 기반 3차원 깊이의 측정은, ADC가 단지 단일 비트의 저 해상도를 가지는 바이너리 비교기로서 동작되는 것을 허용하고 있음이 전술한 설명으로부터 관찰된다. 따라서, ADC 내에서 현저히 적은 스위칭 전력이 소모되므로, 시스템 전력이 보존된다. 또한, 전형적인 3D 센서들에서 고 비트 해상도는, 반면에 더 많은 프로세싱 전력을 요구할 수 있다. 또한, 타임 스탬프 기반 모호성(ambiguity)해상도는, 모호성을 해결하기 위해 픽셀 데이터를 찾고 매칭하는데 상당한 처리 파워를 요구하는 전형적인 이미지 처리 방법에 비해 시스템 파워를 절약할 수 있다. 모든 깊이 측정이 단일 이미지화 단계 내에서 모든 포인트 스캔 광 스팟들의 이미징/검출이 한번에 수행 될 수 있기 때문에 레이턴시 또한 감소된다. 특정 실시 예에서, 픽셀 어레이 내의 각 픽셀은 단일 스토리지 픽셀이 될 수 있어, 1 마이크로 미터 (μm의) 의 사이즈만큼 작게 만들어질 수 있다. 단일 스토리지 픽셀 디자인에서, 광전자를 집적하고 저장하기 위해 픽셀(도 6 에서, 트랜지스터 (111)와 같은) 당 오직 하나의 포토다이오드 및 하나의 접합(junction)커패시터가 있을 수 있다. 한편, 하나의 포토다이오드와, 다른 시간들에서 오는 광전자들을 저장하는 다중 커패시터들을 가지는 픽셀은 그러한 작은 사이즈로 감소될 수 없다. 따라서, 본 명세서에 기재된 특정 실시 예에 따라 작은 센서를 가지는 저전력 3D 이미징 시스템은 제한되는 것은 아니나, 스마트폰이나 태블릿 내의 카메라들과 같은 모바일 애플리케이션에서 쉽게 구현될 수 있도록 해준다.It is observed from the foregoing description that timestamp-based measurement of 3D depth using triangulation in accordance with certain embodiments disclosed herein allows the ADC to operate as a binary comparator with only a single bit low resolution. Thus, significantly less switching power is consumed within the ADC, conserving system power. Also, high bit resolution in typical 3D sensors, on the other hand, may require more processing power. Additionally, timestamp-based ambiguity resolution can save system power compared to typical image processing methods that require significant processing power to find and match pixel data to resolve ambiguity. Latency is also reduced because all depth measurements can be performed at once, imaging/detection of all point scan light spots within a single imaging step. In certain embodiments, each pixel in a pixel array can be a single storage pixel, making it as small as 1 micrometer (μm) in size. In a single storage pixel design, there can be only one photodiode and one junction capacitor per pixel (such as transistor 111 in FIG. 6) to integrate and store photoelectrons. On the other hand, a pixel with one photodiode and multiple capacitors storing photoelectrons coming from different times cannot be reduced to such a small size. Accordingly, a low-power 3D imaging system having a small sensor according to specific embodiments described herein may be easily implemented in mobile applications such as, but not limited to, cameras in smartphones or tablets.

전술 한 바와 같이, 예컨대 1 및 도 2내의 이미지 센서 유닛(24)와 같은 동일 한 이미지 센서는 본 발명에 개시된 일 실시 예에 따라 2D(차원) 영상과 3차원 깊이 측정 모두에 이용될 수 있다. 그러한 듀얼 모드 이미지 센서는, 예를 들면, 모바일 폰, 스마트폰, 랩탑 컴퓨터, 또는 태블릿상의 카메라 시스템의 일부, 또는 산업용 로봇이나 VR 장비에서의 카메라 시스템의 일부가 될 수 있다. 특정 실시 예에서, 사용자가 이전에 논의 된 바와 같이 깊이 측정을 이용하여 전형적인 2D 카메라 모드 또는 3D 이미징 모드 사이를 선택할 수 있도록 하기 위해 장치에는 모드 스위치가 존재할 수 있을 수 있다. 전형적인 2D 카메라 모드에서, 특정 실시 예에서, 사용자는 컬러(RGB) 이미지들이나 장면의 스냅 샷이나 장면 내의 특정 3D 객체를 캡쳐할 수 있다. 3D 모드에서, 그러나, 사용자는 앞서 설명한 방식으로 포인트 스캔 기반 깊이 측정을 수행하는 카메라 시스템에 기초하여 상기 객체의 3차원 이미지를 생성할 수 있다. 두 모드에서, 동일한 이미지 센서가 원하는 이미징을 수행하기 위해 그 전체에서 사용될 수 있다. 즉, 이미지 센서의 각 픽셀은 2D 또는 3D 이미징과 같은 두 애플리케이션들에 사용될 수 있다.As mentioned above, the same image sensor, for example image sensor unit 24 in FIGS. 1 and 2, can be used for both 2D (dimensional) imaging and 3D depth measurement according to an embodiment disclosed herein. Such a dual mode image sensor may be part of a camera system on a mobile phone, smartphone, laptop computer, or tablet, for example, or part of a camera system in an industrial robot or VR equipment. In certain embodiments, a mode switch may be present on the device to allow the user to select between a typical 2D camera mode or a 3D imaging mode using depth measurement as previously discussed. In typical 2D camera mode, in certain embodiments, the user can capture color (RGB) images or snapshots of a scene or a specific 3D object within a scene. In 3D mode, however, the user can create a three-dimensional image of the object based on the camera system performing point scan based depth measurement in the manner described above. In both modes, the same image sensor can be used throughout to perform the desired imaging. That is, each pixel of the image sensor can be used for two applications such as 2D or 3D imaging.

도 10은 본 발명의 특별한 실시 예에 따라 2차원 선형 모드 동작을 이용하여 2차원 이미지를 생성하기 위해 도 1 및 2의 시스템(15) 내의 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도(230)이다. 카메라 플래시나 기타 유사한 컴포넌트(미도시)의 간혹 사용을 포함할 수 있는 주변광 조사 하에서 2D 이미지가 장면의 RGB 이미지 혹은 장면 내의 3D 객체가 될 수 있음을 유의하여야 한다. 도 8 및 도 11에서의 3D 이미징 관련 실시 예와 대비하여, 그러나 도 10의 실시 예에서의 2 차원 영상인 경우에 레이저 광원(33: 도 2)에 의해 조명이 없을 수 도 있다. 도 10에서 보여지는 많은 신호들은 도 8 내에서도 도시된다. 도 8에서의 이전의 상세한 설명의 관점에서 도 10의 두드러진 양상만이 여기에서 설명된다. 도 10에서와 같은 제어 신호들 RSEL, RST, TX, RAMP, 및 ADC_RST가 도 6의 픽셀(106-108)를 포함하는 픽셀들의 로우에 대한 것이라는 것을 이해하여야 하며, 따라서 설명의 용이성을 위해, 이러한 신호들이 도 8 및 도 10내의 파형들과 신호들의 타이밍의 차이에도 불구하고 도 8내에 사용된 참조부호들과 동일한 참조부호를 사용하여 식별된다. 또한, 도 10 내의 도시는 단일 픽셀에 대한 것이며, 즉, 도 6내의 픽셀(108)이 된다. 따라서 도 10에서 PIXOUT 신호(119), 카운터 클럭 신호(204), 및 ADCOUT 신호(197)는 도 8내의 대응되는 신호들 PIXOUT1, 카운터 클럭 1 및 ADCOUT1 과 같은 동일한 참조 부호를 사용하여 나타나 있다. 픽셀 출력(119)은 소정의 기간 동안 픽셀(108)에 의해 수집된 광전자를 선형적으로 집적함으로써 생성된다. 이전과 마찬가지로, 픽셀(108)의 컨텍스트에서 도 10의 설명은 픽셀 어레이(42)내의 다른 픽셀들과 연관된 대응 신호들에도 적용된다. 10 is a timing diagram 230 illustrating the timing of different signals within the system 15 of FIGS. 1 and 2 to generate a two-dimensional image using a two-dimensional linear mode of operation in accordance with a particular embodiment of the present invention. to be. It should be noted that under ambient light illumination, which may include occasional use of a camera flash or other similar component (not shown), a 2D image may become an RGB image of a scene or a 3D object within a scene. In contrast to the 3D imaging-related embodiments in FIGS. 8 and 11 , however, in the case of a 2D image in the embodiment of FIG. 10 , there may be no illumination by the laser light source 33 ( FIG. 2 ). Many of the signals shown in FIG. 10 are also shown in FIG. 8 . Only the salient aspects of FIG. 10 in view of the previous detailed description in FIG. 8 are described herein. It should be understood that the control signals RSEL, RST, TX, RAMP, and ADC_RST as in FIG. 10 are for a row of pixels including pixels 106-108 of FIG. 6, so for ease of explanation, these Signals are identified using the same reference numerals as those used in FIG. 8 despite differences in the timing of signals and waveforms in FIGS. 8 and 10 . Also, the illustration in FIG. 10 is for a single pixel, ie pixel 108 in FIG. 6 . Accordingly, in FIG. 10 the PIXOUT signal 119, the counter clock signal 204, and the ADCOUT signal 197 are shown using the same reference numerals as the corresponding signals PIXOUT1, counter clock 1 and ADCOUT1 in FIG. 8. Pixel output 119 is produced by linearly integrating the photoelectrons collected by pixel 108 over a period of time. As before, the description of FIG. 10 in the context of pixel 108 also applies to corresponding signals associated with other pixels in pixel array 42 .

전술한 바와 같이, 특정 실시 예에서 도 7b내의 ADC 유닛(175)과 같은 각 컬럼 별 ADC는 단일 기울기 ADC 일 수 있다. 도 8의 경우에 동일 로우 내의 픽셀들은 도 10내의 RSEL 신호(122) 및 RST 신호(128)에 의해 도시된 바와 같이, 함께 선택되고 리셋될 수 있다. 컬럼 ADC들은 공통 ADC_RST 신호(192)를 사용하여 리셋될 수 있다. 도 10내에서 픽셀(108)과 관련된 ADC의 리셋 상태는 ADCOUT 신호(197)내에서 필드(234)에 의해 표시될 수 있다. 픽셀(108) 및 대응되는 ADC가 리셋된 후에, 문턱 또는 기준 전압 레벨은 Vramp 신호(143)에 대한 전압 레벨(236)에 의해 나타낸 바와 같이 인에이블될 수 있다. 램프는, ADCOUT 신호(197)의 필드(238)에 의해 주어진 바와 같이 ADC 유닛의 비교기 오프셋을 디지털화하기 위해 이 전압 레벨(236)으로부터 램프 다운된다. 일 실시 예에서, 카운터 클럭(204)내의 클럭 펄스들은 오프셋(238)과 같이 카운트 값을 생성하기 위해 사용될 수 있다. 클럭 펄스들은 램프 신호의 레벨이 픽셀 출력(PIXOUT)의 리셋 레벨로 떨어질 때까지 ramp 신호(143)가 문턱 레벨(236)에 도달하는 시간으로부터 카운트될 수 있다. 그 후, 각각의 전송(TX)라인(132)은 -판독을 위한 플로팅 디퓨전 (111)에 대해 포토다이오드 110)에 축적된 전하(전하)의 전송을 시작하기 위해 펄스화 될 수 있다. TX 펄스가 제공되는 동안, 상기 Vramp 신호(143)는 문턱 레벨(236)로 상승하고, 도 7b내에서 카운터 (181)와 같은 픽셀별 ADC 내의 카운터는 필드(240)에 의해 표시된 바와 같이 반전된 오프셋 값으로 초기화될 수 있다. 반전된 오프셋 값(240)은 오프셋 값(238)의 네거티브를 나타낼 수 있다. TX 펄스 (132)의 제공이 중단된 후, 픽셀(108)에 대한 ADC 유닛은 Vramp 문턱값(143)이 PIXOUT 신호(119)의 레벨로 떨어질 때까지 수신된 픽셀 신호(PIXOUT)를 디지털화하는 것을 시작할 수 있다. 이 동작은 ADCOUT 신호(197)내에서 "업 카운트" 필드(242)로써 도시된다. 카운트 값(242)은 카운터 클럭(204)의 클럭 펄스들에 근거할 수 있으며, 참조부호(243)를 사용하여 도시된 바와 같이 오프셋 카운트(필드 238에서)와 픽셀(108)에 대한 이미지 신호의 픽셀 별 부분을 포함하는 결합된 값을 나타낼 수 있다. ADC 유닛 내의 비교기(243)는 필드(238)에서 디지털화된 비교기 오프셋 값을 업 카운트 값(242)와 비교할 수 있다. 따라서, 일 실시 예에서, RGB 이미지 신호(244)는 필드들(240 및 242)내에서 ADC 값들을 가산함으로써 얻어질 수 있다, 따라서, "업 카운트" 필드(242)에서 결합된 값(오프셋 + 신호)으로부터 오프셋 값(238)을 제거하는 동작이 효과적으로 달성된다. As described above, in a specific embodiment, the ADC for each column, such as the ADC unit 175 in FIG. 7B, may be a single slope ADC. In the case of FIG. 8 the pixels within the same row may be selected and reset together, as shown by RSEL signal 122 and RST signal 128 in FIG. 10 . Column ADCs can be reset using a common ADC_RST signal 192. The reset state of the ADC associated with pixel 108 in FIG. 10 may be indicated by field 234 in ADCOUT signal 197. After the pixel 108 and corresponding ADC are reset, the threshold or reference voltage level may be enabled as indicated by the voltage level 236 for the Vramp signal 143. The ramp is ramped down from this voltage level 236 to digitize the ADC unit's comparator offset as given by field 238 of the ADCOUT signal 197. In one embodiment, clock pulses in counter clock 204, such as offset 238, may be used to generate a count value. Clock pulses may be counted from the time the ramp signal 143 reaches the threshold level 236 until the level of the ramp signal drops to the reset level of the pixel output PIXOUT. Then, each transmit (TX) line 132 can be pulsed to initiate the transfer of the charge (charge) stored in the photodiode 110 to the floating diffusion 111 for readout. While a TX pulse is provided, the Vramp signal 143 rises to the threshold level 236, and a counter in the per-pixel ADC, such as counter 181 in FIG. 7B, inverts as indicated by field 240. It can be initialized with an offset value. Inverted offset value 240 can represent the negative of offset value 238 . After the provision of the TX pulses 132 ceases, the ADC unit for the pixel 108 continues to digitize the received pixel signal PIXOUT until the Vramp threshold 143 drops to the level of the PIXOUT signal 119. can start This operation is illustrated by the "up count" field 242 in the ADCOUT signal 197. The count value 242 can be based on the clock pulses of the counter clock 204, as shown using reference numeral 243, and the offset count (in field 238) of the image signal for pixel 108. It can represent a combined value including a per-pixel part. The comparator 243 in the ADC unit may compare the digitized comparator offset value in field 238 to the up count value 242 . Thus, in one embodiment, the RGB image signal 244 can be obtained by adding the ADC values in fields 240 and 242, thus the combined value in the "up count" field 242 (offset + The operation of removing the offset value 238 from the signal) is effectively achieved.

도 10에서 도시된 동작은 픽셀 어레이(42)의 각 픽셀에 대해 수행될 수 있다. 각각의 컬럼 ADC는 도 7b내의 카운터(181)와 같은 ADC 기반 카운터로부터 멀티비트 출력의 형태로 대응하는 RGB 이미지 신호를 생성할 수 있다. 도 10내의 참조부호(244)에서의 출력과 같은 멀티비트 출력은 이미지 신호의 컬러 컨텐츠를 효과적으로 나타내는데 필요할 수 있다. 컬럼 ADC 유닛(153)의 ADCs로부터의 RGB 이미지 신호 출력들은, MIPI 인터페이스(168)를 경유하여 장면 내의 2D 컬러 이미지를 나타내기 위한 디지털 블록(167)에 의해 처리될 수 있는 Dout 신호 140(도 7a 및 7b)에 의해 집중적으로 나타날 수 있다. The operation shown in FIG. 10 may be performed for each pixel of the pixel array 42 . Each column ADC may produce a corresponding RGB image signal in the form of a multi-bit output from an ADC-based counter such as counter 181 in FIG. 7B. A multi-bit output, such as the output at 244 in FIG. 10, may be needed to effectively represent the color content of an image signal. The RGB image signal outputs from the ADCs of the column ADC unit 153 form a Dout signal 140 (FIG. 7A) which can be processed by the digital block 167 for representing a 2D color image in a scene via the MIPI interface 168. and 7b).

2D 이미징의 추가적인 세부 사항과 도 10내의 관련된 파형들은 Lim 등 에게 2011년 8월 2일에 발행된 US 특허 제7,990,304 B2로부터 얻어질 수 있다. 여기에 개시된 본 발명의 기술적 사상과 관련하여 상기 특허 내의 2D 이미징 관련 설명은 전체로서 참조로서 본 명세서에 포함된다. Additional details of the 2D imaging and related waveforms in FIG. 10 can be obtained from US Pat. No. 7,990,304 B2 issued Aug. 2, 2011 to Lim et al. The 2D imaging-related descriptions in the above patents in relation to the technical spirit of the present invention disclosed herein are incorporated herein by reference in their entirety.

도 11은 본 발명의 특별한 실시 예에 따라 3차원 대수 모드(logarithmic(log) mode) 동작내의 타임스탬프 기반의 픽셀 특정 출력들을 생성하기 위해 도 1 및 2의 시스템(15) 내에서 다른 신호들의 타이밍을 예시적으로 보여주는 타이밍도(250)이다. 전술한 바와 같이, 3D 깊이 측정은 주변 광의 레벨에 의존하여 3D 선형 모드나 3D 대수 모드(logarithmic mode)를 이용하여 수행될 수 있다. 또한, 3D 깊이 측정 동안에 도 2의 3D 객체(26)와 같은 3D 객체는 레이저 스캔으로부터 주변 광뿐만 아니라 가시광(또는 NIR 광과 같은 다른 광)에 의해 조사될 수 있다. 따라서, 3D 대수 모드(logarithmic mode)는 주변광이 너무 세어 3D 리니어 모드에 의해 거부되지 않는 경우에 깊이 측정에 사용될 수 있다. 최종 이미지 신호로부터 상기 오프셋이나 노이즈를 제거하는 CDS 기반 이미징의 관점에서, 대수 모드(logarithmic mode)가 도 10에서 표시된 2D 이미징 관련 파형들에 대해 필요치 않을 수도 있다. 본원에 개시된 특정 실시 예에 따른 3 차원 깊이 측정의 경우에, 그렇지만, 강한 주변 광이 포인트 스캔 중에 레이저 광원으로부터 빛을 간섭할 수 있다. 3 차원 선형 모드의 동작에서, 이러한 간섭은 포인트 스캔된 광 스팟으로부터 반영된 가시광/NIR 광을 압도 또는 억제할 수 있어, 광 스팟으로부터 수신된 광의 부정확한 검출을 초래할 수 있다. 따라서, 특별한 실시 예들에서, 주변 광에 기인하는 픽셀 전하를 거부하는 것이 주변 광의 강도가 예컨대 10,000 (10K) 럭스와 같이 소정의 휘도 레벨 (또는 강도 문턱치) 이상으로 감지되는 경우, 바람직하게 될 수 있다. 그러한 주변 광 제거는 도 11에서 보여지는 3D 대수 모드를 이용하여 달성될 수 있다.11 shows the timing of different signals within the system 15 of FIGS. 1 and 2 to generate timestamp-based pixel specific outputs within a 3-dimensional logarithmic (log) mode of operation in accordance with a particular embodiment of the present invention. It is a timing diagram 250 showing by way of example. As mentioned above, 3D depth measurement can be performed using either a 3D linear mode or a 3D logarithmic mode depending on the level of ambient light. Also, during 3D depth measurement, a 3D object, such as 3D object 26 of FIG. 2, may be illuminated by visible light (or other light such as NIR light) as well as ambient light from a laser scan. Thus, the 3D logarithmic mode can be used for depth measurement when the ambient light is too strong to be rejected by the 3D linear mode. In terms of CDS-based imaging to remove the offset or noise from the final image signal, a logarithmic mode may not be needed for the 2D imaging related waveforms shown in FIG. 10 . In the case of 3D depth measurement according to certain embodiments disclosed herein, however, strong ambient light can interfere with light from the laser light source during point scans. In the three-dimensional linear mode of operation, such interference may overwhelm or suppress the visible/NIR light reflected from the point-scanned light spot, resulting in inaccurate detection of light received from the light spot. Thus, in particular embodiments, rejecting pixel charge due to ambient light may be desirable when the intensity of ambient light is sensed above a certain luminance level (or intensity threshold), such as 10,000 (10K) lux. . Such ambient light cancellation can be achieved using the 3D logarithmic mode shown in FIG. 11 .

전술한 바와 같이, 동일 참조 부호들이 유사 이름의 신호들(또는 유사한 기능을 갖는 신호들)과 설명의 편의를 위해 도 8,10, 및 11에서 사용된다. 도 8,10, 및 11에서 보여지는 신호들은 그러나 특정 모드의 이미징에 관한 것임이 이해될 것이다. 예를 들어, 도 10내에서 보여지는 타이밍도(230)는 사용자가 2D 이미징 모드의 동작을 선택하는 경우에, 거기에 보여지는 신호들 사이의 특별한 관계를 도시한다. 도 8 및 11내에서 유사한 명칭의 신호들은 그러나 3D 이미징 모드의 동작에 관련된 것이어서, 다른 타이밍 관계를 가질 수 있다. 또한, 도 8 및 11사이에서도 일부 신호들은 도 8이 3D 선형 모드의 동작에 관련된 반면 도 11이 3D 로그 모드의 동작에 관련되어 있기 때문에, 파형들이 서로 다를 수 있다. 도 8의 이전의 상세한 설명의 관점에서, 도 11의 두드러진 양상만이 여기에서 설명될 것이다. 도 8과 같이, 도 11내의 타이밍도(250)도 또한 도 6내의 픽셀들(107 및 108)을 기준으로 나타내고 있다. 도 11의 설명은 그러나 픽셀 어레이(42)내의 모든 다른 픽셀들에 대해 적용될 수 있다. As described above, the same reference numerals are used in FIGS. 8, 10 and 11 for similarly named signals (or signals having similar functions) and for convenience of description. It will be appreciated that the signals shown in Figures 8, 10, and 11 relate to a particular mode of imaging, however. For example, the timing diagram 230 shown in FIG. 10 shows the special relationship between the signals shown therein when the user selects the operation of the 2D imaging mode. Signals with similar names in Figures 8 and 11, however, relate to the operation of the 3D imaging mode, and thus may have different timing relationships. Also, some signals between FIGS. 8 and 11 may have different waveforms because FIG. 8 relates to a 3D linear mode operation while FIG. 11 relates to a 3D logarithmic mode operation. In view of the previous detailed description of FIG. 8 , only the salient aspects of FIG. 11 will be described herein. As with FIG. 8, timing diagram 250 in FIG. 11 is also shown relative to pixels 107 and 108 in FIG. The description of FIG. 11 may, however, be applied to all other pixels in pixel array 42 .

3차원(3D) 선형 모드에서, 픽셀 별 출력은 소정의 기간 동안 픽셀에 의해 수집된 광전자를 선형적으로 수집함에 의해 생성될 수 있다. 이와 같이, 선형 모드에서, 픽셀의 출력 전압은 주어진 시간 구간 동안에 수집/ 집적된 전체 광자들(photons)에 비례한다. 3D대수 모드에서는, 그러나, 픽셀 별 출력은 3D 객체로부터 반영된 레이저 광 검출 시, 미리 결정된 시간 구간 동안에 픽셀에 의해 생성된 순간적인 광 전류의 자연대수에 비례할 수 있다. 수학적으로, 광 전류는도 6의 PPD(110)와 같은 포토다이오드에 의해 발생되고, 다음의 관계와 같이 표현될 수 있다. 즉, In a three-dimensional (3D) linear mode, the per-pixel output can be generated by linearly collecting the photoelectrons collected by the pixels over a period of time. As such, in linear mode, the output voltage of a pixel is proportional to the total number of photons collected/integrated during a given period of time. In the 3D logarithmic mode, however, the output per pixel may be proportional to the natural logarithm of an instantaneous light current generated by a pixel during a predetermined time interval upon detection of laser light reflected from a 3D object. Mathematically, the photocurrent is generated by a photodiode such as the PPD 110 of FIG. 6 and can be expressed as the following relationship. in other words,

Figure 112016028070097-pat00002
Figure 112016028070097-pat00002

와 같고, 여기서, Iph 는 다이오드의 광전류이고, Vph 는 다이오드를 가로지르는 전압이며, VT 는 열 전압이다. 따라서, Vph 와 각각의 픽셀 출력(PIXOUT)은 마치 주변광원제거(ambient light rejection)이 요구되는 것과 같이, 순간적인 다이오드 전류 Iph 의 자연대수에 비례하여 만들어 질 수 있다. 전술한 바와 같이, 선형 집적이 완료되면 무거운 주변 광은 광자 수집을 제한할 수 있다. 따라서, 이러한 상황에서, 3D 대수 모드를 사용하는 순간 광 전류의 감지는 더욱 바람직하게 될 수 있다.where I ph is the photocurrent of the diode, V ph is the voltage across the diode, and V T is the thermal voltage. Thus, V ph and each pixel output (PIXOUT) can be made proportional to the natural logarithm of the instantaneous diode current I ph , just as ambient light rejection is required. As mentioned above, heavy ambient light can limit photon collection once linear integration is complete. Thus, in this situation, sensing of the instantaneous photocurrent using the 3D logarithmic mode may be more desirable.

특정 실시 예에서, 장치(15)는 주변 광 센서(미도시)를 포함할 수 있다. 프로세서(19) 또는 디지털 블록(167)은 3 차원 선형 모드 또는 3 차원 대수 모드를 사용할지 여부를 결정하는 사용자에 의해 3D 이미징 모드가 선택되는 즉시, 주변 광의 강도를 감지하도록 구성될 수 있다. 일 실시 예에서, 주변 광 레벨은 포인트 스캔 광 스팟들로부터 반사된 광의 이미징의 개시를 지시할 수 있는 RSL 신호의 제공과 동시에 실질적으로 감지될 수 있다. 다른 실시 예에서, 주변 광 레벨은 레이저 소스에 의해 가시광 포인트 스캔의 개시와 실질적으로 동시에 감지될 수 있다. 주변 광의 레벨에 기초하여, 프로세서(19) 또는 디지털 블록(167)은 3차원 선형 모드 또는 깊이 측정의 3D 대수 모드 중 하나를 선택할 수 있다. 또 다른 실시 예에서, 주변 광 레벨은 3 차원 깊이 측정 중 주기적으로 그리고 연속적으로 감지 될 수 있다. 이 경우, 동작의 3D 모드는 진행 이미징 동작 전 또는 중에 언제라도, 선형모드에서 대수모드로 전환될 수 있고 그 반대로도 전환될 수 있다. 주변 광 레벨을 감지하기 위한 다른 접근법이 적절하게 고려될 수 있다.In certain embodiments, device 15 may include an ambient light sensor (not shown). The processor 19 or digital block 167 may be configured to sense the intensity of the ambient light as soon as the 3D imaging mode is selected by the user deciding whether to use the 3D linear mode or the 3D logarithmic mode. In one embodiment, the ambient light level may be sensed substantially concurrently with the provision of an RSL signal that may indicate initiation of imaging of light reflected from the point scan light spots. In another embodiment, the ambient light level may be sensed by the laser source substantially simultaneously with the initiation of the visible light point scan. Based on the level of ambient light, the processor 19 or digital block 167 can select either a 3D linear mode or a 3D logarithmic mode of depth measurement. In another embodiment, the ambient light level may be periodically and continuously sensed during the 3D depth measurement. In this case, the 3D mode of operation can be switched from linear mode to logarithmic mode and vice versa at any time before or during the progressive imaging operation. Other approaches for sensing the ambient light level may be considered as appropriate.

도 11의 실시 예를 참조하면, 3차원 대수 모드(logarithmic mode) 에서, 로우 특정 RST 신호(128)가 단정(또는 턴온 "하이") (asserted)될 수 있고, 픽셀 출력 발생의 전체 구간 동안에 선택된 로우에 대해 하이로 유지되거나/단정될 수 있다. 이와 대조적으로, 도 8의 3 차원 선형 모드에서 RST 신호(128)는, 광전자들의 선형 집적 동안에 나중에 턴 오프(또는 비단정(de-assertion))되지만, 미리 설정된 전압 레벨로 로우 내의 픽셀들을 리셋하기 위해 초기에 제공(턴온 "하이")될 수 있다. TX 신호(132)는, 그러나, 도 8의 3D의 선형 모드의 경우와 같이 하이로 유지될 수 있다. 따라서, 특정 실시 예에서, RST 신호의 적절한 레벨은 대수 모드 대 선형 모드를 선택하는데 사용될 수 있다. 대수 모드(logarithmic mode)에서, 일 실시 예에서, 픽셀들(107 및 108)과 관련된 ADC들이 RST 신호(192)를 이용하여 리셋된 후, ADC 들은 신호들이 수신될 때 픽셀 출력 신호들(PIXOUT)의 신호 레벨들에 대한 적절한 고려를 수행하는 ADC들을 인에이블 하기 위해 주변 레벨을 초기적으로 샘플링한다. ADC는 리셋 후 RAMP 임계치(143)가 활성화될 수 있으며, ADC 카운터들은 각 픽셀에서 발생하는 "ON 이벤트"를 기다리기 위해 "대기 상태"로 진입할 수 있다. 픽셀 이 입사광(투영 광 스팟으로부터 반사)을 수신하는 경우, 픽셀의 PIXOUT 신호는 하강을 시작할 수 있다. 도 8에서의 선형 하강과 대조적으로, 도 11내의 PIXOUT 신호들(118 및 119)는 각기 짧은 순간적인 하강들(252 및 253)을 나타낼 수 있고, 이 하강들은 각각의 픽셀에 의해 반사된 가시 광선을 검출하여 생성된 순시 광전류를 반영한다. PIXOUT 신호들(118 및 119)이 미리 결정된 상기 Vramp 임계치(143)에 도달하면, ADC 카운터들은 카운팅을 시작할 수 있다. 모든 카운터들은 전하 집적을 위한 미리 결정된 시간이 끝난 후, "하이"상태로 RAMP 신호(143)의 천이에 의해 주어지고, 점선(255)으로 나타낸 바와 같이, 동시에 정지할 수 있다. 카운트 값들은 픽셀들(108 및 107)의 ADCOUT1의 데이터 필드(257)와 ADCOUT2의 데이터 필드(259)에 의해 각기 표시된다. 대수 모드내의 카운트 값들은 선형 모드내의 그 것들과는 다를 수 있고, 따라서 차이 기준 부호들은 도 8 및 11에서 ADCOUT 신호에서 "업 카운트 업"필드에 대해 사용된다. 도 8의 경우와 같이, 후속 픽셀 스캔은 이전 스캔의 카운트 값보다 ADC 출력에 대해 더 작은 카운트 값을 가질 수 있다. Referring to the embodiment of FIG. 11 , in the 3D logarithmic mode, the row specific RST signal 128 can be asserted (or turned on “high”) (asserted) and selected during the entire period of pixel output generation. Can be held/asserted high for low. In contrast, in the three-dimensional linear mode of FIG. 8, the RST signal 128 is turned off (or de-asserted) later during the linear integration of photoelectrons, but resets the pixels in the row to a preset voltage level. can be initially provided (turned on "high") for TX signal 132 can, however, be held high as in the case of the 3D linear mode of FIG. 8 . Thus, in certain embodiments, an appropriate level of the RST signal may be used to select logarithmic mode versus linear mode. In logarithmic mode, in one embodiment, after the ADCs associated with pixels 107 and 108 are reset using RST signal 192, the ADCs output pixel output signals PIXOUT when the signals are received. The ambient level is initially sampled to enable the ADCs to perform proper consideration of the signal levels of . After the ADC resets, the RAMP threshold 143 may be activated, and the ADC counters may enter a "wait state" to wait for an "ON event" to occur at each pixel. When a pixel receives incident light (reflection from a projection light spot), the pixel's PIXOUT signal can start to fall. In contrast to the linear fall in FIG. 8 , the PIXOUT signals 118 and 119 in FIG. 11 may represent short instantaneous dips 252 and 253 , respectively, which fall in the visible light reflected by each pixel. It detects and reflects the instantaneous photocurrent generated. When the PIXOUT signals 118 and 119 reach the predetermined Vramp threshold 143, the ADC counters can start counting. All counters are given by the transition of RAMP signal 143 to a "high" state after the predetermined time for charge integration has expired, and can stop simultaneously, as indicated by dotted line 255. The count values are represented by data field 257 of ADCOUT1 and data field 259 of ADCOUT2 of pixels 108 and 107, respectively. Count values in logarithmic mode can be different from those in linear mode, so difference reference symbols are used for the "up count up" field in the ADCOUT signal in FIGS. 8 and 11 . As in the case of FIG. 8 , subsequent pixel scans may have smaller count values for the ADC output than count values of previous scans.

도 8를 참조하여 앞서 언급한 바와 같이. 컬럼 업 카운터들 대신에, 다운 카운터들이 도 10 및 도 11에서 ADC 유닛들 내에 사용될 수 있다. 마찬가지로, 글로벌 카운터 기반 방식은 개별 ADC 별 카운터들 대신에 구현될 수 있다. As mentioned earlier with reference to FIG. 8 . Instead of column up counters, down counters may be used in the ADC units in FIGS. 10 and 11 . Similarly, a global counter-based scheme can be implemented instead of individual ADC-specific counters.

전술한 바와 같이, 동일한 이미지 센서(및 대응하는 픽셀 어레이 내의 모든 픽셀)는 루틴 2D 이미징 뿐만 아니라 3D 깊이 측정을 위해 본원에 개시된 기술적 원리에 따라 사용될 수 있다. 2D 모드에서, 상기 센서는 일반 2D 센서와 같이 선형 모드에서 작동할 수 있다. 3D 깊이 측정 동안, 그러나, 상기 센서는 적당한 주변 광 하에서 선형 모드에서 동작 할 수 있지만 가시(또는 NIR)광원을 사용할 수 있도록 강한 주위 광 하에서 대수 모드의 신호 검출로 전환할 수 있다. 따라서, 동일한 4T PPD 픽셀은 2D 및 3D 영상에 모두 사용할 수 있기 때문에, 본 명세서에서 설명된 이미징(촬상)방식은 기존의 2차원 센서 설계와 호환될 수 있다. 이 것은 센서 설계가 작은 사이즈(보다 작은 픽셀들을 가지고)로 되고, 보다 다용도이며, 저전력 동작이 가능하도록 한다. 이들 속성들은 번갈아 그러한 이미지 센서를 포함하는 모바일 장치들에 대한 공간 및 비용을 절약한다. 더욱이, 소비자 모바일 장치들 및 어떤 다른 어플리케이션들에서, 3D 깊이 측정들에 대한 가시광 레이저(주변광에 덧붙여)의 사용은 종래의 NIR 센서들보다 시력 안전성에 더 좋을 수 있다. 가시 스펙트럼에서, 센서는 광원에 대한 저전력 소비를 초래하는 NIR 스펙트럼에 비해 더 높은 양자화 효율을 가질 수 있으며 즉 이는 모바일 장치에서의 전력을 아끼는 것이 된다. As mentioned above, the same image sensor (and all pixels in the corresponding pixel array) can be used according to the technical principles disclosed herein for routine 2D imaging as well as 3D depth measurement. In 2D mode, the sensor can operate in linear mode like a normal 2D sensor. During 3D depth measurement, however, the sensor can operate in linear mode under moderate ambient light but can switch to logarithmic mode signal detection under strong ambient light to allow use of visible (or NIR) light sources. Therefore, since the same 4T PPD pixels can be used for both 2D and 3D images, the imaging (imaging) method described herein can be compatible with existing 2D sensor designs. This allows the sensor design to be smaller in size (with smaller pixels), more versatile, and capable of low power operation. These properties in turn save space and cost for mobile devices that include such an image sensor. Moreover, in consumer mobile devices and some other applications, the use of a visible light laser (in addition to ambient light) for 3D depth measurements may be better for eye safety than conventional NIR sensors. In the visible spectrum, the sensor can have a higher quantization efficiency compared to the NIR spectrum resulting in lower power consumption for the light source, ie saving power in the mobile device.

여기에 개시된 일 실시 예는 완전히 동기화된 프레임 레이트, 컬러 위상, 깊이 및 장면 포인트를 제공하기 위해 2D 컬러 이미지 정보와 3D 깊이 정보가 동시에 획득되는 2D 픽셀 어레이를 포함한다. 일 실시 예에서 컬러 이미지 정보와 3D 깊이 정보는 인터리브드 또는 교번 타입의 방법으로 2D 픽셀 어레이의 로우들로부터 출력된다. 즉, 컬러 이미지 정보는 동일 로우로부터 출력된 깊이 정보 에 뒤따라 제1 선택 로우들로부터 출력되어, 컬러 이미지 정보는 동일한 다음 로우로부터 출력된 깊이 정보에 뒤이어 다음 선택된 로우로부터 등과 같이 출력된다. 또는 깊이 정보는 동일 로우로부터 출력된 컬러 이미지 정보에 뒤따라 제1 선택된 로우로부터 출력되어, 깊이 정보는 동일한 다음 로우로부터 출력된 컬러 이미지 정보에 의해 뒤따르는 다음 선택된 로우로부터 출력된다. One embodiment disclosed herein includes a 2D pixel array in which 2D color image information and 3D depth information are acquired simultaneously to provide fully synchronized frame rate, color phase, depth and scene points. In one embodiment, color image information and 3D depth information are output from rows of a 2D pixel array in an interleaved or alternating type of method. That is, color image information is output from the first selected rows following depth information output from the same row, color image information is output from the next selected row following depth information output from the same next row, and so on. Alternatively, depth information is output from the first selected row following color image information output from the same row, and depth information is output from the next selected row followed by color image information output from the same next row.

본 명세서에서 개시된 본 발명의 기술적 사상에 따라, 도 1,2,6, 7a, 및 7b내에서 나타낸 일 실시 예는 완전히 동기화된 프레임 레이트, 컬러 위상, 깊이 및 장면 포인트를 제공하기 위해 2D 컬러 이미지 정보와 3D 깊이 정보가 동시에 획득되는 2D 픽셀 어레이를 포함한다. 일 실시 예에서 이미지 센서 유닛(24)은 어레이의 각 픽셀이 어레이의 다른 픽셀들과 실질적으로 동일한 복수의 로우들 내에 배열된 2D 픽셀 어레이를 포함한다. 다른 실시 예에서, 어레이의 다른 픽셀들과 실질적으로 동일하지 않는 어레이의 하나 이상의 픽셀들이 될 수 있다. 일 실시 예에서, 어레이의 로우들은 여기에 개시된 바로서 이미지화 되어 있는 객체의 2D 컬러 정보를 생성하기 위해 동작될 수 있고, 여기에 개시된 바로서 객체의 3D 깊이 정보를 생성하기 위해 동작될 수 있다. 다른 실시 예에서, 어레이의 하나 이상의 로우들이 2D 컬러 정보와 3D 깊이 정보를 모두 생성하기 위해 동작될 수 있고 어레이의 다른 로우들은 두 정보 모두가 아니라 2D 컬러 정보 또는 3D 깊이 정보 중 하나를 생성하기 위해 동작될 수 있다. 다른 실시 예에서, 2D 컬러 정보 및/또는 3D 깊이 정보를 위해 스캔된 특정 로우들은 2D 픽셀 어레이의 전체 로우들의 개수보다 더 작을 수 있다. 일 실시 예에서, 2D 컬러 정보와 3D 깊이 정보의 동시적 생성은 디지털 신호 처리의 출력 정보가 요구되지 않기 때문에 프레임 버퍼를 요구하지 않으며, 정보는 획득된 이후에 짧게 출력된다. In accordance with the inventive concept disclosed herein, one embodiment shown in FIGS. 1, 2, 6, 7A, and 7B is a 2D color image to provide fully synchronized frame rate, color phase, depth, and scene points. It includes a 2D pixel array from which information and 3D depth information are acquired simultaneously. In one embodiment, image sensor unit 24 includes a 2D pixel array arranged in a plurality of rows where each pixel of the array is substantially the same as the other pixels in the array. In other embodiments, one or more pixels of the array may be not substantially identical to other pixels of the array. In one embodiment, the rows of the array may be operated to generate 2D color information of an object being imaged as disclosed herein, and may be operated to generate 3D depth information of an object as disclosed herein. In another embodiment, one or more rows of the array can be operated to generate both 2D color information and 3D depth information and other rows of the array can be operated to generate either 2D color information or 3D depth information but not both. can be operated. In another embodiment, specific rows scanned for 2D color information and/or 3D depth information may be smaller than the total number of rows in the 2D pixel array. In one embodiment, simultaneous generation of 2D color information and 3D depth information does not require a frame buffer because output information of digital signal processing is not required, and the information is output shortly after being obtained.

도 13은 본 발명의 실시 예에 따라 2차원 컬러 정보와 3차원 깊이 정보를 동시에 생성하고 얻기 위한 과정을 보여주는 예시적 플로우챠트이다. 도 13내에 도시된 다양한 동작들은 싱글 모듈 혹은 예를 들어 시스템(15)내의 모듈들이나 시스템 컴포넌트들의 조합에 의해 수행될 수 있다. 본 명세서의 설명에서, 예시적으로서만, 특정 태스크들이 특정 모듈들이나 시스템 컴포넌트들에 의해 수행되는 것으로 설명된다. 또한, 다른 모듈들이나 시스템 컴포넌트들이 그러한 태스크들을 수행하기 위해 적절히 구성될 수 있다. 13 is an exemplary flowchart showing a process for simultaneously generating and obtaining 2D color information and 3D depth information according to an embodiment of the present invention. The various operations shown in FIG. 13 may be performed by a single module or a combination of modules or system components within system 15, for example. In the description herein, by way of example only, certain tasks are described as being performed by particular modules or system components. Also, other modules or system components may be suitably configured to perform such tasks.

프로세스는 시작 블록에서 시작한다. 블록 302에서, 시스템(15) 특히 프로세서(19)는 도 2의 객체(26)와 같은 객체의 2D 컬러 이미지 캡쳐를 도 2의 2D 픽셀 어레이(42)의 제1 로우를 따라 수행할 수 있다. 일 실시 예에서, 제1 로우는 2D 픽셀 어레이(42)의 제1 물리 로우(예를 들면 도 6내에서 나타낸 바와 같이 제1로우 또는 마지막 로우에 대응)이 될 수 있다. 다른 실시 예에서, 제1 로우는 2D 픽셀 어레이(42)의 제1 물리 로우(예를 들면 도 6내에서 나타낸 바와 같이 제1로우 또는 마지막 로우에 대응)과는 다를 수 있다. 일 실시 예에서, 컬러 이미지 정보는 도 6과 관련하여 설명된 바로서, 2D 픽셀 어레이(42)로부터 읽혀진다. The process starts at the start block. At block 302, system 15, in particular processor 19, may perform 2D color image capture of an object, such as object 26 of FIG. 2 along a first row of 2D pixel array 42 of FIG. In one embodiment, the first row may be the first physical row (eg, corresponding to the first row or the last row as shown in FIG. 6) of the 2D pixel array 42 . In another embodiment, the first row may be different from the first physical row of the 2D pixel array 42 (eg corresponding to the first row or the last row as shown in FIG. 6 ). In one embodiment, color image information is read from the 2D pixel array 42, as described with respect to FIG.

블록 303에서, 시스템(15)은 도 2내의 광원 모듈(22)과 같은 광원을 이용하는 스캐닝 라인을 따라, 도 2의 객체(26)와 같은 3D 객체의 1D 포인트 스캔을 수행할 수 있다. 일 실시 예에서 선택된 스캐닝 라인은 블록 302내에서 컬러 이미지 정보에 대해 스캐닝되었던 로우와 같은 로우에 해당되는 제2 로우에 대응된다. 다른 실시 예에서, 선택된 스캐닝 라인은 블록 302내에서 컬러 이미지 정보에 대해 스캐닝되었던 로우와 같은 로우에 해당되지 않는 제2 로우에 대응된다. 3D 깊이 정보는 도 6과 관련되어 설명된 바로서, 2D 픽셀 어레이(42)로부터 읽혀진다. 일 실시 예에서, 블록들 302 및 303의 순서는 거꾸로 될 수 있다. At block 303, system 15 may perform a 1D point scan of a 3D object, such as object 26 in FIG. 2, along the scanning line using a light source, such as light source module 22 in FIG. In one embodiment, the selected scanning line corresponds to a second row corresponding to the same row as the row scanned for color image information in block 302 . In another embodiment, the selected scanning line corresponds to a second row that is not the same row as the row that was scanned for color image information in block 302 . 3D depth information is read from the 2D pixel array 42, as described in connection with FIG. In one embodiment, the order of blocks 302 and 303 may be reversed.

블록 304에서, 시스템(15)은 2D 픽셀 어레이의 모든 로우들이 컬러 이미지 정보 및 3D 깊이 정보를 위해 모두 스캐닝되었는 지의 여부를 결정한다. 만약 아니면, 프로세스는 블록 305로 이동한다. 블록 305에서 컬러 이미지 정보의 로우들 및 3D 깊이 정보 스캔의 로우들에 대응되는 인덱스들이 증가되는 경우에(또는 어떤 케이스에 따라 감소되는 경우에) 프로세스는 블록 302로 되돌아간다. 2D 컬러 정보 및 3D 깊이 정보가 동일 로우로부터 얻어지는 본 발명의 일 실시 예에서, 상기 인덱스들은 동일한 인덱스일 수 있다. 2D 컬러 정보 및 3D 깊이 정보가 다른 로우들로부터 얻어지는 실시 예에서, 상기 인덱스들은 다를 수 있다. 만약 블록 304에서 2D 픽셀 어레이의 모든 로우들이 양 컬러 이미지 정보 및 3D 깊이 정보를 위해 모두 스캐닝된 것으로 결정되었으면, 프로세스는 종료된다. At block 304, system 15 determines whether all rows of the 2D pixel array have been scanned for both color image information and 3D depth information. If not, the process moves to block 305. If at block 305 the indices corresponding to the rows of the color image information and the rows of the 3D depth information scan are incremented (or decreased in some cases), then the process returns to block 302. In an embodiment of the present invention in which 2D color information and 3D depth information are obtained from the same row, the indexes may be the same index. In an embodiment in which 2D color information and 3D depth information are obtained from different rows, the indexes may be different. If it is determined at block 304 that all rows of the 2D pixel array have been scanned for both color image information and 3D depth information, the process ends.

2D 컬러 정보를 출력하는 로우들의 수가 3D 깊이 정보를 출력하는 로우들의 수보다 큰 일 실시 예에서, 컬러 이미지 정보의 선택된 로우들의 수는 인터리브드 또는 교번적 타입의 방법으로 3D 깊이 정보의 각 로우들에 대해 출력될 수 있다. In an embodiment in which the number of rows outputting 2D color information is greater than the number of rows outputting 3D depth information, the number of selected rows of color image information is interleaved or alternating type for each row of 3D depth information can be output for

일 실시 예에서, 동일 로우 R(또는 컬럼 C)은 레이저 광원(예를 들어 레이저 펄스들의 타이밍을 조절)으로부터 출력되는 포인트 조명의 타이밍 및/또는 밀도(인텐시티)를 적응적으로 조절하기 위해 여러 번 스캔될 수 있어, 로우 내에서 각 특정 픽셀의 응답 타임 및 도 2의 투영 옵틱들(35)의 기계적 특성들이 더 잘 맞게 된다. 그러한 기술은 도 1의 이미징 모듈(17)을 측정하기 위해 사용될 수 있다. In one embodiment, the same row R (or column C) is illuminated multiple times to adaptively adjust the timing and/or density (intensity) of a point light output from a laser light source (eg, adjusting the timing of laser pulses). It can be scanned so that the response time of each particular pixel within a row and the mechanical properties of the projection optics 35 of FIG. 2 are better matched. Such techniques may be used to measure the imaging module 17 of FIG. 1 .

도 14는 본 발명의 일 실시 예에 따라 글래스와 같은 반투명 객체(401)에 대한 거리와 반투명 객체(401) 뒤의 객체(402)에 대한 거리가 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여준다. 도 14에서 레이저 광원과 같은 X-Y 어드레스블 광원은 반투명 객체(401)을 통해 객체(402)를 포인트 스캔한다. 반투명 객체(401)로부터의 반사 (Reflection: 404)와 객체(402)로부터의 반사(405)는 렌즈(406)를 통과하여 2D 픽셀 어레이의 로우 R 내에서 픽셀들(407 및 408)에 의해 각기 검출된다. 두 검출된 반사 정보는 실질적으로 동일한 타임스탬프들을 가지며 두 반사들의 출력 깊이는 여기에 개시된 바와 같이 결정될 수 있다. FIG. 14 illustratively shows that a distance to a translucent object 401 such as glass and a distance to an object 402 behind the translucent object 401 are performed for 3D depth measurement according to an embodiment of the present invention. show In FIG. 14 , an X-Y addressable light source such as a laser light source point-scans an object 402 through a translucent object 401 . Reflection 404 from translucent object 401 and reflection 405 from object 402 pass through lens 406 and are captured by pixels 407 and 408 respectively within row R of the 2D pixel array. is detected The two detected reflections have substantially the same timestamps and the output depth of the two reflections can be determined as disclosed herein.

도 15는 본 발명의 일 실시 예에 따라 안개, 비, 등과 같은 반투명 매체(501)의 깊이 이미징이 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여준다. 레이저 광원과 같은 X-Y 어드레스블 광원(503)은 반투명 매체(501)를 포인트 스캔하고, 반사(Reflection: 504)는 렌즈(506)를 통과할 것이며, 2D 픽셀 어레이의 로우 R 내에서 픽셀들(507)의 범위는 활성화 될 것이다. 그리고 반사는 실질적으로 동일한 타임스탬프들을 가질 것이다. 매체의 두께(501)는 여기에 개시된 타임스탬프들에 근거하여 결정될 수 있다. 15 illustratively shows that depth imaging of a translucent medium 501 such as fog, rain, etc. is performed for 3D depth measurement according to an embodiment of the present invention. An X-Y addressable light source 503, such as a laser light source, point scans the translucent medium 501, the reflection 504 will pass through the lens 506, and the pixels 507 within row R of the 2D pixel array. ) range will be activated. And reflections will have substantially the same timestamps. The thickness 501 of the medium may be determined based on the timestamps disclosed herein.

도 16은 본 발명의 일 실시 예에 따라 객체(601)의 깊이 이미징이 다중 리턴 경로들의 존재 시에 3차원 깊이 측정을 위해 수행되는 것을 예시적으로 보여준다. 레이저 광원과 같은 X-Y 어드레스블 광원(602)은 반짝이는 객체(601)를 포인트 스캔하고, 반사미광(stray reflection: 603)은 다른 객체로부터 되돌아올 수 있다. 이러한 상황에서 반사미광(603)은 스캔되어지는 로우 R의 등극선 평면 내에 보이지 않을 수 있고 따라서 포인트 스캔이 지시된 곳에서 객체(601)로부터의 반사(605) 로서 검출되지 않을 수 있다.16 exemplarily shows that depth imaging of an object 601 is performed for 3D depth measurement in the presence of multiple return paths according to an embodiment of the present invention. An X-Y addressable light source 602, such as a laser light source, point scans a shiny object 601, and stray reflections 603 may bounce back from other objects. In this situation the reflected stray light 603 may not be visible within the contour plane of the low R being scanned and thus may not be detected as a reflection 605 from the object 601 where the point scan is directed.

도 12는 여기에 개시된 일 실시 예에 따라 도 1 및 도 2내의 시스템(15)에 대한 전체 구성을 나타낸다. 따라서, 참조 및 설명의 편의를 위해 동일한 참조부호들이 공통 시스템 컴포넌트들/유닛들에 대해 도 1,2, 및 12에서 사용된다.12 shows an overall configuration for system 15 in FIGS. 1 and 2 according to one embodiment disclosed herein. Accordingly, for convenience of reference and description, the same reference numbers are used in Figures 1,2, and 12 for common system components/units.

전술한 바와 같이, 이미징 모듈(17)은 본 발명의 기술적 사상에 따라 2D 이미징 및 3D 깊이 측정을 달성하기 위해, 예시적인 실시 예들의 도면들 2,6,7a, 7b 및 13에서 보여지는 하드웨어를 포함할 수 있다. 프로세서(19)는 복수의 외부 소자들과 인터페이싱 하도록 구성될 수 있다. 일 실시 예에서, 이미징 모듈(17)은 입력 장치로서 기능할 수 있다. 입력 장치는 데이터 입력을 제공한다. 데이터 입력은 도 7a내에서 상기 처리된 데이터 출력(170)과 같은 픽셀 이벤트 데이터의 형태로 추가 처리를 위해 프로세서(19)로 제공된다. 프로세서(19)는 다른 입력 장치들(도시되지 않음)로부터 입력들을 또한 수신할 수 있다. 다른 입력 장치들은 시스템(15)의 일부일 수 있다. 그러한 입력 장치들의 일부 예시들은 컴퓨터 키보드, 터치 패드, 터치 스크린, 조이스틱, 물리 혹은 가상적 클릭가능 버튼(clickable button), 및/또는 컴퓨터 마우스/포인팅 장치를 포함할 수 있다. 도 12에서, 프로세서(19)는 시스템 메모리(20), 주변 스토리지 유닛(265), 하나 이상의 출력 장치들(267), 및 네트워크 인터페이스 유닛(268)에 연결된다. 도 12에서 디스플레이 유닛은 출력 장치(267)로서 보여진다. 일부 실시 예들에서 출력 장치(267)는 터치스크린 디스플레이를 포함할 수 있다. 일부 실시 예들에서, 시스템(15)은 보여지는 장치들의 일 예시 보다 더 많은 장치들을 포함할 수 있다. 시스템(15)의 몇몇 실시 예들은 컴퓨터 시스템(데스크탑 혹은 랩탑), 태블릿 컴퓨터, 모바일 장치, 휴대전화, 비디오 게임기나 콘솔, 사물통신(machine-to-machine (M2M) communication) 유닛, 로봇, 자동차, 가상 현실 장치, 스테이트리스 "씬" 클라이언트(stateless "thin" client) 시스템, 차량 대시-캠 혹은 후방 카메라 시스템, 또는 기타 다른 형태의 컴퓨팅 혹은 프로세싱 장치를 포함한다. 다양한 실시 예들에서 도 12내의 모든 구성요소들은 단일 하우징 내에 수용될 수 있다. 따라서, 시스템(15)은 스탠드어론 시스템으로서 구성되거나 기타 다른 적당한 폼 팩터로 구성될 수 있다. 일부 실시 예들에서, 시스템(15)은 서버 시스템이라기 보다는 클라이언트 시스템으로서 구성될 수 있다. As described above, the imaging module 17 uses the hardware shown in FIGS. 2, 6, 7a, 7b and 13 of exemplary embodiments to achieve 2D imaging and 3D depth measurement according to the spirit of the present invention. can include The processor 19 may be configured to interface with a plurality of external elements. In one embodiment, imaging module 17 may function as an input device. An input device provides data input. The data input is provided to processor 19 for further processing in the form of pixel event data, such as processed data output 170 above in FIG. 7a. Processor 19 may also receive inputs from other input devices (not shown). Other input devices may be part of system 15 . Some examples of such input devices may include a computer keyboard, touch pad, touch screen, joystick, physical or virtual clickable buttons, and/or a computer mouse/pointing device. In FIG. 12 , processor 19 is coupled to system memory 20 , peripheral storage unit 265 , one or more output devices 267 , and network interface unit 268 . In FIG. 12 the display unit is shown as an output device 267 . In some embodiments, output device 267 may include a touchscreen display. In some embodiments, system 15 may include more devices than one example of devices shown. Some embodiments of system 15 include a computer system (desktop or laptop), tablet computer, mobile device, cell phone, video game console or console, machine-to-machine (M2M) communication unit, robot, vehicle, virtual reality devices, stateless "thin" client systems, vehicle dash-cam or rear-view camera systems, or any other form of computing or processing device. In various embodiments all of the components in FIG. 12 may be housed within a single housing. Accordingly, system 15 may be configured as a standalone system or configured in any other suitable form factor. In some embodiments, system 15 may be configured as a client system rather than a server system.

특별한 실시 예에서, 시스템(15)은 하나 이상의 프로세서(예를 들어 분산 처리 구성에서)를 포함할 수 있다. 시스템(15)이 멀티프로세서 시스템이면, 프로세서(19)의 일 예시보다 더 많이 프로세서가 존재할 수 있다. 또한, 각각의 인터페이스들(도시되지 않음)을 통해 프로세서(19)에 연결된 다중 프로세서들이 존재할 수 있다. 프로세서(19)는 시스템 온 칩(SoC)이 될 수 있으며, 및/또는 하나 이상의 CPU를 포함할 수 있다. In particular embodiments, system 15 may include one or more processors (eg, in a distributed processing configuration). If system 15 is a multiprocessor system, there may be more processors than one example of processor 19 . Also, there may be multiple processors coupled to processor 19 via respective interfaces (not shown). Processor 19 may be a system on a chip (SoC) and/or may include one or more CPUs.

전술한 바로서, 시스템 메모리(20)는 임의의 반도체 기반 스토리지 시스템일 수 있다. 제한되는 것은 아니지만, 반도체 기반 스토리지 시스템은 DRAM, SRAM, PRAM, RRAM, CBRAM, MRAM, STT-MRAM, 및 기타일 수 있다. 일부 실시 예에서, 메모리 유닛(20)은 적어도 하나 이상의 비 3DS 메모리 모듈들(non-3DS memory modules)과 함께 적어도 하나의 3DS 메모리 모듈을 포함할 수 있다. 비 3DS 메모리는 더블 데이터 레이트, 또는 더블 데이터 레이트 2,3, 또는 4 동기 다이나믹 랜덤 액세스액세스 메모리(DDR/DDR2/DDR3/DDR4 SDRAM)를 포함할 수 있다. 또한, 비 3DS 메모리는 램버스® DRAM, 플래시 메모리, 다양한 형태의 리도 온리 메모리(ROM), 등을 포함할 수 있다. 또한, 일부 실시 예들에서, 시스템 메모리(20)는 싱글 타입의 메모리에 반하는 것으로서, 다수의 다른 종류의 반도체 메모리들을 포함할 수 있다. 다른 실시 예들에서, 시스템 메모리(20)는 비 일시적 데이터 스토리지 매체(non-transitory data storage medium)일 수 있다. As noted above, system memory 20 may be any semiconductor based storage system. Although not limited to, the semiconductor based storage system may be DRAM, SRAM, PRAM, RRAM, CBRAM, MRAM, STT-MRAM, and others. In some embodiments, the memory unit 20 may include at least one 3DS memory module along with one or more non-3DS memory modules. Non-3DS memory may include double data rate, or double data rate 2, 3, or 4 synchronous dynamic random access memory (DDR/DDR2/DDR3/DDR4 SDRAM). In addition, non-3DS memory may include Rambus® DRAM, flash memory, various forms of lido only memory (ROM), and the like. Also, in some embodiments, the system memory 20 may include a plurality of different types of semiconductor memories as opposed to a single type of memory. In other embodiments, system memory 20 may be a non-transitory data storage medium.

주변 스토리지 유닛(265)는 다양한 실시 예들에서, 자기적, 광학적, 자기-광학적, 또는 솔리드 스테이트 스토리지 매체를 포함할 수 있다. 그러한 매체들은 하드 드라이브, 광 드라이브(예 CD나 DVD), 불휘발성 랜덤 액세스 메모리(RAM)장치들 등일 수 있다. 일부 실시 예들에서, 주변 스토리지 유닛(265)은 보다 복잡한 스토리지 장치들/시스템들을 포함할 수 있다. 그러한 스토리지 장치들/시스템들은 디스크 어레이들(적합한 RAID (Redundant Array of Independent Disks)구성내에 존재할 수 있음)이나 스토리지 에리어 네트워크들(SANs)일 수 있다. 주변 스토리지 유닛(265)은 표준 주변 인터페이스를 통해 프로세서(19)에 연결될 수 있다. 표준 주변 인터페이스는 Small Computer System Interface (SCSI) 인터페이스, Fibre Channel 인터페이스, Firewire® (IEEE 1394) 인터페이스, Peripheral Component Interface Express (PCI Express™) 표준 기반 인터페이스, Universal Serial Bus (USB) protocol 기반 인터페이스, 또는 다른 적당한 인터페이스일 수 있다. 다양한 그러한 스토지지 장치들은 비 일시적 데이터 스토리지 매체(non-transitory data storage media)일 수 있다.Peripheral storage unit 265 may include a magnetic, optical, magneto-optical, or solid state storage medium in various embodiments. Such media may be hard drives, optical drives (eg CDs or DVDs), non-volatile random access memory (RAM) devices, and the like. In some embodiments, peripheral storage unit 265 may include more complex storage devices/systems. Such storage devices/systems may be disk arrays (which may exist in a suitable Redundant Array of Independent Disks (RAID) configuration) or storage area networks (SANs). Peripheral storage unit 265 may be connected to processor 19 through a standard peripheral interface. Standard peripheral interfaces include Small Computer System Interface (SCSI) interfaces, Fiber Channel interfaces, Firewire® (IEEE 1394) interfaces, Peripheral Component Interface Express (PCI Express™) standards-based interfaces, Universal Serial Bus (USB) protocol-based interfaces, or other It can be any suitable interface. A variety of such storage devices may be non-transitory data storage media.

디스플레이 유닛(267)은 출력 장치의 예가 될 수 있다. 출력 장치의 다른 예시 들은 그래픽/디스플레이 장치, 컴퓨터 스크린, 알람 시스템, CAD/CAM (Computer Aided Design/Computer Aided Machining) 시스템, 비디오 게임 스테이션, 스마트폰 디스플레이 스크린, 또는 기타 다른 종류의 데이터 출력 장치를 포함한다. 일부 실시 예에서, 이미징 모듈(17)과 같은 입력 장치(들)와 디스플레이 유닛(267)과 같은 출력 장치(들)은 I/O 또는 주변 인터페이스(들)를 통해 프로세서(19)에 연결될 수 있다. The display unit 267 may be an example of an output device. Other examples of output devices include graphics/display devices, computer screens, alarm systems, CAD/CAM (Computer Aided Design/Computer Aided Machining) systems, video game stations, smartphone display screens, or any other type of data output device. do. In some embodiments, input device(s) such as imaging module 17 and output device(s) such as display unit 267 may be connected to processor 19 via I/O or peripheral interface(s). .

일 실시 예에서, 네트워크 인터페이스(268)는 네트워크(미도시)에 연결하는 시스템(15)을 인에이블 하기 위해 프로세서(19)와 통신할 수 있다. 다른 실시 예에서, 네트워크 인터페이스(268)는 어떤 적당한 장치들 및 네트워크로 시스템(15)을 연결하기 위한 매체 및/또는 프로토콜 컨텐츠 (유선이든 무선이든) 를 포함할 수 있다. 다양한 실시 예들에서, 네트워크는 Local Area Networks (LANs), Wide Area Networks (WANs), 유선 또는 무선 Ethernet, 텔레커뮤니케이션 네트워크, 또는 기타 적절한 형태의 네트워크를 포함할 수 있다. In one embodiment, network interface 268 may communicate with processor 19 to enable system 15 to connect to a network (not shown). In another embodiment, network interface 268 may include media and/or protocol content (whether wired or wireless) for coupling system 15 to any suitable devices and networks. In various embodiments, the networks may include Local Area Networks (LANs), Wide Area Networks (WANs), wired or wireless Ethernet, telecommunications networks, or other suitable types of networks.

시스템(15)은 도 12내에 도시된 다양한 시스템 구성요소들로 전기적 파워를 제공하기 위한 온 보드 파워 서플라이 유닛(270)을 포함할 수 있다. 파워 서플라이 유닛(270)은 배터리들을 수신하거나 AC 전기적 전원 콘센트(power outlet)에 연결될 수 있다. 일 실시 예에서 파워 서플라이 유닛(270)은 태양 에너지를 전력으로 변환할 수 있다. System 15 may include an on board power supply unit 270 for providing electrical power to the various system components shown in FIG. 12 . The power supply unit 270 may receive batteries or be connected to an AC electrical power outlet. In one embodiment, the power supply unit 270 may convert solar energy into electric power.

일 실시 예에서, 이미징 모듈(17)은 고속 인터페이스로써 집적될 수 있다. 제한되는 것은 아니지만, 고속 인터페이스는 Universal Serial Bus 2.0 or 3.0 (USB 2.0 or 3.0) 인터페이스 혹은 그 이상의 것일 수 있다 고속 인터페이스는 임의의 퍼스널 컴퓨터(PC)나 랩탑에 장착된다. 한정되는 것은 아니지만 시스템 메모리(20)와 같은 비 일시적, 컴퓨터 판독가능 데이터 스토리지 매체(non-transitory, computer-readable data storage medium)또는 CD/DVD와 같은 주변 데이터 스토리지 유닛은 프로그램 코드나 소프트웨어를 저장할 수 있다. 이미징 모듈(17)내에서 프로세서(19) 및/또는 디지털 처리 블록(도 7a의 167)은 프로그램 코드를 실행하도록 구성될 수 있다. 장치(15)는 도면들 1-11 및 13-16을 참조로 기 설명된 동작들과 같이 전술된 바로서 2D 이미징 및 3D 깊이 측정을 수행하도록 동작될 수 있다. 프로그램 코드 혹은 소프트웨어는 사유 (proprietary) 소프트웨어 혹은 오픈 소스 소프트웨어일 수 있다. 프로세서(19) 및/또는 디지털 블록(167)과 같은 적절한 처리 엔티티에 의한 실행 시에, 소프트웨어는 처리 엔티티를 인에이블 할 수 있다. 이는 정확한 타이밍을 이용하여 픽셀 이벤트들을 캡쳐하고 처리하기 위해서이다. 소프트웨어는 다양한 포맷들로 픽셀 이벤트들을 렌더링하고, 2D 및/또는 3D 포맷들로 디스플레이한다. 전술한 바로서, 어떤 실시 예들에서 이미징 모듈(17)내의 디지털 처리 블록(167)은 픽셀 이벤트 신호들의 일부 처리를 수행할 수 있고 그 처리는 픽셀 출력 데이터가 추가 처리 및 디스플레이를 위한 프로세서(19)로 전송되기 이전에 수행된다. 다른 실시 예에서, 프로세서(19)는 디지털 블록(167)이 이미징 모듈(17)의 일부가 아닌 경우에, 디지털 블록(167)의 기능을 또한 수행할 수 있다. In one embodiment, imaging module 17 may be integrated with a high-speed interface. Although not limited to, the high-speed interface can be a Universal Serial Bus 2.0 or 3.0 (USB 2.0 or 3.0) interface or higher. The high-speed interface is built into any personal computer (PC) or laptop. A non-transitory, computer-readable data storage medium such as, but not limited to, system memory 20 or a peripheral data storage unit such as a CD/DVD may store program code or software. have. Within imaging module 17, processor 19 and/or digital processing block 167 in FIG. 7A may be configured to execute program code. Device 15 may be operated to perform 2D imaging and 3D depth measurement as described above, such as operations previously described with reference to FIGS. 1-11 and 13-16. The program code or software may be proprietary software or open source software. When executed by an appropriate processing entity, such as processor 19 and/or digital block 167, the software may enable the processing entity. This is to capture and process pixel events using precise timing. Software renders pixel events in various formats and displays them in 2D and/or 3D formats. As noted above, in some embodiments, digital processing block 167 within imaging module 17 may perform some processing of the pixel event signals, which processing may send the pixel output data to processor 19 for further processing and display. performed prior to transmission. In another embodiment, the processor 19 may also perform the functions of the digital block 167 when the digital block 167 is not part of the imaging module 17 .

이전 설명에서 제한되지 않지만 설명의 목적을 위해, 특정한 상세들이 개시된 기술의 철저한 이해를 제공하기 위하여 설명되었다. 그러한 상세들은 특별한 아키텍쳐, 파형들, 인터페이스들, 기술들 등이다. 그러나 본 분야에서 통상의 지식을 가진 자에게 있어서 그러한 기술들이 이들 특정한 상세들을 벗어나는 다른 실시 예들 내에서 구현될 수 있다는 것이 명백해질 것이다. 즉, 본 기술분야에 숙련된 기술자는 다양한 배열들을 창작할 수 있을 것이다. 여기에 명시적으로 설명되거나 보여지지 않더라도, 개시된 기술 원리는 구체화될 수 있을 것이다. 일부 예증들, 상세한 설명의 공지 디바이스들, 회로들, 및 방법들은 불필요한 상세들을 가지고 개시된 기술의 설명을 모호하지 않도록 하기 위해 생략된다. 원리들, 아스펙트, 및 개시된 기술의 실시 예들, 뿐만 아니라 그들의 특정한 예들을 인용하는 여기서의 모든 스테이트먼트는 구조적 및 기능적 등가물을 포함하도록 의도된다. 부가적으로, 그러한 등가물은 현재로서 공지된 등가물뿐만 아니라 장래에 개발될 등가물 모두를 포함하는 것으로 의도된다. 등가물은 구조에 무관하게 동리 기능을 수행하는 개발된 어떤 요소들일 수 있다.For purposes of explanation and not limitation in the previous description, specific details are set forth in order to provide a thorough understanding of the disclosed technology. Such details are particular architectures, waveforms, interfaces, techniques, etc. However, it will be apparent to one skilled in the art that such techniques may be implemented in other embodiments that depart from these specific details. That is, a person skilled in the art will be able to create various arrangements. Even if not explicitly described or shown herein, the disclosed technical principles may be embodied. Some examples, well-known devices, circuits, and methods in detailed descriptions are omitted so as not to obscure the description of the disclosed technology with unnecessary details. All statements herein reciting principles, aspects, and embodiments of the disclosed technology, as well as specific examples thereof, are intended to encompass both structural and functional equivalents. Additionally, such equivalents are intended to include both currently known equivalents as well as equivalents developed in the future. Equivalents can be any elements developed that perform the same function, regardless of structure.

따라서, 예를 들면, 여기(도 1 및 도 2)의 블록 다이아그램이 도시적인 회로의 개념적 형태(view) 혹은 기술 원리를 구체화하는 다른 기능적 유닛들을 나타낼 수 있는 것임이 본 분야에 숙련된 자들에 의해 이해될 수 있을 것이다. 유사하게, 도 3의 플로우챠트가 다양한 프로세스들을 나타냄이 이해될 수 있을 것이다. 다양한 프로세스들은 프로세서(예를 들면 도 12의 프로세서 19 및/또는 도 7a의 디지털 블록 167)에 의해 실질적으로 수행될 수 있다. 그러한 프로세서는 예시적으로 범용 프로세서, 전용 프로세서, 일반 프로세서, 디지털 신호 프로세서(DSP), 복수의 마이크로프로세서, DSP 코어와 관련한 하나 이상의 프로세서, 컨트롤러, 마이크로컨트롤러, ASICs, FPGAs, 다른 종류의 IC, 및/또는 상태 머시인을 포함할 수 있다. 도면들 1-11 및 13-16의 컨텍스트 내의 상술된 기능들의 일부 또는 모두는 하드웨어 및/또는 소프트웨어 내에서, 또한 그러한 프로세서에 의해 제공될 수 있다. Thus, for example, it will be appreciated by those skilled in the art that the block diagrams herein ( FIGS. 1 and 2 ) may represent a conceptual view of an illustrative circuit or other functional units embodying a technical principle. can be understood by Similarly, it will be appreciated that the flowchart of FIG. 3 represents various processes. The various processes may be substantially performed by a processor (eg processor 19 in FIG. 12 and/or digital block 167 in FIG. 7A). Such processors include, by way of example, general purpose processors, dedicated processors, general processors, digital signal processors (DSPs), a plurality of microprocessors, one or more processors in conjunction with a DSP core, controllers, microcontrollers, ASICs, FPGAs, other types of ICs, and /or may include state machines. Some or all of the functions described above within the context of FIGS. 1-11 and 13-16 may be provided within hardware and/or software, and also by such a processor.

여기에 개시된 기술적 주제의 어떤 사상이 소프트웨어 기반 처리를 요구한다면, 그러한 소프트웨어나 프로그램 코드는 컴퓨터 판독가능 데이터 저장 매체 내에 상주할 수 있다. 전술한 바로서, 그러한 데이터 저장 매체는 주변 스토리지(265)의 일부일 수 있다. 또는 데이터 저장 매체는 시스템 메모리(20), 또는 프로세서(19)의 내부 메모리(미도시)일 수 있다. 일 실시 예에서, 프로세서(19)나 디지털 블록(167)은 소프트웨어 기반 처리를 수행하기 위해 그러한 매체 상에 저장된 명령들을 수행할 수 있다. 컴퓨터 판독가능 데이터 저장 매체는 컴퓨터 프로그램, 소프트웨어, 펌웨어, 또는 범용 컴퓨터나 상술한 프로세서에 의한 실행을 위한 마이크로 코드를 담고 있는 비 일시적 데이터 저장 매체일 수 있다. 컴퓨터 판독가능 데이터 저장 매체의 예시는 내부 하드 디스크와 같이, ROM, RAM, 디지털 레지스터, 캐시 메모리, 반도체 메모리 장치, 및 마그네틱 매체를 포함하고, 또한 CD-ROM 디스크 및 DVDs와 같이, 마그네틱 테이프 및 삭제가능 디스크, 자기-광학 매체, 및 옵티컬 매체를 포함한다. If certain aspects of the subject matter disclosed herein require software-based processing, such software or program code may reside within a computer-readable data storage medium. As noted above, such data storage media may be part of peripheral storage 265 . Alternatively, the data storage medium may be the system memory 20 or an internal memory (not shown) of the processor 19 . In one embodiment, processor 19 or digital block 167 may execute instructions stored on such media to perform software-based processing. A computer readable data storage medium may be a non-transitory data storage medium containing a computer program, software, firmware, or microcode for execution by a general-purpose computer or processor as described above. Examples of computer-readable data storage media include ROM, RAM, digital registers, cache memory, semiconductor memory devices, and magnetic media, such as internal hard disks, and also magnetic tapes and erasers, such as CD-ROM disks and DVDs. It includes capable disks, magneto-optical media, and optical media.

본 발명의 기술적 사상에 따라 이미징 모듈(17)이나 이미징 모듈을 포함하는 시스템(15)의 대안적 실시 예들은 부가적인 기능을 제공하는 부가적인 구성요소들을 포함할 수 있다. 부가적인 기능은 상기 규명된 어떤 임의의 기능 및/또는 개시된 본 발명의 기술적 사상에 따른 솔루션을 지원하는데 필요한 기능을 포함한다. 비록 특징들과 구성요소들이 특별한 조합들 내에서 설명되었으나, 각 특징이나 구성요소가 다른 특징들 및 구성요소들 없이 단독으로 사용될 수 있거나, 다른 특징들을 가지거나 가짐이 없이 다양한 조합들로 사용될 수 있다. 전술한 바로서, 여기에 개시된 다양한 2D 및 3D 이미징 기능들이 하드웨어(회로 하드웨어) 및/또는 소프트웨어/펌웨어의 실행이 가능한 하드웨어의 사용을 통해 구현될 수 있고, 소프트웨어/펌웨어의 실행이 가능한 하드웨어는 코딩된 명령들이나 마이크로코드의 형태로 소프트웨어/펌웨어를 실행한다. 코딩된 명령들이나 마이크로코드는 컴퓨터 판독가능 데이터 저장 매체(상기 언급됨)에 저장된다. 따라서, 그러한 기능들 및 도시된 기능 블록들은 하드웨어 구현 및/또는 컴퓨터 구현으로 되는 것이 이해될 것이며, 결국 머시인 구현으로 된다. In accordance with the spirit of the present invention, alternative embodiments of the imaging module 17 or the system 15 that includes the imaging module may include additional components that provide additional functionality. The additional functions include any functions identified above and/or functions necessary to support solutions according to the disclosed spirit of the present invention. Although features and components are described in particular combinations, each feature or component may be used alone without other features and components, or may be used in various combinations with or without other features. . As mentioned above, the various 2D and 3D imaging functions disclosed herein may be implemented through the use of hardware (circuit hardware) and/or hardware capable of executing software/firmware, wherein hardware capable of executing software/firmware may be coded. It executes software/firmware in the form of written instructions or microcode. Coded instructions or microcode are stored on a computer readable data storage medium (mentioned above). Accordingly, it will be understood that such functions and illustrated functional blocks may be hardware implemented and/or computer implemented, resulting in a machine implementation.

이상에서 시스템 및 방법이 개시되었다. 시스템 및 방법은 동일 이미지 센서 즉 이미지 센서내의 모든 픽셀들이 3D 객체의 2D 이미지 및 객체에 대한 3D 깊이 측정 모두를 캡쳐하는데 사용되는 시스템 및 방법이다. 이미지 센서는 한정되는 것은 아니지만 스마트폰 등과 같은 이동 기기내의 카메라의 일부일 수 있다. 레이저 광 레이저 소스는 광 스팟들을 가지고 객체의 표면을 포인트 스캔하는데 사용될 수 있다. 광 스팟들은 이미지 센서 내의 픽셀 어레이에 의해 검출된다. 검출은 삼각 측량을 이용하여 객체의 3D 깊이 프로파일을 생성하기 위해 수행된다. 3D 모드에서, 레이저느 스캔 라인을 따라 객체의 표면 상의 일련의 광 스팟들을 투영할 수 있다. 반사된 광 스팟들은 픽셀 어레이내의 한 로우의 픽셀들을 이용하여 검출될 수 있다. 한 로우는 스캔 라인의 등극선(epipolar line)을 형성한다. 검출된 광 스팟들은 삼감측량 내에서 어떤 모호성을 제거하기 위해 타임스탬핑될 수 있다. 타임스탬핑은 깊이 계산량 및 시스템 파워를 줄인다. 타임스탬프는 또한 삼감측량을 이용하여 깊이를 결정하기 위해 캡쳐된 레이저 스팟의 픽셀 위치와 레이저 광원의 각 스캔 각도 사이의 대응성을 제공한다. 2D 모드 내에서의 이미지 신호들은 이미지 센서 내의 ADC 유닛으로부터 멀티비트 출력으로써 나타날 수 있다. 그러나 ADC 유닛은 3D 깊이 측정을 위한 타임스탬프 값들을 생성하기 위해 바이너리 출력만을 생성할 수도 있다. 강한 주변 광을 거부하기 위해 이미지 센서는 3D 선형 모드와는 반대되는 3D 대수 모드에서 동작될 수 있다. In the above, the system and method have been disclosed. The systems and methods are systems and methods in which the same image sensor, i.e. all pixels within the image sensor, are used to capture both a 2D image of a 3D object and a 3D depth measurement for the object. The image sensor may be, but is not limited to, part of a camera in a mobile device such as a smartphone or the like. Laser Light A laser source can be used to point scan the surface of an object with light spots. The light spots are detected by a pixel array in the image sensor. Detection is performed to create a 3D depth profile of the object using triangulation. In 3D mode, the laser can project a series of light spots on the surface of an object along a scan line. Reflected light spots can be detected using a row of pixels in a pixel array. One row forms the epipolar line of the scan line. Detected light spots can be timestamped to remove any ambiguity within the triangulation. Timestamping reduces depth computation and system power. The timestamp also provides a correspondence between the pixel position of the captured laser spot and each scan angle of the laser light source to determine the depth using triangulation. Image signals in the 2D mode may appear as multi-bit outputs from the ADC unit in the image sensor. However, the ADC unit may only generate binary outputs to generate timestamp values for 3D depth measurement. To reject strong ambient light, the image sensor can be operated in a 3D logarithmic mode as opposed to a 3D linear mode.

본 분야의 숙련된 기술을 가진 자에 의해 인식될 수 있는 바로서, 여기에 개시된 혁신적인 컨셉들은 넓은 범위의 출원들에 걸쳐 변경되고 변화될 수 있다. 따라서, 특허되는 발명의 기술적 사상의 범위는 상술한 바와 같은 어느 특정 지침들에 의해 제한되어서는 안되며 이하의 클레임들에 의해 정의되어야 한다. As will be appreciated by those skilled in the art, the innovative concepts disclosed herein can be modified and varied across a wide range of applications. Accordingly, the scope of the technical idea of the patented invention should not be limited by any specific guidelines as described above, but should be defined by the following claims.

Claims (20)

이미지 센서에서 적어도 하나의 객체의 이미지를 수신하되, 상기 이미지 센서는 복수의 제1그룹의 로우들 내에 배열된 2차원(2D) 픽셀 어레이를 포함하고, 상기 어레이의 제2그룹의 로우들의 픽셀들은 상기 적어도 하나의 객체의 2D 컬러 정보를 생성하기 위해 동작가능하고, 상기 어레이의 제3 그룹의 픽셀들은 상기 적어도 하나의 객체의 3D 깊이 정보를 생성하기 위해 동작가능하고, 상기 제1그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함하며; 및
교번적인 방법으로 상기 제2그룹의 로우들로부터 선택된 한 로우로부터 상기 적어도 하나의 객체의 2D 컬러 정보를 수신하고, 상기 제3 그룹의 로우들로부터 선택된 한 로우로부터 상기 적어도 하나의 객체의 3D 깊이 정보를 수신하는 것을 포함하고,
상기 2D 픽셀 어레이는 선형 모드를 이용하여 상기 2D 컬러 정보를 생성하고, 그리고 상기 선형 모드 또는 대수 모드를 이용하여 상기 3D 깊이 정보를 생성하는 방법.
Receive an image of at least one object at an image sensor, the image sensor comprising a two-dimensional (2D) pixel array arranged in a plurality of rows of a first group, the pixels of rows of a second group of the array comprising: is operable to generate 2D color information of the at least one object, pixels of a third group of the array are operable to generate 3D depth information of the at least one object, and rows of the first group are The second group of rows includes a first number of rows, the second group of rows includes a second number of rows less than or equal to the first number of rows, and the third group of rows includes a third number of rows less than or equal to the second number of rows. contains a number of rows; and
receiving 2D color information of the at least one object from one row selected from the rows of the second group in an alternating manner, and 3D depth information of the at least one object from one row selected from the rows of the third group Including receiving,
wherein the 2D pixel array generates the 2D color information using a linear mode, and generates the 3D depth information using the linear mode or logarithmic mode.
제1항에 있어서, 상기 제2그룹의 로우들로부터 선택된 상기 로우는 상기 제3 그룹의 로우들로부터 선택된 로우와 동일한 것인 방법.2. The method of claim 1, wherein the row selected from the second group of rows is the same as the row selected from the third group of rows. 제1항에 있어서, 상기 제2그룹의 로우들로부터 선택된 상기 로우는 상기 제3 그룹의 로우들로부터 선택된 로우와는 다른 것인 방법.2. The method of claim 1, wherein the row selected from the second group of rows is different from the row selected from the third group of rows. 제1항에 있어서, 상기 3D 깊이 정보는 적어도 하나의 객체의 스캔된 로우들의 스팟들에 대응되는 삼각 측량 정보를 포함하는 방법.The method of claim 1, wherein the 3D depth information includes triangulation information corresponding to spots of scanned rows of at least one object. 복수의 제1그룹의 로우들로 배열된 2차원(2D) 픽셀 어레이, 상기 어레이의 제2그룹의 로우들의 픽셀들은 상기 2D 픽셀 어레이에 의해 수신된 적어도 하나의 객체의 이미지에 근거하여 2D 컬러 정보를 생성하기 위해 동작가능하고, 상기 어레이의 제3 그룹의 픽셀들은 상기 적어도 하나의 객체의 3D 깊이 정보를 생성하기 위해 동작가능하고, 상기 제1그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함하며; 및
상기 적어도 하나의 객체의 상기 이미지에 근거하여 생성된 2D 컬러 정보를 출력하기 위해 상기 제2 그룹의 로우들로부터 한 로우를 교번적인 방법으로 선택하고, 상기 적어도 하나의 객체의 상기 생성된 3D 깊이 정보를 출력하기 위해 상기 제3 그룹의 로우들로부터 한 로우를 선택하기 위해, 상기 2D 픽셀 어레이에 연결된 컨트롤러를 포함하되,
상기 2D 픽셀 어레이는 선형 모드를 이용하여 상기 2D 컬러 정보를 생성하고, 그리고 상기 선형 모드 또는 대수 모드를 이용하여 상기 3D 깊이 정보를 생성하는 이미지 센서 유닛.
A two-dimensional (2D) pixel array arranged in a plurality of rows of a first group, the pixels of the rows of a second group of the array receiving 2D color information based on the image of at least one object received by the 2D pixel array , wherein a third group of pixels in the array is operable to generate 3D depth information of the at least one object, wherein the first group of rows includes a first number of rows; the second group of rows includes a second number of rows less than or equal to the first number of rows, and the third group of rows includes a third number of rows less than or equal to the second number of rows; and
Selecting one row from the second group of rows in an alternating manner to output 2D color information generated based on the image of the at least one object, and the generated 3D depth information of the at least one object a controller coupled to the 2D pixel array for selecting a row from the third group of rows to output
wherein the 2D pixel array generates the 2D color information using a linear mode, and generates the 3D depth information using the linear mode or logarithmic mode.
제5항에 있어서, 상기 제2그룹의 로우들로부터 선택된 상기 로우는 상기 제3 그룹의 로우들로부터 선택된 로우와 동일한 이미지 센서 유닛.6. The image sensor unit according to claim 5, wherein the row selected from the second group of rows is the same as the row selected from the third group of rows. 제5항에 있어서, 상기 제2그룹의 로우들로부터 선택된 상기 로우는 상기 제3 그룹의 로우들로부터 선택된 로우와는 다른 이미지 센서 유닛.6. The image sensor unit according to claim 5, wherein the row selected from the second group of rows is different from the row selected from the third group of rows. 제5항에 있어서, 상기 3D 깊이 정보는 적어도 하나의 객체의 스캔된 로우의 스팟들에 대응되는 삼각 측량 정보를 포함하는 이미지 센서 유닛.6 . The image sensor unit of claim 5 , wherein the 3D depth information includes triangulation information corresponding to spots of a scanned row of at least one object. 제8항에 있어서, 상기 3D 깊이 정보는 상기 제3 그룹의 로우들로부터 선택된 로우의 픽셀들에 의해 생성된 광전자들의 선형 집적(linear integration)에 근거하는 이미지 센서 유닛.9. The image sensor unit according to claim 8, wherein the 3D depth information is based on linear integration of photoelectrons generated by pixels in a row selected from the third group of rows. 제8항에 있어서, 상기 3D 깊이 정보는 상기 제3 그룹의 로우들로부터 선택된 로우의 픽셀들에 의해 생성된 광전자들의 대수 집적(logarithmic integration)에 근거하는 이미지 센서 유닛.9. The image sensor unit according to claim 8, wherein the 3D depth information is based on logarithmic integration of photoelectrons generated by pixels in a row selected from the third group of rows. 제8항에 있어서, 상기 삼각 측량 정보는 상기 스캔된 로우의 스팟들에 대한 타임스탬프 정보를 포함하는 이미지 센서 유닛.9. The image sensor unit of claim 8, wherein the triangulation information includes timestamp information for spots of the scanned row. 제8항에 있어서, 상기 스캔된 로우의 스팟들을 조사하기 위한 레이저 광원을 더 포함하는 이미지 센서 유닛.The image sensor unit of claim 8 , further comprising a laser light source for irradiating spots of the scanned row. 제12항에 있어서, 상기 레이저 광원은 가시 레이저 광원, 근 적외선 레이저 광원, 점광원, 단색 조명 원, XY 어드레서블 레이저 광원, 및 레이저 스캐너 중의 하나를 포함하는 이미지 센서 유닛.13. The image sensor unit of claim 12, wherein the laser light source comprises one of a visible laser light source, a near infrared laser light source, a point light source, a monochromatic illumination source, an XY addressable laser light source, and a laser scanner. 복수의 제1그룹의 로우들로 배열된 2차원(2D) 픽셀 어레이, 상기 어레이의 제2그룹의 로우들의 픽셀들은 상기 2D 픽셀 어레이에 의해 수신된 적어도 하나의 객체의 이미지에 근거하여 2D 컬러 정보를 생성하기 위해 동작가능하고, 상기 어레이의 제3 그룹의 픽셀들은 상기 적어도 하나의 객체의 3D 깊이 정보를 생성하기 위해 동작가능하고, 상기 제1그룹의 로우들은 제1 개수의 로우들을 포함하고, 상기 제2그룹의 로우들은 상기 제1 개수의 로우들 이하인 제2 개수의 로우들을 포함하고, 상기 제3 그룹의 로우들은 상기 제2 개수의 로우들 이하인 제3 개수의 로우들을 포함하며;
상기 적어도 하나의 객체의 상기 이미지에 근거하여 생성된 2D 컬러 정보를 출력하기 위해 상기 제2 그룹의 로우들로부터 한 로우를 교번적인 방법으로 선택하고, 상기 적어도 하나의 객체의 상기 생성된 3D 깊이 정보를 출력하기 위해 상기 제3 그룹의 로우들로부터 한 로우를 선택하기 위해, 상기 2D 픽셀 어레이에 연결된 컨트롤러; 및
상기 생성된 2D 컬러 정보에 근거하여 상기 적어도 하나의 객체의 제1 이미지를 디스플레이하고, 상기 생성된 3D 깊이 정보에 근거하여 상기 적어도 하나의 객체의 제2 이미지를 디스플레이하기 위해 동작하며, 상기 컨트롤러와 상기 2D 픽셀 어레이에 연결된 디스플레이를 포함하되,
상기 2D 픽셀 어레이는 선형 모드를 이용하여 상기 2D 컬러 정보를 생성하고, 그리고 상기 선형 모드 또는 대수 모드를 이용하여 상기 3D 깊이 정보를 생성하는 시스템.
A two-dimensional (2D) pixel array arranged in a plurality of rows of a first group, the pixels of the rows of a second group of the array receiving 2D color information based on the image of at least one object received by the 2D pixel array , wherein a third group of pixels in the array is operable to generate 3D depth information of the at least one object, wherein the first group of rows includes a first number of rows; the second group of rows includes a second number of rows less than or equal to the first number of rows, and the third group of rows includes a third number of rows less than or equal to the second number of rows;
Selecting one row from the second group of rows in an alternating manner to output 2D color information generated based on the image of the at least one object, and the generated 3D depth information of the at least one object a controller coupled to the 2D pixel array for selecting a row from the third group of rows to output ; and
operate to display a first image of the at least one object based on the generated 2D color information and display a second image of the at least one object based on the generated 3D depth information, and operate with the controller A display connected to the 2D pixel array,
wherein the 2D pixel array generates the 2D color information using a linear mode, and generates the 3D depth information using the linear mode or logarithmic mode.
제14항에 있어서, 상기 3D 깊이 정보는 상기 적어도 하나의 객체의 스캔된 로우의 스팟들에 대응되는 삼각 측량 정보를 포함하고,
상기 삼각 측량 정보는 상기 스캔된 로우의 스팟들에 대한 타임스탬프 정보를 포함하는 시스템.
15. The method of claim 14, wherein the 3D depth information includes triangulation information corresponding to spots of a row scanned of the at least one object,
The system of claim 1, wherein the triangulation information includes timestamp information for spots in the scanned row.
제15항에 있어서, 상기 3D 깊이 정보는 상기 제3 그룹의 로우들로부터 선택된 로우의 픽셀들에 의해 생성된 광전자들의 선형 집적(linear integration)에 근거하는 시스템.16. The system of claim 15, wherein the 3D depth information is based on linear integration of photoelectrons generated by pixels in a row selected from the third group of rows. 제15항에 있어서, 상기 3D 깊이 정보는 상기 제3 그룹의 로우들로부터 선택된 로우의 픽셀들에 의해 생성된 광전자들의 대수 집적(logarithmic integration)에 근거하는 시스템.16. The system of claim 15, wherein the 3D depth information is based on logarithmic integration of photoelectrons generated by pixels in a row selected from the third group of rows. 제15항에 있어서, 상기 스캔된 로우의 스팟들을 조사하기 위한 레이저 광원을 더 포함하며,
상기 레이저 광원은 가시 레이저 광원, 근 적외선 레이저 광원, 점광원, 단색 조명 원, XY 어드레서블 레이저 광원, 및 레이저 스캐너 중의 하나를 포함하는 시스템.
The method of claim 15, further comprising a laser light source for irradiating spots of the scanned row,
The system of claim 1 , wherein the laser light source comprises one of a visible laser light source, a near infrared laser light source, a point light source, a monochromatic illumination source, an XY addressable laser light source, and a laser scanner.
제15항에 있어서, 상기 디스플레이는 터치스크린 디스플레이를 포함하는 시스템.16. The system of claim 15, wherein the display comprises a touchscreen display. 제19항에 있어서, 상기 시스템은 모바일 통신 장치의 일부를 포함하는 시스템.20. The system of claim 19, wherein the system comprises a portion of a mobile communication device.
KR1020160034841A 2015-04-20 2016-03-23 Concurrent rgbz sensor and system KR102473740B1 (en)

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201562150252P 2015-04-20 2015-04-20
US62/150,252 2015-04-20
US201562182404P 2015-06-19 2015-06-19
US62/182,404 2015-06-19
US201562203386P 2015-08-10 2015-08-10
US62/203,386 2015-08-10
US14/842,822 US10145678B2 (en) 2015-04-20 2015-09-01 CMOS image sensor for depth measurement using triangulation with point scan
US14/842,822 2015-09-01
US14/856,552 US20160309135A1 (en) 2015-04-20 2015-09-16 Concurrent rgbz sensor and system
US14/856,552 2015-09-16

Publications (2)

Publication Number Publication Date
KR20160124666A KR20160124666A (en) 2016-10-28
KR102473740B1 true KR102473740B1 (en) 2022-12-05

Family

ID=57244777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160034841A KR102473740B1 (en) 2015-04-20 2016-03-23 Concurrent rgbz sensor and system

Country Status (2)

Country Link
KR (1) KR102473740B1 (en)
CN (2) CN112235522B (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564051B (en) * 2017-09-05 2020-06-02 歌尔股份有限公司 Depth information acquisition method and system
EP3721261B1 (en) * 2017-12-04 2022-11-02 ams International AG Distance time-of-flight modules
KR102526929B1 (en) * 2018-04-04 2023-05-02 삼성전자 주식회사 Optical source module comprising transparent menmber formed meta surface and electronic device comprising the same
EP3803266A4 (en) 2018-06-06 2022-03-09 Magik Eye Inc. Distance measurement using high density projection patterns
EP3911920A4 (en) 2019-01-20 2022-10-19 Magik Eye Inc. Three-dimensional sensor including bandpass filter having multiple passbands
WO2020197813A1 (en) 2019-03-25 2020-10-01 Magik Eye Inc. Distance measurement using high density projection patterns
CN112398472B (en) * 2019-08-14 2023-04-18 天津大学青岛海洋技术研究院 Error quantization 10-bit monoclinic ADC for image sensor
CN111432144B (en) * 2020-06-12 2021-06-18 深圳市汇顶科技股份有限公司 Imaging system and related electronic device and operating method of imaging system
EP3952271A4 (en) 2020-06-12 2022-06-01 Shenzhen Goodix Technology Co., Ltd. Depth sensing device and related electronic device, and method for operating depth sensing device
CN112738497A (en) * 2021-03-30 2021-04-30 北京芯海视界三维科技有限公司 Sensing device, image sensor and human-computer interaction system
KR20230049902A (en) * 2021-10-07 2023-04-14 삼성전자주식회사 Electronic device comprising range sensor and method for measuring distace
CN116342961B (en) * 2023-03-30 2024-02-13 重庆师范大学 Time sequence classification deep learning system based on mixed quantum neural network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110102763A1 (en) * 2009-10-30 2011-05-05 Microvision, Inc. Three Dimensional Imaging Device, System and Method
US20130127854A1 (en) 2010-08-11 2013-05-23 Primesense Ltd. Scanning Projectors And Image Capture Modules For 3D Mapping
US20140022348A1 (en) 2010-11-19 2014-01-23 Primesense Ltd. Depth mapping using time-coded illumination

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8134637B2 (en) * 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
JP5012135B2 (en) * 2007-03-28 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 Ultra-deep image generator
WO2012133926A2 (en) * 2011-04-01 2012-10-04 Nikon Corporation Profile measuring apparatus, method for measuring profile, and method for manufacturing structure
US9491441B2 (en) * 2011-08-30 2016-11-08 Microsoft Technology Licensing, Llc Method to extend laser depth map range
US9040892B2 (en) * 2012-07-27 2015-05-26 Apple Inc. High dynamic range image sensor having symmetric interleaved long and short exposure pixels
US8988598B2 (en) * 2012-09-14 2015-03-24 Samsung Electronics Co., Ltd. Methods of controlling image sensors using modified rolling shutter methods to inhibit image over-saturation
US10674135B2 (en) * 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
US9667883B2 (en) * 2013-01-07 2017-05-30 Eminent Electronic Technology Corp. Ltd. Three-dimensional image sensing device and method of sensing three-dimensional images
KR102040152B1 (en) * 2013-04-08 2019-12-05 삼성전자주식회사 An 3D image apparatus and method for generating a depth image in the 3D image apparatus
CN105453559B (en) * 2013-04-16 2017-12-29 点积公司 Handhold portable optical scanner and its application method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110102763A1 (en) * 2009-10-30 2011-05-05 Microvision, Inc. Three Dimensional Imaging Device, System and Method
US20130127854A1 (en) 2010-08-11 2013-05-23 Primesense Ltd. Scanning Projectors And Image Capture Modules For 3D Mapping
US20140022348A1 (en) 2010-11-19 2014-01-23 Primesense Ltd. Depth mapping using time-coded illumination

Also Published As

Publication number Publication date
CN112235522B (en) 2023-06-20
KR20160124666A (en) 2016-10-28
CN106067968B (en) 2020-10-30
CN106067968A (en) 2016-11-02
CN112235522A (en) 2021-01-15

Similar Documents

Publication Publication Date Title
US11650044B2 (en) CMOS image sensor for 2D imaging and depth measurement with ambient light rejection
US11924545B2 (en) Concurrent RGBZ sensor and system
KR102473740B1 (en) Concurrent rgbz sensor and system
US11431938B2 (en) Timestamp calibration of the 3D camera with epipolar line laser point scanning
US9661308B1 (en) Increasing tolerance of sensor-scanner misalignment of the 3D camera with epipolar line laser point scanning
US11131542B2 (en) CMOS image sensor for RGB imaging and depth measurement with laser sheet scan
KR102295485B1 (en) Timestamp error correction with double readout for the 3d camera with epipolar line laser point scanning
US11736832B2 (en) Timestamp calibration of the 3D camera with epipolar line laser point scanning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant