KR20100081195A - Image pickup apparatus and image control method thereof - Google Patents

Image pickup apparatus and image control method thereof Download PDF

Info

Publication number
KR20100081195A
KR20100081195A KR1020090000511A KR20090000511A KR20100081195A KR 20100081195 A KR20100081195 A KR 20100081195A KR 1020090000511 A KR1020090000511 A KR 1020090000511A KR 20090000511 A KR20090000511 A KR 20090000511A KR 20100081195 A KR20100081195 A KR 20100081195A
Authority
KR
South Korea
Prior art keywords
pixel
image sensor
image
data
phase
Prior art date
Application number
KR1020090000511A
Other languages
Korean (ko)
Other versions
KR101000200B1 (en
Inventor
김상조
이규태
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020090000511A priority Critical patent/KR101000200B1/en
Publication of KR20100081195A publication Critical patent/KR20100081195A/en
Application granted granted Critical
Publication of KR101000200B1 publication Critical patent/KR101000200B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PURPOSE: An image photographing device and an image control method thereof are provided to use 2D image sensor and sense a reflected signal from a signal, thereby displaying 3D image. CONSTITUTION: A control unit(130) controls transmitting/receiving timing of a light about a light source and an image sensor. The control unit receives pixel data from the image sensor. An image processor(132) obtains delay phase of transmitting/receiving signal from pixel data by unit pixel of a first pixel group and a second pixel group. The image processor obtains distance with an object. A display unit displays 3D image by the image processor.

Description

촬영 장치 및 이의 영상 제어방법{IMAGE PICKUP APPARATUS AND IMAGE CONTROL METHOD THEREOF}Image capturing device and image control method thereof {IMAGE PICKUP APPARATUS AND IMAGE CONTROL METHOD THEREOF}

실시 예는 촬영 장치 및 이의 영상 제어방법에 관한 것이다.The embodiment relates to a photographing apparatus and an image control method thereof.

3차원 영상 촬영 장치는 대상에 대한 3차원 영상 데이터를 제공하기 때문에, 일반 카메라, 가정용 서비스 로봇, 의학용 영상 기기, 보안 감시 시스템 등과 같은 다양한 분야에 사용되고 있다.Since the 3D imaging apparatus provides 3D image data about an object, it is used in various fields such as a general camera, a home service robot, a medical imaging device, a security surveillance system, and the like.

실시 예는 2차원 이미지 센서를 이용하여 물체로부터 반사된 신호를 감지하고 3차원 이미지로 디스플레이할 수 있도록 한 촬영 장치 및 이를 이용한 영상 제어방법을 제공한다.The embodiment provides a photographing apparatus and a method of controlling an image using the same, which enable a 2D image sensor to detect a signal reflected from an object and display the 3D image.

실시 예는 이미지 센서의 인접한 복수개의 픽셀 중 어느 한 픽셀에 위상 지연판을 배치하여, 복수개의 픽셀 데이터의 상관 함수로부터 송/수신 신호의 지연 위상 및 거리 차를 계산할 수 있도록 한 촬영 장치 및 이를 이용한 영상 제어방법을 제공한다.According to an embodiment of the present invention, a phase retardation plate is disposed on one of a plurality of adjacent pixels of an image sensor, and an image pickup device and a distance difference of a transmission / reception signal can be calculated from a correlation function of a plurality of pixel data. Provides an image control method.

실시 예에 따른 촬영장치는, 변조된 광을 송신하는 광원; 물체로부터 반사광을 수집하는 렌즈; 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 교차되게 배열되며, 상기 렌즈를 통해 수신된 반사광을 수신하고 상기 광원의 송신 주기에 각 픽셀당 복수개의 픽셀 데이터를 출력하는 이미지 센서; 상기 광원 및 이미지 센서에 대한 광의 송/수신 타이밍을 제어하고, 상기 이미지 센서로부터 픽셀 데이터를 입력받는 제어부; 상기 제어부를 통해 입력된 픽셀 데이터 중 제1픽셀 그룹과 제2픽셀 그룹의 단위 픽셀별 픽셀 데이터로부터 송/수신 신호의 지연 위상 및 물체와의 거리를 구하는 이미지 프로세서; 상기 이미지 프로세서에 의해 3차원 이미지로 표시하는 표시부를 포함한다.According to an embodiment, an image photographing apparatus includes a light source for transmitting modulated light; A lens collecting the reflected light from the object; An image sensor arranged to intersect the pixels of the first pixel group and the second pixel group having the phase delay means, for receiving the reflected light received through the lens and outputting a plurality of pixel data for each pixel in the transmission period of the light source ; A control unit controlling transmission / reception timing of light to the light source and the image sensor and receiving pixel data from the image sensor; An image processor obtaining a delay phase of a transmission / reception signal and a distance between an object from pixel data of unit pixels of a first pixel group and a second pixel group among pixel data input through the controller; And a display unit displaying the 3D image by the image processor.

실시 예에 따른 촬영장치의 영상 제어방법은, 변조된 광을 송신하는 단계; 이미지 센서의 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 통해 상기 물체로부터 반사된 광을 수신하며, 수신된 제1픽셀 그룹과 제2픽셀 그룹의 픽셀 데이터를 출력하는 단계; 상기 이미지 센서의 제1픽셀 그룹과 이에 인접한 제2픽셀 그룹의 단위 픽셀별 픽셀 데이터를 이용하여 송/수신 신호의 지연 위상 및 거리 차를 구하는 단계; 상기 이미지 센서의 픽셀 데이터와 거리 차를 이용하여 3차원 이미지를 표시하는 단계를 포함한다.An image control method of an imaging apparatus according to an embodiment includes transmitting modulated light; Receiving light reflected from the object through pixels of a first pixel group of an image sensor and a second pixel group having a phase delay means, and outputting pixel data of the received first pixel group and the second pixel group; Obtaining a delay phase and a distance difference of a transmission / reception signal using pixel data of each unit pixel of a first pixel group of the image sensor and a second pixel group adjacent thereto; And displaying a 3D image by using a distance difference from the pixel data of the image sensor.

실시 예는 2차원 이미지 센서를 이용하여 3차원 이미지를 표현할 수 있는 효과가 있다. The embodiment has the effect of expressing a 3D image using a 2D image sensor.

실시 예는 3차원 카메라를 이용하지 않고 3차원 이미지를 표현할 수 있는 효과가 있다.The embodiment has the effect of expressing a 3D image without using a 3D camera.

이하, 실시 예에 대하여 첨부된 도면을 참조하여 설명하면 다음과 같다.Hereinafter, exemplary embodiments will be described with reference to the accompanying drawings.

도 1은 실시 예에 따른 촬영 장치를 나타낸 도면이다.1 is a diagram illustrating a photographing apparatus according to an exemplary embodiment.

도 1을 참조하면, 촬영 장치(100)는 광원(110), 셔터(120), 렌즈(122), 이미지 센서(124), 제1아날로그 디지털 변환부(126), 제2아날로그 디지털 변환부(128), 제어부(130), 이미지 프로세서(132), 메모리(134), 표시부(136)를 포함한다.Referring to FIG. 1, the photographing apparatus 100 includes a light source 110, a shutter 120, a lens 122, an image sensor 124, a first analog digital conversion unit 126, and a second analog digital conversion unit ( 128, a controller 130, an image processor 132, a memory 134, and a display unit 136.

상기 광원(110)은 레이저 또는 LED(Light emitting device) 어레이를 포함하며, 상기 제어부(130)의 제어를 받아 구동된다. 상기 광원(110)에서 조사된 광은 물체(115)에 반사되어 상기 셔터(120)를 통해 렌즈(120)로 입사된다. 상기 광 원(110)은 단일개로 상기 이미지 센서(124)의 어느 일측에 배치되거나 복수개가 양측에 배치될 수 있다.The light source 110 includes a laser or a light emitting device (LED) array and is driven under the control of the controller 130. The light irradiated from the light source 110 is reflected by the object 115 and is incident on the lens 120 through the shutter 120. The light source 110 may be provided in a single unit on one side of the image sensor 124 or a plurality of light sources 110 on both sides.

상기 광원(110)은 소정 주파수로 변조된 광 신호를 발생하게 되는 데, 예컨대 20MHz의 변조 주파수를 출력할 수 있으며, 이러한 변조 주파수는 거리에 따라 달라질 수 있으며, 상기 주파수로 한정하지는 않는다.The light source 110 generates an optical signal modulated at a predetermined frequency. For example, the light source 110 may output a modulation frequency of 20 MHz. The modulation frequency may vary with distance, but is not limited to the frequency.

상기 셔터(120)는 상기 제어부(130)의 제어를 받아, 상기 셔터(120)의 여닫는 시간을 길게 또는 짧게 조절할 수 있으며, 상기 렌즈(122)를 통해 입사되는 광의 양을 조절하는 기능을 한다. 또한 상기 셔터(120)는 상기 렌즈(122)의 전단 또는/및 후단에 배치될 수 있으며, 이에 대해 한정하지는 않는다. 상기 렌즈(122)는 상기 물체로부터 반사된 광을 상기 이미지 센서(124)에 제공하게 된다. Under the control of the controller 130, the shutter 120 may adjust the opening and closing time of the shutter 120 to be long or short, and to adjust the amount of light incident through the lens 122. In addition, the shutter 120 may be disposed at a front end and / or a rear end of the lens 122, but is not limited thereto. The lens 122 provides the light reflected from the object to the image sensor 124.

도 1 및 도 2를 참조하면, 상기 이미지 센서(124)는 단일개의 2차원 이미지 센서로서, CMOS(complementary metal-oxide semiconductor)로 구현될 수 있으며, 다수개의 픽셀이 매트릭스 형태로 어레이된 구조이다. 각 픽셀(P)은 광 검출소자(예: 포토 다이오드) 및 스위치 소자를 포함하며, 상기 광 검출 소자는 상기 스위치 소자에 의해 온/오프되며, 광을 전기적인 신호로 변환하게 된다.1 and 2, the image sensor 124 is a single two-dimensional image sensor, which may be implemented as a complementary metal-oxide semiconductor (CMOS), and a plurality of pixels are arranged in a matrix. Each pixel P includes a photodetector (eg, a photodiode) and a switch. The photodetector is turned on and off by the switch and converts light into an electrical signal.

상기 이미지 센서(124)는 CCD(Charge-coupled device)로 구현될 수 있으며, N*N 픽셀의 해상도(N ≥ 2)로 구현될 수 있으며, 이에 대해 한정하지는 않는다. The image sensor 124 may be implemented as a charge-coupled device (CCD), and may be implemented with a resolution of N * N pixels (N ≧ 2), but is not limited thereto.

상기 이미지 센서(124)의 픽셀 어레이에는 제1픽셀(P1)과 제2픽셀(P2)의 순서로 어레이되는 홀수 필드와, 상기 제2픽셀(P2)와 제1픽셀(P1)의 순서로 어레이되는 짝수 필드로 구성되며, 상기 홀수 필드와 짝수 필드의 픽셀들은 서로 교차되게 배치된다. 상기 제2픽셀(P2) 위에는 위상 지연판(W1)이 배치되고, 상기 제2픽셀(P2)의 좌/우/상/하 위치에는 제1픽셀(P1)이 배치된 구조이다. The pixel array of the image sensor 124 includes an odd number field arranged in the order of the first pixel P1 and the second pixel P2, and the array of the second pixel P2 and the first pixel P1 in the order. The odd field and the even field pixels are arranged to cross each other. The phase retardation plate W1 is disposed on the second pixel P2, and the first pixel P1 is disposed at left, right, top, and bottom positions of the second pixel P2.

여기서, 상기 제2픽셀(P2) 위 또는 광 검출소자 위에는 광이 입사되는 위치에 위상 지연판(W1)이 배치될 수 있으며, 상기 위상 지연판(W1)은 λ/2의 위상 지연값 또는 λ/4 위상 지연 값을 가지게 된다. 이에 따라 상기 제2픽셀(P2)에 수신된 신호의 위상은 상기 제1픽셀(P1)에 수신된 신호에 비해 적어도 λ/2 또는 λ/4로 지연될 수 있다. Here, the phase retardation plate W1 may be disposed on the second pixel P2 or the photodetector at a position where light is incident, and the phase retardation plate W1 may have a phase retardation value of λ / 2 or λ. It will have a / 4 phase delay value. Accordingly, the phase of the signal received at the second pixel P2 may be delayed by at least λ / 2 or λ / 4 relative to the signal received at the first pixel P1.

상기 위상 지연판(W1)이 없는 제1픽셀(P1)의 그룹은 제1픽셀 그룹(124A)으로, 상기 위상 지연판(W1)을 갖는 제2픽셀(P2)의 그룹은 제2픽셀 그룹(124B)으로 정의할 수 있다.The group of the first pixels P1 without the phase retardation plate W1 is a first pixel group 124A, and the group of the second pixels P2 with the phase retardation plate W1 is a second pixel group ( 124B).

또한 상기 이미지 센서(124)의 각 픽셀(P)은 일반적인 제1픽셀(P1)과 소정 위상이 지연된 신호를 검출하는 제2픽셀(P2)을 단위 픽셀(P3)로 정의할 수 있다. In addition, each pixel P of the image sensor 124 may define a general first pixel P1 and a second pixel P2 for detecting a signal having a predetermined phase delay as the unit pixel P3.

상기 이미지 센서(124)는 상기 제어부(130)의 제어신호(S1,S2)에 의해 상기 광 검출 소자가 온/오프되며, 상기 광 검출 소자는 상기 렌즈(122)를 통해 입사된 광을 전기신호로 변환하여 출력하게 된다. 이때 상기 이미지 센서(124)는 행 및 열에 배치된 드라이버(Driver)에 의해 각 픽셀(P)의 스위치 소자가 온되어 광 검출 소자(예: Photo Diode)를 구동시켜 준다. The image sensor 124 is turned on / off by the control signal (S1, S2) of the control unit 130, the photodetector is an electrical signal to the light incident through the lens 122 The output will be converted to. In this case, the image sensor 124 is turned on by the driver (driver) arranged in the row and column to turn on the switch element of each pixel (P) to drive the light detection element (for example, Photo Diode).

상기 이미지 센서(124)는 전체 픽셀이 일정 주기로 구동되어, 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 신호를 출력하게 된다.The image sensor 124 drives all pixels at regular cycles to output pixel signals of the first pixel group 124A and the second pixel group 124B.

상기 제1아날로그 디지털 변환부(126)는 상기 이미지 센서(124)에서 제1픽셀 그룹(124A)의 신호를 디지털 데이터로 변환하여 출력하게 된다. 상기 제2아날로그 디지털 변환부(128)는 상기 이미지 센서(124)에서 제2픽셀 그룹(124B)의 신호를 디지털 데이터로 변환하여 출력하게 된다. The first analog digital converter 126 converts the signal of the first pixel group 124A into digital data in the image sensor 124 and outputs the digital data. The second analog digital converter 128 converts the signal of the second pixel group 124B into digital data in the image sensor 124 and outputs the digital data.

즉, 상기 이미지 센서(124)의 픽셀 신호는 제1픽셀 그룹(124A)의 데이터 및 제2픽셀 그룹(124B)의 데이터로서, 디지털 데이터로 변환된 후 상기 제어부(130)에 전달된다. 상기 상기 제어부(130)에는 시리얼 방식으로 상기 디지털 데이터가 입력된다. 이때 상기 각 픽셀 데이터에는 페리트 체크 비트(parity check bit)를 추가하여, 각 픽셀 데이터의 그룹 및 픽셀을 구분할 수 있다.That is, the pixel signal of the image sensor 124 is data of the first pixel group 124A and data of the second pixel group 124B, and is converted into digital data and then transmitted to the controller 130. The digital data is input to the controller 130 in a serial manner. In this case, a parity check bit may be added to each pixel data to distinguish a group and a pixel of each pixel data.

상기 제1아날로그 디지털 변환부(126) 및 상기 제2아날로그 디지털 변환부(128)는 상기 이미지 센서(124)에 구현될 수 있으며, 이에 대해 한정하지는 않는다.The first analog digital converter 126 and the second analog digital converter 128 may be implemented in the image sensor 124, but are not limited thereto.

상기 제어부(130)는 광원(110), 셔터(120), 이미지 센서(124), 이미지 프로세서(132), 메모리(134) 등의 동작을 제어하며, 상기 광원(110)과 상기 이미지 센서(124)의 동작 타이밍을 제어하여 송/수신 신호간의 동기를 맞추어 주게 된다. The controller 130 controls operations of the light source 110, the shutter 120, the image sensor 124, the image processor 132, the memory 134, and the like, and the light source 110 and the image sensor 124. ), The timing of operation is controlled to synchronize the transmission / reception signal.

또한 상기 제어부(130)는 상기 이미지 프로세서(132)의 제어를 받아, 상기 이미지 센서(124)로부터 데이터를 읽어오는 스캐닝 타이밍을 제어받게 된다. 상기 제어부(130)는 2탭 픽셀 아키텍쳐 방식으로 이미지 센서(124)의 각 픽셀(P)을 스캐닝하는 데, 이는 매 클럭당 즉, 변조 주기마다 2개의 픽셀 데이터를 출력하는 방식이다. In addition, the controller 130 is controlled by the image processor 132 to control the scanning timing of reading data from the image sensor 124. The controller 130 scans each pixel P of the image sensor 124 in a two-tap pixel architecture, which outputs two pixel data every clock, that is, every modulation period.

상기 제어부(130)는 상기 제1아날로그 디지털 변환부(126) 및 상기 제2아날 로그 디지털 변환부(128)의 디지털 데이터를 상기 이미지 프로세서(132)로 전달한다. The controller 130 transmits the digital data of the first analog digital converter 126 and the second analog digital converter 128 to the image processor 132.

상기 제어부(130)는 상기 이미지 프로세서(132)의 제어를 받아 상기 이미지 센서(124)의 스캐닝을 제어하게 된다. 즉, 제1픽셀 그룹(124A)의 데이터와 제2픽셀 그룹(124B)의 데이터를 입력받게 된다. 예컨대, 상기 송신 신호(또는 변조 신호)의 1/2주기마다 제1픽셀(P1) 그룹(124A)의 데이터와 제2픽셀(P2) 그룹(124B)의 데이터를 스캐닝하고, 그 스캐닝된 각 픽셀 그룹별 데이터를 전달받게 된다. 이에 따라 변조 1주기 동안 각 픽셀로부터 2개의 데이터를 입력받게 된다.The controller 130 controls the scanning of the image sensor 124 under the control of the image processor 132. That is, data of the first pixel group 124A and data of the second pixel group 124B are received. For example, the data of the first pixel P1 group 124A and the data of the second pixel P2 group 124B are scanned at every half period of the transmission signal (or modulated signal), and each scanned pixel is scanned. Receive data by group. Accordingly, two data are received from each pixel during one modulation period.

상기 이미지 프로세서(132)는 상기 수신된 제1픽셀(P1) 그룹(124A)의 데이터와 제2픽셀(P2) 그룹(124B)의 데이터를 메모리(134)에 저장하고, 2탭 픽셀 아키텍쳐 방식으로 픽셀 그룹별 단위 픽셀당 2개의 데이터씩 4개의 샘플링 데이터의 상관 함수를 계산하게 된다. The image processor 132 stores the received data of the first pixel P1 group 124A and the data of the second pixel P2 group 124B in the memory 134 and uses a two-tap pixel architecture. The correlation function of four pieces of sampling data is calculated, with two pieces of data per unit pixel per pixel group.

즉, 상기 이미지 프로세서(132)은 상기 변조된 송신 신호의 주파수 및 송신 시점과, 상기 송신 신호의 각 주기마다 상기 물체를 통해 반사된 수신 신호의 샘플링 데이터를 상기 이미지 센서(124)로부터 구하여, 상기 송신 신호와 수신 신호 사이의 컨볼루션(convolution) 합을 통해 상기 송/수신 신호 간의 지연 위상을 계산할 수 있게 된다. 상기 지연 위상은 송신 신호와 수신 신호 사이의 위상 차로서, 상기 단위 픽셀의 지연 위상을 통해 물체(115)와의 거리를 구할 수 있으며, 전체 픽셀 영역에 적용하여 3차원 영상 데이터로 표시부(136)에 표시할 수 있게 된다. That is, the image processor 132 obtains, from the image sensor 124, the frequency and transmission time of the modulated transmission signal and sampling data of the reception signal reflected through the object at each period of the transmission signal. The convolution sum between the transmit signal and the receive signal makes it possible to calculate the delay phase between the transmit and receive signals. The delay phase is a phase difference between the transmission signal and the reception signal. The delay phase is a distance from the object 115 through the delay phase of the unit pixel. The delay phase is applied to the entire pixel area to the display unit 136 as three-dimensional image data. It becomes possible to display.

상기 이미지 프로세서(132)는 상기 영상 데이터를 처리하여 상기 표시 부(136)에 3차원 이미지로 표시해 주게 된다. 상기 이미지 프로세서(132)는 인터페이스 수단(예: 케이블, USB 케이블 등)을 이용하여 정보 처리 단말기 예컨대, 컴퓨터, PDA 등에 연결될 수 있다.The image processor 132 processes the image data and displays the 3D image on the display unit 136. The image processor 132 may be connected to an information processing terminal such as a computer, a PDA, etc. using an interface means (eg, a cable, a USB cable, etc.).

상기 촬영 장치(100)는 광원(110)의 반사 시간을 이용한 타임-오브-플라이트(time of flight, TOF라 함) 방식이 사용된다. 상기 TOF 방식은 광원(110)을 물체(115)에 순차적으로 주사하고, 상기 물체(110)에 반사된 광의 도달 속도를 기록하여 물체의 굴곡정보를 저장할 수 있는 방법이다. 즉, 물체(115)에서 오목한 부분은 볼록한 부분보다 도달 및 반사 거리가 상대적으로 길기 때문에, 도달 및 반사 시간이 상대적으로 길어지게 되므로, 각 지점에 대한 도달되는 위상을 이미지 센서의 각 픽셀을 통해 검출하고, 픽셀 간의 지연 위상 및 거리 데이터를 구하여, 3차원 이미지로 표시할 수 있다.The photographing apparatus 100 uses a time-of-flight (TOF) method using a reflection time of the light source 110. The TOF method sequentially scans the light source 110 to the object 115, records the arrival speed of the light reflected by the object 110, and stores the bending information of the object. That is, since the concave portion of the object 115 has a relatively longer reach and reflection distance than the convex portion, the arrival and reflection times become relatively long, so that the detected phase for each point is detected through each pixel of the image sensor. The delay phase and distance data between pixels can be obtained and displayed in a three-dimensional image.

보다 구체적으로, 수신된 신호로부터 지연 위상 및 거리 차를 측정하기 위한 각 픽셀의 샘플링 데이터는 다음과 같이 구할 수 있다. More specifically, the sampling data of each pixel for measuring the delay phase and the distance difference from the received signal can be obtained as follows.

도 2에 도시된 바와 같이, 이미지 센서의 다수개의 픽셀 구조에서 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 데이터를 읽는 데, 예컨대 제1픽셀 그룹(124A)의 한 픽셀(P1)과 제2픽셀 그룹(124B)의 한 픽셀(P2)을 하나의 단위 픽셀(P3)로 정의하고, 상기 단위 픽셀(P3)을 송신 신호의 1주기 동안 2회(즉, 1/2주기)에 걸쳐 읽어오게 된다. As shown in FIG. 2, the pixel data of the first pixel group 124A and the second pixel group 124B is read in a plurality of pixel structures of the image sensor, for example, one pixel (eg, one pixel of the first pixel group 124A). P1) and one pixel P2 of the second pixel group 124B are defined as one unit pixel P3, and the unit pixel P3 is defined twice in one cycle of the transmission signal (that is, 1/2 cycle). Is read through).

도 2 및 도 3을 참조하면, 송신 신호(Se)는 일정 레벨(Po)을 갖는 변조 주파수로 출력되며, 상기 수신 신호(Sd)는 상기 송신 신호(Se)가 물체로부터 반사되어 수신된 신호로서 소정 지연된 신호로 이미지 센서의 각 픽셀(P)에 검출될 수 있다. 상기 수신 신호의 기준 레벨(D1)은 밝기 정보를 포함한다.2 and 3, the transmission signal Se is output at a modulation frequency having a predetermined level Po, and the reception signal Sd is a signal received by reflecting the transmission signal Se from an object. Each pixel P of the image sensor may be detected as a predetermined delayed signal. The reference level D1 of the received signal includes brightness information.

송신 신호(Se)와 수신 신호(Sd)는 물체와의 거리에 대응되는 소정의 지연 위상(φ)를 가지게 된다. 이러한 지연 위상(φ)은 송신 신호의 정보, 상기 단위 픽셀(P3)로부터 검출된 픽셀 데이터 즉, 샘플링 데이터의 상관 함수를 통해 구하게 된다.The transmission signal Se and the reception signal Sd have a predetermined delay phase φ corresponding to the distance from the object. The delay phase φ is obtained through the correlation function of the information of the transmission signal and the pixel data detected from the unit pixel P3, that is, the sampling data.

상기 송신 신호(Se)의 1주기(1T) 동안 상기 이미지 센서의 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀들을 반주기(T/2) 간격으로 2회에 걸쳐 스캐닝되며, 상기 스캐닝된 상기 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 데이터인 4개의 샘플링 데이터 A0, A1, A2, A3를 검출하게 된다. 즉, 첫번째 스캐닝시 제1픽셀(P1)로부터 A0를 구하고, 제2픽셀(P2)로부터 A1를 구하게 되며, 두번째 스캐닝시 제1픽셀(P1)로부터 A2를 구하고, 제2픽셀(P2)로부터 A3를 구하게 된다. 이에 따라 도 3의 (나)와 같이, 상기 제1픽셀(P1)은 A0,A2를 출력하고, 상기 제2픽셀(P2)은 A1,A3를 출력하게 된다. 상기 A0와 A1, 상기 A2와 A3 사이의 위상 차이는 상기 위상 지연판의 지연 위상만큼 차이가 날 수 있다. During the first period 1T of the transmission signal Se, the pixels of the first pixel group 124A and the second pixel group 124B of the image sensor are scanned twice at intervals of a half period (T / 2), Four sampling data A0, A1, A2, and A3 which are pixel data of the scanned first pixel group 124A and the second pixel group 124B are detected. In other words, A0 is obtained from the first pixel P1 during the first scanning, A1 is obtained from the second pixel P2, A2 is obtained from the first pixel P1 during the second scanning, and A3 from the second pixel P2. Will be obtained. Accordingly, as shown in FIG. 3B, the first pixel P1 outputs A0 and A2, and the second pixel P2 outputs A1 and A3. The phase difference between the A0 and A1 and the A2 and A3 may differ by the delay phase of the phase delay plate.

도 3의 (다)와 같이, 상기 샘플링 데이터 A0,A1와 A2,A3는 송신 신호의 1/2 주기씩 스캐닝하여 인접한 단위 픽셀(P3)로부터 A0,A1와 A2,A3의 데이터 순서로 검출될 수 있다. As shown in (c) of FIG. 3, the sampling data A0, A1, A2, and A3 are scanned in half a period of the transmission signal to be detected in the data order of A0, A1, A2, A3 from the adjacent unit pixel P3. Can be.

도 4를 참조하면, 단위 픽셀(P3)의 제1픽셀(P1)에는 물체에서 반사된 광이 정상적으로 수신되므로, 샘플링 데이터 A0와 A2를 검출할 수 있다. 상기 단위 픽 셀(P3)의 제2픽셀(P2)에는 물체에서 반사된 광이 위상 지연 수단(W1)에 의해 지연되어 수신되므로, 샘플링 데이터 A1과 A3를 검출할 수 있다. 여기서, 상기 샘플링 데이터 A0와 A1, A2와 A3는 위상 지연 수단(W1)과 반사된 광에 따라 소정의 위상 차이가 존재하게 된다. Referring to FIG. 4, since the light reflected from the object is normally received in the first pixel P1 of the unit pixel P3, the sampling data A0 and A2 may be detected. Since the light reflected from the object is received by the phase delay means W1 in the second pixel P2 of the unit pixel P3, sampling data A1 and A3 can be detected. Here, the sampling data A0 and A1, A2 and A3 have a predetermined phase difference according to the phase delay means W1 and the reflected light.

이하, 지연 위상 및 거리 측정 방법에 대해 설명하면 다음과 같다.Hereinafter, the delay phase and the distance measuring method will be described.

상기에서 4개의 샘플링 데이터가 구해지면, 상기 송/수신 신호의 컨볼루션 합을 구하여 각 샘플링 데이터의 위상에 따른 상관 함수를 구하여 송신 신호와 수신 신호 사이의 지연 위상을 구하게 된다.When four pieces of sampling data are obtained, a convolution sum of the transmission / reception signals is obtained to obtain a correlation function according to the phase of each sampling data to obtain a delay phase between the transmission signal and the reception signal.

상기 수신된 신호의 위상은 이미지 센서의 각 픽셀 내에 수신된 광을 동시에 복조함으로써 검출될 수 있으며, 상기 복조는 변조 신호의 주기 내에서 상관 또는 상호 상관 값에 의해 구해질 수 있다. The phase of the received signal can be detected by demodulating the light received within each pixel of the image sensor simultaneously, and the demodulation can be obtained by correlation or cross correlation values within the period of the modulated signal.

상기 상호 상관 값(

Figure 112009000395516-PAT00001
)은 복조 신호 또는 상관 신호(g(t))와 수신 신호(s(t))의 컨볼루션 합으로 구해진다. 이는 수학식 1과 같이 구해질 수 있다.The cross-correlation value (
Figure 112009000395516-PAT00001
Is obtained by the convolution sum of the demodulated signal or correlation signal g (t) and the received signal s (t). This may be obtained as in Equation 1.

Figure 112009000395516-PAT00002
Figure 112009000395516-PAT00002

상기 상관 신호(g(t))와 상기 수신신호(s(t))는 수학식 2와 같이 주어질 수 있다.The correlation signal g (t) and the received signal s (t) may be given by Equation 2.

Figure 112009000395516-PAT00003
Figure 112009000395516-PAT00003

여기서, 상기 s(t)는 수신된 광 신호이며, g(t)는 복조 신호(상관 신호)이며, a는 변조도(modulation amplitude)이며,

Figure 112009000395516-PAT00005
은 지연 위상을 나타낸다. Here, s (t) is a received optical signal, g (t) is a demodulation signal (correlation signal), a is a modulation amplitude (modulation amplitude),
Figure 112009000395516-PAT00005
Denotes the delay phase.

그리고, 상관 함수(correlation function)(C(τ))는 상기 상호 상관 값(

Figure 112009000395516-PAT00006
)이 되며, 상기 수학식 2의 상기 수신된 광 신호와 상기 복조 신호를 대입하여 구하게 되며, 이는 수학식 3과 같이 구해진다.The correlation function C (τ) is the cross-correlation value (
Figure 112009000395516-PAT00006
) Is obtained by substituting the received optical signal and the demodulation signal of Equation (2).

Figure 112009000395516-PAT00007
Figure 112009000395516-PAT00007

Figure 112009000395516-PAT00008
Figure 112009000395516-PAT00008

Figure 112009000395516-PAT00009
Figure 112009000395516-PAT00009

상기 상관 함수(C(τ))는 4개의 샘플링 데이터의 위상(

Figure 112009000395516-PAT00010
)을 갖는 함수로 계산될 수 있으며, 상기 4개의 샘플링 데이터의 위상은
Figure 112009000395516-PAT00011
= 0°,
Figure 112009000395516-PAT00012
=90°,
Figure 112009000395516-PAT00013
=180°,
Figure 112009000395516-PAT00014
=270° 이 적용될 수 있으며, 수신된 신호의 위상과 증폭도를 재 계산할 수 있다. 또한 상기 상관 함수(C(τ))에는 실제 측정된 값을 획득하기 위해 오프셋(K) 값을 더해진다.The correlation function C (τ) is a phase of four sampling data (
Figure 112009000395516-PAT00010
And the phase of the four sampling data
Figure 112009000395516-PAT00011
= 0 °,
Figure 112009000395516-PAT00012
= 90 °,
Figure 112009000395516-PAT00013
= 180 °,
Figure 112009000395516-PAT00014
= 270 ° can be applied and the phase and amplification of the received signal can be recalculated. The correlation function C (τ) is also added with an offset K value to obtain the actual measured value.

각 샘플링 데이터(AO,A1,A2,A3)의 상관 함수는 수학식 4와 같이 구해질 수 있다. 각 샘프링 데이터의 위상별 상관 함수는 실제 4개의 샘플링 데이터의 값이다.The correlation function of each sampling data (AO, A1, A2, A3) can be obtained as shown in Equation 4. The correlation function for each phase of each sampling data is actually four sampling data values.

Figure 112009000395516-PAT00015
Figure 112009000395516-PAT00015

상기 C(τ0)는 A0의 상관 함수이며, C(τ1)는 A0의 상관 함수이며, C(τ2)는 A0의 상관 함수이며, C(τ3)는 A0의 상관 함수가 된다. C (τ 0 ) is a correlation function of A 0 , C (τ 1 ) is a correlation function of A 0, C (τ 2 ) is a correlation function of A 0, and C (τ 3 ) is a correlation function of A 0.

상기 오프셋 값(K)는 수학식 5와 같이 구해질 수 있다. The offset value K may be obtained as shown in Equation 5.

Figure 112009000395516-PAT00016
Figure 112009000395516-PAT00016

상기 4개의 샘플링 데이터의 상관 함수가 구해지면, 상기 수신된 신호(s(t))의 지연 위상(

Figure 112009000395516-PAT00017
)과 증폭도(a)는 수학식 6과 같이 구해질 수 있다.When the correlation function of the four sampling data is obtained, the delay phase of the received signal s (t)
Figure 112009000395516-PAT00017
And amplification degree (a) can be obtained as shown in Equation 6.

Figure 112009000395516-PAT00018
Figure 112009000395516-PAT00018

Figure 112009000395516-PAT00019
Figure 112009000395516-PAT00019

상기 지연 위상(

Figure 112009000395516-PAT00020
)은 각 단위 픽셀에서의 물체와의 위상 차를 나타내는 값이며, 상기 증폭도 a는 물체의 깊이 해상도의 직접 측정치 또는 이미지 센서의 자동 이득 제어 값을 선정하기 위한 기준 값으로 이용될 수 있다.The delay phase (
Figure 112009000395516-PAT00020
) Is a value representing a phase difference with an object in each unit pixel, and the amplification degree a may be used as a reference value for selecting a direct measurement of the depth resolution of the object or an automatic gain control value of the image sensor.

상기 지연 위상(

Figure 112009000395516-PAT00021
)과 증폭도(a)가 구해지면, 물체와의 거리(D)를 구할 수 있게 된다. 이러한 물체와의 거리(D)는 물체와의 깊이 데이터로 표현될 수 있으며, 상기 깊이 데이터는 깊이 차이에 따라 서로 다른 색으로 처리함으로써, 3차원 이미지 데이터로 구현할 수 있게 된다. The delay phase (
Figure 112009000395516-PAT00021
) And the amplification degree (a), the distance (D) from the object can be obtained. The distance D to the object may be expressed as depth data with the object, and the depth data may be processed into different colors according to the depth difference, thereby realizing the 3D image data.

물체와의 거리는 수학식 7과 같이 구해질 수 있다.The distance from the object may be obtained as shown in Equation 7.

Figure 112009000395516-PAT00022
Figure 112009000395516-PAT00022

Figure 112009000395516-PAT00023
Figure 112009000395516-PAT00023

상기 D는 물체와의 거리이며, 상기 L은 불명료한 거리 범위(non-ambiguity distance range)이며, c는 광속이며, fm은 RF 변조 주파수이다. Where D is the distance to the object, L is the non-ambiguity distance range, c is the luminous flux, and fm is the RF modulation frequency.

이러한 방식으로 단위 픽셀들에 대한 지연 위상과 거리 차를 계산할 수 있다. 실시 예는 이미지 센서에 정상적인 광을 수신하는 제1픽셀과 위상 지연수단에 의해 위상이 지연된 광을 수신하는 제2픽셀을 2탭 픽셀 아키텍쳐 방식으로 스캐닝하고, 4개의 샘플링 데이터를 구한 후, TOF 방식으로 물체로부터 반사된 신호의 지연 위상 및 거리 차를 계산할 수 있으며, 이러한 거리 차를 전체 픽셀 영역에 적용하여 물체의 굴곡 정보를 정확하게 표현할 수 있는 3차원 이미지 데이터로 구현할 수 있다. 즉, 2차원 이미지 센서를 이용하여 3차원 이미지로 표현할 수 있다.In this way, the delay phase and distance difference for the unit pixels can be calculated. The embodiment scans a first pixel for receiving normal light in the image sensor and a second pixel for receiving light whose phase is delayed by the phase delay means in a 2-tap pixel architecture, obtains four sampling data, and then applies a TOF method. The delay phase and the distance difference of the signal reflected from the object can be calculated, and the distance difference can be applied to the entire pixel area to implement 3D image data that can accurately express the bending information of the object. That is, it can be expressed as a three-dimensional image using a two-dimensional image sensor.

도 5는 실시 예에 따른 촬영 장치를 이용한 영상 제어방법을 나타낸 흐름도이다.5 is a flowchart illustrating an image control method using a photographing apparatus according to an exemplary embodiment.

도 5를 참조하면, 광원에서 변조된 광이 물체로부터 반사되며, 그 반사된 광은 렌즈를 통해 이미지 센서에 수신된다(S101).Referring to FIG. 5, light modulated by a light source is reflected from an object, and the reflected light is received by the image sensor through a lens (S101).

상기 이미지 센서의 픽셀 어레이에는 제1픽셀과 위상 지연판이 배치된 제2픽셀의 순서로 어레이되는 홀수 필드, 상기 홀수 필드의 픽셀 순서와 다른 순서로 어레이되는 짝수 필드로 구성되어, 상기 홀수 필드와 짝수 필드의 동일 픽셀들은 서로 어긋나게 배치된다. 즉, 상기 제2픽셀의 좌/우/상/하 위치에는 제1픽셀이 배치된 구조이다. The pixel array of the image sensor includes an odd field arranged in an order of a first pixel and a second pixel in which a phase delay plate is disposed, and an even field arranged in an order different from the pixel order of the odd field, and the even field and the even field Identical pixels in the field are arranged offset from each other. That is, the first pixel is disposed at left, right, up, and down positions of the second pixel.

상기 이미지 센서는 인접한 2개의 픽셀 즉, 제1픽셀과 제2픽셀을 단위 픽셀로 하여 각 픽셀에서 송신 신호의 변조주기에 2개의 픽셀 데이터로 스캔하게 된다(S103). 이때 단위 픽셀 중 제1픽셀은 물체로부터 반사된 정상적인 광을 수신하며, 제2픽셀은 위상 지연판에 의해 지연된 광을 수신하게 된다. 상기 제1픽셀 및 제2픽셀에 의해 스캔된 픽셀 데이터는 제어부를 통해 이미지 프로세서로 출력된다.The image sensor scans two pixel data in the modulation period of the transmission signal in each pixel by using two adjacent pixels, that is, the first pixel and the second pixel as unit pixels (S103). At this time, the first pixel of the unit pixel receives the normal light reflected from the object, the second pixel receives the light delayed by the phase delay plate. The pixel data scanned by the first and second pixels is output to the image processor through the control unit.

상기 이미지 프로세서는 단위 픽셀의 제1픽셀과 제2픽셀로부터 입력된 픽셀 데이터를 구하게 되며(S105), 상기 구해진 4개의 픽셀 데이터(즉, 샘플링 데이터)의 상관함수를 구하고, 송/수신 신호의 지연 위상 및 거리 차를 구하게 된다(S107). 이때 4개의 샘플링 데이터의 상관 함수는 상기의 수학식 1 내지 수학식 4를 통해 구할 수 있으며, 이에 대한 설명은 생략하기로 한다. 그리고, 수학식 5를 통해 4개의 샘플링 데이터의 상관 함수를 이용하여 송/수신 신호의 지연 위상 및 그 지연 위상을 이용한 물체와의 거리 차를 구하게 된다. 이러한 2개의 픽셀을 이용한 각 단위 픽셀의 지연 위상과 거리 차를 전체 픽셀에 반영함으로써, 3차원 이미지를 구현할 수 있게 된다(S109).The image processor obtains pixel data input from a first pixel and a second pixel of a unit pixel (S105), obtains a correlation function of the obtained four pixel data (ie, sampling data), and delays a transmission / reception signal. The difference in phase and distance is obtained (S107). In this case, the correlation function of the four sampling data may be obtained through Equation 1 to Equation 4, and description thereof will be omitted. In addition, through Equation 5, the delay phase of the transmission / reception signal and the distance difference between the object using the delay phase are obtained by using a correlation function of four sampling data. By reflecting the difference between the delay phase and the distance of each unit pixel using the two pixels to the entire pixel, it is possible to implement a three-dimensional image (S109).

이상에서 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. Although the present invention has been described above with reference to the embodiments, these are merely examples and are not intended to limit the present invention. It will be appreciated that various modifications and applications are not illustrated.

예를 들어, 본 발명의 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부 된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.For example, each component shown in detail in the embodiment of the present invention may be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.

도 1은 실시 예에 따른 촬영장치를 나타낸 구성도이다.1 is a block diagram illustrating a photographing apparatus according to an exemplary embodiment.

도 2는 실시 예에 따른 이미지 센서를 나타낸 도면이다.2 is a diagram illustrating an image sensor according to an exemplary embodiment.

도 3의 (가)는 송/수신 신호의 파형도이며, (나)는 각 픽셀로부터 획득된 샘플링 데이터를 나타낸 도면이며, (다)는 단위 픽셀의 샘플링 데이터의 배열한 도면이다.3A is a waveform diagram of a transmission / reception signal, (B) shows sampling data obtained from each pixel, and (C) shows arrangement of sampling data of a unit pixel.

도 4는 실시 예에 따른 단위 픽셀 및 이로부터 출력된 샘플링 데이터의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a unit pixel and sampling data output therefrom according to an exemplary embodiment.

도 5는 실시 예에 따른 촬영장치의 영상 제어방법을 나타낸 흐름도이다.5 is a flowchart illustrating an image control method of a photographing apparatus according to an exemplary embodiment.

Claims (15)

변조된 광을 송신하는 광원;A light source for transmitting modulated light; 물체로부터 반사광을 수집하는 렌즈;A lens collecting the reflected light from the object; 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 교차되게 배열되며, 상기 렌즈를 통해 수신된 반사광을 수신하고 상기 광원의 송신 주기에 각 픽셀당 복수개의 픽셀 데이터를 출력하는 이미지 센서;An image sensor arranged to intersect the pixels of the first pixel group and the second pixel group having the phase delay means, for receiving the reflected light received through the lens and outputting a plurality of pixel data for each pixel in the transmission period of the light source ; 상기 광원 및 이미지 센서에 대한 광의 송/수신 타이밍을 제어하고, 상기 이미지 센서로부터 픽셀 데이터를 입력받는 제어부;A control unit controlling transmission / reception timing of light to the light source and the image sensor and receiving pixel data from the image sensor; 상기 제어부를 통해 입력된 픽셀 데이터 중 제1픽셀 그룹과 제2픽셀 그룹의 단위 픽셀별 픽셀 데이터로부터 송/수신 신호의 지연 위상 및 물체와의 거리를 구하는 이미지 프로세서;An image processor obtaining a delay phase of a transmission / reception signal and a distance between an object from pixel data of unit pixels of a first pixel group and a second pixel group among pixel data input through the controller; 상기 이미지 프로세서에 의해 3차원 이미지로 표시하는 표시부를 포함하는 촬영장치.And a display unit to display a 3D image by the image processor. 제1항에 있어서, The method of claim 1, 상기 위상 지연 수단은 상기 제2픽셀 그룹의 각 픽셀 위에 배치된 위상 지연판이며, The phase delay means is a phase delay plate disposed over each pixel of the second pixel group, 상기 위상 지연판은 λ/2 또는 λ/4 파장의 위상 지연값을 가지는 촬영장치.And the phase retardation plate has a phase retardation value of λ / 2 or λ / 4 wavelength. 제1항에 있어서,The method of claim 1, 상기 이미지 센서는 단일개의 2차원 이미지 센서인 촬영장치.And the image sensor is a single two-dimensional image sensor. 제1항에 있어서,The method of claim 1, 상기 이미지 센서의 제1픽셀 그룹의 픽셀 신호를 디지털 데이터로 변환하여 상기 제어부로 출력하는 제1아날로그 디지털 변환부;A first analog digital converting unit converting the pixel signal of the first pixel group of the image sensor into digital data and outputting the digital signal to the controller; 상기 이미지 센서의 제1픽셀 그룹의 픽셀 신호를 디지털 데이터로 변환하여 상기 제어부로 출력하는 제2아날로그 디지털 변환부를 포함하는 촬영장치.And a second analog digital converter configured to convert pixel signals of the first pixel group of the image sensor into digital data and output the digital signals to the controller. 제1항에 있어서,The method of claim 1, 상기 이미지 프로세서는 상기 제어부를 통해 상기 이미지 센서의 픽셀들을 일정 주기마다 스캐닝하여, 상기 송신신호의 변조주기에 각 픽셀당 2개의 데이터를 획득하는 촬영장치.And the image processor scans the pixels of the image sensor at predetermined intervals through the control unit to obtain two data for each pixel in the modulation period of the transmission signal. 제1항에 있어서, The method of claim 1, 상기 단위 픽셀은 제1픽셀 그룹의 1픽셀과 이에 인접한 제2픽셀 그룹의 1픽셀을 포함하는 촬영장치.And the unit pixel includes one pixel of a first pixel group and one pixel of a second pixel group adjacent thereto. 제6항에 있어서,The method of claim 6, 상기 이미지 프로세서는 상기 송신신호의 변조 주기의 1/2 주기마다 단위픽 셀별 스캐닝된 4개의 픽셀 데이터를 이용하여 송/수신 신호의 지연 위상 및 거리 차를 계산하는 촬영장치.And the image processor calculates a delay phase and a distance difference of a transmission / reception signal using four pixel data scanned per unit pixel every 1/2 cycle of a modulation period of the transmission signal. 제1항에 있어서, The method of claim 1, 상기 광원은 레이저 또는 LED를 포함하는 촬영장치.The light source includes a laser or LED. 제1항에 있어서, The method of claim 1, 상기 픽셀 데이터를 저장하는 메모리를 포함하는 촬영장치.And a memory for storing the pixel data. 제7항에 있어서, The method of claim 7, wherein 상기 이미지 프로세서는 송신 신호와 수신된 신호의 콘볼루션 합을 구하고, 상기 콘볼루션 합을 이용하여 단위 픽셀로부터 획득된 4개의 픽셀 데이터에 대한 상관 함수를 구하며, 상기 단위 픽셀의 픽섹별 상관 함수의 차를 통해 송/수신 신호의 지연 위상을 계산하는 촬영장치.The image processor obtains a convolution sum of a transmission signal and a received signal, obtains a correlation function for four pixel data obtained from a unit pixel using the convolution sum, and calculates a difference of a correlation function of each pixel of the unit pixel. Photographing device for calculating the delay phase of the transmission and reception signals through. 변조된 광을 송신하는 단계;Transmitting the modulated light; 이미지 센서의 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 통해 상기 물체로부터 반사된 광을 수신하며, 수신된 제1픽셀 그룹과 제2픽셀 그룹의 픽셀 데이터를 출력하는 단계;Receiving light reflected from the object through pixels of a first pixel group of an image sensor and a second pixel group having a phase delay means, and outputting pixel data of the received first pixel group and the second pixel group; 상기 이미지 센서의 제1픽셀 그룹과 이에 인접한 제2픽셀 그룹의 단위 픽셀 별 픽셀 데이터를 이용하여 송/수신 신호의 지연 위상 및 거리 차를 구하는 단계;Obtaining a delay phase and a distance difference of a transmit / receive signal using pixel data of unit pixels of a first pixel group of the image sensor and a second pixel group adjacent thereto; 상기 이미지 센서의 픽셀 데이터와 거리 차를 이용하여 3차원 이미지를 표시하는 단계를 포함하는 촬영장치의 영상 제어방법.And displaying a 3D image by using a distance difference from the pixel data of the image sensor. 제11항에 있어서, The method of claim 11, 상기 이미지 센서는 상기 이미지 센서의 픽셀들을 일정 주기마다 스캐닝하여, 상기 송신 신호의 변조 주기에 각 픽셀당 2개의 픽셀 데이터를 출력하는 촬영장치의 영상 제어방법.And the image sensor scans pixels of the image sensor at regular intervals and outputs two pixel data for each pixel in a modulation period of the transmission signal. 제11항에 있어서, The method of claim 11, 상기 이미지 센서는 단일개의 2차원 이미지 센서이며,The image sensor is a single two-dimensional image sensor, 상기 위상 지연 수단은 상기 제2픽셀 그룹의 각 픽셀 위에 배치되며, λ/2 또는 λ/4 파장의 위상 지연값을 가지는 위상 지연판인 촬영장치의 영상 제어방법.And said phase delay means is a phase delay plate disposed on each pixel of said second pixel group and having a phase delay value of? / 2 or? / 4 wavelength. 제11항에 있어서, The method of claim 11, 상기 지연 위상은 송/수신 신호의 콘볼루션 합을 통해 단위 픽셀별 4개의 픽셀 데이터의 상관 함수를 구하고, 상기 4개의 픽셀 데이터의 상관함수의 차를 계산하여 단위 필셀별 송/수신 신호의 지연 위상을 계산하는 촬영장치의 영상 제어방법.The delay phase is obtained by calculating a correlation function of four pixel data per unit pixel through a convolutional sum of transmission and reception signals, and calculating a difference between correlation functions of the four pixel data and delay phase of the transmission / reception signal for each pixel. Image control method of the photographing apparatus to calculate the. 제11항에 있어서, The method of claim 11, 상기 이미지 센서는 2탭 픽셀 아키텍쳐로 픽셀 데이터를 출력하는 촬영장치의 영상 제어방법.  And the image sensor outputs pixel data to a 2-tap pixel architecture.
KR1020090000511A 2009-01-05 2009-01-05 Image pickup apparatus and image control method thereof KR101000200B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090000511A KR101000200B1 (en) 2009-01-05 2009-01-05 Image pickup apparatus and image control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090000511A KR101000200B1 (en) 2009-01-05 2009-01-05 Image pickup apparatus and image control method thereof

Publications (2)

Publication Number Publication Date
KR20100081195A true KR20100081195A (en) 2010-07-14
KR101000200B1 KR101000200B1 (en) 2010-12-10

Family

ID=42641704

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090000511A KR101000200B1 (en) 2009-01-05 2009-01-05 Image pickup apparatus and image control method thereof

Country Status (1)

Country Link
KR (1) KR101000200B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020190419A (en) * 2019-05-20 2020-11-26 株式会社デンソー Optical ranging device and optical ranging method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001008233A (en) 1999-06-23 2001-01-12 Asahi Optical Co Ltd Three-dimensional image input apparatus
JP2001275132A (en) 2000-03-28 2001-10-05 Asahi Optical Co Ltd Three-dimensional image detector and image pickup element drive circuit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020190419A (en) * 2019-05-20 2020-11-26 株式会社デンソー Optical ranging device and optical ranging method
WO2020235411A1 (en) * 2019-05-20 2020-11-26 株式会社デンソー Optical distance measurement device and method for optical distance measurement

Also Published As

Publication number Publication date
KR101000200B1 (en) 2010-12-10

Similar Documents

Publication Publication Date Title
KR101020999B1 (en) Image pickup apparatus and image control method thereof
US11408983B2 (en) Lidar 2D receiver array architecture
EP2803184B1 (en) Method of operating a time-of-flight pixel
US7924411B2 (en) 3-D imaging system
EP2594959B1 (en) System and method for multi TOF camera operation using phase hopping
EP2568314B1 (en) Laser radar device
EP2074377B1 (en) Method and system for acquiring a 3-d image of a scene
JP6529487B2 (en) Method for driving a time of flight system
KR100986439B1 (en) Image pickup apparatus and image control method thereof
US7834985B2 (en) Surface profile measurement
US11570424B2 (en) Time-of-flight image sensor resolution enhancement and increased data robustness using a binning module
US20100046802A1 (en) Distance estimation apparatus, distance estimation method, storage medium storing program, integrated circuit, and camera
US11754717B2 (en) Distance measurement device having external light illuminance measurement function and external light illuminance measurement method
JP4391643B2 (en) 3D image input device
KR101000200B1 (en) Image pickup apparatus and image control method thereof
JP4673674B2 (en) Shape measuring device
JP2001119722A (en) Three-dimensional image detection system and three- dimensional image detector
US6961092B1 (en) Three-dimensional image capturing device
CN114402226A (en) Optical sensor
JP4428831B2 (en) 3D image detection device
JP2002296032A (en) Position detector
JP2001119723A (en) Still object image detector and still object image detection method
WO2018198292A1 (en) Measurement device and measurement method
JP2006208337A (en) Photoelectronic sensor and head thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131105

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141106

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151105

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee