KR20100081195A - Image pickup apparatus and image control method thereof - Google Patents
Image pickup apparatus and image control method thereof Download PDFInfo
- Publication number
- KR20100081195A KR20100081195A KR1020090000511A KR20090000511A KR20100081195A KR 20100081195 A KR20100081195 A KR 20100081195A KR 1020090000511 A KR1020090000511 A KR 1020090000511A KR 20090000511 A KR20090000511 A KR 20090000511A KR 20100081195 A KR20100081195 A KR 20100081195A
- Authority
- KR
- South Korea
- Prior art keywords
- pixel
- image sensor
- image
- data
- phase
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/40—Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
실시 예는 촬영 장치 및 이의 영상 제어방법에 관한 것이다.The embodiment relates to a photographing apparatus and an image control method thereof.
3차원 영상 촬영 장치는 대상에 대한 3차원 영상 데이터를 제공하기 때문에, 일반 카메라, 가정용 서비스 로봇, 의학용 영상 기기, 보안 감시 시스템 등과 같은 다양한 분야에 사용되고 있다.Since the 3D imaging apparatus provides 3D image data about an object, it is used in various fields such as a general camera, a home service robot, a medical imaging device, a security surveillance system, and the like.
실시 예는 2차원 이미지 센서를 이용하여 물체로부터 반사된 신호를 감지하고 3차원 이미지로 디스플레이할 수 있도록 한 촬영 장치 및 이를 이용한 영상 제어방법을 제공한다.The embodiment provides a photographing apparatus and a method of controlling an image using the same, which enable a 2D image sensor to detect a signal reflected from an object and display the 3D image.
실시 예는 이미지 센서의 인접한 복수개의 픽셀 중 어느 한 픽셀에 위상 지연판을 배치하여, 복수개의 픽셀 데이터의 상관 함수로부터 송/수신 신호의 지연 위상 및 거리 차를 계산할 수 있도록 한 촬영 장치 및 이를 이용한 영상 제어방법을 제공한다.According to an embodiment of the present invention, a phase retardation plate is disposed on one of a plurality of adjacent pixels of an image sensor, and an image pickup device and a distance difference of a transmission / reception signal can be calculated from a correlation function of a plurality of pixel data. Provides an image control method.
실시 예에 따른 촬영장치는, 변조된 광을 송신하는 광원; 물체로부터 반사광을 수집하는 렌즈; 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 교차되게 배열되며, 상기 렌즈를 통해 수신된 반사광을 수신하고 상기 광원의 송신 주기에 각 픽셀당 복수개의 픽셀 데이터를 출력하는 이미지 센서; 상기 광원 및 이미지 센서에 대한 광의 송/수신 타이밍을 제어하고, 상기 이미지 센서로부터 픽셀 데이터를 입력받는 제어부; 상기 제어부를 통해 입력된 픽셀 데이터 중 제1픽셀 그룹과 제2픽셀 그룹의 단위 픽셀별 픽셀 데이터로부터 송/수신 신호의 지연 위상 및 물체와의 거리를 구하는 이미지 프로세서; 상기 이미지 프로세서에 의해 3차원 이미지로 표시하는 표시부를 포함한다.According to an embodiment, an image photographing apparatus includes a light source for transmitting modulated light; A lens collecting the reflected light from the object; An image sensor arranged to intersect the pixels of the first pixel group and the second pixel group having the phase delay means, for receiving the reflected light received through the lens and outputting a plurality of pixel data for each pixel in the transmission period of the light source ; A control unit controlling transmission / reception timing of light to the light source and the image sensor and receiving pixel data from the image sensor; An image processor obtaining a delay phase of a transmission / reception signal and a distance between an object from pixel data of unit pixels of a first pixel group and a second pixel group among pixel data input through the controller; And a display unit displaying the 3D image by the image processor.
실시 예에 따른 촬영장치의 영상 제어방법은, 변조된 광을 송신하는 단계; 이미지 센서의 제1픽셀 그룹과 위상 지연 수단을 갖는 제2픽셀 그룹의 픽셀들을 통해 상기 물체로부터 반사된 광을 수신하며, 수신된 제1픽셀 그룹과 제2픽셀 그룹의 픽셀 데이터를 출력하는 단계; 상기 이미지 센서의 제1픽셀 그룹과 이에 인접한 제2픽셀 그룹의 단위 픽셀별 픽셀 데이터를 이용하여 송/수신 신호의 지연 위상 및 거리 차를 구하는 단계; 상기 이미지 센서의 픽셀 데이터와 거리 차를 이용하여 3차원 이미지를 표시하는 단계를 포함한다.An image control method of an imaging apparatus according to an embodiment includes transmitting modulated light; Receiving light reflected from the object through pixels of a first pixel group of an image sensor and a second pixel group having a phase delay means, and outputting pixel data of the received first pixel group and the second pixel group; Obtaining a delay phase and a distance difference of a transmission / reception signal using pixel data of each unit pixel of a first pixel group of the image sensor and a second pixel group adjacent thereto; And displaying a 3D image by using a distance difference from the pixel data of the image sensor.
실시 예는 2차원 이미지 센서를 이용하여 3차원 이미지를 표현할 수 있는 효과가 있다. The embodiment has the effect of expressing a 3D image using a 2D image sensor.
실시 예는 3차원 카메라를 이용하지 않고 3차원 이미지를 표현할 수 있는 효과가 있다.The embodiment has the effect of expressing a 3D image without using a 3D camera.
이하, 실시 예에 대하여 첨부된 도면을 참조하여 설명하면 다음과 같다.Hereinafter, exemplary embodiments will be described with reference to the accompanying drawings.
도 1은 실시 예에 따른 촬영 장치를 나타낸 도면이다.1 is a diagram illustrating a photographing apparatus according to an exemplary embodiment.
도 1을 참조하면, 촬영 장치(100)는 광원(110), 셔터(120), 렌즈(122), 이미지 센서(124), 제1아날로그 디지털 변환부(126), 제2아날로그 디지털 변환부(128), 제어부(130), 이미지 프로세서(132), 메모리(134), 표시부(136)를 포함한다.Referring to FIG. 1, the photographing
상기 광원(110)은 레이저 또는 LED(Light emitting device) 어레이를 포함하며, 상기 제어부(130)의 제어를 받아 구동된다. 상기 광원(110)에서 조사된 광은 물체(115)에 반사되어 상기 셔터(120)를 통해 렌즈(120)로 입사된다. 상기 광 원(110)은 단일개로 상기 이미지 센서(124)의 어느 일측에 배치되거나 복수개가 양측에 배치될 수 있다.The
상기 광원(110)은 소정 주파수로 변조된 광 신호를 발생하게 되는 데, 예컨대 20MHz의 변조 주파수를 출력할 수 있으며, 이러한 변조 주파수는 거리에 따라 달라질 수 있으며, 상기 주파수로 한정하지는 않는다.The
상기 셔터(120)는 상기 제어부(130)의 제어를 받아, 상기 셔터(120)의 여닫는 시간을 길게 또는 짧게 조절할 수 있으며, 상기 렌즈(122)를 통해 입사되는 광의 양을 조절하는 기능을 한다. 또한 상기 셔터(120)는 상기 렌즈(122)의 전단 또는/및 후단에 배치될 수 있으며, 이에 대해 한정하지는 않는다. 상기 렌즈(122)는 상기 물체로부터 반사된 광을 상기 이미지 센서(124)에 제공하게 된다. Under the control of the
도 1 및 도 2를 참조하면, 상기 이미지 센서(124)는 단일개의 2차원 이미지 센서로서, CMOS(complementary metal-oxide semiconductor)로 구현될 수 있으며, 다수개의 픽셀이 매트릭스 형태로 어레이된 구조이다. 각 픽셀(P)은 광 검출소자(예: 포토 다이오드) 및 스위치 소자를 포함하며, 상기 광 검출 소자는 상기 스위치 소자에 의해 온/오프되며, 광을 전기적인 신호로 변환하게 된다.1 and 2, the
상기 이미지 센서(124)는 CCD(Charge-coupled device)로 구현될 수 있으며, N*N 픽셀의 해상도(N ≥ 2)로 구현될 수 있으며, 이에 대해 한정하지는 않는다. The
상기 이미지 센서(124)의 픽셀 어레이에는 제1픽셀(P1)과 제2픽셀(P2)의 순서로 어레이되는 홀수 필드와, 상기 제2픽셀(P2)와 제1픽셀(P1)의 순서로 어레이되는 짝수 필드로 구성되며, 상기 홀수 필드와 짝수 필드의 픽셀들은 서로 교차되게 배치된다. 상기 제2픽셀(P2) 위에는 위상 지연판(W1)이 배치되고, 상기 제2픽셀(P2)의 좌/우/상/하 위치에는 제1픽셀(P1)이 배치된 구조이다. The pixel array of the
여기서, 상기 제2픽셀(P2) 위 또는 광 검출소자 위에는 광이 입사되는 위치에 위상 지연판(W1)이 배치될 수 있으며, 상기 위상 지연판(W1)은 λ/2의 위상 지연값 또는 λ/4 위상 지연 값을 가지게 된다. 이에 따라 상기 제2픽셀(P2)에 수신된 신호의 위상은 상기 제1픽셀(P1)에 수신된 신호에 비해 적어도 λ/2 또는 λ/4로 지연될 수 있다. Here, the phase retardation plate W1 may be disposed on the second pixel P2 or the photodetector at a position where light is incident, and the phase retardation plate W1 may have a phase retardation value of λ / 2 or λ. It will have a / 4 phase delay value. Accordingly, the phase of the signal received at the second pixel P2 may be delayed by at least λ / 2 or λ / 4 relative to the signal received at the first pixel P1.
상기 위상 지연판(W1)이 없는 제1픽셀(P1)의 그룹은 제1픽셀 그룹(124A)으로, 상기 위상 지연판(W1)을 갖는 제2픽셀(P2)의 그룹은 제2픽셀 그룹(124B)으로 정의할 수 있다.The group of the first pixels P1 without the phase retardation plate W1 is a
또한 상기 이미지 센서(124)의 각 픽셀(P)은 일반적인 제1픽셀(P1)과 소정 위상이 지연된 신호를 검출하는 제2픽셀(P2)을 단위 픽셀(P3)로 정의할 수 있다. In addition, each pixel P of the
상기 이미지 센서(124)는 상기 제어부(130)의 제어신호(S1,S2)에 의해 상기 광 검출 소자가 온/오프되며, 상기 광 검출 소자는 상기 렌즈(122)를 통해 입사된 광을 전기신호로 변환하여 출력하게 된다. 이때 상기 이미지 센서(124)는 행 및 열에 배치된 드라이버(Driver)에 의해 각 픽셀(P)의 스위치 소자가 온되어 광 검출 소자(예: Photo Diode)를 구동시켜 준다. The
상기 이미지 센서(124)는 전체 픽셀이 일정 주기로 구동되어, 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 신호를 출력하게 된다.The
상기 제1아날로그 디지털 변환부(126)는 상기 이미지 센서(124)에서 제1픽셀 그룹(124A)의 신호를 디지털 데이터로 변환하여 출력하게 된다. 상기 제2아날로그 디지털 변환부(128)는 상기 이미지 센서(124)에서 제2픽셀 그룹(124B)의 신호를 디지털 데이터로 변환하여 출력하게 된다. The first analog
즉, 상기 이미지 센서(124)의 픽셀 신호는 제1픽셀 그룹(124A)의 데이터 및 제2픽셀 그룹(124B)의 데이터로서, 디지털 데이터로 변환된 후 상기 제어부(130)에 전달된다. 상기 상기 제어부(130)에는 시리얼 방식으로 상기 디지털 데이터가 입력된다. 이때 상기 각 픽셀 데이터에는 페리트 체크 비트(parity check bit)를 추가하여, 각 픽셀 데이터의 그룹 및 픽셀을 구분할 수 있다.That is, the pixel signal of the
상기 제1아날로그 디지털 변환부(126) 및 상기 제2아날로그 디지털 변환부(128)는 상기 이미지 센서(124)에 구현될 수 있으며, 이에 대해 한정하지는 않는다.The first analog
상기 제어부(130)는 광원(110), 셔터(120), 이미지 센서(124), 이미지 프로세서(132), 메모리(134) 등의 동작을 제어하며, 상기 광원(110)과 상기 이미지 센서(124)의 동작 타이밍을 제어하여 송/수신 신호간의 동기를 맞추어 주게 된다. The
또한 상기 제어부(130)는 상기 이미지 프로세서(132)의 제어를 받아, 상기 이미지 센서(124)로부터 데이터를 읽어오는 스캐닝 타이밍을 제어받게 된다. 상기 제어부(130)는 2탭 픽셀 아키텍쳐 방식으로 이미지 센서(124)의 각 픽셀(P)을 스캐닝하는 데, 이는 매 클럭당 즉, 변조 주기마다 2개의 픽셀 데이터를 출력하는 방식이다. In addition, the
상기 제어부(130)는 상기 제1아날로그 디지털 변환부(126) 및 상기 제2아날 로그 디지털 변환부(128)의 디지털 데이터를 상기 이미지 프로세서(132)로 전달한다. The
상기 제어부(130)는 상기 이미지 프로세서(132)의 제어를 받아 상기 이미지 센서(124)의 스캐닝을 제어하게 된다. 즉, 제1픽셀 그룹(124A)의 데이터와 제2픽셀 그룹(124B)의 데이터를 입력받게 된다. 예컨대, 상기 송신 신호(또는 변조 신호)의 1/2주기마다 제1픽셀(P1) 그룹(124A)의 데이터와 제2픽셀(P2) 그룹(124B)의 데이터를 스캐닝하고, 그 스캐닝된 각 픽셀 그룹별 데이터를 전달받게 된다. 이에 따라 변조 1주기 동안 각 픽셀로부터 2개의 데이터를 입력받게 된다.The
상기 이미지 프로세서(132)는 상기 수신된 제1픽셀(P1) 그룹(124A)의 데이터와 제2픽셀(P2) 그룹(124B)의 데이터를 메모리(134)에 저장하고, 2탭 픽셀 아키텍쳐 방식으로 픽셀 그룹별 단위 픽셀당 2개의 데이터씩 4개의 샘플링 데이터의 상관 함수를 계산하게 된다. The
즉, 상기 이미지 프로세서(132)은 상기 변조된 송신 신호의 주파수 및 송신 시점과, 상기 송신 신호의 각 주기마다 상기 물체를 통해 반사된 수신 신호의 샘플링 데이터를 상기 이미지 센서(124)로부터 구하여, 상기 송신 신호와 수신 신호 사이의 컨볼루션(convolution) 합을 통해 상기 송/수신 신호 간의 지연 위상을 계산할 수 있게 된다. 상기 지연 위상은 송신 신호와 수신 신호 사이의 위상 차로서, 상기 단위 픽셀의 지연 위상을 통해 물체(115)와의 거리를 구할 수 있으며, 전체 픽셀 영역에 적용하여 3차원 영상 데이터로 표시부(136)에 표시할 수 있게 된다. That is, the
상기 이미지 프로세서(132)는 상기 영상 데이터를 처리하여 상기 표시 부(136)에 3차원 이미지로 표시해 주게 된다. 상기 이미지 프로세서(132)는 인터페이스 수단(예: 케이블, USB 케이블 등)을 이용하여 정보 처리 단말기 예컨대, 컴퓨터, PDA 등에 연결될 수 있다.The
상기 촬영 장치(100)는 광원(110)의 반사 시간을 이용한 타임-오브-플라이트(time of flight, TOF라 함) 방식이 사용된다. 상기 TOF 방식은 광원(110)을 물체(115)에 순차적으로 주사하고, 상기 물체(110)에 반사된 광의 도달 속도를 기록하여 물체의 굴곡정보를 저장할 수 있는 방법이다. 즉, 물체(115)에서 오목한 부분은 볼록한 부분보다 도달 및 반사 거리가 상대적으로 길기 때문에, 도달 및 반사 시간이 상대적으로 길어지게 되므로, 각 지점에 대한 도달되는 위상을 이미지 센서의 각 픽셀을 통해 검출하고, 픽셀 간의 지연 위상 및 거리 데이터를 구하여, 3차원 이미지로 표시할 수 있다.The photographing
보다 구체적으로, 수신된 신호로부터 지연 위상 및 거리 차를 측정하기 위한 각 픽셀의 샘플링 데이터는 다음과 같이 구할 수 있다. More specifically, the sampling data of each pixel for measuring the delay phase and the distance difference from the received signal can be obtained as follows.
도 2에 도시된 바와 같이, 이미지 센서의 다수개의 픽셀 구조에서 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 데이터를 읽는 데, 예컨대 제1픽셀 그룹(124A)의 한 픽셀(P1)과 제2픽셀 그룹(124B)의 한 픽셀(P2)을 하나의 단위 픽셀(P3)로 정의하고, 상기 단위 픽셀(P3)을 송신 신호의 1주기 동안 2회(즉, 1/2주기)에 걸쳐 읽어오게 된다. As shown in FIG. 2, the pixel data of the
도 2 및 도 3을 참조하면, 송신 신호(Se)는 일정 레벨(Po)을 갖는 변조 주파수로 출력되며, 상기 수신 신호(Sd)는 상기 송신 신호(Se)가 물체로부터 반사되어 수신된 신호로서 소정 지연된 신호로 이미지 센서의 각 픽셀(P)에 검출될 수 있다. 상기 수신 신호의 기준 레벨(D1)은 밝기 정보를 포함한다.2 and 3, the transmission signal Se is output at a modulation frequency having a predetermined level Po, and the reception signal Sd is a signal received by reflecting the transmission signal Se from an object. Each pixel P of the image sensor may be detected as a predetermined delayed signal. The reference level D1 of the received signal includes brightness information.
송신 신호(Se)와 수신 신호(Sd)는 물체와의 거리에 대응되는 소정의 지연 위상(φ)를 가지게 된다. 이러한 지연 위상(φ)은 송신 신호의 정보, 상기 단위 픽셀(P3)로부터 검출된 픽셀 데이터 즉, 샘플링 데이터의 상관 함수를 통해 구하게 된다.The transmission signal Se and the reception signal Sd have a predetermined delay phase φ corresponding to the distance from the object. The delay phase φ is obtained through the correlation function of the information of the transmission signal and the pixel data detected from the unit pixel P3, that is, the sampling data.
상기 송신 신호(Se)의 1주기(1T) 동안 상기 이미지 센서의 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀들을 반주기(T/2) 간격으로 2회에 걸쳐 스캐닝되며, 상기 스캐닝된 상기 제1픽셀 그룹(124A)과 제2픽셀 그룹(124B)의 픽셀 데이터인 4개의 샘플링 데이터 A0, A1, A2, A3를 검출하게 된다. 즉, 첫번째 스캐닝시 제1픽셀(P1)로부터 A0를 구하고, 제2픽셀(P2)로부터 A1를 구하게 되며, 두번째 스캐닝시 제1픽셀(P1)로부터 A2를 구하고, 제2픽셀(P2)로부터 A3를 구하게 된다. 이에 따라 도 3의 (나)와 같이, 상기 제1픽셀(P1)은 A0,A2를 출력하고, 상기 제2픽셀(P2)은 A1,A3를 출력하게 된다. 상기 A0와 A1, 상기 A2와 A3 사이의 위상 차이는 상기 위상 지연판의 지연 위상만큼 차이가 날 수 있다. During the
도 3의 (다)와 같이, 상기 샘플링 데이터 A0,A1와 A2,A3는 송신 신호의 1/2 주기씩 스캐닝하여 인접한 단위 픽셀(P3)로부터 A0,A1와 A2,A3의 데이터 순서로 검출될 수 있다. As shown in (c) of FIG. 3, the sampling data A0, A1, A2, and A3 are scanned in half a period of the transmission signal to be detected in the data order of A0, A1, A2, A3 from the adjacent unit pixel P3. Can be.
도 4를 참조하면, 단위 픽셀(P3)의 제1픽셀(P1)에는 물체에서 반사된 광이 정상적으로 수신되므로, 샘플링 데이터 A0와 A2를 검출할 수 있다. 상기 단위 픽 셀(P3)의 제2픽셀(P2)에는 물체에서 반사된 광이 위상 지연 수단(W1)에 의해 지연되어 수신되므로, 샘플링 데이터 A1과 A3를 검출할 수 있다. 여기서, 상기 샘플링 데이터 A0와 A1, A2와 A3는 위상 지연 수단(W1)과 반사된 광에 따라 소정의 위상 차이가 존재하게 된다. Referring to FIG. 4, since the light reflected from the object is normally received in the first pixel P1 of the unit pixel P3, the sampling data A0 and A2 may be detected. Since the light reflected from the object is received by the phase delay means W1 in the second pixel P2 of the unit pixel P3, sampling data A1 and A3 can be detected. Here, the sampling data A0 and A1, A2 and A3 have a predetermined phase difference according to the phase delay means W1 and the reflected light.
이하, 지연 위상 및 거리 측정 방법에 대해 설명하면 다음과 같다.Hereinafter, the delay phase and the distance measuring method will be described.
상기에서 4개의 샘플링 데이터가 구해지면, 상기 송/수신 신호의 컨볼루션 합을 구하여 각 샘플링 데이터의 위상에 따른 상관 함수를 구하여 송신 신호와 수신 신호 사이의 지연 위상을 구하게 된다.When four pieces of sampling data are obtained, a convolution sum of the transmission / reception signals is obtained to obtain a correlation function according to the phase of each sampling data to obtain a delay phase between the transmission signal and the reception signal.
상기 수신된 신호의 위상은 이미지 센서의 각 픽셀 내에 수신된 광을 동시에 복조함으로써 검출될 수 있으며, 상기 복조는 변조 신호의 주기 내에서 상관 또는 상호 상관 값에 의해 구해질 수 있다. The phase of the received signal can be detected by demodulating the light received within each pixel of the image sensor simultaneously, and the demodulation can be obtained by correlation or cross correlation values within the period of the modulated signal.
상기 상호 상관 값()은 복조 신호 또는 상관 신호(g(t))와 수신 신호(s(t))의 컨볼루션 합으로 구해진다. 이는 수학식 1과 같이 구해질 수 있다.The cross-correlation value ( Is obtained by the convolution sum of the demodulated signal or correlation signal g (t) and the received signal s (t). This may be obtained as in Equation 1.
상기 상관 신호(g(t))와 상기 수신신호(s(t))는 수학식 2와 같이 주어질 수 있다.The correlation signal g (t) and the received signal s (t) may be given by Equation 2.
여기서, 상기 s(t)는 수신된 광 신호이며, g(t)는 복조 신호(상관 신호)이며, a는 변조도(modulation amplitude)이며, 은 지연 위상을 나타낸다. Here, s (t) is a received optical signal, g (t) is a demodulation signal (correlation signal), a is a modulation amplitude (modulation amplitude), Denotes the delay phase.
그리고, 상관 함수(correlation function)(C(τ))는 상기 상호 상관 값()이 되며, 상기 수학식 2의 상기 수신된 광 신호와 상기 복조 신호를 대입하여 구하게 되며, 이는 수학식 3과 같이 구해진다.The correlation function C (τ) is the cross-correlation value ( ) Is obtained by substituting the received optical signal and the demodulation signal of Equation (2).
상기 상관 함수(C(τ))는 4개의 샘플링 데이터의 위상()을 갖는 함수로 계산될 수 있으며, 상기 4개의 샘플링 데이터의 위상은= 0°, =90°,=180°, =270° 이 적용될 수 있으며, 수신된 신호의 위상과 증폭도를 재 계산할 수 있다. 또한 상기 상관 함수(C(τ))에는 실제 측정된 값을 획득하기 위해 오프셋(K) 값을 더해진다.The correlation function C (τ) is a phase of four sampling data ( And the phase of the four sampling data = 0 °, = 90 °, = 180 °, = 270 ° can be applied and the phase and amplification of the received signal can be recalculated. The correlation function C (τ) is also added with an offset K value to obtain the actual measured value.
각 샘플링 데이터(AO,A1,A2,A3)의 상관 함수는 수학식 4와 같이 구해질 수 있다. 각 샘프링 데이터의 위상별 상관 함수는 실제 4개의 샘플링 데이터의 값이다.The correlation function of each sampling data (AO, A1, A2, A3) can be obtained as shown in Equation 4. The correlation function for each phase of each sampling data is actually four sampling data values.
상기 C(τ0)는 A0의 상관 함수이며, C(τ1)는 A0의 상관 함수이며, C(τ2)는 A0의 상관 함수이며, C(τ3)는 A0의 상관 함수가 된다. C (τ 0 ) is a correlation function of A 0 , C (τ 1 ) is a correlation function of A 0, C (τ 2 ) is a correlation function of A 0, and C (τ 3 ) is a correlation function of A 0.
상기 오프셋 값(K)는 수학식 5와 같이 구해질 수 있다. The offset value K may be obtained as shown in Equation 5.
상기 4개의 샘플링 데이터의 상관 함수가 구해지면, 상기 수신된 신호(s(t))의 지연 위상()과 증폭도(a)는 수학식 6과 같이 구해질 수 있다.When the correlation function of the four sampling data is obtained, the delay phase of the received signal s (t) And amplification degree (a) can be obtained as shown in Equation 6.
상기 지연 위상()은 각 단위 픽셀에서의 물체와의 위상 차를 나타내는 값이며, 상기 증폭도 a는 물체의 깊이 해상도의 직접 측정치 또는 이미지 센서의 자동 이득 제어 값을 선정하기 위한 기준 값으로 이용될 수 있다.The delay phase ( ) Is a value representing a phase difference with an object in each unit pixel, and the amplification degree a may be used as a reference value for selecting a direct measurement of the depth resolution of the object or an automatic gain control value of the image sensor.
상기 지연 위상()과 증폭도(a)가 구해지면, 물체와의 거리(D)를 구할 수 있게 된다. 이러한 물체와의 거리(D)는 물체와의 깊이 데이터로 표현될 수 있으며, 상기 깊이 데이터는 깊이 차이에 따라 서로 다른 색으로 처리함으로써, 3차원 이미지 데이터로 구현할 수 있게 된다. The delay phase ( ) And the amplification degree (a), the distance (D) from the object can be obtained. The distance D to the object may be expressed as depth data with the object, and the depth data may be processed into different colors according to the depth difference, thereby realizing the 3D image data.
물체와의 거리는 수학식 7과 같이 구해질 수 있다.The distance from the object may be obtained as shown in Equation 7.
상기 D는 물체와의 거리이며, 상기 L은 불명료한 거리 범위(non-ambiguity distance range)이며, c는 광속이며, fm은 RF 변조 주파수이다. Where D is the distance to the object, L is the non-ambiguity distance range, c is the luminous flux, and fm is the RF modulation frequency.
이러한 방식으로 단위 픽셀들에 대한 지연 위상과 거리 차를 계산할 수 있다. 실시 예는 이미지 센서에 정상적인 광을 수신하는 제1픽셀과 위상 지연수단에 의해 위상이 지연된 광을 수신하는 제2픽셀을 2탭 픽셀 아키텍쳐 방식으로 스캐닝하고, 4개의 샘플링 데이터를 구한 후, TOF 방식으로 물체로부터 반사된 신호의 지연 위상 및 거리 차를 계산할 수 있으며, 이러한 거리 차를 전체 픽셀 영역에 적용하여 물체의 굴곡 정보를 정확하게 표현할 수 있는 3차원 이미지 데이터로 구현할 수 있다. 즉, 2차원 이미지 센서를 이용하여 3차원 이미지로 표현할 수 있다.In this way, the delay phase and distance difference for the unit pixels can be calculated. The embodiment scans a first pixel for receiving normal light in the image sensor and a second pixel for receiving light whose phase is delayed by the phase delay means in a 2-tap pixel architecture, obtains four sampling data, and then applies a TOF method. The delay phase and the distance difference of the signal reflected from the object can be calculated, and the distance difference can be applied to the entire pixel area to implement 3D image data that can accurately express the bending information of the object. That is, it can be expressed as a three-dimensional image using a two-dimensional image sensor.
도 5는 실시 예에 따른 촬영 장치를 이용한 영상 제어방법을 나타낸 흐름도이다.5 is a flowchart illustrating an image control method using a photographing apparatus according to an exemplary embodiment.
도 5를 참조하면, 광원에서 변조된 광이 물체로부터 반사되며, 그 반사된 광은 렌즈를 통해 이미지 센서에 수신된다(S101).Referring to FIG. 5, light modulated by a light source is reflected from an object, and the reflected light is received by the image sensor through a lens (S101).
상기 이미지 센서의 픽셀 어레이에는 제1픽셀과 위상 지연판이 배치된 제2픽셀의 순서로 어레이되는 홀수 필드, 상기 홀수 필드의 픽셀 순서와 다른 순서로 어레이되는 짝수 필드로 구성되어, 상기 홀수 필드와 짝수 필드의 동일 픽셀들은 서로 어긋나게 배치된다. 즉, 상기 제2픽셀의 좌/우/상/하 위치에는 제1픽셀이 배치된 구조이다. The pixel array of the image sensor includes an odd field arranged in an order of a first pixel and a second pixel in which a phase delay plate is disposed, and an even field arranged in an order different from the pixel order of the odd field, and the even field and the even field Identical pixels in the field are arranged offset from each other. That is, the first pixel is disposed at left, right, up, and down positions of the second pixel.
상기 이미지 센서는 인접한 2개의 픽셀 즉, 제1픽셀과 제2픽셀을 단위 픽셀로 하여 각 픽셀에서 송신 신호의 변조주기에 2개의 픽셀 데이터로 스캔하게 된다(S103). 이때 단위 픽셀 중 제1픽셀은 물체로부터 반사된 정상적인 광을 수신하며, 제2픽셀은 위상 지연판에 의해 지연된 광을 수신하게 된다. 상기 제1픽셀 및 제2픽셀에 의해 스캔된 픽셀 데이터는 제어부를 통해 이미지 프로세서로 출력된다.The image sensor scans two pixel data in the modulation period of the transmission signal in each pixel by using two adjacent pixels, that is, the first pixel and the second pixel as unit pixels (S103). At this time, the first pixel of the unit pixel receives the normal light reflected from the object, the second pixel receives the light delayed by the phase delay plate. The pixel data scanned by the first and second pixels is output to the image processor through the control unit.
상기 이미지 프로세서는 단위 픽셀의 제1픽셀과 제2픽셀로부터 입력된 픽셀 데이터를 구하게 되며(S105), 상기 구해진 4개의 픽셀 데이터(즉, 샘플링 데이터)의 상관함수를 구하고, 송/수신 신호의 지연 위상 및 거리 차를 구하게 된다(S107). 이때 4개의 샘플링 데이터의 상관 함수는 상기의 수학식 1 내지 수학식 4를 통해 구할 수 있으며, 이에 대한 설명은 생략하기로 한다. 그리고, 수학식 5를 통해 4개의 샘플링 데이터의 상관 함수를 이용하여 송/수신 신호의 지연 위상 및 그 지연 위상을 이용한 물체와의 거리 차를 구하게 된다. 이러한 2개의 픽셀을 이용한 각 단위 픽셀의 지연 위상과 거리 차를 전체 픽셀에 반영함으로써, 3차원 이미지를 구현할 수 있게 된다(S109).The image processor obtains pixel data input from a first pixel and a second pixel of a unit pixel (S105), obtains a correlation function of the obtained four pixel data (ie, sampling data), and delays a transmission / reception signal. The difference in phase and distance is obtained (S107). In this case, the correlation function of the four sampling data may be obtained through Equation 1 to Equation 4, and description thereof will be omitted. In addition, through Equation 5, the delay phase of the transmission / reception signal and the distance difference between the object using the delay phase are obtained by using a correlation function of four sampling data. By reflecting the difference between the delay phase and the distance of each unit pixel using the two pixels to the entire pixel, it is possible to implement a three-dimensional image (S109).
이상에서 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. Although the present invention has been described above with reference to the embodiments, these are merely examples and are not intended to limit the present invention. It will be appreciated that various modifications and applications are not illustrated.
예를 들어, 본 발명의 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부 된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.For example, each component shown in detail in the embodiment of the present invention may be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.
도 1은 실시 예에 따른 촬영장치를 나타낸 구성도이다.1 is a block diagram illustrating a photographing apparatus according to an exemplary embodiment.
도 2는 실시 예에 따른 이미지 센서를 나타낸 도면이다.2 is a diagram illustrating an image sensor according to an exemplary embodiment.
도 3의 (가)는 송/수신 신호의 파형도이며, (나)는 각 픽셀로부터 획득된 샘플링 데이터를 나타낸 도면이며, (다)는 단위 픽셀의 샘플링 데이터의 배열한 도면이다.3A is a waveform diagram of a transmission / reception signal, (B) shows sampling data obtained from each pixel, and (C) shows arrangement of sampling data of a unit pixel.
도 4는 실시 예에 따른 단위 픽셀 및 이로부터 출력된 샘플링 데이터의 예를 나타낸 도면이다.4 is a diagram illustrating an example of a unit pixel and sampling data output therefrom according to an exemplary embodiment.
도 5는 실시 예에 따른 촬영장치의 영상 제어방법을 나타낸 흐름도이다.5 is a flowchart illustrating an image control method of a photographing apparatus according to an exemplary embodiment.
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090000511A KR101000200B1 (en) | 2009-01-05 | 2009-01-05 | Image pickup apparatus and image control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090000511A KR101000200B1 (en) | 2009-01-05 | 2009-01-05 | Image pickup apparatus and image control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100081195A true KR20100081195A (en) | 2010-07-14 |
KR101000200B1 KR101000200B1 (en) | 2010-12-10 |
Family
ID=42641704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090000511A KR101000200B1 (en) | 2009-01-05 | 2009-01-05 | Image pickup apparatus and image control method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101000200B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020190419A (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Optical ranging device and optical ranging method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001008233A (en) | 1999-06-23 | 2001-01-12 | Asahi Optical Co Ltd | Three-dimensional image input apparatus |
JP2001275132A (en) | 2000-03-28 | 2001-10-05 | Asahi Optical Co Ltd | Three-dimensional image detector and image pickup element drive circuit |
-
2009
- 2009-01-05 KR KR1020090000511A patent/KR101000200B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020190419A (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Optical ranging device and optical ranging method |
WO2020235411A1 (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Optical distance measurement device and method for optical distance measurement |
Also Published As
Publication number | Publication date |
---|---|
KR101000200B1 (en) | 2010-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101020999B1 (en) | Image pickup apparatus and image control method thereof | |
US11408983B2 (en) | Lidar 2D receiver array architecture | |
EP2803184B1 (en) | Method of operating a time-of-flight pixel | |
US7924411B2 (en) | 3-D imaging system | |
EP2594959B1 (en) | System and method for multi TOF camera operation using phase hopping | |
EP2568314B1 (en) | Laser radar device | |
EP2074377B1 (en) | Method and system for acquiring a 3-d image of a scene | |
JP6529487B2 (en) | Method for driving a time of flight system | |
KR100986439B1 (en) | Image pickup apparatus and image control method thereof | |
US7834985B2 (en) | Surface profile measurement | |
US11570424B2 (en) | Time-of-flight image sensor resolution enhancement and increased data robustness using a binning module | |
US20100046802A1 (en) | Distance estimation apparatus, distance estimation method, storage medium storing program, integrated circuit, and camera | |
US11754717B2 (en) | Distance measurement device having external light illuminance measurement function and external light illuminance measurement method | |
JP4391643B2 (en) | 3D image input device | |
KR101000200B1 (en) | Image pickup apparatus and image control method thereof | |
JP4673674B2 (en) | Shape measuring device | |
JP2001119722A (en) | Three-dimensional image detection system and three- dimensional image detector | |
US6961092B1 (en) | Three-dimensional image capturing device | |
CN114402226A (en) | Optical sensor | |
JP4428831B2 (en) | 3D image detection device | |
JP2002296032A (en) | Position detector | |
JP2001119723A (en) | Still object image detector and still object image detection method | |
WO2018198292A1 (en) | Measurement device and measurement method | |
JP2006208337A (en) | Photoelectronic sensor and head thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20131105 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20141106 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20151105 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |