KR100588296B1 - Method and system of structural light based 3d depth imaging using signal separation coding and error correction thereof - Google Patents

Method and system of structural light based 3d depth imaging using signal separation coding and error correction thereof Download PDF

Info

Publication number
KR100588296B1
KR100588296B1 KR1020060012817A KR20060012817A KR100588296B1 KR 100588296 B1 KR100588296 B1 KR 100588296B1 KR 1020060012817 A KR1020060012817 A KR 1020060012817A KR 20060012817 A KR20060012817 A KR 20060012817A KR 100588296 B1 KR100588296 B1 KR 100588296B1
Authority
KR
South Korea
Prior art keywords
signal
address
image
projector
camera
Prior art date
Application number
KR1020060012817A
Other languages
Korean (ko)
Inventor
이석한
최종무
김대식
오승섭
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to US11/276,126 priority Critical patent/US7916932B2/en
Application granted granted Critical
Publication of KR100588296B1 publication Critical patent/KR100588296B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Abstract

3차원 거리 영상 측정 방법 및 시스템에 관한 것으로, 투사 수단에서 측정 대상 물체로 광선을 조사하고 이 광선을 영상 수신 수단에서 촬영하여 3차원 거리를 영상으로 측정하는 방법에 있어서, 투사 수단의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부호화하는 단계, 투사 수단을 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계, 영상 수신 수단에서 상기 부호화된 신호를 수신하는 단계, 수신된 신호를 분리하여 주소를 복원하는 단계 및 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 포함하는 구성을 마련한다.A method and system for measuring a three-dimensional distance image, the method comprising: irradiating a light beam from a projection means to an object to be measured and photographing the light beam from an image receiving means to measure a three-dimensional distance as an image. Encoding a signal by assigning a unique sender address to a corresponding signal, transmitting a signal by projecting a plurality of light patterns through a projection means, receiving the encoded signal at an image receiving means, received And dividing the signal to recover the address, and determining the pixel position of the target object using the sender address and the restored address.

상기와 같은 3차원 거리 영상 측정 방법 및 시스템을 이용하는 것에 의해, 영상 수신 수단에서 수신되는 신호가 겹침, 물체의 기하학적 구조에 의한 변형이 일어나도 이를 정확하게 분리해 낼 수 있으며, 주위 환경의 노이즈의 존재에도 강인한 거리 영상을 얻을 수 있다. By using the above-described three-dimensional distance image measuring method and system, even if the signal received by the image receiving means overlaps, even if the deformation due to the geometry of the object can be accurately separated, even in the presence of noise in the surrounding environment You can get a strong distance image.

구조 광, 3차원 거리 영상, 신호 분리 코딩, 직교 코드, 계층적 직교 코드 Structured light, 3D distance image, signal separation coding, orthogonal code, hierarchical orthogonal code

Description

신호 분리 코딩 및 에러 정정을 통한 구조 광 기반의 3차원 거리 영상 측정 방법 및 시스템{Method And System Of Structural Light Based 3D Depth Imaging Using Signal Separation Coding and Error Correction Thereof}Method and System of Structural Light Based 3D Depth Imaging Using Signal Separation Coding and Error Correction Thereof}

도 1은 구조광을 이용한 3차원 측정 방법을 설명하기 위한 개념도,1 is a conceptual diagram illustrating a three-dimensional measuring method using structured light;

도 2는 물체의 기하학적 관계에 따른 신호의 혼합을 나타내기 위한 개념도,2 is a conceptual diagram illustrating the mixing of signals according to geometric relations of an object;

도 3은 본 발명에 따른 신호 분리 방법을 적용한 3차원 측정 방법에 대한 흐름도,3 is a flowchart illustrating a three-dimensional measurement method to which a signal separation method according to the present invention is applied;

도 4는 본 발명에 따른 신호 분리 코딩에 사용될 수 있는 코드의 예로서, 계층적 직교 코드를 예시하고 있는 개념도,4 is a conceptual diagram illustrating a hierarchical orthogonal code as an example of code that may be used for signal separation coding according to the present invention;

도 5는 본 발명에 따른 신호 분리 코딩에서 계층적 직교 코드를 적용하여 분리하는 과정을 설명하기 위한 개념도,5 is a conceptual diagram illustrating a process of separating and applying a hierarchical orthogonal code in signal separation coding according to the present invention;

도 6 및 도 7은 특정한 에피폴라 라인 상에서의 신호분리의 결과로 얻어진 신호분리지도와 이를 이용한 이중 포토그래피 영상의 생성을 나타낸 도면,6 and 7 are diagrams illustrating signal separation maps obtained as a result of signal separation on a specific epipolar line and generation of a dual photography image using the same;

도 8 및 도 9는 신호분리 코딩을 적용한 이중 포토그래피를 나타내는 도면.8 and 9 show dual photography with signal separation coding.

*도면의 주요부호에 대한 부호의 설명** Description of Symbols for Major Symbols in Drawings *

100: 대상 물체 200: 투사 수단의 영상면100: target object 200: image plane of the projection means

300: 영상 수신 수단의 영상면 320: 등극선(epipolar line)300: image plane of the image receiving means 320: epipolar line

본 발명은 3차원 거리 영상 측정(Depth Imaging) 방법 및 시스템에 관한 것으로, 특히 신호 분리 코딩이라는 새로운 기법을 적용하여 변형된 신호를 정확하게 복원할 수 있어 보다 정확한 3차원 거리 영상 측정이 가능한 3차원 거리 영상 측정 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for 3D depth imaging, and in particular, a new technique called signal separation coding can be applied to accurately reconstruct a deformed signal, thereby enabling more accurate 3D distance image measurement. An image measuring method and system are provided.

일반적으로 구조 광(structural light)을 이용한 3차원 거리 영상 측정(3D depth imaging) 방법은 서비스 로봇 공학에서 3차원 환경을 센싱(sensing)하는데 적합하기 때문에 최근 주목을 받고 있다. 능동형 스테레오 기법인 구조 광을 이용한 거리 영상 측정의 기본 원리는 물체에 프로젝터 등과 같은 투사 수단을 이용하여 광선을 조사한 다음, 광선이 조사된 물체를 카메라 등과 같은 영상 수신 수단을 이용하여 촬영하고, 물체에 의해 광선이 어느 정도 왜곡되는지를 관찰하여, 물체와의 거리를 계산해 냄으로써 거리 영상(depth imaging)을 얻는 것이다.In general, a 3D depth imaging method using structural light has recently attracted attention because it is suitable for sensing a 3D environment in service robotics. The basic principle of distance image measurement using structured light, which is an active stereo technique, is to irradiate an object with a projection means such as a projector, and then shoot an object irradiated with the image by means of an image receiving means such as a camera. By observing how much the light is distorted, the distance is calculated by calculating the distance to the object.

도 1은 구조 광 기반의 3차원 거리 영상 측정 시스템의 원리를 설명하기 위한 개략도이다. 도 1에서 보는 바와 같이, 대상 물체(100)의 한 점 x의 3차원 위치를 측정하기 위하여, 투사 수단의 원점 O p 와 투사 수단의 영상면(retinal plane)(200) 상의 점 p를 연결하는 직선과, 영상 수신 수단의 원점 O c 와 영상 수신 수단의 영상면(300) 상의 점 q를 연결하는 직선이 만나는 교점으로 정해진다. 따라서, 프로젝터와 카메라의 보정이 이루어져 있다면, 점 p와 점 q의 각 영상면에서의 주소값의 쌍으로서 x점의 좌표를 계산하여 거리 영상(depth image)을 얻을 수 있다. 즉, 이와 같은 스테레오 기법에서 거리 영상을 측정하는 방법의 핵심은 수신된 영상과 투사된 영상에서의 픽셀 대응점을 결정하는 것이다. 대응점이 결정되면 단순한 기하학에 의하여 거리를 쉽게 계산할 수 있다.1 is a schematic diagram for explaining the principle of a structured light-based three-dimensional distance image measurement system. As shown in FIG. 1, that in order to measure the three-dimensional position of a point x in the object (100), connected to a point p on the image side of the origin O p and the projection means of projecting means (retinal plane) (200) A straight line and an intersection point where a straight line connecting the origin O c of the image receiving means and the point q on the image surface 300 of the image receiving means meet. Therefore, if the projector and the camera are calibrated, a distance image can be obtained by calculating coordinates of the x point as a pair of address values in each image plane of the point p and the point q . That is, the core of the method for measuring the distance image in such a stereo technique is to determine the pixel correspondence point in the received image and the projected image. Once the corresponding point is determined, the distance can be easily calculated by simple geometry.

거리 측정의 정확성을 위해, 투사 수단에서 투사(projection)되는 광 패턴(pattern)은 영상 수신 수단에서 검출된 신호의 공간 및/또는 시간적 주소가 대응하는 투사 수단의 픽셀 대응점을 유일하게 결정할 수 있도록 픽셀 에러이(pixel array) 상에 공간적으로 및/또는 시간 시퀀스에 따라 시간적으로 코딩(coding)된다.For the accuracy of the distance measurement, the light pattern projected by the projection means is such that the spatial and / or temporal address of the signal detected by the image receiving means allows the pixel to uniquely determine the pixel correspondence point of the corresponding projection means. Errors are coded spatially and / or temporally in time sequence on a pixel array.

이러한 코딩 방법의 종래 기술로서, 직접 코딩(direct coding), 공간 코딩(spatial coding), 시간 코딩(temporal coding), 및 하이브리드 코딩(hybrid coding) 방법의 4가지를 들 수 있다.As the prior art of such a coding method, four types of direct coding, spatial coding, temporal coding, and hybrid coding method can be cited.

직접 코딩 방법은 코딩에 있어 그레이(grey) 및/또는 컬러 레벨을 직접 사용하고, 하나의 패턴 프레임을 통해 시차 영상(disparity image)을 계산한다. 이 방법은 속도가 빠르다는 장점이 있으나, 주위 조명의 변화나 노이즈에 대하여 정확성이 떨어지고 강인성이 낮다.The direct coding method directly uses gray and / or color levels in coding and calculates a disparity image through one pattern frame. This method has the advantage of being fast, but it is less accurate and less robust against changes in ambient lighting or noise.

공간 코딩 방법은 픽셀 어레이 상에 배열된, 특별하게 설계되어 코딩된 패턴을 사용한다. De Brujin 시퀀스, 유사랜덤 코드 등이 사용된다. 이와 같이 코딩된 패턴은 인접하는 픽셀로부터 픽셀에 대한 주소 정보를 제공하기 위하여 사용된다. 공간 코딩은 하나 또는 두 개 프레임의 패턴으로부터 시차 영상을 얻는다. 이 방법은 높은 속도를 나타내며, 주소 정보를 사용하기 때문에 에러 정정에 있어 향상된 강인성을 갖지만, 픽셀 대응을 위해 공간적으로 배열된 주소 정보를 사용하기 때문에 신호의 변형이나 복잡한 물체에 대하여 취약하다.The spatial coding method uses a specially designed and coded pattern, arranged on a pixel array. De Brujin sequences and pseudorandom codes are used. This coded pattern is used to provide address information for the pixels from adjacent pixels. Spatial coding obtains a parallax image from a pattern of one or two frames. This method has high speed and has improved robustness in error correction because of using address information, but is vulnerable to signal deformation or complex objects because it uses spatially arranged address information for pixel correspondence.

시간 코딩은 시간 축에 따라 배열된 코딩 패턴을 사용한다. 2진 코드, N진 코드, 라인 시프팅(line shifting)에 따른 그레이 코드(grey code)가 제안되고 있다. 일반적으로, 시간 코딩은 공간 코딩보다 높은 정확성을 가지는데, 이는 코딩이 순서 제약을 받지 않고 검정 및 흰색 신호를 사용하여 코딩할 수 있기 때문이다. 그러나, 프레임의 시퀀스를 사용하기 때문에 빠르게 변하는 장면에 대해서는 적합하지 않다.Temporal coding uses coding patterns arranged along the time axis. Binary code, N code, and gray code according to line shifting have been proposed. In general, temporal coding has higher accuracy than spatial coding because coding can be coded using black and white signals without being constrained in order. However, because they use a sequence of frames, they are not suitable for fast changing scenes.

하이브리드 코딩은 시간 코딩과 공간 코딩을 혼합하여 사용한다. 이 코딩법은 강인한 거리 영상을 얻을 수 있지만, 공간 코딩의 단점을 그대로 갖기 때문에 매우 복잡한 환경에 대해서는 사용할 수 없다. 공간 코딩과 하이브리드 코딩은 연속적인 표면을 갖는 물체에 대하여 적절한 방법이며, 불연속적 표면에서는 주소 시퀀스의 전치(轉置, transposition)가 발생할 수 있다.Hybrid coding uses a mixture of temporal coding and spatial coding. This coding method can obtain a robust distance image, but it cannot be used for a very complicated environment because it has the disadvantages of spatial coding. Spatial coding and hybrid coding are appropriate methods for objects with continuous surfaces, and transposition of address sequences can occur at discrete surfaces.

이와 같은 종래의 코딩 방법은 주소 정보를 기반으로 하여 단일 픽셀을 계산하는 관점에서 공간 및/또는 시간 코드를 설계하는데 초점을 맞추고 있다. 그러나, 종래의 코딩 방법은 정확한 거리 영상 측정에 필요한 보다 높은 정확도의 픽셀 대응점 계산을 하는데 근본적인 한계가 있다. 특히, 절단면(occluding) 및 그림자(shading) 경계 근방과 같이 복잡한 경계면이나, 픽셀 대응 시에 주소 정보가 전치되는 점을 간과하고 있어, 복잡한 물체에 대한 거리 영상 측정의 정확도가 매우 낮은 문제점이 있다. 이는 종래의 방법이 주소 정보를 기반으로 수신된 신호를 코딩하는 것에만 초점을 맞추고 있어, 주소 정보를 부정확하게 만드는 신호의 변형 정도를 영상 수신 수단에서 고려하지 않은 결과이다. 나아가, 유일한 주소를 갖는 투사 수단 측의 각 픽셀을 제공하는 시간 코드의 긴 시퀀스를 사용한다 하더라도, 신호의 변형을 다루는 데에는 효과적이지 못하다.This conventional coding method focuses on designing spatial and / or temporal code in terms of computing a single pixel based on address information. However, the conventional coding method has a fundamental limitation in calculating a higher accuracy pixel correspondence point required for accurate distance image measurement. In particular, it ignores the fact that the address information is displaced in the case of complex boundary surfaces such as occluding and shadowing boundaries, or pixel correspondence, and thus, accuracy of distance image measurement for a complex object is very low. This is a result of the conventional method focusing only on coding the received signal based on the address information, so that the degree of distortion of the signal that makes the address information inaccurate is not taken into account in the image receiving means. Furthermore, even when using a long sequence of time codes that provide each pixel on the projection means side with a unique address, it is not effective in dealing with the deformation of the signal.

또한, 영상 수신 수단에서 수신되는 신호는 빛의 소산(scattering), 반사율(reflectance) 변화, 및 주위 조명 변화와 같은 시스템/환경 노이즈뿐만 아니라, 투사 수단의 인접하는 픽셀 심지어 멀리 떨어진 픽셀과 섞이는 다중 코드의 혼합이 발생하는 점을 고려해야 한다. 종래의 방법은 이와 같은 점을 간과하고 있다.In addition, the signal received at the image receiving means is mixed with the neighboring and even distant pixels of the projection means, as well as system / environmental noise, such as scattering of light, changes in reflectance, and changes in ambient lighting. Consideration should be given to the mixing of. The conventional method overlooks this point.

이에 본 발명자들은 상기와 같은 문제점을 해결하기 위한 "신호 분리 기법"이라는 새로운 코딩 방법을 제안하기에 이른 것이다.Accordingly, the present inventors have come up with a new coding method called "signal separation technique" to solve the above problems.

본 발명의 목적은 상술한 바와 같은 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 영상 수신 수단에서 수신되는 다수의 신호가 겹침이 일어나더라도 원래의 신호를 정확하게 분리해 낼 수 있는 신호 분리 코딩 방법을 적용한 구조 광 기반의 3차원 거리 영상 측정 방법 및 시스템을 제공하는 것이다.An object of the present invention is to solve the problems of the prior art as described above, even if a plurality of signals received by the image receiving means is applied to the signal separation coding method that can accurately separate the original signal To provide a method and system for measuring 3D distance image based on structured light.

본 발명의 다른 목적은 3차원 거리 영상 측정에 있어, 물체의 복잡한 경계면에 의해 신호가 왜곡되더라도 이를 정확하게 분리해 낼 수 있는 대응점 결정을 위한 신호 분리 코딩 방법 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a signal separation coding method and system for determining a correspondence point capable of accurately separating a signal even when the signal is distorted by a complicated boundary of an object in 3D distance image measurement.

본 발명의 또 다른 목적은 주위의 시스템 및 환경 노이즈에 대하여 강인성을 갖는 구조 광 기반의 3차원 거리 영상 측정에서 대응점 결정을 위한 신호 분리 코딩 방법 및 시스템을 제공하는 것이다.It is still another object of the present invention to provide a signal separation coding method and system for determining a corresponding point in structured light-based three-dimensional distance image measurement having robustness to surrounding systems and environmental noise.

본 발명의 또 다른 목적은 인위적인 광원과 물체 및 카메라 사이의 물리적 변환의 해석을 용이하게 달성할 수 있는 기술을 제공하는 것이다.Another object of the present invention is to provide a technique that can easily achieve the interpretation of the physical transformation between the artificial light source and the object and the camera.

상기 목적을 달성하기 위해 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법은 투사 수단에서 측정 대상 물체로 광선을 조사하고 이 광선을 영상 수신 수단에서 촬영하여 3차원 거리를 영상으로 측정하는 방법에 있어서, 상기 투사 수단의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부호화하는 단계, 상기 투사 수단을 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계, 상기 영상 수신 수단에서 상기 부호화된 신호를 수신하는 단계, 상기 수신된 신호를 분리하여 주소를 복원하는 단계 및 상기 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, the structured light-based three-dimensional distance image measuring method according to the present invention is a method of measuring a three-dimensional distance as an image by irradiating a light beam from the projection means to the object to be measured, and by imaging the light beam from the image receiving means WHEREIN: Encoding a signal by assigning a unique sender address to a signal corresponding to each pixel of said projection means, projecting a plurality of light patterns through said projection means, and transmitting a signal, said image receiving means Receiving the encoded signal, restoring an address by separating the received signal, and determining a pixel position of a target object by using the sender address and the restored address. do.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 수신된 신호를 분리하는 단계는 상기 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와 상기 후보값들 중에서 정확한 주소를 얻기 위한 규칙에 따라 주소를 결정하는 단계로 이루어진 에러 정정 단계를 포함하고, 상기 규칙은 물체의 경사면에서 신호가 얻어지는 경우 복원된 주소의 값이 점차로 증가하거나 감소하는 규칙, 물체의 절단면에서 신호가 얻어지는 경우에 복원된 주소의 값이 연속적이지 못하고, 일부가 사라지거나 전치되는 규칙 및 물체의 그림자에서 신호가 없어지는 경우 복원된 주소의 값이 연속적이지 못하고 사라져 버리는 규칙으로 이루어진 군이며, 상기 에러 정정 단계는 상기 규칙 군으로부터 선택되는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, the separating of the received signal may include calculating candidate values of possible addresses corresponding to the sender address and among the candidate values. An error correction step comprising determining an address according to a rule for obtaining an accurate address, wherein the rule includes a rule in which a value of a restored address gradually increases or decreases when a signal is obtained from an inclined plane of an object, It is a group consisting of a rule that the value of the restored address is not continuous when a signal is obtained, and that the value of the restored address is not continuous and disappears when a signal disappears from the shadow of an object and a part disappears or is displaced. The error correction step may be selected from the rule group.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 수신된 신호를 분리하는 단계는 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와 상기 후보값들 중에서 자기 위치의 주소값의 후보들과 이웃하는 위치에서의 주소값들의 후보 집합을 동시에 고려하여 평가 함수를 정의한 후, 상기 평가 함수를 최대 또는 최소화하는 탐색 방법을 사용하여 주소를 결정하는 단계로 이루어지는 에러 정정 단계를 포함하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, the separating of the received signal may include calculating candidate values of possible addresses corresponding to a sender address and performing self-selection among the candidate values. Defining an evaluation function by simultaneously considering candidates of address values of a location and a candidate set of address values at a neighboring location, and then determining an address using a search method that maximizes or minimizes the evaluation function. Characterized in that it comprises a.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 수신된 신호를 분리하는 단계는 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와 상기 후보값들로 이루어진 복수의 후보 집합 내에서 주소를 결정하기 위하여, 신뢰도가 높은 위치의 주소 값을 먼저 계산한 후에, 이러한 위치의 값을 고정한 후 점차 다른 영역의 값으로 확정해 나가면서 후보를 결정하는 단계로 이루어지는 에러 정정 단계를 포함하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, the separating of the received signal comprises calculating candidate values of possible addresses corresponding to a sender address and the candidate values. In order to determine an address within a plurality of candidate sets, an error is formed by first calculating an address value of a location having a high reliability, and then fixing the value of the location and then determining the candidate while gradually determining a value of another area. And a correction step.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 광 패턴은 이진 광 패턴, 칼라 광 패턴, 그레이 스케일의 밝기 값을 갖는 광 패턴, 비 가시 영역의 자외선 또는 적외선 영역의 광 패턴, 또는 이들의 혼합 패턴인 것을 특징으로 한다.In addition, in the structured light-based three-dimensional distance image measuring method according to the present invention, the light pattern is a binary light pattern, a color light pattern, a light pattern having a gray scale brightness value, the ultraviolet or infrared region of the non-visible region It is an optical pattern or a mixture pattern of these, It is characterized by the above-mentioned.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 신호를 부호화하는 단계에서는 상기 투사 수단의 인접한 신호간에 서로 직교하는 신호를 사용하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, in the encoding of the signal, signals that are orthogonal to each other between adjacent signals of the projection means are used.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 서로 직교하는 신호는 전체의 신호를 하나 이상의 계층적 신호로 구분하고, 각 계층 내에서 서로 직교하는 코드를 사용하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, the orthogonal signals are divided into one or more hierarchical signals, and using codes orthogonal to each other in each layer. It features.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 서로 직교하는 신호는 전체의 신호를 하나 이상의 계층적 신호로 구분하고, 각 계층 내에서 서로 직교하는 코드와 직교하지 않는 코드를 혼합하여 사용하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, the orthogonal signals divide the entire signal into one or more hierarchical signals, and are not orthogonal to the codes orthogonal to each other in each layer. It is characterized by using a mixture of cords.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 신호를 부호화하는 단계에서 상기 투사 수단의 인접한 신호간에 서로 직교하는 성질을 갖는 의사 직교 신호를 사용하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, in the step of encoding the signal, a pseudo orthogonal signal having a property orthogonal to each other between adjacent signals of the projection means is used.

또, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법에 있어서, 상기 신호를 부호화하는 단계에서 상기 투사 수단의 인접한 신호간에 서로 통계적으로 독립적인 신호를 사용하는 것을 특징으로 한다.In the structured light-based three-dimensional distance image measuring method according to the present invention, in the step of encoding the signal, signals that are statistically independent from each other between adjacent signals of the projection means are used.

또 상기 목적을 달성하기 위해 본 발명에 따른 3차원 거리 영상 측정 방법은 프로젝터와 카메라로 구성된 시스템에서 3차원 거리 영상을 측정하는 방법으로서, 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, 상기 패턴을 상기 카메라로 이를 수신하는 단계, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a three-dimensional distance image measuring method according to the present invention is a method for measuring a three-dimensional distance image in a system consisting of a projector and a camera, radiating a pattern from the projector to an object, the pattern Receiving this by the camera, calculating the pixel correspondence relationship between the projector and the camera through signal separation on each epipolar line, and after executing the calculating step, generating a new image at the projector viewpoint Characterized in that.

또 상기 목적을 달성하기 위해 본 발명에 따른 스트레오 영상 복원 방법은 프로젝터와 카메라로 구성된 시스템에서 영상을 복원 방법으로서, 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, 상기 패턴을 상기 카메라로 이를 수신하는 단계, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하고, 상기 카메라에서 얻어진 영상과 상기 프로젝터 측에서 새롭게 생성된 영상을 이용하여 스테레오 영상을 복원하는 것을 특징으로 한다.In addition, in order to achieve the above object, the stereo image restoration method according to the present invention is a method for restoring an image in a system consisting of a projector and a camera, comprising: radiating a pattern from the projector to an object and receiving the pattern into the camera; Calculating a pixel correspondence relationship between the projector and the camera through signal separation on each epipolar line, and after executing the calculating, generating a new image at the projector's point of view. The stereo image may be reconstructed by using an image and an image newly generated by the projector.

또 상기 목적을 달성하기 위해 본 발명에 따른 측정 거리 복원 방법은 프로젝터와 카메라로 구성된 시스템에서 측정 거리를 복원하는 방법으로서, 상기 카메라의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부 호화하는 단계, 상기 프로젝터 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계, 상기 카메라에서 상기 부호화된 신호를 수신하는 단계, 수신된 신호를 분리하여 주소를 복원하는 단계 및 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 포함하는 구조 광 기반의 3차원 거리 영상 측정 방법과 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, 상기 패턴을 상기 카메라로 이를 수신하는 단계, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하는 스테레오 영상을 복원하는 복원 방법을 동시에 이용하여 측정 거리를 복원하는 것을 특징으로 한다.In order to achieve the above object, the measurement distance restoration method according to the present invention is a method for restoring the measurement distance in a system consisting of a projector and a camera, and assigns a unique sender address to a signal corresponding to each pixel of the camera. Transmitting a signal by projecting a plurality of light patterns through the projector, receiving the encoded signal from the camera, recovering an address by separating the received signal, 3. A method of measuring a 3D distance image based on a structured light, comprising: determining a pixel position of a target object using the restored address; and radiating a pattern from the projector to an object, receiving the pattern from the camera. Step, connect between the projector and the camera through signal separation on each epipolar line The measurement distance may be restored by simultaneously using a reconstruction method for reconstructing a stereo image including calculating a small correspondence relationship and after executing the calculating, generating a new image from the viewpoint of the projector. .

또한 상기 목적을 달성하기 위해 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 시스템은 측정 대상 물체로 광선을 조사하는 투사수단, 상기 투사수단에서 조사된 광선을 촬영하는 영상 수신 수단과 상기 측정 대상 물체의 3차원 거리를 영상으로 측정하는 처리수단을 포함하고, 상기 처리수단은 상기 측정 대상 물체의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하는 단계, 상기 투사 수단을 통해 다수의 광 패턴을 투사하여 송신측 주소를 포함하는 신호를 부호화하는 단계, 상기 영상 수신 수단에서 상기 부호화된 신호를 수신하는 단계, 상기 수신된 신호를 분리하여 주소를 복원하는 단계 및 상기 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 순차 실행하는 것을 특징으로 한다In order to achieve the above object, the structured light-based three-dimensional distance image measuring system according to the present invention includes projection means for irradiating light rays to an object to be measured, image receiving means for photographing light rays irradiated from the projection means, and the measurement object. Processing means for measuring a three-dimensional distance of an object as an image, the processing means assigning a unique sender address to a signal corresponding to each pixel of the object to be measured; Projecting a pattern to encode a signal including a sender address, receiving the encoded signal at the image receiving means, separating the received signal to recover an address, and recovering the address and the sender address Determining the pixel position of the target object by using the received address.

본 발명의 상기 및 그밖의 목적과 새로운 특징은 본 명세서의 기술 및 첨부 도면에 의해 더욱 명확하게 될 것이다.The above and other objects and novel features of the present invention will become more apparent from the description of the specification and the accompanying drawings.

먼저 본 발명의 개념에 대해 설명한다.First, the concept of the present invention will be described.

본 발명에 따른 3차원 거리 영상 측정 방법에서 정확한 거리 영상을 얻기 위하여 프로젝터와 같은 투사 수단에서의 화소 위치와 카메라와 같은 영상 수신 수단에서의 화소 위치의 정확한 대응점을 결정하는 것이 중요하다. 대응점이 결정되면 단순한 기하학에 의하여 대상 물체의 3차원 데이터는 쉽게 계산된다. 스테레오 영상에서의 대응점은 도 1에 도시된 에피폴라 라인(epipolar line)(320) 상에 존재하기 때문에, 등극선 위만을 탐색하는 것만으로도 충분하다. 특히, 투사 수단과 영상 수신 수단이 평행한 평행 스테레오(stereo)의 경우에는 에피폴라 라인이 영상면의 행 또는 열과 일치하므로 계산이 단순해진다. 투사 수단과 영상 수신 수단이 평행하지 않은 경우에는 보정(calibration) 및 평행화(rectification) 과정을 통하여 평행 스테레오를 구성할 수 있다. 이러한 보정 및 평행화 과정은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자로부터 용이하게 수행될 수 있다.In the three-dimensional distance image measuring method according to the present invention, it is important to determine the exact correspondence between the pixel position in the projection means such as the projector and the pixel position in the image receiving means such as the camera. Once the corresponding points are determined, the three-dimensional data of the object can be easily calculated by simple geometry. Since the corresponding point in the stereo image exists on the epipolar line 320 shown in Fig. 1, it is sufficient to search only above the isopolar line. In particular, in the case of parallel stereo in which the projection means and the image receiving means are parallel, the calculation is simplified because the epipolar lines coincide with the rows or columns of the image plane. When the projection means and the image receiving means are not parallel, parallel stereo may be configured through a calibration and a parallelization process. This correction and parallelization process can be easily performed by those skilled in the art.

일반적인 구조 광 기법에서는 투사 수단에서 일련의 패턴을 물체로 방사하고, 영상 수신 수단을 통해 획득한 영상을 분석함으로써 3차원 영상을 복원한다. 이때, 투사 수단과 영상 수신 수단 사이의 정확한 화소 대응 관계 계산이 필요하지만, 실제의 경우에는 다양한 에러 원인에 의하여 투사 수단 측에서 송신한 신호들이 혼합되어 영상 수신 수단에 수신되는 문제가 발생한다.In the general structured light technique, the projection means radiates a series of patterns to an object, and reconstructs a 3D image by analyzing an image acquired through the image receiving means. At this time, it is necessary to calculate the exact pixel correspondence relationship between the projection means and the image receiving means, but in practice, a problem arises in that signals transmitted from the projection means are mixed and received by the image receiving means due to various error sources.

이러한 신호의 혼합은 대상 물체(100)의 표면부의 기하학적 구조에 따라 설명할 수 있다. 도 2에서 물체 표면부의 기하학적 구조에 따른 신호의 혼합 모델을 도시하고 있다. 도 2의 (a)에서와 같이 대상 물체(100)의 표면부가 평탄하면서 송수신 측의 영상면(200, 300)과 평행하더라도, 투사 수단에서 투사한 광선과 영상 수신 수단의 수신 영역 사이의 크기와 위치의 차이로 인해 신호의 혼합이 발생한다. 도 2의 (b)와 같이, 대상 물체(100)의 표면부가 투사 수단 쪽으로 기울어져 있는 경우(Out-Slant)에는 투사 수단의 영상면(200)의 인접하는 픽셀로부터 다수의 광선이 대응하는 영상 수신 수단의 영상면(300)의 픽셀로 겹쳐져 입사할 수 있다. 반대로, 도 2의 (c)와 같이, 대상 물체(100)의 표면부가 투사 수단의 영상면(200)으로부터 멀리 기울어져 있다면(In-Slant), 투사 수단의 영상면(200)에서 인접하는 픽셀로부터 소수의 광선이 대응하는 영상 수신 수단의 영상면(300)의 픽셀 상에 입사할 수 있다.This mixing of signals can be explained according to the geometry of the surface portion of the object 100. 2 shows a mixed model of a signal according to the geometry of an object surface portion. Although the surface portion of the target object 100 is flat and parallel to the image planes 200 and 300 on the transmitting and receiving side as shown in FIG. 2A, the size between the light beam projected by the projection means and the reception area of the image receiving means The difference in position results in mixing of the signals. As shown in FIG. 2B, when the surface portion of the target object 100 is inclined toward the projection means (Out-Slant), an image corresponding to a plurality of light rays from adjacent pixels of the image surface 200 of the projection means is corresponding. It may be incident on the pixel of the image plane 300 of the receiving means. On the contrary, as shown in FIG. 2C, if the surface portion of the target object 100 is inclined away from the image plane 200 of the projection means (In-Slant), pixels adjacent to the image plane 200 of the projection means are inclined. Few rays of light can be incident on the pixels of the image plane 300 of the corresponding image receiving means.

또, 도 2의 (d)와 같이, 대상 물체(100)의 주위에 분리된 별도의 물체가 있는 경우(transposition), 인접하고 있는 면과 멀리 있는 별도의 물체의 두 개의 분리된 면 부분에서 각각 코드의 전치가 발생한다. 또한, 도 2의 (e)와 같은 경우(Out-Discontinuity), 영상 수신 수단의 영상면(300) 상의 수신 영역과 투사 수단에서의 그림자에 의해 코드의 삭제가 일어난다. 도 2의 (f)의 경우(In-Discontinuity), 대상 물체의 절단면의 경계에서 거리의 급격한 불연속점이 있을 경우, 다수의 광선은 인접하는 픽셀 뿐만 아니라 멀리 떨어진 영상 수신 수단의 픽셀로부터 대응하는 픽셀로 겹쳐져 입사할 수 있다.In addition, as shown in (d) of FIG. 2, when there are separate objects separated around the target object (transposition), each of the two separated surface portions of the adjacent surface and the separate object far away, respectively. Transpose of the code occurs. In addition, in the case of (e) of FIG. 2 (out-discontinuity), the code is deleted by the reception area on the image surface 300 of the image receiving means and the shadow of the projection means. In case of FIG. 2F (In-Discontinuity), when there is a sharp discontinuity point of distance at the boundary of the cutting plane of the target object, the plurality of light rays are not only adjacent pixels but also corresponding pixels from distant image receiving means. It can overlap and be incident.

이와 같은 신호의 혼합 이외에도, 영상 수신 수단에서 수신된 신호는 표면 반사율의 변화, 물체 표면에서의 빛의 소산, 주위 조명의 변화와 같은 시스템 및 환경 노이즈에 의하여 변형될 수도 있다. 표면 반사율의 변화는 신호의 강도를 변화시키고, 물체 표면에서 빛의 소산은 흐려짐(blurring)이나 신호의 혼합을 유발한다. 또한, 주위 조명의 변화에 의해 신호의 강도 변화가 발생할 수 있다. 이와 같은 신호의 혼합 등의 요인에 의하여 투사 수단과 영상 수신 수단의 화소점 대응은 부정확한 관계를 갖게 된다. 이러한 대응점 관계의 부정확성은 구조 광 기법에서 3차원 거리 영상을 얻는데 근본적인 오차를 유발한다.In addition to the mixing of such signals, the signals received by the image receiving means may be modified by system and environmental noise such as changes in surface reflectance, dissipation of light on the object surface, and changes in ambient lighting. The change in surface reflectance changes the signal's intensity, and the dissipation of light on the object's surface causes blurring or mixing of the signal. In addition, a change in intensity of a signal may occur due to a change in ambient lighting. Due to such a mixing of signals, the pixel point correspondence between the projection means and the image receiving means has an inaccurate relationship. The inaccuracy of the correspondence point causes a fundamental error in obtaining the 3D distance image in the structured light technique.

본 발명에 따른 신호 분리 코딩 방법은 이와 같은 신호의 혼합에 대하여 혼합된 신호를 분리하는 과정을 통하여, 투사 수단 측의 화소 대응점 주소를 정확하게 복원할 수 있도록 설계된 것이다. 종래의 코딩 방법과의 근본적인 차이점은 영상 수신 수단에서 수신된 패턴 신호를 분리해내는 과정을 도입한 것이다. 따라서, 신호의 분리를 용이하게 하기 위하여, 투사 수단에서의 부호화 과정으로서 다수의 광 패턴을 조사한다.The signal separation coding method according to the present invention is designed to accurately restore the pixel correspondence point address on the projection means side through the process of separating the mixed signals with respect to such a mixture of signals. The fundamental difference from the conventional coding method is to introduce a process of separating the pattern signal received by the image receiving means. Therefore, in order to facilitate separation of signals, a plurality of light patterns are irradiated as an encoding process in the projection means.

본 발명에 있어서는 신호의 혼합 및 분리 과정을 다음과 같이 모델링할 수 있다.In the present invention, the process of mixing and separating signals can be modeled as follows.

1) 신호의 혼합: 우선, 신호가 이웃하는 신호와 혼합되는 경우, 투사 수단 측의 화소 밝기를 자신의 밝기 값과 이웃 화소에서 발생하는 밝기의 가중 합이라 가정할 수 있다. 즉, 투사 수단 측 신호와 영상 수신 수단 측 신호의 관계는 선형 적인 혼합 신호 모형 Y=XW로 나타낼 수 있다. X∈R(f x m)Y∈R(f x m)는 각각 투사 수단에서 보낸 송신 코드 x i=(x 1,…,x f)T와 영상 수신 수단 측의 혼합된 영상 신호 y i=(y 1,…,y f)T로 이루어진 행렬이며, W∈R(f x m)는 혼합 계수로 이루어진 혼합 행렬이다. 위에서 f는 신호의 길이를, m은 화소의 수를 각각 나타낸다. 예를 들어 시간 코딩 방법을 사용하는 경우에, f는 프레임의 수를 의미한다.1) Mixing of Signals: First, when a signal is mixed with a neighboring signal, it may be assumed that the pixel brightness on the projection means side is a weighted sum of its brightness value and the brightness generated in the neighboring pixels. That is, the relationship between the projection means side signal and the image receiving means signal can be represented by the linear mixed signal model Y = XW . X R (fxm) and Y R (fxm) are respectively the transmitted code x i = ( x 1 ,…, x f ) T sent from the projection means and the mixed image signal y i = ( y 1 , ..., y f ) is a matrix consisting of T , and W R (fxm) is a mixing matrix composed of mixing coefficients. F denotes the length of the signal and m denotes the number of pixels, respectively. For example, when using a time coding method, f means the number of frames.

2) 신호의 분리: 만일 X가 정규 직교 행렬이라면, 혼합 행렬은 W=X T Y로 쉽게 계산된다. 따라서, 직교 신호를 사용하여 패턴을 송신한다면 신호가 혼합되는 경우에도, 자신의 값이 이웃의 신호 값보다 더 크다면, 직교 코드들에 투영한 가장 큰 코드의 색인 값 code(y j)=argmax(j) W i ,j로 결정될 수 있다.2) Signal Separation: If X is a normal orthogonal matrix, then the mixing matrix is easily calculated as W = X T Y. Thus, if a pattern is transmitted using an orthogonal signal, even if the signals are mixed, if its value is greater than the neighboring signal value, then the index value of the largest code projected on the orthogonal codes code ( y j ) = argmax (j) W i , j can be determined.

이러한 모델은 투사 수단과 영상 수신 수단의 기하학적 관계를 고려하지 않은 일반화된 모형으로서, 실제의 투사 수단과 영상 수신 수단 사이의 화소 대응을 위한 탐색은 스테레오 비전의 경우와 마찬가지로 전체의 영상이 아닌 에피폴라 라인 위에서만 이루어진다. 특히, 앞서 설명한 바와 같이, 평행 스테레오 조건에서는 에피폴라 라인과 투사 수단 및 영상 수신 수단의 행 또는 열이 일치하므로, 영상 내의 행 또는 열을 기준으로만 탐색을 수행하면 된다. 예를 들어, 이들을 수평으로 배치하는 경우 에피폴라 라인과 이들의 행이 일치한다.This model is a generalized model without considering the geometrical relationship between the projection means and the image receiving means, and the search for pixel correspondence between the actual projection means and the image receiving means is epipolar rather than the whole image as in the case of stereo vision. Only above the line. In particular, as described above, in the parallel stereo condition, since the epipolar line and the row or column of the projection means and the image receiving means coincide, the search may be performed only based on the row or column in the image. For example, when placing them horizontally, the epipolar lines and their rows coincide.

본 발명에서는 이러한 신호 분리의 개념을 이용한 부호화, 복호화 및 에러 정정 방법을 사용함으로써 3차원 거리 영상 측정을 수행한다.In the present invention, 3D distance image measurement is performed by using an encoding, decoding, and error correction method using the concept of signal separation.

이하, 본 발명의 구성을 도면에 따라서 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the structure of this invention is demonstrated according to drawing.

< 실시예 1 ><Example 1>

도 3은 본 발명에 따른 신호 분리 방법을 적용한 3차원 측정 방법에 대한 흐름도이다.3 is a flowchart illustrating a three-dimensional measurement method applying the signal separation method according to the present invention.

도 3에 도시한 바와 같이, 단계 S1에서 측정 대상 물체의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당한다. 그 다음 단계 S2에서 투사 수단을 통해 다수의 광 패턴을 투사하여, 상기 송신측 주소를 포함하는 신호를 부호화한다. 단계 S3에서 각각의 패턴을 수신한 다음, 단계 S4에서 신호 분리 과정을 통해 원 신호를 분리해낸다. 단계 S5에서 복구된 신호로부터 대응점을 계산해 낸다.As shown in Fig. 3, in step S1, a unique sender address is assigned to the signal corresponding to each pixel of the object to be measured. Then, in step S2, a plurality of light patterns are projected through the projection means to encode a signal including the sender address. After receiving each pattern in step S3, the original signal is separated through a signal separation process in step S4. The corresponding point is calculated from the signal recovered in step S5.

이러한 단계는 수집된 데이터를 처리하는 처리수단에 의해 실행된다. 즉 본 발명에서 사용되는 처리수단은 프로세서로서 상기 단계S1 내지 S5를 실행할 수 있는 기능을 수반하는 것으로서 통상의 컴퓨터 시스템에 의해 달성된다 This step is executed by processing means for processing the collected data. In other words, the processing means used in the present invention is achieved by an ordinary computer system as having a function of executing the steps S1 to S5 as a processor.

다음에 본 발명에서 사용하는 신호의 부호화, 복호화 과정 및 에러의 탐지 및 정정에 대한 구체예에 대하여 설명한다.Next, specific examples of the encoding, decoding process, and error detection and correction of a signal used in the present invention will be described.

신호의 부호화Signal encoding

본 발명에서는 신호 분리를 통한 화소 대응점의 계산을 위해, 적절한 신호의 코딩 방법이 전제되어야 한다. 신호 분리를 가능하게 하는 코딩 방법의 구체예로써, 시간 축 상에서 다수의 패턴을 투사한다. 특히, 시간 축 상에서 인접한 신호간에 서로 직교하는 신호를 사용하는 부호화 방법을 사용할 수 있으며, 프레임의 수 를 줄이기 위해 직교 신호를 계층적으로 배열하여 사용하는 방법을 도입할 수 있다.In the present invention, in order to calculate the pixel correspondence point through signal separation, an appropriate signal coding method should be assumed. As an embodiment of the coding method that enables signal separation, a plurality of patterns are projected on the time axis. In particular, an encoding method using signals orthogonal to each other between adjacent signals on the time axis may be used, and a method of hierarchically arranging orthogonal signals may be introduced to reduce the number of frames.

본 발명에서 적용되는 구조 광 시스템은 정보원, 정보원에 대한 부호화(encoding), 채널, 잡음원, 복호화(decoding) 및 수신부로 이루어진 하나의 통신 시스템으로 간주할 수 있다. 투사 수단에서 부호화된 주소들을 송신하는 경우, 물체의 기하학적 구조와 시스템/환경에 의해 신호가 왜곡되는 것은 노이즈에 의해서 채널에 잡음이 더해지는 것과 동일하게 생각할 수 있다. 영상 수신 수단에서 신호들이 수신되면 잡음이 포함된 신호들로부터 원래의 신호를 복원하는 것이 가능하다. 투사 수단에서 보내는 신호의 순서를 알고 있다면, 수신된 신호와의 시차(disparity)를 계산할 수 있으며, 이에 따라서 3차원 영상을 복원할 수 있다.The structured optical system applied in the present invention may be regarded as a communication system including an information source, an encoding of the information source, a channel, a noise source, a decoding, and a receiver. When transmitting the encoded addresses in the projection means, the distortion of the signal by the geometry of the object and the system / environment can be thought of as the same as the noise added to the channel by the noise. When signals are received at the image receiving means, it is possible to recover the original signal from the noise-containing signals. If the order of the signals sent from the projection means is known, the disparity with the received signal can be calculated, and thus the 3D image can be reconstructed.

본 발명의 구체예에 따른 직교 신호를 사용하는 구조 광 시스템에서, 통신과정을 부호화 과정(encoding process)과 복호화 과정(decoding process)으로 구분할 수 있다. 부호화 과정에서는 우선 투사 수단 측의 각 영상의 화소 위치에 유일한 주소값을 할당한다. 이때, 구조 광 시스템은 스테레오 비전(stereo vision)과 마찬가지로 에피폴라 라인 기하 조건을 고려할 수 있기 때문에, 전체 영상에 대해서 고유한 주소를 부여할 필요 없이, 영상의 행 또는 열에 대해서만 고유한 주소를 부여하면 된다. 하나의 에피폴라 라인 위에 N개의 화소가 놓여 있다고 가정하면, 투사 수단의 송신 신호는 N개의 주소로 구성된다. In a structured optical system using an orthogonal signal according to an embodiment of the present invention, a communication process may be divided into an encoding process and a decoding process. In the encoding process, a unique address value is first assigned to the pixel position of each image on the projection means side. In this case, since the structured light system can consider epipolar line geometric conditions as well as stereo vision, it is not necessary to give unique addresses to the entire image, but only uniquely addresses rows or columns of the image. do. Assuming that N pixels are placed on one epipolar line, the transmission signal of the projection means is composed of N addresses.

S={s1, s2, …, SN}∈N. S = {s 1 , s 2 ,... , S N } ∈N.

환경의 잡음에 강인한 채널 코딩을 위해서 이진 코드를 사용할 수 있다. 즉, 소스에 대응하는 이진 코드, B={b 1, b 2, …, b N}을 정의할 수 있다. 만일, 완전한 직교 이진 코드(즉, <b i, b j>=0, i≠j)를 사용한다면, 영상 수신 수단에서 얻어야 하는 영상의 수와 코드의 길이가 같아야 하기 때문에, 정확한 거리 영상을 얻을 수 있음에도 불구하고 계산 시간이 오래 걸리게 된다. 이와 같이, 프레임의 수가 증가하는 문제를 해결하기 위하여, 본 발명에서는 직교 신호를 계층적으로 배치하는 계층적 직교 코딩(Hierarchical Orthogonal Coding: HOC)을 사용할 수 있다. 이 HOC 기법은 직교 코드의 성질을 최대한 유지하면서, 가능한 한 신호의 길이를 짧게 하는데 초점을 둔다.Binary code can be used for channel coding that is robust against environmental noise. That is, the binary code corresponding to the source, B = { b 1 , b 2 ,... , b N } can be defined. If a full orthogonal binary code (i.e., < b i , b j > = 0, i ≠ j) is used, the number of images to be obtained by the image receiving means and the code length must be the same, so that an accurate distance image is obtained. Although it can be done, the calculation takes a long time. As described above, in order to solve the problem of increasing the number of frames, the present invention may use hierarchical orthogonal coding (HOC) for hierarchically arranging orthogonal signals. This HOC technique focuses on keeping the length of the signal as short as possible while maintaining the nature of the orthogonal code.

도 4에 이러한 계층적 직교 코드의 일 예를 도시하고 있다. 도 4에 도시한 바와 같이, 전체 신호는 하나 이상의 계층으로 구분되며, 각 계층은 직교 신호들의 집합으로 구성된다. 부호화 과정에서 N개의 길이를 가지고 있는 신호를 L개의 계층으로 나누고 각 계층에서 H개의 직교 신호를 사용하도록 구성한다. 전체의 신호는 직교하지 않지만, 각 계층 내의 일정한 영역 내(상위 계층에서 고유하게 지정된 범위)에서 신호는 서로 직교하게 된다. 예를 들면, HOC가 4개의 계층(L=4)을 사용하고, 각 계층 내에서 마찬가지로 4개씩의 직교 신호(H1=H2=H3=H4=4)를 사용한다고 가정하면, 전체 신호의 수는 256(H1×H2×H3×H4=44=256)이 되며, 코드의 길이는 16(H1+H2+H3+H4=16)이 된다. 즉, 주소를 복원하기 위하여 영상 수신 수단에서 16 프 레임의 영상이 필요하게 된다.4 shows an example of such a hierarchical orthogonal code. As shown in Figure 4, the entire signal is divided into one or more layers, each layer consisting of a set of orthogonal signals. In the encoding process, a signal having N lengths is divided into L layers, and H orthogonal signals are configured in each layer. The entire signal is not orthogonal, but the signals are orthogonal to each other within a certain region (a range uniquely specified in the upper layer) within each layer. For example, suppose the HOC uses four layers (L = 4) and uses four orthogonal signals (H 1 = H 2 = H 3 = H 4 = 4) in each layer as well. The number of signals is 256 (H 1 × H 2 × H 3 × H 4 = 4 4 = 256), and the code length is 16 (H 1 + H 2 + H 3 + H 4 = 16). That is, in order to recover the address, the image receiving means requires 16 frames of image.

신호의 분리Separation of signals

본 발명에 따른 신호 분리 코딩 방법에서 신호 분리 과정은 혼합된 신호로부터 원래의 신호를 분리하여 투사 수단에서 송신한 주소값들을 얻는 과정이다. 영상 수신 수단에서 얻은 f프레임의 시공간 영상의 i번째 위치를 I(i, t)로 나타내고, 그 위치에서 화소의 밝기값을 벡터 y i=(y 1, …, y f)T로 나타내자. HOC가 L개의 계층을 가지고 있다면, 벡터 y는 각 계층에서의 밝기값을 나타내는 영상 벡터들로 구성된 하나의 확장벡터 y i=(b 1, b 2 , …, b L)T로 나타낼 수 있다. 영상 벡터 bj의 첨자는 j번째 계층을 나타낸다. 각 계층에서 H개의 직교 신호를 사용하기 때문에, 벡터 b는 직교 신호들의 선형 결합, 즉 b=Xc와 같이 표현된다. 여기서, cX는 각각 계수 벡터와 직교 코드 행렬을 나타낸다. 즉, 특정한 위치에서의 밝기값을 나타내는 벡터 b는 물체와 환경의 기하학적인 성질, 물체 표면의 반사 등에 기인하는 다른 신호들을 포함하고 있게 된다.In the signal separation coding method according to the present invention, the signal separation process is a process of separating the original signal from the mixed signal and obtaining the address values transmitted by the projection means. Let the i-th position of the spatio-temporal image of the f-frame obtained by the image receiving means be represented by I (i, t), and the brightness value of the pixel at that position as the vector y i = ( y 1 , ..., y f ) T. If the HOC has L layers, the vector y may be represented by one extension vector y i = ( b 1 , b 2 , ..., B L ) T composed of image vectors representing brightness values in each layer. The subscript of the image vector b j indicates the j th layer. Since H orthogonal signals are used in each layer, the vector b is expressed as a linear combination of orthogonal signals, that is, b = Xc . Here, c and X represent coefficient vectors and orthogonal code matrices, respectively. That is, the vector b representing the brightness value at a specific position includes other signals due to the geometrical properties of the object and the environment and the reflection of the object surface.

L번째 계층에서, i번째 위치에서의 계수 벡터 c(i)는 전치된 직교 행렬과 그 위치에서 측정된 신호 벡터 b(i)의 내적으로써, 즉 c(i)=X T b(i)와 같이 계산할 수 있다. 이러한 과정을 통하여, 전체의 계층에 대해서 확장벡터 y i=(b 1, b 2 , …, b L)T에 대응하는 확장 계수 벡터 c=(c 1, c 2 , …, c L)T를 얻을 수 있다. HOC의 계층적 구조에 의하여, i번째 위치에서의 가능한 주소의 총 수는 HL이 된다. 즉, 4개의 계층과 4개의 직교 신호를 사용하는 경우 모두 256개의 가능한 후보들이 존재한다.In the L-th layer, the coefficient vector c (i) at the i-th position is the inner product of the transposed orthogonal matrix and the signal vector b (i) measured at that position, i.e. c (i) = X T b (i) Can be calculated as Through this process, the expansion coefficient vector c = ( c 1 , c 2 , …, c L ) T corresponding to the expansion vector y i = ( b 1 , b 2 , …, b L ) T is calculated for the entire layer. You can get it. Due to the hierarchical structure of the HOC, the total number of possible addresses in the i th position is H L. That is, there are 256 possible candidates in all four layers and four orthogonal signals.

이와 같은 신호 분리 과정의 개념도를 도 5에 도시하고 있다. 도 5의 (a)에서, 카메라 영상의 에피폴라 라인 상의 i번째 위치에서, 16프레임을 얻는다. 그 다음 (b)에서 직교 행렬의 내적을 취하여 원래의 신호를 분리한 다음, (c) 가능한 코드를 선택하여 (d) 정확한 주소를 결정한다. 여기서, 정확한 주소를 결정하는 과정은 통상 신호의 강도를 기준으로 하는 것이 가장 단순한 방법이다. 통상의 경우 최대의 신호 강도를 가진 신호에 의해 주소가 결정된다. A conceptual diagram of such a signal separation process is shown in FIG. 5. In Fig. 5A, 16 frames are obtained at the i-th position on the epipolar line of the camera image. Then we take the dot product of the orthogonal matrix in (b) to separate the original signal, and (c) choose the possible code to determine (d) the correct address. Here, the process of determining the correct address is usually based on the strength of the signal is the simplest method. In general, the address is determined by the signal with the maximum signal strength.

주소가 결정되면 단순한 기하학에 의해 거리 영상을 측정할 수 있다. 원래의 화소 위치와 수신된 화소 위치를 이용하여 거리 측정하는 방법은 본 발명이 속하는 기술분야에서 자명한 사항이므로 자세한 설명은 생략한다.Once the address is determined, distance images can be measured by simple geometry. Since the method of measuring distance using the original pixel position and the received pixel position is obvious in the art to which the present invention pertains, a detailed description thereof will be omitted.

에러의 탐지 및 정정Error detection and correction

수신된 신호는 다수의 신호가 혼합된 것이기 때문에 단지 최대의 강도를 가졌다고 해서 그것이 언제나 정확한 주소를 제공한다고 할 수는 없다. 따라서, 가능한 후보값들 중에서 정확한 주소를 결정하는 경우, 신호의 강도만을 이용하는 것이 아니라, 이웃 위치에서의 강도와 복원된 후보 주소값들의 통계적 분포를 이용하여, 보다 많은 에러를 정정하는 것이 가능하다. 이와 같은 에러의 정정과정을 통해 다양한 잡음에 더욱 강인한 코딩이 가능하다.Since a received signal is a mixture of multiple signals, just having maximum strength does not necessarily mean that it always provides the correct address. Therefore, when determining the correct address among possible candidate values, it is possible to correct more errors by using not only the signal strength but also the statistical distribution of the strength and the restored candidate address values in the neighbor position. Through this error correction process, more robust coding is possible for various noises.

본 발명에서 에러 정정의 방법에는 규칙에 의한 에러 정정, 평가 함수에 의한 에러 정정 및 기존의 코딩 방식과 직교 코딩의 혼합 방법이 있다.In the present invention, the error correction method includes error correction by a rule, error correction by an evaluation function, and a mixing method of an existing coding scheme and an orthogonal coding.

(1) HOC-코드 전이 규칙에 의한 에러의 정정(1) Correction of Error by HOC-Code Transition Rule

규칙에 의한 에러 정정은 복원된 주소값들이 체계적인 패턴을 나타냄을 이용하는 것이다. 즉, 에피폴라 라인 위에서 복원된 일련의 주소값들은 물체 및 환경의 기하학적인 구조를 반영하기 때문에 체계적인 패턴을 나타낸다. 신호 분리 과정을 통해 얻은 후보 주소들의 변화도 마찬가지의 패턴을 지닌다. 이러한 원리에 기초하여 가능한 정확하게 시차를 제공하는 에러 정정 방법을 사용할 수 있다. 만일, 우리가 모든 위치에서 주소들의 후보값들을 가지고 있다면, 이를 이용하여 부정확한 주소들을 탐지하고 정정하는 것이 가능하다.The error correction by the rule is that the restored address values represent a systematic pattern. That is, a series of address values restored on the epipolar line represents a systematic pattern because it reflects the geometric structure of objects and environments. The change of candidate addresses obtained through the signal separation process has the same pattern. Based on this principle, an error correction method can be used that provides parallax as accurately as possible. If we have candidate values of addresses at every location, it is possible to use this to detect and correct incorrect addresses.

후보 코드 또는 DMA 픽셀 주소의 집합 ({Di -k, pi -k}), …, ({Di -1, pi -1}), ({Di, pi}), ({Di +1, pi +1}), …, ({Di +k, pi +k})은 각각 카메라 픽셀 Ci -k, …, Ci -1, Ci, Ci+1,…, Ci +k에 대한 신호 분리 과정에 의해 에피폴라 라인을 따라 얻는다. 16 비트 HOC 코드로 표현된 부호는 신호 분리 과정에서 계산된 상대 신호 강도의 레벨을 기초로 프라이어티 인덱스(priority index) p를 할당받는다.Candidate code or set of DMA pixel addresses ({D i -k , p i -k }),... , ({D i -1 , p i -1 }), ({D i , p i }), ({D i +1 , p i +1 }),... , ({D i + k , p i + k }) are the camera pixels C i -k,. , C i -1 , C i , C i + 1 ,... , Obtained along the epipolar line by signal separation for C i + k . A code represented by a 16-bit HOC code is assigned a priority index p based on the level of the relative signal strength calculated during signal separation.

이에 따라, 에러를 탐지하기 위한 코드 전이 규칙은 다음과 같다.Accordingly, the code transition rule for detecting an error is as follows.

- 평면 규칙(plane rule): 집합 ({Di -k, pi -k}), …, ({Di -1, pi -1}), ({Di, pi}), ({Di +1, pi+1}), …, ({Di +k, pi +k})은 각각 동일한 원소의 수를 가지며, Ci -k에서 Ci+k로 이동하면서 픽셀 주소의 연속적인 변화를 나타낸다.Plane rule: set ({D i -k , p i -k }),... , ({D i -1 , p i -1 }), ({D i , p i }), ({D i +1 , p i + 1 }),... , ({D i + k, p i + k}) has the same number of elements, respectively, while moving from C i to C i + k -k shows a continuous change of the pixel address.

- 경사면 규칙(slanted surface rule): 집합 ({Di -k, pi -k}), …, ({Di -1, pi-1}), ({Di, pi}), ({Di +1, pi +1}), …, ({Di +k, pi +k})은 점차로 증가하거나 감소한다. 점차로 증가하거나 감소하는 것은 경사면 상에 투사된 광선이 확대되면서 동일한 주소가 반복되거나, 또는 경사면 상에 투사된 광선이 집약되면서 연속적인 주소의 겹침이 일어나는 것으로 취급한다. 일반적으로, 픽셀 주소의 연속적인 변화는 원소의 증가나 감소가 일어나더라도 그대로 유지된다.Slanted surface rule: set ({D i -k , p i -k }),... , ({D i -1 , p i-1 }), ({D i , p i }), ({D i +1 , p i +1 }),... , ({D i + k , p i + k }) gradually increases or decreases. Incrementally increasing or decreasing treats the same address repeated as the light beam projected on the inclined plane is enlarged, or the overlapping of consecutive addresses occurs as the light beam projected on the inclined plane is aggregated. In general, successive changes in pixel addresses remain intact, even as elements increase or decrease.

- 절단면 규칙(occluding rule): 집합 ({Di -k, pi -k}), …, ({Di -1, pi -1}), ({Di, pi}), ({Di+1, pi +1}), …, ({Di +k, pi +k})은 주소의 삭제가 발생하는 픽셀 주소의 급격한 변화를 나타낸다.Occluding rule: set ({D i -k , p i -k }),... , ({D i -1 , p i -1 }), ({D i , p i }), ({D i + 1 , p i +1 }),... , ({D i + k , p i + k }) indicates a drastic change in the pixel address where the deletion of the address occurs.

- 그림자 규칙(shadow/shading rule): 집합 ({Di -k, pi -k}), …, ({Di -1, pi-1}), ({Di, pi}), ({Di +1, pi +1}), …, ({Di +k, pi +k})은 그림자에 진입하거나 그림자로부터 나올 때 원소의 수가 점차 0으로 감소하거나, 0으로부터 점차로 증가한다.Shadow / shading rule: set ({D i -k , p i -k }),... , ({D i -1 , p i-1 }), ({D i , p i }), ({D i +1 , p i +1 }),... , ({D i + k , p i + k }) increases or decreases from 0 to 0 when entering or exiting a shadow.

(2) 평가 함수에 의한 에러 정정(2) Error correction by evaluation function

본 발명에 따른 영상 측정 과정은 가능한 코드의 집합을 선택하는 과정과 그 집합에서 위치 주소에 대한 신뢰도가 가장 높은 주소를 선택하는 과정에 관련된 복합 과정이다. 이와 같은 과정에서, 신뢰도 지표 함수를 사용할 수 있다.The image measuring process according to the present invention is a complex process related to selecting a set of possible codes and selecting an address having the highest reliability of a location address from the set. In this process, the reliability indicator function can be used.

HOC가 L계층과 H개의 직교 코드를 사용하는 경우, 특정한 위치에서의 주소값 후보들의 총 수는 LH가 된다. 모든 경우를 고려하는 것이 가능하다고 하더라도 보다 단순화된 방법을 적용할 수 있다. 계산의 복잡도를 감소시키기 위하여, 하나의 신호가 최대 두 개의 지배적인 신호들의 혼합으로 생성되었다고 가정할 수 있다. 이러한 가정을 이용하면 LH개의 후보들이 아니라, 오직 2L개의 후보들만을 고려할 수 있다. When the HOC uses the L layer and H orthogonal codes, the total number of address value candidates at a specific position becomes L H. Although it is possible to consider all cases, a more simplified method can be applied. In order to reduce the complexity of the calculation, one can assume that a signal is created with a mixture of at most two dominant signals. Using this assumption, only 2 L candidates can be considered, not L H candidates.

즉, 첫째, HOC의 각 계층에서 신호의 강도를 이용하여 대표적인 두 개씩의 신호를 선별한다. 둘째, 가장 신뢰도가 높은 주소를 결정하기 위하여 해당 위치에서의 신호의 크기, 이웃 신호들과의 차이에 따른 불확실성, 물체와 환경의 구조적 관계를 반영하는 연속성 등을 인자로 하여 신뢰도 지표를 정의할 수 있다. 즉, 영상 내의 y i 위치의 코드 code(y i)는 y i의 신호 크기와 이웃 신호와의 크기 차이를 반영하는 불확실성 그리고 인접 위치의 계산된 거리 등의 연속성에 의해 결정할 수 있다. 즉, y i의 가중치 벡터를 w i=(w 1, …, w f)T ,이진 코드를 라 c i=code(y i)라 하면, 비용함수 h는 다음 수학식 1과 같이 정의할 수 있다.That is, first, two representative signals are selected using the signal strength in each layer of the HOC. Second, in order to determine the most reliable address, reliability indicators can be defined as factors such as the magnitude of the signal at the location, uncertainty due to differences from neighboring signals, and continuity reflecting the structural relationship between the object and the environment. have. That is, the code code (y i) of y i in the image position can be determined by the continuity of the calculated distance and the uncertainty of the position adjacent to reflect the size difference between the signal level and neighboring signals y i. That is, if the weight vector of y i is w i = ( w 1 ,…, w f ) T , and the binary code is c i = code ( y i ), the cost function h can be defined as have.

Figure 112006009846209-pat00001
Figure 112006009846209-pat00001

상기 수학식 1 에서, Ci (j)w i=(w 1, …, w f)T은 각각 복호화된 신호 및 가중치 벡터를 나타낸다. ПCi(j)wi(j)항과 ∑(wilog(1/wi))항은 각각 직교 코드 Ci의 신호 크기와 불확실성 측정에 대한 엔트로피 측정값에 대응한다. 함수 g(Ci, Ck)는 거리 정보의 위치에서 기하학적 연속성에 대응하는 측정값이다. 이러한 함수는 다양하게 정의될 수 있다. 일례로 단순한 경사를 이용할 수 있다. λ1과 λ2는 각 요인의 정도를 조정하는 계수이다.In Equation 1, Ci (j) and w i = ( w 1 , ..., w f ) T represent a decoded signal and a weight vector, respectively. The terms CC i (j) w i (j) and ∑ (w i log (1 / w i )) correspond to entropy measurements for the signal magnitude and uncertainty measurements of the orthogonal code Ci, respectively. The function g (C i , C k ) is a measure corresponding to the geometric continuity at the location of the distance information. These functions can be defined in various ways. For example, a simple slope can be used. λ1 and λ2 are coefficients for adjusting the degree of each factor.

(3) 혼합 방법에 의한 에러 정정(3) Error correction by mixing method

획득해야 하는 영상의 수와 계산량을 줄이기 위하여, 종래의 그레이(gray) 코드와 같은 시간 코딩을 직교 코딩과 혼합하여 사용할 수 있다. 이 때의 직교 코드는 시간 코딩에서의 오차를 보정하는데 사용한다. 즉, 직교 코드는 시간 코드보다 더 정확하게 화소의 위치를 결정할 수 있으며, 시간 코드는 하위 비트에서 더 불확실성이 크기 때문에 직교 코드를 사용하여 국소적인 윈도우 영역 내에서의 오차를 보정할 수 있다. In order to reduce the number of images to be acquired and the calculation amount, a time coding such as a conventional gray code may be mixed with orthogonal coding. The orthogonal code at this time is used to correct an error in time coding. That is, the orthogonal code can determine the position of the pixel more accurately than the time code, and since the time code has more uncertainty in the lower bits, the orthogonal code can be used to correct the error in the local window area.

통상적인 시간 코딩의 앞 또는 뒤에 K의 길이를 갖는 (예를 들어, 3개의 프레임) 직교 코드를 덧붙인다. 직교 코드는 오직 적은 길이의 신호를 사용하므로, 전체 영상 내에서 완전하게 자기 위치를 결정할 수는 없지만, 국소적으로 인접한 영역 내에서 자기 위치를 결정할 수 있다. 즉, K-1, K, K+1 중에서 위치 결정이 가능하다. 이러한 성질을 이용하여, 직교 코드를 사용해서 복원된 위치와 시간 코드를 사용해서 얻은 위치가 일치하지 않는 경우, 직교 코드가 지정하는 국소적인 위 치로 보정하는 방법을 사용할 수 있다.Add an orthogonal code with a length of K (e.g., three frames) before or after conventional time coding. Because orthogonal codes use only a small length of signal, it is not possible to fully determine the magnetic position in the entire image, but it is possible to determine the magnetic position in a locally adjacent region. That is, positioning can be performed among K-1, K, and K + 1. Using this property, if the position reconstructed using the orthogonal code and the position obtained using the time code do not match, a method of correcting the local position specified by the orthogonal code can be used.

본 발명에서는 직교 코드와 계층적 직교 코드를 사용하여 코딩하는 예시를 들어 설명하고 있지만, 반드시 이러한 코드에 한정되는 것이 아니며, 의사 직교 코드, 직교 코드와 그렇지 않은 코드의 혼합, 통계적으로 서로 독립적인 신호 등의 다양한 코드를 사용하여 원래의 신호를 복원하는 방법도 가능하다.In the present invention, an example of coding using an orthogonal code and a hierarchical orthogonal code is described, but the present invention is not necessarily limited to such a code, and a pseudo orthogonal code, a mixture of orthogonal codes and other codes, and statistically independent signals are described. It is also possible to recover the original signal using various codes, such as.

또한, 본 발명에 따른 신호 분리 코딩 방법은 종래의 일반적인 코딩 방법을 혼합하여 사용할 수도 있다. 즉, 다중의 광 패턴 중에서 일부의 패턴에 대해서 신호 분리 코딩을 사용한 후에, 신호 분리를 사용하지 않고 복원된 주소값을 정정하기 위하여 본 발명의 신호 분리 코딩 방법을 사용할 수도 있다.In addition, the signal separation coding method according to the present invention may be used by mixing a conventional coding method. That is, after signal separation coding is used for some of the multiple optical patterns, the signal separation coding method of the present invention may be used to correct the reconstructed address value without using signal separation.

< 실시예2 ><Example 2>

상기 실시예 1에 따른 신호분리코딩 기법은 프로젝터와 카메라 화소 사이의 신호혼합을 추정하여 화소의 대응을 결정할 수 있도록 하는 방법이다. 혼합 신호의 분리 과정에서, 수신된 신호를 계층적인 직교신호의 집합에 투영한 결과는 프로젝터-카메라 신호 공간에서 표현된다. 3차원 거리 영상의 계산은 프로젝터-카메라 신호 공간에서 카메라의 각 화소에 대응하는 프로젝터 측의 신호를 결정하는 과정이었다. The signal separation coding scheme according to the first embodiment is a method of estimating a signal mixture between a projector and a camera pixel to determine a correspondence of the pixels. In the process of separating the mixed signals, the result of projecting the received signal onto a set of hierarchical orthogonal signals is represented in the projector-camera signal space. Calculation of the three-dimensional distance image was a process of determining a signal on the projector side corresponding to each pixel of the camera in the projector-camera signal space.

실시예 2에서는 한 광원으로부터 나와 물체 표면에서 반사되어 수신된 광원은, 역으로 동일한 광원이 수신측으로부터 나와 물체 표면에서 반사되어 광원의 위치로 온 것과 동일하게 해석될 수 있다는 헬름홀츠 상보성 원리와 신호분리코딩 기법을 이용하여 (1) 3차원에 대한 명시적 복원 없이도 프로젝터 시점에서의 영상을 생성하는 기법을 제시하고, (2) 생성된 스테레오 영상과 구조 광에서의 화소 별 대응을 동시에 계산하여 3차원을 복원하는 새로운 방법을 제시한다.In the second embodiment, the Helmholtz complementarity principle and the signal separation that the light source received from the light source reflected from the object surface can be interpreted in the same way as the same light source is reflected from the receiving side and reflected from the object surface to the position of the light source. Using coding techniques, we present (1) a technique for generating an image from a projector's point of view without explicit reconstruction of three dimensions, and (2) simultaneously calculating the pixel-by-pixel correspondence in the generated stereo image and structured light. Present a new way to restore it.

기존의 이중 포토그래피(Dual Photography)는 프로젝터와 물체 및 카메라 사이의 기하학적 관계를 해석하기 위하여 시간소모적인 분석 방법을 사용하였다. 본 발명은 종래의 방법과는 다른 2단계 해석 방법을 사용한다. 우선, 스테레오 비전에서의 에피폴라 제약조건(epipolar constraint)을 고려하여 계층적으로 직교성을 갖도록 부호화된 신호를 생성하여 프로젝터를 통해 방사한다. In conventional dual photography, a time-consuming analysis method is used to analyze geometric relationships between a projector, an object, and a camera. The present invention uses a two-step analysis method different from the conventional method. First, a signal encoded to have hierarchical orthogonality in consideration of epipolar constraint in stereo vision is generated and radiated through a projector.

물체에 반사하여 카메라로 수신된 혼합 신호는 원신호를 분리하는 복호화 기법을 통하여 분리되고, 분리된 신호의 강도에 기반하여 프로젝터-카메라 사이의 변환관계를 효율적으로 추정하는 기법이 적용된다. The mixed signal received by the camera reflecting the object is separated by a decoding technique for separating the original signal, and a technique for efficiently estimating the conversion relationship between the projector and the camera is applied based on the strength of the separated signal.

이러한 과정을 통하여 프로젝터 시점에서의 영상을 생성하고, 이를 구조 광에서의 거리영상과 융합하여, 프로젝터 시점에서의 영상 생성과 3차원 거리 영상의 추정을 동시에 수행한다.Through this process, an image is generated from the perspective of the projector and the image is merged with the distance image from the structured light, thereby simultaneously generating the image from the perspective of the projector and estimating the 3D distance image.

즉 기존의 방법은 주로 스튜디오와 같은 제한된 환경에서 반사, 투과, 흡수 등의 성질이 크지 않은 물체를 대상으로 제한적으로 수행되어 왔다. 그 주된 이유 중의 하나는, 3차원 영상 및 계산 모형의 생성을 광원, 물체, 센서 사이의 물리적인 성질에 대한 해석으로만 접근하거나(예: shape from shading, photometric stereo 등), 기하학적 관계로만 해석하는(예: passive or active stereo, structure from motion 등) 접근 방법을 취해왔기 때문이다. In other words, the conventional method has been limited to objects that do not have large properties such as reflection, transmission, and absorption in a limited environment such as a studio. One of the main reasons is to approach the creation of three-dimensional images and computational models only by interpretation of physical properties between light sources, objects, and sensors (e.g. shape from shading, photometric stereo, etc.) or by geometric relationships only. (E.g. passive or active stereo, structure from motion, etc.)

본 발명에 따른 실시예 2에서는, (1) 광원과 물체 표면에서의 산란, 반사 및 영상 센서로의 수신으로 이루어지는 방사 분석(radiometry) 측면에서의 해석과, (2) 프로젝터의 2차원 영상 면에서 3차원 공간으로 투영, 프로젝터, 물체 및 카메라 사이의 에피폴라 제약조건 및 3차원 공간에서 카메라 2차원 영상 면으로의 투영이라는 기하학적 해석이 통합되는 방법을 제시하므로서, 기존 방법의 한계를 극복하는 것이다.In Embodiment 2 according to the present invention, (1) analysis in terms of radiometry, which consists of scattering, reflection and reception at the light source and the object surface, and (2) the two-dimensional image of the projector Overcoming the limitations of existing methods by presenting a method of incorporating the geometric interpretation of projection into three-dimensional space, epipolar constraints between projectors, objects and cameras, and projection from three-dimensional space to the camera two-dimensional image plane.

따라서 실시예 2에 있어서는 이와 반대로 프로젝터 측의 각 위치에 대하여 대응하는 카메라 측의 신호를 추정하는 경우, 프로젝터 측에서 바라본 새로운 영상을 도 9에서 나타낸 것과 같이 얻어낼 수 있다. 도 9에서 상, 하단에서 복원되지 않은 영역은 프로젝터의 시야와 카메라 시야가 겹쳐지지 않았기 때문에 발생한 것이며, 잡음은 혼합 신호 중에서 단지 최대값만을 계산에 이용하였기 때문에 발생한 것이다. Therefore, in Embodiment 2, on the contrary, when estimating the signal of the camera side corresponding to each position of the projector side, a new image viewed from the projector side can be obtained as shown in FIG. In FIG. 9, the unreconstructed area in the upper and lower parts is caused because the field of view of the projector and the field of view of the camera do not overlap, and the noise is generated because only the maximum value of the mixed signals is used for calculation.

도 6 및 도 7은 특정한 에피폴라 라인 상에서의 신호분리의 결과로 얻어진 신호분리지도(도 6)와 이를 이용한 이중 포토그래피 영상의 생성을 나타낸 도면이다, 6 and 7 are diagrams showing signal separation maps (FIG. 6) obtained as a result of signal separation on a specific epipolar line and generation of a dual photography image using the same.

도 6은 분리된 신호의 관계를 프로젝터에서 보낸 신호의 집합 (가로축)과 카메라에서 수신된 신호의 집합 (세로축)의 관계로 표시한 것이다. 그림에서의 밝기는 대응관계의 강도를 의미한다. 확대된 작은 영역에는 프로젝터와 카메라 신호 사이의 대응이 1:1이 아니라, M:N으로 이루어짐을 나타낸다. 프로젝터와 카메라 사이의 신호들의 대응을 결정하는 가장 간단한 방법은, 카메라 화소 측의 각 주소에 대하여, 가장 강도가 큰 프로젝터의 신호를 선택하는 것이다.FIG. 6 shows the relationship between the separated signals as the relationship between the set of signals (horizontal axis) sent from the projector and the set of signals (vertical axis) received from the camera. The brightness in the figure refers to the strength of the correspondence. In the enlarged small area, the correspondence between the projector and the camera signal is not 1: 1, but M: N. The simplest way to determine the correspondence of signals between the projector and the camera is to select the signal of the projector with the highest intensity for each address on the camera pixel side.

도 7은 이러한 신호 관계를 이용하여 프로젝터 측에서의 새로운 영상을 생성하는 원리를 보여준다. 도 6과는 반대로, 모든 프로텍터 측에서 카메라 측의 주소를 결정한다면, 이를 이용하여 프로젝터에서 바라보는 새로운 영상(도 7의 오른편)이 가능하다. 즉, 새롭게 얻어진 영상의 x, y위치에 대한 밝기 값은 7 shows the principle of generating a new image at the projector side using this signal relationship. Contrary to FIG. 6, if all the protector sides determine the address of the camera side, a new image (right side of FIG. 7) viewed by the projector may be used using the same. That is, the brightness values for the x and y positions of the newly obtained image are

dualimage(x, y) := ref(arg max(j) Ty(j, x), y) 으로 표현할 수 있다. ref는 프로젝터 측의 영상을, Ty는 y번째 열 (에피폴라 라인)에서의 혼합분리지도를 의미한다.dualimage (x, y): = ref (arg max (j) Ty (j, x), y) ref denotes the image of the projector side, and Ty denotes a mixed separation map in the yth column (epipolar line).

도 8 및 도 9는 신호분리 코딩을 적용한 이중 포토그래피이다. 8 and 9 show dual photography with signal separation coding.

즉 도 8은 카메라 측에서 촬영한 냉장고 내부의 그레이 스케일(gray scale) 영상이며, 도 9는 모든 에피폴라 라인 위에서 분리된 신호를 이용하여 프로젝터 측에서 바라본 새로운 시점의 영상을 생성한 것이다. 영상을 촬영할 때의 카메라-프로젝터를 각각 상, 하로 배치하였기 때문에 뒤편 배경의 공기 순환구의 위치가 카메라 측보다 프로젝터 측에서 바라보는 경우 더 아래쪽에 위치함을 관찰할 수 있다.That is, FIG. 8 is a gray scale image of the inside of the refrigerator taken from the camera side, and FIG. 9 is a new view image generated from the projector side by using signals separated on all epipolar lines. Since the camera-projector is positioned up and down, respectively, when the image is taken, it can be observed that the position of the air circulation port on the rear background is located further downward when viewed from the projector side than the camera side.

즉 실시예 2에 의하면 물리적 측면에서의 해석과 기하학적 측면에서의 해석이 통합됨으로서, 기하학적인 측면만을 고려하는 경우에 간과되기 쉬운 다양한 물체 표면의 산란, 반사, 흡수, 투과로 인한 3차원 영상 획득 및 모형 생성의 곤란함이 부분적으로 해결될 수 있으며, 역으로 물리적 측면에서의 해석만을 고려하는 경우에, 센싱 시스템으로 구현하기 어려울 정도로 인위적인 광원과 물체 및 카메라 사이의 물리적 변환을 해석하는데 막대한 계산이 필요한 문제를 해결할 수 있다.In other words, according to the second embodiment, the analysis on the physical side and the analysis on the geometric side are integrated, so that three-dimensional image acquisition due to scattering, reflection, absorption, and transmission of various object surfaces that are easily overlooked when only the geometric side is considered The difficulty of model generation can be partially solved and, conversely, if only the interpretation in terms of physical aspects is taken into account, enormous calculations are required to interpret the physical transformations between artificial light sources and objects and cameras that are difficult to implement with a sensing system. You can solve the problem.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.As mentioned above, although the invention made by this inventor was demonstrated concretely according to the said Example, this invention is not limited to the said Example and can be variously changed in the range which does not deviate from the summary.

상술한 바와 같이, 본 발명에 따른 구조 광 기반의 3차원 거리 영상 측정 방법 및 시스템에 의하면, 영상 수신 수단에서 수신되는 신호가 겹침, 물체의 기하학적 구조에 의한 변형이 일어나도 이를 정확하게 분리해 낼 수 있으며, 주위 환경의 노이즈의 존재에도 강인한 거리 영상을 얻을 수 있다는 효과가 얻어진다.As described above, according to the structured light-based three-dimensional distance image measuring method and system according to the present invention, even if the signal received from the image receiving means overlap, deformation due to the geometry of the object can be accurately separated In addition, the effect of obtaining a distance image that is robust even in the presence of noise in the surrounding environment is obtained.

또, 본 발명에 따른 3차원 거리 영상 측정 방법 및 시스템에 의하면, 종래의 방법으로 프로젝터 측에서의 영상을 생성하는 경우에 막대한 계산이 필요한 문제를 해결할 수 있으며, 이와 동시에 생성된 프로젝터 측의 영상과 복원된 3차원의 기하학적 정보를 동시에 이용하여 잡음에 강인하게 3차원 영상을 획득할 수 있다는 효과가 얻어진다.In addition, according to the method and system for measuring a 3D distance image according to the present invention, when generating an image on the projector side by a conventional method, a problem that requires enormous calculation can be solved. It is possible to obtain a three-dimensional image robustly to noise by using three-dimensional geometric information simultaneously.

Claims (15)

투사 수단에서 측정 대상 물체로 광선을 조사하고 이 광선을 영상 수신 수단에서 촬영하여 3차원 거리를 영상으로 측정하는 방법에 있어서,In the method of irradiating a light beam from the projection means to the object to be measured and taking the light beam from the image receiving means to measure the three-dimensional distance as an image, 상기 투사 수단의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부호화하는 단계,Encoding a signal by assigning a unique sender address to a signal corresponding to each pixel of the projection means, 상기 투사 수단을 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계,Projecting a plurality of light patterns through the projection means to transmit a signal, 상기 영상 수신 수단에서 상기 부호화된 신호를 수신하는 단계,Receiving the encoded signal by the image receiving means; 상기 수신된 신호를 분리하여 주소를 복원하는 단계 및Recovering an address by separating the received signal; and 상기 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 포함하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.And determining a pixel position of a target object by using the sender address and the reconstructed address. 제1항에 있어서, The method of claim 1, 상기 수신된 신호를 분리하는 단계는Separating the received signal 상기 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와Calculating candidate values of possible addresses corresponding to the sender address; 상기 후보값들 중에서 정확한 주소를 얻기 위한 규칙에 따라 주소를 결정하는 단계로 이루어진 에러 정정 단계를 포함하고, 상기 규칙은An error correction step comprising determining an address according to a rule for obtaining an accurate address among the candidate values; 물체의 경사면에서 신호가 얻어지는 경우 복원된 주소의 값이 점차로 증가하거나 감소하는 규칙,A rule that gradually increases or decreases the value of the restored address when a signal is obtained from the slope of the object, 물체의 절단면에서 신호가 얻어지는 경우에 복원된 주소의 값이 연속적이지 못하고, 일부가 사라지거나 전치되는 규칙 및When a signal is obtained at the cutting plane of an object, the value of the restored address is not continuous, and part of the rule disappears or transposes. 물체의 그림자에서 신호가 없어지는 경우 복원된 주소의 값이 연속적이지 못하고 사라져 버리는 규칙으로 이루어진 군이며,When the signal disappears from the shadow of an object, the value of the restored address is not continuous but disappears. 상기 에러 정정 단계는 상기 규칙 군으로부터 선택되는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.The error correction step is selected from the rule group structured light-based three-dimensional distance image measuring method. 제1항에 있어서, The method of claim 1, 상기 수신된 신호를 분리하는 단계는Separating the received signal 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와Calculating candidate values of possible addresses corresponding to the sending address; 상기 후보값들 중에서 자기 위치의 주소값의 후보들과 이웃하는 위치에서의 주소값들의 후보 집합을 동시에 고려하여 평가 함수를 정의한 후, 상기 평가 함수를 최대 또는 최소화하는 탐색 방법을 사용하여 주소를 결정하는 단계로 이루어지는 에러 정정 단계를 포함하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.Defining an evaluation function by simultaneously considering candidates of the address value of the own position among the candidate values and a candidate set of address values at a neighboring location, and then determining an address using a search method that maximizes or minimizes the evaluation function. Method for measuring a three-dimensional distance image based on structured light, characterized in that it comprises an error correction step consisting of. 제1항에 있어서, The method of claim 1, 상기 수신된 신호를 분리하는 단계는Separating the received signal 송신측 주소에 대응하는 가능한 주소의 후보값들을 산출하는 단계와Calculating candidate values of possible addresses corresponding to the sending address; 상기 후보값들로 이루어진 복수의 후보 집합 내에서 주소를 결정하기 위하 여, 신뢰도가 높은 위치의 주소 값을 먼저 계산한 후에, 이러한 위치의 값을 고정한 후 점차 다른 영역의 값으로 확정해 나가면서 후보를 결정하는 단계로 이루어지는 에러 정정 단계를 포함하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.In order to determine an address within a plurality of candidate sets of candidate values, an address value of a location having high reliability is first calculated, and then the value of the location is fixed, and then the candidate is gradually determined to be a value of another area. The structured light-based three-dimensional distance image measuring method comprising the step of determining the error correction step. 제2항 내지 제4항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 광 패턴은 이진 광 패턴, 칼라 광 패턴, 그레이 스케일의 밝기 값을 갖는 광 패턴, 비 가시 영역의 자외선 또는 적외선 영역의 광 패턴, 또는 이들의 혼합 패턴인 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.The light pattern may be a binary light pattern, a color light pattern, a light pattern having a gray scale brightness value, a light pattern in an ultraviolet or infrared region in a non-visible region, or a mixed pattern thereof. Distance image measurement method. 제2항 내지 제4항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 신호를 부호화하는 단계에서는 상기 투사 수단의 인접한 신호간에 서로 직교하는 신호를 사용하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.And encoding the signals by using signals that are orthogonal to each other between adjacent signals of the projection means. 제6항에 있어서, The method of claim 6, 상기 서로 직교하는 신호는 전체의 신호를 하나 이상의 계층적 신호로 구분하고, 각 계층 내에서 서로 직교하는 코드를 사용하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.The orthogonal signals divide the entire signal into one or more hierarchical signals, and use codes that are orthogonal to each other in each layer. 제6항에 있어서, The method of claim 6, 상기 서로 직교하는 신호는 전체의 신호를 하나 이상의 계층적 신호로 구분하고, 각 계층 내에서 서로 직교하는 코드와 직교하지 않는 코드를 혼합하여 사용하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.The orthogonal signals divide the entire signal into one or more hierarchical signals and use a mixture of codes that are orthogonal to each other and codes that are not orthogonal to each other in each layer, and use the structured light-based three-dimensional distance image measurement. Way. 제2항 내지 제4항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 신호를 부호화하는 단계에서 상기 투사 수단의 인접한 신호간에 서로 직교하는 성질을 갖는 의사 직교 신호를 사용하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.And a pseudo orthogonal signal having a property orthogonal to each other between adjacent signals of the projection means in the encoding of the signal. 제2항 내지 제4항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 신호를 부호화하는 단계에서 상기 투사 수단의 인접한 신호간에 서로 통계적으로 독립적인 신호를 사용하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 방법.And in the encoding of the signal, signals which are statistically independent from each other between adjacent signals of the projection means. 프로젝터와 카메라로 구성된 시스템에서 3차원 거리 영상을 측정하는 방법으로서, A method of measuring three-dimensional distance image in a system consisting of a projector and a camera, 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, Radiating a pattern from the projector to an object, 상기 패턴을 상기 카메라로 이를 수신하는 단계, Receiving the pattern with the camera, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및Calculating pixel correspondence relations between the projector and the camera through signal separation on each epipolar line; and 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 3차원 거리 영상 측정 방법. And generating a new image from the perspective of the projector after executing the calculating step. 프로젝터와 카메라로 구성된 시스템에서 영상을 복원 방법으로서, As a method of restoring images in a system consisting of a projector and a camera, 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, Radiating a pattern from the projector to an object, 상기 패턴을 상기 카메라로 이를 수신하는 단계, Receiving the pattern with the camera, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및Calculating pixel correspondence relations between the projector and the camera through signal separation on each epipolar line; and 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하고,After executing the calculating step, generating a new image at the projector view; 상기 카메라에서 얻어진 영상과 상기 프로젝터 측에서 새롭게 생성된 영상을 이용하여 스테레오 영상을 복원하는 것을 특징으로 하는 스트레오 영상 복원 방법.And restoring a stereo image using the image obtained from the camera and the image newly generated by the projector. 프로젝터와 카메라로 구성된 시스템에서 측정 거리를 복원하는 방법으로서,A method of restoring measurement distance in a system consisting of a projector and a camera. 상기 카메라의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부호화하는 단계,Encoding a signal by assigning a unique sender address to a signal corresponding to each pixel of the camera; 상기 프로젝터 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계,Transmitting a signal by projecting a plurality of light patterns through the projector, 상기 카메라에서 상기 부호화된 신호를 수신하는 단계,Receiving the encoded signal at the camera, 수신된 신호를 분리하여 주소를 복원하는 단계 및Recovering the address by separating the received signal; and 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 포함하는 구조 광 기반의 3차원 거리 영상 측정 방법과A 3D distance image measuring method based on structured light including determining a pixel position of a target object using a sender address and the reconstructed address; 상기 프로젝터로부터 패턴을 물체에 방사하는 단계, Radiating a pattern from the projector to an object, 상기 패턴을 상기 카메라로 이를 수신하는 단계, Receiving the pattern with the camera, 각 에피폴라 라인 상에서 신호분리를 통하여 프로젝터와 카메라 사이의 화소 대응 관계를 계산하는 단계 및Calculating pixel correspondence relations between the projector and the camera through signal separation on each epipolar line; and 상기 계산하는 단계의 실행 후, 상기 프로젝터 시점에서의 새로운 영상을 생성하는 단계를 포함하는 스테레오 영상을 복원하는 복원 방법을 동시에 이용하여 측정 거리를 복원하는 것을 특징으로 하는 측정 거리 복원 방법.And after the calculating, restoring the measurement distance by simultaneously using a restoration method for restoring a stereo image including generating a new image at the perspective of the projector. 측정 대상 물체로 광선을 조사하는 투사수단,Projection means for irradiating light to the object to be measured, 상기 투사수단에서 조사된 광선을 촬영하는 영상 수신 수단과Image receiving means for photographing the light beam irradiated from the projection means; 상기 측정 대상 물체의 3차원 거리를 영상으로 측정하는 처리수단을 포함하고, 상기 처리수단은Processing means for measuring a three-dimensional distance of the object to be measured as an image, wherein the processing means 상기 투사 수단의 각 화소에 대응하는 신호에 대하여 유일한 송신측 주소를 할당하여 신호를 부호화하는 단계,Encoding a signal by assigning a unique sender address to a signal corresponding to each pixel of the projection means, 상기 투사 수단을 통해 다수의 광 패턴을 투사하여 신호를 송신하는 단계,Projecting a plurality of light patterns through the projection means to transmit a signal, 상기 영상 수신 수단에서 상기 부호화된 신호를 수신하는 단계,Receiving the encoded signal by the image receiving means; 상기 수신된 신호를 분리하여 주소를 복원하는 단계 및Recovering an address by separating the received signal; and 상기 송신측 주소와 상기 복원된 주소를 이용하여 대상 물체의 화소 위치를 결정하는 단계를 순차 실행하는 것을 특징으로 하는 구조 광 기반의 3차원 거리 영상 측정 시스템.And determining a pixel position of a target object using the sender address and the reconstructed address in sequence. 제1항 또는 14항에 있어서,The method according to claim 1 or 14, wherein 상기 투사 수단은 프로젝터이고,The projection means is a projector, 상기 영상 수신 수단은 카메라인 것을 특징으로 하는 3차원 거리 영상 측정 시스템.The image receiving means is a three-dimensional distance image measuring system, characterized in that the camera.
KR1020060012817A 2005-02-16 2006-02-10 Method and system of structural light based 3d depth imaging using signal separation coding and error correction thereof KR100588296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/276,126 US7916932B2 (en) 2005-02-16 2006-02-15 Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050012617 2005-02-16
KR1020050012617A KR20050026948A (en) 2005-02-16 2005-02-16 Method of structural light based 3d depth imaging using signal separation coding and error correction thereof

Publications (1)

Publication Number Publication Date
KR100588296B1 true KR100588296B1 (en) 2006-06-12

Family

ID=37182570

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020050012617A KR20050026948A (en) 2005-02-16 2005-02-16 Method of structural light based 3d depth imaging using signal separation coding and error correction thereof
KR1020060012817A KR100588296B1 (en) 2005-02-16 2006-02-10 Method and system of structural light based 3d depth imaging using signal separation coding and error correction thereof

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020050012617A KR20050026948A (en) 2005-02-16 2005-02-16 Method of structural light based 3d depth imaging using signal separation coding and error correction thereof

Country Status (1)

Country Link
KR (2) KR20050026948A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914033B1 (en) * 2007-02-28 2009-08-28 성균관대학교산학협력단 Method And System Of Structural Light Based Depth Imaging Using Signal Separation Coding and Error Correction Thereof
US8326020B2 (en) 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
KR101297608B1 (en) * 2011-09-07 2013-09-06 레드원테크놀러지 주식회사 Method and system for robot coverage of unknown environment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014209268A1 (en) * 2013-06-24 2014-12-31 Intel Corporation Error detecting and correcting structured light patterns

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164349A (en) 2003-12-02 2005-06-23 Nippon Hoso Kyokai <Nhk> Distance detecting method and apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164349A (en) 2003-12-02 2005-06-23 Nippon Hoso Kyokai <Nhk> Distance detecting method and apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914033B1 (en) * 2007-02-28 2009-08-28 성균관대학교산학협력단 Method And System Of Structural Light Based Depth Imaging Using Signal Separation Coding and Error Correction Thereof
US8326020B2 (en) 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
KR101297608B1 (en) * 2011-09-07 2013-09-06 레드원테크놀러지 주식회사 Method and system for robot coverage of unknown environment

Also Published As

Publication number Publication date
KR20050026948A (en) 2005-03-16

Similar Documents

Publication Publication Date Title
US7916932B2 (en) Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof
US8724121B2 (en) Measuring method of 3D image depth and a system for measuring 3D image depth using boundary inheritance based hierarchical orthogonal coding
US8718326B2 (en) System and method for extracting three-dimensional coordinates
Landau et al. Simulating kinect infrared and depth images
US9530215B2 (en) Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology
KR101259835B1 (en) Apparatus and method for generating depth information
JP6419988B2 (en) System and method for error correction in structured light
US11099009B2 (en) Imaging apparatus and imaging method
JP5517829B2 (en) Three-dimensional measuring apparatus and three-dimensional measuring method
CN104662589A (en) Systems and methods for parallax detection and correction in images captured using array cameras
CN103776392A (en) 3D geometric modeling and 3d video content creation
US11651581B2 (en) System and method for correspondence map determination
WO2021063128A1 (en) Method for determining pose of active rigid body in single-camera environment, and related apparatus
KR101817140B1 (en) Coding Method and Device for Depth Video Plane Modeling
CN111971525B (en) Method and system for measuring an object with a stereoscope
KR100588296B1 (en) Method and system of structural light based 3d depth imaging using signal separation coding and error correction thereof
CN113748313A (en) Three-dimensional measurement system and three-dimensional measurement method
CN115578704A (en) Depth estimation model training method, depth estimation device, depth estimation equipment and medium
KR102229861B1 (en) Depth estimation apparatus and method using low-channel lidar and stereo camera
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
KR100914033B1 (en) Method And System Of Structural Light Based Depth Imaging Using Signal Separation Coding and Error Correction Thereof
Lee et al. Signal separation coding for robust depth imaging based on structured light
Wang et al. Determining shape of specular surfaces
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
CN111373222A (en) Light projection system

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130409

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140402

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee