KR101827847B1 - Three dimensional image restoring device and three dimensional image restoring method - Google Patents

Three dimensional image restoring device and three dimensional image restoring method Download PDF

Info

Publication number
KR101827847B1
KR101827847B1 KR1020160047665A KR20160047665A KR101827847B1 KR 101827847 B1 KR101827847 B1 KR 101827847B1 KR 1020160047665 A KR1020160047665 A KR 1020160047665A KR 20160047665 A KR20160047665 A KR 20160047665A KR 101827847 B1 KR101827847 B1 KR 101827847B1
Authority
KR
South Korea
Prior art keywords
point coordinates
dimensional point
dimensional
obtaining
surface normal
Prior art date
Application number
KR1020160047665A
Other languages
Korean (ko)
Other versions
KR20170119524A (en
Inventor
권인소
하효원
오태현
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020160047665A priority Critical patent/KR101827847B1/en
Publication of KR20170119524A publication Critical patent/KR20170119524A/en
Application granted granted Critical
Publication of KR101827847B1 publication Critical patent/KR101827847B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Abstract

삼차원 영상 복원 장치는, 제1 시점 장치 및 제2 시점 장치를 포함한 스테레오 스캐닝 시스템을 이용하여 복수의 시점에서 대상 객체를 촬영함으로써 획득된 복수의 제1 삼차원 점 좌표를 이용하여 삼차원 영상을 복원하는 장치로서, 상기 복수의 제1 삼차원 점 좌표를 이용하여 상기 복수의 시점 각각에 대해, 상기 제1 시점 장치에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 시점 장치에 대응하는 제2 펼친 위상을 획득하는 펼친 위상 획득부 및 상기 복수의 시점에 대해서 상기 제1 펼친 위상과 상기 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표를 획득하는 제2 삼차원 점 좌표 획득부를 포함한다.A three-dimensional image restoration apparatus includes a device for restoring a three-dimensional image using a plurality of first three-dimensional point coordinates acquired by photographing a target object at a plurality of points of view using a stereo scanning system including a first point- For each of the plurality of viewpoints using the plurality of first three-dimensional point coordinates, a first unwrapped phase corresponding to the first viewpoint device and a second unfolded phase corresponding to the second viewpoint device And a second three-dimensional point obtaining unit that obtains a plurality of second three-dimensional point coordinates that minimize a first function that is a difference between the first expanded phase and the second expanded phase with respect to the plurality of view points, And a coordinate acquiring unit.

Description

삼차원 영상 복원 장치 및 삼차원 영상 복원 방법{THREE DIMENSIONAL IMAGE RESTORING DEVICE AND THREE DIMENSIONAL IMAGE RESTORING METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a three-dimensional image restoration apparatus and a three-

본 발명은 삼차원 영상 복원 장치 및 삼차원 영상 복원 방법에 관한 것이다.The present invention relates to a three-dimensional image restoration apparatus and a three-dimensional image restoration method.

3D 그래픽 분야, 리버스 엔지니어링 분야(reverse engineering) 등 산업상 필요로 인해서, 고품질 3D 모델 획득 방법들이 다방면으로 연구되고 있다.3D graphics, reverse engineering, and so on, various high-quality 3D model acquisition methods are being studied.

몇몇 기존 방법들(비특허문헌 1 및 2)은 정밀성(metric accuracy)보다는 고품질 시각성(high visual quality)을 획득하는데 중점을 두고 있다. 인간의 시각 시스템은 미소 스케일 에러(small scale error)에 민감하지 않고, 따라서 이러한 그래픽 분야의 시각화 어플리케이션들은 고정밀성을 요구하지 않는다.Some existing methods (non-patent documents 1 and 2) focus on achieving high visual quality rather than metric accuracy. The human visual system is not sensitive to small scale errors and therefore visualization applications in these graphics fields do not require high precision.

하지만, 리버스 엔지니어링, 임플란트(implants)를 위한 치과 스캐너(dental scanner), 결함 검출 시스템(flaw detection system) 등 많은 어플리케이션들이 마이크로 단위의 정확성을 요구한다. 특히, 3D 프린터 또는 밀링 머신(milling machine)을 이용하여 정밀한 복제를 하는 경우, 스캐닝과 프린팅하는데 있어서 누적 에러(accumulation error)를 완화시키기 위해서는 매우 정밀한 3D 모델이 필요하다.However, many applications require micro-accuracy, such as reverse engineering, dental scanners for implants, and flaw detection systems. Especially, in case of precise replication using a 3D printer or a milling machine, a very precise 3D model is needed to alleviate accumulation errors in scanning and printing.

1. T. Beeler, B. Bickel, P. Beardsley, B. Sumner, and M. Gross. High-quality single-shot capture of facial geometry. ACM Transactions on Graphics (SIGGRAPH), 2010.1. T. Beeler, B. Bickel, P. Beardsley, B. Sumner, and M. Gross. High-quality single-shot capture of facial geometry. ACM Transactions on Graphics (SIGGRAPH), 2010. 2. J. Sturm, E. Bylow, F. Kahl, and D. Cremers. CopyMe3D: Scanning and printing persons in 3D. In German Conference on Pattern Recognition (GCPR), 2013.2. J. Sturm, E. Bylow, F. Kahl, and D. Cremers. CopyMe3D: Scanning and printing persons in 3D. In German Conference on Pattern Recognition (GCPR), 2013.

해결하고자 하는 기술적 과제는 기존의 하드웨어의 변경없이도 소프트웨어적으로 정밀도가 상승된 삼차원 구조의 복원이 가능한 삼차원 영상 복원 장치 및 삼차원 영상 복원 방법을 제공하는 데 있다.A technical problem to be solved is to provide a three-dimensional image restoration device and a three-dimensional image restoration method capable of restoring a three-dimensional structure whose accuracy has been increased by software without changing existing hardware.

실시 예에 따른 삼차원 영상 복원 장치는, 제1 시점 장치 및 제2 시점 장치를 포함한 스테레오 스캐닝 시스템을 이용하여 복수의 시점에서 대상 객체를 촬영함으로써 획득된 복수의 제1 삼차원 점 좌표를 이용하여 삼차원 영상을 복원할 수 있다. 상기 삼차원 영상 복원 장치는 상기 복수의 제1 삼차원 점 좌표를 이용하여 상기 복수의 시점 각각에 대해, 상기 제1 시점 장치에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 시점 장치에 대응하는 제2 펼친 위상을 획득하는 펼친 위상 획득부 및 상기 복수의 시점에 대해서, 상기 제1 펼친 위상과 상기 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표를 획득하는 제2 삼차원 점 좌표 획득부를 포함할 수 있다.A three-dimensional image restoration apparatus according to an exemplary embodiment of the present invention includes a plurality of first three-dimensional point coordinates obtained by photographing a target object at a plurality of points of view using a stereo scanning system including a first point- Can be restored. Wherein the three-dimensional image restoration device is configured to perform, for each of the plurality of viewpoints using the plurality of first three-dimensional point coordinates, a first unwrapped phase corresponding to the first viewpoint device and a second unopphased phase corresponding to the second viewpoint device And acquiring a plurality of second three-dimensional point coordinates for making the first function, which is the difference between the first expanded phase and the second expanded phase, minimum for the plurality of points of view Dimensional point coordinate obtaining unit.

상기 삼차원 영상 복원 장치는, 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 강도 벡터를 획득하는 강도 벡터 획득부 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 입사광 방향 행렬을 획득하는 입사광 방향 행렬 획득부 상기 복수의 강도 벡터 및 대응하는 상기 복수의 입사광 방향 행렬을 이용하여, 대응하는 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 표면 법선 벡터를 획득하는 표면 법선 벡터 획득부 및 상기 복수의 제2 삼차원 점 좌표 및 대응하는 상기 복수의 표면 법선 벡터를 이용하여 상기 대상 객체에 대한 삼차원 메쉬 구조(mesh structure)를 획득하는 삼차원 메쉬 구조 획득부를 더 포함할 수 있다.Wherein the three-dimensional image reconstructing apparatus comprises an intensity vector obtaining unit for obtaining a plurality of intensity vectors for each of the plurality of second three-dimensional point coordinates, and an intensity-vector obtaining unit for obtaining a plurality of incident light direction matrices for each of the plurality of second three- A matrix normalizing unit for obtaining a plurality of surface normal vectors for each of the plurality of second three-dimensional point coordinates using the plurality of intensity vectors and the corresponding plurality of incident light direction matrices; Dimensional mesh structure obtaining unit for obtaining a three-dimensional mesh structure for the target object by using the second three-dimensional point coordinates of the target object and the corresponding plurality of surface normal vectors.

상기 제1 시점 장치는 제1 카메라이고, 상기 제2 시점 장치는 제2 카메라 또는 프로젝터일 수 있다. The first viewpoint device may be a first camera and the second viewpoint device may be a second camera or a projector.

상기 펼친 위상 획득부는 각각의 시점에 대한 상기 제1 시점 장치의 카메라 파라미터를 상기 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제1 펼친 위상을 획득하고, 각각의 시점에 대한 상기 제2 시점 장치의 카메라 파라미터를 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제2 펼친 위상을 획득할 수 있다.Wherein the expanded phase obtaining unit obtains the first expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the first point-of-view device to the plurality of first three-dimensional point coordinates for each point in time, And obtain the second expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the second viewpoint device to the plurality of first three-dimensional point coordinates.

상기 제2 삼차원 점 좌표 획득부는 상기 제1 함수를 선형화(linearization)한 제2 함수를 최소화하는 삼차원 좌표의 변위 값을 획득함으로써 상기 복수의 제2 삼차원 점 좌표를 획득할 수 있다. The second three-dimensional point coordinate obtaining unit may obtain the plurality of second three-dimensional point coordinates by obtaining a displacement value of the three-dimensional coordinates that minimizes a second function obtained by linearizing the first function.

상기 강도 벡터 획득부는 상기 복수의 제2 삼차원 점 좌표 각각에 대해서 상기 복수의 시점의 대응하는 이차원 점 좌표들의 강도를 보간(interpolating)함으로써 강도 벡터를 획득할 수 있다.The intensity vector obtaining unit may obtain an intensity vector by interpolating the intensity of corresponding two-dimensional point coordinates at the plurality of points with respect to each of the plurality of second three-dimensional point coordinates.

상기 복수의 입사광 방향 행렬 각각은 상기 복수의 시점 각각의 광원(light source) 중심으로부터 대응하는 제2 삼차원 점 좌표로 향하는 복수의 입사광 방향 벡터를 포함할 수 있다.Each of the plurality of incident light direction matrices may include a plurality of incident light direction vectors from a light source center of each of the plurality of viewpoints to a corresponding second three-dimensional point coordinate.

상기 표면 법선 벡터 획득부는 상기 복수의 제2 삼차원 점 좌표 각각에 대해서 강도 벡터와 표면 법선 벡터 및 입사광 방향 행렬의 행렬곱의 차이인 제3 함수를 최소화하는 표면 법선 벡터를 획득할 수 있다.The surface normal vector obtaining unit may obtain a surface normal vector that minimizes a third function which is a difference between an intensity vector, a surface normal vector and an incident light direction matrix matrix multiplication for each of the plurality of second three-dimensional point coordinates.

상기 삼차원 메쉬 구조 획득부는 상기 복수의 제2 삼차원 점 좌표에 대응하는 표면 법선 벡터를 직접 할당(directly assigning)한 복수의 지향 점(oriented points)을 이용하여 상기 삼차원 메쉬 구조를 획득할 수 있다.The three-dimensional mesh structure obtaining unit may obtain the three-dimensional mesh structure by using a plurality of oriented points that directly assign a surface normal vector corresponding to the plurality of second three-dimensional point coordinates.

실시 예에 따른 삼차원 영상 복원 방법은, 제1 시점 장치 및 제2 시점 장치를 포함한 스테레오 스캐닝 시스템을 이용하여 복수의 시점에서 대상 객체를 촬영함으로써 획득된 복수의 제1 삼차원 점 좌표를 이용한다.A three-dimensional image restoration method according to an embodiment of the present invention uses a plurality of first three-dimensional point coordinates obtained by photographing a target object at a plurality of points of time using a stereo scanning system including a first point-of-view device and a second point-and-point device.

상기 삼차원 영상 복원 방법은, 상기 복수의 제1 삼차원 점 좌표를 이용하여 상기 복수의 시점 각각에 대해, 상기 제1 시점 장치에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 시점 장치에 대응하는 제2 펼친 위상을 획득하는 단계 및 상기 복수의 시점에 대해서 상기 제1 펼친 위상과 상기 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표를 획득하는 단계를 포함할 수 있다.The three-dimensional image restoration method may further include a step of, for each of the plurality of viewpoints using the plurality of first three-dimensional point coordinates, a first unwrapped phase corresponding to the first viewpoint device and a second unwrapped phase corresponding to the second viewpoint device And obtaining a plurality of second three-dimensional point coordinates that minimize the first function, which is the difference between the first expanded phase and the second expanded phase, for the plurality of points of view .

상기 삼차원 영상 복원 방법은, 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 강도 벡터를 획득하는 단계 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 입사광 방향 행렬을 획득하는 단계 상기 복수의 강도 벡터 및 대응하는 상기 복수의 입사광 방향 행렬을 이용하여, 대응하는 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 표면 법선 벡터를 획득하는 단계 및 상기 복수의 제2 삼차원 점 좌표 및 대응하는 상기 복수의 표면 법선 벡터를 이용하여 상기 대상 객체에 대한 삼차원 메쉬 구조(mesh structure)를 획득하는 단계를 더 포함할 수 있다.Wherein the 3D reconstruction method further comprises: obtaining a plurality of intensity vectors for each of the plurality of second three-dimensional point coordinates; obtaining a plurality of incident light direction matrices for each of the plurality of second three-dimensional point coordinates; Obtaining a plurality of surface normal vectors for each of the plurality of second three-dimensional point coordinates using the vector and the corresponding plurality of incident light direction matrices, and obtaining the plurality of second three-dimensional point coordinates and the corresponding plurality And acquiring a three-dimensional mesh structure for the target object using the surface normal vector of the target object.

상기 제1 및 제2 펼친 위상을 획득하는 단계는, 각각의 시점에 대한 상기 제1 시점 장치의 카메라 파라미터를 상기 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제1 펼친 위상을 획득하는 단계, 및 각각의 시점에 대한 상기 제2 시점 장치의 카메라 파라미터를 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제2 펼친 위상을 획득하는 단계를 포함할 수 있다.Wherein the obtaining of the first and second expanded phases comprises: obtaining the first expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the first point-of-view device to the plurality of first three- And obtaining the second expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the second point-in-time device to the plurality of first three-dimensional point coordinates for each point in time .

상기 복수의 제2 삼차원 점 좌표를 획득하는 단계는 상기 제1 함수를 선형화한 제2 함수를 최소화하는 삼차원 좌표의 변위 값을 획득함으로써 상기 복수의 제2 삼차원 점 좌표를 획득하는 단계를 포함할 수 있다.The obtaining of the plurality of second three-dimensional point coordinates may include obtaining the plurality of second three-dimensional point coordinates by obtaining a displacement value of the three-dimensional coordinate that minimizes a second function that linearizes the first function have.

상기 복수의 강도 벡터를 획득하는 단계는, 상기 복수의 제2 삼차원 점 좌표 각각에 대해서, 상기 복수의 시점의 대응하는 이차원 점 좌표들의 강도를 보간(interpolating)함으로써 강도 벡터를 획득하는 단계를 포함할 수 있다.The obtaining of the plurality of intensity vectors may include acquiring an intensity vector by interpolating the intensity of the corresponding two-dimensional point coordinates at the plurality of points for each of the plurality of second three-dimensional point coordinates .

상기 복수의 입사광 방향 행렬 각각은 상기 복수의 시점 각각의 광원(light source) 중심으로부터 대응하는 제2 삼차원 점 좌표로 향하는 복수의 입사광 방향 벡터를 포함할 수 있다.Each of the plurality of incident light direction matrices may include a plurality of incident light direction vectors from a light source center of each of the plurality of viewpoints to a corresponding second three-dimensional point coordinate.

상기 복수의 표면 법선 벡터를 획득하는 단계는, 상기 복수의 제2 삼차원 점 좌표 각각에 대해서, 강도 벡터와 표면 법선 벡터 및 입사광 방향 행렬의 행렬곱의 차이인 제3 함수를 최소화하는 표면 법선 벡터를 획득하는 단계를 포함할 수 있다.The obtaining of the plurality of surface normal vectors may include obtaining a surface normal vector that minimizes a third function that is a difference between a matrix vector of an intensity vector, a surface normal vector, and an incident light direction matrix, for each of the plurality of second three- And a step of acquiring.

상기 삼차원 메쉬 구조를 획득하는 단계는, 상기 복수의 제2 삼차원 점 좌표에 대응하는 표면 법선 벡터를 직접 할당한 복수의 지향점을 이용하여 상기 삼차원 메쉬 구조를 획득할 수 있다.The acquiring of the three-dimensional mesh structure may acquire the three-dimensional mesh structure using a plurality of directivity points to which surface normal vectors corresponding to the plurality of second three-dimensional point coordinates are directly allocated.

실시예들에 따른 삼차원 영상 복원 장치 및 삼차원 영상 복원 방법은 기존의 하드웨어의 변경없이도 소프트웨어적으로 정밀도가 상승된 삼차원 구조의 복원이 가능하다.The three-dimensional image restoration apparatus and the three-dimensional image restoration method according to the embodiments can restore the three-dimensional structure in which the precision is increased without changing the existing hardware.

도 1은 본 발명의 한 실시예에 따른 스테레오 스캐닝 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 다른 실시예에 따른 스테레오 스캐닝 시스템을 설명하기 위한 도면이다.
도 3은 본 발명의 한 실시예에 따른 삼차원 영상 복원 장치를 설명하기 위한 도면이다.
도 4는 대상 객체에 대한 복수의 제1 삼차원 점 좌표를 설명하기 위한 도면이다.
도 5는 본 발명의 한 실시예에 따른 복수의 제2 삼차원 점 좌표를 설명하기 위한 도면이다.
도 6은 본 발명의 한 실시예에 따른 복수의 지향 점을 설명하기 위한 도면이다.
도 7은 본 발명의 한 실시예에 따른 삼차원 메쉬 구조를 설명하기 위한 도면이다.
1 is a view for explaining a stereo scanning system according to an embodiment of the present invention.
2 is a view for explaining a stereo scanning system according to another embodiment of the present invention.
3 is a view for explaining a three-dimensional image restoration apparatus according to an embodiment of the present invention.
4 is a diagram for explaining a plurality of first three-dimensional point coordinates for a target object.
5 is a view for explaining a plurality of second three-dimensional point coordinates according to an embodiment of the present invention.
6 is a view for explaining a plurality of points of interest according to an embodiment of the present invention.
7 is a view for explaining a three-dimensional mesh structure according to an embodiment of the present invention.

이하, 첨부한 도면을 참고로 하여 여러 실시예들에 대하여 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 실시예들은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예들에 한정되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The embodiments may be implemented in various different forms and are not limited to the embodiments described herein.

실시예들을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 번호를 붙이도록 한다. 따라서 이전 도면에 사용된 구성요소의 참조 번호를 다음 도면에서 사용할 수 있다.In order to clearly illustrate the embodiments, parts not related to the description are omitted, and the same reference numerals are used for the same or similar components throughout the specification. Therefore, reference numerals of the components used in the previous drawings can be used in the following drawings.

도 1은 본 발명의 한 실시예에 따른 스테레오 스캐닝 시스템을 설명하기 위한 도면이다.1 is a view for explaining a stereo scanning system according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 한 실시예에 따른 스테레오 스캐닝 시스템은 제1 카메라(C11), 프로젝터(P1), 및 제2 카메라(C12)를 포함한다. 도 1의 실시예에서 제1 카메라(C11)가 제1 시점 장치이고, 제2 카메라(C12)가 제2 시점 장치이다.Referring to FIG. 1, a stereo scanning system according to an exemplary embodiment of the present invention includes a first camera C11, a projector P1, and a second camera C12. In the embodiment of FIG. 1, the first camera C11 is a first viewpoint device and the second camera C12 is a second viewpoint device.

제1 카메라(C11), 프로젝터(P1), 및 제2 카메라(C12)는 서로 일정한 간격을 유지한 채 견고한 본체(rigid body)에 고정될 수 있다. 스테레오 스캐닝 시스템은 회전 테이블(rotary table)을 더 포함할 수 있고, 회전 테이블은 대상 객체(21)를 회전시키거나, 또는 제1 카메라(C11), 프로젝터(P1), 및 제2 카메라(C12)를 대상 객체(21) 주위로 회전시키도록 구성될 수 있다. 따라서 본 실시예에 따른 스테레오 스캐닝 시스템은 복수의 시점(시점11, 시점12, 시점13)에서 대상 객체(21)에 구조광을 조사하고, 이를 촬영할 수 있다. 복수의 시점은 3 개로 제한되는 것이 아니며, 더 많은 수를 가질 수 있다.The first camera C11, the projector P1, and the second camera C12 may be fixed to a rigid body with a predetermined gap therebetween. The stereo scanning system may further include a rotary table which rotates the target object 21 or rotates the first camera C11, the projector P1, and the second camera C12, To rotate around the target object (21). Therefore, the stereo scanning system according to the present embodiment can irradiate structured light to the target object 21 at a plurality of viewpoints (viewpoint 11, viewpoint 12, viewpoint 13) and photograph it. The plurality of viewpoints is not limited to three, and may have a larger number of viewpoints.

프로젝터(P1)는 대상 객체(21)에 구조광(structured light)을 조사한다. 이러한 구조광은 다양한 패턴을 가질 수 있다. 예를 들어, 구조광 패턴은 8 개의 그레이-코드(gray-code) 패턴 및 9 개의 위상-쉬프팅(phase-shifting) 패턴을 포함하는 16 개의 수평 패턴으로 구성될 수 있다. 이러한 구조광 패턴을 이용하는 경우, 표준 위상 펼침 방법(standard phase unwrapping method)에 기초하여 조밀한(dense) 대응점들을 추정할 수 있다(J. Salvi, S. Fernandez, T. Pribanic, and X. Llado. A state of the art in structured light patterns for surface profilometry. Pattern Recognition, 2010. 참조).The projector P1 irradiates a structured light to the object 21. Such structured light may have various patterns. For example, the structured light pattern may be composed of 16 horizontal patterns including eight gray-code patterns and nine phase-shifting patterns. When using such structured light patterns, dense corresponding points can be estimated based on a standard phase unwrapping method (J. Salvi, S. Fernandez, T. Pribanic, and X. Llado. A state of the art in structured light patterns for surface profilometry, Pattern Recognition, 2010.).

제1 카메라(C11) 및 제2 카메라(C12)는 복수의 시점(시점 11, 시점 12, 시점 13)에서 구조광이 조사된 대상 객체(21)를 촬영하고, 촬영된 영상 정보를 삼차원 영상 복원 장치(10)로 송신한다.The first camera C11 and the second camera C12 photograph a target object 21 irradiated with the structured light at a plurality of viewpoints (viewpoint 11, viewpoint 12, viewpoint 13), reconstruct a three- To the device (10).

삼차원 영상 복원 장치(10)는, 촬영된 영상 정보를 이용해서 복수의 시점(시점 11, 시점 12, 시점 13)에 대한 복수의 펼친 위상 영상(unwrapped phase images)을 획득할 수 있다. 삼차원 영상 복원 장치(10)는 이러한 복수의 펼친 위상 영상 및 캘리브레이션 데이터(calibration data)에 기초해서, 복수의 시점(시점 11, 시점 12, 시점 13)에 대해 복수의 초기 깊이 영상(initial depth images)을 재구성한다.The 3D image reconstruction apparatus 10 can obtain a plurality of unwrapped phase images for a plurality of viewpoints (viewpoint 11, viewpoint 12, viewpoint 13) using the captured image information. The 3D image reconstruction apparatus 10 reconstructs a plurality of initial depth images for a plurality of viewpoints (viewpoint 11, viewpoint 12, viewpoint 13) based on the plurality of expanded phase images and calibration data, Lt; / RTI >

삼차원 영상 복원 장치(10)는 이러한 복수의 초기 깊이 영상을 ICP(Iterative Closest Point) 방법 등을 이용해 병합함(merging)으로써 대상 객체(21)에 대응하는 복수의 제1 삼차원 점 좌표(400)를 획득할 수 있다(도 4 참조).The 3D image reconstruction apparatus 10 merges the plurality of initial depth images using an ICP (Iterative Closest Point) method or the like to thereby generate a plurality of first three-dimensional point coordinates 400 corresponding to the target object 21 (See FIG. 4).

이하에선 상술한 바에 따라 획득된 복수의 제1 삼차원 점 좌표(400), 복수의 펼친 위상 영상, 및 캘리브레이션 데이터를 이용하여 복수의 제2 삼차원 점 좌표를 획득하고, 이러한 복수의 제2 삼차원 점 좌표를 이용하여 삼차원 메쉬 구조(mesh structure)를 획득하는 방법에 대해 설명한다.Hereinafter, a plurality of second three-dimensional point coordinates are obtained using a plurality of first three-dimensional point coordinates 400, a plurality of expanded phase images, and calibration data obtained according to the above description, and the plurality of second three- A method of acquiring a three-dimensional mesh structure will be described.

도 2는 본 발명의 다른 실시예에 따른 스테레오 스캐닝 시스템을 설명하기 위한 도면이다. 2 is a view for explaining a stereo scanning system according to another embodiment of the present invention.

도 2의 스테레오 스캐닝 시스템은 카메라(C21) 및 프로젝터(P2)를 포함한다. 도 2의 실시예에서 카메라(C21)가 제1 시점 장치이고, 프로젝터(P2)가 제2 시점 장치이다.The stereo scanning system of Fig. 2 includes a camera C21 and a projector P2. In the embodiment of FIG. 2, the camera C21 is the first viewpoint device and the projector P2 is the second viewpoint device.

도 2의 실시예에서는 카메라(C21)가 한 대뿐이기에, 프로젝터(P2)를 제2 카메라로 가정하여 후술하는 방법을 적용할 수 있다. 이때 프로젝터(P2)는 핀-홀 카메라(pin-hole camera)로 모델링될 수 있다.In the embodiment of FIG. 2, since only one camera C21 is provided, the following method can be applied assuming that the projector P2 is the second camera. At this time, the projector P2 can be modeled as a pin-hole camera.

도 3은 본 발명의 한 실시예에 따른 삼차원 영상 복원 장치를 설명하기 위한 도면이다. 이하에선 도 1의 실시예를 기준으로 설명한다.3 is a view for explaining a three-dimensional image restoration apparatus according to an embodiment of the present invention. The following description will be made on the basis of the embodiment of FIG.

도 3을 참조하면, 본 발명의 한 실시예에 따른 삼차원 영상 복원 장치(10)는 펼친 위상 획득부(11), 제2 삼차원 점 좌표 획득부(12), 강도 벡터 획득부(13), 입사광 방향 행렬 획득부(14), 표면 법선 벡터 획득부(15), 및 삼차원 메쉬 구조 획득부(16)를 포함한다.3, the three-dimensional image reconstruction apparatus 10 according to an embodiment of the present invention includes an expanded phase obtaining unit 11, a second three-dimensional point coordinate obtaining unit 12, an intensity vector obtaining unit 13, Direction matrix obtaining unit 14, a surface normal vector obtaining unit 15, and a three-dimensional mesh structure obtaining unit 16.

삼차원 영상 복원 장치(10)는 데스크탑, 노트북, 서버 등 프로그램을 연산할 수 있는 컴퓨팅 장치(computing device)일 수 있다. 삼차원 영상 복원 장치(10)는 최소한 하나의 프로세서와 메모리를 포함할 수 있다. 메모리에는 본 발명의 실시예에 따른 삼차원 영상 복원 방법이 미리 프로그램되어 있을 수 있다. 프로세서는 이러한 프로그램을 구동시킬 수 있다. 한편, 이러한 프로그램은 외부 서버 등으로부터 원격으로 가져올 수도 있다. 다른 한편, 삼차원 영상 복원 장치(10)에서 프로세서와 메모리의 구분이 모호할 수 있으며, 삼차원 영상 복원 방법을 구현하기 위한 소프트웨어와 하드웨어 각각의 비중을 정하는 것은 당업자 선택에 따를 수 있다.The 3D image restoration device 10 may be a computing device capable of computing a program such as a desktop, a notebook, and a server. The 3D image reconstruction apparatus 10 may include at least one processor and a memory. The 3D image reconstruction method according to the embodiment of the present invention may be pre-programmed in the memory. The processor can drive such a program. On the other hand, such a program may be imported remotely from an external server or the like. On the other hand, the distinction between the processor and the memory may be ambiguous in the three-dimensional image restoration apparatus 10, and it is possible for a person skilled in the art to determine the proportion of software and hardware for implementing the three-dimensional image restoration method.

삼차원 영상 복원 장치(10)는 하나의 프로세서 및 하나의 메모리로 본 발명의 삼차원 영상 복원 방법을 구현할 수도 있지만, 복수의 프로세서 및 복수의 메모리 또는 다양한 소프트웨어 및 하드웨어의 조합으로 본 발명의 깊이 정보 획득 방법을 구현할 수 있다. 따라서 도 3에서는, 그러한 한 실시예로서, 삼차원 영상 복원 장치(10)가 삼차원 영상 복원 방법에 따라 논리적으로 구분된 복수의 기능부(function unit)(11, 12, 13, 14, 15, 16)를 포함한다. 각각의 기능부를 하나 또는 특정 개수로 통합하거나 분리시켜 하드웨어 및 소프트웨어로 구현하는 것은 당업자의 선택 사항이다.The three-dimensional image restoration apparatus 10 may implement the three-dimensional image restoration method of the present invention with one processor and one memory. However, the three-dimensional image restoration apparatus 10 may use a plurality of processors, a plurality of memories, Can be implemented. 3, the three-dimensional image restoration apparatus 10 includes a plurality of function units 11, 12, 13, 14, 15, and 16 logically divided according to a three-dimensional image restoration method, . It is optional for those skilled in the art to integrate or separate each functional unit into one or a specific number and implement it in hardware and software.

펼친 위상 획득부(11)는 복수의 제1 삼차원 점 좌표(400)를 이용하여 복수의 시점(시점 11, 시점 12, 시점 13) 각각에 대해, 제1 카메라(C11)에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 카메라(C12)에대응하는 제2 펼친 위상을 획득한다. 이때, 펼친 위상 획득부(11)는 각각의 시점에 대한 제1 카메라(C11)의 카메라 파라미터를 복수의 제1 삼차원 점 좌표(400)에 적용하여 획득된 이차원 점 좌표로부터 제1 펼친 위상을 획득하고, 각각의 시점에 대한 제2 카메라(C12)의 카메라 파라미터를 복수의 제1 삼차원 점 좌표(400)에 적용하여 획득된 이차원 점 좌표로부터 제2 펼친 위상을 획득할 수 있다.The expanded phase acquiring unit 11 acquires the first expanded coordinates corresponding to the first camera C11 for each of a plurality of viewpoints (viewpoint 11, viewpoint 12, viewpoint 13) using the plurality of first three- An unwrapped phase and a second expanded phase corresponding to the second camera C12. At this time, the expanded phase obtaining unit 11 obtains the first expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the first camera C11 to the plurality of first three-dimensional point coordinates 400 for each viewpoint And obtain the second expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the second camera C12 to the plurality of first three-dimensional point coordinates 400 for each viewpoint.

복수의 제1 삼차원 점 좌표(400) 각각을

Figure 112016037545263-pat00001
라 하고, 시점 i에 대한 외부(extrinsic) 카메라 파라미터를
Figure 112016037545263-pat00002
라 하고, 시점 i에 대한 내부(intrinsic) 카메라 파라미터를
Figure 112016037545263-pat00003
라고 하는 경우,
Figure 112016037545263-pat00004
에 대응하는 시점 i의 이차원 점 좌표는
Figure 112016037545263-pat00005
라고 할 수 있다. 이러한 관계는 아래 수학식 1과 같이 표현될 수 있다.Each of the plurality of first three-dimensional point coordinates (400)
Figure 112016037545263-pat00001
, And extrinsic camera parameters for the time i
Figure 112016037545263-pat00002
, And the intrinsic camera parameters for the time i
Figure 112016037545263-pat00003
If so,
Figure 112016037545263-pat00004
The two-dimensional point coordinates at the time point i corresponding to
Figure 112016037545263-pat00005
. This relationship can be expressed as Equation 1 below.

[수학식 1][Equation 1]

Figure 112016037545263-pat00006
Figure 112016037545263-pat00006

카메라 외부 파라미터

Figure 112016037545263-pat00007
및 내부 파라미터
Figure 112016037545263-pat00008
는 전술한 캘리브레이션 데이터로부터 획득할 수 있다.Camera external parameters
Figure 112016037545263-pat00007
And internal parameters
Figure 112016037545263-pat00008
Can be obtained from the above-described calibration data.

이러한 이차원 점 좌표

Figure 112016037545263-pat00009
에 대한 펼친 위상을 삼차원 점 좌표로 표현하면
Figure 112016037545263-pat00010
라고 할 수 있다.These two-dimensional point coordinates
Figure 112016037545263-pat00009
Expressed in terms of three-dimensional point coordinates
Figure 112016037545263-pat00010
.

본 발명의 실시예에 따른 스테레오 스캐닝 시스템은 서로다른 제1 카메라(C11) 및 제2 카메라(C12)를 포함하고, 제1 카메라(C11)의 카메라 파라미터 및 제2 카메라(C12)의 카메라 파라미터는 각각 다르므로, 상술한 수학식 1에 따르는 경우 하나의 삼차원 점 좌표

Figure 112016037545263-pat00011
에 대해 두 개의 펼친 위상을 획득할 수 있다. 이때, 제1 카메라(C11)에 대응하는 펼친 위상을 제1 펼친 위상
Figure 112016037545263-pat00012
이라고 하고, 제2 카메라(C12)에 대응하는 펼친 위상을 제2 펼친 위상
Figure 112016037545263-pat00013
이라고 할 수 있다.The stereo scanning system according to the embodiment of the present invention includes a first camera C11 and a second camera C12 which are different from each other and the camera parameters of the first camera C11 and the second camera C12 are Respectively. Therefore, in accordance with the above-described formula (1), when one three-dimensional point coordinate
Figure 112016037545263-pat00011
Lt; / RTI > can obtain two < RTI ID = 0.0 > At this time, the expanded phase corresponding to the first camera C11 is referred to as a first extended phase
Figure 112016037545263-pat00012
And the expanded phase corresponding to the second camera C12 is referred to as a second extended phase
Figure 112016037545263-pat00013
.

제2 삼차원 점 좌표 획득부(12)는 복수의 시점(시점 11, 시점 12, 시점 13)에 대해서, 제1 펼친 위상과 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표(500)를 획득할 수 있다(도 5 참조).The second three-dimensional point coordinate acquiring section 12 acquires a plurality of points (point 11, point 12, point 13) for causing the first function, which is the difference between the first and second expanded phases, Two three-dimensional point coordinates 500 can be obtained (see FIG. 5).

예시적인 제1 함수

Figure 112016037545263-pat00014
및 도출된 제2 삼차원 점 좌표
Figure 112016037545263-pat00015
의 관계는 아래 수학식 2와 같이 표현될 수 있다.The exemplary first function
Figure 112016037545263-pat00014
And the derived second three-dimensional point coordinates
Figure 112016037545263-pat00015
Can be expressed by Equation (2) below.

[수학식 2]&Quot; (2) "

Figure 112016037545263-pat00016
Figure 112016037545263-pat00016

Figure 112016037545263-pat00017
은 이진 시각성 함수(binary visibility function)로서 제1 삼차원 점 좌표
Figure 112016037545263-pat00018
가 i 시점의 이미지에서 보이는 경우 1이고, 보이지 않는 경우 0이다.
Figure 112016037545263-pat00017
Is a binary visibility function, which is a first three-dimensional point coordinate
Figure 112016037545263-pat00018
Is 1 when viewed from the image at the i-th point, and 0 when it is not visible.

수학식 2는 위상 매핑(phase mapping)의 비선형성(non-linearity)으로 인해서 논-컨벡스 최적화 문제(non-convex optimization problem)에 해당한다. 수학식 2는 다양한 기법을 통해서 해를 찾을 수 있지만, 본 실시예에서는 후술하는 예시적인 선형화 기법으로 이를 해결한다.Equation (2) corresponds to a non-convex optimization problem due to the non-linearity of the phase mapping. Equation (2) finds solutions through various techniques, but in the present embodiment solves this with an exemplary linearization technique described below.

제2 삼차원 점 좌표 획득부(12)는 제1 함수를 선형화(linearization)한 제2 함수

Figure 112016037545263-pat00019
를 최소화하는 삼차원 좌표의 변위 값
Figure 112016037545263-pat00020
을 획득함으로써 복수의 제2 삼차원 점 좌표(500)를 획득할 수 있다. 이는 아래 수학식 3으로 표현될 수 있다.The second three-dimensional point coordinate acquiring unit 12 acquires a second function, which is a linear function of the first function,
Figure 112016037545263-pat00019
The displacement value of the three-dimensional coordinates
Figure 112016037545263-pat00020
The second three-dimensional point coordinates 500 can be obtained. This can be expressed by the following equation (3).

[수학식 3]&Quot; (3) "

Figure 112016037545263-pat00021
Figure 112016037545263-pat00021

Figure 112016037545263-pat00022
는 초기 추측(initial guess) 좌표이고,
Figure 112016037545263-pat00023
는 수학식
Figure 112016037545263-pat00024
에 기초하고,
Figure 112016037545263-pat00025
Figure 112016037545263-pat00026
에 대한 자코비안 표현(Jacobian representation)이다.
Figure 112016037545263-pat00022
Is an initial guess coordinate,
Figure 112016037545263-pat00023
Is expressed by the following equation
Figure 112016037545263-pat00024
Lt; / RTI >
Figure 112016037545263-pat00025
The
Figure 112016037545263-pat00026
Is a Jacobian representation of.

제2 삼차원 점 좌표 획득부(12)는 먼저

Figure 112016037545263-pat00027
를 삼차원 좌표 축(3D coordinate axis)을 따라 수치적으로(numerically) 계산하고, 각 단계 별
Figure 112016037545263-pat00028
를 최소 자승법 방식(least squares manner)으로 계산한다.
Figure 112016037545263-pat00029
은 각 단계별로
Figure 112016037545263-pat00030
를 통해 업데이트된다.The second three-dimensional point coordinate obtaining unit 12 obtains
Figure 112016037545263-pat00027
Is calculated numerically along the 3D coordinate axis, and is calculated for each step
Figure 112016037545263-pat00028
In a least squares manner.
Figure 112016037545263-pat00029
By each step
Figure 112016037545263-pat00030
Lt; / RTI >

평균적인 형상을 따르는 도 4의 복수의 제1 삼차원 점 좌표(400)와 비교했을 때, 도 5의 복수의 제2 삼차원 점 좌표(500)는 상술한 기하학적 보정법(geometric refinement)을 통해서 미세 구조까지 추정되어 샤프(sharp)하게 보정되었음을 확인할 수 있다.4. Compared to the first three-dimensional point coordinates 400 of FIG. 4 that follow the average shape, the plurality of second three-dimensional point coordinates 500 of FIG. 5 have the same shape as the microstructures 400 through the geometric refinement And it can be confirmed that it is sharply corrected.

이러한 복수의 제2 삼차원 점 좌표(500)를 기초로 하여, 기존의 기하학적 방법(예를 들어서, 대상 픽셀의 주변 픽셀의 좌표를 이용하여 법선 벡터를 도출함)을 통해서 삼차원 메쉬 구조가 획득 가능하다.Based on the plurality of second three-dimensional point coordinates 500, a three-dimensional mesh structure is obtainable through an existing geometric method (e.g., deriving a normal vector using the coordinates of surrounding pixels of the target pixel) .

하지만, 이러한 기존의 기하학적 방법을 적용하는 경우, 주변 픽셀을 정의하는 적절한 반경을 정하기 힘들고, 기하학적 세부 정보를 스무스(smooth)시켜 버리는 평균화 아티팩트(averaging artifact)를 야기한다.However, applying these existing geometric methods results in averaging artifacts that make it difficult to determine the proper radius to define the surrounding pixels and smooth the geometric details.

따라서 본 실시예에서는, 추가적으로, 정밀한 삼차원 메쉬 구조(700)를 광학적(photometric) 방법을 통해서 획득하는 과정을 후술한다(도 7 참조).Therefore, in this embodiment, further, a process of acquiring a fine three-dimensional mesh structure 700 through a photometric method will be described below (see FIG. 7).

강도 벡터 획득부(13)는 복수의 제2 삼차원 점 좌표(500) 각각에 대한 복수의 강도 벡터(intensity vector)를 획득한다. 이때, 강도 벡터 획득부(13)는 복수의 제2 삼차원 점 좌표(500) 각각에 대해서, 복수의 시점(시점 11, 시점 12, 시점 13)의 대응하는 이차원 점 좌표들의 강도를 보간(interpolating)함으로써 강도 벡터를 획득할 수 있다.The intensity vector obtaining unit 13 obtains a plurality of intensity vectors for each of the plurality of second three-dimensional point coordinates 500. At this time, the intensity vector obtaining unit 13 interpolates the intensity of corresponding two-dimensional point coordinates at a plurality of points of time (point 11, point 12, point 13) with respect to each of the plurality of second three-dimensional point coordinates 500, The intensity vector can be obtained.

강도 벡터 획득부(13)는 임의의 제2 삼차원 점 좌표

Figure 112016037545263-pat00031
에 대해서 대응하는 이차원 점 좌표들의 픽셀 강도를 보간함으로써 강도 벡터
Figure 112016037545263-pat00032
를 획득할 수 있다.
Figure 112016037545263-pat00033
는 해당 제2 삼차원 점 좌표
Figure 112016037545263-pat00034
가 보이는 시점의 개수를 의미한다.The intensity vector acquiring unit 13 acquires the intensity vector of the arbitrary second three-
Figure 112016037545263-pat00031
By interpolating the pixel intensity of the corresponding two-dimensional point coordinates with respect to the intensity vector
Figure 112016037545263-pat00032
Can be obtained.
Figure 112016037545263-pat00033
The second three-dimensional point coordinates
Figure 112016037545263-pat00034
Quot; is the number of viewpoints that are visible.

입사광 방향 행렬 획득부(14)는 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 입사광 방향 행렬(light direction matrix)을 획득한다. 이때 복수의 입사광 방향 행렬 각각인

Figure 112016037545263-pat00035
은 복수의 시점 각각의 광원(light source) 중심으로부터 대응하는 제2 삼차원 점 좌표로 향하는 복수의 입사광 방향 벡터를 포함한다. 이때 광원의 중심이란, 도 1의 실시예에서 프로젝터(P1)의 중심을 의미한다. 따라서 본 실시예에 따르면 외부 광원이 불필요하여 비용이 절감될 수 있다.The incident light direction matrix obtaining unit 14 obtains a plurality of incident light direction matrixes for each of the plurality of second three-dimensional point coordinates. At this time, each of the plurality of incident light directional matrices
Figure 112016037545263-pat00035
Includes a plurality of incident light direction vectors from the light source center of each of the plurality of viewpoints to the corresponding second three-dimensional point coordinates. Here, the center of the light source means the center of the projector P1 in the embodiment of FIG. Therefore, according to the present embodiment, an external light source is unnecessary and the cost can be reduced.

표면 법선 벡터 획득부(15)는 복수의 강도 벡터 및 대응하는 복수의 입사광 방향 행렬을 이용하여, 대응하는 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 표면 법선 벡터(surface normal vector)를 획득한다. 이때, 표면 법선 벡터 획득부(15)는 복수의 제2 삼차원 점 좌표 각각에 대해서, 강도 벡터와 표면 법선 벡터 및 입사광 방향 행렬의 행렬곱의 차이인 제3 함수를 최소화하는 표면 법선 벡터를 획득할 수 있다. 구체적인 내용은 후술한다.The surface normal vector obtaining unit 15 obtains a plurality of surface normal vectors for each of the corresponding second plurality of three-dimensional point coordinates using the plurality of intensity vectors and the corresponding plurality of incident light direction matrices . At this time, the surface normal vector obtaining unit 15 obtains a surface normal vector for minimizing the third function, which is a difference between the intensity vector, the surface normal vector, and the incident light direction matrix, for each of the plurality of second three-dimensional point coordinates . Details will be described later.

램버시안 쉐이딩 가정(Lambertian shading assumption) 하에, 획득된 강도 벡터

Figure 112016037545263-pat00036
, 입사광 방향 행렬
Figure 112016037545263-pat00037
, 및 표면 법선 벡터
Figure 112016037545263-pat00038
에 대해서 아래 수학식 4의 관계가 도출될 수 있다.Under the Lambertian shading assumption, the obtained intensity vector < RTI ID = 0.0 >
Figure 112016037545263-pat00036
, An incident light direction matrix
Figure 112016037545263-pat00037
, And surface normal vectors
Figure 112016037545263-pat00038
The following relation (4) can be derived.

[수학식 4]&Quot; (4) "

Figure 112016037545263-pat00039
Figure 112016037545263-pat00039

표면 법선 벡터 획득부(15)는 표면 법선 벡터를 최소 자승법 방식으로 획득할 수 있다. 예를 들어, 제3 함수인

Figure 112016037545263-pat00040
를 최소화하는 표면 법선 벡터
Figure 112016037545263-pat00041
를 획득할 수 있다. 이때, 표면 법선 벡터를 그림자(shadow) 또는 포화(saturation)에 대해 강건하게(robust) 추정하기 위하여, 가중치
Figure 112016037545263-pat00042
를 도입할 수 있다. 이때 가중치
Figure 112016037545263-pat00043
Figure 112016037545263-pat00044
일 때
Figure 112016037545263-pat00045
를 만족할 수 있다. 이러한 가중치를 도입한 수정된 제3 함수는
Figure 112016037545263-pat00046
로 표현될 수 있다.The surface normal vector obtaining unit 15 can obtain the surface normal vector by the least squares method. For example, the third function
Figure 112016037545263-pat00040
Surface normal vector that minimizes
Figure 112016037545263-pat00041
Can be obtained. At this time, in order to robustly estimate the surface normal vector with respect to shadow or saturation,
Figure 112016037545263-pat00042
Can be introduced. At this time,
Figure 112016037545263-pat00043
The
Figure 112016037545263-pat00044
when
Figure 112016037545263-pat00045
Can be satisfied. The modified third function incorporating such a weight
Figure 112016037545263-pat00046
. ≪ / RTI >

최종적으로, 표면 법선 벡터 획득부(15)는 아래 수학식 5에 따라 닫힌 형태(closed-form)로 표면 법선 벡터를 획득할 수 있다. Finally, the surface normal vector obtaining unit 15 can obtain the surface normal vector in a closed-form according to Equation (5) below.

[수학식 5]&Quot; (5) "

Figure 112016037545263-pat00047
Figure 112016037545263-pat00047

이때

Figure 112016037545263-pat00048
은 해당 좌표에 대한 표면 알베도(surface albedo)를 나타낸다.At this time
Figure 112016037545263-pat00048
Represents the surface albedo for that coordinate.

다음으로, 삼차원 메쉬 구조 획득부(16)는 복수의 제2 삼차원 점 좌표 및 대응하는 복수의 표면 법선 벡터를 이용하여 대상 객체(21)에 대한 삼차원 메쉬 구조를 획득할 수 있다. 이때 삼차원 메쉬 구조 획득부(16)는 복수의 제2 삼차원 점 좌표에 대응하는 표면 법선 벡터를 직접 할당(directly assigning)한 복수의 지향 점(oriented points)(600)을 이용하여 삼차원 메쉬 구조(700)를 획득할 수 있다(도 6 및 7 참조).Next, the three-dimensional mesh structure obtaining unit 16 may obtain the three-dimensional mesh structure for the target object 21 using the plurality of second three-dimensional point coordinates and the corresponding plurality of surface normal vectors. At this time, the three-dimensional mesh structure obtaining unit 16 uses the plurality of oriented points 600 that directly assign the surface normal vectors corresponding to the plurality of second three-dimensional point coordinates to the three-dimensional mesh structure 700 ) (See Figures 6 and 7).

삼차원 메쉬 구조 획득부(16)는 복수의 지향 점에 대해 PSR(Poisson Surface Reconstruction) 방법을 이용해서 삼차원 메쉬 구조를 획득할 수 있다(M. Kazhdan, M. Bolitho, and H. Hoppe. Poisson surface reconstruction. In Proceedings of the fourth Eurographics symposium on Geometry processing, 2006. 참조).The 3D mesh structure acquisition unit 16 can acquire a three-dimensional mesh structure using a PSR (Poisson Surface Reconstruction) method for a plurality of orientation points (M. Kazhdan, M. Bolitho, and H. Hoppe. In Proceedings of the fourth Eurographics symposium on Geometry processing, 2006.).

지금까지 참조한 도면과 기재된 발명의 상세한 설명은 단지 본 발명의 예시적인 것으로서, 이는 단지 본 발명을 설명하기 위한 목적에서사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are illustrative and explanatory only and are intended to be illustrative of the invention and are not to be construed as limiting the scope of the invention as defined by the appended claims. It is not. Therefore, those skilled in the art will appreciate that various modifications and equivalent embodiments are possible without departing from the scope of the present invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

10: 삼차원 영상 복원 장치
11: 펼친 위상 획득부
12: 제2 삼차원 점 좌표 획득부
13: 강도 벡터 획득부
14: 입사광 방향 행렬 획득부
15: 표면 법선 벡터 획득부
16: 삼차원 메쉬 구조 획득부
21: 대상 객체
P1: 프로젝터
C11, C12: 카메라
10: 3D image restoration device
11: Expanded phase acquiring unit
12: second three-dimensional point coordinate acquiring unit
13: Intensity vector acquiring unit
14: Incident light direction matrix acquisition unit
15: Surface normal vector obtaining unit
16: Three-dimensional mesh structure acquiring unit
21: Target object
P1: Projector
C11, C12: Camera

Claims (17)

제1 시점 장치 및 제2 시점 장치를 포함한 스테레오 스캐닝 시스템을 이용하여 복수의 시점에서 대상 객체를 촬영함으로써 획득된 복수의 제1 삼차원 점 좌표를 이용하여 삼차원 영상을 복원하는 장치로서,
상기 복수의 제1 삼차원 점 좌표를 이용하여 상기 복수의 시점 각각에 대해, 상기 제1 시점 장치에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 시점 장치에 대응하는 제2 펼친 위상을 획득하는 펼친 위상 획득부;
상기 복수의 시점에 대해서, 상기 제1 펼친 위상과 상기 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표를 획득하는 제2 삼차원 점 좌표 획득부;
상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 강도 벡터를 획득하는 강도 벡터 획득부;
상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 입사광 방향 행렬을 획득하는 입사광 방향 행렬 획득부;
상기 복수의 강도 벡터 및 대응하는 상기 복수의 입사광 방향 행렬을 이용하여, 대응하는 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 표면 법선 벡터를 획득하는 표면 법선 벡터 획득부; 및
상기 복수의 제2 삼차원 점 좌표 및 대응하는 상기 복수의 표면 법선 벡터를 이용하여 상기 대상 객체에 대한 삼차원 메쉬 구조(mesh structure)를 획득하는 삼차원 메쉬 구조 획득부를 포함하는
삼차원 영상 복원 장치.
An apparatus for reconstructing a three-dimensional image using a plurality of first three-dimensional point coordinates obtained by photographing a target object at a plurality of points of view using a stereo scanning system including a first point-of-view apparatus and a second point-
Acquiring, for each of the plurality of viewpoints, a first unwrapped phase corresponding to the first viewpoint device and a second expanded phase corresponding to the second viewpoint device using the plurality of first three-dimensional point coordinates An expanded phase acquisition unit
A second three-dimensional point coordinate obtaining unit that obtains a plurality of second three-dimensional point coordinates that minimize a first function that is a difference between the first expanded phase and the second expanded phase with respect to the plurality of view points;
An intensity vector obtaining unit for obtaining a plurality of intensity vectors for each of the plurality of second three-dimensional point coordinates;
An incident light direction matrix obtaining unit for obtaining a plurality of incident light direction matrices for each of the plurality of second three-dimensional point coordinates;
A surface normal vector obtaining unit that obtains a plurality of surface normal vectors for each of the plurality of second three-dimensional point coordinates corresponding to the plurality of intensity vectors and the corresponding plurality of incident light direction matrices; And
And a three-dimensional mesh structure obtaining unit for obtaining a three-dimensional mesh structure for the target object using the plurality of second three-dimensional point coordinates and the corresponding plurality of surface normal vectors
3D image restoration device.
삭제delete 제1 항에 있어서,
상기 제1 시점 장치는 제1 카메라이고,
상기 제2 시점 장치는 제2 카메라 또는 프로젝터인,
삼차원 영상 복원 장치.
The method according to claim 1,
Wherein the first viewpoint device is a first camera,
Wherein the second viewpoint device is a second camera or projector,
3D image restoration device.
제1 항에 있어서,
상기 펼친 위상 획득부는
각각의 시점에 대한 상기 제1 시점 장치의 카메라 파라미터를 상기 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제1 펼친 위상을 획득하고,
각각의 시점에 대한 상기 제2 시점 장치의 카메라 파라미터를 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제2 펼친 위상을 획득하는,
삼차원 영상 복원 장치.
The method according to claim 1,
The expanded phase acquiring unit
Acquiring the first expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the first point-of-view device to the plurality of first three-dimensional point coordinates for each point in time,
Acquiring the second expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the second point-of-view device to the plurality of first three-dimensional point coordinates for each point in time,
3D image restoration device.
제1 항에 있어서,
상기 제2 삼차원 점 좌표 획득부는
상기 제1 함수를 선형화(linearization)한 제2 함수를 최소화하는 삼차원 좌표의 변위 값을 획득함으로써 상기 복수의 제2 삼차원 점 좌표를 획득하는,
삼차원 영상 복원 장치.
The method according to claim 1,
The second three-dimensional point coordinate obtaining unit
Obtaining a plurality of second three-dimensional point coordinates by obtaining a displacement value of a three-dimensional coordinate that minimizes a second function obtained by linearizing the first function;
3D image restoration device.
제1 항에 있어서,
상기 강도 벡터 획득부는 상기 복수의 제2 삼차원 점 좌표 각각에 대해서
상기 복수의 시점의 대응하는 이차원 점 좌표들의 강도를 보간(interpolating)함으로써 강도 벡터를 획득하는,
삼차원 영상 복원 장치.
The method according to claim 1,
Wherein the intensity vector obtaining unit obtains the intensity vector of each of the plurality of second three-
Acquiring an intensity vector by interpolating intensity of corresponding two-dimensional point coordinates of the plurality of points of view;
3D image restoration device.
제1 항에 있어서,
상기 복수의 입사광 방향 행렬 각각은
상기 복수의 시점 각각의 광원(light source) 중심으로부터 대응하는 제2 삼차원 점 좌표로 향하는 복수의 입사광 방향 벡터를 포함하는,
삼차원 영상 복원 장치.
The method according to claim 1,
Each of the plurality of incident light direction matrices
And a plurality of incident light direction vectors from a light source center of each of the plurality of viewpoints to a corresponding second three-
3D image restoration device.
제1 항에 있어서,
상기 표면 법선 벡터 획득부는 상기 복수의 제2 삼차원 점 좌표 각각에 대해서
강도 벡터와 표면 법선 벡터 및 입사광 방향 행렬의 행렬곱의 차이인 제3 함수를 최소화하는 표면 법선 벡터를 획득하는,
삼차원 영상 복원 장치.
The method according to claim 1,
Wherein the surface normal vector obtaining unit obtains, for each of the plurality of second three-dimensional point coordinates,
Obtaining a surface normal vector that minimizes a third function which is a difference between a matrix vector of an intensity vector and a surface normal vector and an incident light direction matrix,
3D image restoration device.
제1 항에 있어서,
상기 삼차원 메쉬 구조 획득부는
상기 복수의 제2 삼차원 점 좌표에 대응하는 표면 법선 벡터를 직접 할당(directly assigning)한 복수의 지향 점(oriented points)을 이용하여 상기 삼차원 메쉬 구조를 획득하는,
삼차원 영상 복원 장치.
The method according to claim 1,
The three-dimensional mesh structure obtaining unit
Acquiring the three-dimensional mesh structure using a plurality of oriented points directly assigning surface normal vectors corresponding to the plurality of second three-dimensional point coordinates,
3D image restoration device.
제1 시점 장치 및 제2 시점 장치를 포함한 스테레오 스캐닝 시스템을 이용하여 복수의 시점에서 대상 객체를 촬영함으로써 획득된 복수의 제1 삼차원 점 좌표를 이용하여 삼차원 영상을 복원하는 방법으로서,
상기 복수의 제1 삼차원 점 좌표를 이용하여 상기 복수의 시점 각각에 대해, 상기 제1 시점 장치에 대응하는 제1 펼친 위상(unwrapped phase) 및 상기 제2 시점 장치에 대응하는 제2 펼친 위상을 획득하는 단계;
상기 복수의 시점에 대해서 상기 제1 펼친 위상과 상기 제2 펼친 위상의 차이인 제1 함수가 최소가 되도록하는 복수의 제2 삼차원 점 좌표를 획득하는 단계;
상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 강도 벡터를 획득하는 단계;
상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 입사광 방향 행렬을 획득하는 단계;
상기 복수의 강도 벡터 및 대응하는 상기 복수의 입사광 방향 행렬을 이용하여, 대응하는 상기 복수의 제2 삼차원 점 좌표 각각에 대한 복수의 표면 법선 벡터를 획득하는 단계; 및
상기 복수의 제2 삼차원 점 좌표 및 대응하는 상기 복수의 표면 법선 벡터를 이용하여 상기 대상 객체에 대한 삼차원 메쉬 구조(mesh structure)를 획득하는 단계를 포함하는
삼차원 영상 복원 방법.
A method for reconstructing a three-dimensional image using a plurality of first three-dimensional point coordinates obtained by photographing a target object at a plurality of points of view using a stereo scanning system including a first point-of-view device and a second point-
Acquiring, for each of the plurality of viewpoints, a first unwrapped phase corresponding to the first viewpoint device and a second expanded phase corresponding to the second viewpoint device using the plurality of first three-dimensional point coordinates ;
Obtaining a plurality of second three-dimensional point coordinates such that a first function which is a difference between the first expanded phase and the second expanded phase is minimized for the plurality of time points;
Obtaining a plurality of intensity vectors for each of the plurality of second three-dimensional point coordinates;
Obtaining a plurality of incident light direction matrices for each of the plurality of second three-dimensional point coordinates;
Obtaining a plurality of surface normal vectors for each corresponding second plurality of three-dimensional point coordinates using the plurality of intensity vectors and the corresponding plurality of incident light direction matrices; And
Acquiring a three-dimensional mesh structure for the target object using the plurality of second three-dimensional point coordinates and the corresponding plurality of surface normal vectors
3D image reconstruction method.
삭제delete 제10 항에 있어서,
상기 제1 및 제2 펼친 위상을 획득하는 단계에서,
각각의 시점에 대한 상기 제1 시점 장치의 카메라 파라미터를 상기 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제1 펼친 위상을 획득하고,
각각의 시점에 대한 상기 제2 시점 장치의 카메라 파라미터를 복수의 제1 삼차원 점 좌표에 적용하여 획득된 이차원 점 좌표로부터 상기 제2 펼친 위상을 획득하는,
삼차원 영상 복원 방법.
11. The method of claim 10,
In obtaining the first and second expanded phases,
Acquiring the first expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the first point-of-view device to the plurality of first three-dimensional point coordinates for each point in time,
Acquiring the second expanded phase from the two-dimensional point coordinates obtained by applying the camera parameters of the second point-of-view device to the plurality of first three-dimensional point coordinates for each point in time,
3D image reconstruction method.
제10 항에 있어서,
상기 복수의 제2 삼차원 점 좌표를 획득하는 단계에서,
상기 제1 함수를 선형화한 제2 함수를 최소화하는 삼차원 좌표의 변위 값을 획득함으로써 상기 복수의 제2 삼차원 점 좌표를 획득하는,
삼차원 영상 복원 방법.
11. The method of claim 10,
In obtaining the plurality of second three-dimensional point coordinates,
Obtaining a plurality of second three-dimensional point coordinates by obtaining a displacement value of a three-dimensional coordinate that minimizes a second function that linearizes the first function,
3D image reconstruction method.
제10 항에 있어서,
상기 복수의 강도 벡터를 획득하는 단계는, 상기 복수의 제2 삼차원 점 좌표 각각에 대해서,
상기 복수의 시점의 대응하는 이차원 점 좌표들의 강도를 보간(interpolating)함으로써 강도 벡터를 획득하는 단계인,
삼차원 영상 복원 방법.
11. The method of claim 10,
Wherein the obtaining of the plurality of intensity vectors comprises: for each of the plurality of second three-dimensional point coordinates,
Obtaining an intensity vector by interpolating intensity of corresponding two-dimensional point coordinates of the plurality of points of view,
3D image reconstruction method.
제10 항에 있어서,
상기 복수의 입사광 방향 행렬 각각은
상기 복수의 시점 각각의 광원(light source) 중심으로부터 대응하는 제2 삼차원 점 좌표로 향하는 복수의 입사광 방향 벡터를 포함하는,
삼차원 영상 복원 방법.
11. The method of claim 10,
Each of the plurality of incident light direction matrices
And a plurality of incident light direction vectors from a light source center of each of the plurality of viewpoints to a corresponding second three-
3D image reconstruction method.
제10 항에 있어서,
상기 복수의 표면 법선 벡터를 획득하는 단계는, 상기 복수의 제2 삼차원 점 좌표 각각에 대해서,
강도 벡터와 표면 법선 벡터 및 입사광 방향 행렬의 행렬곱의 차이인 제3 함수를 최소화하는 표면 법선 벡터를 획득하는 단계인,
삼차원 영상 복원 방법.
11. The method of claim 10,
Wherein the obtaining of the plurality of surface normal vectors comprises: for each of the plurality of second three-dimensional point coordinates,
Obtaining a surface normal vector that minimizes a third function, which is a difference of a matrix multiplication of an intensity vector, a surface normal vector and an incident light direction matrix,
3D image reconstruction method.
제10 항에 있어서,
상기 삼차원 메쉬 구조를 획득하는 단계에서,
상기 복수의 제2 삼차원 점 좌표에 대응하는 표면 법선 벡터를 직접 할당한 복수의 지향점을 이용하여 상기 삼차원 메쉬 구조를 획득하는,
삼차원 영상 복원 방법.
11. The method of claim 10,
In obtaining the three-dimensional mesh structure,
Acquiring the three-dimensional mesh structure using a plurality of directivity points to which surface normal vectors corresponding to the plurality of second three-
3D image reconstruction method.
KR1020160047665A 2016-04-19 2016-04-19 Three dimensional image restoring device and three dimensional image restoring method KR101827847B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160047665A KR101827847B1 (en) 2016-04-19 2016-04-19 Three dimensional image restoring device and three dimensional image restoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160047665A KR101827847B1 (en) 2016-04-19 2016-04-19 Three dimensional image restoring device and three dimensional image restoring method

Publications (2)

Publication Number Publication Date
KR20170119524A KR20170119524A (en) 2017-10-27
KR101827847B1 true KR101827847B1 (en) 2018-02-09

Family

ID=60300526

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160047665A KR101827847B1 (en) 2016-04-19 2016-04-19 Three dimensional image restoring device and three dimensional image restoring method

Country Status (1)

Country Link
KR (1) KR101827847B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110310365B (en) * 2019-06-27 2021-01-05 四川大学 Three-dimensional reconstruction method and device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101495299B1 (en) 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101495299B1 (en) 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Multilevel quality-guided phase unwrapping algorithm for real-time three-dimensional shape reconstruction." APPLIED OPTICS 46.1 (2007)*
"CopyMe3D: Scanning and printing persons in 3D", In German Conference on Pattern Recognition (GCPR)(2013)
A Multi-View Structured Light System for Highly Accurate 3D Modeling, International conference on 3D vision 2015 IEEE(2015)
Consistent stereo-assisted absolute phase unwrapping methods for structured light systems, IEEE Journal of Selected Topics in Signal Processing vol.6.5(2012)*

Also Published As

Publication number Publication date
KR20170119524A (en) 2017-10-27

Similar Documents

Publication Publication Date Title
JP7282317B2 (en) Three-dimensional measurement system and three-dimensional measurement method
CN110288642B (en) Three-dimensional object rapid reconstruction method based on camera array
Girod et al. Principles of 3D image analysis and synthesis
JP6344050B2 (en) Image processing system, image processing apparatus, and program
US20180293774A1 (en) Three dimensional acquisition and rendering
CN104299211B (en) Free-moving type three-dimensional scanning method
KR20180067908A (en) Apparatus for restoring 3d-model and method for using the same
US11290704B2 (en) Three dimensional scanning system and framework
JP2005098985A (en) Measuring device, computer numerical control device and program
WO2017214735A1 (en) Systems and methods for obtaining a structured light reconstruction of a 3d surface
CN112070883A (en) Three-dimensional reconstruction method for 3D printing process based on machine vision
Hafeez et al. Image based 3D reconstruction of texture-less objects for VR contents
KR101827847B1 (en) Three dimensional image restoring device and three dimensional image restoring method
Hafeez et al. 3D surface reconstruction of smooth and textureless objects
Ha et al. A multi-view structured-light system for highly accurate 3D modeling
CN109859313B (en) 3D point cloud data acquisition method and device, and 3D data generation method and system
Kofman et al. Hand-held 3D scanner for surface-shape measurement without sensor pose tracking or surface markers: a compact hand-held 3D scanner simultaneously projecting multiple light lines is presented, enabling 3D surface-shape measurement without requiring sensor tracking or surface markers
CN110751731B (en) 3D reconstruction method and system for structured light
US11127132B2 (en) Method and device for multiple edge detection
Rode et al. Design and Fabrication of a 3-D scanning system using Optical Computed Tomography and Photogrammetry
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
KR20200122870A (en) Acquisition method for high quality 3-dimension spatial information using photogrammetry
Sobani et al. 3D model reconstruction from multi-views of 2D images using radon transform
Zhang et al. A 3-dimensional vision system for dental applications
JP7000941B2 (en) Processing device, 3D model division method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant