KR20030015625A - Calibration-free Approach to 3D Reconstruction Using A Cube Frame - Google Patents

Calibration-free Approach to 3D Reconstruction Using A Cube Frame Download PDF

Info

Publication number
KR20030015625A
KR20030015625A KR1020010049462A KR20010049462A KR20030015625A KR 20030015625 A KR20030015625 A KR 20030015625A KR 1020010049462 A KR1020010049462 A KR 1020010049462A KR 20010049462 A KR20010049462 A KR 20010049462A KR 20030015625 A KR20030015625 A KR 20030015625A
Authority
KR
South Korea
Prior art keywords
dimensional
cube frame
coordinates
image
camera
Prior art date
Application number
KR1020010049462A
Other languages
Korean (ko)
Inventor
정순기
추창우
Original Assignee
에이알비전 (주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에이알비전 (주) filed Critical 에이알비전 (주)
Priority to KR1020010049462A priority Critical patent/KR20030015625A/en
Publication of KR20030015625A publication Critical patent/KR20030015625A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/08Testing mechanical properties
    • G01M11/081Testing mechanical properties by using a contact-less detection method, i.e. with a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PURPOSE: A method for a three-dimensional reconstruction of an object without camera calibration using a cube frame is provided to model the object regardless of camera parameter and position of a light source. CONSTITUTION: A method for restoring a three-dimensional structure of an object includes the steps of taking a photograph of a scene that a line type light emitted from a light plane projector(5) illuminate a target object(4) inside a cube frame(3), recognizing a plurality of LEDs(1) attached to the cube frame(3) in the image and setting up coordinates based on the recognized position, calculating the coordinates of places where a light plane meets the edges of the cube frame(3), and calculating the coordinates of a light stripe formed by making the target object meet with the light plane.

Description

정육면체 프레임을 이용한 카메라 보정이 필요없는 물체의 3차원 구조 복원방법{Calibration-free Approach to 3D Reconstruction Using A Cube Frame}CALIBRATION-free Approach to 3D Reconstruction Using A Cube Frame}

본 발명은 대상 물체의 3차원 구조 복원에 관한 것으로, 이러한 기능을 하는 장치를 3차원 스캐너라고 한다. 3차원 스캐너는 수동적 방법과 능동적 방법으로 나눌 수 있다. 수동적 방법은 영상에 나타나는 평행성(parallelism), 명암(shading), 시차(parallax)등의 단서를 이용하기 때문에 사용하기 쉽고, 비용이 적게 드는 장점이 있는 반면, 정확도가 많이 떨어지는 단점이 있다. 이에 반해 능동적 방법은 정확하게 3차원 구조 정보를 획득할 수 있다는 장점이 있지만, 특별한 장치를 사용하기 때문에 비용이 많이 든다는 단점이 있다.The present invention relates to the reconstruction of a three-dimensional structure of a target object, and a device that performs this function is called a three-dimensional scanner. 3D scanners can be divided into passive and active methods. The passive method is easy to use because it uses clues such as parallelism, shading, parallax, etc. that appear in the image, and is inexpensive. On the other hand, the active method has an advantage of obtaining accurate 3D structural information, but has a disadvantage of being expensive because of using a special apparatus.

수동적 방법에서는 한 장 혹은 여러 장의 영상에 나타나는 깊이를 지각할 수 있는 시각적 단서를 이용하여 모델링을 하기 때문에 추출할 수 있는 정보의 양이 적다. 그런 단점을 보완하기 위해 대부분 텍스쳐 맵핑을 이용하여 시각적으로 그럴듯하게 보이도록 한다. 따라서, 보다 정확하고 조밀한 모델링이 필요할 때는 능동적 방법을 사용한다. 능동적 방법은 모델링을 통하여 범위(range) 영상 형태의 정보를 제공한다. 범위 영상은 디지털 영상의 특별한 형태로 각 화소는 참조 프레임에서 장면에서 보이는 부분까지의 거리를 나타낸다. 범위 영상을 얻기 위하여 능동적 방법에서는 전파 탐지기 및 Noir Interferometry, 초점 조절과 삼각법 등의 광학식 범위 감지 장치(optical range sensor)를 사용한다.In the passive method, the amount of information that can be extracted is small because the modeling is performed using visual cues that can perceive the depth of one or several images. To make up for the drawbacks, most of them use texture mapping to make them look visually plausible. Therefore, when more accurate and dense modeling is needed, the active method is used. Active methods provide information in the form of range images through modeling. A range image is a special form of digital image where each pixel represents the distance from the reference frame to the visible portion of the scene. To obtain range images, active methods use optical range sensors such as radio detectors, noir interferometry, focusing and trigonometry.

능동적 방법을 사용하는 상용시스템은 Cyberware사의 Head & Face Color 3DScanner, Eyetronics사의 ShapeSnatcher, Real3D사의 RealScan 등의 제품이 있다. 그러나, 이런 장비들은 가격이 비싸며 부피가 크기 때문에 범용적으로 사용하기 어렵다.Commercial systems using active methods include Cyberware's Head & Face Color 3DScanner, Eyetronics' ShapeSnatcher, and Real3D's RealScan. However, these devices are expensive and bulky, making them difficult to use universally.

반면에 Bouguet은 카메라와 탁상용 램프, 연필 등의 간단한 도구를 사용하는 방법을 제안하였다. 이 방법은 영상의 모든 화소에 대하여 연필의 그림자에 포함되는 시간을 구하고, 램프와 그림자가 이루는 그림자 평면(shadow plane)과 COP에서 화소로 역투영된 직선이 만나는 점을 계산하여 범위 영상을 얻어낸다. 그러나, 영상에 나타나지 않는 부분과 물체에 의해 그림자가 생긴 부분에서는 정보를 추출할 수 없기 때문에 카메라와 램프를 이동시키면서 여러 번의 스캐닝을 수행하여야 한다. 따라서, 카메라나 광원을 이동시킬 때마다 위치를 보정해 주어야 하고, 모든 범위 영상을 하나의 영상으로 정합시켜야 한다.Bouguet, on the other hand, suggested using simple tools such as cameras, desk lamps and pencils. This method calculates the time included in the shadow of a pencil for every pixel of the image, and calculates the point where the shadow plane formed by the lamp and the shadow meets the point where a straight line projected back to the pixel in the COP meets a range image. . However, since the information cannot be extracted from the part that is not shown in the image and the part that is shadowed by the object, the scanning of the camera and the lamp must be performed several times. Therefore, the position must be corrected every time the camera or light source is moved, and all range images must be matched into one image.

그러므로 본 발명이 이루고자 하는 기술적 과제는, 대상 물체의 3차원 구조를 생성하는데 있어서 간단한 장치를 사용하면서도 정밀한 정보를 획득하는 것을 가능하게 하는데 있다.Therefore, a technical object of the present invention is to make it possible to obtain precise information while using a simple device in generating a three-dimensional structure of an object.

구체적으로, 정육면체 형태의 프레임을 사용하여 광원으로 사용하는 광 평면 프로젝터와 카메라의 위치를 보정하지 않고 자유롭게 움직이면서 물체의 3차원 구조를 모델링하는 방법을 제공하여, 간단한 도구로 구성되는 장치를 사용하면서도 사용자의 편의성을 높이면서 정확한 3차원 구조 정보 획득이 가능하도록 한다. 또한 별도의 정합과정을 추가하지 않기 위해서, 각각의 스캐닝된 정보는 하나의 기준좌표계에 대한 상대적인 위치를 나타내도록 하였다.Specifically, by using a cube-shaped frame to provide a method of modeling the three-dimensional structure of the object while moving freely without correcting the position of the optical plane projector and the camera used as a light source, while using a device composed of simple tools It is possible to obtain accurate three-dimensional structural information while increasing the convenience of. Also, in order not to add a separate matching process, each scanned information is shown to indicate a relative position with respect to one reference coordinate system.

도 1은 본 발명을 적용한 3차원 스캐너 시스템의 활용 과정을 나타낸 흐름도이다1 is a flow chart showing a process of using the three-dimensional scanner system to which the present invention is applied.

도 2는 본 발명의 실시예에 따른 3차원 스캐너 시스템의 전체 구조도이다.2 is an overall structural diagram of a three-dimensional scanner system according to an embodiment of the present invention.

도 3은 도 1에 도시된 영상처리과정을 보다 구체적인 단계로 세분화하여 나타낸 흐름도이다.3 is a flowchart illustrating the image processing process illustrated in FIG. 1 by subdividing into more specific steps.

도 4는 카메라로 촬영한 입력 영상의 예 나타낸 도이다.4 is a diagram illustrating an example of an input image captured by a camera.

도 5는 입력 영상에서 LED 정보만을 나타낸 도이다.5 is a diagram illustrating only LED information in an input image.

도 6은 정육면체 프레임 내에서의 LDP와 광 평면 사이의 관계를 나타낸 도이다.6 is a diagram showing the relationship between the LDP and the light plane in the cube frame.

도 7은 원근 투영된 정육면체의 소실점의 예를 나타낸 도이다.7 is a diagram showing an example of a vanishing point of a perspective projected cube.

도 8은 광 평면상의 LDP와 소실점 사이의 상호관계를 나타낸 도이다.8 is a diagram showing a correlation between an LDP and a vanishing point on an optical plane.

도 9는 광 평면상의 3차원 좌표의 점진적 계산의 예를 나타낸 도이다.9 is a diagram showing an example of progressive calculation of three-dimensional coordinates on the optical plane.

도 10은 보로노이 다이아그램과 딜러니 삼각 분할의 예를 나타낸 도이다.10 shows an example of a Voronoi diagram and a dealer's triangulation.

도 11은 표면 재구성 단계 수행 결과의 예를 나타낸 도이다.11 is a diagram illustrating an example of a result of performing a surface reconstruction step.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시예를 첨부된 도면을 참조로 하여 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명을 적용한 3차원 스캐너를 이용하여 결과를 얻는 과정을 대략적으로 나타낸 도이다. 먼저, 카메라로부터 대상 물체의 영상을 획득(10)하고, 그 결과를 이용하여 물체의 3차원 구조 획득하는 단계(20)를 거쳐, 최종적으로 표면 재구성 단계(30)를 거치면 일반적으로 컴퓨터 시스템에서 활용 가능한 삼각형 망으로 표면이 구성되는 모델을 얻는다.1 is a diagram schematically illustrating a process of obtaining a result using a three-dimensional scanner to which the present invention is applied. First, an image of a target object is obtained from a camera (10), and a three-dimensional structure of the object is obtained using the result (20), and finally, a surface reconstruction step (30) is generally used in a computer system. Obtain a model where the surface is composed of possible triangle meshes.

도 2는 본 발명을 구성하는 전체적인 시스템을 나타낸 도이다. 본 발명에서 제안하는 시스템은 10개의 LED(1)가 부착된 정육면체 프레임(3) 및 디지털 카메라 1대(6), 광 평면(light plane) 프로젝터(5), 그리고 영상 처리 컴퓨터(7)로 구성된다. 정육면체 프레임(3)의 각 꼭지점마다 1개의 LED(1)를 부착하고, 좌표계의 z축과 원점을 표시하기 위해 보조 LED(2)를 2개 더 부착한다. 보조 LED(2)는 정육면체 모서리의 안쪽과 바깥쪽에 각각 1개씩 부착하여 카메라(6)의 위치에 관계없이 항상 적어도 1개는 영상에 포착되도록 한다. 카메라(6)로부터 얻은 영상은 컴퓨터 시스템(7)에 입력되어 영상 처리 과정을 거쳐 원하는 대상 물체(4)의 표면 모델을 얻는다.2 illustrates the overall system of the present invention. The system proposed in the present invention is composed of a cube frame (3) with 10 LEDs (1), a digital camera (6), a light plane projector (5), and an image processing computer (7). do. One vertex (1) is attached to each vertex of the cube frame (3), and two more auxiliary LEDs (2) are attached to indicate the z-axis and the origin of the coordinate system. One auxiliary LED 2 is attached to the inside and the outside of the cube corners so that at least one is always captured in the image regardless of the position of the camera 6. The image obtained from the camera 6 is input to the computer system 7 to obtain a surface model of the desired object 4 through image processing.

도 3은 도 1에서 설명한 영상처리의 대략적인 과정을 보다 구체적인 단계로세분화하여 나타낸 흐름도이다.FIG. 3 is a flowchart illustrating the general process of the image processing described in FIG. 1 in more detail.

물체의 3차원 구조 획득 단계(20)는 카메라 파라미터를 복원하는 과정없이, 간단한 도구를 이용하여 대상 물체를 촬영하고 영상에 나타나는 소실점 정보를 분석하여 물체의 3차원 구조를 복원하는 단계로, 영상획득(10), LED 식별 및 좌표 설정(21), LDP의 3차원 좌표 계산(22), 광 줄무늬의 세선화(23), 물체의 3차원 좌표 계산(24)의 과정으로 구성된다.Acquiring the three-dimensional structure of the object 20 is a step of restoring the three-dimensional structure of the object by photographing the target object and analyzing vanishing point information displayed on the image by using a simple tool without restoring camera parameters. 10, the LED identification and coordinate setting 21, the three-dimensional coordinate calculation 22 of the LDP, the thinning 23 of the light streaks, and the three-dimensional coordinate calculation 24 of the object.

영상 획득 단계(10)에서 획득 가능한 영상은 도 4와 같이 점과 선으로 구성되어 있다. 영상을 획득할 때, 광 평면 프로젝터(5)로부터 발하는 빛은 항상 정육면체 프레임(3)의 평행한 3개의 모서리에서 만나도록 한다. 이때 3개의 점으로 정의되는 평면은 프로젝터로부터 발하는 평면과 같은 평면이므로, 이 3개의 점을 LDP(Light plane Definition Points)(100)라고 하고, 광 평면과 물체가 만나는 곡선을 광 줄무늬(light stripe)(110)라 한다. 만약 광 평면 프로젝터와 카메라가 평행한 방향으로 향하고 있다면, 광 줄무늬는 직선으로 나타나므로, 광 줄무늬가 물체의 외형이 되기 위해서는 도 2와 같이 카메라(6)는 광 평면 프로젝터(5)와 떨어진 위치에 있어야 한다. 결과적으로 획득 영상에서는 다른 광원을 사용하지 않기 때문에, 광 줄무늬(110) 및 LDP(100)와 LED(1)만이 나타나게 된다.The image obtainable in the image acquisition step 10 is composed of points and lines as shown in FIG. When acquiring an image, the light emitted from the light plane projector 5 always meets at three parallel edges of the cube frame 3. In this case, since the plane defined by three points is the same plane as the plane emitted from the projector, these three points are called LDP (Light plane Definition Points) 100, and the curve where the light plane meets the object is a light stripe. It is referred to as (110). If the optical plane projector and the camera are directed in parallel directions, the light streaks appear in a straight line, so that the camera 6 is located away from the light plane projector 5 as shown in FIG. Should be As a result, since no other light source is used in the acquired image, only the light streaks 110, the LDP 100, and the LED 1 appear.

LED 식별 및 좌표 설정 단계(21)에서는 획득 영상에서 LED(1)를 선별하고 좌표를 설정한다. 획득 영상에서 밝은 부분은 LED(1)에 의한 것 외에 LDP(100) 및 광 줄무늬(110)가 있다. 이들을 구분하기 위해 우선 선과 점으로 분류하고 LED(1), LDP(100), 광 줄무늬(110) 상에 있는 점의 순서로 추출한다. 영상의 밝은 부분을점과 선으로 구분하기 위해서 밝은 화소(pixel)들을 연결 성분(connected component) 단위로 나눈다. 각 연결 성분의 중심을 계산하고, 연결 성분의 각 화소에서 중심까지 거리의 분산을 구함으로써 점과 선을 구분해 낸다. 이는 선 성분이 중심과 화소들 간의 거리에 대한 분산이 크다는 특징에 근거한다.In the LED identification and coordinate setting step 21, the LED 1 is selected from the acquired image and the coordinates are set. The bright part in the acquired image includes the LDP 100 and the light streaks 110 in addition to the LED 1. In order to distinguish them, they are first classified into lines and dots and extracted in the order of the points on the LED 1, the LDP 100, and the light streaks 110. Bright pixels are divided into connected component units to separate bright parts of an image into dots and lines. The points and lines are distinguished by calculating the center of each connected component and finding the variance of the distance from each pixel of the connected component to the center. This is based on the feature that the line component has a large dispersion of the distance between the center and the pixels.

LED(1)를 식별하고 추출하는 과정은 도 5를 통해서 설명한다. 영상의 점들 중 볼록 선체(convex hull)를 구하면, 볼록 선체 상에 있는 점는 LED로 구분해 낼 수 있다. 점를 구한 후,이들로부터 내부의 점만 찾으면 모든 LED를 찾게 된다.에 의한 소실점 및의 소실점,에 의한 소실점에서 각각의 사이점,,을 지나는 세 직선의 교점 부근을 탐색하여 찾는다. 이 7개의 LED를 추출하면, 정육면체 프레임의 모양을 복원할 수 있다.The process of identifying and extracting the LED 1 will be described with reference to FIG. 5. Finding the convex hull of the points in the image, the point on the convex hull To Can be identified by the LED. point To After finding the , internal points from them If you find it, you will find all LEDs. Is Wow Vanishing point by and Wow Vanishing point, Wow Between each vanishing point by , , Search by finding the intersection of the three straight lines passing through. Extracting these seven LEDs can restore the cube's shape.

각 꼭지점에 부착되어 있는 LED(1) 외에 좌표계의 z축을 나타내기 위한 보조 LED(2)가 있다. z축을 찾으면, 오른 나사 법칙으로 나머지 2개의 축을 결정할 수 있다. 좌표축을 결정한 후, 각 꼭지점의 3차원 좌표를 정규화(normalization)해서 할당한다. 따라서, 정육면체 프레임 내부에 있는 물체 표면 위의 점들은 모두 0∼1의 좌표를 가지게 되므로, 실제 정육면체 프레임 한 변의 길이만을 알고 있으면, 실제 크기의 좌표를 구할 수 있다.In addition to the LEDs 1 attached to each vertex, there are auxiliary LEDs 2 for indicating the z-axis of the coordinate system. Once you find the z axis, you can determine the other two axes using the right-hand screw law. After determining the coordinate axes, the three-dimensional coordinates of each vertex are normalized and assigned. Therefore, since the points on the object surface in the cube frame all have coordinates of 0 to 1, if only the length of one side of the actual cube frame is known, the coordinates of the actual size can be obtained.

LDP의 3차원 좌표 계산 단계(22)에서는 소실점과 교차율의 성질을 이용하여 LDP의 3차원 좌표를 계산한다. 도 6은 정육면체 프레임(3)과 LDP(100)를 포함하는광 평면(120) 사이의 관계를 나타낸 도이다. 도 2에서와 같이 광 평면 프로젝터(5)에서 나온 빛은 정육면체 프레임(3)의 모서리와 세 개의 LDP(100)에서 만나고, 이 세 개의 점으로 광 평면(120)을 정의할 수 있다. 광 줄무늬(110) 상의 점는 도 6과 같이 세 점,,로 정의되는 광 평면(120) 위에 있다.In the three-dimensional coordinate calculation step 22 of the LDP, the three-dimensional coordinates of the LDP are calculated using the properties of the vanishing point and the intersection rate. FIG. 6 is a diagram showing a relationship between the cube frame 3 and the light plane 120 including the LDP 100. As shown in FIG. 2, the light emitted from the optical plane projector 5 meets the corner of the cube frame 3 at three LDPs 100, and the three planes define the optical plane 120. Dots on light streaks 110 Is three points as shown in Figure 6 , , Above the light plane 120, which is defined as.

도 7은 원근 투영시킨 정육면체의 소실점과 소실선(vanishing line)을 나타낸다. 정육면체와 카메라의 위치에 따라 영상에 나타나는 소실점의 개수가 달라진다. 도 7a는 소실점이 1개, 도 7b는 소실점이 2개, 도 7c는 소실점이 3개인 경우의 예이다. 소실점이 2개 이하인 도 7a와 도 7b의 경우, 영상에 나타나지 않는 소실점은 무한대에 있다. 어떤 평면에 대한 소실선은 그 평면과 평행한 모든 평행한 직선들이 만나는 소실점을 모은 것이다. 본 발명에서는 LPD의 3차원 좌표를 계산하기 위해서 정육면체 프레임의 평행한 모서리가 투영되어 만나는 소실점과 투영 기하(projective geometry)에서 불변(invariant)의 성질을 가진 교차율(cross-ratio)을 이용한다.Fig. 7 shows vanishing points and vanishing lines of the cubes perspectively projected. The number of vanishing points in the image depends on the position of the cube and the camera. FIG. 7A shows one vanishing point, FIG. 7B shows two vanishing points, and FIG. 7C shows three vanishing points. In the case of FIGS. 7A and 7B where two vanishing points are two or less, the vanishing points which do not appear in the image are at infinity. The vanishing line for a plane is the collection of vanishing points where all parallel straight lines parallel to that plane meet. In the present invention, in order to calculate the three-dimensional coordinates of the LPD, a vanishing point where the parallel edges of the cube frame are projected and used, and a cross-ratio having an invariant property in projective geometry are used.

교차율은 도 8의,,,와 같이 동일 직선 상의 네 점에 대해서 식 1과 같이 정의한다.The crossover rate of Figure 8 , , , As shown in Equation 1, four points on the same straight line are defined as follows.

이때,는 영상에서의의 거리를 나타낸다. 식 1의 비율은 카메라의 위치에 관계없이 일정하게 유지될 뿐만 아니라, 실세계를 나타내는 유클리디언기하(Euclidean geometry)에서도 그대로 유지된다. 따라서, 실세계에서의에 대한의 비를 계산하기 위해 식 1을 그대로 사용한다.At this time, In the video and Indicates the distance of. The ratio of Equation 1 not only remains constant regardless of the camera position, but also in the Euclidean geometry, which represents the real world. Thus, in the real world For Equation 1 is used as is to calculate the ratio of.

식 2에서는 3차원에서의의 거리를 나타낸다. 그리고,은 무한대의 점이므로 정확한 좌표를 알 수 없기 때문에, 두 점 사이의 거리는 정확하게 알 수 없지만, 거의라고 볼 수 있다. 따라서, 식 2에서 영상에서의 교차율만을 이용하여 3차원의 거리 비를 알 수 있다. 이것을 이용하여의 좌표는 식 3과 같이 계산할 수 있다. 나머지에 대해서도 소실점을 지나는 직선 상의 네 점을 이용하여 같은 방식으로 3차원 좌표를 계산할 수 있다. 소실점이 무한대에 있는 경우, 즉, 도 7a, 도 7b와 같은 경우도 같은 방법으로 계산 할 수 있다. 식 2에서라고 볼 수 있으므로, 3차원 상의 거리의 비는 영상에서의 거리의 비와 같다. 따라서, 소실점이 3개인 경우보다 더 간단하게 LDP의 좌표를 계산할 수 있다.In equation 2 In three dimensions Wow Indicates the distance of. And, Is an infinite point, so the exact coordinates are unknown, so the distance between the two points is unknown It can be seen. Thus, in Equation 2, the distance ratio in three dimensions can be known using only the crossover ratio in the image. Using this The coordinate of can be calculated as Equation 3. Remainder Wow Vanishing point about The four points on the straight line passing through can be used to calculate three-dimensional coordinates in the same way. In the case where the vanishing point is at infinity, that is, in the case of FIGS. 7A and 7B, the same method may be used. In equation 2 Since the ratio of the distance in the three-dimensional image is equal to the ratio of the distance in the image. Therefore, the coordinates of the LDP can be calculated more simply than in the case of three vanishing points.

광 줄무늬의 세선화 단계(23)는 광 줄무늬(110)에 있는 점들의 좌표를 계산하기 위한 전처리 단계로써 세선화(thinning) 과정을 거친다. 이 과정을 통해서 광 줄무늬는 두께를 갖지 않는 단일선으로 표현된다.The thinning step 23 of the light streaks is a thinning process as a preprocessing step for calculating the coordinates of the points in the light streaks 110. Through this process, the light streaks are represented by a single line having no thickness.

물체의 3차원 구조 획득 단계(20)의 마지막 과정인, 물체의 3차원 좌표 계산 단계(24)에서는 정육면체 프레임의 꼭지점 및 LDP의 좌표를 이용하여 세선화된 광 줄무늬 상의 점의 좌표를 계산한다. 도 8과 같이 광 줄무늬 상의 한 점는 세 개의 LDP를 지나는 광 평면에 존재한다. 점는 공간상의 두 직선의 교점이다. 이때,에 평행하면서를 지나는 직선이고,와 평행하면서를 지나는 직선이다. 공간상의 평행한 두 직선는 영상 평면에 원근 투영되면 더 이상 평행하지 않고 소실점에서 만나게 되며,에서 만나게 된다. 이때,는 수평 방향의 평면에 포함되므로의 소실점는 그림 9와 같이를 지나는 소실선에 포함되며, 마찬가지로,를 지나는 소실선 상에 존재하게 된다.In the final process of obtaining the three-dimensional structure of the object 20, the three-dimensional coordinate calculation step 24 of the object calculates the coordinates of the points on the thinned light stripes using the coordinates of the vertices of the cube frame and the LDP. One point on the light streaks as shown in FIG. Is in the light plane passing through the three LDPs. point Are two straight lines in space and Is the intersection of. At this time, silver Parallel to Is a straight line through silver Parallel to Straight through. Two parallel straight lines in space Wow Is no longer parallel and vanishes when perspective is projected onto the image plane Will meet at Wow Degree Meet in. At this time, Is contained in the horizontal plane Wow Vanishing point Is shown in Figure 9 and Is included in the vanishing line passing through Is and It will be on the vanishing line passing through.

의 3차원 좌표를 계산하는 것은 기본적으로 교차율을 이용한 보간을 사용한다. 그림 9에서를 계산하기 위해서상의 네 점에 대한 교차율를 이용한다. 그러나, 지금까지의 과정을 통해 알 수 있는 정보는 정육면체 프레임의 네 꼭지점과 LDP의 2차원, 3차원 좌표, 소실점의 2차원 좌표이다. 따라서, 현재까지의 정보를 바탕으로를 계산하기 위해서 나머지 필요한 3차원 좌표들을 점진적 계산(incremental computation)을 통하여 알아 나간다.를 계산하기 위하여,를 알아야 하며, 이들은 각각,을 이용하여 계산할 수 있다.point Three-dimensional coordinates of Computation basically uses interpolation using cross rate. In Figure 9 To calculate Rate for Four Points on Pinterest and Use However, the information so far known is the four vertices of the cube frame, the two-dimensional, three-dimensional coordinates of the LDP, and the two-dimensional coordinates of the vanishing point. Therefore, based on the information so far The remaining necessary three-dimensional coordinates are computed through incremental computation. To calculate and You need to know and , and Can be calculated using.

지금까지 살펴본 물체의 3차원 구조 획득 단계(20)를 수행함을 통해서 카메라와 광원의 위치에 관계없이 영상에 포착되는 정육면체 프레임의 소실점과 교차율을 이용하여 간단한 수식으로 물체 표면상의 3차원 좌표를 쉽게 구할 수 있다. 이렇게 계산한 물체 표면상의 점들은 3차원 좌표 외에 다른 정보가 없는 점들의 무리(point cloud)들로 실제로 컴퓨터 그래픽스와 관련된 응용 분야에서 사용할 수 없다. 지금부터는 이러한 점들을 조직화하여 응용 분야에 사용할 수 있도록 물체의 표면을 삼각형의 망 구조로 재구성하는 표면 재구성 단계(30)에 대해 기술한다.By performing the three-dimensional structure acquisition step 20 of the object described so far, the three-dimensional coordinates on the surface of the object can be easily obtained by using a simple equation using the vanishing point and the intersection rate of the cube frame captured in the image regardless of the position of the camera and the light source. Can be. These calculated points on the surface of the object are point clouds of information that have no information other than three-dimensional coordinates and cannot be used in practical applications in computer graphics. We now describe a surface reconstruction step 30 that organizes these points and reconstructs the surface of an object into a triangular network structure for use in applications.

표면 재구성 단계(30)는 물체의 3차원 구조 획득 단계(20)에서 계산된 점들로부터 삼각형의 망으로 구성되는 물체의 모델을 재구성하는 단계로, 삼각형 추출 알고리즘을 통해서 획득된다. 도 10a는 표면 재구성 단계의 입력인 표본 점들의 집합을 나타내고 도 10b는 삼각형 추출 알고리즘의 결과물인 삼각형의 망으로 구성되는 물체 모델을 나타내고 있다.Surface reconstruction step 30 is a step of reconstructing the model of the object consisting of a network of triangles from the points calculated in the three-dimensional structure acquisition step 20 of the object, is obtained through a triangle extraction algorithm. FIG. 10A shows a set of sample points which are inputs of the surface reconstruction step, and FIG. 10B shows an object model composed of a triangular network which is the result of a triangle extraction algorithm.

표면 재구성 단계(30)는 도 3에 나타난 것과 같이 삼각형 추출 알고리즘(31), 물체의 표면 정보 획득(32)의 과정으로 구성된다. 딜러니 삼각 분할 알고리즘과 같은 삼각형 추출 알고리즘(31)을 적용하여 대상 물체의 기본적인 삼각형의 망을 구성한 후, 마지막으로 법선 벡터를 이용하여 잘못 만들어진 삼각형을 제거하면 실제 물체의 위상(topology)과 동형(homomorphic)인 삼각형의 망이 만들어진다. 본 발명에서 삼각형 추출 알고리즘의 사용 예로 제시한 딜러니 삼각 분할알고리즘은 randomized incremental algorithm을 사용하며, 정확한 정수 연산을 하기 때문에 견고(robust)한 특성을 지닌다. 하지만, 본 발명은 삼각형 추출 알고리즘으로 딜러니 삼각 분할 알고리즘을 사용한 것에 한정되지 않으며, 표면 재구성을 위한 임의의 삼각형 추출 알고리즘의 사용을 포함한다.The surface reconstruction step 30 is composed of a process of triangulation extraction algorithm 31, the surface information acquisition 32 of the object as shown in FIG. After constructing a network of basic triangles of the target object by applying a triangle extraction algorithm (31), such as the dealer's triangulation algorithm, and finally removing the incorrectly created triangles using the normal vectors, the topology and isomorphism A network of triangles is created that are homomorphic. The dealer's triangular partitioning algorithm presented as an example of the triangle extraction algorithm in the present invention uses a randomized incremental algorithm and has a robust characteristic because it performs an exact integer operation. However, the present invention is not limited to the use of the dealer's triangulation algorithm as the triangle extraction algorithm, but includes the use of any triangle extraction algorithm for surface reconstruction.

도 11은 표면 재구성 단계(30)에서 표면을 재구성한 결과의 예를 나타낸 도이다.11 shows an example of the results of the surface reconstruction in the surface reconstruction step 30.

비록, 본 발명이 가장 실제적이며 바람직한 실시예를 참조하여 설명되었지만, 본 발명은 상기 개시된 실시예에 한정되지 않으며, 후술되는 특허청구범위 내에 속하는 다양한 변형 및 등가물들도 포함한다.Although the present invention has been described with reference to the most practical and preferred embodiments, the present invention is not limited to the above disclosed embodiments, but also includes various modifications and equivalents within the scope of the following claims.

이상에서 설명한 실시예에 따라, 정육면체 프레임과 광 평면 프로젝터, 카메라 등의 간단한 도구를 사용하여 물체의 3차원 모델링을 획득할 수 있다.According to the embodiments described above, three-dimensional modeling of an object may be obtained using simple tools such as a cube frame, an optical plane projector, and a camera.

카메라 파라미터의 정확한 보정과 카메라와 광원의 위치가 엄격하게 유지되어야하는 기존의 3D 스캐너 시스템과는 달리 본 발명을 적용한 시스템은 카메라 파라미터의 보정이 필요 없고, 광원과 카메라를 자유롭게 움직일 수 있는 장점이 있다. 본 발명을 적용한 시스템에서는 정육면체 프레임의 내부에 모델링할 대상 물체를 둔다. 획득한 영상에서 프레임을 정확히 식별하고, 프레임의 평행한 모서리에 대한 소실점을 이용하여 물체 표면의 임의의 점의 위치를 계산하기 때문에 카메라 파라미터와 광원의 위치에 관계없이 물체를 모델링할 수 있다. 또한, 계산된 3차원 좌표는 프레임에 대한 상대적인 위치이므로, 정합하는 과정없이 점들의 집합으로표현이 된다. 마지막으로 제한한 시스템은 삼각형 추출 알고리즘을 이용하여 물체의 표면을 삼각형 망 구조로 재구성하여, 가상 현실을 포함하는 컴퓨터 그래픽스 응용물에 적용 가능하도록 한다.Unlike the existing 3D scanner system, which requires precise correction of camera parameters and strict position of the camera and light source, the system applying the present invention does not require correction of camera parameters and has the advantage of freely moving the light source and the camera. . In the system to which the present invention is applied, an object to be modeled is placed inside a cube frame. Since the frame is accurately identified in the acquired image, and the vanishing point of the parallel edge of the frame is used to calculate the position of an arbitrary point on the object surface, the object can be modeled regardless of the position of the camera parameter and the light source. Also, since the calculated 3D coordinates are relative to the frame, they are represented as a set of points without matching. Finally, the limited system reconstructs the surface of an object into a triangular network structure using a triangle extraction algorithm, making it applicable to computer graphics applications including virtual reality.

본 발명은 3차원 모델링 정보를 필요로 하는 인터넷 쇼핑몰, 가상 현실 응용물, 3차원 게임 등과 같은 용도에 적용 가능하다.The present invention can be applied to applications such as an internet shopping mall, a virtual reality application, a three-dimensional game, and the like that require three-dimensional modeling information.

Claims (6)

LED가 각 꼭지점에 부착된 정육면체 프레임, 라인 형태의 빛을 발하는 광 평면 프로젝터, 영상 획득을 위한 카메라, 그리고, 촬영된 영상을 분석하여 삼각형 망 형태의 물체 모델을 생성하는 영상 처리 컴퓨터를 포함하는 물체의 3차원 구조 복원 시스템.Objects include a cube frame with LEDs attached to each vertex, an optical plane projector that emits light in the form of a line, a camera for image acquisition, and an image processing computer that analyzes the captured image to create a triangular mesh object model. 3D structural restoration system. 제 1항에 있어서,The method of claim 1, 정육면체 프레임은The cube frame 각 꼭지점마다 1개의 LED를 부착하고, 좌표계의 z축과 원점을 표시하기 위해 보조 LED를 부착하여 카메라의 시점이 어디에 있든지 카메라의 위치를 자동으로 추출하는 것을 특징으로 하는 물체의 3차원 구조 복원 시스템.One LED is attached to each vertex, and an auxiliary LED is attached to indicate the z-axis and the origin of the coordinate system, so that the camera's position can be automatically extracted wherever the camera's point of view is located. system. 대상 물체를 촬영하여 촬영된 물체의 3차원 좌표를 계산해내는 물체의 3차원 구조 획득 단계와 삼각형 추출 알고리즘을 적용하여 삼차원 망 형태의 모델을 획득하는 표면 재구성 단계를 포함하는 물체의 3차원 구조 복원 방법.3D structure restoration method comprising the step of acquiring the three-dimensional structure of the object to calculate the three-dimensional coordinates of the photographed object by photographing the target object and the surface reconstruction step to obtain a three-dimensional network model by applying a triangle extraction algorithm . 제3항에 있어서,The method of claim 3, 물체의 3차원 구조 획득 단계는The three-dimensional structure acquisition step of the object 광 평면 프로젝터로부터 발하는 라인 형태의 빛이 정육면체 프레임 내부의대상 물체를 비추고 있는 장면을 촬영하는 영상 획득 단계, 촬영된 영상에서 정육면체 프레임에 부착된 LED를 인식하고 인식된 위치를 기준으로 좌표를 설정하는 LED 식별 및 좌표 설정 단계, 광 평면과 정육면체 프레임의 모서리와 만나는 곳의 좌표를 계산하는 LDP의 3차원 좌표 계산 단계, 대상 물체와 광 평면이 만나서 형성되는 광 줄무늬의 좌표를 계산하는 물체의 3차원 좌표 계산 단계를 포함하는 물체의 3차원 구조 복원 방법.An image acquisition step of photographing a scene in which a line-shaped light emitted from an optical plane projector illuminates an object inside a cube frame, and recognizes the LED attached to the cube frame in the captured image and sets coordinates based on the recognized position. LED identification and coordinate setting step, LDP's three-dimensional coordinate calculation step that calculates the coordinates where the optical plane meets the edge of the cube frame, and three-dimensional object's coordinate that calculates the coordinates of the light streaks formed by the meeting of the object and the optical plane A method for restoring a three-dimensional structure of an object, including the step of calculating a coordinate. 제4항에 있어서,The method of claim 4, wherein LDP의 3차원 좌표 계산 단계와 물체의 3차원 좌표 계산 단계는The three-dimensional coordinate calculation step of the LDP and the three-dimensional coordinate calculation step of the object 3차원 좌표계산을 위해서 정육면체 프레임의 평행한 모서리가 투영되어 만나는 소실점과 투영 기하에서 불변의 성질을 가진 교차율을 이용하는 것을 특징으로 하는 물체의 3차원 구조 복원 방법.A method for restoring a three-dimensional structure of an object, characterized by using a vanishing point where the parallel edges of a cube frame are projected to meet three-dimensional coordinates and an intersection ratio having an invariant property in the projection geometry. 제3항에 있어서,The method of claim 3, 표면 재구성 단계는Surface reconstruction step 물체 표면상의 점들의 집합에 대한 삼각형 추출 알고리즘을 적용하여 삼각형 망 구조를 생성하는 단계, 법선벡터를 이용하여 잘못 만들어진 삼각형을 제거하는 단계를 포함하는 물체의 3차원 구조 복원 방법.A method of restoring a three-dimensional structure of an object comprising applying a triangle extraction algorithm to a set of points on an object surface and removing a triangle that was incorrectly created using a normal vector.
KR1020010049462A 2001-08-17 2001-08-17 Calibration-free Approach to 3D Reconstruction Using A Cube Frame KR20030015625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010049462A KR20030015625A (en) 2001-08-17 2001-08-17 Calibration-free Approach to 3D Reconstruction Using A Cube Frame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010049462A KR20030015625A (en) 2001-08-17 2001-08-17 Calibration-free Approach to 3D Reconstruction Using A Cube Frame

Publications (1)

Publication Number Publication Date
KR20030015625A true KR20030015625A (en) 2003-02-25

Family

ID=27719471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010049462A KR20030015625A (en) 2001-08-17 2001-08-17 Calibration-free Approach to 3D Reconstruction Using A Cube Frame

Country Status (1)

Country Link
KR (1) KR20030015625A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100616315B1 (en) * 2004-07-22 2006-08-28 중앙대학교 산학협력단 Reconstruction Method Of Parametrized Model
KR100893381B1 (en) * 2007-08-03 2009-04-17 세종대학교산학협력단 Methods generating real-time stereo images
US8340397B2 (en) 2006-06-29 2012-12-25 Sungkyunkwan University Foundation For Corporate Collaboration Extensible system and method for stereo matching in real-time
CN113873156A (en) * 2021-09-27 2021-12-31 北京有竹居网络技术有限公司 Image processing method and device and electronic equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06258999A (en) * 1993-03-04 1994-09-16 Takashi Yabe Device for generating image data of three-dimensional
JPH0981737A (en) * 1995-09-11 1997-03-28 Meidensha Corp Three-dimensional object model generating method
KR19990010241A (en) * 1997-07-15 1999-02-05 윤종용 3D position measuring device and method of moving object
KR19990085624A (en) * 1998-05-20 1999-12-15 김영환 Method for forming silicide in semiconductor device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06258999A (en) * 1993-03-04 1994-09-16 Takashi Yabe Device for generating image data of three-dimensional
JPH0981737A (en) * 1995-09-11 1997-03-28 Meidensha Corp Three-dimensional object model generating method
KR19990010241A (en) * 1997-07-15 1999-02-05 윤종용 3D position measuring device and method of moving object
KR19990085624A (en) * 1998-05-20 1999-12-15 김영환 Method for forming silicide in semiconductor device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100616315B1 (en) * 2004-07-22 2006-08-28 중앙대학교 산학협력단 Reconstruction Method Of Parametrized Model
US8340397B2 (en) 2006-06-29 2012-12-25 Sungkyunkwan University Foundation For Corporate Collaboration Extensible system and method for stereo matching in real-time
KR100893381B1 (en) * 2007-08-03 2009-04-17 세종대학교산학협력단 Methods generating real-time stereo images
CN113873156A (en) * 2021-09-27 2021-12-31 北京有竹居网络技术有限公司 Image processing method and device and electronic equipment

Similar Documents

Publication Publication Date Title
US11521311B1 (en) Collaborative disparity decomposition
US7822267B2 (en) Enhanced object reconstruction
US10659750B2 (en) Method and system for presenting at least part of an image of a real object in a view of a real environment, and method and system for selecting a subset of a plurality of images
US7224357B2 (en) Three-dimensional modeling based on photographic images
WO2008029345A1 (en) Method for determining a depth map from images, device for determining a depth map
CN109064533B (en) 3D roaming method and system
WO2018056802A1 (en) A method for estimating three-dimensional depth value from two-dimensional images
Harvent et al. Multi-view dense 3D modelling of untextured objects from a moving projector-cameras system
Pedersini et al. 3D area matching with arbitrary multiview geometry
Huang et al. Simple 3d reconstruction of single indoor image with perspective cues
KR20030015625A (en) Calibration-free Approach to 3D Reconstruction Using A Cube Frame
Yamazaki et al. Coplanar shadowgrams for acquiring visual hulls of intricate objects
KR20120056668A (en) Apparatus and method for recovering 3 dimensional information
JPH0273471A (en) Estimating method for three-dimensional form
Kimura et al. 3D reconstruction based on epipolar geometry
Pedersini et al. Accurate 3-D reconstruction from trinocular views through integration of improved edge-matching and area-matching techniques
Keren et al. Placing three-dimensional models in an uncalibrated single image of an architectural scene
Yilmaz et al. An Image-Based Inexpensive 3D Scanner
Molinier et al. 2D virtual texture on 3D real object with coded structured light
Kim et al. Projection-based registration using color and texture information for virtual environment generation
KR20150144185A (en) Method for extracting eye center point
Chiang et al. Volumetric model reconstruction from unrestricted camera views based on the photo-consistency of 3D voxel mask
Park et al. Online registration of multi-view range images using geometric and photometric feature tracking
Oviedo et al. Colour Hue and Texture Evaluation for 3D Symbolization of Indoor Environments Using RGB-D Data
Scharstein Re-evaluating Stereo

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application