KR100834157B1 - Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor. - Google Patents

Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor. Download PDF

Info

Publication number
KR100834157B1
KR100834157B1 KR1020060114471A KR20060114471A KR100834157B1 KR 100834157 B1 KR100834157 B1 KR 100834157B1 KR 1020060114471 A KR1020060114471 A KR 1020060114471A KR 20060114471 A KR20060114471 A KR 20060114471A KR 100834157 B1 KR100834157 B1 KR 100834157B1
Authority
KR
South Korea
Prior art keywords
calculating
image
illumination
photographing
unit
Prior art date
Application number
KR1020060114471A
Other languages
Korean (ko)
Other versions
KR20080045392A (en
Inventor
황용호
홍현기
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020060114471A priority Critical patent/KR100834157B1/en
Publication of KR20080045392A publication Critical patent/KR20080045392A/en
Application granted granted Critical
Publication of KR100834157B1 publication Critical patent/KR100834157B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/55Radiosity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/08Gnomonic or central projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)

Abstract

영상 합성을 위한 조명환경 재구성 방법 및 프로그램이 기록된 기록매체가 개시된다. 본 발명의 실시예에 따른 영상합성을 위하여 조명공간을 재구성하는 방법은 대상 공간의 입력영상에 상응하는 복수개의 촬영위치를 산출하는 단계; 입력영상을 이용하여 상기 대상 공간의 조명의 특성을 분류하는 단계; 및 복수개의 촬영위치 및 조명의 특성을 이용하여 3차원 조명공간을 재구성하는 단계를 포함한다. Disclosed is a recording medium on which an illumination environment reconstruction method and program for image synthesis are recorded. According to an embodiment of the present invention, a method for reconstructing an illumination space for image synthesis includes: calculating a plurality of photographing positions corresponding to an input image of a target space; Classifying characteristics of illumination of the target space by using an input image; And reconstructing the three-dimensional illumination space using characteristics of the plurality of photographing positions and illumination.

본 발명에 따르면, 사전 보정과정 없이 카메라 및 조명의 위치를 자동으로 산출하며, 움직이는 물체에 대해서도 정확하게 조명 정보를 적용할 수 있다는 장점이 있다. According to the present invention, the position of the camera and the lighting is automatically calculated without a preliminary correction process, and there is an advantage that the lighting information can be accurately applied to a moving object.

영상합성, 렌더링, 조명 Video synthesis, rendering, lighting

Description

영상 합성을 위한 조명환경 재구성 방법 및 프로그램이 기록된 기록매체 {Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.}Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.}

도 1은 본 발명의 일 실시예에 따른 조명환경 구성 방법의 흐름도를 도시한 도면.1 is a flowchart illustrating a lighting environment configuration method according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따라 카메라의 셔터 속도를 다르게 하여 촬영한 다중 노출 영상을 예시한 도면.2 is a diagram illustrating a multiple exposure image photographed by varying a shutter speed of a camera according to an exemplary embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 다중노출 영상을 이용하여 추정한 카메라의 응답 함수(response function)를 예시한 도면.3 is a diagram illustrating a response function of a camera estimated using multiple exposure images according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 영상 취득 시스템의 평면도를 도시한 도면. 4 is a plan view of an image acquisition system according to an embodiment of the present invention;

도 5는 본 발명의 일 실시예에 따라 촬영위치 C1 및 C2에서 취득한 전면의 반구 영상을 예시한 도면.5 is a diagram illustrating a front hemisphere image obtained at the shooting position C 1 and C 2 according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따라 전역조명을 추정하기 위한 대응점의 검색 영역 설정을 위한 방향벡터를 예시한 도면.6 is a diagram illustrating a direction vector for setting a search region of a corresponding point for estimating global illumination according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따라 L-L 단위영상간에서 샘플링된 조명과 검출된 대응점을 예시한 도면. FIG. 7 is a diagram illustrating illumination and sampled corresponding points sampled between L-L unit images according to an embodiment of the present invention. FIG.

도 8은 본 발명의 일 실시예에 따라 LLI1에 상응한 LLI2에서의 대응점과 LLI2에서 샘플링한 조명에 대한 층들을 중첩한 영상을 예시한 도면.FIG. 8 illustrates an image in which layers corresponding to illuminations sampled in LLI2 and corresponding points in LLI2 corresponding to LLI1 according to an embodiment of the present invention are superimposed.

도 9는 본 발명의 일 실시예에 따른 조명환경 재구성 방법으로 가상의 물체를 대상 공간에 합성한 결과를 도시한 도면.9 is a view showing a result of synthesizing a virtual object in a target space by a method for reconfiguring an illumination environment according to an embodiment of the present invention.

본 발명은 조명환경 구성 방법 및 프로그램이 기록된 기록매체에 관한 것으로서, 보다 상세하게는 실 세계 공간에 가상 물체를 사실적으로 합성하기 위한 3D(Dimension) 공간 해석 및 조명환경의 구성 방법 및 프로그램이 기록된 기록매체에 관한 것이다. The present invention relates to a recording medium on which a method and a program for configuring a lighting environment are recorded. More specifically, a 3D (Dimension) spatial analysis and a method and program for configuring a lighting environment for realistic synthesis of virtual objects in real world space are recorded. To a recorded recording medium.

실사영상에 가상 물체를 사실적(photo-realistic)으로 합성하는 기술은 컴퓨터 비전(vision)과 그래픽스 분야에서 오랫동안 연구되고 있는 분야이다. 사실적인 합성영상을 얻기 위해서는 실제 카메라와 가상의 물체 간의 기하학적인 특성을 매칭시키고, 배경영상의 다른 물체에 적용된 같은 밝기의 조명을 가상의 물체에 적용해야 한다. The technique of photo-realistic synthesis of virtual objects in photorealistic images has long been studied in computer vision and graphics. In order to obtain a realistic composite image, the geometric characteristics between the real camera and the virtual object must be matched, and the same brightness of light applied to other objects in the background image must be applied to the virtual object.

일반적으로 대상 공간 내에 존재하는 조명들의 위치와 밝기를 결정하는 작업 은 상당히 많은 시간과 노력이 필요하며, 이에 따라 사실적인 장면을 얻기는 매우 어렵다. 이는 조명원(light source)들에 의한 직접 및 간접 조명, 그림자, 반사, 굴절 등의 실 세계에 존재하는 복잡한 조명의 영향 들을 충분히 고려하기 어렵기 때문이다. 이러한 합성 과정을 자동화하는 많은 렌더링 도구들이 지금까지 제안되었지만, 대부분의 연구는 조명원과 물체가 움직이지 않는 정적인 상황으로 제한된다는 문제점이 있다.In general, determining the location and brightness of the lights in the object space requires a great deal of time and effort, and thus it is very difficult to obtain realistic scenes. This is because it is difficult to fully consider the effects of complex lighting in the real world such as direct and indirect lighting, shadows, reflections and refraction by light sources. Many rendering tools to automate this compositing process have been proposed so far, but most of the research has a problem that it is limited to a static situation in which the light source and the object do not move.

따라서, 종래의 조명환경 재구성 방법은 조명정보의 재구성을 통한 동적인 상황 등이 고려되지 않는다는 문제점이 있다. Therefore, the conventional lighting environment reconstruction method has a problem that the dynamic situation through the reconstruction of the lighting information is not considered.

또한, 종래의 조명환경 재구성 방법은 대상 공간을 촬영한 카메라의 위치와 내부 파라미터를 알기 위한 사전 교정이 필요하다는 문제점이 있다.In addition, the conventional lighting environment reconstruction method has a problem that it is necessary to pre-calibration to know the position and internal parameters of the camera photographing the target space.

상기한 바와 같은 종래의 문제점을 해결하기 위해, 본 발명은 영상합성을 위하여 조명환경을 재구성하는 방법에 있어서 움직이는 물체에 대해서도 정확하게 조명 정보를 적용할 수 있는 조명환경 재구성 방법 및 프로그램이 기록된 기록매체를 제안하는 것이다.In order to solve the above-mentioned problems, the present invention provides a method for reconfiguring an illumination environment for image synthesis, and a recording medium on which a lighting environment reconstruction method and a program for applying illumination information can be accurately applied to a moving object. To propose.

또한, 본 발명은 대상공간을 촬영한 카메라 위치와 내부 파라미터를 알기 위한 사전교정이 필요 없이 이를 자동으로 추정하여 조명환경을 재구성하는 방법 및 프로그램이 기록된 기록매체를 제안하는 것이다. In addition, the present invention proposes a recording medium in which a method and a program for automatically reconstructing an illumination environment by automatically estimating the need for pre-calibration to know a camera position and an internal parameter photographing a target space are recorded.

본 발명의 또 다른 목적들은 이하의 실시예에 대한 설명을 통해 쉽게 이해될 수 있을 것이다.Still other objects of the present invention will be readily understood through the following description of the embodiments.

상기한 바와 같은 목적을 달성하기 위해, 본 발명의 일 측면에 따르면 영상합성을 위하여 조명공간을 재구성하는 방법에 있어서, 대상 공간의 입력영상에 상응하는 복수개의 촬영위치를 산출하는 단계; (b) 상기 입력영상을 이용하여 상기 대상 공간의 조명의 특성을 분류하는 단계; 및 (c) 상기 복수개의 촬영위치 및 상기 조명의 특성을 이용하여 3차원 조명공간을 재구성하는 단계를 포함하는 조명공간 재구성 방법이 제공된다.In order to achieve the above object, according to an aspect of the present invention, a method for reconstructing the illumination space for image synthesis, comprising: calculating a plurality of shooting positions corresponding to the input image of the target space; (b) classifying characteristics of illumination of the object space by using the input image; And (c) reconstructing a three-dimensional illumination space using the plurality of photographing positions and the characteristics of the illumination.

상기 입력영상은 어안렌즈(fisheye lens)를 장착한 카메라의 셔터 속도를 각각 다르게 하여 촬영된 다중 노출영상이고, (d) 상기 (a) 단계에 선행하여 상기 다중 노출영상을 이용하여 상기 카메라의 응답함수(response function)을 추정하고 HDR(High Dynamic Range) 영상을 생성하는 단계를 더 포함할 수 있다. The input image is a multiple exposure image photographed at different shutter speeds of a camera equipped with a fisheye lens, and (d) the response of the camera using the multiple exposure image prior to step (a). The method may further include estimating a response function and generating a high dynamic range (HDR) image.

상기 (a) 단계는 (a1) 상기 입력영상은 상기 복수개의 촬영위치에 상응한 전방 및 후방의 반구(hemi-sphere) 영상이고, 상기 복수개의 촬영위치를 원점으로 하는 반구 좌표계를 각각 구성하는 단계; (a2) 미리 설정된 알고리즘을 이용하여 제1 및 제2 촬영위치에서 취득된 반구 영상의 제1 및 제2 중앙점에 상응하는 사영(projection)된 중앙점을 산출하는 단계; 및 (a3) 상기 제1 및 제2 중앙점과 상기 사영된 중앙점을 이용하여 상기 제1 촬영위치에 상대적인 제2 촬영위치를 계산하는 단계를 포함하되, 상기 복수개의 촬영위치의 개수에 상응하여 상기 (a2) 단계 내지 상기 (a3)단계를 반복하여 상기 복수개의 촬영위치를 각각 산출할 수 있다. In the step (a), (a1) the input image is a front and rear hemi-sphere images corresponding to the plurality of photographing positions, respectively, and constructing a hemisphere coordinate system having the plurality of photographing positions as the origin. ; (a2) calculating a projected center point corresponding to the first and second center points of the hemisphere images acquired at the first and second photographing positions using a preset algorithm; And (a3) calculating a second photographing position relative to the first photographing position by using the first and second center points and the projected center point, and corresponding to the number of the plurality of photographing positions. The plurality of photographing positions may be calculated by repeating steps (a2) to (a3).

상기 미리 설정된 알고리즘은 특징점 추출 알고리즘 및 매칭 알고리즘 중 적어도 하나일 수 있다. The preset algorithm may be at least one of a feature point extraction algorithm and a matching algorithm.

상기 (a3) 단계는, 수학식

Figure 112006084747178-pat00001
를 이용하여
Figure 112006084747178-pat00002
각(∠AC1B) 및
Figure 112006084747178-pat00003
각(∠ C1 BC2)를 각각 구하는 단계 - C1 및 C2는 제1 및 제2 촬영위치이고, A 및 B는 C1 및 C2에서 취득한 반구영상의 중앙점이며,
Figure 112006084747178-pat00004
는 렌즈의 초점거리이며,
Figure 112006084747178-pat00005
은 각각의 반구영상의 중앙점과 상대 중앙점이 사영된 중앙점간의 거리임 -; 상기
Figure 112006084747178-pat00006
각(∠AC1B), 상기
Figure 112006084747178-pat00007
각(∠ C1 BC2) 및 수학식
Figure 112006084747178-pat00008
을 이용하여 제1 촬영위치 C1에 상대적인 제2 촬영위치 C2를 계산하는 단계-상기
Figure 112006084747178-pat00009
는 상기 제1 촬영위치 C1로부터 상기 중앙점 B를 통과하는 선분, 상기
Figure 112006084747178-pat00010
는 상기 제2 촬영위치 C2로부터 상기 중앙점 A를 통과하는 선분, 상기
Figure 112006084747178-pat00011
및 상기
Figure 112006084747178-pat00012
는 임의의 수
Figure 112006084747178-pat00013
Figure 112006084747178-pat00014
에 상응하여 각각 변화하는 상기
Figure 112006084747178-pat00015
Figure 112006084747178-pat00016
의 방향벡터임-를 포함할 수 있다. Step (a3), the equation
Figure 112006084747178-pat00001
Using
Figure 112006084747178-pat00002
Angle (∠AC1B) and
Figure 112006084747178-pat00003
Obtaining angles (∠ C1 BC2), respectively: C1 and C2 are first and second photographing positions, A and B are center points of the hemisphere image acquired at C1 and C2,
Figure 112006084747178-pat00004
Is the focal length of the lens,
Figure 112006084747178-pat00005
Is the distance between the center point of each hemisphere image and the center point where the relative center point is projected-; remind
Figure 112006084747178-pat00006
Angle (∠AC1B), above
Figure 112006084747178-pat00007
Angle (∠ C1 BC2) and equation
Figure 112006084747178-pat00008
Calculating a second photographing position C2 relative to the first photographing position C1 using
Figure 112006084747178-pat00009
Is a line passing through the center point B from the first photographing position C1,
Figure 112006084747178-pat00010
Is a line segment passing through the center point A from the second photographing position C2,
Figure 112006084747178-pat00011
And said
Figure 112006084747178-pat00012
Is any number
Figure 112006084747178-pat00013
And
Figure 112006084747178-pat00014
Corresponding to each change corresponding to
Figure 112006084747178-pat00015
And
Figure 112006084747178-pat00016
It may be a direction vector of-.

상기 (b) 단계에 선행하여, (e1) 상기 입력영상은 상기 복수개의 촬영위치에 대응하는 전방 및 후방의 반구(hemi-sphere) 영상이고, 상기 입력영상을 파노라믹 변환하여 L-L(Latitude-Longitude) 단위영상을 만드는 단계; (e2) 구조적 중요 도(structured importance) 샘플링을 이용하여 상기 L-L 단위영상의 복수개의 조명원(light source)의 위치를 산출하는 단계; (e3) 상기 복수개의 촬영위치를 원점으로 하는 반구 좌표계를 각각 구성하는 단계; 및 (e4) 상기 복수개의 조명원의 위치에 상응하는 단위 방향벡터를 각각 산출하는 단계를 더 포함할 수 있다. Prior to the step (b), (e1) the input image is a front and rear hemi-sphere images corresponding to the plurality of shooting positions, and the LL (Latitude- Creating a unit image; (e2) calculating positions of a plurality of light sources of the L-L unit image by using structured importance sampling; (e3) constructing a hemisphere coordinate system each having the plurality of shooting positions as an origin; And (e4) calculating unit direction vectors corresponding to positions of the plurality of illumination sources, respectively.

상기 (b)단계는, (f1) 제1 촬영위치에 대응되는 제1 L-L 단위영상에서 산출된 복수개의 단위 방향벡터 중 제1 방향 벡터를 직각 좌표계로 변환하는 단계; (f2) 제2 촬영위치에 대응되는 제2 L-L 단위영상에서 미리 설정된 알고리즘과 상기 변환된 방향 벡터를 이용하여 상기 제2 L-L 단위영상에서의 대응점을 산출하는 단계; 및 (f3) 상기 제1 L-L 단위영상에서 산출된 복수개의 단위 방향벡터의 개수에 상응하여 상기 (f1)단계 내지 (f2)단계를 반복하여 제2 L-L 단위영상에서 대응점을 각각 산출하는 단계를 포함하되, 상기 복수개의 촬영위치에 대응하는 L-L 단위영상의 개수에 상응하여 상기 (f1)단계 상기 (f3)단계를 반복하여 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위영상에서 하나 이상의 상기 대응점을 각각 산출할 수 있다. Step (b) may include: (f1) converting a first direction vector of the plurality of unit direction vectors calculated from the first L-L unit image corresponding to the first photographing position into a rectangular coordinate system; (f2) calculating a corresponding point in the second L-L unit image by using a preset algorithm in the second L-L unit image corresponding to the second photographing position and the converted direction vector; And (f3) calculating the corresponding points in the second LL unit image by repeating steps (f1) to (f2) corresponding to the number of unit direction vectors calculated in the first LL unit image. However, in accordance with the number of LL unit images corresponding to the plurality of photographing positions, repeating the step (f1) and (f3), each of the one or more corresponding points in the LL unit images corresponding to the plurality of photographing positions, respectively. Can be calculated.

상기 (f2) 단계는 (g1) 수학식

Figure 112006084747178-pat00017
를 이용하여
Figure 112006084747178-pat00018
을 산출하는 단계-
Figure 112006084747178-pat00019
는 상기 제1 방향 벡터가 직각 좌표계로 변환된 것이고,
Figure 112006084747178-pat00020
는 임의의 수임 -; (g2) 상기
Figure 112006084747178-pat00021
와 수학식
Figure 112006084747178-pat00022
을 이용하여
Figure 112006084747178-pat00023
을 산출하는 단계; 및 (g3) 상기
Figure 112006084747178-pat00024
을 이용하여 상기 제2 L-L 단위영상에서 대응 점을 산출할 수 있다. Step (f2) is (g1) equation
Figure 112006084747178-pat00017
Using
Figure 112006084747178-pat00018
To calculate the
Figure 112006084747178-pat00019
Is the first direction vector is converted to a rectangular coordinate system,
Figure 112006084747178-pat00020
Is any number-; (g2) above
Figure 112006084747178-pat00021
And equations
Figure 112006084747178-pat00022
Using
Figure 112006084747178-pat00023
Calculating; And (g3) above
Figure 112006084747178-pat00024
The corresponding point may be calculated from the second LL unit image.

상기 (g3)단계는 (h1) 상기

Figure 112006084747178-pat00025
을 구면 좌표계로 변환하여
Figure 112006084747178-pat00026
을 산출하는 단계; (h2) 상기
Figure 112006084747178-pat00027
가 상기 제2 L-L 단위영상에 대응되는 위치를 산출하는 단계; (h3) 상기 산출된 위치를 중심으로 미리 지정된 크기의 검색영역 내에서 밝기에 대한 SSD(Sum of Squared Differences)가 가장 적은 값에 대응되는 위치를 대응점으로 산출하는 단계를 포함할 수 있다. Step (g3) is (h1)
Figure 112006084747178-pat00025
To a spherical coordinate system
Figure 112006084747178-pat00026
Calculating; (h2) above
Figure 112006084747178-pat00027
Calculating a position corresponding to the second LL unit image; (h3) calculating a position corresponding to a value with the smallest sum of squared differences (SSD) for brightness in a search area having a predetermined size based on the calculated position as a corresponding point.

상기 (b)단계는 (i1) 제2 촬영위치에 대응하는 제2 L-L 단위영상에서 복수개의 조명을 샘플링하는 단계; (i2) 상기 복수개의 조명의 개수에 상응하여 상기 제2 L-L 단위영상을 복수개의 층(strata)을 나누는 단계; 및 (i3) 상기 대응점을 포함하지 않는 층에 상응하는 조명을 지역조명으로 산출하는 단계를 상기 단계 (f3) 이후에 더 포함할 수 있다. Step (b) comprises: (i1) sampling a plurality of lights in a second L-L unit image corresponding to the second photographing position; (i2) dividing a plurality of layers of the second L-L unit image according to the number of the plurality of lights; And (i3) after the step (f3), calculating the illumination corresponding to the floor not including the corresponding point as the local lighting.

제 (c)단계는 (j1) 제1 및 제2 촬영위치에 상응하는 복수개의 단위 방향벡터를 수학식

Figure 712008001235638-pat00169
을 이용하여 복수개의 3차원 단위 방향벡터로 각각 변환하는 단계; 및 (j2) 상기 촬영위치 및 상기 복수개의 3차원 방향벡터를 미리 설정된 알고리즘에 적용하여 전역 조명의 좌표를 산출하는 단계를 포함하되, 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위 영상의 개수에 상응하여 상기 (j1)단계 내지 (j2)단계를 반복하여 상기 전역조명의 좌표를 각각 산출할 수 있다.Step (c) is performed by (j1) calculating a plurality of unit direction vectors corresponding to the first and second photographing positions.
Figure 712008001235638-pat00169
Converting each into a plurality of three-dimensional unit direction vectors by using; And (j2) calculating coordinates of global illumination by applying the photographing position and the plurality of three-dimensional direction vectors to a preset algorithm, and corresponding to the number of the LL unit images corresponding to the plurality of photographing positions. By repeating steps (j1) to (j2) to calculate the coordinates of the global illumination, respectively.

상기 (j2)단계는 (k1) 수학식

Figure 112006084747178-pat00029
을 이용하여
Figure 112006084747178-pat00030
Figure 112006084747178-pat00031
을 각각 산출하는 단계 -
Figure 112006084747178-pat00032
Figure 112006084747178-pat00033
는 각각 제1 및 제2 촬영위치의 3차원 단위 방향벡터; 및 (k2) 상기
Figure 112006084747178-pat00034
및 상기
Figure 112006084747178-pat00035
의 교차점을 전역 조명의 좌표로 산출하는 단계를 포함하되, 상기 3차원 단위 방향벡터
Figure 112006084747178-pat00036
Figure 112006084747178-pat00037
의 개수에 상응하여 상기 (k1)단계 내지 (k2)단계를 반복하여 상기 전역 조명의 좌표를 각각 산출할 수 있다. Step (j2) is (k1) equation
Figure 112006084747178-pat00029
Using
Figure 112006084747178-pat00030
And
Figure 112006084747178-pat00031
Calculating each of-
Figure 112006084747178-pat00032
And
Figure 112006084747178-pat00033
Are the three-dimensional unit direction vectors of the first and second photographing positions, respectively; And (k2) above
Figure 112006084747178-pat00034
And said
Figure 112006084747178-pat00035
Computing the intersection of the coordinates of the global illumination, the three-dimensional unit direction vector
Figure 112006084747178-pat00036
And
Figure 112006084747178-pat00037
The coordinates of the global illumination may be calculated by repeating steps (k1) to (k2) corresponding to the number of.

상기 (k2)단계는 상기

Figure 112006084747178-pat00038
및 상기
Figure 112006084747178-pat00039
의 교차점이 존재하지 않는 경우 상기
Figure 112006084747178-pat00040
및 상기
Figure 112006084747178-pat00041
간에 거리가 각각 가장 가까운 위치를 전역조명의 좌표로 산출하는 단계를 더 포함할 수 있다. The step (k2) is
Figure 112006084747178-pat00038
And said
Figure 112006084747178-pat00039
Above if no intersection of
Figure 112006084747178-pat00040
And said
Figure 112006084747178-pat00041
The method may further include calculating, as coordinates of the global lights, positions where distances are closest to each other.

상기 (c) 단계는 (l1) 제1 및 제2 촬영위치에 상응하는 복수개의 단위 방향벡터를 수학식

Figure 712008001235638-pat00170
을 이용하여 복수개의 3차원 단위 방향벡터로 각각 변환하는 단계; (k2) 상기 복수개의 3차원 단위 방향벡터의 교차점을 지역조명의 좌표로 산출하는 단계; (k3) 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위 영상의 개수에 상응하여 상기 (k1)단계 내지 (k2)단계를 반복하여 상기 L-L 단위영상에서 상기 지역조명의 좌표를 각각 산출하는 단계를 더 포함할 수 있다. Step (c) may be performed by (1) calculating a plurality of unit direction vectors corresponding to the first and second photographing positions.
Figure 712008001235638-pat00170
Converting each into a plurality of three-dimensional unit direction vectors by using; (k2) calculating intersections of the plurality of three-dimensional unit direction vectors as coordinates of area lights; (k3) repeating steps (k1) to (k2) corresponding to the number of the LL unit images corresponding to the plurality of photographing positions, and calculating the coordinates of the local lighting in the LL unit image, respectively. It may include.

본 발명의 다른 측면에 의하면, 영상합성을 위한 조명환경 재구성을 위하여 디지털 영상처리기에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 영상처리기에 의해 판독될 수 있는 프로그램을 기록한 기록매체에 있어서, (a) 대상 공간의 입력영상에 상응하는 복수개의 촬영위치를 산출하는 단계; (b) 상기 입력영상을 이용하여 상기 대상 공간의 조명의 특성을 분류하는 단계; 및 (c) 상기 복수개의 촬영위치 및 상기 조명의 특성을 이용하여 3차원 조명공간을 재구성하는 단계를 실행하는 프로그램을 기록한 기록매체가 제공된다. According to another aspect of the present invention, a program of instructions that can be executed by a digital image processor is tangibly implemented for reconstructing an illumination environment for image synthesis, and a recording medium recording a program that can be read by the digital image processor. (A) calculating a plurality of shooting position corresponding to the input image of the target space; (b) classifying characteristics of illumination of the object space by using the input image; And (c) recording a program for executing a step of reconstructing a three-dimensional illumination space using the plurality of photographing positions and the characteristics of the illumination.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and are not construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

또한 본 명세서에서 제1 촬영위치에서 취득한 L-L 환경맵과 제 2 촬영위치에서 취득한 L-L 환경맵을 예로 들어서 본 발명의 일 실시예를 설명을 하나, 상술한 과정이 촬영위치를 달리하며 복수개의 촬영위치만큼 되풀이 될 수 있음은 당업자에게 자명하다. In the present specification, an embodiment of the present invention will be described using the LL environment map acquired at the first photographing position and the LL environment map acquired at the second photographing position as an example. It will be apparent to those skilled in the art that this may be repeated as many times as possible.

이하, 본 발명의 일 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, the same reference numerals will be used for the same means regardless of the reference numerals in order to facilitate the overall understanding.

도 1은 본 발명의 일 실시예에 따른 조명공간 재구성 방법의 흐름도를 도시한 도면이다.1 is a flowchart illustrating a lighting space reconstruction method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 조명공간 재구성 방법은 단계 S101에서 조명 정보를 해석하기 위한 대상 공간의 전방향(omni-directional) 영상을 취득한다. Referring to FIG. 1, the illumination space reconstruction method according to an embodiment of the present invention acquires an omni-directional image of a target space for analyzing lighting information in step S101.

예를 들어, 어안렌즈(fisheye lens)를 장착한 디지털 카메라로 대상 공간의 전방향 영상을 취득할 수 있으며, 3차원 공간의 360도 모든 공간에 대한 조명정보를 취득하기 위하여 전방 및 후방의 반구 영상(hemi-sphere)을 취득 할 수 있다.For example, a digital camera equipped with a fisheye lens can acquire an omnidirectional image of the target space, and the front and rear hemisphere images to obtain illumination information for all spaces in 360 degrees of three-dimensional space. (hemi-sphere) can be obtained.

이 때, 대상공간에서 영상을 촬영하는 장치는 어안렌즈를 장착한 디지털 카메라에 한정되지 아니하며, 장치의 명칭에 구애 받지 아니하고 대상공간에서 조명 정보를 취득하는 모든 기기를 포함함은 당업자에게 자명하다. 다만, 본 명세서에서는 본 발명에 대한 이해 및 설명의 편의를 도모하기 위해 어안렌즈를 장착한 디지털 카메라를 예를 들어 설명한다.At this time, the apparatus for photographing the image in the target space is not limited to a digital camera equipped with a fisheye lens, and it is apparent to those skilled in the art that the apparatus includes all devices for acquiring illumination information in the target space regardless of the name of the apparatus. However, in the present specification, a digital camera equipped with a fisheye lens will be described as an example to facilitate the understanding and explanation of the present invention.

여기서, 디지털 카메라로 촬영한 영상의 픽셀값(pixel value)은 대상 공간에서 전방향 영상 취득 당시의 입력 조건에 따라 고정되기 때문에 실제의 래디언스(radiance)가 아닌 제한된 조명정보가 얻어지며, 조명 조건과 카메라의 위치가 변화함에 따라 새로운 장면을 표현하기 어렵다. 따라서, 단계 S102에서 이런 문제점을 해결하기 위해 대상 장면에 대한 셔터 속도를 각각 다르게 하여 촬영한 다중 노출 영상들로부터 카메라의 응답함수(response function)를 추정하고 HDR(High Dynamic range) 영상을 생성한다.Here, since the pixel value of the image taken by the digital camera is fixed according to the input condition at the time of the omnidirectional image acquisition in the target space, limited illumination information is obtained rather than actual radiance. As the position of the camera changes, it is difficult to express a new scene. Therefore, in order to solve this problem in step S102, the response function of the camera is estimated from the multiple exposure images photographed at different shutter speeds for the target scene, and a high dynamic range (HDR) image is generated.

이어서, 단계 S103에서 대상 공간의 전방향 영상을 취득한 카메라의 위치를 산출하고, 단계 S104에서 조명의 특성을 분류한다.Next, the position of the camera which acquired the omnidirectional image of the target space in step S103 is calculated, and the characteristic of illumination is classified in step S104.

이어서, 단계 S104에서 대상 공간 대부분에 영향을 미치는 전역(global) 조명을 추정하기 위한 대응점을 산출하는 단계(S 105)와 일부 지역에 제한된 영향을 주는 방향성을 갖는 지역(local) 조명을 추정하는 단계(S106)을 포함한다.Subsequently, in step S104, a corresponding point for estimating global lighting affecting most of the target space is calculated (S 105), and a step of estimating local lighting having a direction that has a limited influence on some regions. (S106).

이어서, 단계 S107에서 전역조명 및 지역조명의 3차원 좌표를 산출하여 3차원 조명 환경을 구성하고, 단계 S108에서 가상의 물체를 실제의 장면에 영상 합성하여 렌더링(rendering)한다.Subsequently, three-dimensional coordinates of global and local lights are calculated in step S107 to construct a three-dimensional lighting environment, and in step S108, an image is synthesized and rendered into a virtual scene.

지금까지 본 발명의 일 실시예에 따른 조명공간 재구성 방법의 흐름에 대해서 설명하였다. 이하에서는 본 발명의 일 실시예에 따른 조명공간 재구성 방법의 각 단계에 대해서 도면을 참조하여 상세히 후술하며, 먼저 카메라의 응답함수를 추정하여 HDR 영상을 생성하는 단계(S102)에 대해서 설명한다. So far, the flow of the illumination space reconstruction method according to an embodiment of the present invention has been described. Hereinafter, each step of the illumination space reconstruction method according to an embodiment of the present invention will be described in detail with reference to the drawings. First, an operation (S102) of estimating a response function of a camera to generate an HDR image will be described.

도 2는 본 발명의 일 실시예에 따라 카메라의 셔터 속도를 다르게 하여 촬영한 다중 노출 영상을 예시한 도면이며, 도 3은 본 발명의 일 실시예에 따라 다중노출 영상을 이용하여 추정한 카메라의 응답 함수(response function)를 예시한 도면이다.2 is a diagram illustrating a multiple exposure image photographed by varying a shutter speed of a camera according to an embodiment of the present invention, and FIG. 3 is a view illustrating a camera estimated using a multiple exposure image according to an embodiment of the present invention. A diagram illustrating a response function.

도 2를 참조하면, 디지털 카메라의 셔터 속도를 빠르게 하여 대상 공간을 촬영한 영상(201)부터 점차적으로 셔터 속도를 느리게 하여 대상 공간을 촬영한 영상(206)이 예시되어 있다.Referring to FIG. 2, an image 206 of photographing a target space by gradually decreasing a shutter speed from an image 201 of photographing a target space by increasing a shutter speed of a digital camera is illustrated.

일반적으로 디지털 카메라로 영상을 찍으면 Dynamic Range가 좁아서 셔터속도를 느리게 찍어서 광량을 많이 확보했을 경우(예를 들어, 도2의 201영상)에는 어두운 부분은 표현이 되지만 밝은 부분이 하얗게 촬상되지 않는다. 반대로 디지털 카메라의 셔터속도를 빠르게 했을 경우에는 밝은 부분이 잘 표현되지만 어두운 부분은 어두워져서 구분이 불분명해진다. 왜냐하면 디지털 카메라로는 실세계의 넓은 조명영역을 모두 표현할 수 없기 때문이다. In general, when taking an image with a digital camera, when the dynamic range is narrow and the shutter speed is slowed to secure a large amount of light (for example, the 201 image of FIG. 2), the dark portion is expressed but the bright portion is not captured in white. On the contrary, when the shutter speed of the digital camera is increased, the bright part is well expressed, but the dark part is darkened, and the distinction becomes unclear. This is because digital cameras cannot express all of the wide lighting range of the real world.

따라서, 본 발명의 일 실시예에서는 이것을 극복하기 위한 방법으로서, 같은 위치의 대상 공간을 디지털 카메라의 노출을 각각 달리하여 여러 장 촬영한다. 또한 촬영을 통해 생성된 영상의 각각 픽셀위치에 대한 픽셀값을 0~255 사이값이 아닌 더 넓은 영역의 값으로 잘게 나눈다. 이 잘게 나누어진 넓은 영역의 데이터로 영상을 표현하면 HDR 영상이 되며, 잘게 나누어진 조명의 픽셀값을 그래프로 그리면 도3의 카메라 응답함수(300)가 된다.Therefore, in an embodiment of the present invention, as a method for overcoming this, a plurality of pieces of the target space at the same position are taken with different exposures of the digital camera. In addition, the pixel value for each pixel position of the image generated by photographing is divided into values of a wider area rather than between 0 and 255. When the image is expressed by the data of the finely divided wide area, the HDR image is obtained. When the pixel value of the finely divided illumination is graphed, the camera response function 300 of FIG. 3 is obtained.

보다 상세하게는, 도 2에 예시된 바와 같이 같은 위치의 대상 공간을 디지털 카메라의 노출을 각각 달리하여 촬영하여서 다중 노출 영상을 생성하면, 특정한 위치에 해당하는 픽셀값(0~255 사이값)이 셔터속도의 변화에 따라 어떻게 변화하는지를 알 수가 있다. More specifically, as illustrated in FIG. 2, when the target space at the same location is photographed with different exposures of the digital camera to generate a multiple exposure image, a pixel value (between 0 and 255) corresponding to a specific location is generated. You can see how it changes as the shutter speed changes.

예를 들어, 특정 위치의 픽셀값이 255에서 200, 180, 90, 50 및0의 값으로 변화하는 것을 볼 수 있다.For example, it can be seen that the pixel value at a specific position changes from 255 to values of 200, 180, 90, 50 and 0.

이 때, 모든 픽셀에 대해서 위와 같은 데이터를 각각 수집해서 수학적인 계산을 이용하여 디지털 카메라 응답함수(300)를 추정할 수 있다(여기서, 응답함수는 특정 위치의 픽셀값(0~255)에 대한 실제 조명값임). In this case, each of the above data may be collected for every pixel, and the digital camera response function 300 may be estimated using mathematical calculations. Actual lighting value).

여기서, 특정 위치의 픽셀값을 이용하여 디지털 카메라의 응답함수를 추정하는 방법은 이미 공지된 기술이므로, 본 명세서에서 상세한 설명은 생략한다. Here, since the method of estimating the response function of the digital camera using the pixel value of the specific position is already known, a detailed description thereof will be omitted.

도 3에 도시된 디지털 카메라의 응답함수(300)를 이용하면, 카메라로 찍은 영상의 픽셀값을 실제조명 값으로 전환할 수 있고, 따라서 HDR영상을 생성할 수 있다. Using the response function 300 of the digital camera shown in FIG. 3, the pixel value of the image taken by the camera may be converted into an actual lighting value, and thus an HDR image may be generated.

지금까지 도 2및 도 3을 참조하여 카메라의 응답함수를 추정하여 HDR 영상을 생성하는 단계(도 1의 S102)에 대하여 설명하였고, 이하에서는 대상공간을 촬영한 디지털 카메라의 위치를 산출하는 단계(도 1의 S103)에 대하여 설명한다. So far, the step (S102 of FIG. 1) of estimating the response function of the camera is generated with reference to FIGS. 2 and 3. Hereinafter, the step of calculating the position of the digital camera photographing the target space ( S103 of FIG. 1 is demonstrated.

도 4는 본 발명의 일 실시예에 따른 영상 취득 시스템의 평면도를 도시한 도면이고, 도 5는 본 발명의 일 실시예에 따라 촬영위치 C1(401) 및 C2(402)에서 취득한 전면의 반구 영상을 예시한 도면이다.4 is a plan view of an image acquisition system according to an embodiment of the present invention, and FIG. 5 is a front view of the front surface acquired at the photographing positions C 1 401 and C 2 402 according to an embodiment of the present invention. A diagram illustrating a hemisphere image.

일반적으로 대상 공간의 360도 모든 부분에 대한 조명정보를 갖고 있는 환경맵은 일반적으로 먼 곳에 존재하는 광원들에 의해 조명되는 장면을 생성하기 위해 사용하며, 환경맵의 밝은 영역을 샘플링해서 대상 장면에 존재하는 조명원의 분포를 취득한다. In general, environment maps, which have lighting information for all 360-degree parts of the target space, are used to create scenes that are normally illuminated by light sources in distant places. Obtain the distribution of existing illumination sources.

실세계는 복잡한 구조로 구성되기 때문에 고정된 한 지점에서 취득한 래디언스 분포가 장면 내에 존재하는 다양한 조명원들의 영향을 모두 표현할 수 없다. 이는 복잡한 구조로 구성된 공간 내에 단일 환경맵에서 샘플링할 수 없는 지역적인 특성을 지닌 다수의 조명원들이 존재하기 때문이다Since the real world is composed of complex structures, the radiance distribution obtained at a fixed point cannot express all the effects of various light sources in the scene. This is because there are many light sources with local characteristics that cannot be sampled in a single environment map in a complex structured space.

따라서, 본 발명의 일 실시예에서는 지역적인 특성을 지닌 조명원을 해석하기 위해 각각 다른 위치에 카메라를 위치시켜 다수의 HDR 영상을 취득한다. Therefore, in one embodiment of the present invention, a plurality of HDR images are acquired by placing cameras at different positions in order to analyze illumination sources having regional characteristics.

여기서, 셔터 속도를 달리하여 촬영한 다중 노출 영상들로부터 추정한 카메라의 응답함수를 이용하여 HDR 영상을 생성하는 과정에 대해서는 도 2 및 도 3을 참조하여 설명하였으므로 중복되는 설명은 생략한다. Here, the process of generating the HDR image using the response function of the camera estimated from the multiple exposure images photographed at different shutter speeds has been described with reference to FIGS. 2 and 3, and thus redundant descriptions thereof will be omitted.

도 4를 참조하면, Ci(i= 1, 2, 3, … , n)(401 내지 404)은 각각의 디지털 카메라들의 사영(projection) 중심점이고, 각 지점에서 모든 카메라들은 수직축을 중심으로 회전하지 않고 대상공간을 촬영한다. 본 발명의 일 실시예에서는 발명의 이해와 설명의 편의를 도모하기 위하여 대상 공간은 정육면체 형태로 가정하나, 본 발명이 적용될 수 있는 대상공간이 이에 한정되지 아니함은 당업자에게 자명하다. Referring to FIG. 4, C i (i = 1, 2, 3,..., N) (401 to 404) is the projection center point of each digital camera, and at each point, all the cameras rotate about the vertical axis. Take a picture of the object space. In one embodiment of the present invention, in order to facilitate the understanding and explanation of the present invention, the object space is assumed to be in the form of a cube, but it is apparent to those skilled in the art that the object space to which the present invention is applicable is not limited thereto.

또한, 도 4에는 카메라의 위치(이하 '촬영위치'라 칭함)를 예를 들어 4곳을(401 내지 404) 예시하였으나, 본 발명을 적용하는 환경 및 목적에 따라 다양하게 변경될 수 있음은 당업자에게 자명하다. In addition, although FIG. 4 illustrates four locations (401 to 404), for example, the position of the camera (hereinafter, referred to as a 'shooting position'), it may be variously changed according to an environment and an object to which the present invention is applied. Self-explanatory

본 발명의 일 실시예에 따라 각각의 위치에서 촬영한 전방 및 후방의 반구(hemi-sphere) 영상을 파노라믹 변환하여 위도-경도(Latitude-Longitude) 환경맵(이하 'L-L 단위영상'이라 칭함)을 만든 다음, 구조적 중요도(structured importance) 샘플링에 의해 조명들의 위치를 결정한다. Latitude-Longitude environment map (hereinafter referred to as LL unit image) by performing a panoramic conversion of the hemi-sphere images of the front and rear images taken at each position according to an embodiment of the present invention. And then position the lights by structured importance sampling.

여기서, 파노라믹 변환은 3차원 영상정보를 2차원인 파노라마 영상으로 변환하는 기술이다. 2차원 파노라마 영상은 2차원 영상이지만 3차원 정보를 모두 가지므로, 2차원 파노라마 영상에서 특정 위치를 선택하면 그 위치가 3차원상에서 어디에 존재하는 지를 알 수 있다. 파노라마 변환은 공지될 기술이므로 변환 과정에 대한 설명은 본 명세서에서 생략한다. Here, panoramic transformation is a technique for converting three-dimensional image information into a two-dimensional panorama image. Since the 2D panoramic image is a 2D image but has all 3D information, when a specific position is selected in the 2D panoramic image, it is possible to know where the position exists in the 3D image. Since panorama conversion is a known technique, a description of the conversion process is omitted herein.

이 때 생성된 2차원 파노라마 영상은 2차원 영상이지만, 3차원 정보를 모두 갖는 HDR 영상이다. The 2D panoramic image generated at this time is a 2D image, but is an HDR image having all 3D information.

여기서, 2차원 파노라마 영상에 포함된 모든 조명정보를 렌더링 하는 경우 실재와 같은 영상을 얻을 수 있으나, 계산시간이 매우 커지게 된다. 따라서 본 발명의 일 실시예에서는 공간의 조명을 가장 잘 표현하는 제한된 수의 조명을 샘플링하는 구조적 중요도 샘플링(structured importance sampling)을 적용할 수 있다. 이 때, 샘플링된 조명들의 위치값은 파노라믹 변환의 역변환을 하면 3차원 상에서 위치산출이 가능하고, 그 곳의 조명의 밝기 정도도 알 수 있다.In this case, when all the lighting information included in the 2D panoramic image is rendered, the same image as the actual image can be obtained, but the calculation time becomes very large. Therefore, in an embodiment of the present invention, structured importance sampling may be applied to sample a limited number of lights that best represent the lighting of a space. At this time, the position value of the sampled lights can be calculated in three dimensions by performing the inverse transformation of the panoramic transformation, and the degree of brightness of the lighting there.

이 때, 본 발명의 실시과정에서 적용될 수 있는 샘플링이 이에 한정되지 아니함은 당업자에게 자명하다.At this time, it is apparent to those skilled in the art that the sampling that can be applied in the course of the present invention is not limited thereto.

이어서, 카메라의 위치(예를 들어 401 내지 404)를 원점으로 하는 반구 좌표계를 구성하고, 반구 영상에 존재하는 조명원에 대한 단위 방향벡터를 산출한다. 산출된 방향벡터는 이후 전역조명 및 지역조명을 추정하고 각각의 위치를 추정하는 단계(도 1의 S104 내지 S107단계)에서 사용되는데, 이에 대해서는 도 6 내지 도 8를 참조하여 이후 설명한다. Subsequently, a hemisphere coordinate system whose origin is the camera position (for example, 401 to 404) is configured, and a unit direction vector for an illumination source existing in the hemisphere image is calculated. The calculated direction vector is then used in the step of estimating the global illumination and the local illumination and estimating the respective positions (steps S104 to S107 of FIG. 1), which will be described later with reference to FIGS. 6 to 8.

본 발명의 일 실시예에 의하면 복수개의 촬영위치를 산출하기 위하여 공간의 중앙지점에서 위치한 촬영위치 C1(401)을 원점으로 정의하고 나머지 다른 지점(예를 들어, C2 내지 C4)간의 상대적인 위치를 계산한다. 이하에서는 본 발명의 이해와 설명의 편의상 촬영위치 C1(401)과 C2를 예로 들어 도 4 및 도 5를 참조하여 설명한다. According to an embodiment of the present invention, in order to calculate a plurality of photographing positions, a photographing position C 1 401 located at a center point of a space is defined as an origin and the relative position between the other points (for example, C 2 to C 4 ). Calculate your location. Hereinafter, for convenience of understanding and description of the present invention will be described with reference to FIGS. 4 and 5 taking the photographing position C 1 (401) and C 2 as an example.

본 발명의 일 실시예에 따라 C1(401) 및 C2(402)에서 취득한 전면의 반구 영상의 중앙점 A 및 B의 위치를 (0, L)(431) 및 (Δx, L)(432)로 정의할 수 있다. 그리고 특징점(feature point) 추출 알고리즘 및 매칭 알고리즘을 이용하여 사영된 중앙점 A' (511) 및 B'(512)을 산출한다.According to an embodiment of the present invention, the positions of the center points A and B of the front hemisphere image acquired by C 1 401 and C 2 402 are (0, L) 431 and (Δx, L) 432. Can be defined as The projected center points A '511 and B' 512 are calculated using a feature point extraction algorithm and a matching algorithm.

여기서 특징점 추출 알고리즘은 주변픽셀과의 밝기의 차가 큰 지점 또는 여 러 직선 성분이 교차하는 지점을 미분 연산자등을 이용하여 추출하는 방법으로서 공지된 기술이므로 이에 대한 설명은 생략한다.The feature point extraction algorithm is a well-known technique for extracting a point where a large difference in brightness from a neighboring pixel or a point where a plurality of linear components intersect using a differential operator or the like is omitted.

또한, 매칭 알고리즘은 마스크(mask)를 사용하여 왼쪽 영상(501)의 특정 위치에 대한 오른쪽 영상(502)에서의 대응하는 위치를 구하는 방법으로서 공지된 기술이므로 이에 대한 설명은 생략한다.In addition, since the matching algorithm is a known technique for obtaining a corresponding position in the right image 502 with respect to a specific position of the left image 501 using a mask, description thereof will be omitted.

본 발명의 일 실시예에 따라 중앙점 A(431) 및 B(432)와 사영된 중앙점 A' (511) 및 B'(512)을 이용하여

Figure 112006084747178-pat00043
각(∠AC1B)(421) 및
Figure 112006084747178-pat00044
각(∠ C1 BC2)(422)를 하기의 수학식 1을 이용하여 산출한다.According to an embodiment of the present invention using the center point A 431 and B 432 and the projected center point A '511 and B' 512
Figure 112006084747178-pat00043
Angle (∠AC 1 B) 421 and
Figure 112006084747178-pat00044
An angle ∠ C 1 BC 2 422 is calculated using Equation 1 below.

Figure 112006084747178-pat00045
Figure 112006084747178-pat00045

여기서,

Figure 112006084747178-pat00046
는 렌즈의 초점 거리(focal length)이며,
Figure 112006084747178-pat00047
(521) 및
Figure 112006084747178-pat00048
(522)는 각각 영상의 중심점과 상대 중심점이 사영된 지점 간의 거리이다. 본 발명의 일 실시예에 따라
Figure 112006084747178-pat00049
각(421)과
Figure 112006084747178-pat00050
각(422)를 계산한 후, 방향 벡터
Figure 112006084747178-pat00051
Figure 112006084747178-pat00052
와 라인
Figure 112006084747178-pat00053
Figure 112006084747178-pat00054
들을 하기의 수학식을 이용하여 정의할 수 있다. here,
Figure 112006084747178-pat00046
Is the focal length of the lens,
Figure 112006084747178-pat00047
521 and
Figure 112006084747178-pat00048
Reference numeral 522 denotes a distance between the center point and the relative center point of the image, respectively. In accordance with one embodiment of the present invention
Figure 112006084747178-pat00049
Angle (421)
Figure 112006084747178-pat00050
After calculating the angle 422, the direction vector
Figure 112006084747178-pat00051
And
Figure 112006084747178-pat00052
And lines
Figure 112006084747178-pat00053
And
Figure 112006084747178-pat00054
These can be defined using the following equation.

Figure 112006084747178-pat00055
Figure 112006084747178-pat00055

여기서,

Figure 112006084747178-pat00056
는 제1 촬영위치 C1(401)로부터 중앙점 B(432)를 통과하는 선 분, 상기
Figure 112006084747178-pat00057
는 제2 촬영위치 C2(402)로부터 중앙점 A(431)를 통과하는 선분, 방향벡터
Figure 112006084747178-pat00058
Figure 112006084747178-pat00059
는 임의의 수
Figure 112006084747178-pat00060
Figure 112006084747178-pat00061
에 상응하여 각각 변화하는 선분
Figure 112006084747178-pat00062
Figure 112006084747178-pat00063
의 방향벡터이다. here,
Figure 112006084747178-pat00056
Is a line segment passing through the center point B 432 from the first photographing position C 1 401, wherein
Figure 112006084747178-pat00057
Is a line segment and direction vector passing from the second photographing position C 2 402 to the center point A 431.
Figure 112006084747178-pat00058
And
Figure 112006084747178-pat00059
Is any number
Figure 112006084747178-pat00060
And
Figure 112006084747178-pat00061
Corresponding line segments
Figure 112006084747178-pat00062
And
Figure 112006084747178-pat00063
Direction vector of.

이어서, 본 발명의 실시예에 따라 선분

Figure 112006084747178-pat00064
가 y=L인 지점을 교차할 때 Δx(411)를,
Figure 112006084747178-pat00065
가 x=Δx인 지점을 교차할 때 Δy(412)를 각각 산출할 수 있고, 따라서 제2 촬영위치인 C2의 위치(402)를 산출 할 수 있다.Then, the line segment according to the embodiment of the present invention
Figure 112006084747178-pat00064
Δx (411) when we intersect a point where y = L,
Figure 112006084747178-pat00065
When y crosses a point where x = Δx, each of Δy 412 can be calculated, and thus, the position 402 of C 2 , which is the second photographing position, can be calculated.

지금까지 본 발명의 실시예에 따라 제1 촬영위치 C1(401)를 원점으로 두고 제2 촬영위치 C2(402)의 위치를 산출하는 방법에 대하여 설명하였고, 이와 같은 방법으로 다른 촬영위치인 Ci도 위와 같은 방법으로 산출할 수 있음은 당업자에게 자명하다. So far, the method of calculating the position of the second photographing position C 2 402 with the first photographing position C 1 401 as the origin has been described. It will be apparent to those skilled in the art that C i can also be calculated in the same manner as above.

지금까지, 본 발명의 일 실시예에 따라 카메라의 위치를 산출하는 단계(도1의 S103단계)를 도4 및 도 5를 참조하여 설명하였고, 이하에서는 조명의 특성을 분류하는 단계(도1의 S104단계)에서 전역 조명을 추정하기 위하여 대응점을 산출하는 단계(도1의 S105)를 설명한다.Up to now, the step of calculating the position of the camera (step S103 of FIG. 1) according to an embodiment of the present invention has been described with reference to FIGS. 4 and 5, the following step of classifying the characteristics of the illumination (of FIG. A step of calculating a corresponding point (S105 in FIG. 1) to estimate global illumination in step S104 will be described.

본 발명의 일 실시예에 따라 대상공간에서 취득한 조명들의 특성은 전역조명과 지역조명으로 분류될 수 있다. 전역조명은 대상 공간 내의 모든 영역에 직접적 인 영향을 미치고 모든 L-L 단위영상에서 취득되는 반면, 지역조명은 대상 공간 내의 특정 지역에만 영향을 미친다. 가상의 물체가 대상 공간 내에서 특정 지역으로 이동할 경우 전역조명뿐만 아니라 지역조명에 의해 영향 받도록 하기 위해 복수개의 촬영위치에서 취득한 L-L 단위영상들로부터 조명의 특성을 분류하여 조명공간을 재구성한다. According to an embodiment of the present invention, the characteristics of the lights acquired in the target space may be classified into global lighting and local lighting. Global illumination directly affects all regions within the target space and is acquired from all L-L unit images, while local illumination only affects specific regions within the target space. When a virtual object moves to a specific area within the target space, the lighting space is reconstructed by classifying the light characteristics from L-L unit images acquired at a plurality of photographing positions in order to be affected by not only global lighting but also local lighting.

이하에서는 먼저 전역조명을 추정하기 위한 대응점을 산출하는 과정(도 1의 단계 S105)에 대해서 먼저 설명한다. Hereinafter, a process of calculating a corresponding point for estimating global illumination (step S105 of FIG. 1) will be described first.

도 6은 본 발명의 일 실시예에 따라 전역조명을 추정하기 위한 대응점의 검색 영역 설정을 위한 방향벡터를 예시한 도면이고, 도 7은 본 발명의 일 실시예에 따라 L-L 단위영상간에서 샘플링된 조명과 검출된 대응점을 예시한 도면이다. 6 is a diagram illustrating a direction vector for setting a search region of a corresponding point for estimating global illumination according to an embodiment of the present invention, and FIG. 7 is sampled between LL unit images according to an embodiment of the present invention. The figure illustrates the lighting and the detected corresponding point.

일반적으로 전역조명들의 3차원 좌표는 L-L 단위영상간의 대응점들을 사용해서 추정할 수 있다. 그러나 L-L 단위영상은 구면 사영으로 인한 왜곡 때문에 기존의 특징점 추출 알고리즘으로는 대응점들을 효과적으로 구하기 어렵다.In general, the three-dimensional coordinates of global lights can be estimated using the corresponding points between the L-L unit images. However, in the L-L unit image, it is difficult to obtain the corresponding points effectively by the existing feature extraction algorithm because of the distortion caused by the spherical projection.

따라서 본 발명의 일 실시예에서는 L-L 단위영상에서 대응점을 검색하기 위해 조명위치의 방향벡터에 기반한 적응적 검색영역을 이용하는 특징점 추출 알고리즘을 정의하여 적용한다. Therefore, in an embodiment of the present invention, a feature point extraction algorithm using an adaptive search region based on a direction vector of an illumination position is defined and applied to search for a corresponding point in an L-L unit image.

먼저, 본 발명의 일 실시예에 따르면 대상공간의 중앙위치인 제1 촬영위치 C1(401)에서 취득한 L-L 단위 기본영상(이하 'LLI1'이라 칭함)에서 샘플링된 조명의 위치를 전역조명으로 추정할 수 있다. 왜냐하면, 대상 공간상의 중앙지점에서 취득 한 조명 정보이므로 대상 공간내의 모든 위치에 영향을 미친다고 가정할 수 있기 때문이다. First, according to an embodiment of the present invention, the position of the light sampled from the LL unit basic image (hereinafter referred to as 'LLI1') acquired at the first photographing position C 1 401 which is the center position of the object space is estimated as global illumination. can do. This is because the lighting information acquired from the center point in the target space can be assumed to affect all positions in the target space.

이어서, LLI1에서 얻은 조명의 위치를 전역조명으로 정확한 위치를 산출하기 위해서는 다른 지역(예를 들어 제2 촬영위치 C2(402))에서 취득한 L-L 단위영상에서의 전역조명에 대한 정보가 필요하다. 왜냐하면 LLI1에서 추정한 전역조명위치는 수학적으로 전역 조명이 있는 방향을 가리키는 벡터이기 때문에, 다른 지역에서 취득한 전역조명에 대한 정보를 이용하여 거리를 확정 지어야 3차원 공간상에서 위치 시킬 수 있게 된다.Subsequently, in order to calculate the exact position of the illumination obtained from the LLI1 by the global illumination, information about the global illumination in the LL unit image acquired in another region (for example, the second photographing position C 2 402) is required. Because the global lighting position estimated by LLI1 is a vector that indicates the direction of global illumination, the distance can be positioned in 3D space by using the information about global illumination acquired from other regions.

다만, 본 발명은 제1 촬영위치가 대상공간의 중앙지점에 한정되지 아니하고 임의의 위치가 될 수 있으며, 그에 따라 전역 조명을 산출하기 위한 방법이 부가될 수 있음은 당업자에게 자명하다.However, it will be apparent to those skilled in the art that the first photographing position is not limited to the center point of the object space and may be any position, and thus a method for calculating global illumination may be added.

본 발명의 일 실시예에 따라 LLI1에서 샘플링한 조명원 중 임의의 조명원에 대한 방향벡터(카메라 위치를 원점으로 하는 반구좌표계에서 조명원에 대한 방향벡터임, 도4 참조)를 직각 좌표계 변환하여

Figure 112006084747178-pat00066
를 산출하여, 하기의 수학식 3에 의해 3차원 선분
Figure 112006084747178-pat00067
(601)을 산출 할 수 있다. According to an embodiment of the present invention, by converting a rectangular vector coordinate system to a direction vector (which is a direction vector with respect to the illumination source in the hemispherical coordinate system whose camera position is the origin, among the illumination sources sampled in LLI1).
Figure 112006084747178-pat00066
To calculate the three-dimensional line segment by the following equation
Figure 112006084747178-pat00067
601 can be calculated.

Figure 112006084747178-pat00068
Figure 112006084747178-pat00068

이어서, 본 발명의 일 실시예에 따라 제2 촬영위치 C2(402)에서 취득한 L-L 단위영상(이하 'LLI2'라 칭함) 상에서 대응점을 검색하는 검색영역(search region)을 설정하기 위하여, 제2 촬영위치 C2(402)로부터

Figure 112006084747178-pat00069
(601)로 향하는 방향벡터
Figure 112006084747178-pat00070
(602)을 하기의 수학식 4에 의하여 산출할 수 있다. Subsequently, in order to set a search region for searching for a corresponding point on the LL unit image (hereinafter referred to as 'LLI2') acquired at the second photographing position C 2 402 according to one embodiment of the present invention, From shooting location C 2 (402)
Figure 112006084747178-pat00069
Direction vector to (601)
Figure 112006084747178-pat00070
(602) can be calculated by Equation 4 below.

Figure 112006084747178-pat00071
Figure 112006084747178-pat00071

여기서, 도 6에 예시된 바와 같이

Figure 112006084747178-pat00072
(602)는 임의의 수
Figure 112006084747178-pat00073
에 따라 변화할 수 있다. Here, as illustrated in FIG. 6
Figure 112006084747178-pat00072
602 is any number
Figure 112006084747178-pat00073
Can change accordingly.

도 7을 참조하면, 도 7의 (a)는 본 발명의 일 실시예에 따라 LLI1에서 샘플링된 조명이 예시된 도면이고, 도 7의 (b)는 본 발명의 일 실시예에 따라 LLI1의 임의의 조명에 대하여 LLI2에서의 대응점 검색영역이 예시된 도면이고, 도 7의 (c)는 본 발명의 일 실시예에 따라 LLI1의 임의의 조명에 대하여 LLI2에서 샘플링된 대응점이 예시된 도면이다. Referring to FIG. 7, FIG. 7A is a diagram illustrating an illumination sampled at LLI1 according to an embodiment of the present invention, and FIG. 7B is an arbitrary representation of LLI1 according to an embodiment of the present invention. FIG. 7C is a diagram illustrating corresponding points sampled in LLI2 for any illumination of LLI1 according to an embodiment of the present invention.

본 발명의 일 실시예에 따라 LLI1상의 임의의 조명(701)의 방향벡터와 수학식 4를 이용하여 산출한

Figure 112006084747178-pat00074
(602)의 궤적을 LLI2에서의 위치를 산출할 수 있다(702). According to an embodiment of the present invention calculated using the direction vector and the equation (4) of any illumination 701 on the LLI1
Figure 112006084747178-pat00074
The locus of 602 can be calculated at location 702 in LLI2.

여기서, LLI1상의 임의의 조명(701)과 LLI2상의

Figure 112006084747178-pat00075
(602)의 위치를 중심으로 미리 지정된 마스크(mask) 속의 영상의 밝기에 대한 SSD(sum of Squared Difference)를 구해 가장 적은 값이 나오는 지점을 LLI2상의 대응점으로 정할 수 있다.Here, any illumination 701 on LLI1 and LLI2 on
Figure 112006084747178-pat00075
The point where the smallest value is obtained may be determined as a corresponding point on the LLI2 by obtaining a sum of squared difference (SSD) of brightness of an image in a predetermined mask based on the position of 602.

예를 들어, 미리 지정된 마스크(mask)의 크기가 매크로 블록(macro block) 5Ⅹ5 크기인 경우 LLI1상의 임의의 조명(701)과 LLI2상의

Figure 112006084747178-pat00076
(602)의 위치를 중심으로 매크로 블록(macro block) 5Ⅹ5 크기의 마스크 내에서 영상의 밝기에 대한 SSD(sum of Squared Difference)를 구해 가장 적은 값이 나오는 지점을 LLI2상의 대응점으로 정할 수 있다.For example, if the size of a predetermined mask is a macro block 5Ⅹ5 size, the arbitrary illumination 701 on the LLI1 and the LLI2 on
Figure 112006084747178-pat00076
The point where the smallest value is obtained may be determined as the corresponding point on the LLI2 by obtaining a sum of squared difference (SSD) for the brightness of an image in a macroblock 5 × 5 mask based on the position of 602.

이어서, 본 발명의 일 실시예에 따라 상술한 방법으로 LLI1상의 임의의 조명을 달리하며 LLI2상의 대응점을 각각 산출하여 LLI2상에 예시하면 도 7의 (c)와 같다. Subsequently, according to the embodiment of the present invention, the lighting of the LLI1 is changed by varying arbitrary illuminations on the LLI1 and the corresponding points of the LLI2 are calculated and illustrated on the LLI2, respectively, as shown in FIG. 7C.

본 발명의 일 실시예에서는 실험영상에서 카메라로 입사된 래디언스 에너지 중 대부분이 천장의 조명으로부터 블루 스크린에 반사된 것이기 때문에 도 7의 (c)의 블루 스크린상에 많은 조명이 전역 조명을 추정하기 위한 대응점으로 샘플링되었다.In the exemplary embodiment of the present invention, since most of the radiance energy incident to the camera in the experimental image is reflected from the ceiling light to the blue screen, many lights on the blue screen of FIG. Sampled to the corresponding point.

지금까지 상술한 방법으로 복수개의 촬영위치에서 촬영한 L-L 단위영상간의 대응점을 샘플링할 수 있음은 당업자에게 자명하므로, 여기서 중복된 설명은 생략한다.Thus, it will be apparent to those skilled in the art that the corresponding point between the L-L unit images photographed at the plurality of photographing positions can be sampled by the above-described method.

지금까지 전역조명을 추정하기 위한 대응점을 산출하는 단계(도 1의 단계 S105)에 대해서 도 6 및 도 7를 참조하여 설명하였다. 이하에서는 본 발명의 일 실 시예에 따라 지역조명을 추정하는 방법에 대해서 설명한다.So far, the step of calculating the corresponding point for estimating the global illumination (step S105 of FIG. 1) has been described with reference to FIGS. 6 and 7. Hereinafter, a method of estimating local lighting according to an exemplary embodiment of the present invention will be described.

합성된 영상에서 물체가 제1 촬영위치 C1(401)에서 제2 촬영위치 C2(402)위치로 이동하는 장면을 더욱 사실적으로 표현하기 위해 제2 촬영위치 C2(402) 지역에만 영향을 주는 지역 조명이 고려되어야 한다. LLI2에서 샘플링된 조명은 지역 조명뿐만 아니라 전역 조명도 포함되어 있다. In order to more realistically express the scene in which the object moves from the first shooting position C 1 401 to the second shooting position C 2 402 in the synthesized image, only the second shooting position C 2 402 is affected. State lighting should be considered. The lights sampled on the LLI2 include global lights as well as local lights.

본 발명의 일 실시예에 따라 지역 조명을 검출하기 위해 제2 촬영위치 C2(402)에 대응하는 L-L 단위영상에서 복수개의 조명원을 샘플링한 후, 샘플링된 조명원의 개수만큼 생성되는 층(strata) Si 정보를 사용할 수 있다. According to an embodiment of the present invention, after detecting a plurality of illumination sources in the LL unit image corresponding to the second photographing position C 2 402 in order to detect the area lighting, a layer generated as many as the number of sampled illumination sources ( strata) Si information can be used.

도 8은 본 발명의 일 실시예에 따라 LLI1에 상응한 LLI2에서의 대응점과 LLI2에서 샘플링한 조명에 대한 층(strata)들을 중첩한 영상을 예시한 도면이다. FIG. 8 is a diagram illustrating an image in which layers corresponding to LLI2 corresponding to LLI1 and strata for the illumination sampled at LLI2 are superimposed according to an embodiment of the present invention.

먼저, 도 8에 도시된 층(strata)(예들 들어, 도8의 801, 802)에 대해서 살펴보면, 층은 LLI2에서 복수개의 조명을 샘플링하는 과정에서 생성된 것으로서, 샘플링된 조명의 개수만큼 생성이 된다. First, referring to the strata shown in FIG. 8 (for example, 801 and 802 of FIG. 8), the layer is generated in the process of sampling a plurality of lights in LLI2, and the number of lights sampled is generated. do.

본 발명의 일 실시예에 따르면 LLI2에서 구조적 중요도 샘플링할 때, 각 층 하나당 조명 한 개가 샘플링될 수 있다. 이 때, 그 조명은 그 층이 포함하는 영역의 조명 정보를 대표할 수 있다. 즉, 층에 포함된 각 픽셀 위치의 모든 픽셀값들을 더해서 평균을 내어 산출한 조명밝기를 샘플링된 조명이 대표하게 된다.According to one embodiment of the invention, when sampling the structural importance in LLI2, one illumination may be sampled for each floor. At this time, the illumination may represent illumination information of the area included in the layer. That is, the sampled illumination represents the illumination brightness calculated by averaging the sum of all pixel values of each pixel position included in the layer.

도 8을 참조하면, LLI2의 영상, LLI2에서 구조적 중요도 샘플링하는 과정에 서 생성된 층 및 LLI1의 조명에 상응하여 LLI2에서 산출된 대응점이 중첩되어 있다. Referring to FIG. 8, corresponding images calculated in LLI2 overlap with images of LLI2, layers generated in the process of sampling structural importance in LLI2, and illumination of LLI1.

여기서 본 발명의 일 실시예에 따라 하기의 의사(pseudo) 코드로서 지역 조명을 추정할 수 있다. Here, according to an embodiment of the present invention, local lighting may be estimated as the following pseudo code.

For i=1, 2, 3, …, kFor i = 1, 2, 3,... , k

For j=1, 2, 3, …, nFor j = 1, 2, 3,... , n

If Cpj ∈ Si then falseIf Cp j ∈ Si then false

else trueelse true

Loop jLoop j

If true then Si is the stratum of local lightIf true then Si is the stratum of local light

Loop iLoop i

여기서 Cp는 LLI1의 조명에 상응하는 LLI2에서의 대응점이며, n는 Cp의 개수이고, k는 LLI2에서 구조적 중요도 샘플링에 의하여 산출된 조명의 개수이다.Where Cp is the corresponding point in LLI2 corresponding to the illumination of LLI1, n is the number of Cp, and k is the number of illumination calculated by the structural importance sampling in LLI2.

본 발명의 일 실시예에 따른 상기의 의사코드를 참조하면, LLI2의 복수개의 층 중에서 대응점을 포함하지 않는 층(예를 들어 도 8의 801)을 지역조명으로 추정할 수 있게 되고, 그 층을 대표하는 LLI2의 조명을 지역조명의 위치로 산출할 수 있다. Referring to the above pseudo code according to an embodiment of the present invention, a layer (eg, 801 of FIG. 8) that does not include a corresponding point among a plurality of layers of LLI2 may be estimated by local lighting, and the layer may be The lighting of the representative LLI2 can be calculated as the location of the local lighting.

지금까지, LLI1의 영상과 LLI2의 영상과의 관계에서 LLI2의 지역조명을 산출하는 방법에 대해서 설명하였으며, 복수개의 촬영위치를 달리하며 그에 상응하는 L-L단위 영상에서 상술한 방법을 되풀이하여 지역조명을 각각 산출 할 수 있음은 당업자에게 자명하므로, 본 발명의 요지를 명확하게 하기 위하여 중복되는 설명은 생략한다. Up to now, the method of calculating the LLI2 local light in the relationship between the image of the LLI1 and the LLI2 has been described. The above-described method is repeated in the corresponding LL unit image by changing the plurality of shooting positions. It will be apparent to those skilled in the art that the calculations can be made separately, so that redundant description will be omitted to clarify the gist of the present invention.

지금까지, 지역조명을 산출하는 방법에 대해서 설명하였고, 하기에서는 전역조명 및 지역조명의 3차원 좌표를 산출하는 단계(도 1의 S107)를 설명한다.So far, the method of calculating the local lighting has been described, and the following describes the step of calculating the three-dimensional coordinates of the global lighting and the local lighting (S107 of FIG. 1).

본 발명의 일 실시예에 따라, 촬영위치를 산출하고(도 1의 S103), 조명에 대한 특성을 전역조명(도1의 S105) 및 지역조명(도 1의 S106)을 산출한 후, 각각의 3차원 좌표를 산출하여 3차원 조명 환경을 구성할 수 있다(도 1의 S107). According to one embodiment of the present invention, the photographing position is calculated (S103 in FIG. 1), and the characteristics for the illumination are calculated after the global illumination (S105 in FIG. 1) and the local illumination (S106 in FIG. 1), respectively. Three-dimensional coordinates can be calculated to construct a three-dimensional lighting environment (S107 in FIG. 1).

먼저 전역조명들의 3차원 좌표를 산출하는 방법을 LLI1과 LLI2를 예로 들어서 설명한다.First, a method of calculating three-dimensional coordinates of global lights will be described using LLI1 and LLI2 as examples.

본 발명의 일 실시예에 따르면, 전역조명들의 3차원 좌표값은 스테레오 알고리즘에 의하여 산출 할 수 있다. According to an embodiment of the present invention, the three-dimensional coordinate values of the global lights may be calculated by a stereo algorithm.

스테레오 알고리즘은 두 개의 영상을 이용하여 서로의 대응점을 산출 한 뒤, 각각의 벡터의 교차점을 3차원상의 위치로 결정하는 방법으로서 공지된 기술이므로 상세한 설명은 생략한다.Since a stereo algorithm is a known technique for calculating a corresponding point of each other using two images and then determining the intersection point of each vector as a three-dimensional position, a detailed description thereof will be omitted.

본 발명의 일 실시예에 따라 L-L 단위영상에서 산출한 대응점의 2차원 좌표값은 하기의 수학식 5에 의하여 3차원 방향벡터

Figure 112006084747178-pat00077
를 산출할 수 있다. According to an embodiment of the present invention, the two-dimensional coordinate value of the corresponding point calculated in the LL unit image is a three-dimensional direction vector according to Equation 5 below.
Figure 112006084747178-pat00077
Can be calculated.

Figure 712008001235638-pat00171
Figure 712008001235638-pat00171

본 발명의 일 실시예에 따라 LLI1에서 산출된 전역 조명에 대한 복수개의 방향벡터

Figure 112006084747178-pat00079
와 LLI2에서 산출된 대응점에 대한 방향벡터
Figure 112006084747178-pat00080
을 수학식 5를 이용하여 산출하고,
Figure 112006084747178-pat00081
,
Figure 112006084747178-pat00082
및 하기의 수학식 6을 이용하여 선분
Figure 112006084747178-pat00083
Figure 112006084747178-pat00084
을 산출 할 수 있다. A plurality of direction vectors for the global illumination calculated in LLI1 according to an embodiment of the present invention
Figure 112006084747178-pat00079
Direction vectors for the corresponding points computed from and LLI2
Figure 112006084747178-pat00080
Is calculated using Equation 5,
Figure 112006084747178-pat00081
,
Figure 112006084747178-pat00082
And a line segment using Equation 6 below.
Figure 112006084747178-pat00083
And
Figure 112006084747178-pat00084
Can be calculated.

Figure 112006084747178-pat00085
Figure 112006084747178-pat00085

여기서

Figure 112006084747178-pat00086
은 전역조명의 개수이다.here
Figure 112006084747178-pat00086
Is the number of global lights.

이어서, 본 발명의 일 실시예에 따라 스테레오 알고리즘에 의하여 선분

Figure 112006084747178-pat00087
Figure 112006084747178-pat00088
의 교차점을 전역조명의 3차원 좌표로 산출 할 수 있다. Subsequently, the line segment is performed by a stereo algorithm according to an embodiment of the present invention.
Figure 112006084747178-pat00087
And
Figure 112006084747178-pat00088
The intersection of can be calculated by 3D coordinate of global lighting.

그러나, L-L 단위영상 취득과정에서 발생하는 오차로 인해 두 선분이 정확히 교차하지 않는 경우가 발생할 수 있으며, 이 경우에는 두 선분 사이의 거리가 가장 가까운 지점을 전역조명의 3차원 좌표로 결정할 수 있다. 이 때, 두 선분의 3차원에서 거리는 하기의 수학식 7에 의하여 산출할 있다. However, due to an error occurring in the L-L unit image acquisition process, two line segments may not intersect correctly. In this case, the point where the distance between the two line segments is closest may be determined as 3D coordinates of the global illumination. At this time, the distance in three dimensions of the two line segments can be calculated by the following equation (7).

Figure 112006084747178-pat00089
Figure 112006084747178-pat00089

본 발명의 일 실시예에 따른 지역조명의 3차원 좌표는 각 L-L 단위 영상의 방향벡터가 가상의 공간에서 교차하는 위치를 산출하여 구할 수 있다. The three-dimensional coordinates of the local light according to an embodiment of the present invention may be obtained by calculating a position at which the direction vectors of each L-L unit image cross in a virtual space.

전역조명은 포인트 라이트(point light)로서 조명이 방사선으로 뻗어나가 모든 대상공간에 영향을 미치는 반면에, 지역조명은 방향성이 있는 조명(directional light)이다.Global lighting is a point light, where the light extends into the radiation and affects all object spaces, while local lighting is a directional light.

예를 들어, 가상의 공간을 큐브 형태로 둘 수 있으며, 제1 L-L 단위영상의 방향벡터가 큐브에 접하는 지점에 제1 지역조명을 위치시킬 수 있다. For example, the virtual space may be placed in a cube shape, and the first area light may be positioned at a point where the direction vector of the first L-L unit image contacts the cube.

이때, 제1 지역조명은 방향성이 있는 조명(directional light)이므로 제1 L-L 단위영상에 대응하는 제1 촬영위치에만 영향을 미친다.In this case, since the first area light is a directional light, only the first photographing position corresponding to the first L-L unit image is affected.

상술한 방법으로 각 L-L 단위영상에서의 각 방향벡터가 가상의 공간에 교차하는 위치를 지역조명으로 각각 산출 할 수 있음은 당업자에게 자명하다. It will be apparent to those skilled in the art that the above-described method can calculate the position where each direction vector in each L-L unit image intersects the virtual space by local lighting.

지금까지 전역조명 및 지역조명의 3차원 좌표를 산출하여 영상합성을 위한 3차원 조명 환경을 구성하는 단계(도 1의 S107)에 대해서 도 9를 참조하여 설명하였다. 3차원 조명환경이 구성된 후 대상공간에 가상의 물체를 합성하여 렌더 링(rendering)(도 1의 S108)하는 단계는 당업자에게 공지된 기술이므로 본 명세서에서는 상세한 설명을 생략한다.Up to now, the step (S107 of FIG. 1) for constructing a 3D lighting environment for image synthesis by calculating 3D coordinates of global lighting and local lighting has been described with reference to FIG. 9. After the three-dimensional lighting environment is configured, the step of synthesizing and rendering the virtual object in the target space (S108 of FIG. 1) is well known to those skilled in the art, and thus, detailed description thereof will be omitted.

도 9는 본 발명의 일 실시예에 따른 조명환경 재구성 방법으로 가상의 물체를 대상 공간에 합성한 결과를 도시한 도면이다. 보다 상세하게는 동적인 상황에 대한 사실적인 표현 여부를 파악하기 위해 가상 물체를 제1 촬영지점 C1(401)에서 제2 촬영지점 C2(402)로 이동시키며 렌더링한 합성영상이다.FIG. 9 is a diagram illustrating a result of synthesizing a virtual object in a target space by a method of reconfiguring an illumination environment according to an exemplary embodiment of the present invention. More specifically, in order to determine whether or not the realistic expression of the dynamic situation is a synthetic image, the virtual object is rendered while moving from the first photographing point C 1 401 to the second photographing point C 2 402.

도 9를 참조하면, 도 9의 (a)는 제1 촬영지점 C1(401)에서 렌더링한 영상이고, 도 9의 (b)는 제2 촬영지점 C2(402)에서 전역조명만을 이용하여 레더링한 영상이며, 도 9의 (c)는 제2 촬영지점 C2(402)에서 전역조명 및 지역조명 모두 이용하여 렌더링한 영상이다.Referring to FIG. 9, FIG. 9A illustrates an image rendered at the first photographing point C 1 401, and FIG. 9B illustrates using only global illumination at the second photographing point C 2 402. The image is a rendered image, and FIG. 9C is an image rendered by using both global and local lighting at the second photographing point C 2 402.

본 발명의 일 실시예에 따른 제1 촬영지점 C1(401)에서 렌더링한 영상은 전역조명만이 존재한다고 가정하였기 때문에 일부 지역조명을 고려하는 경우와 차이가 거의 없었다(도 9의 (a)참조). 그러나, 물체가 제2 촬영지점 C2(402)으로 이동함에 따라 지역조명의 영향이 고려되어 보다 밝고 사실적인 장면을 표현할 수 있다(도 9의 (c)참조). 왜냐하면 도 7의 (a)에 예시된 바와 같이 대상공간의 블루 스크린에 많은 간접조명이 존재하기 때문이다. 따라서, 구, 토러스, 테이블 등의 가상물체가 블루 스크린에 가까운 제2 촬영지점 C2(402)으로 이동함에 따라 도 9의 (c) 와 같이 전역 조명뿐만 아니라 지역 조명에 의해 자연스러운 조명이 이뤄진다. Since the image rendered at the first photographing point C 1 401 according to an embodiment of the present invention was assumed to have only global illumination, there was little difference from the case of considering some local illumination (FIG. 9A). Reference). However, as the object moves to the second photographing point C 2 402, the effect of local lighting may be taken into consideration to express a brighter and more realistic scene (see FIG. 9C). This is because there are many indirect lights on the blue screen of the object space as illustrated in FIG. Therefore, as virtual objects such as spheres, toruss, and tables move to the second photographing point C 2 402 close to the blue screen, natural illumination is achieved by not only global illumination but also local illumination as shown in FIG. 9 (c).

상기한 본 발명의 일 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대해 통상의 지식을 가진 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.One embodiment of the present invention described above is for the purpose of illustration, those skilled in the art will be able to various modifications, changes, additions within the spirit and scope of the present invention, such modifications, changes and Additions should be considered to be within the scope of the following claims.

이상에서 설명한 바와 같이, 본 발명에 의한 조명환경 재구성 방법 및 프로그램이 기록된 기록매체는 움직이는 물체에 대해서도 정확하게 조명 정보를 적용할 수 있다는 장점이 있다. As described above, the recording medium on which the lighting environment reconstruction method and program according to the present invention is recorded has an advantage that the lighting information can be applied accurately to a moving object.

또한, 본 발명은 대상공간을 촬영한 카메라 위치와 내부 파라미터를 알기 위한 사전교정이 필요 없이 이를 자동으로 추정하여 조명환경을 재구성할 수 있다는 장점이 있다. In addition, the present invention has the advantage that it is possible to automatically reconstruct the lighting environment by automatically estimating it without the need for pre-calibration to know the camera position and the internal parameters photographing the object space.

Claims (15)

영상합성을 위하여 조명공간을 재구성하는 방법에 있어서,In the method for reconstructing the lighting space for image synthesis, (a) 대상 공간의 입력영상에 상응하는 복수개의 촬영위치를 산출하는 단계;(a) calculating a plurality of photographing positions corresponding to the input image of the target space; (b) 상기 입력영상을 이용하여 상기 대상 공간의 조명을 전역조명 또는 지역조명으로 분류하여 산출하는 단계; 및(b) classifying and calculating illumination of the target space into global illumination or local illumination using the input image; And (c) 상기 산출된 전역조명 또는 지역조명의 3차원 좌표 및 상기 복수개의 촬영위치의 3차원 좌표를 포함하는 3차원 조명 공간을 산출하는 단계를 포함하는 조명공간 재구성 방법(c) calculating a three-dimensional illumination space including the calculated three-dimensional coordinates of the global light or the local light and the three-dimensional coordinates of the plurality of photographing positions. 제 1항에 있어서,The method of claim 1, 상기 입력영상은 어안렌즈(fisheye lens)를 장착한 카메라의 셔터 속도를 각각 다르게 하여 촬영된 다중 노출영상이고,The input image is a multiple exposure image photographed by different shutter speeds of a camera equipped with a fisheye lens. (d) 상기 (a) 단계에 선행하여 상기 다중 노출영상을 이용하여 상기 카메라의 응답함수(response function)을 추정하고 HDR(High Dynamic Range) 영상을 생성하는 단계를 더 포함하는 조명공간 재구성 방법.(d) estimating a response function of the camera and generating a high dynamic range (HDR) image by using the multiple exposure image prior to step (a). 제 1항에 있어서The method of claim 1 상기 (a) 단계는Step (a) is (a1) 상기 입력영상은 상기 복수개의 촬영위치에 상응한 전방 및 후방의 반구(hemi-sphere) 영상이고, 상기 복수개의 촬영위치를 원점으로 하는 반구 좌표계를 각각 구성하는 단계;(a1) the input image is a front and rear hemi-sphere images corresponding to the plurality of photographing positions, respectively, and constructing a hemisphere coordinate system having the plurality of photographing positions as origins; (a2) 미리 설정된 알고리즘을 이용하여 제1 및 제2 촬영위치에서 취득된 반구 영상의 제1 및 제2 중앙점에 상응하는 사영(projection)된 중앙점을 산출하는 단계; 및(a2) calculating a projected center point corresponding to the first and second center points of the hemisphere images acquired at the first and second photographing positions using a preset algorithm; And (a3) 상기 제1 및 제2 중앙점과 상기 사영된 중앙점을 이용하여 상기 제1 촬영위치에 상대적인 제2 촬영위치를 계산하는 단계를 포함하되,(a3) calculating a second photographing position relative to the first photographing position using the first and second center points and the projected center point; 상기 복수개의 촬영위치의 개수에 상응하여 상기 (a2) 단계 내지 상기 (a3)단계를 반복하여 상기 복수개의 촬영위치를 각각 산출하는 조명공간 재구성 방법.And calculating the plurality of photographing positions by repeating steps (a2) to (a3) corresponding to the number of the photographing positions. 제 3항에 있어서The method of claim 3 상기 미리 설정된 알고리즘은 특징점 추출 알고리즘 및 매칭 알고리즘 중 적어도 하나인 조명공간 재구성 방법.And the predetermined algorithm is at least one of a feature point extraction algorithm and a matching algorithm. 제 3항에 있어서,The method of claim 3, wherein 상기 (a3) 단계는,Step (a3), 수학식
Figure 112006084747178-pat00090
를 이용하여
Figure 112006084747178-pat00091
각(∠AC1B) 및
Figure 112006084747178-pat00092
각(∠ C1 BC2)를 각각 구하는 단계 - C1 및 C2는 제1 및 제2 촬영위치이고, A 및 B는 C1 및 C2에서 취득한 반구영상의 중앙점이며,
Figure 112006084747178-pat00093
는 렌즈의 초점거리이며,
Figure 112006084747178-pat00094
은 각각의 반구영상의 중앙점과 상대 중앙점이 사영된 중앙점간의 거리임 -;
Equation
Figure 112006084747178-pat00090
Using
Figure 112006084747178-pat00091
Angle (∠AC 1 B) and
Figure 112006084747178-pat00092
Obtaining angles (∠ C 1 BC 2 ), respectively: C1 and C2 are first and second photographing positions, A and B are center points of the hemispherical images acquired at C1 and C2,
Figure 112006084747178-pat00093
Is the focal length of the lens,
Figure 112006084747178-pat00094
Is the distance between the center point of each hemisphere image and the center point where the relative center point is projected-;
상기
Figure 112006084747178-pat00095
각(∠AC1B), 상기
Figure 112006084747178-pat00096
각(∠ C1 BC2) 및 수학식
remind
Figure 112006084747178-pat00095
Angle (∠AC 1 B), above
Figure 112006084747178-pat00096
Angle (∠ C 1 BC 2 ) and equation
Figure 112006084747178-pat00097
을 이용하여 제1 촬영위치 C1에 상대적인 제2 촬영위치 C2를 계산하는 단계-상기
Figure 112006084747178-pat00098
는 상기 제1 촬영위치 C1로부터 상기 중앙점 B를 통과하는 선분, 상기
Figure 112006084747178-pat00099
는 상기 제2 촬영위치 C2로부터 상기 중앙점 A를 통과하는 선분, 상기
Figure 112006084747178-pat00100
및 상기
Figure 112006084747178-pat00101
는 임의의 수
Figure 112006084747178-pat00102
Figure 112006084747178-pat00103
에 상응하여 각각 변화하는 상기
Figure 112006084747178-pat00104
Figure 112006084747178-pat00105
의 방향벡터임-를 포함하는 조명공간 재구성 방법.
Figure 112006084747178-pat00097
Calculating a second photographing position C 2 relative to the first photographing position C 1 using
Figure 112006084747178-pat00098
Is a line passing from the first photographing position C 1 to the center point B,
Figure 112006084747178-pat00099
Is a line segment passing through the center point A from the second photographing position C 2 ,
Figure 112006084747178-pat00100
And said
Figure 112006084747178-pat00101
Is any number
Figure 112006084747178-pat00102
And
Figure 112006084747178-pat00103
Corresponding to each change corresponding to
Figure 112006084747178-pat00104
And
Figure 112006084747178-pat00105
And a direction vector of the illumination space reconstruction method.
제 1항에 있어서,The method of claim 1, 상기 (b) 단계에 선행하여,Prior to step (b) above, (e1) 상기 입력영상은 상기 복수개의 촬영위치에 대응하는 전방 및 후방의 반구(hemi-sphere) 영상이고, 상기 입력영상을 파노라믹 변환하여 L-L(Latitude-Longitude) 단위영상을 만드는 단계;(e1) the input image is a front and rear hemi-sphere images corresponding to the plurality of photographing positions, and generating a Latitude-Longitude (L-L) unit image by panoramic converting the input image; (e2) 구조적 중요도(structured importance) 샘플링을 이용하여 상기 L-L 단위영상의 복수개의 조명원(light source)의 위치를 산출하는 단계;(e2) calculating positions of a plurality of light sources of the L-L unit image by using structured importance sampling; (e3) 상기 복수개의 촬영위치를 원점으로 하는 반구 좌표계를 각각 구성하는 단계; 및(e3) constructing a hemisphere coordinate system each having the plurality of shooting positions as an origin; And (e4) 상기 복수개의 조명원의 위치에 상응하는 단위 방향벡터를 각각 산출하는 단계를 더 포함하는 것을 특징으로 하는 조명공간 재구성 방법.and (e4) calculating unit direction vectors corresponding to positions of the plurality of illumination sources, respectively. 제 6항에 있어서,The method of claim 6, 상기 (b)단계는, In step (b), (f1) 제1 촬영위치에 대응되는 제1 L-L 단위영상에서 산출된 복수개의 단위 방향벡터 중 제1 방향 벡터를 직각 좌표계로 변환하는 단계; (f1) converting the first direction vector among the plurality of unit direction vectors calculated from the first L-L unit image corresponding to the first photographing position into a rectangular coordinate system; (f2) 제2 촬영위치에 대응되는 제2 L-L 단위영상에서 미리 설정된 알고리즘과 상기 변환된 방향 벡터를 이용하여 상기 제2 L-L 단위영상에서의 대응점을 산출하는 단계; 및 (f2) calculating a corresponding point in the second L-L unit image by using a preset algorithm in the second L-L unit image corresponding to the second photographing position and the converted direction vector; And (f3) 상기 제1 L-L 단위영상에서 산출된 복수개의 단위 방향벡터의 개수에 상응하여 상기 (f1)단계 내지 (f2)단계를 반복하여 제2 L-L 단위영상에서 대응점을 각각 산출하는 단계를 포함하되,(f3) repeating steps (f1) to (f2) corresponding to the number of unit direction vectors calculated in the first LL unit image to calculate corresponding points in the second LL unit image, respectively. , 상기 복수개의 촬영위치에 대응하는 L-L 단위영상의 개수에 상응하여 상기 (f1)단계 상기 (f3)단계를 반복하여 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위영상에서 하나 이상의 상기 대응점을 각각 산출하는 것을 특징으로 하는 조명공간 재구성 방법.Repeating step (f1) and step (f3) corresponding to the number of LL unit images corresponding to the plurality of shooting positions, respectively, calculating one or more corresponding points in the LL unit images corresponding to the plurality of shooting positions, respectively. Illumination space reconstruction method, characterized in that. 제 7항에 있어서,The method of claim 7, wherein 상기 (f2) 단계는 Step (f2) is (g1) 수학식
Figure 112008010316340-pat00141
를 이용하여
Figure 112008010316340-pat00142
을 산출하는 단계-
Figure 112008010316340-pat00143
은 제1 촬영위치 벡터,
Figure 112008010316340-pat00144
는 첫번째 카메라 위치(C1)에서 출발하는 임의의 조명에 대한 3차원 방향벡터,
Figure 112008010316340-pat00145
는 상기 제1 방향 벡터가 직각 좌표계로 변환된 것이고,
Figure 112008010316340-pat00146
는 임의의 수임 - ;
(g1) Equation
Figure 112008010316340-pat00141
Using
Figure 112008010316340-pat00142
To calculate the
Figure 112008010316340-pat00143
Is the first shooting position vector,
Figure 112008010316340-pat00144
Is the three-dimensional direction vector for any light starting at the first camera position C1,
Figure 112008010316340-pat00145
Is the first direction vector is converted to a rectangular coordinate system,
Figure 112008010316340-pat00146
Is any number-;
(g2) 상기
Figure 112008010316340-pat00147
와 수학식
Figure 112008010316340-pat00148
을 이용하여
Figure 112008010316340-pat00149
을 산출하는 단계 -
Figure 112008010316340-pat00150
는 제2 촬영위치 벡터,
Figure 112008010316340-pat00151
는 제2 촬영위치에서
Figure 112008010316340-pat00152
의 끝을 향하는 벡터임; 및
(g2) above
Figure 112008010316340-pat00147
And equations
Figure 112008010316340-pat00148
Using
Figure 112008010316340-pat00149
To calculate-
Figure 112008010316340-pat00150
Is the second shooting position vector,
Figure 112008010316340-pat00151
At the second shooting position
Figure 112008010316340-pat00152
Vector towards end of; And
(g3) 상기
Figure 112008010316340-pat00153
을 이용하여 상기 제2 L-L 단위영상에서 대응점을 산출하는 단계를 포함하는 조명공간 재구성 방법.
(g3) above
Figure 112008010316340-pat00153
Computing a corresponding point in the second LL unit image by using a.
제 8항에 있어서,The method of claim 8, 상기 (g3)단계는 Step (g3) is (h1) 상기
Figure 112006084747178-pat00114
을 구면 좌표계로 변환하여
Figure 112006084747178-pat00115
을 산출하는 단계;
(h1) above
Figure 112006084747178-pat00114
To a spherical coordinate system
Figure 112006084747178-pat00115
Calculating;
(h2) 상기
Figure 112006084747178-pat00116
가 상기 제2 L-L 단위영상에 대응되는 위치를 산출하는 단계;
(h2) above
Figure 112006084747178-pat00116
Calculating a position corresponding to the second LL unit image;
(h3) 상기 산출된 위치를 중심으로 미리 지정된 크기의 검색영역 내에서 밝기에 대한 SSD(Sum of Squared Differences)가 가장 적은 값에 대응되는 위치를 대응점으로 산출하는 단계를 포함하는 것을 특징으로 하는 조명공간 재구성 방법.and (h3) calculating a position corresponding to a value having the smallest sum of squared differences (SSD) for brightness in a search area having a predetermined size based on the calculated position as a corresponding point. Spatial reconstruction method.
제 7항에 있어서,The method of claim 7, wherein 상기 (b)단계는Step (b) is (i1) 제2 촬영위치에 대응하는 제2 L-L 단위영상에서 복수개의 조명을 샘플링하는 단계; (i1) sampling a plurality of lights from a second L-L unit image corresponding to a second photographing position; (i2) 상기 복수개의 조명의 개수에 상응하여 상기 제2 L-L 단위영상을 복수개의 층(strata)을 나누는 단계; 및(i2) dividing a plurality of layers of the second L-L unit image according to the number of the plurality of lights; And (i3) 상기 대응점을 포함하지 않는 층에 상응하는 조명을 지역조명으로 산출하는 단계를 상기 단계 (f3) 이후에 더 포함하는 것을 특징으로 하는 조명공간 재구성 방법. (i3) after the step (f3), further comprising the step of calculating the illumination corresponding to the floor not including the corresponding point as the local lighting. 제 6항에 있어서The method of claim 6 상기 제 (c)단계는Step (c) is (j1) 제1 및 제2 촬영위치에 상응하는 복수개의 단위 방향벡터를 수학식
Figure 712008001235638-pat00172
을 이용하여 복수개의 3차원 단위 방향벡터로 각각 변환하는 단계; 및
(j1) Equation of a plurality of unit direction vectors corresponding to the first and second photographing position
Figure 712008001235638-pat00172
Converting each into a plurality of three-dimensional unit direction vectors by using; And
(j2) 상기 촬영위치 및 상기 복수개의 3차원 방향벡터를 미리 설정된 알고리즘에 적용하여 전역 조명의 좌표를 산출하는 단계를 포함하되,(j2) calculating coordinates of global illumination by applying the photographing position and the plurality of three-dimensional direction vectors to a preset algorithm; 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위 영상의 개수에 상응하여 상기 (j1)단계 내지 (j2)단계를 반복하여 상기 전역조명의 좌표를 각각 산출하는 것을 특징으로 하는 조명공간 재구성 방법.And repeating steps (j1) to (j2) to calculate coordinates of the global illumination, respectively, corresponding to the number of L-L unit images corresponding to the plurality of photographing positions.
제 11항에 있어서The method of claim 11 상기 (j2)단계는 Step (j2) is (k1) 수학식
Figure 112008010316340-pat00154
을 이용하여
Figure 112008010316340-pat00155
Figure 112008010316340-pat00156
을 각각 산출하는 단계 -
Figure 112008010316340-pat00157
Figure 112008010316340-pat00158
는 각각 제1 및 제2 촬영위치의 3차원 단위 방향벡터,
Figure 112008010316340-pat00159
Figure 112008010316340-pat00160
는 각각 제1 및 제2 촬영위치 벡터,
Figure 112008010316340-pat00161
Figure 112008010316340-pat00162
는 각각 제1 및 제2 촬영위치 벡터에서 출발하는 i번째 조명에 대한 3차원 벡터, t 및 s는 각각
Figure 112008010316340-pat00163
Figure 112008010316340-pat00164
의 스케일링 계수임; 및
(k1) Equation
Figure 112008010316340-pat00154
Using
Figure 112008010316340-pat00155
And
Figure 112008010316340-pat00156
Calculating each of-
Figure 112008010316340-pat00157
And
Figure 112008010316340-pat00158
Are the three-dimensional unit direction vectors of the first and second photographing positions, respectively,
Figure 112008010316340-pat00159
And
Figure 112008010316340-pat00160
Are the first and second shooting position vectors,
Figure 112008010316340-pat00161
And
Figure 112008010316340-pat00162
Are the three-dimensional vectors for the i-th illumination starting from the first and second shooting position vectors, respectively, and t and s are respectively
Figure 112008010316340-pat00163
And
Figure 112008010316340-pat00164
Is a scaling factor of; And
(k2) 상기
Figure 112008010316340-pat00165
및 상기
Figure 112008010316340-pat00166
의 교차점을 전역 조명의 좌표로 산출하는 단계를 포함하되,
(k2) above
Figure 112008010316340-pat00165
And said
Figure 112008010316340-pat00166
Calculating an intersection of with coordinates of the global illumination,
상기 3차원 단위 방향벡터
Figure 112008010316340-pat00167
Figure 112008010316340-pat00168
의 개수에 상응하여 상기 (k1)단계 내지 (k2)단계를 반복하여 상기 전역 조명의 좌표를 각각 산출하는 것을 특징으로 하는 조명공간 재구성 방법.
The 3D unit direction vector
Figure 112008010316340-pat00167
And
Figure 112008010316340-pat00168
And repeating steps (k1) to (k2) corresponding to the number of to calculate the coordinates of the global illumination, respectively.
제 12항에 있어서,The method of claim 12, 상기 (k2)단계는 Step (k2) is 상기
Figure 112006084747178-pat00127
및 상기
Figure 112006084747178-pat00128
의 교차점이 존재하지 않는 경우 상기
Figure 112006084747178-pat00129
및 상기
Figure 112006084747178-pat00130
간에 거리가 각각 가장 가까운 위치를 전역조명의 좌표로 산출하는 단계를 더 포함하는 특징으로 하는 조명공간 재구성 방법.
remind
Figure 112006084747178-pat00127
And said
Figure 112006084747178-pat00128
Above if no intersection of
Figure 112006084747178-pat00129
And said
Figure 112006084747178-pat00130
Comprising the step of calculating the coordinates of the global illumination with the position of the distance between the most close to each other.
제 6항에 있어서The method of claim 6 상기 (c) 단계는Step (c) is (l1) 제1 및 제2 촬영위치에 상응하는 복수개의 단위 방향벡터를 수학식
Figure 712008001235638-pat00173
을 이용하여 복수개의 3차원 단위 방향벡터로 각각 변환하는 단계;
(l1) Equation of a plurality of unit direction vectors corresponding to the first and second photographing position
Figure 712008001235638-pat00173
Converting each into a plurality of three-dimensional unit direction vectors by using;
(k2) 상기 복수개의 3차원 단위 방향벡터의 교차점을 지역조명의 좌표로 산출하는 단계; (k2) calculating intersections of the plurality of three-dimensional unit direction vectors as coordinates of area lights; (k3) 상기 복수개의 촬영위치에 대응하는 상기 L-L 단위 영상의 개수에 상응하여 상기 (k1)단계 내지 (k2)단계를 반복하여 상기 L-L 단위영상에서 상기 지역조명의 좌표를 각각 산출하는 단계를 더 포함하는 것을 특징으로 하는 조명공간 재구성 방법.(k3) repeating steps (k1) to (k2) corresponding to the number of the LL unit images corresponding to the plurality of photographing positions, and calculating the coordinates of the local lighting in the LL unit image, respectively. Illumination space reconstruction method comprising a.
영상합성을 위한 조명환경 재구성을 위하여 디지털 영상처리기에 의해 실행될 수 있는 명령어들의 프로그램이 유형적으로 구현되어 있으며, 상기 디지털 영상처리기에 의해 판독될 수 있는 프로그램을 기록한 기록매체에 있어서, In the recording medium recording a program that can be read by the digital image processor, a program of instructions that can be executed by the digital image processor is tangibly implemented for reconstructing the lighting environment for image synthesis. (a) 대상 공간의 입력영상에 상응하는 복수개의 촬영위치를 산출하는 단계;(a) calculating a plurality of photographing positions corresponding to the input image of the target space; (b) 상기 입력영상을 이용하여 상기 대상 공간의 조명을 전역조명 및 또는 지역조명으로 분류하여 산출하는 단계; 및(b) classifying and calculating illumination of the target space into global illumination and / or local illumination using the input image; And (c) 상기 산출된 전역조명 또는 지역조명의 3차원 좌표 및 상기 복수개의 촬영위치의 3차원 좌표를 포함하는 3차원 조명 공간을 산출하는 단계를 실행하는 프로그램을 기록한 기록매체.and (c) calculating a three-dimensional illumination space including the calculated three-dimensional coordinates of the global or local illumination and three-dimensional coordinates of the plurality of photographing positions.
KR1020060114471A 2006-11-20 2006-11-20 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor. KR100834157B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060114471A KR100834157B1 (en) 2006-11-20 2006-11-20 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060114471A KR100834157B1 (en) 2006-11-20 2006-11-20 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.

Publications (2)

Publication Number Publication Date
KR20080045392A KR20080045392A (en) 2008-05-23
KR100834157B1 true KR100834157B1 (en) 2008-06-02

Family

ID=39662802

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060114471A KR100834157B1 (en) 2006-11-20 2006-11-20 Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.

Country Status (1)

Country Link
KR (1) KR100834157B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101495299B1 (en) * 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape
US9684991B2 (en) 2013-05-08 2017-06-20 Samsung Electronics Co., Ltd. Image processing apparatus and method using photon mapping and ray tracing and increasing a rate of photon mapping
KR20210029391A (en) * 2019-09-06 2021-03-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 Mixed reality device support apparatus using environment information capture and method thereof

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100952749B1 (en) * 2008-07-31 2010-04-13 중앙대학교 산학협력단 Method for saliency-based lighting for feature emphasis
KR101068324B1 (en) * 2009-10-28 2011-09-28 중앙대학교 산학협력단 Rendering method on spherical coordinate system and system thereof
CN101916455B (en) * 2010-07-01 2012-06-27 清华大学 Method and device for reconstructing three-dimensional model of high dynamic range texture
US9508191B2 (en) 2010-07-23 2016-11-29 Pacific Data Images Llc Optimal point density using camera proximity for point-based global illumination
US9710958B2 (en) 2011-11-29 2017-07-18 Samsung Electronics Co., Ltd. Image processing apparatus and method
WO2013081398A1 (en) * 2011-11-29 2013-06-06 삼성전자주식회사 Image processing apparatus and method
GB2543562B (en) * 2015-10-23 2020-02-05 Geomerics Ltd Graphics processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233826A (en) * 1991-11-19 1993-09-10 Nec Corp Method and device for changing lighting direction of image and method and device for synthesizing images
JPH11265440A (en) 1998-01-14 1999-09-28 Hitachi Ltd Image compositing method for optional light source position and display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233826A (en) * 1991-11-19 1993-09-10 Nec Corp Method and device for changing lighting direction of image and method and device for synthesizing images
JPH11265440A (en) 1998-01-14 1999-09-28 Hitachi Ltd Image compositing method for optional light source position and display device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684991B2 (en) 2013-05-08 2017-06-20 Samsung Electronics Co., Ltd. Image processing apparatus and method using photon mapping and ray tracing and increasing a rate of photon mapping
KR101495299B1 (en) * 2013-09-24 2015-02-24 한국과학기술원 Device for acquiring 3d shape, and method for acquiring 3d shape
KR20210029391A (en) * 2019-09-06 2021-03-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 Mixed reality device support apparatus using environment information capture and method thereof
KR102243138B1 (en) * 2019-09-06 2021-04-21 재단법인 다차원 스마트 아이티 융합시스템 연구단 Mixed reality device support apparatus using environment information capture and method thereof

Also Published As

Publication number Publication date
KR20080045392A (en) 2008-05-23

Similar Documents

Publication Publication Date Title
KR100834157B1 (en) Method for Light Environment Reconstruction for Image Synthesis and Storage medium storing program therefor.
CN110148204B (en) Method and system for representing virtual objects in a view of a real environment
EP3242275B1 (en) Using photo collections for three dimensional modeling
US20180012411A1 (en) Augmented Reality Methods and Devices
Zhang et al. A UAV-based panoramic oblique photogrammetry (POP) approach using spherical projection
Shan et al. The visual turing test for scene reconstruction
Meilland et al. 3d high dynamic range dense visual slam and its application to real-time object re-lighting
KR101396346B1 (en) Method and apparatus for creating a 3D image using 2D photograph images
WO2021203883A1 (en) Three-dimensional scanning method, three-dimensional scanning system, and computer readable storage medium
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
US20100296724A1 (en) Method and System for Estimating 3D Pose of Specular Objects
CN108475327A (en) three-dimensional acquisition and rendering
US11620730B2 (en) Method for merging multiple images and post-processing of panorama
JP2015201850A (en) Method of estimating imaging device parameter
Meerits et al. Real-time diminished reality for dynamic scenes
JP2016537901A (en) Light field processing method
Frahm et al. Markerless augmented reality with light source estimation for direct illumination
CN110490967A (en) Image procossing and object-oriented modeling method and equipment, image processing apparatus and medium
JP2021520008A (en) Vehicle inspection system and its method
JPH11175762A (en) Light environment measuring instrument and device and method for shading virtual image using same
Zhu et al. Spatially-varying outdoor lighting estimation from intrinsics
WO2023225891A1 (en) Neural rendering method based on multi-resolution network structure
KR20180048443A (en) Optimal Spherical Image Acquisition Method Using Multiple Cameras
Ji et al. Virtual home staging: Inverse rendering and editing an indoor panorama under natural illumination
JPH04130587A (en) Three-dimensional picture evaluation device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151028

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee