KR100259837B1 - Method for displaying three dimensional image from two dimensional image - Google Patents

Method for displaying three dimensional image from two dimensional image Download PDF

Info

Publication number
KR100259837B1
KR100259837B1 KR1019970032646A KR19970032646A KR100259837B1 KR 100259837 B1 KR100259837 B1 KR 100259837B1 KR 1019970032646 A KR1019970032646 A KR 1019970032646A KR 19970032646 A KR19970032646 A KR 19970032646A KR 100259837 B1 KR100259837 B1 KR 100259837B1
Authority
KR
South Korea
Prior art keywords
image
dimensional
intensity
input image
light source
Prior art date
Application number
KR1019970032646A
Other languages
Korean (ko)
Other versions
KR19990010028A (en
Inventor
조희근
Original Assignee
윤종용
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자주식회사 filed Critical 윤종용
Priority to KR1019970032646A priority Critical patent/KR100259837B1/en
Publication of KR19990010028A publication Critical patent/KR19990010028A/en
Application granted granted Critical
Publication of KR100259837B1 publication Critical patent/KR100259837B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/514Depth or shape recovery from specularities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading

Abstract

PURPOSE: A three dimensional image display method out of two dimensional image is provided to get a three dimensional image for an object having shading out of one image by displaying left eye image and right eye image in turns. CONSTITUTION: A convex curved surface area that exists in two dimensional input image is detected to presume a direction of illumination light(100). A convex shape is approximated to agree very well with an image intensity of these areas for the convex areas that is detected above(200). A direction of illumination light is decided through the process of shape approximation(300). A depth is calculated out of two dimensional input image having the direction of light source and shading(400). An observer's left eye image and right eye image is reorganized from two dimensional input image by using depth calculated above(500). The left eye and right eye image reorganized above is displayed in turns at the observer's left eye and right eye(600).

Description

이차원 이미지로부터의 삼차원 이미지 디스플레이 방법3D image display method from 2D image

본 발명은 이차원 이미지로부터 삼차원의 이미지를 생성해내는 영상 처리 방법에 관한 것으로서, 특히, 쉐이딩(shading) 정보로부터 조명광의 방향을 추정해내고, 계산된 심도로부터 좌,우안에 해당하는 두장의 영상을 생성해 내는 방법에 관한 것이다.The present invention relates to an image processing method for generating a three-dimensional image from a two-dimensional image, in particular, to estimate the direction of the illumination light from the shading (shading) information, and to calculate the two images corresponding to the left and right eyes from the calculated depth It's about how to create it.

이미지로부터 광원의 방향에 대한 정보를 얻기 위한 종래의 기술로는 이미지내의 모든 점들에서의 물체 형상을 구로 근사 시키는 방법이 있다.Conventional techniques for obtaining information about the direction of a light source from an image include a method of approximating the shape of an object at all points in the image with a sphere.

상기의 방법들에서는 광원의 방향을 이미지 미분치의 분포로부터 계산 하였는데, 면수직 벡터의 분포가 모든 방향에 대해 균등한 분포를 가진다고 가정하고서, 광원 방향에 따라 가장 가능성 있는 분포와의 연관성으로부터 광원 방향을 추정하게 된다.In the above methods, the direction of the light source was calculated from the distribution of the image derivatives. Estimate.

그러나, 이러한 종래의 방법에 있어서는, 이미지 내의 모든 영역에서 구 형상으로의 근사를 가정했기 때문에, 전체적으로 구면과 같은 부드러운 곡면 만으로 이루어진 이미지에 대해서는 어느 정도 적용가능하나, 각진 부분과 같은 불연속적인 형상이 있는 경우에는 정확도가 현저히 떨어지며, 모든 영역이 부드러운 곡선으로 이루어 졌다 할지라도, 원통이나 럭비공 모양에서처럼 면수직 벡터의 분포가 모든 방향에 대해 균등하지 못한 경우 오차가 발생하게 된다.However, in this conventional method, since the approximation to the spherical shape is assumed in all regions in the image, it is somewhat applicable to an image composed only of a smooth curved surface such as a spherical surface, but there is a discontinuous shape such as an angled part. In this case, the accuracy is significantly lower, and even if all the regions are smoothly curved, an error occurs when the distribution of surface vertical vectors is not uniform in all directions, such as in a cylindrical or rugby ball shape.

또한, 기존의 방법에서는 이미지 데이터의 미분치를 사용하므로, 이미지 데이터에 포함되어 있는 노이즈 성분으로 인해 그 정확도는 현저히 떨어지게 된다.In addition, since the conventional method uses the derivative value of the image data, its accuracy is significantly reduced due to the noise component included in the image data.

또한 2차원 이미지로부터 3차원 이미지를 얻기 위한 기존의 방법에서는, 서로 다른 관찰각에서 얻어진 두개의 이미지를 사용하는데 이 경우, 두개의 서로 다른 관찰방향을 갖는 이미지 입력장치가 동시에 작동되어 입력 이미지를 얻어야 하며, 이를 위해 두개의 입력장치 사이의 거리를 항상 일정하게 유지시켜주어야 하며, 물체가 위치하는 거리에 따라 입력장치의 방향 및 초점거리를 적절히 조절해 주어야 하는 번거로움이 있다.In addition, in the conventional method for obtaining a 3D image from a 2D image, two images obtained from different viewing angles are used. In this case, an image input device having two different viewing directions must be operated simultaneously to obtain an input image. To this end, the distance between the two input devices must be kept constant at all times, and there is an inconvenience in that the direction and focal length of the input device must be properly adjusted according to the distance where the object is located.

본 발명은 상기의 문제점을 해결하기 위하여 창안된 것으로서, 이미지로부터 조명광의 방향을 추정하기 위해, 이미지 내에 분포하는 볼록한 면으로 이루어진 영역들을 찾아내고, 이 영역들에 대해 범프(bump) 형상의 근사를 통하여 보다 정확한 조명광의 방향을 구할 수 있는 방법과, 상기 방법에 의해 구해진 광원 방향을 이용하여, 쉐이딩 정보를 갖는 이미지로부터 물체 영역의 심도를 구하고, 좌안 및 우안 이미지를 재구성하여 좌안 및 우안에 번갈아 가면서 디스플레이 시킴으로써, 하나의 이미지로부터 쉐이딩을 갖는 물체에 대한 3차원 영상을 얻을 수 있는 방법을 제공함을 그 목적으로 한다.The present invention was devised to solve the above problems, and in order to estimate the direction of the illumination light from the image, the regions of convex surfaces distributed in the image are found, and a bump shape approximation is applied to these regions. By using the method to obtain a more accurate direction of the illumination light, and using the light source direction obtained by the method, to obtain the depth of the object area from the image having the shading information, and to reconstruct the left and right eyes image alternately left and right eyes The object of the present invention is to provide a method of obtaining a three-dimensional image of an object having shading from one image.

제1도는 면수직 방향과 조명광 방향 그리고 관찰방향의 상호 관계를 나타내는 도면,1 is a view showing the relationship between the surface vertical direction, the illumination light direction and the observation direction,

제2도는 볼록형상 면을 선정하기 위한 7x7 크기의 필터 예로서 x-미분 필터와 y-미분 필터 그리고 가오시안 필터를 보여주는 도면,2 is a 7-by-7 filter for selecting convex planes, showing an x-differential filter, a y-differential filter, and a Gaussian filter,

제3도는 입력 이미지로부터 선정된 볼록형상 영역의 예를 나타내는 도면,3 is a diagram showing an example of a convex region selected from an input image;

제4도는 광원방향 벡터와 경사각 및 기울기각의 상호 관계를 나타내는 도면,4 is a view showing a relationship between a light source direction vector and an inclination angle and an inclination angle,

제5도는 범프 형상의 입력 이미지 및 계산된 형상계수와 광원방향 이미지로부터 계산된 이미지를 보여주는 도면,5 is a view showing an image calculated from an input image of a bump shape and a calculated shape coefficient and a light source direction image;

제6도는 구 형상의 입력 이미지 및 계산된 형상계수와 광원방향 이미지로부터 계산된 이미지를 보여주는 도면,6 is a view showing an image calculated from a spherical input image and a calculated shape coefficient and a light source direction image;

제7도는 x-y 공간 및 p-q 공간에서의 적분 영역 및 대응점의 예를 나타내는 도면,7 is a diagram showing an example of an integrated region and a corresponding point in an x-y space and a p-q space;

제8도는 특성곡선 및 적분초기곡선을 나타내는 도면,8 is a diagram showing a characteristic curve and an initial curve of integration;

제9도는 우안 이미지 재구성을 위한 좌표변환의 개념을 나타내는 도면,9 is a view showing a concept of coordinate transformation for reconstructing the right eye image,

제10도는 입력 이미지 및 재구성된 좌안과 우안 이미지를 보여주는 도면,10 illustrates an input image and a reconstructed left and right eye image,

제11도는 본 발명에 따라 이차원 이미지로부터 삼차원 이미지를 생성하기 위한 처리도이다.11 is a process diagram for generating a three-dimensional image from a two-dimensional image according to the present invention.

상기와 같은 목적을 달성하기 위하여 창안된 본 발명에 따라, 이차원 이미지로 부터의 삼차원 이미지 디스플레이 방법은, 조명광의 방향을 추정해내기 위해 이차원 입력 이미지 내에 존재하는 볼록한 곡면 영역들을 검출해내는 제 1 과정(100)과 ; 상기 제 1 과정(100)에서 검출된 볼록한 영역들에 대해 이들 영역의 이미지 인텐시티와 가장 잘 일치되도록 하는 볼록형상을 근사시키는 제 2 과정(200) ; 상기 제 2 과정(200)의 형상 근사의 과정을 통해 조명광의 방향을 결정하는 제 3 과정(300) ; 상기 제 3 과정(300)에서 추정된 광원 방향과 쉐이딩을 갖는 이차원 입력 이미지로부터 심도를 계산하는 제 4 과정(400) ; 상기 제 4 과정(400)에서 계산된 심도를 이용하여 관찰자의 좌안 이미지 및 우안 이미지를 이차원 입력 이미지로부터 재구성하는 제 5 과정(500) 및 ; 관찰자의 좌안 및 우안에 상기 제 5 과정(500)에서 재구성된 좌안 및 우안 이미지를 번갈아가면서 디스플레이 시키는 제 6 과정(600)을 포함하는 것을 특징으로 한다.According to the present invention devised to achieve the above object, the three-dimensional image display method from the two-dimensional image, the first process of detecting the convex curved areas existing in the two-dimensional input image to estimate the direction of the illumination light 100 and; A second process (200) of approximating a convex shape for the convex regions detected in the first process (100) to best match the image intensity of these regions; A third process (300) of determining a direction of illumination light through a shape approximation process of the second process (200); A fourth step 400 of calculating a depth from a two-dimensional input image having a light source direction and shading estimated in the third step 300; A fifth process (500) of reconstructing the left eye image and the right eye image of the observer from the two-dimensional input image using the depth calculated in the fourth process (400); And a sixth step 600 of alternately displaying the left and right eye images reconstructed in the fifth step 500 of the observer's left and right eyes.

이하 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

일반적으로, 반사물체에 의한 이미지는 조명광으로부터 나온 빛이 물체 표면에서 반사되어 관찰자에게 관찰되므로써 형성되는데, 물체 표면의 반사율이 동일한 경우라 하더라도, 조명광과 물체 표면이 이루는 각도에 의해서 반사되는 빛의 양이 달라지게 되어 쉐이딩이 일어나게 된다.In general, an image generated by a reflecting object is formed by reflecting light from an illumination light on an object surface and being observed by an observer. Even if the reflectance of the object surface is the same, the amount of light reflected by an angle formed by the illumination light and the object surface is the same. This will change the shading.

이러한 쉐이딩 정보는 물체의 형상과 밀접한 관계가 있기 때문에, 물체의 형상을 복원하기 위한 정보로 매우 유용하다.Since the shading information is closely related to the shape of the object, it is very useful as information for restoring the shape of the object.

그러나, 물체의 쉐이딩 정보로부터 형상 정보를 얻어내는 방법들에 있어서는 조명광의 방향에 대한 정보가 필수적이나, 이미지에는 광원 방향에 대한 정보가 별도로 주어지지 않기 때문에, 이미지로부터 광원 방향을 추정해내는 것은 형상복원을 위해 필수적인 과정인 것이다.However, in the methods of obtaining the shape information from the shading information of the object, information on the direction of the illumination light is essential, but since the information on the direction of the light source is not separately given to the image, estimating the direction of the light source from the image is a shape. It is an essential process for restoration.

본 발명에서는, 조명광의 방향에 대한 정보를 이미지 내에 있는 볼록형상 부분을 이용하여 얻고자 하기 때문에, 이미지 내에 볼록형상을 갖고 있는 영역을 선별하는 과정이 필요하다.In the present invention, since information on the direction of the illumination light is to be obtained by using the convex portion in the image, a process of selecting a region having the convex shape in the image is necessary.

이를 위해 본 발명에서는, 볼록 형상의 검출에 적합한 필터를 사용하는데 두개의 미분 필터와 하나의 가오시안 형태의 필터를 사용한다.To this end, the present invention uses a filter suitable for the detection of convex shapes, and uses two differential filters and one gaotian filter.

이때 이 필터는, 광원이 렘버시안 특성을 갖는 특정 볼록형상을 이미지 좌표의 (1,0,1) 방향, (0,1,1) 방향 및 (0,0,1) 방향에서 비추고 있을 때 생성되는 이미지와 같은 형태의 것을 사용한다.This filter is created when the light source illuminates a certain convex shape having a Lemberian characteristic in the (1,0,1), (0,1,1) and (0,0,1) directions of the image coordinates. Use the same type of image that is being used.

좀 더 구체적으로 설명하면,More specifically,

와 같은 식에 의해 기술되는 볼록형상이 있는 경우, (1,0,1) 방향, (0,1,1) 방향 및 (0,0,1) 방향에 대한 필터를 각각 F101(x,y), F011(x,y), F001(x,y)라 하면 이들은 다음과 같이 구한다.If there is a convex shape described by the following equation, the filter for the (1,0,1) direction, the (0,1,1) direction and the (0,0,1) direction is F101 (x, y), respectively. , F011 (x, y), F001 (x, y), they are obtained as follows.

Figure kpo00001
Figure kpo00001

Figure kpo00002
Figure kpo00002

Figure kpo00003
Figure kpo00003

상기 필터 값들은 앞에서 설명한 대로, 볼록형상의 면이 각각 3개의 서로 다른 방향에서 조명을 받고 있는, 각각의 점에서의 면수직 방향과 광원 방향을 스칼라 곱한 결과와 같다.The filter values are the same as the result of scalar multiplying the surface vertical direction and the light source direction at each point, where the convex faces are illuminated in three different directions, as described above.

한편, 특정 크기 S를 갖는 필터를 고려해 볼 때 평평한 면에서처럼, 이미지의 인텐시티가 일정한 영역에서의 필터링된 값을 영으로 맞춰주기 위해, 상기 필터 요소값의 평균값을 각각의 필터 요소값으로부터 빼주게 된다.On the other hand, when considering a filter having a specific size S, as shown in the flat plane, the average value of the filter element values is subtracted from each filter element value so that the intensity of the image is zeroed to a filtered value in a constant region. .

Figure kpo00004
Figure kpo00004

즉, 상기의 필터들은 볼록형상에 의한 이미지와 동일한 형태를 갖게되므로써, 볼록 형상을 갖는 영역 선정에 있어서 최적인 필터 성능을 발휘하게 된다.That is, the above filters have the same shape as the image of the convex shape, thereby exhibiting the optimum filter performance in selecting the convex region.

상기 필터를 기술하는 변수인 a 및 b는 이미지 내의 볼록면의 크기와 관계되는 것으로, 볼록면이 큰 경우 작은 값을 사용하고, 볼록면이 작은 경우는 큰 값을 사용하나, 일반적인 경우 a=1.0와 b=1.0의 조건에서 사용된다.Variables a and b describing the filter are related to the size of the convex surface in the image. If the convex surface is large, a small value is used. If the convex surface is small, a large value is used, but in general, a = 1.0 And b = 1.0.

필터의 크기로는 5x5, 7x7, 또는 9x9와 같은 몇 가지 크기를 갖는 필터를 선정하여 사용할 수 있으며, 도 2에 7x7 크기를 갖는 필터를 나타내었다.As the size of the filter, a filter having several sizes, such as 5x5, 7x7, or 9x9, can be selected and used, and FIG. 2 shows a filter having a 7x7 size.

도 2의 그림에서, 필터 요소들의 값은 중간 밝기가 영을 갖고 중간 밝기 보다 밝은 부분은 양의 값을, 그리고 중간 밝기보다 어두운 부분은 음의 값을 가지며 전체 평균은 영을 갖는다.In the figure of FIG. 2, the values of the filter elements have a medium brightness of zero, a part brighter than the medium brightness positive, a part darker than the medium brightness negative and the overall average zero.

상기 세가지의 필터를 사용하여 볼록형상을 갖는 영역을 선정하는 방법은 다음과 같다.A method of selecting a convex region using the three filters is as follows.

입력 이미지 h(x,y)에 대해 필터 F'101, F'011와 F'1를 각각 독립적으로 적용하여, 3개의 서로 다른 필터링된 값(F'(h(x,y)))에 대해 필터링된 값의 평균값(F'(h(x,y)avg)), 최소값(F'(h(x,y)min)) 및 최대값(F'(h(x,y)max))을 각각 구한다.Filters F ' 101 , F'011 and F' 1 are independently applied to the input image h (x, y) , respectively, for three different filtered values (F '(h (x, y) )). The average value of the filtered values (F '(h (x, y) avg )), the minimum value (F' (h (x, y) min )), and the maximum value (F '(h (x, y) max )) Obtain each.

이 값들을 사용하여 3개의 필터링된 값들에 대해 아래 3개의 조건을 동시에 만족하는 h(x,y)영역을 삭제한다.Use these values to delete the h (x, y) region that simultaneously meets the following three conditions for the three filtered values.

Figure kpo00005
Figure kpo00005

이때 A는 삭제 영역의 크기를 조절하는 변수로써 A가 클수록 큰 면적이 삭제 되게 된다.At this time, A is a variable that controls the size of the deletion area. As A increases, a larger area is deleted.

본 발명에서는 통상적으로 0.3 ~ 0.7이 사용되어진다.In the present invention, 0.3 to 0.7 is usually used.

상기의 삭제과정을 통해서 볼록형상을 갖는 영역이 선정될 수 있다.The region having a convex shape may be selected through the above deletion process.

이에 대한 예를 도 3에 나타내었다.An example of this is shown in FIG. 3.

한편, 선정된 볼록 형상 영역에 대한 형상근사를 통한 광원방향의 계산 방법을 설명하면 다음과 같다.On the other hand, the calculation method of the light source direction through the shape approximation to the selected convex shape region is as follows.

볼록형상을 이미지 좌표 x 및 y에 대한 2차식을 써서 근사를 시키기 위해 위치 (x,y)에서의 형상면의 높이를 Z(x,y)라 하면, 일반적으로 1차 및 2차 항을 포함하는 다음식으로 나타낼 수 있다.In order to approximate the convex shape using the quadratic equations for the image coordinates x and y, the height of the shape plane at position (x, y) is Z (x, y), which usually includes the first and second terms. It can be expressed by the following equation.

Figure kpo00006
Figure kpo00006

따라서, 점(x,y)에서의 형상면의 x-축에 대한 기울기(p) 및 y-축에 대한 기울기(q)는Thus, the slope p with respect to the x-axis and the slope q with respect to the y-axis of the shape plane at points x and y are

Figure kpo00007
Figure kpo00007

로 표현된다.It is expressed as

즉,In other words,

Figure kpo00008
Figure kpo00008

한편, 각 점에서의 기울기 p,q로부터 그 점에서의 면수직 벡터를 계산할 수 있다.On the other hand, the surface vertical vector at that point can be calculated from the inclination p, q at each point.

면수직 벡터를

Figure kpo00009
라 하면 다음 식과 같이 표현된다.Face down vector
Figure kpo00009
Is expressed as the following equation.

Figure kpo00010
Figure kpo00010

이때, 광원 방향을 나타내는 벡터를

Figure kpo00011
라 하고, 고려하는 형상면이 렘버시안이라 하면, 이미지 인텐시티 h(x,y)
Figure kpo00012
으로 표현된다.At this time, the vector representing the direction of the light source
Figure kpo00011
If the shape plane under consideration is Lemversian, the image intensity h (x, y) is
Figure kpo00012
It is expressed as

따라서, 아래와 같이 쓸 수 있다.Thus, we can write

Figure kpo00013
Figure kpo00013

상기 관계식을 이용하여 p-q 공간(space)에서 다시 쓰면 아래와 같다.Using the above relation, we can rewrite it in p-q space as follows.

Figure kpo00014
Figure kpo00014

상기 식을 관찰해보면, 특정 위치(x,y)에서의 이미지 인텐시티는, 그 점에서의 형상의 x 및 y축에 대한 기울기(p,q)와 광원 방향에 의해서 결정됨을 알 수 있다.Observing the above equation, it can be seen that the image intensity at a specific position (x, y) is determined by the inclination (p, q) and the light source direction with respect to the x and y axes of the shape at that point.

이미지 인텐시티는 입력 이미지로부터 이미 값이 주어져 있으므로, 그 점에서의 형상에 의해 결정되는 기울기 (p,q)를 알게되면, 광원 방향 벡터

Figure kpo00015
를 계산할 수 있다.Since the image intensity is already given a value from the input image, once we know the slope (p, q) determined by the shape at that point, the light source direction vector
Figure kpo00015
Can be calculated.

광원 방향 벡터

Figure kpo00016
를 계산하기 위해, 도 4에 나타낸 것과 같은 p-q 공간에서의 반경 R인 원 내부에서의 상기 식의 양변에 대한 적분을 고려해보자.Light source direction vector
Figure kpo00016
To calculate, consider the integration of both sides of the equation inside a circle with radius R in the pq space as shown in FIG. 4.

광원 방향성분 t3는 아래의 적분으로부터 계산될 수 있다.The light source direction component t 3 can be calculated from the integral below.

Figure kpo00017
Figure kpo00017

상기 식의 우변의 3 항 중 p,q를 포함하는 두개의 항은 이들에 대한 함수 형태가 기함수 이므로 일정반경을 가진 원 내부에서의 적분값은 영이된다.Of the three terms on the right side of the equation, the two terms including p and q have integral functions, so the integral value inside the circle with a certain radius becomes zero.

따라서 t3에 대한 하나의 항만이 남게된다.Thus, only one term for t3 remains.

Figure kpo00018
Figure kpo00018

따라서, 광원 방향의 3번째 성분 t3는 다음과 같이 계산된다.Therefore, the third component t 3 in the light source direction is calculated as follows.

Figure kpo00019
Figure kpo00019

Figure kpo00020
Figure kpo00020

또한, 광원 방향성분 t1과 t2는 상기 피적분 함수에 p와 q를 각각 곱하여 적분하므로써 계산할 수 있다.Further, the light source direction components t 1 and t 2 can be calculated by multiplying the integral function by p and q respectively and integrating them.

즉, t1을 계산하고자 하는 경우 좌우변에 p를 곱한후 적분을 행한다.That is, when t 1 is to be calculated, the left and right sides are multiplied by p and then integrated.

Figure kpo00021
Figure kpo00021

Figure kpo00022
Figure kpo00022

따라서, t1은 다음과 같이 계산된다.Therefore, t 1 is calculated as follows.

Figure kpo00023
Figure kpo00023

t2역시 좌우변에 q를 곱한후 적분을 행하므로써 계산할 수 있다.t 2 can also be calculated by multiplying the left and right sides by q and then integrating.

Figure kpo00024
Figure kpo00024

따라서 광원 방향 벡터 (t1, t2, t3) 는 다음과 같이 표현된다.Therefore, the light source direction vectors t 1 , t 2 , t 3 are expressed as follows.

Figure kpo00025
Figure kpo00025

Figure kpo00026
Figure kpo00026

Figure kpo00027
Figure kpo00027

이때,

Figure kpo00028
Figure kpo00029
은 반경 R을 갖는 원에 대한 적분으로, 다음과 같이 반경 R에 대한 함수로 계산된다.At this time,
Figure kpo00028
and
Figure kpo00029
Is the integral for the circle with radius R, which is calculated as a function of radius R as

Figure kpo00030
Figure kpo00030

Figure kpo00031
Figure kpo00031

한편,

Figure kpo00032
Figure kpo00033
Figure kpo00034
의 계산 과정에서는 점 (p,q)에서의 h(x,y)값을 알아야 한다.Meanwhile,
Figure kpo00032
Wow
Figure kpo00033
And
Figure kpo00034
In the calculation of, we need to know the value of h (x, y) at point (p, q).

따라서 점(p,q)에 대응되는 점(x,y)를 구해야 하는데 이는 [수학식 8]을 써서 구할 수 있다.Therefore, the point (x, y) corresponding to the point (p, q) should be obtained by using Equation (8).

p0=0, q0=0 이라 하면 점(p,q)에 대한 대응점 점(x,y)는 아래와 같이 계산된다.If p 0 = 0 and q 0 = 0, the corresponding point (x, y) for the point (p, q) is calculated as follows.

Figure kpo00035
Figure kpo00035

따라서, 상기 수학식에서 얻어진 점(x,y)에서의 h(x,y)를 이용하여 적분값을 계산하게 된다.Therefore, the integral value is calculated using h (x, y) at the point (x, y) obtained in the above equation.

그러나 실제 이미지에서는 점(x,y)는 정수값으로 양자화 되어 있기 때문에 상기 식에서 계산된 점(x,y)가 정수값이 아닌 경우는 2차원 에서의 보간(interpolation) 방법을 써서 h(x,y) 값을 계산하게 된다.However, in the real image, since the point (x, y) is quantized to an integer value, if the point (x, y) calculated in the above equation is not an integer value, the interpolation method in two dimensions is used to h (x, y). y ) is calculated.

상기 방법에 의해 선정된, p-q space에서의 반경 R인 영역내의 적분을 통해 얻어진 광원 방향(t1,t2,t3)은, 형상을 기술하는 상수 m11, m12및 m22에 의해 결정되게 된다.The light source direction (t 1 , t 2 , t 3 ) obtained by integration in a region of radius R in pq space, selected by the method, is determined by the constants m 11 , m 12 and m 22 describing the shape. Will be.

따라서, 최적의 형상 상수를 얻기 위해서는 계산된 광원 방향과, 형상에서 얻어지는 면수직 벡터를 이용하여 계산된 이미지 인텐시티를, 입력된 이미지 인텐시티와 가장 잘 일치하도록 하는 최적화 과정을 통해서 이루어지게 된다.Therefore, in order to obtain an optimal shape constant, the image intensity calculated by using the calculated light source direction and the surface vertical vector obtained from the shape is made through an optimization process that best matches the input image intensity.

이미지 내의 선정된 영역(S)의 입력 이미지 인텐시티를 I(x,y)라 하고, 형상계수와 광원 방향에 의해 계산된 이미지 인텐시티를 h(x,y)라 하면, 영역 내의 각 점에서의 오차 값의 합인If the input image intensity of the selected area S in the image is I (x, y) and the image intensity calculated by the shape coefficient and the light source direction is h (x, y) , the error at each point in the area is Sum of values

Figure kpo00036
Figure kpo00036

을 최소화하는 형상 변수를 구하므로 써 광원 방향을 함께 얻을 수 있게 된다.We can obtain the direction of the light source by finding the shape variable that minimizes.

다음은, 몇몇의 범프 및 구에 대한 서로 다른 광원 방향에서 얻어진 이미지로부터 계산된 광원 방향을 계산하고, 그 결과를 표 1 및 표 2에 나타내었다.Next, the calculated light source directions are calculated from images obtained at different light source directions for some bumps and spheres, and the results are shown in Tables 1 and 2.

Figure kpo00037
Figure kpo00037

Figure kpo00038
Figure kpo00038

광원 방향은 기울기각 ( tilt )과 경사각(slant)으로 각각 표시하였으며 이들에 대한 정의를 도 5에 나타내었다.The direction of the light source was indicated by tilt and slant, respectively, and their definitions are shown in FIG. 5.

형상계수와 광원 방향 계산을 사용하여 얻어진 이미지의 예를 입력이미지와 함께 도 6 및 도 7에 나타내었다.Examples of images obtained using the shape coefficient and the light source direction calculation are shown in FIGS. 6 and 7 together with the input image.

얻어진 광원 방향은 기울기 각( tilt )과 경사각(slant)으로 각각 나타내었으며, 이들에 대한 정의를 도 7에 나타내었다.The obtained light source direction is represented by a tilt angle and a slant, respectively, and their definitions are shown in FIG. 7.

상기 방법에 의해 얻어진 광원 방향은, 입력 이미지의 쉐이딩 정보와 함께 이미지내의 물체영역의 각 위치에서의 형상 정보를 얻기 위해 사용된다.The light source direction obtained by the method is used to obtain the shape information at each position of the object area in the image together with the shading information of the input image.

형상정보는 물체영역의 각 위치에서의 면수직 벡터 또는 심도(depth)를 계산하므로써 얻을 수 있다.The shape information can be obtained by calculating the plane vertical vector or depth at each position of the object region.

얻어진 광원 방향 벡터를

Figure kpo00039
라 하고, 물체 영역의 특정 위치에서의 면수직 벡터를
Figure kpo00040
이라 하고, 이때의 물체 표면이 한 방향으로 입사한 빛이 모든 방향으로 균등하게 산란되는 렘버시안이라면, 물체영역의 각 위치에서의 이미지 인텐시티 R은 다음 식으로 표현된다.The obtained light source direction vector
Figure kpo00039
Let's say that the surface vertical vector at a specific position
Figure kpo00040
In this case, if the object surface at this time is a Lemversian in which light incident in one direction is uniformly scattered in all directions, the image intensity R at each position of the object region is expressed by the following equation.

Figure kpo00041
Figure kpo00041

이때, 이미지내의 특정 점으로부터 출발하여 계산되어지는 면수직 벡터

Figure kpo00042
와 이미지 좌표(x,y) 및 입력 이미지 인텐시티(h) 사이에는 다음과 같은 방정식에 의해 기술된다.At this time, the plane vertical vector is calculated starting from a specific point in the image.
Figure kpo00042
And between image coordinates (x, y) and input image intensity (h) are described by the following equation.

Figure kpo00043
Figure kpo00043

상기 식에서 Rn1, Rn2및 hx, hy등은 각각 n1, n2및 x, y에 대한 미분을 나타낸다.In the above formula, R n1 , R n2 and h x , h y and the like represent differentiation for n 1 , n 2 and x, y, respectively.

또한, 변수 t는 광원 방향벡터와는 무관한 이미지 좌표에서의 특성곡선상의 길이를 나타내는 변수이다(도 8 참조).Further, the variable t is a variable representing the length on the characteristic curve at the image coordinates irrelevant to the light source direction vector (see Fig. 8).

한편, 면수직 벡터

Figure kpo00044
은 형상의 표면 (x,y,z) 상의 적분초기 특성곡선에 의한 미분 벡터와는 항상 수직인 관계가 있다.Vector vertical
Figure kpo00044
There is always a vertical relationship with the derivative vector by the integrating initial characteristic curve on the silver-shaped surface (x, y, z).

이는 적분초기곡선, s는 항상 물체표면 상에서 정의되기 때문이다.This is because the integral initial curve, s, is always defined on the object surface.

따라서,

Figure kpo00045
의 조건이 적분 초기 곡선상의 모든 점에서 만족되어야 한다.therefore,
Figure kpo00045
The condition of must be satisfied at all points on the initial curve of integration.

이 조건을 이용하면 면수직 벡터의 정확도를 향상 시킬 수 있고, 따라서 심도 Z의 값도 정확도 향상이 이루어 지게 된다.By using this condition, the accuracy of the plane vertical vector can be improved, so that the value of depth Z is also improved.

이 추가된 조건에 의한 면수직 벡터의 계산은 다음의 세식을 사용하여 가능하다.The calculation of the plane vertical vector by this added condition is possible using the following formula.

Figure kpo00046
Figure kpo00046

한편, 첨자 s는 적분초기 곡선 상의 길이 변수 s에 대한 미분을 의미한다.The subscript s, on the other hand, means the derivative of the length variable s on the initial curve of integration.

상기의 계산 과정을 통해, 이미지내의 특정 위치에서의 면수직 벡터 정보를 알고 있는 경우, 이로부터 다른 주변의 영역에 대한 면수직 벡터와 심도의 계산이 가능하다.Through the above calculation process, when the surface vertical vector information is known at a specific position in the image, it is possible to calculate the surface vertical vector and the depth for the other peripheral region.

한편, 이미지 내의 특정 위치에서의 면수직 벡터에 대한 초기 정보가 없는 경우 상기의 방법이 적용되기 어려우므로, 심도의 계산을 위한 추가적인 방법이 필요하다.On the other hand, if there is no initial information on the plane vertical vector at a specific position in the image, the above method is difficult to apply, and thus an additional method for calculating the depth is needed.

얻어진 광원 방향의 기울기 각( tilt )이 τ이고 경사각(slant)이 σ라 하면, 형상의 기울기 공간 p-q에서의 이미지 인텐시티 h는 다음과 같은 식으로 표현된다.If the obtained tilt angle tilt in the light source direction is τ and the slant angle is σ, the image intensity h in the tilt space p-q of the shape is expressed by the following equation.

Figure kpo00047
Figure kpo00047

이때, ps, qs는 광원 방향에 대한 값으로 ps= (cosτsinσ)/cosσ, qs= (sinτsinσ)/cosσ 이다.In this case, p s and q s are values for the direction of the light source, and p s = (cosτsinσ) / cosσ and q s = (sinτsinσ) / cosσ.

한편, 심도 Z에 대한 이미지 좌표 공간에서의 미분치로 정의되는 p 및 q를 다음과 같이 쓸 수 있으므로On the other hand, p and q defined as derivatives in the image coordinate space for depth Z can be written as

Figure kpo00048
Figure kpo00048

상기의 이미지 인텐시티에 대한 식은 다음과 같이 표현될 수 있다.The equation for the image intensity can be expressed as follows.

Figure kpo00049
Figure kpo00049

주어진 이미지 세기(h)와 고정점(x,y)에서, 특정한 값으로 주어진 심도(Zn-1)에 대한 함수(f)의 테일러 시리즈 전개를 통한 선형 근사와 반복 계산을 사용하면, 해를 구할 수 있게 된다.Using a linear approximation and iterative calculation with the Taylor series expansion of the function (f) for a given depth (Z n-1 ) at a given value, at a given image intensity (h) and fixed point (x, y), Will be available.

즉,In other words,

Figure kpo00050
Figure kpo00050

n-번째 계산에서의 심도 Z는 다음과 같이 표현된다.Depth Z in the n-th calculation is expressed as follows.

Figure kpo00051
Figure kpo00051

이때,At this time,

Figure kpo00052
Figure kpo00052

따라서, 이미지 영역내에서의 면수직 벡터에 대한 적분 초기값이 알려져 있지 않은 경우, 상기의 반복계산 방법을 통하여 심도 Z를 구하므로써, 물체 형상에 대한 정보를 얻을 수 있다.Therefore, when the integral initial value for the surface vertical vector in the image region is not known, information on the object shape can be obtained by obtaining the depth Z through the above iterative calculation method.

앞에서 설명한 쉐이딩 정보를 가진 이미지로부터 형상정보인 심도를 복원하고, 복원된 심도로 부터 다른 관찰 방향에서의 이미지를 복원하기 위한 방법을 기술하고자 한다.A method for restoring depth, which is shape information, from an image having shading information described above, and restoring an image in a different viewing direction from the restored depth.

먼저 계산된 심도가 Z(x,y)라 하고, 항상 이미지의 입력은 관찰방향과 수직인면에서 이루어 진다고 가정한다.First, the calculated depth is called Z (x, y), and it is always assumed that the input of the image is made in the plane perpendicular to the viewing direction.

먼저 심도 Z(x,y)를 갖는 물체표면이, x-y에 수직인 방향에서 입력된 이미지의 인텐시티를 h(x,y)라 하면, 표면이 렘버시안인 경우 관찰각이 바뀌더라도 그 점에서의 인텐시티는 동일하게 유지 된다.First, if the surface of an object with depth Z (x, y) is the intensity of the input image in the direction perpendicular to xy, h (x, y), if the surface is Lemversian, even if the angle of observation changes, Intensity remains the same.

따라서, 관찰방향 변화에 따른 각 점에서의 인텐시티의 변화는 없다.Therefore, there is no change in intensity at each point due to the change in the observation direction.

도 9에는 x-y 평면상에 나타나는 표면의 심도 Z의 한 예를 x-축에 따른 변화만을 나타내었다.In FIG. 9, only one variation of the depth Z of the surface appearing on the x-y plane is shown along the x-axis.

이미지 입력 방향과 새로운 관찰 방향이 아래 도 9에서와 같이, θ만큼 차이가 나는 경우로, 이 경우는 마치 우측 눈을 통해서 관찰하는 경우와 유사하다.As shown in FIG. 9, the image input direction and the new viewing direction are different by θ, which is similar to the case of observation through the right eye.

이때 점 x0의 위치를 고려해 보면, 관찰 방향이 θ만큼 기울어지는 경우 새로운 관찰 방향에 대한 수직면이 θ만큼 기울어지게 되어, 새로운 평면 x'-y'에서의 위치 x0'는 x0cosθ가 된다.Considering the position of the point x 0 , when the observation direction is inclined by θ, the vertical plane to the new viewing direction is inclined by θ, and the position x 0 'in the new plane x'-y' becomes x 0 cosθ. .

한편, 이 때 이동되는 정도는 관찰각의 크기 뿐만 아니라, 그 점에서의 심도 Z에 의한 영향도 받게 된다.On the other hand, the degree of movement at this time is influenced not only by the magnitude of the observation angle but also by the depth Z at that point.

즉, 심도가 Z일 때 이로 인한 영향 Δ1z'은 Zsinθ가 된다.That is, when the depth is Z, the effect Δ1 z ′ is Zsinθ.

상기 그림에서 정의된 관찰각 θ가 양의 부호를 갖는 경우, 심도에 의한 영향은 -x 축 방향으로의 이동을 주게되어, 결과적으로 아래와 같은 관계가 성립하게 된다.When the observation angle θ defined in the above figure has a positive sign, the effect of depth gives a shift in the -x axis direction, and as a result, the following relationship is established.

Figure kpo00053
Figure kpo00053

이때 y 방향의 점들의 이동은 없다.At this time, there is no movement of the points in the y direction.

왜냐하면 관찰 방향의 변화가 y-축을 회전축으로 하여이루어졌기 때문이다.This is because the change in the observation direction is made with the y-axis as the rotation axis.

한편, 관찰방향이 좌측의 눈을 통해서 관찰하는 것과 같은 경우(θ가 음의 부호를 갖는 경우)를 고려하면, 상기의 경우와 비슷하나 심도에 의한 영향만 그 부호가 바뀌게 된다.On the other hand, considering the case where the observation direction is observed through the left eye (theta has a negative sign), the sign is similar to the above case, but only the influence by the depth is changed.

따라서 아래와 같은 관계가 성립한다.Therefore, the following relationship holds.

Figure kpo00054
Figure kpo00054

한편, 상기의 관계식에 의해 x-좌표를 변환하게 되는 경우, 변수인 x0, θ 및 Z의 조합에 의해 동일한 x0' 값을 갖는 경우가 발생한다.On the other hand, when the x-coordinate is converted by the relational expression above, a case in which the same x 0 'value occurs by a combination of variables x 0 , θ, and Z occurs.

즉, 복수개의 x-좌표값이 동일한 x'-좌표값을 갖게되는 경우가 발생하게 된다.That is, a case where a plurality of x-coordinate values have the same x'-coordinate value occurs.

위의 그림에서는 x0및 x1의 점이 x0'의 한점에 일치되는 경우를 예로 나타내어 보였다.The above figure shows an example where the points of x 0 and x 1 coincide with one point of x 0 '.

이러한 경우에는 x0' 위치에 x0또는 x1의 인텐시티 중 어느 것이 최종적으로 할당되어야 하는 지를 결정해 주어야 한다.In this case, it should be determined whether the intensity of x 0 or x 1 should be finally assigned to the x 0 'position.

위의 우안관찰의 경우에 있어서는, x-좌표의 값이 큰 경우가 최종적으로 되는 경우가 많으므로, 배치 순서를 x-값이 낮은 쪽에서 높은 쪽으로 진행하면 되고, 반대로 좌안관찰의 경우 배치 순서를 반대로 해 주어야 한다.In the case of the right eye observation above, the case where the value of the x-coordinate is often large is final, so the arrangement order can be advanced from the lower side of the x-value to the higher. You must do it.

다른 한가지의 문제점은, 실제 이미지에서 상기의 문제를 다루는 경우 모든 좌표값이 양자화 되기 때문에, x'-좌표상의 특정 점에는 전혀 배치가 일어나지 않는 경우가 발생할 수 있다.Another problem is that when all the coordinate values are quantized when dealing with the above problem in a real image, no placement may occur at a particular point on the x'-coordinate.

이러한 경우, 배치가 일어나지 않은 점에서의 인텐시티 값을 어떻게 지정해 주어야 하는가 하는 문제가 생기게 된다.In this case, there arises a problem of how to specify the intensity value at the point where no arrangement occurs.

일차적으로 전체에 대한 배치를 실행한 후, 배치가 이루어 지지 않은 점들을 선별해서 좌우의 값을 이용하여 좌우의 평균값을 취해 주거나, 여러 점에서 연속적으로 배치가 이루어지지 않은 경우, 보간 방법을 사용하여 계산된 인텐시티를 할당해 주어야 한다.After performing the placement of the whole, first, select the unplaced points and take the left and right average values using the left and right values, or if the arrangement is not performed continuously at several points, use the interpolation method. You need to allocate the calculated intensity.

도 10에는 모짜르트 이미지를 이용하여 복원한 심도로부터, 각각 좌안관찰 이미지 및 우안관찰 이미지를 복원한 그림을 보여주고 있다.FIG. 10 shows a picture obtained by reconstructing a left eye observation image and a right eye observation image from a depth reconstructed using a Mozart image.

이때 관찰거리를 30 cm로 하고 양안간의 거리를 7 cm로 하여, 이때의 양안의 관찰각은 각각 6.7°가 된다.At this time, the observation distance is 30 cm and the distance between both eyes is 7 cm, and the observation angles of both eyes at this time are 6.7 °, respectively.

따라서, 작은 관찰각으로 인해 본래의 이미지와 새로운 관찰각에서 복원된 이미지 사이에는 아주 미소한 차이가 있게 된다.Thus, the small viewing angle results in a very small difference between the original image and the image reconstructed at the new viewing angle.

한편, 도 8의 좌안 이미지 및 우안 이미지를 이용하여 3차원 입체이미지를 디스플레이 시키는 방법은, 좌안 및 우안 앞에 셔터를 설치하여 좌안 이미지와 우안 이미지가, 좌안 및 우안에 번갈아 가면서 들어오게 하므로써 가능하게 된다.On the other hand, a method of displaying a three-dimensional stereoscopic image using the left eye image and the right eye image of FIG. 8 is possible by installing a shutter in front of the left eye and the right eye so that the left eye image and the right eye image alternately enter the left eye and the right eye. .

이상에서 상세히 설명한 바와 같이 본 발명은, 이미지로부터 조명광의 방향을 추정하기 위해, 이미지 내에 분포하는 볼록한 면으로 이루어진 영역들을 찾아내고, 이 영역들에 대해 범프 형상의 근사를 통하여 조명광 방향을 구하는 방법으로, 기존의 이미지 영역 전체의 모든 점에서 구의 형상으로 근사될 수 있다는 가정을 기본으로 하는 방법에 비해 보다 정확한 조명광의 방향을 구할 수 있다.As described in detail above, in order to estimate the direction of the illumination light from the image, the present invention finds regions of convex surfaces distributed in the image, and calculates the illumination light direction through the bump-shaped approximation for these regions. Therefore, a more accurate direction of the illumination light can be obtained compared to the method based on the assumption that it can be approximated to the shape of a sphere at all points of the entire image area.

특히, 광원 방향을 계산하기 위해 최적화에 사용되는 변수가, 범프형상을 기술하는 변수로써 3개 만을 사용하므로, 보다 단순한 최적화 과정을 사용할 수 있다.In particular, since only three variables used for optimization to calculate the light source direction are used as variables describing the bump shape, a simpler optimization process can be used.

상기 방법에서 구한 광원 방향을 이용하여 쉐이딩 정보를 갖는 이미지로부터 물체 영역의 심도를 구하고, 좌안 및 우안 이미지를 재구성하여 좌안 및 우안에 번갈아 가면서 디스플레이 시킴으로써, 하나의 이미지로부터 쉐이딩을 갖는 물체에 대한 3차원 영상을 얻을 수 있게 해준다.Depth of the object area from the image with shading information using the light source direction obtained in the method, and by reconstructing the left eye and right eye images and displaying the left and right eyes alternately, the three-dimensional image of the object with shading from one image It allows you to get a video.

이 방법은 기존의 두개이상의 이미지를 사용하는 경우보다 훨씬 간단한 이미지 입력 장치로 3차원 영상의 디스플레이를 가능하게 해준다.This method enables the display of three-dimensional images with a much simpler image input device than when using two or more images.

Claims (6)

이차원 입력 이미지 내의 쉐이딩 영역으로 부터 조명광의 방향을 추정하고 추정된 광원 방향과 쉐이딩 영역의 정보를 이용하여 쉐이딩을 갖는 물체의 심도를 계산하므로써 삼차원 이미지를 디스플레이 시키는 방법에 있어서, 조명광의 방향을 추정해내기 위해 이차원 입력 이미지 내에 존재하는 볼록한 곡면 영역들을 검출해내는 제 1 과정(100)과 ; 상기 제 1 과정(100)에서 검출된 볼록한 영역들에 대해 이들 영역의 이미지 인텐시티와 가장 잘 일치되도록 하는 볼록형상을 근사시키는 제 2 과정(200) ; 상기 제 2 과정(200)의 형상 근사의 과정을 통해 조명광의 방향을 결정하는 제 3 과정(300) ; 상기 제 3 과정(300)에서 추정된 광원 방향과 쉐이딩을 갖는 이차원 입력 이미지로부터 심도를 계산하는 제 4 과정(400) ; 상기 제 4 과정(400)에서 계산된 심도를 이용하여 관찰자의 좌안 이미지 및 우안 이미지를 이차원 입력 이미지로부터 재구성하는 제 5 과정(500) 및 ; 관찰자의 좌안 및 우안에 상기 제 5 과정(500)에서 재구성된 좌안 및 우안 이미지를 번갈아가면서 디스플레이 시키는 제 6 과정(600)을 포함하는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.In the method of displaying a three-dimensional image by estimating the direction of the illumination light from the shading region in the two-dimensional input image and calculating the depth of the object having shading by using the estimated light source direction and the information of the shading region, the direction of the illumination light is estimated. A first process (100) of detecting convex curved areas existing in the two-dimensional input image to produce; A second process (200) of approximating a convex shape for the convex regions detected in the first process (100) to best match the image intensity of these regions; A third process (300) of determining a direction of illumination light through a shape approximation process of the second process (200); A fourth step 400 of calculating a depth from a two-dimensional input image having a light source direction and shading estimated in the third step 300; A fifth process (500) of reconstructing the left eye image and the right eye image of the observer from the two-dimensional input image using the depth calculated in the fourth process (400); And a sixth step (600) of alternately displaying the left and right eye images reconstructed in the fifth step (500) in the observer's left and right eyes. 제1항에 있어서, 상기 제 1 과정(100)은, 이미지 평면을 x-y평면, 관찰 방향을 z-방향이라 할 때, (1,0,1) 방향, (0,1,1) 방향 및 (0,0,1) 방향에 대한 변환식 F101(x,y), F11(x,y) 및 F1(x,y)를 아래의 수학식과 같이 구하는 제 1 단계와 ;The method of claim 1, wherein the first process 100 includes a (1,0,1) direction, a (0,1,1) direction, and ( A first step of obtaining the conversion equations F 101 (x, y), F 11 (x, y) and F 1 (x, y) for the 0,0,1) direction as shown in the following equation;
Figure kpo00055
Figure kpo00055
상기 변환식들의 합이 영이되도록 규격화하는 제 2 단계와 ; 상기 변환식들에 의해 변환된 값(F'[h(x,y)])에 대해 평균값(F'[h(x,y)]avg), 최소값(F'[h(x,y)]min) 및 최대값(F'[h(x,y)]max)을 구하는 제 3 단계와 ; 상기에서 구한 평균값(F'[h(x,y)]avg), 최소값(F'[h(x,y)]min) 및 최대값(F'[h(x,y)]max)을 사용하여 A값이 0.3~0.7의 범위를 갖는 아래 3개의 조건A second step of normalizing the sum of the conversion equations to zero; The value (F converted by said conversion equation '([h (x, y )] avg [h (x, y)]) mean value F) for a ", the minimum value (F' [h (x, y)] min ) And a third step of obtaining the maximum value F '[h (x, y) ] max ); The average value (F '[h (x, y) ] avg ) obtained above, the minimum value (F' [h (x, y) ] min ), and the maximum value (F '[h (x, y) ] max ) are used. 3 conditions under which A value is 0.3 ~ 0.7
Figure kpo00056
Figure kpo00056
을 동시에 만족하는 이미지 인텐시티 h(x,y)영역을 검출하는 제 4 단계 및 ; 이차원 입력 이미지로부터 상기의 이미지 인텐시티 h(x,y)영역을 삭제한 나머지 영역을 볼록 형상 영역으로 선정하는 제 5 단계를 포함하여 이루어지는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.Detecting a region of image intensity h (x, y) that satisfies simultaneously; And a fifth step of selecting the remaining area from which the image intensity h (x, y) area is deleted from the two-dimensional input image as a convex shape area.
제1항에 있어서, 상기 검출된 볼록 형상 영역에서의 광원 방향 벡터(t1, t2, t3)의 계산 과정은, 형상에 대한 근사를 통해 심도의 기울기 공간 p,q가The method of claim 1, wherein the calculation process of the light source direction vector (t 1 , t 2 , t 3 ) in the detected convex region comprises: the slope space p, q of the depth through approximation to the shape.
Figure kpo00057
로 기술되는 p-q공간에서, 반경 R을 갖는 원에 대한 적분을 통해 구하는 방법으로, 다음과 같은 식으로 표현되며,
Figure kpo00057
In the pq space described by, the method is obtained by integrating a circle with a radius R, which is expressed as
Figure kpo00058
Figure kpo00058
이때,
Figure kpo00059
과 φ(R)은 각각,
At this time,
Figure kpo00059
And φ (R) are
Figure kpo00060
Figure kpo00060
로 계산되는 광원 방향 벡터 계산 단계를 포함하여 이루어지는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.Comprising a step of calculating the light source direction vector calculated by the three-dimensional image display method from a two-dimensional image.
제1항에 있어서, 상기 광원 방향과 쉐이딩을 갖는 입력 이미지로부터 계산된 심도를 이용하여 3차원 입체 이미지를 디스플레이 하기 위해 관찰자의 좌안 이미지 및 우안 이미지를 재구성하는 방법은, 입력 이미지의 인텐시티가 h(x,y)이고 심도가 Z(x,y)인 경우, 이에 상응하는 좌안 이미지의 재구성은 재구성된 이미지 인텐시티를 h'(x',y')라 할때, 재구성된 이미지 좌표 (x',y')=(x cosθ+ Z sinθ, y)에 입력 이미지 인텐시티 h(x,y)를 사용하는 단계와 ; 우안 이미지의 재구성은 재구성된 이미지 좌표 (x',y') = (x cosθ+ Z sinθ, y)에 입력 이미지 인텐시티 h(x,y)를 사용하는 단계를 포함하여 이루어지는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.The method of claim 1, wherein the viewer's left eye image and right eye image are reconstructed to display a three-dimensional stereoscopic image using a depth calculated from the input image having the light source direction and shading. x, y) and the depth is Z (x, y), the corresponding reconstruction of the left eye image assumes that the reconstructed image intensity is h '(x', y '). using the input image intensity h (x, y) for y ') = (x cosθ + Z sin θ, y); Reconstruction of the right eye image comprises using the input image intensity h (x, y) at the reconstructed image coordinates (x ', y') = (x cosθ + Z sinθ, y) Image display method. 제4항에 있어서, 상기 관찰자의 좌안 이미지 및 우안 이미지를 재구성하는 방법은, 복수개의 입력 이미지 인텐시티가 재구성되는 이미지의 동일한 좌표에 상응하게 되는 경우, 좌안 이미지의 경우에 있어서는 x-좌표의 값이 가장 작은 경우의 입력 이미지 인텐시티를 최종적인 재구성 이미지의 인텐시티로 사용하는 단계와 ; 우안 이미지의 경우 x-좌표의 값이 가장 큰 경우의 입력이미지 인텐시티를 최종적인 재구성 이미지의 인텐시티로 사용하는 단계를 포함하여 이루어지는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.The method of claim 4, wherein the method of reconstructing the left eye image and the right eye image of the observer comprises: when a plurality of input image intensities correspond to the same coordinates of the image to be reconstructed, the value of the x-coordinate in the case of the left eye image is increased. Using the input image intensity of the smallest case as the intensity of the final reconstructed image; A method of displaying a three-dimensional image from a two-dimensional image, comprising using the input image intensity when the value of the x-coordinate is the largest in the right eye image as the intensity of the final reconstructed image. 제4항에 있어서, 상기 관찰자의 좌안 이미지 및 우안 이미지를 재구성하는 방법은, 재구성되는 이미지의 특정 좌표에 상응하는 입력이미지의 좌표를 하나도 갖지 못할 경우, 이 특정 좌표에서의 인텐시티 계산을 위해 재구성된 주변 좌표의 인텐시티를 이용한 2차원 보간 방법을 사용하는 단계를 포함하여 이루어지는, 이차원 이미지로부터의 삼차원 이미지 디스플레이 방법.The method of claim 4, wherein the method of reconstructing the left eye image and the right eye image of the observer comprises: reconstructing the image to calculate the intensity at the specific coordinates when none of the input image coordinates correspond to the specific coordinates of the image to be reconstructed. A method of displaying a three-dimensional image from a two-dimensional image, comprising the step of using a two-dimensional interpolation method using the intensity of peripheral coordinates.
KR1019970032646A 1997-07-14 1997-07-14 Method for displaying three dimensional image from two dimensional image KR100259837B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019970032646A KR100259837B1 (en) 1997-07-14 1997-07-14 Method for displaying three dimensional image from two dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019970032646A KR100259837B1 (en) 1997-07-14 1997-07-14 Method for displaying three dimensional image from two dimensional image

Publications (2)

Publication Number Publication Date
KR19990010028A KR19990010028A (en) 1999-02-05
KR100259837B1 true KR100259837B1 (en) 2000-06-15

Family

ID=19514392

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019970032646A KR100259837B1 (en) 1997-07-14 1997-07-14 Method for displaying three dimensional image from two dimensional image

Country Status (1)

Country Link
KR (1) KR100259837B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010011382A (en) * 1999-07-27 2001-02-15 성필문 ROM Which is Recorded the Method for Converting for One Still Image to Stereoscopic Image
KR101556593B1 (en) 2008-07-15 2015-10-02 삼성전자주식회사 Method for Image Processing
KR100980298B1 (en) * 2010-05-06 2010-09-06 엠진 (주) A method for trasnforming modeled 2d image to 3d image

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920019203A (en) * 1991-03-04 1992-10-22 쯔지 하루오 Apparatus and Method for Generating Stereoscopic Images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR920019203A (en) * 1991-03-04 1992-10-22 쯔지 하루오 Apparatus and Method for Generating Stereoscopic Images

Also Published As

Publication number Publication date
KR19990010028A (en) 1999-02-05

Similar Documents

Publication Publication Date Title
Huhle et al. Fusion of range and color images for denoising and resolution enhancement with a non-local filter
Sato et al. Object shape and reflectance modeling from observation
Newcombe et al. Live dense reconstruction with a single moving camera
Fua et al. Object-centered surface reconstruction: Combining multi-image stereo and shading
JP4204670B2 (en) Volume data representation system
Podsiadlo et al. Characterization of surface topography of wear particles by SEM stereoscopy
US20090052767A1 (en) Modelling
US6219063B1 (en) 3D rendering
Bülthoff et al. Integration of stereo, shading and texture
US20100085359A1 (en) Surface normal reconstruction from a single image
US20110235933A1 (en) Method for Reconstructing Surfaces of Specular Object from Sparse Reflection Correspondences
Jordan III et al. Using chromatic information in dense stereo correspondence
Suresh et al. PMENet: phase map enhancement for Fourier transform profilometry using deep learning
Negahdaripour et al. Recovering shape and motion from undersea images
Maurer et al. Combining Shape from Shading and Stereo: A Variational Approach for the Joint Estimation of Depth, Illumination and Albedo.
US6512844B2 (en) 3D rendering
KR100259837B1 (en) Method for displaying three dimensional image from two dimensional image
CN116977595A (en) Cultural relic three-dimensional reconstruction method based on normal optimization
Yu et al. Shape and view independent reflectance map from multiple views
Soh et al. Texture mapping of 3D human face for virtual reality environments
Clark Photometric stereo with nearby planar distributed illuminants
Elhabian Hands on shape from shading
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
Aliaga Digital inspection: An interactive stage for viewing surface details
Garcia et al. A generic synthetic image generator package for the evaluation of 3D Digital Image Correlation and other computer vision-based measurement techniques

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140227

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20150226

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20160226

Year of fee payment: 17

LAPS Lapse due to unpaid annual fee