KR100259837B1 - Method for displaying three dimensional image from two dimensional image - Google Patents
Method for displaying three dimensional image from two dimensional image Download PDFInfo
- Publication number
- KR100259837B1 KR100259837B1 KR1019970032646A KR19970032646A KR100259837B1 KR 100259837 B1 KR100259837 B1 KR 100259837B1 KR 1019970032646 A KR1019970032646 A KR 1019970032646A KR 19970032646 A KR19970032646 A KR 19970032646A KR 100259837 B1 KR100259837 B1 KR 100259837B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- dimensional
- intensity
- input image
- light source
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/514—Depth or shape recovery from specularities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
Abstract
Description
본 발명은 이차원 이미지로부터 삼차원의 이미지를 생성해내는 영상 처리 방법에 관한 것으로서, 특히, 쉐이딩(shading) 정보로부터 조명광의 방향을 추정해내고, 계산된 심도로부터 좌,우안에 해당하는 두장의 영상을 생성해 내는 방법에 관한 것이다.The present invention relates to an image processing method for generating a three-dimensional image from a two-dimensional image, in particular, to estimate the direction of the illumination light from the shading (shading) information, and to calculate the two images corresponding to the left and right eyes from the calculated depth It's about how to create it.
이미지로부터 광원의 방향에 대한 정보를 얻기 위한 종래의 기술로는 이미지내의 모든 점들에서의 물체 형상을 구로 근사 시키는 방법이 있다.Conventional techniques for obtaining information about the direction of a light source from an image include a method of approximating the shape of an object at all points in the image with a sphere.
상기의 방법들에서는 광원의 방향을 이미지 미분치의 분포로부터 계산 하였는데, 면수직 벡터의 분포가 모든 방향에 대해 균등한 분포를 가진다고 가정하고서, 광원 방향에 따라 가장 가능성 있는 분포와의 연관성으로부터 광원 방향을 추정하게 된다.In the above methods, the direction of the light source was calculated from the distribution of the image derivatives. Estimate.
그러나, 이러한 종래의 방법에 있어서는, 이미지 내의 모든 영역에서 구 형상으로의 근사를 가정했기 때문에, 전체적으로 구면과 같은 부드러운 곡면 만으로 이루어진 이미지에 대해서는 어느 정도 적용가능하나, 각진 부분과 같은 불연속적인 형상이 있는 경우에는 정확도가 현저히 떨어지며, 모든 영역이 부드러운 곡선으로 이루어 졌다 할지라도, 원통이나 럭비공 모양에서처럼 면수직 벡터의 분포가 모든 방향에 대해 균등하지 못한 경우 오차가 발생하게 된다.However, in this conventional method, since the approximation to the spherical shape is assumed in all regions in the image, it is somewhat applicable to an image composed only of a smooth curved surface such as a spherical surface, but there is a discontinuous shape such as an angled part. In this case, the accuracy is significantly lower, and even if all the regions are smoothly curved, an error occurs when the distribution of surface vertical vectors is not uniform in all directions, such as in a cylindrical or rugby ball shape.
또한, 기존의 방법에서는 이미지 데이터의 미분치를 사용하므로, 이미지 데이터에 포함되어 있는 노이즈 성분으로 인해 그 정확도는 현저히 떨어지게 된다.In addition, since the conventional method uses the derivative value of the image data, its accuracy is significantly reduced due to the noise component included in the image data.
또한 2차원 이미지로부터 3차원 이미지를 얻기 위한 기존의 방법에서는, 서로 다른 관찰각에서 얻어진 두개의 이미지를 사용하는데 이 경우, 두개의 서로 다른 관찰방향을 갖는 이미지 입력장치가 동시에 작동되어 입력 이미지를 얻어야 하며, 이를 위해 두개의 입력장치 사이의 거리를 항상 일정하게 유지시켜주어야 하며, 물체가 위치하는 거리에 따라 입력장치의 방향 및 초점거리를 적절히 조절해 주어야 하는 번거로움이 있다.In addition, in the conventional method for obtaining a 3D image from a 2D image, two images obtained from different viewing angles are used. In this case, an image input device having two different viewing directions must be operated simultaneously to obtain an input image. To this end, the distance between the two input devices must be kept constant at all times, and there is an inconvenience in that the direction and focal length of the input device must be properly adjusted according to the distance where the object is located.
본 발명은 상기의 문제점을 해결하기 위하여 창안된 것으로서, 이미지로부터 조명광의 방향을 추정하기 위해, 이미지 내에 분포하는 볼록한 면으로 이루어진 영역들을 찾아내고, 이 영역들에 대해 범프(bump) 형상의 근사를 통하여 보다 정확한 조명광의 방향을 구할 수 있는 방법과, 상기 방법에 의해 구해진 광원 방향을 이용하여, 쉐이딩 정보를 갖는 이미지로부터 물체 영역의 심도를 구하고, 좌안 및 우안 이미지를 재구성하여 좌안 및 우안에 번갈아 가면서 디스플레이 시킴으로써, 하나의 이미지로부터 쉐이딩을 갖는 물체에 대한 3차원 영상을 얻을 수 있는 방법을 제공함을 그 목적으로 한다.The present invention was devised to solve the above problems, and in order to estimate the direction of the illumination light from the image, the regions of convex surfaces distributed in the image are found, and a bump shape approximation is applied to these regions. By using the method to obtain a more accurate direction of the illumination light, and using the light source direction obtained by the method, to obtain the depth of the object area from the image having the shading information, and to reconstruct the left and right eyes image alternately left and right eyes The object of the present invention is to provide a method of obtaining a three-dimensional image of an object having shading from one image.
제1도는 면수직 방향과 조명광 방향 그리고 관찰방향의 상호 관계를 나타내는 도면,1 is a view showing the relationship between the surface vertical direction, the illumination light direction and the observation direction,
제2도는 볼록형상 면을 선정하기 위한 7x7 크기의 필터 예로서 x-미분 필터와 y-미분 필터 그리고 가오시안 필터를 보여주는 도면,2 is a 7-by-7 filter for selecting convex planes, showing an x-differential filter, a y-differential filter, and a Gaussian filter,
제3도는 입력 이미지로부터 선정된 볼록형상 영역의 예를 나타내는 도면,3 is a diagram showing an example of a convex region selected from an input image;
제4도는 광원방향 벡터와 경사각 및 기울기각의 상호 관계를 나타내는 도면,4 is a view showing a relationship between a light source direction vector and an inclination angle and an inclination angle,
제5도는 범프 형상의 입력 이미지 및 계산된 형상계수와 광원방향 이미지로부터 계산된 이미지를 보여주는 도면,5 is a view showing an image calculated from an input image of a bump shape and a calculated shape coefficient and a light source direction image;
제6도는 구 형상의 입력 이미지 및 계산된 형상계수와 광원방향 이미지로부터 계산된 이미지를 보여주는 도면,6 is a view showing an image calculated from a spherical input image and a calculated shape coefficient and a light source direction image;
제7도는 x-y 공간 및 p-q 공간에서의 적분 영역 및 대응점의 예를 나타내는 도면,7 is a diagram showing an example of an integrated region and a corresponding point in an x-y space and a p-q space;
제8도는 특성곡선 및 적분초기곡선을 나타내는 도면,8 is a diagram showing a characteristic curve and an initial curve of integration;
제9도는 우안 이미지 재구성을 위한 좌표변환의 개념을 나타내는 도면,9 is a view showing a concept of coordinate transformation for reconstructing the right eye image,
제10도는 입력 이미지 및 재구성된 좌안과 우안 이미지를 보여주는 도면,10 illustrates an input image and a reconstructed left and right eye image,
제11도는 본 발명에 따라 이차원 이미지로부터 삼차원 이미지를 생성하기 위한 처리도이다.11 is a process diagram for generating a three-dimensional image from a two-dimensional image according to the present invention.
상기와 같은 목적을 달성하기 위하여 창안된 본 발명에 따라, 이차원 이미지로 부터의 삼차원 이미지 디스플레이 방법은, 조명광의 방향을 추정해내기 위해 이차원 입력 이미지 내에 존재하는 볼록한 곡면 영역들을 검출해내는 제 1 과정(100)과 ; 상기 제 1 과정(100)에서 검출된 볼록한 영역들에 대해 이들 영역의 이미지 인텐시티와 가장 잘 일치되도록 하는 볼록형상을 근사시키는 제 2 과정(200) ; 상기 제 2 과정(200)의 형상 근사의 과정을 통해 조명광의 방향을 결정하는 제 3 과정(300) ; 상기 제 3 과정(300)에서 추정된 광원 방향과 쉐이딩을 갖는 이차원 입력 이미지로부터 심도를 계산하는 제 4 과정(400) ; 상기 제 4 과정(400)에서 계산된 심도를 이용하여 관찰자의 좌안 이미지 및 우안 이미지를 이차원 입력 이미지로부터 재구성하는 제 5 과정(500) 및 ; 관찰자의 좌안 및 우안에 상기 제 5 과정(500)에서 재구성된 좌안 및 우안 이미지를 번갈아가면서 디스플레이 시키는 제 6 과정(600)을 포함하는 것을 특징으로 한다.According to the present invention devised to achieve the above object, the three-dimensional image display method from the two-dimensional image, the first process of detecting the convex curved areas existing in the two-dimensional input image to estimate the direction of the
이하 첨부된 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.
일반적으로, 반사물체에 의한 이미지는 조명광으로부터 나온 빛이 물체 표면에서 반사되어 관찰자에게 관찰되므로써 형성되는데, 물체 표면의 반사율이 동일한 경우라 하더라도, 조명광과 물체 표면이 이루는 각도에 의해서 반사되는 빛의 양이 달라지게 되어 쉐이딩이 일어나게 된다.In general, an image generated by a reflecting object is formed by reflecting light from an illumination light on an object surface and being observed by an observer. Even if the reflectance of the object surface is the same, the amount of light reflected by an angle formed by the illumination light and the object surface is the same. This will change the shading.
이러한 쉐이딩 정보는 물체의 형상과 밀접한 관계가 있기 때문에, 물체의 형상을 복원하기 위한 정보로 매우 유용하다.Since the shading information is closely related to the shape of the object, it is very useful as information for restoring the shape of the object.
그러나, 물체의 쉐이딩 정보로부터 형상 정보를 얻어내는 방법들에 있어서는 조명광의 방향에 대한 정보가 필수적이나, 이미지에는 광원 방향에 대한 정보가 별도로 주어지지 않기 때문에, 이미지로부터 광원 방향을 추정해내는 것은 형상복원을 위해 필수적인 과정인 것이다.However, in the methods of obtaining the shape information from the shading information of the object, information on the direction of the illumination light is essential, but since the information on the direction of the light source is not separately given to the image, estimating the direction of the light source from the image is a shape. It is an essential process for restoration.
본 발명에서는, 조명광의 방향에 대한 정보를 이미지 내에 있는 볼록형상 부분을 이용하여 얻고자 하기 때문에, 이미지 내에 볼록형상을 갖고 있는 영역을 선별하는 과정이 필요하다.In the present invention, since information on the direction of the illumination light is to be obtained by using the convex portion in the image, a process of selecting a region having the convex shape in the image is necessary.
이를 위해 본 발명에서는, 볼록 형상의 검출에 적합한 필터를 사용하는데 두개의 미분 필터와 하나의 가오시안 형태의 필터를 사용한다.To this end, the present invention uses a filter suitable for the detection of convex shapes, and uses two differential filters and one gaotian filter.
이때 이 필터는, 광원이 렘버시안 특성을 갖는 특정 볼록형상을 이미지 좌표의 (1,0,1) 방향, (0,1,1) 방향 및 (0,0,1) 방향에서 비추고 있을 때 생성되는 이미지와 같은 형태의 것을 사용한다.This filter is created when the light source illuminates a certain convex shape having a Lemberian characteristic in the (1,0,1), (0,1,1) and (0,0,1) directions of the image coordinates. Use the same type of image that is being used.
좀 더 구체적으로 설명하면,More specifically,
와 같은 식에 의해 기술되는 볼록형상이 있는 경우, (1,0,1) 방향, (0,1,1) 방향 및 (0,0,1) 방향에 대한 필터를 각각 F101(x,y), F011(x,y), F001(x,y)라 하면 이들은 다음과 같이 구한다.If there is a convex shape described by the following equation, the filter for the (1,0,1) direction, the (0,1,1) direction and the (0,0,1) direction is F101 (x, y), respectively. , F011 (x, y), F001 (x, y), they are obtained as follows.
상기 필터 값들은 앞에서 설명한 대로, 볼록형상의 면이 각각 3개의 서로 다른 방향에서 조명을 받고 있는, 각각의 점에서의 면수직 방향과 광원 방향을 스칼라 곱한 결과와 같다.The filter values are the same as the result of scalar multiplying the surface vertical direction and the light source direction at each point, where the convex faces are illuminated in three different directions, as described above.
한편, 특정 크기 S를 갖는 필터를 고려해 볼 때 평평한 면에서처럼, 이미지의 인텐시티가 일정한 영역에서의 필터링된 값을 영으로 맞춰주기 위해, 상기 필터 요소값의 평균값을 각각의 필터 요소값으로부터 빼주게 된다.On the other hand, when considering a filter having a specific size S, as shown in the flat plane, the average value of the filter element values is subtracted from each filter element value so that the intensity of the image is zeroed to a filtered value in a constant region. .
즉, 상기의 필터들은 볼록형상에 의한 이미지와 동일한 형태를 갖게되므로써, 볼록 형상을 갖는 영역 선정에 있어서 최적인 필터 성능을 발휘하게 된다.That is, the above filters have the same shape as the image of the convex shape, thereby exhibiting the optimum filter performance in selecting the convex region.
상기 필터를 기술하는 변수인 a 및 b는 이미지 내의 볼록면의 크기와 관계되는 것으로, 볼록면이 큰 경우 작은 값을 사용하고, 볼록면이 작은 경우는 큰 값을 사용하나, 일반적인 경우 a=1.0와 b=1.0의 조건에서 사용된다.Variables a and b describing the filter are related to the size of the convex surface in the image. If the convex surface is large, a small value is used. If the convex surface is small, a large value is used, but in general, a = 1.0 And b = 1.0.
필터의 크기로는 5x5, 7x7, 또는 9x9와 같은 몇 가지 크기를 갖는 필터를 선정하여 사용할 수 있으며, 도 2에 7x7 크기를 갖는 필터를 나타내었다.As the size of the filter, a filter having several sizes, such as 5x5, 7x7, or 9x9, can be selected and used, and FIG. 2 shows a filter having a 7x7 size.
도 2의 그림에서, 필터 요소들의 값은 중간 밝기가 영을 갖고 중간 밝기 보다 밝은 부분은 양의 값을, 그리고 중간 밝기보다 어두운 부분은 음의 값을 가지며 전체 평균은 영을 갖는다.In the figure of FIG. 2, the values of the filter elements have a medium brightness of zero, a part brighter than the medium brightness positive, a part darker than the medium brightness negative and the overall average zero.
상기 세가지의 필터를 사용하여 볼록형상을 갖는 영역을 선정하는 방법은 다음과 같다.A method of selecting a convex region using the three filters is as follows.
입력 이미지 h(x,y)에 대해 필터 F'101, F'011와 F'1를 각각 독립적으로 적용하여, 3개의 서로 다른 필터링된 값(F'(h(x,y)))에 대해 필터링된 값의 평균값(F'(h(x,y)avg)), 최소값(F'(h(x,y)min)) 및 최대값(F'(h(x,y)max))을 각각 구한다.Filters F ' 101 , F'011 and F' 1 are independently applied to the input image h (x, y) , respectively, for three different filtered values (F '(h (x, y) )). The average value of the filtered values (F '(h (x, y) avg )), the minimum value (F' (h (x, y) min )), and the maximum value (F '(h (x, y) max )) Obtain each.
이 값들을 사용하여 3개의 필터링된 값들에 대해 아래 3개의 조건을 동시에 만족하는 h(x,y)영역을 삭제한다.Use these values to delete the h (x, y) region that simultaneously meets the following three conditions for the three filtered values.
이때 A는 삭제 영역의 크기를 조절하는 변수로써 A가 클수록 큰 면적이 삭제 되게 된다.At this time, A is a variable that controls the size of the deletion area. As A increases, a larger area is deleted.
본 발명에서는 통상적으로 0.3 ~ 0.7이 사용되어진다.In the present invention, 0.3 to 0.7 is usually used.
상기의 삭제과정을 통해서 볼록형상을 갖는 영역이 선정될 수 있다.The region having a convex shape may be selected through the above deletion process.
이에 대한 예를 도 3에 나타내었다.An example of this is shown in FIG. 3.
한편, 선정된 볼록 형상 영역에 대한 형상근사를 통한 광원방향의 계산 방법을 설명하면 다음과 같다.On the other hand, the calculation method of the light source direction through the shape approximation to the selected convex shape region is as follows.
볼록형상을 이미지 좌표 x 및 y에 대한 2차식을 써서 근사를 시키기 위해 위치 (x,y)에서의 형상면의 높이를 Z(x,y)라 하면, 일반적으로 1차 및 2차 항을 포함하는 다음식으로 나타낼 수 있다.In order to approximate the convex shape using the quadratic equations for the image coordinates x and y, the height of the shape plane at position (x, y) is Z (x, y), which usually includes the first and second terms. It can be expressed by the following equation.
따라서, 점(x,y)에서의 형상면의 x-축에 대한 기울기(p) 및 y-축에 대한 기울기(q)는Thus, the slope p with respect to the x-axis and the slope q with respect to the y-axis of the shape plane at points x and y are
로 표현된다.It is expressed as
즉,In other words,
한편, 각 점에서의 기울기 p,q로부터 그 점에서의 면수직 벡터를 계산할 수 있다.On the other hand, the surface vertical vector at that point can be calculated from the inclination p, q at each point.
면수직 벡터를라 하면 다음 식과 같이 표현된다.Face down vector Is expressed as the following equation.
이때, 광원 방향을 나타내는 벡터를라 하고, 고려하는 형상면이 렘버시안이라 하면, 이미지 인텐시티 h(x,y)는으로 표현된다.At this time, the vector representing the direction of the light source If the shape plane under consideration is Lemversian, the image intensity h (x, y) is It is expressed as
따라서, 아래와 같이 쓸 수 있다.Thus, we can write
상기 관계식을 이용하여 p-q 공간(space)에서 다시 쓰면 아래와 같다.Using the above relation, we can rewrite it in p-q space as follows.
상기 식을 관찰해보면, 특정 위치(x,y)에서의 이미지 인텐시티는, 그 점에서의 형상의 x 및 y축에 대한 기울기(p,q)와 광원 방향에 의해서 결정됨을 알 수 있다.Observing the above equation, it can be seen that the image intensity at a specific position (x, y) is determined by the inclination (p, q) and the light source direction with respect to the x and y axes of the shape at that point.
이미지 인텐시티는 입력 이미지로부터 이미 값이 주어져 있으므로, 그 점에서의 형상에 의해 결정되는 기울기 (p,q)를 알게되면, 광원 방향 벡터를 계산할 수 있다.Since the image intensity is already given a value from the input image, once we know the slope (p, q) determined by the shape at that point, the light source direction vector Can be calculated.
광원 방향 벡터를 계산하기 위해, 도 4에 나타낸 것과 같은 p-q 공간에서의 반경 R인 원 내부에서의 상기 식의 양변에 대한 적분을 고려해보자.Light source direction vector To calculate, consider the integration of both sides of the equation inside a circle with radius R in the pq space as shown in FIG. 4.
광원 방향성분 t3는 아래의 적분으로부터 계산될 수 있다.The light source direction component t 3 can be calculated from the integral below.
상기 식의 우변의 3 항 중 p,q를 포함하는 두개의 항은 이들에 대한 함수 형태가 기함수 이므로 일정반경을 가진 원 내부에서의 적분값은 영이된다.Of the three terms on the right side of the equation, the two terms including p and q have integral functions, so the integral value inside the circle with a certain radius becomes zero.
따라서 t3에 대한 하나의 항만이 남게된다.Thus, only one term for t3 remains.
따라서, 광원 방향의 3번째 성분 t3는 다음과 같이 계산된다.Therefore, the third component t 3 in the light source direction is calculated as follows.
또한, 광원 방향성분 t1과 t2는 상기 피적분 함수에 p와 q를 각각 곱하여 적분하므로써 계산할 수 있다.Further, the light source direction components t 1 and t 2 can be calculated by multiplying the integral function by p and q respectively and integrating them.
즉, t1을 계산하고자 하는 경우 좌우변에 p를 곱한후 적분을 행한다.That is, when t 1 is to be calculated, the left and right sides are multiplied by p and then integrated.
따라서, t1은 다음과 같이 계산된다.Therefore, t 1 is calculated as follows.
t2역시 좌우변에 q를 곱한후 적분을 행하므로써 계산할 수 있다.t 2 can also be calculated by multiplying the left and right sides by q and then integrating.
따라서 광원 방향 벡터 (t1, t2, t3) 는 다음과 같이 표현된다.Therefore, the light source direction vectors t 1 , t 2 , t 3 are expressed as follows.
이때,과은 반경 R을 갖는 원에 대한 적분으로, 다음과 같이 반경 R에 대한 함수로 계산된다.At this time, and Is the integral for the circle with radius R, which is calculated as a function of radius R as
한편,와및의 계산 과정에서는 점 (p,q)에서의 h(x,y)값을 알아야 한다.Meanwhile, Wow And In the calculation of, we need to know the value of h (x, y) at point (p, q).
따라서 점(p,q)에 대응되는 점(x,y)를 구해야 하는데 이는 [수학식 8]을 써서 구할 수 있다.Therefore, the point (x, y) corresponding to the point (p, q) should be obtained by using Equation (8).
p0=0, q0=0 이라 하면 점(p,q)에 대한 대응점 점(x,y)는 아래와 같이 계산된다.If p 0 = 0 and q 0 = 0, the corresponding point (x, y) for the point (p, q) is calculated as follows.
따라서, 상기 수학식에서 얻어진 점(x,y)에서의 h(x,y)를 이용하여 적분값을 계산하게 된다.Therefore, the integral value is calculated using h (x, y) at the point (x, y) obtained in the above equation.
그러나 실제 이미지에서는 점(x,y)는 정수값으로 양자화 되어 있기 때문에 상기 식에서 계산된 점(x,y)가 정수값이 아닌 경우는 2차원 에서의 보간(interpolation) 방법을 써서 h(x,y) 값을 계산하게 된다.However, in the real image, since the point (x, y) is quantized to an integer value, if the point (x, y) calculated in the above equation is not an integer value, the interpolation method in two dimensions is used to h (x, y). y ) is calculated.
상기 방법에 의해 선정된, p-q space에서의 반경 R인 영역내의 적분을 통해 얻어진 광원 방향(t1,t2,t3)은, 형상을 기술하는 상수 m11, m12및 m22에 의해 결정되게 된다.The light source direction (t 1 , t 2 , t 3 ) obtained by integration in a region of radius R in pq space, selected by the method, is determined by the constants m 11 , m 12 and m 22 describing the shape. Will be.
따라서, 최적의 형상 상수를 얻기 위해서는 계산된 광원 방향과, 형상에서 얻어지는 면수직 벡터를 이용하여 계산된 이미지 인텐시티를, 입력된 이미지 인텐시티와 가장 잘 일치하도록 하는 최적화 과정을 통해서 이루어지게 된다.Therefore, in order to obtain an optimal shape constant, the image intensity calculated by using the calculated light source direction and the surface vertical vector obtained from the shape is made through an optimization process that best matches the input image intensity.
이미지 내의 선정된 영역(S)의 입력 이미지 인텐시티를 I(x,y)라 하고, 형상계수와 광원 방향에 의해 계산된 이미지 인텐시티를 h(x,y)라 하면, 영역 내의 각 점에서의 오차 값의 합인If the input image intensity of the selected area S in the image is I (x, y) and the image intensity calculated by the shape coefficient and the light source direction is h (x, y) , the error at each point in the area is Sum of values
을 최소화하는 형상 변수를 구하므로 써 광원 방향을 함께 얻을 수 있게 된다.We can obtain the direction of the light source by finding the shape variable that minimizes.
다음은, 몇몇의 범프 및 구에 대한 서로 다른 광원 방향에서 얻어진 이미지로부터 계산된 광원 방향을 계산하고, 그 결과를 표 1 및 표 2에 나타내었다.Next, the calculated light source directions are calculated from images obtained at different light source directions for some bumps and spheres, and the results are shown in Tables 1 and 2.
광원 방향은 기울기각 ( tilt )과 경사각(slant)으로 각각 표시하였으며 이들에 대한 정의를 도 5에 나타내었다.The direction of the light source was indicated by tilt and slant, respectively, and their definitions are shown in FIG. 5.
형상계수와 광원 방향 계산을 사용하여 얻어진 이미지의 예를 입력이미지와 함께 도 6 및 도 7에 나타내었다.Examples of images obtained using the shape coefficient and the light source direction calculation are shown in FIGS. 6 and 7 together with the input image.
얻어진 광원 방향은 기울기 각( tilt )과 경사각(slant)으로 각각 나타내었으며, 이들에 대한 정의를 도 7에 나타내었다.The obtained light source direction is represented by a tilt angle and a slant, respectively, and their definitions are shown in FIG. 7.
상기 방법에 의해 얻어진 광원 방향은, 입력 이미지의 쉐이딩 정보와 함께 이미지내의 물체영역의 각 위치에서의 형상 정보를 얻기 위해 사용된다.The light source direction obtained by the method is used to obtain the shape information at each position of the object area in the image together with the shading information of the input image.
형상정보는 물체영역의 각 위치에서의 면수직 벡터 또는 심도(depth)를 계산하므로써 얻을 수 있다.The shape information can be obtained by calculating the plane vertical vector or depth at each position of the object region.
얻어진 광원 방향 벡터를라 하고, 물체 영역의 특정 위치에서의 면수직 벡터를이라 하고, 이때의 물체 표면이 한 방향으로 입사한 빛이 모든 방향으로 균등하게 산란되는 렘버시안이라면, 물체영역의 각 위치에서의 이미지 인텐시티 R은 다음 식으로 표현된다.The obtained light source direction vector Let's say that the surface vertical vector at a specific position In this case, if the object surface at this time is a Lemversian in which light incident in one direction is uniformly scattered in all directions, the image intensity R at each position of the object region is expressed by the following equation.
이때, 이미지내의 특정 점으로부터 출발하여 계산되어지는 면수직 벡터와 이미지 좌표(x,y) 및 입력 이미지 인텐시티(h) 사이에는 다음과 같은 방정식에 의해 기술된다.At this time, the plane vertical vector is calculated starting from a specific point in the image. And between image coordinates (x, y) and input image intensity (h) are described by the following equation.
상기 식에서 Rn1, Rn2및 hx, hy등은 각각 n1, n2및 x, y에 대한 미분을 나타낸다.In the above formula, R n1 , R n2 and h x , h y and the like represent differentiation for n 1 , n 2 and x, y, respectively.
또한, 변수 t는 광원 방향벡터와는 무관한 이미지 좌표에서의 특성곡선상의 길이를 나타내는 변수이다(도 8 참조).Further, the variable t is a variable representing the length on the characteristic curve at the image coordinates irrelevant to the light source direction vector (see Fig. 8).
한편, 면수직 벡터은 형상의 표면 (x,y,z) 상의 적분초기 특성곡선에 의한 미분 벡터와는 항상 수직인 관계가 있다.Vector vertical There is always a vertical relationship with the derivative vector by the integrating initial characteristic curve on the silver-shaped surface (x, y, z).
이는 적분초기곡선, s는 항상 물체표면 상에서 정의되기 때문이다.This is because the integral initial curve, s, is always defined on the object surface.
따라서,의 조건이 적분 초기 곡선상의 모든 점에서 만족되어야 한다.therefore, The condition of must be satisfied at all points on the initial curve of integration.
이 조건을 이용하면 면수직 벡터의 정확도를 향상 시킬 수 있고, 따라서 심도 Z의 값도 정확도 향상이 이루어 지게 된다.By using this condition, the accuracy of the plane vertical vector can be improved, so that the value of depth Z is also improved.
이 추가된 조건에 의한 면수직 벡터의 계산은 다음의 세식을 사용하여 가능하다.The calculation of the plane vertical vector by this added condition is possible using the following formula.
한편, 첨자 s는 적분초기 곡선 상의 길이 변수 s에 대한 미분을 의미한다.The subscript s, on the other hand, means the derivative of the length variable s on the initial curve of integration.
상기의 계산 과정을 통해, 이미지내의 특정 위치에서의 면수직 벡터 정보를 알고 있는 경우, 이로부터 다른 주변의 영역에 대한 면수직 벡터와 심도의 계산이 가능하다.Through the above calculation process, when the surface vertical vector information is known at a specific position in the image, it is possible to calculate the surface vertical vector and the depth for the other peripheral region.
한편, 이미지 내의 특정 위치에서의 면수직 벡터에 대한 초기 정보가 없는 경우 상기의 방법이 적용되기 어려우므로, 심도의 계산을 위한 추가적인 방법이 필요하다.On the other hand, if there is no initial information on the plane vertical vector at a specific position in the image, the above method is difficult to apply, and thus an additional method for calculating the depth is needed.
얻어진 광원 방향의 기울기 각( tilt )이 τ이고 경사각(slant)이 σ라 하면, 형상의 기울기 공간 p-q에서의 이미지 인텐시티 h는 다음과 같은 식으로 표현된다.If the obtained tilt angle tilt in the light source direction is τ and the slant angle is σ, the image intensity h in the tilt space p-q of the shape is expressed by the following equation.
이때, ps, qs는 광원 방향에 대한 값으로 ps= (cosτsinσ)/cosσ, qs= (sinτsinσ)/cosσ 이다.In this case, p s and q s are values for the direction of the light source, and p s = (cosτsinσ) / cosσ and q s = (sinτsinσ) / cosσ.
한편, 심도 Z에 대한 이미지 좌표 공간에서의 미분치로 정의되는 p 및 q를 다음과 같이 쓸 수 있으므로On the other hand, p and q defined as derivatives in the image coordinate space for depth Z can be written as
상기의 이미지 인텐시티에 대한 식은 다음과 같이 표현될 수 있다.The equation for the image intensity can be expressed as follows.
주어진 이미지 세기(h)와 고정점(x,y)에서, 특정한 값으로 주어진 심도(Zn-1)에 대한 함수(f)의 테일러 시리즈 전개를 통한 선형 근사와 반복 계산을 사용하면, 해를 구할 수 있게 된다.Using a linear approximation and iterative calculation with the Taylor series expansion of the function (f) for a given depth (Z n-1 ) at a given value, at a given image intensity (h) and fixed point (x, y), Will be available.
즉,In other words,
n-번째 계산에서의 심도 Z는 다음과 같이 표현된다.Depth Z in the n-th calculation is expressed as follows.
이때,At this time,
따라서, 이미지 영역내에서의 면수직 벡터에 대한 적분 초기값이 알려져 있지 않은 경우, 상기의 반복계산 방법을 통하여 심도 Z를 구하므로써, 물체 형상에 대한 정보를 얻을 수 있다.Therefore, when the integral initial value for the surface vertical vector in the image region is not known, information on the object shape can be obtained by obtaining the depth Z through the above iterative calculation method.
앞에서 설명한 쉐이딩 정보를 가진 이미지로부터 형상정보인 심도를 복원하고, 복원된 심도로 부터 다른 관찰 방향에서의 이미지를 복원하기 위한 방법을 기술하고자 한다.A method for restoring depth, which is shape information, from an image having shading information described above, and restoring an image in a different viewing direction from the restored depth.
먼저 계산된 심도가 Z(x,y)라 하고, 항상 이미지의 입력은 관찰방향과 수직인면에서 이루어 진다고 가정한다.First, the calculated depth is called Z (x, y), and it is always assumed that the input of the image is made in the plane perpendicular to the viewing direction.
먼저 심도 Z(x,y)를 갖는 물체표면이, x-y에 수직인 방향에서 입력된 이미지의 인텐시티를 h(x,y)라 하면, 표면이 렘버시안인 경우 관찰각이 바뀌더라도 그 점에서의 인텐시티는 동일하게 유지 된다.First, if the surface of an object with depth Z (x, y) is the intensity of the input image in the direction perpendicular to xy, h (x, y), if the surface is Lemversian, even if the angle of observation changes, Intensity remains the same.
따라서, 관찰방향 변화에 따른 각 점에서의 인텐시티의 변화는 없다.Therefore, there is no change in intensity at each point due to the change in the observation direction.
도 9에는 x-y 평면상에 나타나는 표면의 심도 Z의 한 예를 x-축에 따른 변화만을 나타내었다.In FIG. 9, only one variation of the depth Z of the surface appearing on the x-y plane is shown along the x-axis.
이미지 입력 방향과 새로운 관찰 방향이 아래 도 9에서와 같이, θ만큼 차이가 나는 경우로, 이 경우는 마치 우측 눈을 통해서 관찰하는 경우와 유사하다.As shown in FIG. 9, the image input direction and the new viewing direction are different by θ, which is similar to the case of observation through the right eye.
이때 점 x0의 위치를 고려해 보면, 관찰 방향이 θ만큼 기울어지는 경우 새로운 관찰 방향에 대한 수직면이 θ만큼 기울어지게 되어, 새로운 평면 x'-y'에서의 위치 x0'는 x0cosθ가 된다.Considering the position of the point x 0 , when the observation direction is inclined by θ, the vertical plane to the new viewing direction is inclined by θ, and the position x 0 'in the new plane x'-y' becomes x 0 cosθ. .
한편, 이 때 이동되는 정도는 관찰각의 크기 뿐만 아니라, 그 점에서의 심도 Z에 의한 영향도 받게 된다.On the other hand, the degree of movement at this time is influenced not only by the magnitude of the observation angle but also by the depth Z at that point.
즉, 심도가 Z일 때 이로 인한 영향 Δ1z'은 Zsinθ가 된다.That is, when the depth is Z, the effect Δ1 z ′ is Zsinθ.
상기 그림에서 정의된 관찰각 θ가 양의 부호를 갖는 경우, 심도에 의한 영향은 -x 축 방향으로의 이동을 주게되어, 결과적으로 아래와 같은 관계가 성립하게 된다.When the observation angle θ defined in the above figure has a positive sign, the effect of depth gives a shift in the -x axis direction, and as a result, the following relationship is established.
이때 y 방향의 점들의 이동은 없다.At this time, there is no movement of the points in the y direction.
왜냐하면 관찰 방향의 변화가 y-축을 회전축으로 하여이루어졌기 때문이다.This is because the change in the observation direction is made with the y-axis as the rotation axis.
한편, 관찰방향이 좌측의 눈을 통해서 관찰하는 것과 같은 경우(θ가 음의 부호를 갖는 경우)를 고려하면, 상기의 경우와 비슷하나 심도에 의한 영향만 그 부호가 바뀌게 된다.On the other hand, considering the case where the observation direction is observed through the left eye (theta has a negative sign), the sign is similar to the above case, but only the influence by the depth is changed.
따라서 아래와 같은 관계가 성립한다.Therefore, the following relationship holds.
한편, 상기의 관계식에 의해 x-좌표를 변환하게 되는 경우, 변수인 x0, θ 및 Z의 조합에 의해 동일한 x0' 값을 갖는 경우가 발생한다.On the other hand, when the x-coordinate is converted by the relational expression above, a case in which the same x 0 'value occurs by a combination of variables x 0 , θ, and Z occurs.
즉, 복수개의 x-좌표값이 동일한 x'-좌표값을 갖게되는 경우가 발생하게 된다.That is, a case where a plurality of x-coordinate values have the same x'-coordinate value occurs.
위의 그림에서는 x0및 x1의 점이 x0'의 한점에 일치되는 경우를 예로 나타내어 보였다.The above figure shows an example where the points of x 0 and x 1 coincide with one point of x 0 '.
이러한 경우에는 x0' 위치에 x0또는 x1의 인텐시티 중 어느 것이 최종적으로 할당되어야 하는 지를 결정해 주어야 한다.In this case, it should be determined whether the intensity of x 0 or x 1 should be finally assigned to the x 0 'position.
위의 우안관찰의 경우에 있어서는, x-좌표의 값이 큰 경우가 최종적으로 되는 경우가 많으므로, 배치 순서를 x-값이 낮은 쪽에서 높은 쪽으로 진행하면 되고, 반대로 좌안관찰의 경우 배치 순서를 반대로 해 주어야 한다.In the case of the right eye observation above, the case where the value of the x-coordinate is often large is final, so the arrangement order can be advanced from the lower side of the x-value to the higher. You must do it.
다른 한가지의 문제점은, 실제 이미지에서 상기의 문제를 다루는 경우 모든 좌표값이 양자화 되기 때문에, x'-좌표상의 특정 점에는 전혀 배치가 일어나지 않는 경우가 발생할 수 있다.Another problem is that when all the coordinate values are quantized when dealing with the above problem in a real image, no placement may occur at a particular point on the x'-coordinate.
이러한 경우, 배치가 일어나지 않은 점에서의 인텐시티 값을 어떻게 지정해 주어야 하는가 하는 문제가 생기게 된다.In this case, there arises a problem of how to specify the intensity value at the point where no arrangement occurs.
일차적으로 전체에 대한 배치를 실행한 후, 배치가 이루어 지지 않은 점들을 선별해서 좌우의 값을 이용하여 좌우의 평균값을 취해 주거나, 여러 점에서 연속적으로 배치가 이루어지지 않은 경우, 보간 방법을 사용하여 계산된 인텐시티를 할당해 주어야 한다.After performing the placement of the whole, first, select the unplaced points and take the left and right average values using the left and right values, or if the arrangement is not performed continuously at several points, use the interpolation method. You need to allocate the calculated intensity.
도 10에는 모짜르트 이미지를 이용하여 복원한 심도로부터, 각각 좌안관찰 이미지 및 우안관찰 이미지를 복원한 그림을 보여주고 있다.FIG. 10 shows a picture obtained by reconstructing a left eye observation image and a right eye observation image from a depth reconstructed using a Mozart image.
이때 관찰거리를 30 cm로 하고 양안간의 거리를 7 cm로 하여, 이때의 양안의 관찰각은 각각 6.7°가 된다.At this time, the observation distance is 30 cm and the distance between both eyes is 7 cm, and the observation angles of both eyes at this time are 6.7 °, respectively.
따라서, 작은 관찰각으로 인해 본래의 이미지와 새로운 관찰각에서 복원된 이미지 사이에는 아주 미소한 차이가 있게 된다.Thus, the small viewing angle results in a very small difference between the original image and the image reconstructed at the new viewing angle.
한편, 도 8의 좌안 이미지 및 우안 이미지를 이용하여 3차원 입체이미지를 디스플레이 시키는 방법은, 좌안 및 우안 앞에 셔터를 설치하여 좌안 이미지와 우안 이미지가, 좌안 및 우안에 번갈아 가면서 들어오게 하므로써 가능하게 된다.On the other hand, a method of displaying a three-dimensional stereoscopic image using the left eye image and the right eye image of FIG. 8 is possible by installing a shutter in front of the left eye and the right eye so that the left eye image and the right eye image alternately enter the left eye and the right eye. .
이상에서 상세히 설명한 바와 같이 본 발명은, 이미지로부터 조명광의 방향을 추정하기 위해, 이미지 내에 분포하는 볼록한 면으로 이루어진 영역들을 찾아내고, 이 영역들에 대해 범프 형상의 근사를 통하여 조명광 방향을 구하는 방법으로, 기존의 이미지 영역 전체의 모든 점에서 구의 형상으로 근사될 수 있다는 가정을 기본으로 하는 방법에 비해 보다 정확한 조명광의 방향을 구할 수 있다.As described in detail above, in order to estimate the direction of the illumination light from the image, the present invention finds regions of convex surfaces distributed in the image, and calculates the illumination light direction through the bump-shaped approximation for these regions. Therefore, a more accurate direction of the illumination light can be obtained compared to the method based on the assumption that it can be approximated to the shape of a sphere at all points of the entire image area.
특히, 광원 방향을 계산하기 위해 최적화에 사용되는 변수가, 범프형상을 기술하는 변수로써 3개 만을 사용하므로, 보다 단순한 최적화 과정을 사용할 수 있다.In particular, since only three variables used for optimization to calculate the light source direction are used as variables describing the bump shape, a simpler optimization process can be used.
상기 방법에서 구한 광원 방향을 이용하여 쉐이딩 정보를 갖는 이미지로부터 물체 영역의 심도를 구하고, 좌안 및 우안 이미지를 재구성하여 좌안 및 우안에 번갈아 가면서 디스플레이 시킴으로써, 하나의 이미지로부터 쉐이딩을 갖는 물체에 대한 3차원 영상을 얻을 수 있게 해준다.Depth of the object area from the image with shading information using the light source direction obtained in the method, and by reconstructing the left eye and right eye images and displaying the left and right eyes alternately, the three-dimensional image of the object with shading from one image It allows you to get a video.
이 방법은 기존의 두개이상의 이미지를 사용하는 경우보다 훨씬 간단한 이미지 입력 장치로 3차원 영상의 디스플레이를 가능하게 해준다.This method enables the display of three-dimensional images with a much simpler image input device than when using two or more images.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970032646A KR100259837B1 (en) | 1997-07-14 | 1997-07-14 | Method for displaying three dimensional image from two dimensional image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970032646A KR100259837B1 (en) | 1997-07-14 | 1997-07-14 | Method for displaying three dimensional image from two dimensional image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR19990010028A KR19990010028A (en) | 1999-02-05 |
KR100259837B1 true KR100259837B1 (en) | 2000-06-15 |
Family
ID=19514392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019970032646A KR100259837B1 (en) | 1997-07-14 | 1997-07-14 | Method for displaying three dimensional image from two dimensional image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100259837B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010011382A (en) * | 1999-07-27 | 2001-02-15 | 성필문 | ROM Which is Recorded the Method for Converting for One Still Image to Stereoscopic Image |
KR101556593B1 (en) | 2008-07-15 | 2015-10-02 | 삼성전자주식회사 | Method for Image Processing |
KR100980298B1 (en) * | 2010-05-06 | 2010-09-06 | 엠진 (주) | A method for trasnforming modeled 2d image to 3d image |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR920019203A (en) * | 1991-03-04 | 1992-10-22 | 쯔지 하루오 | Apparatus and Method for Generating Stereoscopic Images |
-
1997
- 1997-07-14 KR KR1019970032646A patent/KR100259837B1/en not_active IP Right Cessation
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR920019203A (en) * | 1991-03-04 | 1992-10-22 | 쯔지 하루오 | Apparatus and Method for Generating Stereoscopic Images |
Also Published As
Publication number | Publication date |
---|---|
KR19990010028A (en) | 1999-02-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Huhle et al. | Fusion of range and color images for denoising and resolution enhancement with a non-local filter | |
Sato et al. | Object shape and reflectance modeling from observation | |
Newcombe et al. | Live dense reconstruction with a single moving camera | |
Fua et al. | Object-centered surface reconstruction: Combining multi-image stereo and shading | |
JP4204670B2 (en) | Volume data representation system | |
Podsiadlo et al. | Characterization of surface topography of wear particles by SEM stereoscopy | |
US20090052767A1 (en) | Modelling | |
US6219063B1 (en) | 3D rendering | |
Bülthoff et al. | Integration of stereo, shading and texture | |
US20100085359A1 (en) | Surface normal reconstruction from a single image | |
US20110235933A1 (en) | Method for Reconstructing Surfaces of Specular Object from Sparse Reflection Correspondences | |
Jordan III et al. | Using chromatic information in dense stereo correspondence | |
Suresh et al. | PMENet: phase map enhancement for Fourier transform profilometry using deep learning | |
Negahdaripour et al. | Recovering shape and motion from undersea images | |
Maurer et al. | Combining Shape from Shading and Stereo: A Variational Approach for the Joint Estimation of Depth, Illumination and Albedo. | |
US6512844B2 (en) | 3D rendering | |
KR100259837B1 (en) | Method for displaying three dimensional image from two dimensional image | |
CN116977595A (en) | Cultural relic three-dimensional reconstruction method based on normal optimization | |
Yu et al. | Shape and view independent reflectance map from multiple views | |
Soh et al. | Texture mapping of 3D human face for virtual reality environments | |
Clark | Photometric stereo with nearby planar distributed illuminants | |
Elhabian | Hands on shape from shading | |
Güssefeld et al. | Are reflectance field renderings appropriate for optical flow evaluation? | |
Aliaga | Digital inspection: An interactive stage for viewing surface details | |
Garcia et al. | A generic synthetic image generator package for the evaluation of 3D Digital Image Correlation and other computer vision-based measurement techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130227 Year of fee payment: 14 |
|
FPAY | Annual fee payment |
Payment date: 20140227 Year of fee payment: 15 |
|
FPAY | Annual fee payment |
Payment date: 20150226 Year of fee payment: 16 |
|
FPAY | Annual fee payment |
Payment date: 20160226 Year of fee payment: 17 |
|
LAPS | Lapse due to unpaid annual fee |