KR0183335B1 - Surface orientation estimating method of texture image using mathematical morphology - Google Patents

Surface orientation estimating method of texture image using mathematical morphology Download PDF

Info

Publication number
KR0183335B1
KR0183335B1 KR1019960003015A KR19960003015A KR0183335B1 KR 0183335 B1 KR0183335 B1 KR 0183335B1 KR 1019960003015 A KR1019960003015 A KR 1019960003015A KR 19960003015 A KR19960003015 A KR 19960003015A KR 0183335 B1 KR0183335 B1 KR 0183335B1
Authority
KR
South Korea
Prior art keywords
texture image
center
pattern
line segment
image
Prior art date
Application number
KR1019960003015A
Other languages
Korean (ko)
Other versions
KR970064264A (en
Inventor
최종수
권준식
홍현기
Original Assignee
홍현기
권준식
최종수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍현기, 권준식, 최종수 filed Critical 홍현기
Priority to KR1019960003015A priority Critical patent/KR0183335B1/en
Publication of KR970064264A publication Critical patent/KR970064264A/en
Application granted granted Critical
Publication of KR0183335B1 publication Critical patent/KR0183335B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/753Transform-based matching, e.g. Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 텍스쳐 영상의 면방향을 추정하는 방법에 관한 것으로서, 본 발명에서는, 수리형태학에 의한 연속적인 이로젼 연산으로 무늬소의 중심점을 얻고, 전체 영역을 분할하고, 분할된 부영역의 중심 선분과 이에 수직인 직선을 구하여, 전체 텍스쳐 영상의 무한원점을 계산하여 이 직선 성분들을 재배열하고, 계산된 무한원점의 위치와 수직 직선의 정보를 이용하여 텍스쳐 영상의 면방향을 계산하므로, 무늬소의 중심점과 분할된 영역 정보를 이용하게 되고 따라서 직선 성분이 적은 영상에서도 오차가 적은 면방향 추정을 할 수 있다.The present invention relates to a method for estimating the surface direction of a texture image. In the present invention, the center point of a pattern is obtained by continuous erosion calculation by mathematical morphology, the entire area is divided, and the center segment of the divided subregion is By obtaining a vertical straight line, the infinite point of the entire texture image is calculated and rearranged, and the plane direction of the texture image is calculated using the calculated position of the infinite point and the information of the vertical straight line. By using the divided region information, it is possible to estimate the plane direction with less error even in the image with few linear components.

Description

수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법Surface Orientation Estimation of Texture Images Using Mathematical Morphology

제1도는 본 발명에 의한 텍스쳐 영상의 면방향 추정방법의 흐름도.1 is a flowchart of a method of estimating a plane direction of a texture image according to the present invention.

제2도는 이로젼 연산에서 구성소 분해와 각 구성소와의 관계를 보여주는 도면.2 is a diagram showing component decomposition in relation to each component in an erosion operation.

제3도는 구성소중 마름모(RHOMBUS)로 이로젼연산을 수행할 때 중심점을 찾는 과정을 보여주는 도면.3 is a diagram showing a process of finding a center point when performing an erosion operation with a RHOMBUS component.

제4도는 텍스쳐 영상의 무한원점을 계산하는 방법을 보여주는 도면.4 is a diagram illustrating a method of calculating an infinite point of a texture image.

제5도는 내지 제8도는 본 발명에 의하여 텍스쳐 영상의 면방향의 추정한 결과를 보여주는 도면들.5 to 8 are views showing the estimation result of the plane direction of the texture image according to the present invention.

본 발명은 사영 왜곡에 의해 생기는 텍스쳐 영상의 변화로부터 텍스쳐 영상의 면방향을 추정하는 방법에 관한 것으로서, 특히 수리형태학을 이용하는 것을 특징으로 하는 텍스쳐 영상의 면방향 추정방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for estimating the surface direction of a textured image from changes in a texture image caused by projective distortion, and more particularly to a method for estimating a surface direction of a textured image, using mathematical morphology.

텍스쳐 영상이란 무늬소가 분포되어 있는 영상이며, J. J. Gibson이 단안시 (monocular vision)에 의한 텍스쳐 영상을 3차원으로 해석하는 문제를 제기한 이후(참조자료 1, 참조자료는 발명의상세한 설명의 끝에 첨부되어 있음), 텍스쳐 영상으로부터 형상을 복원하는 문제는 컴퓨터 시각의 중요한 연구 과제 중 하나가 되었다.A texture image is an image in which the pattern is distributed, and after JJ Gibson raised the problem of interpreting the texture image by monocular vision in three dimensions (Reference 1, the reference material is described at the end of the detailed description of the invention). The problem of restoring the shape from the texture image has become one of the important research tasks of computer vision.

텍스쳐 영상이 카메라의 시선 방향에 대하여 기울어져 있는 경우 다양한 텍스쳐 그레디언트를 얻을 수 있고, 또한 무늬소가 평면상에 균일하게 분포되어 있다는 가정 하에서 얻어진 텍스쳐 영상의 그레디언트로부터 텍스쳐 영상 표면의 기울어진 정도를 알 수 있다. 이러한 문제는 2차원 영상으로부터 3차원 깊이 정보를 얻는 문제이며 종래의 방법들로는, 텍스쳐 영사에서의 에지는 무늬소의 경계에 해당된다는 가정 하에 에지의 밀도를 구하는 방법 (참조자료 2), 무늬소의 정사영된 그레디언트 정보로부터 통계학적 모델을 이용하는 방법(참조자료 3), 퓨리에 분석으로 텍스쳐 영상의 거친 정도와 방향을 해석하는 방법(참조자료4), 무늬소의 왜곡을 자기상관함수로 해석하는 방법(참조자료 5), 무늬소의 수평, 수직 에지 성분을 군집변환하여 해석하는 방법(참조자료 6) 등이 있다.If the texture image is inclined with respect to the camera's line of sight, various texture gradients can be obtained, and the gradient of the texture image surface is obtained from the gradient of the texture image obtained on the assumption that the pattern is uniformly distributed on the plane. Can be. This problem is to obtain three-dimensional depth information from two-dimensional images. In the conventional methods, the density of edges is calculated based on the assumption that the edges in texture projection correspond to the boundary of the pattern (Ref. 2). Using statistical models from gradient information (Reference 3), Using Fourier analysis to analyze roughness and orientation of texture images (Reference 4), and Method of interpreting fringe distortion with autocorrelation function (Reference 5) ), And the method of clustering and analyzing the horizontal and vertical edge components of the pattern (Ref. 6).

그러나, 에지밀도를 이용하는 방법은 연산자에의 하여 취득된 에지가 무늬소의 경계에 해당되어야 하며, 그러하지 않은 에지는 제거되어야 되므로 대상 영상이 복잡한 무늬소로 이루어진 텍스쳐 영상인 겨우 해석이 용이하지 않은 단점이 있었다. 그레디언트 정보로부터 통계학적 모델을 이용하는 방법의 경우는 다양한 무늬소를 모델링하기 어려운 단점이 있으며, 퓨리에 분석이나 자기상관함수로 해석하는 방법은 국부적이며, 등방성 등의 사전 정보를 고려하여야 하는 단점이 있었다. 또한, 무늬소의 수평, 수직 에지성분을 군집변환하여 해석하는 방법은 복잡한 무늬소로 이루어진 대부분의 자연 영상을 해석하는데 어려움이 있었다.However, the method using the edge density has a drawback that the edge obtained by the operator must correspond to the boundary of the pattern, and the edge not to be removed must be removed. . In the case of using the statistical model from the gradient information, it is difficult to model various fringes, and the method of interpreting the Fourier analysis or the autocorrelation function is local, and has the disadvantage of considering prior information such as isotropy. In addition, the method of clustering and analyzing the horizontal and vertical edge components of the pattern has difficulty in analyzing most natural images composed of complex patterns.

본 발명의 목적은 상기한 바와 같은 종래 방법들의 단점을 개선하기 위한 것으로서, 복잡한 무늬소로 이루어진 텍스쳐 영상을 정확하게 해석하기 위하여, 본 발명에서는 사영 왜곡에 의하여 생기는 텍스쳐 영상의 변화로부터 면방향을 구하기 위하여 수리형태학을 사용하는 신규한 방법을 제시한다.An object of the present invention is to improve the shortcomings of the conventional methods as described above, in order to accurately interpret a texture image composed of a complex pattern, in the present invention, in order to obtain the surface direction from the change of the texture image caused by the projection distortion A new method of using morphology is presented.

본 발명에서 고려된 사영 왜곡은 텍스쳐 영상이 카메라로부터 멀리 떨어진 경우, 무늬소가 일정하게 압축되는 원근 효과와 텍스쳐 표면과 영상면이 평행하지 않은 경우에 경사진 방향으로 무늬소가 비등방 압축되는 원근법작도 효과이다.Projective distortion considered in the present invention is a perspective effect in which the texture is distantly away from the camera, the perspective effect in which the pattern is uniformly compressed, and the texture is anisotropically compressed in the inclined direction when the texture surface and the image surface are not parallel. Effect.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명은, 텍스쳐 영상의 면방향 추정 방법에 있어서, 텍스쳐 영상을 대상으로 수리형태학의 이로젼(erosion) 연산(침식 연산)을 연속적으로 수행하면서 텍스쳐 영상을 이루는 각 무늬소의 중심점을 찾는 제1단계; 상기 제1단계에서 중심점이 얻어지는 순서를 이용하여 전체 영상을 무늬소의 크기에 따라 부영역들을 분할하는 제2단계; 상기 제2단계에 의하여 분할된 영역 내에서 얻어진 중심점들을 이용하여 각 영역의 중심 선분을 찾는 제3단계; 상기 제3단계에서 얻어진 중심 선분간의 평균 기울기와 이에 직교하는 수직 선분과의 교차점에 이로젼 연산에 이용된 구성소의 크기를 고려하여 무한원점을 계산하는 제4단계; 상기 제4단계에서 구한 무한원점으로부터 각 영역의 중심 선분을 선택하여 재배열하는 제5단계; 및 사익 제5단계에서 재배열된 선분들을 투시변환의수학적인 해석을 통하여 면방향을 계산하는 제6단계를 포함하는 것을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법을 제공한다.In order to achieve the object as described above, the present invention, in the method for estimating the surface direction of the texture image, the texture image while performing a morphological erosion operation (erosion operation) to the texture image continuously A first step of finding a center point of each pattern element; A second step of dividing the entire image according to the size of the pattern by using the order of obtaining the center points in the first step; A third step of finding a center line segment of each area by using the center points obtained in the area divided by the second step; A fourth step of calculating an infinite origin by considering the size of the component used in the erosion operation at the intersection point between the average slope of the center line segment obtained in the third step and the vertical line segment perpendicular to the perpendicular line segment; A fifth step of selecting and rearranging center segments of each region from the infinite origin obtained in the fourth step; And a sixth step of calculating the plane direction of the rearranged line segments in the fifth step through mathematical analysis of the perspective transformation.

이하에서 첨부된 도면을 참조하면서 본 발명을 상세하게 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

제1도는 본 발명에 의한 텍스쳐 영상의 면방향 추정방법의 흐름도이다.1 is a flowchart of a method of estimating a plane direction of a texture image according to the present invention.

먼저, 제1단계는 텍스쳐 영상을 대상으로 수리형태학의 이로젼(erosion) 연산을 연속적으로 수행하면서 텍스쳐 영상을 이루는 각 무늬소의 중심점을 찾는 무늬소의 중심점 위치 결정 단계(10)이다. 제2단계는 일반적으로 관찰자로부터 멀리 떨어진 무늬소의 크기는 상대적으로 작게 보이므로 중심점이 얻어지는 순서를 이용하여 전체 영상을 무늬소의 크기에 따라 부영역들을 분할 하는 영역 분할 단계(20)이다. 제3단계는 분할된 영역 내에서 얻어진 중심점들을 이용하여 각 영역의 중심 선분을 찾는 단계(30)이다. 제4단계는 상기 제3단계에서 얻어진 중심 선분간의 평균 기울기와 이에 직교하는 수직 선분과의 교차점에 이로젼 연산에 이용된 구성소의 크기를 고려하여 무한원점을 계산하는 단계(40)이다. 제5단계는 상기 제4단계에서 구한 무한원점으로부터 각 영역의 중심 선분을 선택하여 재배열하는 단계(50)이다. 마지막으로 제6단계는 상기 제5단계에서 재배열된 선분들을 투시변환의 수학적인 해석을 통하여 면방향을 계산하는 단계(60)이다.First, the first step is a step of determining the center point of the chromosome 10 to find the center point of each fringe that makes up the texture image while continuously performing mathematical morphology erosion operations on the texture image. In the second step, since the size of the fringe far from the observer generally appears to be relatively small, the subdivision step 20 divides the entire image according to the size of the fringe by using the order in which the center points are obtained. The third step is to find the center line segment of each region by using the center points obtained in the divided region (30). The fourth step is to calculate the infinite origin by considering the size of the component used in the erosion operation at the intersection of the average slope of the central line segment obtained in the third step and the vertical line segment perpendicular to the perpendicular line segment. The fifth step is to select and rearrange the center line segment of each region from the infinite origin obtained in the fourth step. Finally, the sixth step is to calculate the plane direction through the mathematical analysis of the perspective transformation of the line segments rearranged in the fifth step (60).

제1단계인 무늬소의 중심점 위치를 결정하는 단계는 수리형태학의 이로젼 연산을 연속적으로 수행함에 의하여 달성된다.The first step, determining the center point position of the fringe, is accomplished by successively performing morphological erosion operations.

수리형태학에 의한 연산자는 대상 영상에 적합한 구성소를 선택하여 적용함으로써 영상 내 물체 형태의 원래의 특성을 보존하는 장점을 가지며 잡음에 강건한 비선형 필터의 기능을 가진다. 수리형태학의 연산자는 기본 연산자인 다이레이션(dilation, 불림)과 이로젼(erosion, 침식) 및 기본 연산자의연속 연산인 오프닝(opening, 열림)과 클로징(closing, 닫힘)이 있다.The operator by mathematical morphology has the advantage of preserving the original characteristics of the object shape in the image by selecting and applying the appropriate component to the target image and has the function of a nonlinear filter which is robust against noise. Operators in mathematical morphology include the basic operators dilation (erosion) and erosion and the basic operators consecutive operations (opening) and closing (closing).

대부분의 텍스쳐 영상에서 무늬소들은 반복되는 형태와 크기를 가지며, 어느 정도 일정한 농담치를 가진다. 본 발명에서는 취득된 텍스쳐 영상을 적당한 값으로 문턱치화한 뒤, 오프닝 필터를 이용하여 불필요한 잡영을 제거한다. 2치화한 영상을 3×3의 마름모(RHOMBUS)와 정사각형(SQUARE)으로 연속적인 이로젼을 교대로 수행하면서 중심점의 위치를 결정한다. 상기한 두가지 구성소로의 연속적인 이로젼은 5×5의 원(CIRCLE)으로 이로젼하는 결과와 동일하다. 제2도는 이로젼 연산에서 구성소 분해와 각 구성소와의 관계를 보여주는 도면이다. 이러한 방법은 원(CIRCLE)을 분해한 마름모(RHOMBUS)와 정사각형(SQUARE)을 이용하는 효과를 얻는 동시에 중심점의 위치를 고려하는 영역을 줄임으로써 복잡한 영상에서도 중심점의 위치를 정확하게 결정할 수 있게 한다.In most texture images, the pattern elements have a repeating shape and size, and have a certain constant shade. In the present invention, the acquired texture image is thresholded to an appropriate value, and then unnecessary noise is removed using an opening filter. The position of the center point is determined by performing successive erosions alternately with the binarized images of 3 × 3 RHOMBUS and SQUARE. The continuous erosion with the two components described above is equivalent to the result of erosion with a 5 × 5 circle (CIRCLE). 2 is a diagram showing component decomposition and the relationship between each component in an erosion operation. This method achieves the effect of using RHOMBUS and SQUARE, which decomposes CIRCLE, and reduces the area considering the location of the center point, enabling accurate positioning of the center point even in complex images.

이로젼 연산과정을 통하여 무늬소의 크기는 점차로 줄어들게 되며, 무늬소가 구성소보다 작아지는 경우 무늬소의 중심에 가까운 위치를 구할 수 있다. 본 발명에 의한 방법에서는 이로젼 연산시, 사영 왜곡된 무늬소의 대략적인 모양을 타원으로 보고 원(CIRCLE)을 이용하므로, 텍스쳐 영상을 이루는 무늬소의 모양과 크기에 따라 구성소를 적합하게 선정함으로써 다양한 영상을 보다 정확하게 해석할 수 있게 한다.Through the erosion operation, the size of the pattern is gradually reduced, and when the pattern is smaller than the component, the position close to the center of the pattern can be obtained. In the method according to the present invention, since the approximate shape of the projective distorted pattern is used as an ellipse, the circle (CIRCLE) is used, and according to the shape and size of the pattern forming the texture image, various components are appropriately selected. Allows more accurate interpretation of the image.

제3도는 구성소중 마름모(RHOMBUS)로 이로젼 연산을 수행할 때 중심점을 찾는 과정을 보여주는 도면이다.3 is a diagram illustrating a process of finding a center point when performing an erosion operation with a RHOMBUS among components.

마름모(RHOMBUS)로 이로젼 연산을 수행하는 경우, 기준 화소의 4근방 이웃 화소를 고려하여 4근방에 존재하는 화소의 개수에 다라 기준 화소의 가중치를 1식 증가시킨다. 예를 들어 기준 화소의 4근방에 화소가 2개 존재하면, 자신의 값 1과 가중치 2를 합친 3이 기준 화소의 값이 된다. 그리고 3×3 마스크 내에서 가장 큰 가중치를 가지는 화소를 남겨 중심점으로 결정한다. 가중치가 5이면, 마름모(RHOMBUS)보다 크거나 같기 때문에 계속 이로젼 연산을 수행한다.In the case of performing an erosion operation with the RHOMBUS, the weight of the reference pixel is increased by one equation according to the number of pixels in the vicinity of four in consideration of the four neighboring pixels of the reference pixel. For example, if two pixels exist near four of the reference pixel, the value 3 of the value 1 and the weight 2 added together becomes the value of the reference pixel. The pixel having the largest weight is left in the 3x3 mask to determine the center point. If the weight is 5, the erosion operation is continued because it is greater than or equal to the RHOMBUS.

이로젼 연산을 수행한 결과가 제3(a)도와 같을 때, 이웃 화소를 고려하여 가중치를 부여하면, 각 화소는 제3(b)도에서 보이는 바와 같은 가중치를 가지게 되며, 그 중 가장 큰 가중치를 가지는 화소만을 남기면 제3(c)도와 같다. 제3(c)도와 같다. 제3(c)도와 같이, 마스크내에서 가장 큰 가중치를 갖는 화소가 둘 이상인 경우, 제3(d)도에서 보이는 바와 같이, 마스크내에서 가장 큰 가중치를 갖는 화소만으로 다시 가중치를 고려하여(제3(e)), 중심점을 결정한다(제3(f)도).When the result of performing the erosion operation is equal to the third (a) degree, if the weight is given considering the neighboring pixels, each pixel has the weight as shown in the third (b) degree, and the largest weight among them If only the pixel having is left, it is the same as that of FIG. 3 (c). It is the same as FIG. 3 (c). As shown in FIG. 3 (c), when there are two or more pixels having the largest weight in the mask, as shown in FIG. 3 (d), only the pixels having the largest weight in the mask are considered again (the weight 3 (e)), the center point is determined (figure 3 (f)).

무늬소의 모양에 따라 적당한 구성소를 선정하면, 선정된 구성소에 따라 가중치를 고려하는 영역이 결정된다. 정사각형(SQUARE)으로 이로젼하는 경우에는 8근방의 화소들을 고려하면 된다.When an appropriate component is selected according to the shape of the pattern, an area considering the weight is determined according to the selected component. In the case of erosion to a square SQUARE, the pixels in the vicinity of 8 may be considered.

상기한 바와 같은 제1단계의 이로젼 연산에 의하여 각 무늬소의 중심점을 얻을 수 있으며, 사영 왜곡으로 인한 무늬소 자체의 크기 변화 때문에 중심점은 관찰자로부터 멀리 떨어진 곳에서 가까운 곳의 순서로 중심점이 결정된다. 따라서 무늬소가 불규칙하게 배열된 경우를 고려하고 중심점이 찾아지는 순서와 무늬소의 크기를 이용하면 전체 영역을 작은 영역들로 분할 할 수 있다.The center point of each pattern can be obtained by the erosion calculation of the first step as described above, and the center points are determined in order of being far from the observer because of the size change of the pattern itself due to the projection distortion. . Therefore, considering the case where the pattern is irregularly arranged and using the order in which the center points are found and the size of the pattern, the whole area can be divided into small areas.

본 발명에 의한 면방향 추정방법의 제2단계인 영역 분할 단계를 설명한다.An area division step, which is a second step of the plane direction estimation method according to the present invention, will be described.

이로젼 연산에 의하여 순서대로 얻어진 중심점을 이용하여 전체 텍스쳐 영상은 부영역들로 분할될 수 있으며, 전체 영상에서 부영역간의 관계를 기술할 수 있다. 실제의 텍스쳐 영상은 무늬소가 균일하게 분포하지 않으므로, 이와 같은 경우를 고려하기 위하여 중심점의 위치를 확인하는 과정에서 얻어지는 점들간의 최단거리의 평균을 이용한다. 얻어지는 점이 계산된 평균 거리보다 떨어져 있을 때, 그 중심점은 다른 영역에 포함된 것으로 취급한다. 각 영역마다 레이블링을 다르게 하여 각 영역의 면적을 비교하여 가장 큰 영역에 위치한 중심점만을 의미있는 점으로 선택한다. 무늬소가 불규칙하게 분포되어있다고 하여도, 대부분의 무늬소는 사영 왜곡에 의하여 영향을 받기 때문에 상기와 같이 고려할 필요가 있다. 상기한 바와 같은 과정에서 전체 텍스쳐 영상은 부영역으로 분할되며, 분할된 영역은 일정한 크기의 무늬소로 이루어져 있고, 그 크기는 이로젼 연산에 사용된 구성소의 크기이다.The entire texture image may be divided into subregions by using the center points sequentially obtained by the erosion operation, and the relationship between the subregions in the entire image may be described. Since the texture is not uniformly distributed in the actual texture image, in order to consider such a case, the average of the shortest distances between the points obtained in the process of checking the position of the center point is used. When the point obtained is further away from the calculated average distance, the center point is treated as being included in another area. By labeling each area differently, the area of each area is compared, and only the center point located in the largest area is selected as a meaningful point. Even if the pattern is irregularly distributed, most of the pattern is affected by the projection distortion, so it is necessary to consider the above. In the process as described above, the entire texture image is divided into sub-regions, and the divided region is composed of a pattern of a certain size, and the size is the size of the component used in the erosion calculation.

본 발명에 의한 텍스쳐 영상의 면방향 추정방법의 제3단계인 분할된 영역 내에서 얻어진 중심점들을 이용하여 각 영역의 중심 선분을 찾는 단계를 설명한다.A step of finding the center segment of each region by using the center points obtained in the divided region, which is the third step of the method for estimating the plane direction of the texture image, will be described.

상기 제2단계에 의하여 분할된 영역내에서 얻어진 의미있는 중심점들을 허프(Hough) 변환하며, 이 선분은 각 영역의 중심 선분이 된다. 각 영역의 면적을 고려하여 중심 선분간의 평균 기울기와 이에 직교하는 선분, 그 리고 부영역내에서 두 선분 성분과의 교차점을 구한다. 이 직교하는 선분은 텍스쳐 영상의 틸트정보이다. 이는 무늬소가 가장 균일하게 분포하고 있는 방향에 수직인 선분을 구함으로써 텍스쳐 영상에 대한 3차원적 해석이 가능하다는 연구에 근거하는 것이다.Hough transforms the significant center points obtained in the region divided by the second step, and this line segment becomes the center segment of each region. Considering the area of each region, find the average slope of the center segment, the line segment orthogonal to it, and the intersection of the two segment components within the subregion. This orthogonal line segment is the tilt information of the texture image. This is based on the study that the three-dimensional analysis of the texture image is possible by obtaining the line segment perpendicular to the direction in which the pattern is most uniformly distributed.

본 발명에 의한 텍스쳐 영상의 면방향 추정방법의 제4단계인 무한원점을 계산하는 단계를 설명한다.The step of calculating the infinite origin, which is the fourth step of the method for estimating the plane direction of the texture image, will be described.

제3단계에서 얻어진 부영역의 중심 선분과 직교하는 수직 선분과의 교차점에 이로젼 연산에 이용된 구성소의 크기를 고려하여 텍스쳐 영상을 해석하는 조건을 계산할 수 있다. 본 발명에서는 전체 텍스쳐 영상이 일정한 크기의 무늬소로 구성되어 있는 경우 그 크기와 상대 거리 정보로부터 무한원점을 계산한다. 무늬소들이 사영 왜곡에 영향을 받는다고 하면 각 영역의 구성소 크기간의 관계를 통하여 무한원점에 관한 정보를 얻을 수 있다.The condition for interpreting the texture image may be calculated by considering the size of the component used in the erosion operation at the intersection point of the center line segment and the perpendicular line segment of the subregion obtained in the third step. In the present invention, when the entire texture image is composed of a certain size of a pattern, an infinite point is calculated from the size and relative distance information. If the pictograms are affected by the projection distortion, the information about the infinite origin can be obtained through the relationship between the component sizes of each region.

제4도는 텍스쳐 영상의 무한원점을 계산하는 방법을 보여주는 도면이다.4 is a diagram illustrating a method of calculating an infinite origin of a texture image.

텍스쳐 영상을 이루는 무늬소가 일정한 경우, 사영 왜곡된 두 무늬소간의 상대적인 거리와 그 크기로부터 무한원점을 계산할 수 있다. 대상 영상이 평면이라고 가정하면, 한 면에 대한 무한원점의 정보는 일치하게 된다. 제4도에서 무늬소 T1의 크기가 S1이고, 무늬소 T2의 크기가 S2이고 두 무늬소간의 상대적인 거리가 D일 때, 전체 영역의 기준점인 무한원점에 대한 평균치 F2는 다음의 식(1)과 같이 구할 수 있다.When the pattern forming the texture image is constant, the infinite origin can be calculated from the relative distance between the two projected and distorted patterns. Assuming that the target image is a plane, the information of the infinite origin on one side is coincident. In FIG. 4, when the size of the pattern T 1 is S 1 , the size of the pattern T 2 is S 2, and the relative distance between the two patterns is D, the average value F 2 for the infinite origin which is the reference point of the entire area is It can be obtained as in Equation (1).

제5단계는 상기 제4단계에서 구한 무한원점으로부터 각 영역의 중심선분을 선택하여 재배열하는 단계이다.The fifth step is to select and rearrange the center line segments of each region from the infinite origin obtained in the fourth step.

제6단계는 제5단계에서 재배열된 선분들을 투시변환의 수학적인 해석을 하여 텍스쳐 영상의 면방향을 계산하는 단계이다.The sixth step is a step of calculating the plane direction of the texture image by performing a mathematical analysis of the perspective transformation of the line segments rearranged in the fifth step.

시선 방향인 z축에 대해 어느 정도 기울어진 각도를 가지는 3차원 공간상의 평행한 선분들을 투시변환하면, 이 선분들은 영상면내의 무한 원점에서 교차한다. 3차원 공간상에서 한 선분 L은 다음의 식(2)와 같은 점들의 집합으로 표시할 수 잇다.Perspective transformation of parallel segments in three-dimensional space with an angle of inclination with respect to the z-axis, which is the line of sight, intersects at an infinite origin in the image plane. In three-dimensional space, one line segment L can be expressed as a set of points as shown in Equation (2).

이때는 지나는 점을,는 방향 선분을 의미하며,이다.At this time Is passing by, Means the direction segment, to be.

선분 L 위의 한 점이 영상면에 투시 사영되면, 그 좌표(u, v)는 다음의 식 (3)로 나타낼 수 있다. 여기서 (x0, y0, z0)은 투시사영의 중점으로 카메라 렌즈의 위치이고, f는 초점거리이다.If a point on the line segment L is projected on the image plane, the coordinates (u, v) can be expressed by the following equation (3). Where (x0, y0, z0) is the position of the camera lens at the center of the perspective projection, and f is the focal length.

선분 위에 존재하는 점들이 렌즈의 중심으로부터 무한히 멀어지면 상기 식 (2)의 λ가 무한대로 증가하는 경우이며, 무한원점의 위치는 다음의 식 식 (4)를 이용하여 구할 수 있다. 만일 b3가 0이라면, 3차원 상의 모든 선분들은 영상면에 평행하며 무한원점은 존재하지 않게 된다. 위의 식을 이용하여 3차원 좌표계의 선분의 방향 성분을 다음의 식 (5)로 구할 수 있다.When the points on the line segment are infinitely far from the center of the lens, λ of Equation (2) is increased to infinity, and the position of the infinite origin can be obtained using Equation (4) below. If b 3 is 0, all line segments in 3D are parallel to the image plane and there is no infinite point. Using the above equation, the direction component of the line segment of the three-dimensional coordinate system can be obtained by the following equation (5).

재배열 과정을 통해 계산된 무한원점의 위치를 이용하여 상기 식 (5)에서의 방향 성분을 구할 수 있으며, 이 성분에 직교하는 벡터의 관계식을 다음의 식 (6)으로 얻을 수 있다.The orientation component in Equation (5) can be obtained by using the position of the infinite origin calculated through the rearrangement process, and a relational expression of a vector orthogonal to this component can be obtained by the following equation (6).

그리고 영역 분할 과정에서 얻은 틸트를 다음의 식(7)과 같이 나타낼 수 있고, 상기 식(6)과 다음의 식 (7)을 이용하면 텍스쳐 영상의 3차원 정보를 계산할 수 있다.The tilt obtained in the region segmentation process can be expressed as in Equation (7). Using Equation (6) and Equation (7), three-dimensional information of the texture image can be calculated.

제5도 내지 제8도는 본 발명에 의한 텍스쳐 영상의 면방향 추정방법에 의하여 텍스쳐 영상의 면방향을 추정한 결과를 보여주는 도면들이다.5 to 8 are diagrams showing the results of estimating the surface direction of the texture image by the surface direction estimation method of the texture image according to the present invention.

제5도는 고층 빌딩의 외벽처럼 보이도록 투시 변환된 합성 영상(제5(a)도), 제6도는 Brodatz의 D67 플라스틱 구슬들을 3차원으로 투시 변환한 영상(제6(a)도), 제7도는 Brodatz의 D75 커피 원두들을 3차원으로 투시 변환한 영상(제7(a)도), 제8도는 실제 건물벽의 타일 영상(제8(a)도)에 대하여 각각 본 발명에 대하여 각각 본 발명에 의한 방법을 적용한 결과를 보여주는 것이다.FIG. 5 is a composite image (figure 5 (a)) perspectively transformed to look like an exterior wall of a tall building, and FIG. 6 is a perspective view of three-dimensional perspective transformation of Brodatz 'D67 plastic beads (figure 6 (a)), FIG. FIG. 7 is a perspective view of Brodatz's D75 coffee beans in three dimensions (FIG. 7 (a)) and FIG. 8 is a tile image of an actual building wall (FIG. 8 (a)) respectively. The results of applying the method according to the invention are shown.

제5도 내지 제8도의 (b)도에는 연속적으로 이로젼하면서 찾아지는 중심점의 위치를 나타낸 것이다. 각도에서 원(CIRCLE)으로 두 번 이로젼하여 찾아진 중심점은 '+'로, 세 번 이로젼하여 얻어진 중심점은 '?'로, 네 번째는 '×', 다섯 번째는 '○'로 각각 나타내었다. 각 도의 (b)도에서 보이는 바와 같이, 텍스쳐 영상의 전체 영역은 이로젼 연산에 사용된 구성소의 크기로 분할될 수 있음을 확인하였다.5 (b) to 8 (b) show the positions of the center points found while continuously eroding. The center point found by erosion twice from angle to circle (CIRCLE) is represented by '+', the center point obtained by erosion three times is represented by '?', The fourth is represented by '×', and the fifth is represented by '○'. It was. As shown in (b) of FIG. 1, it is confirmed that the entire area of the texture image can be divided by the size of the components used in the erosion calculation.

제5도 내지 제8도의 (c)도는 각 텍스쳐 영상의 분할된 영역내의 중심 선분을 도시한 것이다.5C to 8C show center line segments in the divided regions of the respective texture images.

제5도 내지 제8도의 (d)도는 각 텍스쳐 영상의 분할된 영역내의 중심 선분에 직교하는 선분과 중심 선분과의 교차점을 나타낸 것이다.5D to 8D show the intersection points of the line segments orthogonal to the center segment in the divided region of each texture image.

제5도 내지 제8도의 (e)도는 각 텍스쳐 영상에 대하여 계산된 무한원점으로부터 중심선분간의 거리를 보정한 결과를 보여주는 것이다.5 (e) to 8 (e) show the result of correcting the distance between the centerline and the infinite origin calculated for each texture image.

제5도 내지 제8도의 (f)도는 각 텍스쳐 영상에서 보정된 중심 선분과 함께 무한원점에 수렴하는 직선 성분을 표시한 것으로 수렴하는 직선간의 간격은 이로젼 연산에 사용된 구성소의 크기의 두배이상으로하여 무늬소가 서로 겹치지 않도록 하였다.(F) of Figs. 5 to 8 show the linear components converged to the infinite origin along with the center line segment corrected in each texture image, and the spacing between the convergent straight lines is more than twice the size of the component used in the erosion calculation. As a result, the pattern elements do not overlap each other.

제9도는 제5, 6, 7도의 대상 영상에서 방향성을 가지는 무늬소의 에지를 구하여 도시한 것이다. 무늬소의 에지를 찾기 위하여는 이로젼한 영상과 원영상과의 차영상을 이용하였다.FIG. 9 is a diagram illustrating the edges of a directional pattern having orientation in the target images of FIGS. 5, 6, and 7. In order to find the edge of the pattern, the difference image between the eroded image and the original image was used.

다음의 표1은 제5도 내지 제8도의 각 대상 영상의 에지의 수직 수평 성분을 이용한 군집변환 결과와 본 발명에 의한 방법에 의한 결과를 변환된 실제 각도와 비교하여 각 방법의 오차를 표시한 것이다.Table 1 below shows the error of each method by comparing the results of the cluster transformation using the vertical and horizontal components of the edges of the respective target images of FIGS. 5 to 8 and the results of the method according to the present invention with the converted actual angles. will be.

상기 표1에 나타난 결과를 분석하여 보면, 무늬소가 직선 성분에 에지를 포함하는 제5도와 제8도의 경우, 수직, 수평 성분을 이용하는 군집변환만으로도 비교적 작은 오차범위내에서 3차원적 해석이 가능한 것을 알 수 있다. 그러나, 무늬소의 에지가 불규칙하거나 직선 성분을 포함하고 있지 않은 제6도와 제7도의 경우에는 군집변환으로는 3차원적 해석이 어렵다는 것을 알 수 있다.In the analysis of the results shown in Table 1, in the case of FIGS. 5 and 8 in which the pattern includes the edges in the linear components, the three-dimensional analysis can be performed within a relatively small error range only by using the cluster transformation using the vertical and horizontal components. It can be seen that. However, it can be seen that in the case of FIGS. 6 and 7 in which the edges of the pattern are irregular or do not contain a linear component, the three-dimensional analysis is difficult by the cluster transformation.

따라서, 이러한 경우에는 본 발명에 의한 방법을 사용하여 보다 정확하게 3차원 해석을 수행할 수 있다. 제6도의 D67 플라스틱 구슬들은 원(CIRCLE)과 유사한 구성소를 가지므로 가장 작은 오차를 보였다. 그리고 제5도의 합성 영상과 제8도의 건물벽의 타일 영상의 경우는 제7도의 D75 커피 원두들의 결과보다 더 작은 오차를 보였다. 이러한 결과들을 분석해보면, 본 발명에 의한 방법에서 대상 영상을 이루는 무늬소와 비슷한 구성소를 사용하면 보다 정확한 결과를 얻을 수 있다는 것을 알 수 있다.In this case, therefore, the three-dimensional analysis can be performed more accurately using the method according to the present invention. The D67 plastic beads of FIG. 6 had the smallest error since they had a similar composition to CIRCLE. The composite image of FIG. 5 and the tile image of the building wall of FIG. 8 show smaller errors than the results of D75 coffee beans of FIG. Analyzing these results, it can be seen that in the method according to the present invention, using a component similar to the pattern forming the target image, more accurate results can be obtained.

이상에서 설명한 바와 같이, 본 발명에 의한 텍스쳐 영상의 면방향 추정방법에서는, 수리형태학에 의한 연속적인 이로젼 연산으로 무늬소의 중심점을 얻고, 전체 영역을 분할하고, 분할된 부영역의 중심 선분과 이에 수직인 직선을 구하여, 전체 텍스쳐 영상의 무한 원점을 계산하여 이 직선 성분들을 재배열하고, 계산된 무한원점의 위치와 수직 직선의 정보를 이용하여 텍스쳐 영상의 면방향을 계산하므로, 무늬소의 중심점과 분할된 영역 정보를 이용하게 되고 따라서 직선 성분이 적은 영상에서도 오차가 적은 면방향 추정을 할 수 있다.As described above, in the method of estimating the surface direction of the texture image according to the present invention, the center point of the pattern is obtained by continuous erosion calculation by mathematical morphology, the whole area is divided, and the center line segment of the divided subregion and By finding the vertical straight line, the infinite origin of the whole texture image is calculated and rearranged, and the plane direction of the texture image is calculated using the calculated position of the infinite origin and the information of the vertical straight line. Since the divided region information is used, the plane direction estimation with less error can be performed even in the image with few linear components.

Claims (6)

텍스쳐 영상의 면방향을 추정하는 방법에 있어서, 텍스쳐 영상을 대상으로 수리형태학의 이로젼(erosion) 연산을 연속적으로 수행하면서 텍스쳐 영상을 이루는 각 무늬소의 중심점을 찾는 제1단계; 상기 제1단계에서 중심점이 얻어지는 순서를 이용하여 전체 영상을 무늬소의 크기에 따라 부영역들을 분할하는 제2단계; 상기 제2단계에 의하여 분할된 영역 내에서 얻어진 중심점들을 이용하여 각 영역의 중심 선분을 찾는 제3단계; 상기 제3단계에서 얻어진 중심 선분간의 평균기울기와 이에 직교하는 수직 선분과의 교차점에 이로젼 연산에 이용된 구성소의 크기를 고려하여 무한원점을 계산하는 제4단계; 상기 제4단계에서 구한 무한원점으로부터 각 영역의 중심 선분을 선택하여 재배열하는 제5단계; 및 상기 제5단계에서 재배열된 선분들을 투시변환의 수학적인 해석을 통하여 면방향을 계산하는 제6단계를 포함하는 것을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법.A method of estimating the surface direction of a texture image, the method comprising: a first step of finding a center point of each pattern of a texture image while continuously performing mathematical morphology erosion operations on the texture image; A second step of dividing the entire image according to the size of the pattern by using the order of obtaining the center points in the first step; A third step of finding a center line segment of each area by using the center points obtained in the area divided by the second step; A fourth step of calculating an infinite origin by considering the size of the component used in the erosion operation at the intersection point between the average slope of the center line segment obtained in the third step and the vertical line segment perpendicular to the perpendicular line segment; A fifth step of selecting and rearranging center segments of each region from the infinite origin obtained in the fourth step; And a sixth step of calculating the plane direction of the rearranged line segments through a mathematical analysis of the perspective transformation. 제1항에 있어서, 상기 제1단계의 이로젼 연산시 텍스쳐 영상을 이루는 무늬소의 모양과 크기에 따라 구성소를 선정하는 것임을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법.The method of claim 1, wherein the component is selected according to the shape and size of the pattern forming the texture image during the erosion calculation of the first step. 제2항에 있어서, 상기 구성소는 원(CIRCLE)인 것임을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법.3. The method of claim 2, wherein the component is a circle (CIRCLE). 제1항에 있어서, 상기 제2단계의 영역 분할은, 상기 제1단계에서의 중심점의 위치를 확인하는 과정에서 얻어지는 점들간의 최단거리의 평균을 이용하여 얻어지는 점이 계산된 평균거리보다 떨어져 있을 때, 그 중심점은 다른영역에 포함된 것으로 취급하는 것에 떨어져 있을 때, 그 중심점은 다른 영역에 포함된 것으로 취급하는 것에 의하여 달성되는 것임을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상이 면방향 추정방법.The method of claim 1, wherein the area division of the second step is performed when the point obtained by using the average of the shortest distances between the points obtained in the process of identifying the position of the center point in the first step is farther than the calculated average distance. And when the center point is separated from what is included in another area, the center point is achieved by treating it as included in another area. 제1항에 있어서, 상기 제3단계에서 각 영역의 중심 선분은 상기 제2단계에 의하여 분할된 영역내에서 얻어진 의미있는 중심점들을 허프(Hough)변환하여 얻어지는 것임을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법.The texture image using mathematical morphology according to claim 1, wherein the center line segment of each region in the third step is obtained by Hough transforming the significant center points obtained in the region divided by the second step. Method for estimating plane direction of. 제1항에 있어서, 상기 제4단계는 텍스쳐 영상을 이루는 무늬소가 일정한 경우, 사영 왜곡된 두 무늬소간의 상대적인 거리와 그 크기로부터 무한원점을 계산하는 것임을 특징으로 하는 수리형태학을 이용한 텍스쳐 영상의 면방향 추정방법.The method of claim 1, wherein the fourth step is to calculate the infinite origin from the relative distance between the two projected and distorted patterns and the size thereof when the pattern of the texture image is constant. Planar estimation method.
KR1019960003015A 1996-02-08 1996-02-08 Surface orientation estimating method of texture image using mathematical morphology KR0183335B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019960003015A KR0183335B1 (en) 1996-02-08 1996-02-08 Surface orientation estimating method of texture image using mathematical morphology

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019960003015A KR0183335B1 (en) 1996-02-08 1996-02-08 Surface orientation estimating method of texture image using mathematical morphology

Publications (2)

Publication Number Publication Date
KR970064264A KR970064264A (en) 1997-09-12
KR0183335B1 true KR0183335B1 (en) 1999-05-01

Family

ID=19450920

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960003015A KR0183335B1 (en) 1996-02-08 1996-02-08 Surface orientation estimating method of texture image using mathematical morphology

Country Status (1)

Country Link
KR (1) KR0183335B1 (en)

Also Published As

Publication number Publication date
KR970064264A (en) 1997-09-12

Similar Documents

Publication Publication Date Title
US7133044B2 (en) System of feature-based surface mapping
US9245200B2 (en) Method for detecting a straight line in a digital image
CN107610061B (en) Edge-preserving point cloud hole repairing method based on two-dimensional projection
CN109859226B (en) Detection method of checkerboard corner sub-pixels for graph segmentation
Sharma et al. A comparative study of edge detectors in digital image processing
US20100328308A1 (en) Three Dimensional Mesh Modeling
KR19990067567A (en) Vector Correlation System for Automatic Positioning of Patterns in Images
CN107025687B (en) A kind of view-based access control model relies on the historical relic line chart method for drafting of Curvature Estimate
US20160232259A1 (en) Apparatus and method for interactively extracting shapes from a point cloud
CN104573614A (en) Equipment and method for tracking face
KR20010071343A (en) Method of accurately locating the fractional position of a template match point
KR100523887B1 (en) Semiautomatic segmentation method for estimating three-dimensional volumes
Maver et al. How to decide from the first view where to look next
KR0183335B1 (en) Surface orientation estimating method of texture image using mathematical morphology
CN107248163B (en) Automatic generation method of texture development diagram for rotationally symmetric porcelain
Schlüns et al. Local and global integration of discrete vector fields
KR20030032626A (en) Device and method for detecting edge of each face of three dimensional image
JPH11506847A (en) Visual identification method
Angulo et al. Multiscale local multiple orientation estimation using Mathematical Morphology and B-spline interpolation
Fernandes et al. A fast and accurate approach for computing the dimensions of boxes from single perspective images
Barrena et al. Wapt-surface normal estimation for improved template matching in visual tracking
Bischof et al. Efficient sparse 3d reconstruction by space sweeping
Hild et al. Extraction of texture elements from images of shaded scenes
Lu et al. Detecting textured objects using convex hull
Fernandes et al. Computing box dimensions from single perspective images in real time

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070918

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee