KR100491446B1 - Road Extraction from images using Template Matching - Google Patents

Road Extraction from images using Template Matching Download PDF

Info

Publication number
KR100491446B1
KR100491446B1 KR10-2002-0043231A KR20020043231A KR100491446B1 KR 100491446 B1 KR100491446 B1 KR 100491446B1 KR 20020043231 A KR20020043231 A KR 20020043231A KR 100491446 B1 KR100491446 B1 KR 100491446B1
Authority
KR
South Korea
Prior art keywords
window
template
target
coordinates
orientation
Prior art date
Application number
KR10-2002-0043231A
Other languages
Korean (ko)
Other versions
KR20040009317A (en
Inventor
김태정
박승란
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR10-2002-0043231A priority Critical patent/KR100491446B1/en
Publication of KR20040009317A publication Critical patent/KR20040009317A/en
Application granted granted Critical
Publication of KR100491446B1 publication Critical patent/KR100491446B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인공위성 또는 항공기에서 촬영한 영상으로부터 지도를 제작하기 위해 도로를 추출하는 방법에 관한 것으로, 더욱 자세하게는 촬영된 영상으로부터 도로를 추출함에 있어, 영상의 템플릿(template) 정합(matching)을 이용해 도로를 추출하는 방법에 관한 것이다.The present invention relates to a method of extracting a road for making a map from an image taken by a satellite or an aircraft, and more particularly, in extracting a road from a photographed image, using template matching of an image. To extract the road.

본 발명은, 인공위성이나 항공기를 통해 촬영된 영상으로부터 도로를 추출하는 방법에 있어서, 초기 입력 좌표가 선택되면, 상기 선택된 초기 입력 좌표의 방위를 계산하는 제1 단계; 상기 초기 입력 좌표를 중심으로 상기 계산된 방위만큼 기울어진 템플릿 윈도우를 생성하는 제2 단계; 상기 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 이동한 초기 목적 윈도우를 생성하는 제3 단계; 상기 생성된 초기 목적 윈도우를 중심으로 템플릿 정합을 수행하여 윈도우의 중심점 좌표와 새로운 방위를 계산하는 제4 단계; 상기 계산된 중심점 좌표로부터 상기 계산된 새로운 방위 방향으로 이동한 새로운 목적 윈도우를 생성하여 모든 영상에 대한 처리가 완료될 때까지 상기 제4 단계를 반복 수행하는 제5 단계; 및 상기 영상으로부터 얻어진 중심점들을 연결하여 도로를 생성하는 제6 단계를 포함한다.According to an aspect of the present invention, there is provided a method of extracting a road from an image captured by a satellite or an aircraft, comprising: a first step of calculating an orientation of the selected initial input coordinates when initial input coordinates are selected; Generating a template window inclined by the calculated orientation about the initial input coordinate; Generating an initial object window moved in the azimuth direction of input coordinates from the generated template window; A fourth step of performing template matching about the generated initial object window to calculate a center point coordinate and a new orientation of the window; A fifth step of generating a new object window moved in the calculated new azimuth direction from the calculated center point coordinates and repeatedly performing the fourth step until processing for all images is completed; And a sixth step of generating roads by connecting center points obtained from the image.

Description

템플릿 정합을 이용한 영상에서 도로 추출방법{Road Extraction from images using Template Matching} Road Extraction from images using Template Matching

본 발명은 인공위성 또는 항공기에서 촬영한 영상으로부터 지도를 제작하기 위해 도로를 추출하는 방법에 관한 것으로, 더욱 자세하게는 촬영된 영상으로부터 도로를 추출함에 있어, 영상의 템플릿(template) 정합(matching)을 이용해 도로를 추출하는 방법에 관한 것이다.The present invention relates to a method of extracting a road for making a map from an image taken by a satellite or an aircraft, and more particularly, in extracting a road from a photographed image, using template matching of an image. To extract the road.

지도를 제작하는 방법들 중에 최근에는 인공위성이나 항공기를 이용해 촬영한 영상을 이용해 지도를 제작하는 방법이 있다. 즉, 이는 항공기나 인공위성을 통해 촬영된 영상의 일그러짐을 보정하고, 보정된 영상을 이용해 지도를 제작하는 방법이다. 그 예로서 대한민국 공개특허공보 2001-25089호가 있다. 상기 2001-25089호는 촬영 영상을 이용한 지도 제작 방법이 개시되어 있다. 상기 방법은 제1 고도에서 촬영한 지도 작성용 영상을 취득하는 단계와, 상기 제1 고도보다 높은 제2 고도에서 촬영한 일그러짐 보정용 영상을 취득하는 단계와, 상기 일그러짐 보정용 영상을 사용하여 지도 작성용 영상의 일그러짐을 보정하는 단계와, 상기 보정된 지도 작성용 영상을 기초로 지도를 작성하는 단계를 포함한다.Recently, among the methods of making a map, there is a method of making a map using images taken by satellite or aircraft. In other words, this is a method of correcting the distortion of the image taken by the aircraft or satellite, and producing a map using the corrected image. An example is Korea Patent Publication No. 2001-25089. 2001-25089 discloses a map making method using photographed images. The method includes the steps of acquiring a map making image photographed at a first altitude, acquiring a distortion correction image photographed at a second altitude higher than the first altitude, and using the distortion correction image for map making. Correcting the distortion of the image, and creating a map based on the corrected map making image.

이와 같은 지도 제작 방법에 있어서, 영상으로부터 도로와 같은 지형물을 추출하는 방법의 예로는 "스낵(Snake)"이라 불리는 방법이 있다. 상기 "스낵"은 사용자가 수작업을 통해 영상에 나타난 도로 윤곽을 따라 점선으로 표시하고, 상기 표시된 점선을 보정하여 도로를 추출하는 방법이다. 따라서, 상기와 같은 종래의 도로 추출방법은 사용자의 수작업에 의지하기 때문에, 최종 작성된 도로의 정확성이 떨어질 수 있고, 많은 시간이 요구되는 문제점이 있었다.In such a mapping method, an example of a method of extracting a feature such as a road from an image is a method called “snake”. The “snack” is a method in which a user displays a dotted line along a road outline shown in an image by hand and corrects the displayed dotted line to extract a road. Therefore, since the conventional road extraction method as described above relies on the manual work of the user, the accuracy of the finally drawn road may be degraded and a lot of time is required.

따라서, 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 영상으로부터 지도 제작을 위한 도로를 추출함에 있어, 영상의 템플릿 정합을 이용해 도로를 연속적으로 추출하는 방법을 제공하는데 있다. Accordingly, the present invention is to solve the problems of the prior art as described above, an object of the present invention is to extract a road for making a map from the image, to provide a method for continuously extracting the road using a template matching of the image It is.

상기 목적을 달성하기 위한 본 발명은, 항공기나 인공위성을 통해 촬영된 영상에서 사용자가 도로의 중앙선 부근의 한 점을 초기 입력 좌표로 선택하면, 상기 선택된 좌표의 방위(orientation)가 계산된다. 그리고, 상기 계산된 방위를 바탕으로 초기 템플릿이 생성되고, 상기 생성된 초기 템플릿에서 유사 변형(similarity transformation)을 기반으로 하는 적응적인 최소자승상관(least square correlation)이 수행된다. 이런 결과로, 초기 입력 좌표와 유사한 도로의 중앙선이 순차적으로 추출된다.According to the present invention for achieving the above object, when the user selects a point near the centerline of the road as an initial input coordinate in an image photographed through an aircraft or a satellite, an orientation of the selected coordinate is calculated. An initial template is generated based on the calculated orientation, and an adaptive least square correlation based on similar transformation is performed in the generated initial template. As a result, the center line of the road similar to the initial input coordinates is sequentially extracted.

또한, 본 발명에서는 컴퓨터에서, 초기 입력 좌표가 선택되면, 상기 선택된 초기 입력 좌표의 방위를 계산하는 제1 단계; 상기 초기 입력 좌표를 중심으로 상기 계산된 방위만큼 기울어진 템플릿 윈도우를 생성하는 제2 단계; 상기 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 이동한 초기 목적 윈도우를 생성하는 제3 단계; 상기 생성된 초기 목적 윈도우를 중심으로 템플릿 정합을 수행하여 윈도우의 중심점 좌표와 새로운 방위를 계산하는 제4 단계; 상기 계산된 중심점 좌표로부터 상기 계산된 새로운 방위 방향으로 이동한 새로운 목적 윈도우를 생성하여 모든 영상에 대한 처리가 완료될 때까지 상기 제4 단계를 반복 수행하는 제5 단계; 및 상기 영상으로부터 얻어진 중심점들을 연결하여 도로를 생성하는 제6 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.Also, in the present invention, if the initial input coordinates is selected in the computer, a first step of calculating the orientation of the selected initial input coordinates; Generating a template window inclined by the calculated orientation about the initial input coordinate; Generating an initial object window moved in the azimuth direction of input coordinates from the generated template window; A fourth step of performing template matching about the generated initial object window to calculate a center point coordinate and a new orientation of the window; A fifth step of generating a new object window moved in the calculated new azimuth direction from the calculated center point coordinates and repeatedly performing the fourth step until processing for all images is completed; And a computer-readable recording medium having recorded thereon a program for executing the sixth step of generating roads by connecting the center points obtained from the images.

이와 같은 본 발명에 의하면, 종래의 방법에 비해 간단한 사용자의 입력에 의해 도로가 추출되며, 영상의 템플릿 정합을 사용하기 때문에, 빠른 시간내에 매우 정확한 도로를 추출할 수 있는 잇점이 있다.According to the present invention as described above, since the road is extracted by a simple user input compared to the conventional method, and the template matching of the image is used, there is an advantage that a very accurate road can be extracted within a short time.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명에 따른 영상에서 도로를 추출하는 과정을 나타낸 흐름도이고, 도2는 본 발명을 이용해 영상에서 도로를 추출한 결과를 나타낸 도면이다.1 is a flowchart illustrating a process of extracting a road from an image according to the present invention, and FIG. 2 is a view showing a result of extracting a road from an image using the present invention.

본 발명은 일정정도의 처리 속도를 갖는 통상의 컴퓨터에서 동작하는 것으로, 상기 컴퓨터에 대한 설명은 생략한다. 또한, 본 발명에서 이용되는 영상은 촬영된 영상을 보정한 영상인 것이 바람직하다. 더욱이, 영상에서 선택된 도로의 밝기 값은 일정하다고 가정한다. 이와 같은 전제 하에서 도면을 참조하여 본 발명에 따른 일 실시 예를 상세히 설명한다.The present invention operates in a conventional computer having a certain processing speed, the description of the computer is omitted. In addition, the image used in the present invention is preferably an image corrected for the photographed image. Moreover, it is assumed that the brightness value of the selected road in the image is constant. With reference to the drawings under such a premise will be described in detail an embodiment according to the present invention.

사용자가 인공위성이나 항공기를 통해 촬영된 영상에서 초기 입력 좌표로 도로의 중앙선 부분을 선택하면, 상기 선택된 부분의 초기 입력 좌표가 입력된다(101). 그러면, 상기 초기 입력 좌표의 방위가 계산된다(102). 상기 초기 입력 좌표의 방위를 계산하는 방법으로는 다음 두가지 방법이 있을 수 있다. 첫 번째 방법은 상기 초기 입력 좌표를 중심으로 일정 구역 내의 라인 정보를 추출해 내고, 상기 추출된 라인 정보의 방위를 상기 초기 입력 좌표의 방위로 결정하는 방법이다. 여기서, 일정 구역 내의 라인 정보 추출은, 영상에서 밝기 차이에 의해 에지를 추출하고, 상기 추출된 에지를 직선화 함으로써 달성되는데, 이는 일반적인 공지 기술이다. 두 번째 방법은 영상에서 라인 정보가 희미하거나 부재인 곳의 방위를 계산하기 위해 사용되는 방법으로, 사용자는 두 개의 초기 입력 좌표를 선택한다. 그러면, 상기 선택된 두 입력 좌표의 기울기 값이 계산되고, 상기 계산된 기울기 값을 상기 초기 입력 좌표의 방위로 결정하는 방법이다.When the user selects the center line portion of the road as the initial input coordinates from the image captured by the satellite or the aircraft, the initial input coordinates of the selected portion are input (101). The orientation of the initial input coordinates is then calculated 102. There are two methods for calculating the orientation of the initial input coordinates. The first method is a method of extracting line information in a predetermined area around the initial input coordinates, and determining the orientation of the extracted line information as the orientation of the initial input coordinates. Here, the extraction of line information in a certain area is achieved by extracting an edge by the brightness difference in the image and straightening the extracted edge, which is a general known technique. The second method is used to calculate the orientation of where the line information is faint or absent in the image, and the user selects two initial input coordinates. Then, a slope value of the two selected input coordinates is calculated, and the calculated slope value is determined as the orientation of the initial input coordinates.

전술한 바와 같은 과정을 통해 입력 좌표의 방위가 계산되면, 상기 초기 입력 좌표를 중심으로 계산된 방위만큼 기울어진 템플릿 윈도우(window)를 생성한다(103). 여기서, 상기 템플릿 윈도우의 크기는 컴퓨터의 처리 속도 및 연산 과정을 고려하여 적절한 크기로 결정한다. 이와 같이 템플릿 윈도우가 생성되면, 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 이동한 초기 목적 윈도우를 생성한다(104). 그리고, 상기 생성된 목적 윈도우를 중심으로 템플릿 정합(matching)을 수행하여 윈도우의 중심점 좌표와 새로운 방위를 계산한다(105). 그런 다음, 상기 계산된 중심점 좌표로부터 상기 계산된 방위 방향으로 이동한 새로운 목적 윈도우를 생성하여 상기 104 단계 이하를 반복 수행함으로써, 초기 템플릿 윈도우에 대응되는 도로의 중앙선을 추출한다(106,107,108).When the orientation of the input coordinates is calculated through the above-described process, a template window inclined by the orientation calculated about the initial input coordinates is generated (103). In this case, the size of the template window is determined to be an appropriate size in consideration of the processing speed and the computation process of the computer. When the template window is generated as described above, an initial object window moved in the azimuth direction of the input coordinates is generated from the generated template window (104). Then, template matching is performed about the generated target window to calculate a center point coordinate and a new orientation of the window (105). Then, by generating a new object window moved in the calculated azimuth direction from the calculated center point coordinates and performing the steps 104 and below, the center line of the road corresponding to the initial template window is extracted (106, 107, 108).

이하에서 생성된 템플릿 윈도우를 기준으로 정합을 수행하는 과정을 상세히 설명한다.Hereinafter, a process of performing matching based on the generated template window will be described in detail.

먼저, 생성된 템플릿 윈도우를 기준으로 일정거리만큼 이동된 지점에 초기 목적(target) 윈도우를 생성한다(104). 상기 초기 목적 윈도우는 가정에 의한 목적 윈도우이며, 실제적인 목적 윈도우는 유사 변형(similarity transformation)을 기반으로 한 적응적인 최소자승상관(Least Square Correlation)을 통해 최적의 정합 결과를 갖는 목적 윈도우가 생성된다(105). 상기 목적 윈도우를 생성하는 과정을 두 가지 방법으로 나타낼 수 있으며, 각각의 수학식은 다음과 같다.First, an initial target window is generated at a point moved by a predetermined distance based on the generated template window (104). The initial object window is a hypothetical object window, and an object window having an optimal matching result is generated through an adaptive least square correlation based on similarity transformation. (105). The process of generating the object window can be represented in two ways, and each equation is as follows.

먼저, 첫 번째 방법은 템플릿 윈도우가 x와 y 축 방향으로 이동되어 초기 목적 윈도우가 생성되는 방법이다. 이를 수학식으로 나타내면 수학식1과 수학식2로 표현될 수 있다. 수학식1은 템플릿 윈도우와 목적 윈도우 사이의 유사 변형 과정을 나타낸 수학식이다. 즉, 수학식1에서 초기 θ, s1, s2는 임의적으로 가정한 값으로, 상기 수학식1을 통해 최적이 아닌 초기 목적 윈도우의 x, y 좌표값을 얻는다. 그런 다음, 상기 얻어진 좌표 값을 수학식2에 대입하여, 상기 수학식2를 통해 최적의 θ, s1, s2를 얻는다. 그리고, 상기 수학식2를 통해 얻어진 최적의 θ, s1 , s2를 수학식1에 다시 대입하여 최적의 목적 윈도우의 중심 좌표값을 획득한다.First, the first method is a method in which the template window is moved in the x and y axis directions to generate an initial object window. This may be represented by equations (1) and (2). Equation 1 is an equation showing a similar deformation process between the template window and the object window. That is, in Equation 1, initial θ, s 1 , and s 2 are arbitrary values, and x and y coordinate values of the initial object window that are not optimal are obtained through Equation 1 above. Then, the obtained coordinate values are substituted into Equation 2 to obtain optimal θ, s 1 , s 2 through Equation 2. Subsequently, the optimum θ, s 1 , s 2 obtained through Equation 2 is substituted into Equation 1 to obtain an optimal center coordinate value of the target window.

상기 수학식1에서 θ는 계산된 초기 입력 좌표의 방위이고, (s1, s2)는 x와 y축 방향으로 템플릿 윈도우가 이동된 경로를 나타낸다. 또한 (xtemplate, ytemplate)는 초기 입력 좌표를 중심으로 형성된 템플릿 윈도우의 중심 좌표이며, (xtarget, ytarget)는 유사 변형을 통해 일정 거리만큼 이동된 목적 윈도우의 중심 좌표이다.In Equation 1, θ is the orientation of the calculated initial input coordinates, and (s 1 , s 2 ) represents a path in which the template window is moved in the x and y axis directions. Also, (x template , y template ) is the center coordinate of the template window formed around the initial input coordinates, and (x target , y target ) is the center coordinate of the target window moved by a certain distance through similar transformation.

수학식2는 유사 변형을 바탕으로 하는 적응적인 최소자승상관을 통해 최적의 θ와 (s1, s2)를 찾기 위한 식이다.Equation 2 is an equation for finding the optimal θ and (s 1 , s 2 ) through the adaptive least-square correlation based on the similar deformation.

I = AxI = Ax

I = {f(xtarget, ytarget)-g(xtemplate, ytemplate)}I = {f (x target , y target ) -g (x template , y template )}

xT = [Δθ Δs1 Δs2 rs]x T = [Δθ Δs 1 Δs 2 r s ]

수학식2에서 δx 와 δy는 (xtarget, ytarget)에서 x와 y 방향으로의 밝기 값의 변화율을 나타내고, 함수 f는 목적 윈도우의 밝기 함수이며, 함수 g는 템플릿 윈도우의 밝기 함수이다. 그리고 수학식2에서 rs는 템플릿 윈도우와 목적 윈도우의 평균 밝기 값의 차이를 나타낸다. 상기와 같은 수학식1과 수학식2를 통해 목적 윈도우의 중심 좌표 값이 계산된다.In Equation 2, δ x and δ y represent the rate of change of the brightness value from (x target , y target ) in the x and y directions, and the function f is the brightness function of the target window, and the function g is the brightness function of the template window. . In Equation 2, r s represents a difference between average brightness values of the template window and the target window. The coordinate values of the center of the object window are calculated through Equations 1 and 2 as described above.

상기 목적 윈도우를 생성하는 두 번째 방법은 초기 목적 윈도우가 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 수직 이동되어 생성되는 방법이다. 이를 수학식으로 나타내면 수학식3과 수학식4로 표현될 수 있다. 수학식3은 템플릿 윈도우와 목적 윈도우 사이의 유사 변형 과정을 나타낸 수학식이다. 즉, 수학식3에서 초기 θ, s1는 임의적으로 가정한 값으로, 상기 수학식3을 통해 최적이 아닌 초기 목적 윈도우의 x, y 좌표값을 얻는다. 그런 다음, 상기 얻어진 좌표 값을 수학식4에 대입하여, 상기 수학식4를 통해 최적의 θ, s1를 얻는다. 그리고, 상기 수학식4를 통해 얻어진 최적의 θ, s1를 수학식3에 다시 대입하여 최적의 목적 윈도우의 중심 좌표값을 획득한다.The second method of generating the object window is a method in which the initial object window is vertically moved from the template window in the direction of the input coordinates. This may be represented by equations (3) and (4). Equation 3 is an equation showing a similar deformation process between the template window and the object window. That is, in Equation 3, initial θ and s 1 are arbitrary values, and x and y coordinate values of the initial object window that are not optimal are obtained through Equation 3 above. Then, the obtained coordinate values are substituted into Equation 4 to obtain optimal θ, s 1 from Equation 4. Subsequently, the optimum θ, s 1 obtained through Equation 4 is substituted into Equation 3 again to obtain the center coordinate value of the optimum object window.

수학식3은 상기 수학식1에서 초기 s1, s2의 설정 방식을 변경한 방식으로, 초기 목적 윈도우가 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 수직 이동했음을 가정한 수학식이다. 상기 수학식3에서 θ는 계산된 초기 입력 좌표의 방위이고, θ0 는 목적 윈도우의 초기 방위이며, s1은 y축 방향으로 템플릿 윈도우가 이동된 경로, (xtemplate, ytemplate)는 초기 입력 좌표를 중심으로 형성된 템플릿 윈도우의 중심 좌표, (xtarget, ytarget)는 유사 변형을 통해 일정 거리만큼 이동된 목적 윈도우의 중심 좌표를 나타낸다. 상기 수학식3을 통해 최적이 아닌 초기 목적 윈도우의 x, y 좌표 값을 얻은 다음, 위와 같은 방식으로 상기 얻어진 좌표 값을 수학식 4에 대입하여, 상기 수학식4를 통해 최적의 θ, s1 를 얻는다. 그리고, 상기 수학식4를 통해 얻어진 최적의 θ, s1 을 수학식3에 다시 대입하여 최적의 목적 윈도우의 중심 좌표 값을 획득한다.Equation 3 is a method of changing the initial s 1 , s 2 setting method in Equation 1, and assumes that the initial object window is vertically moved in the azimuth direction of the input coordinates from the generated template window. In Equation 3, θ is the orientation of the calculated initial input coordinates, θ 0 is the initial orientation of the target window, s 1 is the path in which the template window is moved in the y-axis direction, and (x template , y template ) is the initial input. The center coordinates (x target , y target ) of the template window formed around the coordinates indicate the center coordinates of the object window moved by a certain distance through similar transformation. After obtaining the x, y coordinate values of the initial target window that is not optimal through Equation 3, and substitutes the obtained coordinate values into Equation 4 in the same manner as above, the optimal θ, s 1 through Equation 4 Get Subsequently, the optimal θ, s 1 obtained through Equation 4 is substituted into Equation 3 to obtain the center coordinate value of the optimum object window.

수학식4는 유사 변형을 바탕으로 하는 적응적인 최소자승상관을 통해 최적의 θ, s1 을 찾기 위한 식이다.Equation 4 is for finding the optimal θ, s 1 through the adaptive least-square correlation based on the similar deformation.

I = AxI = Ax

I = {f(xtarget, ytarget)-g(xtemplate, ytemplate)}I = {f (x target , y target ) -g (x template , y template )}

xT = [Δθ Δs1 rs]x T = [Δθ Δs 1 r s ]

상기와 같은 수학식3과 수학식4를 통해 목적 윈도우의 중심 좌표 값이 계산될 수 있다.The center coordinate values of the object window may be calculated by using Equations 3 and 4 as described above.

이와 같이 하나의 목적 윈도우에 대한 처리가 완료되면, 상기 계산된 목적 윈도우의 중심 좌표값을 초기 입력 좌표값으로 하여, 모든 영상에 대한 처리가 완료될 때까지 상기 104 단계 이하를 반복 수행한다(106, 107). 모든 영상에 대한 처리를 통해 중심 좌표 값이 얻어지면, 상기 중심 좌표들를 연결함으로써 도로가 추출된다(108). 한편, 템플릿 정합을 수행하는 과정에서 템플릿 정합 연산이 적어도 두번 이상 실패할 경우에는 본 발명의 처리 과정이 종료된다.When the processing for one object window is completed as described above, using the calculated central coordinate value of the object window as the initial input coordinate value, steps 104 and below are repeated until the processing for all images is completed (106). , 107). If a center coordinate value is obtained through processing on all images, a road is extracted 108 by concatenating the center coordinates. On the other hand, if the template matching operation fails at least twice in the process of performing the template matching, the process of the present invention is terminated.

이상의 설명에서는 영상으로부터 도로를 추출하는 과정에 대해서만 설명하였지만, 본 발명의 방법을 이용해 영상으로부터 강이나 건물의 경계와 같은 것들을 추출하는 것도 가능하다. 또한, 전술한 바와 같은 템플릿 정합 방법 이외에도 일반적으로 공지된 템플릿 정합 방법이 적용될 수 있음은 자명하다 할 것이다.In the above description, only a process of extracting a road from an image has been described, but it is also possible to extract such a boundary as a river or a building from the image by using the method of the present invention. In addition, it will be apparent that a generally known template matching method may be applied in addition to the template matching method as described above.

이상에서 양호한 실시 예에 근거하여 본 발명을 설명하였지만, 이러한 실시 예는 본 발명을 제한하려는 것이 아니라 예시하려는 것이다. 본 발명이 속하는 분야의 숙련자에게는 본 발명의 기술사상을 벗어남이 없이 위 실시 예에 대한 다양한 변화나 변경 또는 조절이 가능함이 자명할 것이다. 그러므로, 본 발명의 보호범위는 첨부된 청구범위에 의해서만 한정될 것이며, 위와 같은 변화 예나 변경 예 또는 조절 예를 모두 포함하는 것으로 해석되어야 할 것이다.Although the present invention has been described above based on the preferred embodiments, these embodiments are intended to illustrate rather than limit the present invention. It will be apparent to those skilled in the art that various changes, modifications, or adjustments to the above embodiments can be made without departing from the spirit of the present invention. Therefore, the protection scope of the present invention will be limited only by the appended claims, and should be construed as including all such changes, modifications or adjustments.

상기와 같은 본 발명에 의하면, 사용자가 한번의 초기 좌표값을 입력하는 것에 의해 자동으로 도로를 영상으로부터 추출할 수 있어, 수작업에 따른 문제점을 해결할 수 있고, 정확하면서도 자연스러운 도로를 생성할 수 있는 잇점이 있다.According to the present invention as described above, the user can automatically extract the road from the image by inputting a single initial coordinate value, can solve the problems caused by the manual work, it is possible to create an accurate and natural road There is this.

도1은 본 발명에 따른 영상에서 도로를 추출하는 과정을 나타낸 흐름도.1 is a flowchart illustrating a process of extracting a road from an image according to the present invention.

도2는 본 발명을 이용해 영상에서 도로를 추출한 결과를 나타낸 도면.2 is a view showing a result of extracting the road from the image using the present invention.

Claims (6)

도로가 포함된 영상으로부터 도로를 추출하는 방법으로서,As a method of extracting a road from an image including a road, 상기 도로가 포함된 영상의 특정 도로 상에서 초기 입력 좌표를 선택하여, 상기 초기 입력 좌표의 방위를 계산하는 제1 단계와,A first step of selecting an initial input coordinate on a specific road of the image including the road to calculate an orientation of the initial input coordinate; 상기 초기 입력 좌표를 중심으로 상기 계산된 방위만큼 기울어진 템플릿 윈도우를 생성하는 제2 단계와,Generating a template window inclined by the calculated orientation about the initial input coordinate; 상기 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 이동한 초기 목적 윈도우를 생성하는 제3 단계와,Generating an initial object window moved in the azimuth direction of input coordinates from the generated template window; 상기 생성된 초기 목적 윈도우를 중심으로 템플릿 정합을 수행하여 윈도우의 중심점 좌표와 새로운 방위를 계산하고, 상기 계산된 중심점 좌표로부터 상기 계산된 새로운 방위 방향으로 이동한 새로운 목적 윈도우를 생성하는 과정을 상기 도로가 포함된 영상에 대해 처리가 완료될 때까지 반복 수행하는 제4 단계와,The process of performing template matching with respect to the generated initial object window to calculate a center point coordinate and a new orientation of the window, and generating a new object window moved in the calculated new orientation direction from the calculated center point coordinates. A fourth step of repeatedly performing processing on the image containing the image; 상기 상기 항공 촬영된 영상으로부터 얻어진 중심점들을 연결하여 도로를 생성하는 제5 단계A fifth step of generating roads by connecting center points obtained from the aerial image; 를 포함하는 템플릿 정합을 이용한 영상에서 도로 추출방법.Road extraction method from the image using a template matching comprising a. 제 1 항에 있어서,The method of claim 1, 상기 제1 단계에서 상기 방위 계산은, 상기 초기 입력 좌표를 중심으로 일정 구역 내의 라인 정보를 추출하고, 상기 추출된 라인 정보의 방위를 계산함으로써 달성되는 것을 특징으로 하는 템플릿 정합을 이용한 영상에서 도로 추출방법.In the first step, the azimuth calculation is performed by extracting line information in a predetermined area around the initial input coordinates, and calculating azimuth of the extracted line information. Way. 제 1 항에 있어서,The method of claim 1, 상기 제1 단계에서 상기 방위 계산은, 두개의 초기 입력 좌표를 선택하고, 상기 두개의 초기 입력 좌표의 기울기를 계산함으로써 달성되는 것을 특징으로 하는 템플릿 정합을 이용한 영상에서 도로 추출방법.In the first step, the azimuth calculation is achieved by selecting two initial input coordinates and calculating a slope of the two initial input coordinates. 제 1 항에 있어서,The method of claim 1, 상기 제4 단계의 중심점 좌표와 방위는, 하기의 수학식5에 의해 계산되는 것을 특징으로 하는 템플릿 정합을 이용한 영상에서 도로 추출방법.The center point coordinates and azimuth of the fourth step are calculated by Equation 5 below. I = AxI = Ax I = {f(xtarget, ytarget)-g(xtemplate, ytemplate)}I = {f (x target , y target ) -g (x template , y template )} xT = [Δθ Δs1 Δs2 rs]x T = [Δθ Δs 1 Δs 2 r s ] 여기서, θ는 방위, (s1, s2)는 x와 y축 방향으로 템플릿 윈도우가 이동된 경로, (xtemplate, ytemplate)는 초기 입력 좌표를 중심으로 형성된 템플릿 윈도우의 중심 좌표, (xtarget, ytarget)는 유사 변형을 통해 일정 거리만큼 이동된 목적 윈도우의 중심 좌표, δx 와 δy는 (xtarget, ytarget)에서 x와 y 방향으로의 밝기 값의 변화율, 함수 f는 목적 윈도우의 밝기 함수, 함수 g는 템플릿 윈도우의 밝기 함수, rs는 템플릿 윈도우와 목적 윈도우의 평균 밝기 값의 차이를 각각 나타낸다.Here, θ is the orientation, (s 1 , s 2 ) is the path the template window is moved in the x and y-axis direction, (x template , y template ) is the center coordinates of the template window formed around the initial input coordinates, (x target , y target ) are the coordinates of the center of the objective window shifted by a certain distance through similar transformations, δ x and δ y are the rate of change of the brightness values from (x target , y target ) in the x and y directions, and the function f is the objective The brightness function of the window, function g is the brightness function of the template window, and r s represents the difference between the average brightness values of the template window and the target window, respectively. 제 1 항에 있어서,The method of claim 1, 상기 제4 단계의 중심점 좌표와 방위는 다음 수학식6에 의해 계산되는 것을 특징으로 하는 템플릿 정합을 이용한 영상에서 도로 추출방법.The center point coordinates and azimuth of the fourth step are calculated by Equation 6 below. I = AxI = Ax I = {f(xtarget, ytarget)-g(xtemplate, ytemplate)}I = {f (x target , y target ) -g (x template , y template )} xT = [Δθ Δs1 rs]x T = [Δθ Δs 1 r s ] 여기서, θ는 계산된 초기 입력 좌표의 방위이고, θ0 는 목적 윈도우의 초기 방위이며, s1은 y축 방향으로 템플릿 윈도우가 이동된 경로, (xtemplate, ytemplate)는 초기 입력 좌표를 중심으로 형성된 템플릿 윈도우의 중심 좌표, (xtarget, ytarget)는 유사 변형을 통해 일정 거리만큼 이동된 목적 윈도우의 중심 좌표, δy는 (xtarget, ytarget)에서 y 방향으로의 밝기 값의 변화율, 함수 f는 목적 윈도우의 밝기 함수, 함수 g는 템플릿 윈도우의 밝기 함수, rs는 템플릿 윈도우와 목적 윈도우의 평균 밝기 값의 차이를 각각 나타낸다.Where θ is the orientation of the calculated initial input coordinates, θ 0 is the initial orientation of the target window, s 1 is the path through which the template window is moved in the y-axis direction, and (x template , y template ) is centered on the initial input coordinates. The center coordinates of the template window formed by (x target , y target ) are the center coordinates of the target window moved by a certain distance through similar transformation, and δ y is the rate of change of the brightness value from (x target , y target ) to the y direction. Where function f is the brightness function of the target window, function g is the brightness function of the template window, and r s represents the difference between the average brightness values of the template window and the target window. 컴퓨터에서,On the computer, 상기 도로가 포함된 영상의 특정 도로 상에서 초기 입력 좌표를 선택하여, 상기 초기 입력 좌표의 방위를 계산하는 제1 단계와,A first step of selecting an initial input coordinate on a specific road of the image including the road to calculate an orientation of the initial input coordinate; 상기 초기 입력 좌표를 중심으로 상기 계산된 방위만큼 기울어진 템플릿 윈도우를 생성하는 제2 단계와,Generating a template window inclined by the calculated orientation about the initial input coordinate; 상기 생성된 템플릿 윈도우로부터 입력 좌표의 방위 방향으로 이동한 초기 목적 윈도우를 생성하는 제3 단계와,Generating an initial object window moved in the azimuth direction of input coordinates from the generated template window; 상기 생성된 초기 목적 윈도우를 중심으로 템플릿 정합을 수행하여 윈도우의 중심점 좌표와 새로운 방위를 계산하고, 상기 계산된 중심점 좌표로부터 상기 계산된 새로운 방위 방향으로 이동한 새로운 목적 윈도우를 생성하는 과정을 상기 도로가 포함된 영상에 대해 처리가 완료될 때까지 반복 수행하는 제4 단계와,The process of performing template matching with respect to the generated initial object window to calculate a center point coordinate and a new orientation of the window, and generating a new object window moved in the calculated new orientation direction from the calculated center point coordinates. A fourth step of repeatedly performing processing on the image containing the image; 상기 상기 항공 촬영된 영상으로부터 얻어진 중심점들을 연결하여 도로를 생성하는 제5 단계A fifth step of generating roads by connecting center points obtained from the aerial image; 를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the program.
KR10-2002-0043231A 2002-07-23 2002-07-23 Road Extraction from images using Template Matching KR100491446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0043231A KR100491446B1 (en) 2002-07-23 2002-07-23 Road Extraction from images using Template Matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0043231A KR100491446B1 (en) 2002-07-23 2002-07-23 Road Extraction from images using Template Matching

Publications (2)

Publication Number Publication Date
KR20040009317A KR20040009317A (en) 2004-01-31
KR100491446B1 true KR100491446B1 (en) 2005-05-25

Family

ID=37318251

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0043231A KR100491446B1 (en) 2002-07-23 2002-07-23 Road Extraction from images using Template Matching

Country Status (1)

Country Link
KR (1) KR100491446B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100959943B1 (en) 2009-10-28 2010-05-27 새한항업(주) Revision method of picture image based on the three-dimensional model data

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100522865B1 (en) * 2004-01-14 2005-10-19 (주)쎄트렉아이 Road Extraction Method Out Of Digital Image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149424A (en) * 1996-11-19 1998-06-02 Mitsubishi Electric Corp Topography generation device
JP2000222574A (en) * 1999-01-28 2000-08-11 Hitachi Ltd Method for extracting linear area of digital picture, and picture processor
KR20010025089A (en) * 1999-03-24 2001-03-26 가토 신이치 Method and device for making map using photograph image and method for correcting distortion of photograph image
JP2002074358A (en) * 2000-08-31 2002-03-15 Mitsubishi Heavy Ind Ltd Device and method for processing road extraction picture

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10149424A (en) * 1996-11-19 1998-06-02 Mitsubishi Electric Corp Topography generation device
JP2000222574A (en) * 1999-01-28 2000-08-11 Hitachi Ltd Method for extracting linear area of digital picture, and picture processor
KR20010025089A (en) * 1999-03-24 2001-03-26 가토 신이치 Method and device for making map using photograph image and method for correcting distortion of photograph image
JP2002074358A (en) * 2000-08-31 2002-03-15 Mitsubishi Heavy Ind Ltd Device and method for processing road extraction picture

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100959943B1 (en) 2009-10-28 2010-05-27 새한항업(주) Revision method of picture image based on the three-dimensional model data

Also Published As

Publication number Publication date
KR20040009317A (en) 2004-01-31

Similar Documents

Publication Publication Date Title
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
JP3151284B2 (en) Apparatus and method for salient pole contour grading extraction for sign recognition
US8571303B2 (en) Stereo matching processing system, stereo matching processing method and recording medium
CN110807459B (en) License plate correction method and device and readable storage medium
JP3860589B2 (en) Sub-pixel movement detection method applied to optical navigation device
US20090116731A1 (en) Method and system for detection of concha and intertragal notch point in 3D undetailed ear impressions
WO2023169337A1 (en) Target object speed estimation method and apparatus, vehicle, and storage medium
US5887083A (en) Method of processing image information based on object model
CN109993108B (en) Gesture error correction method, system and device under a kind of augmented reality environment
JPH05181411A (en) Map information collation and update system
CN113239828B (en) Face recognition method and device based on TOF camera module
KR100491446B1 (en) Road Extraction from images using Template Matching
US6721660B2 (en) Road extraction from images using template matching
JPH08329252A (en) Method and device for detecting edge
KR102204040B1 (en) Image processing system for unifying collecting images by altitude
JP4639044B2 (en) Contour shape extraction device
JP2723174B2 (en) Registration correction method between heterogeneous sensor images
JPH09119982A (en) Missile guiding system
JPH11190611A (en) Three-dimensional measuring method and three-dimensional measuring processor using this method
WO2021075314A1 (en) Image processing device, image processing method, and computer-readable recording medium
CN110796602B (en) Method for reducing distortion after image perspective transformation
JP2637923B2 (en) Method for correcting stripe pattern direction data and information processing apparatus for executing the same, and method for correcting stripe pattern pitch data and information processing apparatus for executing the same
JPS60246490A (en) Pattern recognizing system
JPH11203476A (en) Method for aligning epipolar line and stereoscopic image device
JP2000251075A (en) Method and device for processing image and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100503

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee