KR20100079525A - Method of image feature detection, recording medium of performing the same and the apparatus of performing the same - Google Patents

Method of image feature detection, recording medium of performing the same and the apparatus of performing the same Download PDF

Info

Publication number
KR20100079525A
KR20100079525A KR1020080138045A KR20080138045A KR20100079525A KR 20100079525 A KR20100079525 A KR 20100079525A KR 1020080138045 A KR1020080138045 A KR 1020080138045A KR 20080138045 A KR20080138045 A KR 20080138045A KR 20100079525 A KR20100079525 A KR 20100079525A
Authority
KR
South Korea
Prior art keywords
likelihood function
pixel
information
global
local
Prior art date
Application number
KR1020080138045A
Other languages
Korean (ko)
Other versions
KR100988431B1 (en
Inventor
이승용
강형우
이윤진
손민정
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020080138045A priority Critical patent/KR100988431B1/en
Publication of KR20100079525A publication Critical patent/KR20100079525A/en
Application granted granted Critical
Publication of KR100988431B1 publication Critical patent/KR100988431B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A method of image feature detection, a recording medium of recording the same and a device of performing the same are provided to define likelihood function from one piece of image, thereby extracting various features of an image by using likelihood function. CONSTITUTION: A control unit generates at least one local likelihood function by using customized line(S130). The control unit generates whole area local likelihood function by combining at least one local likelihood function(S140). The control unit corrects the whole area likelihood function by applying external pressure for correcting an error of the whole area likelihood function(S150). The control unit extracts at least one among an edge pixel information, blur degree information and feature scale information from the whole likelihood function(S160).

Description

영상 특징 추출 방법, 이를 기록한 기록매체 및 이를 수행하는 장치{Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same}Method of image feature extraction, recording medium recording the same and apparatus for performing the same {Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same}

본 발명은 영상 특징 추출 방법, 이를 기록한 기록매체 및 이를 수행하는 장치에 관한 것으로서, 더욱 상세하게는 우도함수를 이용한 영상 특징 추출 방법, 이를 기록한 기록매체 및 이를 수행하는 장치에 관한 것이다.The present invention relates to an image feature extraction method, a recording medium recording the same, and an apparatus for performing the same, and more particularly, to an image feature extraction method using a likelihood function, a recording medium recording the same, and an apparatus for performing the same.

일반적으로, 영상 분석 기술들은 영상의 여러 특징들을 얻기 위해 다양한 방법을 제시해왔다. 하지만 지금까지 제시되어온 기술들은 각각 하나의 특징을 얻기 위해 하나의 특화된 방법을 제시할 뿐, 다양한 특징들을 하나의 단일한 기반 원리로 분석해내지는 못하였다. 이로 인해 한 장의 영상으로부터 다양한 특징들을 얻어 이용하기 위해서는 원하는 특징들을 위해 특화된 다양한 방법들을 모두 적용하고 또한 각각의 방법에 대한 사용자 매개 변수(user parameter)들을 따로 설정해야 하므로, 전체 연산이 커지고 함께 구한 특징들 간의 개연성이 떨어진다는 문제점이 있었다.In general, image analysis techniques have suggested various methods to obtain various features of an image. However, the technologies presented up to now suggest only one specialized method to obtain one feature, and could not analyze various features as a single basis principle. Therefore, in order to obtain and use various features from a single image, it is necessary to apply all the various methods specialized for desired features and to set user parameters for each method separately. There was a problem that the probability between them.

예를 들어, 영상에서 해당되는 부분은 매우 적음에도 불구하고 영상에 대한 중요한 정보를 대부분 포함하고 있다는 점 때문에 영상의 대표적인 특징 중 하나로 다루어져 온 에지(Edge)의 경우, 영상 편집 툴인 어도비 포토샵(Adobe Photoshop)에도 이와 같이 영상에서 에지 영역을 찾아내는 기법이 필터(filter)의 하나로 포함되어 있을 정도로 사용 빈도가 높은 특징이 있다. 그로 인해 영상에서 에지를 찾아내는 수많은 좋은 방법들이 제시되어 왔다. 그러나 대부분의 방법은 명확히 에지 추출에만 특화되어 있기 때문에, 에지 검출 시 특정한 조건은 추가적으로 고려하거나 에지 이외의 다른 특징을 얻어내는 등의 추가적인 작업, 응용이 불가능하다. 따라서 에지 특징과 함께 흐릿한 정도 특징을 사용하기 위해서는 전혀 별도의 흐릿한 정도를 얻어내기 위한 기법을 추가적으로 사용해야 하고, 따라서 그로 인한 계산 양 및 사용자가 입력해야 할 매개 변수의 수는 두 배로 늘어나게 된다. 또한 이렇게 얻어진 두 특징 값들 사이에는 전혀 개연성이 없으므로, 이 두 값을 함께 사용하였을 때 그 값이 제대로 어우러진다는 보장을 하기 어렵다는 문제가 생기게 된다.For example, the edge of the image, which is considered as one of the typical features of the image because it contains most of the important information about the image even though the corresponding portion of the image is very small, is Adobe Photoshop, an image editing tool. Photoshop has such a high frequency that the technique of finding edge regions in an image is included as one of the filters. As a result, many good ways to find edges in images have been proposed. However, since most methods are specifically specialized for edge extraction, it is impossible to apply additional tasks such as additional consideration of specific conditions in edge detection or obtaining features other than edges. Therefore, in order to use the blur feature along with the edge feature, an additional method of obtaining a blur feature is additionally required, thereby doubling the amount of calculation and the number of parameters to be input by the user. In addition, since there is no probability between the two feature values thus obtained, there is a problem that it is difficult to guarantee that the values are properly combined when the two values are used together.

본 발명의 목적은 우도함수를 이용한 영상 특징 추출 방법을 제공하는 것이다.An object of the present invention is to provide a method for extracting image features using likelihood function.

본 발명의 다른 목적은 우도함수를 이용한 영상 특징 추출 방법을 기록한 기록매체를 제공하는 것이다.Another object of the present invention is to provide a recording medium recording a method for extracting image features using a likelihood function.

본 발명의 또 다른 목적은 우도함수를 이용한 영상 특징 추출 방법을 수행하 기 위한 장치를 제공하는 것이다.Still another object of the present invention is to provide an apparatus for performing an image feature extraction method using likelihood functions.

상술한 본 발명의 목적을 달성하기 위한 영상 특징 추출 방법은 영상 특징 추출 방법에 있어서, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계; 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계; 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계; 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계; 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계; 및 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계를 포함하여 구성될 수 있다.An image feature extraction method for achieving the above object of the present invention comprises the steps of: generating a gradient map representing a pixel in a gradient size and direction from an input image; Finding a fitting straight line for at least one pixel using the gradient map; Generating at least one local likelihood function using the fit line; Combining the at least one local likelihood function to generate a global likelihood function; Modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function; And extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function.

여기에서, 상기 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계에서 상기 그래디언트 크기와 방향은 상기 픽셀의 RGB 값 및 투명도 값 중 적어도 하나를 반영하여 표현되는 것을 특징으로 할 수 있다.Here, in the step of generating a gradient map representing a pixel in the gradient size and direction from the input image, the gradient size and direction are reflected by reflecting at least one of the RGB value and the transparency value of the pixel. It may be characterized by.

여기에서, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계에서 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합이 최소가 되는 것을 특징으로 할 수 있다.Here, in the step of finding the alignment line for at least one pixel using the gradient map, the alignment line may be characterized in that the sum of the distances from each pixel to the alignment line is the minimum. .

여기에서, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생 성되는 단계에서 상기 지역적 우도함수는 상기 맞춤 직선 위에 초점이 위치하는 타원 형태로 생성되는 것을 특징으로 할 수 있다.Here, in the step of generating at least one local likelihood function using the alignment line, the local likelihood function may be generated in an ellipse form in which a focal point is positioned on the alignment line.

여기에서, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계에서 상기 전역적 우도함수는 상기 지역적 우도함수에 따른 가중치를 부여하여 생성되는 것을 특징으로 할 수 있다.Here, in the step of generating a global likelihood function by combining the at least one local likelihood function, the global likelihood function may be generated by giving a weight according to the local likelihood function.

여기에서, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계에서 상기 외부입력은 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 통하여 입력되는 것을 특징으로 할 수 있다.The external input may be input through at least one of a keyboard, a mouse, a touch pad, and a storage device in the step of modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function. It can be characterized.

여기에서, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 에지 픽셀 정보는 상기 전역적 우도함수에서 능선(ridge)에 해당되는 적어도 하나의 픽셀을 이용하여 추출되는 것을 특징으로 할 수 있다.Here, in the step of extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function, the edge pixel information is at least one pixel corresponding to a ridge in the global likelihood function. It may be characterized in that the extraction using.

여기에서, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출되는 것을 특징으로 할 수 있다.Here, in the step of extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function, the blurring degree information is extracted using the sum of the distances from each pixel to the fitting straight line. It may be characterized by.

여기에서, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합의 변화를 이용하여 추출되는 것을 특징으로 할 수 있다.Here, in the step of extracting at least one of the edge pixel information, the blurring degree information, and the feature scale information from the global likelihood function, the feature scale information is extracted using a change in the sum of the distances from each pixel to the fitting straight line. It may be characterized by.

상술한 본 발명의 다른 목적을 달성하기 위한 영상 특징 추출 방법을 기록한 기록매체는 영상 특징 추출 방법이 기록된 기록매체에 있어서, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계 및 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계를 포함하여 구성될 수 있다.In the recording medium recording the image feature extraction method for achieving the above-described other object of the present invention, in the recording medium on which the image feature extraction method is recorded, a gradient map representing a pixel from the input image in the gradient size and direction (Gradient Map) ) Is generated, finding a fit straight line for at least one pixel using the gradient map, generating at least one local likelihood function using the fit straight line, and at least one local A likelihood function is combined to generate a global likelihood function, a step of modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function, and edge pixel information from the global likelihood function, Comprising the step of extracting at least one of the blurring degree information and feature scale information Can be.

상술한 본 발명의 또 다른 목적을 달성하기 위한 영상 특징 추출 방법을 수행하는 장치는 영상 특징 추출 방법을 수행하는 장치에 있어서, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계 및 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출 되는 단계를 포함하여 구성되는 영상 특징 추출 방법을 수행하는 제어부; 상기 외부입력을 입력받기 위한 입력부; 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 표현하기 위한 디스플레이부; 및 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 저장하기 위한 저장부를 포함하여 구성될 수 있다.An apparatus for performing an image feature extraction method for achieving another object of the present invention described above is a device for performing an image feature extraction method, comprising: a gradient map representing a pixel from an input image in a gradient size and a direction; ) Is generated, finding a fit straight line for at least one pixel using the gradient map, generating at least one local likelihood function using the fit straight line, and at least one local A likelihood function is combined to generate a global likelihood function, a step of modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function, and edge pixel information from the global likelihood function, Comprising the step of extracting at least one of the blurring degree information and feature scale information A controller that performs an image feature extraction method; An input unit for receiving the external input; A display unit for representing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information and rendering; And a storage unit for storing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information, and rendering.

여기에서, 상기 제어부에서 상기 그래디언트 크기와 방향은 상기 픽셀의 RGB 값 및 투명도 값 중 적어도 하나를 반영하여 표현되는 것을 특징으로 할 수 있다.The gradient size and direction may be expressed by the controller to reflect at least one of the RGB value and the transparency value of the pixel.

여기에서, 상기 제어부에서 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합이 최소가 되는 것을 특징으로 할 수 있다.Here, in the control unit, the alignment line may be characterized in that the sum of the distances from each pixel to the alignment line is the minimum.

여기에서, 상기 제어부에서 상기 지역적 우도함수는 상기 맞춤 직선 위에 초점이 위치하는 타원 형태로 생성되는 것을 특징으로 할 수 있다.Here, the local likelihood function in the controller may be generated in the form of an ellipse in which the focal point is located on the alignment line.

여기에서, 상기 제어부에서 상기 전역적 우도함수는 상기 지역적 우도함수에 따른 가중치를 부여하여 생성되는 것을 특징으로 할 수 있다.Here, the global likelihood function in the control unit may be generated by giving a weight according to the local likelihood function.

여기에서, 상기 제어부에서 상기 에지 픽셀 정보는 상기 전역적 우도함수에서 능선(ridge)에 해당되는 적어도 하나의 픽셀을 이용하여 추출되는 것을 특징으로 할 수 있다.The edge pixel information may be extracted by the controller using at least one pixel corresponding to a ridge in the global likelihood function.

여기에서, 상기 제어부에서 상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출되는 것을 특징으로 할 수 있다.In this case, the blurring degree information may be extracted using the sum of the distances from each pixel to the alignment line.

여기에서, 상기 제어부에서 상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합의 변화를 이용하여 추출되는 것을 특징으로 할 수 있다.The feature scale information may be extracted by using the change of the sum of the distances from each pixel to the fitting straight line.

여기에서, 상기 입력부는 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 포함하여 구성되는 것을 특징으로 할 수 있다.Here, the input unit may be configured to include at least one of a keyboard, a mouse, a touch pad, and a storage device.

상기와 같은 영상 특징 추출 방법에 따르면, 한 장의 영상으로부터 우도함수를 정의하고 이를 이용하여 영상의 다양한 특징을 한꺼번에 추출할 수 있다. 이를 통하여 계산 양을 최소화 하고, 사용자 매개 변수도 최소화할 수 있다. 추가적으로 외부입력을 이용하여 영상을 다양한 방법으로 수정할 수 있다.According to the image feature extraction method as described above, it is possible to define a likelihood function from a single image and to extract various features of the image at once. This minimizes the amount of computation and minimizes user parameters. In addition, the image can be modified in various ways using an external input.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.The terms first, second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. In the following description of the present invention, the same reference numerals are used for the same elements in the drawings and redundant descriptions of the same elements will be omitted.

도 1은 본 발명의 일 실시예에 따른 영상 특징 추출 방법을 설명하기 위한 흐름도이다. 도 2는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 그래디언트 맵을 설명하기 위한 예시도이다. 도 3은 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 맞춤 직선을 설명하기 위한 예시도이다. 도 4는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 지역적 우도함수를 설명하기 위한 예시도이다. 도 5는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 전역적 우도함수를 설명하기 위한 예시도이다.1 is a flowchart illustrating an image feature extraction method according to an embodiment of the present invention. 2 is an exemplary diagram for describing a gradient map in an image feature extraction method according to an embodiment of the present invention. 3 is an exemplary diagram for explaining a fitting straight line in the image feature extraction method according to an embodiment of the present invention. 4 is an exemplary diagram for describing a local likelihood function in an image feature extraction method according to an embodiment of the present invention. 5 is an exemplary diagram for describing a global likelihood function in an image feature extraction method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 특징 추출 방법은 영상 특징 추출 방법에 있어서, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계(S110); 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계(S120); 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계(S130); 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계(S140); 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계(S150); 및 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계(S160)를 포함하여 구성될 수 있다.Referring to FIG. 1, in the image feature extraction method according to an embodiment of the present invention, in the image feature extraction method, generating a gradient map representing a pixel in a gradient size and a direction from an input image ( S110); Finding a straight line for at least one pixel using the gradient map (S120); Generating at least one local likelihood function using the alignment line (S130); Generating a global likelihood function by combining the at least one local likelihood function (S140); Modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function (S150); And extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function (S160).

먼저, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계(S110)는 입력된 영상을 구성하는 각각의 픽셀과 해당 픽셀의 주위 픽셀들의 정보를 이용하여 그래디언트 크기와 그래디언트 방향을 갖는 벡터의 형태로 표현하여 영상에 대한 그래디언트 맵이 생성되는 단계이다. 또한, 상기 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계(S110)에서 상기 그래디언트 크기와 방향은 상기 픽셀의 RGB 값 및 투명도 값 중 적어도 하나를 반영하여 표현되는 것을 특징으로 할 수 있다. 즉, 픽셀은 RGB 값에 더불어 투명도 값을 포함하여 표현될 수 있으므로 그래디언트 크기와 방향은 각 픽셀의 RGB 값과 더불어 투명도 값을 포함하여 표현되는 것일 수 있다.First, a step of generating a gradient map representing a pixel in a gradient size and a direction from an input image (S110) is performed by using information of each pixel constituting the input image and surrounding pixels of the pixel. The step of generating a gradient map for an image by expressing it in the form of a vector having a size and a gradient direction. In addition, in the step S110 of generating a gradient map representing a pixel in a gradient size and a direction from the input image, the gradient size and direction reflect at least one of an RGB value and a transparency value of the pixel. It may be characterized by being represented. That is, since the pixel may be expressed by including the transparency value in addition to the RGB value, the gradient size and direction may be expressed by including the transparency value in addition to the RGB value of each pixel.

도 2를 병행하여 참조하면, 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 그래디언트 맵을 적용하여 입력된 영상(a)으로부터 그래디언트 맵(b)으로 표현한 것을 살펴볼 수 있다. 다양한 그래디언트 맵으로 표현하는 방법을 사용할 수 있으며, 소벨 오퍼레이터(Sobel Operator)를 이용할 수도 있을 것이다.Referring to FIG. 2 in parallel, in the image feature extraction method according to an embodiment of the present invention, a gradient map is applied to represent a gradient map (b) from an input image (a). You can use various gradient maps, or you can use Sobel Operator.

다음으로, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계(S120)는 입력받은 영상을 이용하여 최종적으로 전역적 우도함수를 찾기 위한 방법에서 필요한 단계이다. 또한, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계(S120)에서 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합이 최소가 되는 것을 특징으로 할 수 있다. 더불어 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합에 가중치를 부여하여 가중 거리의 합이 최소가 되는 것을 특징으로 할 수 있다.Next, the step (S120) of finding a straight line for at least one pixel using the gradient map is a step required in the method for finally finding the global likelihood function using the input image. In addition, in the step S120 of finding a fitting straight line for at least one pixel using the gradient map, the fitting straight line is characterized in that the sum of the distances from each pixel to the fitting straight line is minimum. Can be. In addition, the fitting straight line may be characterized in that the sum of the weighted distances is minimized by giving a weight to the sum of the distances from each pixel to the fitting straight line.

도 3을 병행하여 참조하면서, 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 맞춤 직선을 찾는 단계(S120)를 상술하면, 2차원 영상에서 맞춤 직선을 추출하기 위해서는 각 픽셀에 대해 연결성 있는 에지가 되려는 경향성을 지역적 우도함수로 계산해야 하므로, 각 픽셀의 일정 영역 내에 있는 주위 픽셀들을 함께 이용하기 위하여, 반지름

Figure 112008090959015-PAT00001
인 동심원을 이용하여 해당 영역 안에 들어오는 주위 픽셀들을 이용한다. 주위 픽셀들의 그래디언트 크기(gradient magnitude) 및 그래디언트 방향(gradient direction)의 유사도에 가중치(weight)를 적용한다. 이때, 각 픽셀로부터 직선까지의 거리를 에러로 정의할 경우, 에러의 합 또는 에러의 가중 합이 최소화되는 것을 맞춤 직선이라고 할 수 있으므로, 상기와 같은 방법으로 맞춤 직선을 찾을 수 있을 것이다.Referring to FIG. 3, the step (S120) of finding a fitting straight line in the image feature extraction method according to an exemplary embodiment of the present invention will be described in detail. Since we have to calculate the tendency to become the local likelihood function, we use the radius to use together the surrounding pixels within a certain area of each pixel.
Figure 112008090959015-PAT00001
Using the concentric circles, the surrounding pixels coming into the area are used. A weight is applied to the similarity of the gradient magnitude and the gradient direction of the surrounding pixels. In this case, when the distance from each pixel to the straight line is defined as an error, since the sum of the error or the weighted sum of the errors is minimized, the fitting straight line may be found as described above.

다음으로, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계(S130)에서 상기 지역적 우도함수는 상기 맞춤 직선 위에 초점이 위치하는 타원 형태로 생성되는 것일 수 있다.Next, in the step of generating at least one local likelihood function using the alignment line (S130), the local likelihood function may be generated in the form of an ellipse in which the focal point is located on the alignment line.

도 4를 병행하여 참조하면, 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 지역적 우도함수는 맞춤 직선을 장축으로 삼아, 맞춤 직선 위에 타원의 초 점이 위치하는 타원의 형태로 생성된다.Referring to FIG. 4 in parallel, in the image feature extraction method according to an embodiment of the present invention, the local likelihood function is generated in the form of an ellipse having the fitting straight line as the long axis and the focus of the ellipse is positioned on the fitting straight line.

다음으로, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계(S140)에서 상기 전역적 우도함수는 상기 지역적 우도함수에 따른 가중치를 부여하여 생성되는 것일 수 있다. 즉, 적어도 하나의 지역적 우도함수를 결합함에 있어서, 단순 결합으로 전역적 우도함수가 생성되는 것이 아니라, 지역적 우도함수 각각에 대하여 다양한 가중치 값을 부여하고, 이를 반영하여 결합하는 방법으로 전역적 우도함수가 생성될 수 있는 것이다.Next, in the step of generating a global likelihood function by combining the at least one local likelihood function (S140), the global likelihood function may be generated by giving a weight according to the local likelihood function. That is, in combining at least one local likelihood function, the global likelihood function is not generated by a simple combination, but by assigning various weight values to each of the local likelihood functions and combining them by reflecting them. Can be generated.

도 5를 참조하면, 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 전역적 우도함수는 상기 지역적 우도함수로부터 전체 입력된 영상에 대한 우도함수를 생성하기 위해서는 각 지역적 우도함수의 중요도를 그래디언트 크기를 이용하여 정의하고, 이를 가중 합하여 영상 전체에 걸친 전역적 우도함수를 계산해야 할 것이다. 이러한 우도함수는 각 픽셀이 에지가 되려는 경향성을 나타내게 될 것이다.Referring to FIG. 5, in the image feature extraction method according to an embodiment of the present invention, the global likelihood function is a gradient size of the importance of each local likelihood function to generate a likelihood function for the entire image input from the local likelihood function. We will define by using and weight it and calculate the global likelihood function for the whole image. This likelihood function will indicate the tendency for each pixel to be an edge.

특히, 전역적 우도함수를 계산할 때, 동심원의 크기는 중요한 역할을 한다. 작은 동심원은 상세한 것을 잘 표현하나 선들이 단절되거나 흐린 영상에서 선들이 엉키는 문제점이 있고, 큰 동심원은 흐린 영상에서도 긴 선을 잘 표현하나 작은 범위의 상세한 선을 표현하지 못하는 약점이 있다. 양자의 장점을 살리기 위해서, 다른 크기의 동심원을 사용하여 결합하는 방법을 이용할 수 있을 것이다.In particular, the size of concentric circles plays an important role when calculating the global likelihood function. Small concentric circles express details well, but lines are broken or lines are entangled in blurred images. Large concentric circles express long lines even in blurred images, but have a weakness in that they cannot express a small range of detailed lines. To take advantage of both, one could use a combination of concentric circles of different sizes.

다음으로, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계(S150)에서 상기 외부입력은 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 통하여 입력되는 것일 수 있다. 즉, 외부입력 장치는 당업자에게 있어서 자명한 것이라면 어떤 것도 사용될 수 있을 것이다. 상기와 같은 외부입력 장치를 통하여 다양한 외부입력을 입력받을 수 있을 것이다.Next, the external likelihood is modified by applying an external input for correcting an error of the global likelihood function (S150). It may be input. That is, the external input device may be used if it is obvious to those skilled in the art. Various external inputs may be received through the external input device as described above.

다음으로, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계(S160)에서 상기 에지 픽셀 정보는 상기 전역적 우도함수에서 능선(ridge)에 해당되는 적어도 하나의 픽셀을 이용하여 추출되는 것일 수 있으며, 상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출되는 것일 수 있으며, 상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합의 변화를 이용하여 추출되는 것일 수 있다.Next, in operation S160, at least one of edge pixel information, blurring degree information, and feature scale information is extracted from the global likelihood function, the edge pixel information is at least corresponding to a ridge in the global likelihood function. The blurring degree information may be extracted using the sum of the distances from each pixel to the fitting straight line, and the feature scale information is the fitting straight line from each pixel. It may be extracted using a change in the sum of distances to.

상기 전역적 우도함수에서 높은 함수 값을 갖는 능선은 원래의 에지 선을 가장 잘 나타낸다. 집단화의 목적은 같은 선에 속하는 모든 픽셀을 하나의 집단으로 모으는 것이다. 따라서 가장 높은 함수 값보다 큰 능선 픽셀에서 시작하여 작은 값보다 큰 픽셀까지 능선 방향으로 추적한다. 이를 추적하면서 각각의 집단이 점들로 서로 연결된다. 상기와 같은 방법으로 상기 전역적 우도함수로부터 상기 에지 픽셀 정보를 추출할 수 있을 것이다.Ridges with high function values in the global likelihood function best represent the original edge lines. The purpose of grouping is to gather all the pixels that belong to the same line into a group. Therefore, we start from the ridge pixel larger than the highest function value and follow the ridge direction up to the pixel larger than the smallest value. In tracking this, each group is connected to each other by dots. In the same manner as described above, the edge pixel information may be extracted from the global likelihood function.

상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출할 수 있다. 상기 맞춤 직선까지의 거리의 합이 큰 경우에는 해당 픽셀에서 정확한 맞춤 직선의 정의가 어렵다는 것이므로 흐린 정도가 크다고 볼 수 있으며, 상기 맞춤 직선까지의 거리의 합이 작은 경우에는 해당 픽셀에서 정확한 맞춤 직선의 정의가 쉽다는 것이므로 흐린 정도가 작다고 볼 수 있다.The blurring degree information may be extracted using the sum of the distances from each pixel to the alignment line. If the sum of the distances to the alignment line is large, it is difficult to define the exact alignment line at the corresponding pixel, so the blurring degree is large. If the sum of the distances to the alignment line is small, the accuracy of the alignment line is correct at the pixel. The definition is easy, so the blur is small.

일반적인 경우에 중요한 영역은 명확하게 표현되고, 중요하지 않은 영역은 흐리게 표현된다. 이는 고의적으로 사진의 초점을 흐리게 하는 것으로도 생성될 수 있다. 따라서 흐린 정도는 영역의 중요도를 나타내는 것으로 판단할 수 있다. 큰 동심원 및 작은 동심원을 이용하여 우도함수의 생성 과정에서 찾은 큰 동심원에 대한 직선 맞춤 에러와 작은 동심원에 대한 직선 맞춤 에러를 결합하여 흐린 정도를 추출할 수 있다. 이 경우 각각의 직선 맞춤 에러에 가중치를 주어 계산할 수 있다.In the general case, important areas are clearly represented and non-essential areas are blurred. It can also be created by deliberately defocusing the picture. Therefore, it can be judged that the degree of blurring indicates the importance of the region. Using large concentric circles and small concentric circles, the blurring degree can be extracted by combining the linear alignment error for the large concentric circles and the linear alignment error for the small concentric circles found in the process of generating the likelihood function. In this case, each linear alignment error can be calculated by weighting it.

상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합의 변화를 이용하여 추출할 수 있다. 특징 규모는 영상 각 부분의 특징들이 영상의 중요한 구조 부분에 해당하는지 상대적으로 중요도가 적은 세부 부분에 해당하는지를 수치화한 것으로, 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합이 동심원의 반지름의 변화에 따라 어떻게 변화하는 지를 통하여 추출한다. 즉, 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합이 동심원 반지름이 커질 때 작아지는 경우에는 주위에 비슷한 에지가 있을 확률이 적다는 것을 의미하므로 해당 픽셀의 특징 규모가 크다고 정의할 수 있고, 반대로 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합이 동심원의 반지름이 커질 때 커지는 경우에는 주위에 다른 비슷한 에지가 있을 확률이 크다는 것을 의미하므로 해당 픽셀의 특징 규모가 작다고 볼 수 있다.The feature scale information can be extracted using a change in the sum of the distances from each pixel to the fit straight line. The feature scale is a measure of whether the features of each part of the image correspond to an important structural part of the image or a relatively less important part of the image. Extract through how to change accordingly. That is, when the sum of the distances from each pixel to the alignment line decreases as the concentric radius increases, it means that there is a small probability that there are similar edges around. If the sum of the distances from each pixel to the alignment line increases as the radius of the concentric circle increases, it means that there is a high probability that there are other similar edges around. Therefore, the feature scale of the corresponding pixel is small.

추가적으로, 추출된 상기 에지 픽셀 정보, 흐린 규모 정보 및 특징 규모 정보는 각각 독립적으로 또는 종합적으로 이용될 수 있으며, 특히, 상기 입력된 영상 에 대한 렌더링(Rendering)에 이용될 수도 있을 것이다. 특징 규모 값을 이용하여 작은 특징 규모에서는 선을 삭제함으로써, 선 그리기에서 상세한 정도를 제어할 수 있다. 상세함과 선의 두께를 제어하기 위해서 두 개의 문턱 값을 정의할 수 있다. 작은 문턱 값보다 작은 특징 규모의 경우에는 최소 선 두께로 그리거나 삭제하고, 반면에 큰 문턱 값보다 큰 특징 규모인 경우에는 최고 선 두께로 그릴 수 있다. 특징 규모와 비슷하게, 흐린 정도도 선을 따라 특징 점의 흐린 정도의 평균으로 계산될 수 있다. 영상의 중요도나 초점에 따라 주변 구역의 흐린 정도가 표현된다. 흐린 정도는 선의 초점 정도를 조절하는 것에 이용될 수 있다. 또한 흐린 정도에 따라 중요하지 않은 선을 삭제할 수 있다.In addition, the extracted edge pixel information, blurry scale information, and feature scale information may be used independently or collectively, and in particular, may be used for rendering the input image. By using the feature scale value, a small feature scale can be deleted to control the degree of detail in the line drawing. Two thresholds can be defined to control detail and line thickness. In the case of a feature scale smaller than the small threshold value, the minimum line thickness may be drawn or deleted, while in the case of a feature scale larger than the large threshold value, the maximum line thickness may be drawn. Similar to the feature scale, the cloudiness can also be calculated as the average of the cloudiness of the feature points along the line. Depending on the importance or focus of the image, the blurring of the surrounding area is expressed. The degree of blurring can be used to adjust the degree of focus of the line. You can also delete unimportant lines, depending on how blurry they are.

도 6은 본 발명의 일 실시예에 따른 영상 특징 추출 방법과 다른 실시예에 따른 영상 특징 추출 방법을 적용한 렌더링의 차이를 설명하기 위한 예시도이다.FIG. 6 is an exemplary diagram for explaining a difference between rendering an image feature extraction method according to an embodiment and an image feature extraction method according to another embodiment.

도 6을 참조하면, 입력받은 영상(a)과 흐린 정도 정보 및 특징 규모 정보를 반영하지 아니한 렌더링(b)을 비교할 수 있다. 더불어, 흐린 정도 정보 및 특징 규모 정보를 반영하지 아니한 렌더링(b)과 특징 규모 정보를 추가로 반영한 렌더링(c) 및 흐린 정도 정보 및 특징 규모 정보를 모두 반영한 렌더링(d)을 비교하여 볼 수 있을 것이다.Referring to FIG. 6, an input image (a) may be compared with a rendering (b) not reflecting blurring degree information and feature scale information. In addition, it is possible to compare the rendering (b) that does not reflect the blurring degree information and the feature scale information with the rendering (c) which additionally reflects the feature scale information and the rendering (d) which reflects both the blurring degree information and the feature scale information. will be.

도 7은 본 발명의 또 다른 실시예에 따른 영상 특징 추출 방법을 수행하는 장치를 설명하기 위한 블록도이다.7 is a block diagram illustrating an apparatus for performing an image feature extraction method according to another embodiment of the present invention.

도 7을 참조하면, 본 발명의 또 다른 실시예에 따른 영상 특징 추출 방법을 수행하는 장치는 영상 특징 추출 방법을 수행하는 장치에 있어서, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계, 상기 전역적 우도함수로부터 에지 픽셀 정보가 추출되는 단계, 및 상기 에지 픽셀 정보를 이용하여 상기 입력된 영상에 대한 렌더링(Rendering)이 생성되는 단계를 포함하여 구성되는 영상 특징 추출 방법을 수행하는 제어부(710); 상기 외부입력을 입력받기 위한 입력부(720); 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 표현하기 위한 디스플레이부(730); 및 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 저장하기 위한 저장부(740)를 포함하여 구성될 수 있다.Referring to FIG. 7, an apparatus for performing an image feature extraction method according to another embodiment of the present invention is a device for performing an image feature extraction method, comprising: a gradient map representing a pixel from a input image in a gradient size and a direction; Generating a gradient map; finding a fit straight line for at least one pixel using the gradient map; generating at least one local likelihood function using the fit straight line; Generating a global likelihood function by combining one local likelihood function, modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function, and an edge from the global likelihood function Extracting pixel information, and rendering the input image using the edge pixel information A controller 710 for performing an image feature extraction method including the step of generating (Rendering); An input unit 720 for receiving the external input; A display unit 730 for representing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information and rendering; And a storage unit 740 for storing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information, and rendering.

먼저, 제어부(710)의 특징은 상술한 바 있으므로 생략한다.First, since the features of the controller 710 have been described above, they will be omitted.

다음으로, 입력부(720)는 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 포함하여 구성되는 것을 특징으로 할 수 있다. 즉, 다양한 형태의 입출력 장치가 입력부에 사용될 수 있으며, 특히 파일 형태로 저장되어 저장장치를 통하여 입력될 수도 있을 것이다. 당업자에게 자명한 입력용 장치는 모두 포함될 것이다.Next, the input unit 720 may be configured to include at least one of a keyboard, a mouse, a touch pad, and a storage device. That is, various types of input / output devices may be used in the input unit, and in particular, may be stored in a file form and input through the storage device. All input devices that will be apparent to those skilled in the art will be included.

다음으로, 디스플레이부(730)는 영상 특징 추출 방법을 수행하는 장치에 입력되거나 처리되는 과정에서 생성된 모든 데이터를 모니터 및 프린터 등의 출력장치를 통하여 표시하는 모든 장치를 포함할 수 있다. 즉, 입력 영상으로부터 최종 영상 특징을 반영한 렌더링 화면까지를 포함하여 출력하는 장치일 수 있다.Next, the display unit 730 may include any device that displays all data generated in the process of being input or processed by the device for performing the image feature extraction method through an output device such as a monitor and a printer. That is, it may be an apparatus including an output from the input image to the rendering screen reflecting the final image characteristics.

다음으로, 저장장치(740)는 역시 영상 특징 추출 방법을 수행하는 장치에 입력되거나 처리되는 과정에서 생성된 모든 데이터를 저장하는 장치일 수 있으며, 메모리 및 디스크 등의 저장장치를 포함하는 것일 수 있다.Next, the storage device 740 may also be a device for storing all data generated in the process of being input or processed in the device for performing the image feature extraction method, and may include a storage device such as a memory and a disk. .

이상 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, those skilled in the art will understand that various modifications and changes can be made without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

도 1은 본 발명의 일 실시예에 따른 영상 특징 추출 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating an image feature extraction method according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 그래디언트 맵을 설명하기 위한 예시도이다.2 is an exemplary diagram for describing a gradient map in an image feature extraction method according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 맞춤 직선을 설명하기 위한 예시도이다.3 is an exemplary diagram for explaining a fitting straight line in the image feature extraction method according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 지역적 우도함수를 설명하기 위한 예시도이다.4 is an exemplary diagram for describing a local likelihood function in an image feature extraction method according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 영상 특징 추출 방법에서 전역적 우도함수를 설명하기 위한 예시도이다.5 is an exemplary diagram for describing a global likelihood function in an image feature extraction method according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따른 영상 특징 추출 방법과 다른 실시예에 따른 영상 특징 추출 방법을 적용한 렌더링의 차이를 설명하기 위한 예시도이다.FIG. 6 is an exemplary diagram for explaining a difference between rendering an image feature extraction method according to an embodiment and an image feature extraction method according to another embodiment.

도 7은 본 발명의 또 다른 실시예에 따른 영상 특징 추출 방법을 수행하는 장치를 설명하기 위한 블록도이다.7 is a block diagram illustrating an apparatus for performing an image feature extraction method according to another embodiment of the present invention.

< 도면의 주요부분에 대한 부호의 설명 >Description of the Related Art

710: 제어부 720: 입력부710: control unit 720: input unit

730: 디스플레이부 740: 저장부730: display unit 740: storage unit

Claims (19)

영상 특징 추출 방법에 있어서,In the image feature extraction method, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계;Generating a gradient map representing a pixel in a gradient size and a direction from an input image; 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계;Finding a fitting straight line for at least one pixel using the gradient map; 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계;Generating at least one local likelihood function using the fit line; 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계;Combining the at least one local likelihood function to generate a global likelihood function; 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계; 및Modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function; And 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계를 포함하여 구성되는 영상 특징 추출 방법.And extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function. 제1항에 있어서,The method of claim 1, 상기 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계에서 상기 그래디언트 크기와 방향은 상기 픽셀의 RGB 값 및 투명도 값 중 적어도 하나를 반영하여 표현되는 것을 특징 으로 하는 영상 특징 추출 방법.In the step of generating a gradient map representing a pixel in a gradient size and a direction from the input image, the gradient size and direction are represented by reflecting at least one of an RGB value and a transparency value of the pixel. Image feature extraction method. 제1항에 있어서,The method of claim 1, 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계에서 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합이 최소가 되는 것을 특징으로 하는 영상 특징 추출 방법.And in the step of finding a fitting straight line for at least one pixel by using the gradient map, the fitting straight line is a sum of the distances from each pixel to the fitting straight line. 제1항에 있어서,The method of claim 1, 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계에서 상기 지역적 우도함수는 상기 맞춤 직선 위에 초점이 위치하는 타원 형태로 생성되는 것을 특징으로 하는 영상 특징 추출 방법.And generating the at least one local likelihood function using the fitting straight line, wherein the regional likelihood function is generated in the shape of an ellipse in which the focal point is positioned on the fitting straight line. 제1항에 있어서,The method of claim 1, 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계에서 상기 전역적 우도함수는 상기 지역적 우도함수에 따른 가중치를 부여하여 생성되는 것을 특징으로 하는 영상 특징 추출 방법.And in the step of generating a global likelihood function by combining the at least one local likelihood function, the global likelihood function is generated by giving a weight according to the local likelihood function. 제1항에 있어서,The method of claim 1, 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계에서 상기 외부입력은 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 통하여 입력되는 것을 특징으로 하는 영상 특징 추출 방법.The external input may be input through at least one of a keyboard, a mouse, a touch pad, and a storage device in the step of modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function. Image feature extraction method. 제1항에 있어서,The method of claim 1, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 에지 픽셀 정보는 상기 전역적 우도함수에서 능선(ridge)에 해당되는 적어도 하나의 픽셀을 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법.In the step of extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function, the edge pixel information may be obtained by using at least one pixel corresponding to a ridge in the global likelihood function. Image feature extraction method characterized in that the extraction. 제1항에 있어서,The method of claim 1, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법.In the step of extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function, the blurring degree information is extracted using the sum of the distances from each pixel to the fitting straight line. Image feature extraction method. 제1항에 있어서,The method of claim 1, 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계에서 상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합의 변화를 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법.In the step of extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function, the feature scale information is extracted using a change in the sum of the distances from each pixel to the fitting straight line. An image feature extraction method. 영상 특징 추출 방법이 기록된 기록매체에 있어서,In the recording medium recording the image feature extraction method, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계; 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계; 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계; 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계; 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계; 및 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정보 중 적어도 하나가 추출되는 단계를 포함하여 구성되는 영상 특징 추출 방법이 기록된 기록매체.Generating a gradient map representing a pixel in a gradient size and a direction from an input image; Finding a fitting straight line for at least one pixel using the gradient map; Generating at least one local likelihood function using the fit line; Combining the at least one local likelihood function to generate a global likelihood function; Modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function; And extracting at least one of edge pixel information, blurring degree information, and feature scale information from the global likelihood function. 영상 특징 추출 방법을 수행하는 장치에 있어서,An apparatus for performing an image feature extraction method, 입력된 영상으로부터 픽셀을 그래디언트 크기와 방향으로 표현하는 그래디언트 맵(Gradient Map)이 생성되는 단계; 상기 그래디언트 맵(Gradient Map)을 이용하여 적어도 하나의 픽셀에 대한 맞춤 직선을 찾는 단계; 상기 맞춤 직선을 이용하여 적어도 하나의 지역적 우도함수가 생성되는 단계; 상기 적어도 하나의 지역적 우도함수가 결합되어 전역적 우도함수가 생성되는 단계; 상기 전역적 우도함수의 오류를 수정하기 위한 외부입력을 적용하여 상기 전역적 우도함수가 수정되는 단계; 상기 전역적 우도함수로부터 에지 픽셀 정보, 흐린 정도 정보 및 특징 규모 정 보 중 적어도 하나가 추출되는 단계를 포함하여 구성되는 영상 특징 추출 방법을 수행하는 제어부;Generating a gradient map representing a pixel in a gradient size and a direction from an input image; Finding a fitting straight line for at least one pixel using the gradient map; Generating at least one local likelihood function using the fit line; Combining the at least one local likelihood function to generate a global likelihood function; Modifying the global likelihood function by applying an external input for correcting an error of the global likelihood function; A control unit for performing an image feature extraction method comprising: extracting at least one of edge pixel information, blurring level information, and feature scale information from the global likelihood function; 상기 외부입력을 입력받기 위한 입력부;An input unit for receiving the external input; 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 표현하기 위한 디스플레이부; 및A display unit for representing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information and rendering; And 상기 입력된 영상, 픽셀 정보, 맞춤 직선 정보, 지역적 우도함수, 전역적 우도함수, 에지 픽셀 정보 및 렌더링을 저장하기 위한 저장부를 포함하여 구성되는 영상 특징 추출 방법을 수행하는 장치.And a storage unit for storing the input image, pixel information, alignment line information, local likelihood function, global likelihood function, edge pixel information, and rendering. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 그래디언트 크기와 방향은 상기 픽셀의 RGB 값 및 투명도 값 중 적어도 하나를 반영하여 표현되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the gradient size and direction are reflected by the controller to reflect at least one of an RGB value and a transparency value of the pixel. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 맞춤 직선은 각각의 픽셀로부터 맞춤 직선까지의 거리의 합이 최소가 되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the fitting line is the sum of the distances from each pixel to the alignment line in the control unit. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 지역적 우도함수는 상기 맞춤 직선 위에 초점이 위치 하는 타원 형태로 생성되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the local likelihood function in the control unit is generated in the form of an ellipse in which the focal point is located on the alignment line. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 전역적 우도함수는 상기 지역적 우도함수에 따른 가중치를 부여하여 생성되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the global likelihood function in the controller is generated by assigning a weight to the local likelihood function. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 에지 픽셀 정보는 상기 전역적 우도함수에서 능선(ridge)에 해당되는 적어도 하나의 픽셀을 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the edge pixel information is extracted by the controller using at least one pixel corresponding to a ridge in the global likelihood function. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 흐린 정도 정보는 각각의 픽셀로부터 상기 맞춤 직선까지의 거리의 합을 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the blurring degree information is extracted by the controller using the sum of the distances from each pixel to the alignment line. 제11항에 있어서,The method of claim 11, 상기 제어부에서 상기 특징 규모 정보는 각각의 픽셀로부터 상기 맞춤 직선 까지의 거리의 합의 변화를 이용하여 추출되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the feature scale information is extracted by the controller using a change in the sum of the distances from each pixel to the alignment line. 제11항에 있어서,The method of claim 11, 상기 입력부는 키보드, 마우스, 터치패드 및 저장장치 중 적어도 하나를 포함하여 구성되는 것을 특징으로 하는 영상 특징 추출 방법을 수행하는 장치.And the input unit comprises at least one of a keyboard, a mouse, a touch pad, and a storage device.
KR1020080138045A 2008-12-31 2008-12-31 Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same KR100988431B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080138045A KR100988431B1 (en) 2008-12-31 2008-12-31 Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080138045A KR100988431B1 (en) 2008-12-31 2008-12-31 Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same

Publications (2)

Publication Number Publication Date
KR20100079525A true KR20100079525A (en) 2010-07-08
KR100988431B1 KR100988431B1 (en) 2010-10-18

Family

ID=42640612

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080138045A KR100988431B1 (en) 2008-12-31 2008-12-31 Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same

Country Status (1)

Country Link
KR (1) KR100988431B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4356831B2 (en) 2003-08-28 2009-11-04 株式会社Aze Non-rigid registration method between multiple images

Also Published As

Publication number Publication date
KR100988431B1 (en) 2010-10-18

Similar Documents

Publication Publication Date Title
US10453204B2 (en) Image alignment for burst mode images
US9418319B2 (en) Object detection using cascaded convolutional neural networks
US10621740B2 (en) 3D modeling method based on point cloud data
JP4877374B2 (en) Image processing apparatus and program
US9679354B2 (en) Duplicate check image resolution
US7995866B2 (en) Rotation angle detection apparatus, and control method and control program of rotation angle detection apparatus
US11908183B2 (en) Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system
CN107622504B (en) Method and device for processing pictures
CN110390260A (en) Picture scanning part processing method, device, computer equipment and storage medium
CN114120349B (en) Test paper identification method and system based on deep learning
CN109948521A (en) Image correcting error method and device, equipment and storage medium
US20170140199A1 (en) Automatic Ruler Detection
US11410278B2 (en) Automatic artifact removal in a digital image
JP6403207B2 (en) Information terminal equipment
KR100988431B1 (en) Method of Image Feature Detection, Recording Medium of performing the same and the Apparatus of performing the same
WO2019065784A1 (en) Image processing device, image processing method, and computer-readable recording medium
KR20210086493A (en) Method and apparatus for machine learning based defocus map estimation
JP2007199865A (en) Image processing algorithm evaluation apparatus, image processing algorithm creation apparatus, image inspection apparatus, method for evaluating image processing algorithm, method for creating image processing algorithm, and method for inspecting image
JP6105179B1 (en) Image processing apparatus, image processing method, and image processing program
JP2007156954A (en) Reliability table creation method, optical flow estimation method, reliability table creation device, optical flow estimation device, and program
JP2006260410A (en) Evaluation apparatus and method for image processing algorithm, producing system and method, program for making computer function as evaluation system, and program for making computer function as producing system
WO2021075314A1 (en) Image processing device, image processing method, and computer-readable recording medium
CN110472601B (en) Remote sensing image target object identification method, device and storage medium
WO2023007730A1 (en) Information processing system, information processing device, information processing method, and recording medium
US20130051688A1 (en) Image processing apparatus, non-transitory computer readable medium storing image processing program, and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130930

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140930

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee