KR20120013744A - Image Edge Detection Method and System - Google Patents

Image Edge Detection Method and System Download PDF

Info

Publication number
KR20120013744A
KR20120013744A KR1020100075936A KR20100075936A KR20120013744A KR 20120013744 A KR20120013744 A KR 20120013744A KR 1020100075936 A KR1020100075936 A KR 1020100075936A KR 20100075936 A KR20100075936 A KR 20100075936A KR 20120013744 A KR20120013744 A KR 20120013744A
Authority
KR
South Korea
Prior art keywords
edge
plane
pixel
area
image
Prior art date
Application number
KR1020100075936A
Other languages
Korean (ko)
Other versions
KR101169720B1 (en
Inventor
문안오
송영기
한영인
서용덕
Original Assignee
주식회사 이미지넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이미지넥스트 filed Critical 주식회사 이미지넥스트
Priority to KR1020100075936A priority Critical patent/KR101169720B1/en
Publication of KR20120013744A publication Critical patent/KR20120013744A/en
Application granted granted Critical
Publication of KR101169720B1 publication Critical patent/KR101169720B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: An image edge detecting method and a system thereof are provided to detect edge from an image of high reliability. CONSTITUTION: An image edge extraction system sets up a corresponding area of an input image(S710). The image edge extraction system approximates the brightness distribution of pixels in a preset area(S720). The image edge extraction system determines the edge of an inspection target pixel based on the size of angle between a plane and a reference coordinate axis(S730). The image edge extraction system calculates a direction vector(S740).

Description

이미지 에지 검출 방법 및 시스템{Image Edge Detection Method and System}Image Edge Detection Method and System

본 발명은 이미지 에지 검출 방법 및 시스템에 관한 것으로 보다 자세하게는 사람의 인지과정과 가깝고 신뢰성 높게 이미지 상에서 에지를 검출할 수 있는 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for detecting an image edge, and more particularly, to a method and a system capable of detecting an edge on an image with high reliability and closeness to a human cognitive process.

이미지 처리 기술에서 에지(Edge)는 영상의 밝기가 급격하게 변하는 부분을 뜻하는 것으로, 영상에서 밝기의 급격한 변화는 일반적으로 피사체의 주요한 변화가 있음을 나타낸다. 에지 추출을 통해 영상에서 특정의 물체를 추출한다든지 또는 면적과 주위의 크기를 측정하는 등의 작업을 수행할 수 있다.In image processing technology, the edge refers to a portion where the brightness of an image changes drastically. A sudden change in brightness in an image generally indicates a major change in a subject. Edge extraction can be used to extract specific objects from an image or to measure the size of an area and its surroundings.

그런데 종래의 이미지 에지 검출 알고리즘은 해당 픽셀과 인접한 픽셀의 밝기의 차이를 구해서 그 차이가 크면 해당 픽셀을 에지로 검출하는 방식을 이용하였다. 한편 에지의 그라디언트(Gradient) 방향을 구하기 위해선 x, y축으로의 밝기 차이를 구하고 두 밝기 차이를 벡터로 표시해서 방향을 구하면 에지와 수직인 그라디언트 방향이 구해진다. 이와 같은 종래의 에지 및 그라디언트 방향 검출 과정을 단계별로 정리하면 아래와 같다.However, the conventional image edge detection algorithm uses a method of obtaining a difference in brightness between a pixel and an adjacent pixel and detecting the pixel as an edge when the difference is large. On the other hand, in order to find the gradient direction of the edge, the brightness difference along the x and y axes is obtained, and the brightness difference is expressed by the vector as the vector to obtain the direction perpendicular to the edge. This conventional edge and gradient direction detection process is summarized as follows.

먼저 가우시안 필터(Gaussian Filter)를 사용하여 영상에서 노이즈(Noise)를 제거한다(step1).First, a noise is removed from an image using a Gaussian filter (step 1).

다음으로 소벨 마스크(Sobel Mask) 또는 로버트 마스크(Robert Mask)를 써서 x, y 축으로의 밝기 변화를 구한다(step2). 여기서 I(x, y)는 영상의 픽셀 좌표(x, y)에서의 밝기이다.Next, a change in brightness on the x and y axes is obtained by using a Sobel Mask or a Robert Mask (step 2). Where I (x, y) is the brightness at pixel coordinates (x, y) of the image.

Figure pat00001
Figure pat00001

G: 밝기 변화G: brightness change

Gx: x 방향으로의 밝기 변화, I(x+1, y) - I(x, y)Gx: change in brightness in the x direction, I (x + 1, y)-I (x, y)

Gy: y 방향으로의 밝기 변화, I(x, y+1) - I(x, y)Gy: change in brightness in the y direction, I (x, y + 1)-I (x, y)

이후 각 픽셀의 밝기 변화의 크기 │G│에 대해 적당한 임계치를 기준으로 에지를 판단한다(step3). 즉 │G│가 일정 임계치 이상이면 해당 픽셀(x, y)은 에지로 판단한다.Then, the edge is determined based on an appropriate threshold value for the magnitude | G | of the brightness change of each pixel (step 3). That is, if | G | is equal to or greater than a predetermined threshold, the corresponding pixel (x, y) is determined as an edge.

마지막으로 x, y 축의 밝기 변화를 이용하여 다음 수식과 같이 해당 에지의 그라디언트 방향을 구할 수 있다.Finally, using the brightness change of the x and y axes, the gradient direction of the corresponding edge can be obtained as the following equation.

Figure pat00002
Figure pat00002

이와 같이 종래 대부분의 에지 검출 알고리즘은 앞뒤 좌우 픽셀의 밝기 차이를 단순히 계산하여 미리 정해진 문턱치와 비교하여 에지를 추출하는 방식으로, x, y축으로의 밝기의 변화가 심하게 되는 곳을 에지로 검출한다.As described above, most conventional edge detection algorithms extract edges by simply calculating the difference in brightness of the front and rear left and right pixels and comparing them with a predetermined threshold, and detect the edge where the change of brightness on the x and y axes becomes severe. .

그런데 디지털 영상의 밝기 분포는 노이즈로 인해서 매끄러운 분포를 가지지 않는다. 즉 미분 가능한 분포를 띄지 않는다. 따라서 실제 밝기의 변화를 x, y축의 밝기의 변화만으로 표현하기가 어려웠다. 이와 같이 노이즈 때문에 밝기 분포가 매끄럽지 않게 나타나고 이로 인해 x, y축의 밝기 변화로 에지를 구하게 되면 신뢰도 높은 에지를 구할 수 없는 문제점이 있었다. 또한 노이즈에 민감한 x, y 축의 밝기 차이를 이용해서 에지와 수직인 그라디언트를 구하기 때문에 정확한 그라디언트를 구할 수 없는 문제점이 있었다. 그래서 가우시안 필터를 써서 밝기 분포를 매끄럽게 만드는 과정이 필요하게 된다. 즉 노이즈를 제거해서 영상의 밝기 분포를 매끄럽게 만드는 과정이 추가로 필요하다.However, the brightness distribution of the digital image does not have a smooth distribution due to noise. That is, they do not have a differential distribution. Therefore, it was difficult to express the change in the actual brightness only by the change in the brightness of the x and y axes. As such, the brightness distribution is not smooth due to the noise. Therefore, when the edge is obtained by changing the brightness of the x and y axes, a reliable edge cannot be obtained. In addition, since gradients perpendicular to the edges are obtained using noise-sensitive brightness differences in the x and y axes, accurate gradients cannot be obtained. Therefore, the process of using Gaussian filter to smooth the brightness distribution is needed. In other words, it is necessary to remove noise to smooth the brightness distribution of the image.

한편 사람이 영상에서 에지를 인식하는 것은 단순히 해당 픽셀과 앞뒤 좌우 픽셀 사이의 밝기 차이가 심할 경우 이를 에지로 인식하는 것이 아니고, 주변의 밝기 분포를 종합적으로 보고 밝기 차이가 주변에 비해 심하면 이를 에지로 인식한다. 즉 사람은 밝기의 차이에 의해서 에지를 인식하는 것이 아니라 영상의 밝기 분포를 종합적으로 보고 밝기 분포가 위로 증가하거나 감소하면 에지로 인식한다. 이와 같이 사람에 의한 에지 인지는 주변을 종합적으로 고려하기 때문에 에지를 인식할 수 있는 최소 밝기 차이(문턱치)가 정해져 있는 것이 아니고, 주변 영상의 밝기가 어떤 경향을 가지는지가 에지 인지에 더 중요하게 작용한다. 따라서 주변 상황과 같이 종합적으로 판단할 수 있는 알고리즘이 좀더 사람의 에지 인지 방법과 유사하고 더 직관적일 수 있다.On the other hand, if an image recognizes an edge in the image, it is not simply recognized as an edge when there is a large difference in brightness between the pixel and the front and rear left and right pixels. Recognize. In other words, humans do not recognize edges based on the difference in brightness, but rather see the brightness distribution of the image as a whole and recognize the edge as the brightness distribution increases or decreases. As the edge recognition by human beings considers the surroundings comprehensively, the minimum brightness difference (threshold) for recognizing the edge is not determined, and it is more important for edge perception of the tendency of the brightness of the surrounding image. do. Therefore, the algorithm that can be comprehensively judged, such as the surrounding situation, may be more similar to human edge recognition and more intuitive.

따라서 본 발명이 해결하고자 하는 과제는 사람의 인지과정과 가깝고 신뢰성 높은 이미지 에지 검출 방법 및 시스템을 제공하는 것이다.Accordingly, an object of the present invention is to provide a method and system for detecting edges close to a human cognitive process and having high reliability.

이러한 기술적 과제를 해결하기 위한 본 발명의 한 실시예에 따른 이미지 에지 추출 방법은 에지 검출 방법은 입력 이미지에서 소정의 픽셀을 포함하는 영역을 설정하는 단계, 상기 설정된 영역에 위치하는 픽셀들의 밝기 분포를 평면으로 근사하는 단계, 그리고 상기 평면과 미리 정의된 기준 좌표축이 이루는 각의 크기를 기초로 상기 소정의 픽셀의 에지(edge) 여부를 판정하는 단계를 포함한다.In an image edge extraction method according to an embodiment of the present invention for solving this technical problem, the edge detection method comprises the steps of: setting an area including a predetermined pixel in an input image; Approximating to a plane, and determining whether the predetermined pixel is edged based on the magnitude of the angle formed by the plane and a predefined reference coordinate axis.

상기 소정의 픽셀이 상기 설정된 영역의 중심에 위치하고 상기 영역은 정사각형을 이루는 것이 바람직하다.Preferably, the predetermined pixel is located at the center of the set area, and the area forms a square.

상기 픽셀들의 밝기 분포를 최소 자승법에 의해 상기 평면으로 근사할 수 있다.The brightness distribution of the pixels may be approximated to the plane by the least square method.

상기 방법은 상기 소정의 픽셀이 에지로 판정된 경우 상기 에지로 판정된 픽셀의 방향 벡터를 구하는 단계를 더 포함할 수 있다. 상기 방향 벡터는 상기 평면의 법선 벡터를 상기 기준 좌표축과 수직인 평면에 투영한 벡터일 수 있다.The method may further include obtaining a direction vector of the pixel determined as the edge when the predetermined pixel is determined as the edge. The direction vector may be a vector obtained by projecting a normal vector of the plane onto a plane perpendicular to the reference coordinate axis.

상기 방법은 상기 방향 벡터를 이용하여 상기 에지로 판정된 픽셀 중에서 방향이 미리 정해진 범위 내에 위치하는 픽셀을 검출하는 단계를 더 포함할 수 있다.The method may further include detecting a pixel in which a direction is located within a predetermined range among pixels determined as the edge using the direction vector.

본 발명의 다른 실시예에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 성격 유형 제공 방법 중 어느 하나를 컴퓨터에 실행시키기 위한 프로그램을 기록한다.A computer readable medium according to another embodiment of the present invention records a program for causing a computer to execute any of the above personality type providing methods.

본 발명의 다른 실시예에 따른 이미지 에지 추출 시스템은 입력 이미지에서 소정의 픽셀을 포함하는 영역을 설정하는 영역 설정부, 상기 설정된 영역에 위치하는 픽셀들의 밝기 분포를 평면으로 근사하는 평면 근사부, 그리고 상기 평면과 미리 정의된 기준 좌표축이 이루는 각의 크기를 기초로 상기 소정의 픽셀의 에지(edge) 여부를 판정하는 에지 검출부를 포함한다.According to another aspect of the present invention, an image edge extraction system includes an area setting unit that sets an area including a predetermined pixel in an input image, a plane approximation unit that approximates a brightness distribution of pixels located in the set area in a plane, and And an edge detector configured to determine whether the predetermined pixel is edged based on the size of an angle formed between the plane and a predefined reference coordinate axis.

본 발명에 의하면 사람의 인지과정과 가깝고 신뢰성이 높게 이미지 상에서 에지를 검출할 수 있다.According to the present invention, edges can be detected on an image that is close to a human cognitive process and has high reliability.

도 1은 본 발명의 일 실시예에 따른 이미지 에지 검출 시스템을 설명하기 위해 제공되는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 조사 대상 픽셀을 중심으로 이미지 영역을 설정한 예를 설명하기 위해 제공되는 도면이다.
도 3은 도 2에 예시한 입력 이미지의 밝기 분포를 3차원 그래프로 나타낸 모식도이다.
도 4는 본 발명의 일 실시예에 따른 에지 판정 방법을 설명하기 위해 제공되는 도면이다.
도 5는 평면과 Z축이 이루는 각도를 설명하기 위해 제공되는 도면이다.
도 6은 본 발명의 일 실시예에 따른 에지 픽셀의 방향 벡터를 설명하기 위해 제공되는 도면이다.
도 7은 본 발명의 일 실시예에 따른 이미지 에지 추출 시스템의 동작 방법을 나타낸 흐름도이다.
도 8은 지금까지 설명한 본 발명에 따른 이미지 에지 추출 방법을 통해 에지를 추출한 예를 예시한 도면이다.
1 is a block diagram provided to explain an image edge detection system according to an embodiment of the present invention.
FIG. 2 is a diagram provided to explain an example in which an image area is set based on an irradiation target pixel according to an exemplary embodiment.
FIG. 3 is a schematic diagram illustrating a brightness distribution of the input image illustrated in FIG. 2 in a three-dimensional graph.
4 is a view provided to explain an edge determination method according to an embodiment of the present invention.
5 is a view provided to explain the angle formed between the plane and the Z axis.
6 is a view provided to explain a direction vector of an edge pixel according to an embodiment of the present invention.
7 is a flowchart illustrating a method of operating an image edge extraction system according to an embodiment of the present invention.
8 is a diagram illustrating an example of extracting the edge through the image edge extraction method according to the present invention described so far.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

도 1은 본 발명의 일 실시예에 따른 이미지 에지 검출 시스템을 설명하기 위해 제공되는 블록도이고, 도 2는 본 발명의 일 실시예에 따른 조사 대상 픽셀을 중심으로 이미지 영역을 설정한 예를 설명하기 위해 제공되는 도면이며, 도 3은 도 2에 예시한 입력 이미지의 밝기 분포를 3차원 그래프로 나타낸 모식도이다.FIG. 1 is a block diagram provided to explain an image edge detection system according to an embodiment of the present invention, and FIG. 2 illustrates an example of setting an image area around a pixel to be irradiated according to an embodiment of the present invention. FIG. 3 is a schematic diagram illustrating a brightness distribution of an input image illustrated in FIG. 2 in a three-dimensional graph.

도 1을 참고하면, 본 발명에 따른 이미지 에지 검출 시스템(100)은 이미지 입력부(110), 영역 설정부(130), 평면 근사부(150) 및 에지 검출부(170)를 포함할 수 있다.Referring to FIG. 1, the image edge detection system 100 according to the present invention may include an image input unit 110, an area setting unit 130, a planar approximation unit 150, and an edge detection unit 170.

이미지 입력부(110)는 카메라(도시하지 않음)에서 촬영된 이미지를 입력받거나 휴대전화, PDA, 노트북, 개인용 컴퓨터 등의 정보통신기기(도시하지 않음)로부터 이미지를 입력받을 수도 있다. 실시예에 따라서 이미지 입력부(110)는 이미지 획득을 위한 카메라 모듈(도시하지 않음)을 포함하도록 구현될 수도 있다.The image input unit 110 may receive an image captured by a camera (not shown) or may receive an image from an information communication device (not shown) such as a mobile phone, a PDA, a notebook computer, a personal computer, or the like. According to an exemplary embodiment, the image input unit 110 may be implemented to include a camera module (not shown) for image acquisition.

영역 설정부(130)는 입력된 이미지에 대해서 특정 픽셀(이하 조사 대상 픽셀)을 포함하는 이미지 영역을 설정한다. 보다 자세하게는 영역 설정부(130)는 입력된 이미지에 대해서 도 2에 예시한 것과 같이 조사 대상 픽셀(xd, yd)을 중심으로 파란 색 정사각형으로 나타낸 것과 같은 일정 크기를 가지는 정사각형 영역을 설정할 수 있다. 예컨대 조사 대상 픽셀을 중심으로 3×3, 5×5, 7×7, … 등의 픽셀 크기를 가지는 이미지 영역이 설정될 수 있다. 이미지 영역의 크기는 이미지 에지 검출 시스템의 사용자에 의해 미리 설정될 수 있으며, 이미지 영역의 모양은 정사각형 뿐만 아니라 원형 또는 사각형 등의 형태로 설정될 수도 있다.The area setting unit 130 sets an image area including a specific pixel (hereinafter referred to as a pixel to be irradiated) with respect to the input image. In more detail, the area setting unit 130 sets a square area having a predetermined size with respect to the input image as shown in a blue square with respect to the irradiation target pixels (x d and y d ) as illustrated in FIG. 2. Can be. For example, 3 × 3, 5 × 5, 7 × 7,... An image area having a pixel size such as may be set. The size of the image area may be preset by the user of the image edge detection system, and the shape of the image area may be set in the form of a circle or a square as well as a square.

한편 영역 설정부(130)는 조사 대상 픽셀에 대한 에지 여부 판정이 완료되면 그 이웃한 픽셀을 조사 대상 픽셀로 하여 다시 이미지 영역을 설정하는 과정을 반복한다. 입력 이미지의 모든 픽셀이 조사 대상 픽셀로 포함될 수 있으며, 실시예에 따라서는 사용자가 입력 이미지 중에서 에지 검출을 원하는 영역을 설정하면 그 영역 내에 위치하는 픽셀을 조사 대상 픽셀로 포함할 수 있다.On the other hand, the area setting unit 130 repeats the process of setting the image area again using the neighboring pixel as the irradiation target pixel when the determination of the edge of the irradiation target pixel is completed. All pixels of the input image may be included as the pixel to be irradiated, and according to an exemplary embodiment, when a user sets an area to be edge-detected in the input image, a pixel located in the area may be included as the pixel to be irradiated.

평면 근사부(150)는 영역 설정부(130)에서 설정된 영역에 위치하는 픽셀들의 밝기 분포를 3차원 좌표 상에서의 평면으로 근사한다. 보다 자세하게는 평면 근사부(150)는 설정된 영역에 위치하는 픽셀들로 이루어지는 밝기 분포를 최소 자승법(Least Square Method)을 이용하여 평면 근사할 수 있다. 여기서 x, y는 해당 픽셀들의 위치 좌표이고, I(x,y)는 해당 픽셀의 밝기 값으로 0~255 사이의 값을 가질 수 있다.The plane approximation unit 150 approximates the brightness distribution of the pixels located in the area set by the area setting unit 130 to the plane on the 3D coordinates. In more detail, the planar approximation unit 150 may planar approximate a brightness distribution formed of pixels positioned in a set area using a least square method. Here, x and y are position coordinates of the corresponding pixels, and I (x, y) may have a value between 0 and 255 as a brightness value of the corresponding pixel.

도 3을 참고하면, 설정된 영역에 위치하는 픽셀들의 밝기 분포는 X축, Y축, Z축을 가지는 3차원 좌표계 상에서 3차원 좌표값(x, y, I(x,y))에 대응하는 3차원 평면 그래프(Pd)로 근사될 수 있다. 여기서 X축, Y축은 픽셀의 위치 좌표(x, y)에 대응되고, Z축은 픽셀의 밝기 값(I(x,y))에 대응된다. 즉 평면 근사부(150)는 설정된 영역에 위치하는 픽셀들의 3차원 좌표값(x, y, I(x,y))을 기초로 최소 자승법을 적용하여 평면 방정식 'ax+by+cz+d=0'으로 표현되는 평면(Pd)으로 근사시킬 수 있다. 여기서 a, b, c, d는 평면 방정식의 파라미터이고 최소 자승법을 통해 구해질 수 있다.Referring to FIG. 3, the brightness distribution of pixels positioned in a set area is three-dimensional corresponding to three-dimensional coordinate values (x, y, I (x, y)) on a three-dimensional coordinate system having X, Y, and Z axes. It can be approximated with a planar graph P d . Here, the X and Y axes correspond to the position coordinates (x, y) of the pixels, and the Z axis corresponds to the brightness values I (x, y) of the pixels. That is, the plane approximation unit 150 applies the least square method based on the three-dimensional coordinate values (x, y, I (x, y)) of the pixels located in the set area, and applies the plane equation 'ax + by + cz + d = It can be approximated by the plane P d expressed by 0 '. Where a, b, c, and d are parameters of the planar equation and can be obtained through the least squares method.

에지 검출부(170)는 평면 근사부(150)에서 구해진 평면(Pd)과 미리 정의된 기준 좌표축이 이루는 각의 크기를 기초로 조사 대상 픽셀의 에지(edge) 여부를 판정한다. 기준 좌표축은 픽셀의 밝기 값의 기준이 되는 Z축이 되는 것이 바람직하다. 그러나 반드시 이에 한정되는 것은 아니며 평면(Pd)과 xy 평면이 이루는 각의 크기를 기초로 조사 대상 픽셀의 에지 여부를 판정할 수도 있다.The edge detector 170 determines whether the edge of the pixel to be irradiated is edged based on the size of the angle formed by the plane P d obtained from the plane approximation unit 150 and the predefined reference coordinate axis. The reference coordinate axis is preferably the Z axis that is a reference for the brightness value of the pixel. However, the present invention is not limited thereto, and it may be determined whether the pixel to be irradiated is edged based on the size of the angle formed by the plane P d and the xy plane.

아래에서 도 4를 참고하여 본 발명의 일 실시예에 따른 에지 판정 방법에 대해 자세하게 설명한다.Hereinafter, an edge determination method according to an embodiment of the present invention will be described in detail with reference to FIG. 4.

도 4는 본 발명의 일 실시예에 따른 에지 판정 방법을 설명하기 위해 제공되는 도면이다.4 is a view provided to explain an edge determination method according to an embodiment of the present invention.

도 4를 참고하면, 입력 이미지에서 붉은 색으로 설정된 영역(A)은 지면 부분으로 에지가 포함되어 있지 않고, 파란 색으로 설정된 영역(B)은 지면과 차선의 경계 부분으로 에지 부분이 포함되어 있는 것을 알 수 있다. 그리고 영역(A)에 대해 3차원 좌표계 상에서 나타낸 밝기 분포(A')는 그 기울기가 완만한 모양을 가진데 반하여, 영역(B)에 대응하는 밝기 분포(B')는 가파른 언덕과 같은 모양을 가진다. 즉 에지 부분이 포함된 영역은 밝기 분포가 가파르게 변하고, 에지 부분이 포함되지 않은 영역은 밝기 분포가 완만하다는 것을 알 수 있다.Referring to FIG. 4, the area A set to red in the input image does not include an edge as the ground portion, and the area B set to blue includes an edge portion as a boundary portion between the ground and the lane. It can be seen that. The brightness distribution A 'shown on the three-dimensional coordinate system with respect to the area A has a gentle slope, whereas the brightness distribution B' corresponding to the area B has a steep hill-like shape. Have That is, it can be seen that the brightness distribution is steeply changed in the region including the edge portion, and the brightness distribution is gentle in the region not including the edge portion.

한편 3차원에서 기울어진 정도를 잘 표시하는 도형은 평면이다. 따라서 밝기 분포(A',B')를 각각 평면으로 근사하고 해당 평면이 Z축 이루는 각도를 구하면 해당 밝기 분포의 가파른 정도를 알 수 있고 이를 기초로 입력 이미지에서 설정된 영역의 중심에 위치한 픽셀의 에지 여부를 판정할 수 있다.On the other hand, the figure that shows the degree of inclination in three dimensions is a plane. Therefore, if the brightness distributions (A 'and B') are approximated to each plane and the angle formed by the planes of the Z-axis is obtained, the steepness of the brightness distribution can be known and the edge of the pixel located at the center of the set area in the input image based on this is obtained. It can be determined.

도 5는 평면과 Z축이 이루는 각도를 설명하기 위해 제공되는 도면이다.5 is a view provided to explain the angle formed between the plane and the Z axis.

도 5를 참고하면, 평면(Pd)을 나타내는 방정식이 'ax+by+cz+d=0'이라고 가정하면, 평면(Pd)과 Z축이 이루는 각도(θ)는 다음 수학식에 의해 구할 수 있다.Referring to FIG. 5, assuming that the equation representing the plane P d is 'ax + by + cz + d = 0', the angle θ formed between the plane P d and the Z axis is expressed by the following equation. You can get it.

Figure pat00003
Figure pat00003

여기서 θ'는 평면(Pd)의 법선 벡터(N)와 Z축이 이루는 각도이다.Θ 'is an angle formed between the normal vector N of the plane P d and the Z axis.

평면(Pd)과 Z축이 이루는 각도(θ)가 작을 수로 밝기 분포의 기울기가 가파르다. 따라서 각도(θ)가 미리 정해진 임계치(θThreshold)보다 작은 경우 조사 대상 픽셀을 에지로 판정할 수 있다.Since the angle θ formed between the plane P d and the Z axis is small, the slope of the brightness distribution is steep. Therefore, when the angle θ is smaller than the predetermined threshold θ threshold , the pixel to be irradiated may be determined as an edge.

한편 에지 검출부(110)는 에지로 판정된 조사 대상 픽셀(이하 에지 픽셀이라 함)의 방향 벡터(p)를 구하고 이를 통해 에지 여부를 최종 판단할 수도 있다. 여기서 에지 픽셀의 방향 벡터(p)는 평면(Pd)의 법선 벡터(N)를 xy 평면에 투영한 벡터로 정의한다. 여기서 xy 평면은 Z축에 수직인 평면이다.Meanwhile, the edge detector 110 may obtain a direction vector p of the irradiation target pixel (hereinafter referred to as an edge pixel) that is determined as an edge, and finally determine whether the edge is an edge. Here, the direction vector p of the edge pixel is defined as a vector in which the normal vector N of the plane Pd is projected onto the xy plane. Where the xy plane is a plane perpendicular to the Z axis.

Figure pat00004
Figure pat00004

여기서 a, b는 각각 평면 방정식 f(x,y,z)의 법선 벡터의 x축 방향 성분과 y축 방향 성분이다.Where a and b are the x-axis component and the y-axis component of the normal vector of the plane equation f (x, y, z), respectively.

도 6을 참고하면, 에지 픽셀의 방향 벡터(p)는 입력 이미지에서 나타나는 에지(E)의 방향과 수직이 된다. 즉 방향 벡터(p)는 에지의 그라디언트 벡터에 대응된다. 따라서 입력 이미지에서 차선 등과 같이 일정한 방향성을 가지는 에지를 검출하고자 할 경우 에지 픽셀의 방향 벡터(p)를 이용할 수 있다.Referring to FIG. 6, the direction vector p of the edge pixel is perpendicular to the direction of the edge E appearing in the input image. That is, the direction vector p corresponds to the gradient vector of the edge. Therefore, in order to detect an edge having a constant directionality such as a lane in the input image, the direction vector p of the edge pixel may be used.

아래 수학식과 같이 방향 벡터(p)의 방향(θp)을 구하고, 방향(θp)이 미리 정해진 범위 내에 위치하는 에지 픽셀만을 검출하면 일정한 방향성을 가지는 에지를 검출할 수 있다. 아울러 에지 픽셀로 잘못 검출된 픽셀들도 필터링 할 수 있다.When the direction θ p of the direction vector p is obtained, and only edge pixels having the direction θ p within a predetermined range are detected as shown in the following equation, an edge having a constant directionality can be detected. In addition, it is possible to filter pixels that are incorrectly detected as edge pixels.

Figure pat00005
Figure pat00005

그러면 본 발명의 일 실시예에 따른 이미지 에지 추출 시스템의 동작 방법에 대해 도 7을 참고하여 설명한다.Next, an operation method of the image edge extraction system according to an embodiment of the present invention will be described with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따른 이미지 에지 추출 시스템의 동작 방법을 나타낸 흐름도이다.7 is a flowchart illustrating a method of operating an image edge extraction system according to an embodiment of the present invention.

도 7을 참고하면, 먼저 이미지 에지 추출 시스템은 입력 이미지에서 조사 대상 픽셀을 포함하는 영역을 설정한다(S710). 단계(S710)에서 영역 설정은 조사 대상 픽셀을 중심에 포함하도록 설정되는 것이 바람직하며, 미리 정해진 기준에 따라 자동으로 수행되거나 사용자로부터 영역의 크기 또는 모양 등을 입력받아 이루어질 수 있다. 보다 신뢰도 있는 에지 추출을 위해서는 영역의 크기를 크게 설정하는 것이 바람직하나 처리 속도, 부하 등을 고려하여 적절하게 조정하는 것이 바람직하다.Referring to FIG. 7, the image edge extraction system first sets an area including an object to be irradiated in an input image (S710). In operation S710, the area setting is preferably set to include the pixel to be irradiated at the center. The area setting may be automatically performed according to a predetermined criterion or may be made by receiving a size or shape of an area from a user. For more reliable edge extraction, it is preferable to set the size of the region to be larger, but it is desirable to adjust the size appropriately in consideration of processing speed and load.

다음으로 이미지 에지 추출 시스템은 설정된 영역에 위치하는 픽셀들의 밝기 분포를 평면으로 근사한다(S720). 보다 자세하게는 설정 영역에 위치한 픽셀들의 밝기 분포에 대응하는 3차원 그래프를 최소 자승법에 의해 평면으로 근사할 수 있다.Next, the image edge extraction system approximates the brightness distribution of the pixels located in the set area in a plane (S720). In more detail, the 3D graph corresponding to the brightness distribution of the pixels located in the setting region may be approximated to the plane by the least square method.

이후 이미지 에지 추출 시스템은 단계(S720)에서 구해진 평면이 미리 정의된 기준 좌표축(예컨대 밝기 값에 대응되는 Z축)과 이루는 각의 크기를 기초로 조사 대상 픽셀의 에지 여부를 판정한다(S730).Thereafter, the image edge extraction system determines whether the pixel to be irradiated is edged based on the size of the angle formed by the plane obtained in step S720 with a predefined reference coordinate axis (eg, Z axis corresponding to the brightness value) (S730).

다음으로 에지로 판정된 조사 대상 픽셀의 방향 벡터(p)를 구한다(S740). 방향(θp)이 일정 범위 내에 위치하는 에지 픽셀만을 검출하면 일정한 방향성을 가지는 에지를 최종적으로 검출할 수 있다. 아울러 에지 픽셀로 잘못 검출된 픽셀들도 필터링 할 수 있다.Next, the direction vector p of the irradiation target pixel determined as the edge is obtained (S740). If only the edge pixel having the direction θ p is located within a predetermined range, an edge having a constant directionality can be finally detected. In addition, it is possible to filter pixels that are incorrectly detected as edge pixels.

단계(S710) 내지 단계(S740)를 입력 이미지 전체 또는 사용자로부터 에지 추출을 위해 설정된 부분 전체에 대해 수행한다.Steps S710 to S740 are performed on the entire input image or the entire part set for edge extraction from the user.

도 8은 지금까지 설명한 본 발명에 따른 이미지 에지 추출 방법을 통해 에지를 추출한 예를 예시한 도면이다.8 is a diagram illustrating an example of extracting the edge through the image edge extraction method according to the present invention described so far.

본 발명의 실시예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 이미지 에지 추출 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer-readable medium having program instructions for performing various computer-implemented operations. This medium records a program for executing the image edge extraction method described above. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CDs and DVDs, floppy disks and program commands such as magnetic-optical media, ROM, RAM, flash memory, and the like. Hardware devices configured to store and perform such operations. Alternatively, the medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the preferred embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concepts of the present invention defined in the following claims are also provided. It belongs to the scope of rights.

Claims (11)

입력 이미지에서 소정의 픽셀을 포함하는 영역을 설정하는 단계,
상기 설정된 영역에 위치하는 픽셀들의 밝기 분포를 평면으로 근사하는 단계, 그리고
상기 평면과 미리 정의된 기준 좌표축이 이루는 각의 크기를 기초로 상기 소정의 픽셀의 에지(edge) 여부를 판정하는 단계
를 포함하는 이미지 에지 추출 방법.
Setting an area including a predetermined pixel in the input image,
Approximating the brightness distribution of the pixels located in the set area to a plane, and
Determining whether the predetermined pixel is edged based on the size of an angle formed between the plane and a predefined reference coordinate axis.
Image edge extraction method comprising a.
제 1 항에서,
상기 소정의 픽셀이 상기 설정된 영역의 중심에 위치하고 상기 영역은 정사각형을 이루는 이미지 에지 추출 방법.
The method of claim 1,
And the predetermined pixel is located at the center of the set area and the area is square.
제 1 항에서,
상기 픽셀들의 밝기 분포를 최소 자승법에 의해 상기 평면으로 근사하는 이미지 에지 추출 방법.
The method of claim 1,
And an approximation of the brightness distribution of the pixels to the plane by the least squares method.
제 1 항에서,
상기 소정의 픽셀이 에지로 판정된 경우,
상기 에지로 판정된 픽셀의 방향 벡터를 구하는 단계를 더 포함하고,
상기 방향 벡터는 상기 평면의 법선 벡터를 상기 기준 좌표축과 수직인 평면에 투영한 벡터인 이미지 에지 추출 방법.
The method of claim 1,
If the predetermined pixel is determined to be an edge,
Obtaining a direction vector of the pixel determined as the edge;
And the direction vector is a vector obtained by projecting a normal vector of the plane onto a plane perpendicular to the reference coordinate axis.
제 4 항에서,
상기 방향 벡터를 이용하여 상기 에지로 판정된 픽셀 중에서 방향이 미리 정해진 범위 내에 위치하는 픽셀을 검출하는 단계를 더 포함하는 이미지 에지 추출 방법.
In claim 4,
And detecting a pixel having a direction within a predetermined range from among the pixels determined as the edge using the direction vector.
컴퓨터에 제1항 내지 제5항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer-readable medium having recorded thereon a program for causing a computer to execute the method of any one of claims 1 to 5. 입력 이미지에서 소정의 픽셀을 포함하는 영역을 설정하는 영역 설정부,
상기 설정된 영역에 위치하는 픽셀들의 밝기 분포를 평면으로 근사하는 평면 근사부, 그리고
상기 평면과 미리 정의된 기준 좌표축이 이루는 각의 크기를 기초로 상기 소정의 픽셀의 에지(edge) 여부를 판정하는 에지 검출부를 포함하는 이미지 에지 추출 시스템.
An area setting unit for setting an area including a predetermined pixel in the input image,
A planar approximation unit approximating the brightness distribution of the pixels located in the set area in a plane; and
And an edge detector configured to determine whether the predetermined pixel is an edge based on the magnitude of an angle formed between the plane and a predefined reference coordinate axis.
제 7 항에서,
상기 영역 설정부는 상기 소정의 픽셀이 상기 설정된 영역의 중심에 위치하고 상기 영역은 정사각형을 이루도록 상기 영역을 설정하는 이미지 에지 추출 시스템.
8. The method of claim 7,
And the area setting unit sets the area so that the predetermined pixel is located at the center of the set area and the area is square.
제 7 항에서,
상기 평면 근사부는 상기 픽셀들의 밝기 분포를 최소 자승법에 의해 상기 평면으로 근사하는 이미지 에지 추출 시스템.
8. The method of claim 7,
And the planar approximation unit approximates the brightness distribution of the pixels to the plane by the least square method.
제 7 항에서,
상기 에지 검출부는,
상기 소정의 픽셀이 에지로 판정된 경우 상기 에지로 판정된 픽셀의 방향 벡터를 구하고,
상기 방향 벡터는 상기 평면의 법선 벡터를 상기 기준 좌표축과 수직인 평면에 투영한 벡터인 이미지 에지 추출 시스템.
8. The method of claim 7,
The edge detector,
If the predetermined pixel is determined as an edge, obtain a direction vector of the pixel determined as the edge,
And the direction vector is a vector in which the normal vector of the plane is projected onto a plane perpendicular to the reference coordinate axis.
제 7 항에서,
상기 에지 검출부는,
상기 방향 벡터를 이용하여 상기 에지로 판정된 픽셀 중에서 방향이 미리 정해진 범위 내에 위치하는 픽셀을 검출하는 이미지 에지 추출 시스템.
8. The method of claim 7,
The edge detector,
An image edge extraction system that detects a pixel whose direction is within a predetermined range from among the pixels determined as the edge by using the direction vector.
KR1020100075936A 2010-08-06 2010-08-06 Image Edge Detection Method and System KR101169720B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100075936A KR101169720B1 (en) 2010-08-06 2010-08-06 Image Edge Detection Method and System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100075936A KR101169720B1 (en) 2010-08-06 2010-08-06 Image Edge Detection Method and System

Publications (2)

Publication Number Publication Date
KR20120013744A true KR20120013744A (en) 2012-02-15
KR101169720B1 KR101169720B1 (en) 2012-07-30

Family

ID=45837175

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100075936A KR101169720B1 (en) 2010-08-06 2010-08-06 Image Edge Detection Method and System

Country Status (1)

Country Link
KR (1) KR101169720B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101385592B1 (en) * 2012-06-25 2014-04-16 주식회사 에스에프에이 Vision recognition method and system thereof
WO2014069817A1 (en) * 2012-11-01 2014-05-08 (주)제이브이엠 Method for sensing cutting line of cartridge package
KR101407070B1 (en) * 2012-09-28 2014-06-12 한국전자통신연구원 Method of extracting feature for human detection and apparatus for performing the same
WO2017175980A1 (en) * 2016-04-07 2017-10-12 이주성 Window image detection method and device
CN112669227A (en) * 2020-12-16 2021-04-16 Tcl华星光电技术有限公司 Icon edge processing method and device and computer readable storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100736356B1 (en) 2006-08-25 2007-07-06 엠텍비젼 주식회사 Image edge detection apparatus and method, image sharpness emphasizing apparatus and method, recorded medium recorded the program performing it

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101385592B1 (en) * 2012-06-25 2014-04-16 주식회사 에스에프에이 Vision recognition method and system thereof
KR101407070B1 (en) * 2012-09-28 2014-06-12 한국전자통신연구원 Method of extracting feature for human detection and apparatus for performing the same
WO2014069817A1 (en) * 2012-11-01 2014-05-08 (주)제이브이엠 Method for sensing cutting line of cartridge package
WO2017175980A1 (en) * 2016-04-07 2017-10-12 이주성 Window image detection method and device
US10832415B2 (en) 2016-04-07 2020-11-10 Archidraw. Inc. Window image detection method and device
CN112669227A (en) * 2020-12-16 2021-04-16 Tcl华星光电技术有限公司 Icon edge processing method and device and computer readable storage medium
CN112669227B (en) * 2020-12-16 2023-10-17 Tcl华星光电技术有限公司 Icon edge processing method, icon edge processing device and computer readable storage medium

Also Published As

Publication number Publication date
KR101169720B1 (en) 2012-07-30

Similar Documents

Publication Publication Date Title
US20180081434A1 (en) Eye and Head Tracking
EP3295424B1 (en) Systems and methods for reducing a plurality of bounding regions
EP3168810B1 (en) Image generating method and apparatus
US20170228940A1 (en) Recognition-based object segmentation of a 3-dimensional image
CN109086724B (en) Accelerated human face detection method and storage medium
KR20220000977A (en) Apparatus and method for providing guidance information using crosswalk recognition result
KR101681538B1 (en) Image processing apparatus and method
KR101169720B1 (en) Image Edge Detection Method and System
US20180189956A1 (en) Producing a segmented image using markov random field optimization
US10803597B2 (en) Image processing device, method for controlling the same, program, and storage medium
US20160140399A1 (en) Object detection apparatus and method therefor, and image recognition apparatus and method therefor
US9280703B2 (en) Apparatus and method for tracking hand
KR102369412B1 (en) Device and method to recognize iris
US9373053B2 (en) Image processor with edge selection functionality
EP3343507B1 (en) Producing a segmented image of a scene
US20180357212A1 (en) Detecting occlusion of digital ink
KR20150051854A (en) Method and apparatus for poi detection in 3d point clouds
Li et al. Road markings extraction based on threshold segmentation
KR101178508B1 (en) Vehicle Collision Alarm System and Method
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
JP2013037539A (en) Image feature amount extraction device and program thereof
KR20120066220A (en) System and method for detecting object of vehicle surroundings
KR101501851B1 (en) Apparatus and method for lane detection using hough transformation at optimized accumulator cells
EP3044734B1 (en) Isotropic feature matching
CN112733678A (en) Ranging method, ranging device, computer equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150604

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160707

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170710

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180702

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190709

Year of fee payment: 8