KR20130010181A - 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법 - Google Patents

에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법 Download PDF

Info

Publication number
KR20130010181A
KR20130010181A KR1020110070815A KR20110070815A KR20130010181A KR 20130010181 A KR20130010181 A KR 20130010181A KR 1020110070815 A KR1020110070815 A KR 1020110070815A KR 20110070815 A KR20110070815 A KR 20110070815A KR 20130010181 A KR20130010181 A KR 20130010181A
Authority
KR
South Korea
Prior art keywords
image
channel
generating
value
filtering
Prior art date
Application number
KR1020110070815A
Other languages
English (en)
Other versions
KR101318812B1 (ko
Inventor
서일홍
박영빈
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020110070815A priority Critical patent/KR101318812B1/ko
Priority to PCT/KR2012/001233 priority patent/WO2013012150A1/ko
Priority to US14/233,181 priority patent/US9355335B2/en
Publication of KR20130010181A publication Critical patent/KR20130010181A/ko
Application granted granted Critical
Publication of KR101318812B1 publication Critical patent/KR101318812B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법에 관한 것으로, 본 발명에 따른 영상 필터링 방법은, 원본 영상을 입력받고, 복수 개의 채널(channel)에 따라 각각 생성된 필터를 이용하여 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하고, 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하며, 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 제 2 영상의 채널 및 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지(edge)가 검출된 출력 영상을 생성한다.

Description

에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법{Filtering method for detecting orientation of edge from image and image recognition method using thereof}
본 발명은 영상 필터링 방법에 관한 것으로, 특히 컴퓨터 비전(vision) 분야에서 사물을 인식하기 위해 다양한 각도에서 해당 사물의 에지의 방향 성분을 검출하는 영상 필터링 방법과 이를 이용한 영상 인식 방법 및 이를 기록한 기록매체에 관한 것이다.
컴퓨터 비전(Computer Vision)은 기계의 시각에 해당하는 부분을 연구하는 컴퓨터 과학의 최신 연구 분야 중 하나로서, 카메라를 비롯한 다양한 센서를 이용하여 측정된 주위 영상 및 물체에 대한 정보로부터 기계로 하여금 해당 물체가 어떠한 물체에 해당하는지를 인식시키기 위한 기술적 시도가 지속적으로 이루어지고 있다. 이와 관련하여, 물체 인식 기술이란 지능형 로봇의 중점 기술들 중 하나로서, 미리 학습을 통해 저장된 지식정보를 바탕으로 물체의 영상을 입력받고, 물체의 종류, 크기, 방향 및 위치 등 3차원적 공간 정보를 실시간으로 인지하는 기술이다. 이러한 물체 인식 기술은 단순히 로봇 분야 뿐만 아니라 컴퓨터과학 분야 전반에 걸친 도전 과제에 해당하며, 인공 지능의 미해결 과제들이 점진적으로 해소되어야 하는 어려운 과제 중 하나이다.
현재, 인간과 같이 양안을 가지고 사물을 판별하는 기술은 앞으로도 상당 기간 동안 완벽히 재현하기 어려운 고난이도의 기술이다. 따라서, 제품형 로봇에 적합한 물체 인식은 카메라가 또는 레이저 공간 센서와 같은 측정 기술을 3차원으로 적용하는 형태가 될 수 있다. 예를 들어, 바닥을 스캔하여, 이물질을 판단하며, 간단한 3차원 모델로 물체의 종류를 판단하는 방법이 활용될 수 있다.
이러한 물체를 인식함에 있어서, 우선적으로 해결되어야 할 과제는 영상으로부터 특정 방향의 에지(edge)만을 선택적으로 검출하는 필터를 개발하는 것이다. 이러한 필터에 관해 많은 연구자들이 에지 검출에 대한 새로운 기술들을 이하에서 제시되는 선행기술문헌과 같이 제안하고 있으나, 현재까지 만족할만한 수준에 이르지 못하고 있다.
D. G. Lowe, Distinctive image features from scale-invariant, keypoints. IJCV, 60(2):91.110, 2004. A. Alpher and J. P. N., Fotheringham-Smythe. Frobnication revisited. Journal of Foo, 13(1):234-778, 2003.
본 발명이 해결하고자 하는 기술적 과제는 영상으로부터 에지를 검출하는 종래의 필터링 기술들이 인간이 사물을 인지하는 방법과 상이한 인식 결과를 야기하는 문제점을 해결하고, 특정 방향에 따른 에지 검출에 있어서 정확한 필터링 결과를 제공하지 못하는 한계를 극복하며, 이러한 한계로 인해 물체 인식의 성능이 저하되는 현상을 해소하고자 한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 필터링 방법은, 원본 영상을 입력받는 단계; 복수 개의 채널(channel)에 따라 각각 생성된 필터를 이용하여 상기 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하는 단계; 상기 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하는 단계; 및 상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 상기 제 2 영상의 채널 및 상기 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지(edge)가 검출된 출력 영상을 생성하는 단계를 포함한다.
상기된 영상 필터링 방법에서, 상기 출력 영상을 생성하는 단계는, 상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하는 단계; 상기 생성된 제 3 영상 중에서 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택하는 단계; 상기 영상 단위별로 상기 제 3 영상 중에서 선택된 채널과 상기 제 2 영상의 채널을 비교하는 단계; 및 상기 비교 결과에 따라 상기 제 2 영상의 채널과 상기 제 3 영상에서 선택된 채널의 일관성이 유지되도록 해당 영상 단위의 값을 조정함으로써 출력 영상을 생성하는 단계를 포함한다.
또한, 상기된 영상 필터링 방법은 상기 출력 영상을 상기 제 2 영상을 생성하는 단계의 입력값으로 피드백(feedback)하는 단계를 더 포함한다.
상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 영상 인식 방법은, 원본 영상을 입력받는 단계; 소정 필터링 과정을 통해 상기 원본 영상으로부터 부분 영상의 에지(edge)를 검출하는 단계; 미리 분류되어 저장된 부분 영역의 특징 이미지들과 상기 검출된 에지를 이용하여 상기 원본 영상 내에 존재하는 객체를 인식하는 단계를 포함하고, 상기 소정 필터링 과정은, 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하는 단계; 상기 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하는 단계; 및 상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 상기 제 2 영상의 채널 및 상기 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지가 검출된 출력 영상을 생성하는 단계를 포함한다.
또한, 상기된 영상 인식 방법에서 상기 원본 영상 내에 존재하는 객체를 인식하는 단계는, 상기 검출된 에지의 방향 성분으로부터 생성된 히스토그램(histogram) 또는 계층적 학습(hierarchical learning) 모델을 이용하여 상기 미리 분류되어 저장된 부분 영역의 특징 이미지들에 대응하는 객체를 인식한다.
나아가, 이하에서는 상기 기재된 영상 필터링 방법 및 이를 이용한 영상 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
본 발명은 원본 영상으로부터 상향식 필터링 과정 후, 계층 내 억제 및 하향식 억제 과정을 통해 영상 내의 필터링 과정의 일관성을 보장함으로써, 인간이 사물을 인지하는 방법과 유사한 효과를 나타내는 출력 영상을 생성할 수 있으며, 특정 방향에 따른 에지 검출에 있어서 보다 정확한 필터링 결과를 제공함으로써, 결과적으로 물체 인식의 성능이 향상된다.
도 1a는 인간의 사물 인식과 관련하여 대뇌신피질의 방위 선택성 세포(orientation selectivity cell)의 반응을 나타낸 도면이다.
도 1b는 방향성을 갖는 필터를 이용하여 영상을 컨벌루션(convolution)하는 방법을 나타낸 도면이다.
도 2는 본 발명의 실시예들이 채택하고 있는 영상 필터링 방법의 개요와 기본 아이디어를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 영상 필터링 방법을 도시한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 계층 내 억제를 이용하여 제 2 영상을 생성하는 방법을 설명하기 위한 도면이다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 하향식 억제를 이용하여 출력 영상을 생성하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 출력 영상을 생성하는 방법을 보다 구체적으로 도시한 흐름도이다.
도 7은 종래의 영상 필터링 방법과 본 발명의 실시예에 따른 영상 필터링 방법에 따른 출력 영상을 비교하여 예시한 도면이다.
도 8a 내지 도 8d는 하나의 입력 영상에 대해 다양한 각도에서 본 발명의 실시예에 따른 영상 필터링 방법의 성능을 측정한 결과를 예시한 도면이다.
도 9a 및 도 9b는 또 다른 입력 영상에 대해 다양한 각도에서 본 발명의 실시예에 따른 영상 필터링 방법의 성능을 측정한 결과를 종래의 영상 필터링 방법과 비교하여 예시한 도면이다.
도 10은 일반적인 영상에 대해 본 발명의 실시예에 따른 영상 필터링 방법의 단계적 수행을 통해 생성되는 출력 영상을 예시한 도면이다.
도 11은 본 발명의 다른 실시예에 따라 도 3의 영상 필터링 방법을 이용하여 영상을 인식하는 방법을 도시한 흐름도이다.
본 발명의 실시예들을 설명하기에 앞서 본 발명의 실시예들이 구현되는 환경에 대해 간략히 소개하고, 실시예들이 구현되는 환경에서 발생하고 있는 구현상의 문제점을 제시하고자 한다.
앞서 소개한 바와 같이 본 발명의 실시예들은 입력 영상에서 특정 방향의 에지만을 선택적으로 통과시키는 필터링 방법을 제안하고자 한다. 현재까지 컴퓨터 비전 분야에서는 물체 인식을 위해서 다양한 특징들이 사용되어 왔는데, 그 중에서도 최근에는 추정된 에지의 방향을 통해 물체를 인식하고자 하는 다양한 시도들이 증가하고 있다. 예를 들어, Scale-invariant feature transform (SIFT)이나 Histograms of Oriented Gradient (HOG) descriptors 등의 국부 영역 시각 특징 기술 방법들은 국부 영역 내에서 추정된 에지의 방향 성분으로 히스토그램(histogram)을 생성하고, 생성된 정보를 물체 인식의 중요 정보로 사용한다. 또한, Hierarchical Temporal Memory (HTM) 또는 HMAX 등의 물체 인식 시스템 역시 추정된 에지의 방향 성분을 물체 인식을 위한 중요 시각 특징으로 사용한다. 이러한 방법들에서 에지의 방향은 대략 6 방향 내지 18 방향 정도로 분류되는데, 이는 사람이 실제로 구분해 낼 수 있는 방향의 수와 유사하다. 이상과 같은 에지 검출 기술과 관련하여 이하에서는 2 가지 방법을 소개하도록 한다.
첫째, 가버 필터(Gabor filter)이다. 가버 필터는 영상으로부터 다양한 두께와 방향의 에지를 검출하기 위해 고안된 필터로서, 다음의 수학식 1과 같이 가우시안(Gaussian) 함수와 사인곡선적(sinusoidal) 함수의 곱으로 이루어져 있다.
Figure pat00001
이상의 수학식 1에서 파라미터 λ, θ, ψ, σ, γ는 각각 필터의 파장(wavelength), 방향(orientation), 위상(phase), 가우시안 시그마, 가우시안의 가로/세로 비율을 나타낸다. 따라서, 만약 영상의 8 방향(0°, 22.5°, 45°, 67.5°, 90°, 112.5°, 135°, 157.5°)의 에지를 검출하고자 한다면 다른 파라미터는 고정하고 방향과 관련된 파라미터만을 조정하여 8 개의 가버 필터를 생성한 후, 영상과 각 필터를 컨벌루션(convolution)하면 된다.
둘째, 뉴먼(Neumann) 방법이다. 뉴먼 방법 역시 입력 영상으로부터 다양한 방향의 에지를 검출하기 위해 고안된 필터이다. 뉴먼 방법에서 특정 방향의 에지를 검출하기 위한 과정은 3 단계로 나뉘어져 있는데, 그 과정은 LGN on-and off cells, simple cell, complex cell 단계이다. LGN on-and off cells 단계에서는 어두운 주변 픽셀에 둘러 쌓인 밝은 픽셀이 off 채널에서 활성화된다. 반면에 밝은 주변 픽셀에 둘러 쌓인 어두운 픽셀은 on 채널에서 활성화된다. 이 과정에서 활성화 정도는 모두 difference-of-Gaussians (DOG)에 의해서 산출된다. simple cell 단계에서는 LGN 과정의 on-and off 채널 각각이 특정 방향으로 기울어진 가우시안(Gaussian) 필터들과 컨벌루션된다. 이를 위한 가우시안 필터의 수식은 다음의 수학식 2와 같다.
Figure pat00002
이상의 수학식 2에서 λ는 가우시안의 가로/세로 비율을 의미한다. 만약 영상의 8 방향(0°, 22.5°, 45°, 67.5°, 90°, 112.5°, 135°, 157.5°)의 에지를 검출하고자 한다면 가우시안 필터에서 방향과 관련된 파라미터만을 조정하여 8 개의 가우시안 필터를 생성한 후, 영상과 각 필터를 컨벌루션하면 된다. 이 과정에서 특정 방향의 에지들이 검출되지만 각 방향의 에지들은 중심 방향축을 기준으로 좌측은 어둡고 우측이 밝은 하나의 그룹과 좌측은 밝지만 우측은 어두운 또 하나의 그룹으로 나누어진다. complex cell 단계에서는 각 방향별로 존재하는 두 그룹을 하나로 병합한다. 이러한 과정을 통해 각 방향별 에지들이 검출된다.
이제 도 1a 및 도 1b를 참조하여 이들 영상 필터링 방법들이 갖는 한계 및 문제점을 살펴보자.
도 1a는 인간의 사물 인식과 관련하여 대뇌신피질의 방위 선택성 세포(orientation selectivity cell)의 반응을 나타낸 도면으로서, 각 원안의 타원은 세포(cell)를 나타내고, 타원의 방향은 세포가 인식 과정에서 선호하는 에지의 방향이다. 따라서, 도 1a에 도시된 세포들은 수직선을 검출하기 위한 세포를 나타낸다. 첫 번째 경우와 같이, 만약 수직선의 입력 신호가 세포의 중앙에 위치하는 경우에는 세포의 출력값은 크다(즉, 매우 강하게 세로 방향의 수직선을 인식함을 의미한다.). 그리고, 두 번째 경우와 같이, 수직선으로부터 약간 기울어진 선이 입력 신호로 들어올 경우에는 출력 신호가 작다. 이에 반해, 세 번째 경우처럼 수평선이 입력 신호로 주어질 경우에는 출력 신호가 없다(즉, 인식하지 못한다.). 또한, 네 번째 경우와 같이 비록 수직선이 입력되더라도 세포의 인식이 용이한 범위(타원)를 벗어하는 경우에는 역시 출력 신호가 없다.
한편, 앞서 설명한 바와 같이 가버 필터나 뉴먼 방법의 경우에는 2D 컨벌루션에 기반하고 있다. 도 1b는 방향성을 갖는 필터를 이용하여 영상을 컨벌루션(convolution)하는 방법을 나타낸 도면으로서, 가버 필터 내지 뉴먼 방법이 도 1a에서와 같은 인간의 실제 방위 선택성 세포의 동작과 다른 점을 설명하고 있다.
우선, 도 1b에 따른 컨벌루션은 다음의 수학식 3에 따라 수행된다.
Figure pat00003
이상의 수학식 3에서 x는 입력 영상, h는 필터, y는 채널을 의미한다. 따라서, 필터의 개수만큼 채널의 개수가 정해진다. 수학식 3에 따르면 입력 신호가 작으면 비록 필터의 주방향과 입력 라인의 방향이 정확히 일치되더라도 출력 신호가 작아질 수 있다. 그러나, 만약 입력 신호가 크다면 비록 필터의 주방향과 입력 라인의 방향에 다소 차이가 존재하더라도 출력 신호가 이전의 경우보다 클 수가 있다. 더 나아가, 필터의 방향과 직교하는 입력 라인이 주어진 경우에도 일정 크기의 출력 신호가 발생할 수 있다. 따라서, 도 1b와 같은 컨벌루션에 기반한 종래의 필터들은 인간의 대뇌신피질의 방위 선택성 세포의 반응과는 다른 결과를 생성한다.
이상과 같은 문제점을 해소하고자, 이하에서 기술될 본 발명의 실시예들은 인간의 물체 인식과 유사한 방법과 효과를 나타내는 영상 필터링 방법을 제안하고자 한다. 이를 위해 본 발명의 실시예들은 전체 방향을 8 개의 중심 방향으로(0°, 22.5°, 45°, 67.5°, 90°, 112.5°, 135°, 157.5°)으로 나누고, 각 중심 방향을 기준으로 대략 +22.5°, -22.5°만의 에지를 통과시키는 대역 통과 필터링 방법을 제안한다. 이 때, 비록 특정 방향에 대해 통과되는 에지라고 하더라도 각 중심 방향으로부터 멀리 떨어진 에지일수록 상대적으로 입력 신호의 세기 대비 출력신호의 세기의 비율이 감소하도록 설계하였다. 즉, 필터링 방향과 여과된 신호의 방향이 상이할수록 이들 신호에 대한 출력값은 상대적으로 감소하게 된다. 이하에서는 이러한 효과를 채널의 일관성이라고 표현하도록 한다.
도 2는 본 발명의 실시예들이 채택하고 있는 영상 필터링 방법의 개요와 기본 아이디어를 설명하기 위한 도면이다. 도 2에서 입력 레이어(210)는 에지 검출의 대상이 되는 원본 영상을 의미하고, 중간 레이어(220)는 입력 레이어(210), 자기 자신(220) 또는 상위 레이어(230)로부터의 일련의 연산을 통해 생성된 영상을 의미한다. 또한, 중간 레이어(220)는 최종적으로 생성되는 출력 영상을 의미하기도 한다. 마지막으로 상위 레이어(230)는 이후에 설명될 하향식 억제 과정에서 생성되는 영상을 의미한다.
도 2를 통해 확인할 수 있듯이, 본 발명의 실시예들은 인간의 대뇌신피질에서의 시각적 인지 과정을 모방하는 방법을 제안한다. 인간의 뇌는 엄청나게 많은 뉴런들이 복잡한 연결관계를 가진 네트워크이다. 하나의 뉴런으로부터 생성되는 정보는 작고 제한적이지만 많은 뉴런들이 이런 복잡한 연결을 통해 정보를 주고받음으로 해서 사람이 시각으로부터 얻은 정보를 해석해 낼 수 있다. 이 네트워크의 다양한 연결 관계는 크게 상향식(feed-forward), 하향식(feedback), 계층 내(lateral) 및 순환적(recurrent) 연결 관계로 나누어 볼 수 있다. 이 때, 각 연결 유형마다 제공하는 정보는 그 성격이 다르다.
첫 번째, 상향식 과정은 통상적인 에지 검출을 위한 영상 필터링 방법에 따른 것으로, 거버 필터 또는 뉴먼의 방법을 활용할 수 있다. 또한, 상향식 연결 관계는 상위 뉴런에게 연결된 하위 뉴런 그룹으로부터의 작은 단위의 정보들이 모아진다.
두 번째, 계층 내 억제(lateral inhibition)는 중간 레이어(220)의 영상에서 해당 영상의 기본 단위(예를 들어, 픽셀이 될 수 있다.)별로 그 값이 최대가 되는 방향의 영상값을 선택하는 과정을 의미한다.
세 번째, 하향식 억제(inhibitory feedback)는 각각의 방향별로 중간 레이어(220)를 필터링하여 생성된 상위 레이어(230)로부터 채널의 일관성이 유지되도록 각각의 영상의 기본 단위의 영상값을 조정한다. 이러한 하향식 연결 관계는 상위 뉴런의 큰 단위의 정보가 연결된 하위 그룹들에게 전달된다.
네 번째, 순환적(recurrent) 입력 단계는 두 번째 단계인 계층 내 억제 과정과 세 번째 단계인 하향식 억제 과정을 통해 생성된 출력 영상(중간 레이어를 의미한다.)을 재차 입력 영상으로서 입력하여 이상의 과정의 반복한다.
이상과 같이, 본 발명의 실시예들은 인간의 대뇌신피질에 시각적 인지 과정을 모방하기 위해 필요한 이상의 4 가지 연결 관계를 모두 차용하여 기술적 수단으로 구현하는 구조를 제안한다. 이러한 구조의 4 가지 연결 관계를 통해 영상의 모든 방향의 에지들이 단계를 수행함에 따라 점차 목표로 하는 특정 방향의 에지만을 남기고 효과적으로 제거될 수 있다. 각각의 과정에 대해서는 이하에서 도면을 참조하여 보다 구체적으로 설명된다.
도 3은 본 발명의 일 실시예에 따른 영상 필터링 방법을 도시한 흐름도로서, 여기서는 그 개요만을 소개하고, 이후 도 4 내지 도 6을 통해 각각의 구성을 보다 구체적으로 설명하도록 한다.
310 단계에서 영상 필터링 장치는 원본 영상을 입력받는다.
320 단계에서 영상 필터링 장치는 복수 개의 채널(channel)에 따라 각각 생성된 필터를 이용하여 310 단계를 통해 입력된 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성한다. 이 때, 채널은 미리 설정된 특정 각도를 나타내고, 이러한 채널에 따라 생성된 필터는 입력 영상으로부터 미리 설정된 특정 각도의 영상을 선택적으로 검출할 수 있는 기술적 수단을 의미한다. 또한, 영상의 필터링은 입력 영상과 채널에 따라 생성된 가우시안(Gaussian) 필터를 컨벌루션(convolution)함으로써 구현될 수 있다.
330 단계에서 영상 필터링 장치는 320 단계를 통해 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성한다. 이 때, 영상 단위란 영상 내에서 연산의 대상이 되는 기본 단위를 의미하며, 본 발명이 속하는 기술 분야에서는 통상적으로 픽셀(pixel)이 널리 활용된다.
340 단계에서 영상 필터링 장치는 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 330 단계를 통해 생성된 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 제 2 영상의 채널 및 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지(edge)가 검출된 출력 영상을 생성한다.
한편, 이상과 같은 일련의 연산 과정만을 통해서도 출력 영상을 생성할 수 있으나, 에지 검출의 품질을 향상시키기 위해서는 선택적으로 피드백 과정(350)을 더 수행할 수 있다. 즉, 350 단계에서는 340 단계를 통해 생성된 출력 영상을 제 2 영상을 생성하는 단계(330)의 입력값으로 피드백(feedback)할 수 있다. 이러한 피드백 과정은 실험을 통해 검증된 일정 횟수만큼 반복함으로써 에지가 검출된 출력 영상의 품질을 최적화할 수 있다.
도 4는 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 계층 내 억제를 이용하여 제 2 영상을 생성하는 방법을 설명하기 위한 도면으로서, 우선 제 1 영상의 생성 과정부터 설명하도록 한다. 도 4는 설명의 편의를 위해 특정 방향의 에지를 검출하기 위한 필터의 형태를 단순화하여 표현한 것으로, 본 발명에 따른 실시예에서는 거버 필터, 뉴먼 필터 또는 이에 상응하는 기술적 수단에 따라 가우시안 필터를 활용할 수 있다. 도 4에서 진한 회색은 해당 값이 크게 활성화된 것을 나타내고, 옅은 회색은 작게 활성화된 것을 나타낸다. 또한, x는 입력 레이어를 나타내고, 위첨자 m은 중간 레이어를 나타내며, h는 필터를 나타낸다. 아래첨자 h 와 d는 수평(horizontal)과 대각(diagonal)을 각각 나타낸다. 비록 영상에 대한 필터링은 다양한 각도에 따라 수행될 수 있으나, 여기서는 설명의 편의를 위해 수평과 대각 방향만을 예시하였다. 필터 안의 숫자는 필터의 가중치를 나타낸다.
도 4에서 (a)는 수평 에지 선택적 필터로써 수평 직선을 컨벌루션한 결과가 중간 레이어의 대각 채널에 나타난 것을 보여주고 있으며, (b)는 대각 에지 선택적 필터로써 수평 직선을 컨벌루션한 결과가 중간 레이어의 수평 채널에 나타난 것을 보여주고 있다. 또한, 본 실시예에서 활용한 채널의 개수는 8 개이나, 영상 필터의 구현의 관점에서 다양하게 변형될 수 있음은 당연하다.
도 4의 과정은 앞서 설명한 4 단계의 영상 필터링 과정 중 상향식(feed-forward) 필터링 및 계층 내 억제 과정을 나타내고 있으며, 이들 연산을 수행하기 위해서는 앞서 설명한 컨벌루션에 관한 수학식이 활용될 수 있다. 따라서, 이러한 상향식 필터링 과정은 본 발명이 속한 기술 분야에서 통상의 지식 가진 자가 용이하게 파악할 수 있는 내용에 해당하므로, 여기서는 구체적인 설명을 생략한다.
이제, 상향식 필터링 후의 각 채널을
Figure pat00004
라고 한다면, 이 채널값이 다음의 수학식 4에서 정의된 바와 같이 중간 레이어에서 각 채널의 초기값이 된다.
Figure pat00005
상향식 필터링 과정이 수행된 후, 만약 도 4와 같이 중간 레이어에서 수평 채널의 출력값이 대각 채널의 출력값보다 크다면, 수평 채널의 출력값이 승자(winner)가 된다. 이를 일반화하여 표현하면, 중간 레이어의 각 픽셀 위치에서는 모든 중간 레이어 채널을 검사하여 해당 채널의 값이 가장 큰 하나의 승자를 선택한다. 그 후, 각 픽셀 위치에서의 승자와 승자가 아닌 다른 채널의 값의 비율에 따라서 승자가 아닌 각 채널의 값이 억제된다(즉, 해당 채널값이 배제된다.). 바로 이러한 과정이 계층 내 억제 과정을 의미한다. 계층 내 억제 후의 출력값은 다음의 수학식 5와 같다.
Figure pat00006
이상의 수학식 5에서 위첨자 l 은 계층 내(lateral) 단계를 의미하고, θ는 각 채널(즉, 방향 내지 각도를 의미한다.)을 의미하고,
Figure pat00007
는 영상 내의 좌표 (m,n)에서의 승자를 의미한다.
결론적으로, 이상과 같은 방법에 의해 예시된 도 4에서 (a)의 수평 채널에 의한 값이 (b)의 대각 채널에 의한 값보다 크므로(시각적 확인을 위해 보다 진한 색깔로 표시되었다.) (a)의 채널값이 (b)의 채널값을 억제한다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 하향식 억제를 이용하여 출력 영상을 생성하는 방법을 설명하기 위한 도면으로서, 위첨자 t는 상위 레이어를 나타낸다. 도 5a는 중간 레이어의의 수평 채널 출력값을 수평 에지 선택적 필터와 대각 에지 선택적 필터로써 컨벌루션한 결과를 보여주고 있으며, 도 5b는 중간 레이어의의 대각 채널 출력값을 수평 에지 선택적 필터와 대각 에지 선택적 필터로써 컨벌루션한 결과를 보여주고 있다. 도 5a 및 도 5b의 두 경우 모두 입력 신호는 수평 직선이다.
본 실시예에서 하향식 억제는 다음과 같은 메커니즘에 따라 수행된다. 우선 도 5a를 참조하면, 상위 레이어의 출력값 중 수평 채널 출력값이 대각 채널 출력값보다 크다는 것을 알 수 있다. 이러한 경우, 수평 중간 레이어 목표 픽셀에서의 억제는 없다. 반면, 도 5b의 경우에는 상위 레이어의 출력값 중 수평 채널 출력값이 대각 채널 출력값보다 크다. 이러한 경우, 대각 중간 레이어 목표 픽셀에서의 억제가 작용한다.
이러한 억제 과정을 8 개 방향의 에지를 검출하는 경우를 가정하여 보다 일반화하여 설명하면, 중간 레이어의 8 개 채널 각각은 8 방향의 필터로 컨벌루션되어 각 중간 레이어 채널당 8 개의 상위 레이어 출력 채널을 갖는다. 이러한 8 개의 상위 레이어 출력 채널 중에서 각 픽셀당 출력값의 크기에 따라 승자를 선출하고 승자의 채널이 중간 레이어 채널과 같은 방향이면 억제가 없고, 다른 방향이면 억제가 작용한다.
이러한 과정은 앞서 설명한 바와 같이 채널의 일관성을 유지하기 위함인데, 채널의 일관성을 유지하기 위한 하향식 억제 과정은 기본적으로 다음과 같은 가정에 기반한다. 즉, 중간 레이어에서 특정 방향의 채널에서 나타나는 이웃하는 출력값들의 패턴의 방향은 그 채널의 방향과 일치해야 한다는 것이다. 예를 들어, 만약 필터링 과정이 제대로 수행되었다면, 수평 채널에 이웃하는 출력값들의 패턴의 방향은 수평 방향이어야 한다는 것을 의미한다. 따라서, 이상과 같은 채널의 일관성을 유지하기 위해 제 2 영상(중간 레이어를 의미한다.)을 생성한 채널과 제 3 영상(상위 레이어를 의미한다.)을 생성하기 위해 선택된 채널이 일치하는 경우에 상대적으로 더 높은 값을 갖도록 설정되는 것이 바람직하다.
이러한 하향식 억제 과정은 다음의 수학식 6과 같이 표현될 수 있다.
Figure pat00008
이상의 수학식 6에서 위첨자 fb는 피드백(feedback) 간계를 나타내고,
Figure pat00009
는 영상 내의 좌표 (m,n)에서에서 승자의 채널이 θ라는 것을 의미한다.
결론적으로, 도 5a에서는 중간 레이어의 채널이 수평 방향의 채널이고, 상위 레이어에서 승자인 채널 역시 수평 방향의 채널이므로 억제는 작용하지 않는다(non-inhibition). 이에 반해, 도 5b에서는 중간 레이어의 채널이 대각선 방향의 채널이고, 상위 레이어에서 승자인 채널이 수평 방향의 채널이므로 양 레이어 간의 채널이 불일치한다. 따라서, 채널의 일관성을 유지하기 위해 승자인 수평 방향의 채널에 대응하는 픽셀에 채널값을 감소(억제, inhibition)시켜 할당하게 된다.
도 6은 본 발명의 일 실시예에 따른 도 3의 영상 필터링 방법에서 출력 영상을 생성하는 방법을 보다 구체적으로 도시한 흐름도로서, 도 3의 제 2 영상을 생성하는 단계(330) 이후의 과정을 도 5a 및 도 5b의 구체적인 연산 과정에 따라 기술하고 있다.
341 단계에서 영상 필터링 장치는 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 제 2 영상(중간 레이어를 의미한다.)을 필터링함으로써 복수 개의 제 3 영상을 생성한다.
342 단계에서 영상 필터링 장치는 341 단계를 통해 생성된 제 3 영상 중에서 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택한다.
342 단계에서 영상 필터링 장치는 영상 단위별로 제 3 영상 중에서 선택된 채널과 제 2 영상의 채널을 비교(344 단계)한다. 그 후, 영상 필터링 장치는 비교 결과(양자의 일치 여부)에 따라 제 2 영상의 채널과 제 3 영상에서 선택된 채널의 일관성이 유지되도록 해당 영상 단위의 값을 조정함으로써 출력 영상을 생성한다.
보다 구체적으로, 제 2 영상의 채널과 제 3 영상의 선택된 채널이 일치하는 경우에는 345 단계로 진행하여 해당 영상 단위의 값을 출력 영상의 값으로 설정한다. 이러한 과정은 앞서 설명한 도 5a의 연산 과정에 해당한다. 반면, 제 2 영상의 채널과 상기 제 3 영상의 선택된 채널이 일치하지 않는 경우에는 346 단계로 진행하여 해당 영상 단위의 값을 감소시켜 출력 영상의 값으로 설정한다. 이러한 과정은 앞서 설명한 도 5b의 연산 과정에 해당한다.
한편, 하향식 억제 과정 후의 채널값은 중간 레이어의 출력값으로 사용되고, 이러한 출력값 역시 다음의 수학식 7에 따라 재차 계층 내 억제 과정의 입력으로 사용될 수 있다.
Figure pat00010
이상의 수학식 7은 앞서 도 3을 통해 설명한 순환적 피드백 과정(350 단계)에 해당하는 것으로, 이러한 계층 내 억제 과정 → 하향식 억제 과정 → 순환적 피드백 과정의 사이클은 중간 레이어의 출력값이 일정한 값으로 수렴할 때까지 계속 반복되는 것이 바람직하다. 물론 이러한 순환 과정이 본 영상 필터링 방법의 구현 환경에 따라 선택적이고 유연하게 수행될 수 있음은 당연하다.
상기된 본 발명의 실시예들에 따르면, 상향식 필터링 과정 후, 계층 내 억제 및 하향식 억제 과정을 통해 영상 내의 필터링 과정의 일관성을 보장함으로써, 인간이 사물을 인지하는 방법과 유사한 효과를 나타내는 출력 영상을 생성할 수 있으며, 특정 방향에 따른 에지 검출에 있어서 보다 정확한 필터링 결과를 제공할 수 있다.
이하에서는 이러한 본 발명의 실시예들의 성능을 검증하기 위한 다양한 실험 결과를 제시하도록 한다.
도 7은 종래의 영상 필터링 방법과 본 발명의 실시예에 따른 영상 필터링 방법에 따른 출력 영상을 비교하여 예시한 도면이다. 도 7에서 (a)는 원본 입력 영상을 나타내고, (b) 내지 (e)는 가버 필터에 의해 생성된 채널을 나타내며, (f) 내지 (i)는 뉴먼 방법에 의해서 생성된 채널을 나타낸다. 마지막으로, (j) 내지 (m)는 본 발명의 실시예들이 제안하는 방법에 의해서 생성된 채널이다.
채널의 첫 번째 컬럼부터 네 번째 컬럼까지는 각각 4 개 방향(0°, 45°, 90°, 135°)을 주방향으로 하는 필터에 의해서 생성된 결과이다. 첫 번째 컬럼의 채널을 비교하였을 때, 가버 필터와 뉴먼 방법의 경우 0°와 많이 차이가 나는 방향의 에지까지 통과시킨 것을 볼 수 있다(즉, 필터가 사용자가 원하는 방향의 에지만을 정확히 여과시키지 못하고 있다.).
이에 반해, 본 발명의 실시예들에 따라 제안하는 영상 필터링 방법의 경우에는 0°로부터 대략 +22.5° 내지 -22.5° 범위 내의 에지만을 통과시킨 것을 확인 할 수 있다(즉, 필터가 사용자가 원하는 방향의 에지만을 정확하게 여과시키고 있다.). 여타의 컬럼의 채널에서도 마찬가지의 결과를 나타내고 있다.
이하에서는 추가적으로 2 가지의 인공적인 영상을 이용한 실험과 1 가지의 일반적인 영상을 이용한 실험을 수행하였고, 그 결과를 분석하였다.
첫 번째 인공적인 영상은 도 8a 내지 도 8d를 통해 제시된다. 도 8a 내지 도 8d는 하나의 입력 영상에 대해 다양한 각도에서 본 발명의 실시예에 따른 영상 필터링 방법의 성능을 측정한 결과를 예시한 도면이다.
도 8a에서 (a)는 (0°, 90°)만으로 이루어진 직선을 포함하고 있고, (b)는 (45°, 135°)만으로 이루어진 직선을 포함하고 있다.
이제 도 8b를 참조하면, 도 8b는 도 8a의 (a)를 입력 영상으로 사용한 결과를 나타낸다. 도 8b에서 각 열은 왼쪽부터 (0°, 22.5°, 45°, 67.5°, 90°)의 채널을 나타낸다. 또한, 각 행에서 첫 번째 행은 상향식 필터링만을 사용한 결과를 나타내고, 두 번째 행은 계층 내 억제 과정까지 수행한 결과를 나태내며, 마지막 세 번째 행은 순환적 입력 과정을 2 회 수행한 결과를 보여주고 있다. 즉, 이러한 일련의 예시도는 정성적인 결과를 보여주기 위한 그림이다.
다음으로, 도 8c를 참조하면, 도 8c는 각각 도 8a의 (a) 및 (b)를 입력 영상으로 사용한 결과를 나타내는 것으로, 제안하는 밴드-패스(band-pass) 필터링 방법이 통과시키지 말아야 할 방향의 에지를 효과적으로 잘 제거하는지에 대한 성능 평가를 보여주고 있다.
도 8c의 첫 번째 표에서 각 행은 제안하는 방법의 각 단계별 출력 결과를 나타내며, 각 숫자는 출력값이 20 이상인 픽셀의 개수를 나타낸다. 도 8c에서 순환적 입력 과정을 2 회 수행한 결과, 최종적인 하향식 억제 단계를 거치면 0°와 90°를 제외한 나머지 채널에서는 출력값이 20 이상인 픽셀의 개수들이 현저히 줄어든 것을 볼 수 있다(즉, 성능이 현저히 개선되는 것을 확인할 수 있다.).
또한, 도 8c의 두 번째 표를 참조하면, 순환적 입력 과정을 2 회 수행한 결과, 최종적인 하향식 억제 과정을 거치면 45°와 135°를 제외한 나머지 채널에서는 출력값이 20 이상인 픽셀의 개수들이 현저히 줄어든 것을 볼 수 있다.
한편, 도 8d는 도 8c와는 달리 본 발명의 실시예들이 제안하는 방법이 통과시켜야 할 방향의 에지들을 정확하게 잘 통과시키고 있는지에 대한 성능 평가를 나타낸다. 도 8d에 제시된 실험적인 결과를 검토하면, 대부분의 영상이 2 회에 걸친 순환적 입력 과정을 거쳐 하향식 억제 단계에 이르면 채널의 출력값이 특정한 값에 수렴함을 알 수 있다.
도 8a의 (a)에서 0° 인 픽셀의 개수는 1180 개이고, 90°인 픽셀의 개수는 1220 개이다. 또한, 도 8a의 (b)에서는 45° 인 픽셀의 개수는 820 개이고, 135°인 픽셀의 개수는 770 개이다. 도 8d의 표에서와 같이 순환적 입력 과정을 2 회 수행하여 최종적인 하향식 억제 과정을 거친 후에도 통과시켜야 할 방향의 에지들을 모두 정확하게 통과시키고 있는 것을 보여주고 있다.
이제 두 번째 인공적인 영상을 살펴보자. 도 9a 및 도 9b는 또 다른 입력 영상에 대해 다양한 각도에서 본 발명의 실시예에 따른 영상 필터링 방법의 성능을 측정한 결과를 종래의 영상 필터링 방법과 비교하여 예시한 도면이다.
도 9a에서 원본 영상 (A)에는 직선이 하나 존재한다. 직선의 밝기값은 모두 일정하고, 직선을 제외한 영역의 밝기값은 0이다. 이러한 원본 영상 (A)를 입력 영상으로 하여 본 발명의 실시예들이 제안하는 방법으로 필터링을 수행하면, 총 8 개의 채널에 대한 출력값이 산출된다. 이 때, 각 채널당 평균 출력값은 다음의 수학식 8과 같이 정의할 수 있다.
Figure pat00011
이상의 수학식 8에서
Figure pat00012
는 각 채널의 픽셀 위치 (x,y)에서의 출력값을 나타낸다. 이 때, (x,y)는 입력 영상에서 밝기값이 0이 아닌 위치로 한정한다. 또한, N은 직선을 이루고 있는 픽셀의 개수를 나타낸다. 따라서, 수학식 8은 각 채널의 평균 출력값을 의미한다. 단, 입력 영상에서 직선 위치에 해당하는 위치에서의 출력값만을 대상으로 한다. 도 9a의 영상에서 직선의 방향은 0°인데 반해, 본 실험에서는 180°를 64 등분한 방향 각각에 대한 직선 영상을 입력 영상으로 주었다. 즉, 0°직선을 포함한 영상, 1/64*180°의 직선을 포함한 영상, 2/64*180°의 직선을 포함한 영상 등 총 64 장의 인공적인 영상을 생성하였다. 또한, 입력 직선의 밝기값을 255, 200, 150, 100, 50으로 변화시켜서 입력 영상을 생성하였다. 따라서, 입력 영상의 수는 총 320 장이 되었다.
이제, 도 9b는 이러한 320 장의 입력 영상에 대해 본 발명의 실시예들이 제안하고 있는 영상 필터링 방법을 통해 필터링한 결과를 보여준다.
도 9b에서 가로축은 순서대로 가버 필터에 의한 필터링 결과, 뉴먼 방법에 의한 필터링 결과, 본 발명의 실시예들이 제안하고 있는 방법에 의한 필터링 결과를 나타낸다. 이 때, 필터링 응답(filtering response) 축의 값은 순환적 입력 과정을 2 회 수행하여 최종적인 하향식 억제 과정을 거친 후의 값을 사용하였다. 또한, 세로축은 각각 필터의 적용 방향(각도)를 나타낸다. 필터의 적용 방향은 지정 각도를 중심으로 +22.5° 내지 -22.5° 범위의 에지를 통과시키도록 설계된 것을 사용하였다.
도 9b를 참조하면, 가버 필터 및 뉴먼 방법에 의한 필터링 결과의 경우에는 지정 각도 이외의 각도에서도 에지가 통과되어 검출된 것을 볼 수 있다. 이에 반해, 본 발명의 실시예들이 제안하고 있는 방법에 따르면, 지정 각도에 대해서만 정확하게 에지가 검출된 것을 확인할 수 있다.
마지막으로, 2 장의 일반적인 영상을 이용해 본 발명의 실시예들의 성능을 검토해보자. 도 10은 일반적인 영상에 대해 본 발명의 실시예에 따른 영상 필터링 방법의 단계적 수행을 통해 생성되는 출력 영상을 예시한 도면이다.
도 10에서 좌측의 그림 2 장은 입력 영상을 나타내고 있으며, 여타의 영상들은 본 발명의 실시예들이 제안하는 영상 필터링 방법에 의한 필터링 결과를 예시하고 있다. 열 (b) 내지 (d)는 각각 0°, 45°, 90°의 채널을 보여주고 있고, 열 a는 각 픽셀 위치에서 8 개의 채널을 조사하여 승자값만들 취한 결과이다. 첫 번째 및 세 번째 행의 열 (a) 내지 (d)는 상향식 필터링만을 거친 결과이고, 두 번째 및 네 번째 행의 열 (a) 내지 (d)는 순환적 입력 과정을 2 회 수행하여 최종적인 하향식 억제 과정을 거친 후의 값을 출력값으로 사용하였다.
이상의 필터링 결과를 살펴보면, 본 발명의 실시예들에 따른 영상 필터링 방법은 도 7 내지 도 9b와 같은 인공적인 영상 뿐만 아니라, 도 10과 같은 일반적인 자연 영상에서도 목표로 하는 방향 밴드의 에지들만을 효과적으로 통과시킬 수 있음을 알 수 있다.
이제, 이러한 영상 필터링 방법을 이용하여 영상을 인식하는 방법을 도 11을 통해 개괄적으로 설명하도록 한다. 이하에서 제시될 영상 인식 방법은 이상에서 제시한 영상 필터링 방법을 그대로 활용하고 있으므로, 여기서는 필터링 방법에 관해서는 약술하도록 한다. 또한, 이상과 같이 본 발명의 실시예들이 제시하고 있는 필터링 방법을 활용하는 한, 영상 인식을 위한 다양한 방법들이 활용될 수 있음을 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 쉽게 알 수 있다. 따라서, 이하에서는 영상 인식에 관한 개요만을 제시할 뿐, 인식 방법에 관한 보다 구체적인 설명은 생략하도록 한다.
1110 단계에서 영상 인식 장치는 원본 영상을 입력받는다.
1120 단계에서 영상 인식 장치는 이상에서 설명한 영상 필터링 과정을 통해 원본 영상으로부터 부분 영상의 에지(edge)를 검출한다. 이러한 필터링 과정은 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하고, 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하며, 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 제 2 영상의 채널 및 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지가 검출된 출력 영상을 생성한다.
또한, 이러한 필터링 과정에서 출력 영상을 제 2 영상을 생성하는 단계의 입력값으로 피드백하는 단계를 더 포함할 수 있음은 당연하다.
1130 단계에서 영상 인식 장치는 미리 분류되어 저장된 부분 영역의 특징 이미지들과 1120 단계를 통해 검출된 에지를 이용하여 1110 단계를 통해 입력된 원본 영상 내에 존재하는 객체를 인식한다. 이 때, 원본 영상 내에 존재하는 객체를 인식하는 단계는, 1120 단계를 통해 검출된 에지의 방향 성분으로부터 생성된 히스토그램(histogram) 또는 계층적 학습(hierarchical learning) 모델을 이용하여 미리 분류되어 저장된 부분 영역의 특징 이미지들에 대응하는 객체를 인식함으로써 수행될 수 있다.
앞서 설명한 바와 같이 컴퓨터 비전 분야에서는 물체 인식을 위해서 다양한 특징들이 사용되어 왔다. 특히, 이러한 물체 인식을 위해서는 그 인식의 기초 정보로서 활용되는 정확한 에지 검출이 요구된다. 따라서, 상기된 영상 필터링 방법을 채택한 영상 인식 방법에 따르면, 다양한 국부 영역 시각 특징 기술 방법이나 물체 인식을 위한 중요 시각 특징을 정확하게 추출함으로써, 향상된 성능의 물체 인식 방법을 제공할 수 있다.
한편, 본 발명은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 이 때, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.
이상에서 본 발명에 대하여 그 다양한 실시예들을 중심으로 살펴보았다. 본 발명에 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 원본 영상을 입력받는 단계;
    복수 개의 채널(channel)에 따라 각각 생성된 필터를 이용하여 상기 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하는 단계;
    상기 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하는 단계; 및
    상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 상기 제 2 영상의 채널 및 상기 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지(edge)가 검출된 출력 영상을 생성하는 단계를 포함하는 영상 필터링 방법.
  2. 제 1 항에 있어서,
    상기 출력 영상을 생성하는 단계는,
    상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하는 단계;
    상기 생성된 제 3 영상 중에서 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택하는 단계;
    상기 영상 단위별로 상기 제 3 영상 중에서 선택된 채널과 상기 제 2 영상의 채널을 비교하는 단계; 및
    상기 비교 결과에 따라 상기 제 2 영상의 채널과 상기 제 3 영상에서 선택된 채널의 일관성이 유지되도록 해당 영상 단위의 값을 조정함으로써 출력 영상을 생성하는 단계를 포함하는 영상 필터링 방법.
  3. 제 1 항에 있어서,
    상기 비교 결과, 상기 제 2 영상의 채널과 상기 제 3 영상의 선택된 채널이 일치하는 경우, 해당 영상 단위의 값을 출력 영상의 값으로 설정하는 것을 특징으로 하는 영상 필터링 방법.
  4. 제 1 항에 있어서,
    상기 비교 결과, 상기 제 2 영상의 채널과 상기 제 3 영상의 선택된 채널이 일치하지 않는 경우, 해당 영상 단위의 값을 감소시켜 출력 영상의 값으로 설정하는 것을 특징으로 하는 영상 필터링 방법.
  5. 제 1 항에 있어서,
    상기 채널의 일관성은 상기 제 2 영상을 생성한 채널과 상기 제 3 영상을 생성하기 위해 선택된 채널이 일치하는 경우에 상대적으로 더 높은 값을 갖는 것을 특징으로 하는 영상 필터링 방법.
  6. 제 1 항에 있어서,
    상기 출력 영상을 상기 제 2 영상을 생성하는 단계의 입력값으로 피드백(feedback)하는 단계를 더 포함하는 영상 필터링 방법.
  7. 제 6 항에 있어서,
    상기 피드백하는 단계를 소정 횟수만큼 반복하는 것을 특징으로 하는 영상 필터링 방법.
  8. 제 1 항에 있어서,
    상기 채널은 미리 설정된 특정 각도를 나타내고,
    상기 필터는 입력 영상으로부터 상기 설정된 특정 각도의 영상을 선택적으로 검출하는 것을 특징으로 하는 영상 필터링 방법.
  9. 제 1 항에 있어서,
    상기 영상의 필터링은 입력 영상과 상기 채널에 따라 생성된 가우시안(Gaussian) 필터를 컨벌루션(convolution)함으로써 수행되는 것을 특징으로 하는 영상 필터링 방법.
  10. 원본 영상을 입력받는 단계;
    소정 필터링 과정을 통해 상기 원본 영상으로부터 부분 영상의 에지(edge)를 검출하는 단계;
    미리 분류되어 저장된 부분 영역의 특징 이미지들과 상기 검출된 에지를 이용하여 상기 원본 영상 내에 존재하는 객체를 인식하는 단계를 포함하고,
    상기 소정 필터링 과정은,
    복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 원본 영상을 필터링함으로써 복수 개의 제 1 영상을 생성하는 단계;
    상기 생성된 제 1 영상으로부터 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택함으로써 제 2 영상을 생성하는 단계; 및
    상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하고, 영상 단위별로 상기 제 2 영상의 채널 및 상기 제 3 영상의 채널을 비교함으로써 채널의 일관성이 유지되도록 에지가 검출된 출력 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 영상 인식 방법.
  11. 제 10 항에 있어서,
    상기 출력 영상을 생성하는 단계는,
    상기 복수 개의 채널에 따라 각각 생성된 필터를 이용하여 상기 제 2 영상을 필터링함으로써 복수 개의 제 3 영상을 생성하는 단계;
    상기 생성된 제 3 영상 중에서 영상 단위별로 그 값이 최대가 되는 채널의 값을 선택하는 단계;
    상기 영상 단위별로 상기 제 3 영상 중에서 선택된 채널과 상기 제 2 영상의 채널을 비교하는 단계; 및
    상기 비교 결과에 따라 상기 제 2 영상의 채널과 상기 제 3 영상에서 선택된 채널의 일관성이 유지되도록 해당 영상 단위의 값을 조정함으로써 출력 영상을 생성하는 단계를 포함하는 영상 인식 방법.
  12. 제 10 항에 있어서,
    상기 소정 필터링 과정은,
    상기 출력 영상을 상기 제 2 영상을 생성하는 단계의 입력값으로 피드백하는 단계를 더 포함하는 영상 인식 방법.
  13. 제 10 항에 있어서,
    상기 채널은 미리 설정된 특정 각도를 나타내고,
    상기 필터는 입력 영상으로부터 상기 설정된 특정 각도의 영상을 선택적으로 검출하는 것을 특징으로 하는 영상 인식 방법.
  14. 제 10 항에 있어서,
    상기 원본 영상 내에 존재하는 객체를 인식하는 단계는,
    상기 검출된 에지의 방향 성분으로부터 생성된 히스토그램(histogram) 또는 계층적 학습(hierarchical learning) 모델을 이용하여 상기 미리 분류되어 저장된 부분 영역의 특징 이미지들에 대응하는 객체를 인식하는 것을 특징으로 하는 영상 인식 방법.
  15. 제 1 항 내지 제 14 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020110070815A 2011-07-18 2011-07-18 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법 KR101318812B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020110070815A KR101318812B1 (ko) 2011-07-18 2011-07-18 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법
PCT/KR2012/001233 WO2013012150A1 (ko) 2011-07-18 2012-02-20 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법
US14/233,181 US9355335B2 (en) 2011-07-18 2012-02-20 Image filtering method for detecting orientation component of edge and image recognizing method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110070815A KR101318812B1 (ko) 2011-07-18 2011-07-18 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법

Publications (2)

Publication Number Publication Date
KR20130010181A true KR20130010181A (ko) 2013-01-28
KR101318812B1 KR101318812B1 (ko) 2013-10-17

Family

ID=47558298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110070815A KR101318812B1 (ko) 2011-07-18 2011-07-18 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법

Country Status (3)

Country Link
US (1) US9355335B2 (ko)
KR (1) KR101318812B1 (ko)
WO (1) WO2013012150A1 (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439374B1 (ko) * 2013-02-28 2014-09-11 건국대학교 산학협력단 에지와 텍스처 특성을 표현하기 위한 렌더링 필터 시스템
WO2014210368A1 (en) * 2013-06-28 2014-12-31 D-Wave Systems Inc. Systems and methods for quantum processing of data
US10318881B2 (en) 2013-06-28 2019-06-11 D-Wave Systems Inc. Systems and methods for quantum processing of data
US11386346B2 (en) 2018-07-10 2022-07-12 D-Wave Systems Inc. Systems and methods for quantum bayesian networks
US11461644B2 (en) 2018-11-15 2022-10-04 D-Wave Systems Inc. Systems and methods for semantic segmentation
US11468293B2 (en) 2018-12-14 2022-10-11 D-Wave Systems Inc. Simulating and post-processing using a generative adversarial network
US11481669B2 (en) 2016-09-26 2022-10-25 D-Wave Systems Inc. Systems, methods and apparatus for sampling from a sampling server
US11586915B2 (en) 2017-12-14 2023-02-21 D-Wave Systems Inc. Systems and methods for collaborative filtering with variational autoencoders
US11625612B2 (en) 2019-02-12 2023-04-11 D-Wave Systems Inc. Systems and methods for domain adaptation
US11900264B2 (en) 2019-02-08 2024-02-13 D-Wave Systems Inc. Systems and methods for hybrid quantum-classical computing

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9042601B2 (en) * 2013-03-14 2015-05-26 Nec Laboratories America, Inc. Selective max-pooling for object detection
DE102017211331A1 (de) * 2017-07-04 2019-01-10 Robert Bosch Gmbh Bildauswertung mit zielgerichteter Vorverarbeitung
KR102376471B1 (ko) 2018-03-19 2022-03-21 한국전자통신연구원 픽셀들로부터 출력된 신호들의 크기들에 기반하여 이미지의 윤곽을 추출하기 위한 이미지 센서 및 방법
CN113326779B (zh) * 2021-05-31 2024-03-22 中煤科工集团沈阳研究院有限公司 一种井下巷道积水检测识别方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100411348B1 (ko) 2001-12-29 2003-12-18 엘지전자 주식회사 에지 검출 방법과 장치
KR100780151B1 (ko) 2005-11-22 2007-11-27 주식회사 휴맥스 최소/최대 필터를 이용한 에지 보상 장치 및 방법
KR100764395B1 (ko) 2006-03-16 2007-10-05 삼성전기주식회사 디지털 카메라용 적응적 링잉 제거 장치
KR101530549B1 (ko) * 2008-10-10 2015-06-29 삼성전자주식회사 적응적 1차원 필터 세트를 이용한 영상 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101652261B1 (ko) 2009-12-24 2016-08-30 삼성전자주식회사 카메라를 이용한 오브젝트 검출 방법
KR101027323B1 (ko) * 2010-01-20 2011-04-06 고려대학교 산학협력단 비대칭 가우시안 필터를 이용한 영상 보간 장치 및 방법
US8538077B2 (en) * 2011-05-03 2013-09-17 Microsoft Corporation Detecting an interest point in an image using edges
US8971614B2 (en) * 2012-05-14 2015-03-03 University Of Southern California Extracting object edges from images

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439374B1 (ko) * 2013-02-28 2014-09-11 건국대학교 산학협력단 에지와 텍스처 특성을 표현하기 위한 렌더링 필터 시스템
WO2014210368A1 (en) * 2013-06-28 2014-12-31 D-Wave Systems Inc. Systems and methods for quantum processing of data
US9727824B2 (en) 2013-06-28 2017-08-08 D-Wave Systems Inc. Systems and methods for quantum processing of data
US10318881B2 (en) 2013-06-28 2019-06-11 D-Wave Systems Inc. Systems and methods for quantum processing of data
US11501195B2 (en) 2013-06-28 2022-11-15 D-Wave Systems Inc. Systems and methods for quantum processing of data using a sparse coded dictionary learned from unlabeled data and supervised learning using encoded labeled data elements
US11481669B2 (en) 2016-09-26 2022-10-25 D-Wave Systems Inc. Systems, methods and apparatus for sampling from a sampling server
US11586915B2 (en) 2017-12-14 2023-02-21 D-Wave Systems Inc. Systems and methods for collaborative filtering with variational autoencoders
US11386346B2 (en) 2018-07-10 2022-07-12 D-Wave Systems Inc. Systems and methods for quantum bayesian networks
US11461644B2 (en) 2018-11-15 2022-10-04 D-Wave Systems Inc. Systems and methods for semantic segmentation
US11468293B2 (en) 2018-12-14 2022-10-11 D-Wave Systems Inc. Simulating and post-processing using a generative adversarial network
US11900264B2 (en) 2019-02-08 2024-02-13 D-Wave Systems Inc. Systems and methods for hybrid quantum-classical computing
US11625612B2 (en) 2019-02-12 2023-04-11 D-Wave Systems Inc. Systems and methods for domain adaptation

Also Published As

Publication number Publication date
WO2013012150A1 (ko) 2013-01-24
US9355335B2 (en) 2016-05-31
KR101318812B1 (ko) 2013-10-17
US20140153781A1 (en) 2014-06-05

Similar Documents

Publication Publication Date Title
KR101318812B1 (ko) 에지의 방향 성분을 검출하는 영상 필터링 방법 및 이를 이용한 영상 인식 방법
CN107766786B (zh) 活性测试方法和活性测试计算设备
US8363939B1 (en) Visual attention and segmentation system
CN101286237B (zh) 基于视觉仿生的运动目标检测方法
Yu et al. An object-based visual attention model for robotic applications
WO2009123354A1 (en) Method, apparatus, and program for detecting object
Duan et al. Biological eagle-eye-based visual imaging guidance simulation platform for unmanned flying vehicles
DE202022101680U1 (de) Ein automatisches System zur Erkennung von Handgesten
Wei et al. A mathematical model of retinal ganglion cells and its applications in image representation
Maldonado-Ramírez et al. Robotic visual tracking of relevant cues in underwater environments with poor visibility conditions
Aziz et al. Evaluation of visual attention models for robots
US20140192178A1 (en) Method and system for tracking motion of microscopic objects within a three-dimensional volume
Xu et al. Mimicking visual searching with integrated top down cues and low-level features
Borisyuk et al. A neural model of selective attention and object segmentation in the visual scene: An approach based on partial synchronization and star-like architecture of connections
Lanillos et al. Multisensory 3D saliency for artficial attention systems
Ozimek et al. A space-variant visual pathway model for data efficient deep learning
Kierdorf et al. What identifies a whale by its fluke? on the benefit of interpretable machine learning for whale identification
Gustin et al. Hand gesture recognition from multibeam sonar imagery
Aziz et al. Color saliency and inhibition using static and dynamic scenes in region based visual attention
Khan et al. Vision based Indoor Obstacle Avoidance using a Deep Convolutional Neural Network.
CN104966292A (zh) 基于垂直方向Gabor滤波器的多图书目标分割方法
Azaza et al. Salient regions detection method inspired from human visual system anatomy
CN106033606A (zh) 仿生物平滑跟踪眼动信息处理机制的目标轮廓检测方法
Shen et al. Modeling Drosophila vision neural pathways to detect weak moving targets from cluttered backgrounds
Moroni et al. Curve recognition for underwater wrecks and handmade artefacts

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161004

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170926

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181008

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190905

Year of fee payment: 7