KR20160107590A - 객체 인식방법 및 이를 이용한 객체 인식장치 - Google Patents

객체 인식방법 및 이를 이용한 객체 인식장치 Download PDF

Info

Publication number
KR20160107590A
KR20160107590A KR1020150030523A KR20150030523A KR20160107590A KR 20160107590 A KR20160107590 A KR 20160107590A KR 1020150030523 A KR1020150030523 A KR 1020150030523A KR 20150030523 A KR20150030523 A KR 20150030523A KR 20160107590 A KR20160107590 A KR 20160107590A
Authority
KR
South Korea
Prior art keywords
image
local
pattern
lipcc
patterns
Prior art date
Application number
KR1020150030523A
Other languages
English (en)
Other versions
KR101847175B1 (ko
Inventor
임영철
강민성
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020150030523A priority Critical patent/KR101847175B1/ko
Publication of KR20160107590A publication Critical patent/KR20160107590A/ko
Application granted granted Critical
Publication of KR101847175B1 publication Critical patent/KR101847175B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06K9/00624
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6256
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

국부 중요 패턴 군집 코드를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치가 개시된다. 본 발명에 따른 객체 인식장치는, 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및 임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부를 포함한다.

Description

객체 인식방법 및 이를 이용한 객체 인식장치{METHOD FOR OBJECT RECOGNITION AND APPARATUS THEREOF}
본 발명은 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것으로서, 보다 상세하게는 국부 중요 패턴 군집 코드를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치에 관한 것이다.
최근 컴퓨터 비전 분야에서는 지능형 자동차, 로봇, 감시 카메라, 게임 등의 분야에 적용하기 위하여 차량, 보행자, 얼굴 등의 다양한 객체를 인식하고 검출하는 기술에 대한 연구가 많이 진행되고 있다.
영상에서 특정 객체의 검출은 위해서는 도 1에 도시된 바와 같이 사전에 학습된 모델을 이용하여, 전체 영상을 탐색하면서 객체에 해당되는 영역을 인식하는 과정으로 이루어진다. 도 1에 도시된 바와 같은 일반적인 객체 인식 방법은, 학습 단계와 테스트 단계로 나누어진다.
학습 단계에서는 양성(positive) 학습 영상과 네거티브(negative) 학습 영상에 대하여 특징 벡터를 추출하여, 인식률이 최대가 되는 분류기(classifier)의 매개변수(parameter)를 추정한다.
테스트 단계에서는 임의의 테스트 영상에 대하여, 특징 벡터를 추출하고, 생성된 분류기의 출력 값에 따라 포지티브 영상인지, 네거티브 영상인지를 결정한다.
강건한 객체 인식을 위해서는 분별성(discrimination)이 뛰어난 특징 벡터(feature vector)를 학습 영상(training images)에서 추출하고, support vector machine(SVM), boosting, random forest와 같은 기계 학습(machine learning)을 이용하여, 최적의 분류기(classifier)를 학습하는 것이 핵심이다.
기존의 객체 인식 기술에서는 기울기(gradient) 기반의 특징 벡터와 텍스쳐 (texture) 기반의 특징 벡터를 사용하는 방법들이 많이 사용되고 있다. Histogram of oriented gradient (HOG)는 대표적인 기울기 기반의 특징 벡터로서, 영상에서 기울기의 방향 성분을 셀 (Cell) 단위로 누적하여 특징벡터를 추출함으로써, 다양한 외부 환경 조건에서도 강건한 객체 인식 성능을 제공한다. 하지만, 기울기 크기와 방향 성분을 추출하기 위해서는 많은 연산량이 요구되기 때문에, 실시간 객체 검출 시스템에 적용하기에는 어려운 문제가 있다.
텍스쳐(texture) 기반의 대표적인 특징 추출 방법인 local binary pattern (LBP)은 간단한 연산 처리로 특징 벡터 추출이 가능하고, 조명 변화에도 강건한 장점이 있다. 하지만, 영상 잡음에 취약한 단점으로 인해 HOG에 비하여 인식 성능이 다소 떨어지는 단점이 있다. 이러한, 단점을 극복하기 위해서 local ternary pattern(LTP) 방법이 제안되었지만, 패턴의 수가 급격하게 증가됨으로써, 블록 히스토그램(block histogram)을 생성할 때, 특징 벡터 차원의 수(dimensionality)가 증가되는 문제가 발생한다.
본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여, 다양한 외부 환경 조건에서도 객체 인식 성능과 연산 속도를 향상시킬 수 있는 텍스쳐 기반의 특징 벡터를 추출하고, 국부 중요 패턴 군집 코드 (local important pattern clustering code : LIPCC)를 이용한 객체 인식방법 및 이를 이용한 객체 인식장치를 제공하는 것을 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 본 발명의 목적을 달성하기 위한 본 발명의 일 면에 따른 객체 인식장치는, 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및 임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부를 포함한다.
상기 패턴 부호화부는, 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상을 LTP(Local Ternary Pattern) 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하고, n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성한다.
또한, 상기 패턴 부호화부는, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정한다.
또한, 상기 패턴 부호화부는, 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 코드와 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당한다.
또한, 상기 패턴 부호화부는, 상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당한다.
또한, 상기 패턴 부호화부, 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 M번째 LIPCC를 할당한다.
상기 학습부는, 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 LTP를 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC) 룩업-테이블을 이용하여 M개의 LIPCC로 변환하고, 영상 블록 별로 생성된 LIPCC 블록 히스토그램을 이용하여 특징 벡터를 학습한다.
본 발명의 일 면에 따른 객체 인식장치는, 입력된 테스트 영상에서 상기 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 객체 인식부를 더 포함할 수 있다.
한편, 본 발명의 다른 면에 따른 객체 인식방법은, (a) 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하는 LIPCC 룩업-테이블을 생성하는 단계; (b) 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 추출된 상기 N개의 LTP를 상기 LIPCC 룩업-테이블을 이용하여 M개의 LIPCC로 변환하는 단계; 및 (c) 상기 M개의 LIPCC를 이용하여 영상 블록 별로 LIPCC 블록 히스토그램 생성하고, 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터를 학습한 분류기를 생성하는 단계를 포함한다.
상기 (a) 단계는, 상기 포지티브 학습영상 및 상기 네거티브 학습영상을 LTP 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하는 단계와, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하는 단계와, 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하는 단계와, 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당하는 단계를 포함한다.
또한, 상기 (a) 단계는, 상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 단계와, 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 M번째 LIPCC를 할당한다.
본 발명의 다른 면에 따른 객체 인식방법은, (d) 입력된 테스트 영상에서 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 단계를 더 포함할 수 있다.
이상 상술한 바와 같은 본 발명에 따르면, 텍스쳐 기반의 특징 벡터가 갖고 있는 문제점, 특히 LTP 특징 벡터의 차원 수 증가 문제를 효과적으로 극복하고, 기울기 기반의 특징 벡터보다 뛰어난 인식 성능을 제공하면서도 연산 시간과 성능을 동시에 향상시킬 수 있다.
도 1에는 종래 기술에 따른 객체 인식 시스템의 객체 인식 방법을 도시한 도면.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도.
도 3은 도 2의 패턴 부호화부가 국부 중요 패턴 군집 코드 룩업 테이블을 생성하는 과정을 도시한 흐름도.
도 4는 도 2의 패턴 부호화부가 국부 중요 패턴 군집 코드 룩업 테이블을 생성하는 과정을 도시한 예시도.
도 5는 도 2의 학습부가 학습영상으로부터 2개의 클래스를 분류하기 위한 분류기를 생성하는 과정을 도시한 예시도.
도 6은 도 2의 객체 인식부가 테스트 영상으로부터 객체를 인식하는 과정을 도시한 예시도.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
도 2는 본 발명의 실시예에 따른 객체 인식장치를 도시한 블록 구성도이다.
도 2를 참조하면, 본 발명에 따른 객체 인식장치는 패턴 부호화부(100), 학습부(200), 객체 인식부(300)를 포함하여 구성된다.
패턴 부호화부(100)는 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성한다.
이때, 패턴 부호화부(100)는 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 텍스쳐 기반의 N개의 국부 패턴을 추출할 수 있으며, 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하기 위한 LIPCC 룩업-테이블을 생성한다.
도 3 및 도 4에는 상기 패턴 부호화부(100)가 상기 LIPCC 룩업-테이블을 생성하기 위한 구체적인 과정이 도시된다. 이하, 도 3 및 도 4를 참조하여 상기 패턴 부호화부(100)가 LIPCC 룩업-테이블을 생성하는 과정(패턴 부호화 과정)을 살펴본다.
패턴 부호화 과정
도 3 및 도 4에 도시된 바와 같이, 먼저 상기 패턴 부호화부(100)에는 포지티브 학습영상(A) 및 네거티브 학습영상(B)이 입력된다(S110, S210).
이어, 상기 패턴 부호화부(100)는 입력된 포지티브 학습영상(A) 및 네거티브 학습영상(B) 각각을 LTP 영상(A',B')으로 변환하고, 변환된 LTP 영상(A',B') 각각을 n개의 블록으로 분할한다(S120, S220).
이어, 상기 패턴 부호화부(100)는 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성한다(S130, S230). 예컨대, 도 3에 도시된 바와 같이 n개의 블록을 B1, B2,…,Bn이라 한다면 이들 블록 각각에 대한 LTP 블록 히스토그램이 생성된다.
이어, 상기 패턴 부호화부(100)는 상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산한다(S300).
예컨대, 상기 j번째 블록에 대한 k번째 국부 패턴의 중요도를
Figure pat00001
라 한다면,
Figure pat00002
는 아래 수학식 1에서와 같이 연산될 수 있다.
[수학식 1]
Figure pat00003
Figure pat00004
여기서,
Figure pat00005
Figure pat00006
는 포지티브 및 네거티브 학습 영상의 개수를 나타내고,
Figure pat00007
Figure pat00008
i번째 포지티브 및 네거티브 학습 영상에서 j번째 블록에 대한 k번째 패턴의 누적된 개수를 나타낸다.
Figure pat00009
는 패턴의 전체 빈도수와 패턴 빈도수 차이간의 가중치를 결정하는 상수이다.
전술한 과정을 통해 국부 패턴의 중요도가 결정되면, 상기 패턴 부호화부(100)는 중요도에 따라 최상위 중요 국부 패턴을 결정한다(S400). 전술한 바와 같이 N개의 국부 패턴을 M개의 코드로 변환하는 룩업-테이블을 생성하고자 하는 경우, 상기 패턴 부호화부(100)는 국부 패턴의 중요도를 이용하여 M-1개의 최상위 국부 중요 패턴을 결정한다.
이어, 상기 패턴 부호화부(100)는 군집화 기법을 이용하여 국부 패턴 각각에 코드(예컨대, 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC))를 할당한다(S500).
먼저, 상기 패턴 부호화부(100)는 상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드를 할당한다. 예컨대, 상기 M개의 국부 중요 패턴 군집 코드가 0,1,…,M-1의 코드 네임을 가진다면, 상기 M-1개의 최상위 중요 국부 패턴 각각에는 순서대로 0에서부터 M-2까지의 국부 중요 패턴 군집 코드가 할당될 수 있다.
그리고, 상기 패턴 부호화부(100)는 나머지 국부 패턴에 대해서는 군집화 기법에 기반하여 연산된 거리에 기반하여 국부 중요 패턴 군집 코드를 할당한다.
예컨대, 나머지 국부 패턴들과 기존의 코드가 할당된 최상위 중요 국부 패턴들 간의 거리를
Figure pat00010
라 한다면, 나머지 국부 패턴들과 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 국부 중요 패턴 군집 코드가 해당 나머지 국부 패턴에 할당된다.
한편, 상기 패턴 부호화부(100)는 상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 코드, 예컨대 M-1의 코드를 할당한다.
즉, 중요하지 않고, 기존 최상위 패턴간의 유사도가 떨어지는 패턴들은 하나의 코드로 할당시킨다. 결과적으로, 모든 국부 패턴에 대하여, M개의 코드로 할당된 LIPCC 룩업 테이블(C)이 생성된다(S600).
다시 도 2로 돌아가 설명하면, 상기 학습부(200)는 임의의 학습 영상에서 추출된 특징벡터를 이용하여, 두 개의 클래스를 분류할 수 있는 최적의 초평면(Hyper plane)을 추정한다.
즉, 상기 학습부(200)는 임의의 학습 영상에서 추출된 국부 패턴을 상기 패턴 부호화부(100)에서 생성된 LIPCC 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성한다.
이하, 도 5를 참조하여 상기 학습부(200)가 학습영상으로부터 2개의 클래스를 분류하기 위한 분류기를 생성하는 과정을 설명한다.
먼저, 상기 학습부(100)에는 포지티브 학습영상(A) 및 네거티브 학습영상(B)이 입력되고, 입력된 포지티브 학습영상(A) 및 네거티브 학습영상(B) 각각은 LTP 영상(A',B')으로 변환된다.
이어, 상기 학습부(100)는 변환된 LTP 영상(A',B') 각각을 n개의 블록으로 분할하고, n개의 블록 각각에서 추출된 국부 패턴(LTP)를 상기 패턴 부호화부(100)에서 생성된 LIPCC 룩업-테이블을 이용하여 M개의 국부 중요 패턴 군집 코드(LIPCC)로 변환한다.
이어, 상기 학습부(100)는 n개의 블록 각각에 대한 LIPCC 블록 히스토그램을 생성하고, 이를 순차적으로 연쇄(concatenation)함으로써, 입력된 학습영상을 표현하기 위한 특징벡터들을 추출한다.
이때, 상기 특징벡터들은 분류기의 입력으로 사용되며, 상기 학습부(100)는 두 개의 클래스를 최대로 분류할 수 있는 분류기의 매개 변수를 결정한다. 여기서, 분류기는 support vector matching (SVM), Adaboost (Adaptive boosting), multi-layer perceptron (MLP), random forest 등이 사용될 수 있다. 아래 수학식 2는 선형 SVM을 사용할 경우, 최대 마진을 갖는 분류기를 추정하는 수식이다.
[수학식 2]
Figure pat00011
여기서,
Figure pat00012
는 분류기의 매개 변수를 나타내며,
Figure pat00013
는 i번째 샘플에 대한 클래스 라벨(label),
Figure pat00014
는 i번째 샘플에 대한 특징 벡터, b는 분류기의 바이어스(bias)를 나타낸다.
이와 같이, 두 개의 클래스를 최대로 분류할 수 있는 매개 변수가 결정됨으로써, 학습영상의 특징벡터가 최적으로 학습된 분류기(D)가 생성된다.
상기 객체 인식부(300)는 도 6에 도시된 바와 같이 입력된 테스트 영상(T)을 LTP 영상(T')으로 변환하고, 변환된 LTP 영상(T')에서 추출한 LTP를 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별한다.
한편, 상술한 본 발명에 따른 객체 인식방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
100 : 패턴 부호화부
200 : 학습부
300 : 객체 인식부

Claims (12)

  1. 임의의 학습 영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 코드로 변환하는 룩업-테이블을 생성하는 패턴 부호화부; 및
    임의의 학습 영상에서 추출된 국부 패턴을 상기 룩업-테이블을 이용하여 소정의 코드로 변환하고, 변환된 코드에 대응되는 특징벡터를 입력으로 받아 특징벡터의 클래스를 분류하기 위한 분류기를 생성하는 학습부
    를 포함하는 객체 인식장치.
  2. 제1항에 있어서, 상기 패턴 부호화부는,
    객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상을 LTP(Local Ternary Pattern) 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하고, n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하는 것인 객체 인식장치.
  3. 제2항에 있어서, 상기 패턴 부호화부는,
    상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하는 것인 객체 인식장치.
  4. 제3항에 있어서, 상기 패턴 부호화부는,
    상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 것인 객체 인식장치.
  5. 제4항에 있어서, 상기 패턴 부호화부는,
    상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 것인 객체 인식장치.
  6. 제4항에 있어서, 상기 패턴 부호화부,
    상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 것인 객체 인식장치.
  7. 제1항에 있어서, 상기 학습부는,
    객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 LTP를 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC) 룩업-테이블을 이용하여 M개의 LIPCC로 변환하고, 영상 블록 별로 생성된 LIPCC 블록 히스토그램을 이용하여 특징 벡터를 학습하는 것인 객체 인식장치.
  8. 제1항에 있어서,
    입력된 테스트 영상에서 상기 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 객체 인식부를 더 포함하는 객체 인식장치.
  9. (a) 객체 인식의 대상이 되는 포지티브 학습영상 및 상기 포지티브 학습영상에 대한 대조군인 네거티브 학습영상에서 추출된 N개의 국부 패턴(Local Ternary Pattern, LTP)을 M개의 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)로 변환하는 LIPCC 룩업-테이블을 생성하는 단계;
    (b) 상기 포지티브 학습영상 및 상기 네거티브 학습영상에서 추출된 상기 N개의 LTP를 상기 LIPCC 룩업-테이블을 이용하여 M개의 LIPCC로 변환하는 단계; 및
    (c) 상기 M개의 LIPCC를 이용하여 영상 블록 별로 LIPCC 블록 히스토그램 생성하고, 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터를 학습한 분류기를 생성하는 단계
    를 포함하는 객체 인식방법.
  10. 제9항에 있어서, 상기 (a) 단계는,
    상기 포지티브 학습영상 및 상기 네거티브 학습영상을 LTP 영상으로 변환하고, 상기 LTP 영상을 n개의 블록으로 분할하는 단계와,
    상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 생성하는 단계와,
    상기 n개의 블록 각각에 대한 LTP 블록 히스토그램을 누적 평균화하여, j번째 블록에 대한 k번째 국부 패턴의 중요도를 연산하여, M-1개의 최상위 중요 국부 패턴을 결정하는 단계와,
    상기 M-1개의 최상위 중요 국부 패턴 각각에 순서대로 국부 중요 패턴 군집 코드(Local Important Pattern Clustering Code, LIPCC)를 할당하고, 군집화 기법에 기반하여 연산된 상기 M-1개의 최상위 중요 국부 패턴과 나머지 국부 패턴 사이의 거리에 기초하여, 나머지 국부 패턴에 해당하는 LIPCC를 할당하는 단계를 포함하는 것
    인 객체 인식방법.
  11. 제10항에 있어서, 상기 (a) 단계는,
    상기 나머지 국부 패턴에 가장 가까운 거리에 있는 최상위 중요 국부 패턴에 대한 LIPCC를 할당하는 단계와,
    상기 M-1개의 최상위 중요 국부 패턴과 상기 나머지 국부 패턴 사이의 거리가 기 설정된 임계 값(T) 이상이 되는 나머지 국부 패턴에는 상기 M-1개의 최상위 중요 국부 패턴에 할당되지 않은 나머지 국부 패턴에는 M번째 LIPCC를 할당하는 단계를 더 포함하는 것
    인 객체 인식방법.
  12. 제9항에 있어서,
    (d) 입력된 테스트 영상에서 상기 LIPCC 룩업-테이블을 이용하여 영상 블록 별로 LIPCC 블록 히스토그램을 생성하고, 상기 분류기를 이용하여 상기 LIPCC 블록 히스토그램에 대응하는 특징 벡터가 포지티브 영상의 특징 벡터인지, 네거티브 영상의 특징 벡터인지를 판별하는 단계
    를 더 포함하는 객체 인식방법.
KR1020150030523A 2015-03-04 2015-03-04 객체 인식방법 및 이를 이용한 객체 인식장치 KR101847175B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150030523A KR101847175B1 (ko) 2015-03-04 2015-03-04 객체 인식방법 및 이를 이용한 객체 인식장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150030523A KR101847175B1 (ko) 2015-03-04 2015-03-04 객체 인식방법 및 이를 이용한 객체 인식장치

Publications (2)

Publication Number Publication Date
KR20160107590A true KR20160107590A (ko) 2016-09-19
KR101847175B1 KR101847175B1 (ko) 2018-04-09

Family

ID=57102953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150030523A KR101847175B1 (ko) 2015-03-04 2015-03-04 객체 인식방법 및 이를 이용한 객체 인식장치

Country Status (1)

Country Link
KR (1) KR101847175B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065813A (ko) * 2017-12-04 2019-06-12 재단법인대구경북과학기술원 기여도에 기초하여 특징을 추출하는 방법 및 장치
KR20190103503A (ko) * 2018-02-12 2019-09-05 한양대학교 에리카산학협력단 차선 인식 장치 및 방법
KR20200005206A (ko) * 2018-07-06 2020-01-15 에임시스템 주식회사 기계 학습 기반의 설비 이상 분류 시스템 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065813A (ko) * 2017-12-04 2019-06-12 재단법인대구경북과학기술원 기여도에 기초하여 특징을 추출하는 방법 및 장치
KR20190103503A (ko) * 2018-02-12 2019-09-05 한양대학교 에리카산학협력단 차선 인식 장치 및 방법
KR20200005206A (ko) * 2018-07-06 2020-01-15 에임시스템 주식회사 기계 학습 기반의 설비 이상 분류 시스템 및 방법

Also Published As

Publication number Publication date
KR101847175B1 (ko) 2018-04-09

Similar Documents

Publication Publication Date Title
US10332266B2 (en) Method and device for traffic sign recognition
Pham et al. Count forest: Co-voting uncertain number of targets using random forest for crowd density estimation
US9710716B2 (en) Computer vision pipeline and methods for detection of specified moving objects
US11055538B2 (en) Object re-identification with temporal context
CN110659550A (zh) 交通标志牌识别方法、装置、计算机设备和存储介质
KR102195940B1 (ko) 적응적 비최대억제 방법을 이용하는 딥러닝기반 영상객체 탐지를 위한 장치 및 방법
Wang et al. Real-time smoke detection using texture and color features
KR101847175B1 (ko) 객체 인식방법 및 이를 이용한 객체 인식장치
CN109726621B (zh) 行人检测方法、装置及设备
Singh et al. Unusual activity detection for video surveillance
Zhang et al. Moving pedestrian detection based on motion segmentation
Bardeh et al. New approach for human detection in images using histograms of oriented gradients
CN111027482A (zh) 基于运动向量分段分析的行为分析方法及装置
WO2022228325A1 (zh) 行为检测方法、电子设备以及计算机可读存储介质
KR101419837B1 (ko) 분할 이미지 셀을 이용하는 아다부스트 기반의 보행자 검출 방법 및 장치
JP2017084006A (ja) 画像処理装置およびその方法
Sanin et al. K-tangent spaces on Riemannian manifolds for improved pedestrian detection
Lahraichi et al. Automatic foreground detection based on KDE and binary classification
CN112712101A (zh) 用于借助神经网络来探测和再识别对象的方法、神经网络和控制方法
Nguyen et al. A Real-time Pedestrian Detection based on AGMM and HOG for Embedded Surveillance
Rajavarshini et al. Comparative analysis of image processing techniques for obstacle avoidance and path deduction
Santoso et al. Learning-based human detection applied to RGB-D images
Boulmerka et al. Background modeling in videos revisited using finite mixtures of generalized Gaussians and spatial information
Bouachir et al. A bag of words approach for semantic segmentation of monitored scenes
KR20140026977A (ko) 이동물체 분류장치 및 분류방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant