KR100972849B1 - 객체 인식 방법 - Google Patents

객체 인식 방법 Download PDF

Info

Publication number
KR100972849B1
KR100972849B1 KR1020090098550A KR20090098550A KR100972849B1 KR 100972849 B1 KR100972849 B1 KR 100972849B1 KR 1020090098550 A KR1020090098550 A KR 1020090098550A KR 20090098550 A KR20090098550 A KR 20090098550A KR 100972849 B1 KR100972849 B1 KR 100972849B1
Authority
KR
South Korea
Prior art keywords
feature points
feature
image
algorithm
feature point
Prior art date
Application number
KR1020090098550A
Other languages
English (en)
Inventor
오인권
Original Assignee
주식회사 쓰리디누리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쓰리디누리 filed Critical 주식회사 쓰리디누리
Priority to KR1020090098550A priority Critical patent/KR100972849B1/ko
Application granted granted Critical
Publication of KR100972849B1 publication Critical patent/KR100972849B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

객체 인식 방법은 (a) 카메라를 통해 촬영된 영상을 입력받는 단계, (b) SIFT(Scale Invariant Feature Transform) 알고리즘의 제1 과정과 제2 과정을 실행하여 특징점 기술자를 생성하고 데이터베이스에 저장된 객체의 특징점 기술자와 정합(match)하는 단계, (c) SIFT 알고리즘의 제1 과정을 실행하여 상기 영상에서 특징점을 추출하고, ICA(Independent Component Analysis) 알고리즘을 실행하여 상기 특징점의 상관성(correlation)을 없앤 후 독립 성분(independent)의 특징점을 추출하며, SIFT 알고리즘의 제1 과정을 실행하여 상기 독립 성분의 특징점에 상응하는 특징점 기술자를 생성하는 단계, (d) 상기 데이터베이스에 저장된 객체의 특징점 기술자 중 상기 (b)단계에서 정합된 특징점 기술자와 상기 (c)단계에서 생성된 특징점 기술자를 기초로 특징점을 정합하여 상기 영상에 포함된 객체의 종류를 식별하는 단계, (e) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 상기 정합된 특징점을 군집화하고 상기 영상에 포함된 객체의 개수를 계산하는 단계, (f) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자와 상기 (e)단계에서 군집화된 특징점의 특징점 기술자를 기초로 특징점 사이의 방향 차이를 계산하고, 상기 방향 차이를 기초로 상기 (e)단계에서 군집화된 특징점 중 오정합된 특징점을 식별하며, 상기 오정합된 특징점을 제거하는 단계, 및 (g) 상기 (f)단계에서 오정합된 특징점이 제거되고 남은 특징점을 기초로 상기 영상에 포함된 객체의 위치와 기울어짐 정도를 계산하는 단계를 포함한다.

Description

객체 인식 방법{METHOD OF OBJECT RECOGNITION}
본 발명은 객체 인식 방법에 관한 것으로서, 특히 객체 인식률을 향상시키기 위해 SIFT 알고리즘과 ICA 알고리즘을 결합한 객체 인식 방법에 관한 것이다.
객체 인식 기술은 영상에서 획득한 데이터를 기초로 영상에서 객체와 관련된 정보를 추출한다. 예를 들어, 객체 인식 기술은 영상에 포함된 객체가 무엇인지, 객체가 어느 위치에 있는지, 또는 객체가 어느 방향을 향하고 있는지 등의 정보를 추출할 수 있다.
그러나 객체 인식 기술은 객체의 회전, 이동, 영상을 촬영하는 카메라의 위치 변화, 조명의 변화, 복잡한 배경, 다른 객체에 의한 가려짐 등과 같은 다양한 외부 요인으로 인하여 인식 성능이 떨어질 수 있다. 예를 들어, 조명이 밝을 때와 어두울 때 객체의 밝기 변화로 인하여 다른 정보를 추출하는 경우에는 객체 인식 기술이 정확한 객체를 인식하기 어렵다.
실시예들 중에서, 객체 인식 방법은 (a) 카메라를 통해 촬영된 영상을 입력받는 단계, (b) SIFT(Scale Invariant Feature Transform) 알고리즘의 제1 과정과 제2 과정을 실행하여 특징점 기술자를 생성하고 데이터베이스에 저장된 객체의 특징점 기술자와 정합(match)하는 단계, (c) SIFT 알고리즘의 제1 과정을 실행하여 상기 영상에서 특징점을 추출하고, ICA(Independent Component Analysis) 알고리즘을 실행하여 상기 특징점의 상관성(correlation)을 없앤 후 독립 성분(independent)의 특징점을 추출하며, SIFT 알고리즘의 제1 과정을 실행하여 상기 독립 성분의 특징점에 상응하는 특징점 기술자를 생성하는 단계, (d) 상기 데이터베이스에 저장된 객체의 특징점 기술자 중 상기 (b)단계에서 정합된 특징점 기술자와 상기 (c)단계에서 생성된 특징점 기술자를 기초로 특징점을 정합하여 상기 영상에 포함된 객체의 종류를 식별하는 단계, (e) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 상기 정합된 특징점을 군집화하고 상기 영상에 포함된 객체의 개수를 계산하는 단계, (f) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자와 상기 (e)단계에서 군집화된 특징점의 특징점 기술자를 기초로 특징점 사이의 방향 차이를 계산하고, 상기 방향 차이를 기초로 상기 (e)단계에서 군집화된 특징점 중 오정합된 특징점을 식별하며, 상기 오정합된 특징점을 제거하는 단계, 및 (g) 상기 (f)단계에서 오정합된 특징점이 제거되고 남은 특징점을 기초로 상기 영상에 포함된 객체의 위치와 기울어짐 정도를 계산하는 단계를 포함한다.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
"및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c, ...)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
이하, 첨부된 도면을 참조하여 개시된 기술의 구체적인 구성 및 실시예를 설 명하면 다음과 같다.
도 1은 개시된 기술의 일 실시예에 따른 SIFT 알고리즘과 ICA 알고리즘을 이용한 객체 인식 방법을 설명하기 위한 순서도이다.
도 1을 참조하면, 객체 인식 시스템은 카메라를 통해 촬영된 영상을 입력받는다(S102). 객체 인식 시스템은 SIFT(Scale Invariant Feature Transform) 알고리즘의 제1 과정을 실행하여 S102 단계에서 입력받은 영상에서 특징점을 추출하고, SIFT 알고리즘의 제2 과정을 실행하여 특징점에 대해 특징점 기술자를 생성하며, 특징점 기술자와 데이터베이스에 저장되어 있는 특징점 기술자를 비교하여 정합(match)한다(S104).
S104 단계에서 생성된 특징점 기술자와 정합되는 특징점 기술자가 데이터베이스에 있는 경우에는, 객체 인식 시스템은 SIFT 알고리즘의 제1 과정을 실행하여 S102 단계에서 입력받은 영상에서 특징점을 추출하고, ICA 알고리즘을 실행하여 특징점의 상관성(correlation)을 없앤 후 독립 성분(independent)의 특징점을 추출한다. 그리고 객체 인식 시스템은 SIFT 알고리즘의 제2 과정을 실행하여 독립 성분의 특징점에 대한 특징점 기술자를 생성한다(S106).
객체 인식 시스템은 데이터베이스에 저장된 객체의 특징점 기술자 중 S104단계에서 정합된 특징점 기술자와 S106단계에서 생성된 특징점 기술자를 기초로 특징점을 정합하여 S102단계에서 입력받은 영상에 포함된 객체의 종류를 식별한다(S108). 객체의 종류를 식별한 후, 객체 인식 시스템은 객체의 종류에 상응하는 특징점 기술자를 기초로 S108단계에서 정합된 특징점을 군집화하고 객체의 개수를 계산한다(S110).
객체 인식 시스템은 S108단계에서 식별된 객체의 종류에 상응하는 특징점 기술자와 S110단계에서 군집화된 특징점의 특징점 기술자를 기초로 특징점 사이의 방향 차이를 계산하고, 특징점 사이의 방향 차이를 기초로 S110단계에서 군집화된 특징점 중 오정합된 특징점을 식별한 후 오정합된 특징점을 제거한다(S112). 객체 인식 시스템은 S112단계에서 오정합된 특징점이 제거되고 남은 특징점을 기초로 상기 영상에 포함된 객체의 위치와 기울어짐 정도를 계산한다(S114).
객체 인식 시스템은 정합 대상이 되는 객체의 영상과 해당 객체 영상에 SIFT 알고리즘의 제1 과정, ICA 알고리즘, 및 SIFT 알고리즘의 제2 과정을 순서대로 적용하여 생성한 특징점 기술자를 데이터베이스에 미리 저장한다.
도 2는 도 1의 SIFT 알고리즘의 제1 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, SIFT 알고리즘의 제1 과정은 S102 단계에서 입력받은 영상에서 특징점을 추출한다.
SIFT 알고리즘은 영상의 변환, 크기, 회전, 노이즈 등의 영향에도 일정한 특징점 정합 성능을 가진다. 또한 SIFT 알고리즘은 스케일 공간(Scale - Space)상에서 극점을 찾을 수 있다. 스케일 공간상에서의 극점은 이미지의 스케일 변화나 이미지 변환에 대하여도 다시 탐색될 가능성이 큰 지점으로 알려져 있다. 이러한 특성은 이미지 정합에 아주 유용하게 사용될 수 있다.
이하에서는 도 2를 참조하여 SIFT 알고리즘의 제1 과정에 대해 자세히 설명한다.
SIFT 알고리즘의 제1 과정은 입력받은 영상에 가우시안 필터(Gaussian Filter)를 적용하여 가우시안 영상을 생성한다. SIFT 알고리즘의 제1 과정은 가우시안 영상 사이의 차를 기초로 가우시안 차(DoG, Difference of Gaussian) 영상을 생성하고, 가우시안 영상을 기초로 가우시안 스케일 공간(Gaussian Scale - Space)을 생성한다(S202).
일 실시예에서, SIFT 알고리즘은 크기변화에 불변한 특징점을 추출하기 위해 σ22G(scale-normalized Laplacisn of Gaussian)을 이용할 수 있다. 다른 일 실시예에서, σ22G을 이용하는 경우에는 계산과정이 복잡하고 속도가 느리므로 σ22G을 근사화한 가우시안 차(DoG)를 사용한다.
스케일 공간을 나타내는 식은 다음의 수학식 1로 정의된다.
Figure 112009063379179-pat00001
L(x,y,σ)은 원본이미지 I(x, y)에 대한 가우시안 영상이며, '*' 연산은 컨볼루션(Convolution) 연산을 의미한다. G(x,y,σ)는 가우시안 필터를 나타낸다. G(x,y,σ)는 다음의 수학식 2로 정의된다.
Figure 112009063379179-pat00002
σ는 가우시안 필터의 스케일 펙터(Scale Factor)를 나타낸다.
스케일 공간상에서 안정된 특징점을 찾기 위한 가우시안 차 함수는 다음의 수학식 3으로 정의된다. 과 같이 일정한 배수의 가우시안 필터가 적용된 이미지 간의 차로 정의한다.
Figure 112009063379179-pat00003
스케일 공간이론과 관련하여 크기변화에 불변한 특징점을 추출하기 위해서는 σ22G(scale-normalized Laplacisn of Gaussian)을 이용한다. 스케일 공간에서 σ2를 인자(factor)로 가지는 라플라시안(Laplacian)의 일반화(Normalization)는 스케일 불변 속성(Scale invariance)를 위해 필요한 요소이다. σ∇2G의 극대점과 극소점은 그래디언트(Gradient), 헤시안(Hessain), 또는 헤리스 코너(Harris corner)함수와 같은 다른 이미지 함수와 비교하여 안정한 이미지 특징(Feature)을 만들어낸다. 그리고 σ∇2G는 다음의 수학식 4 내지 수학식 6과 같이 가우시안 이미지의 차 연산 이미지로 근사할 수 있다.
Figure 112009063379179-pat00004
라 할 때,
Figure 112009063379179-pat00005
로 근사되며, 이를 다시 정리하면,
Figure 112009063379179-pat00006
이 된다. 따라서 SIFT에서는 σ22G를 근사화한 가우시안 차(DoG)를 사용한다.
도 3은 도 2의 SIFT 알고리즘의 제1 과정에서 스케일 공간을 생성하는 것을 설명하기 위한 도면이다.
도 3을 참조하면, 도 3의 왼쪽의 이미지들은 가우시안 영상이며, 오른쪽의 이미지들은 인접한 두 가우시안 영상간의 차를 통해 얻어진 가우시안 차 영상이다. SIFT 알고리즘은 입력받은 영상을 2배로 업 샘플링한 후, 수학식 1을 통해 가우시 안 함수의 표준편차를 상수 단위로 컨볼루션한다. SIFT 알고리즘은 생성된 가우시안 영상을 왼쪽 열에 쌓는다.
SIFT 알고리즘은 이웃한 가우시안 영상 간의 차 연산을 통하여 가우시안 차 영상을 생성한다. 첫 옥타브(first octave)에 대한 가우시안 차 영상이 생성되면, SIFT 알고리즘은 초기값이 2배가 되는 지점의 가우시안 이미지에 대하여 2배 다운 샘플링한 후, 위 과정을 반복한다. SIFT 알고리즘은 상기와 같은 방법으로 가우시안 스케일 공간을 구축한다.
가우시안 스케일 공간을 생성되면, SIFT 알고리즘의 제1 과정은 가우시안 차 영상을 이용하여 특징점을 추출하고 추출된 특징점을 보정(Extrema detection & Keypoint localization)한다(S204).
도 4는 도 2의 SIFT 알고리즘의 제1 과정에서 특징점을 추출하는 것을 설명하기 위한 도면이다.
도 4를 참조하면, SIFT 알고리즘의 제1 과정은 가우시안 차 영상을 이용하여 현재 영상 내에서의 주변 8개의 픽셀과 인접한 영상에서의 9개의 픽셀(pixel)을 비교한다. 'X'위치가 현재 기준픽셀이라고 가정하면, SIFT 알고리즘의 제1 과정은 'X'를 중심으로 이웃한 픽셀과 인접한 가우시안 차 영상에서의 같은 위치의 일정 영역(예를 들어, 3×3)에 포함되는 픽셀을 포함하는 총 26개 픽셀의 픽셀 값을 비교하여 기준픽셀이 최대 혹은 최소의 값이면 기준픽셀을 후보 특징점으로 등록한다. SIFT 알고리즘의 제1 과정은 스케일 공간상의 옥타브 별로 가우시안 차 영상을 이용하여 상기 과정을 반복하여 후보 특징점을 찾아낸다.
후보 특징점의 위치, 'X'는 다음의 수학식 7과 같이 정의된다.
Figure 112009063379179-pat00007
후보 특징점 위치의 값은 다음의 수학식 8과 같이 테일러급수로 나타낼 수 있다.
Figure 112009063379179-pat00008
특징점의 보다 정확한 위치(
Figure 112009063379179-pat00009
)를 얻기 위해 수학식 8을 미분하여 다음의 수학식 9와 같이 0이 되는 곳을 찾는다.
Figure 112009063379179-pat00010
수학식 9를
Figure 112009063379179-pat00011
에 대해서 다시 정리하면 다음의 수학식 10 및 수학식 11과 같다.
Figure 112009063379179-pat00012
Figure 112009063379179-pat00013
상기와 같은 방법으로
Figure 112009063379179-pat00014
를 구하면 특징점을 서브-픽셀 단위로 구할 ㅅ수 있다. 특징점의
Figure 112009063379179-pat00015
값은 다음의 수학식 12로 정의된다.
Figure 112009063379179-pat00016
SIFT 알고리즘의 제1 과정은 특징점에 대한
Figure 112009063379179-pat00017
의 절대값이 대조 경계값(contrast threshold)보다 작은 경우에는 해당 특징점을 제거한다. 대조 경계값을 작게 할수록 많은 특징점들이 추출된다. 일 실시예에서, 대조 경계값은 0.03으 로 설정될 수 있다.
Figure 112009063379179-pat00018
SIFT 알고리즘의 제1 과정은 대조 경계값을 만족하는 특징점의 굴곡 경계값을 계산한다. 일 실시예에서, SIFT 알고리즘은 다음의 수학식 14 내지 수학식 17의 헤시안 매트릭스(Hessian matrix)를 이용하여 특징점의 굴곡 경계값을 계산할 수 있다.
Figure 112009063379179-pat00019
Figure 112009063379179-pat00020
Figure 112009063379179-pat00021
Figure 112009063379179-pat00022
SIFT 알고리즘의 제1 과정은 다음의 수학식 18을 통해 특징점의
Figure 112009063379179-pat00023
값을 구해 굴곡 경계값과 비교한다.
Figure 112009063379179-pat00024
SIFT 알고리즘의 제1 과정은 특징점의
Figure 112009063379179-pat00025
값과 굴곡 경계값을 비교하여 다음의 수학식 19의 조건을 만족하는 특징점을 추출한다. 일 실시예에서, SIFT 알고리즘은 굴곡 경계값보다 작은 값을 가지는 특징점을 추출한다.
Figure 112009063379179-pat00026
추출된 특징점을 보정한 후, SIFT 알고리즘의 제1 과정은 특징점에 크기와 방향을 결정한다(S206). SIFT 알고리즘의 제1 과정은 특징점에 크기와 방향벡터를 할당(Orientation assignment)하여 회전 변환에도 강한 성질을 가질 수 있는 특징점의 방향과 크기를 결정한다. SIFT 알고리즘의 제1 과정은 특징점의 주변 상하좌우 화소를 이용하여 방향과 크기를 결정한다. 특징점L(x, y)의 크기 값에 대한 함 수 m(x, y)와 방향 값에 대한 함수 θ(x, y)는 다음의 수학식 20과 수학식 21로 정의된다.
Figure 112009063379179-pat00027
Figure 112009063379179-pat00028
영상의 회전이 있더라도 특징점 주변 화소값은 변하지 않으므로, 주변 화소값을 기초로 크기(m(x,y))와 방향(θ(x, y))이 결정되는 특징점은 영상의 회전에 대해서 일정한 방향성질을 유지할 수 있다. 영상이 회전한 만큼 특징점의 방향도 함께 회전하므로 특징점의 기준 방향은 영상의 회전에도 변하지 않는 특징점 기술자를 생성하는 경우에 중요한 기준이 된다.
다시 도 1을 참조하면, 객체 인식 시스템은 SIFT 알고리즘의 제1 과정을 실행한 후, SIFT 알고리즘의 제2 과정을 실행하여 특징점에 상응하는 특징점 기술자를 생성한다(S104).
도 5는 도 1의 SIFT 알고리즘의 제2 과정에서 특징점 기술자를 생성하는 과정을 설명하기 위한 도면이다.
도 5를 참조하면, 상기 SIFT 알고리즘의 제2 과정은 특징점 기준방향을 기준으로 특징점 기술자(Keypoint descriptor)를 생성한다. 특징점 기술자는 입력영상 과 데이터베이스에 저장된 얼굴 영상의 특징점 정합에 기준이 된다. 영상의 크기, 회전, 노이즈와 같은 외부환경에 변하지 않는 성분을 가진 특징점 기술자일수록 외부 환경에 의한 영상 변화에 강인한 특징점 정합 성능을 가진다.
SIFT 알고리즘의 제2 과정은 특징점 주변에 위치한 국부 영역의 그래디언트(gradient) 방향과 크기를 계산한다. 일 실시예에서, SIFT 알고리즘의 제2 과정은 수학식 20 및 수학식 21을 이용하여 국부 영역의 그래디언트 방향과 크기를 계산할 수 있다.
영상회전에 불변하는 기술자를 얻기 위해 SIFT 알고리즘의 제2 과정은 그래디언트 방향과 기술자의 좌표를 특징점 방향을 기준으로 회전이동하고, 회전된 그래디언트에 특징점을 중심으로 가우시안 가중치를 부여한다. SIFT 알고리즘의 제2 과정은 특징점 주변 영역의 작은 변화에도 그래디언트의 방향과 크기가 민감하게 변하는 것을 방지하기 위해 가우시안 가중치를 부여한다. SIFT 알고리즘의 제2 과정은 특징점을 중심으로 가우시안 가중치를 부여하여 특징점 주변 영역의 그래디언트를 강조하고 에러를 최소화할 수 있다.
도 5의 왼쪽 도면은 특징점 주변에 위치한 국부 영역의 그래드언트 방향과 크기를 도시한 도면이고, 도 5의 오른쪽 도면은 가우시안 가중치를 부여한 후의 그래디언트 방향과 크기를 도시한 도면이다.
가우시안 가중치가 부여된 그래디언트는 각각의 배열이 8방향을 가지고 있는 4×4 배열로 재구성된다. 이러한 방향성 히스토그램은 128(8×4×4)차원의 벡터로 구성된다. 일 실시예에서, SIFT 알고리즘의 제2 과정은 128차원 벡터를 조명에 강 인한 기술자로 만들기 위해 정규화 과정을 수행할 수 있다. 상기 과정을 통해 생성된 128차원 벡터는 특징점을 대표하는 특징점 기술자가 된다. SIFT 알고리즘은 영상크기 500×500에서 약 2000개 정도의 특징점 기술자를 생성할 수 있다.
다시 도 1을 참조하면, 객체 인식 시스템은 SIFT 알고리즘의 제1 과정과 제2 과정을 실행한 후 생성된 특징점 기술자와 데이터베이스에 저장된 특징점 기술자를 비교하여 정합(match)한다.
SIFT 알고리즘의 제1 과정과 제2 과정을 실행한 후 생성된 특징점 기술자와 정합되는 특징점 기술자가 데이터베이스에 있는 경우에는, 객체 인식 시스템은 SIFT 알고리즘의 제1 과정을 실행하여 특징점을 추출하고, ICA 알고리즘을 실행하여 독립 성분의 특징점을 추출한 후, SIFT 알고리즘의 제2 과정을 실행하여 독립 성분의 특징점에 대한 특징점 기술자를 생성한다. 객체 인식 시스템은 ICA 알고리즘을 적용하여 정합 성능을 향상시키고 객체 인식률을 높일 수 있다.
도 6은 도 1의 ICA 알고리즘을 설명하기 위한 도면이다.
ICA 알고리즘은 표본 신호만을 가지고 표본 신호의 근원 신호 및 선형 변환 행렬 구한다. ICA 알고리즘은 입력 데이터의 상관성(Correlation)을 없애고 고차 통계 (High order statistics)의 종속성을 줄여서 입력 데이터로부터 원래의 독립 성분을 분리해낸다. ICA 알고리즘을 통해 분리된 성분들은 서로 통계적으로 독립이며, 각 성분은 매우 드물게 활성화되는 분포로 구성된다. 즉, ICA 알고리즘은 입력 데이터를 서로 독립이며 드문 분포를 가지는 근원 신호들로 분리한다.
도 6을 참조하면, 서로 독립적인 근원 신호(또는 데이터)(S)는 선형 변환 과 정(A)을 거친다. 표본 신호(또는 데이터)는 선형 변환 과정을 거친 근원 신호로 정의된다. 따라서, 표본 신호 X는 X=AS 식으로 나타낼 수 있다. ICA 알고리즘은 표본 신호(X)를 통해 근원 신호를 분리해 내는 분리 행렬(W)을 학습하고, 분리 행렬(W)을 기초로 근원 신호(U)를 복원할 수 있다. 복원된 근원 신호 U=WX 식으로 나타낼 수 있다. 그리고, ICA 알고리즘은 분리 행렬을 구하기 위해서 infomax 이론에 따라 비선형 활성화 함수(g(U))를 사용한다.
일 실시예에서, 객체 인식 시스템은 FastICA 알고리즘을 이용하여 독립 성분의 특징점을 추출한다. 객체 인식 시스템은 SIFT 알고리즘의 제1 과정을 통해 추출된 특징점들의 상관관계를 제거하기 위해 전처리 과정을 수행한다. 즉, 객체 인식 시스템은 특징점들을 백색화(whitening)하여, 특징점들의 평균을 0으로 만들고 분산을 1로 만든다.
객체 인식 시스템은 특징점들을 백색화한 후 FastICA 알고리즘을 실행하여 독립 성분의 특징점을 추출한다. FastICA 알고리즘은 특징점들의 비정규성(non-gaussianity)을 최대화하기 위해 첨도(kurtosis)를 이용한다. FastICA 알고리즘은 비정규분포를 찾기 위한 척도로 첨도를 이용한다. FastICA 알고리즘은 복원된 근원 신호의 첨도값을 최대화하여 분리 행렬(W)을 구하고, 분리 행렬(W)을 기초로 독립 성분의 특징점을 추출한다.
다시 도 1을 참조하면, 객체 인식 시스템은 데이터베이스에 저장된 객체의 특징점 기술자 중 S104단계에서 정합된 특징점 기술자와 S106단계에서 생성된 특징점 기술자를 기초로 특징점을 정합하여 상기 영상에 포함된 객체의 종류를 식별한 다.
일 실시예에서, 객체 인식 시스템은 특징점 사이의 유클리드 거리와 유클리드 거리의 비율을 기초로 거리가 가까운 특징점을 찾아 정합한다. 예를 들어, 객체 인식 시스템은 다음의 수학식 22를 통해 데이터베이스에 저장된 객체의 특징점과 S106단계에서 생성된 특징점 사이의 유클리드 거리를 계산하여 거리가 가장 가까운 특징점을 선택하여 서로 정합한다.
Figure 112009063379179-pat00029
D(a,b)는 특징점 사이의 유클리드 거리를 나타내며, desa[i]와 desb[i]는 각각 데이터베이스에 저장된 객체의 특징점과 S106단계에서 생성된 특징점의 위치를 나타낸다.
만일 S106단계에서 생성된 특징점과 거리가 첫 번째로 가까운 특징점 및 두 번째로 가까운 특징점 사이의 차이가 문턱 값(threshold) 이하인 경우에는 객체 인식 시스템은 다음의 수학식 23을 통해 거리가 첫 번째로 가까운 특징점의 거리와 두 번째로 가까운 특징점의 거리의 비율을 계산한다. 거리 비율이 문턱 값(threshold) 이하인 경우에는 객체 인식 시스템은 거리가 첫 번째로 가까운 특징점을 선택하여 정합한다. 만일 거리 비율이 문턱 값을 넘는 경우에는 객체 인식 시스템은 해당 특징점이 오정합 확률이 높은 특징점으로 판단하고 정합을 하지 않는 다.
Figure 112009063379179-pat00030
D(a,b1)와 D(a,b2)는 각각 거리가 첫 번째로 가까운 특징점의 거리 및 거리가 두 번째로 가까운 특징점의 거리를 나타내고, A와 B는 상수(constant)를 나타낸다. 일 실시예에서, 객체 인식 시스템은 거리 비율을 0.6(=6/10)으로 설정할 수 있다.
특징점을 정합하여 객체의 종류를 식별한 후, 객체 인식 시스템은 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 S108단계에서 정합된 특징점을 군집화하고 영상에 포함된 객체의 개수를 계산한다.
입력 영상에 같은 객체가 여러 개 있는 경우에는 여러 개의 같은 특징점이 추출되므로 데이터베이스에 저장된 특징점과 정확한 정합을 할 수 없다. 따라서, 입력 영상에 같은 객체가 여러 개 있는 경우에는 특징점 정합만을 이용하는 객체 인식 시스템은 정확한 물체 인식을 할 수 없다.
일 실시예에서, 객체 인식 시스템은 K-means 알고리즘을 실행하여 특징점들을 군집화하고 영상에 포함된 객체의 개수를 계산한다. K-means 알고리즘은 가까운 거리에 위치한 데이터를 군집으로 묶는다.
K-means 알고리즘은 임의의 군집 개수(K)를 설정하고, 각 군집 내에서 임의 의 군집 중앙 위치를 설정한다. 일 실시예에서, 군집 개수(K)의 초기값은 1로 설정될 수 있다.
K-means 알고리즘은 각 특징점과 각 군집 중앙 위치 사이의 거리를 계산하고, 가장 가까운 거리의 군집 중앙 위치에 상응하는 군집에 해당 특징점을 포함시킨다. K-means 알고리즘은 데이터베이스에 저장된 객체 중 S108단계에서 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 해당 객체의 특징점과 해당 객체의 중앙 위치 사이의 거리(이하, 제1 거리)를 계산한다. 객체의 중앙 위치는 해당 객체에 포함된 특징점의 위치값을 평균하여 얻을 수 있다. 그리고 K-means 알고리즘은 군집에 포함된 특징점과 해당 군집 중앙 위치 사이의 거리(이하, 제2 거리)를 각 군집마다 계산한다.
K-means 알고리즘은 제1 거리와 제2 거리를 비교하여 각 군집마다 제1 거리와 제2 거리의 거리 비율을 계산한다. 만약 모든 군집에서 거리 비율의 분산값이 문턱값 이하이면 K-means 알고리즘은 알고리즘을 종료하고 K 값을 군집의 개수 또는 객체의 개수로 계산한다. 만약 거리 비율의 분산값이 문턱값보다 크면 K-means 알고리즘은 K값을 1만큼 증가시키고 상기 과정을 반복한다.
특징점을 군집화한 후, 객체 인식 시스템은 식별된 객체의 종류에 상응하는 특징점 기술자와 군집화된 특징점의 특징점 기술자를 기초로 특징점 기술자 사이의 방향 차이를 계산한다. 그리고 객체 인식 시스템은 특징점 기술자 사이의 방향 차이를 기초로 오정합된 특징점을 식별하고 군집화된 특징점 중 오정합된 특징점을 제거한다.
도 7은 도 1의 특징점 사이의 방향 차이를 계산하는 과정을 설명하기 위한 도면이다.
도 7을 참조하면, 도 7은 수학식 21을 통해 계산된 특징점의 방향을 도시한 도면이다. 예를 들어, 도 7의 왼쪽 도면은 S110단계에서 군집화된 특징점과 특징점의 방향을 도시한 도면이고, 도 7의 오른쪽 도면은 S108단계에서 식별된 객체의 종류에 상응하는 특징점 기술자와 특징점의 방향을 도시한 도면이다.
객체 인식 시스템은 다음의 수학식 24를 통해 각 특징점의 방향 차이를 계산할 수 있다.
Figure 112009063379179-pat00031
OriA(n)과 OriB(n)는 각 특징점의 방향을 나타낸다.
특징점 사이의 방향 차이를 계산한 후, 객체 인식 시스템은 각 특징점의 방향 차이의 평균과 표준편차를 계산하여 S110단계에서 군집화된 특징점 중 오정합 특징점을 식별한다. 객체 인식 시스템은 다음의 수학식 25를 통해 오정합 특징점을 식별한다.
Figure 112009063379179-pat00032
Figure 112009063379179-pat00033
는 방향 차이의 평균을 나타내며,
Figure 112009063379179-pat00034
는 방향 차이의 표준편차를 나타낸다. α값은 상수이다.
객체 인식 시스템은 S110단계에서 군집화된 특징점 중 mismatch 값이 0인 특징점은 올바르게 정합된 특징점으로 판단하고, mismatch 값이 1인 특징점은 오정합된 특징점으로 판단하여 해당 특징점을 제거한다.
오정합 특징점을 제거한 후, 객체 인식 시스템은 영상에 포함된 객체의 위치와 기울어짐 정도를 계산한다. 일 실시예에서, 객체 인식 시스템은 S110단계에서 군집화된 특징점의 위치 및 S112 단계에서 계산된 특징점의 방향 차이를 기초로 영상에 포함된 객체의 위치 및 기울어짐 정도를 계산할 수 있다. 일 실시예에서, 객체 인식 시스템은 오정합 특징점을 제거한 후, 오정합 특징점이 제거된 특징점과 데이터베이스에 저장된 객체의 특징점을 정합하여 정확하게 객체를 식별할 수 있다.
도 8은 데이터베이스에 저장된 객체의 특징점들과 입력 영상에 포함된 객체의 특징점들이 정합된 것을 나타낸 도면이다.
도 8을 참조하면, 도 8의 왼쪽 도면은 데이터베이스에 저장된 객체를 나타내며, 오른쪽 도면은 90도 회전한 물체가 포함된 입력 영상을 나타낸다. 다음의 표 1은 수학식 24를 통해 도 8에서 정합된 특징점들의 방향 차이(각도)를 계산한 것을 나타내는 표이다.
OriA(n) OriB(n) diffOri(n)
1 148.53 60.33 88.2
2 243.32 153.65 89.67
3 227.64 138.98 88.66
4 121.12 30.28 90.84
5 329.34 237.94 91.4
6 189.96 99.89 89.97
7 120.23 27.84 92.39
8 182.92 88.42 94.5
9 194.98 103.59 91.39
10 254.43 165.78 88.65
11 160.45 68.25 92.5
표 1에 계산된 방향 차이(diffOri(n))에 따르면 도 8의 오른쪽 도면의 입력 영상에 포함된 객체는 도 8의 왼쪽 도면의 데이터베이스에 저장된 객체와 비교하여 90도 회전한 것임을 알 수 있다.
도 9는 도 1의 방향 차이를 기초로 오정합된 특징점을 제거하는 것을 나타내는 도면이다.
도 9를 참조하면, 도 9의 왼쪽 도면은 오정합된 특징점을 제거하기 전의 도면을 나타내며, 도 9의 오른쪽 도면은 오정합된 특징점을 제거한 후의 도면을 나타낸다. 객체 인식 시스템은 수학식 24를 통해 특징점의 방향 차이를 계산한 후, 수학식 25를 통해 오정합된 특징점을 식별하고 오정합된 특징점을 제거할 수 있다.
이상에서 설명한 SIFT 알고리즘과 ICA 알고리즘을 이용한 객체 인식 방법은 통상의 컴퓨터 시스템에서 구현가능하다. 통상의 컴퓨터 시스템이란 프로세서, 메모리, 저장장치 등으로 이루어진 컴퓨터 시스템 또는 이와 동등한 연산을 수행할 수 있는 컴퓨터 시스템을 지칭하는 것으로서 이에 대한 구체적인 구성에 대해서는 본 실시예에서는 생략하였다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
일 실시예에 따른 객체 인식 방법은 SIFT 알고리즘에 ICA 알고리즘을 결합하여 SIFT 알고리즘의 특징점 정합 성능을 향상시키고 객체 인식률을 향상시킬 수 있다. 개시된 기술의 객체 인식 방법은 ICA 알고리즘을 통해 독립 성분의 특징점을 추출한 후 특징점을 정합하므로, 특징점 정합의 계산량을 줄이고, 정합 오류를 줄일 수 있다. 예를 들어, 객체 인식 방법은 영상 내 크기의 변화, 조명의 변화 및 회전과 같은 영상 변화에 강인하므로, 객체 인식률을 향상시킬 수 있다.
개시된 기술의 객체 인식 방법은 특징점을 군집화하여 영상에 포함된 객체의 개수를 계산하고 객체를 식별하므로 영상에 동일한 객체가 복수개 이상 포함된 경우에도 정확하게 객체를 식별할 수 있다. 또한, 개시된 기술의 객체 인식 방법은 특징점의 특징점 기술자를 기초로 방향 차이를 계산하고 오정합된 특징점을 제거하므로 객체 인식 오류를 줄일 수 있다.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
도 1은 개시된 기술의 일 실시예에 따른 SIFT 알고리즘과 ICA 알고리즘을 이용한 객체 인식 방법을 설명하기 위한 순서도이다.
도 2는 도 1의 SIFT 알고리즘의 제1 과정을 설명하기 위한 순서도이다.
도 3은 도 2의 SIFT 알고리즘의 제1 과정에서 스케일 공간을 생성하는 것을 설명하기 위한 도면이다.
도 4는 도 2의 SIFT 알고리즘의 제1 과정에서 특징점을 추출하는 것을 설명하기 위한 도면이다.
도 5는 도 1의 SIFT 알고리즘의 제2 과정에서 특징점 기술자를 생성하는 과정을 설명하기 위한 도면이다.
도 6은 도 1의 ICA 알고리즘을 설명하기 위한 도면이다.
도 7은 도 1의 특징점 사이의 방향 차이를 계산하는 과정을 설명하기 위한 도면이다.
도 8은 데이터베이스에 저장된 객체의 특징점들과 입력 영상에 포함된 객체의 특징점들이 정합된 것을 나타낸 도면이다.
도 9는 도 1의 방향 차이를 기초로 오정합된 특징점을 제거하는 것을 나타내는 도면이다.

Claims (5)

  1. (a) 카메라를 통해 촬영된 영상을 입력받는 단계;
    (b) SIFT(Scale Invariant Feature Transform) 알고리즘의 제1 과정과 제2 과정을 실행하여 특징점 기술자를 생성하고 데이터베이스에 저장된 객체의 특징점 기술자와 정합(match)하는 단계;
    (c) 상기 (b) 단계를 통해 SIFT(Scale Invariant Feature Transform) 알고리즘의 제1 과정과 제2 과정을 실행하여 특징점 기술자를 생성하고 데이터베이스에 저장된 객체의 특징점 기술자와 정합한 후, SIFT 알고리즘의 제1 과정을 실행하여 상기 (a) 단계에서 입력받은 영상에서 특징점을 추출하고, FastICA(Fast Independent Component Analysis) 알고리즘을 실행하여 상기 특징점의 상관성(correlation)을 없앤 후 독립 성분(independent)의 특징점을 추출하며, SIFT 알고리즘의 제1 과정을 실행하여 상기 독립 성분의 특징점에 상응하는 특징점 기술자를 생성하는 단계;
    (d) 상기 데이터베이스에 저장된 객체의 특징점 기술자 중 상기 (b)단계에서 정합된 특징점 기술자와 상기 (c)단계에서 생성된 특징점 기술자를 기초로 특징점을 정합하여 상기 영상에 포함된 객체의 종류를 식별하는 단계;
    (e) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 상기 정합된 특징점을 군집화하고 상기 영상에 포함된 객체의 개수를 계산하는 단계;
    (f) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자와 상기 (e)단계에서 군집화된 특징점의 특징점 기술자를 기초로 특징점 사이의 방향 차이를 계산하고, 상기 방향 차이를 기초로 상기 (e)단계에서 군집화된 특징점 중 오정합된 특징점을 식별하며, 상기 오정합된 특징점을 제거하는 단계; 및
    (g) 상기 (f)단계에서 오정합된 특징점이 제거되고 남은 특징점을 기초로 상기 영상에 포함된 객체의 위치와 기울어짐 정도를 계산하는 단계를 포함하고,
    상기 FastICA 알고리즘을 실행하는 단계는
    (c-1) 상기 SIFT 알고리즘의 제1 과정을 실행하여 추출된 특징점을 백색화(whitening)하는 단계; 및
    (c-2) FastICA 알고리즘을 실행하여 상기 백색화된 특징점에서 독립 성분의 특징점을 추출하는 단계를 포함하는 객체 인식 방법.
  2. 제 1 항에 있어서, 상기 SIFT 알고리즘의 제1 과정을 실행하는 단계는
    (b-1) 상기 영상에 가우시안 필터를 적용하여 가우시안 영상을 생성하고, 상기 가우시안 영상 사이의 차이를 통해 가우시안 차(DoG, Difference of Gaussian) 영상을 생성하며, 가우시안 스케일 공간을 생성하는 단계;
    (b-2) 특정 가우시안 차 영상 안에서의 픽셀 및 상기 가우시안 차 영상과 인접한 가우시안 차 영상의 픽셀을 이용하여 특징점을 추출하고, 상기 추출된 특징점 중 대조 경계값 보다 작은 값은 가지는 특징점을 제거하며, 굴곡 경계값 보다 작은 값을 가지는 특징점을 추출하는 단계; 및
    (b-3) 상기 (b-2)단계에서 남은 특징점의 크기 및 방향을 결정하는 단계를
    포함하는 것을 특징으로 하는 객체 인식 방법.
  3. 삭제
  4. 제 1 항에 있어서, 상기 (d)단계는
    다음의 수학식 1을 통해 계산된 상기 특징점 사이의 유클리드 거리와 다음의 수학식 2를 통해 계산된 유클리드 거리의 비율을 기초로 거리가 가까운 특징점을 정합하는 것을 특징으로 하는 객체 인식 방법.
    [수학식 1]
    Figure 112009063379179-pat00035
    여기에서,
    D(a,b) : 특징점 사이의 유클리드 거리
    desa[i], desb[i] : 특징점의 위치
    [수학식 2]
    Figure 112009063379179-pat00036
    여기에서,
    D(a,b1), D(a,b2) : 특징점 사이의 유클리드 거리
    A, B : 상수
  5. 제 1 항에 있어서, 상기 (e)단계는
    (e-1) 상기 (d)단계에서 식별된 객체의 종류에 상응하는 특징점 기술자를 기초로 상기 객체의 특징점과 상기 객체의 중앙 위치 사이의 거리를 계산하는 단계;
    (e-2) 상기 (d)단계에서 정합된 특징점을 군집화하고 상기 군집에 포함된 특징점의 중앙 위치와 상기 특징점 사이의 거리를 각 군집마다 계산하는 단계;
    (e-3) 상기 (e-1)단계에서 계산된 거리와 상기 (e-2)단계에서 계산된 거리의 비율을 각 군집마다 계산하는 단계;
    (e-4) 만약 상기 거리 비율의 분산이 모든 군집에서 문턱값(threshold) 이하이면 상기 군집의 개수를 상기 객체의 개수로 계산하고, 상기 거리 비율의 분산이 문턱값보다 크면 상기 군집의 수를 증가시킨 후, 상기 (e-2)단계 및 (e-3)단계를 수행하는 단계를 포함하는 것을 특징으로 하는 객체 인식 방법.
KR1020090098550A 2009-10-16 2009-10-16 객체 인식 방법 KR100972849B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090098550A KR100972849B1 (ko) 2009-10-16 2009-10-16 객체 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090098550A KR100972849B1 (ko) 2009-10-16 2009-10-16 객체 인식 방법

Publications (1)

Publication Number Publication Date
KR100972849B1 true KR100972849B1 (ko) 2010-07-28

Family

ID=42646119

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090098550A KR100972849B1 (ko) 2009-10-16 2009-10-16 객체 인식 방법

Country Status (1)

Country Link
KR (1) KR100972849B1 (ko)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
KR101244934B1 (ko) 2011-12-06 2013-03-19 경북대학교 산학협력단 코드북을 이용한 객체 인식 장치, 객체 인식 방법 및 기록 매체
KR101303124B1 (ko) 2012-05-31 2013-09-09 삼성에스디에스 주식회사 특징점 기술자에 의한 객체 추적장치 및 방법, 그리고 에러 특징점 제거장치 및 방법
KR101374726B1 (ko) 2012-06-27 2014-03-17 한국과학기술원 특징 기술자 생성 장치 및 방법, 그를 이용한 영상 객체 인식 장치 및 방법
KR20140046394A (ko) * 2010-10-29 2014-04-18 퀄컴 인코포레이티드 객체 인식에서 피처 생성을 개선시키기 위한 시스템들 및 방법들
US9158988B2 (en) 2013-06-12 2015-10-13 Symbol Technclogies, LLC Method for detecting a plurality of instances of an object
KR101906560B1 (ko) * 2018-03-27 2018-10-11 (주)프론티스 증강 현실에서 객체 간의 상호 연관성 데이터에 기초하여 군용 장비의 정비를 지원하는 서버, 방법 및 웨어러블 디바이스
KR20190085225A (ko) * 2018-01-10 2019-07-18 (주)아비요리퍼블릭 객체별 독립암호를 이용한 영상내 개인정보보호 방법
WO2019164057A1 (ko) * 2018-02-23 2019-08-29 (주)프론티스 상호 연관성 규칙 마이닝을 적용한 증강현실 기술에서 군용 장비의 정비를 지원하는 서버, 방법 및 웨어러블 디바이스
KR102110136B1 (ko) * 2018-11-07 2020-05-13 한국항공대학교산학협력단 특징점 누적 기반 호모그래피를 이용한 고정형 비디오 스티칭 장치 및 방법
US10847048B2 (en) 2018-02-23 2020-11-24 Frontis Corp. Server, method and wearable device for supporting maintenance of military apparatus based on augmented reality using correlation rule mining
KR20210094914A (ko) * 2020-01-22 2021-07-30 국방과학연구소 소나 영상에서 표적식별을 위한 전단변형을 고려한 특징점 추출 방법 및 장치
CN116612306A (zh) * 2023-07-17 2023-08-18 山东顺发重工有限公司 基于计算机视觉的法兰盘智能对位方法及系统
CN113033586B (zh) * 2019-12-24 2024-04-16 大富科技(安徽)股份有限公司 目标识别方法及设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090089723A (ko) * 2008-02-19 2009-08-24 고려대학교 산학협력단 이미지의 크기불변특징 추출에 사용되는 이미지 신호필터링 방법 및 장치와 이를 이용한 이미지 특징 추출방법, 장치 및 기록매체

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090089723A (ko) * 2008-02-19 2009-08-24 고려대학교 산학협력단 이미지의 크기불변특징 추출에 사용되는 이미지 신호필터링 방법 및 장치와 이를 이용한 이미지 특징 추출방법, 장치 및 기록매체

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
광운대학교 석사학위청구논문, "ICA-SIFT를 이용한 물체인식에 관한 연구", 2007.12

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140046394A (ko) * 2010-10-29 2014-04-18 퀄컴 인코포레이티드 객체 인식에서 피처 생성을 개선시키기 위한 시스템들 및 방법들
US9501714B2 (en) 2010-10-29 2016-11-22 Qualcomm Incorporated Systems and methods to improve feature generation in object recognition
KR101650994B1 (ko) * 2010-10-29 2016-09-05 퀄컴 인코포레이티드 객체 인식에서 피처 생성을 개선시키기 위한 시스템들 및 방법들
KR101244934B1 (ko) 2011-12-06 2013-03-19 경북대학교 산학협력단 코드북을 이용한 객체 인식 장치, 객체 인식 방법 및 기록 매체
CN102722731A (zh) * 2012-05-28 2012-10-10 南京航空航天大学 一种基于改进sift算法的高效图像匹配方法
US9552642B2 (en) 2012-05-31 2017-01-24 Samsung Sds Co., Ltd. Apparatus and method for tracking object using feature descriptor, and apparatus and method for removing garbage feature
WO2013180530A1 (ko) * 2012-05-31 2013-12-05 삼성에스디에스 주식회사 특징점 기술자에 의한 객체 추적장치 및 방법, 에러 특징점 제거장치 및 방법, 그리고 이동 단말에 구현되는 장치
KR101303124B1 (ko) 2012-05-31 2013-09-09 삼성에스디에스 주식회사 특징점 기술자에 의한 객체 추적장치 및 방법, 그리고 에러 특징점 제거장치 및 방법
KR101374726B1 (ko) 2012-06-27 2014-03-17 한국과학기술원 특징 기술자 생성 장치 및 방법, 그를 이용한 영상 객체 인식 장치 및 방법
US9158988B2 (en) 2013-06-12 2015-10-13 Symbol Technclogies, LLC Method for detecting a plurality of instances of an object
KR20190085225A (ko) * 2018-01-10 2019-07-18 (주)아비요리퍼블릭 객체별 독립암호를 이용한 영상내 개인정보보호 방법
KR102066688B1 (ko) * 2018-01-10 2020-01-15 (주)아비요리퍼블릭 객체별 독립암호를 이용한 영상내 개인정보보호 방법
US10847048B2 (en) 2018-02-23 2020-11-24 Frontis Corp. Server, method and wearable device for supporting maintenance of military apparatus based on augmented reality using correlation rule mining
WO2019164057A1 (ko) * 2018-02-23 2019-08-29 (주)프론티스 상호 연관성 규칙 마이닝을 적용한 증강현실 기술에서 군용 장비의 정비를 지원하는 서버, 방법 및 웨어러블 디바이스
CN110546677A (zh) * 2018-02-23 2019-12-06 弗隆蒂斯株式会社 在应用相互关联规则挖掘的增强现实技术中支持军用装备维修的服务器、方法及可穿戴设备
KR101906560B1 (ko) * 2018-03-27 2018-10-11 (주)프론티스 증강 현실에서 객체 간의 상호 연관성 데이터에 기초하여 군용 장비의 정비를 지원하는 서버, 방법 및 웨어러블 디바이스
KR102110136B1 (ko) * 2018-11-07 2020-05-13 한국항공대학교산학협력단 특징점 누적 기반 호모그래피를 이용한 고정형 비디오 스티칭 장치 및 방법
CN113033586B (zh) * 2019-12-24 2024-04-16 大富科技(安徽)股份有限公司 目标识别方法及设备
KR20210094914A (ko) * 2020-01-22 2021-07-30 국방과학연구소 소나 영상에서 표적식별을 위한 전단변형을 고려한 특징점 추출 방법 및 장치
KR102312936B1 (ko) * 2020-01-22 2021-10-14 국방과학연구소 소나 영상에서 표적식별을 위한 전단변형을 고려한 특징점 추출 방법 및 장치
CN116612306A (zh) * 2023-07-17 2023-08-18 山东顺发重工有限公司 基于计算机视觉的法兰盘智能对位方法及系统
CN116612306B (zh) * 2023-07-17 2023-09-26 山东顺发重工有限公司 基于计算机视觉的法兰盘智能对位方法及系统

Similar Documents

Publication Publication Date Title
KR100972849B1 (ko) 객체 인식 방법
KR100950776B1 (ko) 얼굴 인식 방법
Routray et al. Analysis of various image feature extraction methods against noisy image: SIFT, SURF and HOG
US20130089260A1 (en) Systems, Methods, and Software Implementing Affine-Invariant Feature Detection Implementing Iterative Searching of an Affine Space
US20130259307A1 (en) Object detection apparatus and method therefor
CN108596867A (zh) 一种基于orb算法的图片校正方法及系统
JP2013513168A (ja) イメージ認識のための記述子パッチの高速部分空間射影
Wu et al. Speed-up template matching through integral image based weak classifiers
Wang et al. An improved ORB image feature matching algorithm based on SURF
Dellinger et al. SAR-SIFT: A SIFT-like algorithm for applications on SAR images
Kumar et al. Automatic ear detection for online biometric applications
Kabbai et al. Image matching based on LBP and SIFT descriptor
CN111709426A (zh) 一种基于轮廓和纹理的硅藻识别方法
Islam et al. A fast and fully automatic ear recognition approach based on 3D local surface features
Tang et al. Modified sift descriptor for image matching under interference
Biswas et al. Logo recognition technique using sift descriptor, surf descriptor and hog descriptor
WO2008003985A2 (en) Method of identifying linear features within an image
Tao et al. Research Progress of the Scale Invariant Feature Transform (SIFT) Descriptors.
Basalamah Histogram based circle detection
Wu et al. An accurate feature point matching algorithm for automatic remote sensing image registration
KR101741761B1 (ko) 멀티 프레임 기반 건물 인식을 위한 특징점 분류 방법
Debbarma et al. Keypoints based copy-move forgery detection of digital images
Frías-Velázquez et al. Object identification by using orthonormal circus functions from the trace transform
CN111652148A (zh) 人脸识别方法、装置与电子设备
Pietkiewicz et al. Recognition of maritime objects based on FLIR images using the method of eigenimages

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130703

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140721

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150722

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee