KR100703528B1 - 영상 인식 장치 및 방법 - Google Patents

영상 인식 장치 및 방법 Download PDF

Info

Publication number
KR100703528B1
KR100703528B1 KR1020040103452A KR20040103452A KR100703528B1 KR 100703528 B1 KR100703528 B1 KR 100703528B1 KR 1020040103452 A KR1020040103452 A KR 1020040103452A KR 20040103452 A KR20040103452 A KR 20040103452A KR 100703528 B1 KR100703528 B1 KR 100703528B1
Authority
KR
South Korea
Prior art keywords
image
recognition
feature
feature vector
vector value
Prior art date
Application number
KR1020040103452A
Other languages
English (en)
Other versions
KR20060064801A (ko
Inventor
박상철
고병철
김광수
박경하
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040103452A priority Critical patent/KR100703528B1/ko
Priority to US11/249,092 priority patent/US7715632B2/en
Publication of KR20060064801A publication Critical patent/KR20060064801A/ko
Application granted granted Critical
Publication of KR100703528B1 publication Critical patent/KR100703528B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Abstract

본 발명은 정지영상이나 동영상에서 특정 대상을 인식하는 장치 및 방법에 관한 것으로, 영상 인식에 필요한 정보량을 줄여 고속으로 인식하기 위한 장치 및 방법에 관한 것이다. 본 영상 인식 장치는 영상을 복수의 영역으로 나눈, 적어도 하나 이상의 특징 템플릿을 이용하여 특징 템플릿 당 하나의 특징 벡터값을 추출하는 특징 템플릿 처리부와, 상기 추출된 특징 벡터값으로 영상에서 인식 대상을 인식하는 인식부를 포함하며, 상기 특징 벡터값은 해당 특징 템플릿의 복수 영역에 대하여 서로 대응되는 영역끼리 픽셀값의 차이를 계산하고 상기 계산된 차이를 모두 합한 것임을 특징으로 한다.
영상 인식, 특징 템플릿

Description

영상 인식 장치 및 방법{Apparatus and method for recognizing an image}
도 1은 본 발명에 따른 영상 인식 장치의 구성도.
도 2는 본 발명에 따른 전처리 과정의 예를 나타내는 도면.
도 3은 본 발명에 따라 수평 에지와 수직 에지를 추출하는 예를 나타내는 도면.
도 4는 본 발명에 따른 특징 템플릿의 예를 나타내는 도면.
도 5는 본 발명에 따른 영상 인식 학습을 위해 입력되는 학습 데이터의 예를 나타내는 도면.
도 6은 본 발명에 따른 영상 인식 방법의 흐름도.
본 발명은 영상 인식 장치 및 방법에 관한 것으로, 보다 상세하게는 정지영상이나 동영상에서 특정 대상을 고속으로 인식하는 장치 및 방법에 관한 것이다.
영상에서 특정 대상을 인식하기 위해서는 영상 인식 장치의 학습을 위한 학 습 데이터와 영상에서 대상을 판별하기 위한 후보 영역의 정보가 영상 인식 장치에 입력되어야 한다. 이때 대상 정보와 후보 영역의 화소 정보를 모두 사용하는 것은 매우 많은 시간과 컴퓨팅 파워를 요구하게 된다.
이러한 이유로 종래에는 대상을 판별하기 위한 관심 영역의 모든 정보를 입력하지 않고 특징 정보나 에지 정보 등을 이용하여 영상 인식에 사용되는 정보의 양을 줄였다. 이는 특징 정보를 추출하는 방법에 따라 여러 가지 방법이 있을 수 있으나 에지 영상에서 추출된 특징 정보나 고유 벡터와 고유값을 이용하여 대상을 판별한다. 그러나 종래에는 영상에서 대상을 판별하기 위한 후보 영역의 최소 크기가 예를 들어 64×64의 픽셀일 경우라 하더라도 그 픽셀 양은 4096개의 픽셀이 되고 여기에 x, y 좌표와 RGB값을 곱하면 그 정보는 20480 차원이 된다. 이보다 더 큰 후보 영역일 경우에는 수만 개의 픽셀을 사용하므로 입력 정보의 차원도 수십만 차원에서 수백만 차원이 될 수 있다.
이러한 정보량은 인식 장치의 성능을 떨어뜨릴 뿐만 아니라 초기 학습에도 많은 시간이 걸리게 한다. 그리고 컴퓨팅 파워가 적은 휴대단말이나 네트워크를 통한 서버 환경에도 맞지 않게 된다.
그리고 종래에 영상 인식에 사용되는 정보의 양을 줄이기 위해 사용된 에지 영상을 구하는 여러 가지 방법은 보다 자세한 에지 정보를 추출하는 방법일 뿐 실질적으로 입력되는 정보의 양을 줄이는 방법은 아니다.
상기와 같은 문제점을 해결하기 위하여, 본 발명은 영상 인식에 필요한 정보량을 줄인 영상 인식 장치 및 방법을 제공한다.
삭제
또한, 본 발명은 인식할 대상의 학습 데이터 양이 줄어든 영상 인식 장치 및 방법을 제공한다.
삭제
또한, 본 발명은 영상 인식을 위한 후보 영역을 복수의 영역으로 나누는 특징 템플릿을 사용하여 영상 인식에 필요한 정보량을 줄인 영상 인식 장치 및 방법을 제공한다.
또한, 본 발명은 영상 인식을 위한 후보 영역을 복수의 영역으로 나누는 특징 템플릿을 사용하여 영상 대상을 학습하고 인식하는 영상 인식 장치 및 방법을 제공한다.
이를 위하여, 본 발명에 따른 영상 인식 장치는, 영상을 복수의 영역으로 나누는 특징 템플릿을 이용하여, 상기 특징 템플릿 당 하나의 특징 벡터값을 추출하고, 상기 추출된 특징 벡터값으로 영상에서 인식될 대상을 학습시키고 인식하는 것을 특징으로 한다.
상기 특징 벡터값은 해당 특징 템플릿의 복수 영역에 대하여 각 영역의 픽셀값의 차이를 계산하고 상기 차이의 합으로 계산되고, 상기 특징 템플릿은 인식 대상별로 구비된다.
상기 학습은 인식 대상 영상과 인식 대상이 아닌 영상에 대하여 동일한 특징 템플릿을 사용하여 수행되고, 인식 대상과 인식 대상이 아닌 영상을 구별하는 분류 기준을 추출하는 것임을 특징으로 한다. 상기 인식은 상기 학습에 의해 추출된 분류 기준과 인식 대상의 특징 벡터값을 비교하여 수행된다.
이러한 영상 인식 장치는, 상기 영상의 밝기를 조절하여 인식 대상의 윤곽을 선명하게 하는 영상 전처리부; 상기 영상 전처리부에서 윤곽이 선명하게 조절된 영상에서 수평 에지 정보와 수직 에지 정보를 추출하는 에지 추출부; 상기 수평 에지 정보와 상기 수직 에지 정보에서 각각 동일한 상기 특징 템플릿을 이용하여 특징 벡터값을 추출하는 특징 템플릿 처리부; 및 상기 특징 벡터값을 이용하여 상기 분류 기준을 추출하고 상기 분류 기준을 이용하여 상기 인식 대상을 인식하는 인식부를 구비하는 것을 특징으로 한다.
한편, 본 발명에 따른 영상 인식 방법은, 영상을 복수의 영역으로 나누는 특징 템플릿을 이용하여, 상기 특징 템플릿 당 하나의 특징 벡터값을 추출하고, 상기 추출된 특징 벡터값으로 영상에서 인식될 대상을 학습시키고 인식하는 것을 특징으로 한다.
상기 특징 벡터값은 해당 특징 템플릿의 복수 영역에 대하여 각 영역의 픽셀값의 차이를 계산하고 상기 차이의 합으로 계산되고, 상기 특징 템플릿은 인식 대상별로 구비된다.
상기 학습은 인식 대상 영상과 인식 대상이 아닌 영상에 대하여 동일한 특징 템플릿을 사용하여 수행되고, 인식 대상과 인식 대상이 아닌 영상을 구별하는 분류 기준을 추출하는 것임을 특징으로 한다. 상기 인식은 상기 학습에 의해 추출된 분류 기준과 인식 대상의 특징 벡터값을 비교하여 수행된다.
이러한 영상 인식 방법은, 상기 영상의 밝기를 조절하여 인식 대상의 윤곽을 선명하게 하는 과정; 상기 윤곽이 선명하게 조절된 영상에서 수평 에지 정보와 수직 에지 정보를 추출하는 과정; 상기 수평 에지 정보와 상기 수직 에지 정보에서 각각 동일한 상기 특징 템플릿을 이용하여 특징 벡터값을 추출하는 과정; 상기 특징 벡터값을 이용하여 상기 분류 기준을 추출하는 과정; 및 상기 분류 기준을 이용하여 상기 인식 대상을 인식하는 과정을 포함하는 것을 특징으로 한다.
이하, 본 발명에 따른 바람직한 실시 예를 첨부 도면을 참조하여 보다 상세히 설명한다.
도 1은 본 발명에 따른 영상 인식 장치의 구성도이다.
본 발명에 따른 영상 인식 장치는 영상 전처리부(11), 에지 추출부(12), 특징 템플릿 처리부(13), 및 인식부(14)를 구비한다.
영상 전처리부(11)는 대상의 전체적인 윤곽을 선명하게 하는 기능을 수행한다. 조명의 변화는 전체적인 시스템의 성능을 좌우하게 되는데, 조명이 너무 밝거나 어둡게 되면 대상의 윤곽이 명확하지 않아 대상을 인식하는데 어려움이 많기 때문이다. 이에 입력되는 영상은 본격적인 영상 처리 과정을 거치기 전에 영상 전처리부(11)에서 조명으로 인한 대상 인식의 불명확성을 없애기 위한 전처리 과정을 거치게 된다.
전처리 과정에는 히스토그램 평활화 방식과 최대 최소 정규화 방법 등이 있으며, 본 발명에서는 전처리 방법으로 수학식 1과 같은 최대 최소 정규화 방법을 이용하는 것이 바람직하다.
Figure 112004057995294-pat00001
여기서, min1과 max1은 각각 입력 영상의 최소, 최대 밝기값이고, min2와 max2는 전처리 후의 최소, 최대 밝기값이다. 그리고 y는 입력 영상의 픽셀값이고, y'은 전처리 과정으로 보정된 픽셀값이다. 픽셀값은, 예를 들어 흑백 영상일 경우 0~255의 사이값이 되고, 칼라 영상일 경우에는 R, G, B 각각에 대해 0~255의 사이값을 갖게 된다.
영상 전처리부(11)는 입력되는 모든 영상에 대하여 전처리 과정을 수행한다. 도 2는 전처리 과정의 예를 나타내는 도면으로, 입력된 영상 a가 전처리 과정을 거치면 영상 b와 같이 전체적으로 대상의 윤곽이 명확하게 변화된다는 것을 보여준다.
에지 추출부(12)는 전처리 과정을 거친 영상에서 수평 에지와 수직 에지를 추출한다. 이는 입력되는 영상 정보를 그대로 영상 인식에 바로 사용하는 것보다 특징 정보를 추출하여 사용하는 것이 정보의 양을 줄이기 때문이다. 그리고 에지 영상은 일반적으로 전체 영상의 픽셀값을 사용하는 것보다 조명의 변화에 덜 민감한 특징이 있다.
도 3은 에지 추출부(12)에서 수평 에지와 수직 에지가 추출된 예를 나타낸다.
에지 추출부(12)는 전처리 과정을 거친 영상 a의 후보 영역 b에 대하여 수평 에지를 추출하면 c와 같고, 수직 에지를 추출하면 d와 같다.
특징 템플릿 처리부(13)는 특징 템플릿을 이용하여 영상에서 판별하려는 대상의 특징 벡터를 계산한다. 여기서 특징 템플릿은 영상을 인식할 때 처리되는 정보량을 줄이기 위하여 본 발명에서 제안된 것으로, 후보 영역을 복수의 영역으로 나누기 위한 정보이다.
특징 템플릿 처리부(13)는 이러한 특징 템플릿을 이용하여 후보 영역에 대하여 특징 템플릿 당 하나의 특징 벡터값을 추출한다. 즉, 특징 템플릿 처리부(13)는 후보 영역을 특징 템플릿이 정의하는 복수의 영역으로 나누어 각 영역에 해당하는 픽셀들의 값의 차이를 계산하고 이 차이의 합으로서 해당 후보 영역에서의 특징 벡터값을 구한다. 이를 수학식으로 표현하면 수학식 2와 같으며, 수학식 2는 특징 템플릿이 두 개의 영역으로 나뉘었을 때의 예이다.
Figure 112004057995294-pat00002
여기서 W는 특징 템플릿의 한 영역의 픽셀값, B는 특징 템플릿의 다른 영역의 픽셀값을 나타낸다. X는 각 영역의 좌표값이다.
이러한 특징 템플릿을 이용하면 후보 영역에 대하여 특징 템플릿 당 하나의 특징 벡터값만 추출되기 때문에 처리될 정보량이 현저하게 줄어들게 된다. 만약 영상이 칼라일 경우에는 각 픽셀 당 R, G, B 각각에 대하여 픽셀값들의 차이를 계산하고 그 차이의 합으로서 특징 벡터값이 계산되므로, 역시 특징 템플릿 당 하나의 특징 벡터값이 추출된다.
특징 템플릿은 판별하려는 대상에 따라 해당 대상을 정확히 인식하기 위하여 복수인 것이 바람직하며, 나누어지는 복수의 영역의 모양도 해당 대상의 특징을 잘 추출할 수 있도록 각각 다른 것이 특징이다.
한편, 특징 템플릿을 이용한 특징 벡터를 계산하는 다른 방법으로 수학식 3이 있다.
Figure 112004057995294-pat00003
특징 템플릿은 구체적으로 도 4와 같이 표현될 수 있다. 여기서 영역의 구분을 위해 검은색과 흰색으로 템플릿을 표현한다. 특징 템플릿 a는 좌우 두 영역으로 나누어진 템플릿이고, 특징 템플릿 b는 상하 두 영역으로 나누어진 템플릿의 예이다. 특징 템플릿 c와 d는 보기에는 네 영역으로 나누어졌지만 실질적으로는 나누는 모양을 달리했을 뿐 검은색 영역과 흰색 영역 둘로 나누어진 템플릿의 예이다.
도 4를 수학식 3에 적용하면, W는 흰색 영역의 픽셀값, B는 검은색 영역의 픽셀값이 된다. 즉, 흰색 영역과 검은색 영역의 대칭되는 픽셀값에 대하여 좌표를 이동해 가며 모든 픽셀을 비교하는 것이다. 여기서 좌표값 X는 각 특징 템플릿의 영역마다 시작점과 그 이동 방향이 다르다. 예를 들면, 특징 템플릿 a는 좌우 대칭을 알아보는 특징 템플릿이므로, 검은색 영역 41에서는 좌측 상단에서부터 우측으로 좌표를 이동해 나가고 흰색 영역 42에서는 우측 상단에서부터 좌측으로 좌표를 이용해 나가면서 수학식 3을 적용해 나가는 것이 바람직하다. 특징 템플릿 b는 상하 대칭을 알아보는 특징 템플릿이므로 검은색 영역 43에서는 좌측 상단에서부터 아래쪽으로 좌표를 이동해 나가고 흰색 영역 44에서는 아래쪽 하단에서 위쪽으로 좌표를 이동해 나가면서 수학식 3을 적용해 나가는 것이 바람직하다. 한편, 특징 템플릿 c는 좌우 대칭을 상하로 나누어 좀 더 자세하게 알아보기 위한 특징 템플릿으로서, 좌표의 이동 방향은 특징 템플릿 a와 동일하나, 검은색 영역 45와 흰색 영역 46과의 관계와, 검은색 영역 48과 흰색 영역 47과의 관계를 구별함으로써, 검은색 영역 45와 흰색 영역 46의 좌우 대칭 관계와 검은색 영역 48과 흰색 영역 47의 좌우 대칭 관계를 좀 더 자세하게 알 수 있다. 그리고 특징 템플릿 d는 상하 대칭을 좌우로 나누어 좀 더 자세하게 알아보기 위한 특징 템플릿으로서, 좌표의 이동 방향은 특징 템플릿 b와 동일하나, 검은색 영역 50과 흰색 영역 49와의 관계와, 검은색 영역 51과 흰색 영역 52와의 관계를 구별함으로써, 검은색 영역 50과 흰색 영역 49의 상하 대칭 관계와 검은색 영역 51과 흰색 영역 52의 상하 대칭 관계를 좀 더 자세하게 알 수 있다.
실험적으로 얼굴이 인식 대상일 경우에는 특징 템플릿을 도 4와 같은 4개만으로 충분하다. 만약 도 3의 후보 영역 b와 같이 정면의 얼굴이 인식 대상이라면, 얼굴은 대칭적인 특징을 가지므로 특징 템플릿 a에 대한 특징 벡터 D 값은 1에 가까운 값을 갖게 된다. 그리고 특징 템플릿 b에 대한 특징 벡터 D 값은 0에 가까운 값을 갖게 된다. 따라서 특징 벡터값은 0~1의 값을 가지게 된다.
즉, 얼굴 인식에 필요한 데이터가 수평 에지와 수직 에지에 대하여 각각 4개의 특징 템플릿을 사용할 경우 8개의 데이터만으로 얼굴이 인식된다는 것이다. 그러므로 인식부(14)에서 학습과 인식에 사용할 데이터의 수는 현저하게 줄어드는 것이 본 발명의 가장 큰 특징이다.
특히, 특징 템플릿 처리부(13)는 에지 추출부(12)에서 추출된 수평 에지 정보와 수직 에지 정보를 이용하여 특징 벡터를 계산하므로, 입력 영상에서 바로 특징 벡터를 추출하는 것보다 계산량이 줄어든다.
인식부(14)는 특징 템플릿 처리부(13)에서 추출된 특징 벡터를 이용하여, 입력되는 영상에서 판별될 대상을 학습하거나 인식한다. 영상 인식 장치는 영상을 정확히 인식하기 위하여 미리 학습하는 과정이 필요하다. 즉, 영상 인식 장치는 인식할 대상에 대하여 미리 학습을 하여 후에 입력되는 영상에서 대상을 정확히 인식할 수 있도록 학습 결과에 대한 데이터베이스를 보유한다. 인식부(14)는 이러한 학습 과정을 수행하고, 후에 입력되는 대상을 인식하는 기능을 수행한다.
먼저, 인식부(14)에서 인식할 대상에 대하여 학습하는 과정에 대하여 설명한다.
인식부(14)는 인식할 각 대상별로, 특징 템플릿 처리부(13)에서 추출된 각각의 특징 벡터들을 분리한다. 인식부(14)는 학습의 효과를 높이기 위해서 인식할 대상뿐만 아니라 인식할 대상이 아닌 영상에 대해서도 학습을 한다.
즉, 인식부(14)는 학습 과정에서, 인식할 대상과 인식할 대상이 아닌 영상에 대하여 각각 동일한 특징 템플릿에 대한 특징 벡터값을 분석하여 인식할 대상을 판별하는 기준을 추출한다. 다시 말하면, 동일한 특징 템플릿에 대하여 인식할 대상과 인식할 대상이 아닌 영상에 대해서는 그 특징 벡터값이 다를 것이므로, 인식부(14)는 학습 과정에서 그 분류 기준을 추출하는 것이다.
도 5a와 도 5b는 인식할 대상을 얼굴로 가정하였을 경우 학습 데이터의 예를 나타낸다. 학습 데이터는 도시된 바와 같이 인식할 대상인 얼굴 데이터와 그와는 구별되도록 얼굴이 아닌 데이터가 된다. 도 5a는 인식할 대상인 얼굴 데이터들이고, 도 5b는 얼굴이 아닌 데이터이다. 도 5a와 같은 얼굴 데이터는 도시된 바와 같이 눈, 코, 입이 좌우 대칭되는 일정한 규칙을 가지고 있다. 그러나 도 5b와 같이 얼굴이 아닌 데이터는 그 특징이 얼굴과 구별된다. 즉, 인식부(14)는 도 5a의 얼굴 데이터들에 대한 특징 벡터값의 분포 정보와, 도 5b의 얼굴이 아닌 데이터들에 대한 특징 벡터값의 분포 정보를 이용하여, 후에 입력되는 영상의 특징 벡터값이 학습된 얼굴 데이터의 특징 벡터값의 분포 영역에 포함되면 얼굴로 판별하고, 그렇지 않으면 얼굴이 아닌 것으로 판별하는 것이다. 이러한 학습 데이터의 수는 많을수록 그 학습 효과가 뛰어나며 후에 실질적으로 얼굴을 인식할 경우 정확도가 높아지게 된다.
보다 구체적으로 인식부(14)를 SVM(Support Vector Machine)으로 구현하여, 인식부(14)에서 인식 대상의 분류 기준을 추출하는 방법과 그 분류 기준을 이용하여 영상에서 인식할 대상을 판별하는 방법의 예를 들면 다음과 같다.
SVM은 입력 공간이 높은 차수의 비선형 특징 벡터 공간을 선형적으로 투영하여 해석할 수 있도록 하고, 각 특징 벡터 사이의 최적의 경계 즉, 최적의 결정면(Decision Boundary)을 제시한다. 즉, 본 발명에서는 인식할 대상과 인식할 대상이 아닌 영상에 대한 특징 벡터들을 이용하여 인식할 대상의 특징 벡터들과 인식할 대상이 아닌 영상의 특징 벡터들 사이의 최적의 결정면을 제시한다.
SVM은 먼저 임의로 인식할 대상과 인식할 대상이 아닌 영상을 추출하여 두 개의 영역으로 분할하고 분할된 영역에서 서포트 벡터(Support Vector) 값을 추출한다. 여기서 서포트 벡터란 임의로 영상을 추출하여 분할된 영역으로부터 추출한 특징 벡터값 중에서 결정면 주변의 벡터값이다. 도 5a와 도 5b를 예로 들면, 본 발명에서는 얼굴 데이터와 얼굴이 아닌 데이터에 대한 특징 벡터값들을 분할하는 결정면 주변의 벡터값이 서포트 벡터값이 된다.
SVM은 학습을 통하여 인식할 대상별로 서포트 벡터값을 보유하고, 후에 특징 템플릿 처리부(13)로부터 입력되는 특징 벡터가 결정면으로부터 어느 영역에 속하는지에 따라 인식할 대상인지 아닌지를 판별한다.
상술한 바와 같은 구성의 영상 인식 장치에서 영상을 학습하고 인식하는 방법에 대하여 도 5를 참조하여 설명한다.
영상 인식 장치는 입력되는 영상에 대하여 영상 전처리부(11)에서 전처리 과 정을 통하여 영상의 윤곽을 선명하게 하고(S61) 에지 추출부(12)로 전달한다.
에지 추출부(12)는 전처리 된 영상에서 수평 에지와 수직 에지를 추출하여(S62) 특징 템플릿 처리부(13)로 전달한다.
특징 템플릿 처리부(13)는 수평 에지 정보와 수직 에지 정보에 해당 특징 템플릿들을 적용하여 특징 벡터값을 추출하여(S63) 인식부(14)로 전달한다.
그러면 인식부(14)는 학습 과정인지(S64) 인식 과정인지(S66) 판단하고, 학습 과정일 경우에는 특징 벡터값들을 이용하여 인식할 대상을 판별하는 분류 기준을 추출한다(S65). 그리고 인식 과정일 경우에는 해당 분류 기준을 이용하여 인식 대상인지 아닌지 판별한다(S67).
여기서, 학습은 인식할 대상과 인식할 대상이 아닌 영상에 대하여 모두 수행되는 것이 바람직하며, 인식 대상과 인식할 대상이 아닌 영상에 대하여 각각 동일한 특징 템플릿들을 이용하여 학습을 하고, 해당 대상인지를 판별할 때에도 동일한 특징 템플릿들에 대한 특징 벡터로서 판별한다.
상술한 바와 같이, 본 발명은 특징 템플릿을 이용하여 특징 벡터를 추출함으로써, 영상 인식에 필요한 데이터의 양을 기존의 픽셀 수에 비례하는 데이터 양에 비하여 현저하게 줄이는 효과가 있다. 이에 영상 인식에 필요한 계산량과 시간을 줄일 수 있고, 휴대용 단말이나 네트워크를 기반으로 하는 응용 시스템에 쉽게 적용시킬 수 있다.

Claims (20)

  1. 삭제
  2. 영상 인식 장치에 있어서,
    영상의 밝기를 조절하여 인식 대상의 윤곽을 선명하게 하는 영상 전처리부;
    상기 영상 전처리부에서 윤곽이 선명하게 조절된 영상에서 수평 에지 정보와 수직 에지 정보를 추출하는 에지 추출부;
    영상을 복수의 영역으로 나눈, 적어도 하나 이상의 특징 템플릿을 이용하여 상기 수평 에지 정보와 상기 수직 에지 정보에서 각각 특징 벡터값을 추출하는 특징 템플릿 처리부; 및
    상기 특징 벡터값을 이용하여 분류 기준을 추출하는 학습을 하고 상기 분류 기준을 이용하여 상기 인식 대상을 인식하는 인식부를 포함함을 특징으로 하는 영상 인식 장치.
  3. 영상 인식 장치에 있어서,
    영상을 복수의 영역으로 나눈, 적어도 하나 이상의 특징 템플릿을 이용하여 특징 템플릿 당 하나의 특징 벡터값을 추출하는 특징 템플릿 처리부와,
    상기 추출된 특징 벡터값으로 영상에서 인식 대상을 인식하는 인식부를 포함하며,
    상기 특징 벡터값은 해당 특징 템플릿의 복수 영역에 대하여 서로 대응되는 영역끼리 픽셀값의 차이를 계산하고 상기 계산된 차이를 모두 합한 것임을 특징으로 하는 영상 인식 장치.
  4. 제 3항에 있어서,
    상기 특징 템플릿은 인식 대상별로 구비되는 것을 특징으로 하는 영상 인식 장치.
  5. 제 4항에 있어서,
    상기 학습은 인식 대상 영상과 인식 대상이 아닌 영상에 대하여 동일한 특징 템플릿을 사용하여 수행되는 것을 특징으로 하는 영상 인식 장치.
  6. 제 5항에 있어서,
    상기 학습은 인식 대상과 인식 대상이 아닌 영상을 구별하는 분류 기준을 추출하는 것임을 특징으로 하는 영상 인식 장치.
  7. 제 6항에 있어서,
    상기 인식은 상기 학습에 의해 추출된 분류 기준과 인식 대상의 특징 벡터값을 비교하여 수행되는 것을 특징으로 하는 영상 인식 장치.
  8. 삭제
  9. 영상 인식 방법에 있어서,
    영상의 밝기를 조절하여 인식 대상의 윤곽을 선명하게 하는 과정;
    상기 윤곽이 선명하게 조절된 영상에서 수평 에지 정보와 수직 에지 정보를 추출하는 과정;
    영상을 복수의 영역으로 나눈, 적어도 하나 이상의 특징 템플릿을 이용하여 상기 수평 에지 정보와 상기 수직 에지 정보에서 각각 특징 벡터값을 추출하는 과정;
    상기 특징 벡터값을 이용하여 분류 기준을 추출하는 과정; 및
    상기 분류 기준을 이용하여 상기 인식 대상을 인식하는 과정을 포함함을 특징으로 하는 영상 인식 방법.
  10. 영상 인식 방법에 있어서,
    영상을 복수의 영역으로 나눈, 적어도 한 가지 이상의 특징 템플릿을 이용하여 특징 템플릿 당 하나의 특징 벡터값을 추출하는 특징 템플릿 처리 과정과,
    상기 추출된 특징 벡터값으로 영상에서 인식 대상을 인식하는 인식 과정을 포함하며,
    상기 특징 벡터값은 해당 특징 템플릿의 복수 영역에 대하여 서로 대응되는 영역끼리 픽셀값의 차이를 계산하고 상기 계산된 차이를 모두 합한 것임을 특징으로 하는 영상 인식 방법.
  11. 제 10항에 있어서,
    상기 특징 템플릿은 인식 대상별로 구비되는 것을 특징으로 하는 영상 인식 방법.
  12. 제 11항에 있어서,
    상기 학습은 인식 대상 영상과 인식 대상이 아닌 영상에 대하여 동일한 특징 템플릿을 사용하여 수행되는 것을 특징으로 하는 영상 인식 방법.
  13. 제 12항에 있어서,
    상기 학습은 인식 대상과 인식 대상이 아닌 영상을 구별하는 분류 기준을 추출하는 것임을 특징으로 하는 영상 인식 방법.
  14. 제 13항에 있어서,
    상기 인식은 상기 학습에 의해 추출된 분류 기준과 인식 대상의 특징 벡터값을 비교하여 수행되는 것을 특징으로 하는 영상 인식 방법.
  15. 제 2항에 있어서,
    상기 특징 벡터값은 상기 복수의 영역에 대하여 서로 대응되는 영역끼리 픽셀값의 차이를 계산하고 상기 계산된 차이를 모두 합한 것임을 특징으로 하는 영상 인식 장치.
  16. 제 2항에 있어서,
    상기 분류 기준 추출이 인식 대상 영상과 인식 대상이 아닌 영상에 대하여 동일한 특징 템플릿을 사용하여 수행됨을 특징으로 하는 영상 인식 장치.
  17. 제 3항에 있어서,
    상기 인식을 위해 상기 추출된 특징 벡터값으로 영상에서 인식될 대상을 학습시킴을 특징으로 하는 영상 인식 장치.
  18. 제 9항에 있어서,
    상기 특징 벡터값을 추출하는 과정은 해당 특징 템플릿의 복수 영역에 대하여 서로 대응되는 영역끼리 픽셀값의 차이를 계산하고 상기 계산된 차이를 모두 합하는 것임을 특징으로 하는 영상 인식 방법.
  19. 제 9항에 있어서,
    상기 분류 기준을 추출하는 과정이 상기 추출된 특징 벡터값으로 영상에서 인식될 대상을 학습시키는 것임을 특징으로 하는 영상 인식 방법.
  20. 제 10항에 있어서,
    상기 추출된 특징 벡터값으로 영상에서 인식될 대상을 학습시키는 과정을 더 포함함을 특징으로 하는 영상 인식 방법.
KR1020040103452A 2004-12-09 2004-12-09 영상 인식 장치 및 방법 KR100703528B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040103452A KR100703528B1 (ko) 2004-12-09 2004-12-09 영상 인식 장치 및 방법
US11/249,092 US7715632B2 (en) 2004-12-09 2005-10-12 Apparatus and method for recognizing an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040103452A KR100703528B1 (ko) 2004-12-09 2004-12-09 영상 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20060064801A KR20060064801A (ko) 2006-06-14
KR100703528B1 true KR100703528B1 (ko) 2007-04-03

Family

ID=36583930

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040103452A KR100703528B1 (ko) 2004-12-09 2004-12-09 영상 인식 장치 및 방법

Country Status (2)

Country Link
US (1) US7715632B2 (ko)
KR (1) KR100703528B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101139930B1 (ko) * 2010-07-15 2012-04-30 중앙대학교 산학협력단 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BRPI0506117A (pt) * 2005-10-14 2007-07-03 Fundacao Oswaldo Cruz método de diagnóstico baseado em padrões proteÈmicos e/ou genÈmicos por vetores de suporte aplicado a espectometria de massa
US7684595B2 (en) * 2006-06-23 2010-03-23 The United States Of America As Represented By The Secretary Of The Navy Method of facial recognition
JP4845755B2 (ja) 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP4935961B2 (ja) * 2009-04-14 2012-05-23 日本電気株式会社 画像識別子抽出装置
KR101901588B1 (ko) * 2012-01-02 2018-09-28 삼성전자주식회사 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자 생성 장치
CN103440504B (zh) * 2013-09-13 2016-08-17 中国科学院自动化研究所 一种基于结构先验知识的鲁棒生物特征识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040103452A (ko) * 2003-05-28 2004-12-08 파이오니아 플라즈마 디스플레이 가부시키가이샤 플라즈마표시장치 및 플라즈마디스플레이패널구동방법

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185337B1 (en) * 1996-12-17 2001-02-06 Honda Giken Kogyo Kabushiki Kaisha System and method for image recognition
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
US6671391B1 (en) * 2000-05-26 2003-12-30 Microsoft Corp. Pose-adaptive face detection system and process
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
KR100442835B1 (ko) 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040103452A (ko) * 2003-05-28 2004-12-08 파이오니아 플라즈마 디스플레이 가부시키가이샤 플라즈마표시장치 및 플라즈마디스플레이패널구동방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1020040103452 - 691610 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101139930B1 (ko) * 2010-07-15 2012-04-30 중앙대학교 산학협력단 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법

Also Published As

Publication number Publication date
KR20060064801A (ko) 2006-06-14
US20060126939A1 (en) 2006-06-15
US7715632B2 (en) 2010-05-11

Similar Documents

Publication Publication Date Title
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
He et al. Real-time human face detection in color image
KR100559471B1 (ko) 대칭축을 이용한 얼굴 검출 시스템 및 방법
CN111340824B (zh) 一种基于数据挖掘的图像特征分割方法
CN110991389B (zh) 判断目标行人在非重叠相机视角中出现的匹配方法
WO2019061658A1 (zh) 眼镜定位方法、装置及存储介质
CN111144366A (zh) 一种基于联合人脸质量评估的陌生人脸聚类方法
KR20170006355A (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
KR20100072772A (ko) 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법
CN102906787A (zh) 脸部分析技术
CN103310194A (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
US7715632B2 (en) Apparatus and method for recognizing an image
CN110826408B (zh) 一种分区域特征提取人脸识别方法
CN110991398A (zh) 一种基于改进步态能量图的步态识别方法及系统
Wu et al. Contour restoration of text components for recognition in video/scene images
KR101084594B1 (ko) 영상 인식 시스템 및 그 방법
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
Youlian et al. Face detection method using template feature and skin color feature in rgb color space
Işikdoğan et al. Automatic recognition of Turkish fingerspelling
KR20130126386A (ko) 적응적 피부색 검출 방법, 그리고 이를 이용한 얼굴 검출 방법 및 그 장치
Tao et al. Automatic localization of human eyes in complex background
CN109145875B (zh) 一种人脸图像中的黑框眼镜去除方法及装置
Reddy et al. Comparison of HOG and fisherfaces based face recognition system using MATLAB
CN111881732A (zh) 一种基于svm的人脸质量评价方法
Chen et al. Research on safe distance measuring method of front vehicle in foggy environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130227

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150226

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160226

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee