KR100543706B1 - 비젼기반 사람 검출방법 및 장치 - Google Patents

비젼기반 사람 검출방법 및 장치 Download PDF

Info

Publication number
KR100543706B1
KR100543706B1 KR1020030085828A KR20030085828A KR100543706B1 KR 100543706 B1 KR100543706 B1 KR 100543706B1 KR 1020030085828 A KR1020030085828 A KR 1020030085828A KR 20030085828 A KR20030085828 A KR 20030085828A KR 100543706 B1 KR100543706 B1 KR 100543706B1
Authority
KR
South Korea
Prior art keywords
skin color
image
human
region
person
Prior art date
Application number
KR1020030085828A
Other languages
English (en)
Other versions
KR20050052657A (ko
Inventor
윤상민
기석철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020030085828A priority Critical patent/KR100543706B1/ko
Priority to US10/998,150 priority patent/US20050152582A1/en
Publication of KR20050052657A publication Critical patent/KR20050052657A/ko
Application granted granted Critical
Publication of KR100543706B1 publication Critical patent/KR100543706B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

비젼기반 사람검출방법 및 장치가 개시된다. 사람검출방법은 (a) 촬상되어 입력되는 프레임영상으로부터 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출하는 단계; (b) 상기 각 피부색영역이 사람후보영역에 해당하는지를 판단하는 단계; 및 (c) 상기 (b) 단계에서 사람후보영역으로 판단된 각 피부색영역이 사람인지를 사람의 형태정보를 이용하여 판단하는 단계로 이루어진다.

Description

비젼기반 사람 검출방법 및 장치{Vision-based humanbeing detection method and apparatus}
도 1은 본 발명에 따른 사람 검출장치의 일실시예의 구성을 나타낸 블럭도.
도 2는 도 1에 있어서 피부색 검출부의 세부적인 구성을 나타내는 블럭도,
도 3a 내지 도 3c는 도 2에 있어서 각 부에 입력되는 영상의 예를 나타낸 도면,
도 4는 도 1에 있어서 정규화부의 동작을 설명하는 도면,
도 5는 도 1에 있어서 후보영역 판단부의 세부적인 구성을 나타내는 블럭도,
도 6은 도 5에 있어서 거리맵 생성부의 동작을 설명하는 도면,
도 7은 도 1에 있어서 사람 판단부의 세부적인 구성을 나타내는 블럭도,
도 8a 내지 도 8c는 도 7에 있어서 각 부에 입력되는 영상의 예를 나타낸 도면, 및
도 9는 본 발명에 따른 사람 검출방법의 일실시예의 동작을 설명하는 흐름도이다.
본 발명은 객체 검출에 관한 것으로서, 보다 구체적으로는 입력되는 영상으로부터 사람의 위치를 정확하고 빠르게 검출하기 위한 비젼기반 사람검출방법 및 장치에 관한 것이다.
사회가 복잡해지고 범죄가 지능화되어감에 따라 보안에 대한 사회적 관심이 증가하고 있으며, 이러한 범죄를 예방하기 위해서 공공장소에 보안용 감시카메라의 설치가 지속적으로 증가하고 있는 추세이다. 그런데, 많은 수의 감시카메라를 사람이 직접 관리하기에는 무리가 있기 때문에 자동적으로 사람을 검출할 수 있는 시스템의 필요성이 대두되고 있다. 근래 들어 사람이 직접 작업하기 어려운 곳이나 가정에서의 단순한 노동을 대신 처리해 줄 수 있는 시스템으로 로봇이 각광받고 있다. 이러한 로봇의 기능은 현재 단순한 반복 작업을 수행하는 정도이며, 로봇이 보다 지능적인 작업을 사람 대신 수행하기 위한 첫번째 조건은 로봇을 사용하는 사람과의 상호작용이다. 원활한 상호작용을 위하여 로봇은 사용자의 위치를 파악할 필요가 있으며, 사용자의 명령에 따라서 움직이게 된다.
기존의 대부분의 얼굴검출장치에서는 일반적으로 배경영상을 저장한 다음, 입력영상으로부터 배경영상을 뺀 차영상을 이용하여 물체의 움직임을 검출하는 방법을 사용하거나, 사람의 형태정보만을 이용하여 실내 또는 실외에서 사람의 위치를 파악하였다. 입력영상과 배경영상간의 차영상을 이용하는 방법은 카메라가 고정되어 있는 경우에는 매우 효율적이지만, 카메라가 계속 움직이는 로봇과 같은 경우에는 배경영상이 계속 바뀌기 때문에 매우 비효율적인 단점이 있다. 한편, 사람의 형태정보를 이용하는 방법은 복수개의 사람형태와 비슷한 모델영상을 이용하여 사람을 검출함에 있어서 영상 전체에 대하여 모델영상을 매칭시켜 사람의 위치를 검출하기 때문에 시간이 많이 소요되는 단점이 있다.
본 발명이 이루고자 하는 기술적 과제는 입력되는 영상으로부터 피부색정보와 형태정보를 이용하여 사람의 위치를 정확하고 빠르게 검출하기 위한 방법 및 장치를 제공하는데 있다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 사람검출방법은 (a) 촬상되어 입력되는 프레임영상으로부터 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출하는 단계; (b) 상기 각 피부색영역이 사람후보영역에 해당하는지를 판단하는 단계; 및 (c) 상기 (b) 단계에서 사람후보영역으로 판단된 각 피부색영역이 사람인지를 사람의 형태정보를 이용하여 판단하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위하여 본 발명에 따른 사람검출장치는 촬상되어 입력되는 프레임영상으로부터 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출하는 피부색 검출부; 상기 피부색 검출부에서 검출된 각 피부색영역이 사람후보영역에 해당하는지를 판단하는 후보영역 판단부; 및 사람의 형태정보를 이용하여 상기 후보영역 판단부에서 사람후보영역으로 판단된 각 피부색영역이 사람인지를 판단하는 사람판단부를 포함한다.
상기 사람검출방법은 바람직하게는 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구현할 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명하기로 한다.
도 1은 본 발명에 따른 사람검출장치의 일실시예의 구성을 나타내는 블럭도로서, 피부색 검출부(110), 정규화부(130), 후보영역 판단부(150) 및 사람판단부(170)로 이루어진다.
도 1을 참조하면, 피부색 검출부(110)는 이동카메라 또는 고정카메라로부터 제공되는 입력영상으로부터 사람의 피부색 영역을 검출한다. 이를 위하여, 사람의 피부색에 해당하는 색상 범위를 설정하고, 피부색과 유사한 색상 즉, 색상 범위에 포함되는 모든 영역을 피부색영역으로 검출한다. 피부색 검출부(110)는 검출된 각 피부색영역에 대하여 라벨링을 수행하고, 라벨링 수행결과 각 피부색영역에 대한 크기와 무게중심 정보를 생성하여 출력한다.
정규화부(130)는 피부색 검출부(110)로부터 제공되는 각 피부색영역의 크기 및 무게중심 정보를 입력으로 하여 소정 크기로 정규화를 수행한다. 이에 대해서는 도 4를 참조하여 후술하기로 한다.
후보영역 판단부(150)는 정규화부(130)로부터 제공되는 각 피부색영역이 사람후보영역인지를 판단하고, 판단결과 사람후보영역에 속하지 않은 피부색영역은 배경으로 검출하고, 사람후보영역에 속하는 피부색영역은 사람판단부(170)로 제공한다.
사람판단부(170)는 후보영역 판단부(150)로부터 제공되는 각 후보영역이 사람인지를 판단하고, 사람으로 판단된 후보영역은 사람으로 검출하고, 사람으로 판 단되지 않은 후보영역은 배경으로 검출한다.
도 2는 도 1에 있어서 피부색 검출부(110)의 세부적인 구성을 나타낸 블럭도로서, 등화부(210), 색상정규화부(230), 모델링부(250) 및 라벨링부(270)로 이루어진다. 도 2의 각 구성요소의 동작을 도 3a 내지 도 3d를 참조하여 설명하기로 한다. 여기서, 도 3a는 입력영상, 도 3b는 색상정규화영상, 도 3c는 모델링영상, 도 3d는 검출된 피부색 영역을 각각 나타낸다.
도 2를 참조하면, 등화부(210)에서는 입력영상(도 3a)에 대하여 프레임 단위로 히스토그램 등화를 수행하여 입력영상의 R, G, B 히스토그램을 평활화(smmothing)시킴으로써 입력영상 전체에 반영되어 있는 조명의 영향을 줄인다.
색상정규화부(230)에서는 등화된 입력영상에 대하여 화소 단위로 색상정규화를 수행하여 화소별로 반영되어 있는 조명의 영향을 줄인다. 이를 위하여 다음 수학식 1에 정의된 바와 같이 등화된 입력영상의 각 화소의 RGB 색상을 rgb 색상으로 변환하여 도 3b와 같은 색상정규화영상을 생성한다. 이때, 사람의 피부색은 색상정규화과정을 거침으로써 가우시안분포를 따르게 된다.
Figure 112003045502249-pat00001
이와 같이 등화 및 색상정규화 과정을 거치게 되면, 입력영상으로부터 조명 에 의한 영향이 배제됨으로써 고유한 물체의 색상만을 포함하게 된다.
모델링부(250)에서는 색상실내 및 실외 환경에서 얻어진 복수개의 피부색 모델의 색상 r 및 g의 평균(mr, mg)과 색상 r 및 g의 표준편차(σrg)를 이용하여 색상정규화부(230)로부터 제공되는 색상정규화영상(도 3b)에 대하여 다음 수학식 2에서와 같이 가우시안 모델링을 수행하여 모델링영상(도 3c)을 생성한다.
Figure 112003045502249-pat00002
이와 같이 가우시안 모델링을 수행하게 되면, 피부색영역은 강조되는 반면 그외 영역은 검은색으로 변환된다.
라벨링부(270)에서는 모델링부(250)로부터 제공되는 모델링영상의 각 화소의 계조값을 소정의 문턱치, 예를 들면 240과 비교하고, 비교결과 소정의 문턱치 이하인 화소들은 검은색으로, 소정의 문턱치 이상인 화소들은 흰색으로 이진화시켜 도 3d와 같은 적어도 하나 이상의 피부색영역을 검출한다. 검출된 피부색영역에 대해서는 라벨링을 수행하는데, 이때 라벨링은 바람직하게는 피부색영역의 크기 순서로 행해진다. 라벨링 수행결과 라벨이 할당된 각 피부색영역에 대하여 x축의 시작점과 끝점 좌표값, y축의 시작점과 끝점 좌표값으로 이루어지는 크기정보와, 피부색영역에 포함되는 화소값들의 합으로부터 무게중심(310)의 좌표값을 출력한다.
도 4는 도 1에 있어서 정규화부(130)의 동작을 설명하는 도면으로서, 피부색 검출부(110)에서 검출된 적어도 하나 이상의 피부색영역에 대하여, 각 피부색영역의 크기정보로부터 무게중심(410)을 기준으로 a ×a 의 정사각형을 구한 다음, 가로길이보다는 세로길이를 길게 정규화한다. 예를 들어, 가로 방향에 대해서는 무게중심(410)을 기준으로 좌, 우 각각 (2×a)만큼 즉, 전체 2×(2×a), 세로 방향에 대해서는 무게중심(410)을 기준으로 위쪽으로 2×a, 아래쪽으로 3.5×a 즉, 전체 2×a + 3.5×a 의 크기로 1차 정규화를 수행한다. 여기서, a는 크기정보의 근 즉,
Figure 112003045502249-pat00003
임이 바람직하다. 다음, 1차 정규화가 수행된 각 피부색영역은 예를 들면 30 ×40 화소로 2 차 정규화가 수행된다.
도 5는 도 1에 있어서 후보영역 판단부(150)의 세부적인 구성을 나타내는 블럭도로서, 거리맵 생성부(510), 사람/배경영상 데이터베이스(530) 및 제1 판단부(550)로 이루어진다.
도 5를 참조하면, 거리맵 생성부(510)는 정규화부(130)로부터 제공되는 각 피부색영역의 30 ×40 화소 정규화영상과, 피부색영역의 크기 및 무게중심 정보를 입력으로 하여 각 피부색영역이 사람후보영역에 해당하는지를 판단하기 위하여 마하라노비스 거리 맵(mahalanobis distance map)을 생성한다. 이를 도 6을 참조하여 설명하기로 한다. 먼저, 30 ×40 화소단위로 정규화된 영상(610)에 대하여 예를 들어 가로를 6, 세로를 8로 분할하여 총 48개의 블록을 생성한다. 이 경우 하나의 블록은 5×5 화소 단위가 되며, 각 블록(l)의 평균은 다음 수학식 3과 같이 나타낼 수 있다.
Figure 112003045502249-pat00004
여기서, p, q는 각각 블록의 가로방향 및 세로방향 화소수를 나타내며, Xl은 전체 블록, x는 하나의 블록내에 포함된 화소값들을 나타낸다.
한편, 각 블록의 분산은 다음 수학식 4와 같이 나타낼 수 있다.
Figure 112003045502249-pat00005
상기 각 블록의 평균과 각 블록의 분산을 이용하여 마하라노비스 거리(d(i,j)) 및 마하라노비스 거리 맵(D)은 각각 다음 수학식 5 및 6과 같이 나타낼 수 있으며, 이러한 마하라노비스 거리 맵에 의해 정규화된 움직임영역(610)은 도 6의 참조부호 620과 같이 나타낼 수 있다.
Figure 112003045502249-pat00006
Figure 112003045502249-pat00007
여기서, M과 N은 정규화된 움직임영역(610)의 가로 및 세로 분할 수를 나타 낸다. 정규화된 움직임영역(610)을 가로 6, 세로 8로 분할할 경우, 마하라노비스 거리 맵(D)은 48×48 의 매트릭스 형태가 된다.
상기한 바와 같이 각 피부색영역에 대하여 마하라노비스 거리 맵을 생성하고, 이때 마하라노비스 거리 맵 데이터에 대하여 주성분분석(Principal Component Analysis)를 적용하여 차원을 줄여 줄 수 있다.
제1 판단부(550)에서는 거리 맵 생성부(510)로부터 제공되는 각 피부색 영역을 기준으로 정규화된 영상으로부터 구한 마하라노비스 거리 맵과, 사전 훈련되어 사람/배경 영상 데이터베이스(530)에 저장된 사람/배경 영상의 마하라노비스 거리 맵을 비교하며, 그 비교 결과에 따라 정규화된 각각의 영역이 사람후보에 속하는지 배경 영역에 속하는지 판단한다. 이때, 사람/배경 영상 데이터베이스(530)와 제1 판단부(550)는 수천장의 사람모델과 배경모델에 대하여 훈련한 SVM(Support Vector Machine)를 이용하여 구현될 수 있다. 제1 판단부(550)에서는 각 피부색영역에 대하여 사람후보영역 또는 배경이라는 제1 판단결과를 제공하며, 사람후보영역으로 판단된 피부색영역은 사람판단부(170)로 제공된다.
도 7은 도 1에 있어서 사람 판단부(170)의 세부적인 구성을 나타내는 블럭도로서, 에지영상 구성부(710), 모델영상 저장부(730), 하우스도프 거리 산출부(750) 및 제2 판단부(770)로 이루어진다.
도 7을 참조하면, 에지영상 구성부(710)에서는 정규화된 피부색영역 중 사람후보영역(도 8a)에서 에지를 검출하여 도 8b와 같은 에지영상을 구성한다. 이때, 가로방향과 세로방향의 경사값의 변화 분포를 이용하여 에지를 구하는 소벨 에지(sobel edge)를 이용할 경우 매우 빠르면서도 효율적으로 에지를 검출할 수 있다. 여기서, 에지영상은 에지인 부분과 에지가 아닌 부분이 이진화되어 구성된다.
모델영상 저장부(730)는 적어도 하나 이상의 모델영상의 에지영상을 저장하기 위한 것으로서, 바람직하게는 정면을 향한 사람 모델영상의 에지영상, 좌측으로 소정 각도 회전한 사람 모델영상의 에지영상과 우측으로 소정 각도 회전한 사람 모델영상의 에지영상 중 적어도 하나 이상을 저장한다. 예를 들어, 도 8c에 도시된 바와 같은 모델영상의 정면에지영상은 훈련에 사용된 전체 사람영상의 상반신에 대하여 평균영상을 얻은 다음, 평균영상의 에지를 추출하여 구성한 것이다.
하우스도프 거리 산출부(750)에서는 먼저 에지영상 구성부(710)에서 구성된 에지영상과 모델영상 저장부(730)에 저장된 각 모델영상간의 하우스도프 거리를 산출하여 두 영상간의 유사도를 측정한다. 하우스도프 거리는 에지영상에서 하나의 특징점, 즉 하나의 에지가 모델영상의 모든 특징점 즉, 모든 에지에 대한 유클리디안 거리로 나타낼 수 있다. 입력된 에지영상(A)이 m개의 에지로 이루어지고, 임의의 모델영상(B)이 n개의 에지로 이루어지는 경우, 하우스도프 거리(H(A,B))는 다음 수학식 7과 같이 나타낼 수 있다.
Figure 112003045502249-pat00008
여기서,
Figure 112003045502249-pat00009
,
Figure 112003045502249-pat00010
이다.
h(A,B)는 입력 에지영상(A)의 한 에지와 모델영상(B)의 모든 에지간의 유클리디안 거리 중 최소값을 구하고, 에지영상의 m개의 에지에 대하여 구해진 최소값들 중에서 최대값을 h(A,B)로 생성하고, 이와는 반대로 모델영상(B)의 한 에지와 입력 에지영상(A)의 모든 에지간의 유클리디안 거리 중 최소값을 구하고, 모델영상의 n개의 에지에 대하여 구해진 최소값들 중에서 최대값을 h(B,A)로 생성한다. 한편, H(A,B)는 h(A,B)와 h(B,A) 중 최대값으로 결정한다. 이와 같은 H(A,B)의 값을 살펴보면 두 집합간에 얼마나 많은 미스매칭이 존재하는지를 알 수 있다. 입력 에지영상(A)에 대해서 모델영상 저장부(730)에 저장되어 있는 모든 모델영상, 예를 들면 정면모델영상, 좌측모델영상과 우측모델영상에 대하여 각각 하우스도프 거리를 산출하고, 그 중 최대값을 최종 하우스도프 거리로 출력한다.
제2 판단부(770)에서는 하우스도프 거리 산출부(750)에서 산출된 에지영상과 모델영상간의 하우스도프 거리(H(A,B))를 소정의 문턱값과 비교하여, 하우스도프 거리(H(A,B))가 문턱값보다 같거나 큰 경우에는 해당 사람후보영역 즉, 피부색영역을 배경으로 판단하고, 하우스도프 거리(H(A,B))가 문턱값보다 작은 경우에는 해당 사람후보영역 즉, 피부색영역을 사람인 것으로 판단한다.
도 9는 본 발명에 따른 사람 검출방법의 일실시예의 동작을 설명하는 흐름도이다.
도 9를 참조하면, 911 단계에서는 카메라로부터 촬상된 단일 프레임영상에서 미리 설정되어 있는 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출한다. 이때, 피부색영역 검출에 앞서 프레임영상에 반영되어 있는 조명의 영향을 줄이기 위하여 프레임영상 전체와 프레임영상의 각 화소에 대하여 색상정규화를 수행할 수 있다. 한편, 프레임영상에 대하여 가우시안 모델링을 수행하여 피부색과 유사한 화소들을 강조한 후 소정의 문턱치 이상인 화소들로 이루어지는 피부색영역을 검출한다.
913 단계에서는 상기 911 단계에서 검출된 각 피부색영역을 라벨링하여 각 피부색영역의 크기 및 무게중심 정보를 생성하고, 크기 및 무게중심 정보를 이용하여 각 피부색영역을 소정 크기로 정규화한다.
915 단계에서는 검출된 적어도 하나 이상의 피부색 영역들 중 첫번째 피부색영역을 설정한다.
917 단계 및 919 단계에서는 설정된 피부색영역이 사람후보영역인지를 전술한 도 6의 마하라노비스 거리 맵 및 SVM을 이용하여 판단하고, 판단결과 피부색영역이 사람후보영역에 해당하지 않는 경우 921 단계에서 현재 피부색영역이 검출된 피부색영역들 중 마지막 피부색영역인가를 판단한다. 921 단계에서의 판단결과, 현재 피부색영역이 마지막 피부색영역인 경우 현재 피부색영역을 배경으로 검출하고(931 단계), 마지막 피부색영역이 아닌 경우 피부색영역 번호를 1 증가시켜(923 단계) 다음 피부색영역에 대하여 상기 917 단계를 반복수행한다.
925 및 927 단계에서는 919 단계에서의 판단결과, 현재 피부색영역이 사람후보영역에 해당하는 경우 현재 피부색영역이 사람인지를 판단하고, 판단결과 사람에 해당하는 경우 현재 피부색영역을 사람으로 검출하고(929 단계), 사람에 해당하지 않는 경우 현재 피부색영역을 배경으로 검출한다(931 단계).
상술한 바와 같은 본 발명에 따른 사람검출방법 및 장치는 공공장소에서의 보안 감시시스템, 방송 및 화상통신, 로봇에서의 화자 검출 및 가전기기의 지능화된 인터페이스 등에 적용될 수 있다. 예를 들면, 로봇이 사람이 검출된 쪽으로 향하도록 제어하거나, 에어컨과 같은 가전기기에 있어서 사람이 검출된 쪽으로 바람의 방향 및/또는 세기를 제어할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
상술한 바와 같이 본 발명에 따르면, 실내에서 이동카메라에 의해 촬상된 영상으로부터 피부색정보를 이용하여 복수개의 사람후보영역을 검출한 다음, 검출된 사람후보영역에 대하여 사람의 형태정보를 이용하여 사람을 판별함으로써 하나의 프레임영상에 포함된 다수의 사람을 보다 정확하고 빠르게 검출할 수 있다. 또한, 본 발명에 따른 사람검출방법 및 장치는 포즈의 변화 및 조명의 변화에 대하여 강인하게 사람을 검출할 수 있는 장점이 있다.
본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (18)

  1. (a) 촬상되어 입력되는 프레임영상으로부터 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출하는 단계;
    (b) 상기 각 피부색영역이 사람후보영역에 해당하는지를 판단하는 단계; 및
    (c) 상기 (b) 단계에서 사람후보영역으로 판단된 각 피부색영역이 사람인지를 사람의 형태정보를 이용하여 판단하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  2. 제1 항에 있어서, 상기 (a) 단계는
    (a1) 상기 프레임영상의 각 화소의 색상을 정규화시키는 단계;
    (a2) 상기 정규화된 프레임영상에 대하여 가우시안 모델링을 수행하여 피부색과 유사한 화소들을 강조하는 단계;
    (a3) 상기 강조된 피부색과 유사한 화소들 중 소정의 문턱치 이상인 계조값을 갖는 화소들에 대하여 라벨링을 수행하여 적어도 하나 이상의 피부색영역을 검출하고, 각 피부색영역별로 크기 및 무게중심 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  3. 제2 항에 있어서, 상기 (a) 단계는 상기 (a1) 단계 이전에 상기 프레임영상에 대하여 히스토그램 등화를 수행하여 상기 프레임 영상의 R, G, B 히스토그램을 평활화시키는 단계를 더 포함하는 것을 특징으로 하는 사람검출방법.
  4. 제2 항에 있어서, 상기 (a1) 단계는 다음 수학식
    Figure 112003045502249-pat00011
    (여기서, r, g, b는 정규화된 색신호, R, G, B는 입력되는 프레임 영상의 색신호를 나타냄)에 의하여 정규화를 수행하는 것을 특징으로 하는 사람검출방법.
  5. 제2 항에 있어서, 상기 (a2) 단계는 다음 수학식
    Figure 112003045502249-pat00012
    (여기서, mr, mg은 복수개의 피부색 모델의 색상 r 및 g의 평균, σrg는 색상 r 및 g의 표준편차를 나타냄)에 의하여 가우시안 모델링을 수행하는 것을 특징으로 하는 사람검출방법.
  6. 제1 항에 있어서, 상기 (b) 단계는
    (b1) 상기 (a) 단계에서 검출된 각 피부색영역의 크기를 소정 크기로 정규화하는 단계; 및
    (b2) 상기 정규화된 각 피부색영역이 사람후보영역인지를 판단하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  7. 제6 항에 있어서, 상기 (b2) 단계에서는 마하라노비스 거리 맵을 이용하여 각 피부색영역이 사람후보영역인지를 판단하는 것을 특징으로 하는 사람검출방법.
  8. 제7 항에 있어서, 상기 (b2) 단계에서 상기 마하라노비스 거리 맵은
    (b21) 상기 정규화된 영상의 가로 및 세로를 M과 N으로 분할하여 M×N개의 블럭을 구성하는 단계;
    (b22) 다음 수학식
    Figure 112003045502249-pat00013
    (여기서, p, q는 각각 블럭의 가로방향 및 세로방향 화소수를 나타내며, Xl은 전체 블록, x는 하나의 블록내에 포함된 화소값들을 나타냄)을 이용하여 각 블 럭의 평균을 구하는 단계;
    (b23) 다음 수학식
    Figure 112003045502249-pat00014
    을 이용하여 블럭의 분산을 구하는 단계; 및
    (b24) 상기 각 블럭의 평균과 각 블럭의 분산을 이용하여 마하라노비스 거리(d(i,j)) 및 (M×N)×(M×N) 매트릭스 형태의 마하라노비스 거리 맵(D)을 다음 수학식
    Figure 112003045502249-pat00015
    Figure 112003045502249-pat00016
    을 이용하여 구하는 단계로 이루어지는 것을 특징으로 하는 사람검출방법.
  9. 제1 항에 있어서, 상기 (c) 단계에서는
    (c1) 사람후보영역에 대하여 에지영상을 구성하는 단계;
    (c2) 모델영상의 에지영상과 상기 (c1) 단계에서 구성된 에지영상간의 유사도를 측정하는 단계; 및
    (c3) 상기 측정된 유사도에 의해 상기 사람후보영역이 사람인지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  10. 제9 항에 있어서, 상기 유사도는 하우스도프 거리에 의해 측정되는 것을 특징으로 하는 사람검출방법.
  11. 제10 항에 있어서, 입력된 에지영상(A)이 m개의 에지로 이루어지고, 임의의 모델영상(B)이 n개의 에지로 이루어지는 경우, 상기 하우스도프 거리(H(A,B))는 다음 수학식
    Figure 112003045502249-pat00017
    여기서,
    Figure 112003045502249-pat00018
    ,
    Figure 112003045502249-pat00019
    에 의해 구해지는 것을 특징으로 하는 사람검출방법.
  12. 제9 항에 있어서, 상기 모델영상은 정면모델영상, 좌측모델영상과 우측모델영상 중 적어도 하나 이상으로 이루어지는 것을 특징으로 하는 사람검출방법.
  13. 제1 항 내지 제12 항 중 어느 한 항에 기재된 방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  14. 촬상되어 입력되는 프레임영상으로부터 피부색정보를 이용하여 적어도 하나 이상의 피부색영역을 검출하는 피부색 검출부;
    상기 피부색 검출부에서 검출된 각 피부색영역이 사람후보영역에 해당하는지를 판단하는 후보영역 판단부; 및
    사람의 형태정보를 이용하여 상기 후보영역 판단부에서 사람후보영역으로 판단된 각 피부색영역이 사람인지를 판단하는 사람판단부를 포함하는 것을 특징으로 하는 사람검출장치.
  15. 제14 항에 있어서, 상기 피부색 검출부는
    상기 프레임영상의 각 화소의 색상을 정규화시키는 색상정규화부;
    상기 정규화된 프레임영상에 대하여 가우시안 모델링을 수행하여 피부색과 유사한 화소들을 강조하는 모델링부; 및
    상기 강조된 피부색과 유사한 화소들 중 소정의 문턱치 이상인 계조값을 갖는 화소들에 대하여 라벨링을 수행하여 적어도 하나 이상의 피부색영역을 검출하고, 각 피부색영역별로 크기 및 무게중심 정보를 생성하는 라벨링부를 포함하는 것을 특징으로 하는 사람검출장치.
  16. 제14 항에 있어서, 상기 후보영역 판단부에서는 상기 피부색 검출부에서 검출된 각 피부색영역을 소정 크기로 정규화한 다음, 마하라노비스 거리 맵을 이용하여 각 피부색영역이 사람후보영역인지를 판단하는 것을 특징으로 하는 사람검출장치.
  17. 제14 항에 있어서, 상기 사람 판단부에서는
    사람후보영역에 대하여 에지영상을 구성하는 에지영상 구성부;
    모델영상의 에지영상을 저장하는 모델영상 저장부;
    상기 모델영상의 에지영상과 상기 구성된 에지영상간의 하우스도프 거리에 의해 유사도를 측정하는 유사도 측정부; 및
    상기 측정된 유사도에 의해 상기 사람후보영역이 사람인지 여부를 판단하는 판단부를 포함하는 것을 특징으로 하는 사람검출장치.
  18. 제17 항에 있어서, 상기 모델영상은 정면모델영상, 좌측모델영상과 우측모델영상 중 적어도 하나 이상으로 이루어지는 것을 특징으로 하는 사람검출장치.
KR1020030085828A 2003-11-28 2003-11-28 비젼기반 사람 검출방법 및 장치 KR100543706B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020030085828A KR100543706B1 (ko) 2003-11-28 2003-11-28 비젼기반 사람 검출방법 및 장치
US10/998,150 US20050152582A1 (en) 2003-11-28 2004-11-29 Multiple person detection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030085828A KR100543706B1 (ko) 2003-11-28 2003-11-28 비젼기반 사람 검출방법 및 장치

Publications (2)

Publication Number Publication Date
KR20050052657A KR20050052657A (ko) 2005-06-03
KR100543706B1 true KR100543706B1 (ko) 2006-01-20

Family

ID=34737853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030085828A KR100543706B1 (ko) 2003-11-28 2003-11-28 비젼기반 사람 검출방법 및 장치

Country Status (2)

Country Link
US (1) US20050152582A1 (ko)
KR (1) KR100543706B1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
KR100862341B1 (ko) * 2006-11-13 2008-10-13 삼성전기주식회사 사람의 피부 영역 검출장치 및 그 방법
ITVA20060079A1 (it) * 2006-12-19 2008-06-20 St Microelectronics Srl Metodo di classificazione cromatica di pixel e metodo di miglioramento adattativo di un'immagine a colori
US20100322300A1 (en) * 2008-03-18 2010-12-23 Zhen Li Method and apparatus for adaptive feature of interest color model parameters estimation
KR101607569B1 (ko) * 2009-07-14 2016-03-30 엘지이노텍 주식회사 인물 검출 장치 및 그 방법
US9191551B2 (en) 2012-02-24 2015-11-17 Apple Inc. Pixel normalization
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
CN105096347B (zh) * 2014-04-24 2017-09-08 富士通株式会社 图像处理装置和方法
KR101981039B1 (ko) * 2014-12-01 2019-08-28 한화정밀기계 주식회사 히스토그램을 이용한 영상 처리 방법 및 그 장치

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB8710737D0 (en) * 1987-05-06 1987-06-10 British Telecomm Video image encoding
US5710833A (en) * 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
JP3276547B2 (ja) * 1995-12-01 2002-04-22 シャープ株式会社 画像認識方法
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP2000293687A (ja) * 1999-02-02 2000-10-20 Minolta Co Ltd 3次元形状データ処理装置および3次元形状データ処理方法
US6643400B1 (en) * 1999-03-31 2003-11-04 Minolta Co., Ltd. Image processing apparatus and method for recognizing specific pattern and recording medium having image processing program recorded thereon
KR100343223B1 (ko) * 1999-12-07 2002-07-10 윤종용 화자 위치 검출 장치 및 그 방법
WO2002013141A1 (en) * 2000-08-09 2002-02-14 Dynamic Digital Depth Research Pty Ltd Image conversion and encoding techniques
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image
US7142602B2 (en) * 2003-05-21 2006-11-28 Mitsubishi Electric Research Laboratories, Inc. Method for segmenting 3D objects from compressed videos
EP1639522B1 (en) * 2003-06-30 2007-08-15 HONDA MOTOR CO., Ltd. System and method for face recognition

Also Published As

Publication number Publication date
KR20050052657A (ko) 2005-06-03
US20050152582A1 (en) 2005-07-14

Similar Documents

Publication Publication Date Title
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
JP4216668B2 (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
KR100601933B1 (ko) 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US8374440B2 (en) Image processing method and apparatus
US7957560B2 (en) Unusual action detector and abnormal action detecting method
US20150193649A1 (en) Enhanced face detection using depth information
JP2003030667A (ja) イメージ内で目を自動的に位置決めする方法
US20060083423A1 (en) Method and apparatus for object normalization using object classification
CN104813339A (zh) 用于检测视频中的对象的方法、设备和系统
KR101414670B1 (ko) 온라인 랜덤 포레스트 및 파티클 필터를 이용한 열 영상에서의 객체 추적 방법
KR102406804B1 (ko) 딥러닝 기반 영상 내 객체 자동 검출 방법 및 시스템
CN109460719A (zh) 一种电力作业安全识别方法
Xiang et al. Moving object detection and shadow removing under changing illumination condition
US20220366570A1 (en) Object tracking device and object tracking method
KR100543706B1 (ko) 비젼기반 사람 검출방법 및 장치
US20040131236A1 (en) Method and apparatus for processing an image
CN107886060A (zh) 基于视频的行人自动检测与跟踪方法
CN109740527B (zh) 一种视频帧中图像处理方法
JP6893812B2 (ja) 物体検出装置
KR101985869B1 (ko) 형태학적 특징 기반 모델을 이용한 농축산물 도난 감시 장치 및 방법
CN115995097A (zh) 一种基于深度学习的安全头盔佩戴标准判断方法
JP2019066909A (ja) 物体分布推定装置
CN110363162B (zh) 一种聚焦关键区域的深度学习目标检测方法
JP5047115B2 (ja) 移動物体追跡装置
JP6851246B2 (ja) 物体検出装置

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121210

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131217

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee