KR100601933B1 - 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템 - Google Patents

사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템 Download PDF

Info

Publication number
KR100601933B1
KR100601933B1 KR1020030081885A KR20030081885A KR100601933B1 KR 100601933 B1 KR100601933 B1 KR 100601933B1 KR 1020030081885 A KR1020030081885 A KR 1020030081885A KR 20030081885 A KR20030081885 A KR 20030081885A KR 100601933 B1 KR100601933 B1 KR 100601933B1
Authority
KR
South Korea
Prior art keywords
person
image
motion
detected
area
Prior art date
Application number
KR1020030081885A
Other languages
English (en)
Other versions
KR20050048062A (ko
Inventor
박찬민
윤상민
김상룡
김동관
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020030081885A priority Critical patent/KR100601933B1/ko
Priority to US10/991,077 priority patent/US20050152579A1/en
Publication of KR20050048062A publication Critical patent/KR20050048062A/ko
Application granted granted Critical
Publication of KR100601933B1 publication Critical patent/KR100601933B1/ko
Priority to US12/656,064 priority patent/US20100183227A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates

Abstract

사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템이 개시된다. 사생활 보호시스템은 프레임간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 움직임영역 검출부; 상기 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 사람 검출 및 추적부;상기 사람으로 검출되거나 추적된 움직임영역에서 얼굴을 검출하고, 디스플레이하기 위하여 검출된 얼굴을 모자이크처리하는 모자이크처리부; 및 상기 사람으로 검출되거나 추적된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 저장부를 포함한다.

Description

사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템 {Method and apparatus of human detection and privacy protection method and system employing the same}
도 1은 본 발명에 따른 사생활 보호시스템의 일실시예의 구성을 나타내는 블록도,
도 2는 도 1에 있어서 움직임영역 검출부의 세부적인 구성을 나타내는 블럭도,
도 3a 내지 도 3c는 도 2에 있어서 각 부에 입력되는 영상의 예를 나타낸 도면,
도 4는 도 1의 사람검출 및 추적부에 있어서 사람검출을 위한 세부적인 구성을 나타내는 블럭도,
도 5는 도 4에 있어서 정규화부의 동작을 설명하는 도면,
도 6은 도 4에 있어서 후보영역 검출부의 동작을 설명하는 도면,
도 7은 도 1에 있어서 사람판별부의 세부적인 구성을 나타내는 블럭도,
도 8a 내지 도 8c는 도 7에 있어서 각 부에 입력되는 영상의 예를 나타낸 도면, 및
도 9는 도 1의 사람검출 및 추적부에 있어서 사람추적을 위한 방법을 설명하 는 도면이다.
본 발명은 객체 검출에 관한 것으로서, 보다 구체적으로는 입력되는 영상으로부터 사람의 위치를 정확하고 빠르게 검출하기 위한 방법 및 장치와 검출된 사람의 얼굴을 모자이크처리하여 디스플레이시킴으로써 개인의 사생활을 보호하기 위한 방법 및 시스템에 관한 것이다.
사회가 복잡해지고 범죄가 지능화되어감에 따라 보안에 대한 사회적 관심이 증가하고 있으며, 이러한 범죄를 예방하기 위해서 공공장소에 보안용 감시카메라의 설치가 지속적으로 증가하고 있는 추세이다. 그런데, 많은 수의 감시카메라를 사람이 직접 관리하기에는 무리가 있기 때문에 자동적으로 사람을 검출할 수 있는 시스템의 필요성이 대두되고 있다. 근래 들어 사람이 직접 작업하기 어려운 곳이나 가정에서의 단순한 노동을 대신 처리해 줄 수 있는 시스템으로 로봇이 각광받고 있다. 이러한 로봇의 기능은 현재 단순한 반복 작업을 수행하는 정도이며, 로봇이 보다 지능적인 작업을 사람 대신 수행하기 위한 첫번째 조건은 로봇을 사용하는 사람과의 상호작용이다. 원활한 상호작용을 위하여 로봇은 사용자의 위치를 파악할 필요가 있으며, 사용자의 명령에 따라서 움직이게 된다.
기존의 대부분의 얼굴검출장치에서는 일반적으로 배경영상을 저장한 다음, 입력영상으로부터 배경영상을 뺀 차영상을 이용하여 물체의 움직임을 검출하는 방 법을 사용하거나, 사람의 형태정보만을 이용하여 실내 또는 실외에서 사람의 위치를 파악하였다. 입력영상과 배경영상간의 차영상을 이용하는 방법은 카메라가 고정되어 있는 경우에는 매우 효율적이지만, 카메라가 계속 움직이는 경우에는 배경영상이 계속 바뀌기 때문에 매우 비효율적인 단점이 있다. 한편, 사람의 형태정보를 이용하는 방법은 복수개의 사람형태와 비슷한 모델영상을 이용하여 사람을 검출함에 있어서 영상 전체에 대하여 모델영상을 매칭시켜 사람의 위치를 검출하기 때문에 시간이 많이 소요되는 단점이 있다.
상기한 기술적 측면과는 별개로 사회적 측면으로는 무분별한 보안용 감시카메라의 설치로 인하여 개인의 사생활이 침해되는 문제가 제기되고 있다. 이에 따라서 사람들의 사생활을 보호함과 동시에, 프레임별로 검출된 사람을 저장하고, 추후에 문제 발생시 빠르게 검색할 수 있는 시스템이 요구되고 있다.
본 발명이 이루고자 하는 기술적 과제는, 입력되는 영상으로부터 움직임정보와 형태정보를 이용하여 사람의 위치를 정확하고 빠르게 검출하기 위한 방법 및 장치를 제공하는데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 검출된 사람의 얼굴을 모자이크처리하여 디스플레이시킴으로써 개인의 초상권을 보호하기 위한 사생활 보호방법 및 시스템을 제공하는데 있다.
상기 기술적 과제를 이루기 위해, 본 발명에 따른 사람검출방법은 (a) 프레임간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직 임영역을 검출하는 단계; 및 (b) 상기 (a) 단계에서 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 단계를 포함한다.
상기 기술적 과제를 이루기 위해, 본 발명에 따른 사람검출장치는 프레임간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 움직임영역 검출부; 및 상기 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 사람 검출 및 추적부를 포함한다.
상기 다른 기술적 과제를 이루기 위해, 본 발명에 따른 사생활 보호시스템은 프레임간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 움직임영역 검출부; 상기 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 사람 검출 및 추적부; 상기 사람으로 검출되거나 추적된 움직임영역에서 얼굴을 검출하고, 디스플레이하기 위하여 검출된 얼굴을 모자이크처리하는 모자이크처리부; 및 상기 사람으로 검출되거나 추적된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 저장부를 포함한다.
이하, 본 발명에 의한 사생활 보호시스템의 구성 및 동작과, 그 장치에서 수행되는 본 발명에 의한 사람검출방법을 첨부한 도면들을 참조하여 설명하면 다음과 같다.
도 1은 본 발명에 따른 사생활 보호시스템의 구성을 나타내는 블록도로서, 영상입력부(110), 움직임영역 검출부(120), 사람검출 및 추적부(130), 저장부(140), 모자이크 처리부(150), 디스플레이부(160) 및 검색부(170)로 이루어진다.
도 1을 참조하면, 영상입력부(110)는 카메라에 의해 촬상되는 영상을 프레임 단위로 입력받는다. 여기서, 카메라는 바람직하게는 고정 카메라이다.
움직임영역 검출부(120)는 영상입력부(110)로부터 제공되는 현재 프레임영상과 이전 프레임영상간의 움직임정보를 이용하여 움직임이 없는 배경영상을 검출하고, 배경영상과 현재 프레임영상간의 차영상으로부터 적어도 하나 이상의 움직임영역을 검출한다.
사람검출 및 추적부(130)는 움직임영역 검출부(120)로부터 제공되는 각 움직임영역 중 사람후보영역을 검출하고, 검출된 사람후보영역이 실제 사람인지를 판별한다. 한편, 현재 프레임영상에서 사람으로 판별된 움직임영역은 다음 프레임영상에서는 일반적인 검출과정을 거치지 않고 소정의 추적영역을 설정하여, 추적영역에 대한 추적과정에 의해 사람을 검출한다.
저장부(140)는 사람검출 및 추적부(130)에서 사람으로 판별된 움직임영역을 할당된 라벨 및 움직임영역의 위치정보와 함께 프레임별로 저장하고, 다음 프레임영상이 입력되면 사람검출 및 추적부(130)로 제공한다.
모자이크 처리부(150)는 사람검출 및 추적부(130)에서 사람으로 판별된 움직 임영역에서 얼굴을 검출하고, 검출된 얼굴을 모자이크 처리하여 디스플레이부(160)로 제공하여 디스플레이시킨다. 움직임영역에서 얼굴을 검출하는 방법으로는 다양한 방법이 사용될 수 있으며, 일예로는 통상적인 가버필터(Gabor filter) 또는 SVM(Support Vector Machine)을 이용할 수 있다. 가버필터를 이용한 얼굴검출과 관련해서는 Ki chung Chung, Seok Cheol Kee, Sang Ryong Kim에 의한 논문 "Face Recognition Using Principal Component Analysis of Gabor Filter Responses", International Workshop on Recognition, Analysis and Tracking of Faces and Gestures in Real-Time Systems, Sept. 26-27, 1999, Corfu, Greece에, SVM을 이용한 얼굴검출과 관련해서는 E. Osuna, R. Freund, 및 F. Girosi에 의한 논문 "Training Support Vector Machines: an application to face detection", In Proc. of CVPR, Puerto Rico, pp. 130-136, 1997에 자세히 기재되어 있다.
검색부(170)는 저장부(140)에 저장되어 있는 사람으로 판별된 움직임영역을 사용자에 필요에 따라서 검색한다.
도 2는 도 1에 있어서 움직임영역 검출부(120)의 세부적인 구성을 나타낸 블록도로서, 영상변환부(210), 저장부(220), 평균누적영상 생성부(230), 배경영상 검출부(240), 차영상 생성부(250) 및 움직임영역 라벨링부(260)로 이루어진다. 도 2의 각 구성요소의 동작을 도 3a 내지 도 3c를 참조하여 설명하기로 한다.
도 2를 참조하면, 영상변환부(210)에서는 영상입력부(110)로부터 제공되는 도 3a에 도시된 바와 같은 현재 프레임 영상이 칼라영상인 경우 흑백영상으로 변환하고, 흑백영상인 경우 그대로 저장부(220) 및 평균누적영상 생성부(230)로 제공한 다. 흑백영상을 이용하여 사람검출을 수행함으로써 조명에 의한 영향을 줄일 수 있을 뿐 아니라 처리시간을 줄일 수 있다. 저장부(220)는 영상변환부(210)로부터 제공되는 현재 프레임영상을 저장하여 다음 프레임의 평균누적영상을 생성할 때 사용한다.
평균누적영상 생성부(230)에서는 흑백영상으로 변환된 현재 프레임 영상과 저장부(220)에 미리 저장된 이전 프레임 영상간의 평균을 계산하고, 이전 프레임까지 생성된 평균누적영상에 누적시켜 현재 프레임에 대한 평균누적영상을 생성한다. 소정 갯수의 프레임에 대한 평균누적영상에서 움직임이 없는 부분은 계속적으로 동일한 화소값이 누적되며, 움직임이 발생하는 영역은 이전에 누적된 평균값과 새로 입력된 화소값간의 차이에 의해 움직임영역으로 판명된다.
배경영상 검출부(240)에서는 현재 프레임의 평균누적영상에서 현재 프레임까지 동일한 화소값이 계속 누적되는 부분 즉, 소정 개수의 프레임에 걸쳐 실제 화소값에 변동이 없는 부분을 현재 프레임에 대한 배경영상으로 검출한다. 배경영상은 매 프레임마다 갱신되고, 배경영상 검출에 포함된 프레임 수가 많을수록 정확도가 높아진다. 현재 프레임의 배경영상의 예로는 도 3b에 도시된 바와 같다.
차영상 생성부(250)는 배경영상 검출부(240)로부터 제공되는 현재 프레임에 대한 배경영상과 현재 프레임영상에 대하여 화소 단위로 계조값의 차이를 구한다. 구해진 계조값의 차이가 소정 문턱값 이상인 화소들로 차영상을 생성한다. 이와 같이 생성된 차영상은 움직임이 있는 모든 물체를 의미한다. 이때, 문턱값이 작으면 작을수록 작은 움직임이 존재하는 영역도 누락시키지 않고 사람 후보영역으로 검출할 수 있다.
움직임영역 라벨링부(260)에서는 차영상 생성부(250)로부터 제공되는 도 3c에 도시된 바와 같은 차영상에 대하여 라벨링을 수행하고, 라벨링 수행결과 라벨이 설정된 각 움직임영역에 대하여 x축의 시작점과 끝점 좌표값, y축의 시작점과 끝점 좌표값으로 이루어지는 크기정보와, 움직임영역에 포함되는 화소값들의 합으로부터 무게중심의 좌표값을 출력한다.
도 4는 도 1에 있어서 사람 검출 및 추적부(130)의 세부적인 구성을 나타낸 블록도로서, 정규화부(410), 크기 및 무게중심 가변부(430), 후보영역 검출부(450) 및 사람판별부(470)로 이루어진다.
도 4를 참조하면, 정규화부(410)에서는 각 움직임영역별 크기정보와 무게중심정보를 입력으로 하여 각 움직임영역의 크기를 소정 크기로 정규화한다. 이때, 움직임영역의 가로길이보다는 세로길이를 길게 정규화한다. 이를 도 5를 참조하여 설명하면, 임의의 움직임영역에서 x축의 시작점(xsp)으로부터 x축의 끝점(xep)까지의 길이를 x축에 대한 정규화길이(xnorm)로 결정하고, 무게중심의 y축 좌표(ycm)에서부터 y축의 시작점(ysp)까지의 길이(x)를 소정 배수한 길이를 y축에 대한 정규화길이(ynorm)로 결정한다. 여기서, 소정 배수는 2배수인 것이 바람직하다.
크기 및 무게중심 가변부(430)에서는 정규화된 움직임영역의 크기와 무게중심을 가변시키는데, 예를 들어 움직임영역의 크기를 s 개의 단계로 스케일링하고, 무게중심을 t 개의 방향으로 이동시키는 경우 총 s×t 가지의 움직임영역의 변형형 태를 얻을 수 있다. 여기서 움직임영역의 크기는 가변되어질 움직임영역의 정규화길이(xnorm, ynorm)에 따라서 변화하며, 상, 하, 좌, 우 소정 화소씩, 예를 들면 5화소씩 증가 혹은 감소시킬 수 있다. 무게중심은 상, 하, 좌, 우, 대각선방향으로 이동될 수 있으며, 이때 무게중심의 가변폭은 무게중심의 y축 좌표(ycm)에서부터 y축의 시작점(ysp)까지의 길이(x)에 따라서 결정되어질 수 있다. 이와 같이 크기 및 무게중심을 가변시킴으로써 사람의 신체 일부분만 움직임으로 인하여 상반신 또는 하반신이 후보영역에서 제외되는 것을 방지할 수 있다.
후보영역 검출부(450)는 s×t 가지 변형형태의 움직임영역을 소정 화소 단위, 예를 들면 30×40 화소 단위로 정규화한 다음, 각 움직임영역 중 사람 후보영역을 검출한다. 여기서, 각 움직임영역에 대하여 사람 후보영역을 검출하기 위해서는 마하라노비스 거리 맵(mahalanobis distance map)을 이용할 수 있다. 이를 도 6을 참조하여 설명하기로 한다. 먼저, 30×40 화소 단위로 정규화된 영상(610)에 대하여 예를 들어 가로를 6, 세로를 8로 분할하여 총 48개의 블록을 생성한다. 이 경우 하나의 블록은 5×5 화소 단위가 되며, 각 블록(l)의 평균은 다음 수학식 1과 같이 나타낼 수 있다.
Figure 112003043515690-pat00001
여기서, p, q는 각각 블록의 가로방향 및 세로방향 화소수를 나타내며, Xl은 전체 블록, x는 하나의 블록내에 포함된 화소값들을 나타낸다.
한편, 각 블록의 분산은 다음 수학식 2와 같이 나타낼 수 있다.
Figure 112003043515690-pat00002
상기 각 블록의 평균과 각 블록의 분산을 이용하여 마하라노비스 거리(d(i,j)) 및 마하라노비스 거리 맵(D)은 각각 다음 수학식 3 및 4와 같이 나타낼 수 있으며, 이러한 마하라노비스 거리 맵에 의해 정규화된 움직임영역(610)은 도 6의 참조부호 620과 같이 나타낼 수 있다.
Figure 112003043515690-pat00003
Figure 112003043515690-pat00004
여기서, M과 N은 정규화된 움직임영역(610)의 가로 및 세로 분할 수를 나타낸다. 정규화된 움직임영역(610)을 가로 6, 세로 8로 분할할 경우, 마하라노비스 거리 맵(D)은 48×48 의 매트릭스 형태가 된다.
상기한 바와 같이 각 움직임영역의 s×t 가지 형태에 대하여 마하라노비스 거리 맵을 구성하고, 마하라노비스 거리 맵 데이터에 대하여 주성분분석(Principal Component Analysis)를 적용하여 차원을 줄인 다음, 고유얼굴공간(eigenface space)에서 훈련된 SVM(Support Vector Machine)을 이용하여 사람 후보영역에 포함되는지를 판단한다. s×t 가지 형태 중 적어도 하나의 형태가 사람 후보영역에 포함되면, 해당 움직임영역을 사람 후보영역으로 검출한다.
다시 도 4로 돌아가서, 사람 판별부(470)에서는 후보영역 검출부(450)에서 검출된 사람후보영역이 움직이는 다른 물체인지 사람인지를 판별한다. 이를 위하여 하우스도프 거리(hausdorff distance)를 이용할 수 있으며, 도 7을 참조하여 좀 더 구체적으로 설명하기로 한다.
도 7은 사람판별부(470)의 세부적인 구성을 나타내는 블록도로서, 에지영상 구성부(710), 모델영상 저장부(730), 하우스도프 거리 산출부(750) 및 판단부(770)로 이루어진다.
도 7을 참조하면, 에지영상 구성부(710)에서는 정규화된 움직임영역 중 사람후보영역(도 8a)에서 에지를 검출하여 도 8b와 같은 에지영상을 구성한다. 이때, 가로방향과 세로방향의 경사값의 변화 분포를 이용하여 에지를 구하는 소벨 에지(sobel edge)를 이용할 경우 매우 빠르면서도 효율적으로 에지를 검출할 수 있다. 여기서, 에지영상은 에지인 부분과 에지가 아닌 부분이 이진화되어 구성된다.
모델영상 저장부(730)는 적어도 하나 이상의 모델영상의 에지영상을 저장하기 위한 것으로서, 바람직하게는 제1 일정 거리 이상의 원거리에 있는 사람 모델영상의 에지영상과 제2 일정 거리 이하의 근거리에 있는 사람 모델영상의 에지영상을 저장한다. 예를 들어, 도 8c에 도시된 바와 같은 모델영상의 에지영상은 훈련에 사용된 전체 사람영상의 상반신에 대하여 평균영상을 얻은 다음, 평균영상의 에지를 추출하여 구성한 것이다.
하우스도프 거리 산출부(750)에서는 먼저 에지영상 구성부(710)에서 구성된 에지영상과 모델영상 저장부(730)에 저장된 모델영상간의 하우스도프 거리를 산출하여 두 영상간의 유사도를 측정한다. 하우스도프 거리는 에지영상에서 하나의 특징점, 즉 하나의 에지가 모델영상의 모든 특징점 즉, 모든 에지에 대한 유클리디안 거리로 나타낼 수 있다. 입력된 에지영상(A)이 m개의 에지로 이루어지고, 임의의 모델영상(B)이 n개의 에지로 이루어지는 경우, 하우스도프 거리(H(A,B))는 다음 수학식 5와 같이 나타낼 수 있다.
Figure 112003043515690-pat00005
여기서,
Figure 112003043515690-pat00006
,
Figure 112003043515690-pat00007
이다.
h(A,B)는 입력 에지영상(A)의 한 에지와 모델영상(B)의 모든 에지간의 유클리디안 거리 중 최소값을 구하고, 에지영상의 m개의 에지에 대하여 구해진 최소값들 중에서 최대값을 h(A,B)로 생성하고, 이와는 반대로 모델영상(B)의 한 에지와 입력 에지영상(A)의 모든 에지간의 유클리디안 거리 중 최소값을 구하고, 모델영상의 n개의 에지에 대하여 구해진 최소값들 중에서 최대값을 h(B,A)로 생성한다. 한편, H(A,B)는 h(A,B)와 h(B,A) 중 최대값으로 결정한다. 이와 같은 H(A,B)의 값을 살펴보면 두 집합간에 얼마나 많은 미스매칭이 존재하는지를 알 수 있다. 입력 에지영상(A)에 대해서 모델영상 저장부(730)에 저장되어 있는 모든 모델영상, 예를 들면 원거리 모델영상과 근거리 모델영상에 대하여 각각 하우스도프 거리를 산출하고, 그 중 최대값을 최종 하우스도프 거리로 출력한다.
판단부(770)에서는 하우스도프 거리 산출부(750)에서 산출된 에지영상과 모델영상간의 하우스도프 거리(H(A,B))를 소정의 문턱값과 비교하여, 하우스도프 거리(H(A,B))가 문턱값보다 같거나 큰 경우에는 해당 사람후보영역을 사람이 아닌 것으로 판단하고, 하우스도프 거리(H(A,B))가 문턱값보다 작은 경우에는 해당 사람후보영역을 사람인 것으로 판단한다.
도 9는 도 1의 사람검출 및 추적부(120)에 있어서 사람추적을 위한 방법을 설명하는 도면으로서, 할당된 라벨과 함께 저장부(140)에 저장되어 있는 이전 프레임에서 검출된 움직임영역에 대해서는 현재 프레임에서는 별도로 검출과정을 거치지 않고 추적과정을 수행하게 된다. 즉, 이전 프레임에서 검출된 움직임영역을 중심으로 하는 소정의 추적영역(A)을 설정하고, 추적영역(A)에 대해서만 추적과정을 수행한다. 추적과정은 바람직하게는 CONDENSATION(CONditional DENSity propagATION) 알고리즘에 기반한 파티클 필터링(particle filtering) 기법을 사용한다. 파티클 필터링 기법과 관련해서는 Isard, M 및 Blake, A 에 의한 "Visual tracking by stochastic propagation of conditional density", Proc. 4th European Conf. Computer Vision, pp. 343-356, Apr. 1996에 자세히 기재되어 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
이상에서 설명한 바와 같이 본 발명에 따르면, 실내 또는 실외에서 카메라에 의해 촬상된 영상으로부터 프레임간의 움직임정보를 이용하여 복수개의 사람후보영역을 검출한 다음, 검출된 사람후보영역에 대하여 사람의 형태정보를 이용하여 사람을 판별함으로써 하나의 프레임영상에 포함된 다수의 사람을 보다 정확하고 빠르게 검출할 수 있다. 또한, 이전 프레임에서 검출된 사람에 대해서는 현재 프레임에서 별도의 검출과정을 수행하지 않고 소정의 추적영역을 설정하여 추적과정을 수행함으로써 사람검출과 관련된 전체적인 처리시간을 단축시킬 수 있다.
또한, 사람이 검출된 움직임영역을 할당된 프레임번호 및 라벨과 함께 저장하여 필요한 경우 검색할 수 있고, 검출된 사람의 얼굴을 모자이크처리하여 디스플 레이시킴으로써 개인의 초상권을 보호할 수 있다.
한편, 본 발명에 따른 사생활 보호시스템은 지능형 보안 감시시스템뿐만 아니라 방송분야 및 화상통신분야에 널리 적용되어 개인의 초상권을 보호할 수 있도록 한다.
본 발명에 대해 상기 실시예를 참고하여 설명하였으나, 이는 예시적인 것에 불과하며, 본 발명에 속하는 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (29)

  1. (a) 인접하는 프레임영상간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 단계; 및
    (b) 상기 (a) 단계에서 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  2. 제1 항에 있어서, 상기 방법은
    (c) 상기 (b) 단계에서 사람으로 검출되거나 추적된 움직임영역에서 얼굴을 검출하고, 검출된 얼굴을 모자이크처리하여 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 사람검출방법.
  3. 제1 항에 있어서, 상기 방법은
    (d) 상기 (b) 단계에서 사람으로 검출되거나 추적된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 단계를 더 포함하는 것을 특징으로 하는 사람검출방법.
  4. 제1 항에 있어서, 상기 (a) 단계는
    (a1) 적어도 두 개 이상의 프레임 영상들간의 움직임정보로부터 현재 프레임에 대한 배경영상을 검출하는 단계;
    (a2) 상기 검출된 배경영상과 현재 프레임영상 간의 차영상을 생성하는 단계; 및
    (a3) 상기 차영상에 포함된 각 움직임영역에 대하여 라벨링을 수행하여 움직임영역별로 크기 및 무게중심 정보를 생성하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  5. 제4 항에 있어서, 상기 (a2) 단계에서는 상기 배경영상과 상기 현재 프레임영상간의 각 화소값 차이를 소정의 문턱값과 비교하고, 소정의 문턱값 이상인 화소들로 상기 차영상을 생성하는 것을 특징으로 하는 사람검출방법.
  6. 제1 항에 있어서, 상기 (b) 단계는
    (b1) 상기 (a) 단계에서 검출된 각 움직임영역의 크기를 소정 크기로 정규화하는 단계;
    (b2) 상기 정규화된 각 움직임영역 중 사람후보영역을 검출하는 단계; 및
    (b3) 상기 사람후보영역이 실제 사람인지를 판별하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  7. 제6 항에 있어서, 상기 (b) 단계는
    (b4) 상기 (b3) 단계에서 사람으로 판별된 움직임영역에서 얼굴을 검출하고, 검출된 얼굴을 모자이크처리하여 디스플레이하는 단계를 더 포함하는 것을 특징으로 하는 사람검출방법.
  8. 제7 항에 있어서, 상기 (b) 단계는
    (b5) 상기 (b3) 단계에서 사람으로 판별된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 단계를 더 포함하는 것을 특징으로 하는 사람검출방법.
  9. 제6 항에 있어서, 상기 (b2) 단계에서는 상기 정규화된 각 움직임영역의 크기 및 무게중심을 가변시켜 각 움직임영역에 대하여 소정 갯수의 변형형태를 생성 하고, 각 움직임영역의 모든 변형형태에 대하여 사람후보영역인지 여부를 판단하는 것을 특징으로 하는 사람검출방법.
  10. 제6 항에 있어서, 상기 (b2) 단계에서는 마하라노비스 거리 맵과 SVM을 이용하여 사람후보영역을 검출하는 것을 특징으로 하는 사람검출방법.
  11. 제6 항에 있어서, 상기 (b3) 단계에서는
    (b31) 사람후보영역에 대하여 에지영상을 구성하는 단계;
    (b32) 모델영상의 에지영상과 상기 (b31) 단계에서 구성된 에지영상간의 유사도를 측정하는 단계; 및
    (b33) 상기 측정된 유사도에 의해 상기 사람후보영역이 사람인지 여부를 판별하는 단계를 포함하는 것을 특징으로 하는 사람검출방법.
  12. 제11 항에 있어서, 상기 유사도는 하우스도프 거리에 의해 측정되는 것을 특징으로 하는 사람검출방법.
  13. 제11 항에 있어서, 상기 모델영상은 원거리 모델영상과 근거리 모델영상으로 이루어지는 것을 특징으로 하는 사람검출방법.
  14. 제1 항 내지 제13 항 중 어느 한 항에 기재된 사람검출방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  15. 인접하는 프레임영상간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 움직임영역 검출부; 및
    상기 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 사람 검출 및 추적부를 포함하는 것을 특징으로 하는 사람검출장치.
  16. 제15 항에 있어서, 상기 움직임영역 검출부는
    적어도 두 개 이상의 프레임 영상들간의 움직임정보로부터 현재 프레임에 대한 배경영상을 검출하는 배경영상 검출부;
    상기 검출된 배경영상과 현재 프레임영상 간의 차영상을 생성하는 차영상 생성부; 및
    상기 차영상에 포함된 각 움직임영역에 대하여 라벨링을 수행하여 움직임영역별로 크기 및 무게중심 정보를 생성하는 움직임영역 라벨링부를 포함하는 것을 특징으로 하는 사람검출장치.
  17. 제16 항에 있어서, 상기 배경영상 검출부에서는 상기 배경영상과 상기 현재 프레임영상간의 각 화소값 차이를 소정의 문턱값과 비교하고, 소정의 문턱값 이상인 화소들로 상기 차영상을 생성하는 것을 특징으로 하는 사람검출장치.
  18. 제15 항에 있어서, 상기 사람 검출 및 추적부는
    상기 검출된 각 움직임영역의 크기를 소정 크기로 정규화하는 정규화부;
    상기 정규화된 각 움직임영역 중 사람후보영역을 검출하는 후보영역 검출부; 및
    상기 사람후보영역이 실제 사람인지를 판별하는 사람판별부를 포함하는 것을 특징으로 하는 사람검출방법.
  19. 제15 항에 있어서, 상기 사람 검출 및 추적부는 각 움직임영역의 모든 변형형태에 대하여 사람후보영역인지 여부를 판단하도록 상기 정규화된 각 움직임영역의 크기 및 무게중심을 가변시켜 각 움직임영역에 대하여 소정 갯수의 변형형태를 생성하는 크기 및 무게중심 가변부를 더 포함하는 것을 특징으로 하는 사람검출장치.
  20. 제18 항에 있어서, 상기 사람 판별부에서는
    사람후보영역에 대하여 에지영상을 구성하는 에지영상 구성부;
    모델영상의 에지영상을 저장하는 모델영상 저장부;
    상기 모델영상의 에지영상과 상기 구성된 에지영상간의 하우스도프 거리에 의해 에 의해 유사도를 측정하는 유사도 측정부; 및
    상기 측정된 유사도에 의해 상기 사람후보영역이 사람인지 여부를 판단하는 판단부를 포함하는 것을 특징으로 하는 사람검출장치.
  21. 제20 항에 있어서, 상기 모델영상은 원거리 모델영상과 근거리 모델영상으로 이루어지는 것을 특징으로 하는 사람검출장치.
  22. 인접하는 프레임영상간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 검출하는 움직임영역 검출부;
    상기 검출된 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하고, 소정의 추적영역에 대하여 이전 프레임영상에서 사람으로 검출된 움직임영역을 추적하는 사람 검출 및 추적부; 및
    상기 사람으로 검출되거나 추적된 움직임영역에서 얼굴을 검출하고, 디스플레이하기 위하여 검출된 얼굴을 모자이크처리하는 모자이크처리부를 포함하는 것을 특징으로 하는 사생활 보호시스템.
  23. 삭제
  24. 제22 항에 있어서, 상기 시스템은 상기 사람으로 검출되거나 추적된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 저장부를 더 포함하는 것을 특징으로 하는 사생활 보호시스템.
  25. 제24 항에 있어서, 상기 시스템은 상기 라벨을 이용하여 상기 저장부에 저장되어 있는 움직임영역을 검색하는 검색부를 더 포함하는 것을 특징으로 하는 사생활 보호시스템.
  26. 인접하는 프레임영상간의 움직임정보를 이용하여 현재 프레임영상으로부터 적어도 하나 이상의 움직임영역을 구하는 단계;
    상기 구해진 각 움직임영역에 대하여 사람의 형태정보를 이용하여 사람을 검출하는 단계; 및
    상기 사람으로 검출된 움직임영역에서 얼굴을 검출하고, 디스플레이하기 위하여 검출된 얼굴을 모자이크처리하는 단계를 포함하는 것을 특징으로 하는 사생활 보호방법.
  27. 제26 항에 있어서, 상기 방법은 상기 사람으로 검출된 움직임영역을 검색을 위한 소정의 라벨 및 위치정보와 함께 프레임별로 저장하는 단계를 더 포함하는 것을 특징으로 하는 사생활 보호방법.
  28. 제27 항에 있어서, 상기 방법은 상기 라벨을 이용하여 상기 저장되어 있는 움직임영역을 검색하는 단계를 더 포함하는 것을 특징으로 하는 사생활 보호방법.
  29. 제26 항 내지 제29 항 중 어느 한 항에 기재된 사생활 보호방법을 실행할 수 있는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020030081885A 2003-11-18 2003-11-18 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템 KR100601933B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020030081885A KR100601933B1 (ko) 2003-11-18 2003-11-18 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US10/991,077 US20050152579A1 (en) 2003-11-18 2004-11-18 Person detecting apparatus and method and privacy protection system employing the same
US12/656,064 US20100183227A1 (en) 2003-11-18 2010-01-14 Person detecting apparatus and method and privacy protection system employing the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030081885A KR100601933B1 (ko) 2003-11-18 2003-11-18 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20050048062A KR20050048062A (ko) 2005-05-24
KR100601933B1 true KR100601933B1 (ko) 2006-07-14

Family

ID=34737835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030081885A KR100601933B1 (ko) 2003-11-18 2003-11-18 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템

Country Status (2)

Country Link
US (2) US20050152579A1 (ko)
KR (1) KR100601933B1 (ko)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US8345918B2 (en) * 2004-04-14 2013-01-01 L-3 Communications Corporation Active subject privacy imaging
US7386150B2 (en) * 2004-11-12 2008-06-10 Safeview, Inc. Active subject imaging with body identification
TW200634674A (en) * 2005-03-28 2006-10-01 Avermedia Tech Inc Surveillance system having multi-area motion-detection function
US8948461B1 (en) * 2005-04-29 2015-02-03 Hewlett-Packard Development Company, L.P. Method and system for estimating the three dimensional position of an object in a three dimensional physical space
KR100682987B1 (ko) * 2005-12-08 2007-02-15 한국전자통신연구원 선형판별 분석기법을 이용한 3차원 동작인식 장치 및 그방법
KR100729265B1 (ko) * 2006-01-20 2007-06-15 학교법인 대전기독학원 한남대학교 차 영상 방법과 색상정보를 이용한 얼굴 검출 방법
KR100779858B1 (ko) * 2006-05-11 2007-11-27 (주)태광이엔시 물체인식에 의한 영상감시 제어시스템 및 방법
KR100847143B1 (ko) 2006-12-07 2008-07-18 한국전자통신연구원 실시간 동영상의 실루엣 기반 대상체 행동 분석 시스템 및방법
US8610787B2 (en) * 2007-06-22 2013-12-17 Panasonic Corporation Camera device including privacy protection method
JP2010011016A (ja) * 2008-06-26 2010-01-14 Sony Corp 追尾点検出装置および方法、プログラム、並びに記録媒体
JP5330750B2 (ja) * 2008-07-15 2013-10-30 三菱重工業株式会社 個人情報保護装置、個人情報保護方法、プログラム、及び監視システム
AT508624B1 (de) 2009-08-06 2013-03-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
KR101591529B1 (ko) * 2009-11-23 2016-02-03 엘지전자 주식회사 이동 통신 단말기에서의 데이터 처리 방법 및 이를 적용한 이동 통신 단말기
US8306267B1 (en) 2011-05-09 2012-11-06 Google Inc. Object tracking
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
WO2013063736A1 (en) * 2011-10-31 2013-05-10 Hewlett-Packard Development Company, L.P. Temporal face sequences
US20130121529A1 (en) * 2011-11-15 2013-05-16 L-3 Communications Security And Detection Systems, Inc. Millimeter-wave subject surveillance with body characterization for object detection
KR101279561B1 (ko) * 2012-01-19 2013-06-28 광운대학교 산학협력단 깊이정보 기반 고속 고정밀 얼굴 검출 및 추적 방법
US8837788B2 (en) 2012-06-04 2014-09-16 J. Stephen Hudgins Disruption of facial recognition system
US9143741B1 (en) * 2012-08-17 2015-09-22 Kuna Systems Corporation Internet protocol security camera connected light bulb/system
KR101229016B1 (ko) * 2012-11-01 2013-02-01 (주)리얼허브 동영상의 변동 화소 영역 암호화 장치 및 방법
CN103065410A (zh) * 2012-12-21 2013-04-24 深圳和而泰智能控制股份有限公司 入侵检测报警的方法和装置
KR101496407B1 (ko) * 2013-02-27 2015-02-27 충북대학교 산학협력단 보안용 cctv 영상 처리 장치 및 영상 처리 방법
KR101982258B1 (ko) * 2014-09-19 2019-05-24 삼성전자주식회사 오브젝트 검출 방법 및 오브젝트 검출 장치
US9350914B1 (en) 2015-02-11 2016-05-24 Semiconductor Components Industries, Llc Methods of enforcing privacy requests in imaging systems
CN105931407A (zh) * 2016-06-27 2016-09-07 合肥指南针电子科技有限责任公司 一种住户智能防盗系统及方法
CN107995495B (zh) * 2017-11-23 2019-09-24 华中科技大学 一种隐私保护下的视频运动物体轨迹跟踪方法及系统
JP7334536B2 (ja) * 2019-08-22 2023-08-29 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
EP3800615A1 (en) 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
US11653052B2 (en) 2020-10-26 2023-05-16 Genetec Inc. Systems and methods for producing a privacy-protected video clip
WO2023129266A1 (en) * 2021-12-28 2023-07-06 The Adt Security Corporation Video rights management for an in-cabin monitoring system

Family Cites Families (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
GB9308952D0 (en) * 1993-04-30 1993-06-16 Philips Electronics Uk Ltd Tracking objects in video sequences
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
US5835616A (en) * 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
US5539664A (en) * 1994-06-20 1996-07-23 Intel Corporation Process, apparatus, and system for two-dimensional caching to perform motion estimation in video processing
KR100235344B1 (ko) * 1994-12-29 1999-12-15 전주범 영역 분할 부호화 방식의 전경/배경 화상 선택 장치
US5721543A (en) * 1995-06-30 1998-02-24 Iterated Systems, Inc. System and method for modeling discrete data sequences
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
US6462775B1 (en) * 1996-11-21 2002-10-08 Detection Dynamics, Inc. Apparatus within a street lamp for remote surveillance having directional antenna
US5991429A (en) * 1996-12-06 1999-11-23 Coffin; Jeffrey S. Facial recognition system for security access and identification
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
US6188777B1 (en) * 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6173069B1 (en) * 1998-01-09 2001-01-09 Sharp Laboratories Of America, Inc. Method for adapting quantization in video coding using face detection and visual eccentricity weighting
US6061088A (en) * 1998-01-20 2000-05-09 Ncr Corporation System and method for multi-resolution background adaptation
US6400830B1 (en) * 1998-02-06 2002-06-04 Compaq Computer Corporation Technique for tracking objects through a series of images
US6215519B1 (en) * 1998-03-04 2001-04-10 The Trustees Of Columbia University In The City Of New York Combined wide angle and narrow angle imaging system and method for surveillance and monitoring
KR100327103B1 (ko) * 1998-06-03 2002-09-17 한국전자통신연구원 사용자의조력및물체추적에의한영상객체분할방법
US6233007B1 (en) * 1998-06-22 2001-05-15 Lucent Technologies Inc. Method and apparatus for tracking position of a ball in real time
US6141041A (en) * 1998-06-22 2000-10-31 Lucent Technologies Inc. Method and apparatus for determination and visualization of player field coverage in a sporting event
US6404900B1 (en) * 1998-06-22 2002-06-11 Sharp Laboratories Of America, Inc. Method for robust human face tracking in presence of multiple persons
US6275614B1 (en) * 1998-06-26 2001-08-14 Sarnoff Corporation Method and apparatus for block classification and adaptive bit allocation
US6120445A (en) * 1998-10-02 2000-09-19 Scimed Life Systems, Inc. Method and apparatus for adaptive cross-sectional area computation of IVUS objects using their statistical signatures
US7012623B1 (en) * 1999-03-31 2006-03-14 Canon Kabushiki Kaisha Image processing method and apparatus
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6687386B1 (en) * 1999-06-15 2004-02-03 Hitachi Denshi Kabushiki Kaisha Object tracking method and object tracking apparatus
US6658136B1 (en) * 1999-12-06 2003-12-02 Microsoft Corporation System and process for locating and tracking a person or object in a scene using a series of range images
SE518382C2 (sv) * 2000-01-18 2002-10-01 Leif Nyfelt Förfarande vid övervakning av en individs rörelser i byggnader och rum
AU2001247302A1 (en) * 2000-03-10 2001-09-24 Sensormatic Electronics Corporation Method and apparatus for object surveillance with a movable camera
US6697518B2 (en) * 2000-11-17 2004-02-24 Yale University Illumination based image synthesis
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
US6922488B2 (en) * 2001-02-16 2005-07-26 International Business Machines Corporation Method and system for providing application launch by identifying a user via a digital camera, utilizing an edge detection algorithm
EP1260935B1 (en) * 2001-05-22 2006-07-12 Matsushita Electric Industrial Co., Ltd. Face detection device, face pose detection device, partial image extraction device, and methods for said devices
TW505892B (en) * 2001-05-25 2002-10-11 Ind Tech Res Inst System and method for promptly tracking multiple faces
WO2003010728A1 (en) * 2001-07-24 2003-02-06 Koninklijke Kpn N.V. Method and system and data source for processing of image data
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
KR100443678B1 (ko) * 2001-09-29 2004-08-09 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US7006666B2 (en) * 2001-11-21 2006-02-28 Etreppid Technologies, Llc Method and apparatus for detecting and reacting to occurrence of an event
DE10158990C1 (de) * 2001-11-30 2003-04-10 Bosch Gmbh Robert Videoüberwachungssystem
US7688349B2 (en) * 2001-12-07 2010-03-30 International Business Machines Corporation Method of detecting and tracking groups of people
US6937745B2 (en) * 2001-12-31 2005-08-30 Microsoft Corporation Machine vision system and method for estimating and tracking facial pose
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
AU2003234995A1 (en) * 2002-04-25 2003-11-10 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004021495A (ja) * 2002-06-14 2004-01-22 Mitsubishi Electric Corp 監視システムおよび監視方法
JP4036051B2 (ja) * 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
AU2002951473A0 (en) * 2002-09-18 2002-10-03 Canon Kabushiki Kaisha Method for tracking facial features in video sequence
AU2003284186A1 (en) * 2002-10-28 2004-05-25 Morris Steffin Method and apparatus for detection of drownsiness and for monitoring biological processes
JP4318465B2 (ja) * 2002-11-08 2009-08-26 コニカミノルタホールディングス株式会社 人物検出装置および人物検出方法
US6999600B2 (en) * 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
US20050012817A1 (en) * 2003-07-15 2005-01-20 International Business Machines Corporation Selective surveillance system with active sensor management policies
GB2411229B (en) * 2003-07-22 2006-04-12 Hitachi Int Electric Inc Object tracking method and object tracing apparatus
US7248166B2 (en) * 2003-09-29 2007-07-24 Fujifilm Corporation Imaging device, information storage server, article identification apparatus and imaging system
KR100601933B1 (ko) * 2003-11-18 2006-07-14 삼성전자주식회사 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
KR100543706B1 (ko) * 2003-11-28 2006-01-20 삼성전자주식회사 비젼기반 사람 검출방법 및 장치
US7428314B2 (en) * 2003-12-03 2008-09-23 Safehouse International Inc. Monitoring an environment
JP4424031B2 (ja) * 2004-03-30 2010-03-03 株式会社日立製作所 画像生成装置、システムまたは画像合成方法。
US7308112B2 (en) * 2004-05-14 2007-12-11 Honda Motor Co., Ltd. Sign based human-machine interaction
US7516888B1 (en) * 2004-06-21 2009-04-14 Stoplift, Inc. Method and apparatus for auditing transaction activity in retail and other environments using visual recognition
US7631808B2 (en) * 2004-06-21 2009-12-15 Stoplift, Inc. Method and apparatus for detecting suspicious activity using video analysis
KR100612858B1 (ko) * 2004-08-23 2006-08-14 삼성전자주식회사 로봇을 이용하여 사람을 추적하는 방법 및 장치
JP4824411B2 (ja) * 2005-01-20 2011-11-30 パナソニック株式会社 顔抽出装置、半導体集積回路
JP2007241377A (ja) * 2006-03-06 2007-09-20 Sony Corp 検索システム、撮像装置、データ保存装置、情報処理装置、撮像画像処理方法、情報処理方法、プログラム
WO2009006605A2 (en) * 2007-07-03 2009-01-08 Pivotal Vision, Llc Motion-validating remote monitoring system
US8144780B2 (en) * 2007-09-24 2012-03-27 Microsoft Corporation Detecting visual gestural patterns
JP5213105B2 (ja) * 2008-01-17 2013-06-19 株式会社日立製作所 映像ネットワークシステム及び映像データ管理方法
US20110063108A1 (en) * 2009-09-16 2011-03-17 Seiko Epson Corporation Store Surveillance System, Alarm Device, Control Method for a Store Surveillance System, and a Program
JP5488076B2 (ja) * 2010-03-15 2014-05-14 オムロン株式会社 対象物追跡装置、対象物追跡方法、および制御プログラム
US8942964B2 (en) * 2010-06-08 2015-01-27 Southwest Research Institute Optical state estimation and simulation environment for unmanned aerial vehicles
JP2012108785A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 人数カウント装置、人数カウント方法及び人数カウントプログラム

Also Published As

Publication number Publication date
US20050152579A1 (en) 2005-07-14
KR20050048062A (ko) 2005-05-24
US20100183227A1 (en) 2010-07-22

Similar Documents

Publication Publication Date Title
KR100601933B1 (ko) 사람검출방법 및 장치와 이를 이용한 사생활 보호방법 및 시스템
US10909695B2 (en) System and process for detecting, tracking and counting human objects of interest
Heikkila et al. A texture-based method for modeling the background and detecting moving objects
Ahmed et al. A robust features-based person tracker for overhead views in industrial environment
Verma et al. Face detection and tracking in a video by propagating detection probabilities
Dedeoğlu Moving object detection, tracking and classification for smart video surveillance
US7480414B2 (en) Method and apparatus for object normalization using object classification
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
US20060018516A1 (en) Monitoring activity using video information
US20030058341A1 (en) Video based detection of fall-down and other events
Devasena et al. Video surveillance systems-a survey
US10445885B1 (en) Methods and systems for tracking objects in videos and images using a cost matrix
MX2007016406A (es) Deteccion y rastreo de objetivo a partir de flujos de video aereos.
JP5634517B2 (ja) ビデオ映像の監視
US20220391796A1 (en) System and Method for Mapping Risks in a Warehouse Environment
KR101645959B1 (ko) 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법
Kanezaki et al. Fast object detection for robots in a cluttered indoor environment using integral 3D feature table
JP2007134913A (ja) 映像選択方法および映像選択装置
Gasserm et al. Human activities monitoring at bus stops
KR100543706B1 (ko) 비젼기반 사람 검출방법 및 장치
KR20060003321A (ko) 보안 감시 시스템의 물체 인식 장치 및 방법
Kushwaha et al. Rule based human activity recognition for surveillance system
JP4449483B2 (ja) 画像解析装置、および画像解析方法、並びにコンピュータ・プログラム
Gagvani Challenges in video analytics
Hung et al. Real-time counting people in crowded areas by using local empirical templates and density ratios

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140619

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160617

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170619

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180620

Year of fee payment: 13