KR20120007850A - 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 - Google Patents

부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 Download PDF

Info

Publication number
KR20120007850A
KR20120007850A KR1020100068612A KR20100068612A KR20120007850A KR 20120007850 A KR20120007850 A KR 20120007850A KR 1020100068612 A KR1020100068612 A KR 1020100068612A KR 20100068612 A KR20100068612 A KR 20100068612A KR 20120007850 A KR20120007850 A KR 20120007850A
Authority
KR
South Korea
Prior art keywords
pattern
image frame
area
region
current image
Prior art date
Application number
KR1020100068612A
Other languages
English (en)
Other versions
KR101139930B1 (ko
Inventor
백준기
김태경
임재현
이승원
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020100068612A priority Critical patent/KR101139930B1/ko
Publication of KR20120007850A publication Critical patent/KR20120007850A/ko
Application granted granted Critical
Publication of KR101139930B1 publication Critical patent/KR101139930B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

부분 템플릿 매칭 기반의 객체 식별 장치 및 방법이 개시된다. 배경영상 생성부는 입력영상을 구성하는 복수의 영상프레임으로부터 움직임을 검출하여 반복적으로 갱신함으로써 각각의 영상프레임에 대응하는 배경영상을 생성한다. 객체영역 검출부는 복수의 영상프레임 중에서 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임에 대하여 생성된 배경영상과 현재 영상프레임 간의 차분에 의해 현재 영상프레임으로부터 객체영역을 검출한다. 객체영역 분할부는 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할한다. 객체 식별부는 각각의 부분영역을 사전에 저장된 패턴영역이 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 객체영역에 포함된 객체를 식별한다. 본 발명에 따르면, 영상프레임으로부터 검출된 객체영역을 복수의 부분영역으로 분할하고, 복수의 패턴영역 중에서 부분영역과 유사한 최종 견본패턴을 포함하고 있는 패턴영역을 선택하여 객체영역에 포함된 객체가 목표 객체에 해당하는지 여부를 판단하므로, 많은 수의 패턴을 사용하지 않고 감소된 계산량과 빠른 속도로 영상프레임으로부터 객체를 검출할 수 있다.

Description

부분 템플릿 매칭 기반의 객체 식별 장치 및 방법{Apparatus and method for object recognition based on part-template matching}
본 발명은 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법에 관한 것으로, 보다 상세하게는, 영상프레임으로부터 검출된 객체를 식별하기 위해 사전에 저장된 템플릿과 매칭시키되, 객체영역을 분할하여 각 부분을 템플릿 매칭하는 장치 및 방법에 관한 것이다.
디지털 비디오 카메라 및 컴퓨터의 최근 발전에 불구하고, 비디오 감시 시스템은 여전히 사람의 주관적인 결정에 의존하고 있다. 이러한 상황에서 완전한 지능 감시 시스템은 사람의 결정을 지원하고 결국 사람의 영향을 대체하는 데 중요한 역할을 수행할 수 있다. 이를 위해 지능 감시 시스템은 사람을 다른 객체와 구분하고 개개인의 사람을 충분한 정도의 신뢰도로 인식할 수 있어야 한다.
보행자 검출, 얼굴 검출, 얼굴 인식 및 객체의 움직임 검출과 같은 지능 감시 시스템의 발전은 사람을 검출하고 인식하기 위한 강력한 기술이 될 수 있다. 사람 행동의 유사성, 자세의 변화, 의상의 변화, 조도 변화 및 배경 조건 때문에 사람 인식은 여전히 어려운 도전 과제에 해당한다.
현재 사용되는 형태 기반의 사람 인식 방법은 사람의 패턴을 만들기 위해 많은 견본영상을 필요로 한다. 그 결과 사전에 특정된 객체 패턴만을 인식할 수 있다는 문제가 있다. 한편, 템플릿 매칭 기반의 방법은 더 많은 계산량을 요구하며, 사람 템플릿과 유사한 복수의 객체를 식별할 수 없다. 이러한 문제점들을 극복하기 위한 새로운 사람 인식 기법의 필요성이 제기된다.
본 발명이 이루고자 하는 기술적 과제는, 계산량을 감소시키면서 빠르고 정확하게 입력영상으로부터 목표 객체를 검출할 수 있는 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 계산량을 감소시키면서 빠르고 정확하게 입력영상으로부터 목표 객체를 검출할 수 있는 부분 템플릿 매칭 기반의 객체 식별 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치는, 입력영상을 구성하는 복수의 영상프레임으로부터 움직임을 검출하여 반복적으로 갱신함으로써 상기 각각의 영상프레임에 대응하는 배경영상을 생성하는 배경영상 생성부; 상기 복수의 영상프레임 중에서 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임에 대하여 생성된 배경영상과 상기 현재 영상프레임 간의 차분에 의해 상기 현재 영상프레임으로부터 객체영역을 검출하는 객체영역 검출부; 상기 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할하는 객체영역 분할부; 및 상기 각각의 부분영역을 사전에 저장된 패턴영역이 상기 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 상기 객체영역에 포함된 객체를 식별하는 객체 식별부;를 구비한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치는, 입력영상을 구성하는 복수의 영상프레임으로부터 움직임을 검출하여 반복적으로 갱신함으로써 상기 각각의 영상프레임에 대응하는 배경영상을 생성하는 배경영상 생성단계; 상기 복수의 영상프레임 중에서 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임에 대하여 생성된 배경영상과 상기 현재 영상프레임 간의 차분에 의해 상기 현재 영상프레임으로부터 객체영역을 검출하는 객체영역 검출단계; 상기 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할하는 객체영역 분할단계; 및 상기 각각의 부분영역을 사전에 저장된 패턴영역이 상기 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 상기 객체영역에 포함된 객체를 식별하는 객체 식별단계;를 갖는다.
본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법에 의하면, 영상프레임으로부터 검출된 객체영역을 복수의 부분영역으로 분할하고, 복수의 패턴영역 중에서 부분영역과 유사한 최종 견본패턴을 포함하고 있는 패턴영역을 선택하여 객체영역에 포함된 객체가 목표 객체에 해당하는지 여부를 판단하므로, 많은 수의 패턴을 사용하지 않고 감소된 계산량과 빠른 속도로 영상프레임으로부터 객체를 검출할 수 있다.
도 1은 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치에 대한 바람직한 실시예의 구성을 도시한 블록도,
도 2는 패턴영역 및 객체영역을 분할하는 일 실시예를 설명하기 위한 도면,
도 3은 객체 식별을 위해 사전에 저장된 복수의 패턴영역을 나타낸 도면,
도 4는 도 2에 도시된 패턴영역 내지 객체영역을 데이터 구조로 나타낸 도면,
도 5는 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도,
도 6은 세 개의 테스트 영상을 나타낸 도면,
도 7은 도 6의 (a)의 테스트 영상에 대하여 본 발명을 적용한 결과를 나타낸 도면,
도 8은 도 6의 (b)의 테스트 영상에 대하여 본 발명을 적용한 결과를 나타낸 도면,
도 9는 도 6의 (c)의 테스트 영상에 대하여 본 발명을 적용한 결과를 나타낸 도면,
도 10a 내지 도 10c는 각각 세 개의 테스트 영상에 대하여 객체 추적에 의해 산출된 유사도를 연속하는 영상프레임에 대하여 도시한 그래프,
도 11a 내지 도 11c는 각각의 테스트 영상으로부터 사람#1 내지 사람#3을 검출하기 위해 사용된 패턴영역을 나타낸 도면, 그리고,
도 12a 내지 도 12c는 각각의 테스트 영상에 대하여 검출된 객체와 패턴 사이의 매칭률 분포를 도시한 그래프이다.
이하에서 첨부된 도면들을 참조하여 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치에 대한 바람직한 실시예의 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명에 따른 객체 식별 장치는 배경영상 생성부(110), 객체영역 검출부(120), 객체영역 분할부(130) 및 객체 식별부(140)를 구비한다.
배경영상 생성부(110)는 복수의 영상프레임 중에서 현재 영상프레임 및 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임 사이의 움직임을 검출하여 현재 영상프레임에 대응하는 배경영상을 생성한다.
입력영상은 고정된 촬영영역을 지속적으로 촬영함으로써 촬영영역 내에서 움직이는 객체, 대표적으로 사람을 검출하기 위해 얻어진다. 이때 입력영상을 구성하는 복수의 영상프레임에서 배경에 해당하는 부분에서는 움직임이 검출되지 않으며, 움직이는 객체에 해당하는 부분에서만 움직임이 검출된다. 따라서 영상프레임으로부터 움직임이 검출되는 부분에는 객체가 존재하는 것으로 판단할 수 있고, 나아가 검출된 객체가 목표 객체에 해당하는지 여부를 판단하기 위해 사전에 저장된 견본패턴과의 매칭을 수행하여 검출된 객체를 식별하게 된다.
배경영상 생성부(110)는 복수의 영상프레임으로부터 객체를 검출하기 위해 먼저 배경영상을 생성한다. 배경영상은 입력영상의 최초 영상프레임으로부터 생성된 배경영상이 연속하는 복수의 영상프레임 사이의 움직임 추정에 의해 반복적으로 갱신되면서 적응적으로 생성되며, 영상프레임 사이의 움직임 추정은 광류 흐름에 의해 이루어질 수 있다. 예를 들어 복수의 영상프레임 중에서 현재 영상프레임에 대응하는 배경영상을 생성하고자 하는 경우에는 이전 영상프레임과 현재 영상프레임 사이에서 추정된 광류 흐름이 사용된다. 즉, 이전 영상프레임과 현재 영상프레임 사이의 광류 흐름 추정은 다음의 수학식 1로 표현되는 유클리디안 거리를 최소화함으로써 수행된다.
Figure pat00001
여기서, It는 현재 영상프레임, It -1은 이전 영상프레임, (ux, uy)는 이전 영상프레임 및 현재 영상프레임의 각 화소, (dx, dy)는 (ux, uy) 위치에서의 화소의 이동, 그리고 w는 인접 이동(neighboring displacement)을 나타낸다.
배경영상 생성부(110)는 수학식 1에 의해 산출된 이전 영상프레임과 현재 영상프레임 사이의 유클리디안 거리가 사전에 설정된 기준거리보다 작으면 이전 영상프레임에 대하여 최종적으로 생성된 배경영상을 w 값에 대응하여 갱신한다. 기준거리는 실험에 의해 설정되며, 일 실시예로서 1.0으로 설정될 수 있다. 현재 영상프레임에 대응하는 배경영상은 다음의 수학식 2에 의해 이전 영상프레임에 대응하는 배경영상을 갱신함으로써 생성된다.
Figure pat00002
여기서, Bt(x,y)는 현재 영상프레임에 대응하는 배경영상, Bt - 1(x,y)는 이전 영상프레임에 대응하는 배경영상, 그리고 α는 이전에 생성된 배경영상 Bt -1(x,y)과 현재 영상프레임 It(x,y) 간의 밝기 변화를 고려하여 결정되는 파라미터로서, 0과 1 사이의 값으로 설정된다.
객체영역 검출부(120)는 현재 영상프레임에 대응하는 배경영상과 현재 영상프레임 간의 차분에 의해 현재 영상프레임으로부터 객체영역을 검출한다.
영상프레임에서의 객체 검출은 배경에 해당하는 부분을 영상프레임으로부터 제외시킴으로써 수행될 수 있다. 즉, 객체영역 검출부(120)는 다음의 수학식 3에 의해 현재 영상프레임으로부터 객체영역을 검출한다.
Figure pat00003
여기서, T는 객체영역 검출을 위해 설정되는 임계값이며, DIt(x,y)는 현재 영상프레임으로부터 검출된 객체영역을 나타낸 것으로, DIt(x,y)의 값이 1인 화소들로 이루어진 영역이 객체영역으로 검출된다. 또한 모폴로지 연산(morphological operation)에 의해 객체영역 검출의 정확도를 높이고 노이즈 제거의 효과를 얻을 수 있다.
객체영역 분할부(130)는 현재 영상프레임으로부터 검출된 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할한다.
검출된 객체영역에 포함되어 있는 객체가 목표 객체에 해당하는지 여부를 확인하기 위해서는 목표 객체의 다양한 형상을 나타낸 견본패턴을 사용한다. 검출된 객체영역과 견본패턴 간의 매칭을 통해 객체영역과 견본패턴이 사전에 설정된 기준 이상으로 유사한 것으로 나타나면 해당 객체영역은 목표 객체에 해당하는 것으로 판단되어 이후의 추적과정 등이 수행된다.
그런데 앞에서도 언급한 바와 같이 객체영역에 대한 정확한 객체 식별을 위해서는 많은 수의 견본패턴이 필요하다. 예를 들어 목표 객체가 사람인 경우에 견본패턴은 사람을 다양한 방향에서 바라본 형상 및 사람이 취하고 있는 다양한 행동을 나타내는 형상 등을 모두 표현할 수 있도록 가능한 한 많은 개수로 사전에 저장되어 있어야 한다. 그런데 견본패턴의 수가 많아질수록 객체영역과의 패턴 매칭에 소요되는 계산량 및 처리시간이 증가하게 되므로 본 발명에 따른 객체 식별 장치가 적용되는 추적 장치 등의 성능이 저하될 우려가 있다. 따라서 본 발명에 따른 객체 식별 장치에서는 적은 수의 견본패턴을 사용하여 객체를 정확하게 식별할 수 있도록 객체의 일부 형상만을 포함하는 견본패턴을 사전에 저장하고, 객체영역을 분할하여 각각의 부분영역을 대응하는 견본패턴과 매칭하는 방법을 사용한다.
목표 객체가 사람인 경우에 객체영역에 포함된 객체가 사람의 형상에 해당하는지 여부를 판단하기 위해서는 객체영역을 상하의 두 개의 부분영역으로 분할할 수 있다. 즉, 사람 형상에서 머리와 어깨 부분을 포함하는 제1영역 및 나머지 부분에 해당하는 제2영역으로 분할하여 각각의 영역을 견본패턴과 매칭한다. 따라서 객체영역을 분할할 때에는 일반적으로 사람의 형상에서 제1영역에 해당하는 부분의 높이와 제2영역에 해당하는 부분의 높이 사이의 비를 기초로 객체영역을 상하로 분할하게 된다.
객체영역이 분할되어 생성된 부분영역과의 패턴 매칭의 대상이 되는 견본패턴 역시 사람의 전체 형상을 포함하는 패턴영역이 객체영역의 분할기준과 동일한 기준에 의해 분할되어 생성된다. 따라서 목표 객체가 사람인 경우에는 다양한 사람의 형상을 포함하는 복수의 패턴영역이 머리 및 어깨 부분을 포함하는 제1영역 및 나머지 부분을 포함하는 제2영역으로 분할됨에 따라 생성되는 복수의 견본패턴이 사전에 저장되어 객체 식별에 사용된다. 이하에서는 목표 객체가 사람인 경우를 본 발명의 대표적인 실시예로 하여 상세하게 설명한다.
도 2는 패턴영역 및 객체영역을 분할하는 일 실시예를 설명하기 위한 도면이다. 도 2의 (a)는 분할되기 전의 전체 영역을 나타내며, (b)는 견본패턴을 생성하기 위한 패턴영역, (c)에서 사각형으로 표시된 영역은 영상프레임으로부터 검출되는 객체영역을 나타낸다. 그리고 (d)에서 사각형으로 표시된 영역은 머리와 어깨 부분을 포함하는 제1영역, (e)에서 사각형으로 표시된 영역은 머리 및 어깨를 제외한 나머지 부분을 포함하는 제2영역을 나타낸다. 패턴영역과 객체영역에서 제1영역과 제2영역의 분할은 동일하게 이루어진다. 그러나 패턴영역 및 객체영역의 분할기준은 도 2를 참조하여 설명한 것에 한정되지 않으며, 사용자의 설정에 따라 다양하게 결정될 수 있다. 또한 연산의 편의를 위해서 객체영역이 분할되어 생성되는 부분영역 및 패턴영역이 분할되어 생성되는 견본패턴은 직사각형의 형태가 되도록 하는 것이 바람직하다.
도 3은 객체의 식별을 위해 사전에 저장된 복수의 패턴영역의 예를 나타낸 도면이다. 도 3을 참조하면, 각각의 패턴영역은 다양한 동작을 취하고 있는 사람의 형상을 포함하고 있으며, 이들은 앞에서 설명한 것과 같은 분할기준에 의해 각각 복수의 견본패턴으로 분할된다.
객체 식별부(140)는 각각의 부분영역을 사전에 저장된 패턴영역이 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 객체영역에 포함된 객체를 식별한다.
앞에서 설명한 바와 같이 본 발명에 따른 객체 식별 장치는 현재 영상프레임으로부터 검출된 객체영역과 사전에 저장된 패턴영역을 전체로서 매칭하여 객체를 식별하는 것이 아닌 객체영역 및 패턴영역을 동일한 분할기준에 의해 분할한 후 매칭함으로써 객체를 식별하는 방법을 사용한다. 이와 같이 함으로써 적은 수의 패턴영역을 사용하여 더 많은 목표 객체를 영상프레임으로부터 식별할 수 있다. 다만, 객체영역 또는 패턴영역을 지나치게 많은 수의 부분영역 또는 견본패턴으로 분할하게 되면 사전에 저장된 패턴영역의 수가 많을 때와 동일한 문제가 발생하게 되므로 적절한 수로 분할하는 것이 바람직하다.
객체영역과 패턴영역은 동일한 분할기준에 의해 분할되므로 객체 식별부(140)는 각각의 부분영역을 객체영역 내의 부분영역의 위치에 대응하는 견본패턴과 대비하여 객체를 식별한다. 예를 들면, 객체영역이 분할된 부분영역들 중에서 상측의 부분영역, 즉 앞에서 설명하였던 제1영역에 해당하는 부분영역에 대해 패턴 매칭을 수행하고자 하는 경우에는 패턴영역이 분할된 견본패턴들 중에서 동일한 제1영역에 해당하는 견본패턴을 선택하는 것이다.
도 4는 도 2에 도시된 패턴영역 내지 객체영역을 데이터 구조로 나타낸 도면이다. 도 4를 참조하면, 가장 바깥쪽의 사각형이 패턴영역, 사람의 형상 전체를 감싸고 있는 내부 사각형이 객체영역, 그리고 사람의 형상을 상하로 분할한 두 개의 영역이 각각 제1영역 및 제2영역이다. 우측의 숫자는 각각의 영역에 대응하는 값으로 구성된 데이터 구조이다. 이러한 데이터 구조를 사용하여 객체영역이 분할된 부분영역과 패턴영역이 분할된 견본패턴 사이의 패턴 매칭이 이루어지게 된다.
먼저 객체 식별부(140)는 분할된 영역 간의 매칭을 수행하기 이전에 복수의 패턴영역 중에서 객체영역과의 비교 대상이 될 패턴영역을 선택하는 과정을 수행한다. 패턴영역의 선택은 다음의 수학식 4와 같은 객체영역과 패턴영역 간의 크기 비교에 의해 이루어진다.
Figure pat00004
여기서, Rg는 객체영역의 크기, Pi는 i번째 패턴영역의 크기, T는 사전에 설정된 기준값이며, Sg는 각각의 패턴영역에 대응하여 산출되는 값으로, 객체영역과 패턴영역 간의 크기 유사도에 따라 다른 값을 가진다.
즉, 객체영역과 패턴영역 간의 크기 차가 기준값 이하이면 해당 패턴영역에 대한 Sg의 값은 1로 산출되고, 그렇지 않은 경우에는 Sg의 값이 0으로 산출된다. 객체 식별부(140)는 복수의 패턴영역 중에서 Sg의 값이 1인 패턴영역을 선택하여 객체영역과의 패턴 매칭 대상으로 결정한다. 만약 패턴영역들 중에 Sg의 값이 1인 패턴영역이 존재하지 않는다면 현재 검출된 객체영역에는 목표 객체가 포함되어 있지 않은 것으로 판단한 후 식별 과정을 종료할 수 있다. 이와 같이 모든 패턴영역과 객체영역을 대비하지 않고 1차적인 기준으로서 객체영역과 유사한 크기를 가지는 패턴영역만을 선택하여 패턴 매칭을 수행함으로써 계산량을 현저히 감소시킬 수 있다.
다음으로 객체 식별부(140)는 각각의 부분영역을 사전에 저장된 견본패턴과 대비하여 객체영역에 포함된 객체를 식별한다. 이상에서 설명한 실시예와 같이 객체영역 및 패턴영역이 상하의 제1영역 및 제2영역으로 각각 분할되는 경우, 객체 식별부(140)는 먼저 객체영역에서 제1영역에 해당하는 부분영역을 선택된 패턴영역에서 제1영역에 해당하는 견본패턴과 대비한다.
패턴 매칭의 대상이 되는 견본패턴이 복수이면 견본패턴들 중에서 부분영역과 가장 유사한 것으로 판단되는 견본패턴을 객체영역에 포함된 객체의 형상을 포함하고 있는 것으로 간주되는 최종 견본패턴으로 결정하고, 최종 견본패턴이 포함된 패턴영역을 객체영역에 포함된 객체를 식별하기 위한 최종 패턴으로 결정한다. 그 결과 객체영역과 패턴영역의 일부만 일치하는 경우에도 객체영역에 포함된 객체가 패턴영역에 포함된 목표 객체에 해당하는 것으로 판단되므로 기존의 방법에 비해 적은 수의 패턴을 사용하여 객체를 식별할 수 있다.
먼저 제1영역에 해당하는 부분영역에 대한 최종 견본패턴의 결정은 다음의 수학식 5와 같이 부분영역을 구성하는 각 화소와 견본패턴을 구성하는 각 화소 간의 절대차 합(Sum of Absolute Difference : SAD)을 산출함으로써 이루어진다.
Figure pat00005
여기서, Pi(x,y)는 패턴영역, Rh(x,y)는 객체영역에서 제1영역에 해당하는 부분영역, w는 제1영역의 너비, 그리고 hs는 제1영역의 높이이다.
객체 식별부(140)는 수학식 5에 의해 각각의 견본패턴에 대한 SADh 값을 산출한 후 SADh 값이 최대인 견본패턴을 부분영역에 대응하는 최종 견본패턴으로 결정한다. 그에 따라 최종 견본패턴을 포함하는 패턴영역이 최종 패턴으로 결정된다.
다음으로는 객체영역에서 제2영역에 해당하는 부분영역과 패턴영역에서 제2영역에 해당하는 견본패턴 사이의 SAD 값을 다음의 수학식 6에 의해 산출한다.
Figure pat00006
여기서, Pi(x,y)는 패턴영역, Rb(x,y)는 객체영역에서 제2영역에 해당하는 부분영역, w는 제2영역의 너비, 그리고 b는 제2영역의 높이이다. 본 명세서에서 설명하는 본 발명의 대표적인 실시예에서 객체영역 및 패턴영역은 상하의 영역으로 각각 분할되므로 제1영역과 제2영역의 너비는 동일하다.
객체 식별부(140)는 제1영역에 해당하는 부분영역에 대한 최종 견본패턴을 결정하였던 것과 마찬가지로 제2영역에 해당하는 견본패턴들 중에서 수학식 6에 의해 산출되는 SADb 값이 최대인 견본패턴을 제2영역에 해당하는 부분영역에 대한 최종 견본패턴으로 결정하며, 해당 최종 견본패턴을 포함하는 패턴영역을 최종 패턴으로 결정하여 객체의 식별에 사용한다.
객체영역이 분할되어 생성된 모든 부분영역에 대응하는 최종 견본패턴 및 그에 따라 최종 패턴이 결정되면, 객체 식별부(140)는 객체영역에 포함된 객체가 최종 패턴에 포함된 목표 객체인 것으로 판단하여 객체영역에 포함된 객체를 식별하게 된다.
이상에서 설명한 바와 같이 본 발명에 따른 객체 식별 장치는 영상프레임으로부터 검출된 객체영역을 복수의 부분영역으로 분할하고, 복수의 패턴영역 중에서 부분영역과 유사한 최종 견본패턴을 포함하고 있는 패턴영역을 선택하여 객체영역에 포함된 객체가 목표 객체에 해당하는지 여부를 판단하므로, 많은 수의 패턴을 사용하지 않고 감소된 계산량과 빠른 속도로 영상프레임으로부터 객체를 검출할 수 있다.
도 5는 본 발명에 따른 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이다.
도 5를 참조하면, 배경영상 생성부(110)는 입력영상을 구성하는 복수의 영상프레임 중에서 이전 영상프레임과 현재 영상프레임 사이의 움직임을 검출하여 현재 영상프레임에 대응하는 배경영상을 생성한다(S510). 다음으로 객체영역 검출부(120)는 현재 영상프레임에 대응하는 배경영상과 현재 영상프레임 간의 차분에 의해 현재 영상프레임으로부터 객체영역을 검출한다(S520).
객체영역 분할부(130)는 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할하고(S530), 객체식별부(140)는 각각의 부분영역을 사전에 설정된 패턴영역이 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 객체영역에 포함된 객체를 식별한다(S540). 부분영역과 견본패턴 간의 패턴 매칭에 관하여는 이상에서 설명하였으므로 상세한 설명은 생략한다.
본 발명의 성능을 평가하기 위한 실험을 수행하였다. 실험에는 PETS 2001 데이터셋을 포함하여 세 개의 테스트 영상을 사용하였다. 도 6에 세 개의 테스트 영상을 나타내었다. 이하에서는 도 6의 (a)에 나타난 테스트 영상의 명칭을 '축구장' 영상, (b)의 테스트 영상은 '주차장' 영상, 그리고 (c)의 테스트 영상은 'PETS 2001' 영상으로 각각 정의하여 실험 결과를 설명한다. 세 개의 테스트 영상은 모두 320×240의 동일한 해상도를 가진다.
본 발명의 성능 평가를 위한 척도로서 유사도(similarity)와 매칭률(matching ratio)를 산출하였으며, 객체 추적의 정확도는 본 발명을 사용하여 검출된 객체와 사용자에 의해 수동으로 지정된 객체의 중심(centroid) 사이의 유클리디안 거리에 의해 측정되었다. 두 객체의 중심 사이의 유클리디안 거리는 다음의 수학식 7에 의해 산출되며, 객체 추적의 정확도는 산출된 유클리디안 거리에 반비례한다.
Figure pat00007
Figure pat00008
,
Figure pat00009
,
Figure pat00010
,
Figure pat00011
여기서, (xi, yi)(i=0,1,…,N-1)는 수동으로 지정된 객체 내부의 화소들을 나타내며, (
Figure pat00012
,
Figure pat00013
)(j=0,1,…,S-1)는 검출된 객체 내부의 화소들을 나타낸다.
도 7 내지 도 9는 도 6의 테스트 영상에 대하여 본 발명을 적용한 결과를 나타낸 도면이다.
먼저 도 7은 도 6의 (a)의 '축구장' 영상에 대한 테스트 결과로서, 도 7의 (a)는 '축구장' 테스트 영상의 67번째, 91번째, 94번째 및 123번째 영상프레임을 나타낸 것이고, (b)는 배경영상 생성부(110)에 의해 생성된 배경영상, (c)는 객체영역 검출부(120)에 의해 검출된 객체영역, 그리고 (d)는 목표 객체의 검출 및 추적 결과를 나타낸다.
또한 도 8은 도 6의 (b)의 '주차장' 영상에 대한 테스트 결과로서, 도 8의 (a)는 '주차장' 테스트 영상의 219번째, 533번째, 1267번째 및 2016번재 영상프레임을 나타낸 것, (b)는 배경영상, (c)는 검출된 객체영역, 그리고 (d)는 목표객체의 검출 및 추적 결과를 나타낸다.
마지막으로 도 9는 도 6의 (c)의 'PETS 2001' 영상에 대한 테스트 결과로서, 도 9의 (a)는 'PETS 2001' 테스트 영상의 332번째, 629번째, 1433번째 및 2218번째 영상프레임을 나타낸 것, (b)는 배경영상, (c)는 검출된 객체영역, 그리고 (d)는 목표객체의 검출 및 추적 결과를 나타낸다.
도 7 내지 도 9를 참조하면, 본 발명에 따른 객체 식별 장치에 의해 영상프레임 내에 포함된 복수의 객체를 모두 식별할 수 있으며, 나아가 각각의 객체의 이동경로까지도 추적할 수 있음을 확인할 수 있다.
또한 도 10a 내지 도 10c는 각각 세 개의 테스트 영상에 대하여 객체 추적에 의해 산출된 유사도를 연속하는 영상프레임에 대하여 도시한 그래프이다. 본 발명을 사용하여 얻어진 유사도는 지상검증자료와 대비되어 도시되었다. 그래프에 표시된 사람#1 내지 사람#3는 서로 다른 객체를 식별하기 위한 표시이다. 도 7 및 도 8에서는 복수의 영상프레임에 걸쳐서 검출된 객체의 위치가 서로 겹쳐지는 부분이 존재하므로 도 10a 및 도 10b에서와 같이 유사도 그래프가 교차하는 지점이 나타난다. 그러나 도 9의 테스트 영상에서는 영상프레임 사이에서 객체가 겹쳐지는 부분이 일부에만 존재하므로 도 10c의 그래프와 같이 유사도 그래프의 교차가 거의 나타나지 않으며, 본 발명에 의해 얻어진 그래프와 지상검증자료의 그래프가 거의 동일하게 나타나는 것을 확인할 수 있다.
도 11a 내지 도 11c는 각각의 테스트 영상으로부터 사람#1 내지 사람#3을 검출하기 위해 사용된 패턴영역을 나타낸 도면이고, 다음의 표 1은 사용된 패턴영역의 수를 나타낸 것이다.
테스트 영상 사람#1 사람#2 사람#3
축구장 52 26 25
주차장 99 99 75
PETS 2001 61 46 28
객체영역에 포함된 사람의 식별은 검출된 사람과 대응하는 패턴 사이의 매칭률을 사용하여 이루어진다. 매칭률을 산출하기 위한 임계값으로는 0.1이 사용되었다. 도 12a 내지 도 12c는 각각의 테스트 영상에 대하여 검출된 객체와 패턴 사이의 매칭률 분포를 도시한 그래프이다. 도 12a 내지 도 12c에서 'unknown'으로 표시된 지점은 해당 객체로 식별되지 못하였음을 나타내는 것, 즉 에러를 나타낸다.
먼저 도 12a를 참조하면 사람#1에 대한 매칭 에러는 임계값 이하로 나타나지만, 사람#2 및 사람#3에 대한 매칭 에러는 임계값을 초과한다. 한편, 도 12b를 참조하면 사람#1 내지 사람#3에 대한 매칭 에러는 모두 임계값 이하로 나타나며, 도 12c를 참조하면 사람#1 내지 사람#3에 대한 매칭 에러가 모두 동일한 범위 내에 분포한다. 이는 사람#1 내지 사람#3이 특정한 영상프레임으로부터 식별될 수 있음을 의미한다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
110 - 배경영상 생성부
120 - 객체영역 검출부
130 - 객체영역 분할부
140 - 객체 식별부

Claims (11)

  1. 입력영상을 구성하는 복수의 영상프레임 중에서 현재 영상프레임 및 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임 사이의 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경영상을 생성하는 배경영상 생성부;
    상기 현재 영상프레임에 대응하는 배경영상과 상기 현재 영상프레임 간의 차분에 의해 상기 현재 영상프레임으로부터 객체영역을 검출하는 객체영역 검출부;
    상기 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할하는 객체영역 분할부; 및
    상기 각각의 부분영역을 사전에 저장된 패턴영역이 상기 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 상기 객체영역에 포함된 객체를 식별하는 객체 식별부;를 포함하는 것을 특징으로 하는 객체 식별 장치.
  2. 제 1항에 있어서,
    상기 객체 식별부는 사전에 저장된 복수의 패턴영역 중에서 상기 객체영역과의 크기의 차가 사전에 설정된 기준값 이하인 패턴영역으로부터 분할된 견본패턴을 선택하여 상기 객체를 식별하는 것을 특징으로 하는 객체 식별 장치.
  3. 제 1항 또는 제 2항에 있어서,
    상기 객체 식별부는 사전에 저장된 복수의 패턴영역으로부터 분할된 복수의 견본패턴 중에서 상기 부분영역을 구성하는 각 화소와의 절대차의 합(Sum of Absolute Difference : SAD)이 최대인 견본패턴을 최종 견본패턴으로 결정하고, 상기 최종 견본패턴이 포함된 패턴영역을 상기 객체영역에 포함된 객체를 식별하기 위한 최종 패턴으로 결정하는 것을 특징으로 하는 객체 식별 장치.
  4. 제 1항 또는 제 2항에 있어서,
    상기 패턴영역은 사람의 형상을 포함하며, 상기 견본패턴은 상기 패턴영역을 상기 사람 형상의 머리 및 어깨 부분이 포함된 제1영역 및 상기 제1영역을 제외한 제2영역으로 분할함으로써 생성된 것을 특징으로 하는 객체 식별 장치.
  5. 제 1항 또는 제 2항에 있어서,
    상기 배경영상 생성부는 상기 이전 영상프레임과 상기 현재 영상프레임 사이의 광류 흐름을 기초로 산출된 유클리디안 거리가 사전에 설정된 기준거리보다 작으면 상기 이전 영상프레임에 대응하여 생성된 배경영상을 하기 수학식에 의해 갱신하여 상기 현재 영상프레임에 대응하는 배경영상을 생성하는 것을 특징으로 하는 객체 식별 장치:
    Figure pat00014

    여기서, Bt(x,y)는 상기 현재 영상프레임에 대응하여 생성되는 배경영상, Bt -1(x,y)는 상기 이전 영상프레임에 대응하여 생성된 배경영상, It(x,y)는 상기 현재 영상프레임, 그리고 α는 0과 1 사이의 값으로 설정되는 파라미터이다.
  6. 입력영상을 구성하는 복수의 영상프레임 중에서 현재 영상프레임 및 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임 사이의 움직임을 검출하여 상기 현재 영상프레임에 대응하는 배경영상을 생성하는 배경영상 생성단계;
    상기 현재 영상프레임에 대응하는 배경영상과 상기 현재 영상프레임 간의 차분에 의해 상기 현재 영상프레임으로부터 객체영역을 검출하는 객체영역 검출단계;
    상기 객체영역을 사전에 설정된 분할기준에 의해 복수의 부분영역으로 분할하는 객체영역 분할단계; 및
    상기 각각의 부분영역을 사전에 저장된 패턴영역이 상기 분할기준에 의해 분할되어 생성된 복수의 견본패턴과 매칭하여 상기 객체영역에 포함된 객체를 식별하는 객체 식별단계;를 포함하는 것을 특징으로 하는 객체 식별 방법.
  7. 제 6항에 있어서,
    상기 객체 식별단계에서, 사전에 저장된 복수의 패턴영역 중에서 상기 객체영역과의 크기의 차가 사전에 설정된 기준값 이하인 패턴영역으로부터 분할된 견본패턴을 선택하여 상기 객체를 식별하는 것을 특징으로 하는 객체 식별 방법.
  8. 제 6항 또는 제 7항에 있어서,
    상기 객체 식별단계에서, 사전에 저장된 복수의 패턴영역으로부터 분할된 복수의 견본패턴 중에서 상기 부분영역을 구성하는 각 화소와의 절대차의 합(Sum of Absolute Difference : SAD)이 최대인 견본패턴을 최종 견본패턴으로 결정하고, 상기 최종 견본패턴이 포함된 패턴영역을 상기 객체영역에 포함된 객체를 식별하기 위한 최종 패턴으로 결정하는 것을 특징으로 하는 객체 식별 방법.
  9. 제 6항 또는 제 7항에 있어서,
    상기 패턴영역은 사람의 형상을 포함하며, 상기 견본패턴은 상기 패턴영역을 상기 사람 형상의 머리 및 어깨 부분이 포함된 제1영역 및 상기 제1영역을 제외한 제2영역으로 분할함으로써 생성된 것을 특징으로 하는 객체 식별 방법.
  10. 제 6항 또는 제 7항에 있어서,
    상기 배경영상 생성단계에서, 상기 이전 영상프레임과 상기 현재 영상프레임 사이의 광류 흐름을 기초로 산출된 유클리디안 거리가 사전에 설정된 기준거리보다 작으면 상기 이전 영상프레임에 대응하여 생성된 배경영상을 하기 수학식에 의해 갱신하여 상기 현재 영상프레임에 대응하는 배경영상을 생성하는 것을 특징으로 하는 객체 식별 방법:
    Figure pat00015

    여기서, Bt(x,y)는 상기 현재 영상프레임에 대응하여 생성되는 배경영상, Bt -1(x,y)는 상기 이전 영상프레임에 대응하여 생성된 배경영상, It(x,y)는 상기 현재 영상프레임, 그리고 α는 0과 1 사이의 값으로 설정되는 파라미터이다.
  11. 제 6항 또는 제 7항에 기재된 객체 식별 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020100068612A 2010-07-15 2010-07-15 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 KR101139930B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100068612A KR101139930B1 (ko) 2010-07-15 2010-07-15 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100068612A KR101139930B1 (ko) 2010-07-15 2010-07-15 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120007850A true KR20120007850A (ko) 2012-01-25
KR101139930B1 KR101139930B1 (ko) 2012-04-30

Family

ID=45613045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100068612A KR101139930B1 (ko) 2010-07-15 2010-07-15 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101139930B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428574B1 (ko) * 2012-02-17 2014-09-25 경북대학교 산학협력단 영역 검출 장치 및 방법
KR101469099B1 (ko) * 2013-03-19 2014-12-04 주식회사 일리시스 사람 객체 추적을 통한 자동 카메라 보정 방법
CN107205137A (zh) * 2017-07-07 2017-09-26 广东中星电子有限公司 一种监控识别方法和装置
KR20180046798A (ko) * 2016-10-28 2018-05-09 삼성에스디에스 주식회사 실시간 교통 정보 제공 방법 및 장치
KR102147187B1 (ko) * 2019-12-03 2020-08-24 네오컨버전스 주식회사 딥러닝 기반 동영상에서 연속적으로 개인정보를 비식별화하기 위한 방법 및 장치
KR20210060411A (ko) * 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
CN112884797A (zh) * 2021-02-02 2021-06-01 武汉钢铁有限公司 一种图像的背景去除方法、装置及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100515193B1 (ko) * 2003-08-13 2005-09-16 강동중 다중 템플릿을 이용한 영상 자동분할 시스템 및 방법
KR100703528B1 (ko) * 2004-12-09 2007-04-03 삼성전자주식회사 영상 인식 장치 및 방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101428574B1 (ko) * 2012-02-17 2014-09-25 경북대학교 산학협력단 영역 검출 장치 및 방법
KR101469099B1 (ko) * 2013-03-19 2014-12-04 주식회사 일리시스 사람 객체 추적을 통한 자동 카메라 보정 방법
KR20180046798A (ko) * 2016-10-28 2018-05-09 삼성에스디에스 주식회사 실시간 교통 정보 제공 방법 및 장치
KR20210060411A (ko) * 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
CN107205137A (zh) * 2017-07-07 2017-09-26 广东中星电子有限公司 一种监控识别方法和装置
KR102147187B1 (ko) * 2019-12-03 2020-08-24 네오컨버전스 주식회사 딥러닝 기반 동영상에서 연속적으로 개인정보를 비식별화하기 위한 방법 및 장치
WO2021112273A1 (ko) * 2019-12-03 2021-06-10 네오컨버전스 주식회사 딥러닝 기반 동영상에서 연속적으로 개인정보를 비식별화하기 위한 방법 및 장치
CN112884797A (zh) * 2021-02-02 2021-06-01 武汉钢铁有限公司 一种图像的背景去除方法、装置及电子设备
CN112884797B (zh) * 2021-02-02 2023-12-08 武汉钢铁有限公司 一种图像的背景去除方法、装置及电子设备

Also Published As

Publication number Publication date
KR101139930B1 (ko) 2012-04-30

Similar Documents

Publication Publication Date Title
US10417503B2 (en) Image processing apparatus and image processing method
US11468660B2 (en) Pixel-level based micro-feature extraction
CN109076198B (zh) 基于视频的对象跟踪遮挡检测系统、方法和设备
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
KR101139930B1 (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
US9524562B2 (en) Object tracking method and device
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
US11049259B2 (en) Image tracking method
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
US10157327B2 (en) Image processing device, image processing method, and program
JP5925557B2 (ja) 画像照合装置
JP6624877B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10762372B2 (en) Image processing apparatus and control method therefor
Fradi et al. Spatio-temporal crowd density model in a human detection and tracking framework
JP5371040B2 (ja) 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP2013210845A (ja) 移動物体照合装置
US20170053172A1 (en) Image processing apparatus, and image processing method
KR100994367B1 (ko) 영상 추적 장치의 이동표적 움직임 추적 방법
JP2003006654A (ja) 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体
CN111986231A (zh) 一种多目标跟踪方法及系统
JP6504711B2 (ja) 画像処理装置
JP2003032544A (ja) シーン内容情報付加装置及びシーン内容情報付加方法
VÁPENíK et al. Object tracking in multicamera systems
JP6789676B2 (ja) 画像処理装置、画像処理方法およびプログラム
Führ et al. Robust patch-based pedestrian tracking using monocular calibrated cameras

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170327

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20200309

Year of fee payment: 9