KR20160108979A - 표적 추적 방법 및 장치 - Google Patents

표적 추적 방법 및 장치 Download PDF

Info

Publication number
KR20160108979A
KR20160108979A KR1020150032514A KR20150032514A KR20160108979A KR 20160108979 A KR20160108979 A KR 20160108979A KR 1020150032514 A KR1020150032514 A KR 1020150032514A KR 20150032514 A KR20150032514 A KR 20150032514A KR 20160108979 A KR20160108979 A KR 20160108979A
Authority
KR
South Korea
Prior art keywords
target
similarity
image
image frame
degree
Prior art date
Application number
KR1020150032514A
Other languages
English (en)
Other versions
KR102374565B1 (ko
Inventor
윤석민
주재용
구본화
김대훈
송태엽
배정민
고한석
Original Assignee
한화테크윈 주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사, 고려대학교 산학협력단 filed Critical 한화테크윈 주식회사
Priority to KR1020150032514A priority Critical patent/KR102374565B1/ko
Publication of KR20160108979A publication Critical patent/KR20160108979A/ko
Application granted granted Critical
Publication of KR102374565B1 publication Critical patent/KR102374565B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • G06K9/00369
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • G06K9/629
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 방법이 개시된다. 이 방법은 단계들 (a) 및 (b)를 포함한다. 단계 (a)에서는, 위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 각각의 표적이 각각의 객체와 연계된다. 단계 (b)에서는, 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 제1 표적과 어느 한 객체와의 연계가 시도된다.

Description

표적 추적 방법 및 장치{Method and apparatus of tracking targets}
본 발명은, 표적 추적 방법 및 장치에 관한 것으로서, 보다 상세하게는, 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 방법 및 장치에 관한 것이다.
현재의 영상 시스템은 복수의 표적들을 개별적으로 추적할 수 있다. 이와 같은 영상 시스템은 감시 시스템, 사용자 행동 인식, 및 스포츠 중계 등에서 유익하게 이용되고 있다.
이와 같은 표적 추적에 있어서, 일괄 추적(batch tracking) 방법과 온라인 추적(online tracking) 방법이 있다.
일괄 추적(batch tracking) 방법은, 녹화되어 있는 동영상에서 과거, 현재 및 미래의 영상 프레임들을 분석하면서 복수의 표적들을 추적하는 방법이다. 이 방법은, 추적 성능이 우수하지만, 연산량이 많고, 라이브-뷰(live-view) 동영상에 적용되기 어렵다.
라이브-뷰 동영상에 적용되는 온라인 추적 방법은, 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 일련의 과정에 의하여 이루어진다.
통상적인 영상 시스템의 온라인 추적에 있어서, 위치 유사도(類似度), 크기 유사도 및 외형적 특징의 유사도에 따라, 각각의 표적이 각각의 객체와 연계된다. 하지만, 객체들의 상호 겹침 등에 의하여 어느 한 표적이 객체와 연계되지 못할 수 있다. 다수의 영상 프레임들에서 연속적으로 연계되지 못한 표적이 있는 경우, 그 표적의 표류(drift) 또는 실종(missing)에 의하여 그 표적의 추적이 불가능해진다.
상기 배경 기술의 문제점은, 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 내용으로서, 반드시 본 발명의 출원 전에 일반 공중에게 공지된 내용이라 할 수는 없다.
대한민국 공개특허 공보 제2012-0120499호 (출원인 : 가부시끼가이샤 도시바, 발명의 명칭 : 이동 물체 추적 시스템 및 이동 물체 추적 방법)
본 발명의 실시예는, 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 방법 및 장치에 있어서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있는 방법 및 장치를 제공하고자 한다.
본 발명의 일 측면에 의하면, 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 방법에 있어서, 단계들 (a) 및 (b)를 포함한다.
상기 단계 (a)에서는, 위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 상기 각각의 표적이 상기 각각의 객체와 연계된다.
상기 단계 (b)에서는, 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계가 시도된다.
바람직하게는, 상기 단계 (a)에서, 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율이 기준 비율을 초과하는 경우, 상기 제2 표적의 가상 객체가 생성됨에 의하여 가상적으로 연계가 유지된다.
바람직하게는, 상기 단계 (a)에서, 위치 유사도, 크기 유사도, 및 외형적 특징의 유사도의 곱셈 결과가 제1 기준 값을 초과하는 표적과 객체가 서로 연계된다. 또한, 상기 단계 (b)에서, 크기 유사도 및 외형적 특징의 유사도의 곱셈 결과가 제2 기준 값을 초과하는 표적과 객체가 서로 연계된다.
바람직하게는, 상기 외형적 특징의 유사도는 SVM(Support Vector Machine)에 의하여 영(0) 또는 일(1)의 값으로서 구해진다. 여기에서, 상기 SVM(Support Vector Machine)에서의 각각의 표적을 갱신하기 위한 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상이 영상 프레임마다 구해진다.
바람직하게는, 어느 한 영상 프레임에서 제1 표적의 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상을 구함에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외된다. 또한, 상기 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 상기 제1 표적의 음성 표본(negative sample) 영상에서 제외된다.
본 발명의 다른 측면에 의하면, 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 장치에 있어서, 제1 연계부 및 제2 연계부를 포함한다.
상기 제1 연계부는 위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 상기 각각의 표적을 상기 각각의 객체와 연계시킨다.
상기 제2 연계부는, 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계를 시도한다.
본 발명의 실시예의 상기 표적 추적 방법 및 장치에 의하면, 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계가 시도된다. 즉, 위치 유사도가 적용되지 않고, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계가 시도된다.
따라서, 상기 제1 표적이 표류(drift) 또는 실종(missing)된 후에 다시 나타난 경우, 상기 제1 표적이 현재 프레임에서의 어느 한 객체와 연계될 확률이 높아진다. 따라서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있다.
더 나아가, 상기 단계 (a)에서, 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율이 기준 비율을 초과하는 경우, 상기 제2 표적의 가상 객체가 생성됨에 의하여 가상적으로 연계가 유지된다. 따라서, 상기 제2 표적의 표류(drift) 또는 실종(missing)이 예방될 수 있는 추가적 효과가 있다.
더 나아가, 어느 한 영상 프레임에서 제1 표적의 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상이 구해짐에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외된다. 또한, 상기 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 상기 제1 표적의 음성 표본(negative sample) 영상에서 제외된다.
따라서, SVM(Support Vector Machine)의 양성 표본 영상들은 종래 기술의 것들에 비하여 보다 정확하게 사용될 수 있고, 음성 표본 영상들은 종래 기술의 것들에 비하여 보다 효율적으로 사용될 수 있다.
도 1은 본 발명의 실시예의 표적 추적 방법 및 장치가 적용될 감시 시스템을 보여주는 도면이다.
도 2는 도 1의 서버 장치에 의하여 실행될 수 있는 본 발명의 실시예의 표적 추적 방법을 보여주는 흐름도이다.
도 3은 도 2의 표적 추적 방법의 효과를 보여주기 위한 도면이다.
도 4는 도 1의 서버 장치에 구비될 수 있는 본 발명의 실시예의 표적 추적 장치를 보여주는 블록도이다.
도 5는 도 4의 SVM(Support Vector Machine)에서 양성 표본(positive sample) 영상들을 구하는 방법을 설명하기 위한 도면이다.
도 6은 도 4의 가상적 연계부의 동작을 설명하기 위한 도면이다.
하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다.
또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.
이하 첨부된 도면들을 참조하여 본 발명의 실시예가 상세히 설명된다.
도 1은 본 발명의 실시예의 표적 추적 방법 및 장치가 적용될 감시 시스템을 보여준다.
도 1에서 참조 부호 DIMA는, 감시 카메라(101)로부터 통신 네트워크(102) 예를 들어, 인터넷에 입력되는 동영상 데이터 신호, 또는 통신 네트워크(102)로부터 클라이언트 단말기들(103a 내지 103m) 각각에 출력되는 동영상 데이터 신호들을 가리킨다.
참조 부호 DCOM은, 감시 카메라(101)와 통신 네트워크(102) 사이의 통신 신호, 또는 통신 네트워크(102)와 클라이언트 단말기들(103a 내지 103m) 각각 사이의 통신 신호들을 가리킨다.
참조 부호 DIMAT는 통신 네트워크(102)로부터 서버 장치(104)에 입력되는 동영상-데이터 신호, 또는 서버 장치(104)로부터 통신 네트워크(102)로 출력되는 동영상-데이터 신호를 가리킨다. 참조 부호 DCOMT는 서버 장치(104)와 통신 네트워크(102) 사이의 통신 신호를 가리킨다.
도 1을 참조하면, 서버 장치(104)는 통신 네트워크(102) 예를 들어, 인터넷을 통하여 감시 카메라(101)와 클라이언트 단말기들(103a 내지 103m)에 연결된다.
감시 카메라(101)는, 서버 장치(104)와 통신하면서, 라이브-뷰(Live-view)의 동영상 데이터 및 이벤트 정보를 서버 장치(104)에게 전송한다. 서버 장치(104)는 동영상 데이터 및 이벤트 정보를 클라이언트 단말기들(103a 내지 103m)에 전송하고, 내부적인 기록 매체에 저장한다.
여기에서, 서버 장치(104)는 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적을 수행한다. 이와 관련된 내용이 도 2 내지 6을 참조하여 상세히 설명될 것이다.
도 2는 도 1의 서버 장치(104)에 의하여 실행될 수 있는 본 발명의 실시예의 표적 추적 방법을 보여준다. 도 2의 표적 추적 방법은 매 프레임 또는 몇 프레임마다 주기적으로 실행될 수 있다. 도 1 및 2를 참조하여 이를 설명하면 다음과 같다.
먼저, 서버 장치(104)는 감시 카메라(101)로부터 입력된 현재 영상 프레임에서 각각의 객체를 검출한다(단계 S201).
다음에, 서버 장치(104)는 위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 각각의 표적을 각각의 객체와 연계시킨다(단계 S202).
본 실시예의 경우, 위치 유사도, 크기 유사도, 및 외형적 특징의 유사도의 곱셈 결과가 제1 기준 값을 초과하는 표적과 객체가 서로 연계된다. i번째 표적을 i, j번째 객체를 j, 그리고 총 유사도를 S(i,j)라 하면, 총 유사도 S(i,j)는 아래의 수학식 1에 의하여 구해질 수 있다.
Figure pat00001
상기 수학식 1에서, Spos(i,j)는 위치 유사도를, Ssize(i,j)는 크기 유사도를, 그리고 Sappr(i,j)는 외형적 특징의 유사도를 각각 가리킨다.
위치 유사도 Spos(i,j)는 아래의 수학식 2에 의하여 구해질 수 있다.
Figure pat00002
상기 수학식 2에서, αx와αy는 정규화를 위한 상수들을, e는 자연 대수를, xi는 과거 영상 프레임에서의 표적의 x-축 좌표를, vi ,x는 표적의 x-축 이동 속도를, t는 시간을 의미하는 프레임 개수를, xj는 현재 영상 프레임에서의 객체의 x-축 좌표를, σx는 x-축 좌표의 분산 값을, yi는 과거 영상 프레임에서의 표적의 y-축 좌표를, vi ,y는 표적의 y-축 이동 속도를, yj는 현재 영상 프레임에서의 객체의 y-축 좌표를, σy는 y-축 좌표의 분산 값을 각각 가리킨다.
크기 유사도 Ssize(i,j)는 아래의 수학식 3에 의하여 구해질 수 있다.
Figure pat00003
상기 수학식 3에서, αh는 정규화를 위한 상수를, hi는 과거 영상 프레임에서의 표적의 높이를, hj는 현재 영상 프레임에서의 객체의 높이를, 그리고 σh는 높이의 분산 값을 각각 가리킨다.
외형적 특징의 유사도 Sappr(i,j)는 아래의 수학식 4에 의하여 구해질 수 있다.
Figure pat00004
상기 수학식 4에서,
Figure pat00005
는 SVM(Support Vector Machine)의 민감도를 조정하기 위한 상수를, fj는 객체의 특징 벡터를, 그리고 ci(fj)는 j번째 표적의 SVM의 출력 값을 각각 가리킨다.
다음에, 서버 장치(104)는 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는지를 판단한다(단계 S203). 여기에서, 제1 표적이란 임의의 어느 한 표적을 의미한다.
설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있으면, 크기 유사도 Ssize(i,j) 및 외형적 특징의 유사도 Sappr(i,j)에 따라 상기 제1 표적과 어느 한 객체와의 연계를 시도한다(단계 S204). 즉, 위치 유사도 Spos(i,j)가 적용되지 않고, 크기 유사도 Ssize(i,j) 및 외형적 특징의 유사도 Sappr(i,j)에 따라 제1 표적과 어느 한 객체와의 연계가 시도된다. 본 실시예의 경우, 크기 유사도 Ssize(i,j) 및 외형적 특징의 유사도 Sappr(i,j)의 곱셈 결과가 제2 기준 값을 초과하는 표적과 객체가 서로 연계된다.
따라서, 제1 표적이 표류(drift) 또는 실종(missing)된 후에 다시 나타난 경우, 제1 표적이 현재 프레임에서의 어느 한 객체와 연계될 확률이 높아진다. 따라서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있다.
다음에, 서버 장치(104)는 SVM(Support Vector Machine)에서의 각각의 표적을 갱신한다(단계 S205). 즉, 서버 장치(104)는, 현재 프레임에서 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상을 구하고, 구해진 표본 영상들에 따라 각각의 표적을 갱신한다.
어느 한 영상 프레임에서 제1 표적의 양성 표본 영상과 음성 표본 영상을 구함에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외된다(도 5 및 그 설명 참조).
또한, 상기 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 상기 제1 표적의 음성 표본(negative sample) 영상에서 제외된다.
따라서, SVM(Support Vector Machine)의 양성 표본 영상들은 종래 기술의 것들에 비하여 보다 정확하게 사용될 수 있고, 음성 표본 영상들은 종래 기술의 것들에 비하여 보다 효율적으로 사용될 수 있다.
다음에, 서버 장치(104)는 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율 즉, 겹쳐짐 비율(Opq)을 추정한다(단계 S206). 여기에서, 제2 표적이란 임의의 어느 한 표적을 의미한다.
다음에, 서버 장치(104)는 상기 겹쳐짐 비율(Opq)이 기준 비율 예를 들어, 80 퍼센트(%)를 초과하는지의 여부를 판단한다(단계 S207).
상기 겹쳐짐 비율(Opq)이 기준 비율을 초과하는 경우, 서버 장치(104)는 상기 제2 표적의 가상 객체 영역을 생성함에 의하여 가상적으로 연계를 유지한다(단계 S208, 도 6 및 그 설명 참조). 따라서, 제2 표적의 표류(drift) 또는 실종(missing)이 예방될 수 있는 추가적 효과가 있다.
도 3은 도 2의 표적 추적 방법의 효과를 보여주기 위한 도면이다. 도 2 및 3을 참조하여 이를 설명하면 다음과 같다.
제1 내지 제3 영상 프레임들(301 내지 303)에서, 단계 S202에 의하여 어느 한 표적이 지속적으로 추적된다. 하지만, 제4 및 제5 영상 프레임들(301 내지 303)에서, 객체들의 상호 겹침 등에 의하여 어느 한 표적이 객체와 연계되지 못하고 있다.
이에 따라, 제6 영상 프레임(306a, 306b) 내지 제8 영상 프레임에서, 단계 S204에 의하여 표류(drift) 또는 실종(missing) 대상의 표적이 가상적으로 연계될 수 있다. 제6 영상 프레임(306a, 306b)이 두 개로 그려진 이유는 단계 S202 뿐만 아니라 단계 S204도 수행됨을 강조하기 위함이다.
따라서, 어느 한 표적이 표류(drift) 또는 실종(missing)된 후에 다시 나타난 경우, 그 표적이 현재 프레임에서의 어느 한 객체와 연계될 확률이 높아진다(309 내지 311 참조). 따라서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있다. 이와 같은 효과는 단계들 S205 내지 S208의 수행에 의하여 더욱 증배될 수 있다.
도 4는 도 1의 서버 장치(104)에 구비될 수 있는 본 발명의 실시예의 표적 추적 장치를 보여준다. 도 1, 2 및 4를 참조하여 이를 설명하면 다음과 같다.
본 발명의 실시예의 표적 추적 장치는 객체 검출부(403), 연계부(405), 온라인 학습부(407) 및 가상적 연계부(409)를 포함한다. 연계부(405)는 제1 연계부(405a)와 제2 연계부(405b)를 포함한다. 온라인 학습부(407)는 겹쳐짐 추정부(407a)와 SVM(407b)을 포함한다. 도 4에서 참조 부호 401은 입력 영상 프레임들을 가리킨다.
객체 검출부(403)는 감시 카메라(101)로부터 입력된 현재 영상 프레임(401)에서 각각의 객체를 검출한다(단계 S201에 대응함).
제1 연계부(405a)는 위치 유사도 Spos(i,j), 크기 유사도 Ssize(i,j) 및 외형적 특징의 유사도 Sappr(i,j)에 따라, 각각의 표적을 각각의 객체와 연계시킨다(단계 S202에 대응함). 본 실시예의 경우, 위치 유사도, 크기 유사도, 및 외형적 특징의 유사도의 곱셈 결과가 제1 기준 값을 초과하는 표적과 객체가 서로 연계된다. 여기에서, 외형적 특징의 유사도Sappr(i,j)는 SVM(407b)에 의하여 구해진다.
설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 표적이 있는 경우, 제2 연계부(405b)는 크기 유사도 Ssize(i,j) 및 외형적 특징의 유사도 Sappr(i,j)에 따라 그 표적과 어느 한 객체와의 연계를 시도한다(단계 S204에 대응함). 본 실시예의 경우, 크기 유사도 및 외형적 특징의 유사도의 곱셈 결과가 제2 기준 값을 초과하는 표적과 객체가 서로 연계된다.
따라서, 어느 한 표적이 표류(drift) 또는 실종(missing)된 후에 다시 나타난 경우, 그 표적이 현재 프레임에서의 어느 한 객체와 연계될 확률이 높아진다. 따라서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있다.
겹쳐짐 추정부(407a)는 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율 즉, 겹쳐짐 비율(Opq)을 추정한다(단계 S207에 대응함). 여기에서, 제2 표적이란 임의의 어느 한 표적을 의미한다.
SVM(407b)은, 상기 수학식 4에서의 ci(fj)의 값을 제1 연계부(405a)와 제2 연계부(405b)에 제공한다.
또한, SVM(407b)은 상기 수학식 4에서의 ci(fj)의 값을 구하는 데에 사용될 각각의 표적을 매 프레임마다 갱신한다(단계 S205에 대응함). 즉, SVM(407b)은, 현재 프레임에서 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상을 구하고, 구해진 표본 영상들에 따라 각각의 표적을 갱신한다.
어느 한 영상 프레임에서 제1 표적의 양성 표본 영상과 음성 표본 영상을 구함에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외된다(도 5 및 그 설명 참조).
또한, 상기 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 상기 제1 표적의 음성 표본(negative sample) 영상에서 제외된다.
따라서, SVM(Support Vector Machine)의 양성 표본 영상들은 종래 기술의 것들에 비하여 보다 정확하게 사용될 수 있고, 음성 표본 영상들은 종래 기술의 것들에 비하여 보다 효율적으로 사용될 수 있다.
한편, 가상적 연계부(409)는 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율 즉, 겹쳐짐 비율(Opq)을 추정한다(단계 S206에 대응함). 여기에서, 제2 표적이란 임의의 어느 한 표적을 의미한다.
상기 겹쳐짐 비율(Opq)이 기준 비율을 초과하는 경우, 가상적 연계부(409)는 상기 제2 표적의 가상 객체 영역을 생성함에 의하여 가상적으로 연계를 유지한다(단계 S208에 대응함, 도 6 및 그 설명 참조). 따라서, 제2 표적의 표류(drift) 또는 실종(missing)이 예방될 수 있는 추가적 효과가 있다.
도 5는 도 4의 SVM(407b)에서 양성 표본 영상들을 구하는 방법을 설명하기 위한 도면이다. 도 5에서 참조 부호 501 내지 506은 객체 영상들을 가리킨다.
도 4 및 5를 참조하면, SVM(407b)이 제1 표적을 갱신하기 위하여 각각의 프레임에서 양성 표본(positive sample) 영상(501 내지 503, 506)을 구함에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상(504, 505)은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외된다.
따라서, SVM(Support Vector Machine)의 양성 표본 영상들은 종래 기술의 것들에 비하여 보다 정확하게 사용될 수 있다.
도 6은 도 4의 가상적 연계부(409)의 동작을 설명하기 위한 도면이다. 도 6에서, 참조 부호 601은 t-1 시점에서의 과거 영상 프레임을, 그리고 602는 t 시점에서의 현재 영상 프레임을 각각 가리킨다. 참조 부호 601a 및 602a는 객체 영역들을 가리킨다.
도 4 및 6을 참조하면, 가상적 연계부(409)는, 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율 즉, 겹쳐짐 비율(Opq)을 추정한다(단계 S206에 대응함). 여기에서, 제2 표적이란 임의의 어느 한 표적을 의미한다.
t 시점의 현재 프레임에서 상기 겹쳐짐 비율(Opq)이 기준 비율을 초과하는 경우, 가상적 연계부(409)는 상기 제2 표적의 가상 객체 영역(점선 영역)을 생성함에 의하여 가상적으로 연계를 유지한다(단계 S208에 대응함).
따라서, 제2 표적의 표류(drift) 또는 실종(missing)이 예방될 수 있는 추가적 효과가 있다.
본 실시예의 경우, t 시점의 현재 프레임에서 생성된 가상 객체 영역(점선 영역)의 함수
Figure pat00006
는 아래의 수학식 5와 같이 정의된다.
Figure pat00007
상기 수학식 5에서
Figure pat00008
는 t 시점의 현재 프레임에서 가리는 객체(q)의 x-축 기준 좌표를 가리킨다.
Figure pat00009
는 t 시점의 현재 프레임에서 가리는 객체(q)의 y-축 기준 좌표를 가리킨다.
Figure pat00010
는 t-1 시점의 과거 프레임에서 가려진 객체의 높이를 가리킨다. 그리고
Figure pat00011
는 t-1 시점의 과거 프레임에서 가려진 객체의 폭을 가리킨다.
이상 설명된 바와 같이, 본 발명의 실시예의 표적 추적 방법 및 장치에 의하면, 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 제1 표적과 어느 한 객체와의 연계가 시도된다. 즉, 위치 유사도가 적용되지 않고, 크기 유사도 및 외형적 특징의 유사도에 따라 제1 표적과 어느 한 객체와의 연계가 시도된다.
따라서, 제1 표적이 표류(drift) 또는 실종(missing)된 후에 다시 나타난 경우, 제1 표적이 현재 프레임에서의 어느 한 객체와 연계될 확률이 높아진다. 따라서, 표적의 표류 또는 실종에 의하여 그 표적의 추적이 불가능해짐을 방지할 수 있다.
더 나아가, 설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율이 기준 비율을 초과하는 경우, 제2 표적의 가상 객체가 생성됨에 의하여 가상적으로 연계가 유지된다. 따라서, 제2 표적의 표류(drift) 또는 실종(missing)이 예방될 수 있는 추가적 효과가 있다.
더 나아가, 어느 한 영상 프레임에서 제1 표적의 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상이 구해짐에 있어서, 제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 제1 표적의 객체 영상은 제1 표적의 양성 표본(positive sample) 영상에서 제외된다. 또한, 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 제1 표적의 음성 표본(negative sample) 영상에서 제외된다.
따라서, SVM(Support Vector Machine)의 양성 표본 영상들은 종래 기술의 것들에 비하여 보다 정확하게 사용될 수 있고, 음성 표본 영상들은 종래 기술의 것들에 비하여 보다 효율적으로 사용될 수 있다.
이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다.
그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.
본 발명은 통상적인 영상 시스템뿐만 아니라 카메라 자체에서도 이용될 가능성이 높다.
101 : 감시 카메라, 102 : 통신 네트워크,
103a 내지 103m : 클라이언트 단말기들, 104 : 서버 장치,
301 내지 312 : 영상 프레임들, 401 : 영상 프레임들,
403 : 객체 검출부, 405 : 연계부,
405a : 제1 연계부, 405b : 제2 연계부,
407 : 온라인(online) 학습부, 407a : 겹쳐짐 추정부,
407b : SVM(Support Vector Machine), 409 : 가상적 연계부,
501 내지 506 : 객체 영상들, 601, 602 : 영상 프레임들,
601a, 602a : 객체 영역들.

Claims (6)

  1. 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 방법에 있어서,
    (a) 위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 상기 각각의 표적을 상기 각각의 객체와 연계시킴; 및
    (b) 설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계를 시도함;을 포함한, 표적 추적 방법.
  2. 제1항에 있어서, 상기 단계 (a)에서,
    설정 개수의 영상 프레임들에서 제2 표적이 다른 표적에 의하여 가려지는 면적의 평균 비율이 기준 비율을 초과하는 경우, 상기 제2 표적의 가상 객체 영역을 생성함에 의하여 가상적으로 연계를 유지하는, 표적 추적 방법.
  3. 제1항에 있어서,
    상기 단계 (a)에서, 위치 유사도, 크기 유사도, 및 외형적 특징의 유사도의 곱셈 결과가 제1 기준 값을 초과하는 표적과 객체가 서로 연계되고,
    상기 단계 (b)에서, 크기 유사도 및 외형적 특징의 유사도의 곱셈 결과가 제2 기준 값을 초과하는 표적과 객체가 서로 연계되는, 표적 추적 방법.
  4. 제3항에 있어서,
    상기 외형적 특징의 유사도는 SVM(Support Vector Machine)에 의하여 구해지고,
    상기 SVM(Support Vector Machine)에서의 각각의 표적을 갱신하기 위한 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상이 영상 프레임마다 구해지는, 표적 추적 방법.
  5. 제4항에 있어서, 어느 한 영상 프레임에서 제1 표적의 양성 표본(positive sample) 영상과 음성 표본(negative sample) 영상을 구함에 있어서,
    제2 객체 영상에 의하여 설정 비율 이상으로 가려지는 상기 제1 표적의 객체 영상은 상기 제1 표적의 양성 표본(positive sample) 영상에서 제외되고,
    상기 제1 표적의 객체 영상과 설정 거리보다 멀리 있는 객체 영상들은 상기 제1 표적의 음성 표본(negative sample) 영상에서 제외되는, 표적 추적 방법.
  6. 과거 영상 프레임에서의 각각의 표적을 현재 영상 프레임에서 검출된 각각의 객체와 연계시키는 표적 추적 장치에 있어서,
    위치 유사도, 크기 유사도 및 외형적 특징의 유사도에 따라, 상기 각각의 표적을 상기 각각의 객체와 연계시키는 제1 연계부; 및
    설정 개수 이상의 영상 프레임들에서 연속적으로 연계되지 못한 제1 표적이 있는 경우, 크기 유사도 및 외형적 특징의 유사도에 따라 상기 제1 표적과 어느 한 객체와의 연계를 시도하는, 제2 연계부;를 포함한, 표적 추적 방법.
KR1020150032514A 2015-03-09 2015-03-09 표적 추적 방법 및 장치 KR102374565B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150032514A KR102374565B1 (ko) 2015-03-09 2015-03-09 표적 추적 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150032514A KR102374565B1 (ko) 2015-03-09 2015-03-09 표적 추적 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20160108979A true KR20160108979A (ko) 2016-09-21
KR102374565B1 KR102374565B1 (ko) 2022-03-14

Family

ID=57080620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150032514A KR102374565B1 (ko) 2015-03-09 2015-03-09 표적 추적 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102374565B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949336A (zh) * 2019-02-26 2019-06-28 中科创达软件股份有限公司 一种连续视频帧中目标快速跟踪方法及装置
CN110276321A (zh) * 2019-06-11 2019-09-24 北方工业大学 一种遥感视频目标跟踪方法及系统
CN111275011A (zh) * 2020-02-25 2020-06-12 北京百度网讯科技有限公司 移动红绿灯检测方法、装置、电子设备和存储介质
CN112561963A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 目标跟踪的方法、装置、路侧设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120019008A (ko) * 2010-08-24 2012-03-06 한국전자통신연구원 복수의 객체를 추적하는 객체 추적 방법 및 장치
KR20120120499A (ko) 2010-02-19 2012-11-01 가부시끼가이샤 도시바 이동 물체 추적 시스템 및 이동 물체 추적 방법
KR20140052257A (ko) * 2012-10-24 2014-05-07 계명대학교 산학협력단 밝기맵 기반의 중심대칭 국부이진 패턴과 랜덤 포레스트를 이용한 열 영상에서의 사람 검출 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120120499A (ko) 2010-02-19 2012-11-01 가부시끼가이샤 도시바 이동 물체 추적 시스템 및 이동 물체 추적 방법
KR20120019008A (ko) * 2010-08-24 2012-03-06 한국전자통신연구원 복수의 객체를 추적하는 객체 추적 방법 및 장치
KR20140052257A (ko) * 2012-10-24 2014-05-07 계명대학교 산학협력단 밝기맵 기반의 중심대칭 국부이진 패턴과 랜덤 포레스트를 이용한 열 영상에서의 사람 검출 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949336A (zh) * 2019-02-26 2019-06-28 中科创达软件股份有限公司 一种连续视频帧中目标快速跟踪方法及装置
CN110276321A (zh) * 2019-06-11 2019-09-24 北方工业大学 一种遥感视频目标跟踪方法及系统
CN111275011A (zh) * 2020-02-25 2020-06-12 北京百度网讯科技有限公司 移动红绿灯检测方法、装置、电子设备和存储介质
CN111275011B (zh) * 2020-02-25 2023-12-19 阿波罗智能技术(北京)有限公司 移动红绿灯检测方法、装置、电子设备和存储介质
CN112561963A (zh) * 2020-12-18 2021-03-26 北京百度网讯科技有限公司 目标跟踪的方法、装置、路侧设备以及存储介质

Also Published As

Publication number Publication date
KR102374565B1 (ko) 2022-03-14

Similar Documents

Publication Publication Date Title
US11483521B2 (en) Information processing system, information processing method, and program
CN112669349B (zh) 一种客流统计方法、电子设备及存储介质
EP2858008B1 (en) Target detecting method and system
KR102400452B1 (ko) 이동 경로 메타데이터를 이용한 항공 사진/비디오에서의 상황 인식 객체 검출
US10223595B2 (en) Methods, devices and computer programs for tracking targets using independent tracking modules associated with cameras
CN107452015B (zh) 一种具有重检测机制的目标跟踪系统
US9911053B2 (en) Information processing apparatus, method for tracking object and program storage medium
CN109727275B (zh) 目标检测方法、装置、系统和计算机可读存储介质
US8615107B2 (en) Method and apparatus for multiple object tracking with K-shortest paths
EP2965262A1 (en) Method for detecting and tracking objects in sequence of images of scene acquired by stationary camera
US11257224B2 (en) Object tracker, object tracking method, and computer program
WO2008070207A2 (en) A multiple target tracking system incorporating merge, split and reacquisition hypotheses
Denman et al. Multi-spectral fusion for surveillance systems
KR20160108979A (ko) 표적 추적 방법 및 장치
KR20170006356A (ko) 이차원 영상 기반 고객 분석 방법 및 장치
JP2009182400A (ja) 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP6558831B2 (ja) オブジェクト追跡装置、方法およびプログラム
CN109815861B (zh) 一种基于人脸识别的用户行为信息统计方法
KR20150081797A (ko) 객체 추적 장치 및 방법
JP2013239011A (ja) 移動物体上動きベクトル検出装置、移動物体上動きベクトル検出方法、およびプログラム
Ma et al. Depth assisted occlusion handling in video object tracking
Saif et al. Adaptive long term motion pattern analysis for moving object detection using UAV aerial images
JP2016091326A (ja) カメラ画像人数計数方法及びカメラ画像人数計数装置
KR20150137698A (ko) 농장에서의 움직임 개체의 이동 궤적 트래킹 방법 및 장치
KR100853267B1 (ko) 스테레오 시각 정보를 이용한 복수 인물 추적 방법 및 그시스템

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant