KR101288388B1 - 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법 - Google Patents

가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법 Download PDF

Info

Publication number
KR101288388B1
KR101288388B1 KR1020120034774A KR20120034774A KR101288388B1 KR 101288388 B1 KR101288388 B1 KR 101288388B1 KR 1020120034774 A KR1020120034774 A KR 1020120034774A KR 20120034774 A KR20120034774 A KR 20120034774A KR 101288388 B1 KR101288388 B1 KR 101288388B1
Authority
KR
South Korea
Prior art keywords
target
image
information
estimating
environment
Prior art date
Application number
KR1020120034774A
Other languages
English (en)
Inventor
박재식
민지홍
하효원
김경수
권인소
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020120034774A priority Critical patent/KR101288388B1/ko
Application granted granted Critical
Publication of KR101288388B1 publication Critical patent/KR101288388B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

(a) 영상을 입력받는 단계;와, (b) 상기 단계 (a)에서 입력된 영상의 비표적 영상정보로부터 특징점을 추출하는 단계;와, (c) 가려짐이 발생하였는지를 검출하는 단계; 및 (d) 상기 단계 (c)에서 가려짐이 발생하지 않은 것으로 검출된 경우에는, 비표적과 표적의 상대위치를 학습하면서 표적을 추적하고, 상기 단계 (c)에서 가려짐이 발생한 것으로 검출된 경우에는, 비표적 관측자로부터 표적과 비표적 정보의 상대적 위치 정보를 구하여 표적위치를 추정하는 단계;를 구비하는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법을 개시한다.

Description

가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법 {METHOD FOR ESTIMATING LOCATION OF MOVING TARGET IN OCCLUDED TRACKING ENVIRONMENT}
본 발명은 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법으로서, 더 상세하게는 영상센서 기반의 추적 시스템에 있어서 연막 등으로 인하여 이동하는 표적이 일시적으로 가려짐으로써 표적의 영상정보를 이용하지 못하더라도 이동표적의 위치를 추정할 수 있는 방법에 관한 것이다.
최근에 컴퓨터 비젼(Computer Vision) 분야의 국제학회 CVPR2010에 H. Grabner 등의 방법("Tracking the Invisible: Learning Where the Object Might be")이 소개된 바 있다. 그러나 이 방법은 표적이 비표적과 함께 움직이는 경우에 국한되기 때문에, 비표적(주변 배경)은 고정되어 있고 표적이 이동하는 실제의 상황에 대하여 적용할 수 없다는 문제점이 있다.
본 발명은 이러한 문제점을 해결하기 위하여 안출된 것으로서, 영상센서를 기반으로 하여 이동표적을 추적하는 시스템에 있어서 표적이 일시적으로 가려져 이동표적의 영상정보를 얻을 수 없더라도 비표적의 영상정보로부터 이동표적의 위치를 추정할 수 있는 방법을 제공하는 것에 그 목적이 있다.
본 발명의 바람직한 일실시예에 따른 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법은, (a) 영상을 입력받는 단계와, (b) 상기 단계 (a)에서 입력된 영상의 비표적 영상정보로부터 특징점들을 추출하는 단계와, (c) 가려짐이 발생하였는지를 검출하는 단계, 및 (d) 상기 단계 (c)에서 가려짐이 발생하지 않은 것으로 검출된 경우에는, 비표적과 표적의 상대위치를 학습하면서 표적을 추적하고, 상기 단계 (c)에서 가려짐이 발생한 것으로 검출된 경우에는, 상기 비표적 영상정보의 특징점인 비표적 관측자로부터 표적과 비표적 정보의 상대적 위치 정보를 구하여 표적위치를 추정하는 단계를 구비한다.
본 발명의 방법에서, 상기 특징점은 SURF 기법을 이용하여 추출하는 것이 바람직하며, 또한 단계 (a) 내지 단계 (d)는 마지막 프레임에 도달할 때까지 반복되는 것이 바람직하다.
그리고 단계 (c)의 가려짐 발생여부 검출은 가려짐이 있는 영상을 학습한 샘플과 현재 입력영상의 텍스쳐 정보를 비교하여 수행될 수 있다.
또한 비표적 관측자들은 일반화된 허프 변환(Generalized Hough Transform)을 이용하여 보팅(Voting)을 하는 것이 바람직한데, 일반화된 허프 변환(Generalized Hough Transform)은 각 비표적 관측자들이 가지고 있는 표적물체 의심영역에 불확실성을 반영한 가능성을 누적하여 2차원 영상 평면 상에서 가장 큰 누적값에 해당하는 위치를 표적의 위치로 결정한다.
본 발명의 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법은 영상 정보만을 바탕으로 표적 물체를 추적하는 방법에 범용적으로 적용할 수 있다. 본 발명의 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법은 표적 물체가 이동하는 경우에도 최적의 위치를 추정할 수 있도록 가중치와 움직임 정보를 비표적 관측자가 학습하도록 함으로써, 영상을 기반으로 한 지능형 유도 무기의 제작과 강인한 감시 시스템에 응용될 수 있다.
도 1은 연막으로 인하여 표적이 가려진 경우에 본 발명의 바람직한 일실시예에 따라 비표적 위치를 기반으로 표적 위치를 추정하는 방법을 설명하기 위한 개략도이다.
도 2는 본 발명의 바람직한 일실시예에 따라 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법을 나타내는 흐름도이다.
도 3은 본 발명에 있어서 2차원 영상공간에서 비표적 정보를 이용한 표적물체의 상대적인 위치를 기술하는 것을 나타내는 도면이다.
이하 첨부도면을 참조하면서 본 발명의 바람직한 일실시예를 설명한다. 본 발명을 설명함에 있어서 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일·유사한 부재 또는 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
물체의 인식에 주로 사용되는 기법으로는 ISM(Implicit Shape Model) 기법이 있는데, 이 기법은 물체를 표현하기 위하여 부분적인 형상 모델을 기반으로 상대적인 위치정보를 함께 기술하여 물체의 전체적인 형상 모델을 표현하는 기법이다. 일례로 ISM은 자동차 측면을 학습하고 인식하기 위하여 자동차의 각 부분 (범퍼, 타이어, 창문)을 학습하고 그 일부분으로 인식시에 전체 모델에 대한 우도(likelihood)를 설정하는데, 일반적인 환경에서 우수한 성능을 보이고 있다. 본 발명에서는 이러한 ISM 기법을 표적위치의 추정에 이용한다.
도 1은 연막으로 인하여 표적이 가려진 경우에 본 발명의 바람직한 일실시예에 따라 비표적 위치를 기반으로 표적 위치를 추정하는 방법을 설명하기 위한 개략도이다.
도 1을 참조하면, 본 발명의 바람직한 일실시예에 따른 방법은, 영상센서 기반으로 표적을 향해 운행중인 무인차량에서 표적 물체가 연막(110) 등의 교란(Electro Optical Counter Measure)으로 인하여 일시적으로 표적(120)의 영상정보를 얻을 수 없더라도 비표적(130)의 영상정보를 이용하여 ISM 기법을 바탕으로 표적(120)의 위치를 추정할 수 있도록 한다.
도 2는 본 발명의 바람직한 일실시예에 따라 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법을 나타내는 흐름도이다.
도 2를 참조하면, 본 발명의 바람직한 일실시예에 따른 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법은, (a) 영상을 입력받는 단계(S110)와, 상기 단계 (a)에서 입력된 영상의 비표적 영상정보로부터 특징점들을 추출하는 단계(S120)와, (c) 가려짐이 발생하였는지를 검출하는 단계(S130), 및 (d) 상기 단계 (c)에서 가려짐이 발생하지 않은 것으로 검출된 경우에는, 표적을 추적하고(S142) 비표적과 표적의 상대위치를 학습하여(S144) 비표적 정보 가중치를 갱신하고(S146), 상기 단계 (c)에서 가려짐이 발생한 것으로 검출된 경우에는, 상기 비표적 영상정보의 특징점인 비표적 관측자로부터 표적과 비표적 정보의 상대적 위치 정보를 구하여 표적위치를 추정하는 단계(S150)를 포함한다.
이와 같이 본 발명의 바람직한 일실시예에 따른 비표적의 위치를 기반으로 표적 위치를 추정하는 방법은, 일반적인 추적기법과 가려짐 검출 기법을 함께 적용하여 가려짐이 있는 환경에서의 표적의 위치추정을 수행하는데, 표적이 보이는 경우에는 일반적인 추적기법을 통해 표적을 추적하고(S142) 이와 동시에 표적의 위치와 비표적 영상정보 간의 상대적인 위치를 학습하도록 하여(S144) 표적의 가려짐에 대비한다. 또한 후술하는 표적검출기법을 이용하여 표적이 가려진 것으로 판단된 경우에는 본 발명에서 제안하는 표적 추적기법을 이용하여 표적의 위치를 추정한다. 이하 각 단계를 구체적으로 설명한다.
먼저,예컨대 영상센서 등으로부터 영상을 입력받는다(S110).
이어서 입력된 영상의 비표적 영상정보로부터 특징점들을 추출한다(S120). 본 발명의 바람직한 일실시예에서는 비표적물체로부터 강건한 이미지 구성정보를 검출하고 새로운 영상과 비교하기 위하여 대표적인 특징점 추출기법인 SURF(Speed Up Robust Feature) 기법을 이용하여 특징점을 추출하지만, 반드시 이에 한정되는 것은 아니며 다른 적합한 기법, 예컨대 SIFT(Scale-invariant feature transform) 기법 등을 이용할 수 있다. SURF 기법은 입력된 영상의 부분 영역을 64 차원의 벡터로 기술하고 각 영역의 주 회전성분을 추출할 수 있게 함으로써, 2차원 영상영역을 고유의 1차원 벡터로 기술할 수 있게 하고, 영역의 기준방향을 정할 수 있게 한다. 본 발명의 바람직한 일실시예에서는 이와 같이 SURF 기법을 이용하여 추출된 특징점들의 백터 간의 연산을 통해 유클리드 거리(Euclidean distance)가 가까운 경우 유사영역임을 결정할 수 있고, 결과적으로 연속된 영상의 영역들을 정합할 수 있도록 해준다. 특징점들은 표적이 아닌 비표적의 영상정보에서 추출되어 비표적과 표적정보의 상대적인 위치정보를 찾고 기술하는데 쓰이게 되며, 본 명세서에서는 이를 '비표적 관측자'라고도 하는데, 특히 연속적인 5장 이상의 영상에서 지속적으로 검출되는 특징점을 비표적 관측자로 지칭한다.
이와 같이 단계(S120)에서 특징점들, 즉 비표적 관측자들을 추출하고 나서, 표적에 대하여 가려짐이 발생하였는지를 검출한다(S130). 본 발명에서 가려짐이란 연막 등의 교란(EOCM; Electro Optical Counter Measyre)으로 인해 표적 물체가 일시적으로 가려지는 것을 말한다. 가려짐 발생여부의 검출은 영상의 텍스쳐 정보로부터 표적과 비표적을 구분지을 수 있는 방법을 이용한다. 구체적으로는 연막 등의 가려짐이 있는 영상을 학습한 샘플과 현재 입력영상의 텍스쳐 정보를 비교하여 가려짐이 발생하였는지를 검출한다.
그리고 단계(S130)에서 가려짐이 발생하지 않은 것으로 검출된 경우에는, 일반적인 추적기법을 이용하여 표적을 추적하며 (S142), 비표적과 표적의 상대위치를 학습한다 (S144).
도 3은 2차원 영상공간에서 비표적 정보를 이용한 표적물체의 상대적인 위치를 기술하는 것을 나타내는 도면이다. 도 3에서 NT는 비표적 관측자, T는 영상에서의 표적물체, μ는 학습된 표적물체의 위치, r은 비표적 관측자(NT)와 표적물체(T)와의 거리, ∑는 표적물체 위치의 불확실성, β는 SURF 기법을 이용하여 추출된 비표적 관측자의 주회전성분, φ는 비표적 관측자의 표적과의 상대각도를 나타낸다.
도 3을 참조하면, 표적이 가려지지 않은 경우에 비표적과 표적의 상대위치 정보를 학습하게 되는데, 이 상대위치 정보는 비표적 관측자(NT)와 표적물체(T)와의 거리(r), 상대각도(φ), 2차원 행렬인 불확실성 행렬(∑)을 사용하여 기술할 수 있다. 불확실성 행렬(∑)은 비표적 관측자(NT)의 표적(T) 관측에 대한 불확실성을 나타내는 지표로서 표적(T)이 관측되는 상황에서 비표적 관측자(NT)가 관측하는 표적(T)과의 상대적 위치의 2차적 공분산으로 정의된다. 학습에 의한 표적과 비표적의 상대적인 각도(φ)와 거리(r) 및 불확실성 행렬(∑)의 갱신은 후술한다.
비표적과 표적의 상대위치 학습단계(S144) 수행후, 비표적 정보의 가중치가 갱신(S146)되고, 추적된 표적위치는 모니터 등의 출력장치(도시하지 않음)에 출력된다(S160). 본 발명에서는 연속된 영상에서 지속적으로 발생하는 비표적 관측자에 대해서는 연속하여 발생한 만큼의 신뢰도 가중치(wi)를 부여하여, 비표적 정보의 가중치를 갱신한다. 그 결과 신뢰도가 높은 비표적 관측자가 표적 물체의 가려짐 발생 시 위치 추정에 미치는 영향을 크게 하여 강인함이 향상된다.
한편, 단계(S130)에서 가려짐의 발생이 검출된 경우에는, 비표적 관측자로부터 표적과 비표적 정보의 상대적 위치 정보를 구하여 표적위치를 추정한다(S150). 이때 비표적 관측자들은 일반화된 허프 변환(Generalized Hough Transform)을 이용하여 보팅(Voting)을 한다. 일반화된 허프 변환은 각 비표적 관측자들이 가지고 있는 표적물체 의심영역에 불확실성을 반영한 가능성을 누적함으로써 최종적으로 2차원 영상 평면 위에서 가장 큰 누적값에 해당하는 위치를 표적의 위치로 결정한다. 따라서 표적의 위치(x')는 수학식 1과 같이 추정된다.
Figure 112012026892295-pat00001
수학식 1에서 p(x│fi)는 각 비표적 정보가 가리키는 표적의 2차원 확률분포로서,
Figure 112012026892295-pat00002
이고,
학습된 표적물체의 위치μ i 는 다음과 같이 정의된다.
Figure 112012026892295-pat00003
여기서, fi는 i번째 비표적 관측자를 나타내고, wi는 각 비표적 정보의 신뢰도 혹은 가중치, x는 2차원 영상평면의 임의의 위치, (xi, yi)는 비표적 관측자의 위치, μ i 는 학습된 표적물체의 위치로서 비표적 정보가 가리키는 표적의 위치, ∑i는 표적의 위치에 대한 불확실성을 나타내는 공분산 행렬로서
Figure 112012026892295-pat00004
로 정의되는데
Figure 112012026892295-pat00005
는 표적 추적기로 확인된 표적의 위치이고, φi는 비표적 관측자와 표적의 학습된 상대각도, βi는 비표적 관측자의 주회전성분을 나타낸다. 이와 같이 본 발명에서는 연속된 영상에서 지속적으로 발생하는 비표적 관측자에 대해서는 연속하여 발생한 만큼의 신뢰도 가중치(wi)를 부여함으로써, 신뢰도가 높은 비표적 관측자가 표적 물체의 가려짐 발생시 위치 추정에 미치는 영향을 크게 하여 강인함을 향상시키고 있다. 또한 위의 수식에서 (x-μ i )T 는 2×1 벡터의 전치(transpose)이고, ∑i -1 i의 역행렬을 의미한다.
표적이 가려지지 않은 경우 비표적과 표적의 상대적 위치는 고정되지 않고 변하게 된다. 이를 반영하기 위해 표적과 비표적의 상대적인 각도(φi)와 거리(ri)는 연속적인 프레임(시각 t-1에서의 프레임과 시각 t에서의 프레임)에서 다음과 같이 갱신된다.
Figure 112012026892295-pat00006
Figure 112012026892295-pat00007
수학식 2에서 φi t'과 ri t'은 각각 표적과 비표적의 갱신된 상대적인 각도와 거리를 나타낸다.
연속적인 프레임(시각 t-1에서의 프레임과 시각 t에서의 프레임)에서 표적의 위치에 대한 불확실성 행렬(∑i)도 마찬가지로 방법으로 수학식 3과 같이 갱신된다.
Figure 112012026892295-pat00008
수학식 3에서 ∑i t'은 갱신된 불확실성 행렬을 나타낸다.
한편, 본 발명에서는 표적 물체가 움직이고 비표적 관측자는 고정된 일반적인 상황에 적합하도록 표적 물체의 2차원 움직임 학습모델을 도입하여, 표적물체가 가려짐에 의해 관측되지 않는 경우에도 다음 수학식 3과 같은 2차원 움직임 모델을 바탕으로 가려진 표적물체의 움직임을 보상한 보팅(voting)을 한다.
Figure 112012026892295-pat00009
수학식 4에서, k는 표적이 가려진 영상 프레임 수를 의미하고, u i 는 표적 물체의 속도벡터이다.
한편, 표적이 보이는 경우에 각 비표적들이 학습하게 되는 2차원 속도 모델은 수학식 4와 같다.
Figure 112012026892295-pat00010
수학식 5에서 ut'은 갱신된 표적 물체의 2차원 속도 벡터, u t -1은 이전시간의 표적 물체의 2차원 속도 벡터, ut는 현재 움직임에서 이전 속도가 반영된 선형 합의 속도 벡터를 나타낸다. 2차원 속도 모델을 이용하므로 u는 2차원 벡터의 형태이다. α는 가중치의 합을 결정하기 위한 상수로서, 이전 시간 속도 벡터 반영을 위한 0과 1 사이의 상수이다.
단계(S150)에서 추정된 표적의 위치는 모니터 등의 출력장치로 출력될 수 있다 (단계 S160).
이와 같이 표적의 위치가 추적 또는 추정되어 출력된 후 영상의 마지막 프레임에 도달했는지를 판단한다 (단계 S170). 마지막 프레임에 도달했다고 판단되면 위치 추정 과정을 종료하고, 마지막 프레임에 도달되지 않았다고 판단되면, 영상을 읽어들이는 단계(S110)로 복귀하여 표적의 추적 또는 추정 과정을 반복 수행한다.
이상 설명한 바와 같이 본 발명의 방법에 의하면 움직이는 표적이 가려지는 상황에서도 표적이 가려지지 않았을 때의 표적의 움직임을 학습하고 이 학습한 사전 정보를 바탕으로 현재 표적이 있을 가능성이 가장 높은 위치를 추정할 수 있다.
상기한 본 발명의 바람직한 실시예는 예시적인 것일 뿐이고 본 발명을 특정한 실시 형태로 한정하기 위한 것은 아니며, 아래의 특허청구범위로부터 해석되는 본 발명의 기술적 사상과 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
T: 표적물체
NT: 비표적 관측자
r : 표적물체와 비표적 관측자와의 거리
φ: 상대각도
∑: 표적물체 위치의 불확실성

Claims (6)

  1. (a) 영상을 입력받는 단계;
    (b) 상기 단계 (a)에서 입력된 영상의 비표적 영상정보로부터 특징점들을 추출하는 단계;
    (c) 가려짐이 발생하였는지를 검출하는 단계; 및
    (d) 상기 단계 (c)에서 가려짐이 발생하지 않은 것으로 검출된 경우에는, 비표적과 표적의 상대위치를 학습하면서 표적을 추적하고, 상기 단계 (c)에서 가려짐이 발생한 것으로 검출된 경우에는, 상기 비표적 영상정보의 특징점인 비표적 관측자로부터 표적과 비표적 정보의 상대적 위치 정보를 구하여 표적위치를 추정하는 단계;를 구비하는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
  2. 제1항에 있어서,
    상기 단계 (b)의 특징점 추출은 SURF 기법을 이용하는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
  3. 제2항에 있어서,
    상기 단계 (a) 내지 단계 (d)는 마지막 프레임에 도달할 때까지 반복되는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 단계 (c)의 가려짐 발생여부 검출은 가려짐이 있는 영상을 학습한 샘플과 현재 입력영상의 텍스쳐 정보를 비교하여 수행되는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
  5. 제4항에 있어서,
    상기 단계 (d)에서 비표적 관측자들은 일반화된 허프 변환(Generalized Hough Transform)을 이용하여 보팅(Voting)을 하는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
  6. 제5항에 있어서,
    상기 일반화된 허프 변환(Generalized Hough Transform)은 각 비표적 관측자들이 가지고 있는 표적물체 의심영역에 불확실성을 반영한 가능성을 누적하여 2차원 영상 평면 상에서 가장 큰 누적값에 해당하는 위치를 표적의 위치로 결정하는 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법.
KR1020120034774A 2012-04-04 2012-04-04 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법 KR101288388B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120034774A KR101288388B1 (ko) 2012-04-04 2012-04-04 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120034774A KR101288388B1 (ko) 2012-04-04 2012-04-04 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법

Publications (1)

Publication Number Publication Date
KR101288388B1 true KR101288388B1 (ko) 2013-07-22

Family

ID=48997801

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120034774A KR101288388B1 (ko) 2012-04-04 2012-04-04 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법

Country Status (1)

Country Link
KR (1) KR101288388B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180080004A (ko) * 2017-01-03 2018-07-11 국방과학연구소 가림환경에서의 표적 형상정보를 활용한 표적 추적 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090015456A (ko) * 2007-08-08 2009-02-12 삼성전자주식회사 배경 변화 추정 방법 및 장치, 및 이를 이용한 움직임 검출방법 및 방법
JP2012059224A (ja) 2010-09-13 2012-03-22 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090015456A (ko) * 2007-08-08 2009-02-12 삼성전자주식회사 배경 변화 추정 방법 및 장치, 및 이를 이용한 움직임 검출방법 및 방법
JP2012059224A (ja) 2010-09-13 2012-03-22 Toshiba Corp 移動物体追跡システムおよび移動物体追跡方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180080004A (ko) * 2017-01-03 2018-07-11 국방과학연구소 가림환경에서의 표적 형상정보를 활용한 표적 추적 방법
KR101913214B1 (ko) 2017-01-03 2018-12-28 국방과학연구소 가림환경에서의 표적 형상정보를 활용한 표적 추적 방법

Similar Documents

Publication Publication Date Title
Javed et al. Tracking and object classification for automated surveillance
CN103576154B (zh) 使用雷达和摄像机的障碍物探测的融合
US7729512B2 (en) Stereo image processing to detect moving objects
CN104008371A (zh) 一种基于多摄像机的区域可疑目标跟踪与识别方法
Elmezain et al. Hand trajectory-based gesture spotting and recognition using HMM
CN104992451A (zh) 一种改进的目标跟踪方法
KR20190128500A (ko) 영상 감시 시스템에서의 실시간 쓰레기 투기 행위 탐지 방법 및 장치
US20090319560A1 (en) System and method for multi-agent event detection and recognition
Wei et al. Motion detection based on optical flow and self-adaptive threshold segmentation
CN115240130A (zh) 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN103336947A (zh) 基于显著性和结构性的红外运动小目标识别方法
Weng et al. On-line human action recognition by combining joint tracking and key pose recognition
Park et al. Hand detection and tracking using depth and color information
CN105447881A (zh) 基于多普勒的雷达图像分割及光流
Manikandan et al. Human object detection and tracking using background subtraction for sports applications
CN105574892A (zh) 雷达图像中的基于多普勒的分割及光流
Maki et al. Accelerometer detection in a camera view based on feature point tracking
EP2259221A1 (en) Computer system and method for tracking objects in video data
Nandhini et al. SIFT algorithm-based Object detection and tracking in the video image
US20080198237A1 (en) System and method for adaptive pixel segmentation from image sequences
CN109636834A (zh) 基于tld改进算法的视频车辆目标跟踪算法
Zhu et al. Pedestrian detection in low-resolution imagery by learning multi-scale intrinsic motion structures (mims)
KR101288388B1 (ko) 가려짐이 있는 환경에서 이동표적의 위치를 추정하는 방법
KR101371275B1 (ko) 스테레오 영상 기반 다중 객체 추적 방법 및 이의 프로그램을 기록한 기록매체
Zhang et al. An efficient and flexible approach for multiple vehicle tracking in the aerial video sequence

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180703

Year of fee payment: 6