KR20120060458A - Method of tracking object and apparatus for the same - Google Patents

Method of tracking object and apparatus for the same Download PDF

Info

Publication number
KR20120060458A
KR20120060458A KR1020100121979A KR20100121979A KR20120060458A KR 20120060458 A KR20120060458 A KR 20120060458A KR 1020100121979 A KR1020100121979 A KR 1020100121979A KR 20100121979 A KR20100121979 A KR 20100121979A KR 20120060458 A KR20120060458 A KR 20120060458A
Authority
KR
South Korea
Prior art keywords
codeword
tracking
image data
unit
pixel
Prior art date
Application number
KR1020100121979A
Other languages
Korean (ko)
Inventor
윤우한
김도형
윤호섭
이재연
김재홍
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020100121979A priority Critical patent/KR20120060458A/en
Publication of KR20120060458A publication Critical patent/KR20120060458A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: An object tracing method and an apparatus thereof are provided to trace an object through a code book of an object and to stably trace the object in various environments. CONSTITUTION: A modeling unit updates a pixel within a tracing target object area to a codeword. The modeling unit removes a pixel of low frequency from the codeword. A probability map generating unit generates a probability map through the codeword from which the pixel is removed. A tracing unit(105) traces the tracing target object through the generated probability map.

Description

물체 추적 방법 및 그 장치{METHOD OF TRACKING OBJECT AND APPARATUS FOR THE SAME}Object tracking method and apparatus therefor {METHOD OF TRACKING OBJECT AND APPARATUS FOR THE SAME}

본 발명은 물체 추적 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 추적하고자 하는 물체의 코드북을 이용하여 물체를 추적하는 물체 추적 방법 및 그 장치에 관한 것이다.The present invention relates to an object tracking method and apparatus, and more particularly, to an object tracking method and apparatus for tracking an object using a codebook of the object to be tracked.

이동 물체 추적은 컴퓨터 비전 및 여러 응용 분야에서 많은 연구가 진행되고 있는 분야이다. 이동 물체 추적 시스템이란 카메라로부터 획득한 영상 데이터로부터 움직이는 물체를 추적하는 것을 말한다. 이동 물체 추적은 카메라와 물체 사이의 이동 관계에 따라 카메라는 고정되어 있고 물체가 이동하는 경우, 물체는 고정되어 있고 카메라가 움직이는 경우와 물체가 이동하고 카메라도 움직이는 경우로 분류된다. Moving object tracking is a field where much research is being conducted in computer vision and various applications. The moving object tracking system refers to tracking a moving object from image data obtained from a camera. Moving object tracking is classified into the case where the camera is fixed and the object moves according to the moving relationship between the camera and the object, when the object is fixed, the camera moves, and the object moves and the camera moves.

이동 물체를 추적하는 기존의 방법은 차영상을 이용하는 추적 방법과 광류(optical flow)를 이용한 방법이 있다. 차영상을 이용한 추적 방법은 카메라는 고정되어 있고 물체가 이동하는 경우에 적용가능하며 배경영상과 차영상을 이용하여 물체를 추적하는 방법이다. 차영상을 이용하는 방법은 주위 환경의 변화에 많은 제약을 받으며, 카메라가 움직일 경우 배경영상을 구하기가 어려움으로 전처리 과정에서 잘못된 결과를 얻게 되며 이동 물체 추적 시 많은 오차와 잘못된 추적이 발생하게 된다.Conventional methods for tracking a moving object include a tracking method using a difference image and an optical flow method. The tracking method using the difference image is a method in which the camera is fixed and applicable when the object moves and tracks the object using the background image and the difference image. The method of using the difference image is very limited by the change of the surrounding environment, and if the camera is moved, it is difficult to obtain the background image, and thus the wrong result is obtained in the preprocessing process.

광류를 이용하여 물체를 추적하는 방법은 카메라와 물체 중에서 하나가 고정되어 있는 경우에 적용 가능하다. 광류를 이용하는 방법은 이전 프레임에서 구해진 물체가 시간과 공간의 변화를 거쳐서 다음 프레임의 한 위치에 있을 때 시공간 벡터를 이용하여 물체의 이동을 인식하고 추적한다. 하지만, 계산량이 많기 때문에 처리 속도가 느린 단점이 있다. The method of tracking an object using light flow is applicable when one of the camera and the object is fixed. The optical flow method recognizes and tracks the movement of an object by using a space-time vector when the object obtained in the previous frame is in one position of the next frame through a change in time and space. However, there is a disadvantage in that the processing speed is slow due to the large amount of calculation.

상기와 같은 문제점을 해결하기 위한 본 발명의 제 1목적은, 추적하고자 하는 물체의 코드북을 이용하여 물체를 추적하는 물체 추적 장치를 제공하는데 있다.A first object of the present invention for solving the above problems is to provide an object tracking device for tracking an object using a codebook of the object to be tracked.

상기와 같은 문제점을 해결하기 위한 본 발명의 제 2목적은, 추적하고자 하는 물체의 코드북을 이용하여 물체를 추적하는 물체 추적 방법을 제공하는데 있다.A second object of the present invention for solving the above problems is to provide an object tracking method for tracking an object using a codebook of the object to be tracked.

상기한 본 발명의 제 1목적을 달성하기 위한 본 발명의 실시예에 따른 물체 추적 장치는, 복수개의 영상촬영기기로부터 영상 데이터를 수신하고, 상기 수신된 영상 데이터를 픽셀값으로 변환하는 변환부, 상기 변환된 영상 데이터에서 추적 대상 물체의 모델링이 되어있는지 판단하는 판단부, 상기 판단결과 모델링이 되어있지 않은 경우 상기 변환된 영상 데이터의 코드북의 코드워드에 추적 대상 물체 영역내의 픽셀이 존재하는 경우에 상기 추적 대상 물체 영역내의 픽셀을 상기 코드워드에 업데이트 하고, 상기 코드워드에서 빈도수가 적은 픽셀을 제거하는 모델링부, 상기 빈도수가 적은 픽셀이 제거된 코드워드를 이용하여 확률 지도를 생성하는 확률 지도 생성부 및 상기 생성된 확률 지도를 이용하여 상기 추적 대상 물체를 추적하는 추적부를 포함한다.An object tracking apparatus according to an embodiment of the present invention for achieving the first object of the present invention, a conversion unit for receiving image data from a plurality of image recording apparatus, and converts the received image data to a pixel value, Determination unit for determining whether the tracking object is modeled in the converted image data, If the determination result is not modeled when there is a pixel in the tracking object region in the codeword of the codebook of the converted image data A modeling unit for updating the pixels in the area of the tracking object to the codeword, removing the less frequent pixels from the codeword, and generating a probability map using a codeword from which the less frequent pixels are removed A tracking unit that tracks the object to be tracked using the unit and the generated probability map. The.

본 발명의 제 2 목적을 달성하기 위한 본 발명의 실시예에 따른 물체 추적 방법은, 복수개의 영상촬영기기로부터 영상 데이터를 수신하는 단계, 상기 수신된 영상 데이터를 픽셀값으로 변환하는 단계, 상기 변환된 영상 데이터에서 추적 대상 물체의 모델링이 되어있는지 판단하는 단계, 상기 판단결과 모델링이 되어있지 않은 경우 상기 변환된 영상 데이터의 코드북의 코드워드에 추적 대상 물체 영역내의 픽셀이 존재하는 경우에 상기 추적 대상 물체 영역내의 픽셀을 상기 코드워드에 업데이트 하고, 상기 코드워드에서 빈도수가 적은 픽셀을 제거하는 단계, 상기 빈도수가 적은 픽셀이 제거된 코드워드를 이용하여 확률 지도를 생성하는 단계 및 상기 생성된 확률 지도를 이용하여 상기 추적 대상 물체를 추적하는 단계를 포함한다.In accordance with another aspect of the present invention, there is provided a method for tracking an object, the method including receiving image data from a plurality of image photographing apparatuses, converting the received image data into pixel values, and converting the image data. Determining whether the tracking object is modeled from the image data, and if the pixel in the tracking object area exists in a codeword of the codebook of the converted image data when the determination result is not modeled, the tracking object Updating a pixel in an object region to the codeword, removing a less frequent pixel from the codeword, generating a probability map using a codeword from which the less frequent pixel is removed, and generating the generated probability map Tracking the object to be tracked using;

상기와 같은 본 발명에 따른 추적하고자 하는 물체의 코드북을 이용하여 물체를 추적하는 물체 추적 방법 및 그 장치를 이용할 경우에는 다양한 환경에서 안정적이고 일관성있게 물체를 추적할 수 있다. 또한, 본 발명은 사람이나 물체를 추적하는데 필요한 기본 기술로 활용이 가능하며 지능형 로봇 분야, 보안 및 감시 분야, 스마트 환경, 텔레매틱스 등의 분야에도 활용 가능하다.When using an object tracking method and apparatus for tracking an object using the codebook of the object to be tracked according to the present invention as described above, it is possible to track the object stably and consistently in various environments. In addition, the present invention can be used as a basic technology required to track a person or an object, and can also be used in the fields of intelligent robots, security and surveillance, smart environments, telematics, and the like.

도 1은 본 발명의 실시예에 따른 물체 추적 장치의 내부 구조를 도시한 블록도이다.
도 2는 본 발명의 실시예에 따른 물체를 추적하는 과정을 도시한 흐름도이다.
1 is a block diagram showing the internal structure of an object tracking apparatus according to an embodiment of the present invention.
2 is a flowchart illustrating a process of tracking an object according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 물체 추적 장치의 내부 구조를 도시한 블록도이다.1 is a block diagram showing the internal structure of an object tracking apparatus according to an embodiment of the present invention.

도 1을 참조하면, 물체 추적 장치는 수신부(101), 변환부(102), 판단부(103), 제어부(104), 모델링부(105), 확률지도 생성부(106) 및 추적부(107) 를 포함하여 구성될 수 있으며, 모델링부(105)는 비교 유닛(113), 업데이트 유닛(123) 및 코드워드 제거 유닛(133)을 포함하여 구성될 수 있다. 수신부(101)는 다양한 형태의 복수의 영상 촬영기기로부터 촬영된 영상 데이터를 수신한다. 여기서, 영상 촬영기기는 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등을 포함할 수 있다. Referring to FIG. 1, an object tracking apparatus includes a receiver 101, a converter 102, a determiner 103, a controller 104, a modeling unit 105, a probability map generator 106, and a tracking unit 107. ), And the modeling unit 105 may include a comparison unit 113, an update unit 123, and a codeword removal unit 133. The receiver 101 receives image data photographed from a plurality of image photographing devices of various types. Here, the image capturing apparatus may include, for example, a multi-view video camera or a stereo video camera and a depth camera.

변환부(102)는 제어부(104)의 제어에 의해 수신부(101)로부터 수신된 영상 데이터 그대로 출력하거나 수신된 영상 데이터를 색공간으로 변환하여 출력한다. 여기서, 변환부(102)는 수신부(101)로부터 수신된 영상 데이터 그대로 출력하는 경우는, 물체 추적 장치의 설정이 영상 데이터가 색공간으로 변환되지 않는 경우가 될 수 있다. 즉, 물체 추적 장치의 설정이 영상 데이터가 색공간으로 변환되지 않는 경우에는 변환부(102)는 바이패스 경로만을 제공하게 된다.The converting unit 102 outputs the image data received from the receiving unit 101 as it is under the control of the control unit 104 or converts the received image data into a color space and outputs the converted color space. Here, when the conversion unit 102 outputs the image data received from the reception unit 101 as it is, the setting of the object tracking device may be a case where the image data is not converted to the color space. That is, when the setting of the object tracking device does not convert the image data into the color space, the conversion unit 102 provides only the bypass path.

반면에 변환부(102)가 수신부(101)로부터 수신된 영상 데이터를 색공간으로 변환하여 출력하는 경우는, 물체 추적 장치의 설정이 영상 데이터가 색공간으로 변환되지 않는 경우가 될 수 있다. 본 발명의 실시예에 따르면, 변환부(102)는 수신부(101)로부터 수신된 영상 데이터의 원색 신호를 0부터 255사이의 픽셀값으로 변환함으로써 영상 데이터를 (R, G, B) 색공간으로 변환할 수 있다. 본 발명의 실시예에 따르면, 변환부(102)는 수신부(101)로부터 수신된 영상 데이터의 색차 신호를 색의 밝기(IuminanCe)인 Y성분과 생상(ChrominanCe)인 U(Cb) 와 V(Cr)성분으로 구분하고, Y성분은 오차에 민감하므로 생산성분인 U와 V보다 많은 비트로 코딩하기 위해서 Y: U: V의 비율을 4: 2: 2로 하여 색공간으로 변환할 수 있다. On the other hand, when the converter 102 converts the image data received from the receiver 101 into a color space and outputs the color data, the object tracking apparatus may be configured to not convert the image data into the color space. According to an exemplary embodiment of the present invention, the conversion unit 102 converts the image data of the image data received from the reception unit 101 into pixel values between 0 and 255, thereby converting the image data into the (R, G, B) color space. I can convert it. According to an exemplary embodiment of the present invention, the conversion unit 102 converts the color difference signal of the image data received from the reception unit 101 to the Y component, which is the brightness of color (IuminanCe), and the U (Cb) and V (Cr, which are chromatin Ce). ), And the Y component is sensitive to errors, so that the ratio of Y: U: V is 4: 2: 2 so that it can be coded into more bits than the productivity U and V.

판단부(103)는 제어부(104)의 제어에 의해 변환부(102)로부터 변환된 영상 데이터가 모델링 되었는지 판단할 수 있다. 먼저, 판단부(103)는 제어부(104)의 제어에 의해 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체의 모델링이 되어있다고 판단하는 경우는 모델링부(105)는 바이패스 경로만을 제공하게 된다. 반면, 판단부(103)는 제어부(104)의 제어에 의해 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체의 모델링이 되어있지 않다고 판단하는 경우는 모델링부(105)는 제어부(104)의 제어에 의해 변환부(102)로부터 색공간으로 변환된 영상 데이터의 코드 워드를 수신하고, 코드북과 코드워드를 이용하여 추적 대상 물체를 모델링한다. 여기서, 코드북은 복수개의 코드워드로 구성되며, i번째 코드워드 Cwi는 I< min , i>, I< max , i>, fi, Ci의 구성요소를 가지고 있으며, I< min , i> 는 i번 코드워드 내에서 가장 어두운 색의 밝기를 나타내고, I< max , i> 는 i번 코드워드 내에서 가장 밝은 색의 밝기를 나타내고, fi 는 i번째 코드워드에 포함된 픽셀의 수/빈도를 나타내고, Ci 는 i번째 코드워드의 색상을 대표하는 3차원으로 구성된 벡터 C1 ,i, C2 ,i, C3 , i 를 나타낸다.The determination unit 103 may determine whether the image data converted from the conversion unit 102 is modeled under the control of the control unit 104. First, when the determination unit 103 determines that the tracking target object is modeled in the image data converted from the conversion unit 102 under the control of the control unit 104, the modeling unit 105 provides only a bypass path. Done. On the other hand, when the determination unit 103 determines that the tracking target object is not modeled in the image data converted from the conversion unit 102 under the control of the control unit 104, the modeling unit 105 controls the control unit 104. The codeword of the image data converted into the color space is received from the conversion unit 102 under the control of the control unit, and the tracking object is modeled using the codebook and the codeword. Here, the codebook is composed of a plurality of codewords, the i-th codeword Cw i has the components I < min , i> , I < max , i> , f i , C i , I < min , i > Denotes the brightness of the darkest color in codeword i, I < max , i> denotes the brightness of the brightest color in codeword i, and f i denotes the number of pixels in the i-th codeword. Frequency, and C i represents a vector C 1 , i , C 2 , i , C 3 , i composed of three dimensions representing the color of the i-th codeword.

제어부(104)는 물체 추적 장치의 설정을 이용하여 수신부(101)로부터 수신된 영상 데이터의 색공간 변환유무를 판단할 수 있다. 먼저, 제어부(104)는 물체 추적 장치의 설정이 영상 데이터가 색공간으로 변환되지 않아도 된다고 설정된 경우는, 수신부(101)로부터 수신된 영상 데이터의 색공간 변환이 필요하지 않은 경우이기 때문에 제어부(104)는 변환부(102)에서 영상 데이터의 색공간 변환이 이루어지지 않도록 설정한다. 한편, 제어부(104)는 물체 추적 장치의 설정이 영상 데이터가 색공간으로 변환하여야 한다고 설정된 경우는, 수신부(101)로부터 수신된 영상 데이터의 색공간 변환이 필요한 경우이기 때문에 제어부(104)는 변환부(102)에서 영상 데이터의 색공간 변환이 이루어지도록 제어한다. The controller 104 may determine whether to convert the color space of the image data received from the receiver 101 by using the setting of the object tracking device. First, when the setting of the object tracking device is set such that the image data does not need to be converted to the color space, the control unit 104 does not require color space conversion of the image data received from the receiving unit 101, so that the control unit 104 ) Is set so that the conversion unit 102 does not perform color space conversion of the image data. On the other hand, when the setting of the object tracking device is set that the image data should be converted to the color space, the control unit 104 needs to convert the color space of the image data received from the receiving unit 101, so that the control unit 104 converts the data. The control unit 102 controls the color space conversion of the image data.

제어부(104)는 변환부(102)로부터 변환된 영상 데이터가 모델링 되어있는지 판단할 수 있다. 먼저, 제어부(104)는 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체의 모델링 되었다고 판단한 경우, 제어부(104)는 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체가 모델링부(105)에서 모델링이 이루어지지 않도록 설정한다. 한편, 제어부(104)는 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체의 모델링 되어있지 않다고 판단한 경우, 제어부(104)는 변환부(102)로부터 변환된 영상 데이터에서 추적 대상 물체가 모델링부(105)에서 모델링이 이루어지도록 제어한다. The controller 104 may determine whether the image data converted from the converter 102 is modeled. First, when the controller 104 determines that the object to be tracked is modeled from the image data converted by the converter 102, the controller 104 determines that the object to be tracked is converted from the image data converted from the converter 102. In 105), the modeling is not performed. On the other hand, when the controller 104 determines that the object to be tracked is not modeled in the image data converted by the converter 102, the controller 104 models the object to be tracked in the image data converted by the converter 102. In step 105, the modeling is controlled.

모델링부(105)의 비교 유닛(113)은 영상 데이터의 코드워드와 추적 대상 물체 영역내의 픽셀 Vnew을 비교하여 추적 대상 물체 영역내의 픽셀 Vnew이 영상 데이터의 코드 워드의 존재유무를 출력한다. 본 발명의 실시예에 따르면, 비교 유닛(113)은 하기 <표 1>을 이용하여 Vnew와 변환부(102)로부터 색공간으로 변환된 영상 데이터의 코드북 내의 N개의 코드워크 중 i번째 코드워드 Cwi에 대해서 비교작업을 수행한다. 여기서, Vnew의 픽셀은Cnew, Inew 의 구성요소를 가지고 있으며, Cnew는 픽셀의 색상을 대표하는 3차원으로 구성된 벡터 C1 , new, C2 , new, C3 , new 를 나타내고, Inew 는 픽셀의 밝기를 나타낸다.The comparing unit 113, the modeling unit 105 compares the pixel V new in the code word and a tracking object area of the image data and outputs the presence or absence of a code word of the pixel V new is the image data in the tracking object area. According to an exemplary embodiment of the present invention, the comparison unit 113 uses the i th codeword of the N codeworks in the codebook of the image data converted from the V new and the conversion unit 102 into the color space using Table 1 below. Perform a comparison on Cw i . Here, the pixel of V new has the components of C new and I new , and C new represents the three-dimensional vector C 1 , new , C 2 , new , C 3 , new representing the color of the pixel, I new Represents the brightness of the pixel.

Figure pat00001
Figure pat00001

<표 1>을 참조하면, 비교 유닛(113)은 제어부(104)의 제어에 의해 변환부(102)로부터 색공간으로 변환된 영상 데이터의 코드북내의 코드 워드의 개수 N만큼 비교를 수행한다. 만약, 비교 유닛(113)이 추적 대상 물체 영역내의 픽셀 Vnew의 색상 Cnew 와 영상 데이터의 코드워드의 색상 Ci 이 동일하고, 추적 대상 물체 영역내의 픽셀 Vnew 의 밝기 Inew 와 영상 데이터의 코드워드의 밝기< I< min i>, I< max i>>가 동일하여 결과 추적 대상 물체 영역내의 픽셀 Vnew이 영상 데이터의 코드워드에 존재한다고 판단한 경우, 코드워드의 인덱스 i를 irep에 할당하여 반환하여 종료한다.Referring to Table 1, the comparison unit 113 performs comparison by the number N of code words in the codebook of the image data converted from the conversion unit 102 into the color space under the control of the control unit 104. If the comparing unit 113, the tracking object area pixel V new color of the C new and the color of the image data code word C i is the same, and tracking the object pixel V new brightness I new and video data of in the region in the If the brightness of the codeword <I < min i> , I < max i>> is the same, and it is determined that pixel V new in the result tracked object region exists in the codeword of the image data, the index i of the codeword is set to i rep . Allocate it and return it to finish.

만약, 비교 유닛(113)이 추적 대상 물체 영역내의 픽셀 Vnew의 색상 Cnew 와 영상 데이터의 코드워드의 색상 Ci 의 비교결과와 추적 대상 물체 영역내의 픽셀 Vnew 의 밝기 Inew 와 영상 데이터의 코드워드의 밝기< I< min i>, I< max i>>의 비교 결과가 동일하지 않은 경우에는 널(nuII)을 irep에 할당하여 반환하고, 비교를 계속 반복한다. 이때, 비교 유닛(113)은 하기 <수학식 1>을 이용하여 추적 대상 물체 영역내의 픽셀 Vnew의 색상 Cnew 와 영상 데이터의 코드워드의 색상 Ci 을 비교하고, <수학식 2>를 이용하여 추적 대상 물체 영역내의 픽셀 Vnew 의 밝기 Inew 와 영상 데이터의 코드워드의 밝기< I< min i>, I< max i>>를 비교한다.
If the comparing unit 113 of the comparison result and tracking the object pixel V new brightness I new and video data of in the region of the color C i of the code word of the pixel V new color C new and the image data within a tracked object area If the comparison result of the brightness <I < min i> and I < max i>> of the codewords is not the same, null is assigned to i rep and the comparison is repeated. In this case, the comparison unit 113 compares the color C new of the pixel V new in the tracking object region with the color C i of the codeword of the image data by using Equation 1 below, and uses Equation 2 below. and compares the tracked object to the brightness of the code word of the pixel V new brightness I of the new image data in the region <I <min i>, I <max i>>.

Figure pat00002
Figure pat00002

<수학식 1>을 참조하면, C는

Figure pat00003
를 나타내고, Ci는 영상 데이터 코드워드의 i번째 코드워드의 색상을 대표하는 C1 ,i, C2 ,i, C3 ,i 3차원으로 구성된 벡터를 나타내고, Cnew는 추적 대상 물체 영역내의 픽셀 Vnew의 색상 Cnew 을 대표하는 3차원으로 구성된 벡터 Cnew ,1, Cnew ,2, Cnew , 3 를 나타내고, THC는 미리 결정된 임계치를 나타낸다.
Referring to Equation 1, C is
Figure pat00003
Ci represents a vector consisting of C 1 , i, C 2 , i, C 3 , i three-dimensional vectors representing the color of the i th codeword of the image data codeword, and Cnew represents a pixel V in the tracking object region. vector constructed in three dimensions, representing the color of the new C new C new, 1, C new, represents 2, C new, 3, TH C represents a predetermined threshold.

Figure pat00004
Figure pat00004

<수학식 2>를 참조하면, I는

Figure pat00005
을 타나낸다. 비교 유닛(113)은 추적 대상 물체 영역내의 픽셀 Vnew 의 밝기 Inew 가 영상 데이터의 코드워드의 가장 어두운 색의 밝기 I< min , i> 와 미리 결정된 임계값 THmin 의 차이보다 크고 영상 데이터의 코드워드의 가장 밝은 색의 밝기 I< max , i> 와 미리 결정된 임계값 THmin 의 합보다 작은지 비교한다.Referring to Equation 2, I
Figure pat00005
Appears. The comparing unit 113 is tracking the object area pixel V new brightness I new is large, the image data than the threshold difference TH min pre-determined and the darkest brightness of the color I <min, i> of the code words of the video data in the The brightness of the brightest color of the codeword I < max , i> is compared with the sum of the predetermined threshold TH min .

업데이트 유닛(123)은 비교 유닛(113)의 비교결과에 따라 코드워드를 업데이트한다. 먼저, 비교 유닛(113)의 비교 결과 추적 대상 물체 영역내의 픽셀 Vnew이 영상 데이터의 코드워드에 존재한다고 판단한 경우, 하기 <수학식 4>와 같이 코드 워드를 업데이트한다.
The update unit 123 updates the codeword according to the comparison result of the comparison unit 113. First, when the comparison unit 113 determines that the pixel V new in the tracking object region exists in the codeword of the image data, the codeword is updated as shown in Equation 4 below.

Figure pat00006
Figure pat00006

<수학식 3>을 참조하면, 업데이트 유닛(123)은 영상 데이터의 코드워드의 색상 Ci 의 벡터 (C1 ,i, C2 ,i, C3 ,i)에 각각 코드워드에 포함된 픽셀의 수/빈도수 fi를 곱하고, 추적 대상 물체의 색상 Cnew 의 벡터 (C1 , new, C2 , new, C3 , new)를 더한다. 그리고, 업데이트 유닛(123)은 추적 대상 물체의 색상 Cnew 을 영상 데이터의 코드워드의 색상 Ci 에 더함에 따라 픽셀의 수/빈도수 fi가 증가시켜 나눔으로써 업데이트를 수행한다. Referring to Equation 3, the update unit 123 includes the pixels included in the codewords in the vectors C 1 , i , C 2 , i , C 3 , i of the color C i of the codeword of the image data, respectively. Multiply the number / frequency f i of by and add the vectors (C 1 , new , C 2 , new , C 3 , new ) of the color C new of the tracked object. The update unit 123 performs the update by dividing the number / frequency f i of the pixel by increasing the color C new of the tracking object to the color C i of the codeword of the image data.

또한, 업데이트 유닛(123)은 영상 데이터의 코드워드의 가장 어두운 색의 밝기 Imin와 추적 대상 물체의 밝기 Inew를 비교하여 작은 값을 영상 데이터의 코드워드의 가장 어두운 색의 밝기 I< min , i>로 업데이트를 수행하고, 영상 데이터의 코드워드의 가장 밝은 색의 밝기 Imax와 추적 대상 물체의 밝기 Inew를 비교하여 큰 값을 영상 데이터의 코드워드의 가장 밝은 색의 밝기 I< max , i>로 업데이트를 수행한다.In addition, the updating unit 123 compares the brightness I min of the darkest color of the codeword of the image data with the brightness I new of the tracking object and compares the small value to the brightness I < min , of the darkest color of the codeword of the image data . i>, and compare the brightness I max of the brightest color of the codeword of the image data with the brightness I new of the tracked object and compare the large value to the brightness I < max , i> Perform the update.

둘째, 비교 유닛(113)의 비교 결과 추적 대상 물체 영역내의 픽셀 Vnew이 영상 데이터의 코드워드에 존재하지 않는다고 판단한 경우, 업데이트 유닛(123)은 하기 <수학식 4>와 같은 코드 워드를 생성한다.
Second, when the comparison unit 113 determines that the pixel V new in the tracking object region does not exist in the codeword of the image data, the update unit 123 generates a codeword as shown in Equation 4 below. .

Figure pat00007
Figure pat00007

<수학식 4>를 참조하면, 업데이트 유닛(123)은 추적 대상 물체의 i번째 코드워드의 색상 Ci를 (C1 , new, C2 , new, C3 , new)로 생성하고, 는 i번 코드워드 내에서 가장 어두운 색의 밝기를 I로 생성하고, i번 코드워드 내에서 가장 밝은 색의 밝기를 I로 생성하고, i번째 코드워드에 포함된 픽셀의 수/빈도를 1로 생성한다. Referring to Equation 4, the update unit 123 generates the color Ci of the i th codeword of the tracking object as (C 1 , new , C 2 , new , C 3 , new ), and The brightness of the darkest color in the codeword is generated as I, the brightness of the lightest color in the codeword i is generated as I, and the number / frequency of pixels included in the i-th codeword is generated as 1.

업데이트 유닛(123)을 통해서 추적 대상 물체의 코드 워드가 생성이 완료된 후, 코드워드 제거 유닛(133)은 <표 2>를 이용해서 구성요소의 수가 적은 코드워드를 제거한다.
After the generation of the code word of the object to be tracked through the update unit 123 is completed, the codeword removal unit 133 uses <Table 2> to remove codewords having a small number of components.

Figure pat00008
Figure pat00008

<표 2>를 참조하면, 코드워드 제거 유닛(133)은 코드 워드의 개수 N만큼 반복하면 구성요소의 수가 적은 코드워드를 제거한다. 만약, 코드워드에 포함된 픽셀의 수/빈도가 미리 결정된 임계치 THp 보다 작을 경우, 코드워드 제거 유닛(133)은 해당 코드워드를 제거한다. Referring to Table 2, if the codeword removal unit 133 repeats the number N of codewords, the codeword removal unit 133 removes codewords having a small number of components. If the number / frequency of pixels included in the codeword is smaller than the predetermined threshold TH p , the codeword removal unit 133 removes the corresponding codeword.

확률지도 생성부(106)는 모델링부(105)로부터 수신된 추적 대상 물체의 코드북을 이용하여 확률지도를 생성한다. 본 발명의 일 실시예에 따르면, 새로 입력된 영상의 (x, y)위치의 색상값이 C(x, y)일 경우 확률지도 생성부(106)가 추적 대상 물체의 코드북을 이용하여 확률지도를 생성하는 과정을 설명하면, 확률지도 생성부(106)는 모델링부(105)로부터 수신된 추적 대상 물체의 코드북에서C(x, y)를 포함하는 코드북내의 코드워드를 검색하고, 검색 결과 C(x, y)를 포함하는 코드북내에 코드워드가 존재할 경우 해당 인덱스인 iselected 를 반환하고, 검색 결과 C(x, y)를 포함하는 코드북내에 코드워드가 존재하지 않을 경우 널(NULL)을 반환하여 확률 지도를 생성한다. 여기서, C(x, y)를 포함하는 코드북내에 코드워드가 존재하지 않을 경우의 확률 지도의 확률값은 0이 되고, C(x, y)를 포함하는 코드북내에 코드워드가 존재하는 경우에 반환된 코드워드 cwselected의 빈도 fiselected가 확률값이 된다.The probability map generator 106 generates a probability map by using a codebook of the tracking target object received from the modeling unit 105. According to an embodiment of the present invention, when the color value of the (x, y) position of the newly input image is C (x, y), the probability map generator 106 uses the codebook of the tracking object to determine the probability map. In the following description, the probability map generator 106 searches a codeword in the codebook including C (x, y) in the codebook of the tracking object received from the modeling unit 105, and the search result C. If a codeword exists in the codebook containing (x, y), the index i selected is returned. If the codeword does not exist in the codebook containing C (x, y), the search returns null. To create a probability map. Here, the probability value of the probability map when the codeword does not exist in the codebook containing C (x, y) becomes 0, and is returned when the codeword exists in the codebook containing C (x, y). The frequency f iselected of the codeword cw selected is a probability value.

추적부(107)는 확률지도 생성부(106)로부터 생성된 확률지도를 이용하여 추적 대상 물체를 추적한다. 본 발명의 실시예에 따르면, 추적부(107)는 Mean Shift TraCking알고리즘에 확률지도 생성부(106)로부터 생성된 확률지도를 적용하여 추적 대상 물체를 추적할 수 있으며, Mean Shift TraCking 알고리즘은 확률지도 생성부(106)로부터 생성된 확률지도를 이용하여 프레임에서 확률 분포의 중심값을 찾기 위해 확률분포의 기울기 값을 반복적으로 검색하여 추적 대상 물체의 영역이 가지는 가장 큰 확률 분포 값의 중심을 검색함으로써 추적 대상 물체를 추적할 수 있다.The tracking unit 107 tracks an object to be tracked using the probability map generated from the probability map generating unit 106. According to an embodiment of the present invention, the tracking unit 107 may apply the probability map generated from the probability map generator 106 to the Mean Shift TraCking algorithm to track the object to be tracked, and the Mean Shift TraCking algorithm may use the probability map. By using the probability map generated by the generation unit 106 to search the center of the largest probability distribution value of the area of the tracking object by repeatedly searching the slope value of the probability distribution to find the center value of the probability distribution in the frame. The object to be tracked can be tracked.

본 발명의 실시예에 따르면, 추적부(107)는 칼만 필터(KaIman FiIter) 알고리즘을 확률지도 생성부(106)로부터 생성된 확률지도에 적용하여 추적 대상 물체를 추적할 수 있으며, 칼만 필터 알고리즘은 이전 프레임에서의 추적 대상 물체와 현재 프레임에서의 추적 대상 물체 사이에 선형적인 관계가 있을 경우에 이전 프레임에서 추적된 추적 대상 물체의 위치를 기초로 현재 프레임에서 추적 대상 물체의 위치를 추적하고 연속적으로 측정된 값을 이용하여 추적 대상 물체의 위치를 추적할 수 있다.
According to an embodiment of the present invention, the tracking unit 107 may apply a Kalman filter (Kaman FiIter) algorithm to the probability map generated from the probability map generator 106 to track the object to be tracked. If there is a linear relationship between the tracked object in the previous frame and the tracked object in the current frame, the position of the tracked object in the current frame is tracked and continuously based on the position of the tracked object tracked in the previous frame. The measured value can be used to track the position of the tracking object.

도 2는 본 발명의 실시예에 따른 물체를 추적하는 과정을 도시한 흐름도이다.2 is a flowchart illustrating a process of tracking an object according to an embodiment of the present invention.

도 2를 참조하면, 물체 추적 장치는 다양한 형태의 복수의 영상 촬영기기로부터 촬영된 영상 데이터를 수신하고 수신된 영상 데이터를 색공간으로 변환한다(S201). 여기서, 영상 촬영기기는 예컨대 다중 시점 비디오 카메라 또는 스테레오 비디오 카메라 및 깊이 카메라 등을 포함할 수 있다. 본 발명의 실시예에 따르면, 물체 추적 장치는 수신된 영상 데이터의 원색 신호를 0부터 255사이의 픽셀값으로 변환함으로써 영상 데이터를 (R, G, B) 색공간으로 변환할 수 있다. 본 발명의 실시예에 따르면, 물체 추적 장치는 수신된 영상 데이터의 색차 신호를 색의 밝기(IuminanCe)인 Y성분과 생상(ChrominanCe)인 U(Cb) 와 V(Cr)성분으로 구분하고, Y성분은 오차에 민감하므로 생산성분인 U와 V보다 많은 비트로 코딩하기 위해서 Y: U: V의 비율을 4: 2: 2로 하여 색공간으로 변환할 수 있다. Referring to FIG. 2, the object tracking apparatus receives image data photographed from a plurality of image photographing apparatuses of various types and converts the received image data into a color space (S201). Here, the image capturing apparatus may include, for example, a multi-view video camera or a stereo video camera and a depth camera. According to an embodiment of the present invention, the object tracking device may convert the image data into the (R, G, B) color space by converting the primary color signal of the received image data into a pixel value between 0 and 255. According to an embodiment of the present invention, the object tracking device classifies the color difference signal of the received image data into Y component, which is the brightness of color (IuminanCe), and U (Cb) and V (Cr) component, which are chromatin (CrominanCe), and Y Since the component is sensitive to error, the ratio of Y: U: V can be converted to color space by 4: 2 to code more bits than the productivity U and V.

물체 추적 장치는 변환된 영상 데이터가 모델링되었는지 판단한다(S202). 판단 결과 변환된 영상 데이터가 모델링 되어 있다고 판단(S202)한 경우, 물체 추적 장치는 코드북을 이용하여 확률 지도를 생성하고(S207). 생성된 확률 지도를 이용하여 추적 대상 물체를 추적한다(S208). 본 발명의 일 실시예에 따르면, 새로 입력된 영상의 (x, y)위치의 색상값이 C(x, y)일 경우 추적 대상 물체의 코드북을 이용하여 확률지도가 생성되는 과정을 설명하면, 물체 추적 장치는 추적 대상 물체의 코드북에서C(x, y)를 포함하는 코드북내의 코드워드를 검색하고, 검색 결과 C(x, y)를 포함하는 코드북내에 코드워드가 존재할 경우 해당 인덱스인 iselected 를 반환하고, 검색 결과 C(x, y)를 포함하는 코드북내에 코드워드가 존재하지 않을 경우 널(NULL)을 반환하여 확률 지도를 생성한다. 여기서, C(x, y)를 포함하는 코드북내에 코드워드가 존재하지 않을 경우의 확률 지도의 확률값은 0이 되고, C(x, y)를 포함하는 코드북내에 코드워드가 존재하는 경우에 반환된 코드워드 cwselected의 빈도 fiselected가 확률값이 된다.The object tracking apparatus determines whether the converted image data is modeled (S202). If it is determined that the converted image data is modeled (S202), the object tracking apparatus generates a probability map using a codebook (S207). The tracking target object is tracked using the generated probability map (S208). According to an embodiment of the present invention, when the color value of the (x, y) position of the newly input image is C (x, y), a process of generating a probability map using a codebook of a tracking object will be described. The object tracking device searches a codeword in a codebook including C (x, y) in the codebook of the object to be tracked, and if the codeword exists in the codebook including C (x, y) as a result of the search, i selected If the codeword does not exist in the codebook containing the search result C (x, y), returns null to generate a probability map. Here, the probability value of the probability map when the codeword does not exist in the codebook containing C (x, y) becomes 0, and is returned when the codeword exists in the codebook containing C (x, y). The frequency f iselected of the codeword cw selected is a probability value.

반면, 판단 결과 변환된 영상 데이터가 모델링 되어 있지 않다고 판단되면(S202), 물체 추적 장치는 물체 추적 장치는 추적 대상 물체 영역내의 픽셀이 영상 데이터의 코드워드에 존재하는 판단한다(S203). 만약, 추성 대상 물체 영역내의 픽셀이 영상 데이터의 코드워드에 존재하지 않는다고 판단된 경우(S203), 물체 추적 장치는 코드 워드를 생성하고(S204), 추적 대상 물체 영역내의 픽셀이 영상 데이터의 코드워드에 존재한다고 판단된 경우(S203), 추적 대상 물체 영역내의 픽셀을 영상 데이터의 코드워드에 업데이트한다(S205). 이때, 물체 추적 장치는 영상 데이터의 코드북내의 코드 워드의 개수 N만큼 추적 대상 물체 영역내의 픽셀이 영상 데이터의 코드워드에 존재하는지 판단한다. On the other hand, if it is determined that the converted image data is not modeled (S202), the object tracking apparatus determines that the pixels in the tracking object region exist in the codeword of the image data (S203). If it is determined that a pixel in the speculative object region does not exist in the codeword of the image data (S203), the object tracking apparatus generates a codeword (S204), and the pixel in the tracking object region is a codeword of the image data. If it is determined to exist at (S203), the pixel in the tracking object region is updated to the codeword of the image data (S205). In this case, the object tracking apparatus determines whether pixels in the tracking object region exist in the codeword of the image data by the number N of codewords in the codebook of the image data.

만약, 코드 워드의 개수 N만큼 추적 대상 물체 영역내의 픽셀이 영상 데이터의 코드워드에 존재하는지 판단이 종료되면(S206), 물체 추적 장치는 코드북을 이용하여 확률 지도를 생성하고(S207). 생성된 확률 지도를 이용하여 추적 대상 물체를 추적한다(S208). 본 발명의 실시예에 따르면, 물체 추적 장치는 Mean Shift TraCking알고리즘에 확률지도를 적용하여 추적 대상 물체를 추적할 수 있으며, Mean Shift TraCking 알고리즘은 확률지도를 이용하여 프레임에서 확률 분포의 중심값을 찾기 위해 확률분포의 기울기 값을 반복적으로 검색하여 추적 대상 물체의 영역이 가지는 가장 큰 확률 분포 값의 중심을 검색함으로써 추적 대상 물체를 추적할 수 있다.If it is determined whether the number of pixels in the tracking object region exists in the codeword of the image data by the number N of codewords (S206), the object tracking apparatus generates a probability map using the codebook (S207). The tracking target object is tracked using the generated probability map (S208). According to an embodiment of the present invention, the object tracking device may track a target object by applying a probability map to a Mean Shift TraCking algorithm, and the Mean Shift TraCking algorithm finds a center value of a probability distribution in a frame by using a probability map. The object to be tracked can be tracked by repeatedly searching for the slope of the probability distribution and searching for the center of the largest probability distribution value of the area of the object to be tracked.

본 발명의 실시예에 따르면, 물체 추적 장치는 칼만 필터(KaIman FiIter) 알고리즘에 확률지도를 적용하여 추적 대상 물체를 추적할 수 있으며, 칼만 필터 알고리즘은 이전 프레임에서의 추적 대상 물체와 현재 프레임에서의 추적 대상 물체 사이에 선형적인 관계가 있을 경우에 이전 프레임에서 추정된 추적 대상 물체의 위치를 기초로 현재 프레임에서 추적 대상 물체의 위치를 추적하고 연속적으로 측정된 값을 이용하여 추적 대상 물체의 위치를 추정할 수 있다.
According to an embodiment of the present invention, the object tracking device may track a target object by applying a probability map to the KaIman FiIter algorithm, and the Kalman filter algorithm may track the target object in the previous frame and the current frame. If there is a linear relationship between the tracked objects, the tracked object position is tracked in the current frame based on the estimated position of the tracked object estimated in the previous frame, and the tracked object position is measured using the continuously measured values. It can be estimated.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

101: 수신부 102: 변환부
103: 모델링부 113: 비교 유닛
123: 업데이트 유닛 133: 코드 워드 제거 유닛
104: 확률지도 생성부 105: 추적부
101: receiver 102: converter
103: modeling unit 113: comparison unit
123: update unit 133: code word removal unit
104: probability map generator 105: tracking unit

Claims (1)

복수개의 영상촬영기기로부터 영상 데이터를 수신하고, 상기 수신된 영상 데이터를 픽셀값으로 변환하는 변환부;
상기 변환된 영상 데이터에서 추적대상의 모델링이 되어있는지 판단하는 판단부;
상기 판단결과 모델링이 되어있지 않은 경우 상기 영상 데이터의 코드북의 코드워드에 추적 대상 물체 영역내의 픽셀이 존재하는 경우에 상기 추적 대상 물체 영역내의 픽셀을 상기 코드워드에 업데이트 하고, 상기 코드워드에서 빈도수가 적은 픽셀을 제거하는 모델링부;
상기 빈도수가 적은 픽셀이 제거된 코드워드를 이용하여 확률 지도를 생성하는 확률 지도 생성부; 및
상기 생성된 확률 지도를 이용하여 상기 추적 대상 물체를 추적하는 추적부를 포함하는 것을 특징으로 하는 물체 추적 장치.
A converter which receives image data from a plurality of image photographing apparatuses and converts the received image data into pixel values;
A determination unit which determines whether or not a model of a tracking target is modeled in the converted image data;
If the result of the determination is not modeled, when the pixel in the tracking object region exists in the codeword of the codebook of the image data, the pixel in the tracking object region is updated to the codeword, and the frequency in the codeword A modeling unit to remove a few pixels;
A probability map generator for generating a probability map by using a codeword from which pixels with less frequency are removed; And
And a tracking unit to track the object to be tracked using the generated probability map.
KR1020100121979A 2010-12-02 2010-12-02 Method of tracking object and apparatus for the same KR20120060458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100121979A KR20120060458A (en) 2010-12-02 2010-12-02 Method of tracking object and apparatus for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100121979A KR20120060458A (en) 2010-12-02 2010-12-02 Method of tracking object and apparatus for the same

Publications (1)

Publication Number Publication Date
KR20120060458A true KR20120060458A (en) 2012-06-12

Family

ID=46611370

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100121979A KR20120060458A (en) 2010-12-02 2010-12-02 Method of tracking object and apparatus for the same

Country Status (1)

Country Link
KR (1) KR20120060458A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027243A2 (en) * 2012-08-15 2014-02-20 Questor Capital Holdings Ltd. Probability mapping system
KR20220163811A (en) * 2021-06-03 2022-12-12 순천대학교 산학협력단 Method for removing noise from time lapse video

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014027243A2 (en) * 2012-08-15 2014-02-20 Questor Capital Holdings Ltd. Probability mapping system
WO2014027243A3 (en) * 2012-08-15 2014-04-17 Questor Capital Holdings Ltd. Probability mapping system
US9378462B2 (en) 2012-08-15 2016-06-28 Questor Capital Holdings Ltd. Probability mapping system
KR20220163811A (en) * 2021-06-03 2022-12-12 순천대학교 산학협력단 Method for removing noise from time lapse video

Similar Documents

Publication Publication Date Title
Parisotto et al. Global pose estimation with an attention-based recurrent network
Costante et al. Exploring representation learning with cnns for frame-to-frame ego-motion estimation
CN110246182B (en) Vision-based global map positioning method and device, storage medium and equipment
Iyer et al. Geometric consistency for self-supervised end-to-end visual odometry
US20190050994A1 (en) Control method, non-transitory computer-readable storage medium, and control apparatus
JP5952001B2 (en) Camera motion estimation method and apparatus using depth information, augmented reality system
CN111753961B (en) Model training method and device, prediction method and device
CN110751674A (en) Multi-target tracking method and corresponding video analysis system
CN106934333B (en) Gesture recognition method and system
CN110443266B (en) Object prediction method and device, electronic equipment and storage medium
JP7268076B2 (en) Vehicle re-identification method, apparatus, equipment and storage medium
CN110738143A (en) Positioning method and device, equipment and storage medium
CN111739005B (en) Image detection method, device, electronic equipment and storage medium
RU2476825C2 (en) Method of controlling moving object and apparatus for realising said method
KR20140017829A (en) Device of recognizing predetermined gesture based on a direction of input gesture and method thereof
US11157749B2 (en) Crowd state recognition device, learning method, and learning program
KR102095152B1 (en) A method of recognizing a situation and apparatus performing the same
CN109376783A (en) The adaptive landform classification method of robot, system and computer readable storage medium
CN108320298A (en) A kind of visual target tracking method and equipment
CN111695519A (en) Key point positioning method, device, equipment and storage medium
Wang et al. Plug-and-play: Improve depth prediction via sparse data propagation
CN110955965A (en) Pedestrian motion prediction method and system considering interaction
CN113205138A (en) Human face and human body matching method, equipment and storage medium
Engelsman Data-driven denoising of accelerometer signals
KR20120060458A (en) Method of tracking object and apparatus for the same

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid