WO2017142311A1 - Multi-object tracking system and multi-object tracking method using same - Google Patents

Multi-object tracking system and multi-object tracking method using same Download PDF

Info

Publication number
WO2017142311A1
WO2017142311A1 PCT/KR2017/001659 KR2017001659W WO2017142311A1 WO 2017142311 A1 WO2017142311 A1 WO 2017142311A1 KR 2017001659 W KR2017001659 W KR 2017001659W WO 2017142311 A1 WO2017142311 A1 WO 2017142311A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
tracking
unit group
images
moving
Prior art date
Application number
PCT/KR2017/001659
Other languages
French (fr)
Korean (ko)
Inventor
곽정환
전문구
양이화
Original Assignee
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광주과학기술원 filed Critical 광주과학기술원
Publication of WO2017142311A1 publication Critical patent/WO2017142311A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a multi-object tracking system and a multi-object tracking method using the same, and to a multi-object tracking system and a multi-object tracking method using the same by tracking a group of moving objects displayed on images captured by a tracking camera into unit groups. It is about.
  • Object tracking refers to accurately extracting the moving path of a moving object.
  • many studies on multi-object tracking have been conducted.
  • Most multi-object tracking systems consist mainly of data association framework, and various methods have been applied to solve data association problems.
  • a multi-view mulit-part model that is, a model of a human body divided into parts such as a head-shoulder, a head-waist, a whole body, and the like is used for object tracking. come.
  • the conventional tracking method is markedly inferior in tracking performance when the camera position is lowered or when the head is covered and when the human shape is half vertically covered.
  • the present invention was devised to improve the above-mentioned problems, and set moving objects adjacent to each other in images taken by a tracking camera into one unit group, track the movement of the unit group, and position the tracking camera.
  • the purpose of the present invention is to propose a multi-object tracking system and a multi-object tracking method using the same, which can minimize interference with the obstruction phenomenon of moving objects.
  • the multi-object tracking system for achieving the above object is a tracking camera for photographing the tracking target moving objects at predetermined unit time intervals, and receiving the images taken from the tracking camera, the movement displayed on the images And a grouping module for grouping the moving objects located within a predetermined set distance among objects into a unit group, and a tracking module for tracking a unit group including the selected moving object among the unit groups based on the images.
  • the grouping module may include moving objects in the unit group spaced apart from each other further than the set distance with time, or at least one of the moving objects included in the unit group in another adjacent unit group.
  • the multi-object tracking system preferably further includes an object modeling module for modeling the moving objects of the unit group grouped by the grouping module according to a predetermined identification criterion.
  • the identification criteria include color histogram, histogram of gradient, and color self similarity.
  • the object modeling module classifies the moving object into a plurality of unit parts according to body parts, and models the unit by the unit parts.
  • the object modeling module includes the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the human body extending in the vertical direction.
  • the third unit part which is the left part, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
  • the tracking module determines that the unit groups selected from each of the images are similar according to predetermined similar information, it is preferable to connect the positions of the unit groups in each of the images to display the tracking path.
  • the similar information includes motion information of a moving object included in the selected unit group, appearance modeling information of moving objects included in the unit group modeled by the object modeling module, and information on a difference in photographing time between the images. Included.
  • the grouping step may include an initial grouping step of grouping the moving objects located within a predetermined set distance among the moving objects in a unit group from one of the images photographed by the tracking camera, and after the initial grouping step is completed. And at least one of the moving objects included in the unit group of the initial image in the remaining ones of the images, spaced apart from each other further than the set distance, or included in the unit group of the initial image.
  • the group group is released, and regrouping the mobile objects located within the set distance into the unit group Regrouping step.
  • the multi-object tracking method further includes an object modeling step of modeling the moving objects included in the unit group grouped in the grouping step between the grouping step and the tracking step according to a predetermined identification criterion. It is preferable.
  • the identification criteria include color histogram, histogram of gradient, and color self similarity.
  • the moving object when the moving object is a human, the moving object is divided into a plurality of unit parts according to body parts, and modeled for each unit part.
  • the whole body is based on the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the person extending in the vertical direction.
  • the third unit part which is the left part of, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and modeled by the first to fourth unit parts.
  • the location of the unit group selected to each of the images is connected to each other and displayed as a tracking path.
  • the similar information includes motion information of a moving object included in the unit group selected from the images, appearance modeling information of the moving objects included in the unit group generated through the object modeling step, and elapsed time between the images. Include information about
  • the multi-object tracking system according to the present invention and the multi-object tracking method using the same set the moving objects adjacent to each other in the image photographed by the tracking camera as one unit group, and track the movement of the unit group from the selected moving object. Since the analysis of distant moving objects is not required, tracking time is saved and accuracy of tracking result value is improved.
  • the body when the moving object is a human model, the body is divided into a plurality of parts when modeling the moving object, thereby preventing interference with the obstruction phenomenon of the moving object. Minimized to improve the accuracy of the analysis.
  • FIG. 1 is a block diagram of a multi-object tracking system according to the present invention.
  • FIG. 2 is a conceptual diagram illustrating a grouping operation of a grouping module of the multi-object tracking system of FIG. 1,
  • 3A and 3B are conceptual views illustrating a regrouping operation of a grouping module of a multi-object tracking system.
  • FIG. 4 is a diagram illustrating a grouping operation of a grouping module by using an actual captured image.
  • FIG. 5 is a conceptual diagram illustrating a plurality of unit part areas separated by an object modeling module of a multi-object tracking system according to the present invention
  • FIG. 6 is a conceptual diagram illustrating a motion trajectory of a tracklet displayed by a tracking module of a multi-object tracking system according to the present invention
  • FIG. 7 is a flowchart illustrating a multiple object tracking method according to the present invention.
  • the multi-object tracking system includes a tracking camera for capturing tracking target objects at predetermined unit time intervals, and a preset setting among the moving objects displayed on the images by receiving images captured by the tracking camera. And a grouping module for grouping the moving objects located within a distance into a unit group, and a tracking module for tracking a unit group including the selected moving object among the unit groups based on the images.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 illustrates a multiple object tracking system 10 according to an embodiment of the present invention.
  • the multi-object tracking system 10 receives the tracking camera 11 for capturing the tracking target moving objects at predetermined unit time intervals, and the images captured by the tracking camera 11 to receive the images.
  • a grouping module 12 for grouping the moving objects located within a predetermined set distance among the moving objects displayed in the unit group, and the mobile objects of the unit group grouped by the grouping module 12 are identified.
  • An object modeling module 13 for modeling according to a reference and a tracking module 14 for tracking a unit group including the moving object selected from the unit groups based on the images.
  • the tracking camera 11 is installed on an upper part of a building or a facility to photograph moving objects located in a predetermined area.
  • the tracking camera 11 photographs the area at predetermined unit time intervals, and the photographed images are transmitted to the grouping module 12 through the communication module although not shown in the drawing.
  • the number of the tracking cameras 11 may not be limited to the illustrated example, but a plurality of tracking cameras 11 may be provided.
  • the grouping module 12 receives the images captured by the tracking camera 11 to group the moving objects.
  • the grouping module 12 may be configured such that the moving objects in the unit group are spaced apart from each other farther than the set distance, or that at least one of the moving objects included in the unit group is adjacent to each other.
  • the unit group grouped in the image is released, and the mobile objects located within the set distance are regrouped into the unit group.
  • FIG. 2 illustrates a grouping process of the grouping module 12.
  • FIG. 3A illustrates a state in which the grouping module 12 resets one unit group to two unit groups according to movement of moving objects.
  • 3B illustrates a state in which the grouping module 12 resets two unit groups to one unit group according to the movement of the moving objects.
  • images are arranged from left to right over time, and a moving object is displayed with dots having a predetermined color in each image.
  • the moving objects located within a predetermined set distance among the moving objects are set as one unit group. That is, one moving object located at the bottom of the image is set as the first unit group, and two moving objects located above the first unit group are set as the second unit group, and three moving objects located above the second unit group. Mobile objects are set to the third unit group.
  • the moving objects of the first unit group of the leftmost image are adjacent by a set distance from the moving objects of the second unit group, and the grouping module 12 is illustrated in FIG. 3B.
  • the existing first unit group and the second unit group are released, and the moving objects included in the existing first unit group and the moving objects included in the existing second unit group are set as one new first unit group. .
  • one of the moving objects included in the existing third unit group is spaced farther than the set distance from the other moving objects of the third unit group, the grouping module 12 as shown in Figure 3a
  • the third unit group is released, and the new second unit group sets one moving object spaced farther than the set distance among the moving objects included in the existing third unit group, and the remaining one of the existing third unit groups Set the moving object to the new third unit group.
  • FIG. 4 illustrates a state in which the grouping module 12 groups and regroups moving objects based on the actually photographed image.
  • the grouping module 12 groups and regroups moving objects based on the actually photographed image.
  • three images are arranged from left to right according to the photographed time sequence.
  • one moving object located to the left of the moving objects included in the unit group A is farther than the set distance from the remaining moving objects. Spaced apart, the remaining moving objects were adjacent to the moving objects of the moving unit group (B).
  • the grouping module 12 releases the unit group (A) and the unit group (B), sets one moving object located on the leftmost side of the image as a new unit group (A), and moves the four adjacent groups. Set the object to the new unit group (B).
  • the object modeling module 13 models moving objects included in a unit module grouped from the grouping module 12 and models the moving objects according to a predetermined identification criterion.
  • the identification criteria include color histogram, histogram of gradient, and color self similarity.
  • the object modeling module 13 divides the moving object into a plurality of unit parts according to body parts, and models the unit according to the unit parts.
  • the unit parts are shown separately.
  • the moving object is located on the left side of the whole body based on the first unit part (HS) from the head to the shoulder, the second unit part (HT) from the head to the body, and the center line of the person extending in the vertical direction.
  • the third unit part LB which is a part, is divided into a fourth unit part RB, which is a right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
  • the moving object modeling of the object modeling module 13 will be described in more detail as follows.
  • the moving object (r) displayed in the image It can be expressed as
  • l is a label indicating a type selected from the first to fourth unit parts HS, HT, LB, and RB
  • a is an appearance model
  • p is a position of a moving object
  • t is the time in view of the image frame index.
  • the combined detection response (o) in the image It is expressed as And the target hypothesis M is
  • the v denotes a visible part of the moving object. If v has no first to second unit parts (HS, HT, LB, RB), it means that the moving object is not visible.
  • the visual part After acquiring the detection response, the visual part is processed, which calculates and updates the appearance model corresponding to each part of the moving object body.
  • the above identification criteria of each moving object namely, color histogram, histogram of gradients, and color self similarity are used.
  • the color histogram is for indicating the color appearance of the moving object, and a standard color histogram generally used in the art is applied.
  • a standard color histogram generally used in the art is applied.
  • an RGB color space is applied, but not limited thereto, and a Hue Saturation Value (HSV) and YCbCr may be applied.
  • HSV Hue Saturation Value
  • YCbCr may be applied.
  • Single channel histograms are single vectors with 8 bins for each channel. Results in a 24-dimensional vector.
  • the 32-dimensional gradient histogram characteristic is associated with 8 orientations bins within a range 2x2 cell of a moving object.
  • 32-dimensional color self-similarity ( ).
  • Equation 1 an appearance descriptor (a) of the selected tracklet tracklet T is expressed by Equation 1 below.
  • the characteristic vector of the color histogram Is a 32-dimensional gradient histogram characteristic vector, Is a 32-dimensional color self-similarity characteristic vector based on the Hue Saturation Value (HSV).
  • the subscript S is an index of the subregion of the moving object. The number of sub-regions is determined according to a label indicating a type selected from among the first to fourth unit parts HS, HT, LB, and RB. In the case of the whole body of a moving object including a third unit part (LB) and a fourth unit part (RB) for extracting a feature and configuring each corresponding feature pool for a human body partition, You can divide an object's area into nine subareas.
  • the second to fourth unit parts HT, LB, and RB may be divided into four subregions, and the first unit part HS may have one subregion.
  • three subtypes (featur type), namely, color histogram, histogram of gradients, and color self similarity are evaluated for each subregion.
  • a total of 27 feature vectors are generated for the whole body including the third and fourth unit parts constituting one feature pool.
  • the feature vector provides a feature pool of the moving object for generating a tracklet.
  • the characteristic vector is also used in a boosting algorithm for constructing a strong classifier.
  • Equation 3 The strong model, which determines the affinity score of the appearance between, is designed as a linear combination of similar measures calculated by Equation 2. Therefore, the strong classifier is expressed by Equation 3 below.
  • the appearance model for each body part is calculated by offline processing.
  • the boosting procedure is the same as Algorithm 1 described in Table 1 below.
  • Equation 4 the loss function of the boosting algorithm is shown in Equation 4 below.
  • w is the weight for each training sample to be updated while boosting. Goals are achieved by sequentially adding new weak classifiers. Z is the least To find.
  • the tracking module 14 tracks the unit group including the selected moving object among the unit groups based on the images. At this time, if the analyst conducting the tracking selects one of the moving objects displayed on the image, the tracking module 14 selects a unit group including the selected moving object and connects the positions of the selected unit group in the images to track the path. Is displayed.
  • the tracking module 14 determines that the unit groups selected from each of the images are similar according to predetermined similar information, it is preferable to connect the positions of the unit groups in each of the images and display them as a tracking path.
  • the similar information includes motion information of the moving object included in the selected unit group, appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13, and a photographing time between the images. It is desirable to include information about the differences.
  • the operation of the tracking module 14 will be described in more detail as follows.
  • pairwise linking confidence between a plurality of tracklets is determined by the motion information of the tracklets and the appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13. It is defined, and the appearance is shown in Equation 6 below.
  • GM is a grouping module 12.
  • the grouping module 12 returns a result value as true if a plurality of tracklets are connected based on the unit group information.
  • the forward velocity and the backward velocity of the tracklet of the corresponding motion model are calculated as shown in FIG. 6.
  • the forward velocity is calculated from the refined position of the tail response of the tracklet while the backward velocity is calculated from the refined position of the head response of the tracklet.
  • the motion model is Gaussian, respectively.
  • Gaussian Is represented by.
  • the association measurement of the motion is described as in Equation (7).
  • G is a zero-mean Gaussian function
  • Equation 8 the correlation of time is expressed by a simple step function as shown in Equation 8 below.
  • the appearance model is obtained from a linear combination of several similarity measures of a set of local descriptors as described above.
  • the appearance model is calculated for the part area of each object.
  • the appearance model is then updated with detection response along the tracklet when the part is visible.
  • Equation 10 After calculating the pairwise association of the tracklets using Equation 6, a cost matrix C is constructed, and a Hungarian algorithm is applied to obtain an optimal association.
  • the cost matrix C is defined as in Equation 10 below.
  • Is the pairwise association cost Is the terminating cost. Is the cost to initialize to a new or fale track, silver Zero matrix. Is the end of the tracklet, where N is the normalization factor, r is the missed detection rate, w is the size of the temporal sliding window, and s is the buffering of the object due to occlusion. The number of video frames. Is the initialization period of the tracklet, where g is the video frame interval. Is a false alarm period, where L is the total number of image frames.
  • the multi-object tracking method includes a photographing step (S101), a grouping step (S102) (S102), an object modeling step (S103), and a tracking step (S104).
  • the photographing step (S101) is a step of capturing images including a plurality of moving objects at predetermined unit time intervals through the tracking camera 11. At this time, the image taken by the tracking camera 11, that is, the image is transmitted to the grouping module 12 through a communication module (not shown).
  • Grouping step (S102) is a step of grouping the moving objects located within a predetermined set distance of the moving objects displayed on each image based on the images taken from the tracking camera 11 in a unit group, the initial group step And a regrouping step.
  • the initial grouping step is a grouping of the moving objects located within a predetermined set distance among the moving objects in one of the images photographed by the tracking camera 11 into a unit group.
  • the grouping module 12 groups the moving objects in the selected one of the images as described above.
  • the moving objects included in the unit group of the initial image are respectively spaced apart from each other farther than the set distance from the remaining ones of the images, or the unit of the initial image.
  • the grouped unit group is released and the Re-grouping the moving objects into the unit group.
  • the moving objects included in the unit group grouped in the grouping step S102 are modeled according to a predetermined identification criterion.
  • the object modeling module 13 models according to predetermined identification criteria, that is, a color histogram, a histogram of gradients, and a color self similarity.
  • the object modeling module 13 divides the moving object into a plurality of unit parts according to the body part, and models for each unit part.
  • the object modeling module 13 may be configured to move the moving object based on the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the person extending in the vertical direction.
  • the third unit part, which is the left part, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
  • the movement path is tracked over time in the unit group including the moving object selected from the unit groups in each of the images.
  • the tracking module 14 selects a unit group including the selected moving object, and the unit group selected from each of the images as described above. If they are determined to be similar according to the predetermined similarity information, it is preferable to connect the positions of the unit groups in each of the images and display them as a tracking path.
  • the similar information includes motion information of a moving object included in the selected unit group, appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13, and a photographing time between the images. It is desirable to include information about the differences.
  • the multi-object tracking system 10 and the multi-object tracking method using the same according to the present invention configured as described above set moving objects adjacent to each other in images captured by the tracking camera 11 as one unit group. As the movement of the unit group is tracked, analysis of moving objects far from the selected moving object is not required, thus saving time required for tracking and improving accuracy of the tracking result value.
  • the model is divided into a plurality of parts when the moving object is modeled, thereby preventing the obstruction of the moving object. Interference is minimized to improve the accuracy of the analysis.
  • the present invention sets the moving objects adjacent to each other in the images taken by the tracking camera as a unit group, tracks the movement of the unit group, and prevents the interference of the obstruction of the moving objects according to the position of the tracking camera. Provides a multi-object tracking system that can be minimized and a multi-object tracking method using the same.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The present invention relates to a multi-object tracking system and a multi-object tracking method using the same. The multi-object tracking system comprises: a tracking camera for photographing at intervals of a predetermined unit time, moving objects to be tracked; a grouping module for receiving the photographed images from the tracking camera and grouping, into unit groups, the moving objects, located within a predetermined setting distance, from among the moving objects displayed in the images; and a tracking module for tracking a unit group including the moving object selected from among the unit groups on the basis of the images.

Description

다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법Multiple Object Tracking System and Multiple Object Tracking Method Using the Same
본 발명은 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법에 관한 것으로서, 추적 카메라를 통해 촬영된 영상들에 표시된 이동객체들을 단위그룹으로 그룹화하여 추적하는 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법에 관한 것이다. The present invention relates to a multi-object tracking system and a multi-object tracking method using the same, and to a multi-object tracking system and a multi-object tracking method using the same by tracking a group of moving objects displayed on images captured by a tracking camera into unit groups. It is about.
객체추적이란 움직이는 사물의 이동경로를 정확히 추출하는 것을 말한다. 종래에 다중객체추적에 대한 많은 연구가 진행되어왔다. 대부분의 다중객체추적 시스템은 주로 데이터연관 프레임워크로 구성되어지며, 데이터연관 문제를 해결하기 위해 다양한 방법들이 적용되어왔다. Object tracking refers to accurately extracting the moving path of a moving object. In the past, many studies on multi-object tracking have been conducted. Most multi-object tracking systems consist mainly of data association framework, and various methods have been applied to solve data association problems.
일반적으로, 실제 쇼핑몰이나 캠퍼스 거리 등 사람이 군집되어 있는 복잡한 환경에서 사람을 추적한다는 것은 어려운 문제 중에 하나이다. 왜냐하면 복잡한 환경에서는 가려짐 등의 현상으로 인해서 사람을 추적하는데 정확도가 떨어지기 때문이다. 종래에는 사람의 경우, 가려짐 문제를 해결하기 위해 multi-view mulit-part model, 즉, 사람의 형상을 머리-어깨, 머리-허리, 전신 등 부분별로 나누어 모델링한 방법이 객체추적방법에 사용되어왔다.  In general, tracking people in complex environments such as shopping malls and campus streets is one of the difficult problems. This is because, in a complex environment, the accuracy of tracking a person is reduced due to a phenomenon such as occlusion. Conventionally, in the case of humans, a multi-view mulit-part model, that is, a model of a human body divided into parts such as a head-shoulder, a head-waist, a whole body, and the like is used for object tracking. come.
종래의 데이터 연관 기법의 경우, 이전 영상 프레임의 화면 내에 존재하는 모든 객체들과 그 다음 프레임의 화면 내에 존재하는 모든 객체들과의 쌍으로(pairwise) 모두 다 비교를 수행하였다. 하지만 일반적인 비디오 환경에서 객체의 움직임은 연속적이며 지역적 근접성을 지니기 때문에 서로 멀리 떨어져 있는 객체들끼리 비교는 상당히 비효율적이다라는 단점이 있다. In the conventional data association technique, a comparison is performed in a pairwise manner with all objects existing in the screen of the previous image frame and all objects existing in the screen of the next frame. However, in general video environment, the movement of objects is continuous and has local proximity, which makes the comparison between objects far apart from each other quite inefficient.
또한, 종래의 추적 방법은 카메라 위치가 낮아지거나 머리가 가려진 경우 및 사람 형상이 수직으로 반이 가려진 경우에 있어서 추적 성능이 현저히 떨어진다.In addition, the conventional tracking method is markedly inferior in tracking performance when the camera position is lowered or when the head is covered and when the human shape is half vertically covered.
본 발명은 상기와 같은 문제점을 개선하기 위해 창안된 것으로서, 추적 카메라에서 촬영된 영상들에서 상호 인접된 이동객체들을 하나의 단위그룹으로 설정하고, 상기 단위그룹의 이동을 추적하며, 추적 카메라의 위치에 따른 이동객체의 가려짐 현상에 대한 간섭을 최소화시킬 수 있는 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법을 제시하는 데 그 목적이 있다.The present invention was devised to improve the above-mentioned problems, and set moving objects adjacent to each other in images taken by a tracking camera into one unit group, track the movement of the unit group, and position the tracking camera. The purpose of the present invention is to propose a multi-object tracking system and a multi-object tracking method using the same, which can minimize interference with the obstruction phenomenon of moving objects.
상기 목적을 달성하기 위한 본 발명에 따른 다중 객체 추적 시스템은 추적대상 이동객체들을 소정의 단위시간을 간격으로 촬영하는 추적 카메라와, 상기 추적 카메라로부터 촬영된 영상들을 제공받아 상기 영상들에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 모듈과, 상기 영상들을 토대로 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 추적하는 추적 모듈을 구비한다. The multi-object tracking system according to the present invention for achieving the above object is a tracking camera for photographing the tracking target moving objects at predetermined unit time intervals, and receiving the images taken from the tracking camera, the movement displayed on the images And a grouping module for grouping the moving objects located within a predetermined set distance among objects into a unit group, and a tracking module for tracking a unit group including the selected moving object among the unit groups based on the images.
상기 그루핑 모듈은 시간의 경과에 따라 상기 단위그룹 내의 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 상기 영상에서 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 재그룹화한다. The grouping module may include moving objects in the unit group spaced apart from each other further than the set distance with time, or at least one of the moving objects included in the unit group in another adjacent unit group. When the set moving object is adjacent to the set distance, the unit group grouped in the image is released, and the moving objects located within the set distance are regrouped into the unit group.
한편, 본 발명에 따른 다중 객체 추적 시스템은 상기 그루핑 모듈에 의해 그룹화된 상기 단위그룹의 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 객체 모델링 모듈을 더 구비하는 것이 바람직하다.Meanwhile, the multi-object tracking system according to the present invention preferably further includes an object modeling module for modeling the moving objects of the unit group grouped by the grouping module according to a predetermined identification criterion.
상기 식별기준은 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)을 포함한다. The identification criteria include color histogram, histogram of gradient, and color self similarity.
상기 객체 모델링 모듈은 상기 이동객체가 사람일 경우, 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트별로 모델링하는 것이 바람직하다. When the moving object is a human, the object modeling module classifies the moving object into a plurality of unit parts according to body parts, and models the unit by the unit parts.
상기 객체 모델링 모듈은 상기 이동객체가 사람일 경우, 상기 이동객체를 머리에서 어깨까지의 제1단위파트, 머리에서 몸통까지의 제2단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링한다. When the moving object is a human, the object modeling module includes the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the human body extending in the vertical direction. The third unit part, which is the left part, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
상기 추적모듈은 각 상기 영상들에서 선택된 상기 단위그룹들이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에서의 상기 단위그룹의 위치들을 연결하여 추적경로로 표시하는 것이 바람직하다. When the tracking module determines that the unit groups selected from each of the images are similar according to predetermined similar information, it is preferable to connect the positions of the unit groups in each of the images to display the tracking path.
상기 유사정보는 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 모듈에 의해 모델링된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 촬영 시간 차이에 대한 정보가 포함된다.The similar information includes motion information of a moving object included in the selected unit group, appearance modeling information of moving objects included in the unit group modeled by the object modeling module, and information on a difference in photographing time between the images. Included.
한편, 본 발명에 따른 다중 객체 추적 방법은 추적 카메라를 통해 소정의 단위시간을 간격으로 다수의 이동객체가 포함된 영상들을 촬영단계와, 상기 추적 카메라로부터 촬영된 영상들을 토대로, 각 상기 영상에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 단계와, 상기 그루핑 단계가 완료된 다음, 각 상기 영상들에서 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 시간의 경과에 따라 이동경로를 추적하는 추적 단계를 포함한다. Meanwhile, in the multi-object tracking method according to the present invention, a step of capturing images including a plurality of moving objects at intervals of a predetermined unit time through a tracking camera, and displayed on each of the images based on the images captured by the tracking camera. A grouping step of grouping the moving objects located within a predetermined set distance among the moving objects into a unit group, and after the grouping step is completed, a unit group including the moving object selected from the unit groups in each of the images; It includes a tracking step of tracking the movement path over time.
상기 그루핑 단계는 상기 추적 카메라를 통해 촬영된 영상들 중 하나의 영상에서 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 초기 그룹단계와, 상기 초기 그룹단계가 완료된 다음, 상기 영상들 중 나머지 상기 영상들에서 각각 상기 초기 영상의 상기 단위그룹에 포함된 상기 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 초기 영상의 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 상기 단위그룹으로 재그룹화하는 재그룹화 단계를 포함한다. The grouping step may include an initial grouping step of grouping the moving objects located within a predetermined set distance among the moving objects in a unit group from one of the images photographed by the tracking camera, and after the initial grouping step is completed. And at least one of the moving objects included in the unit group of the initial image in the remaining ones of the images, spaced apart from each other further than the set distance, or included in the unit group of the initial image. When the moving object of adjacent to the moving object included in another adjacent unit group by the set distance, the group group is released, and regrouping the mobile objects located within the set distance into the unit group Regrouping step.
한편, 본 발명에 따른 다중 객체 추적 방법은 상기 그루핑 단계와 추적 단계 사이에 상기 그루핑 단계에서 그룹화된 상기 단위그룹에 포함된 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 객체 모델링 단계를 더 포함하는 것이 바람직하다. Meanwhile, the multi-object tracking method according to the present invention further includes an object modeling step of modeling the moving objects included in the unit group grouped in the grouping step between the grouping step and the tracking step according to a predetermined identification criterion. It is preferable.
상기 식별기준은 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)을 포함한다. The identification criteria include color histogram, histogram of gradient, and color self similarity.
상기 객체 모델링 단계에서, 상기 이동객체가 사람일 경우, 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트 별로 모델링한다. In the object modeling step, when the moving object is a human, the moving object is divided into a plurality of unit parts according to body parts, and modeled for each unit part.
상기 객체 모델링 단계에서, 상기 이동객체가 사람일 경우, 상기 이동객체를 머리에서 어깨까지의 제1단위파트, 머리에서 몸통까지의 제2단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링하는 것이 바람직하다. In the object modeling step, when the moving object is a human, the whole body is based on the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the person extending in the vertical direction. The third unit part, which is the left part of, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and modeled by the first to fourth unit parts.
상기 추적단계에서, 각 상기 영상들에서 선택된 상기 단위그룹이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에 선택된 상기 단위그룹의 시간경과에 따른 위치를 연결하여 추적경로로 표시한다. In the tracking step, if it is determined that the unit group selected from each of the images is similar to each other according to predetermined similar information, the location of the unit group selected to each of the images is connected to each other and displayed as a tracking path.
상기 유사정보는 상기 영상들에서 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 단계를 통해 생성된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 경과 시간에 대한 정보를 포함한다. The similar information includes motion information of a moving object included in the unit group selected from the images, appearance modeling information of the moving objects included in the unit group generated through the object modeling step, and elapsed time between the images. Include information about
본 발명에 따른 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법은 추적 카메라에서 촬영된 영상들에서 상호 인접된 이동객체들을 하나의 단위그룹으로 설정하고, 상기 단위그룹의 이동을 추적하므로 선택된 이동객체로부터 멀리 떨어진 이동객체에 대한 분석이 요구되지 않아 추적 작업에 소요되는 시간이 절약되고, 추적 결과 값에 대한 정확도가 향상되는 장점이 있다. The multi-object tracking system according to the present invention and the multi-object tracking method using the same set the moving objects adjacent to each other in the image photographed by the tracking camera as one unit group, and track the movement of the unit group from the selected moving object. Since the analysis of distant moving objects is not required, tracking time is saved and accuracy of tracking result value is improved.
또한, 본 발명에 따른 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법은 이동객체가 사람일 경우, 이동객체의 모델링 시 신체를 다수의 파트로 구분하여 모델링하므로 이동객체의 가려짐 현상에 대한 간섭이 최소화되어 분석의 정확도가 향상된다. In addition, in the multi-object tracking system and the multi-object tracking method using the same according to the present invention, when the moving object is a human model, the body is divided into a plurality of parts when modeling the moving object, thereby preventing interference with the obstruction phenomenon of the moving object. Minimized to improve the accuracy of the analysis.
도 1은 본 발명에 따른 다중 객체 추적 시스템에 대한 블럭도이고, 1 is a block diagram of a multi-object tracking system according to the present invention;
도 2는 도 1의 다중 객체 추적 시스템의 그루핑 모듈의 그룹화 작업을 나타낸 개념도이고, 2 is a conceptual diagram illustrating a grouping operation of a grouping module of the multi-object tracking system of FIG. 1,
도 3a 및 도 3b는 다중 객체 추적 시스템의 그루핑 모듈의 재그룹화 작업을 나타낸 개념도이고, 3A and 3B are conceptual views illustrating a regrouping operation of a grouping module of a multi-object tracking system.
도 4는 실제 촬영 영상을 이용하여 그루핑 모듈의 그룹화 작업을 나타낸 도면이고, 4 is a diagram illustrating a grouping operation of a grouping module by using an actual captured image.
도 5는 본 발명에 따른 다중 객체 추적 시스템의 객체 모델링 모듈에 의해 구분된 다수의 단위파트 영역을 나타낸 개념도이고, 5 is a conceptual diagram illustrating a plurality of unit part areas separated by an object modeling module of a multi-object tracking system according to the present invention;
도 6은 본 발명에 따른 다중 객체 추적 시스템의 추적모듈에 의해 표시된 트랙렛의 모션 궤적을 나타낸 개념도이고, 6 is a conceptual diagram illustrating a motion trajectory of a tracklet displayed by a tracking module of a multi-object tracking system according to the present invention;
도 7은 본 발명에 따른 다중 객체 추적 방법을 나타낸 순서도이다. 7 is a flowchart illustrating a multiple object tracking method according to the present invention.
본 발명에 따른 다중 객체 추적 시스템은 추적대상 이동객체들을 소정의 단위시간을 간격으로 촬영하는 추적 카메라와, 상기 추적 카메라로부터 촬영된 영상들을 제공받아 상기 영상들에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 모듈과, 상기 영상들을 토대로 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 추적하는 추적 모듈을 구비한다. The multi-object tracking system according to the present invention includes a tracking camera for capturing tracking target objects at predetermined unit time intervals, and a preset setting among the moving objects displayed on the images by receiving images captured by the tracking camera. And a grouping module for grouping the moving objects located within a distance into a unit group, and a tracking module for tracking a unit group including the selected moving object among the unit groups based on the images.
이하, 첨부한 도면을 참조하여 본 발명의 실시예에 따른 다중 이동객체 추적 시스템 및 이를 이용한 다중 이동객체 추적 방법에 대해 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하여 도시한 것이다. Hereinafter, a multi-mobile object tracking system and a multi-mobile object tracking method using the same will be described in detail with reference to the accompanying drawings. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements. In the accompanying drawings, the dimensions of the structures are shown in an enlarged scale than actual for clarity of the invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
도 1에는 본 발명의 실시 예에 따른 다중 객체 추적 시스템(10)이 도시되어 있다. 1 illustrates a multiple object tracking system 10 according to an embodiment of the present invention.
도면을 참조하면, 다중 객체 추적 시스템(10)은 추적대상 이동객체들을 소정의 단위시간을 간격으로 촬영하는 추적 카메라(11)와, 상기 추적 카메라(11)로부터 촬영된 영상들을 제공받아 상기 영상들에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 모듈(12)과, 상기 그루핑 모듈(12)에 의해 그룹화된 상기 단위그룹의 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 객체 모델링 모듈(13)과, 상기 영상들을 토대로 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 추적하는 추적 모듈(14)을 구비한다. Referring to the drawing, the multi-object tracking system 10 receives the tracking camera 11 for capturing the tracking target moving objects at predetermined unit time intervals, and the images captured by the tracking camera 11 to receive the images. A grouping module 12 for grouping the moving objects located within a predetermined set distance among the moving objects displayed in the unit group, and the mobile objects of the unit group grouped by the grouping module 12 are identified. An object modeling module 13 for modeling according to a reference and a tracking module 14 for tracking a unit group including the moving object selected from the unit groups based on the images.
추적 카메라(11)는 건축물이나 시설물의 상부에 설치되어 소정의 지역에 위치한 이동객체들을 촬영한다. 상기 추적 카메라(11)는 상기 지역을 소정의 단위시간을 간격으로 촬영하고, 촬영된 영상들은 도면에 도시되진 않았지만, 통신모듈을 통해 그루핑 모듈(12)로 전송한다. The tracking camera 11 is installed on an upper part of a building or a facility to photograph moving objects located in a predetermined area. The tracking camera 11 photographs the area at predetermined unit time intervals, and the photographed images are transmitted to the grouping module 12 through the communication module although not shown in the drawing.
한편, 도시된 예에서는 한 개의 추적 카메라(11)가 마련된 구조가 도시되어 있으나, 추적 카메라(11)의 갯수는 도시된 예에 한정하는 것이 아니라 다수개가 마련될 수도 있다. Meanwhile, in the illustrated example, a structure in which one tracking camera 11 is provided is illustrated. However, the number of the tracking cameras 11 may not be limited to the illustrated example, but a plurality of tracking cameras 11 may be provided.
그루핑 모듈(12)은 추적 카메라(11)로부터 촬영된 영상들을 제공받아 이동객체들을 그룹핑한다. 이때, 그루핑 모듈(12)은 시간의 경과에 따라 상기 단위그룹 내의 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 상기 영상에서 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 재그룹화한다. The grouping module 12 receives the images captured by the tracking camera 11 to group the moving objects. In this case, the grouping module 12 may be configured such that the moving objects in the unit group are spaced apart from each other farther than the set distance, or that at least one of the moving objects included in the unit group is adjacent to each other. When adjacent to the moving object included in the unit group by the set distance, the unit group grouped in the image is released, and the mobile objects located within the set distance are regrouped into the unit group.
도 2에는 그루핑 모듈(12)의 그룹화 과정이 도시되어 있고, 도 3a은 이동객체들의 이동에 따라 그루핑 모듈(12)이 하나의 단위그룹을 두 개의 단위그룹의 재설정한 상태를 나타낸 도면이고, 도 3b는 이동객체들의 이동에 따라 그루핑 모듈(12)이 두 개의 단위그룹을 하나의 단위그룹으로 재설정한 상태를 나타낸 도면이다. FIG. 2 illustrates a grouping process of the grouping module 12. FIG. 3A illustrates a state in which the grouping module 12 resets one unit group to two unit groups according to movement of moving objects. 3B illustrates a state in which the grouping module 12 resets two unit groups to one unit group according to the movement of the moving objects.
도 2에는 시간의 경과에 따라 좌측에서 우측으로 영상들이 배열되어 있고, 각 영상들에 소정의 색을 갖는 점들로 이동객체가 표시된다. 도 2에서 최좌측에 위치한 영상을 보면, 이동객체들 중 기설정된 설정거리 내에 위치된 이동객체들끼리 하나의 단위그룹으로 설정된다. 즉, 영상의 하단에 위치한 하나의 이동객체가 제1단위그룹으로 설정되고, 제1단위그룹보다 상측에 위치한 두 개의 이동객체가 제2단위그룹으로 설정되고, 제2단위그룹보다 상측에 위치한 세 개의 이동객체가 제3단위그룹으로 설정된다. In FIG. 2, images are arranged from left to right over time, and a moving object is displayed with dots having a predetermined color in each image. Referring to the image located on the leftmost side in FIG. 2, the moving objects located within a predetermined set distance among the moving objects are set as one unit group. That is, one moving object located at the bottom of the image is set as the first unit group, and two moving objects located above the first unit group are set as the second unit group, and three moving objects located above the second unit group. Mobile objects are set to the third unit group.
이때, 단위시간이 경과된 다음에 촬영된 영상인 도 2의 가운데 영상을 보면, 시간의 경과에 따라 제1단위그룹의 이동객체가 제2단위그룹 측으로 이동되었고, 제3단위그룹의 이동객체들 중 하나가 제2단위그룹 측으로 이동한다. At this time, in the center image of FIG. 2, which is an image taken after the unit time has elapsed, the moving object of the first unit group was moved to the second unit group side as time passed, and the moving objects of the third unit group were moved. One of them moves to the second unit group side.
다음, 도 2의 최우측 영상을 보면, 가장 좌측 영상의 제1단위그룹의 이동객체가 제2단위그룹의 이동객체들로부터 설정거리만큼 인접되었으며, 그루핑 모듈(12)은 도 3b에 도시된 바와 같이 기존의 제1단위그룹 및 제2단위그룹을 해제하고, 기존의 제1단위그룹에 포함된 이동객체와 기존의 제2단위그룹에 포함된 이동객체들을 하나의 새로운 제1단위그룹으로 설정한다. 또한, 기존의 제3단위그룹에 포함된 이동객체들 중 하나가 제3단위그룹의 다른 이동객체들로부터 설정거리보다 더 멀리 이격되는데, 그루핑 모듈(12)은 도 3a에 도시된 바와 같이 기존의 제3단위그룹을 해제하고, 기존의 제3단위그룹에 포함된 이동객체들 중 설정거리보다 더 멀리 이격된 하나의 이동객체를 새로운 제2단위그룹은 설정하며, 기존의 제3단위그룹 중 나머지 이동객체를 새로운 제3단위그룹으로 설정한다. Next, referring to the rightmost image of FIG. 2, the moving objects of the first unit group of the leftmost image are adjacent by a set distance from the moving objects of the second unit group, and the grouping module 12 is illustrated in FIG. 3B. Similarly, the existing first unit group and the second unit group are released, and the moving objects included in the existing first unit group and the moving objects included in the existing second unit group are set as one new first unit group. . In addition, one of the moving objects included in the existing third unit group is spaced farther than the set distance from the other moving objects of the third unit group, the grouping module 12 as shown in Figure 3a The third unit group is released, and the new second unit group sets one moving object spaced farther than the set distance among the moving objects included in the existing third unit group, and the remaining one of the existing third unit groups Set the moving object to the new third unit group.
도 4에는 실제 촬영된 영상을 토대로 그루핑 모듈(12)이 이동객체들을 그룹화 및 재그룹화하는 상태가 도시되어 있다. 도 4에는 촬영된 시간의 순서에 따라 왼쪽에서 오른쪽으로 배열된 3장의 영상이 배열되어 있다. 4 illustrates a state in which the grouping module 12 groups and regroups moving objects based on the actually photographed image. In FIG. 4, three images are arranged from left to right according to the photographed time sequence.
도 4의 (a) 영상에서는 왼쪽의 3명의 이동객체가 하나의 단위그룹(A)으로 설정되고, 가운데 2명의 이동객체가 하나의 단위그룹(B)로 설정되고, 오른쪽의 1명의 이동객체가 하나의 단위그룹(C)로 설정되어 있다. In the image (a) of FIG. 4, three moving objects on the left are set to one unit group A, two moving objects on the center are set to one unit group B, and one moving object on the right is It is set to one unit group (C).
도 4의 (b),(c)영상을 참조하면, 시간이 경과함에 따라 단위그룹(A)에 포함된 이동객체들 중 왼쪽에 위치한 1명의 이동객체는 나머지 이동객체들로부터 설정거리보다 더 멀리 이격되고, 나머지 이동객체들은 이동하는 단위그룹(B)의 이동객체들과 인접되었다. 이때, 그루핑 모듈(12)은 단위그룹(A) 및 단위그룹(B)를 해제하고, 영상의 최좌측에 위치한 1명의 이동객체를 새로운 단위그룹(A)로 설정하고, 상호 인접된 4명의 이동객체를 새로운 단위그룹(B)로 설정한다. Referring to images (b) and (c) of FIG. 4, as time elapses, one moving object located to the left of the moving objects included in the unit group A is farther than the set distance from the remaining moving objects. Spaced apart, the remaining moving objects were adjacent to the moving objects of the moving unit group (B). At this time, the grouping module 12 releases the unit group (A) and the unit group (B), sets one moving object located on the leftmost side of the image as a new unit group (A), and moves the four adjacent groups. Set the object to the new unit group (B).
객체 모델링 모듈(13)은 그루핑 모듈(12)로부터 그룹화된 단위모듈에 포함된 이동객체들을 모델링하는 것으로서, 상기 이동객체들을 소정의 식별기준에 따라 모델링한다. 상기 식별기준은 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)이 포함된다. The object modeling module 13 models moving objects included in a unit module grouped from the grouping module 12 and models the moving objects according to a predetermined identification criterion. The identification criteria include color histogram, histogram of gradient, and color self similarity.
이때, 객체 모델링 모듈(13)은 상기 이동객체가 사람일 경우, 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트들에 따라 모델링하는데, 도 5에는 객체 모델링 모듈(13)에 의개 구분된 단위파트가 도시되어 있다. In this case, when the moving object is a human, the object modeling module 13 divides the moving object into a plurality of unit parts according to body parts, and models the unit according to the unit parts. The unit parts are shown separately.
도 5를 참조하면, 상기 이동객체를 머리에서 어깨까지의 제1단위파트(HS), 머리에서 몸통까지의 제2단위파트(HT), 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트(LB), 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트(RB)로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링한다. Referring to FIG. 5, the moving object is located on the left side of the whole body based on the first unit part (HS) from the head to the shoulder, the second unit part (HT) from the head to the body, and the center line of the person extending in the vertical direction. The third unit part LB, which is a part, is divided into a fourth unit part RB, which is a right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
이때, 객체 모델링 모듈(13)의 이동객체 모델링을 보다 상세히 설명하면 다음과 같다. 영상에 표시된 이동객체(r)은
Figure PCTKR2017001659-appb-I000001
와 같이 표현할 수 있다. 여기서, l은 제1 내지 제4단위파트(HS, HT, LB, RB) 중 선택된 하나의 타입을 나타내는 라벨(label)이고, a는 외형모델(appearance model)이고, p는 이동객체의 위치, t는 영상 프레임 인덱스(frame index) 관점에서의 시간이다.
In this case, the moving object modeling of the object modeling module 13 will be described in more detail as follows. The moving object (r) displayed in the image
Figure PCTKR2017001659-appb-I000001
It can be expressed as Here, l is a label indicating a type selected from the first to fourth unit parts HS, HT, LB, and RB, a is an appearance model, p is a position of a moving object, t is the time in view of the image frame index.
또한, 영상에서 결합된 검출반응(combined detection response: o)은
Figure PCTKR2017001659-appb-I000002
로 표현된다. 그리고, 타겟추정(target hypothesis)M은
Figure PCTKR2017001659-appb-I000003
로 표현되는데, 상기 v는 이동객체 중 보이는 부분(visible part)을 나타낸다. 만약, v가 제1 내지 제2단위파트(HS, HT, LB, RB)이 존재하지 않을 경우, 이동객체가 보이지 않는 것을 의미한다. 검출반응(detection response)를 획득한 다음, 시각적인 부분을 처리하는데, 이동객체 신체의 각 파트에 대응되는 외형모델을 계산하고 업데이트한다.
In addition, the combined detection response (o) in the image
Figure PCTKR2017001659-appb-I000002
It is expressed as And the target hypothesis M is
Figure PCTKR2017001659-appb-I000003
The v denotes a visible part of the moving object. If v has no first to second unit parts (HS, HT, LB, RB), it means that the moving object is not visible. After acquiring the detection response, the visual part is processed, which calculates and updates the appearance model corresponding to each part of the moving object body.
외형모델(appearance model)에 있어서, 각 이동객체의 상기 식별기준 즉, 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)이 사용된다. In the appearance model, the above identification criteria of each moving object, namely, color histogram, histogram of gradients, and color self similarity are used.
상기 컬러 히스토그램은 이동객체의 색상 외관을 나타내기 위한 것으로서, 종래에 일반적으로 사용되는 표준 컬러 히스토그램이 적용된다. 상기 컬러 히스토그램은 RGB 색의 공간(RGB color space)이 적용되나 이에 한정하는 것이 아니라 HSV(Hue Saturation Value), YCbCr가 적용될 수도 있다. The color histogram is for indicating the color appearance of the moving object, and a standard color histogram generally used in the art is applied. In the color histogram, an RGB color space is applied, but not limited thereto, and a Hue Saturation Value (HSV) and YCbCr may be applied.
단일 채널 히스토그램(single channel histograms)은 각 채널에 대해 8 빈스(bins)를 갖는 단일벡터(single vector)
Figure PCTKR2017001659-appb-I000004
와 연계되어 24 차원(24-dimensional) 벡터를 초래한다.
Single channel histograms are single vectors with 8 bins for each channel.
Figure PCTKR2017001659-appb-I000004
Results in a 24-dimensional vector.
이동객체의 범위 2x2 셀 내의 8 방향 빈스(8 orientations bins)를 연계하는 것으로 32차원(32-dimensional) 기울기 히스토그램 특성(
Figure PCTKR2017001659-appb-I000005
)과 32차원(32-dimensional) 색상 자기 유사성(
Figure PCTKR2017001659-appb-I000006
)을 추출한다.
The 32-dimensional gradient histogram characteristic is associated with 8 orientations bins within a range 2x2 cell of a moving object.
Figure PCTKR2017001659-appb-I000005
) And 32-dimensional color self-similarity (
Figure PCTKR2017001659-appb-I000006
).
이때, 선택된 이동객체인 트랙렛(T)의 외관 디스크립터(appearance desciptor: a)는 하기의 수식1로 표현된다. In this case, an appearance descriptor (a) of the selected tracklet tracklet T is expressed by Equation 1 below.
Figure PCTKR2017001659-appb-M000001
Figure PCTKR2017001659-appb-M000001
여기서
Figure PCTKR2017001659-appb-I000007
은 컬러 히스토그램의 특성 벡터이고,
Figure PCTKR2017001659-appb-I000008
은 32차원(32-dimensional) 기울기 히스토그램 특성 벡터이고,
Figure PCTKR2017001659-appb-I000009
은 HSV(Hue Saturation Value)에 기초를 둔 32차원(32-dimensional) 색상 자기 유사성 특성벡터이다. 또한, 첨자 S는 이동객체의 하위영역의 인덱스(index of the subregion)이다. 상기 하위영역의 수는 제1 내지 제4단위파트(HS, HT, LB, RB) 중 선택된 하나의 타입을 나타내는 라벨(label)에 따라 결정된다. 특성을 추출하고, 사람의 신체 파티션에 대한 각각의 해당 특성 풀(feafure pool)을 구성하기 위해 제3단위파트(LB) 및 제4단위파트(RB)가 포함된 이동객체의 전신의 경우, 이동객체의 영역을 9개의 하위영역으로 분할할 수 있다. 제2 내지 제4단위파트(HT,LB,RB)의 경우 4개의 하위영역으로 분할할 수 있고, 제1단위파트(HS)의 경우 1개의 하위영역을 갖는다. 이때, 각 하위영역에 대해 3가지의 특성 타입(featur type) 즉, 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)으로 평가된다. 따라서, 예를 들면, 하나의 특성 풀을 구성하는 제3 및 제4단위파트가 포함된 전신에 대해 총 27개의 특성 벡터가 만들어진다. 이때, 두 이미지 영역 사이의 유사성은 상술된 외관 디스크립터(appearance desciptor: a)에 의해 계산된다.
here
Figure PCTKR2017001659-appb-I000007
Is the characteristic vector of the color histogram,
Figure PCTKR2017001659-appb-I000008
Is a 32-dimensional gradient histogram characteristic vector,
Figure PCTKR2017001659-appb-I000009
Is a 32-dimensional color self-similarity characteristic vector based on the Hue Saturation Value (HSV). In addition, the subscript S is an index of the subregion of the moving object. The number of sub-regions is determined according to a label indicating a type selected from among the first to fourth unit parts HS, HT, LB, and RB. In the case of the whole body of a moving object including a third unit part (LB) and a fourth unit part (RB) for extracting a feature and configuring each corresponding feature pool for a human body partition, You can divide an object's area into nine subareas. The second to fourth unit parts HT, LB, and RB may be divided into four subregions, and the first unit part HS may have one subregion. In this case, three subtypes (featur type), namely, color histogram, histogram of gradients, and color self similarity are evaluated for each subregion. Thus, for example, a total of 27 feature vectors are generated for the whole body including the third and fourth unit parts constituting one feature pool. At this point, the similarity between the two image regions is calculated by the above described appearance descriptor (a).
RGB 컬러 히스토그램, 기울기 히스토그램 및 색상 자기 유사성의 점수를 계산하기 위해
Figure PCTKR2017001659-appb-I000010
와 Bhattacharyya 거리 측정(Bhattacharyya distance measures)을 사용한다. 디스크립터(descriptors)의 유사도 측정은
Figure PCTKR2017001659-appb-I000011
,
Figure PCTKR2017001659-appb-I000012
,
Figure PCTKR2017001659-appb-I000013
로 표시된다.
To calculate the scores of RGB color histogram, gradient histogram and color self-similarity
Figure PCTKR2017001659-appb-I000010
And Bhattacharyya distance measures. The similarity measure of descriptors is
Figure PCTKR2017001659-appb-I000011
,
Figure PCTKR2017001659-appb-I000012
,
Figure PCTKR2017001659-appb-I000013
Is displayed.
외형모델과 사람 신체 파트의 각 라벨에 대한 서로 다른 영역에서 외형 디스크립터 사이의 유사도를 계산한 다음, 유사도 측정을 연계에 의해 하기의 수학식2에 같은 외형 특성 벡터
Figure PCTKR2017001659-appb-I000014
를 형성할 수 있다.
Calculation of the similarity between the appearance descriptors in different areas for each label of the appearance model and the human body part, and then the similarity measurement vector shown in Equation 2 below by linking the similarity measurement.
Figure PCTKR2017001659-appb-I000014
Can be formed.
Figure PCTKR2017001659-appb-M000002
Figure PCTKR2017001659-appb-M000002
특성벡터는 트랙렛(tracklet)을 발생시키기 위한 이동객체의 특징 풀을 제공한다. 또한, 상기 특성벡터는 스트롱 분류기(strong classifier)를 구축하기 위한 부스팅 알고리즘(boosting algorithm)에 사용된다. The feature vector provides a feature pool of the moving object for generating a tracklet. The characteristic vector is also used in a boosting algorithm for constructing a strong classifier.
두 사례
Figure PCTKR2017001659-appb-I000015
Figure PCTKR2017001659-appb-I000016
사이의 외형의 연관점수(affinity score)결정하는 스트롱 모델(strong model)은 수학식 2에 의해 계산된 유사 측정의 선형 조합으로 설계되어 있다. 따라서, 상기 스트롱 분류기는 하기의 수학식 3과 같이 표현된다.
Two cases
Figure PCTKR2017001659-appb-I000015
Wow
Figure PCTKR2017001659-appb-I000016
The strong model, which determines the affinity score of the appearance between, is designed as a linear combination of similar measures calculated by Equation 2. Therefore, the strong classifier is expressed by Equation 3 below.
Figure PCTKR2017001659-appb-M000003
Figure PCTKR2017001659-appb-M000003
네거티브 페어(negative pairs)로부터 포지티브 페어(positive pairs)를 구별하기 위한 실제 값을 입력 또는 리턴하기 위해선 한쌍의 사례가 요구된다.
Figure PCTKR2017001659-appb-I000017
이 비교적 크면
Figure PCTKR2017001659-appb-I000018
Figure PCTKR2017001659-appb-I000019
가 같은 이동객체를 표현하기 쉽다. [-1,+1] 범위에서
Figure PCTKR2017001659-appb-I000020
는 정상화된다. 이때,
Figure PCTKR2017001659-appb-I000021
의 사인(sign)을 예측된 라벨(predicted label)과, 이 예측의 신뢰도 같은
Figure PCTKR2017001659-appb-I000022
의 규모로 해석한다.
A pair of cases is required to enter or return the actual value to distinguish positive pairs from negative pairs.
Figure PCTKR2017001659-appb-I000017
Is relatively large
Figure PCTKR2017001659-appb-I000018
Wow
Figure PCTKR2017001659-appb-I000019
It is easy to represent the same moving object. In the range [-1, + 1]
Figure PCTKR2017001659-appb-I000020
Is normalized. At this time,
Figure PCTKR2017001659-appb-I000021
The sign of the predicted label,
Figure PCTKR2017001659-appb-I000022
Interpret on scale.
오프라인 프로세싱(offline processing)에 의해 각 신체 파트에 따른 외형 모델을 산출하는데, 부스팅 순서(boosting procedure)는 하기의 표1에 기재된 알고리즘1(Algorithm1)과 같다. The appearance model for each body part is calculated by offline processing. The boosting procedure is the same as Algorithm 1 described in Table 1 below.
Figure PCTKR2017001659-appb-T000001
Figure PCTKR2017001659-appb-T000001
이때, 부스팅 알고리즘(boosting algorithm)의 손실 함수는 하기의 수학식4와 같다. At this time, the loss function of the boosting algorithm is shown in Equation 4 below.
Figure PCTKR2017001659-appb-M000004
Figure PCTKR2017001659-appb-M000004
여기서, w는 부스팅되는 동안 업데이트될 각 트레이닝 샘플(training sample)에 대한 무게이다. 목표는 새로운 위크 분류기(weak classifiers)를 순차적으로 첨가하여 얻어지는
Figure PCTKR2017001659-appb-I000023
중 Z가 최소인
Figure PCTKR2017001659-appb-I000024
를 찾는 것이다.
Where w is the weight for each training sample to be updated while boosting. Goals are achieved by sequentially adding new weak classifiers.
Figure PCTKR2017001659-appb-I000023
Z is the least
Figure PCTKR2017001659-appb-I000024
To find.
t번째 라운드에서 최적의 위크 랭크 분류기(weak ranking classifier)
Figure PCTKR2017001659-appb-I000025
를 발견할 수 있고, 중량
Figure PCTKR2017001659-appb-I000026
를 최소화하는 하기의 수학식 5를 산출할 수 있다.
optimal weak ranking classifier in round t
Figure PCTKR2017001659-appb-I000025
Can be found and weight
Figure PCTKR2017001659-appb-I000026
Equation 5 below may be calculated.
Figure PCTKR2017001659-appb-M000005
Figure PCTKR2017001659-appb-M000005
위크 러너(weak learner)의 상세한 알고리즘은 하기의 표2에 기재된 알고리즘2(Algorithm2)과 같다. The detailed algorithm of the weak learner is the same as Algorithm 2 described in Table 2 below.
Figure PCTKR2017001659-appb-T000002
Figure PCTKR2017001659-appb-T000002
추적 모듈(14)은 영상들을 토대로 단위그룹들 중 선택된 이동객체가 포함된 단위그룹을 추적한다. 이때, 추적을 진행하는 분석자는 영상에 표시된 이동객체들 중 하나를 선택하면 추적 모듈(14)은 선택된 이동객체가 포함된 단위그룹을 선택하고, 영상들에서 선택된 단위그룹의 위치를 연결하여 추적경로를 표시한다. The tracking module 14 tracks the unit group including the selected moving object among the unit groups based on the images. At this time, if the analyst conducting the tracking selects one of the moving objects displayed on the image, the tracking module 14 selects a unit group including the selected moving object and connects the positions of the selected unit group in the images to track the path. Is displayed.
상기 추적 모듈(14)은 각 상기 영상들에서 선택된 상기 단위그룹들이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에서의 상기 단위그룹의 위치들을 연결하여 추적경로로 표시하는 것이 바람직하다. 이때, 상기 유사정보는 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 모듈(13)에 의해 모델링 된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 촬영 시간 차이에 대한 정보가 포함된 것이 바람직하다. When the tracking module 14 determines that the unit groups selected from each of the images are similar according to predetermined similar information, it is preferable to connect the positions of the unit groups in each of the images and display them as a tracking path. . In this case, the similar information includes motion information of the moving object included in the selected unit group, appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13, and a photographing time between the images. It is desirable to include information about the differences.
상기 추적 모듈(14)의 작동을 보다 상세히 설명하면 다음과 같다. The operation of the tracking module 14 will be described in more detail as follows.
먼저, 상호 상이한 영상들에서 같은 단위그룹 내에 포함된 트랙렛(tracklet)을 연결한다. 이때, 복수의 트랙렛 사이의 페어와이즈 연결 컨피던스(pairwise linking confidence)는 상기 트랙렛의 움직임 정보, 상기 객체 모델링 모듈(13)에 의해 모델링된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보에 의해 정의되고, 외형은 하기의 수학식 6과 같다.First, tracklets included in the same unit group in different images are connected. In this case, pairwise linking confidence between a plurality of tracklets is determined by the motion information of the tracklets and the appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13. It is defined, and the appearance is shown in Equation 6 below.
Figure PCTKR2017001659-appb-M000006
Figure PCTKR2017001659-appb-M000006
여기서, GM은 그루핑 모듈(12)인데, 상기 그루핑 모듈(12)은 복수의 트랙렛이 단위그룹 정보에 기초하여 연결된다면 그 결과 값이 트루(true)로 리턴한다. Here, GM is a grouping module 12. The grouping module 12 returns a result value as true if a plurality of tracklets are connected based on the unit group information.
움직임 연관 측정을 위해 먼저, 도 6에 도시된 바와 같이 해당 모션 모델(motion model)의 트랙렛의 포워드 속도(forward velocity) 및 백워드 속도(backward velocity)를 계산한다. For the motion association measurement, first, the forward velocity and the backward velocity of the tracklet of the corresponding motion model are calculated as shown in FIG. 6.
트랙렛의 헤드 응답(head response)의 리파인드 위치(refined position)로부터 백워드 속도가 계산되는 동안 트랙렛의 테일 응답(tail response)의 리파인드 위치(refined position)로부터 포워드 속도가 계산된다. The forward velocity is calculated from the refined position of the tail response of the tracklet while the backward velocity is calculated from the refined position of the head response of the tracklet.
포워드 방향 및 백워드 방향에서 모션 모델은 각각 가우시안
Figure PCTKR2017001659-appb-I000027
및 가우시안
Figure PCTKR2017001659-appb-I000028
에 의해 표현된다. 그리고, 모션의 연관 측정은 수학식 7과 같이 설명된다.
In forward and backward directions, the motion model is Gaussian, respectively.
Figure PCTKR2017001659-appb-I000027
And Gaussian
Figure PCTKR2017001659-appb-I000028
Is represented by. And the association measurement of the motion is described as in Equation (7).
Figure PCTKR2017001659-appb-M000007
Figure PCTKR2017001659-appb-M000007
여기서, G는 제로 민 가우스 함수(zero-mean Gaussian function)이고,
Figure PCTKR2017001659-appb-I000029
Figure PCTKR2017001659-appb-I000030
의 테일(tail)과
Figure PCTKR2017001659-appb-I000031
의 헤드(head) 사이의 시간 차이이다.
Figure PCTKR2017001659-appb-I000032
Figure PCTKR2017001659-appb-I000033
Figure PCTKR2017001659-appb-I000034
의 헤드 또는 테일 파츠의 리파인드 위치 및 속도이다.
Where G is a zero-mean Gaussian function,
Figure PCTKR2017001659-appb-I000029
Is
Figure PCTKR2017001659-appb-I000030
Tail and
Figure PCTKR2017001659-appb-I000031
Is the time difference between the heads.
Figure PCTKR2017001659-appb-I000032
Wow
Figure PCTKR2017001659-appb-I000033
Is
Figure PCTKR2017001659-appb-I000034
The head or tail parts of the refined position and speed.
한편, 시간의 연관성 측정은 하기의 수학식 8과 같이 단순한 스텝 함수로 표현된다. On the other hand, the correlation of time is expressed by a simple step function as shown in Equation 8 below.
Figure PCTKR2017001659-appb-M000008
Figure PCTKR2017001659-appb-M000008
Figure PCTKR2017001659-appb-I000035
의 테일(tail)이
Figure PCTKR2017001659-appb-I000036
의 헤드(head)보다 먼저 나타날 경우,
Figure PCTKR2017001659-appb-I000037
Figure PCTKR2017001659-appb-I000038
사이를 연결되게 만드는 것이 가능하다.
Figure PCTKR2017001659-appb-I000035
Tail of
Figure PCTKR2017001659-appb-I000036
If it appears before the head of
Figure PCTKR2017001659-appb-I000037
Wow
Figure PCTKR2017001659-appb-I000038
It is possible to make connections between them.
외형모델은 상술된 바와 같이 로컬 디스크립터(local descriptors)의 세트의 몇몇의 유사성 측정의 선형 조합으로부터 얻어진다. 상기 외형모델은 각 객체의 파트 영역에 대해 계산된다. 다음, 외형모델은 해당 파트가 볼 수 있을 때, 트랙렛을 따라 검출응답을 통해 업데이트 된다. The appearance model is obtained from a linear combination of several similarity measures of a set of local descriptors as described above. The appearance model is calculated for the part area of each object. The appearance model is then updated with detection response along the tracklet when the part is visible.
그리고, 외형모델의 연관성 측정은 하기의 수학식 9에 의해 설명된다. And the measurement of the association of the appearance model is described by the following equation (9).
Figure PCTKR2017001659-appb-M000009
Figure PCTKR2017001659-appb-M000009
수학식 6을 이용하여 트랙렛의 페어와이즈 연관(pairwise association)을 계산한 다음, 코스트 매트릭스 C(cost matrix C)를 구축하고, 최적의 연관을 얻기 위해 헝가리언 알고리즘(Hungarian algorithm)을 적용한다. 코스트 매트릭스 C는 하기의 수학식 10과 같이 정의된다. After calculating the pairwise association of the tracklets using Equation 6, a cost matrix C is constructed, and a Hungarian algorithm is applied to obtain an optimal association. The cost matrix C is defined as in Equation 10 below.
Figure PCTKR2017001659-appb-M000010
Figure PCTKR2017001659-appb-M000010
여기서,
Figure PCTKR2017001659-appb-I000039
은 페어와이즈 연관 코스트이고,
Figure PCTKR2017001659-appb-I000040
이고, 여기서
Figure PCTKR2017001659-appb-I000041
는 종료 코스트(terminating cost)이다.
Figure PCTKR2017001659-appb-I000042
은 새롭거나 fale 트랙으로 초기화 코스트이고,
Figure PCTKR2017001659-appb-I000043
Figure PCTKR2017001659-appb-I000044
제로 행렬이다.
Figure PCTKR2017001659-appb-I000045
은 트랙렛의 종료 기간인데, 여기서 N은 정규화 계수(normalization factor)이고, r은 누락 검출율(the missed detection rate)이고, w는 시간적인 슬라이딩 윈도우의 크기이고, s는 객체가 폐색으로 인한 버퍼링한 영상 프레임의 수이다.
Figure PCTKR2017001659-appb-I000046
은 트랙렛의 초기화 기간인데, 여기서 g는 영상 프레임 간격이다.
Figure PCTKR2017001659-appb-I000047
는 false 알람 기간인데, 여기서 L은 영상 프레임의 전체 수이다.
here,
Figure PCTKR2017001659-appb-I000039
Is the pairwise association cost,
Figure PCTKR2017001659-appb-I000040
, Where
Figure PCTKR2017001659-appb-I000041
Is the terminating cost.
Figure PCTKR2017001659-appb-I000042
Is the cost to initialize to a new or fale track,
Figure PCTKR2017001659-appb-I000043
silver
Figure PCTKR2017001659-appb-I000044
Zero matrix.
Figure PCTKR2017001659-appb-I000045
Is the end of the tracklet, where N is the normalization factor, r is the missed detection rate, w is the size of the temporal sliding window, and s is the buffering of the object due to occlusion. The number of video frames.
Figure PCTKR2017001659-appb-I000046
Is the initialization period of the tracklet, where g is the video frame interval.
Figure PCTKR2017001659-appb-I000047
Is a false alarm period, where L is the total number of image frames.
마지막으로, 코스트 매트릭스 C에 헝가리언 알고리즘을 적용하여 얻어지는 최적 어사인먼트 행렬(optimal assignment matrix )
Figure PCTKR2017001659-appb-I000048
를 나타낸다. 그리고, 각
Figure PCTKR2017001659-appb-I000049
을 위한 객체 궤적은 하기에 상술된 룰을 사용한 어사인먼트 매트릭스에 따라 관리된다. 상기 룰을 상세히 설명하면 다음과 같다.
Finally, an optimal assignment matrix obtained by applying the Hungarian algorithm to the cost matrix C
Figure PCTKR2017001659-appb-I000048
Indicates. And each
Figure PCTKR2017001659-appb-I000049
The object trajectory for is managed according to the assignment matrix using the rules detailed above. The rule will be described in detail as follows.
Figure PCTKR2017001659-appb-I000050
Figure PCTKR2017001659-appb-I000051
일 경우,
Figure PCTKR2017001659-appb-I000052
Figure PCTKR2017001659-appb-I000053
는 연결되어 있고,
Figure PCTKR2017001659-appb-I000054
Figure PCTKR2017001659-appb-I000055
일 경우,
Figure PCTKR2017001659-appb-I000056
는 종료되어 있다.
Figure PCTKR2017001659-appb-I000057
Figure PCTKR2017001659-appb-I000058
일 경우,
Figure PCTKR2017001659-appb-I000059
일 때
Figure PCTKR2017001659-appb-I000060
는 새로운 트랙이고,
Figure PCTKR2017001659-appb-I000061
일 때,
Figure PCTKR2017001659-appb-I000062
는 false 트랙이다.
Figure PCTKR2017001659-appb-I000050
And
Figure PCTKR2017001659-appb-I000051
If,
Figure PCTKR2017001659-appb-I000052
Wow
Figure PCTKR2017001659-appb-I000053
Is connected,
Figure PCTKR2017001659-appb-I000054
And
Figure PCTKR2017001659-appb-I000055
If,
Figure PCTKR2017001659-appb-I000056
Is finished.
Figure PCTKR2017001659-appb-I000057
And
Figure PCTKR2017001659-appb-I000058
If,
Figure PCTKR2017001659-appb-I000059
when
Figure PCTKR2017001659-appb-I000060
Is the new track,
Figure PCTKR2017001659-appb-I000061
when,
Figure PCTKR2017001659-appb-I000062
Is a false track.
상술된 추적 모듈(14)의 작동에 대한 알고리즘은 하기의 표 3에 기재되어 있다. Algorithms for the operation of the tracking module 14 described above are described in Table 3 below.
Figure PCTKR2017001659-appb-T000003
Figure PCTKR2017001659-appb-T000003
한편, 상술된 바와 같이 구성된 본 발명에 따른 다중 객체 추적 시스템(10)을 이용한 다중 객체 추적 방법을 도 7을 참조하여 상세히 설명하면 다음과 같다. 상기 다중 객체 추적 방법은 촬영단계(S101), 그루핑 단계(S102)(S102), 객체 모델링 단계(S103) 및 추적단계(S104)를 포함한다. Meanwhile, a multi-object tracking method using the multi-object tracking system 10 according to the present invention configured as described above will be described in detail with reference to FIG. 7. The multi-object tracking method includes a photographing step (S101), a grouping step (S102) (S102), an object modeling step (S103), and a tracking step (S104).
촬영단계(S101)는 추적 카메라(11)를 통해 소정의 단위시간을 간격으로 다수의 이동객체가 포함된 영상들을 촬영하는 단계이다. 이때, 추적 카메라(11)를 통해 촬영된 영상 즉, 이미지는 통신모듈(미도시)을 통해 그루핑 모듈(12)로 전송된다. The photographing step (S101) is a step of capturing images including a plurality of moving objects at predetermined unit time intervals through the tracking camera 11. At this time, the image taken by the tracking camera 11, that is, the image is transmitted to the grouping module 12 through a communication module (not shown).
그루핑 단계(S102)는 상기 추적 카메라(11)로부터 촬영된 영상들을 토대로, 각 상기 영상에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 단계로서, 초기 그룹단계 및 재그룹화 단계를 포함한다. Grouping step (S102) is a step of grouping the moving objects located within a predetermined set distance of the moving objects displayed on each image based on the images taken from the tracking camera 11 in a unit group, the initial group step And a regrouping step.
상기 초기 그룹단계는 상기 추적 카메라(11)를 통해 촬영된 영상들 중 하나의 영상에서 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 단계이다. 그루핑 모듈(12)은 상술된 바와 같이 상기 영상들 중 선택된 하나의 영상에서 이동객체들을 그룹화한다. The initial grouping step is a grouping of the moving objects located within a predetermined set distance among the moving objects in one of the images photographed by the tracking camera 11 into a unit group. The grouping module 12 groups the moving objects in the selected one of the images as described above.
재그룹화 단계는 초기 그룹단계가 완료된 다음, 상기 영상들 중 나머지 상기 영상들에서 각각 상기 초기 영상의 상기 단위그룹에 포함된 상기 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 초기 영상의 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 상기 단위그룹으로 재그룹화하는 단계이다. In the regrouping step, after the initial grouping step is completed, the moving objects included in the unit group of the initial image are respectively spaced apart from each other farther than the set distance from the remaining ones of the images, or the unit of the initial image. When at least one of the moving objects included in the group is adjacent to the moving object included in another adjacent unit group by the set distance, the grouped unit group is released and the Re-grouping the moving objects into the unit group.
객체 모델링 단계(S103)는 상기 그루핑 단계(S102) 이후에, 상기 그루핑 단계(S102)에서 그룹화된 상기 단위그룹에 포함된 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 단계이다. 이때, 객체 모델링 모듈(13)은 상술된 바와 같이 소정의 식별기준 즉, 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)을 따라 모델링한다. In the object modeling step S103, after the grouping step S102, the moving objects included in the unit group grouped in the grouping step S102 are modeled according to a predetermined identification criterion. In this case, as described above, the object modeling module 13 models according to predetermined identification criteria, that is, a color histogram, a histogram of gradients, and a color self similarity.
한편, 상기 객체 모델링 단계(S103)에서, 상기 이동객체가 사람일 경우, 객체 모델링 모듈(13)은 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트 별로 모델링한다. 이때, 상술된 바와 같이 객체 모델링 모듈(13)은 상기 이동객체를 머리에서 어깨까지의 제1단위파트, 머리에서 몸통까지의 제2단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링한다. On the other hand, in the object modeling step (S103), when the moving object is a human, the object modeling module 13 divides the moving object into a plurality of unit parts according to the body part, and models for each unit part. In this case, as described above, the object modeling module 13 may be configured to move the moving object based on the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the person extending in the vertical direction. The third unit part, which is the left part, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and models the first to fourth unit parts.
추적단계(S104)는 상기 그루핑 단계(S102)가 완료된 다음, 각 상기 영상들에서 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 시간의 경과에 따라 이동경로를 추적하는 단계이다. 이때, 추적을 진행하는 분석자는 영상에 표시된 이동객체들 중 하나를 선택하면 추적 모듈(14)은 선택된 이동객체가 포함된 단위그룹을 선택하고, 상술된 바와 같이 각 상기 영상들에서 선택된 상기 단위그룹들이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에서의 상기 단위그룹의 위치들을 연결하여 추적경로로 표시하는 것이 바람직하다. 이때, 상기 유사정보는 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 모듈(13)에 의해 모델링된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 촬영 시간 차이에 대한 정보가 포함된 것이 바람직하다. In the tracking step S104, after the grouping step S102 is completed, the movement path is tracked over time in the unit group including the moving object selected from the unit groups in each of the images. In this case, when the analyst who tracks selects one of the moving objects displayed on the image, the tracking module 14 selects a unit group including the selected moving object, and the unit group selected from each of the images as described above. If they are determined to be similar according to the predetermined similarity information, it is preferable to connect the positions of the unit groups in each of the images and display them as a tracking path. In this case, the similar information includes motion information of a moving object included in the selected unit group, appearance modeling information of the moving objects included in the unit group modeled by the object modeling module 13, and a photographing time between the images. It is desirable to include information about the differences.
상술된 바와 같이 구성된 본 발명에 따른 다중 객체 추적 시스템(10) 및 이를 이용한 다중 객체 추적 방법은 추적 카메라(11)에서 촬영된 영상들에서 상호 인접된 이동객체들을 하나의 단위그룹으로 설정하고, 상기 단위그룹의 이동을 추적하므로 선택된 이동객체로부터 멀리 떨어진 이동객체에 대한 분석이 요구되지 않아 추적 작업에 소요되는 시간이 절약되고, 추적 결과 값에 대한 정확도가 향상되는 장점이 있다. The multi-object tracking system 10 and the multi-object tracking method using the same according to the present invention configured as described above set moving objects adjacent to each other in images captured by the tracking camera 11 as one unit group. As the movement of the unit group is tracked, analysis of moving objects far from the selected moving object is not required, thus saving time required for tracking and improving accuracy of the tracking result value.
또한, 본 발명에 따른 다중 객체 추적 시스템(10) 및 이를 이용한 다중 객체 추적 방법은 이동객체가 사람일 경우, 이동객체의 모델링 시 신체를 다수의 파트로 구분하여 모델링하므로 이동객체의 가려짐 현상에 대한 간섭이 최소화되어 분석의 정확도가 향상된다. In addition, in the multi-object tracking system 10 and the multi-object tracking method using the same according to the present invention, when the moving object is a human, the model is divided into a plurality of parts when the moving object is modeled, thereby preventing the obstruction of the moving object. Interference is minimized to improve the accuracy of the analysis.
제시된 실시예들에 대한 설명은 임의의 본 발명의 기술분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 발명의 기술 분야에서 통상의 지식을 가진자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 발명의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present invention. Various modifications to these embodiments will be apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the invention. Thus, the present invention should not be limited to the embodiments set forth herein but should be construed in the broadest scope consistent with the principles and novel features set forth herein.
본 발명은 추적 카메라에서 촬영된 영상들에서 상호 인접된 이동객체들을 하나의 단위그룹으로 설정하고, 상기 단위그룹의 이동을 추적하며, 추적 카메라의 위치에 따른 이동객체의 가려짐 현상에 대한 간섭을 최소화시킬 수 있는 다중 객체 추적 시스템 및 이를 이용한 다중 객체 추적 방법을 제공한다.The present invention sets the moving objects adjacent to each other in the images taken by the tracking camera as a unit group, tracks the movement of the unit group, and prevents the interference of the obstruction of the moving objects according to the position of the tracking camera. Provides a multi-object tracking system that can be minimized and a multi-object tracking method using the same.

Claims (16)

  1. 추적대상 이동객체들을 소정의 단위시간을 간격으로 촬영하는 추적 카메라와;A tracking camera for capturing the tracking target objects at predetermined unit time intervals;
    상기 추적 카메라로부터 촬영된 영상들을 제공받아 상기 영상들에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 모듈과;A grouping module for receiving images captured by the tracking camera and grouping the moving objects located within a predetermined set distance among the moving objects displayed on the images into a unit group;
    상기 영상들을 토대로 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 추적하는 추적 모듈;을 구비하는 것을 특징으로 하는 다중 객체 추적 시스템. And a tracking module for tracking a unit group including the selected moving object among the unit groups based on the images.
  2. 제1항에 있어서, The method of claim 1,
    상기 그루핑 모듈은 시간의 경과에 따라 각 상기 영상에 표시된 상기 단위그룹 내의 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 상기 영상에서 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 재그룹화하는 것을 특징으로 하는 다중 객체 추적 시스템. The grouping module may be configured such that the moving objects in the unit group displayed in each image are spaced apart from each other further than the set distance or that at least one of the moving objects included in the unit group is adjacent to each other over time. When the moving object included in the unit group is adjacent to the set distance by the set distance, the multi-object, characterized in that for releasing the unit group grouped in the image, and regrouping the moving objects located within the set distance into a unit group Tracking system.
  3. 제1항에 있어서, The method of claim 1,
    상기 그루핑 모듈에 의해 그룹화된 상기 단위그룹의 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 객체 모델링 모듈;을 더 구비하는 것을 특징으로 하는 다중 객체 추적 시스템. And an object modeling module for modeling the moving objects of the unit group grouped by the grouping module according to a predetermined identification criterion.
  4. 제3항에 있어서, The method of claim 3,
    상기 식별기준은 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)을 포함하는 것을 특징으로 하는 다중 객체 추적 시스템. The identification criterion includes a color histogram, a histogram of gradients, and a color self similarity.
  5. 제3항 또는 제4항에 있어서, The method according to claim 3 or 4,
    상기 객체 모델링 모듈은 상기 이동객체가 사람일 경우, 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트별로 모델링하는 것을 특징으로 하는 다중 객체 추적 시스템. The object modeling module is a multi-object tracking system, characterized in that when the moving object is a human, the moving object is divided into a plurality of unit parts according to the body part, and modeled for each unit part.
  6. 제5항에 있어서, The method of claim 5,
    상기 객체 모델링 모듈은 상기 이동객체가 사람일 경우, 상기 이동객체를 머리에서 어깨까지의 제1단위파트, 머리에서 몸통까지의 제2단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링하는 것을 특징으로 하는 다중 객체 추적 시스템. When the moving object is a human, the object modeling module includes the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the human body extending in the vertical direction. The third unit part, which is the left part, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and the multi-object tracking, characterized by modeling the first to fourth unit parts. system.
  7. 제3항에 있어서, The method of claim 3,
    상기 추적모듈은 각 상기 영상들에서 선택된 상기 단위그룹들이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에서의 상기 단위그룹의 위치들을 연결하여 추적경로로 표시하는 것을 특징으로 하는 다중 객체 추적 시스템. If it is determined that the unit groups selected from each of the images are similar according to predetermined similarity information, the tracking module connects the positions of the unit groups in each of the images and displays them as a tracking path. Tracking system.
  8. 제7항에 있어서, The method of claim 7, wherein
    상기 유사정보는 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 모듈에 의해 모델링된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 촬영 시간 차이에 대한 정보가 포함된 것을 특징으로 하는 다중 객체 추적 시스템. The similar information includes motion information of a moving object included in the selected unit group, appearance modeling information of moving objects included in the unit group modeled by the object modeling module, and information on a difference in photographing time between the images. Multi-object tracking system, characterized in that included.
  9. 추적 카메라를 통해 소정의 단위시간을 간격으로 다수의 이동객체가 포함된 영상들을 촬영단계와;Photographing images including a plurality of moving objects at predetermined unit time intervals through a tracking camera;
    상기 추적 카메라로부터 촬영된 영상들을 토대로, 각 상기 영상에 표시된 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 그루핑 단계와;Grouping the moving objects located within a predetermined set distance among the moving objects displayed on the images based on the images photographed from the tracking camera into a unit group;
    상기 그루핑 단계가 완료된 다음, 각 상기 영상들에서 상기 단위그룹들 중 선택된 상기 이동객체가 포함된 단위그룹을 시간의 경과에 따라 이동경로를 추적하는 추적 단계;를 포함하는 것을 특징으로 하는 다중 객체 추적 방법. And after the grouping step is completed, a tracking step of tracking a moving path of the unit group including the moving object selected from the unit groups in each of the images as time passes. Way.
  10. 제9항에 있어서, The method of claim 9,
    상기 그루핑 단계는 The grouping step is
    상기 추적 카메라를 통해 촬영된 영상들 중 하나의 영상에서 상기 이동객체들 중 기설정된 설정거리 내에 위치한 상기 이동객체들을 단위그룹으로 그룹화하는 초기 그룹단계와,An initial grouping step of grouping the moving objects located within a predetermined set distance among the moving objects in a unit group in one of the images photographed by the tracking camera;
    상기 초기 그룹단계가 완료된 다음, 상기 영상들 중 나머지 상기 영상들에서 각각 상기 초기 영상의 상기 단위그룹에 포함된 상기 이동객체들이 상기 설정거리보다 더 멀리 상호 이격되거나 상기 초기 영상의 상기 단위그룹에 포함된 이동객체들 중 적어도 하나의 이동객체가 인접된 또 다른 상기 단위그룹에 포함된 이동객체에 상기 설정거리만큼 인접될 경우, 상기 영상에서 그룹화된 상기 단위그룹을 해제하고, 상기 설정거리 내에 위치한 상기 이동객체들을 상기 단위그룹으로 재그룹화하는 재그룹화 단계를 포함하는 것을 특징으로 하는 다중 객체 추적 방법. After the initial grouping step is completed, the moving objects included in the unit group of the initial image in the remaining ones of the images are spaced apart from each other further than the set distance or included in the unit group of the initial image. When at least one of the moving objects is adjacent to the moving object included in another adjacent unit group by the set distance, the unit group grouped in the image is released, and the And regrouping the mobile objects into the unit group.
  11. 제9항 또는 제10항에 있어서, The method of claim 9 or 10,
    상기 그루핑 단계와 추적 단계 사이에 상기 그루핑 단계에서 그룹화된 상기 단위그룹에 포함된 상기 이동객체들을 소정의 식별기준에 따라 모델링하는 객체 모델링 단계;를 더 포함하는 것을 특징으로 하는 다중 객체 추적 방법. And an object modeling step of modeling the moving objects included in the unit group grouped in the grouping step between the grouping step and the tracking step according to a predetermined identification criterion.
  12. 제11항에 있어서, The method of claim 11,
    상기 식별기준은 컬러 히스토그램(Color histogram), 기울기 히스토그램 (Histogram Of Gradients) 및 색상 자기 유사성(Color Self Similarity)을 포함하는 것을 특징으로 하는 다중 객체 추적 방법. The identification criterion includes a color histogram, a histogram of gradients, and a color self similarity.
  13. 제11항에 있어서, The method of claim 11,
    상기 객체 모델링 단계에서, 상기 이동객체가 사람일 경우, 상기 이동객체를 신체부위에 따라 다수의 단위파트로 구분하고, 상기 단위파트 별로 모델링하는 것을 특징으로 하는 다중 객체 추적 방법. In the object modeling step, when the moving object is a human, the moving object is divided into a plurality of unit parts according to the body part, multi-object tracking method characterized in that for modeling for each unit part.
  14. 제11항에 있어서, The method of claim 11,
    상기 객체 모델링 단계에서, 상기 이동객체가 사람일 경우, 상기 이동객체를 머리에서 어깨까지의 제1단위파트, 머리에서 몸통까지의 제2단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 왼쪽 부분인 제3단위파트, 상하방향으로 연장된 사람의 중심선을 기준으로 전신의 오른쪽 부분인 제4단위파트로 구분하고, 상기 제1 내지 제4단위파트 별로 모델링하는 것을 특징으로 하는 다중 객체 추적 방법. In the object modeling step, when the moving object is a human, the whole body is based on the first unit part from the head to the shoulder, the second unit part from the head to the body, and the center line of the person extending in the vertical direction. The third unit part, which is the left part of, is divided into the fourth unit part, which is the right part of the whole body, based on the center line of the person extending in the vertical direction, and is modeled for each of the first to fourth unit parts. Tracking method.
  15. 제11항에 있어서, The method of claim 11,
    상기 추적단계에서, 각 상기 영상들에서 선택된 상기 단위그룹이 소정의 유사정보에 따라 유사하다고 판단되면, 각 상기 영상들에 선택된 상기 단위그룹의 시간경과에 따른 위치를 연결하여 추적경로로 표시하는 것을 특징으로 하는 다중 객체 추적 방법. In the tracking step, if it is determined that the unit group selected from each of the images is similar according to predetermined similar information, displaying the tracking path by connecting positions of the unit group selected to each of the images according to the time course. Characterized by multiple object tracking method.
  16. 제15항에 있어서, The method of claim 15,
    상기 유사정보는 상기 영상들에서 선택된 상기 단위그룹에 포함된 이동객체의 움직임 정보, 상기 객체 모델링 단계를 통해 생성된 상기 단위그룹에 포함된 이동객체들의 외형 모델링 정보 및 상기 영상들 사이의 경과 시간에 대한 정보를 포함하는 것을 특징으로 하는 이동 객체 추적 방법. The similar information includes motion information of a moving object included in the unit group selected from the images, appearance modeling information of the moving objects included in the unit group generated through the object modeling step, and elapsed time between the images. Moving object tracking method comprising the information about.
PCT/KR2017/001659 2016-02-17 2017-02-15 Multi-object tracking system and multi-object tracking method using same WO2017142311A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160018554A KR20170097265A (en) 2016-02-17 2016-02-17 System for tracking of moving multi target and method for tracking of moving multi target using same
KR10-2016-0018554 2016-02-17

Publications (1)

Publication Number Publication Date
WO2017142311A1 true WO2017142311A1 (en) 2017-08-24

Family

ID=59625992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/001659 WO2017142311A1 (en) 2016-02-17 2017-02-15 Multi-object tracking system and multi-object tracking method using same

Country Status (2)

Country Link
KR (1) KR20170097265A (en)
WO (1) WO2017142311A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470072A (en) * 2021-07-06 2021-10-01 吉林省田车科技有限公司 Particle swarm target tracking algorithm based on moving particles

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102147678B1 (en) * 2018-07-24 2020-08-25 서울시립대학교 산학협력단 Image merging stream reasoning surveilance method
KR102161344B1 (en) * 2018-07-24 2020-10-05 서울시립대학교 산학협력단 Stream reasoning surveilance system and Stream reasoning surveilance method using the same
KR102161343B1 (en) * 2018-07-24 2020-10-05 서울시립대학교 산학협력단 Stream reasoning surveilance system and missing child alarming method using the same
KR102132722B1 (en) * 2018-11-23 2020-07-10 인하대학교 산학협력단 Tracking method and system multi-object in video
KR101991307B1 (en) * 2019-04-04 2019-06-20 인천대학교 산학협력단 Electronic device capable of feature vector assignment to a tracklet for multi-object tracking and operating method thereof
KR102226913B1 (en) * 2019-07-18 2021-03-11 국방과학연구소 Method of multiple selection and deselection of targets and other objects using the trackball for tactical screen of naval combat system
KR102503094B1 (en) * 2020-11-18 2023-02-23 한국전자기술연구원 Object tracking method with creating/updating appearance model for multiple areas
KR20220073444A (en) 2020-11-26 2022-06-03 삼성전자주식회사 Method and apparatus for tracking object and terminal for performing the method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101214000B1 (en) * 2011-10-28 2012-12-20 연세대학교 산학협력단 Apparatus for detecting color rolling and method thereof
KR101508310B1 (en) * 2014-04-10 2015-04-07 군산대학교산학협력단 Apparatus and method for tracking multiple moving objects in video surveillance system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101214000B1 (en) * 2011-10-28 2012-12-20 연세대학교 산학협력단 Apparatus for detecting color rolling and method thereof
KR101508310B1 (en) * 2014-04-10 2015-04-07 군산대학교산학협력단 Apparatus and method for tracking multiple moving objects in video surveillance system

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ANH VU LE: "Group-based multiple people tracking in perception sensor network", IEEE RO -MAN 2015, September 2015 (2015-09-01), pages 1 - 2 *
GUANG SHU: "Part-based Multiple-Person Tracking with Partial Occlusion Handling", COMPUTER VISION AND PATTERN RECOGNITION (CVPR) , 2012 IEEE CONFERENCE, June 2012 (2012-06-01), pages 1 - 7, XP032208804 *
STEFAN WALK: "New Features and Insights for Pedestrian Detection", COMPUTER VISION AND PATTERN RECOGNITION (CVPR) , 2010 IEEE CONFERENCE, June 2010 (2010-06-01), pages 1 - 8, XP031725929 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113470072A (en) * 2021-07-06 2021-10-01 吉林省田车科技有限公司 Particle swarm target tracking algorithm based on moving particles
CN113470072B (en) * 2021-07-06 2022-09-13 吉林省田车科技有限公司 Particle swarm target tracking algorithm based on moving particles

Also Published As

Publication number Publication date
KR20170097265A (en) 2017-08-28

Similar Documents

Publication Publication Date Title
WO2017142311A1 (en) Multi-object tracking system and multi-object tracking method using same
WO2015178540A1 (en) Apparatus and method for tracking target using handover between cameras
WO2017164478A1 (en) Method and apparatus for recognizing micro-expressions through deep learning analysis of micro-facial dynamics
WO2019132589A1 (en) Image processing device and method for detecting multiple objects
WO2016108327A1 (en) Vehicle detection method, database structure for vehicle detection, and database construction method for vehicle detection
WO2020027607A1 (en) Object detection device and control method
WO2012091326A2 (en) Three-dimensional real-time street view system using distinct identification information
CN109598242A (en) A kind of novel biopsy method
WO2018151503A2 (en) Method and apparatus for gesture recognition
WO2021241804A1 (en) Multi-flow-based frame interpolation device and method
WO2015182904A1 (en) Area of interest studying apparatus and method for detecting object of interest
WO2016107230A1 (en) System and method for reproducing objects in 3d scene
CN111274992A (en) Cross-camera pedestrian re-identification method and system
WO2018139847A1 (en) Personal identification method through facial comparison
WO2021075772A1 (en) Object detection method and device using multiple area detection
CN109785446A (en) Image identification system and its method
WO2013025011A1 (en) Method and system for body tracking for recognizing gestures in a space
WO2021215800A1 (en) Surgical skill training system and machine learning-based surgical guide system using three-dimensional imaging
WO2019221340A1 (en) Method and system for calculating spatial coordinates of region of interest, and non-transitory computer-readable recording medium
CN108734655A (en) The method and system that aerial multinode is investigated in real time
WO2013151205A1 (en) Method and apparatus for acquiring image of face for facial recognition
WO2018139810A1 (en) Sensing apparatus for calculating position information of object in motion, and sensing method using same
WO2015108401A1 (en) Portable device and control method using plurality of cameras
WO2019098421A1 (en) Object reconstruction device using motion information and object reconstruction method using same
WO2012133962A1 (en) Apparatus and method for recognizing 3d movement using stereo camera

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17753472

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205N DATED 24/10/2018)

122 Ep: pct application non-entry in european phase

Ref document number: 17753472

Country of ref document: EP

Kind code of ref document: A1