KR102060370B1 - System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same - Google Patents

System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same Download PDF

Info

Publication number
KR102060370B1
KR102060370B1 KR1020180017217A KR20180017217A KR102060370B1 KR 102060370 B1 KR102060370 B1 KR 102060370B1 KR 1020180017217 A KR1020180017217 A KR 1020180017217A KR 20180017217 A KR20180017217 A KR 20180017217A KR 102060370 B1 KR102060370 B1 KR 102060370B1
Authority
KR
South Korea
Prior art keywords
tracking
objects
similarity
destroyed
unit
Prior art date
Application number
KR1020180017217A
Other languages
Korean (ko)
Other versions
KR20190103513A (en
Inventor
김동환
김기정
임윤섭
김창환
최종석
박성기
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020180017217A priority Critical patent/KR102060370B1/en
Publication of KR20190103513A publication Critical patent/KR20190103513A/en
Application granted granted Critical
Publication of KR102060370B1 publication Critical patent/KR102060370B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

분할 외형정보 기반 객체 인식 및 추적 시스템 및 이를 이용한 객체 인식 및 추적 방법에서, 상기 객체 인식 및 추적 시스템은 복수의 추적부들, 복수의 저장부들, 판별부 및 통합부를 포함한다. 상기 추적부들은 각 추적 영역 내에서 복수의 객체들을 추적하여, 각 객체들의 위치 및 외형 정보를 추출한다. 상기 저장부들은 상기 추적부들 각각에서 추적된 상기 객체들의 위치 및 외형 정보를 각각 저장한다. 상기 판별부는 상기 추적부들 중 어느 하나의 추적부에서 객체가 소멸되고, 상기 추적부들 중 어느 하나의 추적부에서 신규 객체가 추적되는 경우, 상기 소멸된 객체와 상기 신규 객체의 유사도를 판별한다. 상기 통합부는 상기 신규 객체가 상기 소멸된 객체와 유사하다고 판단되면 상기 신규 객체를 상기 소멸된 객체로 할당하고, 유사하다고 판단되지 않으면 상기 신규 객체를 새로운 객체로 할당하여 상기 추적되는 객체들을 통합한다. In the partition appearance-based object recognition and tracking system and the object recognition and tracking method using the same, the object recognition and tracking system includes a plurality of tracking units, a plurality of storage units, a discriminating unit, and an integrated unit. The tracking units track a plurality of objects in each tracking area, and extract location and appearance information of each object. The storage units store location and appearance information of the objects tracked by the tracking units, respectively. When the object is destroyed in any one of the tracking units and the new object is tracked in any one of the tracking units, the determination unit determines the similarity between the destroyed object and the new object. The integration unit allocates the new object as the destroyed object when it is determined that the new object is similar to the destroyed object, and integrates the tracked objects by allocating the new object as a new object when it is determined that the new object is similar to the destroyed object.

Figure R1020180017217
Figure R1020180017217

Description

분할 외형정보 기반 객체 인식 및 추적 시스템 및 이를 이용한 객체 인식 및 추적 방법{SYSTEM FOR RECOGNIZING AND TRACKING AN OBJECT BASED ON DIVISIONAL FEATURE INFORMATION AND METHOD FOR RECOGNIZING AND TRACKING USING THE SAME}Object Recognition and Tracking System based on Segmental Appearance Information and Object Recognition and Tracking Method Using the System {SYSTEM FOR RECOGNIZING AND TRACKING AN OBJECT BASED ON DIVISIONAL FEATURE INFORMATION AND METHOD FOR RECOGNIZING AND TRACKING USING THE SAME}

본 발명은 객체 인식 및 추적 시스템 및 이를 이용한 객체 인식 및 추적 방법에 관한 것으로, 더욱 상세하게는 다중 카메라를 통해 복수의 사람과 같은 다중 객체를 인식하거나 추적하기 위해 상기 객체에 대한 분할 외형정보를 사용하는 분할 외형정보 기반 객체 인식 및 추적 시스템 및 이를 이용한 객체 인식 및 추적 방법에 관한 것이다.The present invention relates to an object recognition and tracking system and an object recognition and tracking method using the same. More particularly, the present invention uses segmented appearance information of the object to recognize or track multiple objects such as a plurality of people through multiple cameras. The present invention relates to a segmented appearance information based object recognition and tracking system and an object recognition and tracking method using the same.

사람이나 물체 등의 객체에 대한 인식 기술이 향상되고, 객체에 대한 추적의 필요성이 다양한 상황에서 발생하게 됨에 따라, 최근 객체를 인식하거나 이를 바탕으로 객체를 추적하는 기술에 대하여 많은 기술이 개발되고 있다. As the recognition technology for objects such as people and objects is improved, and the necessity of tracking objects occurs in various situations, many technologies have recently been developed for technologies for recognizing objects or tracking objects based on the objects. .

예를 들어, 대한민국 공개특허 제10-2008-0057500호에서는 사람들의 움직임 추적 시스템 및 그 방법에 관한 것으로써 입력되는 이전 프레임과 현재 프레임의 픽셀을 비교하여 움직임 영역을 추출하여 추적하는 기술을 개시하고 있으며, 대한민국 공개특허 제10-2012-0072009호에서는 비동기화된 복합 영상처리를 통한 다중 사용자 인터렉션 인식 장치 및 방법에 관한 것으로 다중 연산을 통해 다중 사용자의 얼굴을 인식하고 추적을 통해 해당 사용자의 제스쳐 포인트를 인식하는 기술을 개시하고 있다. For example, Korean Patent Laid-Open Publication No. 10-2008-0057500 discloses a technique for extracting and tracking a motion region by comparing a pixel of a current frame with a previous frame that is input as related to a people motion tracking system and method thereof. In addition, the Republic of Korea Patent Publication No. 10-2012-0072009 relates to a multi-user interaction recognition apparatus and method through asynchronous image processing asynchronously recognizes the face of the multi-user through the multi-calculation and gesture point of the user through the tracking It discloses a technique for recognizing this.

이상과 같이, 현재까지 촬영된 영상으로부터 객체를 인식하여 해당 객체를 추적하고, 해당 객체의 움직임의 특성을 파악하는 기술들은 다수 개발되고는 있다. As described above, a number of techniques for recognizing an object from an image captured to date, tracking the object, and identifying the characteristics of the movement of the object have been developed.

그러나, 종래 기술에서는, 다수의 객체들의 움직임을 추적하는 과정에서 해당 객체의 추적을 실패하는 경우가 종종 발생하며, 동일 객체에 대해 새롭게 추적하는 경우 이를 동일 객체인지의 여부를 판단할 수 없어 새로운 객체로 인식하게 되는 문제가 있다. However, in the prior art, tracking of the movement of a plurality of objects often fails to track the corresponding object, and when newly tracking the same object, it is not possible to determine whether the same object is the new object. There is a problem to be recognized as.

이는, 하나의 카메라를 통해 하나의 화면에서 객체를 추적하는 경우에도 발생하지만, 특히 복수의 카메라를 통해 객체를 추적하는 경우나, 주변 환경이 다양하게 변화함에 따라 객체 추적이 복잡한 상황에서 동일 객체에 대한 연속적인 추적이 불가능한 문제를 야기하게 된다. This occurs even when an object is tracked on one screen through one camera, but especially when tracking an object through multiple cameras or when the object tracking is complicated due to various changes in the surrounding environment. This can lead to problems that cannot be tracked continuously.

대한민국 공개특허 제10-2008-0057500호Republic of Korea Patent Publication No. 10-2008-0057500 대한민국 공개특허 제10-2012-0072009호Republic of Korea Patent Publication No. 10-2012-0072009

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 새롭게 등장한 객체에 대한 동일 객체의 여부를 용이하게 판단할 수 있으며, 특히 다중 카메라의 모든 화면에서 새롭게 등장하거나 다양한 주변 환경으로 객체 인식이 어려운 상황에서도 객체 인식 및 추적이 가능한 분할 외형정보 기반 객체 인식 및 추적 시스템에 관한 것이다. Accordingly, the technical problem of the present invention has been conceived in this respect, the object of the present invention can easily determine whether the same object for the newly appeared object, in particular, newly appeared on all screens of the multi-camera or to various surrounding environments The present invention relates to a segmented appearance information-based object recognition and tracking system capable of object recognition and tracking even in difficult situation of object recognition.

본 발명의 다른 목적은 상기 객체 인식 및 추적 시스템을 이용한 객체 인식 및 추적 방법에 관한 것이다. Another object of the present invention relates to an object recognition and tracking method using the object recognition and tracking system.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 객체 인식 및 추적 시스템은 복수의 추적부들, 복수의 저장부들, 판별부 및 통합부를 포함한다. 상기 추적부들은 각 추적 영역 내에서 복수의 객체들을 추적하여, 각 객체들의 위치 및 외형 정보를 추출한다. 상기 저장부들은 상기 추적부들 각각에서 추적된 상기 객체들의 위치 및 외형 정보를 각각 저장한다. 상기 판별부는 상기 추적부들 중 어느 하나의 추적부에서 객체가 소멸되고, 상기 추적부들 중 어느 하나의 추적부에서 신규 객체가 추적되는 경우, 상기 소멸된 객체와 상기 신규 객체의 유사도를 판별한다. 상기 통합부는 상기 신규 객체가 상기 소멸된 객체와 유사하다고 판단되면 상기 신규 객체를 상기 소멸된 객체로 할당하고, 유사하다고 판단되지 않으면 상기 신규 객체를 새로운 객체로 할당하여 상기 추적되는 객체들을 통합한다. Object recognition and tracking system according to an embodiment for realizing the above object of the present invention includes a plurality of tracking units, a plurality of storage units, determination unit and integration unit. The tracking units track a plurality of objects in each tracking area, and extract location and appearance information of each object. The storage units store location and appearance information of the objects tracked by the tracking units, respectively. When the object is destroyed in any one of the tracking units and the new object is tracked in any one of the tracking units, the determination unit determines the similarity between the destroyed object and the new object. The integration unit allocates the new object as the destroyed object when it is determined that the new object is similar to the destroyed object, and integrates the tracked objects by allocating the new object as a new object when it is determined that the new object is similar to the destroyed object.

일 실시예에서, 상기 저장부들 각각은, 상기 객체들이 상기 추적부로부터 소멸된 경우, 소멸 직전의 상기 객체의 위치 및 외형 정보를 저장할 수 있다. In one embodiment, each of the storage unit, when the objects are destroyed from the tracking unit, may store the location and appearance information of the object immediately before the destruction.

일 실시예에서, 상기 객체들 각각은 사람이며, 상기 사람을 머리, 상체 및 하체로 분할하여 상기 외형 정보가 추출되고 저장될 수 있다. In one embodiment, each of the objects is a person, the appearance information can be extracted and stored by dividing the person into a head, upper body and lower body.

일 실시예에서, 상기 판별부는, 상기 소멸된 객체와 상기 신규 객체의 위치 정보, 및 머리, 상체 및 하체로 분할된 외형 정보를 각각 비교하여, 유사도를 판단하는 비교 판단부를 포함할 수 있다. In one embodiment, the determination unit may include a comparison determination unit to determine the degree of similarity by comparing the extinct object and the position information of the new object, and the appearance information divided into the head, upper body and lower body, respectively.

일 실시예에서, 상기 비교 판단부는, 상기 소멸된 객체와 상기 신규 객체와의 유사도 판단에서, 상체의 유사성에 제1 가중치를 부여하고, 하체의 유사성에 제2 가중치를 부여하고, 머리의 유사성에 제3 가중치를 부여하여 유사도를 판단하며, 상기 제1 내지 제3 가중치들은 서로 다를 수 있다. In one embodiment, the comparison determiner, in determining the similarity between the extinct object and the new object, the first weight to the similarity of the upper body, the second weight to the similarity of the lower body, and to the similarity of the head The similarity is determined by giving a third weight, and the first to third weights may be different from each other.

일 실시예에서, 상기 제2 가중치는 상기 제3 가중치보다 크고, 상기 제1 가중치는 상기 제2 가중치보다 클 수 있다. In example embodiments, the second weight may be greater than the third weight, and the first weight may be greater than the second weight.

일 실시예에서, 상기 판별부는, 일정 시간의 경과한 이후에도 신규 객체와 유사한 것으로 판별되지 않은 소멸된 객체에 대한 위치 및 외형 정보를 상기 저장부로부터 삭제하는 삭제부를 포함할 수 있다. In one embodiment, the determination unit may include a deletion unit for deleting the location and appearance information about the expired object that is not determined to be similar to the new object even after a predetermined time elapses.

일 실시예에서, 상기 추적부들 각각에 의해 추적되는 추적 영역들 각각은 고정될 수 있다. In one embodiment, each of the tracking areas tracked by each of the tracking units may be fixed.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 객체 인식 및 추적 방법은 각 추적 영역 내에서 복수의 객체들을 추적하여, 각 객체들의 위치 및 외형 정보를 추출한다. 상기 추적된 상기 객체들의 위치 및 외형 정보를 각각 저장한다. 상기 추적부들 중 어느 하나의 추적부에서 객체가 소멸되고, 상기 추적부들 중 어느 하나의 추적부에서 신규 객체가 추적되는 경우, 상기 소멸된 객체와 상기 신규 객체의 유사도를 판별한다. 상기 신규 객체가 상기 소멸된 객체와 유사하다고 판단되면 상기 신규 객체를 상기 소멸된 객체로 할당하고, 유사하다고 판단되지 않으면 상기 신규 객체를 새로운 객체로 할당하여 상기 추적되는 객체들을 통합한다. Object recognition and tracking method according to an embodiment for realizing another object of the present invention described above to extract the position and appearance information of each object by tracking a plurality of objects in each tracking area. The location and appearance information of the tracked objects are respectively stored. When an object is destroyed in any one of the tracking units and a new object is tracked in any one of the tracking units, the degree of similarity between the destroyed object and the new object is determined. If it is determined that the new object is similar to the destroyed object, the new object is allocated to the destroyed object, and if not determined to be similar, the new object is allocated to the new object to integrate the tracked objects.

일 실시예에서, 상기 객체들의 위치 및 외형 정보를 각각 저장하는 단계에서, 상기 객체들이 소멸된 경우, 소멸 직전의 상기 객체의 위치 및 외형 정보를 저장할 수 있다. In an embodiment, in storing the location and appearance information of the objects, respectively, when the objects are destroyed, the location and appearance information of the object immediately before the destruction may be stored.

일 실시예에서, 상기 유사도를 판별하는 단계에서, 상기 소멸된 객체 및 상기 신규 객체가 사람인 경우, 상기 사람의 외형 정보를 머리, 상체 및 하체로 분할하여 유사도를 판별할 수 있다. In an embodiment, in the determining of the similarity, when the extinct object and the new object are humans, the similarity may be determined by dividing the appearance information of the person into head, upper body, and lower body.

일 실시예에서, 상기 유사도를 판별하는 단계에서, 상기 상체의 유사성에 제1 가중치를 부여하고, 상기 하체의 유사성에 제2 가중치를 부여하고, 상기 머리의 유사성에 제3 가중치를 부여하여 유사도를 판별하되, 상기 제2 가중치는 상기 제3 가중치보다 크고, 상기 제1 가중치는 상기 제2 가중치보다 클 수 있다. In an embodiment, in the determining of the similarity, the similarity of the upper body is assigned a first weight, the second weight is assigned to the similarity of the lower body, and the similarity of the head is assigned to the similarity. The second weight may be greater than the third weight, and the first weight may be greater than the second weight.

일 실시예에서, 일정 시간의 경과한 이후에도 소멸된 객체가 신규 객체와 유사한 것으로 판별되지 않으면, 상기 소멸된 객체의 위치 및 외형 정보를 삭제할 수 있다. In one embodiment, if it is determined that the destroyed object is similar to the new object even after a certain time elapses, the location and appearance information of the destroyed object may be deleted.

본 발명의 실시예들에 의하면, 복수의 추적부들 중 어느 하나의 추적부에서 소멸된 객체들에 대하여 상기 추적부에서 새롭게 등장한 신규 객체와의 유사도를 판별하여 신규 객체가 소멸된 객체인지의 여부를 즉각적으로 판별할 수 있으므로, 객체 추적 능력을 보다 향상시킬 수 있다. According to embodiments of the present invention, whether the new object is an expired object is determined by determining the similarity with the new object newly introduced in the tracking unit with respect to the objects destroyed by any one of the plurality of tracking units. It can be determined on the fly, further improving the object tracking ability.

특히, 추적부의 해상도가 높지 않아서 인식력이나 추적 성능이 좋지 않아 소멸되는 객체가 다수 존재하더라도 신규 객체에 대한 반복적인 유사도 판별로 하나의 객체에 대한 연속 추적이 가능하다. 나아가, 주변 환경 상의 특징이나 객체의 이동 속도가 빠른 등의 다양한 환경에서 객체 추적이 반복적으로 끊기더라도 유사도 판별을 통해 연속적인 객체 추적을 수행할 수 있다. In particular, even if there are a large number of objects that are destroyed due to poor recognition ability or poor tracking performance because the resolution of the tracking unit is not high, continuous tracking of one object is possible by repeatedly determining similarity of new objects. Furthermore, even if the object tracking is repeatedly disconnected in various environments such as the characteristics of the surrounding environment or the fast moving speed of the object, continuous object tracking may be performed through similarity determination.

이 경우, 소멸된 객체와 신규 객체가 동일한 것으로 판별되면, 신규 객체를 소멸된 객체의 ID와 동일한 ID로 할당하여 관리함으로써, 추적의 대상이 되는 다수의 객체들에 대한 ID 할당을 통해 통합 관리의 용이성이 향상된다. In this case, if the destroyed object and the new object are determined to be the same, the new object is assigned to the same ID as that of the destroyed object and managed, thereby allocating IDs to a plurality of objects to be tracked. Ease of use is improved.

나아가, 복수의 추적부들이 서로 연동되어 추출된 정보를 공유하므로, 추적부가 해당 추적영역을 고정적으로 관찰하는 고정 카메라인 경우, 해당 추적 영역으로부터 벗어난 객체에 대하여도 효과적인 연속 추적이 가능하다. Furthermore, since the plurality of tracking units share information extracted in conjunction with each other, when the tracking unit is a fixed camera that observes the tracking area fixedly, effective continuous tracking is possible even for an object deviating from the tracking area.

또한, 객체가 사람인 경우, 사람의 외형 정보를 머리, 상체 및 하체로 구분하고, 특히 상체에 유사도 판별에서의 가중치를 가장 높게 부여함으로써, 실제 이동하는 사람의 외형에서 변화도가 가장 적은 상체를 중심으로 외형의 유사도를 판별하게 되므로, 외형의 유사도 판별력을 향상시킬 수 있다. In addition, when the object is a human, the external body information is divided into head, upper body, and lower body, and the weight of the similarity determination is given to the upper body, and the upper body having the smallest change in the appearance of the person actually moving is centered. Since the similarity of the appearance is determined, the similarity discrimination power of the appearance can be improved.

또한, 일정 시간의 경과한 이후에도 신규 객체와 유사한 것으로 판별되지 않은 소멸된 객체에 대한 위치 및 외형 정보를 삭제함으로써, 저장부의 저장 공간을 보다 효율적으로 사용할 수 있다. In addition, the storage space of the storage unit may be used more efficiently by deleting the location and appearance information of the destroyed object that is not determined to be similar to the new object even after a certain time elapses.

도 1은 본 발명의 일 실시예에 의한 객체 인식 및 추적 시스템을 도시한 블록도이다.
도 2는 도 1의 객체 인식 및 추적 시스템에서 추적부들 각각에 의해 복수의 객체들이 추적되는 상황을 도시한 모식도이다.
도 3은 도 2의 제1 추적부에서 추적되는 복수의 객체들에 대한 외형 정보를 추출하는 상황을 도시한 모식도이다.
도 4는 도 1의 객체 인식 및 추적 시스템에서 판별부 및 통합부에서의 객체 통합의 예를 도시한 모식도이다.
도 5는 도 1의 객체 인식 및 추적 시스템을 이용한 객체 인식 및 추적 방법을 도시한 흐름도이다.
1 is a block diagram illustrating an object recognition and tracking system according to an embodiment of the present invention.
FIG. 2 is a schematic diagram illustrating a situation in which a plurality of objects are tracked by each of the tracking units in the object recognition and tracking system of FIG. 1.
3 is a schematic diagram illustrating a situation in which appearance information about a plurality of objects tracked by the first tracking unit of FIG. 2 is extracted.
FIG. 4 is a schematic diagram illustrating an example of object integration in the discriminating unit and the integrating unit in the object recognition and tracking system of FIG. 1.
5 is a flowchart illustrating an object recognition and tracking method using the object recognition and tracking system of FIG. 1.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 실시예들을 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. As the inventive concept allows for various changes and numerous modifications, the embodiments will be described in detail in the text. However, this is not intended to limit the present invention to a specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, similar reference numerals are used for similar elements. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms.

상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The terms are used only for the purpose of distinguishing one component from another. The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함하다" 또는 "이루어진다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. In this application, the terms "comprise" or "consist of" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명의 일 실시예에 의한 객체 인식 및 추적 시스템을 도시한 블록도이다. 도 2는 도 1의 객체 인식 및 추적 시스템에서 추적부들 각각에 의해 복수의 객체들이 추적되는 상황을 도시한 모식도이다. 도 3은 도 2의 제1 추적부에서 추적되는 복수의 객체들에 대한 외형 정보를 추출하는 상황을 도시한 모식도이다. 도 4는 도 1의 객체 인식 및 추적 시스템에서 판별부 및 통합부에서의 객체 통합의 예를 도시한 모식도이다. 도 5는 도 1의 객체 인식 및 추적 시스템을 이용한 객체 인식 및 추적 방법을 도시한 흐름도이다. 1 is a block diagram illustrating an object recognition and tracking system according to an embodiment of the present invention. FIG. 2 is a schematic diagram illustrating a situation in which a plurality of objects are tracked by each of the tracking units in the object recognition and tracking system of FIG. 1. 3 is a schematic diagram illustrating a situation in which appearance information about a plurality of objects tracked by the first tracking unit of FIG. 2 is extracted. FIG. 4 is a schematic diagram illustrating an example of object integration in the discriminating unit and the integrating unit in the object recognition and tracking system of FIG. 1. 5 is a flowchart illustrating an object recognition and tracking method using the object recognition and tracking system of FIG. 1.

이하에서는, 도 1 내지 도 5를 참조하여, 본 실시예에 의한 객체 인식 및 추적 시스템(10)과 이를 이용한 객체 인식 및 추적 방법(20)에 대하여 동시에 설명한다. Hereinafter, the object recognition and tracking system 10 and the object recognition and tracking method 20 using the same will be described at the same time with reference to FIGS. 1 to 5.

우선, 도 1을 참조하면, 본 실시예에 의한 객체 인식 및 추적 시스템(10)은 추적부(100), 저장부(200), 판별부(300) 및 통합부(400)를 포함한다. First, referring to FIG. 1, the object recognition and tracking system 10 according to the present embodiment includes a tracking unit 100, a storage unit 200, a determination unit 300, and an integrated unit 400.

보다 구체적으로, 도 1, 도 2 및 도 5를 참조하면, 상기 추적부(100)는 복수의 제1 내지 제n 추적부들(101, 102, ..., 103)을 포함하며, 상기 추적부들은 제1 내지 제n 추적 영역들(111, 112, ..., 113)에 대하여 복수의 객체들에 대한 추적을 수행한다. More specifically, referring to FIGS. 1, 2 and 5, the tracking unit 100 includes a plurality of first to nth tracking units 101, 102,..., 103, and the tracking units Tracks a plurality of objects with respect to the first to n th tracking areas 111, 112,..., 113.

이 경우, 상기 제1 내지 제n 추적 영역들(111, 112, ..., 113)은 도 2에 도시된 바와 같이 서로 중첩될 수 있으며, 이에 따라, 상기 중첩되는 영역에 위치하는 객체들(530, 540)은 복수의 추적부들(101, 102)에 의해 동시에 추적될 수 있다. In this case, the first to n-th tracking areas 111, 112,..., 113 may overlap each other as shown in FIG. 2, and thus, objects (eg, located in the overlapping area) The 530 and 540 may be simultaneously tracked by the plurality of tracking units 101 and 102.

또한, 상기 추적부들(101, 102, ..., 103) 각각은 2차원 또는 3차원 카메라와 같은 영상 장치일 수 있으며, 영상 외에 해당 객체에 대한 위치 정보도 동시에 획득할 수 있는 장치일 수 있다. In addition, each of the tracking units 101, 102,..., 103 may be an imaging device such as a two-dimensional or three-dimensional camera, and may be a device that can simultaneously acquire location information on a corresponding object in addition to an image. .

이에 따라, 본 실시예에서 상기 추적부들(101, 102, ..., 103) 각각은 상기 제1 내지 제n 추적 영역들(111, 112, ..., 113)에서, 복수의 객체들(510, 520, 530, 540)을 각각 추적하며, 상기 복수의 객체들(510, 520, 530, 540) 각각에 대하여 위치 정보 및 외형 정보를 추출한다(단계 S10). Accordingly, in the present exemplary embodiment, each of the tracking units 101, 102,..., 103 is a plurality of objects in the first to n-th tracking regions 111, 112,..., 113. 510, 520, 530, and 540 are tracked, respectively, and location information and appearance information are extracted for each of the plurality of objects 510, 520, 530, and 540 (step S10).

이 경우, 하나의 객체가 복수의 추적 영역들에 포함되는 경우, 복수의 추적부들에 의해 추적되어 위치 정보 및 외형 정보가 추출되며, 이렇게 중첩된 정보들은 후술되는 상기 통합부(400)에 의해 하나의 객체로 인식되어 ID가 할당된다. In this case, when one object is included in the plurality of tracking areas, the location information and the appearance information are extracted by being tracked by the plurality of tracking units, and the overlapping information is one by the integration unit 400 described later. It is recognized as an object of and assigned an ID.

한편, 상기 객체는 예를 들어, 사람일 수 있으며, 상기 객체가 사람인 경우라면, 상기 추적부들(101, 102, ..., 103) 각각에서는 도 3에 도시된 바와 같이, 상기 객체의 위치 및 외형 정보를 추출한다. On the other hand, the object may be, for example, a person, if the object is a human, each of the tracking units (101, 102, ..., 103), as shown in Figure 3, the location of the object and Extract appearance information.

즉, 상기 제1 추적부(101)에서 제1 내지 제3 객체들(510, 520, 530)이 추적되는 경우, 상기 제1 추적부(101)는 제1 내지 제3 객체들(510, 520, 530) 각각을 머리(511, 521, 531), 상체(512, 522, 532) 및 하체(513, 523, 533)로 분할하여 외형 정보를 추출한다. That is, when the first to third objects 510, 520, and 530 are tracked in the first tracker 101, the first tracker 101 may be configured to include the first to third objects 510 and 520. And 530, each of which is divided into a head 511, 521, and 531, an upper body 512, 522, and 532, and a lower body 513, 523, and 533, to extract appearance information.

이 경우, 분할되는 하나의 객체(510)에 대한 각각의 외형 정보(511, 512, 513)는 도시된 바와 같이 하나의 픽셀 형태로 구획되어 해당 픽셀에 대한 외형 정보로 추출된다. In this case, each appearance information 511, 512, and 513 of the divided object 510 is divided into one pixel form as shown and extracted as appearance information of the corresponding pixel.

다만, 상기 머리, 상체 및 하체는 하나의 개체를 구성하는 것으로 상기 제1 추적부(101)에서 상기 각각의 객체들의 위치 정보를 추출하는 경우에는 객체 전체를 하나로, 즉 하나의 픽셀(514, 524, 534)로 취급하여, 해당 픽셀(514, 524, 534)에 대한 위치 정보로 추출하는 것이 바람직하다. However, the head, the upper body and the lower body constitute one object. When the first tracking unit 101 extracts the location information of each object, the whole object is one, that is, one pixel 514 and 524. 534, it is preferable to extract the position information of the pixel (514, 524, 534).

한편, 상기 분할된 머리, 상체 및 하체에 대한 각각의 외형 정보를 추출하는 경우, 분할된 각각의 머리, 상체 및 하체에서, 특징 기술자(descriptor)를 생성하여, 생성된 특징 기술자들을 외형 정보로 추출할 수 있으며, 나아가 특정 픽셀의 외형 정보를 추출하는 다양한 방법들이 적용될 수 있다. On the other hand, when extracting the respective appearance information for the divided head, upper body and lower body, a feature descriptor is generated in each of the divided head, upper body and lower body, and the generated feature descriptors are extracted as appearance information. In addition, various methods of extracting appearance information of a specific pixel may be applied.

이와 같이, 상기 제1 추적부(101)에서 추적되는 제1 객체(510)에 대하여, 제1 객체(510) 전체를 하나의 픽셀(514)로 취급하여 상기 픽셀(514)의 위치 정보를 추출하고, 상기 제1 객체(510)를 머리(511), 상체(512) 및 하체(513)로 분할하여 각각의 픽셀들(511, 512, 513)의 외형 정보를 추출한다. As such, with respect to the first object 510 tracked by the first tracking unit 101, the entire first object 510 is treated as one pixel 514 to extract position information of the pixel 514. The first object 510 is divided into a head 511, an upper body 512, and a lower body 513 to extract appearance information of the pixels 511, 512, and 513.

이 경우, 설명한 바와 같이 제1 객체(510)가 제2 추적부(102)에 의해서도 추적된다면 동일하게 위치 정보 및 외형 정보가 제2 추적부(102)에 의해 추출된다. In this case, as described above, if the first object 510 is also tracked by the second tracking unit 102, the location information and the appearance information are similarly extracted by the second tracking unit 102.

그리하여, 모든 추적부들에 의해 추적되는 모든 객체들에 대하여 각각 위치 정보 및 외형 정보가 추출되며, 일부 객체들의 경우 복수의 추적부들에 의해 중첩되며 위치 정보 및 외형 정보가 추출될 수 있다. Thus, location information and appearance information may be extracted for all objects tracked by all tracking units, and some objects may be overlapped by a plurality of tracking units, and location information and appearance information may be extracted.

한편, 도 1 및 도 5를 참조하면, 상기 추적부들에 의해 모든 객체들에 대한 위치 정보 및 외형 정보가 추출되면, 상기 저장부(200)는 상기 추출된 위치 정보 및 외형 정보를 저장한다(단계 S20). Meanwhile, referring to FIGS. 1 and 5, when location information and appearance information of all objects are extracted by the tracking units, the storage unit 200 stores the extracted location information and appearance information (step S20).

즉, 상기 저장부(200)도 제1 내지 제n 저장부들(201, 202, ..., 203)을 포함하며, 이에 따라, 상기 제1 추적부(101)에서 추출된 위치 정보 및 외형 정보는 상기 제1 저장부(201)에 저장되고, 상기 제2 추적부(102)에서 추출된 위치 정보 및 외형 정보는 상기 제2 저장부(202)에 저장되며, 상기 제n 추적부(103)에서 추출된 위치 정보 및 외형 정보는 상기 제n 저장부(203)에 각각 저장될 수 있다. That is, the storage unit 200 also includes first to nth storage units 201, 202,..., 203, and thus, location information and appearance information extracted from the first tracking unit 101. Is stored in the first storage unit 201, the location information and appearance information extracted from the second tracking unit 102 are stored in the second storage unit 202, the n-th tracking unit 103 The location information and the appearance information extracted from may be stored in the n-th storage unit 203, respectively.

이와 달리, 상기 저장부(200)는 하나의 저장부의 형태로, 상기 제1 내지 제n 추적부들에서 각각 추출된 위치 정보 및 외형 정보를 서로 구별하여 한 번에 저장할 수도 있다. Alternatively, the storage unit 200 may be stored in a form of one storage unit, distinguishing the location information and the appearance information extracted from the first to n-th tracking units from each other at once.

한편, 본 실시예에서는, 상기 저장부(200)에 상기 추적부들에서 추출된 모든 객체의 모든 위치 정보 및 외형 정보를 일정 시간 간격마다 반복적으로 또는 연속적으로 저장하는 것은 저장 용량의 문제로 어려우므로, 본 실시예에 의한 객체 인식 및 추적 방법의 시작 단계에서, 상기 저장부(200)에 저장되는 위치 정보 및 외형 정보가 1차적으로 상기 통합부(400)로 제공되며, 상기 통합부(400)에서는 상기 제공된 위치 정보 및 외형 정보를 바탕으로, 동일한 객체에 대한 위치 정보 및 외형 정보가 복수의 추적부들에 의해 추출된 경우라면, 해당 객체들을 하나의 동일한 객체로 간주하여 동일한 ID로 할당할 수 있다. Meanwhile, in the present embodiment, it is difficult to repeatedly or continuously store all the location information and the appearance information of all the objects extracted by the tracking units in the storage unit 200 at regular time intervals, because of the problem of storage capacity. At the start of the object recognition and tracking method according to the present embodiment, the location information and the appearance information stored in the storage unit 200 are primarily provided to the integration unit 400, the integration unit 400 Based on the provided location information and appearance information, if location information and appearance information of the same object are extracted by the plurality of tracking units, the corresponding objects may be regarded as one same object and assigned to the same ID.

이와 달리, 각각의 추적부들에 의해 신규로 추적되는 객체들에 대하여는 추적부를 구별할 수 있도록 임시 ID가 할당되어 해당 객체를 해당 ID로 구분(도 4의 COTO, COT1, COT2, C1T0, C1T1, C1T2 등)하고, 상기 통합부(400)에서 동일한 객체인지의 여부를 추가로 판단하여 동일한 객체들에 대하여 동일한 ID로 할당할 수 있다. On the contrary, for objects newly tracked by the respective tracking units, a temporary ID is assigned to distinguish the tracking unit, and the corresponding object is divided into corresponding IDs (COTO, COT1, COT2, C1T0, C1T1, and C1T2 of FIG. 4). Etc.), the integration unit 400 may further determine whether the same object is the same and assign the same object to the same ID.

이에 따라, 동일한 객체에 대하여 동일한 ID가 할당되면, 이후에는, 복수의 추적부들은 동일한 객체를 동일한 ID로 추적하게 되며, 상기 저장부(200)는 객체로부터 추출되는 모든 위치 정보 및 외형 정보를 저장할 필요가 없다. Accordingly, when the same ID is assigned to the same object, the plurality of tracking units track the same object with the same ID, and the storage unit 200 stores all the location information and the appearance information extracted from the object. no need.

그리하여, 본 실시예에서, 상기 저장부(200)는 상기 추적부들에 의해 추적되는 객체들 중, 소멸된 객체가 발생하는 경우라면, 해당 객체가 소멸하기 직전의 해당 객체의 위치 정보 및 외형 정보만을 저장한다(단계 S20). Thus, in the present embodiment, the storage unit 200 is only the position information and the appearance information of the object immediately before the object is destroyed, if the extinction object occurs among the objects tracked by the tracking unit Save (step S20).

즉, 특정 ID로 할당된 객체들 모두에 대하여 위치 정보 및 외형 정보를 일정 시간 간격으로 반복적으로 또는 연속적으로 추출하면서, 상기 추적부들(101, 102, ..., 103) 중 어느 하나의 추적부에서 소멸된 객체가 발생하는 경우에만, 해당 소멸 객체에 대하여 소멸 직전의 위치 정보 및 외형 정보를 상기 저장부(200)에 저장하게 된다. That is, the tracking unit 101, 102, ..., 103 of any one of the tracking unit 101, 102, ..., 103 while extracting the location information and the appearance information repeatedly or continuously at a predetermined time interval for all the objects assigned to a specific ID Only when the object is destroyed in the occurrence of the, the storage unit 200 stores the location information and appearance information immediately before the destruction for the destroyed object.

또한, 상기 추적부들(101, 102, ..., 103) 중 어느 하나의 추적부에서 신규 객체가 새롭게 등장하여 추적이 시작되는 경우, 해당 신규 객체의 위치 정보 및 외형 정보도 상기 저장부(200)에 저장된다. In addition, when a new object is newly introduced from any one of the tracking units 101, 102,..., 103, and tracking starts, the location information and the appearance information of the new object are also stored in the storage unit 200. )

이 경우, 상기 소멸 객체의 발생이 인지되는 추적부는, 상기 신규 객체의 등장이 인지되는 추적부와 동일할 수도 있고 다를 수도 있으며, 이에 따라 상기 추적부의 동일성 여부는 상관없다. In this case, the tracking unit in which the occurrence of the destructive object is recognized may be the same as or different from the tracking unit in which the appearance of the new object is recognized, and thus, the identity of the tracking unit may be different.

이 후, 도 1, 도 4 및 도 5를 참조하면, 상기 판별부(300)는 상기 신규 객체가 등장하여 추적되는 경우, 상기 소멸된 객체와 상기 신규 객체의 위치 정보 및 외형 정보를 비교하여(단계 S30), 상기 소멸된 객체와 상기 신규 객체의 유사도를 판단한다(단계 S40). 1, 4, and 5, when the new object appears and is tracked, the determination unit 300 compares the extinct object with the positional information and appearance information of the new object ( In step S30, the degree of similarity between the destroyed object and the new object is determined (step S40).

보다 구체적으로, 상기 판별부(300)는 소멸정보 입력부(310), 신규정보 입력부(320), 추적정보 입력부(330) 및 비교 판단부(340)를 포함한다. More specifically, the determination unit 300 includes an extinction information input unit 310, a new information input unit 320, a tracking information input unit 330, and a comparison determination unit 340.

즉, 상기 소멸정보 입력부(310)에는 상기 소멸된 객체가 발생한 경우, 상기 객체의 소멸 직전의 해당 객체의 위치 정보 및 외형 정보가 상기 저장부(200)로부터 입력된다. That is, when the extinct object is generated, the extinction information input unit 310 receives the position information and the appearance information of the object immediately before the extinction of the object from the storage unit 200.

또한, 상기 신규정보 입력부(320)에는 상기 신규 객체가 등장하는 경우, 상기 신규 객체의 위치 정보 및 외형 정보가 상기 저장부(200)로부터 입력된다. In addition, when the new object appears in the new information input unit 320, location information and appearance information of the new object are input from the storage unit 200.

한편, 상기 추적정보 입력부(330)에는, 부수적으로 상기 추적되는 객체들에 대한 위치 정보나 외형 정보 또는 할당된 ID 등에 대한 정보가 입력될 수 있다. Meanwhile, the tracking information input unit 330 may additionally input location information, appearance information, or an assigned ID of the tracked objects.

상기 비교 판단부(340)는 상기 소멸정보 입력부(310)로 입력된 소멸된 객체의 소멸 직전의 위치 정보 및 외형 정보와, 상기 신규정보 입력부(320)로 입력된 신규 객체의 위치 정보 및 외형 정보를 비교한다. The comparison determination unit 340 is the position information and appearance information immediately before the extinction of the extinct object input to the extinction information input unit 310, the position information and appearance information of the new object input to the new information input unit 320 Compare

이 경우, 상기 소멸된 객체의 위치 정보는 상기 신규 객체의 위치 정보와 비교되고, 상기 소멸된 객체의 외형 정보는 상기 신규 객체의 외형 정보와 비교된다. In this case, the location information of the destroyed object is compared with the location information of the new object, and the appearance information of the destroyed object is compared with the appearance information of the new object.

앞서 설명한 바와 같이, 상기 객체의 위치 정보는 객체 전체를 하나의 픽셀(514, 524, 534)로 간주하여 해당 픽셀의 위치, 즉 좌표 정보로 저장되며, 이에 따라 소멸된 객체와 신규 객체의 픽셀의 좌표를 서로 비교한다. As described above, the position information of the object is regarded as one pixel (514, 524, 534) as the entire object is stored as the position of the pixel, that is, coordinate information, and thus the pixels of the destroyed object and the pixel of the new object Compare the coordinates with each other.

이 경우, 상기 소멸된 객체와 상기 신규 객체의 좌표 정보를 비교하여, 상기 좌표가 기 설정된 범위의 이내라면 신규 객체가 소멸된 객체와 동일한 것으로 판단하고, 기 설정된 범위의 밖이라면 서로 다른 것으로 판단한다. In this case, the coordinate information of the destroyed object and the new object is compared, and if the coordinate is within a preset range, it is determined that the new object is the same as the destroyed object, and if it is outside the preset range, it is determined to be different. .

또한, 상기 기 설정된 범위는, 좌표 인식의 오차를 고려하여 다양하게 설정될 수 있으며, 예를 들어, 반경 1m 내로 설정될 수 있다. In addition, the preset range may be set in various ways in consideration of an error in coordinate recognition, and for example, may be set within a radius of 1m.

또한, 상기 객체의 외형 정보는 객체를 머리, 상체 및 하체로 분할하여 각각을 픽셀로 간주하여 해당 픽셀이 가지는 외형의 특성이 저장되며, 이에 따라 소멸된 객체와 신규 객체들의 머리, 상체 및 하체 각각에 대한 외형 특성을 서로 비교한다. In addition, the appearance information of the object is divided into the head, the upper body and the lower body to regard each as a pixel to store the characteristics of the appearance of the pixel, accordingly, the head, upper body and lower body of the destroyed object and new objects Compare the appearance characteristics with each other.

이 경우, 신규 객체와 소멸된 객체 사이의 유사도를 판단할 때, 머리, 상체 및 하체 각각의 외형 특성에 서로 다른 가중치를 인가하여 판단할 수 있다. In this case, when determining the similarity between the new object and the extinct object, it may be determined by applying different weights to the appearance characteristics of the head, upper body and lower body.

즉, 상체의 외형 특성의 유사성에는 제1 가중치를 부여하고, 하체의 외형 특성의 유사성에는 제2 가중치를 부여하며, 머리의 외형 특성의 유사성에는 제3 가중치를 부여할 수 있으며, 이 경우 제1 내지 제3 가중치들을 서로 다르게 설정할 수 있다. That is, the first weight may be assigned to the similarity of the appearance characteristics of the upper body, the second weight may be assigned to the similarity of the appearance characteristics of the lower body, and the third weight may be assigned to the similarity of the appearance characteristics of the head. To third weights may be set differently.

일반적으로, 객체가 사람인 경우, 사람이 이동하면서 손은 자유롭게 움직일 수 있으며, 특히 얼굴을 포함한 머리 쪽에 손이 올라가는 경우가 다반사이다. 또한, 얼굴의 경우 전방, 측방 및 후방을 바라보며 회전할 수 있으며, 모자를 쓰거나 벗고, 안경을 쓰거나 벗고, 표정을 달리 하는 등 다양한 변화를 야기할 수 있다. 물론, 하체의 경우도 보행을 하는 경우 일정 부분 변화가 발생할 수 있다. In general, when the object is a person, the hand can move freely while the person moves, especially when the hand is raised to the head side including the face. In addition, the face may rotate while looking forward, side and rear, and may cause various changes such as wearing or taking off a hat, wearing or taking off glasses, or changing a facial expression. Of course, some changes may occur in the case of the lower body walking.

이러한 사람의 이동 중의 외형상의 특징 변화를 전체적으로 고려하면, 상체(특히, 양팔을 제외한 몸통)의 경우 상대적으로 외형상의 특징 변화가 가장 적다고 볼 수 있으며, 다음으로 하체의 외형상의 특징 변화가 적고, 머리의 외형상의 특징 변화가 상기 세 부위 중 가장 크다고 할 수 있다. Considering the change in the appearance of the person as a whole during the movement of the person, the upper body (particularly, the body except for the arms) can be seen that the relatively small change in the appearance of the appearance, the less the change in the appearance of the lower body, The characteristic change of the appearance of the head can be said to be the largest of the three parts.

따라서, 머리의 외형 특성을 비교하여 두 객체 사이의 유사도를 판단하는 것보다는 하체의 외형 특성을 비교하여 두 객체 사이의 유사도를 판단하는 것이 정확성이 높고, 하체의 외형 특성을 비교하는 것 보다는 상체의 외형 특성을 비교하여 유사도를 판단하는 것이 보다 정확성이 높다고 할 수 있다. Therefore, it is more accurate to determine the similarity between two objects by comparing the external characteristics of the lower body than by comparing the external characteristics of the head, and to compare the external characteristics of the lower body. It is more accurate to judge the similarity by comparing the appearance characteristics.

이에 따라, 본 실시예에서는, 상기 제1 내지 제3 가중치들에 대하여, 상기 제2 가중치는 상기 제3 가중치보다 크고, 상기 제1 가중치는 상기 제2 가중치보다 크게 설정함으로써, 상체의 유사성, 하체의 유사성, 머리의 유사성의 순서로 유사도 판단에 미치는 영향을 크도록 할 수 있다. Accordingly, in the present embodiment, with respect to the first to third weights, the second weight is greater than the third weight, and the first weight is set to be greater than the second weight, so that the upper body similarity, the lower body The similarity of, and the similarity of the head can increase the influence on the similarity judgment.

즉, 상기 비교 판단부(340)에서는 상기 소멸된 객체와 상기 신규 객체들의 외형상의 유사도가 높은지를 판단함에 있어, 각각 상기에서 설명한 가중치가 부여된 상체의 유사도, 하체의 유사도 및 머리의 유사도를 합산한 결과를 바탕으로 유사도를 판단할 수 있다. That is, the comparison determination unit 340, in determining whether the extinction object and the new object has a high similarity in appearance, respectively, summing the similarity of the weighted upper body, the lower body similarity, and the head similarity, respectively. Based on the result, the similarity can be judged.

물론, 이 경우, 상기 유사도 판단의 기준, 즉 유사한 것으로 판단할 것인가의 기준은 미리 설정될 수 있으며, 추정되는 객체의 종류, 주변 환경 등을 고려하여 다양하게 설정될 수 있다. Of course, in this case, the criteria for determining the similarity, that is, whether to determine similarity may be set in advance, and may be variously set in consideration of the type of the estimated object and the surrounding environment.

이상과 같이, 상기 비교 판단부(340)에서는 상기 소멸된 객체와 상기 신규 객체들의 위치 정보 및 외형 정보의 유사도가 높은지를 바탕으로, 높은 유사도를 가지는 것으로 판단되면 상기 소멸된 객체와 상기 신규 객체를 동일한 객체로 판단하고, 유사도가 높지 않다고 판단되면 상기 신규 객체는 새로운 객체로 판단한다. As described above, the comparison determining unit 340 determines whether the extinguished object and the new object have high similarity based on whether the extinction object and the location information and appearance information of the new objects have high similarity. If it is determined that the same object and the similarity is not high, the new object is determined as a new object.

나아가, 상기 통합부(400)는 상기 비교 판단부(340)에서의 판단 결과를 바탕으로, 소멸된 객체와 신규 객체가 동일한 객체로 판단되는 경우, 상기 신규 객체를 소멸된 객체와 동일한 객체로 간주하여 소멸된 객체에게 할당되었던 ID와 동일한 ID를 신규 객체에 할당하고, 신규 객체를 소멸된 객체의 연속적인 객체로 취급하여 이를 상기 추적부(100)에 의해 추적하도록 한다(단계 S60). Furthermore, the integration unit 400 considers the new object as the same object as the destroyed object when the destroyed object and the new object are determined to be the same object based on the determination result of the comparison determining unit 340. Then, the same ID as the ID assigned to the destroyed object is allocated to the new object, and the new object is treated as a continuous object of the destroyed object so as to be tracked by the tracking unit 100 (step S60).

반면, 상기 통합부(400)는 소멸된 객체와 신규 객체가 동일한 객체가 아닌 것으로 판단되는 경우, 상기 신규 객체를 새로운 객체로 판단하여 새로운 ID를 할당하고, 상기 추적부(100)에 의해 추적하도록 한다(단계 S50). On the other hand, when it is determined that the destroyed object and the new object are not the same object, the integrator 400 determines the new object as a new object, allocates a new ID, and tracks it by the tracking unit 100. (Step S50).

한편, 신규 객체가 새롭게 등장하는 경우, 기존 소멸된 모든 객체들에 대하여 상기와 같은 동일한 객체의 여부를 판단해야 하므로, 많은 시간이 필요할 수 있다. 이에 따라, 본 실시예에서는 상기 판별부(300)는 삭제부(350)를 더 포함하고, 소정 시간이 경과한 이후에도 신규 객체와 동일한 객체로 판단되지 않은 소멸된 객체에 대한 정보는 삭제하여, 더 이상 해당 소멸된 객체와 유사도가 높은 신규 객체는 출몰하지 않은 것으로 간주하여, 추가 비교 판단 단계를 생략한다(단계 S70). On the other hand, when a new object is newly appeared, since it is necessary to determine whether the same object as described above with respect to all existing objects that have been destroyed, a lot of time may be required. Accordingly, in the present embodiment, the determination unit 300 further includes a deletion unit 350, and even after a predetermined time has elapsed, the information on the expired object that is not determined to be the same object as the new object is deleted. As described above, the new object having a high degree of similarity with the destroyed object is not considered to be present, and an additional comparison determination step is omitted (step S70).

이 경우, 상기 소멸된 객체에 대한 정보를 삭제하는 시간은 미리 설정될 수 있으며, 이는 추적되는 객체들의 종류나, 객체들이 이동되는 환경 등을 고려하여 다양하게 설정될 수 있다. In this case, the time for deleting the information about the expired object may be set in advance, which may be variously set in consideration of the types of tracked objects or the environment in which the objects are moved.

한편, 도 4를 참조하여, 상기 판별부(300) 및 상기 통합부(400)에서의 위치 비교의 예를 설명하면 하기와 같다. Meanwhile, referring to FIG. 4, an example of position comparison in the determination unit 300 and the integration unit 400 will be described below.

즉, 도 4에 도시된 바와 같이, 제1 내지 제3 객체들(510, 520, 530)이 제1 추적부(101)에서 소멸된 후, 제2 추적부(102)에서 제11 내지 제13 객체들(610, 620, 630)이 신규하게 등장한 경우를 예를 들어 설명한다. That is, as shown in FIG. 4, after the first to third objects 510, 520, and 530 are destroyed in the first tracking unit 101, the second to third tracking units 102 may include eleventh to thirteenth. A case where the objects 610, 620, and 630 newly appear will be described as an example.

이 경우, 상기 제1 내지 제3 객체들(510, 520, 530)을 각각의 픽셀들(514, 524, 534)로 간주하여 각 픽셀들의 위치 정보가 상기 제1 추적부(101)에 의해 추출되어 상기 제1 저장부(201)에 저장된다. 마찬가지로, 상기 제11 내지 제13 객체들(610, 620, 630)을 각각의 픽셀들(614, 624, 634)로 간주하여 각 픽셀들의 위치 정보가 상기 제2 추적부(102)에 의해 추출되어 제2 저장부(202)에 저장된다. In this case, the first to third objects 510, 520, and 530 are regarded as the pixels 514, 524, and 534, and location information of each pixel is extracted by the first tracking unit 101. And is stored in the first storage unit 201. Similarly, location information of each pixel is extracted by the second tracking unit 102 by considering the eleventh to thirteenth objects 610, 620, and 630 as the pixels 614, 624, and 634. It is stored in the second storage unit 202.

이렇게 저장된 정보는 상기 소멸정보 입력부(310) 및 상기 신규정보 입력부(320)로 제공된 후, 상기 비교 판단부(340)에서 비교하여 각각의 객체들이 서로 동일한 객체인지의 여부를 유사성을 바탕으로 판단한다. The stored information is provided to the extinction information input unit 310 and the new information input unit 320, and then compared by the comparison determining unit 340 to determine whether each object is the same object based on similarity. .

이 경우, 위치의 유사성을 바탕으로 판단하여, 예를 들어, 상기 비교 판단부(340)에서 상기 제2 객체(520, 524)와 상기 제11 객체(610, 614)가 서로 동일한 객체인 것으로 판단되고, 상기 제3 객체(530, 534)와 상기 제12 객체(620, 624)가 서로 동일한 객체인 것으로 판단되면, 상기 통합부(400)는 상기 제2 및 제11 객체들을 동일한 객체로 통합하고, 상기 제3 및 제12 객체들을 동일한 객체로 통합하게 된다. In this case, based on the similarity of the position, for example, the comparison determiner 340 determines that the second object 520, 524 and the eleventh object 610, 614 are the same object. When the third object 530, 534 and the twelfth object 620, 624 are determined to be the same object, the integrator 400 integrates the second and eleventh objects into the same object. The third and twelfth objects are integrated into the same object.

한편, 1차적으로 상기 제1 내지 제3 객체들(510, 520, 530)은 제1 추적부(101)에 의해 추적되는 객체들로 상기 통합부(400)에 의해 통합되기 전에, C0T0, C0T1, C0T2의 ID로 할당받을 수 있다. 마찬가지로 상기 제11 내지 제13 객체들(610, 620, 630)은 제2 추적부(102)에 의해 추적되는 객체들로 상기 통합부(400)에 의해 통합되기 전에, C1T0, C1T1, C1T2의 ID로 할당받을 수 있다.Meanwhile, before the first to third objects 510, 520, and 530 are integrated by the integrator 400 into the objects tracked by the first tracker 101, C0T0 and C0T1 are integrated. , ID can be assigned to C0T2. Similarly, the eleventh through thirteenth objects 610, 620, and 630 are IDs of C1T0, C1T1, and C1T2 before being integrated by the integrator 400 into objects tracked by the second tracking unit 102. Can be allocated.

이 후, 소멸된 상기 제1 내지 제3 객체들(510, 520, 530)과 신규 등장한 상기 제11 내지 제13 객체들(610, 620, 630)에 대한 비교 판단 후, 상기 통합부(400)에서는 동일한 객체인 제2 및 제11 객체들(520, 610)에 대하여 동일한 ID인 M1을 할당하고, 동일한 객체인 제3 및 제12 객체들(530, 620)에 대하여 동일한 ID인 M2를 할당하게 된다. Thereafter, after comparing the first to third objects 510, 520, and 530 that are extinguished with the newly introduced eleventh to thirteenth objects 610, 620, and 630, the integrator 400 is determined. Assigns M1 having the same ID to the second and eleventh objects 520 and 610 which are the same object, and M2 having the same ID to the third and twelfth objects 530 and 620 which are the same object. do.

한편, 서로 다른 객체라고 판단된 객체들에 대하여도, 상기 통합부(400)를 통해 새로운 ID로 할당 받을 수 있으며, 이에 따라 상기 제1 객체(510)는 M1의 ID를 할당받고, 상기 제13 객체(630)는 M3의 ID를 할당받을 수 있다. Meanwhile, objects determined to be different objects may also be allocated with a new ID through the integrator 400. Accordingly, the first object 510 is assigned an ID of M1 and the thirteenth object. The object 630 may be assigned an ID of M3.

상기와 같은 본 발명의 실시예들에 의하면, 복수의 추적부들 중 어느 하나의 추적부에서 소멸된 객체들에 대하여 상기 추적부에서 새롭게 등장한 신규 객체와의 유사도를 판별하여 신규 객체가 소멸된 객체인지의 여부를 즉각적으로 판별할 수 있으므로, 객체 추적 능력을 보다 향상시킬 수 있다. According to the embodiments of the present invention as described above, it is determined whether the new object is an expired object by determining the similarity with the new object newly introduced in the tracking unit with respect to the objects destroyed by any one of the plurality of tracking units. It is possible to immediately determine whether or not to improve the object tracking ability.

특히, 추적부의 해상도가 높지 않아서 인식력이나 추적 성능이 좋지 않아 소멸되는 객체가 다수 존재하더라도 신규 객체에 대한 반복적인 유사도 판별로 하나의 객체에 대한 연속 추적이 가능하다. 나아가, 주변 환경 상의 특징이나 객체의 이동 속도가 빠른 등의 다양한 환경에서 객체 추적이 반복적으로 끊기더라도 유사도 판별을 통해 연속적인 객체 추적을 수행할 수 있다. In particular, even if there are a large number of objects that are destroyed due to poor recognition ability or poor tracking performance because the resolution of the tracking unit is not high, continuous tracking of one object is possible by repeatedly determining similarity of new objects. Furthermore, even if the object tracking is repeatedly disconnected in various environments such as the characteristics of the surrounding environment or the fast moving speed of the object, continuous object tracking may be performed through similarity determination.

이 경우, 소멸된 객체와 신규 객체가 동일한 것으로 판별되면, 신규 객체를 소멸된 객체의 ID와 동일한 ID로 할당하여 관리함으로써, 추적의 대상이 되는 다수의 객체들에 대한 ID 할당을 통해 통합 관리의 용이성이 향상된다. In this case, if the destroyed object and the new object are determined to be the same, the new object is assigned to the same ID as that of the destroyed object and managed, thereby allocating IDs to a plurality of objects to be tracked. Ease of use is improved.

나아가, 복수의 추적부들이 서로 연동되어 추출된 정보를 공유하므로, 추적부가 해당 추적영역을 고정적으로 관찰하는 고정 카메라인 경우, 해당 추적 영역으로부터 벗어난 객체에 대하여도 효과적인 연속 추적이 가능하다. Furthermore, since the plurality of tracking units share information extracted in conjunction with each other, when the tracking unit is a fixed camera that observes the tracking area fixedly, effective continuous tracking is possible even for an object deviating from the tracking area.

또한, 객체가 사람인 경우, 사람의 외형 정보를 머리, 상체 및 하체로 구분하고, 특히 상체에 유사도 판별에서의 가중치를 가장 높게 부여함으로써, 실제 이동하는 사람의 외형에서 변화도가 가장 적은 상체를 중심으로 외형의 유사도를 판별하게 되므로, 외형의 유사도 판별력을 향상시킬 수 있다. In addition, when the object is a human, the human body information is divided into head, upper body, and lower body, and in particular, the weight of the similarity determination is given to the upper body with the highest weight. Since the similarity of the appearance is determined, the similarity discrimination power of the appearance can be improved.

또한, 일정 시간의 경과한 이후에도 신규 객체와 유사한 것으로 판별되지 않은 소멸된 객체에 대한 위치 및 외형 정보를 삭제함으로써, 저장부의 저장 공간을 보다 효율적으로 사용할 수 있다. In addition, the storage space of the storage unit may be used more efficiently by deleting the location and appearance information of the destroyed object that is not determined to be similar to the new object even after a certain time elapses.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the foregoing has been described with reference to preferred embodiments of the present invention, those skilled in the art will be able to variously modify and change the present invention without departing from the spirit and scope of the invention as set forth in the claims below. It will be appreciated.

본 발명에 따른 분할 외형정보 기반 객체 인식 및 추적 시스템 및 이를 이용한 객체 인식 및 추적 방법은 이동하는 사람이나 사물을 인식하여 이를 추적하는 장치에 사용될 수 있는 산업상 이용 가능성을 갖는다. An object recognition and tracking system based on partitioned appearance information and an object recognition and tracking method using the same according to the present invention have industrial applicability that can be used in a device for recognizing and tracking a moving person or an object.

10 : 객체 인식 및 추적 시스템
100 : 추적부 200 : 저장부
300 : 판별부 310 : 소멸정보 입력부
320 : 신규정보 입력부 330 : 추적정보 입력부
340: 비교판단부 400 : 통합부
10: object recognition and tracking system
100: tracking unit 200: storage unit
300: discrimination unit 310: extinction information input unit
320: new information input unit 330: tracking information input unit
340: comparison unit 400: integrated unit

Claims (13)

각 추적 영역 내에서 복수의 객체들을 추적하여, 각 객체들의 위치 및 외형 정보를 추출하는 복수의 추적부들;
상기 추적부들 각각에서 추적된 상기 객체들의 위치 및 외형 정보를 각각 저장하는 복수의 저장부들;
상기 추적부들 중 어느 하나의 추적부에서 객체가 소멸되고, 상기 추적부들 중 어느 하나의 추적부에서 신규 객체가 추적되는 경우, 상기 소멸된 객체와 상기 신규 객체의 유사도를 판별하는 판별부; 및
상기 신규 객체가 상기 소멸된 객체와 유사하다고 판단되면 상기 신규 객체를 상기 소멸된 객체로 할당하고, 유사하다고 판단되지 않으면 상기 신규 객체를 새로운 객체로 할당하여 상기 추적되는 객체들을 통합하는 통합부를 포함하고,
상기 판별부는, 상기 소멸된 객체와 상기 신규 객체의 위치 정보, 및 머리, 상체 및 하체로 분할된 외형 정보를 각각 비교하여, 유사도를 판단하는 비교 판단부를 포함하고,
상기 비교 판단부는, 상기 소멸된 객체와 상기 신규 객체와의 유사도 판단에서, 상기 객체의 외형상의 특징 변화를 바탕으로, 상체의 유사성에 제1 가중치를 부여하고, 하체의 유사성에 상기 제1 가중치보다 작은 제2 가중치를 부여하고, 머리의 유사성에 상기 제2 가중치 보다 작은 제3 가중치를 부여하여 유사도를 판단하고,
상기 저장부들 각각은, 상기 객체들이 상기 추적부로부터 소멸된 경우, 소멸 직전의 상기 객체의 위치 및 외형 정보를 저장하고,
상기 객체들 각각은 사람이며, 상기 사람을 머리, 상체 및 하체로 분할하여 상기 외형 정보가 추출되고 저장되며,
상기 판별부는, 일정 시간의 경과한 이후에도 신규 객체와 유사한 것으로 판별되지 않은 소멸된 객체에 대한 위치 및 외형 정보를 상기 저장부로부터 삭제하는 삭제부를 포함하고,
상기 추적부들 각각에 의해 추적되는 추적 영역들 각각은 고정되는 것을 특징으로 하는 객체 인식 및 추적 시스템.
A plurality of tracking units which track a plurality of objects in each tracking area and extract location and appearance information of each object;
A plurality of storage units respectively storing position and appearance information of the objects tracked by each of the tracking units;
A determination unit for determining similarity between the destroyed object and the new object when an object is destroyed in one of the tracking units and a new object is tracked in any one of the tracking units; And
And an integrating unit for integrating the tracked objects by allocating the new object to the destroyed object if it is determined that the new object is similar to the destroyed object, and assigning the new object to the new object if it is not determined to be similar. ,
The determination unit includes a comparison determination unit for comparing the extinction object and the position information of the new object, and the appearance information divided into the head, upper body and lower body, respectively, to determine the similarity,
In the similarity determination between the extinct object and the new object, the comparison determining unit assigns a first weight to the similarity of the upper body based on a change in the characteristic of the appearance of the object, and compares the similarity of the lower body to the similarity of the lower body. A small second weight is given, and the similarity of the head is assigned a third weight smaller than the second weight to determine similarity,
Each of the storage units, when the objects are destroyed from the tracking unit, stores the position and appearance information of the object just before the destruction,
Each of the objects is a person, the appearance information is extracted and stored by dividing the person into a head, upper body and lower body,
The determination unit may include a deletion unit that deletes the location and appearance information of the destroyed object that is not determined to be similar to the new object even after a certain time has elapsed.
And each tracking area tracked by each of the tracking units is fixed.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020180017217A 2018-02-12 2018-02-12 System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same KR102060370B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180017217A KR102060370B1 (en) 2018-02-12 2018-02-12 System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180017217A KR102060370B1 (en) 2018-02-12 2018-02-12 System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same

Publications (2)

Publication Number Publication Date
KR20190103513A KR20190103513A (en) 2019-09-05
KR102060370B1 true KR102060370B1 (en) 2019-12-30

Family

ID=67949679

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180017217A KR102060370B1 (en) 2018-02-12 2018-02-12 System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same

Country Status (1)

Country Link
KR (1) KR102060370B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102503094B1 (en) * 2020-11-18 2023-02-23 한국전자기술연구원 Object tracking method with creating/updating appearance model for multiple areas

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080057500A (en) 2006-12-20 2008-06-25 재단법인 포항산업과학연구원 System and method for tracking movement images of people
KR20120072009A (en) 2010-12-23 2012-07-03 한국전자통신연구원 Interaction recognition apparatus for multiple user and method thereof

Also Published As

Publication number Publication date
KR20190103513A (en) 2019-09-05

Similar Documents

Publication Publication Date Title
KR102465532B1 (en) Method for recognizing an object and apparatus thereof
WO2021185016A1 (en) Methods and systems for controlling device using hand gestures in multi-user environment
JP4650669B2 (en) Motion recognition device
US9128528B2 (en) Image-based real-time gesture recognition
US10540540B2 (en) Method and device to determine landmark from region of interest of image
JP2015520470A5 (en)
CN107438173A (en) Video process apparatus, method for processing video frequency and storage medium
WO2014027659A1 (en) Input device, apparatus, input method, and recording medium
KR101745651B1 (en) System and method for recognizing hand gesture
US20120086778A1 (en) Time of flight camera and motion tracking method
JP2018036965A (en) Living body detection device
JP7484985B2 (en) Authentication system, authentication method, and program
CN108596079B (en) Gesture recognition method and device and electronic equipment
JP7162079B2 (en) A recording medium for recording a method, system and computer program for remotely controlling a display device via head gestures
Sajid et al. VSig: Hand-gestured signature recognition and authentication with wearable camera
KR102060370B1 (en) System for recognizing and tracking an object based on divisional feature information and method for recognizing and tracking using the same
KR100706871B1 (en) Method for truth or falsehood judgement of monitoring face image
CN109711287B (en) Face acquisition method and related product
KR102187525B1 (en) Electronic terminal device capable of executing a gesture recognition-based control command and operating method thereof
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
CN107590429A (en) The method and device verified based on eyeprint feature
JP2016525235A (en) Method and device for character input
KR20150071920A (en) Apparatus and method for counting person number using face identification
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP6277602B2 (en) Monitoring device, program and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant