KR20240002423A - System for tracking object movement and method thereof - Google Patents

System for tracking object movement and method thereof Download PDF

Info

Publication number
KR20240002423A
KR20240002423A KR1020220079613A KR20220079613A KR20240002423A KR 20240002423 A KR20240002423 A KR 20240002423A KR 1020220079613 A KR1020220079613 A KR 1020220079613A KR 20220079613 A KR20220079613 A KR 20220079613A KR 20240002423 A KR20240002423 A KR 20240002423A
Authority
KR
South Korea
Prior art keywords
movement
information
image
area
new
Prior art date
Application number
KR1020220079613A
Other languages
Korean (ko)
Inventor
신동화
현재혁
Original Assignee
(주)트리플렛
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)트리플렛 filed Critical (주)트리플렛
Priority to KR1020220079613A priority Critical patent/KR20240002423A/en
Publication of KR20240002423A publication Critical patent/KR20240002423A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding

Abstract

본 발명의 일 기술적 측면에 따른 객체 동선 추적 시스템은 출입구를 향해 마련되어 식별영역을 포함하는 제1 영상을 획득하는 제1 카메라와 천장에 마련되어 감지영역을 포함하는 제2 영상을 획득하는 제2 카메라를 포함하는 카메라부, 미리 마련된 인공지능을 이용하여 상기 제1 영상으로부터 객체 정보를 식별하는 객체인식부, 상기 제2 영상에 기초하여 상기 객체의 동선정보를 생성하는 동선추적부를 포함할 수 있다. 본 발명의 일 실시형태에 따르면, 객체의 동선정보를 생성하여 객체가 제2 영상에서 사라지거나 나타난 경우에서의 객체의 동선 정보와 보류 정보를 비교함으로써, 객체의 동선을 추적할 수 있다. An object movement tracking system according to a technical aspect of the present invention includes a first camera provided toward the entrance to acquire a first image including an identification area, and a second camera provided on the ceiling to obtain a second image including a detection area. It may include a camera unit, an object recognition unit that identifies object information from the first image using pre-installed artificial intelligence, and a movement tracker that generates movement information of the object based on the second image. According to an embodiment of the present invention, the moving line of an object can be tracked by generating the moving line information of the object and comparing the moving line information of the object with the pending information when the object disappears or appears in the second image.

Description

객체 동선 추적 시스템 및 그 방법{SYSTEM FOR TRACKING OBJECT MOVEMENT AND METHOD THEREOF}Object movement tracking system and method {SYSTEM FOR TRACKING OBJECT MOVEMENT AND METHOD THEREOF}

본 발명은 객체 동선 추적 시스템 및 그 방법에 대한 것이다.The present invention relates to an object movement tracking system and method.

일반적으로, 온라인 매장은 고객의 유입부터 재구매까지 이루어지는 전 과정에 대한 데이터를 수집하여 마케팅을 위한 전략 수립 및 성과 분석이 가능한 반면, 오프라인 매장은 결제기록 이외의 데이터를 수동으로 수집해야 하므로, 고객이 매장 내에서 어떤 방식으로 쇼핑을 하는지에 대해서는 알 수 없다.In general, online stores collect data on the entire process from customer inflow to repurchase, allowing them to establish marketing strategies and analyze performance, while offline stores must manually collect data other than payment records, so customers It is unknown how people shop within the store.

예를 들면, 고객별 매대별 체류시간, 관심매대, 관심상품 도출, 관련상품 정보 등을 포함하는 매장 내에서 고객들의 행동, 이동경로에 따른 제품의 구매 상황 정보는 매장 내에서 돌아다니는 고객의 동선을 통해 알 수 있는데, 매장 내에서의 고객의 동선은 따로 데이터로 저장하거나 분석하지 않아 매장 운영 효율성을 도모하지 못하고 있다.For example, the customer's behavior within the store, including the length of time spent at each shelf, the store of interest, derivation of products of interest, information on related products, etc., information on the purchase status of products according to the movement path and the customer's movement within the store. As can be seen, the customer's movement within the store is not separately stored or analyzed as data, making it difficult to promote store operation efficiency.

이러한 문제로 인해, 매장에 동선 추적 시스템을 도입한 매장이 늘고 있으나, 다양한 각도 및 방향에 따라 설치되는 다수의 카메라를 이용하는 동선 추적 시스템은 실제 모니터에 나타나는 영상과 카메라로부터 촬영되지 않은 영역 사이의 관계를 파악하기 어려운 문제점이 있다.Due to these problems, an increasing number of stores have introduced movement tracking systems. However, the movement tracking system, which uses multiple cameras installed at various angles and directions, is based on the relationship between the image displayed on the actual monitor and the area not captured by the camera. There is a problem that is difficult to understand.

즉, 각각의 카메라로부터 획득된 영상을 통해 전체적인 영역을 모니터링해야 하는데, 모니터에 출력되는 영상만을 이용하여 객체의 동선을 파악하는 것은 쉽지 않으며, 전체 영역에 대한 이미지를 쉽게 확인할 수 없으므로, 객체를 지속적으로 모니터링하는데 어려움이 있다. In other words, the entire area must be monitored through images acquired from each camera, but it is not easy to determine the movement of an object using only the images output on the monitor, and the image for the entire area cannot be easily confirmed, so the object is continuously monitored. It is difficult to monitor.

대한민국 공개특허공보 특2001-0016639호Republic of Korea Patent Publication No. 2001-0016639

본 발명은 출입구를 향해 촬영되는 제1 영상을 이용하여 객체를 인식하고, 천장에 마련되어 촬영되는 제2 영상을 이용하여 객체의 동선을 추적하는 객체 동선 추적 시스템 및 그 방법을 제공하고자 한다. The present invention seeks to provide an object movement tracking system and method that recognizes an object using a first image captured toward a doorway and tracks the movement of the object using a second image captured on the ceiling.

본 발명의 일 기술적 측면은 출입구를 향해 마련되어 식별영역을 포함하는 제1 영상을 획득하는 제1 카메라와 천장에 마련되어 감지영역을 포함하는 제2 영상을 획득하는 제2 카메라를 포함하는 카메라부, 미리 마련된 인공지능을 이용하여 상기 제1 영상으로부터 객체 정보를 식별하는 객체인식부, 상기 제2 영상에 기초하여 상기 객체의 동선정보를 생성하는 동선추적부를 포함한다. One technical aspect of the present invention is a camera unit including a first camera provided toward the entrance to acquire a first image including an identification area and a second camera provided on the ceiling to obtain a second image including a detection area, in advance. It includes an object recognition unit that identifies object information from the first image using artificial intelligence, and a movement line tracking unit that generates movement information of the object based on the second image.

일 실시예에서, 상기 동선추적부는, 상기 제1 영상에서 미리 설정된 후보영역에서 미리 설정된 식별영역으로 진입한 객체에 새로운 ID를 부여하고, 상기 객체 인식부에 상기 ID가 부여된 객체 정보의 식별을 요청할 수 있다. In one embodiment, the movement line tracking unit assigns a new ID to an object that has entered a preset identification area from a preset candidate area in the first image, and the object recognition unit identifies object information to which the ID has been assigned. You can request it.

일 실시예에서, 상기 동선추적부는, 미리 설정된 주기마다 제2 영상에서 객체의 좌표와 특징벡터를 추출하고, ID, 객체정보, 타임스탬프, 특징벡터 및 좌표를 포함하는 동선 정보를 생성할 수 있다. In one embodiment, the movement line tracking unit extracts the coordinates and feature vectors of the object from the second image at preset intervals and generates movement information including an ID, object information, timestamp, feature vector, and coordinates. .

일 실시예에서, 상기 동선추적부는, 제2 영상으로부터 객체에 대한 머리영역의 중심 및 몸통 영역의 중심을 인식하고, 머리영역의 중심이 몸통 영역의 중심을 기준으로 대칭되는 곳을 발로 인식하여 상기 발에 대한 위치를 상기 좌표로 추출할 수 있다. In one embodiment, the movement line tracking unit recognizes the center of the head area and the center of the body area of the object from the second image, and recognizes the location where the center of the head area is symmetrical with respect to the center of the body area as the foot. The position of the foot can be extracted using the coordinates.

일 실시예에서, 상기 동선추적부는, 상기 제2 영상에서 객체가 사라지면, 사라진 객체의 동선 정보를 보류 정보로 관리하고, 상기 제2 영상에서 새로운 객체가 나타나면 상기 보류 정보와 새로운 객체를 매핑할 수 있다. In one embodiment, when an object disappears from the second image, the movement tracking unit manages the movement information of the disappeared object as pending information, and when a new object appears in the second image, it may map the pending information to the new object. there is.

일 실시예에서, 상기 동선추적부는, 새로운 객체의 특징벡터와 보류 정보의 특징벡터의 유사도에 기초하여 새로운 객체와 매칭될 보류 정보를 결정할 수 있다. In one embodiment, the movement tracker may determine reserved information to be matched with the new object based on the similarity between the feature vector of the new object and the feature vector of the reserved information.

일 실시예에서, 상기 동선추적부는, 새로운 객체의 타임스탬프와 보류 정보의 타임스탬프와의 차이 값을 기초하여 새로운 객체와 매칭될 보류 정보를 결정할 수 있다. In one embodiment, the movement tracking unit may determine pending information to be matched with the new object based on the difference between the timestamp of the new object and the timestamp of the pending information.

일 실시예에서, 상기 동선추적부는, 새로운 객체의 좌표 정보와 보류 정보의 좌표 정보를 기초하여 새로운 객체와 매칭될 보류 정보를 결정할 수 있다. In one embodiment, the movement tracker may determine pending information to be matched with the new object based on coordinate information of the new object and coordinate information of the pending information.

본 발명의 일 실시형태에 따르면, 객체의 동선정보를 생성하여 객체가 제2 영상에서 사라지거나 나타난 경우에서의 객체의 동선 정보와 보류 정보를 비교함으로써, 객체의 동선을 추적할 수 있다. According to an embodiment of the present invention, the moving line of an object can be tracked by generating the moving line information of the object and comparing the moving line information of the object with the pending information when the object disappears or appears in the second image.

나아가, 객체 동선 추적을 통해 고객 유입율을 파악하고, 매장내 특정 매대 앞에 머무는 고객의 행동을 분석할 수 있다. Furthermore, it is possible to determine the customer inflow rate through object movement tracking and analyze the behavior of customers staying in front of specific shelves within the store.

도 1은 본 발명의 일 실시예에 따른 객체 동선 추적 시스템을 설명하기 위한 블록도이다.
도 2는 도 1의 객체 추적 장치를 설명하기 위한 블록도이다.
도 3은 도 2의 카메라부를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 객체를 인식하는 과정을 설명하기 위한 순서도이다.
도 5a 및 도 5b는 S400 및 S402 단계를 설명하기 위한 예시도이다.
도 6은 객체의 동선정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 7a 및 도 7b는 S600 내지 S604 단계를 설명하기 위한 예시도이다.
도 8은 본 발명의 일 실시예에 따른 추적이 끊어진 ID를 다시 연결하는 과정을 설명하기 위한 순서도이다.
도 9a 및 도 9b는 도 8를 설명하기 위한 예시도이다.
도 10은 본 발명의 일 실시예에 따른 객체의 동선을 추적하는 방법을 설명하기 위한 순서도이다.
Figure 1 is a block diagram for explaining an object movement tracking system according to an embodiment of the present invention.
FIG. 2 is a block diagram for explaining the object tracking device of FIG. 1.
FIG. 3 is a diagram for explaining the camera unit of FIG. 2.
Figure 4 is a flow chart to explain the process of recognizing an object according to an embodiment of the present invention.
Figures 5a and 5b are exemplary diagrams for explaining steps S400 and S402.
Figure 6 is a flow chart to explain the process of generating movement information of an object.
7A and 7B are exemplary diagrams for explaining steps S600 to S604.
Figure 8 is a flow chart to explain the process of reconnecting an ID whose tracking has been lost according to an embodiment of the present invention.
FIGS. 9A and 9B are exemplary diagrams for explaining FIG. 8.
Figure 10 is a flowchart illustrating a method of tracking the movement of an object according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention and methods for achieving them will become clear with reference to the embodiments described below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure of the present invention is complete and to be understood by those skilled in the art. It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부", "모듈", "유닛" 등의 용어는 적어도 하나의 기능 또는 동작을 처리하는 단위를 의미하며, 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소, 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다. 그렇지만 "부", "모듈", "유닛" 등의 용어가 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부", "모듈", "유닛" 등은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 ""부", "모듈", "유닛" 등의 용어는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as “unit”, “module”, “unit”, etc. used in the specification mean a unit that processes at least one function or operation, and include software, hardware components such as FPGA or ASIC, or software and hardware. It can be implemented by combining . However, terms such as “part”, “module”, and “unit” are not limited to software or hardware. A “part”, “module”, “unit”, etc. may be configured to reside on an addressable storage medium and may be configured to reproduce on one or more processors. Accordingly, as an example, terms such as "part", "module", and "unit" refer to components such as software components, object-oriented software components, class components, and task components, and processes. Contains fields, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. In order to clearly explain the present invention in the drawings, parts unrelated to the description are omitted.

"제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다. Terms containing ordinal numbers, such as “first,” “second,” etc., may be used to describe various components, but the components are not limited by the terms. Terms are used only to distinguish one component from another. For example, a first component may be named a second component, and similarly, the second component may also be named a first component without departing from the scope of the present invention. The term “and/or” includes any one item among a plurality of related items or a combination of a plurality of related items.

이하에서는 도 1 내지 도 3을 참조하여 본 발명의 일 실시예에 따른 객체 동선 추적 시스템에 대해서 설명하도록 한다. Hereinafter, an object movement tracking system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 3.

도 1은 본 발명의 일 실시예에 따른 객체 동선 추적 시스템을 설명하기 위한 블록도이다. Figure 1 is a block diagram for explaining an object movement tracking system according to an embodiment of the present invention.

도 1에서 도시한 바와 같이, 본 발명의 일 실시예에 따른 객체 동선 추적 시스템(1)은 객체 추적 장치(10) 및 동선 추적 관리 서버(20)를 포함한다. As shown in FIG. 1, the object movement tracking system 1 according to an embodiment of the present invention includes an object tracking device 10 and a movement tracking management server 20.

객체 추적 장치(10)는 출입구를 향해 마련된 제1 카메라와 천장에 마련된 제2 카메라를 이용하여 객체 정보를 식별하고, 객체의 동선정보를 생성하여 동선 추적 관리 서버(20)로 전송한다. The object tracking device 10 identifies object information using a first camera provided toward the entrance and a second camera provided on the ceiling, generates movement information of the object, and transmits it to the movement tracking management server 20.

객체 정보는 출입하는 객체를 구분하여 분석하기 위한 정보로 객체의 나이 및 성별을 포함할 수 있으며, 한정하지 않는다. Object information is information for classifying and analyzing incoming and outgoing objects and may include, but is not limited to, the age and gender of the object.

동선 추적 관리 서버(20)는 객체 추적 장치(10)로부터 전송받은 객체의 동선정보를 기초로 하여 객체의 동선을 관리한다.The moving line tracking management server 20 manages the moving line of the object based on the moving line information of the object transmitted from the object tracking device 10.

동선정보는 ID, 객체정보, 타임스탬프, 특징벡터 및 좌표를 포함할 수 있다. Movement information may include ID, object information, timestamp, feature vector, and coordinates.

도 2는 도 1의 객체 추적 장치를 설명하기 위한 블록도이다. FIG. 2 is a block diagram for explaining the object tracking device of FIG. 1.

도 2에서 도시한 바와 같이, 객체 추적 장치(10)는 카메라부(100), 제어부(110), 저장부(120), 통신부(130)를 포함한다.As shown in FIG. 2, the object tracking device 10 includes a camera unit 100, a control unit 110, a storage unit 120, and a communication unit 130.

카메라부(100)는 출입구를 향해 마련되어 객체를 식별하기 위한 제1 영상을 획득하는 제1 카메라(100a)와 천장에 마련되어 감지영역을 포함하는 제2 영상을 획득하는 제2 카메라(100b)를 포함할 수 있다.The camera unit 100 includes a first camera 100a that is provided toward the entrance and acquires a first image for identifying objects, and a second camera 100b that is provided on the ceiling and acquires a second image including the detection area. can do.

제1 카메라(100a)는 후보영역과 식별영역이 포함된 제1 영상을 획득하며, 제2 카메라(100b)는 객체의 동선을 추적할 감지영역을 포함하는 제2 영상을 획득한다. The first camera 100a acquires a first image including a candidate area and an identification area, and the second camera 100b acquires a second image including a detection area to track the moving line of the object.

제1 카메라(100a)는 출입하는 객체의 정보를 추출하기 위해 객체의 얼굴이 촬영되도록 마련될 수 있고, 제2 카메라(100b)는 출입한 객체의 동선을 추적하기 위해 객체의 이동이 전체적으로 촬영되도록 마련될 수 있다. The first camera 100a may be configured to capture the face of the object in order to extract information about the object entering and leaving, and the second camera 100b may be configured to capture the entire movement of the object in order to track the movement of the object entering and leaving. It can be provided.

일 실시예로 제1 카메라(100a)는 출입구를 정면으로 촬영되도록 하고, 불렛(Bullet) 카메라로 구현될 수 있고, 제2 카메라(100b)는 매장의 천장에 부착되어 감지영역을 전체적으로 촬영할 수 있는 3D 카메라로 구현될 수 있다.In one embodiment, the first camera 100a captures the entrance from the front and can be implemented as a bullet camera, and the second camera 100b is attached to the ceiling of the store and can capture the entire detection area. It can be implemented with a 3D camera.

본 발명의 일 실시예에서는 불렛 카메라와 3D 카메라로 설명하였으나, 카메라의 종류는 한정하지 않는다. In one embodiment of the present invention, a bullet camera and a 3D camera are described, but the type of camera is not limited.

불렛 카메라는 돔 형태가 아니라 돌출된 바 형태로 형성된 소형 및 경량의 카메라로서, 방범 및 질서 유지를 위한 수요 증대로 광범위한 분야에 사용되어 있으며, 공공시설, 지하철 역사, 매장, 학교 등과 같은 실내뿐만 아니라, 공원, 주택가 골목, 건물 외벽 등 실외에서도 사용 가능한 기기로 구현되어 실내 천장이나 벽에 설치될 수 있다. Bullet cameras are small and lightweight cameras formed in the form of a protruding bar rather than a dome. They are used in a wide range of fields due to the increasing demand for crime prevention and order maintenance, and are used not only indoors such as public facilities, subway stations, stores, and schools. , it can be implemented as a device that can be used outdoors, such as in parks, residential alleys, and on the exterior walls of buildings, and can be installed on indoor ceilings or walls.

이와 같은, 제1 카메라(100a)는 매장의 출입구를 향하도록 설치되어 후보영역에 서 식별영역으로 진입하는 객체의 얼굴을 촬영할 수 있는 기기로 구현된다. As such, the first camera 100a is installed facing the entrance of the store and is implemented as a device that can photograph the face of an object entering the identification area from the candidate area.

3D 카메라는 다수개의 카메라를 통해 3D 좌표를 생성하고 이에 따라 촬영 대상 물체의 3차원 좌표 데이터를 획득할 수 있는 장치이거나 2D 카메라와 대상물체와의 각 지점에서의 거리를 측정할 수 있는 광센서 또는 초음파 센서가 결합되어 3차원 좌표 데이터를 획득할 수 있는 장치로 구현될 수 있다. A 3D camera is a device that can generate 3D coordinates through multiple cameras and obtain 3D coordinate data of the object to be photographed, or an optical sensor that can measure the distance at each point between the 2D camera and the object. It can be implemented as a device that can acquire 3D coordinate data by combining an ultrasonic sensor.

3D 카메라는 카메라의 렌즈 앞에 아무런 도구를 설치하지 않고, 카메라의 렌즈가 360도 회전하여 촬영할 수 있다.3D cameras can take pictures by rotating the camera lens 360 degrees without installing any tools in front of the camera lens.

이와 같은, 제2 카메라(100b)는 매장의 천장에 부착되어 360도 회전하면서 객체를 촬영할 수 있는 기기로 구현된다. As such, the second camera 100b is attached to the ceiling of the store and is implemented as a device capable of photographing objects while rotating 360 degrees.

도 3은 도 2의 카메라부를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining the camera unit of FIG. 2.

도 3에서 도시한 바와 같이, 제1 카메라(100a)는 매장의 출입구 정면이 보이도록 설치될 수 있으며, 매장 입구 외측에 기 설정된 후보영역(Candidate area, CA)과 매장 입구 내측에 기 설정된 식별영역(Identification area, IA)을 촬영할 수 있다.As shown in FIG. 3, the first camera 100a may be installed so that the front of the store entrance is visible, and a preset candidate area (CA) outside the store entrance and a preset identification area inside the store entrance (Identification area, IA) can be photographed.

본 발명의 일 실시예에서는 매장에 진입하는 객체를 기준으로 설명하였으며, 매장으로부터 퇴장하는 객체일 경우, 후보영역은 매장 입구의 내측으로 설정하고, 식별영역은 매장 입구의 외측으로 설정될 수 있다. In one embodiment of the present invention, the description is based on an object entering the store. In the case of an object leaving the store, the candidate area may be set to the inside of the store entrance, and the identification area may be set to the outside of the store entrance.

본 발명의 일 실시예에서, 매장 입구 외측에 기 설정된 후보영역과 매장 입구 내측에 기 설정된 식별영역을 설정함으로써, 객체 추적 장치(10)가 입구 주변에서 머물러 있는 방문객 및 직원을 매장에 입장하는 객체로 오인식하는 비율을 감소시킬 수 있다. In one embodiment of the present invention, by setting a preset candidate area outside the store entrance and a preset identification area inside the store entrance, the object tracking device 10 detects visitors and employees staying around the entrance as objects entering the store. The rate of misrecognition can be reduced.

제2 카메라(100b)는 매장의 천장에 설치될 수 있으며, 객체의 동선을 추적하기 위한 매장 내의 공간인 감지영역(Detection area, DA)을 촬영한다. The second camera 100b may be installed on the ceiling of the store and captures a detection area (DA), which is a space within the store for tracking the movement of objects.

저장부(120)는 제어부(110)로부터 생성된 객체의 동선정보를 저장한다.The storage unit 120 stores the movement line information of the object created by the control unit 110.

저장부(120)는 주기억장치 및 보조기억장치 중 적어도 하나를 포함할 수 있다. 주기억장치는 예를 들어, 롬(ROM) 및/또는 램(RAM)과 같은 반도체 저장 매체를 이용하여 구현된 것일 수 있고, 보조기억장치는, 플래시 메모리 장치(솔리드 스테이트 드라이브(SSD, Solid State Drive) 등), SD(Secure Digital) 카드, 하드 디스크 드라이브(HDD, Hard Disc Drive), 콤팩트 디스크, 디브이디(DVD) 또는 레이저 디스크 등과 같이 데이터를 영구적 또는 반영구적으로 저장 가능한 장치를 기반으로 구현될 수 있다.The storage unit 120 may include at least one of a main memory and an auxiliary memory. For example, the main memory may be implemented using a semiconductor storage medium such as ROM and/or RAM, and the auxiliary memory may be a flash memory device (Solid State Drive (SSD) ), etc.), SD (Secure Digital) cards, hard disk drives (HDD), compact disks, DVDs, or laser disks, etc. can be implemented based on devices that can store data permanently or semi-permanently. .

통신부(130)는 저장된 객체의 동선정보를 객체 동선 관리 서버(20)로 전송한다.The communication unit 130 transmits the stored movement route information of the object to the object movement route management server 20.

통신부(130)는 유무선 통신망을 포함할 수 있고, 유선 통신망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함할 수 있으며, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망, 5G 통신망 등을 포함할 수 있다. The communication unit 130 may include a wired or wireless communication network, and the wired communication network may include an Internet network such as a cable network or public switched telephone network (PSTN), and the wireless communication network may include CDMA, WCDMA, GSM, Evolved Packet Core (EPC), It may include LTE (Long Term Evolution), Wibro network, 5G communication network, etc.

통신부(130)는 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망, 5G망 등에 사용될 수 있고, 통신부(130)가 유선 통신망인 경우 통신부(130) 내의 액세스포인트는 전화국의 교환국 등에 접속할 수 있지만, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.The communication unit 130 is not limited to this, and can be used as an access network for a next-generation mobile communication system to be implemented in the future, for example, a cloud computing network in a cloud computing environment, a 5G network, etc., and if the communication unit 130 is a wired communication network, the communication unit 130 The access point within can be connected to the telephone company's exchange office, etc., but in the case of a wireless communication network, data is processed by connecting to the SGSN or GGSN (Gateway GPRS Support Node) operated by the communication company, or BTS (Base Station Transmission), NodeB, or e-NodeB. You can process data by connecting to various repeaters such as.

제어부(110)는 제1 영상으로부터 객체 정보를 식별하고, 제2 영상으로부터 객체의 동선정보를 생성할 수 있다. The control unit 110 may identify object information from the first image and generate movement information of the object from the second image.

일 실시예에서, 제어부(110)는 중앙 처리 장치(CPU: Central Processing Unit), 그래픽 처리 장치(GPU: Graphic Processing Unit), 마이크로 컨트롤러 유닛(MCU: Micro Controller Unit), 애플리케이션 프로세서(AP: Application Processor), 전자 제어 유닛(ECU: Electronic Controlling Unit) 및/또는 이외 각종 연산 및 제어 처리를 수행할 수 있는 적어도 하나의 전자 장치 등을 포함할 수 있다. 이들 장치는, 예를 들어, 하나 또는 둘 이상의 반도체 칩, 회로 또는 관련 부품 등을 단독으로 이용하거나 조합하여 구현된 것일 수도 있다.In one embodiment, the control unit 110 includes a central processing unit (CPU), a graphics processing unit (GPU), a microcontroller unit (MCU), and an application processor (AP). ), an electronic control unit (ECU), and/or at least one electronic device capable of performing various calculations and control processes. These devices may be implemented, for example, by using one or more semiconductor chips, circuits, or related components alone or in combination.

제어부(110)는 도 2에 도시된 바와 같이, 제1 영상에서 객체의 출입을 검출하고, 제2 영상을 이용하여 객체의 이동을 추적하는 동선추적부(111), 제1 영상으로부터 출입하는 객체에 대한 객체 정보를 인식하는 객체인식부(113)를 포함한다.As shown in FIG. 2, the control unit 110 detects the entry and exit of an object in the first image, and the movement line tracking unit 111 tracks the movement of the object using the second image, and detects the entry and exit of the object from the first image. It includes an object recognition unit 113 that recognizes object information.

이하, 도 4 내지 도 5b를 참조하여 본 발명의 일 실시예에 제어부의 객체 인식 방법에 대하여 설명한다. Hereinafter, an object recognition method of the control unit in an embodiment of the present invention will be described with reference to FIGS. 4 to 5B.

도 4는 본 발명의 일 실시예에 따른 객체를 인식하는 과정을 설명하기 위한 순서도이고, 도 5a 및 도 5b는 S400 내지 S404 단계를 설명하기 위한 예시도이다. FIG. 4 is a flowchart for explaining a process for recognizing an object according to an embodiment of the present invention, and FIGS. 5A and 5B are exemplary diagrams for explaining steps S400 to S404.

도 5a는 제1 카메라로부터 획득한 제1 영상을 나타낸 예시도이고, 도 5b는 도 5a의 입구 영역을 확대하여 나타낸 도면이다. FIG. 5A is an example diagram showing the first image obtained from the first camera, and FIG. 5B is an enlarged view of the entrance area of FIG. 5A.

도 5a에서 도시한 바와 같이, 동선추적부(111)는 제1 영상에서 미리 설정된 후보영역에 진입한 객체를 감지한다(S400).As shown in FIG. 5A, the movement line tracking unit 111 detects an object entering a preset candidate area in the first image (S400).

동선추적부(111)는 제1 영상에서 객체가 기 설정된 후보영역에서 기 설정된 식별영역으로 진입했는지 여부를 판별하고(S402), 후보영역에서 식별영으로 진입한 것으로 판단되는 객체에 새로운 ID를 부여한다(S404).The movement tracker 111 determines whether an object in the first image has entered a preset identification area from a preset candidate area (S402), and assigns a new ID to the object determined to have entered the identification area from the candidate area. Do it (S404).

일 실시예로, 동선추적부(111)는 도 5b에서 도시한 바와 같이, 후보영역(CA)에서 위치한 객체인 '객체 1(Ob 1)' 및 '객체 2(Ob 2)'에 대하여 식별영역으로 진입했는지 여부를 판별한다. In one embodiment, the movement line tracking unit 111 sets an identification area for 'Object 1 (Ob 1)' and 'Object 2 (Ob 2)', which are objects located in the candidate area (CA), as shown in FIG. 5B. Determine whether it has entered.

식별영역(IA)의 진입의 일 실시예로, 동선추적부(111)는 제1 영상에 인식된 '객체 1(Ob 1)', '객체 2(Ob 2)' 중 경계 박스의 크기가 일정 크기보다 작은 '객체 2(Ob 2)'를 후보영역(CA)에서 식별영역(IA)으로 진입하지 않은 것으로 판별한다. As an example of entry into the identification area (IA), the movement line tracking unit 111 determines that the size of the boundary box among 'Object 1 (Ob 1)' and 'Object 2 (Ob 2)' recognized in the first image is constant. 'Object 2 (Ob 2)', which is smaller than the size, is determined to have not entered the identification area (IA) from the candidate area (CA).

식별영역(IA)의 진입의 일 실시예로, 동선추적부(111)는 도 5b에서 네모 형태로 표시된 경계 박스의 크기가 일정 크기이상인 '객체 1(Ob 1)'을 후보영역(CA)에서 식별영역(IA)으로 진입한 객체로 판별하여 '객체 1(Ob 1)에 새로운 ID를 부여한다.As an example of entry into the identification area (IA), the movement line tracking unit 111 selects 'object 1 (Ob 1)', whose bounding box shown in a square shape in FIG. 5b is larger than a certain size, from the candidate area (CA). It is determined to be an object that has entered the identification area (IA) and a new ID is assigned to 'Object 1 (Ob 1).

일 실시예로, 동선추적부(111)는 후보영역(CA)에서 식별영역(IA)으로 넘어오지 않고, 식별영역(IA)에서 지속적으로 돌아다니는 '객체 3(Ob 3)'에 대하여 매장에 새롭게 진입한 객체로 판별하지 않으며, '객체 3(Ob 3)을 식별영역(IA) 주변에 위치한 방문객 또는 직원으로 인식한다. In one embodiment, the movement tracking unit 111 does not cross from the candidate area (CA) to the identification area (IA), but keeps moving around in the identification area (IA). It is not determined as a newly entered object, and 'Object 3 (Ob 3) is recognized as a visitor or employee located around the identification area (IA).

이와 같이, 후보영역과 식별영역을 설정함으로써, 동선추적부(111)는 매장 입구 주변에서 머물러 있는 방문객 및 직원을 매장에 입장하는 객체로 오인식하는 비율을 감소시킬 수 있다. In this way, by setting the candidate area and the identification area, the movement tracker 111 can reduce the rate of misrecognition of visitors and employees staying around the store entrance as objects entering the store.

이와 같이 새로운 ID가 부여되면, 동선추적부(111)는 객체인식부(113)에게 새로운 ID가 부여된 객체에 대한 객체정보의 인식을 요청할 수 있다. When a new ID is assigned in this way, the movement tracking unit 111 may request the object recognition unit 113 to recognize object information about the object to which the new ID has been assigned.

복수의 객체에 대한 객체 정보의 인식 요청이 있는 경우, 코드 핸들러(115)는 객체를 식별하기 위해 객체인식부(113)에 전달하기 전, ID를 리스트 형태의 대기열에 추가할 수 있다. When there is a request to recognize object information for a plurality of objects, the code handler 115 may add the ID to a queue in the form of a list before passing it to the object recognition unit 113 to identify the object.

동선추적부(111)로부터 인식을 요청받은 객체인식부(113)는 미리 마련된 인공지능을 이용하여 제1 영상으로부터 객체 정보를 식별하고(S406), 객체 정보를 동선추적부(111)에 전달한다. The object recognition unit 113, which has received a recognition request from the movement tracking unit 111, identifies object information from the first image using pre-arranged artificial intelligence (S406) and transmits the object information to the movement tracking unit 111. .

객체 정보는 객체의 나이 및 성별을 포함할 수 있으나, 한정하지 않는다. Object information may include, but is not limited to, the age and gender of the object.

객체인식부(113)는 제1 영상으로부터 추출된 객체의 얼굴을 인공지능을 이용하여 객체의 나이 및 성별을 인식할 수 있다. The object recognition unit 113 can recognize the age and gender of the object extracted from the first image using artificial intelligence.

객체인식부(113)는 인공신경망, 머신러닝, 딥러닝을 기반으로 하는 얼굴 인식 알고리즘, 얼굴 검출 알고리즘을 사용하여 객체의 얼굴로부터 객체의 나이 및 성별을 출력할 수 있다. The object recognition unit 113 can output the age and gender of the object from the object's face using a face recognition algorithm and a face detection algorithm based on artificial neural networks, machine learning, and deep learning.

객체인식부(113)는 제1 영상으로부터 추출된 객체의 얼굴을 얼굴 인식 알고리즘의 입력데이터로 설정하고, 객체의 나이 및 성별을 얼굴 인식 알고리즘의 출력데이터로 설정하여 학습된 얼굴 인식 알고리즘을 사용할 수 있다. The object recognition unit 113 sets the face of the object extracted from the first image as input data of the face recognition algorithm, and sets the age and gender of the object as output data of the face recognition algorithm to use the learned face recognition algorithm. there is.

객체인식부(113)가 객체 정보에 대한 식별을 완료하면, 코드 핸들러(115)는 다음 순서의 ID를 객체인식부(113)로 전달할 수 있다. When the object recognition unit 113 completes the identification of object information, the code handler 115 can transmit the next ID to the object recognition unit 113.

동선추적부(111)는 제2 영상에 기초하여 객체의 동선을 추적한다(S408).The movement line tracking unit 111 tracks the movement line of the object based on the second image (S408).

객체인식부(113)에서 객체 정보가 인식되지 않은 경우에는 동선추적부(111)는 해당 객체의 동선을 추적하지 않아 신뢰도가 낮은 동선정보의 수집을 방지한다.If object information is not recognized by the object recognition unit 113, the movement line tracking unit 111 does not track the movement line of the object, thereby preventing the collection of unreliable movement line information.

객체 정보가 인식되면 동선추적부(111)는 미리 설정된 주기마다 제2 영상을 분석하여 객체의 동선을 추적하여 동선 정보를 생성한다. When object information is recognized, the movement line tracking unit 111 analyzes the second image at preset intervals and tracks the object's movement line to generate movement line information.

이하에서는 도 6 및 도 7를 참조하여 본 발명의 일 실시예에 따른 객체의 동선정보를 생성하는 방법에 대하여 설명한다. Hereinafter, a method for generating movement information of an object according to an embodiment of the present invention will be described with reference to FIGS. 6 and 7.

도 6은 객체의 동선정보를 생성하는 과정을 설명하기 위한 순서도이고, 도 7a 및 도 7b는 S600 내지 S604 단계를 설명하기 위한 예시도이다. Figure 6 is a flowchart for explaining the process of generating movement information of an object, and Figures 7a and 7b are example diagrams for explaining steps S600 to S604.

도 7a는 발 위치에 대한 좌표를 추출하는 과정을 설명하기 위한 도면이다.Figure 7a is a diagram for explaining the process of extracting coordinates for the foot position.

도 7b의 (a)는 세로 형태로 위치된 사람의 모습을 촬영한 예시도이고, 도 7의 (b)는 가로 형태로 위치된 사람의 모습을 촬영한 예시도이며, 도 7의 (c)는 다리가 가려진 사람의 모습을 촬영한 예시도이다. Figure 7b (a) is an example of a person positioned vertically, Figure 7(b) is an example of a person positioned horizontally, and Figure 7(c) is an example of a person positioned horizontally. is an example of a person with his or her legs covered.

도 7a에서 도시한 바와 같이, 동선추적부(111)는 제2 영상으로부터 객체의 얼굴을 식별한다(S600).As shown in FIG. 7A, the movement line tracking unit 111 identifies the face of the object from the second image (S600).

동선추적부(111)는 얼굴 인식 알고리즘을 통해 사람의 머리를 인식할 수 있도록 더 학습시킬 수 있다. The movement tracking unit 111 can be further trained to recognize a person's head through a face recognition algorithm.

객체의 얼굴을 식별하면, 동선추적부(111)는 머리에 대한 중심점(Head Point, HP)을 생성한다.When the face of an object is identified, the movement line tracking unit 111 generates a center point (Head Point, HP) for the head.

동선추적부(111)는 객체의 몸통을 인식하여 몸통에 대한 중심점(Body Point, BP)을 생성한다.The movement line tracking unit 111 recognizes the body of the object and creates a center point (Body Point, BP) for the body.

동선추적부(111)는 몸통에 대한 중심점을 기준으로 머리에 대한 중심점과 대칭되는 지점을 발의 위치(Feet Point, FP)로 인식한다(S602).The movement tracking unit 111 recognizes a point symmetrical to the center point of the head based on the center point of the torso as the foot position (Feet Point, FP) (S602).

동선추적부(111)는 인식된 발에 대한 위치를 발의 좌표로 추출한다(S604).The movement tracker 111 extracts the location of the recognized foot as coordinates of the foot (S604).

일 실시예로, 도 7b의 (a) 내지 도 7b의 (c)에서 도시한 바와 같이, 동선추적부(111)는 제2 영상으로부터 객체의 얼굴을 식별한다.In one embodiment, as shown in Figures 7b (a) to 7b (c), the moving line tracking unit 111 identifies the face of an object from the second image.

동선추적부(111)는 도 7b의 (a) 내지 도 7b의 (c)과 같이, 몸통의 중심(노란색)과 머리의 위치(네모형 박스)를 이용하여 사람이 세로 형태로 위치되었는지, 가로 형태로 위치되었는지 판단할 수 있다.The movement tracker 111 uses the center of the torso (yellow) and the position of the head (square box) to determine whether the person is positioned vertically or horizontally, as shown in Figures 7b (a) to 7b (c). You can determine whether it is located in a certain shape.

동선추적부(111)는 도 7b의 (c)와 같이, 평균적인 몸통 박스의 가로세로 비율을 이용하여 몸 중점의 위치를 보정한다. The movement tracker 111 corrects the position of the center of the body using the aspect ratio of the average body box, as shown in (c) of FIG. 7B.

동선추적부(111)는 머리 박스의 중점이 보정된 몸통 중점을 기준으로 대칭되는 위치를 발로 인식한다.The movement tracking unit 111 recognizes the position of the foot where the midpoint of the head box is symmetrical with respect to the corrected midpoint of the torso.

동선추적부(111)는 인식된 발 위치를 좌표로 추출한다.The movement tracker 111 extracts the recognized foot position as coordinates.

제2 영상은 천장에서 부착된 제2 카메라를 통해 촬영된 것으로, 객체의 발 위치를 정확하기 파악하기 어려우므로, 발의 위치를 추정하여 정확한 좌표를 획득할 수 있다. The second image was captured through a second camera attached to the ceiling, and since it is difficult to accurately determine the position of the foot of the object, accurate coordinates can be obtained by estimating the position of the foot.

동선추적부(111)는 식별된 얼굴로부터 특징벡터를 추출한다(S606).The movement line tracking unit 111 extracts a feature vector from the identified face (S606).

동선추적부(111)는 이미 개시된 특징벡터 알고리즘을 통해 객체의 얼굴에 대한 특징벡터를 추출할 수 있다. The movement line tracking unit 111 can extract a feature vector for the face of an object through an already disclosed feature vector algorithm.

동선추적부(111)는 발 위치 좌표를 추출하는 단계와 특징벡터를 추출하는 단계를 동시에 진행하거나, 순서와 관계없이 진행할 수 있다. The movement tracker 111 may perform the step of extracting foot position coordinates and the step of extracting feature vectors at the same time or in any order.

동선추적부(111)는 발 위치 좌표 및 특징벡터를 이용하여 객체의 동선정보를 생성한다(S608).The movement line tracking unit 111 generates the movement line information of the object using the foot position coordinates and feature vectors (S608).

동선추적부(111)는 미리 설정된 주기마다 제2 영상에서 객체의 좌표 및 특징벡터를 추출하고, 객체의 ID, 객체 정보, 타임스탬프, 특징벡터 및 좌표를 포함하는 동선정보를 생성한다. The movement tracker 111 extracts the coordinates and feature vectors of the object from the second image at preset intervals and generates movement information including the object's ID, object information, timestamp, feature vector, and coordinates.

제2 카메라를 통한 제2 영상이 객체가 이동할 수 있는 모든 범위를 커버하지 못하는 경우, 동선을 검출할 수 없는 사각영역이 존재한다. If the second image through the second camera does not cover the entire range in which the object can move, there is a blind area where the moving line cannot be detected.

예컨대, 객체가 카메라가 설치되지 않은 탈의실이나 계단 등을 통해 이동하는 경우 객체의 동선 추적이 중단되므로, 객체의 동선 추적 오류가 발생할 수 있다. For example, if an object moves through a locker room or staircase where a camera is not installed, tracking of the object's movement is interrupted, and an error in tracking the object's movement may occur.

이에 동선추적부(111)는 감지영역에서 객체가 사라지면 객체의 동선정보를 보류정보로 저장하고, 식별영역이 아닌 감지영역에서 새롭게 나타난 객체와 저장된 보류정보를 매칭하여 사각영역에 의해 중단된 객체의 동선 추적에 대한 정확도를 향상시킬 수 있다. Accordingly, when an object disappears from the detection area, the movement tracking unit 111 stores the object's movement information as pending information, and matches the stored holding information with an object newly appearing in the detection area, not the identification area, to detect the object stopped by the blind area. The accuracy of movement tracking can be improved.

이하에서는 도 8 내지 도 10을 참조하여 추적이 끊어진 ID를 다시 연결하는 방법에 대하여 설명하도록 한다.Hereinafter, a method of reconnecting an ID whose tracking has been lost will be described with reference to FIGS. 8 to 10.

도 8은 본 발명의 일 실시예에 따른 추적이 끊어진 ID를 다시 연결하는 과정을 설명하기 위한 순서도이고, 도 9a 및 도 9b는 도 8를 설명하기 위한 예시도이다.FIG. 8 is a flowchart for explaining a process of reconnecting an ID whose tracking has been lost according to an embodiment of the present invention, and FIGS. 9A and 9B are exemplary diagrams for explaining FIG. 8 .

도 9a는 사각영역에 대하여 설명하기 위한 예시도이고, 도 9b는 공간, 통로에 대하여 설명하기 위한 예시도이다. FIG. 9A is an exemplary diagram for explaining a blind area, and FIG. 9B is an exemplary diagram for explaining a space and a passage.

동선추적부(111)는 객체의 동선정보를 통해 객체의 동선을 추적한다(S800).The movement line tracking unit 111 tracks the movement line of the object through the object's movement line information (S800).

도 9a 및 도 9b에서 도시한 바와 같이, 동선추적부(111)는 객체가 사각영역, 공간 또는 통로에 진입했는지 여부를 판단한다(S802).As shown in FIGS. 9A and 9B, the movement line tracking unit 111 determines whether the object has entered a blind area, space, or passage (S802).

본 발명의 일 실시예에서는 사각영역, 탈의실 및 통로를 카메라로 촬영되는 않은 구역으로 정의하고, 통로는 계단, 복도 등과 같은 공간일 수 있다. In one embodiment of the present invention, blind areas, locker rooms, and passages are defined as areas not captured by cameras, and passages may be spaces such as stairs and hallways.

본 발명의 일 실시예에서는 9b에서 탈의실로 기재하여 설명하였으나, 화장실, 휴게실 등과 같이 카메라로 촬영할 수 없는 공간을 포함하며, 한정하지 않는다. In one embodiment of the present invention, it is described as a changing room in 9b, but it includes and is not limited to spaces that cannot be photographed with a camera, such as restrooms and lounges.

일 실시예에서, 객체가 도 9a의 '사각영역'에 진입했다고 가정한다.In one embodiment, it is assumed that the object enters the 'rectangular area' of FIG. 9A.

동선추적부(111)는 제2 영상에서 사라진 객체의 동선정보를 보류 정보로 저장하여 관리한다(S804).The movement line tracking unit 111 stores and manages the movement line information of the object that disappeared from the second image as reserved information (S804).

일 실시예로, 사각 영역 간의 연결관계를 고려하여 보류 정보를 분류하여 관리할 수 있다. In one embodiment, pending information can be classified and managed by considering the connection relationship between blind areas.

구체적으로, 도 9b에서, 동선추적부(111)는 복수의 사각영역의 연결 관계를 고려하여 사각영역을 그룹핑할 수 있다. Specifically, in FIG. 9B, the movement line tracking unit 111 may group the rectangular areas by considering the connection relationship between the plurality of rectangular areas.

일 실시예에서, 도 9b에서 도시한 바와 같이, 탈의실의 입출구 영역을 사각영역 1(Dead zone, DZ 1)로 설정하고, 통로에 대한 2개의 입출구 영역을 사각영역 2(Dead zone, DZ 2)로 그룹핑하여 설정하는 것으로 가정한다.In one embodiment, as shown in FIG. 9B, the entrance and exit area of the dressing room is set as dead zone 1 (Dead zone, DZ 1), and the two entrance and exit areas for the passage are set as dead zone 2 (Dead zone, DZ 2). It is assumed that it is set by grouping.

동선추적부(111)는 사라진 객체의 마지막 좌표와 가장 인접한 사각영역으로 객체가 사라진 것으로 판단하고, 사각영역별로 보류 정보를 관리할 수 있다. The movement tracking unit 111 determines that the object has disappeared by using the rectangular area closest to the last coordinates of the disappeared object, and manages pending information for each rectangular area.

일 실시예에서, 동선추적부(111)는 사각영역 1(DZ 1)에 진입하여 감지영역(DA)으로부터 사라지는 객체는 사각영역 1(DZ 1)에 대한 보류 정보 리스트에 저장하여 관리하고, 사각영역 2(DZ 2)에 진입하여 감지영역(DA)으로부터 사라지는 객체는 사각영역 2(DZ 2)에 대한 보류 정보 리스트에 저장하여 관리한다. In one embodiment, the movement tracker 111 manages objects that enter blind zone 1 (DZ 1) and disappear from the detection zone (DA) by storing them in a pending information list for blind zone 1 (DZ 1), and Objects that enter Zone 2 (DZ 2) and disappear from the detection zone (DA) are managed by being stored in the pending information list for Rectangular Zone 2 (DZ 2).

동선추적부(111)는 제2 영상에서 감지영역으로 새롭게 진입한 신규 객체를 검출한다(S806).The movement line tracking unit 111 detects a new object that has newly entered the detection area in the second image (S806).

일 실시예에서, 도 9a와 같이, 동선추적부(111)는 사각영역에서 감지영역으로 새롭게 진입한 신규 객체를 감지할 수 있다. In one embodiment, as shown in FIG. 9A, the movement line tracking unit 111 may detect a new object that has newly entered the detection area from the blind area.

일 실시예에서, 도 9b와 같이, 동선추적부(111)는 사각영역 1(DZ 1) 또는 사각영역 2(DZ 2)의 입출구에서 감지영역으로 새롭게 진입한 신규 객체를 검출할 수 있다. In one embodiment, as shown in FIG. 9B, the movement line tracking unit 111 may detect a new object newly entering the detection area at the entrance or exit of blind area 1 (DZ 1) or blind area 2 (DZ 2).

동선추적부(111)는 신규 객체에 대하여 특징벡터를 추출하여 신규 객체와 보류 정보를 매칭한다(S808). The movement tracking unit 111 extracts a feature vector for the new object and matches the new object with the pending information (S808).

동선추적부(111)는 특징벡터 알고리즘을 통해 객체의 얼굴에 대한 특징벡터를 추출할 수 있다.The movement tracker 111 can extract a feature vector for the object's face through a feature vector algorithm.

신규 객체에 대한 동선정보에는 성별 및 나이 등과 같은 객체 정보를 포함하지 않을 수 있다. Movement route information for a new object may not include object information such as gender and age.

동선추적부(111)는 신규 객체에 대한 특징벡터와 기 저장된 보류 정보에서의 특징벡터 사이의 유사도를 기초하여 새로운 객체와 매칭될 보류 정보를 결정할 수 있다.The movement tracker 111 may determine pending information to be matched with the new object based on the similarity between the feature vector for the new object and the feature vector in previously stored pending information.

일 실시예에서, 신규 객체에 대한 특징벡터와 보류 정보에 존재하는 특징벡터 사이의 유사도가 기준 값 이상이면, 동선추적부(111)는 신규 객체의 ID를 기존 객체의 ID와 매칭할 수 있다. In one embodiment, if the similarity between the feature vector for the new object and the feature vector existing in the reserved information is greater than or equal to the reference value, the movement line tracking unit 111 may match the ID of the new object with the ID of the existing object.

동선추적부(111)는 유사도의 기준 값을 90% 이상으로 설정할 수 있으며, 기준 값은 한정하지 않고, 다르게 설정될 수 있다. The movement tracking unit 111 can set the standard value of similarity to 90% or more, and the standard value is not limited and can be set differently.

이와 같은 방법으로, 도 9b에서, 동선추적부(111)는 각각의 사각영역에서 감지영역으로 새롭게 나타나는 객체에 대하여 사각영역별로 저장된 보류 정보와 매칭할 수 있다. In this way, in FIG. 9B, the movement tracking unit 111 can match the object that newly appears in the detection area in each rectangular area with the pending information stored for each rectangular area.

한편, 도 9에서는 신규 객체의 특징 벡터에 기반하여 보류 정보를 매칭하는 것으로 설명하였으나, 신규 객체와 보류 정보를 매칭하는 방법이 이에 한정되는 것은 아니다. Meanwhile, in FIG. 9, matching pending information is described based on the feature vector of a new object, but the method of matching a new object and pending information is not limited to this.

동선추적부(111)는 신규 객체에 대한 타임스탬프, 좌표를 더 추출할 수 있다. The movement tracking unit 111 can further extract a timestamp and coordinates for the new object.

동선추적부(111)는 신규 객체에 대하여 타임스탬프, 좌표 및 특징벡터를 포함하는 동선정보를 생성할 수 있다. The movement line tracking unit 111 may generate movement information including a timestamp, coordinates, and feature vectors for the new object.

구체적으로, 일 실시예에서, 신규 객체의 특징벡터와 기 저장된 보류 정보의 특징벡터 사이의 유사도가 기준 값보다 낮은 경우, 동선추적부(111)는 신규 객체의 타임스탬프와 기존 객체의 타임스탬프 사이의 차이 값을 기초하여 신규 객체와 매칭될 보류 정보를 결정한다.Specifically, in one embodiment, when the similarity between the feature vector of the new object and the feature vector of the previously stored pending information is lower than the reference value, the movement tracker 111 determines the similarity between the timestamp of the new object and the timestamp of the existing object. Based on the difference value, the pending information to be matched with the new object is determined.

일 실시예에서, 신규 객체의 특징벡터와 기 저장된 보류 정보의 특징벡터 사이의 유사도가 기준 값 이상인 보류 정보가 복수 개인 경우, 동선추적부(111)는 신규 객체의 타임스탬프와 기존 객체의 타임스탬프 사이의 차이 값을 기초하여 신규 객체와 보류 정보를 매칭한다. In one embodiment, when there is a plurality of pending information in which the similarity between the feature vector of the new object and the feature vector of the previously stored pending information is greater than or equal to the reference value, the movement tracker 111 may store the timestamp of the new object and the timestamp of the existing object. Match new objects and pending information based on the difference value between them.

동선추적부(111)는 신규 객체의 타임스탬프와 기존 객체의 타임스탬프 사이의 차이 값이 기준 값보다 낮은 경우에 신규 객체와 기존 객체를 동일인으로 인식하여, 신규 객체의 ID를 해당 기존 객체의 ID로 교체할 수 있다. When the difference value between the timestamp of the new object and the timestamp of the existing object is lower than the reference value, the movement tracking unit 111 recognizes the new object and the existing object as the same person, and sets the ID of the new object to the ID of the existing object. It can be replaced with .

일 실시예에서, 신규 객체의 특징벡터와 기 저장된 보류 정보의 특징벡터 사이의 유사도가 기준 값보다 낮은 경우, 동선추적부(111)는 신규 객체의 좌표 정보와 보류 정보의 좌표 정보를 기초하여 새로운 객체와 매칭될 보류 정보를 결정한다.In one embodiment, when the similarity between the feature vector of the new object and the feature vector of the previously stored reserved information is lower than the reference value, the movement line tracking unit 111 creates a new object based on the coordinate information of the new object and the coordinate information of the reserved information. Determine the pending information to be matched with the object.

일 실시예에서, 신규 객체의 특징벡터와 기 저장된 보류 정보의 특징벡터 사이의 유사도가 기준 값 이상인 높은 보류 정보가 복수 개인 경우, 동선추적부(111)는 신규 객체의 좌표 정보와 기존 객체의 좌표 정보를 기초하여 신규 객체와 보류 정보를 매칭한다.In one embodiment, when there is a plurality of pieces of high reserved information in which the similarity between the feature vector of the new object and the feature vector of the previously stored reserved information is greater than or equal to the reference value, the movement line tracking unit 111 stores the coordinate information of the new object and the coordinates of the existing object. Match new objects and pending information based on the information.

동선추적부(111)는 신규 객체의 좌표 정보가 기존 객체의 좌표 정보와의 차이 값이 기준 값보다 작은 경우에 신규 객체와 기존 객체를 동일인으로 인식하여 신규 객체의 ID를 해당 기존 객체의 ID로 교체할 수 있다. When the difference between the coordinate information of the new object and the coordinate information of the existing object is smaller than the reference value, the movement tracking unit 111 recognizes the new object and the existing object as the same person and uses the ID of the new object as the ID of the existing object. It can be replaced.

동선추적부(111)는 신규 객체의 타임스탬프와 기존 객체의 타임스탬프 사이의 간격이 짧을수록, 신규 객체의 좌표와 기존 객체의 좌표가 가까울수록 동일인으로 인식하여 신규 객체와 기존 객체를 매칭할 수 있다. The movement tracker 111 recognizes the new object as the same person as the interval between the timestamp of the new object and the existing object's timestamp is shorter, and the closer the coordinates of the new object are to the existing object, and matches the new object with the existing object. there is.

이하에서는 도 10을 이용하여 본 발명의 일 실시예에 따른 객체의 동선을 추적하는 방법에 대하여 설명한다.Hereinafter, a method for tracking the movement of an object according to an embodiment of the present invention will be described using FIG. 10.

도 10은 본 발명의 일 실시예에 따른 객체의 동선을 추적하는 방법을 설명하기 위한 순서도이다.Figure 10 is a flowchart illustrating a method for tracking the movement of an object according to an embodiment of the present invention.

객체인식부(113)는 제1 영상을 이용하여 매장에 진입한 객체를 인식한다(S1000).The object recognition unit 113 recognizes an object entering the store using the first image (S1000).

객체를 인식하는 방법은 도 4 내지 도 5b를 이용하여 이미 설명하였는 바, 자세한 설명은 생략한다. The method for recognizing objects has already been described using FIGS. 4 to 5B, so detailed description will be omitted.

동선추적부(111)는 제2 영상을 이용하여 S1000 단계에서 인식한 객체의 동선정보를 생성하여 해당 객체의 동선을 추적한다(S1002).The movement line tracking unit 111 uses the second image to generate movement line information of the object recognized in step S1000 and tracks the movement line of the object (S1002).

동선추적부(111)는 사각영역, 통로, 탈의실 등으로 진입하여 감지영역으로부터 사라지는 객체와 감지영역에 다시 나타난 새로운 객체를 기준 객체와 매칭하여 해당 객체의 동선을 추적한다.The movement line tracking unit 111 tracks the movement of an object that enters a blind area, passageway, locker room, etc. and disappears from the detection area and a new object that reappears in the detection area by matching it with a reference object.

객체의 동선정보를 생성하여 객체의 동선을 추적하는 방법은 도 6 내지 도 9b를 이용하여 이미 설명하였는 바, 자세한 설명은 생략한다.The method of generating movement information of an object and tracking the movement of the object has already been described using FIGS. 6 to 9B, and detailed description will be omitted.

동선추적부(111)는 생성된 객체의 동선정보를 객체 동선 관리 서버(20)로 전송한다(S1004).The movement line tracking unit 111 transmits the movement line information of the created object to the object movement line management server 20 (S1004).

객체 동선 관리 서버(20)는 객체의 동선정보를 저장하여 객체의 동선을 관리할 수 있다. The object movement route management server 20 can manage the object movement route by storing the object movement route information.

이상에서 설명한 바와 같이, 본 발명에 따르면, 객체의 동선정보를 생성하여 객체가 제2 영상에서 사라지거나 나타난 경우에서의 객체의 동선 정보와 보류 정보를 비교함으로써, 객체의 동선을 추적할 수 있다. As described above, according to the present invention, the moving line of an object can be tracked by generating the moving line information of the object and comparing the moving line information of the object with the pending information when the object disappears or appears in the second image.

나아가, 객체 동선 추적을 통해 고객 유입율을 파악하고, 매장내 특정 매대 앞에 머무는 고객의 행동을 분석할 수 있다. Furthermore, it is possible to determine the customer inflow rate through object movement tracking and analyze the behavior of customers staying in front of specific shelves within the store.

본원 발명의 실시예들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art related to the embodiments of the present invention will understand that the above-described material may be implemented in a modified form without departing from its essential characteristics. Therefore, the disclosed methods should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims, not the detailed description of the invention, and all differences within the equivalent scope should be construed as being included in the scope of the present invention.

10: 객체 추정 장치, 100: 카메라부,
110: 제어부, 111: 동선추적부,
113: 코드 핸들러, 115: 객체인식부,
120: 저장부, 130: 통신부,
20: 객체 동선 관리 서버, 100a: 제1 카메라,
100b: 제2 카메라
10: object estimation device, 100: camera unit,
110: control unit, 111: movement tracking unit,
113: Code handler, 115: Object recognition unit,
120: storage unit, 130: communication unit,
20: object movement management server, 100a: first camera,
100b: second camera

Claims (11)

출입구를 향해 마련되어 식별영역을 포함하는 제1 영상을 획득하는 제1 카메라와 천장에 마련되어 감지영역을 포함하는 제2 영상을 획득하는 제2 카메라를 포함하는 카메라부;
미리 마련된 인공지능을 이용하여 상기 제1 영상으로부터 객체 정보를 식별하는 객체인식부;
상기 제2 영상에 기초하여 상기 객체의 동선정보를 생성하는 동선추적부;를 포함하는 객체 동선 추적 시스템.
A camera unit including a first camera provided toward the entrance to acquire a first image including an identification area and a second camera provided on the ceiling to obtain a second image including a detection area;
an object recognition unit that identifies object information from the first image using preset artificial intelligence;
An object movement tracking system including a movement line tracking unit that generates movement information of the object based on the second image.
제1항에 있어서,
상기 동선추적부는,
상기 제1 영상에서 미리 설정된 후보영역에서 미리 설정된 식별영역으로 진입한 객체에 새로운 ID를 부여하고, 상기 객체 인식부에 상기 ID가 부여된 객체 정보의 식별을 요청하는 객체 동선 추적 시스템.
According to paragraph 1,
The movement line tracking unit,
An object movement tracking system that assigns a new ID to an object that has entered a preset identification area from a preset candidate area in the first image, and requests the object recognition unit to identify object information to which the ID has been assigned.
제1항에 있어서,
상기 동선추적부는,
미리 설정된 주기마다 제2 영상에서 객체의 좌표와 특징백터를 추출하고, ID, 객체정보, 타임스탬프, 특징벡터 및 좌표를 포함하는 동선정보를 생성하는 객체 동선 추적 시스템.
According to paragraph 1,
The movement line tracking unit,
An object movement tracking system that extracts object coordinates and feature vectors from the second image at preset intervals and generates movement information including ID, object information, timestamp, feature vector, and coordinates.
제3항에 있어서,
상기 동선추적부는,
제2 영상으로부터 객체에 대한 머리영역의 중심 및 몸통 영역의 중심을 인식하고, 머리영역의 중심이 몸통 영역의 중심을 기준으로 대칭되는 곳을 발로 인식하여 상기 발에 대한 위치를 상기 좌표로 추출하는 객체 동선 추적 시스템.
According to paragraph 3,
The movement line tracking unit,
From the second image, the center of the head area and the center of the body area of the object are recognized, and the location where the center of the head area is symmetrical with respect to the center of the body area is recognized as the foot, and the position of the foot is extracted as the coordinates. Object movement tracking system.
제1항에 있어서,
상기 동선추적부는,
상기 제2 영상에서 객체가 사라지면, 사라진 객체의 동선정보를 보류 정보로 관리하고, 제2 영상에서 새로운 객체가 나타나면 상기 보류 정보와 새로운 객체를 매핑하는 객체 동선 추적 시스템.
According to paragraph 1,
The movement line tracking unit,
When an object disappears from the second image, an object movement tracking system manages the movement information of the disappeared object as pending information, and maps the pending information to the new object when a new object appears in the second image.
제5항에 있어서,
상기 동선추적부는,
새로운 객체의 특징벡터와 보류 정보의 특징벡터의 유사도에 기초하여 새로운 객체와 매칭될 보류 정보를 결정하는 객체 동선 추적 시스템.
According to clause 5,
The movement line tracking unit,
An object movement tracking system that determines withheld information to be matched with a new object based on the similarity between the feature vector of the new object and the feature vector of the withheld information.
제5항에 있어서,
상기 동선추적부는,
새로운 객체의 타임스탬프와 보류 정보의 타임스탬프와의 차이 값을 기초하여 새로운 객체와 매칭될 보류 정보를 결정하는 객체 동선 추적 시스템.
According to clause 5,
The movement line tracking unit,
An object movement tracking system that determines pending information to be matched with a new object based on the difference between the timestamp of the new object and the timestamp of the pending information.
제5항에 있어서,
상기 동선추적부는,
새로운 객체의 좌표 정보와 보류 정보의 좌표 정보를 기초하여 새로운 객체와 매칭될 보류 정보를 결정하는 객체 동선 추적 시스템.
According to clause 5,
The movement line tracking unit,
An object movement tracking system that determines pending information to be matched with a new object based on the coordinate information of the new object and the coordinate information of the pending information.
객체 동선 추적 시스템을 이용하여 수행하는 객체 동선 추적 방법에 있어서,
출입구를 향해 마련된 제1 카메라를 이용하여 식별영역을 포함하는 제1 영상을 획득하는 단계;
천장에 마련된 제2 카메라를 이용하여 감지영역을 포함하는 제2 영상을 획득하는 단계;
미리 마련된 인공지능을 이용하여 상기 제1 영상으로부터 객체 정보를 식별하는 단계; 및
상기 제2 영상에 기초하여 상기 객체의 동선정보를 생성하는 단계;를 포함하며,
상기 제1 영상으로부터 객체 정보를 식별하는 단계는,
상기 제1 영상에서 미리 설정된 후보영역에서 미리 설정된 식별영역으로 진입한 객체에 새로운 ID를 부여하고, 상기 객체 인식부에 상기 ID가 부여된 객체 정보의 식별을 요청하는 객체 동선 추적 방법.
In an object movement tracking method performed using an object movement tracking system,
Obtaining a first image including an identification area using a first camera provided toward the entrance;
Obtaining a second image including the detection area using a second camera provided on the ceiling;
Identifying object information from the first image using previously prepared artificial intelligence; and
A step of generating movement information of the object based on the second image,
The step of identifying object information from the first image includes:
An object movement tracking method that assigns a new ID to an object that has entered a preset identification area from a preset candidate area in the first image, and requests the object recognition unit to identify object information to which the ID has been assigned.
제9항에 있어서,
상기 객체의 동선정보를 생성하는 단계는,
미리 설정된 주기마다 제2 영상에서 객체의 좌표와 특징백터를 추출하고, ID, 객체정보, 타임스탬프, 특징벡터 및 좌표를 포함하는 동선정보를 생성하되,
제2 영상으로부터 객체에 대한 머리영역의 중심 및 몸통 영역의 중심을 인식하고, 머리영역의 중심이 몸통 영역의 중심을 기준으로 대칭되는 곳을 발로 인식하여 상기 발에 대한 위치를 상기 좌표로 추출하는 객체 동선 추적 방법.
According to clause 9,
The step of generating movement information of the object is,
At each preset period, the coordinates and feature vectors of the object are extracted from the second image, and movement information including ID, object information, timestamp, feature vector, and coordinates is generated,
From the second image, the center of the head area and the center of the body area of the object are recognized, and the location where the center of the head area is symmetrical with respect to the center of the body area is recognized as the foot, and the position of the foot is extracted as the coordinates. Object movement tracking method.
제9항에 있어서,
상기 제2 영상에서 객체가 사라지면, 사라진 객체의 동선정보를 보류 정보로 관리하고, 제2 영상에서 새로운 객체가 나타나면 상기 보류 정보와 새로운 객체를 매핑하는 단계를 더 포함하는 객체 동선 추적 방법.
According to clause 9,
When an object disappears from the second image, managing the movement information of the disappeared object as pending information, and mapping the pending information to the new object when a new object appears in the second image.
KR1020220079613A 2022-06-29 2022-06-29 System for tracking object movement and method thereof KR20240002423A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220079613A KR20240002423A (en) 2022-06-29 2022-06-29 System for tracking object movement and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220079613A KR20240002423A (en) 2022-06-29 2022-06-29 System for tracking object movement and method thereof

Publications (1)

Publication Number Publication Date
KR20240002423A true KR20240002423A (en) 2024-01-05

Family

ID=89541236

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220079613A KR20240002423A (en) 2022-06-29 2022-06-29 System for tracking object movement and method thereof

Country Status (1)

Country Link
KR (1) KR20240002423A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010016639A (en) 2000-12-30 2001-03-05 정인수 Surveillance System using an Omni-directional Camera and Multiple Pan·Tilt·Zoom Cameras and Controlling Method therefore

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010016639A (en) 2000-12-30 2001-03-05 정인수 Surveillance System using an Omni-directional Camera and Multiple Pan·Tilt·Zoom Cameras and Controlling Method therefore

Similar Documents

Publication Publication Date Title
US10909695B2 (en) System and process for detecting, tracking and counting human objects of interest
Brščić et al. Person tracking in large public spaces using 3-D range sensors
JP4852765B2 (en) Estimating connection relationship between distributed cameras and connection relationship estimation program
US8254633B1 (en) Method and system for finding correspondence between face camera views and behavior camera views
KR102152318B1 (en) Tracking system that can trace object's movement path
Teixeira et al. Lightweight people counting and localizing in indoor spaces using camera sensor nodes
Cho et al. Real-time people counting system for customer movement analysis
CN112712544A (en) Person tracking system and person tracking method
Monti et al. Smart sensing supporting energy-efficient buildings: On comparing prototypes for people counting
JP2020087358A (en) Information processing device and program
CN113011280A (en) Method and device for detecting person contact distance, computer equipment and storage medium
Muñoz-Salinas et al. People detection and tracking with multiple stereo cameras using particle filters
Fabbri et al. Inter-homines: Distance-based risk estimation for human safety
CN112513870A (en) System and method for detecting, tracking and counting human objects of interest with improved altimetry
KR20120091970A (en) System, device and method for object image registration, and recording medium having the method recorded thereon
KR20240002423A (en) System for tracking object movement and method thereof
CN115187916B (en) Method, device, equipment and medium for preventing and controlling epidemic situation in building based on space-time correlation
My et al. Real time face detection using geometric constraints, navigation and depth-based skin segmentation on mobile robots
US20230007985A1 (en) Method for tracking target objects in a specific space, and device using the same
US11388330B1 (en) Method for tracking target objects in a specific space, and device using the same
KR20240014684A (en) Apparatus for tracking object movement and method thereof
JP7264283B2 (en) Image processing device, person search system, image processing method, and image processing program
Machado People Counting System Using Existing Surveillance Video Camera
CN114359646A (en) Video analysis method, device, system, electronic equipment and medium
Parent et al. Mapping building interiors with LiDAR: Classifying the point cloud with ArcGIS