KR102621875B1 - Object Tracking System - Google Patents

Object Tracking System Download PDF

Info

Publication number
KR102621875B1
KR102621875B1 KR1020160057820A KR20160057820A KR102621875B1 KR 102621875 B1 KR102621875 B1 KR 102621875B1 KR 1020160057820 A KR1020160057820 A KR 1020160057820A KR 20160057820 A KR20160057820 A KR 20160057820A KR 102621875 B1 KR102621875 B1 KR 102621875B1
Authority
KR
South Korea
Prior art keywords
camera
image
image received
images
movement path
Prior art date
Application number
KR1020160057820A
Other languages
Korean (ko)
Other versions
KR20170127318A (en
Inventor
배순민
이활석
송무경
윤석민
박주형
장재호
Original Assignee
한화비전 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화비전 주식회사 filed Critical 한화비전 주식회사
Priority to KR1020160057820A priority Critical patent/KR102621875B1/en
Publication of KR20170127318A publication Critical patent/KR20170127318A/en
Application granted granted Critical
Publication of KR102621875B1 publication Critical patent/KR102621875B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over

Abstract

객체 추적 시스템이 개시된다. 본 발명의 일 실시예에 따른 객체 추적 시스템은, 서로 다른 위치에 설치되어 영상을 촬영하는 제1 및 제2 카메라로부터 영상을 수신하고, 수신한 영상에 포함된 객체를 검출하고, 검출된 객체 각각에 고유의 ID를 부여하는 객체 검출부, 상기 검출된 객체 각각의 이동 경로를 추적하는 경로 추적부, 상기 제1 및 제2 카메라로부터 수신된 영상에 상기 ID 및 상기 이동 경로에 관한 정보가 병합된 영상과 검출된 객체의 이미지를 저장하는 영상 저장부 및 상기 제1 및 제2 카메라로부터 수신된 영상, 추적 대상 객체의 이동 경로 및 상기 추적 대상 객체가 상기 제1 및 제2 카메라에 대응하는 영상에 등장하는 시간 구간을 표시하는 표시부를 포함한다.An object tracking system is disclosed. An object tracking system according to an embodiment of the present invention receives images from first and second cameras installed at different locations and capture images, detects objects included in the received images, and detects each of the detected objects. An object detection unit that assigns a unique ID to an object, a path tracking unit that tracks the movement path of each detected object, and an image in which the ID and information about the movement path are merged with the images received from the first and second cameras. and an image storage unit for storing images of the detected object, images received from the first and second cameras, a movement path of the tracked object, and the tracked object appears in the images corresponding to the first and second cameras. It includes a display unit that displays the time interval.

Description

객체 추적 시스템{Object Tracking System}Object Tracking System

본 발명은 객체 추적 시스템에 관한 것으로서 보다 구체적으로는 복수의 영상으로부터 객체를 검출하고, 검출된 객체의 이동 경로를 직관적으로 제공하기 위한 객체 추적 시스템에 관한 것이다.The present invention relates to an object tracking system, and more specifically, to an object tracking system for detecting an object from a plurality of images and intuitively providing a movement path of the detected object.

감시 카메라의 보급이 가속화되면서 한 번에 감시하고 처리해야 하는 카메라의 수가 많아지고 있으며, 미아나 범죄자, 또는 차량에 대한 검색 작업 요구가 증가하고 있다.As the spread of surveillance cameras accelerates, the number of cameras that need to be monitored and processed at once is increasing, and the demand for search operations for missing persons, criminals, or vehicles is increasing.

많은 수의 카메라에서 특정 객체를 검색하고자 할 때, 수동으로 찾는 것은 비효율적이고, 사용자의 실수가 발생할 확률이 높다.When trying to search for a specific object from a large number of cameras, searching manually is inefficient and has a high probability of user error.

이에 사용자로 하여금 작업 부담을 줄이고, 추적하고자 하는 객체를 직관적으로 표시할 수 있는 방법에 대한 요구가 증가하고 있다.Accordingly, there is an increasing demand for a method that allows users to reduce their work burden and intuitively display the object they want to track.

본 발명은 영상에서 검출된 객체 및 검출된 객체의 이동 경로를 직관적으로 표시하고 사용자 친화적인 디스플레이 UI를 제공할 수 있는 객체 추적 시스템을 제공하는 것을 목적으로 한다.The purpose of the present invention is to provide an object tracking system that can intuitively display objects detected in an image and their movement paths and provide a user-friendly display UI.

본 발명의 일 실시예에 따른 객체 추적 시스템은, 서로 다른 위치에 설치되어 영상을 촬영하는 제1 및 제2 카메라로부터 영상을 수신하고, 수신한 영상에 포함된 객체를 검출하고, 검출된 객체 각각에 고유의 ID를 부여하는 객체 검출부, 상기 검출된 객체 각각의 이동 경로를 추적하는 경로 추적부, 상기 제1 및 제2 카메라로부터 수신된 영상에 상기 ID 및 상기 이동 경로에 관한 정보가 병합된 영상과 검출된 객체의 이미지를 저장하는 영상 저장부 및 상기 제1 및 제2 카메라로부터 수신된 영상, 추적 대상 객체의 이동 경로 및 상기 추적 대상 객체가 상기 제1 및 제2 카메라에 대응하는 영상에 등장하는 시간 구간을 표시하는 표시부를 포함한다.An object tracking system according to an embodiment of the present invention receives images from first and second cameras installed at different locations and capture images, detects objects included in the received images, and detects each of the detected objects. An object detection unit that assigns a unique ID to an object, a path tracking unit that tracks the movement path of each detected object, and an image in which the ID and information about the movement path are merged with the images received from the first and second cameras. and an image storage unit for storing images of the detected object, images received from the first and second cameras, a movement path of the tracked object, and the tracked object appears in the images corresponding to the first and second cameras. It includes a display unit that displays the time interval.

또한, 상기 영상에 포함되는 객체를 선택하기 위한 선택 신호를 수신하는 수신부를 더 포함하고, 상기 표시부는 상기 선택 신호에 대응하는 객체를 상기 추적 대상 객체로 선정하고, 선정된 상기 객체의 이동 경로를 표시할 수 있다.In addition, it further includes a receiver for receiving a selection signal for selecting an object included in the image, wherein the display unit selects an object corresponding to the selection signal as the tracking target object and shows a movement path of the selected object. It can be displayed.

또한, 상기 객체 검출부는 검출된 객체를 포함하는 표시 영역을 추출하고, 상기 표시부는 상기 표시 영역 및 검출된 객체에 부여된 상기 ID를 표시할 수 있다.Additionally, the object detection unit may extract a display area including the detected object, and the display unit may display the display area and the ID assigned to the detected object.

또한, 상기 영상 저장부는 검출된 객체의 이미지를 상기 제1 및 제2 카메라로부터 수신되는 영상에 포함되는 프레임으로부터 각각 추출하여 저장하고, 상기 표시부는 저장된 상기 이미지를 더 표시할 수 있다.Additionally, the image storage unit may extract and store images of the detected objects from frames included in the images received from the first and second cameras, respectively, and the display unit may further display the stored images.

또한, 상기 표시부는 상기 검출된 객체의 이미지 중 상기 선택 신호에 대응하는 객체의 이동 경로를 표시할 수 있다.Additionally, the display unit may display a movement path of an object corresponding to the selection signal among images of the detected object.

본 발명은 영상에서 검출된 객체 및 검출된 객체의 이동 경로를 직관적으로 표시하고 사용자 친화적인 디스플레이 UI를 제공할 수 있는 객체 추적 시스템을 제공할 수 있다.The present invention can provide an object tracking system that can intuitively display objects detected in an image and the movement path of the detected objects and provide a user-friendly display UI.

도 1은 본 발명의 일 실시예에 따른 객체 추적 시스템의 구성을 개략적으로 나타내는 도면이다.
도 2는 본 발명의 다른 실시예에 따른 객체 추적 시스템의 구성을 개략적으로 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 객체 검출부의 동작을 예시적으로 나타내는 도면이다.
도 4 및 도 5는 본 발명의 일 실시예에 따라 표시부에 의해 표시되는 화면 구성을 예시적으로 나타내는 도면이다.
1 is a diagram schematically showing the configuration of an object tracking system according to an embodiment of the present invention.
Figure 2 is a diagram schematically showing the configuration of an object tracking system according to another embodiment of the present invention.
Figure 3 is a diagram illustrating the operation of an object detection unit according to an embodiment of the present invention.
4 and 5 are diagrams illustrating a screen configuration displayed by a display unit according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 구성을 갖는 구성 요소에 대해서는, 동일한 부호를 사용함으로써 중복 설명을 생략한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings. In addition, in this specification and drawings, the same symbols are used for components having substantially the same configuration, thereby omitting redundant description.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, “포함하다” 또는 “가지다” 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms used herein are only used to describe specific embodiments and are not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “include” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof. Terms such as first, second, etc. may be used to describe various components, but the components should not be limited by these terms. The above terms are used only for the purpose of distinguishing one component from another.

도 1은 본 발명의 일 실시예에 따른 객체 추적 시스템의 구성을 개략적으로 나타내는 도면이다.1 is a diagram schematically showing the configuration of an object tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 객체 추적 시스템(100)은, 객체 검출부(110), 경로 추적부(120), 영상 저장부(130) 및 표시부(140)를 포함한다. 객체 검출부(110)는 서로 다른 위치에 설치되어 영상을 촬영하는 제1 및 제2 카메라(Camera 1, Camera 2)로부터 영상을 수신하고, 수신한 영상에 포함된 객체를 검출하고, 검출된 객체 각각에 고유의 ID(Identification)를 부여한다.Referring to FIG. 1, the object tracking system 100 according to an embodiment of the present invention includes an object detection unit 110, a path tracking unit 120, an image storage unit 130, and a display unit 140. The object detection unit 110 receives images from first and second cameras (Camera 1 and Camera 2) installed at different locations and capture images, detects objects included in the received images, and detects each detected object. A unique ID (Identification) is assigned to.

객체 검출부(110)가 객체를 검출하는 과정은 크게 두 단계를 거치는 것으로 이해할 수 있다. 먼저, 객체 검출부(110)는 상기 제1 및 제2 카메라(Camera 1, Camera 2)로부터 수신되는 영상에서 추출하고자 하는 대상으로 판단되는 객체의 이미지를 추출하는 제1차 검출을 수행할 수 있다.The process by which the object detection unit 110 detects an object can be broadly understood as going through two steps. First, the object detector 110 may perform first detection to extract an image of an object determined to be extracted from images received from the first and second cameras (Camera 1 and Camera 2).

여기서 상기 추출하고자 하는 대상은 객체 추적 시스템(100)에서 추척하고자 하는 대상으로 어느 하나의 종류로 제한되는 것은 아니다. 다만, 본 명세서에서는 사람이 추출 및 추적의 대상이 되는 경우를 예로써 설명하기로 한다.Here, the object to be extracted is the object to be tracked by the object tracking system 100 and is not limited to any one type. However, in this specification, the case where a person is the subject of extraction and tracking will be explained as an example.

상기 제1차 검출에서는 수신되는 영상에 포함되는 다양한 객체 중, 사람으로 판단되는 객체의 이미지를 검출할 수 있다. 따라서, 객체 검출부(110)는 영상에 포함되는 적어도 하나 이상의 객체 중에서 사람의 신체 구조를 포함하고 있는 객체를 판단할 수 있으며, 사람으로 판단되는 객체를 포함하는 이미지를 추출할 수 있다.In the first detection, an image of an object determined to be a person can be detected among various objects included in a received image. Accordingly, the object detection unit 110 can determine which object includes a human body structure among at least one object included in the image and extract an image including an object determined to be a human.

상기 제1차 검출은 상기 제1 및 제2 카메라(Camera 1, Camera 2)로부터 수신되는 영상을 구성하는 복수의 프레임 각각에 대하여 수행될 수 있다.The first detection may be performed on each of a plurality of frames constituting the images received from the first and second cameras (Camera 1 and Camera 2).

이어서, 객체 검출부(110)는 이미지로 추출된 객체의 특징을 추출하는 제2차 검출을 수행할 수 있다. 상기 특징은 하나의 객체를 다른 객체와 구분할 수 있는 시각적인 정보로 이해할 수 있으며, 상기 특징이 추출된 객체에는 고유한 ID가 부여될 수 있다.Subsequently, the object detector 110 may perform secondary detection to extract features of the object extracted as an image. The feature can be understood as visual information that can distinguish one object from another object, and a unique ID can be assigned to the object from which the feature is extracted.

여기서 상기 특징은 객체의 색상일 수 있으며, 상기 객체가 사람인 경우, 객체 검출부(110)는 상의와 하의 및/또는 신발의 색상에 관한 정보를 이용하여 상기 특징을 추출하고, 추출된 특징을 해당 객체의 ID와 연동하여 저장할 수 있다.Here, the feature may be the color of the object, and if the object is a person, the object detector 110 extracts the feature using information about the color of tops, bottoms, and/or shoes, and applies the extracted feature to the corresponding object. It can be saved in conjunction with the ID.

또한, 객체 검출부(110)는 특징이 추출된 객체에 대하여 상기 제1차 검출에서 추출된 이미지를 대표 이미지로 저장할 수 있다. 상기 대표 이미지는 해당 객체에서 추출된 특징에 관한 정보 및 해당 객체의 ID 정보를 포함할 수 있다.Additionally, the object detector 110 may store the image extracted in the first detection as a representative image for the object from which features have been extracted. The representative image may include information about features extracted from the object and ID information of the object.

또한, 객체 검출부(110)는 상기 제1차 검출을 수행하는 제1 검출 모듈(미도시) 및 상기 제2차 검출을 수행하는 제2차 검출 모듈(미도시)을 포함할 수 있다.Additionally, the object detector 110 may include a first detection module (not shown) that performs the first detection and a second detection module (not shown) that performs the second detection.

경로 추적부(120)는 검출된 상기 객체 각각의 이동 경로를 추적한다. 앞서 설명한 바와 같이, 객체 검출부(110)는 카메라로부터 수신되는 영상에 포함되는 각각의 프레임에서 객체를 추출할 수 있다. 상기 영상에서 최초로 검출되는 객체는 대표 이미지 및 특징 정보와 함께 고유의 ID가 부여되고, 그 이후의 프레임에서 추출되는 객체 이미지 및 그 특징을 앞서 저장된 상기 대표 이미지 및 그 특징 정보와 비교함으로써, 복수의 프레임으로부터 추출되는 객체 이미지가 서로 동일한지 여부를 판단할 수 있다.The path tracking unit 120 tracks the movement path of each detected object. As described above, the object detector 110 may extract an object from each frame included in the image received from the camera. The object first detected in the image is given a unique ID along with the representative image and feature information, and by comparing the object image and its features extracted from subsequent frames with the previously stored representative image and its feature information, a plurality of It can be determined whether object images extracted from the frame are identical to each other.

경로 추적부(120)는 동일한 객체로 판단되는 복수의 이미지의 위치를 상기 영상 안에서 판단하고, 시간의 변화에 따른 각각의 객체의 위치 정보를 저장할 수 있다.The path tracking unit 120 may determine the location of a plurality of images that are determined to be the same object within the image and store location information of each object according to changes in time.

상기 제1 및 제2 카메라(Camera 1, Camera 2)는 고정된 위치에 설치되며, 상기 위치 정보가 저장되는 시간은 해당 객체가 상기 영상에 등장하는 시점부터 해당 객체가 상기 영상에서 사라지는 시점까지일 수 있다.The first and second cameras (Camera 1, Camera 2) are installed at a fixed location, and the time for storing the location information is from the time the object appears in the image to the time the object disappears from the image. You can.

한편, 객체 검출부(110)는 상기 영상에서 사라졌던 객체가 다시 등장하는 경우에도, 기 저장된 이미지와 추출된 상기 객체의 이미지를 비교하여 기존에 ID가 부여된 객체인지 여부를 판단할 수 있으며, 경로 추적부(120)는 해당 객체의 위치 정보와 미리 저장된 위치 정보를 함께 저장할 수 있다.Meanwhile, even when an object that disappeared from the image reappears, the object detection unit 110 compares a pre-stored image with the extracted image of the object to determine whether it is an object to which an ID has already been assigned, and performs path tracking. Unit 120 may store location information of the object and pre-stored location information together.

영상 저장부(130)는 상기 제1 및 제2 카메라(Camera 1, Camera 2)로부터 수신된 영상에 상기 ID 및 상기 이동 경로에 관한 정보가 병합된 영상과, 검출된 객체의 이미지를 저장한다. 객체 검출부(110)에서 검출되는 객체에는 각각 ID가 부여되고, 상기 영상에 포함되는 각각의 프레임에 등장하는 객체 중 동일한 객체로 판단되는 객체는 모두 동일한 ID를 갖는다.The image storage unit 130 stores an image in which information on the ID and the movement path are merged with the images received from the first and second cameras (Camera 1 and Camera 2), and an image of the detected object. Each object detected by the object detector 110 is assigned an ID, and among the objects that appear in each frame included in the image, all objects that are determined to be the same object have the same ID.

또한, 각각의 객체의 위치 정보는 시간의 흐름에 따라 저장되며, 영상 저장부(130)에 저장되는 영상은 각각의 객체의 위치 정보가 시간의 흐름, 즉 프레임의 흐름에 대응하여 저장될 수 있다.In addition, the location information of each object is stored according to the passage of time, and the image stored in the image storage unit 130 may be stored in accordance with the passage of time, that is, the flow of frames. .

예를 들어, 영상 저장부(130)에 저장되는 영상은 검출된 객체를 둘러싸는 도형을 포함할 수 있으며, 상기 도형의 일 측면에는 해당 객체에 부여된 ID가 표시될 수 있다.For example, an image stored in the image storage unit 130 may include a shape surrounding a detected object, and an ID assigned to the object may be displayed on one side of the shape.

영상 저장부(130)에 저장되는 객체 이미지는 상기 도형으로 표시되는 영역일 수 있으며, 동일한 ID가 부여된 객체의 이미지는 영상 저장부(130)에 포함되는 동일한 ID 필드(ID field)에 저장될 수 있다.The object image stored in the image storage unit 130 may be an area displayed by the above shape, and the image of an object assigned the same ID may be stored in the same ID field included in the image storage unit 130. You can.

또한, 각각의 객체의 이동 경로는 시간의 흐름에 따라 실선으로 표시될 수 있으며, 서로 다른 객체의 이동 경로는 서로 다른 색상으로 구분되어 표시될 수 있다.Additionally, the movement path of each object may be displayed as a solid line over time, and the movement paths of different objects may be displayed in different colors.

표시부(140)는 상기 제1 및 제2 카메라(Camera 1, Camera 2)로부터 수신된 영상을 표시한다.The display unit 140 displays images received from the first and second cameras (Camera 1 and Camera 2).

표시부(140)는 상기 제1 및 제2 카메라(Camera 1, Camera 2)로부터 수신된 영상을 서로 구분되는 영역에 표시할 수 있으며, 영상 저장부(130)가 저장한 영상이 표시부(140)를 통해 표시될 수 있다. 이때, 표시부(140)는 상기 제1 및 제2 카메라(Camera 1, Camera 2)에서 촬영한 영상을 실시간으로 표시할 수 있으며, 또는 영상 저장부(130)에 기 저장되어 있는 영상을 비 실시간으로 표시할 수도 있다.The display unit 140 can display images received from the first and second cameras (Camera 1 and Camera 2) in separate areas, and the images stored by the image storage unit 130 are displayed on the display unit 140. It can be displayed through At this time, the display unit 140 can display images captured by the first and second cameras (Camera 1, Camera 2) in real time, or displays images previously stored in the image storage unit 130 in non-real time. It can also be displayed.

또한, 표시부(140)는 추적 대상 객체의 이동 경로 및 상기 추적 대상 객체가 상기 제1 및 제2 카메라(Camera 1, Camera 2)에 대응하는 영상에 등장하는 시간 구간을 표시한다.Additionally, the display unit 140 displays the movement path of the tracking object and the time section in which the tracking object appears in the images corresponding to the first and second cameras (Camera 1 and Camera 2).

상기 영상을 실시간으로 표시하는 경우에도, 객체 검출부(110)에 부여되는 ID와 경로 추적부(120)에서 획득되는 위치 정보는 상기 영상에 포함되어 있는 것으로 이해할 수 있다.Even when the image is displayed in real time, it can be understood that the ID given to the object detection unit 110 and the location information obtained from the path tracking unit 120 are included in the image.

도 2는 본 발명의 다른 실시예에 따른 객체 추적 시스템의 구성을 개략적으로 나타내는 도면이다.Figure 2 is a diagram schematically showing the configuration of an object tracking system according to another embodiment of the present invention.

도 2를 참조하면, 본 발명의 다른 실시예에 따른 객체 추적 시스템(200)은 객체 검출부(210), 경로 추적부(220), 영상 저장부(230), 표시부(240) 및 수신부(250)를 포함한다.Referring to FIG. 2, the object tracking system 200 according to another embodiment of the present invention includes an object detection unit 210, a path tracking unit 220, an image storage unit 230, a display unit 240, and a reception unit 250. Includes.

객체 검출부(210), 경로 추적부(220), 영상 저장부(230) 및 표시부(240)는 도 1을 참조로 하여 설명한, 객체 검출부(110), 경로 추적부(120), 영상 저장부(130) 및 표시부(140)와 실질적으로 동일한 기능을 수행하므로, 중복되는 내용에 한하여 구체적인 설명은 생략하도록 한다.The object detection unit 210, the path tracking unit 220, the image storage unit 230, and the display unit 240 are the object detection unit 110, the path tracking unit 120, and the image storage unit ( Since it performs substantially the same function as the display unit 130) and the display unit 140, detailed description will be omitted only for overlapping contents.

수신부(250)는 표시부(240)를 통해 표시되는 영상에 포함되는 객체를 선택하기 위한 선택 신호를 수신한다. 그리고, 표시부(240)는 상기 선택 신호에 대응하는 객체의 이동 경로, 상기 제1 및 제2 카메라(Camera 1, Camera 2)가 촬영한 영상을 표시한다.The receiving unit 250 receives a selection signal for selecting an object included in an image displayed through the display unit 240. Additionally, the display unit 240 displays the movement path of the object corresponding to the selection signal and images captured by the first and second cameras (Camera 1 and Camera 2).

상기 선택 신호는 표시부(240)와 연동되는 마우스, 키보드 등의 입력 장치를 통해 생성되어 수신부(250)로 전달될 수 있으며, 표시부(240)가 터치 패널을 포함하는 경우에는 상기 선택 신호가 사용자의 터치 입력을 통해 입력될 수 있다.The selection signal may be generated through an input device such as a mouse or keyboard that is linked to the display unit 240 and transmitted to the receiver 250. If the display unit 240 includes a touch panel, the selection signal may be transmitted to the user. It can be input through touch input.

마우스 또는 터치 패널을 통해 입력되는 선택 신호는 표시부(240)에 포함되는 스크린에서 특정 객체를 클릭하거나 터치하는 동작에 의해 생성될 수 있으며, 키보드를 통해 입력되는 선택 신호는 객체에 부여된 ID를 입력함으로써 생성될 수 있다.The selection signal input through the mouse or touch panel can be generated by clicking or touching a specific object on the screen included in the display unit 240, and the selection signal input through the keyboard inputs the ID assigned to the object. It can be created by doing.

표시부(240)에는 상기 제1 및 제2 카메라(Camera 1, Camera 2)가 촬영한 영상이 표시되며, 표시부(240)에 최초로 표시되는 영상에는 병합되거나 가공된 정보가 표시되지 않는 것으로 이해할 수 있다.The display unit 240 displays images captured by the first and second cameras (Camera 1 and Camera 2), and it can be understood that no merged or processed information is displayed in the image initially displayed on the display unit 240. .

또는, 객체 검출부(110)에 의해 검출된 객체를 둘러싸는 도형이 표시될 수 있으며, 서로 다른 객체에 대응하는 상기 도형은 서로 다른 색으로 표시될 수 있다. 그리고, 상기 도형의 일 측면에는 해당 객체에 부여된 ID가 함께 표시될 수도 있다.Alternatively, shapes surrounding the object detected by the object detector 110 may be displayed, and the shapes corresponding to different objects may be displayed in different colors. Additionally, the ID assigned to the object may be displayed on one side of the shape.

한편, 상기 선택 신호가 입력되어 특정 객체가 선택되면, 표시부(240)는 선택된 객체에 대응하는 이동 경로를 표시할 수 있다. 상기 이동 경로는 경로 추적부(220)에 의해 생성되는 위치 정보의 조합으로 이해할 수 있으며, 도 1을 참조로 하여 설명한 바와 같이, 서로 다른 ID를 갖는 객체의 이동 경로는 다른 색상을 갖는 실선으로 표시될 수 있다.Meanwhile, when the selection signal is input and a specific object is selected, the display unit 240 may display a movement path corresponding to the selected object. The movement path can be understood as a combination of location information generated by the path tracking unit 220, and as explained with reference to FIG. 1, the movement paths of objects with different IDs are displayed as solid lines with different colors. It can be.

검출된 객체를 표시하는 상기 도형은 해당 객체가 표시되는 표시 영역에 대응하며, 객체 검출부(210)는 도 1을 참조로 하여 설명한 상기 제1차 검출 과정을 통해 상기 표시 영역을 추출할 수 있다. 그리고, 수신부(250)로 입력되는 상기 선택 신호는 상기 표시 영역을 선택하는 신호에 대응한다.The figure displaying the detected object corresponds to the display area where the object is displayed, and the object detector 210 can extract the display area through the first detection process described with reference to FIG. 1. And, the selection signal input to the receiver 250 corresponds to a signal for selecting the display area.

도 3은 본 발명의 일 실시예에 따른 객체 검출부의 동작을 예시적으로 나타내는 도면이다.Figure 3 is a diagram illustrating the operation of an object detection unit according to an embodiment of the present invention.

도 3(a)와 도 3(b)는 서로 다른 시점에 제1 카메라 및 제2 카메라에 의해 촬영된 영상의 특정 프레임을 예시적으로 나타낸다. 도 3(a)와 도 3(b)를 참조하면, 각각의 영상에서 추출되는 객체는 사람이고 추출된 객체는 이를 둘러싸는 사각형으로 표시되는 것을 알 수 있다.3(a) and 3(b) exemplarily show specific frames of images captured by a first camera and a second camera at different viewpoints. Referring to Figures 3(a) and 3(b), it can be seen that the object extracted from each image is a person and the extracted object is displayed as a rectangle surrounding it.

상기 제1 및 제2 카메라는 서로 다른 위치에 고정되어 설치되어 서로 다른 방향 및 각도에서 영상을 촬영하며, 상기 제1 카메라로 촬영된 영상을 나타내는 도 3(a)에서는 제1 객체(OBJ 1)와 제2 객체(OBJ 2)가 검출되고, 상기 제2 카메라로 촬영된 영상을 나타내는 도 3(b)에서는 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)가 검출되었다.The first and second cameras are fixedly installed at different positions and capture images from different directions and angles. In FIG. 3(a), which shows the image captured by the first camera, the first object (OBJ 1) and the second object (OBJ 2) were detected, and in FIG. 3(b) showing the image captured by the second camera, the first to fourth objects (OBJ 1 to OBJ 4) were detected.

이하에서는 도 3(a)의 영상이 도 3(b)의 영상보다 시간적으로 앞서 획득된 경우를 예로써 설명하도록 한다. 또한, 객체 검출, 경로 추적, 영상 저장 및 영상 표시 동작은 도 2를 참조로 하여 설명한 객체 추적 시스템(200)의 구성 요소를 이용하여 설명하도록 한다.Hereinafter, the case where the image in FIG. 3(a) was acquired temporally earlier than the image in FIG. 3(b) will be described as an example. Additionally, object detection, path tracking, image storage, and image display operations will be described using the components of the object tracking system 200 described with reference to FIG. 2.

상기 제1 카메라가 촬영한 영상을 수신한 객체 검출부(210)는 사람으로 판단되는 제1 객체(OBJ 1)와 제2 객체(OBJ 2)에 대응하는 이미지 또는 대표 영역을 추출한다. 여기서, 상기 제1 객체(OBJ 1)는 상기 제2 객체(OBJ 2) 보다 먼저 추출된 것으로 이해할 수 있으며, 상기 제2 객체(OBJ 2)는 먼저 추출된 상기 제1 객체(OBJ 1)와는 다른 특징을 가지고 있을 수 있다.The object detection unit 210, which receives the image captured by the first camera, extracts images or representative areas corresponding to the first object (OBJ 1) and the second object (OBJ 2) that are determined to be people. Here, the first object (OBJ 1) can be understood as being extracted before the second object (OBJ 2), and the second object (OBJ 2) is different from the first object (OBJ 1) extracted first. It may have characteristics.

또는, 도 3(a)에 도시되는 이미지는 상기 제1 카메라가 촬영한 영상에 포함되는 하나의 프레임을 나타내므로, 동일한 프레임에 동시에 포함되는 두 개 이상의 객체는 서로 다른 객체, 즉 서로 다른 특징을 갖는 독립적인 객체이다.Alternatively, since the image shown in FIG. 3(a) represents one frame included in the image captured by the first camera, two or more objects simultaneously included in the same frame are different objects, that is, have different characteristics. It is an independent object that has

객체 검출부(210)는 상기 제1 및 제2 객체(OBJ 1, OBJ 2)에 ID를 부여하고, 도 3(a)에서 객체의 표시 영역을 나타내는 사각형의 영역은 해당 객체의 대표 이미지로 지정될 수 있다.The object detection unit 210 assigns IDs to the first and second objects (OBJ 1 and OBJ 2), and the rectangular area representing the display area of the object in FIG. 3(a) is designated as a representative image of the object. You can.

경로 추적부(220)는 도 3(a)에 도시되는 프레임 이후의 프레임에서 검출되는 상기 제1 및 제2 객체(OBJ 1, OBJ 2)의 시간에 따른 위치의 변화를 고려하여 각각의 객체의 이동 경로를 추적하고, 영상 저장부(230)는 상기 제1 및 제2 객체(OBJ 1, OBJ 2)의 ID와 각각의 객체에 대응하는 이동 경로에 관한 정보가 병합된 영상을 저장한다.The path tracking unit 220 considers changes in the positions of the first and second objects (OBJ 1 and OBJ 2) over time detected in frames subsequent to the frame shown in FIG. 3(a) and determines the location of each object. The movement path is tracked, and the image storage unit 230 stores an image in which the IDs of the first and second objects OBJ 1 and OBJ 2 and information on the movement paths corresponding to each object are merged.

한편, 객체 검출부(210)는 상기 제2 카메라로부터 영상을 수신하면, 수신된 영상에 포함된 객체를 추출한다. 도 3(b)에 도시되는 바와 같이, 상기 제2 카메라의 영상에서는 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)가 추출된다.Meanwhile, when the object detector 210 receives an image from the second camera, it extracts an object included in the received image. As shown in FIG. 3(b), first to fourth objects (OBJ 1 to OBJ 4) are extracted from the image of the second camera.

객체 검출부(210)는 상기 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)에 ID를 부여하고, 도 3(b)에서 객체의 표시 영역을 나타내는 사각형의 영역은 해당 객체의 대표 이미지로 지정될 수 있다.The object detection unit 210 assigns IDs to the first to fourth objects (OBJ 1 to OBJ 4), and the rectangular area representing the display area of the object in FIG. 3(b) is designated as a representative image of the object. You can.

경로 추적부(220)는 도 3(b)에 도시되는 프레임 이후의 프레임에서 검출되는 상기 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)의 시간에 따른 위치의 변화를 고려하여 각각의 객체의 이동 경로를 추적하고, 영상 저장부(230)는 상기 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)의 ID와 각각의 객체에 대응하는 이동 경로에 관한 정보가 병합된 영상을 저장한다.The path tracking unit 220 considers changes in the positions of the first to fourth objects (OBJ 1 to OBJ 4) over time detected in frames subsequent to the frame shown in FIG. 3(b) and determines the location of each object. The movement path is tracked, and the image storage unit 230 stores an image in which the IDs of the first to fourth objects OBJ 1 to OBJ 4 and information on the movement path corresponding to each object are merged.

이때, 상기 제1 카메라 영상에서 획득되는 상기 제1 객체(OBJ 1)의 이동 경로와, 상기 제2 카메라 영상에서 획득되는 상기 제1 객체(OBJ 1)의 이동 경로는 서로 병합되거나 참조되지 않는다.At this time, the movement path of the first object (OBJ 1) obtained from the first camera image and the movement path of the first object (OBJ 1) obtained from the second camera image are not merged with or referenced to each other.

앞서 설명한 바와 같이, 상기 제1 및 제2 카메라는 서로 다른 위치에 고정되어 설치되어, 서로 다른 방향에서 다른 각도에서 영상을 촬영하므로, 추출된 객체의 위치 정보 및 이에 따른 이동 경로는 각각의 카메라에 대응하여 독립적으로 획득되고 관리된다.As described above, the first and second cameras are fixedly installed in different positions and capture images from different directions and angles, so the location information of the extracted object and the resulting movement path are stored in each camera. Acquired and managed independently.

도 4 및 도 5는 본 발명의 일 실시예에 따라 표시부에 의해 표시되는 화면 구성을 예시적으로 나타내는 도면이다.4 and 5 are diagrams illustrating a screen configuration displayed by a display unit according to an embodiment of the present invention.

도 4 및 도 5는 도 1 및 도 2를 참조로 하여 설명한 객체 추적 시스템(100, 200)에 포함되는 표시부(140, 240)에 의해 사용자에게 제공되는 유저 인터페이스(User Interface, UI)를 예시적으로 나타낸다.FIGS. 4 and 5 illustrate a user interface (UI) provided to the user by the display units 140 and 240 included in the object tracking systems 100 and 200 described with reference to FIGS. 1 and 2. It is expressed as

도 4에 도시되는 사용자 인터페이스를 상단에서부터 설명하면, 제1 영역(A)에는 제1 카메라가 촬영한 영상(Video A)과 제2 카메라가 촬영한 영상(Video B)의 타임 라인이 제공된다. 앞선 도면들을 참조로 하여 설명한 바와 같이, 상기 제1 카메라와 상기 제2 카메라는 서로 다른 위치에 고정되어 설치되며, 서로 다른 방향에서 다른 각도로 촬영한 영상을 제공한다.When explaining the user interface shown in FIG. 4 from the top, a timeline of the image captured by the first camera (Video A) and the image captured by the second camera (Video B) is provided in the first area A. As described with reference to the previous drawings, the first camera and the second camera are fixedly installed at different positions and provide images taken from different directions and at different angles.

상기 제1 영역(A)을 참조하면, 상기 제1 및 제2 카메라가 촬영한 영상 각각에 대하여 상기 타임 라인이 제공되며, 사용자가 원하는 시점으로 영상을 이동하기 위한 버튼이 제공된다.Referring to the first area (A), the timeline is provided for each of the images captured by the first and second cameras, and a button is provided to move the image to the user's desired viewpoint.

제2 영역은 상기 제1 카메라로 촬영한 영상(Video A, 이하 ‘제1 영상’)과 상기 제2 카메라로 촬영한 영상(Video B, 이하 ‘제2 영상’)을 재생하기 위한 분할 화면을 제공한다. 또한, 사용자가 선택한 객체의 이동 경로를 표시하는 분할 화면(Trajectory Visualization)을 제공한다.The second area is a split screen for playing the video taken with the first camera (Video A, hereinafter 'first video') and the video taken with the second camera (Video B, hereinafter 'second video'). to provide. Additionally, it provides a split screen (Trajectory Visualization) that displays the movement path of the object selected by the user.

제3 영역(C)에는 사용자가 선택한 객체가 상기 제1 영상 및 제2 영상에 등장한 구간을 나타내는 창(Re-ID results @ Video A, Re-ID results @ Video B)이 제공되고, 상기 제1 영상 및 제2 영상에서 추출된 객체를 표시하는 썸네일(Thumbnail), 즉 추출된 객체의 이미지 또는 표시 영역을 표시하는 창(Thumbnail @ Video A, Thumbnail @ Video B)가 제공될 수 있다.In the third area (C), a window (Re-ID results @ Video A, Re-ID results @ Video B) indicating the section where the object selected by the user appears in the first and second images is provided, and the first A thumbnail displaying the object extracted from the video and the second video, that is, a window displaying the image or display area of the extracted object (Thumbnail @ Video A, Thumbnail @ Video B) may be provided.

상기 이미지 또는 표시 영역은 검출된 객체를 나타내며, 영상 저장부(130, 230)에 저장되어 있을 수 있다. 또한, 상기 제3 영역(C)에 표시되는 상기 이미지 또는 표시 영역으로 보여지는 복수의 검출된 객체 중, 사용자에 의해 선택된 객체에 대한 이동 경로는 상기 제2 영역(B)을 통해 표시될 수 있다.The image or display area represents the detected object and may be stored in the image storage units 130 and 230. In addition, the movement path for the object selected by the user among the images displayed in the third area (C) or the plurality of detected objects shown in the display area may be displayed through the second area (B). .

도 5를 참조하면, 상기 제1 카메라를 통해 촬영된 상기 제1 영상(Video A) 및 상기 제2 카메라를 통해 촬영된 상기 제2 영상(Video B)이 제2 영역(B)에 예시적으로 도시되며, 도 4를 참조로 하여 설명한 바와 같이, 제3 영역(C)에는 특정 객체가 상기 제1 영상(Video A) 및 상기 제2 영상(Video B)에 등장하는 구간이 표시될 수 있다.Referring to FIG. 5, the first image (Video A) captured through the first camera and the second image (Video B) captured through the second camera are exemplarily displayed in the second area (B). As shown and explained with reference to FIG. 4, a section in which a specific object appears in the first image (Video A) and the second image (Video B) may be displayed in the third area (C).

도 5에 도시되는 제1 영상(Video A)과 제2 영상(Video B)은 각각 제1, 제2 객체(OBJ 1, OBJ 2) 및 제1 내지 제4 객체(OBJ 1 내지 OBJ 4)를 포함하며, 이는 도 3에 도시되는 예와 동일하다.The first image (Video A) and the second image (Video B) shown in FIG. 5 represent first and second objects (OBJ 1 and OBJ 2) and first to fourth objects (OBJ 1 to OBJ 4), respectively. Included, which is the same as the example shown in FIG. 3.

또한, 상기 제1 영상(Video A)과 상기 제2 영상(Video B) 사이에 도시되는 경로 추적 영상은 사용자가 상기 제1 객체(OBJ 1)를 선택한 경우를 예로써 도시하며, 상기 제1 객체(OBJ 1)의 이동 경로를 표시한다.In addition, the path tracking image shown between the first image (Video A) and the second image (Video B) shows the case where the user selects the first object (OBJ 1) as an example, and the first object (OBJ 1) is shown as an example. Displays the movement path of (OBJ 1).

이동 경로를 추적하고자 하는 객체의 선택은 상기 사용자에 의한 선택 신호 입력에 의하여 이루어질 수 있으며, 상기 선택 신호 입력은 상기 제1 영상(Video A) 또는 상기 제2 영상(Video B)에 표시되는 객체 중 어느 하나의 객체를 선택하는 마우스 클릭, 터치 등의 동작을 통해 이루어질 수 있다. 또한, 키보드를 이용하는 경우에는 해당 객체에 부여된 ID를 입력하는 동작을 통해 이루어질 수 있을 것이다.The selection of an object whose movement path is to be tracked can be made by inputting a selection signal by the user, and the selection signal input is one of the objects displayed in the first image (Video A) or the second image (Video B). This can be done through actions such as mouse click or touch to select an object. Additionally, when using a keyboard, this can be done by entering the ID assigned to the corresponding object.

한편, 제3 영역(C)에는 상기 사용자에 의해 선택된 객체, 즉 도 5에서는 상기 제1 객체(OBJ 1)가 상기 제1 영상(Video A) 및 상기 제2 영상(Video B)에 등장하는 구간을 표시한다.Meanwhile, in the third area (C), the object selected by the user, that is, the section in which the first object (OBJ 1) in FIG. 5 appears in the first image (Video A) and the second image (Video B) Displays .

상기 구간은 도 5에 도시되는 바와 같이 바(bar) 형태로 표시되며, 도 5를 참조하면, 상기 제1 객체(OBJ 1)는 상기 제2 영상(Video B)보다 상기 제1 영상(Video A)에서 더 오래 등장하는 것으로 이해할 수 있다.The section is displayed in the form of a bar as shown in FIG. 5. Referring to FIG. 5, the first object (OBJ 1) is larger than the second image (Video B). ) can be understood as appearing longer in .

한편, 도 5에서 상기 제1 객체(OBJ 1)의 이동 경로를 표시하는 영상은 상기 사용자의 선택에 의하여 상기 제1 영상(Video A) 또는 상기 제2 영상(Video B) 중 어느 하나의 영상을 이용하여 표시될 수 있으며, 도 5에서는 상기 사용자가 상기 제2 영상(Video B)을 선택한 경우를 도시한다.Meanwhile, in FIG. 5, the image showing the movement path of the first object (OBJ 1) is either the first image (Video A) or the second image (Video B) according to the user's selection. It can be displayed using, and Figure 5 shows a case where the user selects the second video (Video B).

상기 제1 영상(Video A) 또는 상기 제2 영상(Video B) 중 어느 하나의 영상을 선택하는 것은 상기 제3 영역(C)에 표시되는 바(bar) 영역 중 어느 하나의 영역을 선택함으로써 이루어질 수 있다. 또는, 추적 대상 객체가 선택된 상태에서 상기 제1 영상(Video A)이 표시되는 영역을 선택하거나, 상기 제2 영상(Video B)이 표시되는 영역을 선택하는 동작을 통하여 이루어질 수도 있을 것이다.Selecting either the first image (Video A) or the second image (Video B) is accomplished by selecting one of the bar areas displayed in the third area (C). You can. Alternatively, the tracking target object may be selected by selecting an area where the first image (Video A) is displayed or selecting an area where the second image (Video B) is displayed.

지금까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been examined focusing on its preferred embodiments. A person skilled in the art to which the present invention pertains will understand that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative rather than a restrictive perspective. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the equivalent scope should be construed as being included in the present invention.

100, 200: 객체 추적 시스템 110, 210: 객체 검출부
120, 220: 경로 추적부 130, 230: 영상 저장부
140, 240: 표시부 250: 수신부
100, 200: object tracking system 110, 210: object detection unit
120, 220: path tracking unit 130, 230: image storage unit
140, 240: display unit 250: receiving unit

Claims (5)

서로 다른 위치에 설치되어 영상을 촬영하는 제1 카메라 및 제2 카메라 각각으로부터 영상을 수신하고, 수신한 영상에 포함된 객체를 검출하고, 검출된 객체에 고유의 ID를 부여하는 객체 검출부;
상기 제1 카메라로부터 수신된 영상의 복수의 프레임들에서 검출된 객체의 이동 경로 및 상기 제2 카메라로부터 수신된 영상의 복수의 프레임들에서 검출된 객체의 이동 경로를 추적하는 경로 추적부;
상기 제1 카메라로부터 수신된 영상에 상기 제1 카메라로부터 수신된 영상에서 검출된 객체의 ID 및 이동 경로에 관한 정보가 병합된 영상과 상기 검출된 객체의 이미지, 및 상기 제2 카메라로부터 수신된 영상에 제2 카메라로부터 수신된 영상에서 검출된 객체의 ID 및 이동 경로에 관한 정보가 병합된 영상과 상기 검출된 객체의 이미지를 저장하는 영상 저장부; 및
상기 제1 카메라로부터 수신된 영상, 상기 제2 카메라로부터 수신된 영상, 및 추적 대상 객체가 영상에 등장하는 시간 구간을 표시하는 표시부;
를 포함하고,
상기 표시부의 제1영역에 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상이 각각 표시되고,
상기 표시부의 제1영역에 표시된 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상에 포함된 객체들 중 선택된 객체인 상기 추적 대상 객체의 이동 경로가 표시된 경로 추적 영상이, 상기 제1영역과 다른 상기 표시부의 제2영역에 표시되고,
상기 제1 카메라 영상에서 획득되는 상기 추적 대상 객체의 이동 경로와, 상기 제2 카메라 영상에서 획득되는 상기 추적 대상 객체의 이동 경로는 서로 병합 또는 참조되지 않고 독립적이고,
상기 경로 추적 영상에 표시되는 상기 추적 대상 객체의 이동 경로는, 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상 중 상기 추적 대상 객체가 선택된 영상에서 추적된 객체의 이동 경로인, 객체 추적 시스템.
an object detection unit that receives images from each of a first camera and a second camera installed at different locations and captures images, detects objects included in the received images, and assigns a unique ID to the detected objects;
a path tracking unit that tracks the movement path of the object detected in the plurality of frames of the image received from the first camera and the movement path of the object detected in the plurality of frames of the image received from the second camera;
An image in which information on the ID and movement path of an object detected in the image received from the first camera are merged with the image received from the first camera, an image of the detected object, and an image received from the second camera an image storage unit that stores an image in which information on the ID and movement path of an object detected in an image received from a second camera are merged and an image of the detected object; and
a display unit that displays an image received from the first camera, an image received from the second camera, and a time section in which a tracking target object appears in the image;
Including,
An image received from the first camera and an image received from the second camera are displayed in the first area of the display unit, respectively,
A path tracking image showing the movement path of the tracking object, which is a selected object among objects included in the image received from the first camera and the image received from the second camera displayed in the first area of the display unit, Displayed in a second area of the display unit different from area 1,
The movement path of the tracking object obtained from the first camera image and the movement path of the tracking object obtained from the second camera image are independent and are not merged or referenced with each other,
The movement path of the tracking object displayed in the path tracking image is the movement path of the object tracked in the image in which the tracking object is selected among the image received from the first camera and the image received from the second camera, Object tracking system.
제1항에 있어서,
상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상에 포함된 객체를 선택하는 선택 신호를 수신하는 수신부를 더 포함하는, 객체 추적 시스템.
According to paragraph 1,
An object tracking system further comprising a receiver that receives a selection signal for selecting an object included in the image received from the first camera and the image received from the second camera.
제2항에 있어서,
상기 객체 검출부는 검출된 객체를 포함하는 표시 영역을 추출하고,
상기 표시부는 상기 표시 영역 및 상기 ID를 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상에 표시하고,
상기 추적 대상 객체는, 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상에 표시된 표시 영역들 중 상기 선택 신호에 대응하는 표시 영역이 포함하는 객체인, 객체 추적 시스템.
According to paragraph 2,
The object detection unit extracts a display area including the detected object,
The display unit displays the display area and the ID on an image received from the first camera and an image received from the second camera,
The object to be tracked is an object included in a display area corresponding to the selection signal among display areas displayed in the image received from the first camera and the image received from the second camera.
제2항에 있어서,
상기 영상 저장부는 상기 제1 카메라 및 상기 제2 카메라로부터 수신되는 영상에 포함되는 각 프레임으로부터 추출된 객체의 이미지를 저장하고,
상기 표시부는 영상 저장부에 저장된 객체의 이미지들을 상기 제1 카메라로부터 수신된 영상 및 상기 제2 카메라로부터 수신된 영상이 표시된 제1영역과 다른 영역에 표시하는, 객체 추적 시스템.
According to paragraph 2,
The image storage unit stores images of objects extracted from each frame included in images received from the first camera and the second camera,
The display unit displays images of objects stored in the image storage unit in an area different from the first area where the image received from the first camera and the image received from the second camera are displayed.
제4항에 있어서,
상기 추적 대상 객체는 추출된 객체의 이미지들 중 상기 선택 신호에 대응하는 객체의 이미지가 포함하는 객체인, 객체 추적 시스템.
According to clause 4,
The object to be tracked is an object included in the image of the object corresponding to the selection signal among the extracted object images.
KR1020160057820A 2016-05-11 2016-05-11 Object Tracking System KR102621875B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160057820A KR102621875B1 (en) 2016-05-11 2016-05-11 Object Tracking System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160057820A KR102621875B1 (en) 2016-05-11 2016-05-11 Object Tracking System

Publications (2)

Publication Number Publication Date
KR20170127318A KR20170127318A (en) 2017-11-21
KR102621875B1 true KR102621875B1 (en) 2024-01-09

Family

ID=60808603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160057820A KR102621875B1 (en) 2016-05-11 2016-05-11 Object Tracking System

Country Status (1)

Country Link
KR (1) KR102621875B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102270858B1 (en) 2021-04-08 2021-06-29 주식회사 코앨 CCTV Camera System for Tracking Object
KR20230061846A (en) 2021-10-29 2023-05-09 충북대학교 산학협력단 Method for tracking object and apparatus for executing the method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101679597B1 (en) * 2014-04-11 2016-12-06 렉스젠(주) System for managing objects and method thereof

Also Published As

Publication number Publication date
KR20170127318A (en) 2017-11-21

Similar Documents

Publication Publication Date Title
US10181197B2 (en) Tracking assistance device, tracking assistance system, and tracking assistance method
US11343575B2 (en) Image processing system, image processing method, and program
US9870684B2 (en) Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
RU2702160C2 (en) Tracking support apparatus, tracking support system, and tracking support method
US8289390B2 (en) Method and apparatus for total situational awareness and monitoring
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
WO2016147644A1 (en) Image processing apparatus, image processing system, method for image processing, and computer program
US20220141425A1 (en) Target Tracking in a Multi-Camera Surveillance System
US9589192B2 (en) Information processing system, information processing method, and program
US20210014451A1 (en) Video processing system
US9984300B2 (en) Image processing system, image processing method, and program
US20230353711A1 (en) Image processing system, image processing method, and program
US20200097501A1 (en) Information processing system, method for controlling information processing system, and storage medium
US9396538B2 (en) Image processing system, image processing method, and program
US20110150272A1 (en) Systems and methods of tracking object paths
KR102621875B1 (en) Object Tracking System
US10740623B2 (en) Representative image generation device and representative image generation method
KR102103858B1 (en) Next generation naval panoramic synchronous display apparatus with target fusion function for infra-red search and track and multi-functional radar targeted video
Costache et al. Efficient video monitoring of areas of interest
US11785342B2 (en) Method of activating an object-specific action
US20210287503A1 (en) Video analysis system and video analysis method
US20230215015A1 (en) Tracking device, tracking method, and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
E801 Decision on dismissal of amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant