KR101700651B1 - Apparatus for tracking object using common route date based on position information - Google Patents

Apparatus for tracking object using common route date based on position information Download PDF

Info

Publication number
KR101700651B1
KR101700651B1 KR1020160094662A KR20160094662A KR101700651B1 KR 101700651 B1 KR101700651 B1 KR 101700651B1 KR 1020160094662 A KR1020160094662 A KR 1020160094662A KR 20160094662 A KR20160094662 A KR 20160094662A KR 101700651 B1 KR101700651 B1 KR 101700651B1
Authority
KR
South Korea
Prior art keywords
data
path data
image data
shared
unit
Prior art date
Application number
KR1020160094662A
Other languages
Korean (ko)
Inventor
강경훈
박종래
김유식
Original Assignee
주식회사 미래엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 미래엔에스 filed Critical 주식회사 미래엔에스
Priority to KR1020160094662A priority Critical patent/KR101700651B1/en
Application granted granted Critical
Publication of KR101700651B1 publication Critical patent/KR101700651B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over

Abstract

An object tracking device using common route data based on positional information of the present invention includes: a spatial data storing unit storing spatial data including positional information of each spot; an image data receiving unit receiving image data with time information from multiple cameras of which a photographing section is set into a common photographing section common with other cameras and a unique photographing section; an object extracting unit extracting a movable object from the received image data; a route data generating unit generating the route data of the extracted movable object based on the positional information of the extracted movable object with the positional information corresponding to the photographing section; a selecting unit determining a coincidence of some routes by comparing the generated route data and selecting the common route data which is the route data that some routes coincide with each other; and a main control unit tracking a route of the movable object based on the common route data. The purpose of the present invention is to provide the device capable of accurately tracking the route where the object moves.

Description

위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치{APPARATUS FOR TRACKING OBJECT USING COMMON ROUTE DATE BASED ON POSITION INFORMATION}Field of the Invention < RTI ID = 0.0 > [0001] < / RTI &

본 발명은 이동하는 객체 등을 트래킹하는 장치에 관한 것으로서, 더욱 구체적으로는 복수 개 카메라의 공통촬영영역에서 생성되는 경로 데이터 사이의 일치성 여부를 이용하여 객체의 연속적인 경로데이터를 생성하고 연속된 경로데이터에 해당하는 영상데이터를 시계열적으로 표출시키는 방법 등을 통하여 추적 대상이 되는 객체를 더욱 효과적으로 트래킹하는 장치에 관한 것이다. The present invention relates to an apparatus for tracking moving objects and the like. More particularly, the present invention relates to an apparatus for generating continuous path data of an object by using correspondence between path data generated in a common shooting region of a plurality of cameras, And more particularly, to an apparatus for tracking an object to be tracked more effectively through a method of displaying image data corresponding to path data in a time-series manner.

범죄 예방, 안전사고 방지, 재난 감지, 주차, 교통 상황(이하 이벤트 등이라고 지칭한다) 모니터링 등의 다양한 목적을 실현하기 위하여 실내외를 불문하고 광범위한 영역에서 CCTV 및 관련 시스템 내지 장치가 구축되어 있으며 이러한 시스템은 다양한 사회적 필요성 등에 의하여 점진적으로 증가하는 추세라고 할 수 있다.In order to realize various purposes such as prevention of crime, safety accident prevention, disaster detection, parking, traffic situation (hereinafter referred to as event) monitoring, CCTV and related systems or devices are constructed in a wide range, Is gradually increasing due to various social needs.

이러한 CCTV 및 관련 시스템은 다양한 방법으로 이용되고 있는데, 통상적으로 특정 영역의 다수 위치에 CCTV를 설치하고, 이들 복수 개의 CCTV로부터 촬영되는 영상 데이터를 관제를 위한 화면표시수단에 출력하고 관제자가 이를 시청하면서 특정 이벤트 등을 모니터링하는 방법이 주로 이용된다. Such CCTV and related systems are used in various ways. Normally, CCTVs are installed in a plurality of locations in a specific area, and image data shot from the plurality of CCTVs is output to a screen display unit for monitoring. A method of monitoring a specific event or the like is mainly used.

이러한 관제 시스템은 현재 시점에서의 이벤트를 모니터링하기 위하여 이용됨은 물론, 사고 발생 사후에 사고 발생에 대한 증거, 상황 등을 확보하기 위한 증거채집 등의 수단으로도 광범위하게 사용되고 있다.Such a control system is used not only for monitoring events at the present time but also for collecting evidence in order to secure evidences and situations of accidents after the occurrence of accidents.

그러나 종래 방법에 의하는 경우 특정 이벤트가 발생되거나 또는 추적 대상/객체가 발견된 위치 및 시점이 정확하게 알려진 경우에는 NVR 등을 통하여 저장된 영상을 이용하여 해당 이벤트의 증거 등을 상대적으로 용이하게 확보할 수 있다고 할 수 있으나, 이벤트 등의 발생(발견) 위치 또는 시점이 정확하게 알려져 있지 않는 경우에는 추정된 시간 구간과 영역에 존재하는 모든 CCTV의 저장 영상을 일일이 하나씩 확인하는 인적(人的) 의존적 방법을 수행해야만 하는 문제점이 있다고 할 수 있다. However, according to the conventional method, when a specific event is generated or a location and a time point at which a tracking object / object is found are known accurately, it is possible to relatively easily acquire evidence of the event using the stored image through the NVR However, if the occurrence (discovery) location or time of the event is not known accurately, a human-dependent method of confirming the stored images of all the CCTVs existing in the estimated time interval and area is performed one by one There is a problem that must be done.

또한, 특정 CCTV의 영상에서 추적대상이나 객체를 확인하였다고 하더라도 해당 영상 데이터를 생성하는 CCTV의 촬영영역은 반드시 제한되어 있으므로 추적 대상이나 객체의 향후 행방이나 이동 등을 후속적으로 확인하기 위해서는 주변 CCTV 영상을 다시 일일이 확인하여 추적 대상(객체)의 다음 이동 경로를 확인하여야 하며 나아가 이러한 작업은 특정 CCTV 영상에서 추적 대상이나 객체가 확인 내지 발견될 때마다 계속적으로 반복되어야 한다.In addition, even if a CCTV image is checked for tracking objects or objects, the capturing area of the CCTV that generates the corresponding image data is limited. Therefore, in order to confirm the future location or movement of the CCTV object, (Object), and furthermore, such a task must be continuously repeated every time a tracking object or an object is confirmed or found in a specific CCTV image.

그러므로 종래 방법의 의하는 경우 추적 대상(객체)의 움직임을 지속적으로 트래킹하기 위해서는 상당한 시간과 노력이 투여되어야 하고 이러한 작업을 광범위하게 수행한다고 하여도 종래 방법은 전적으로 인적 의존적 방법에 의하는 것이며 저장된 각 영상들을 하나씩 개별적으로 확인하여야 하는 것이므로 정밀성과 정확성 등의 효율이 상당히 낮다고 할 수 있다.Therefore, according to the conventional method, a considerable amount of time and effort must be applied to continuously track the movement of the object to be tracked (object), and even if such an operation is widely performed, the conventional method is entirely based on a human- Since the images must be individually checked one by one, the efficiency such as precision and accuracy is considerably low.

관련하여 종래 기술에는 영상 분석을 통하여 객체의 특징점을 정확히 식별하고 식별된 정보를 이용하여 객체의 이동 등을 추적하는 방법 내지 장치도 개시되어 있으나, 이러한 방법의 경우 객체의 정확한 특징점을 추출할 정도의 정밀한 프로세싱이 수행되어야 함은 물론, 객체의 형태, 형상 등에 변화가 생기는 경우 연속적인 객체 추적이 불가능해지므로 상당히 제한적인 범위에서만 사용될 수 있을 뿐, 범용적이고 객관적인 객체의 트래킹은 여전히 어렵다고 할 수 있다.In the related art, there is disclosed a method or apparatus for accurately identifying feature points of an object through image analysis and tracking movement of an object using the identified information. In this method, however, In addition to precise processing, if the shape and shape of an object changes, continuous object tracking becomes impossible. Therefore, it can be used only in a limited range, and it is still difficult to track a general object object.

한국공개특허공보 10-2008-0073933호(2008.08.12)Korean Patent Publication No. 10-2008-0073933 (2008.08.12) 한국공개특허공보 10-2013-0057584호(2013.06.03)Korean Unexamined Patent Application Publication No. 10-2013-0057584 (June 03, 2013)

본 발명은 상기와 같은 배경에서 상술된 문제점을 해결하기 위하여 창안된 것으로서, 트래킹의 대상이 되는 객체의 영상 내 이동 경로를 실제 위치정보에 기반한 경로 데이터로 생성하고 이 경로 데이터의 부분적 일치성을 연속적으로 적용함으로써 특정 이동 객체의 시계열적인 전체 경로데이터를 효과적으로 생성하고, 해당 경로 데이터를 각각 포함하고 있는 영상 데이터를 정확하고 신속하게 선별하여 표출시킴으로써 객체에 대한 이동 경로를 정확하게 트래킹할 수 있는 장치를 제공하는 데 그 목적이 있다. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and it is an object of the present invention to provide a method and apparatus for generating a moving path in an image of an object to be tracked as path data based on actual position information, The present invention provides a device capable of accurately generating time series full path data of a specific moving object and accurately displaying the moving image data containing the corresponding path data accurately and quickly so as to accurately track the moving path to the object The purpose is to do.

본 발명의 다른 목적 및 장점들은 아래의 설명에 의하여 이해될 수 있으며, 본 발명의 실시예에 의하여 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 그 구성의 조합에 의하여 실현될 수 있다.Other objects and advantages of the present invention will become apparent from the following description, and it will be apparent from the description of the embodiments of the present invention. Further, the objects and advantages of the present invention can be realized by a combination of the constitution shown in the claims and the constitution thereof.

상기 목적을 달성하기 위한 본 발명의 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치는 각 지점의 위치정보를 포함하는 공간데이터를 저장하는 공간데이터저장부; 촬영영역이, 인접한 다른 카메라와 공통된 공통촬영영역과 자신의 고유촬영영역으로 설정된 복수의 카메라로부터 시간정보와 함께 영상데이터를 수신하는 영상데이터수신부; 상기 수신된 영상데이터에서 이동객체를 추출하는 객체추출부; 상기 촬영영역에 대응되는 위치정보와 상기 추출된 이동객체의 위치정보를 이용하여 상기 추출된 이동객체의 경로데이터를 생성하는 경로데이터생성부; 상기 생성된 경로데이터들을 대비하여 일부 경로의 일치성을 판단하고, 일부 경로가 일치되는 경로데이터인 공유 경로데이터를 선별하는 선별부; 및 상기 공유 경로데이터를 이용하여 상기 이동객체의 경로를 트래킹하는 메인제어부를 포함하여 구성될 수 있다.According to an aspect of the present invention, there is provided an object tracking apparatus using shared path data based on position information, the apparatus including: a spatial data storage unit for storing spatial data including positional information of each point; An image data receiving unit for receiving image data together with time information from a plurality of cameras set as a common photographing area common to other adjacent cameras and their own photographing area; An object extraction unit for extracting a moving object from the received image data; A path data generation unit for generating path data of the extracted moving object by using position information corresponding to the shooting region and position information of the extracted moving object; A sorting unit for determining correspondence of some paths by comparing the generated path data and sorting shared path data that is path data with some paths matched; And a main control unit for tracking the path of the moving object using the shared path data.

여기에서 본 발명의 상기 메인제어부는 상기 공유 경로데이터에 해당하는 영상데이터를 출력하되, 각 영상데이터가 생성된 시간의 순서에 따라 영상데이터를 출력하도록 구성될 수 있다.Here, the main control unit of the present invention may be configured to output image data corresponding to the shared path data, and to output image data according to the order in which each image data is generated.

또한, 본 발명은 중첩된 촬영영역을 공유하는 카메라에 대한 정보인 공유정보를 저장하는 공유정보저장부를 더 포함할 수 있으며 이 경우 상기 본 발명의 선별부는 상기 공유정보를 이용하여 공유 경로데이터를 선별하도록 구성하는 것이 바람직하다.In addition, the present invention may further include a shared information storage unit for storing shared information, which is information on a camera sharing the overlapping shooting area. In this case, the selector of the present invention selects the shared path data using the shared information .

더욱 바람직한 실시형태의 구현을 위하여 본 발명의 상기 메인제어부는 상기 공유 경로데이터를 이용하여 상기 이동객체의 전체 경로데이터를 생성하도록 구성될 수 있으며, 이 경우 본 발명은 상기 전체 경로데이터에 대응하는 공간데이터를 추출하고, 추출된 공간데이터에 상기 전체 경로데이터를 중첩하여 화면표시수단으로 표출하는 모델링부를 더 포함하여 구성될 수 있다.The main control unit of the present invention may be configured to generate the full path data of the moving object using the shared path data. In this case, And a modeling unit for extracting the data, superimposing the whole path data on the extracted spatial data, and displaying the same on the screen display means.

또한, 본 발명은 상기 전체 경로데이터를 구성하는 각 경로데이터가 포함된 영상 데이터를 시간의 순서에 따라 통합시킨 통합영상데이터를 생성하는 통합영상부를 더 포함할 수 있다.In addition, the present invention may further include an integrated image unit for generating integrated image data in which image data including each path data constituting the entire path data is integrated according to the order of time.

바람직하게, 본 발명의 상기 경로데이터생성부는 상기 객체추출부가 상기 수신된 영상데이터에서 복수 개 이동객체를 추출하는 경우 상기 추출된 복수 개 이동객체마다 독립된 경로데이터를 생성하도록 구성할 수 있으며, 이 경우 본 발명의 상기 선별부는 상기 복수 개의 이동객체 중 사용자로부터 선택된 이동객체 또는 특정 위치정보에 대응되는 이동객체의 경로데이터를 이용하여 상기 공유 경로데이터를 선별하도록 구성될 수 있다.Preferably, when the object extracting unit extracts a plurality of moving objects from the received image data, the path data generating unit of the present invention may be configured to generate independent path data for each of the extracted plurality of moving objects. In this case, The selector of the present invention may be configured to select the shared path data using path data of a moving object selected from a user or a moving object corresponding to specific location information among the plurality of moving objects.

본 발명의 객체 트래팅 장치에 의하는 경우, 위치 정보 등의 공간모델 데이터를 카메라가 촬영하는 영상과 매칭시켜 카메라에서 촬영되는 영상 내 객체의 이동 경로 데이터를 용이하게 생성하고 이와 같이 생성된 이동 경로 데이터의 부분적 일치성을 시계열적으로 연결시킴으로써, 추적 대상이 되는 객체의 전체적인 경로를 정확하게 트래킹할 수 있는 효과를 창출할 수 있다.In the object tracking apparatus of the present invention, spatial model data such as position information is matched with an image captured by a camera to easily generate movement path data of an object in an image captured by the camera, By connecting the partial correspondence of the data in a time series manner, it is possible to create an effect of accurately tracking the entire path of the object to be tracked.

또한, 본 발명의 다른 바람직한 실시예에 의할 때, 추적 대상이 되는 객체의 전체 이동 경로데이터의 부분들을 각각 포함하고 있는 영상 데이터를 시계열적으로 통합시킬 수 있어 객체의 전체적인 이동 경로 등을 연속적인 영상 데이터를 통하여 쉽고 정확하게 확인할 수 있는 효과를 제공할 수 있다.According to another preferred embodiment of the present invention, the image data including the parts of the entire movement path data of the object to be tracked can be integrated in a time series manner, It is possible to provide an effect that can be easily and accurately confirmed through the image data.

나아가 본 발명의 또 다른 바람직한 실시예에 의할 때, 객체의 전체적인 이동 경로를 공간 모델 데이터와 중첩하여 표출시킴으로써 사용자 인지성 등을 더욱 효과적으로 향상시킬 수 있다.Furthermore, according to another preferred embodiment of the present invention, the overall movement path of the object is superimposed and displayed with the spatial model data, thereby improving the user's perception and the like more effectively.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술 사상을 더욱 효과적으로 이해시키는 역할을 하는 것이므로, 본 발명은 이러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 바람직한 일 실시예에 의한 트래킹 장치 및 주변 구성을 전반적으로 도시한 도면,
도 2는 본 발명의 바람직한 일 실시예에 의한 트래킹 장치의 상세 구성을 도시한 블록도,
도 3은 카메라의 촬영 영역과 위치 정보를 정합시키는 과정 등에 대한 본 발명의 일 실시예를 도시한 흐름도,
도 4는 공통 촬영영역과 고유 촬영영역으로 구분되는 카메라의 촬영 영역에 대한 본 발명의 일 실시예를 도시한 도면,
도 5는 본 발명의 바람직한 일 실시예에 의하여 객체를 트래킹하는 프로세싱 과정을 도시한 흐름도,
도 6은 공유 경로데이터를 이용하여 객체의 전체 경로데이터를 생성하는 일 실시예와 영상 데이터를 시계열적으로 표출하는 일 실시예를 도시한 도면,
도 7은 객체를 트래킹하기 위하여 영상 데이터를 각 시간대별로 구성하는 본 발명의 일 실시예를 도시한 도면,
도 8은 객체의 트래킹 정보를 공간 모델 데이터와 함께 통합적으로 표출하는 본 발명의 일 실시예를 도시한 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the detailed description of the invention given below, serve to better understand the technical idea of the invention, And shall not be construed as limited to such matters.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram generally showing a tracking apparatus and a peripheral structure according to a preferred embodiment of the present invention;
2 is a block diagram showing a detailed configuration of a tracking apparatus according to a preferred embodiment of the present invention.
FIG. 3 is a flow chart illustrating an embodiment of the present invention, such as a process of matching a photographing area of a camera with position information,
4 illustrates an embodiment of the present invention for an imaging region of a camera that is divided into a common imaging region and a unique imaging region,
FIG. 5 is a flowchart illustrating a process of tracking an object according to an exemplary embodiment of the present invention. FIG.
6 is a view illustrating an embodiment of generating overall path data of an object using shared path data and an embodiment of displaying image data in a time series manner,
FIG. 7 illustrates an embodiment of the present invention in which image data is configured for each time zone in order to track objects;
8 is a diagram showing an embodiment of the present invention for integrally expressing tracking information of an object together with spatial model data.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

도 1은 본 발명의 바람직한 일 실시예에 의한 위치정보 기반의 공유 경로 데이터를 이용한 객체 트래킹 장치(이하 ‘트래킹 장치’라 지칭한다)(100) 및 주변 관련 구성을 전반적으로 도시한 도면이다.FIG. 1 is a diagram generally showing an object tracking apparatus (hereinafter referred to as a 'tracking apparatus') 100 using a location information-based shared path data according to a preferred embodiment of the present invention and its surrounding related configuration.

본 발명의 트래킹 장치(100)는 도 1에 도시된 바와 같이 실내, 실외 등에 설치되는 하나 이상의 카메라(CCTV)(200)와 네트워크(5)을 통하여 통신 가능하게 연결된다. As shown in FIG. 1, the tracking apparatus 100 of the present invention is communicably connected to at least one camera (CCTV) 200 installed indoors, outdoors, etc. through a network 5.

본 발명의 트래킹 장치(100)는 실시형태에 따라서 스마트 단말, 피씨(PC)(100-2, ... ,100-n) 등에 탑재되는 형태로 구현될 수 있음은 물론, 도 1에 도시된 바와 같이 서버(100-1)를 구성하는 단말 장치로 구현될 수도 있다. 또한, 실시형태에 따라 피씨 또는 관제 서버를 구성하는 단말 장치는 복수 개의 스크린으로 논리적 또는 물리적으로 구분될 수 있는 월디스플레이(Wall display)(110) 또는 화면표출 및 사용자 인터페이싱을 위한 화면표시수단(105)과 연동되도록 구성될 수 있다.The tracking apparatus 100 of the present invention can be implemented in a form mounted on a smart terminal, a PC (PC) 100-2, ..., 100-n, etc. according to an embodiment, Or may be implemented as a terminal device constituting the server 100-1 as shown in FIG. In addition, according to the embodiment, a terminal device constituting a PC or a control server may include a wall display 110 that can be logically or physically divided into a plurality of screens, or a screen display means 105 for screen display and user interfacing As shown in FIG.

본 발명은 후술되는 바와 같이 실내 공간은 물론, 특정 지역, 영역, 공간, 지도 전체를 대상으로 2D 또는 3D 형태로 객체를 렌더링한 공간 모델 데이터를 이용할 수 있는데, 이러한 공간 모델 데이터는 POI에 대한 특성정보, 특정 위치들의 절대적 좌표 정보는 물론, 다양한 지리적 특성을 표상하는 파라미터들로 구성되는 GIS와 결합될 수 있다.As will be described later, the present invention can utilize spatial model data obtained by rendering an object in a 2D or 3D form for a specific area, a specific area, an area, a space, and an entire map as well as an indoor space. Information, absolute coordinate information of specific locations, as well as parameters representing various geographical characteristics.

공간 모델 데이터는 전체 또는 필요한 공간 영역만의 데이터로 트래킹 장치(100) 자체의 저장 매체에 저장될 수도 있으나, 공간 모델 데이터의 저장, 액세스, 데이터 전송 등의 효율성을 향상시키기 위하여 본 발명의 트래킹 장치(100)에서 이용되는 특정 영역에 해당하는 공간 모델 데이터만 선별적으로 데이터 서버(300)로부터 전송받아 이용하도록 구성될 수도 있다. 이를 위하여 공간 모델 데이터의 전부 또는 일부는 상기 데이터 서버(300)에 저장될 수 있다. The spatial model data may be stored in the storage medium of the tracking apparatus 100 itself as data of the whole or necessary space area. However, in order to improve efficiency of storage, access, data transmission, etc. of spatial model data, Only the spatial model data corresponding to the specific region used in the server 100 may be selectively received from the data server 300 and used. To this end, all or some of the spatial model data may be stored in the data server 300.

상기 네트워크(5)는 본 발명의 트래킹 장치(100)와 인접한 다른 구성(200, 300) 사이의 데이터 통신이 가능하도록 하는 통신망으로서 데이터 전송이 가능하다면 유선, 무선 등을 구분하지 않으며, LAN, CDMA, WCDMA, LTE, Bluetooth, WiFi 등 다양한 프로토콜과 방식으로 구현될 수 있음은 물론이다. The network 5 is a communication network that enables data communication between the tracking apparatus 100 of the present invention and other adjacent configurations 200 and 300. If data can be transmitted, the network 5 does not distinguish between wired and wireless, , WCDMA, LTE, Bluetooth, WiFi, and the like.

이하에서는 첨부된 도면 등을 참조하여 본 발명에 의한 트래킹 장치(100)의 구체적인 구성과 프로세싱에 대하여 상세히 설명하도록 한다.Hereinafter, the detailed configuration and processing of the tracking apparatus 100 according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 일 실시예에 의한 트래킹 장치(100)의 상세 구성을 도시한 블록도이다. 도 2에 도시된 바와 같이 본 발명의 트래킹 장치(100)는 공간데이터저장부(110), 영상데이터수신부(120), 객체추출부(130), 경로데이터생성부(140), 선별부(150), 메인제어부(160), 공유정보저장부(170), 모델링부(180) 및 통합영상부(190)를 포함하여 구성될 수 있다.2 is a block diagram showing a detailed configuration of a tracking apparatus 100 according to a preferred embodiment of the present invention. 2, the tracking apparatus 100 of the present invention includes a spatial data storage unit 110, a video data receiving unit 120, an object extracting unit 130, a path data generating unit 140, a sorting unit 150 A main control unit 160, a shared information storage unit 170, a modeling unit 180, and an integrated video unit 190.

본 발명의 상세한 설명에 앞서, 도 2에 도시된 본 발명에 의한 트래킹 장치(100)의 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 이해되어야 한다.Prior to the description of the present invention, each component of the inventive tracking apparatus 100 shown in FIG. 2 should be understood as a logically distinct component rather than as a physically distinct component.

즉, 각각의 구성은 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 구성되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.That is, since each constitution corresponds to a logical constituent element for realizing the technical idea of the present invention, even if each constituent element is constituted integrally or separately, if the function performed by the logical constitution of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.

본 발명의 각 구성에 대한 상세한 설명과 함께 카메라의 촬영영역과 위치 정보를 정합시키는 선 처리 프로세싱을 도 3 및 도 4를 참조하여 설명하면 다음과 같다.3 and 4, the line processing processing for matching the photographing area and the positional information of the camera together with the detailed description of each configuration of the present invention will be described below.

본 발명에 의한 트래킹 장치(100)의 공간데이터저장부(110)에는 각 실내 또는 실외 지점의 위치 정보를 비롯하여 POI(Point of Interest)정보, 다양한 특성정보와 건물, POI, 공간 또는 지도 전체를 대상으로 2D 또는 3D 형태로 객체를 렌더링(rendering)한 공간 모델 데이터 등에 대한 공간데이터가 저장된다(도 3의 S310).In the spatial data storage unit 110 of the tracking apparatus 100 according to the present invention, the POI (point of interest) information, various characteristic information, buildings, POIs, Spatial data for spatial model data or the like rendered by the 2D or 3D object is stored (S310 in FIG. 3).

또한, 이 공간데이터저장부(110)에는 각 카메라가 설치된 위치정보, 해당 카메라의 특성정보(PTZ, 화각, 초점 정보 등) 등과 같은 카메라 정보가 저장(S320)될 수 있다.In this spatial data storage unit 110, camera information such as position information on each camera, characteristic information of the corresponding camera (PTZ, angle of view, focus information, etc.) may be stored (S320).

후술되어 상세히 설명되는 바와 같이 본 발명은 특정 카메라가 생성하는 영상 데이터로부터 객체의 경로 데이터를 추출하고, 추출된 경로 데이터들 상호 간의 부분적 일치성 등을 이용하여 객체의 연속된 경로 데이터를 생성하고 이를 기반으로 객체를 트래킹하는 방법을 채용하고 있다.As described in detail below, the present invention extracts path data of an object from image data generated by a specific camera, generates consecutive path data of the object using partial agreement between the extracted path data, Based object tracking method.

이를 위하여 카메라(200)들은 각각의 촬영영역을 가지되, 다른 카메라(200)(인접한 위치에 설치된 카메라 등)와 촬영영역이 공통되는 공통촬영영역과 자신에게만 해당하는 독립된 고유 촬영영역으로 이루어진다.For this purpose, the cameras 200 have respective shooting regions, and are composed of a common shooting region common to the other cameras 200 (cameras installed at adjacent positions) and the shooting region, and an independent unique shooting region corresponding only to the shooting regions.

예를 들어, 도 4에 도시된 바와 같이, 각각의 카메라는 아래 표와 같은 촬영영역을 가지도록 설정될 수 있다(도 3의 S330).For example, as shown in FIG. 4, each camera may be set to have an imaging area as shown in the following table (S330 in FIG. 3).

Figure 112016072496379-pat00001
Figure 112016072496379-pat00001

도 4 및 상기 표 1에서 예시된 바와 같이 각 카메라는 자신에게만 해당하는 고유촬영영역과 다른 카메라와 함께 공통으로 설정된 공통 촬영영역을 가지도록 설정된다. As shown in Fig. 4 and Table 1, each camera is set to have a unique shooting region corresponding only to itself and a common shooting region commonly set with other cameras.

상기 예시에서 ‘A’ 기호는 고유촬영영역을, ‘B’ 기호는 공통촬영영역을 의미하며, ‘S’는 촬영영역을, ‘S’ 뒤의 숫자는 카메라의 번호를 의미한다. 예를 들어, S12_B는 1번 카메라(CCTV)와 2번 카메라(CCTV)가 함께 공유하는 공통 촬영영역을 의미하며, S1은 1번 카메라의 촬영영역을 의미한다. In the above example, 'A' symbol means the unique shooting region, 'B' means the common shooting region, 'S' means the shooting region, and 'S' means the camera number. For example, S12_B denotes a common shooting area shared by the first camera (CCTV) and the second camera (CCTV), and S1 denotes a shooting area of the first camera.

이와 같이 각 카메라마다 촬영영역이 설정되면, 상술된 카메라 정보(카메라의 특성정보)와 공간데이터 상호 간의 매칭 프로세싱을 통하여, 해당 카메라의 촬영영역에 대한 위치 정보를 생성(S340)하고 이에 대한 정보를 공간데이터저장부(110) 등에 저장한다.  When an imaging area is set for each camera, the position information for the imaging area of the camera is generated through matching processing between the camera information (camera characteristic information) and the spatial data (S340) The spatial data storage unit 110 or the like.

촬영영역에 대한 위치정보는 촬영 영역의 아웃라인에 대한 위치정보는 물론, 상기 촬영영역에 해당하는 각 픽셀들의 위치정보 등으로 이루어질 수 있으며, 각 픽셀들의 위치정보는 특정 픽셀의 위치정보를 보간법(interpolation) 등의 수학적 함수 관계를 통하여 연산/산출되는 방법으로 생성되어 저장될 수 있다. The position information on the photographing area may include not only the position information on the outline of the photographing area but also the position information of each pixel corresponding to the photographing area. interpolation), or the like, through a mathematical function relation.

본 발명의 설명에 있어 공통촬영영역을 가지는 카메라들의 페어(pair) 정보를 공유정보라고 지칭하는데, 이 공유정보는 본 발명의 공유정보저장부(170)에 저장(S350)된다. 공유정보저장부(170)에 저장되는 공유정보의 예는 아래와 같다. In the description of the present invention, pair information of cameras having a common photographing area is referred to as shared information, which is stored (S350) in the shared information storage unit 170 of the present invention. Examples of the shared information stored in the shared information storage unit 170 are as follows.

Figure 112016072496379-pat00002
Figure 112016072496379-pat00002

후술되는 바와 같이 본 발명은 특정한 복수 개의 카메라 즉, 특정한 복수 개 카메라에서 촬영된 영상데이터에서 경로 데이터가 부분 일치되는지 여부를 판단하는 프로세싱을 수행하는데, 상기와 같은 공유정보를 활용하는 경우 부분 일치의 판단을 위하여 대비되는 경로 데이터를, 공유정보를 가지는 카메라에서 생성된 경로 데이터들로 한정할 수 있어 경로 데이터의 부분일치 여부의 판단을 더욱 신속하고 정확하게 수행할 수 있게 된다. As will be described later, the present invention performs processing for determining whether or not path data is partially matched in a specific plurality of cameras, that is, image data shot by a specific plurality of cameras. In the case of utilizing the shared information as described above, It is possible to limit the path data for comparison to the path data generated by the camera having the shared information, so that it is possible to more quickly and accurately determine whether or not the path data is partially matched.

촬영영역에 대한 위치정보를 생성하고 저장하는 프로세싱 등은 카메라의 특성 정보(PTZ 등)가 변경되는 경우 이에 적응적으로 연산되어 다시 수행될 수 있음은 물론이며, 상술된 프로세싱에 의하여 생성되는 정보(촬영영역의 위치정보, 공유정보 등)는 이에 따라 갱신 저장될 수 있다. The processing for generating and storing positional information on the photographing region can be adaptively calculated and re-performed when the characteristic information (PTZ, etc.) of the camera is changed, and the information generated by the above-described processing Location information of the shooting area, shared information, etc.) can be updated and stored accordingly.

이와 같은 전처리 프로세싱이 완료되면, 본 발명의 영상데이터수신부(120)는 복수 개 카메라(200)로부터 해당 카메라가 촬영한 영상데이터를 수신한다(S510). 영상데이터는 통상적으로 비디오(video)기반의 동영상 데이터일 수 있으며 영상이 생성되는 시간 정보와 함께 생성되며 본 발명의 영상데이터수신부(120)는 복수 개의 카메라로부터 영상생성의 시간 내지 시간 구간에 대한 정보인 시간 정보와 함께 영상데이터를 수신한다.When the preprocessing processing is completed, the image data receiving unit 120 receives the image data taken by the camera from the plurality of cameras 200 (S510). The image data may be video-based moving image data, and may be generated together with time information on which the image is generated. The image data receiving unit 120 of the present invention may receive information on a time or a time interval of image generation from a plurality of cameras, And receives image data together with time information.

영상데이터가 수신되면 본 발명의 객체추출부(130)는 수신된 영상데이터에서 이동객체를 추출하고 이동객체에 대한 정보를 생성한다(S520).When the image data is received, the object extracting unit 130 extracts the moving object from the received image data and generates information about the moving object in operation S520.

이동객체를 추출하는 방법은 영상데이터를 구성하는 각 픽셀들의 필셀값(RGB, YCbCr 등) 변화와 이 변화들의 연속된 움직임을 통하여 객체를 추출하는 방법을 비롯하여, 라벨링 기법을 이용한 엣지(outline) 검출 및 대응되는 엣지의 연속 검출을 통한 객체 추출법 등 다양한 방법 등이 적용될 수 있다.A method of extracting a moving object includes a method of extracting an object through a change in the fill cell value (RGB, YCbCr, etc.) of each pixel constituting the image data and a continuous movement of the change, an outline detection using a labeling technique And an object extraction method through continuous detection of a corresponding edge can be applied.

본 발명은, 후술되는 바와 같이 이동객체의 경로 데이터의 일치성을 대비하여 이동객체를 트래킹하는 방법에 관한 것이므로 예를 들어 이동객체가 사람인 경우 해당 이동객체(사람)을 구분 내지 식별할 정도의 정밀한 영상 분석을 수행하지 않아도 되며 해당 이동객체의 이동 내지 움직임을 포착하는 정도의 영상 분석이 수행되어도 무방하므로 객체 추출에 대한 연산 시간을 단축시킬 수 있음은 물론, 더욱 범용적인 적용이 가능하게 된다.The present invention relates to a method for tracking a moving object in preparation for correspondence of path data of a moving object as described later, and therefore, for example, when a moving object is a person, It is not necessary to perform the image analysis and the image analysis to the degree of capturing the movement or movement of the moving object may be performed. Therefore, the calculation time for the object extraction can be shortened, and more general application is possible.

본 발명의 객체추출부(130)는 상기 추출된 이동객체의 시계열적인 움직임에 대응되는 경로데이터를 생성하는데, 앞서 기술된 바와 같이 전처리 프로세싱을 통하여 카메라의 촬영영역에 대응되는 위치정보가 DB화되어 있으므로 이 촬영영역에 대응되는 위치정보와 상기 추출된 이동객체의 영상데이터 내 이동 정보 내지 영상 내 위치정보를 이용하여 실제 위치정보에 기반하여 이동객체의 시간에 따른 경로데이터를 생성한다(S530).The object extraction unit 130 of the present invention generates path data corresponding to the time series movement of the extracted moving object. As described above, the position information corresponding to the shooting region of the camera is converted into a DB through the preprocessing processing In operation S530, path data according to time of the moving object is generated based on the actual location information using the location information corresponding to the photographing area and the moving information or the in-image location information of the extracted moving object.

도 6의 상단에는 이와 같은 방법에 의하여 생성된 경로데이터를 예시하고 있다. 도 6의 상단에 도시된 예는 #1 카메라에서 생성된 영상데이터를 이용하여 t0~t2까지 이동객체에 대하여 생성된 경로데이터, #2 카메라에서 생성된 영상데이터를 이용하여 t1~t4까지 이동객체에 대하여 생성된 경로데이터 및 #3 카메라에서 생성된 영상데이터를 이용하여 t3~t4까지 이동객체에 대하여 생성된 경로데이터에 해당한다.At the upper part of FIG. 6, path data generated by such a method is illustrated. The example shown at the top of FIG. 6 uses the image data generated by the # 1 camera to generate path data for the moving object from t0 to t2 and image data generated by the # 2 camera, And the image data generated by the camera # 3 corresponds to the path data generated for the moving object from t3 to t4.

앞서 설명된 바와 같이 본 발명에서는 각 카메라의 촬영영역이 다른 카메라와 중첩된 영역을 보유하고 있고 이 중첩 촬영영역에서는 복수 개 카메라에 의하여 상호 대응되는 영상(이동하는 객체가 공통으로 포함된 영상)이 촬영될 것이므로 이 중첩촬영영역에서 생성되는 이동객체의 경로데이터는 위치정보 상의 일치성 내지 대응성을 가지게 된다.As described above, in the present invention, the shooting regions of the respective cameras have regions overlapping with other cameras, and in the overlap shooting region, images (images in which moving objects are commonly included) corresponding to each other by a plurality of cameras The path data of the moving object generated in the superimposing area has correspondence and correspondence in position information.

본 발명의 선별부(150)는 이러한 특징을 이용하여 상기 생성된 경로데이터들(S540)을 대비하여 2개 또는 그 이상의 경로데이터에서 일부 경로 내지 경로의 부분적 일치성 여부를 판단한다(S550). 이 때 앞서 설명된 바와 같이 공유정보(공통 촬영영역을 가지는 카메라에 대한 정보)를 이용(S545)하여 일부 경로 내지 경로의 부분적 일치성 여부를 판단하는 프로세싱이 더욱 신속하고 정확하게 이루어지도록 구성하는 것이 바람직하다.In operation S550, the selector 150 of the present invention determines whether partial path or path is partially coincident with two or more path data by comparing the generated path data S540 using this feature. At this time, it is preferable to configure the processing to judge the partial consistency of some path or path more quickly and accurately using the shared information (information about the camera having the common photographing area) (S545) Do.

이와 같은 방법을 통하여 본 발명의 선별부(150)는 복수 개 경로데이터들에서 일부 경로가 일치되는 경로데이터인 공유 경로데이터를 선별한다(S560). 본 발명의 설명에서 ‘공유 경로데이터’는 이와 같이 상호 부분적으로 일치 내지 대응되는 경로 데이터를 포함하는 경로데이터를 지칭한다.Through the above-described method, the selector 150 of the present invention selects shared path data that is path data in which some paths are matched in a plurality of path data (S560). In the description of the present invention, 'shared path data' refers to path data including path data that partially coincide or correspond to each other.

도 6에 예시된 예를 참조하여 설명하면, t1~t2 구간에서는 #1카메라의 영상데이터에서 생성된 경로데이터와 #2카메라의 영상데이터에서 생성된 경로데이터가 상호 일치 내지 대응되며, t3~t4 구간에서는 #2카메라의 영상데이터에서 생성된 경로데이터와 #3카메라의 영상데이터에서 생성된 경로데이터가 상호 일치된다.6, the path data generated from the image data of the camera # 1 and the path data generated from the image data of the camera # 2 coincide or correspond to each other in the period from t1 to t2, and t3 to t4 The path data generated from the image data of the # 2 camera and the path data generated from the image data of the # 3 camera coincide with each other.

그러므로 본 발명의 선별부(150)는 #1카메라의 영상데이터에서 생성된 경로데이터와 #2카메라의 영상데이터에서 생성된 경로데이터를 t1~t2구간에서의 공유 경로데이터로 선별하고, t3~t4구간에서의 공유 경로데이터로, #2카메라의 영상데이터에서 생성된 경로데이터와 #3카메라의 영상데이터에서 생성된 경로데이터를 선별한다.Therefore, the selector 150 of the present invention selects the path data generated from the image data of the # 1 camera and the image data of the camera # 2 as the shared path data in the interval of t1 to t2, Path data generated from the image data of the # 2 camera and the path data generated from the image data of the # 3 camera are selected as the shared path data in the interval.

이와 같이 각 시간대별 공유 경로데이터가 생성되면 각 공유 경로데이터는 시간의 순서에 의하여 생성되어 있으며 부분적 시간대에서 중첩된 영상을 생성하고 있으므로 본 발명의 메인제어부(160)는 이들 공유 경로데이터를 시계열적으로 연속시킴으로써 특정 이동객체에 대한 이동경로를 트래킹한다(S570). 도 6 가운데 부분에 도시된 전체경로데이터는 이와 같이 각 공유경로데이터를 시계열적으로 연속시켜 생성된 예에 해당한다.When the shared path data for each time slot is generated, the shared path data is generated according to the order of time, and since the overlapped image is generated in the partial time slot, the main control unit 160 of the present invention generates the shared path data To track the movement path for the specific moving object (S570). The entire path data shown in the middle part of FIG. 6 corresponds to an example in which each shared path data is generated in a time-series manner.

본 발명의 메인제어부(160)는 이동 객체의 트래킹에 대한 시각적 인지성이 더욱 높게 구현될 수 있도록 상기 공유 경로데이터에 해당하는 각 카메라의 영상데이터를 화면표시수단(105, 110)에 표출시키되, 각 영상데이터가 생성된 시간의 순서에 따라 영상데이터가 출력되도록 제어한다.The main controller 160 of the present invention displays the image data of each camera corresponding to the shared path data on the screen display means 105 and 110 so that visual recognition of tracking of the moving object can be realized more highly, And controls the video data to be output according to the order of the time at which each video data is generated.

예를 들어, 도 6의 하단 부분에 도시된 바와 같이, t0~t1 시간 구간에는 #1 카메라가 촬영한 영상(영상 데이터)이 출력되도록 제어하고, t1~t2 시간 구간에서는 #1 또는 #2카메라가 촬영한 영상이, t2~t3 시간 구간은 #2카메라가 촬영한 영상이, t3~t4 시간 구간에서는 #2 또는 #3 카메라가 촬영한 영상이, t4~t5 시간 구간에서는 #3 카메라가 촬영한 영상이 표출되도록 제어한다.For example, as shown in the lower part of FIG. 6, control is performed so that an image (image data) captured by the # 1 camera is output during a time period from t0 to t1. In the time period from t1 to t2, The image captured by camera # 2 is captured by camera # 2, the image captured by camera # 2 or # 3 is captured by camera # 3 during interval t3 to t4, So that one image is displayed.

이와 같은 프로세싱이 수행되면 사용자(관제자 등)는 시간에 따라 다른 영상이 출력되는 영상 화면을 통하여 특정 이동객체가 시간에 따라 어떻게 이동하는지 정확하게 시각적으로 확인할 수 있게 된다.When such processing is performed, the user (supervisor, etc.) can accurately visually confirm how a specific moving object moves with time through an image screen on which different images are outputted over time.

실시형태에 따라 도 6의 최하단에 예시된 바와 같이 t0~t1 시간 구간에는 #1카메라의 영상이, t1~t2 시간 구간에는 화면분할 등을 통하여 #1 카메라의 영상과 #2카메라의 영상이 동시에 표출되도록 구성할 수 있다. 대응되는 관점에서 t3~t4 시간 구간에서는 #2카메라의 영상과 #3카메라의 영상이 동시에 출력되도록 제어할 수 있다.According to the embodiment, as exemplified at the bottom of FIG. 6, the image of the # 1 camera is displayed in the time interval t0 to t1, the image of the # 1 camera and the image of the # 2 camera are simultaneously displayed Can be configured to be displayed. From the corresponding viewpoint, it is possible to control the image of the camera # 2 and the image of the camera # 3 to be simultaneously outputted in the interval of t3 to t4.

상기 내용을 좀 더 보충하면 도 7에 도시된 바와 같이, t0~t1 시간 구간에는 특정 이동객체가 #1카메라의 영상에 포함되어 있을 것이므로 이 시간 구간에서는 #1 카메라의 영상이 출력되도록 제어하고, t1~t2 시간 구간에는 화면분할을 통하여 특정 이동객체가 모두 포함된 #1 및 #2카메라의 영상이 함께 표출되도록 구성할 수 있다.As shown in FIG. 7, since the specific moving object is included in the image of the camera # 1 during the time interval t0 to t1, the image of the camera # 1 is controlled to be output in this time interval, the images of the # 1 and # 2 cameras including all the specific moving objects may be displayed together through the screen division during the time periods t1 to t2.

또한, 이동 객체의 이동 방향성을 고려하여 화면을 좌우 또는 상하 또는 사선방향 등으로 분할할 수 있으며 나아가 이동 객체가 좌측에서 우측으로 이동하였다면 #1카메라의 영상(먼저 촬영된 영상)이 좌측 분할 화면에 표출되도록 하고, #2 카메라의 영상(후속 촬영된 영상)이 우측 분할 화면에 표출되도록 하는 것이 더욱 바람직하다. In addition, if the moving object is moved from left to right, the image of the camera # 1 (first captured image) can be divided into left and right or up and down or diagonal directions in consideration of the moving direction of the moving object. And the image of the camera # 2 (the next captured image) is displayed on the right divided screen.

즉, 이와 같이 이동객체의 이동 방향성을 고려하여 화면을 분할하고 분할된 화면에 표출되는 영상이 선택되도록 하는 것이 바람직하다. 상기와 같이 구성하는 경우 이동객체의 이동에 대응하여 화면 분할 등이 이루어지므로 사용자 인식력을 더욱 효과적으로 향상시킬 수 있게 된다.That is, it is preferable to divide the screen in consideration of the moving direction of the moving object and to select an image to be displayed on the divided screen. In the case of the above-described configuration, since the screen division is performed corresponding to the movement of the moving object, the user recognizing power can be improved more effectively.

도 8은 객체의 트래킹 정보를 공간 모델 데이터와 함께 통합적으로 표출하는 본 발명의 일 실시예를 도시한 도면이다. 8 is a diagram showing an embodiment of the present invention for integrally expressing tracking information of an object together with spatial model data.

도 8에 도시된 바와 같이 본 발명의 모델링부(180)는 전체 경로데이터에 대응되는 2D 또는 3D 공간데이터를 추출하고, 추출된 공간 데이터에 전체 경로데이터를 중첩하여 화면표시수단(105, 1100에 표출되도록 구성할 수 있다. 이와 같이 구성하는 경우 이동 객체의 거동 내지 이동 경로를 거시적으로 주변 환경과 함께 거시적 차원에서 통합적으로 확인할 수 있게 된다. As shown in FIG. 8, the modeling unit 180 of the present invention extracts 2D or 3D spatial data corresponding to the entire path data, superimposes the entire path data on the extracted spatial data, It is possible to integrate the behavior or the movement path of the moving object macroscopically with the surrounding environment in a macroscopic dimension.

이 경우 화면 분할 등을 통하여 실제 각 카메라가 이동 객체를 촬영한 영상이 함께 표출되도록 구성하는 것이 더욱 바람직하다. In this case, it is more preferable that the images taken by the respective cameras captured by the moving objects are displayed together by screen division or the like.

한편 증거적 활용과 사후적 검토 등을 더욱 효과적으로 수행하기 위하여 본 발명의 통합영상부(190)는 상기 전체 경로데이터를 구성하는 각 경로데이터가 포함된 각 카메라의 영상 데이터를 시간의 순서에 따라 통합시킨 통합영성데이터를 생성하고 저장하도록 구성될 수 있다.In order to more effectively perform evidence use and posterior review, the integrated video unit 190 of the present invention integrates video data of each camera including each path data constituting the entire path data, To generate and store unified spirituality data.

실시형태에 따라, 하나의 영상데이터에 서로 다른 객체가 이동하는 경우 본 발명의 객체추출부(130)는 복수 개 객체마다의 이동객체가 추출될 수도 있는데, 이 경우 본 발명의 경로데이터생성부(140)는 추출된 복수 개 이동객체마다 독립된 경로데이터를 생성하도록 구성할 수 있다.According to the embodiment, when a different object moves in one image data, the object extracting unit 130 of the present invention may extract a moving object for each of a plurality of objects. In this case, the path data generating unit 140 may be configured to generate independent path data for each of the plurality of extracted moving objects.

이와 같이 하나의 영상데이터에서 복수 개 이동객체마다의 경로데이터가 생성되는 경우 본 발명의 선별부(150)는 상기 복수 개의 이동객체 중 사용자로부터 선택된 이동객체에 대응되는 이동객체의 경로데이터를 이용하여 상기 공유 경로데이터를 선별하도록 구성될 수 있다.When path data for a plurality of moving objects is generated in one image data, the selector 150 of the present invention uses the path data of the moving object corresponding to the selected moving object among the plurality of moving objects And may select the shared path data.

또한, 이동 객체를 선별하는 조건 내지 기준 등으로서 특정 위치 영역에 있는 이동 객체가 선별되도록 설정되어 있다면 본 발명의 선별부(150)는 이 특정 위치정보에 대응되는 이동객체의 경로 데이터를 이용하여 공유 경로 데이터를 선별하도록 구성될 수 있다.If the moving object in the specific location area is set to be selected as a condition or criterion for selecting the moving object, the selector 150 of the present invention can share the moving object corresponding to the specific location information And may be configured to select path data.

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not to be limited to the details thereof and that various changes and modifications will be apparent to those skilled in the art. And various modifications and variations are possible within the scope of the appended claims.

본 발명의 설명과 그에 대한 실시예의 도시를 위하여 첨부된 도면 등은 본 발명에 의한 기술 내용을 강조 내지 부각하기 위하여 다소 과장된 형태로 도시될 수 있으나, 앞서 기술된 내용과 도면에 도시된 사항 등을 고려하여 본 기술분야의 통상의 기술자 수준에서 다양한 형태의 변형 적용 예가 가능할 수 있음은 자명하다고 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It should be understood that various modifications may be made in the ordinary skill in the art.

100 : 본 발명의 객체 트래킹 장치
105 : 화면표시수단 110 : 공간데이터저장부
120 : 영상데이터수신부 130 : 객체추출부
140 : 경로데이터생성부 150 : 선별부
160 : 메인제어부 170 : 공유정보저장부
180 : 모델링부 190 : 통합영상부
100: Object tracking apparatus of the present invention
105: screen display means 110: spatial data storage unit
120: video data receiving unit 130: object extracting unit
140: path data generation unit 150:
160: main control unit 170: shared information storage unit
180: Modeling unit 190: Integrated image unit

Claims (7)

각 지점의 위치정보를 포함하는 공간데이터를 저장하는 공간데이터저장부;
촬영영역이, 인접한 다른 카메라와 공통된 공통촬영영역과 자신의 고유촬영영역으로 설정된 복수의 카메라로부터 시간정보와 함께 영상데이터를 수신하는 영상데이터수신부;
상기 수신된 영상데이터 각각에서 이동객체를 추출하는 객체추출부;
상기 촬영영역에 대응되는 위치정보와 상기 추출된 이동객체의 위치정보를 이용하여 상기 추출된 이동객체의 경로데이터를 상기 영상데이터마다 각각 생성하는 경로데이터생성부;
상기 영상데이터 각각마다 생성된 경로데이터를 상호 대비하여 상기 경로데이터 중 일부 경로 데이터가 일치되는 경로데이터인 공유 경로데이터와 이 공유 경로데이터가 생성된 해당 영상데이터를 선별하는 선별부; 및
상기 공유 경로데이터와 상기 공유 경로데이터가 생성된 해당 영상 데이터를 이용하여 상기 이동객체의 경로를 트래킹하는 메인제어부를 포함하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
A spatial data storage unit for storing spatial data including positional information of each point;
An image data receiving unit for receiving image data together with time information from a plurality of cameras set as a common photographing area common to other adjacent cameras and their own photographing area;
An object extracting unit for extracting a moving object from each of the received image data;
A path data generation unit for generating path data of the extracted moving object for each image data using position information corresponding to the shooting area and position information of the extracted moving object;
A sorting unit for sorting shared path data, which is path data in which some path data of the path data are matched with each other, with respect to path data generated for each of the image data, and corresponding image data in which the shared path data is generated; And
And a main controller for tracking the path of the moving object using the shared path data and the corresponding image data in which the shared path data is generated.
제 1항에 있어서, 상기 메인제어부는,
상기 공유 경로데이터에 해당하는 영상데이터를 출력하되, 각 영상데이터가 생성된 시간의 순서에 따라 영상데이터를 출력하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
2. The apparatus of claim 1,
And outputting the image data corresponding to the shared path data, and outputting the image data according to the order of the time at which each image data is generated.
제 1항에 있어서,
중첩된 촬영영역을 공유하는 카메라에 대한 정보인 공유정보를 저장하는 공유정보저장부를 더 포함하고,
상기 선별부는 상기 공유정보를 이용하여 공유 경로데이터를 선별하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
The method according to claim 1,
Further comprising a shared information storage unit for storing shared information that is information on a camera sharing the overlapping shooting area,
Wherein the sorting unit selects the shared path data using the shared information. ≪ RTI ID = 0.0 > 18. < / RTI >
제 1항에 있어서, 상기 메인제어부는,
상기 공유 경로데이터를 이용하여 상기 이동객체의 전체 경로데이터를 생성하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
2. The apparatus of claim 1,
And generating the entire path data of the moving object by using the shared path data.
제 4항에 있어서,
상기 전체 경로데이터에 대응하는 공간데이터를 추출하고, 추출된 공간데이터에 상기 전체 경로데이터를 중첩하여 화면표시수단으로 표출하는 모델링부를 더 포함하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
5. The method of claim 4,
Further comprising a modeling unit for extracting spatial data corresponding to the entire path data and superimposing the entire path data on the extracted spatial data and displaying the same on the screen display means. Tracking device.
제 4항에 있어서,
상기 전체 경로데이터를 구성하는 각 경로데이터가 포함된 영상 데이터를 시간의 순서에 따라 통합시킨 통합영상데이터를 생성하는 통합영상부를 더 포함하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
5. The method of claim 4,
Further comprising an integrated image unit for generating integrated image data in which the image data including each path data constituting the entire path data is integrated according to the order of time. Device.
제 1항에 있어서, 상기 경로데이터생성부는,
상기 객체추출부가 상기 수신된 영상데이터에서 복수 개 이동객체를 추출하는 경우 상기 추출된 복수 개 이동객체마다 독립된 경로데이터를 생성하며,
상기 선별부는,
상기 복수 개의 이동객체 중 사용자로부터 선택된 이동객체 또는 특정 위치정보에 대응되는 이동객체의 경로데이터를 이용하여 상기 공유 경로데이터를 선별하는 것을 특징으로 하는 위치정보 기반의 공유 경로데이터를 이용한 객체 트래킹 장치.
The apparatus according to claim 1,
When the object extracting unit extracts a plurality of moving objects from the received image data, generates independent path data for each of the extracted plurality of moving objects,
The sorting unit,
Wherein the shared path data is selected using the path data of the moving object selected from the user or the moving object corresponding to the specific location information among the plurality of moving objects.
KR1020160094662A 2016-07-26 2016-07-26 Apparatus for tracking object using common route date based on position information KR101700651B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160094662A KR101700651B1 (en) 2016-07-26 2016-07-26 Apparatus for tracking object using common route date based on position information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160094662A KR101700651B1 (en) 2016-07-26 2016-07-26 Apparatus for tracking object using common route date based on position information

Publications (1)

Publication Number Publication Date
KR101700651B1 true KR101700651B1 (en) 2017-01-31

Family

ID=57990764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160094662A KR101700651B1 (en) 2016-07-26 2016-07-26 Apparatus for tracking object using common route date based on position information

Country Status (1)

Country Link
KR (1) KR101700651B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
KR20190134916A (en) * 2018-05-11 2019-12-05 초록소프트 주식회사 Method and apparatus for collecting floating population data on realtime road image
KR102473078B1 (en) * 2022-04-26 2022-12-02 주식회사 제노시스 Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080073933A (en) 2007-02-07 2008-08-12 삼성전자주식회사 Object tracking method and apparatus, and object pose information calculating method and apparatus
KR20130057584A (en) 2011-11-24 2013-06-03 에스케이플래닛 주식회사 Apparatus and method for setting feature point, tracking object apparatus and method usig that
KR20130130544A (en) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 Method and system for presenting security image
KR101552600B1 (en) * 2015-03-31 2015-09-11 (주)서광시스템 Method for tracking multiple walking object simultaneously using sectioned image
KR20160014413A (en) * 2014-07-29 2016-02-11 주식회사 일리시스 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
KR101599302B1 (en) * 2015-12-03 2016-03-04 주식회사 미래엔에스 System for monitoring embodied with back tracking function of time series video date integrated with space model

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080073933A (en) 2007-02-07 2008-08-12 삼성전자주식회사 Object tracking method and apparatus, and object pose information calculating method and apparatus
KR20130057584A (en) 2011-11-24 2013-06-03 에스케이플래닛 주식회사 Apparatus and method for setting feature point, tracking object apparatus and method usig that
KR20130130544A (en) * 2012-05-22 2013-12-02 삼성테크윈 주식회사 Method and system for presenting security image
KR20160014413A (en) * 2014-07-29 2016-02-11 주식회사 일리시스 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
KR101552600B1 (en) * 2015-03-31 2015-09-11 (주)서광시스템 Method for tracking multiple walking object simultaneously using sectioned image
KR101599302B1 (en) * 2015-12-03 2016-03-04 주식회사 미래엔에스 System for monitoring embodied with back tracking function of time series video date integrated with space model

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
KR20190134916A (en) * 2018-05-11 2019-12-05 초록소프트 주식회사 Method and apparatus for collecting floating population data on realtime road image
KR102099816B1 (en) * 2018-05-11 2020-04-10 초록소프트 주식회사 Method and apparatus for collecting floating population data on realtime road image
KR102473078B1 (en) * 2022-04-26 2022-12-02 주식회사 제노시스 Location Calculating Device of a surveillance area photographed by a plurality of PTZ cameras

Similar Documents

Publication Publication Date Title
JP7371924B2 (en) Video monitoring system, video monitoring method, and program
RU2718413C2 (en) Information processing device, image forming device, control methods thereof and non-volatile computer-readable data storage medium
US20170094227A1 (en) Three-dimensional spatial-awareness vision system
JP3437555B2 (en) Specific point detection method and device
US9361731B2 (en) Method and apparatus for displaying video on 3D map
CN105306899B (en) Method and device for processing monitoring video
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
KR101695249B1 (en) Method and system for presenting security image
CN105554440A (en) Monitoring methods and devices
US8982245B2 (en) Method and system for sequential viewing of two video streams
JP5535025B2 (en) Outdoor feature detection system, program for outdoor feature detection system, and recording medium for program for outdoor feature detection system
JP2010117800A (en) Parking lot monitoring device and method
CN108510528B (en) Method and device for registration and fusion of visible light and infrared image
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
JP2016127571A (en) Camera system, display control device, display control method, and program
CN107124581A (en) Video camera running status and suspected target real-time display system on the electronic map
US20160205355A1 (en) Monitoring installation and method for presenting a monitored area
JP6032283B2 (en) Surveillance camera management device, surveillance camera management method, and program
KR101599302B1 (en) System for monitoring embodied with back tracking function of time series video date integrated with space model
KR20130137076A (en) Device and method for providing 3d map representing positon of interest in real time
KR101686797B1 (en) Method for analyzing a visible area of a closed circuit television considering the three dimensional features
KR20170055147A (en) Apparatus for determining location of special point in image and method thereof
KR101559739B1 (en) System for merging virtual modeling and image data of cameras
KR101572800B1 (en) System for controlling camera on the 3d virtual modeling
KR20160109828A (en) Augmented reality system

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant