KR20160014413A - The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map - Google Patents

The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map Download PDF

Info

Publication number
KR20160014413A
KR20160014413A KR1020140096617A KR20140096617A KR20160014413A KR 20160014413 A KR20160014413 A KR 20160014413A KR 1020140096617 A KR1020140096617 A KR 1020140096617A KR 20140096617 A KR20140096617 A KR 20140096617A KR 20160014413 A KR20160014413 A KR 20160014413A
Authority
KR
South Korea
Prior art keywords
site map
global
object tracking
cameras
global object
Prior art date
Application number
KR1020140096617A
Other languages
Korean (ko)
Other versions
KR101645959B1 (en
Inventor
장정훈
Original Assignee
주식회사 일리시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 일리시스 filed Critical 주식회사 일리시스
Priority to KR1020140096617A priority Critical patent/KR101645959B1/en
Publication of KR20160014413A publication Critical patent/KR20160014413A/en
Application granted granted Critical
Publication of KR101645959B1 publication Critical patent/KR101645959B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/155Conference systems involving storage of or access to video conference sessions

Abstract

The present invention relates to an object tracking apparatus based on multiple overhead cameras and a site map which comprises: an image-based local object tracking unit which tracks an object and creates a local object tracking result when receives camera images from multiple cameras installed in a place at a certain height from a site to be monitored and towards the bottom such that parts to be photographed can be overlapped; a coordinate converting unit between camera images and site map which converts a pixel coordinate of each camera image received from the multiple cameras into a point coordinate of a site map; a map-based global object tracking unit which creates a global object tracking result by using the local object tracking result and a local object point coordinate on the site map; and a real-time site map display unit which displays a location of a global object being tracked on the site map by using the global object tracking result. Therefore, the present invention is advantageous in grasping movements or moving lines of human objects in the site to be monitored, by tracking the human objects from multiple overhead cameras installed in a place at a certain height from the site and towards the bottom so as to partly overlap cameras′ image region; by integrating local human-object tracking results from each camera on the site map; by tracking the objects globally on the site map; and by displaying the global object tracking result on the site map when monitoring in real time or searching.

Description

복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법 {The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map} BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object tracking apparatus based on a plurality of overhead cameras and a site map,

본 발명은 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법에 관한 것으로, 보다 상세하게는, 복수로 설치된 오버헤드 카메라들을 통해 감시 사이트 내의 사람 객체들을 추적하고, 각 카메라의 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여, 사이트 맵 상에서 전역적으로 객체들을 추적하고 그 결과를 활용하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for tracking an object based on a plurality of overhead cameras and a site map, and more particularly, to a method and apparatus for tracking human objects in a surveillance site through a plurality of installed overhead cameras, To an apparatus and method for integrating human object tracking results on a site map, tracking objects globally on the site map, and utilizing the results.

최근 들어 CCTV 카메라로부터 입력 받은 비디오 영상을 실시간으로 분석하여 이동 객체를 감지 및 추적하고, 이를 바탕으로 의미 있는 이벤트를 자동으로 감지하는 지능형 CCTV 시스템에 대한 수요가 날로 증가하고 있다. 또한 지능형 CCTV 시스템을 보안/감시 분야에서뿐만 아니라 BI(Business Intelligence) 분야에서도 활용하려는 움직임이 점차 확대되고 있다. 대표적인 예로 매장 입구나 통행로의 상단에 설치된 카메라의 영상을 분석하여 지나가는 방문객들을 계수(Counting)하거나 특정 장소에 방문객들이 머무는 시간을 측정하는 것 등이 있다.2. Description of the Related Art In recent years, demand for an intelligent CCTV system that senses and tracks moving objects by analyzing video images input from a CCTV camera in real time and automatically senses meaningful events based on the detected moving objects is increasing day by day. In addition, there is an increasing trend to utilize the intelligent CCTV system not only in the security / surveillance field, but also in the business intelligence (BI) field. Typical examples include counting the number of visitors passing by analyzing the image of a camera installed at the entrance of a store or the top of a corridor, or measuring the amount of time a visitor stays at a specific place.

기존의 대부분의 지능형 CCTV 시스템에서는 카메라 별로 독립적으로 객체 추적이 이루어지며, 카메라 간의 연계 추적은 이루어지지 않고 있다. 따라서 감시 사이트 내에서 특정 객체의 전체적인 움직임(이동 경로)을 파악하는데 어려움이 있다. 또한 감시 사이트 내에서 다수의 카메라에 의해 추적되는 다수의 객체들의 움직임을 한 눈에 파악하기 어렵고, 객체 추적 결과를 실시간 감시 또는 검색 시에 제대로 활용하기 어려움이 있다.In most existing intelligent CCTV systems, object tracking is performed independently for each camera, and linkage tracking between cameras is not performed. Therefore, it is difficult to grasp the overall movement (movement path) of a specific object within the monitoring site. In addition, it is difficult to grasp the movement of a plurality of objects tracked by a plurality of cameras in a monitoring site at a glance, and it is difficult to utilize the object tracking results in real time monitoring or searching.

대한민국 등록특허공보 10-1380628 복수의 카메라를 사용한 객체 추적 방법 및 장치에서 이동 객체의 카메라 간 연계 추적 방법을 제시하고 있으나, 매우 일반화된 방법이라 매장 등에 실제로 적용하기에는 어려움이 따른다. 또한 다수의 카메라에 의해 추적되는 객체들의 움직임을 한 눈에 파악하기 위한 방법 등 객체 추적 결과를 실시간 감시 또는 검색 시 활용하는 방안에 대해 제시하고 있지 않다.However, since it is a generalized method, it is difficult to actually apply it to a store or the like. SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art. In addition, it does not provide a method to utilize the object tracking result in real-time monitoring or retrieval such as a method for grasping the movement of objects tracked by a plurality of cameras at a glance.

대한민국 등록특허공보 10-1178687 RFID 기술 및 영상 기술을 통합한 동선 분석 시스템 및 그 방법에서 매장 이동 경로의 곳곳에 설치된 RFID 리더와 카메라를 이용하여 고객의 동선을 파악하는 방법을 제시하고 있으나, 고객이 RFID 태그를 지니고 다녀야 하는 한계가 있고, 시스템 구축 비용 측면에서도 카메라만을 사용하는 방법에 비해 RFID 태그/리더를 같이 사용해야하기 때문에 비용이 증가하는 불리한 점이 있다.Korean Patent Registration No. 10-1178687 In a copper wire analysis system and method that integrate RFID technology and video technology, a method of grasping a customer's movement line by using an RFID reader and a camera installed in various places along a store route is proposed, There is a limitation that it is necessary to carry the RFID tag, and there is a disadvantage that the cost is increased because the RFID tag / reader is used together in comparison with the method of using only the camera in terms of system construction cost.

본 발명은 상술한 문제점들을 해결하기 위한 것으로, 감시 사이트의 일정 높이 위에 지면을 바라보도록 설치되고, 또한 이웃하는 카메라들 사이의 촬영 영역이 일부 겹치도록 설치된 복수의 오버헤드 카메라로부터 그 밑에 있는 사람 객체들을 추적하고, 각 카메라로부터 얻은 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여 사이트 사이트 맵 상에서 전역적으로 객체들을 추적하고, 실시간 감시 또는 검색 시 전역적인 객체 추적 결과를 사이트 맵 상에 표출함에 의해 감시 사이트 내의 사람 객체들의 움직임 또는 동선을 한 눈에 파악할 수 있도록 해주는 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an overhead camera which is installed so as to face the ground on a certain height of a surveillance site, , Integrating the results of the local human object tracking obtained from each camera on the site map to track the objects globally on the site map and displaying the global object tracking results on the site map in real time monitoring or searching The present invention provides an object tracking apparatus based on a plurality of overhead cameras and a site map that enables a user to grasp the movement or movement of human objects in a monitoring site at a glance, and a method thereof.

실시예들 중에서, 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치는, 감시 지역의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로부터 카메라 영상을 수신하면 객체를 추적하여 지역 객체 추적 결과를 생성하는 영상 기반 지역 객체 추적부, 상기 복수의 카메라로부터 수신된 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 카메라 영상과 사이트 맵 사이의 좌표 변환부, 상기 지역 객체 추적 결과 및 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 사이트 맵 기반 전역 객체 추적부 및 상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 사이트 맵 상에 표출하는 실시간 사이트 맵 표출부를 포함한다.Among the embodiments, a plurality of overhead cameras and an object tracking device based on a site map are used to capture a camera image from each of a plurality of cameras installed toward the ground such that a part of the ground surface is photographed at a place of a certain height from the ground surface of the surveillance area An image-based local object tracking unit for tracking the object and generating a local object tracking result upon receipt of the camera image; A site map-based global object tracking unit for generating a global object tracking result using the coordinate transformation unit, the local object tracking result, and the point coordinates of the local object on the site map, and a global object tracking unit Between real-time on the sitemap Map expression includes parts.

실시예들 중에서, 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법은 감시 지역의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로부터 카메라 영상을 수신하는 단계, 상기 각각의 카메라 영상에서 객체를 추적하여 지역 객체 추적 결과를 생성하는 단계, 상기 각각의 카메라 영상에서의 지역 객체의 픽셀 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 단계 및 상기 지역 객체 추적 결과와 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계 및 상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 사이트 맵 상에 표출하는 단계를 포함한다.Among the embodiments, a plurality of overhead cameras and an object tracking method based on a site map are configured to receive a camera image from each of a plurality of cameras installed toward the ground such that a part of the ground is overlapped at a predetermined height from the ground Generating a local object tracking result by tracking an object in each camera image; converting pixel coordinates of a local object in each camera image into point coordinates on a site map; Generating a global object tracking result using the point coordinates of the local object on the site map, and displaying the position of the global object being tracked on the site map using the global object tracking result.

본 발명에 따르면, 감시 사이트의 일정 높이 위에 지면을 바라보도록 설치되고, 또한 이웃하는 카메라들 사이의 촬영 영역이 일부 겹치도록 설치된 복수의 오버헤드 카메라로부터 그 밑에 있는 사람 객체들을 추적하고, 각 카메라로부터 얻은 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여 사이트 맵 상에서 전역적으로 객체들을 추적하고, 실시간 감시 또는 검색 시 전역적인 객체 추적 결과를 사이트 맵 상에 표출함에 의해 감시 사이트 내의 사람 객체들의 움직임 또는 동선을 한 눈에 파악할 수 있도록 한다는 효과가 있다.According to the present invention, a plurality of overhead cameras installed so as to face the ground on a certain height of a surveillance site and provided so as to overlap a photographing region between neighboring cameras are tracked, By integrating the obtained local person object tracking result on the site map, it is possible to track the objects globally on the site map, and to display the global object tracking result on the site map in real time monitoring or searching, Or the copper wire can be grasped at a glance.

도 1은 본 발명의 일 실시예에 따른 객체 추적 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 추적 장치(200)를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 사이트 맵 기반 전역 객체 추적부(203)의 동작 흐름을 나타내는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 지역 객체와 전역 객체 사이의 대응 관계를 나타내는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상과 사이트 맵 사이의 매핑 관계를 설정하는 방법을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 렌즈 왜곡 제거 영상의 예를 나타내는 도면이다.
1 is a diagram illustrating an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an object tracking apparatus 200 according to an embodiment of the present invention.
3 is a flowchart showing an operation flow of the global object tracking unit 203 based on the site map according to an embodiment of the present invention.
4 is a flowchart illustrating a correspondence relationship between a local object and a global object according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a method of setting a mapping relationship between an overhead camera image and a site map according to an embodiment of the present invention.
6 is a diagram illustrating an example of a lens distortion-removed image according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 복수의 오버헤드 카메라와 사이트 맵에 기반한 사람 객체 추적 시스템의 구성을 설명하기 위한 도면이다.
FIG. 1 is a diagram for explaining a configuration of a human object tracking system based on a plurality of overhead cameras and a site map.

도 1을 참조하면, 객체 추적 시스템은 2개 이상의 오버헤드 카메라(101 또는 102)와 객체 추적 장치(200)를 포함한다. 오버헤드 카메라(101 또는 102)는 지면으로부터 일정 높이(최소 2.5m 이상)의 장소에서 지면을 바라보도록 설치한다. 또한 서로 이웃하는 두 카메라(101과 102)는 영상에서 지면의 일부가 서로 겹치게 나오도록 설치하여, 이웃하는 카메라들 밑을 통과하는 동일 대상을 연속으로 추적할 수 있도록 만든다. 도 1에서 영상(103)과 (104)는 서로 이웃하는 오버헤드 카메라(101)과 (102)에서 동시간에 촬영한 영상의 예이다.Referring to FIG. 1, an object tracking system includes two or more overhead cameras 101 or 102 and an object tracking device 200. The overhead camera 101 or 102 is installed so as to face the ground at a predetermined height (at least 2.5 m or more) from the ground. In addition, the two cameras 101 and 102 neighboring each other are installed such that a part of the ground surface overlaps with the image so that the same object passing under the neighboring cameras can be continuously tracked. In FIG. 1, images 103 and 104 are examples of images taken at the same time in neighboring overhead cameras 101 and 102, respectively.

도 1에서 객체 추적 장치(200)는 2개 이상의 오버헤드 카메라(101 또는 102)와 연결되어, 카메라로부터 입력 받은 카메라 영상으로부터 카메라 밑을 이동하는 사람들을 실시간으로 감지 및 추적한다. 또한 상기 객체 추적 시스템(200)은 각 카메라 별 카메라 영상에서의 객체 추적 결과로부터, 사이트 맵(감시 지역에 대한 평면도) 상에서의 객체 추적 결과를 실시간으로 생성한다. 이 때 이웃하는 카메라들이 촬영한 동일 대상에 대하여, 사이트 맵 상에서 동일 ID를 가진 객체로 추적하도록 처리한다. 도 1에서 사이트 맵(105)은 영상(103)과 (104)에서의 객체 추적 결과를 이용하여 사이트 맵 상에 객체 추적 위치를 표시한 예를 보이고 있다.
In FIG. 1, the object tracking device 200 is connected to two or more overhead cameras 101 and 102 to detect and track people moving under a camera from a camera image input from the camera in real time. In addition, the object tracking system 200 generates object tracking results on a site map (plan view for a surveillance area) in real time from the object tracking results on the camera images of respective cameras. At this time, the same object photographed by the neighboring cameras is processed to be tracked as an object having the same ID on the site map. In FIG. 1, the site map 105 shows an example in which object tracking positions are displayed on the site map using the object tracking results in the images 103 and 104.

도 2는 상기 객체 추적 장치(200)의 내부 구성을 상세히 설명한 도면이다.
FIG. 2 is a diagram illustrating an internal configuration of the object tracking apparatus 200 in detail.

도 2를 참조하면, 상기 객체 추적 장치(200)는 영상 기반 지역 객체 추적부(201), 카메라 영상과 사이트 맵 사이의 좌표 변환부(202), 사이트 맵 기반 전역 객체 추적부(203)를 포함하며, 부가적으로 실시간 사이트 맵 표출부(204), 객체 메타데이터 저장부(205), 객체 메타데이터 검색/재생부(206)을 포함한다.2, the object tracking apparatus 200 includes an image-based area object tracking unit 201, a coordinate conversion unit 202 between the camera image and the site map, and a site map-based global object tracking unit 203 And additionally includes a real-time site map display unit 204, an object metadata storage unit 205, and an object metadata search / playback unit 206.

도 2에서 영상 기반 지역 객체 추적부(201)는 객체 추적 장치(200)와 연결된 카메라로부터 실시간 카메라 영상을 받아, 카메라 영상으로부터 사람의 감지 및 추적을 실시간으로 수행하여 지역 객체 추적 결과를 생성한다. 여기에서 지역 객체란 특정 카메라의 영상에서 추적 중인 객체를 나타내며, 카메라 내에서의 객체 고유 ID 값과 현재 비디오 프레임에서의 객체 위치 좌표(픽셀 단위 좌표) 값을 갖는다.2, the image-based local object tracking unit 201 receives a real-time camera image from a camera connected to the object tracking apparatus 200, and detects and tracks a person from the camera image to generate a local object tracking result. Here, a local object represents an object being tracked in an image of a specific camera, and has an object unique ID value in the camera and an object position coordinate (pixel coordinate) in the current video frame.

도 2에서 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라 영상의 픽셀 좌표로부터 이에 대응하는 사이트 맵의 포인트 좌표로 변환하는 기능을 수행한다.In FIG. 2, a coordinate conversion unit 202 between a camera image and a site map performs a function of converting pixel coordinates of a specific camera image into point coordinates of a corresponding site map.

도 2에서 사이트 맵 기반 전역 객체 추적부(203)은 상기 복수의 영상 기반 지역 객체 추적부(201)로부터 받은 지역 객체 추적 결과와 상기 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)의 기능을 이용하여 사이트 맵 상에서의 전역 객체 추적 결과를 실시간으로 생성한다. 여기에서 전역 객체란 감시 지역 내에서 추적 중인 대상의 위치를 사이트 맵 상의 포인트 좌표로 표현하는 객체로, 사이트 맵 상에서의 고유 객체 ID 값과 현재 포인트 위치 좌표 값을 갖는다.2, the site-map-based global object tracking unit 203 performs a function of the coordinate transformation unit 202 between the local object tracking result received from the plurality of image-based local object tracking units 201 and the camera image and the site map To generate global object tracking results on the site map in real time. Here, the global object is an object representing the position of the object being tracked in the monitoring area as point coordinates on the site map, and has a unique object ID value on the site map and a current point position coordinate value.

도 2에서 실시간 사이트 맵 표출부(204)는 상기 사이트 맵 기반 전역 객체 추적부(203)가 생성한 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체들의 위치를 사이트 맵 상에 실시간으로 표출한다.In FIG. 2, the real-time site map display unit 204 uses the global object tracking result generated by the site-map-based global object tracking unit 203 to display the location of the global objects being tracked on the site map in real time.

도 2에서 객체 메타데이터 저장부(205)는 상기 사이트 맵 기반 전역 객체 추적부(203)가 생성한 전역 객체 추적 결과(객체 메타데이터)를 저장 장치에 기록한다. 이 때 저장되는 객체 메타데이터는 현재 시각, 전역 객체의 고유 ID, 전역 객체의 사이트 맵 상에서의 현재 위치를 포함한다.In FIG. 2, the object metadata storage unit 205 records the global object tracking result (object metadata) generated by the site map-based global object tracking unit 203 in the storage device. The object metadata stored at this time includes the current time, the unique ID of the global object, and the current position of the global object on the site map.

도 2에서 객체 메타데이터 검색/재생부(206)는 상기 객체 메타데이터 저장부(205)를 통해 저장되었던 객체 메타데이터의 검색 및 재생을 수행한다. 객체 메타데이터의 검색은 저장 장치로부터 지정된 기간 내에 기록된 객체 메타데이터를 찾아 가져오는 행위를 포함한다. 객체 메타데이터의 재생은 상기 검색된 객체 메타데이터를 이용하여 시간의 흐름에 따른 전역 객체들의 움직임을 사이트 맵 상에 표시하던가, 사이트 맵 상에 전체 또는 선별된 전역 객체들의 이동 궤적을 표시하던가, 전역 객체들이 지나간 위치들을 사이트 맵 상에 누적 카운팅한 후 그 카운팅 결과 값을 이용하여 사이트 맵 상에 위치 별 객체 출연 빈도를 명암 또는 색상으로 표시하는 행위를 포함한다.
In FIG. 2, the object metadata search / playback unit 206 searches for and reproduces the object metadata stored in the object metadata storage unit 205. The retrieval of the object metadata includes retrieving the retrieved object metadata from the storage device within a specified period. The playback of the object meta data may be performed by displaying the movement of the global objects according to the time on the site map using the searched object meta data, displaying the movement trajectory of the whole or selected global objects on the site map, And counting the positions of the objects on the site map using the counting result values, and displaying the appearance frequency of the objects by position on the site map in a shade or color.

도 3은 도 2의 사이트 맵 기반 전역 객체 추적부(203)에서, 지역 객체들의 추적 결과로부터 전역 객체들을 추적하는 방법을 기술한 순서도이다.
FIG. 3 is a flowchart illustrating a method of tracking global objects from the tracking results of the local objects in the global object tracking unit 203 of FIG.

도 3을 참조하면, 도 3의 단계(S301)에서, 도 2의 영상 기반 지역 객체 추적부(201)로부터 현재 추적 중인 특정 지역 객체의 추적 정보를 가져온다. 상기 추적 정보는 지역 객체의 고유 ID와 현재 프레임에서의 지역 객체의 위치 좌표(픽셀 좌표)를 포함한다.Referring to FIG. 3, in step S301 of FIG. 3, the tracking information of the specific area object currently being tracked is fetched from the image-based area object tracking unit 201 of FIG. The tracking information includes a unique ID of the local object and a positional coordinate (pixel coordinate) of the local object in the current frame.

도 3의 단계(S302)에서, 도 2의 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)를 이용하여 상기 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환한다.In step S302 of FIG. 3, the position coordinates in the current frame of the area object are converted into point coordinates on the site map using the coordinate conversion unit 202 between the camera image and the site map in FIG.

도 3의 단계(S303)에서, 현재 추적 중인 전역 객체들 중에 상기 지역 객체를 자식 객체로 갖는 전역 객체를 찾는다. 각 전역 객체는 그와 대응하는 지역 객체들을 자식 객체로 가지고 있다. 일례로 도 4와 같은 경우, 전역 객체

Figure pat00001
은 지역 객체
Figure pat00002
을 자식 객체로 가지고 있고, 전역 객체
Figure pat00003
는 지역 객체
Figure pat00004
Figure pat00005
을 자식 객체로 가지고 있고, 전역 객체
Figure pat00006
은 자식 객체
Figure pat00007
를 자식 객체로 가지고 있다. 이때
Figure pat00008
Figure pat00009
은 이웃하는 두 카메라 A와 B의 영상 사이의 겹치는 영역에서 동일 대상물에 대한 추적 결과이므로 하나의 전역 객체
Figure pat00010
로 대응이 된다.In step S303 of FIG. 3, a global object having the local object as a child object is searched among the global objects currently being tracked. Each global object has its corresponding local objects as child objects. For example, in the case of FIG. 4,
Figure pat00001
A local object
Figure pat00002
As a child object, and a global object
Figure pat00003
Is a local object
Figure pat00004
Wow
Figure pat00005
As a child object, and a global object
Figure pat00006
Child object
Figure pat00007
As a child object. At this time
Figure pat00008
Wow
Figure pat00009
Is a result of tracking the same object in the overlapping area between the images of the two neighboring cameras A and B,
Figure pat00010
.

상기 단계(S303)에서 상기 지역 객체를 자식 객체로 갖는 전역 객체가 있으면 단계(S308)로 진행한다. 상기 단계(S303)에서 상기 지역 객체를 자식 객체로 갖는 전역 객체가 없으면 단계(S304)로 진행한다.If there is a global object having the local object as a child object in step S303, the flow advances to step S308. If there is no global object having the local object as a child object in step S303, the flow advances to step S304.

도 3의 단계(S304)에서, 상기 지역 객체에 대응하는 전역 객체가 있는지 탐색한다. 현재 추적 중인 각각의 전역 객체에 대하여, 전역 객체의 중심의 사이트 맵 좌표와 상기 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하여 거리가 일정량(통상적으로 사이트 맵 상에서 표현되는 객체의 폭의 절반) 이하이면 상기 지역 객체에 대응하는 전역 객체를 찾은 것으로 한다.In step S304 of FIG. 3, it is determined whether there is a global object corresponding to the local object. For each global object being tracked, determine the distance between the center of the global object's site map coordinates and the center of the local object's center of the site map coordinates so that the distance is constant (typically half of the width of the object represented on the site map) The global object corresponding to the local object is found.

도 3의 단계(S305)에서 상기 지역 객체에 대응하는 전역 객체가 존재하면, 단계(S306)에서 상기 지역 객체를 해당 전역 객체의 자식 객체로 추가하고 단계(S308)로 진행한다.If there is a global object corresponding to the local object in step S305 of FIG. 3, the local object is added as a child object of the global object in step S306, and the flow advances to step S308.

상기 단계(S305)에서 상기 지역 객체에 대응하는 전역 객체가 존재하지 않으면, 단계(S307)에서 신규 전역 객체를 생성하고, 상기 지역 객체를 신규 전역 객체의 자식 객체로 추가한 후 단계(S308)로 진행한다.If there is no global object corresponding to the local object in step S305, a new global object is created in step S307, the local object is added as a child object of the new global object, and then step S308 is performed Go ahead.

도 3의 단계(S308)에서 현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거한다. 도 2의 영상 기반 지역 객체 추적부(201)는 특정 지역 객체의 추적이 종료되면 사이트 맵 기반 전역 객체 추적부(203)에 그 사실을 알린다. 사이트 맵 기반 전역 객체 추적부(203)은 해당 지역 객체를 자식 객체로 갖는 전역 객체를 찾아 해당 전역 객체의 자식 객체 목록에서 해당 지역 객체를 제거한다. 이런 식으로 모든 자식 객체(즉, 대응하는 지역 객체)가 제거된 전역 객체의 경우, 실제 추적 대상이 사라졌음을 의미하므로 해당 전역 객체를 전역 객체 추적 목록에서 제거하는 것이다.In step S308 of FIG. 3, a global object that does not have any child objects among the global objects currently being tracked is removed from the global object tracking list. The image-based area object tracking unit 201 of FIG. 2 notifies the site-map-based global object tracking unit 203 of the completion of the tracking of the specific area object. The site map-based global object tracking unit 203 finds a global object having the local object as a child object, and removes the corresponding local object from the child object list of the corresponding global object. In the case of a global object in which all child objects (ie, corresponding local objects) have been removed in this way, it means that the actual tracking object has disappeared, so that the global object is removed from the global object tracking list.

도 3의 단계(S301)부터 단계(S308)은 현재 추적 중인 모든 지역 객체에 대해 수행되며, 모든 지역 객체에 대한 처리는 일정 주기(통상적으로 비디오 분석 프레임 레이트)마다 반복하여 수행된다.Steps S301 to S308 of FIG. 3 are performed for all the local objects currently being tracked, and the processing for all the local objects is repeatedly performed for each predetermined period (typically, video analysis frame rate).

전술한 바와 같이 현재 추적 중인 전역 객체는 그것에 대응하는 지역 객체들을 자식 객체로 가진다. 이 때 전역 객체의 사이트 맵 상에서의 현재 위치는 해당 자식 객체들(지역 객체들)의 사이트 맵 좌표의 평균값으로 결정된다.As described above, the global object currently being tracked has local objects corresponding thereto as child objects. At this time, the current position of the global object on the site map is determined by the average value of the site map coordinates of the corresponding child objects (local objects).

도 2의 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라 영상의 픽셀 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 기능을 수행한다. 상기 기능을 수행하기 위해 상기 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라의 카메라 영상이 사이트 맵으로 어떻게 매핑이 되는지 미리 알고 있어야 한다. 본 발명에서는 사용자가 사이트 맵과 카메라 영상 사이의 몇 개의 특징점들의 대응 관계를 지정해줌에 의해 카메라 영상과 사이트 맵 사이의 매핑 관계를 설정하는 방법을 제안한다. 이 때 특징점이란 물체의 모서리 지점 등과 같이 영상 또는 사이트 맵에서 쉽게 구분이 되는 지점을 의미한다.
The coordinate conversion unit 202 between the camera image and the site map in FIG. 2 performs a function of converting pixel coordinates of a specific camera image into point coordinates on a site map. In order to perform the above function, the coordinate conversion unit 202 between the camera image and the site map must know in advance how the camera image of the specific camera is mapped to the site map. The present invention proposes a method of setting a mapping relation between a camera image and a site map by designating a correspondence relationship between a plurality of minutiae points between a site map and a camera image. In this case, the feature point means a point where the image or the site map is easily distinguished, such as an edge point of an object.

도 5는 사이트 맵과 카메라 영상 사이의 특징점들의 대응 관계를 지정한 예이다. 이 때 사이트 맵은 감시 지역을 수직으로 내려다보았을 때의 평면도이고, 영상에서의 특징점은 지면부에 있는 특징점으로 한정한다.
FIG. 5 is an example of designating a correspondence relationship between minutiae points between a site map and a camera image. At this time, the site map is a plan view when the observation area is looked down vertically, and the minutiae in the image are limited to the minutiae on the ground.

도 1에서 오버헤드 카메라(101 또는 102)가 지면과 완전히 수직이 되도록 설치되어 있다면, 카메라 영상의 지면부와 사이트 맵 사이의 매핑 관계는 하기 <수학식 1>과 같이 유사 변환(Similarity Transformation)에 의해 표현될 수 있다.
1, if the overhead camera 101 or 102 is installed so as to be perfectly perpendicular to the ground, the mapping relationship between the ground portion of the camera image and the site map is represented by Equation 1 as shown in Equation (1) Lt; / RTI &gt;

[수학식 1][Equation 1]

Figure pat00011

Figure pat00011

상기 <수학식 1>에서

Figure pat00012
는 카메라 영상의 지면부에 속한 픽셀 좌표이고,
Figure pat00013
Figure pat00014
와 대응하는 사이트 맵의 포인트 좌표이고,
Figure pat00015
Figure pat00016
Figure pat00017
사이의 매핑 관계를 정의하는 변환 파라미터들이다. 상기 <수학식 1>에서 한 개의 특징점 대응쌍이 주어지면 미지수
Figure pat00018
에 대한 2개의 방정식을 얻을 수 있다. 따라서 두 개의 특징점 대응쌍이 주어지면 총 4개의 연립 방정식으로부터 변환 파라미터
Figure pat00019
를 구할 수 있다.In Equation (1)
Figure pat00012
Is a pixel coordinate belonging to the ground portion of the camera image,
Figure pat00013
The
Figure pat00014
Is the point coordinate of the corresponding site map,
Figure pat00015
The
Figure pat00016
Wow
Figure pat00017
Lt; / RTI &gt; are transformation parameters that define the mapping relationship between &lt; RTI ID = 0.0 &gt; If one feature point corresponding pair is given in Equation (1) above,
Figure pat00018
Two equations can be obtained for. Therefore, given two pairs of feature points, the transformation parameters
Figure pat00019
Can be obtained.

도 1에서 오버헤드 카메라(101 또는 102)가 지면과 수직을 이루지 않으면 카메라 영상의 지면부와 사이트 맵 사이의 매핑 관계는 하기 <수학식 2>와 같이 프로젝티브 변환(Projective Transformation)에 의해 표현될 수 있다.
1, if the overhead camera 101 or 102 is not perpendicular to the ground, the mapping relationship between the ground portion of the camera image and the site map is expressed by Projective Transformation as shown in Equation (2) below .

[수학식 2]&Quot; (2) &quot;

Figure pat00020
Figure pat00020

상기 <수학식 2>에서

Figure pat00021
는 카메라 영상의 지면부에 속한 픽셀 좌표이고,
Figure pat00022
Figure pat00023
와 대응하는 사이트 맵의 포인트 좌표이고,
Figure pat00024
Figure pat00025
Figure pat00026
사이의 매핑 관계를 정의하는 변환 파라미터들이고,
Figure pat00027
는 0이 아닌 임의의 값을 갖는 스케일 값이다. 상기 <수학식 2>에서 한 개의 특징점 대응쌍이 주어지면 미지수
Figure pat00028
로 구성된 2개의 방정식을 얻을 수 있다. 따라서 네 개의 특징점 대응쌍이 주어지면 총 8개의 연립 방정식으로부터 변환 파라미터
Figure pat00029
를 구할 수 있다. 주어진 네 개 이상의 특징점 대응쌍으로부터 상기 변환 파리미터
Figure pat00030
를 구하는 자세한 방법은 “Multiple View Geometry in Computer Vision (Cambridge University Press)”를 참조하라.In Equation (2)
Figure pat00021
Is a pixel coordinate belonging to the ground portion of the camera image,
Figure pat00022
The
Figure pat00023
Is the point coordinate of the corresponding site map,
Figure pat00024
The
Figure pat00025
Wow
Figure pat00026
Lt; RTI ID = 0.0 &gt; a &lt; / RTI &gt; mapping relationship,
Figure pat00027
Is a scale value having an arbitrary non-zero value. If one feature point corresponding pair is given in Equation (2) above,
Figure pat00028
Two equations can be obtained. Therefore, given four pairs of minutiae points, the transformation parameters
Figure pat00029
Can be obtained. From the given four or more feature point corresponding pairs,
Figure pat00030
See "Multiple View Geometry in Computer Vision (Cambridge University Press)".

만약 도 1의 오버헤드 카메라(101 또는 102)에 광각 렌즈가 장착되어 있다면, 카메라에 의해 취득된 영상에는 직선에 해당하는 부분이 곡선으로 휘어져서 보이는 렌즈 왜곡(Lens Distortion) 현상이 나타나게 된다. 카메라 영상에 렌즈 왜곡이 있는 경우, 카메라 영상의 지면부의 픽셀 좌표와 이에 대응하는 사이트 맵 상의 포인트 좌표와의 변환 관계는 더 이상 상기 <수학식 1> 또는 <수학식 2>를 만족하지 않게 된다. 따라서 상기 <수학식 1> 또는 <수학식 2>를 적용하기에 앞서 카메라 영상에서 렌즈 왜곡을 먼저 제거해야 한다. 렌즈 왜곡이 있는 영상의 픽셀 좌표와 렌즈 왜곡이 제거된 영상의 픽셀 좌표의 대응 관계는 통상적으로 <수학식 3>과 같이 주어진다.If the overhead camera 101 or 102 of FIG. 1 is equipped with a wide-angle lens, the image obtained by the camera is distorted by a curved portion corresponding to a straight line, thereby causing a lens distortion phenomenon. When there is a lens distortion in the camera image, the conversion relation between the pixel coordinates of the ground portion of the camera image and the corresponding point coordinates on the site map no longer satisfies Equation (1) or Equation (2). Therefore, lens distortion must first be removed from the camera image before applying Equation (1) or Equation (2). The correspondence between the pixel coordinates of the image with lens distortion and the pixel coordinates of the image from which the lens distortion is eliminated is usually given by Equation (3).

[수학식 3]&Quot; (3) &quot;

Figure pat00031
Figure pat00031

상기 <수학식 3>에서

Figure pat00032
는 렌즈 왜곡이 있는 영상의 픽셀 좌표,
Figure pat00033
는 렌즈 왜곡이 제거된 영상에서
Figure pat00034
에 대응하는 픽셀 좌표,
Figure pat00035
은 영상의 중심과
Figure pat00036
사이의 거리,
Figure pat00037
는 방사 왜곡 계수(Radial Distortion Coefficients)이다. 따라서 렌즈의 방사 왜곡 계수
Figure pat00038
의 값을 알면 렌즈 왜곡이 있는 영상으로부터 렌즈 왜곡이 제거된 영상을 얻을 수 있다. 상기 방사 왜곡 계수
Figure pat00039
의 값을 측정하는 방법들이 이미 공개되어 있는데, 예를 들면 “Learning OpenCV (O’Reilly Media Inc.)”를 참조하라. 도 6은 렌즈 왜곡이 있는 영상으로부터 렌즈 왜곡을 제거한 영상을 얻은 예이다.
In Equation (3)
Figure pat00032
The pixel coordinates of the image having the lens distortion,
Figure pat00033
In the image with the lens distortion removed
Figure pat00034
The pixel coordinates corresponding to < RTI ID =
Figure pat00035
The center of the image
Figure pat00036
The distance between them,
Figure pat00037
Is the Radial Distortion Coefficients. Therefore, the coefficient of radial distortion
Figure pat00038
It is possible to obtain an image in which the lens distortion is removed from the image having the lens distortion. The radial distortion coefficient
Figure pat00039
Are already available, for example, see "Learning OpenCV (O'Reilly Media Inc.)". Fig. 6 is an example of obtaining an image in which lens distortion is removed from an image having lens distortion.

101, 102: 오버헤드 카메라
200: 객체 추적 장치
201: 영상 기반 지역 객체 추적부
202: 사이트 맵 기반 전역 객체 추적부
203: 카메라 영상과 사이트 맵 사이의 대응 관계 설정부
204: 실시간 사이트 맵 표출부
205: 객체 메타데이터 저장부
206: 객체 메타데이터 검색/재생부
101, 102: Overhead camera
200: Object tracking device
201: image-based local object tracking unit
202: Sitemap-based global object tracking unit
203: correspondence relation setting unit between the camera image and the site map
204: Real-time site map display unit
205: object meta data storage unit
206: Object Metadata Search / Playback Unit

Claims (16)

감시 사이트의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로 부터 카메라 영상을 수신하면 객체를 추적하여 지역 객체 추적 결과를 생성하는 영상 기반 지역 객체 추적부;
상기 복수의 카메라로부터 수신된 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 카메라 영상과 사이트 맵 사이의 좌표 변환부;
상기 지역 객체 추적 결과 및 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 사이트 맵 기반 전역 객체 추적부; 및
상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 상기 사이트 맵 상에 실시간으로 표출하는 실시간 사이트 맵 표출부를 포함하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
An image-based local object tracking unit for tracking an object and generating a local object tracking result when a camera image is received from each of a plurality of cameras installed toward the ground such that a part of the ground is overlapped at a predetermined height from the ground surface of the surveillance site; ;
A coordinate conversion unit between a camera image and a site map for converting pixel coordinates of each camera image received from the plurality of cameras into point coordinates of the site map;
A global object tracking unit for generating a global object tracking result using the local object tracking result and the point coordinates of the local object on the site map; And
And a real-time site map display unit for displaying the position of the global object being tracked on the site map in real time using the global object tracking result
An object tracking device based on multiple overhead cameras and sitemaps.
제1항에 있어서,
상기 사이트 맵 기반 전역 객체 추적부는
현재 추적 중인 특정 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환하고, 현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to claim 1,
The site map-based global object tracking unit
The location coordinates of the specific area object currently being tracked are converted into point coordinates on the site map and whether a global object having the specific area object as a child object is present among the global objects being tracked is checked doing
An object tracking device based on multiple overhead cameras and sitemaps.
제2항에 있어서,
상기 사이트 맵 기반 전역 객체 추적부는
상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하지 않으면, 현재 추적 중인 전역 객체 각각에 대하여, 상기 전역 객체의 중심의 사이트 맵 좌표와 상기 특정 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하여 상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
3. The method of claim 2,
The site map-based global object tracking unit
If there is no global object having the specific region object as a child object, a distance between the site map coordinates of the center of the global object and the site map coordinates of the center of the specific region object is obtained for each global object being tracked And determining whether the global object is found by checking whether the distance is less than a predetermined amount
An object tracking device based on multiple overhead cameras and sitemaps.
제3항에 있어서,
상기 사이트 맵 기반 전역 객체 추적부는
상기 거리가 일정량 이하인 전역 객체가 존재하면 상기 특정 지역 객체에 대응하는 전역 객체를 찾았다고 판단하고, 상기 특정 지역 객체를 상기 전역 객체의 자식 객체로 추가하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method of claim 3,
The site map-based global object tracking unit
If it is determined that a global object corresponding to the specific region object is found, and adds the specific region object as a child object of the global object
An object tracking device based on multiple overhead cameras and sitemaps.
제4항에 있어서,
상기 사이트 맵 기반 전역 객체 추적부는
상기 거리가 일정량 이하인 전역 객체가 존재하지 않는다면 상기 특정 지역 객체에 대응하는 전역 객체를 찾지 못하였다고 판단하고, 신규 전역 객체를 생성하고 상기 특정 지역 객체를 상기 신규 전역 객체의 자식 객체로 추가하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
5. The method of claim 4,
The site map-based global object tracking unit
If it is determined that the global object corresponding to the specific region object is not found, then a new global object is created and the specific region object is added as a child object of the new global object To
An object tracking device based on multiple overhead cameras and sitemaps.
제2항 내지 제5항에 중 어느 한 항에 있어서, 상기 사이트 맵 기반 전역 객체 추적부는
현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to any one of claims 2 to 5, wherein the site map-based global object tracking unit
And removing a global object that does not have any child objects among the currently tracked global objects from the global object tracking list
An object tracking device based on multiple overhead cameras and sitemaps.
제1항에 있어서,
상기 카메라 영상과 사이트 맵 사이의 좌표 변환부는
사용자에 의해 상기 사이트 맵과 상기 각각의 카메라 영상 사이의 특징점의 대응 관계가 지정되면, 상기 각각의 카메라 영상과 상기 사이트 맵 사이의 매핑 관계를 설정하여 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to claim 1,
The coordinate transformation unit between the camera image and the site map
A mapping relationship between each of the camera images and the site map is set by a user so that pixel coordinates of the camera image are converted into point coordinates of the site map Characterized in that
An object tracking device based on multiple overhead cameras and sitemaps.
제7항에 있어서,
상기 카메라 영상과 사이트 맵 사이의 매핑 관계는
상기 복수의 카메라가 지면과 수직을 이루면 하기의 [수학식 1]과 같이 정의되며,
[수학식 1]
Figure pat00040

여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고,
Figure pat00041
는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 상기 복수의 카메라가 지면과 수직을 이루지 않으면 하기의 [수학식 2]과 같이 정의되며,
[수학식 2]
Figure pat00042

여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며,
Figure pat00043
는 0이 아닌 임의의 값을 갖는 스케일 값이며,
복수의 특징점의 대응 쌍을 이용하면 상기 [수학식 1] 및 [수학식 2]에서 변환 파라미터에 대한 복수의 방정식이 생성되며, 상기 복수의 방정식으로부터 변환 파라미터가 산출되는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
8. The method of claim 7,
The mapping relationship between the camera image and the site map is
When the plurality of cameras are perpendicular to the paper surface, the following formula (1)
[Equation 1]
Figure pat00040

Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y)
Figure pat00041
Is a conversion parameter defining a mapping relationship between (x, y) and (X, Y), and if the plurality of cameras are not perpendicular to the ground,
&Quot; (2) &quot;
Figure pat00042

Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) A transformation parameter that defines a mapping relationship,
Figure pat00043
Is a scale value having an arbitrary non-zero value,
A plurality of equations for the conversion parameters are generated in the equations (1) and (2) using the corresponding pairs of the plurality of characteristic points, and the conversion parameters are calculated from the plurality of equations
An object tracking device based on multiple overhead cameras and sitemaps.
객체 추적 장치에서 실행되는 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법에 있어서,
감시 사이트의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로 부터 카메라 영상을 수신하는 단계;
상기 각각의 카메라 영상에서 객체를 추적하여 지역 객체 추적 결과를 생성하는 단계;
상기 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계;
상기 지역 객체 추적 결과 및 상기 사이트 맵상의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계; 및
상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 상기 사이트 맵 상에 표출하는 단계를 포함하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
A method for tracking an object based on a plurality of overhead cameras and a site map executed in an object tracking device,
Receiving a camera image from each of a plurality of cameras installed toward the ground so that a part of the ground surface is photographed so as to overlap with the ground surface at a predetermined height from the ground;
Tracking an object in each of the camera images to generate a local object tracking result;
Converting pixel coordinates of each camera image into point coordinates of a site map;
Generating a global object tracking result using the local object tracking result and the point coordinates of the local object on the site map; And
And displaying the location of the global object being tracked on the site map using the global object tracking result
An object tracking method based on multiple overhead cameras and sitemaps.
제9항에 있어서,
상기 지역 객체 추적 결과 및 상기 사이트 맵 상의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계는
현재 추적 중인 특정 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 단계; 및
현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
10. The method of claim 9,
The step of generating the global object tracking result using the local object tracking result and the point coordinates of the local object on the site map
Converting position coordinates in a current frame of a specific local object currently being tracked into point coordinates on a site map; And
Checking whether there is a global object having the specific region object as a child object among the global objects currently being tracked
An object tracking method based on multiple overhead cameras and sitemaps.
제10항에 있어서,
상기 현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 단계는
상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하지 않으면, 현재 추적 중인 전역 객체 각각에 대하여, 상기 전역 객체의 중심의 사이트 맵 좌표와 상기 특정 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하는 단계; 및
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
11. The method of claim 10,
Checking whether there is a global object having the specific region object as a child object among the currently tracked global objects
If there is no global object having the specific region object as a child object, a distance between the site map coordinates of the center of the global object and the site map coordinates of the center of the specific region object is obtained for each global object being tracked step; And
And determining whether the global object is found by checking whether the distance is less than a predetermined amount
An object tracking method based on multiple overhead cameras and sitemaps.
제11항에 있어서,
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계는
상기 거리가 일정량 이하인 전역 객체가 존재하면 상기 특정 지역 객체에 대응하는 전역 객체를 찾았다고 판단하는 단계;
상기 특정 지역 객체를 상기 전역 객체의 자식 객체로 추가하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
12. The method of claim 11,
Determining whether the distance is less than a predetermined amount and determining whether the global object is found
Determining that a global object corresponding to the specific region object is found if the global object having the distance is less than a predetermined amount;
And adding the specific region object as a child object of the global object
An object tracking method based on multiple overhead cameras and sitemaps.
제11항에 있어서,
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계는
상기 거리가 일정량 이하인 전역 객체가 존재하지 않는다면 상기 특정 지역 객체에 대응하는 전역 객체를 찾지 못하였다고 판단하는 단계;
상기 신규 전역 객체를 생성하고 상기 특정 지역 객체를 상기 신규 전역 객체의 자식 객체로 추가하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
12. The method of claim 11,
Determining whether the distance is less than a predetermined amount and determining whether the global object is found
Determining that the global object corresponding to the specific region object is not found if the global object having the distance less than a predetermined amount does not exist;
And creating the new global object and adding the specific local object as a child object of the new global object
An object tracking method based on multiple overhead cameras and sitemaps.
제10항 내지 제13항 중 어느 한 항에 있어서,
현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
14. The method according to any one of claims 10 to 13,
And removing a global object that does not have any child objects among the currently tracked global objects from the global object tracking list
An object tracking method based on multiple overhead cameras and sitemaps.
제8항에 있어서,
상기 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계는
사용자에 의해 상기 사이트 맵과 상기 각각의 카메라 영상 사이의 특징점의 대응 관계가 지정되면, 상기 각각의 카메라 영상과 상기 사이트 맵 사이의 매핑 관계를 설정하여 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
9. The method of claim 8,
The step of converting pixel coordinates of each camera image into point coordinates of a site map
A mapping relationship between each of the camera images and the site map is set by a user so that pixel coordinates of the camera image are converted into point coordinates of the site map Characterized in that it comprises the steps of:
An object tracking method based on multiple overhead cameras and sitemaps.
제15항에 있어서,
상기 카메라 영상과 사이트 맵 사이의 매핑 관계는
상기 복수의 카메라가 지면과 수직을 이루면 하기의 [수학식 1]과 같이 정의되며,
[수학식 1]
Figure pat00044

여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고,
Figure pat00045
는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 상기 복수의 카메라가 지면과 수직을 이루지 않으면 하기의 [수학식 2]과 같이 정의되며,
[수학식 2]
Figure pat00046

여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며,
Figure pat00047
는 0이 아닌 임의의 값을 갖는 스케일 값이며,
복수의 특징점의 대응 쌍을 이용하면 상기 [수학식 1] 및 [수학식 2]에서 변환 파라미터에 대한 복수의 방정식이 생성되며, 상기 복수의 방정식으로부터 변환 파라미터가 산출되는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
16. The method of claim 15,
The mapping relationship between the camera image and the site map is
When the plurality of cameras are perpendicular to the paper surface, the following formula (1)
[Equation 1]
Figure pat00044

Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y)
Figure pat00045
Is a conversion parameter defining a mapping relationship between (x, y) and (X, Y), and if the plurality of cameras are not perpendicular to the ground,
&Quot; (2) &quot;
Figure pat00046

Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) A transformation parameter that defines a mapping relationship,
Figure pat00047
Is a scale value having an arbitrary non-zero value,
A plurality of equations for the conversion parameters are generated in the equations (1) and (2) using the corresponding pairs of the plurality of characteristic points, and the conversion parameters are calculated from the plurality of equations
An object tracking method based on multiple overhead cameras and sitemaps.
KR1020140096617A 2014-07-29 2014-07-29 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map KR101645959B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140096617A KR101645959B1 (en) 2014-07-29 2014-07-29 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140096617A KR101645959B1 (en) 2014-07-29 2014-07-29 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map

Publications (2)

Publication Number Publication Date
KR20160014413A true KR20160014413A (en) 2016-02-11
KR101645959B1 KR101645959B1 (en) 2016-08-05

Family

ID=55351631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140096617A KR101645959B1 (en) 2014-07-29 2014-07-29 The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map

Country Status (1)

Country Link
KR (1) KR101645959B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700651B1 (en) * 2016-07-26 2017-01-31 주식회사 미래엔에스 Apparatus for tracking object using common route date based on position information
WO2018035667A1 (en) * 2016-08-22 2018-03-01 深圳前海达闼云端智能科技有限公司 Display method and apparatus, electronic device, computer program product, and non-transient computer readable storage medium
KR101977635B1 (en) * 2017-11-20 2019-05-13 한국항공대학교산학협력단 Multi-camera based aerial-view 360-degree video stitching and object detection method and device
CN111179305A (en) * 2018-11-13 2020-05-19 晶睿通讯股份有限公司 Object position estimation method and object position estimation device
KR20220124419A (en) * 2021-03-03 2022-09-14 한국생산기술연구원 A top-view global map based abnormal event recognition device and method using x-dimension sensor

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102367782B1 (en) 2021-07-12 2022-02-25 주식회사 인텔리빅스 Apparatus for Tracking Objects and Driving Method Thereof
KR20230081016A (en) 2021-11-30 2023-06-07 주식회사 케이티 Device, method and computer program for tracking object using multiple cameras
KR102446320B1 (en) 2021-12-14 2022-09-23 주식회사 인텔리빅스 Apparatus for Map-based Object Tracking and Event Detection Based on a plurality of Cameras and Driving Method Thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013078119A1 (en) * 2011-11-22 2013-05-30 Pelco, Inc. Geographic map based control
JP5453429B2 (en) * 2009-07-22 2014-03-26 オムロン株式会社 Surveillance camera terminal
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5453429B2 (en) * 2009-07-22 2014-03-26 オムロン株式会社 Surveillance camera terminal
WO2013078119A1 (en) * 2011-11-22 2013-05-30 Pelco, Inc. Geographic map based control
KR101380628B1 (en) * 2013-10-18 2014-04-02 브이씨에이 테크놀러지 엘티디 Method and apparatus for object tracking using multiple cameras

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Richard Hartley et al., "Multiple View Geometry in Computer Vision", Cambridge University Press, Second Edition 2003.* *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101700651B1 (en) * 2016-07-26 2017-01-31 주식회사 미래엔에스 Apparatus for tracking object using common route date based on position information
WO2018035667A1 (en) * 2016-08-22 2018-03-01 深圳前海达闼云端智能科技有限公司 Display method and apparatus, electronic device, computer program product, and non-transient computer readable storage medium
KR101977635B1 (en) * 2017-11-20 2019-05-13 한국항공대학교산학협력단 Multi-camera based aerial-view 360-degree video stitching and object detection method and device
CN111179305A (en) * 2018-11-13 2020-05-19 晶睿通讯股份有限公司 Object position estimation method and object position estimation device
CN111179305B (en) * 2018-11-13 2023-11-14 晶睿通讯股份有限公司 Object position estimation method and object position estimation device thereof
KR20220124419A (en) * 2021-03-03 2022-09-14 한국생산기술연구원 A top-view global map based abnormal event recognition device and method using x-dimension sensor

Also Published As

Publication number Publication date
KR101645959B1 (en) 2016-08-05

Similar Documents

Publication Publication Date Title
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
US9560323B2 (en) Method and system for metadata extraction from master-slave cameras tracking system
US20200401617A1 (en) Visual positioning system
US20190163983A1 (en) System and method for detecting, tracking, and classifying objects
JP4541316B2 (en) Video surveillance search system
US8582816B2 (en) Method and apparatus for video analytics based object counting
KR20200040665A (en) Systems and methods for detecting a point of interest change using a convolutional neural network
CN101095149B (en) Image comparison apparatus and method
CN111079600A (en) Pedestrian identification method and system with multiple cameras
US9245247B2 (en) Queue analysis
US20140010456A1 (en) Kalman filter approach to augment object tracking
JP6013923B2 (en) System and method for browsing and searching for video episodes
CN106295598A (en) A kind of across photographic head method for tracking target and device
US11734338B2 (en) Image search in walkthrough videos
CN106446002A (en) Moving target-based video retrieval method for track in map
KR20110035662A (en) Intelligent image search method and system using surveillance camera
JP2019029935A (en) Image processing system and control method thereof
CN113256731A (en) Target detection method and device based on monocular vision
Zhang et al. Longitudinal-scanline-based arterial traffic video analytics with coordinate transformation assisted by 3D infrastructure data
CN109977796A (en) Trail current detection method and device
Lin et al. Moving camera analytics: Emerging scenarios, challenges, and applications
WO2015005102A1 (en) Image processing device, image processing method, and image processing program
JP6831396B2 (en) Video monitoring device
Lee et al. Vehicle counting based on a stereo vision depth maps for parking management
Jaynes Multi-view calibration from planar motion for video surveillance

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190610

Year of fee payment: 4