KR20160014413A - The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map - Google Patents
The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map Download PDFInfo
- Publication number
- KR20160014413A KR20160014413A KR1020140096617A KR20140096617A KR20160014413A KR 20160014413 A KR20160014413 A KR 20160014413A KR 1020140096617 A KR1020140096617 A KR 1020140096617A KR 20140096617 A KR20140096617 A KR 20140096617A KR 20160014413 A KR20160014413 A KR 20160014413A
- Authority
- KR
- South Korea
- Prior art keywords
- site map
- global
- object tracking
- cameras
- global object
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/155—Conference systems involving storage of or access to video conference sessions
Abstract
Description
본 발명은 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법에 관한 것으로, 보다 상세하게는, 복수로 설치된 오버헤드 카메라들을 통해 감시 사이트 내의 사람 객체들을 추적하고, 각 카메라의 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여, 사이트 맵 상에서 전역적으로 객체들을 추적하고 그 결과를 활용하는 장치 및 그 방법에 관한 것이다.The present invention relates to an apparatus and method for tracking an object based on a plurality of overhead cameras and a site map, and more particularly, to a method and apparatus for tracking human objects in a surveillance site through a plurality of installed overhead cameras, To an apparatus and method for integrating human object tracking results on a site map, tracking objects globally on the site map, and utilizing the results.
최근 들어 CCTV 카메라로부터 입력 받은 비디오 영상을 실시간으로 분석하여 이동 객체를 감지 및 추적하고, 이를 바탕으로 의미 있는 이벤트를 자동으로 감지하는 지능형 CCTV 시스템에 대한 수요가 날로 증가하고 있다. 또한 지능형 CCTV 시스템을 보안/감시 분야에서뿐만 아니라 BI(Business Intelligence) 분야에서도 활용하려는 움직임이 점차 확대되고 있다. 대표적인 예로 매장 입구나 통행로의 상단에 설치된 카메라의 영상을 분석하여 지나가는 방문객들을 계수(Counting)하거나 특정 장소에 방문객들이 머무는 시간을 측정하는 것 등이 있다.2. Description of the Related Art In recent years, demand for an intelligent CCTV system that senses and tracks moving objects by analyzing video images input from a CCTV camera in real time and automatically senses meaningful events based on the detected moving objects is increasing day by day. In addition, there is an increasing trend to utilize the intelligent CCTV system not only in the security / surveillance field, but also in the business intelligence (BI) field. Typical examples include counting the number of visitors passing by analyzing the image of a camera installed at the entrance of a store or the top of a corridor, or measuring the amount of time a visitor stays at a specific place.
기존의 대부분의 지능형 CCTV 시스템에서는 카메라 별로 독립적으로 객체 추적이 이루어지며, 카메라 간의 연계 추적은 이루어지지 않고 있다. 따라서 감시 사이트 내에서 특정 객체의 전체적인 움직임(이동 경로)을 파악하는데 어려움이 있다. 또한 감시 사이트 내에서 다수의 카메라에 의해 추적되는 다수의 객체들의 움직임을 한 눈에 파악하기 어렵고, 객체 추적 결과를 실시간 감시 또는 검색 시에 제대로 활용하기 어려움이 있다.In most existing intelligent CCTV systems, object tracking is performed independently for each camera, and linkage tracking between cameras is not performed. Therefore, it is difficult to grasp the overall movement (movement path) of a specific object within the monitoring site. In addition, it is difficult to grasp the movement of a plurality of objects tracked by a plurality of cameras in a monitoring site at a glance, and it is difficult to utilize the object tracking results in real time monitoring or searching.
대한민국 등록특허공보 10-1380628 복수의 카메라를 사용한 객체 추적 방법 및 장치에서 이동 객체의 카메라 간 연계 추적 방법을 제시하고 있으나, 매우 일반화된 방법이라 매장 등에 실제로 적용하기에는 어려움이 따른다. 또한 다수의 카메라에 의해 추적되는 객체들의 움직임을 한 눈에 파악하기 위한 방법 등 객체 추적 결과를 실시간 감시 또는 검색 시 활용하는 방안에 대해 제시하고 있지 않다.However, since it is a generalized method, it is difficult to actually apply it to a store or the like. SUMMARY OF THE INVENTION Accordingly, the present invention has been made keeping in mind the above problems occurring in the prior art. In addition, it does not provide a method to utilize the object tracking result in real-time monitoring or retrieval such as a method for grasping the movement of objects tracked by a plurality of cameras at a glance.
대한민국 등록특허공보 10-1178687 RFID 기술 및 영상 기술을 통합한 동선 분석 시스템 및 그 방법에서 매장 이동 경로의 곳곳에 설치된 RFID 리더와 카메라를 이용하여 고객의 동선을 파악하는 방법을 제시하고 있으나, 고객이 RFID 태그를 지니고 다녀야 하는 한계가 있고, 시스템 구축 비용 측면에서도 카메라만을 사용하는 방법에 비해 RFID 태그/리더를 같이 사용해야하기 때문에 비용이 증가하는 불리한 점이 있다.Korean Patent Registration No. 10-1178687 In a copper wire analysis system and method that integrate RFID technology and video technology, a method of grasping a customer's movement line by using an RFID reader and a camera installed in various places along a store route is proposed, There is a limitation that it is necessary to carry the RFID tag, and there is a disadvantage that the cost is increased because the RFID tag / reader is used together in comparison with the method of using only the camera in terms of system construction cost.
본 발명은 상술한 문제점들을 해결하기 위한 것으로, 감시 사이트의 일정 높이 위에 지면을 바라보도록 설치되고, 또한 이웃하는 카메라들 사이의 촬영 영역이 일부 겹치도록 설치된 복수의 오버헤드 카메라로부터 그 밑에 있는 사람 객체들을 추적하고, 각 카메라로부터 얻은 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여 사이트 사이트 맵 상에서 전역적으로 객체들을 추적하고, 실시간 감시 또는 검색 시 전역적인 객체 추적 결과를 사이트 맵 상에 표출함에 의해 감시 사이트 내의 사람 객체들의 움직임 또는 동선을 한 눈에 파악할 수 있도록 해주는 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법을 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide an overhead camera which is installed so as to face the ground on a certain height of a surveillance site, , Integrating the results of the local human object tracking obtained from each camera on the site map to track the objects globally on the site map and displaying the global object tracking results on the site map in real time monitoring or searching The present invention provides an object tracking apparatus based on a plurality of overhead cameras and a site map that enables a user to grasp the movement or movement of human objects in a monitoring site at a glance, and a method thereof.
실시예들 중에서, 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치는, 감시 지역의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로부터 카메라 영상을 수신하면 객체를 추적하여 지역 객체 추적 결과를 생성하는 영상 기반 지역 객체 추적부, 상기 복수의 카메라로부터 수신된 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 카메라 영상과 사이트 맵 사이의 좌표 변환부, 상기 지역 객체 추적 결과 및 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 사이트 맵 기반 전역 객체 추적부 및 상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 사이트 맵 상에 표출하는 실시간 사이트 맵 표출부를 포함한다.Among the embodiments, a plurality of overhead cameras and an object tracking device based on a site map are used to capture a camera image from each of a plurality of cameras installed toward the ground such that a part of the ground surface is photographed at a place of a certain height from the ground surface of the surveillance area An image-based local object tracking unit for tracking the object and generating a local object tracking result upon receipt of the camera image; A site map-based global object tracking unit for generating a global object tracking result using the coordinate transformation unit, the local object tracking result, and the point coordinates of the local object on the site map, and a global object tracking unit Between real-time on the sitemap Map expression includes parts.
실시예들 중에서, 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법은 감시 지역의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로부터 카메라 영상을 수신하는 단계, 상기 각각의 카메라 영상에서 객체를 추적하여 지역 객체 추적 결과를 생성하는 단계, 상기 각각의 카메라 영상에서의 지역 객체의 픽셀 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 단계 및 상기 지역 객체 추적 결과와 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계 및 상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 사이트 맵 상에 표출하는 단계를 포함한다.Among the embodiments, a plurality of overhead cameras and an object tracking method based on a site map are configured to receive a camera image from each of a plurality of cameras installed toward the ground such that a part of the ground is overlapped at a predetermined height from the ground Generating a local object tracking result by tracking an object in each camera image; converting pixel coordinates of a local object in each camera image into point coordinates on a site map; Generating a global object tracking result using the point coordinates of the local object on the site map, and displaying the position of the global object being tracked on the site map using the global object tracking result.
본 발명에 따르면, 감시 사이트의 일정 높이 위에 지면을 바라보도록 설치되고, 또한 이웃하는 카메라들 사이의 촬영 영역이 일부 겹치도록 설치된 복수의 오버헤드 카메라로부터 그 밑에 있는 사람 객체들을 추적하고, 각 카메라로부터 얻은 지역적인 사람 객체 추적 결과를 사이트 맵 상에 통합하여 사이트 맵 상에서 전역적으로 객체들을 추적하고, 실시간 감시 또는 검색 시 전역적인 객체 추적 결과를 사이트 맵 상에 표출함에 의해 감시 사이트 내의 사람 객체들의 움직임 또는 동선을 한 눈에 파악할 수 있도록 한다는 효과가 있다.According to the present invention, a plurality of overhead cameras installed so as to face the ground on a certain height of a surveillance site and provided so as to overlap a photographing region between neighboring cameras are tracked, By integrating the obtained local person object tracking result on the site map, it is possible to track the objects globally on the site map, and to display the global object tracking result on the site map in real time monitoring or searching, Or the copper wire can be grasped at a glance.
도 1은 본 발명의 일 실시예에 따른 객체 추적 시스템을 나타내는 도면이다.
도 2는 본 발명의 일 실시예에 따른 객체 추적 장치(200)를 나타내는 도면이다.
도 3은 본 발명의 일 실시예에 따른 사이트 맵 기반 전역 객체 추적부(203)의 동작 흐름을 나타내는 순서도이다.
도 4는 본 발명의 일 실시예에 따른 지역 객체와 전역 객체 사이의 대응 관계를 나타내는 순서도이다.
도 5는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상과 사이트 맵 사이의 매핑 관계를 설정하는 방법을 나타내는 도면이다.
도 6은 본 발명의 일 실시예에 따른 렌즈 왜곡 제거 영상의 예를 나타내는 도면이다.1 is a diagram illustrating an object tracking system according to an embodiment of the present invention.
2 is a diagram illustrating an
3 is a flowchart showing an operation flow of the global
4 is a flowchart illustrating a correspondence relationship between a local object and a global object according to an exemplary embodiment of the present invention.
5 is a diagram illustrating a method of setting a mapping relationship between an overhead camera image and a site map according to an embodiment of the present invention.
6 is a diagram illustrating an example of a lens distortion-removed image according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 복수의 오버헤드 카메라와 사이트 맵에 기반한 사람 객체 추적 시스템의 구성을 설명하기 위한 도면이다.
FIG. 1 is a diagram for explaining a configuration of a human object tracking system based on a plurality of overhead cameras and a site map.
도 1을 참조하면, 객체 추적 시스템은 2개 이상의 오버헤드 카메라(101 또는 102)와 객체 추적 장치(200)를 포함한다. 오버헤드 카메라(101 또는 102)는 지면으로부터 일정 높이(최소 2.5m 이상)의 장소에서 지면을 바라보도록 설치한다. 또한 서로 이웃하는 두 카메라(101과 102)는 영상에서 지면의 일부가 서로 겹치게 나오도록 설치하여, 이웃하는 카메라들 밑을 통과하는 동일 대상을 연속으로 추적할 수 있도록 만든다. 도 1에서 영상(103)과 (104)는 서로 이웃하는 오버헤드 카메라(101)과 (102)에서 동시간에 촬영한 영상의 예이다.Referring to FIG. 1, an object tracking system includes two or more
도 1에서 객체 추적 장치(200)는 2개 이상의 오버헤드 카메라(101 또는 102)와 연결되어, 카메라로부터 입력 받은 카메라 영상으로부터 카메라 밑을 이동하는 사람들을 실시간으로 감지 및 추적한다. 또한 상기 객체 추적 시스템(200)은 각 카메라 별 카메라 영상에서의 객체 추적 결과로부터, 사이트 맵(감시 지역에 대한 평면도) 상에서의 객체 추적 결과를 실시간으로 생성한다. 이 때 이웃하는 카메라들이 촬영한 동일 대상에 대하여, 사이트 맵 상에서 동일 ID를 가진 객체로 추적하도록 처리한다. 도 1에서 사이트 맵(105)은 영상(103)과 (104)에서의 객체 추적 결과를 이용하여 사이트 맵 상에 객체 추적 위치를 표시한 예를 보이고 있다.
In FIG. 1, the
도 2는 상기 객체 추적 장치(200)의 내부 구성을 상세히 설명한 도면이다.
FIG. 2 is a diagram illustrating an internal configuration of the
도 2를 참조하면, 상기 객체 추적 장치(200)는 영상 기반 지역 객체 추적부(201), 카메라 영상과 사이트 맵 사이의 좌표 변환부(202), 사이트 맵 기반 전역 객체 추적부(203)를 포함하며, 부가적으로 실시간 사이트 맵 표출부(204), 객체 메타데이터 저장부(205), 객체 메타데이터 검색/재생부(206)을 포함한다.2, the
도 2에서 영상 기반 지역 객체 추적부(201)는 객체 추적 장치(200)와 연결된 카메라로부터 실시간 카메라 영상을 받아, 카메라 영상으로부터 사람의 감지 및 추적을 실시간으로 수행하여 지역 객체 추적 결과를 생성한다. 여기에서 지역 객체란 특정 카메라의 영상에서 추적 중인 객체를 나타내며, 카메라 내에서의 객체 고유 ID 값과 현재 비디오 프레임에서의 객체 위치 좌표(픽셀 단위 좌표) 값을 갖는다.2, the image-based local
도 2에서 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라 영상의 픽셀 좌표로부터 이에 대응하는 사이트 맵의 포인트 좌표로 변환하는 기능을 수행한다.In FIG. 2, a
도 2에서 사이트 맵 기반 전역 객체 추적부(203)은 상기 복수의 영상 기반 지역 객체 추적부(201)로부터 받은 지역 객체 추적 결과와 상기 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)의 기능을 이용하여 사이트 맵 상에서의 전역 객체 추적 결과를 실시간으로 생성한다. 여기에서 전역 객체란 감시 지역 내에서 추적 중인 대상의 위치를 사이트 맵 상의 포인트 좌표로 표현하는 객체로, 사이트 맵 상에서의 고유 객체 ID 값과 현재 포인트 위치 좌표 값을 갖는다.2, the site-map-based global
도 2에서 실시간 사이트 맵 표출부(204)는 상기 사이트 맵 기반 전역 객체 추적부(203)가 생성한 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체들의 위치를 사이트 맵 상에 실시간으로 표출한다.In FIG. 2, the real-time site
도 2에서 객체 메타데이터 저장부(205)는 상기 사이트 맵 기반 전역 객체 추적부(203)가 생성한 전역 객체 추적 결과(객체 메타데이터)를 저장 장치에 기록한다. 이 때 저장되는 객체 메타데이터는 현재 시각, 전역 객체의 고유 ID, 전역 객체의 사이트 맵 상에서의 현재 위치를 포함한다.In FIG. 2, the object
도 2에서 객체 메타데이터 검색/재생부(206)는 상기 객체 메타데이터 저장부(205)를 통해 저장되었던 객체 메타데이터의 검색 및 재생을 수행한다. 객체 메타데이터의 검색은 저장 장치로부터 지정된 기간 내에 기록된 객체 메타데이터를 찾아 가져오는 행위를 포함한다. 객체 메타데이터의 재생은 상기 검색된 객체 메타데이터를 이용하여 시간의 흐름에 따른 전역 객체들의 움직임을 사이트 맵 상에 표시하던가, 사이트 맵 상에 전체 또는 선별된 전역 객체들의 이동 궤적을 표시하던가, 전역 객체들이 지나간 위치들을 사이트 맵 상에 누적 카운팅한 후 그 카운팅 결과 값을 이용하여 사이트 맵 상에 위치 별 객체 출연 빈도를 명암 또는 색상으로 표시하는 행위를 포함한다.
In FIG. 2, the object metadata search /
도 3은 도 2의 사이트 맵 기반 전역 객체 추적부(203)에서, 지역 객체들의 추적 결과로부터 전역 객체들을 추적하는 방법을 기술한 순서도이다.
FIG. 3 is a flowchart illustrating a method of tracking global objects from the tracking results of the local objects in the global
도 3을 참조하면, 도 3의 단계(S301)에서, 도 2의 영상 기반 지역 객체 추적부(201)로부터 현재 추적 중인 특정 지역 객체의 추적 정보를 가져온다. 상기 추적 정보는 지역 객체의 고유 ID와 현재 프레임에서의 지역 객체의 위치 좌표(픽셀 좌표)를 포함한다.Referring to FIG. 3, in step S301 of FIG. 3, the tracking information of the specific area object currently being tracked is fetched from the image-based area
도 3의 단계(S302)에서, 도 2의 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)를 이용하여 상기 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환한다.In step S302 of FIG. 3, the position coordinates in the current frame of the area object are converted into point coordinates on the site map using the
도 3의 단계(S303)에서, 현재 추적 중인 전역 객체들 중에 상기 지역 객체를 자식 객체로 갖는 전역 객체를 찾는다. 각 전역 객체는 그와 대응하는 지역 객체들을 자식 객체로 가지고 있다. 일례로 도 4와 같은 경우, 전역 객체 은 지역 객체 을 자식 객체로 가지고 있고, 전역 객체 는 지역 객체 와 을 자식 객체로 가지고 있고, 전역 객체 은 자식 객체 를 자식 객체로 가지고 있다. 이때 와 은 이웃하는 두 카메라 A와 B의 영상 사이의 겹치는 영역에서 동일 대상물에 대한 추적 결과이므로 하나의 전역 객체 로 대응이 된다.In step S303 of FIG. 3, a global object having the local object as a child object is searched among the global objects currently being tracked. Each global object has its corresponding local objects as child objects. For example, in the case of FIG. 4, A local object As a child object, and a global object Is a local object Wow As a child object, and a global object Child object As a child object. At this time Wow Is a result of tracking the same object in the overlapping area between the images of the two neighboring cameras A and B, .
상기 단계(S303)에서 상기 지역 객체를 자식 객체로 갖는 전역 객체가 있으면 단계(S308)로 진행한다. 상기 단계(S303)에서 상기 지역 객체를 자식 객체로 갖는 전역 객체가 없으면 단계(S304)로 진행한다.If there is a global object having the local object as a child object in step S303, the flow advances to step S308. If there is no global object having the local object as a child object in step S303, the flow advances to step S304.
도 3의 단계(S304)에서, 상기 지역 객체에 대응하는 전역 객체가 있는지 탐색한다. 현재 추적 중인 각각의 전역 객체에 대하여, 전역 객체의 중심의 사이트 맵 좌표와 상기 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하여 거리가 일정량(통상적으로 사이트 맵 상에서 표현되는 객체의 폭의 절반) 이하이면 상기 지역 객체에 대응하는 전역 객체를 찾은 것으로 한다.In step S304 of FIG. 3, it is determined whether there is a global object corresponding to the local object. For each global object being tracked, determine the distance between the center of the global object's site map coordinates and the center of the local object's center of the site map coordinates so that the distance is constant (typically half of the width of the object represented on the site map) The global object corresponding to the local object is found.
도 3의 단계(S305)에서 상기 지역 객체에 대응하는 전역 객체가 존재하면, 단계(S306)에서 상기 지역 객체를 해당 전역 객체의 자식 객체로 추가하고 단계(S308)로 진행한다.If there is a global object corresponding to the local object in step S305 of FIG. 3, the local object is added as a child object of the global object in step S306, and the flow advances to step S308.
상기 단계(S305)에서 상기 지역 객체에 대응하는 전역 객체가 존재하지 않으면, 단계(S307)에서 신규 전역 객체를 생성하고, 상기 지역 객체를 신규 전역 객체의 자식 객체로 추가한 후 단계(S308)로 진행한다.If there is no global object corresponding to the local object in step S305, a new global object is created in step S307, the local object is added as a child object of the new global object, and then step S308 is performed Go ahead.
도 3의 단계(S308)에서 현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거한다. 도 2의 영상 기반 지역 객체 추적부(201)는 특정 지역 객체의 추적이 종료되면 사이트 맵 기반 전역 객체 추적부(203)에 그 사실을 알린다. 사이트 맵 기반 전역 객체 추적부(203)은 해당 지역 객체를 자식 객체로 갖는 전역 객체를 찾아 해당 전역 객체의 자식 객체 목록에서 해당 지역 객체를 제거한다. 이런 식으로 모든 자식 객체(즉, 대응하는 지역 객체)가 제거된 전역 객체의 경우, 실제 추적 대상이 사라졌음을 의미하므로 해당 전역 객체를 전역 객체 추적 목록에서 제거하는 것이다.In step S308 of FIG. 3, a global object that does not have any child objects among the global objects currently being tracked is removed from the global object tracking list. The image-based area
도 3의 단계(S301)부터 단계(S308)은 현재 추적 중인 모든 지역 객체에 대해 수행되며, 모든 지역 객체에 대한 처리는 일정 주기(통상적으로 비디오 분석 프레임 레이트)마다 반복하여 수행된다.Steps S301 to S308 of FIG. 3 are performed for all the local objects currently being tracked, and the processing for all the local objects is repeatedly performed for each predetermined period (typically, video analysis frame rate).
전술한 바와 같이 현재 추적 중인 전역 객체는 그것에 대응하는 지역 객체들을 자식 객체로 가진다. 이 때 전역 객체의 사이트 맵 상에서의 현재 위치는 해당 자식 객체들(지역 객체들)의 사이트 맵 좌표의 평균값으로 결정된다.As described above, the global object currently being tracked has local objects corresponding thereto as child objects. At this time, the current position of the global object on the site map is determined by the average value of the site map coordinates of the corresponding child objects (local objects).
도 2의 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라 영상의 픽셀 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 기능을 수행한다. 상기 기능을 수행하기 위해 상기 카메라 영상과 사이트 맵 사이의 좌표 변환부(202)는 특정 카메라의 카메라 영상이 사이트 맵으로 어떻게 매핑이 되는지 미리 알고 있어야 한다. 본 발명에서는 사용자가 사이트 맵과 카메라 영상 사이의 몇 개의 특징점들의 대응 관계를 지정해줌에 의해 카메라 영상과 사이트 맵 사이의 매핑 관계를 설정하는 방법을 제안한다. 이 때 특징점이란 물체의 모서리 지점 등과 같이 영상 또는 사이트 맵에서 쉽게 구분이 되는 지점을 의미한다.
The coordinate
도 5는 사이트 맵과 카메라 영상 사이의 특징점들의 대응 관계를 지정한 예이다. 이 때 사이트 맵은 감시 지역을 수직으로 내려다보았을 때의 평면도이고, 영상에서의 특징점은 지면부에 있는 특징점으로 한정한다.
FIG. 5 is an example of designating a correspondence relationship between minutiae points between a site map and a camera image. At this time, the site map is a plan view when the observation area is looked down vertically, and the minutiae in the image are limited to the minutiae on the ground.
도 1에서 오버헤드 카메라(101 또는 102)가 지면과 완전히 수직이 되도록 설치되어 있다면, 카메라 영상의 지면부와 사이트 맵 사이의 매핑 관계는 하기 <수학식 1>과 같이 유사 변환(Similarity Transformation)에 의해 표현될 수 있다.
1, if the
[수학식 1][Equation 1]
상기 <수학식 1>에서 는 카메라 영상의 지면부에 속한 픽셀 좌표이고, 는 와 대응하는 사이트 맵의 포인트 좌표이고, 는 와 사이의 매핑 관계를 정의하는 변환 파라미터들이다. 상기 <수학식 1>에서 한 개의 특징점 대응쌍이 주어지면 미지수 에 대한 2개의 방정식을 얻을 수 있다. 따라서 두 개의 특징점 대응쌍이 주어지면 총 4개의 연립 방정식으로부터 변환 파라미터 를 구할 수 있다.In Equation (1) Is a pixel coordinate belonging to the ground portion of the camera image, The Is the point coordinate of the corresponding site map, The Wow Lt; / RTI > are transformation parameters that define the mapping relationship between < RTI ID = 0.0 > If one feature point corresponding pair is given in Equation (1) above, Two equations can be obtained for. Therefore, given two pairs of feature points, the transformation parameters Can be obtained.
도 1에서 오버헤드 카메라(101 또는 102)가 지면과 수직을 이루지 않으면 카메라 영상의 지면부와 사이트 맵 사이의 매핑 관계는 하기 <수학식 2>와 같이 프로젝티브 변환(Projective Transformation)에 의해 표현될 수 있다.
1, if the
[수학식 2]&Quot; (2) "
상기 <수학식 2>에서 는 카메라 영상의 지면부에 속한 픽셀 좌표이고, 는 와 대응하는 사이트 맵의 포인트 좌표이고, 는 와 사이의 매핑 관계를 정의하는 변환 파라미터들이고, 는 0이 아닌 임의의 값을 갖는 스케일 값이다. 상기 <수학식 2>에서 한 개의 특징점 대응쌍이 주어지면 미지수 로 구성된 2개의 방정식을 얻을 수 있다. 따라서 네 개의 특징점 대응쌍이 주어지면 총 8개의 연립 방정식으로부터 변환 파라미터 를 구할 수 있다. 주어진 네 개 이상의 특징점 대응쌍으로부터 상기 변환 파리미터 를 구하는 자세한 방법은 “Multiple View Geometry in Computer Vision (Cambridge University Press)”를 참조하라.In Equation (2) Is a pixel coordinate belonging to the ground portion of the camera image, The Is the point coordinate of the corresponding site map, The Wow Lt; RTI ID = 0.0 > a < / RTI > mapping relationship, Is a scale value having an arbitrary non-zero value. If one feature point corresponding pair is given in Equation (2) above, Two equations can be obtained. Therefore, given four pairs of minutiae points, the transformation parameters Can be obtained. From the given four or more feature point corresponding pairs, See "Multiple View Geometry in Computer Vision (Cambridge University Press)".
만약 도 1의 오버헤드 카메라(101 또는 102)에 광각 렌즈가 장착되어 있다면, 카메라에 의해 취득된 영상에는 직선에 해당하는 부분이 곡선으로 휘어져서 보이는 렌즈 왜곡(Lens Distortion) 현상이 나타나게 된다. 카메라 영상에 렌즈 왜곡이 있는 경우, 카메라 영상의 지면부의 픽셀 좌표와 이에 대응하는 사이트 맵 상의 포인트 좌표와의 변환 관계는 더 이상 상기 <수학식 1> 또는 <수학식 2>를 만족하지 않게 된다. 따라서 상기 <수학식 1> 또는 <수학식 2>를 적용하기에 앞서 카메라 영상에서 렌즈 왜곡을 먼저 제거해야 한다. 렌즈 왜곡이 있는 영상의 픽셀 좌표와 렌즈 왜곡이 제거된 영상의 픽셀 좌표의 대응 관계는 통상적으로 <수학식 3>과 같이 주어진다.If the
[수학식 3]&Quot; (3) "
상기 <수학식 3>에서 는 렌즈 왜곡이 있는 영상의 픽셀 좌표, 는 렌즈 왜곡이 제거된 영상에서 에 대응하는 픽셀 좌표, 은 영상의 중심과 사이의 거리, 는 방사 왜곡 계수(Radial Distortion Coefficients)이다. 따라서 렌즈의 방사 왜곡 계수 의 값을 알면 렌즈 왜곡이 있는 영상으로부터 렌즈 왜곡이 제거된 영상을 얻을 수 있다. 상기 방사 왜곡 계수 의 값을 측정하는 방법들이 이미 공개되어 있는데, 예를 들면 “Learning OpenCV (O’Reilly Media Inc.)”를 참조하라. 도 6은 렌즈 왜곡이 있는 영상으로부터 렌즈 왜곡을 제거한 영상을 얻은 예이다.
In Equation (3) The pixel coordinates of the image having the lens distortion, In the image with the lens distortion removed The pixel coordinates corresponding to < RTI ID = The center of the image The distance between them, Is the Radial Distortion Coefficients. Therefore, the coefficient of radial distortion It is possible to obtain an image in which the lens distortion is removed from the image having the lens distortion. The radial distortion coefficient Are already available, for example, see "Learning OpenCV (O'Reilly Media Inc.)". Fig. 6 is an example of obtaining an image in which lens distortion is removed from an image having lens distortion.
101, 102: 오버헤드 카메라
200: 객체 추적 장치
201: 영상 기반 지역 객체 추적부
202: 사이트 맵 기반 전역 객체 추적부
203: 카메라 영상과 사이트 맵 사이의 대응 관계 설정부
204: 실시간 사이트 맵 표출부
205: 객체 메타데이터 저장부
206: 객체 메타데이터 검색/재생부101, 102: Overhead camera
200: Object tracking device
201: image-based local object tracking unit
202: Sitemap-based global object tracking unit
203: correspondence relation setting unit between the camera image and the site map
204: Real-time site map display unit
205: object meta data storage unit
206: Object Metadata Search / Playback Unit
Claims (16)
상기 복수의 카메라로부터 수신된 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 카메라 영상과 사이트 맵 사이의 좌표 변환부;
상기 지역 객체 추적 결과 및 상기 사이트 맵 상에서의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 사이트 맵 기반 전역 객체 추적부; 및
상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 상기 사이트 맵 상에 실시간으로 표출하는 실시간 사이트 맵 표출부를 포함하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
An image-based local object tracking unit for tracking an object and generating a local object tracking result when a camera image is received from each of a plurality of cameras installed toward the ground such that a part of the ground is overlapped at a predetermined height from the ground surface of the surveillance site; ;
A coordinate conversion unit between a camera image and a site map for converting pixel coordinates of each camera image received from the plurality of cameras into point coordinates of the site map;
A global object tracking unit for generating a global object tracking result using the local object tracking result and the point coordinates of the local object on the site map; And
And a real-time site map display unit for displaying the position of the global object being tracked on the site map in real time using the global object tracking result
An object tracking device based on multiple overhead cameras and sitemaps.
상기 사이트 맵 기반 전역 객체 추적부는
현재 추적 중인 특정 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환하고, 현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to claim 1,
The site map-based global object tracking unit
The location coordinates of the specific area object currently being tracked are converted into point coordinates on the site map and whether a global object having the specific area object as a child object is present among the global objects being tracked is checked doing
An object tracking device based on multiple overhead cameras and sitemaps.
상기 사이트 맵 기반 전역 객체 추적부는
상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하지 않으면, 현재 추적 중인 전역 객체 각각에 대하여, 상기 전역 객체의 중심의 사이트 맵 좌표와 상기 특정 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하여 상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
3. The method of claim 2,
The site map-based global object tracking unit
If there is no global object having the specific region object as a child object, a distance between the site map coordinates of the center of the global object and the site map coordinates of the center of the specific region object is obtained for each global object being tracked And determining whether the global object is found by checking whether the distance is less than a predetermined amount
An object tracking device based on multiple overhead cameras and sitemaps.
상기 사이트 맵 기반 전역 객체 추적부는
상기 거리가 일정량 이하인 전역 객체가 존재하면 상기 특정 지역 객체에 대응하는 전역 객체를 찾았다고 판단하고, 상기 특정 지역 객체를 상기 전역 객체의 자식 객체로 추가하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method of claim 3,
The site map-based global object tracking unit
If it is determined that a global object corresponding to the specific region object is found, and adds the specific region object as a child object of the global object
An object tracking device based on multiple overhead cameras and sitemaps.
상기 사이트 맵 기반 전역 객체 추적부는
상기 거리가 일정량 이하인 전역 객체가 존재하지 않는다면 상기 특정 지역 객체에 대응하는 전역 객체를 찾지 못하였다고 판단하고, 신규 전역 객체를 생성하고 상기 특정 지역 객체를 상기 신규 전역 객체의 자식 객체로 추가하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
5. The method of claim 4,
The site map-based global object tracking unit
If it is determined that the global object corresponding to the specific region object is not found, then a new global object is created and the specific region object is added as a child object of the new global object To
An object tracking device based on multiple overhead cameras and sitemaps.
현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to any one of claims 2 to 5, wherein the site map-based global object tracking unit
And removing a global object that does not have any child objects among the currently tracked global objects from the global object tracking list
An object tracking device based on multiple overhead cameras and sitemaps.
상기 카메라 영상과 사이트 맵 사이의 좌표 변환부는
사용자에 의해 상기 사이트 맵과 상기 각각의 카메라 영상 사이의 특징점의 대응 관계가 지정되면, 상기 각각의 카메라 영상과 상기 사이트 맵 사이의 매핑 관계를 설정하여 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
The method according to claim 1,
The coordinate transformation unit between the camera image and the site map
A mapping relationship between each of the camera images and the site map is set by a user so that pixel coordinates of the camera image are converted into point coordinates of the site map Characterized in that
An object tracking device based on multiple overhead cameras and sitemaps.
상기 카메라 영상과 사이트 맵 사이의 매핑 관계는
상기 복수의 카메라가 지면과 수직을 이루면 하기의 [수학식 1]과 같이 정의되며,
[수학식 1]
여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 상기 복수의 카메라가 지면과 수직을 이루지 않으면 하기의 [수학식 2]과 같이 정의되며,
[수학식 2]
여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 는 0이 아닌 임의의 값을 갖는 스케일 값이며,
복수의 특징점의 대응 쌍을 이용하면 상기 [수학식 1] 및 [수학식 2]에서 변환 파라미터에 대한 복수의 방정식이 생성되며, 상기 복수의 방정식으로부터 변환 파라미터가 산출되는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치.
8. The method of claim 7,
The mapping relationship between the camera image and the site map is
When the plurality of cameras are perpendicular to the paper surface, the following formula (1)
[Equation 1]
Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) Is a conversion parameter defining a mapping relationship between (x, y) and (X, Y), and if the plurality of cameras are not perpendicular to the ground,
&Quot; (2) "
Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) A transformation parameter that defines a mapping relationship, Is a scale value having an arbitrary non-zero value,
A plurality of equations for the conversion parameters are generated in the equations (1) and (2) using the corresponding pairs of the plurality of characteristic points, and the conversion parameters are calculated from the plurality of equations
An object tracking device based on multiple overhead cameras and sitemaps.
감시 사이트의 지면으로부터 일정 높이의 장소에서 지면의 일부가 서로 겹치게 촬영되도록 지면을 향해 설치된 복수의 카메라 각각으로 부터 카메라 영상을 수신하는 단계;
상기 각각의 카메라 영상에서 객체를 추적하여 지역 객체 추적 결과를 생성하는 단계;
상기 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계;
상기 지역 객체 추적 결과 및 상기 사이트 맵상의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계; 및
상기 전역 객체 추적 결과를 이용하여 추적 중인 전역 객체의 위치를 상기 사이트 맵 상에 표출하는 단계를 포함하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
A method for tracking an object based on a plurality of overhead cameras and a site map executed in an object tracking device,
Receiving a camera image from each of a plurality of cameras installed toward the ground so that a part of the ground surface is photographed so as to overlap with the ground surface at a predetermined height from the ground;
Tracking an object in each of the camera images to generate a local object tracking result;
Converting pixel coordinates of each camera image into point coordinates of a site map;
Generating a global object tracking result using the local object tracking result and the point coordinates of the local object on the site map; And
And displaying the location of the global object being tracked on the site map using the global object tracking result
An object tracking method based on multiple overhead cameras and sitemaps.
상기 지역 객체 추적 결과 및 상기 사이트 맵 상의 지역 객체의 포인트 좌표를 이용하여 전역 객체 추적 결과를 생성하는 단계는
현재 추적 중인 특정 지역 객체의 현재 프레임에서의 위치 좌표를 사이트 맵 상의 포인트 좌표로 변환하는 단계; 및
현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
10. The method of claim 9,
The step of generating the global object tracking result using the local object tracking result and the point coordinates of the local object on the site map
Converting position coordinates in a current frame of a specific local object currently being tracked into point coordinates on a site map; And
Checking whether there is a global object having the specific region object as a child object among the global objects currently being tracked
An object tracking method based on multiple overhead cameras and sitemaps.
상기 현재 추적 중인 전역 객체 중 상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하는지 여부를 확인하는 단계는
상기 특정 지역 객체를 자식 객체로 갖는 전역 객체가 존재하지 않으면, 현재 추적 중인 전역 객체 각각에 대하여, 상기 전역 객체의 중심의 사이트 맵 좌표와 상기 특정 지역 객체의 중심의 사이트 맵 좌표 사이의 거리를 구하는 단계; 및
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
11. The method of claim 10,
Checking whether there is a global object having the specific region object as a child object among the currently tracked global objects
If there is no global object having the specific region object as a child object, a distance between the site map coordinates of the center of the global object and the site map coordinates of the center of the specific region object is obtained for each global object being tracked step; And
And determining whether the global object is found by checking whether the distance is less than a predetermined amount
An object tracking method based on multiple overhead cameras and sitemaps.
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계는
상기 거리가 일정량 이하인 전역 객체가 존재하면 상기 특정 지역 객체에 대응하는 전역 객체를 찾았다고 판단하는 단계;
상기 특정 지역 객체를 상기 전역 객체의 자식 객체로 추가하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
12. The method of claim 11,
Determining whether the distance is less than a predetermined amount and determining whether the global object is found
Determining that a global object corresponding to the specific region object is found if the global object having the distance is less than a predetermined amount;
And adding the specific region object as a child object of the global object
An object tracking method based on multiple overhead cameras and sitemaps.
상기 거리가 일정량 이하인지 여부를 확인하여 전역 객체를 찾았는지 여부를 판단하는 단계는
상기 거리가 일정량 이하인 전역 객체가 존재하지 않는다면 상기 특정 지역 객체에 대응하는 전역 객체를 찾지 못하였다고 판단하는 단계;
상기 신규 전역 객체를 생성하고 상기 특정 지역 객체를 상기 신규 전역 객체의 자식 객체로 추가하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
12. The method of claim 11,
Determining whether the distance is less than a predetermined amount and determining whether the global object is found
Determining that the global object corresponding to the specific region object is not found if the global object having the distance less than a predetermined amount does not exist;
And creating the new global object and adding the specific local object as a child object of the new global object
An object tracking method based on multiple overhead cameras and sitemaps.
현재 추적 중인 전역 객체들 중에 어떠한 자식 객체도 가지고 있지 않는 전역 객체를 전역 객체 추적 목록에서 제거하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
14. The method according to any one of claims 10 to 13,
And removing a global object that does not have any child objects among the currently tracked global objects from the global object tracking list
An object tracking method based on multiple overhead cameras and sitemaps.
상기 각각의 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계는
사용자에 의해 상기 사이트 맵과 상기 각각의 카메라 영상 사이의 특징점의 대응 관계가 지정되면, 상기 각각의 카메라 영상과 상기 사이트 맵 사이의 매핑 관계를 설정하여 카메라 영상의 픽셀 좌표를 사이트 맵의 포인트 좌표로 변환하는 단계를 포함하는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.
9. The method of claim 8,
The step of converting pixel coordinates of each camera image into point coordinates of a site map
A mapping relationship between each of the camera images and the site map is set by a user so that pixel coordinates of the camera image are converted into point coordinates of the site map Characterized in that it comprises the steps of:
An object tracking method based on multiple overhead cameras and sitemaps.
상기 카메라 영상과 사이트 맵 사이의 매핑 관계는
상기 복수의 카메라가 지면과 수직을 이루면 하기의 [수학식 1]과 같이 정의되며,
[수학식 1]
여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 상기 복수의 카메라가 지면과 수직을 이루지 않으면 하기의 [수학식 2]과 같이 정의되며,
[수학식 2]
여기에서, (x,y)는 지면의 픽셀 좌표이고, (X,Y)는 (x,y)에 대응하는 사이트 맵의 포인트 좌표이고, 는 (x,y) 및 (X,Y) 사이의 매핑 관계를 정의하는 변환 파라미터이며, 는 0이 아닌 임의의 값을 갖는 스케일 값이며,
복수의 특징점의 대응 쌍을 이용하면 상기 [수학식 1] 및 [수학식 2]에서 변환 파라미터에 대한 복수의 방정식이 생성되며, 상기 복수의 방정식으로부터 변환 파라미터가 산출되는 것을 특징으로 하는
복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 방법.16. The method of claim 15,
The mapping relationship between the camera image and the site map is
When the plurality of cameras are perpendicular to the paper surface, the following formula (1)
[Equation 1]
Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) Is a conversion parameter defining a mapping relationship between (x, y) and (X, Y), and if the plurality of cameras are not perpendicular to the ground,
&Quot; (2) "
Here, (x, y) is the pixel coordinate of the ground, (X, Y) is the point coordinate of the site map corresponding to (x, y) A transformation parameter that defines a mapping relationship, Is a scale value having an arbitrary non-zero value,
A plurality of equations for the conversion parameters are generated in the equations (1) and (2) using the corresponding pairs of the plurality of characteristic points, and the conversion parameters are calculated from the plurality of equations
An object tracking method based on multiple overhead cameras and sitemaps.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140096617A KR101645959B1 (en) | 2014-07-29 | 2014-07-29 | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140096617A KR101645959B1 (en) | 2014-07-29 | 2014-07-29 | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160014413A true KR20160014413A (en) | 2016-02-11 |
KR101645959B1 KR101645959B1 (en) | 2016-08-05 |
Family
ID=55351631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140096617A KR101645959B1 (en) | 2014-07-29 | 2014-07-29 | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101645959B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101700651B1 (en) * | 2016-07-26 | 2017-01-31 | 주식회사 미래엔에스 | Apparatus for tracking object using common route date based on position information |
WO2018035667A1 (en) * | 2016-08-22 | 2018-03-01 | 深圳前海达闼云端智能科技有限公司 | Display method and apparatus, electronic device, computer program product, and non-transient computer readable storage medium |
KR101977635B1 (en) * | 2017-11-20 | 2019-05-13 | 한국항공대학교산학협력단 | Multi-camera based aerial-view 360-degree video stitching and object detection method and device |
CN111179305A (en) * | 2018-11-13 | 2020-05-19 | 晶睿通讯股份有限公司 | Object position estimation method and object position estimation device |
KR20220124419A (en) * | 2021-03-03 | 2022-09-14 | 한국생산기술연구원 | A top-view global map based abnormal event recognition device and method using x-dimension sensor |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102367782B1 (en) | 2021-07-12 | 2022-02-25 | 주식회사 인텔리빅스 | Apparatus for Tracking Objects and Driving Method Thereof |
KR20230081016A (en) | 2021-11-30 | 2023-06-07 | 주식회사 케이티 | Device, method and computer program for tracking object using multiple cameras |
KR102446320B1 (en) | 2021-12-14 | 2022-09-23 | 주식회사 인텔리빅스 | Apparatus for Map-based Object Tracking and Event Detection Based on a plurality of Cameras and Driving Method Thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013078119A1 (en) * | 2011-11-22 | 2013-05-30 | Pelco, Inc. | Geographic map based control |
JP5453429B2 (en) * | 2009-07-22 | 2014-03-26 | オムロン株式会社 | Surveillance camera terminal |
KR101380628B1 (en) * | 2013-10-18 | 2014-04-02 | 브이씨에이 테크놀러지 엘티디 | Method and apparatus for object tracking using multiple cameras |
-
2014
- 2014-07-29 KR KR1020140096617A patent/KR101645959B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5453429B2 (en) * | 2009-07-22 | 2014-03-26 | オムロン株式会社 | Surveillance camera terminal |
WO2013078119A1 (en) * | 2011-11-22 | 2013-05-30 | Pelco, Inc. | Geographic map based control |
KR101380628B1 (en) * | 2013-10-18 | 2014-04-02 | 브이씨에이 테크놀러지 엘티디 | Method and apparatus for object tracking using multiple cameras |
Non-Patent Citations (1)
Title |
---|
Richard Hartley et al., "Multiple View Geometry in Computer Vision", Cambridge University Press, Second Edition 2003.* * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101700651B1 (en) * | 2016-07-26 | 2017-01-31 | 주식회사 미래엔에스 | Apparatus for tracking object using common route date based on position information |
WO2018035667A1 (en) * | 2016-08-22 | 2018-03-01 | 深圳前海达闼云端智能科技有限公司 | Display method and apparatus, electronic device, computer program product, and non-transient computer readable storage medium |
KR101977635B1 (en) * | 2017-11-20 | 2019-05-13 | 한국항공대학교산학협력단 | Multi-camera based aerial-view 360-degree video stitching and object detection method and device |
CN111179305A (en) * | 2018-11-13 | 2020-05-19 | 晶睿通讯股份有限公司 | Object position estimation method and object position estimation device |
CN111179305B (en) * | 2018-11-13 | 2023-11-14 | 晶睿通讯股份有限公司 | Object position estimation method and object position estimation device thereof |
KR20220124419A (en) * | 2021-03-03 | 2022-09-14 | 한국생산기술연구원 | A top-view global map based abnormal event recognition device and method using x-dimension sensor |
Also Published As
Publication number | Publication date |
---|---|
KR101645959B1 (en) | 2016-08-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101645959B1 (en) | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map | |
US9560323B2 (en) | Method and system for metadata extraction from master-slave cameras tracking system | |
US20200401617A1 (en) | Visual positioning system | |
US20190163983A1 (en) | System and method for detecting, tracking, and classifying objects | |
JP4541316B2 (en) | Video surveillance search system | |
US8582816B2 (en) | Method and apparatus for video analytics based object counting | |
KR20200040665A (en) | Systems and methods for detecting a point of interest change using a convolutional neural network | |
CN101095149B (en) | Image comparison apparatus and method | |
CN111079600A (en) | Pedestrian identification method and system with multiple cameras | |
US9245247B2 (en) | Queue analysis | |
US20140010456A1 (en) | Kalman filter approach to augment object tracking | |
JP6013923B2 (en) | System and method for browsing and searching for video episodes | |
CN106295598A (en) | A kind of across photographic head method for tracking target and device | |
US11734338B2 (en) | Image search in walkthrough videos | |
CN106446002A (en) | Moving target-based video retrieval method for track in map | |
KR20110035662A (en) | Intelligent image search method and system using surveillance camera | |
JP2019029935A (en) | Image processing system and control method thereof | |
CN113256731A (en) | Target detection method and device based on monocular vision | |
Zhang et al. | Longitudinal-scanline-based arterial traffic video analytics with coordinate transformation assisted by 3D infrastructure data | |
CN109977796A (en) | Trail current detection method and device | |
Lin et al. | Moving camera analytics: Emerging scenarios, challenges, and applications | |
WO2015005102A1 (en) | Image processing device, image processing method, and image processing program | |
JP6831396B2 (en) | Video monitoring device | |
Lee et al. | Vehicle counting based on a stereo vision depth maps for parking management | |
Jaynes | Multi-view calibration from planar motion for video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20190610 Year of fee payment: 4 |