KR20170100204A - Apparatus and method for target tracking using 3d bim - Google Patents

Apparatus and method for target tracking using 3d bim Download PDF

Info

Publication number
KR20170100204A
KR20170100204A KR1020160022461A KR20160022461A KR20170100204A KR 20170100204 A KR20170100204 A KR 20170100204A KR 1020160022461 A KR1020160022461 A KR 1020160022461A KR 20160022461 A KR20160022461 A KR 20160022461A KR 20170100204 A KR20170100204 A KR 20170100204A
Authority
KR
South Korea
Prior art keywords
target
information
dimensional
tracking
image information
Prior art date
Application number
KR1020160022461A
Other languages
Korean (ko)
Inventor
전서현
이재연
김재홍
박찬규
이주행
조영조
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020160022461A priority Critical patent/KR20170100204A/en
Publication of KR20170100204A publication Critical patent/KR20170100204A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N13/0007
    • H04N13/0217
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a device and a method for tracking a target by using three-dimensional spatial information, which digitize information of a three-dimensional space and a target by mapping image information captured by capturing devices and three-dimensional spatial information (BIM). According to the present invention, the device for tracking a target by using three-dimensional spatial information comprises: a transformation matrix calculating part mapping a plurality of capturing devices and the three-dimensional spatial information corresponding to a real space captured by the capturing devices, and calculating a transformation matrix; a target detecting part detecting the target included in the image information captured by at least one capturing device among the plurality of capturing devices, and extracting characteristic information of the detected target; a three-dimensional coordinate extracting part extracting a three-dimensional virtual spatial coordinate of the detected target by using the transformation matrix; and a path tracking part comparing a previous frame of the image information with a current frame, and tracking a moving path of the target.

Description

3차원 공간 정보를 이용한 목표물 추적 장치 및 방법{APPARATUS AND METHOD FOR TARGET TRACKING USING 3D BIM}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for tracking a target using 3D spatial information,

본 발명은 3차원 공간 정보와 영상 정보를 이용한 목표물 추적 기술에 관한 것으로, 특히 건물에 설치된 촬영 장치로부터 획득한 영상 정보에 포함된 목표물을 검출하고, 3차원 공간 정보(BIM)를 이용하여 목표물의 이동을 추적하는 기술에 관한 것이다.The present invention relates to a target tracking technique using three-dimensional spatial information and image information. More particularly, the present invention relates to a technique for detecting a target included in image information acquired from a photographing apparatus installed in a building, ≪ / RTI >

오늘날, CCTV는 방범, 방재, 시설물 관리, 교통체계 관리 등에 널리 적용되고 있다. 방범 및 방재를 위한 CCTV 관제센터의 경우, 수백 대의 카메라로부터 영상을 전송받는다. 따라서, 소수의 관제인원이 모든 카메라를 관제하기에는 무리가 있다. 이러한 문제점을 해결하고, 효율적으로 CCTV를 관제하기 위한, 영상처리, 영상인식 기술을 활용하여, 범죄나 재난 상황을 인식하는 영상기반 지능형 CCTV 기술이 개발되고 있다. Today, CCTV is widely applied to crime prevention, disaster prevention, facility management, and traffic system management. CCTV control center for crime prevention and disaster prevention receives images from hundreds of cameras. Therefore, it is difficult for a small number of control personnel to control all cameras. Image-based intelligent CCTV technology is being developed to solve these problems and to recognize crime and disaster situations by using image processing and image recognition technology to efficiently control CCTV.

영상기반 지능형 CCTV 관제 시스템을 구현하기 위해서는, 객체 검출, 객체 추적, 상황인식 기술이 필요하다. 이 중, CCTV 영상에 포함된 목표물을 추적하는 객체 추적 기술(object tracking)은 상용 제품이 출시되었을 정도로 많이 성숙한 기술이다. In order to implement an image-based intelligent CCTV control system, object detection, object tracking, and situation recognition technology are required. Among them, object tracking, which tracks the targets included in CCTV images, is a mature technology that commercial products have been released.

그리고 최근에는 CCTV 영상을 BIM 정보와 맵핑하여, 3차원 가상 공간에 투영하는 기술도 개발되었다. 예를 들어, Autodesk사의 Revit과 같은 상용툴이 대표적이다. Recently, a technique of mapping CCTV images to BIM information and projecting them in a three-dimensional virtual space has also been developed. For example, commercial tools like Autodesk's Revit are typical.

그러나, CCTV 영상을 화면 상의 좌표가 아닌 BIM을 활용한 가상의 3차원 공간 상에 투영했을 때, 목표물의 이동 경로를 3차원 좌표로 저장하는 기술은 최근에서야 연구되고 있다. However, when a CCTV image is projected onto a virtual three-dimensional space using BIM instead of on-screen coordinates, a technique of storing the moving path of the target in three-dimensional coordinates has been studied recently.

지금까지, CCTV 영상을 많이 활용하는 경찰이나 감염경로를 파악하기 위한 역학조사를 수행하는 연구원들은 사람이 일일이 다수의 CCTV 영상을 눈으로 확인하고, 수기로 경로를 작성하였다. 이로 인하여, CCTV 영상을 확인하는데 많은 시간이 소요되고, CCTV 영상의 확인 결과가 디지털화되지 않는다는 문제가 있다. Until now, the police who use CCTV video and investigate the epidemiological investigation to identify the infection route have been able to visually confirm multiple CCTV images one by one and create a path through the hand. Therefore, it takes a lot of time to check the CCTV image, and there is a problem that the confirmation result of the CCTV image is not digitized.

따라서, CCTV 영상으로부터 목표물을 자동으로 추적하고, 목표물의 이동경로를 3차원 디지털화하는 기술의 필요성이 절실하게 대두된다.Therefore, there is an urgent need for a technique for automatically tracking a target from a CCTV image and digitizing the movement path of the target in three dimensions.

한국 공개 특허 제10-2015-0132968호, 2015년 11월 27일 공개(명칭: 다중 목표 추적 시스템 및 방법)Korean Patent Laid-Open No. 10-2015-0132968, published on November 27, 2015 (name: Multiple goal tracking system and method)

본 발명의 목적은 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 자동으로 추적하고, 목표물의 이동경로를 바닥의 x,y 좌표 및 층수 정보로 표기하여 3차원으로 디지털화하는 것이다. An object of the present invention is to automatically track a target included in image information photographed by a photographing apparatus and digitize the moving path of the target in three dimensions by expressing the moving path of the target as x, y coordinates and the number of layers of floor information.

또한, 본 발명의 목적은 목표물의 추적을 놓친 경우, 가려진 구간에서 목표물의 예상 이동경로를 예측하여 3차원으로 디지털화하는 것이다. It is also an object of the present invention to predict the anticipated movement path of the target in the obscured section and to digitize it in three dimensions when the tracking of the target is missed.

또한, 본 발명의 목적은 촬영 장치들이 촬영한 영상 정보와 3차원 공간 정보(BIM)를 맵핑하여, 3차원 공간 및 목표물의 정보를 디지털화하는 것이다. In addition, an object of the present invention is to digitize information of a three-dimensional space and a target by mapping image information and three-dimensional spatial information (BIM) photographed by photographing apparatuses.

또한, 본 발명의 목적은 디지털화되어 저장된 데이터를 언제든지 다각도에서 재구성하여 접근 및 활용할 수 있도록 하는 것이다. It is also an object of the present invention to enable digitalized stored data to be reconstructed at any time in multiple angles for access and utilization.

또한, 본 발명의 목적은 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시키는 것이다. It is also an object of the present invention to dramatically reduce the amount of data required in tracking a target by digitizing and storing the 3D virtual space coordinate and the movement path of the target.

상기한 목적을 달성하기 위한 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치는 복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 변환 행렬 연산부, 상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하고, 검출된 상기 목표물의 특징 정보를 추출하는 목표물 검출부, 상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 3D 좌표 추출부, 그리고 상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 경로 추적부를 포함한다.According to an aspect of the present invention, there is provided a target tracking apparatus using three-dimensional spatial information, comprising: a plurality of photographic apparatuses; mapping three-dimensional spatial information corresponding to an actual space photographed by the photographic apparatuses, A target detecting unit detecting a target included in the image information captured by at least one of the plurality of photographing apparatuses and extracting feature information of the detected target from the plurality of photographing apparatuses, A 3D coordinate extractor for extracting a 3D virtual space coordinate of the detected object, and a path traceer for comparing a current frame with a previous frame of the image information to track a movement path of the target.

이 때, 상기 변환 행렬 연산부는, 상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑 할 수 있다. At this time, the conversion matrix operation unit can map the image information captured by the photographing apparatus and the three-dimensional spatial information using markers attached to the actual space.

이 때, 상기 변환 행렬 연산부는, 선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑 할 수 있다. At this time, the transformation matrix operation unit may restore the image information into three-dimensional solid information using a coupled-line camera technique, and map the three-dimensional solid information to the three-dimensional spatial information .

이 때, 상기 3D 좌표 추출부는, 상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출 할 수 있다. At this time, the 3D coordinate extraction unit may extract the 3D virtual space including at least one of the ID information of the target, the 3D virtual space coordinate information, the 3D virtual space layer number information, The phase coordinate can be extracted.

이 때, 상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 예측부를 더 포함하며, 상기 목표물 검출부는, 상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출 할 수 있다. In this case, when the tracking of the target is missed, the target detecting unit may detect the expected behavior radius of the target, and the target detecting unit may redetect the target using the feature information of the target.

이 때, 상기 예측부는, 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색 할 수 있다. At this time, the predicting unit can search for an expected behavior radius of the target using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.

이 때, 상기 예측부는, 상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측 할 수 있다. At this time, the prediction unit may predict a predicted movement path of the target using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.

이 때, 상기 목표물 검출부는, 제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단 할 수 있다. At this time, the target detection unit compares the feature information of the first target included in the first image information with the feature information of the second target included in the second image information, and outputs the feature information of the first target and the second target It is possible to determine whether or not the target is the same target.

이 때, 상기 목표물 검출부는, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버 할 수 있다. At this time, if the first target and the second target are judged to be the same target, the target detecting unit may handover the first target to the second video apparatus that has captured the second video information.

이 때, 상기 경로 추적부는, 추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시 할 수 있다. At this time, the path tracing unit may display the traced movement path of the target on a two-dimensional map.

또한, 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치에 의해 수행되는 목표물 추적 방법은, 복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 단계, 상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하는 단계, 검출된 상기 목표물의 특징 정보를 추출하는 단계, 상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 단계, 그리고 상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 단계를 포함한다.According to another aspect of the present invention, there is provided a target tracking method performed by a target tracking apparatus using three-dimensional spatial information, including: a step of detecting three-dimensional spatial information corresponding to an actual space photographed by a plurality of photographing apparatuses and photographing apparatuses Calculating a transformation matrix by using the transformation matrix, detecting a target included in the image information captured by at least one of the plurality of photographing apparatuses, extracting feature information of the detected target, Extracting coordinates of the 3D virtual space of the target detected using the transformation matrix, and comparing the current frame with the previous frame of the image information to track the movement path of the target.

본 발명에 따르면, 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 자동으로 추적하고, 목표물의 이동경로를 바닥의 x,y 좌표 및 층수 정보로 표기하여 3차원으로 디지털화할 수 있다. According to the present invention, the target included in the image information photographed by the photographing apparatus can be automatically tracked, and the moving path of the target can be digitized in three dimensions by expressing the x, y coordinates and the layer number information of the bottom.

또한, 본 발명에 따르면 목표물의 추적을 놓친 경우, 가려진 구간에서 목표물의 예상 이동경로를 예측하여 3차원으로 디지털화할 수 있다. In addition, according to the present invention, when the tracking of the target is missed, the predicted moving path of the target in the obscured section can be predicted and digitized into three dimensions.

또한, 본 발명에 따르면 촬영 장치들이 촬영한 영상 정보와 3차원 공간 정보(BIM)를 맵핑하여, 3차원 공간 및 목표물의 정보를 디지털화할 수 있다. In addition, according to the present invention, it is possible to digitize the three-dimensional space and the target information by mapping the image information photographed by the photographing apparatuses and the three-dimensional spatial information (BIM).

또한, 본 발명에 따르면 디지털화되어 저장된 데이터를 언제든지 다각도에서 재구성하여 접근 및 활용할 수 있다. In addition, according to the present invention, digitized and stored data can be reconfigured at various angles at any time for access and utilization.

또한, 본 발명에 따르면 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시킬 수 있다. Also, according to the present invention, it is possible to dramatically reduce the amount of data required for tracking a target by digitizing and storing the 3D virtual space coordinates and the movement path of the target.

도 1은 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 방법을 나타낸 순서도이다.
도 3은 본 발명의 실시예에 따른 실제 공간의 3차원 공간 정보를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 실제 건물의 바닥에 부착된 마커를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 마커의 위치를 파악하는 촬영 장치를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 3차원 공간 정보에서 마커와 촬영 장치의 위치를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 목표물의 바닥 좌표 픽셀을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 가상 공간에서 목표물의 3D 가상 공간상 좌표를 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 목표물의 이동 경로를 표시한 2차원 지도를 나타낸 도면이다.
도 10은 본 발명의 실시예에 따른 추적 누락 구간에서의 예상 행동 반경 탐색 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 영상 정보에서 포착된 목표물을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 3차원 공간 지도 상에 표시된 목표물을 나타낸 도면이다.
도 13은 본 발명의 실시예에 따라 목표물의 이동 경로를 저장하는 과정을 설명하기 위한 도면이다.
1 is a block diagram illustrating a configuration of a target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention.
2 is a flowchart illustrating a method of tracking a target using three-dimensional spatial information according to an embodiment of the present invention.
3 is a view showing three-dimensional spatial information of an actual space according to an embodiment of the present invention.
4 is a view showing a marker attached to a floor of an actual building according to an embodiment of the present invention.
5 is a view for explaining a photographing apparatus for locating a marker according to an embodiment of the present invention.
6 is a view for explaining the positions of the marker and the photographing apparatus in the three-dimensional spatial information according to the embodiment of the present invention.
7 is a view showing bottom coordinate pixels of a target according to an embodiment of the present invention.
FIG. 8 is a view showing 3D virtual space coordinates of a target in a virtual space according to an embodiment of the present invention.
FIG. 9 is a diagram showing a two-dimensional map showing a moving path of a target according to an embodiment of the present invention.
FIG. 10 is a diagram for explaining a process of searching for an expected behavior radius in a tracking missing interval according to an embodiment of the present invention.
11 is a view showing a target captured in image information according to an embodiment of the present invention.
12 is a diagram showing a target displayed on a three-dimensional space map according to an embodiment of the present invention.
13 is a diagram for explaining a process of storing a moving route of a target according to an embodiment of the present invention.

본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치의 구성을 나타낸 블록도이다.1 is a block diagram illustrating a configuration of a target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention.

도 1에 도시한 바와 같이, 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 변환 행렬 연산부(110), 목표물 검출부(120), 3D 좌표 추출부(130), 경로 추적부(140) 및 예측부(150)를 포함한다. 1, the target tracking apparatus 100 using three-dimensional spatial information includes a conversion matrix calculation unit 110, a target detection unit 120, a 3D coordinate extraction unit 130, a path tracking unit 140, (150).

먼저, 변환 행렬 연산부(110)는 복수의 촬영 장치들의 화각과 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산한다. 이때, 변환 행렬 연산부(110)는 선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 영상 정보를 3차원 입체 정보로 복원하고, 3차원 입체 정보를 3차원 공간 정보와 맵핑할 수 있다. First, the transformation matrix operation unit 110 maps the three-dimensional spatial information corresponding to the angle of view of a plurality of photographing apparatuses and the actual space photographed by the photographing apparatuses, and calculates a transformation matrix. At this time, the transformation matrix operation unit 110 can reconstruct the image information into three-dimensional solid information using the coupled-line camera technique, and map the three-dimensional solid information to the three-dimensional spatial information.

또한, 변환 행렬 연산부(110)는 실제 공간에 부착된 마커를 이용하여 촬영 장치가 촬영한 영상 정보의 화각과 3차원 공간 정보를 맵핑하는 행렬을 연산할 수 있다. Also, the conversion matrix operation unit 110 can calculate a matrix for mapping the angle of view of the image information photographed by the photographing apparatus and the three-dimensional spatial information using markers attached to the actual space.

그리고 목표물 검출부(120)는 영상 정보에 포함된 목표물을 검출하고, 검출된 목표물의 특징 정보를 추출한다. 이때, 목표물 검출부(120)는 제1 영상 정보에 포함된 제1 목표물의 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 특징 정보를 비교하여, 제1 목표물과 제2 목표물이 동일한 목표물인지 여부를 판단할 수 있다. Then, the target detecting unit 120 detects the target included in the image information and extracts the feature information of the detected target. At this time, the target detecting unit 120 compares the feature information of the first target included in the first image information with the feature information of the second target included in the second image information, and determines whether the first target and the second target are the same target Can be determined.

그리고 목표물 검출부(120)는 제1 목표물과 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 제1 목표물을 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버 할 수 있다. If it is determined that the first target and the second target are the same target, the target detecting unit 120 may hand over the first target to the second video apparatus that has captured the second video information.

또한, 목표물의 추적을 놓쳐, 예측부(150)가 목표물의 예상 행동 반경을 탐색하는 경우, 목표물 검출부(120)는 목표물의 특징 정보를 이용하여 목표물을 재검출할 수 있다. Further, if the tracking of the target is missed and the predicting unit 150 searches for the expected behavior radius of the target, the target detecting unit 120 can re-detect the target using the feature information of the target.

다음으로 3D 좌표 추출부(130)는 변환 행렬을 이용하여 검출된 목표물의 3D 가상 공간상 좌표를 추출한다. Next, the 3D coordinate extraction unit 130 extracts 3D virtual space coordinates of the detected target using the transformation matrix.

또한, 3D 좌표 추출부(130)는 목표물의 ID 정보, 3D 가상 공간상 좌표 정보, 3D 가상 공간상 층 수 정보 및 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 3D 가상 공간상 좌표를 추출할 수 있다. In addition, the 3D coordinate extraction unit 130 extracts coordinates of the 3D virtual space including at least one of the ID information of the target, the 3D virtual space coordinate information, the 3D virtual space layer number information, can do.

그리고 경로 추적부(140)는 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 목표물의 이동 경로를 추적한다. The path trace unit 140 compares the previous frame of the image information with the current frame and tracks the movement path of the target.

경로 추적부(140)는 추적된 목표물의 이동 경로를 3차원 공간 지도의 바닥면인 2차원 지도 상에 표시할 수 있다. 이때, 경로 추적부(140)는 이전 프레임인 t-1 프레임과 현재 프레임인 t 프레임을 비교하여, 목표물의 이동 경로를 추적할 수 있다. The path tracing unit 140 can display the trajectory of the traced target on a two-dimensional map which is the bottom surface of the three-dimensional space map. At this time, the route tracking unit 140 can track the movement path of the target by comparing the t-1 frame, which is the previous frame, with the t frame, which is the current frame.

마지막으로, 예측부(150)는 목표물의 추적을 놓친 경우, 목표물의 예상 행동 반경을 탐색한다. Finally, when the prediction unit 150 misses the tracking of the target, it searches the expected action radius of the target.

그리고 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경을 탐색할 수 있다. 또한, 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 이동 경로를 예측할 수 있다. Then, the prediction unit 150 can use the prediction algorithm including at least one of the social path planning and the extended Kalman filter to search for the expected behavior radius of the target. In addition, the prediction unit 150 can predict a predicted movement path of the target using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.

설명의 편의상, 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경 또는 목표물의 예상 이동 경로를 예측하는 것으로 설명하였다. 그러나 이에 한정하지 않고, 예측부(150)는 파티클 필터(Partical filter), 베이지안 필터(Bayesian filter) 및 마르코프 연쇄 몬테 카를로(Markov chain Monte Carlo) 등과 같이 통상적으로 사용되는 예측 알고리즘을 이용하여 목표물의 예상 행동 반경 및 예상 이동 경로 중 적어도 어느 하나를 예측할 수 있다. For convenience of explanation, the prediction unit 150 has been described as using the prediction algorithm including at least one of the social path planning and the extended Kalman filter to predict the expected movement radius of the target or the expected movement route of the target. However, the present invention is not limited to this, and the prediction unit 150 may estimate the target using a prediction algorithm that is commonly used, such as a Partial filter, a Bayesian filter, and a Markov chain Monte Carlo. The behavior radius and the predicted movement path can be predicted.

그리고 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 복수의 촬영 장치들의 정보, 실제 공간에 상응하는 3차원 공간 정보 및 검출된 목표물의 3D 가상 공간상 좌표 중에서 적어도 하나를 저장하는 저장부(미도시)를 포함할 수 있다. The target tracking apparatus 100 using three-dimensional spatial information includes a storage unit (not shown) for storing at least one of coordinates of a plurality of photographing devices, three-dimensional spatial information corresponding to a real space, Time).

이때, 저장부는 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시킬 수 있다. At this time, the storage unit digitally stores coordinates and movement path of the 3D virtual space of the target, thereby dramatically reducing the amount of data required for tracking the target.

또한, 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 저장부를 포함하지 않는 경우, 외부의 저장 장치에 복수의 촬영 장치들의 정보, 실제 공간에 상응하는 3차원 공간 정보 및 검출된 목표물의 3D 가상 공간상 좌표 중에서 적어도 하나를 저장할 수 있다. In addition, when the target tracking apparatus 100 using three-dimensional spatial information does not include a storage unit, information on a plurality of photographing apparatuses, three-dimensional spatial information corresponding to an actual space, and 3D virtual And spatial coordinates.

이하에서는 도 2 내지 도 9를 통하여 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치에 의해 수행되는 목표물 추적 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a target tracking method performed by the target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention will be described in detail with reference to FIG. 2 through FIG.

도 2는 본 발명의 실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 방법을 나타낸 순서도이다. 2 is a flowchart illustrating a method of tracking a target using three-dimensional spatial information according to an embodiment of the present invention.

먼저, 목표물 추적 장치(100)는 촬영 장치와 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산한다(S210). First, the target tracking apparatus 100 maps the three-dimensional spatial information corresponding to the photographing apparatus and the actual space, and calculates a transformation matrix (S210).

목표물 추적 장치(100)는 CCTV 등과 같은 촬영 장치와 촬영 장치가 촬영하는 실제 공간의 3차원 공간 정보를 맵핑하기 위한 사전 작업을 수행한다. 여기서, 사전 작업은 영상 정보에 포착된 목표물들이 BIM을 활용한 3차원 가상 공간 상에 어느 위치에 있는지를 파악하기 위하여 수행하는 작업을 의미한다. The target tracking apparatus 100 performs a preliminary operation for mapping three-dimensional spatial information of an actual space taken by a photographing apparatus such as a CCTV and the photographing apparatus. Here, the pre-task refers to a task performed to determine the position of the target captured in the image information on the three-dimensional virtual space using the BIM.

그리고 목표물 추적 장치(100)는 영상 정보와 3D 가상 공간상의 변환 행렬을 연산하기 위하여 사전 작업을 수행한다. 이때, 영상 정보와 3차원 공간 정보는 종래의 맵핑 기술을 이용하여 맵핑 될 수 있다. The target tracking apparatus 100 performs a preliminary operation to calculate a transformation matrix on the 3D image and the image information. At this time, the image information and the three-dimensional spatial information can be mapped using a conventional mapping technique.

도 3은 본 발명의 실시예에 따른 실제 공간의 3차원 공간 정보를 나타낸 도면이다.3 is a view showing three-dimensional spatial information of an actual space according to an embodiment of the present invention.

도 3과 같은 3차원 공간 정보는 건물의 벽과 바닥에 관한 정보를 포함하며, 목표물 추적 장치(100)는 촬영 장치가 설치된 실제 공간의 BIM을 통하여 3차원 공간 정보를 획득하거나, CAD 도면으로부터 3차원 공간 정보를 획득할 수 있다. 그리고 목표물 추적 장치(100)는 3차원 공간 정보를 디지털화하여 저장할 수 있다. The three-dimensional space information as shown in FIG. 3 includes information about the walls and the floor of the building. The target tracking apparatus 100 acquires three-dimensional spatial information through the BIM of the actual space in which the photographing apparatus is installed, Dimensional space information can be acquired. The target tracking device 100 can digitize and store three-dimensional spatial information.

도 4는 본 발명의 실시예에 따른 실제 건물의 바닥에 부착된 마커를 나타낸 도면이다. 4 is a view showing a marker attached to a floor of an actual building according to an embodiment of the present invention.

도 4에 도시한 바와 같이, 바닥 위치의 정확도를 향상시키기 위하여, 실제 건물의 바닥에 마커(400)를 부착하여 보정(calibration)하고, 이를 통하여 촬영 장치와 가상 3차원 공간상의 변환 행렬(transfer matrix)을 연산한다. As shown in FIG. 4, in order to improve the accuracy of the floor position, a marker 400 is attached to a floor of an actual building to calibrate the imaging apparatus and a transfer matrix ).

도 5는 본 발명의 실시예에 따른 마커의 위치를 파악하는 촬영 장치를 설명하기 위한 도면이다. 5 is a view for explaining a photographing apparatus for locating a marker according to an embodiment of the present invention.

도 5와 같이, 촬영 장치(500)는 실제 바닥에 부착된 마커(400)가 포함된 공간을 촬영한다. 목표물 추적 장치(100)는 촬영 장치(500)가 촬영한 영상 정보 상에서 마커(400)가 어느 곳에 위치하는지를 확인한다. 5, the photographing apparatus 500 photographs a space including the markers 400 attached to the actual floor. The target tracking apparatus 100 confirms where the marker 400 is located on the image information captured by the photographing apparatus 500. [

그리고 목표물 추적 장치(100)는 마커(400)를 기반으로 3차원 공간 정보와 영상 정보를 맵핑하기 위하여, 선분 카메라 쌍(CLC, Coupled Line Camera) 기법을 이용하여, 촬영 장치(500) 화면 상의 사각형을 3차원 디지털 공간에 복원하고, 변환 행렬을 연산한다. The target tracking apparatus 100 may be configured to detect a square on the screen of the photographing apparatus 500 by using a CLC (Coupled Line Camera) technique in order to map three-dimensional spatial information and image information based on the marker 400. [ Into a three-dimensional digital space, and computes a transformation matrix.

수학식 1은 변환 행렬을 나타낸 것이다. Equation (1) shows a transformation matrix.

Figure pat00001
Figure pat00001

여기서, T는 변환 행렬을 의미하고, P는 영상 정보의 픽셀 좌표를 의미하며, M은 3차원 공간에서의 좌표를 의미한다. Here, T denotes a transformation matrix, P denotes pixel coordinates of image information, and M denotes coordinates in a three-dimensional space.

즉, 변환 행렬(T)는 영상 정보의 픽셀 좌표(Px, Py)를 3차원 공간에 맵핑(id, x, t, f, t)하기 위한 행렬을 의미한다. 이때, id는 목표물의 식별자를 의미하고, x는 3차원 공간상의 x좌표를 의미하며, y는 3차원 공간상의 y좌표를 의미하고, f는 3차원 공간상의 건물 층 수를 의미하며, t는 촬영 장치가 해당 영상을 촬영한 시간을 의미한다. That is, the transformation matrix T means a matrix for mapping the pixel coordinates (Px, Py) of the image information to the three-dimensional space (id, x, t, f, t). In this case, id denotes an identifier of the target, x denotes an x coordinate in a three-dimensional space, y denotes a y coordinate in a three-dimensional space, f denotes a number of building layers in a three- And means a time when the photographing apparatus photographed the corresponding image.

도 6은 본 발명의 실시예에 따른 3차원 공간 정보에서 마커와 촬영 장치의 위치를 설명하기 위한 도면이다.6 is a view for explaining the positions of the marker and the photographing apparatus in the three-dimensional spatial information according to the embodiment of the present invention.

도 6에 도시한 바와 같이, 목표물 추적 장치(100)가 선분 카메라 쌍(CLC, Coupled Line Camera) 기법을 이용하여, 촬영 장치(500) 및 마커(400)를 3차원 공간상에 복원한다. 6, the target tracking apparatus 100 restores the photographing apparatus 500 and the marker 400 on a three-dimensional space using a CLC (Coupled Line Camera) technique.

설명의 편의상, 목표물 추적 장치(100)가 하나의 촬영 장치와 3차원 공간 정보를 맵핑하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 복수 개의 촬영 장치와 연결될 수 있으며, 복수 개의 촬영 장치와 3차원 공간 정보를 맵핑하는 과정을 수행할 수 있다. For convenience of explanation, the target tracking apparatus 100 has been described as mapping three-dimensional spatial information with one photographing apparatus. However, the present invention is not limited to this, and the target tracking apparatus 100 may be connected to a plurality of photographing apparatuses, The device and the three-dimensional spatial information can be mapped.

다음으로, 목표물 추적 장치(100)는 영상 정보에 포함된 목표물을 검출한다(S220). Next, the target tracking apparatus 100 detects a target included in the image information (S220).

여기서 영상 정보는 S210 단계에서 3차원 공간 정보와 맵핑된 촬영 장치가 촬영한 영상을 의미한다. 목표물 추적 장치(100)는 사전 작업 완료 후 실제 가동시에, 역학조사를 실시할 해당 촬영 장치의 영상 정보를 확보한다. 그리고 영상 정보 속에 포함된 목표물을 추출 및 추적하여, 3D 가상 공간상 좌표를 구한다. 이때, 목표물 추적 장치(100)는 가상 공간상의 좌표를 연산하고 저장하는 작업을 자동화하여 처리할 수 있다. Here, the image information means an image captured by the photographing device mapped with the three-dimensional spatial information in step S210. The target tracking apparatus 100 secures the image information of the photographing apparatus to be subjected to epidemiological investigation at the time of actual operation after completion of the preliminary work. Then, the target included in the image information is extracted and tracked to obtain the coordinates of the 3D virtual space. At this time, the target tracking device 100 can automate and process the operation of calculating and storing the coordinates on the virtual space.

도 7은 본 발명의 실시예에 따른 목표물의 바닥 좌표 픽셀을 나타낸 도면이다.7 is a view showing bottom coordinate pixels of a target according to an embodiment of the present invention.

도 7과 도시한 바와 같이, 목표물 추적 장치(100)는 영상 정보에 포함된 목표물(700)을 태깅(Tagging)하고, 목표물(700)의 바닥 좌표 픽셀(Px, Py)을 구한다. 7, the target tracking apparatus 100 tags the target 700 included in the image information and obtains the bottom coordinate pixels Px and Py of the target 700. As shown in FIG.

이때, 목표물 추적 장치(100)는 사용자로부터 수동으로 목표물(700)의 태깅을 입력받거나, 목표물 추적 장치(100)가 자동으로 사람 또는 사물의 데이터베이스를 학습하여, 영상 정보에 포함된 사람 또는 사물을 목표물(700)로 검출할 수 있다. At this time, the target tracking device 100 receives the tagging of the target 700 manually from the user, or the target tracking device 100 automatically learns the database of the person or object to detect a person or object included in the image information The target 700 can be detected.

또한, 목표물 추적 장치(100)는 이전 프레임인 t-1 프레임과 현재 프레임인 t 프레임을 비교하여, 두 프레임 사이에 차이가 발생한 것을 목표물(700)로 검출(태깅)할 수 있다. In addition, the target tracking apparatus 100 may compare (t-1) a previous frame with a current t frame to detect (tag) the occurrence of a difference between the two frames as the target 700.

그리고 목표물 추적 장치(100)는 태깅한 목표물의 특징 정보를 추출한다(S230).Then, the target tracking device 100 extracts feature information of the tagged target (S230).

목표물 추적 장치(100)는 목표물이 사람인 경우, 목표물의 키, 옷 색깔, 옷의 종류 등을 포함하는 옷차림 정보를 특징 정보로 추출하여 저장할 수 있다. When the target is a person, the target tracking device 100 may extract the dressing information including the key of the target, the color of the clothes, the kind of clothes, and the like as the feature information and store the information.

또한, 목표물 추적 장치(100)는 변환 행렬을 이용하여, 검출된 목표물의 3D 가상 공간상 좌표를 추출한다(S240). In addition, the target tracking apparatus 100 extracts 3D virtual space coordinates of the detected target using the transformation matrix (S240).

도 8은 본 발명의 실시예에 따른 가상 공간에서 목표물의 3D 가상 공간상 좌표를 나타낸 도면이다.FIG. 8 is a view showing 3D virtual space coordinates of a target in a virtual space according to an embodiment of the present invention.

도 8에 도시한 바와 같이, 목표물 추적 장치(100)는 태깅한 목표물(800)의 3D 가상 공간상 좌표(ID1, Vx, Vy, Vf, t)를 계산하여 저장한다. 이때, 목표물(800)의 3D 가상 공간상 좌표는 목표물의 식별자(ID1), 3차원 공간상의 x좌표(Vx), 3차원 공간상의 y좌표(Vy), 3차원 공간상의 건물 층 수(Vf) 및 촬영 장치가 해당 영상을 촬영한 시간(t)을 포함할 수 있다. As shown in FIG. 8, the target tracking apparatus 100 calculates and stores 3D virtual space phase coordinates (ID1, Vx, Vy, Vf, t) of the tagged target 800. At this time, the 3D virtual space coordinate of the target 800 includes an identifier ID1 of the target, an x coordinate Vx on the three-dimensional space, a y coordinate Vy on the three-dimensional space, a number of building layers Vf on the three- And the time (t) at which the photographing apparatus photographed the image.

마지막으로, 목표물 추적 장치(100)는 목표물의 이동 경로를 추적하고, 추적된 이동 경로를 2차원 지도상에 표시한다(S250). Finally, the target tracking device 100 tracks the movement path of the target and displays the traced movement path on the two-dimensional map (S250).

도 9는 본 발명의 실시예에 따른 목표물의 이동 경로를 표시한 2차원 지도를 나타낸 도면이다.FIG. 9 is a diagram showing a two-dimensional map showing a moving path of a target according to an embodiment of the present invention.

도 9에 도시된 바와 같이, 목표물 추적 장치(100)는 추적한 목표물의 이동 경로(900)를 3차원 공간 지도의 바닥면인 3차원 지도상에 표시한다. As shown in Fig. 9, the target tracking device 100 displays the track 900 of the tracked target on a three-dimensional map which is the bottom surface of the three-dimensional space map.

이때, 목표물 추적 장치(100)는 태깅시 목표물의 바닥 좌표 픽셀을 중심으로 t-1프레임과 t프레임을 비교하여, 목표물의 이동 경로(900)를 추적하고, 2차원 지도상에 표시할 수 있다. At this time, the target tracking apparatus 100 compares the t-1 frame and the t frame around the bottom coordinate pixel of the target at the time of tagging, tracks the movement path 900 of the target, and displays it on the two-dimensional map .

이하에서는 도 10 내지 도 13을 통하여, 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치가 추적 누락 구간에서 목표물을 추적하는 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a method for tracking a target in a tracking missing interval according to an embodiment of the present invention using a three-dimensional spatial information according to an embodiment of the present invention will be described in detail with reference to FIGS. 10 to 13. FIG.

도 10은 본 발명의 실시예에 따른 추적 누락 구간에서의 예상 행동 반경 탐색 과정을 설명하기 위한 도면이다. FIG. 10 is a diagram for explaining a process of searching for an expected behavior radius in a tracking missing interval according to an embodiment of the present invention.

도 10에 도시한 바와 같이, 목표물 추적 장치(100)는 추적 중인 목표물(800)에 가림(occlusion)이 발생하여, 추적 누락 구간(1000)이 발생한 경우, 소셜 패스 플래닝(SPP, Social path planning) 기술 및 확장 칼만 필터(EKF, Extended Kalman Filter) 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물(800)의 예상 행동 반경을 탐색한다. 10, the target tracking apparatus 100 may perform a social path planning (SPP) when an occlusion occurs in a target 800 being tracked and a tracking missing interval 1000 occurs, Technique and an Extended Kalman Filter (EKF) to search for an expected behavior radius of the target 800. The predictive action radius of the target 800 is determined by using a predictive algorithm that includes at least one of the following:

여기서, 소셜 패스 플래닝(SPP, Social path planning) 기술은 인간 행동 모사 경로 계획 기술을 의미한다. 즉, 소셜 패스 플래닝(SPP)은 2차원 지도 상에서 사람이 이동할 수 있는 곳으로의 경로를 계획하는 기술이다. Here, the social path planning (SPP) technology means a human action simulation path planning technology. In other words, the social path planning (SPP) is a technique for planning a route to a place where a person can move on a two-dimensional map.

소셜 패스 플래닝(SPP) 기술은 인간은 일반적으로 최단거리로 이동하고자 하며, 장애물과는 일정 거리를 두고, 방향 전환이 적은 길을 선호한다는 인간의 특성을 가정한다. 그리고 이러한 인간의 특성을 이용하여 경로를 계획한다. The social path planning (SPP) technique assumes human characteristics that humans generally want to travel to the shortest distance and prefer a less directional path with a certain distance from the obstacle. And we use these human characteristics to plan the route.

그리고 확장 칼만 필터(EKF)는 계획된 경로 하에서, 인간의 이동 속도를 고려하여 시간에 따라 이동할 수 있는 영역을 예측한다. And the extended Kalman filter (EKF) predicts the area that can move with time considering the human moving speed under the planned path.

설명의 편의상, 목표물 추적 장치(100)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경 및 목표물의 예상 이동 경로 중 적어도 어느 하나를 예측하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 파티클 필터(Partical filter), 베이지안 필터(Bayesian filter) 및 마르코프 연쇄 몬테 카를로(Markov chain Monte Carlo) 등과 같이 통상적으로 사용되는 예측 알고리즘을 이용하여 목표물의 예상 행동 반경 및 예상 이동 경로 중 적어도 어느 하나를 예측할 수 있다. For convenience of explanation, the target tracking apparatus 100 predicts at least one of an expected movement radius of a target and an expected movement route of the target using a prediction algorithm including at least one of a social path planning and an extended Kalman filter The present invention is not limited thereto and the target tracking apparatus 100 may be configured to detect a target object using a prediction algorithm that is commonly used, such as a Partial filter, a Bayesian filter, and a Markov chain Monte Carlo At least one of the expected behavior radius and the predicted movement path of the vehicle can be predicted.

다음으로, 목표물 추적 장치(100)는 목표물의 키, 옷 색상 등을 포함하는 특징 정보를 이용하여, 예상 행동 반경 내에서 목표물을 재검출한다. 그리고 재검출된 목표물을 가림(occlusion)이 발생되기 이전의 목표물과 맵핑한다. Next, the target tracking apparatus 100 re-detects the target within the expected action radius using the feature information including the key of the target, the color of the clothes, and the like. Then, the re-detected target is mapped with the target before the occurrence of occlusion.

추적중인 목표물의 추적을 놓치고, 새로운 목표물이 영상 정보에 감지되었을 경우, 목표물 추적 장치(100)는 새로운 목표물을 태깅(Tagging)하여 추적할 수 있다. If the tracking of the track being tracked is missed and the new target is detected in the image information, the target tracking device 100 can tag and track the new target.

도 11은 본 발명의 실시예에 따른 영상 정보에서 포착된 목표물을 나타낸 도면이다. 11 is a view showing a target captured in image information according to an embodiment of the present invention.

도 11과 같이, 목표물 추적 장치(100)는 영상 정보에 움직이는 사람 또는 사물을 목표물(700)로 검출하고, 검출된 목표물(700)을 태깅할 수 있다. As shown in FIG. 11, the target tracking apparatus 100 can detect a moving person or object in the image information as the target 700, and tag the detected target 700.

이때, 목표물 추적 장치(100)는 추후 관리자가 새로운 목표물의 태깅을 확인할 수 있도록, 새로운 목표물을 기존의 목표물과 다르게 표시할 수 있다. At this time, the target tracking device 100 may display a new target differently from an existing target so that the manager can later confirm the tagging of the new target.

도 12는 본 발명의 실시예에 따른 3차원 공간 지도 상에 표시된 목표물을 나타낸 도면이다. 12 is a diagram showing a target displayed on a three-dimensional space map according to an embodiment of the present invention.

도 12에 도시된 바와 같이, 목표물 추적 장치(100)는 태깅된 목표물(800)의 3D 가상 공간상 좌표(ID1, Vx, Vy, Vf, t)를 계산하여 3차원 공간 지도상에 표시할 수 있다. 12, the target tracking apparatus 100 can calculate 3D virtual space coordinates (ID1, Vx, Vy, Vf, t) of the tagged target 800 and display it on a three-dimensional space map have.

도 13은 본 발명의 실시예에 따라 목표물의 이동 경로를 저장하는 과정을 설명하기 위한 도면이다. 13 is a diagram for explaining a process of storing a moving route of a target according to an embodiment of the present invention.

목표물 추적 장치(100)는 기 설정된 시간 단위 또는 사용자로부터 입력받은 시간 단위별로 목표물(800)을 추적하거나, 실시간으로 목표물(800)을 추적하여 이동 경로를 생성할 수 있다. 그리고 목표물 추적 장치(100)는 생성된 이동 경로를 3차원 공간 지도 상에 표시할 수 있다. The target tracking device 100 may track the target 800 by a preset time unit or a time unit input by the user or may track the target 800 in real time to generate a movement path. Then, the target tracking device 100 can display the generated movement path on the three-dimensional space map.

또한, 목표물 추적 장치(100)는 복수의 촬영 장치로부터 영상 정보를 입력받는 경우, 복수의 영상 정보에 포함된 목표물들의 특징 정보를 비교하여, 하나의 목표물로 인식할 수 있다. In addition, when the target tracking apparatus 100 receives image information from a plurality of photographing apparatuses, the target tracking apparatus 100 compares the feature information of the targets included in the plurality of image information and recognizes the target information as one target.

그리고, 목표물 추적 장치(100)는 3차원 공간 상에 태깅된 목표물의 이동 경로를 이용하여, 복수의 촬영 장치로부터 입력된 영상들에 포함된 목표물을 하나의 목표물로 인식할 수 있다. The target tracking apparatus 100 can recognize a target included in the images input from the plurality of photographing apparatuses as one target by using the movement path of the target tagged on the three-dimensional space.

즉, 목표물 추적 장치(100)는 목표물의 이동 경로, 목표물의 특징 정보를 이용하여 복수의 촬영 장치에 상응하는 영상 정보에 포함된 목표물들이 동일한 목표물인지 여부를 판단할 수 있다. That is, the target tracking apparatus 100 can determine whether the targets included in the image information corresponding to the plurality of photographing apparatuses are the same target, using the travel path of the target and the feature information of the target.

또한, 그리고 목표물 추적 장치(100)는 제1 촬영 장치로부터 촬영된 제1 영상에서 태깅된 목표물을 제2 촬영 장치로 핸드오버(handover) 할 수 있다. 목표물 추적 장치(100)는 태깅된 목표물을 핸드오버할 때, 화면간 전환이 부정확한 경우, 확장 칼만 필터를 활용하여 목표물의 예상 경로를 예측할 수 있다. Further, the target tracking apparatus 100 may handover the target tagged in the first image photographed from the first photographing apparatus to the second photographing apparatus. When the target tracking device 100 handover a tagged target and the switching between screens is inaccurate, the target tracking device 100 can predict an expected path of the target using the extended Kalman filter.

설명의 편의상, 목표물 추적 장치(100)가 하나의 목표물을 추적하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 복수의 목표물들을 각각 태깅하여 추적하고, 각각의 목표물에 상응하는 이동 경로를 추적할 수 있다. For convenience of explanation, the target tracking apparatus 100 has been described as tracking a single target, but the present invention is not limited thereto. The target tracking apparatus 100 may tag and track each of a plurality of targets, . ≪ / RTI >

이와 같이, 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 방법은 CCTV와 같은 촬영 장치를 이용한 목표물 추적을 자동화할 수 있고, 목표물 추적에 관한 정보를 디지털 데이터로 전환하여, 언제든지 재현하거나 조회할 수 있다. 그리고 영상 정보를 이용한 역학 조사를 자동화하여, 조사관의 영상 정보 확인 시간을 단축시킬 수 있다. As described above, the target tracking apparatus and method using three-dimensional spatial information according to the present invention can automate target tracking using a photographing device such as CCTV, convert information about target tracking into digital data, can do. It is also possible to automate the epidemiological investigation using the image information, thereby shortening the time for confirming the image information of the investigator.

또한, 종래에는 한 사람이 복수의 영상 정보를 일일이 확인하는데 많은 시간이 소요되었다. 반면, 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 방법은 복수의 영상 정보를 동시에 처리할 수 있으므로, 조사 시간을 단축시킬 수 있다. In addition, in the past, it took a long time for a person to check a plurality of pieces of video information one by one. On the other hand, the apparatus and method for tracking a target using three-dimensional spatial information according to the present invention can simultaneously process a plurality of image information, thereby shortening the irradiation time.

그리고 복수의 촬영 장치로부터 입력된 영상 정보를 통합하여, 사용자에게 하나의 정보로 제공할 수 있으므로, 가독성이 좋아지고, 사용자가 3차원 지도를 기반으로 시야각을 회전하여, 사용자가 원하는 각도에 상응하는 영상 정보를 볼 수 있도록 할 수 있다. Since the image information input from the plurality of photographing apparatuses can be integrated and provided as one information to the user, the readability is improved, the user rotates the viewing angle based on the three-dimensional map, So that the user can view the image information.

이상에서와 같이 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 그 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. As described above, the configuration and method of the embodiments described above can be applied to a target tracking apparatus and method using three-dimensional spatial information according to the present invention. All or some of the embodiments may be selectively combined.

100: 3차원 공간 정보를 이용한 목표물 추적 장치
110: 변환 행렬 연산부
120: 목표물 검출부
130: 3D 좌표 추출부
140: 경로 추적부
150: 예측부
400: 마커
500: 촬영 장치
700: 영상 정보에 포함된 목표물
800: 3D 가상 공간상의 목표물
900: 이동 경로
1000: 추적 누락 구간
100: Target tracking system using 3D spatial information
110: conversion matrix operation unit
120: target detection unit
130: 3D coordinate extracting unit
140: Path trace section
150:
400: Marker
500: photographing apparatus
700: target included in image information
800: Target in 3D virtual space
900: Travel route
1000: Missing trace section

Claims (20)

복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 변환 행렬 연산부,
상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하고, 검출된 상기 목표물의 특징 정보를 추출하는 목표물 검출부,
상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 3D 좌표 추출부, 그리고
상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 경로 추적부를 포함하는 3차원 공간 정보를 이용한 목표물 추적 장치.
A conversion matrix operation unit for mapping a plurality of photographing apparatuses and three-dimensional spatial information corresponding to an actual space photographed by the photographing apparatuses to calculate a conversion matrix,
A target detecting unit that detects a target included in the image information captured by at least one of the plurality of photographing apparatuses and extracts the detected feature information of the target,
A 3D coordinate extracting unit for extracting coordinates of the 3D virtual space of the target detected using the transformation matrix,
And a path tracing unit for comparing a previous frame of the image information with a current frame to track the moving path of the target.
제1항에 있어서,
상기 변환 행렬 연산부는,
상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 1,
Wherein the conversion matrix calculator comprises:
And mapping the image information captured by the photographing apparatus and the three-dimensional spatial information using a marker attached to the actual space.
제2항에 있어서,
상기 변환 행렬 연산부는,
선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.
3. The method of claim 2,
Wherein the conversion matrix calculator comprises:
Dimensional space information by using a three-dimensional space information, and restoring the image information into three-dimensional space information by using a line camera pair technique (Coupled Line Camera) Tracking device.
제1항에 있어서,
상기 3D 좌표 추출부는,
상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 1,
The 3D coordinate extracting unit may extract,
The 3D virtual space coordinate including at least one of ID information of the target, 3D virtual space coordinate information, 3D virtual space layer number information, and time information of the image information is extracted. Target Tracking System Using 3D Spatial Information.
제1항에 있어서,
상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 예측부를 더 포함하며,
상기 목표물 검출부는,
상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 1,
Further comprising a predictor for searching for an expected behavior radius of the target when the tracking of the target is missed,
Wherein the target detection unit comprises:
Dimensional space information for re-detecting the target using the feature information of the target.
제5항에 있어서,
상기 예측부는,
소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.
6. The method of claim 5,
The predicting unit,
Wherein the predicted action radius of the target is searched using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.
제6항에 있어서,
상기 예측부는,
상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 6,
The predicting unit,
Wherein the predicted movement path of the target is predicted using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.
제1항에 있어서,
상기 목표물 검출부는,
제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 1,
Wherein the target detection unit comprises:
The feature information of the first target included in the first image information is compared with the feature information of the second target included in the second image information to determine whether the first target and the second target are the same target Target Tracking System Using 3D Spatial Information.
제8항에 있어서,
상기 목표물 검출부는,
상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버하는 3차원 공간 정보를 이용한 목표물 추적 장치.
9. The method of claim 8,
Wherein the target detection unit comprises:
And when the first target and the second target are determined to be the same target, the first target is handed over to the second video device that has captured the second video information.
제1항에 있어서,
상기 경로 추적부는,
추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시하는 3차원 공간 정보를 이용한 목표물 추적 장치.
The method according to claim 1,
The path-
And displaying the traced movement path of the target on a two-dimensional map.
3차원 공간 정보를 이용한 목표물 추적 장치에 의해 수행되는 목표물 추적 방법에 있어서,
복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 단계,
상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하는 단계,
검출된 상기 목표물의 특징 정보를 추출하는 단계,
상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 단계, 그리고
상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 단계를 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.
A target tracking method performed by a target tracking apparatus using three-dimensional spatial information,
Mapping the three-dimensional spatial information corresponding to the actual space photographed by the plurality of photographing apparatuses and the photographing apparatuses to calculate a transformation matrix,
Detecting a target included in image information photographed by at least one photographing apparatus among the plurality of photographing apparatuses,
Extracting feature information of the detected target;
Extracting 3D virtual space coordinates of the target detected using the transformation matrix, and
And comparing the current frame with a previous frame of the image information to track the movement path of the target.
제11항에 있어서,
상기 변환 행렬을 연산하는 단계는,
상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.
12. The method of claim 11,
Wherein the step of computing the transformation matrix further comprises:
And mapping the image information photographed by the photographing device and the three-dimensional spatial information using a marker attached to the actual space.
제12항에 있어서,
상기 변환 행렬을 연산하는 단계는,
선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.
13. The method of claim 12,
Wherein the step of computing the transformation matrix further comprises:
Dimensional space information by using a three-dimensional space information, and restoring the image information into three-dimensional space information by using a line camera pair technique (Coupled Line Camera) Tracking method.
제11항에 있어서,
상기 3D 가상 공간상 좌표를 추출하는 단계는,
상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.
12. The method of claim 11,
Wherein the step of extracting the 3D virtual space coordinate comprises:
The 3D virtual space coordinate including at least one of ID information of the target, 3D virtual space coordinate information, 3D virtual space layer number information, and time information of the image information is extracted. Target Tracking Method Using 3D Spatial Information.
제11항에 있어서,
상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 단계, 그리고
상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.
12. The method of claim 11,
If the tracking of the target is missed, searching for an expected behavior radius of the target, and
Further comprising the step of re-detecting the target using the feature information of the target.
제15항에 있어서,
상기 목표물의 예상 행동 반경을 탐색하는 단계는,
소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.
16. The method of claim 15,
Wherein the step of searching for an expected behavior radius of the target comprises:
Wherein the predicted action radius of the target is searched using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.
제16항에 있어서,
상기 목표물의 예상 행동 반경을 탐색하는 단계는,
상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.
17. The method of claim 16,
Wherein the step of searching for an expected behavior radius of the target comprises:
Wherein the predicted movement path of the target is predicted using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.
제11항에 있어서,
제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.
12. The method of claim 11,
The feature information of the first target included in the first image information is compared with the feature information of the second target included in the second image information to determine whether the first target and the second target are the same target Wherein the method further comprises the steps of:
제18항에 있어서,
상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.
19. The method of claim 18,
Further comprising the step of, when it is determined that the first target and the second target are the same target, handing over the first target to a second video apparatus that has captured the second video information, Target tracking method.
제11항에 있어서,
추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.
12. The method of claim 11,
And displaying the traced movement path of the target on a two-dimensional map.
KR1020160022461A 2016-02-25 2016-02-25 Apparatus and method for target tracking using 3d bim KR20170100204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160022461A KR20170100204A (en) 2016-02-25 2016-02-25 Apparatus and method for target tracking using 3d bim

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160022461A KR20170100204A (en) 2016-02-25 2016-02-25 Apparatus and method for target tracking using 3d bim

Publications (1)

Publication Number Publication Date
KR20170100204A true KR20170100204A (en) 2017-09-04

Family

ID=59924122

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160022461A KR20170100204A (en) 2016-02-25 2016-02-25 Apparatus and method for target tracking using 3d bim

Country Status (1)

Country Link
KR (1) KR20170100204A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019231119A1 (en) * 2018-05-31 2019-12-05 삼성에스디에스 주식회사 Apparatus and method for congestion visualization
KR102106858B1 (en) * 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
KR102152318B1 (en) * 2019-11-13 2020-09-04 주식회사 벡터시스 Tracking system that can trace object's movement path
RU2742582C1 (en) * 2020-06-25 2021-02-08 Общество с ограниченной ответственностью "Ай Ти Ви групп" System and method for displaying moving objects on local map
CN113836337A (en) * 2021-09-27 2021-12-24 福建汇川物联网技术科技股份有限公司 BIM display method, device, equipment and storage medium
CN114281096A (en) * 2021-11-09 2022-04-05 中时讯通信建设有限公司 Unmanned aerial vehicle tracking control method, device and medium based on target detection algorithm

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019231119A1 (en) * 2018-05-31 2019-12-05 삼성에스디에스 주식회사 Apparatus and method for congestion visualization
KR20190136517A (en) * 2018-05-31 2019-12-10 삼성에스디에스 주식회사 Apparatus and method for visualizing congestion degree
CN111164612A (en) * 2018-05-31 2020-05-15 三星Sds株式会社 Congestion degree visualization device and method
US11393214B2 (en) 2018-05-31 2022-07-19 Samsung Sds Co., Ltd. Apparatus and method for congestion visualization
KR102106858B1 (en) * 2018-11-27 2020-05-06 노성우 Logistic Robot Location Estimation Method of Hybrid Type
KR102152318B1 (en) * 2019-11-13 2020-09-04 주식회사 벡터시스 Tracking system that can trace object's movement path
WO2021095916A1 (en) * 2019-11-13 2021-05-20 주식회사 벡터시스 Tracking system capable of tracking movement path of object
RU2742582C1 (en) * 2020-06-25 2021-02-08 Общество с ограниченной ответственностью "Ай Ти Ви групп" System and method for displaying moving objects on local map
CN113836337A (en) * 2021-09-27 2021-12-24 福建汇川物联网技术科技股份有限公司 BIM display method, device, equipment and storage medium
CN113836337B (en) * 2021-09-27 2023-10-13 福建汇川物联网技术科技股份有限公司 BIM display method, device, equipment and storage medium
CN114281096A (en) * 2021-11-09 2022-04-05 中时讯通信建设有限公司 Unmanned aerial vehicle tracking control method, device and medium based on target detection algorithm

Similar Documents

Publication Publication Date Title
KR20170100204A (en) Apparatus and method for target tracking using 3d bim
Soltani et al. Framework for location data fusion and pose estimation of excavators using stereo vision
Koller et al. Robust multiple car tracking with occlusion reasoning
JP2020191646A (en) Information processing system, information processing method and program
US7321386B2 (en) Robust stereo-driven video-based surveillance
JP6510247B2 (en) Survey data processing apparatus, survey data processing method and program
Black et al. Multi-camera image measurement and correspondence
JP2010504711A (en) Video surveillance system and method for tracking moving objects in a geospatial model
JP2015181042A (en) detection and tracking of moving objects
US20100208941A1 (en) Active coordinated tracking for multi-camera systems
US9934585B2 (en) Apparatus and method for registering images
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
EP2476999B1 (en) Method for measuring displacement, device for measuring displacement, and program for measuring displacement
CN107094234B (en) Shooting area shielding method and device applied to mobile camera terminal
JPH07262375A (en) Mobile object detector
CN106504274A (en) A kind of visual tracking method and system based under infrared camera
US20200234452A1 (en) Imaging object tracking system and imaging object tracking method
Halfawy et al. Optical flow techniques for estimation of camera motion parameters in sewer closed circuit television inspection videos
Park et al. Small and overlapping worker detection at construction sites
Xu et al. Real-time detection via homography mapping of foreground polygons from multiple cameras
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off
Se et al. Stereo vision-based obstacle detection for partially sighted people
CN110930437B (en) Target tracking method and device
RU2679200C1 (en) Data from the video camera displaying method and system
Czyzewski et al. Examining Kalman filters applied to tracking objects in motion

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application