KR20170100204A - Apparatus and method for target tracking using 3d bim - Google Patents
Apparatus and method for target tracking using 3d bim Download PDFInfo
- Publication number
- KR20170100204A KR20170100204A KR1020160022461A KR20160022461A KR20170100204A KR 20170100204 A KR20170100204 A KR 20170100204A KR 1020160022461 A KR1020160022461 A KR 1020160022461A KR 20160022461 A KR20160022461 A KR 20160022461A KR 20170100204 A KR20170100204 A KR 20170100204A
- Authority
- KR
- South Korea
- Prior art keywords
- target
- information
- dimensional
- tracking
- image information
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2625—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
-
- H04N13/0007—
-
- H04N13/0217—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0085—Motion estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 3차원 공간 정보와 영상 정보를 이용한 목표물 추적 기술에 관한 것으로, 특히 건물에 설치된 촬영 장치로부터 획득한 영상 정보에 포함된 목표물을 검출하고, 3차원 공간 정보(BIM)를 이용하여 목표물의 이동을 추적하는 기술에 관한 것이다.The present invention relates to a target tracking technique using three-dimensional spatial information and image information. More particularly, the present invention relates to a technique for detecting a target included in image information acquired from a photographing apparatus installed in a building, ≪ / RTI >
오늘날, CCTV는 방범, 방재, 시설물 관리, 교통체계 관리 등에 널리 적용되고 있다. 방범 및 방재를 위한 CCTV 관제센터의 경우, 수백 대의 카메라로부터 영상을 전송받는다. 따라서, 소수의 관제인원이 모든 카메라를 관제하기에는 무리가 있다. 이러한 문제점을 해결하고, 효율적으로 CCTV를 관제하기 위한, 영상처리, 영상인식 기술을 활용하여, 범죄나 재난 상황을 인식하는 영상기반 지능형 CCTV 기술이 개발되고 있다. Today, CCTV is widely applied to crime prevention, disaster prevention, facility management, and traffic system management. CCTV control center for crime prevention and disaster prevention receives images from hundreds of cameras. Therefore, it is difficult for a small number of control personnel to control all cameras. Image-based intelligent CCTV technology is being developed to solve these problems and to recognize crime and disaster situations by using image processing and image recognition technology to efficiently control CCTV.
영상기반 지능형 CCTV 관제 시스템을 구현하기 위해서는, 객체 검출, 객체 추적, 상황인식 기술이 필요하다. 이 중, CCTV 영상에 포함된 목표물을 추적하는 객체 추적 기술(object tracking)은 상용 제품이 출시되었을 정도로 많이 성숙한 기술이다. In order to implement an image-based intelligent CCTV control system, object detection, object tracking, and situation recognition technology are required. Among them, object tracking, which tracks the targets included in CCTV images, is a mature technology that commercial products have been released.
그리고 최근에는 CCTV 영상을 BIM 정보와 맵핑하여, 3차원 가상 공간에 투영하는 기술도 개발되었다. 예를 들어, Autodesk사의 Revit과 같은 상용툴이 대표적이다. Recently, a technique of mapping CCTV images to BIM information and projecting them in a three-dimensional virtual space has also been developed. For example, commercial tools like Autodesk's Revit are typical.
그러나, CCTV 영상을 화면 상의 좌표가 아닌 BIM을 활용한 가상의 3차원 공간 상에 투영했을 때, 목표물의 이동 경로를 3차원 좌표로 저장하는 기술은 최근에서야 연구되고 있다. However, when a CCTV image is projected onto a virtual three-dimensional space using BIM instead of on-screen coordinates, a technique of storing the moving path of the target in three-dimensional coordinates has been studied recently.
지금까지, CCTV 영상을 많이 활용하는 경찰이나 감염경로를 파악하기 위한 역학조사를 수행하는 연구원들은 사람이 일일이 다수의 CCTV 영상을 눈으로 확인하고, 수기로 경로를 작성하였다. 이로 인하여, CCTV 영상을 확인하는데 많은 시간이 소요되고, CCTV 영상의 확인 결과가 디지털화되지 않는다는 문제가 있다. Until now, the police who use CCTV video and investigate the epidemiological investigation to identify the infection route have been able to visually confirm multiple CCTV images one by one and create a path through the hand. Therefore, it takes a lot of time to check the CCTV image, and there is a problem that the confirmation result of the CCTV image is not digitized.
따라서, CCTV 영상으로부터 목표물을 자동으로 추적하고, 목표물의 이동경로를 3차원 디지털화하는 기술의 필요성이 절실하게 대두된다.Therefore, there is an urgent need for a technique for automatically tracking a target from a CCTV image and digitizing the movement path of the target in three dimensions.
본 발명의 목적은 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 자동으로 추적하고, 목표물의 이동경로를 바닥의 x,y 좌표 및 층수 정보로 표기하여 3차원으로 디지털화하는 것이다. An object of the present invention is to automatically track a target included in image information photographed by a photographing apparatus and digitize the moving path of the target in three dimensions by expressing the moving path of the target as x, y coordinates and the number of layers of floor information.
또한, 본 발명의 목적은 목표물의 추적을 놓친 경우, 가려진 구간에서 목표물의 예상 이동경로를 예측하여 3차원으로 디지털화하는 것이다. It is also an object of the present invention to predict the anticipated movement path of the target in the obscured section and to digitize it in three dimensions when the tracking of the target is missed.
또한, 본 발명의 목적은 촬영 장치들이 촬영한 영상 정보와 3차원 공간 정보(BIM)를 맵핑하여, 3차원 공간 및 목표물의 정보를 디지털화하는 것이다. In addition, an object of the present invention is to digitize information of a three-dimensional space and a target by mapping image information and three-dimensional spatial information (BIM) photographed by photographing apparatuses.
또한, 본 발명의 목적은 디지털화되어 저장된 데이터를 언제든지 다각도에서 재구성하여 접근 및 활용할 수 있도록 하는 것이다. It is also an object of the present invention to enable digitalized stored data to be reconstructed at any time in multiple angles for access and utilization.
또한, 본 발명의 목적은 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시키는 것이다. It is also an object of the present invention to dramatically reduce the amount of data required in tracking a target by digitizing and storing the 3D virtual space coordinate and the movement path of the target.
상기한 목적을 달성하기 위한 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치는 복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 변환 행렬 연산부, 상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하고, 검출된 상기 목표물의 특징 정보를 추출하는 목표물 검출부, 상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 3D 좌표 추출부, 그리고 상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 경로 추적부를 포함한다.According to an aspect of the present invention, there is provided a target tracking apparatus using three-dimensional spatial information, comprising: a plurality of photographic apparatuses; mapping three-dimensional spatial information corresponding to an actual space photographed by the photographic apparatuses, A target detecting unit detecting a target included in the image information captured by at least one of the plurality of photographing apparatuses and extracting feature information of the detected target from the plurality of photographing apparatuses, A 3D coordinate extractor for extracting a 3D virtual space coordinate of the detected object, and a path traceer for comparing a current frame with a previous frame of the image information to track a movement path of the target.
이 때, 상기 변환 행렬 연산부는, 상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑 할 수 있다. At this time, the conversion matrix operation unit can map the image information captured by the photographing apparatus and the three-dimensional spatial information using markers attached to the actual space.
이 때, 상기 변환 행렬 연산부는, 선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑 할 수 있다. At this time, the transformation matrix operation unit may restore the image information into three-dimensional solid information using a coupled-line camera technique, and map the three-dimensional solid information to the three-dimensional spatial information .
이 때, 상기 3D 좌표 추출부는, 상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출 할 수 있다. At this time, the 3D coordinate extraction unit may extract the 3D virtual space including at least one of the ID information of the target, the 3D virtual space coordinate information, the 3D virtual space layer number information, The phase coordinate can be extracted.
이 때, 상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 예측부를 더 포함하며, 상기 목표물 검출부는, 상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출 할 수 있다. In this case, when the tracking of the target is missed, the target detecting unit may detect the expected behavior radius of the target, and the target detecting unit may redetect the target using the feature information of the target.
이 때, 상기 예측부는, 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색 할 수 있다. At this time, the predicting unit can search for an expected behavior radius of the target using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.
이 때, 상기 예측부는, 상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측 할 수 있다. At this time, the prediction unit may predict a predicted movement path of the target using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.
이 때, 상기 목표물 검출부는, 제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단 할 수 있다. At this time, the target detection unit compares the feature information of the first target included in the first image information with the feature information of the second target included in the second image information, and outputs the feature information of the first target and the second target It is possible to determine whether or not the target is the same target.
이 때, 상기 목표물 검출부는, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버 할 수 있다. At this time, if the first target and the second target are judged to be the same target, the target detecting unit may handover the first target to the second video apparatus that has captured the second video information.
이 때, 상기 경로 추적부는, 추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시 할 수 있다. At this time, the path tracing unit may display the traced movement path of the target on a two-dimensional map.
또한, 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치에 의해 수행되는 목표물 추적 방법은, 복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 단계, 상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하는 단계, 검출된 상기 목표물의 특징 정보를 추출하는 단계, 상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 단계, 그리고 상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 단계를 포함한다.According to another aspect of the present invention, there is provided a target tracking method performed by a target tracking apparatus using three-dimensional spatial information, including: a step of detecting three-dimensional spatial information corresponding to an actual space photographed by a plurality of photographing apparatuses and photographing apparatuses Calculating a transformation matrix by using the transformation matrix, detecting a target included in the image information captured by at least one of the plurality of photographing apparatuses, extracting feature information of the detected target, Extracting coordinates of the 3D virtual space of the target detected using the transformation matrix, and comparing the current frame with the previous frame of the image information to track the movement path of the target.
본 발명에 따르면, 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 자동으로 추적하고, 목표물의 이동경로를 바닥의 x,y 좌표 및 층수 정보로 표기하여 3차원으로 디지털화할 수 있다. According to the present invention, the target included in the image information photographed by the photographing apparatus can be automatically tracked, and the moving path of the target can be digitized in three dimensions by expressing the x, y coordinates and the layer number information of the bottom.
또한, 본 발명에 따르면 목표물의 추적을 놓친 경우, 가려진 구간에서 목표물의 예상 이동경로를 예측하여 3차원으로 디지털화할 수 있다. In addition, according to the present invention, when the tracking of the target is missed, the predicted moving path of the target in the obscured section can be predicted and digitized into three dimensions.
또한, 본 발명에 따르면 촬영 장치들이 촬영한 영상 정보와 3차원 공간 정보(BIM)를 맵핑하여, 3차원 공간 및 목표물의 정보를 디지털화할 수 있다. In addition, according to the present invention, it is possible to digitize the three-dimensional space and the target information by mapping the image information photographed by the photographing apparatuses and the three-dimensional spatial information (BIM).
또한, 본 발명에 따르면 디지털화되어 저장된 데이터를 언제든지 다각도에서 재구성하여 접근 및 활용할 수 있다. In addition, according to the present invention, digitized and stored data can be reconfigured at various angles at any time for access and utilization.
또한, 본 발명에 따르면 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시킬 수 있다. Also, according to the present invention, it is possible to dramatically reduce the amount of data required for tracking a target by digitizing and storing the 3D virtual space coordinates and the movement path of the target.
도 1은 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 방법을 나타낸 순서도이다.
도 3은 본 발명의 실시예에 따른 실제 공간의 3차원 공간 정보를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따른 실제 건물의 바닥에 부착된 마커를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 마커의 위치를 파악하는 촬영 장치를 설명하기 위한 도면이다.
도 6은 본 발명의 실시예에 따른 3차원 공간 정보에서 마커와 촬영 장치의 위치를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 목표물의 바닥 좌표 픽셀을 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 가상 공간에서 목표물의 3D 가상 공간상 좌표를 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 목표물의 이동 경로를 표시한 2차원 지도를 나타낸 도면이다.
도 10은 본 발명의 실시예에 따른 추적 누락 구간에서의 예상 행동 반경 탐색 과정을 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 영상 정보에서 포착된 목표물을 나타낸 도면이다.
도 12는 본 발명의 실시예에 따른 3차원 공간 지도 상에 표시된 목표물을 나타낸 도면이다.
도 13은 본 발명의 실시예에 따라 목표물의 이동 경로를 저장하는 과정을 설명하기 위한 도면이다. 1 is a block diagram illustrating a configuration of a target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention.
2 is a flowchart illustrating a method of tracking a target using three-dimensional spatial information according to an embodiment of the present invention.
3 is a view showing three-dimensional spatial information of an actual space according to an embodiment of the present invention.
4 is a view showing a marker attached to a floor of an actual building according to an embodiment of the present invention.
5 is a view for explaining a photographing apparatus for locating a marker according to an embodiment of the present invention.
6 is a view for explaining the positions of the marker and the photographing apparatus in the three-dimensional spatial information according to the embodiment of the present invention.
7 is a view showing bottom coordinate pixels of a target according to an embodiment of the present invention.
FIG. 8 is a view showing 3D virtual space coordinates of a target in a virtual space according to an embodiment of the present invention.
FIG. 9 is a diagram showing a two-dimensional map showing a moving path of a target according to an embodiment of the present invention.
FIG. 10 is a diagram for explaining a process of searching for an expected behavior radius in a tracking missing interval according to an embodiment of the present invention.
11 is a view showing a target captured in image information according to an embodiment of the present invention.
12 is a diagram showing a target displayed on a three-dimensional space map according to an embodiment of the present invention.
13 is a diagram for explaining a process of storing a moving route of a target according to an embodiment of the present invention.
본 발명을 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다. 여기서, 반복되는 설명, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능, 및 구성에 대한 상세한 설명은 생략한다. 본 발명의 실시형태는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서, 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.The present invention will now be described in detail with reference to the accompanying drawings. Hereinafter, a repeated description, a known function that may obscure the gist of the present invention, and a detailed description of the configuration will be omitted. Embodiments of the present invention are provided to more fully describe the present invention to those skilled in the art. Accordingly, the shapes and sizes of the elements in the drawings and the like can be exaggerated for clarity.
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치의 구성을 나타낸 블록도이다.1 is a block diagram illustrating a configuration of a target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention.
도 1에 도시한 바와 같이, 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 변환 행렬 연산부(110), 목표물 검출부(120), 3D 좌표 추출부(130), 경로 추적부(140) 및 예측부(150)를 포함한다. 1, the
먼저, 변환 행렬 연산부(110)는 복수의 촬영 장치들의 화각과 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산한다. 이때, 변환 행렬 연산부(110)는 선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 영상 정보를 3차원 입체 정보로 복원하고, 3차원 입체 정보를 3차원 공간 정보와 맵핑할 수 있다. First, the transformation
또한, 변환 행렬 연산부(110)는 실제 공간에 부착된 마커를 이용하여 촬영 장치가 촬영한 영상 정보의 화각과 3차원 공간 정보를 맵핑하는 행렬을 연산할 수 있다. Also, the conversion
그리고 목표물 검출부(120)는 영상 정보에 포함된 목표물을 검출하고, 검출된 목표물의 특징 정보를 추출한다. 이때, 목표물 검출부(120)는 제1 영상 정보에 포함된 제1 목표물의 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 특징 정보를 비교하여, 제1 목표물과 제2 목표물이 동일한 목표물인지 여부를 판단할 수 있다. Then, the
그리고 목표물 검출부(120)는 제1 목표물과 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 제1 목표물을 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버 할 수 있다. If it is determined that the first target and the second target are the same target, the
또한, 목표물의 추적을 놓쳐, 예측부(150)가 목표물의 예상 행동 반경을 탐색하는 경우, 목표물 검출부(120)는 목표물의 특징 정보를 이용하여 목표물을 재검출할 수 있다. Further, if the tracking of the target is missed and the predicting
다음으로 3D 좌표 추출부(130)는 변환 행렬을 이용하여 검출된 목표물의 3D 가상 공간상 좌표를 추출한다. Next, the 3D coordinate
또한, 3D 좌표 추출부(130)는 목표물의 ID 정보, 3D 가상 공간상 좌표 정보, 3D 가상 공간상 층 수 정보 및 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 3D 가상 공간상 좌표를 추출할 수 있다. In addition, the 3D coordinate
그리고 경로 추적부(140)는 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 목표물의 이동 경로를 추적한다. The path trace
경로 추적부(140)는 추적된 목표물의 이동 경로를 3차원 공간 지도의 바닥면인 2차원 지도 상에 표시할 수 있다. 이때, 경로 추적부(140)는 이전 프레임인 t-1 프레임과 현재 프레임인 t 프레임을 비교하여, 목표물의 이동 경로를 추적할 수 있다. The
마지막으로, 예측부(150)는 목표물의 추적을 놓친 경우, 목표물의 예상 행동 반경을 탐색한다. Finally, when the
그리고 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경을 탐색할 수 있다. 또한, 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 이동 경로를 예측할 수 있다. Then, the
설명의 편의상, 예측부(150)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경 또는 목표물의 예상 이동 경로를 예측하는 것으로 설명하였다. 그러나 이에 한정하지 않고, 예측부(150)는 파티클 필터(Partical filter), 베이지안 필터(Bayesian filter) 및 마르코프 연쇄 몬테 카를로(Markov chain Monte Carlo) 등과 같이 통상적으로 사용되는 예측 알고리즘을 이용하여 목표물의 예상 행동 반경 및 예상 이동 경로 중 적어도 어느 하나를 예측할 수 있다. For convenience of explanation, the
그리고 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 복수의 촬영 장치들의 정보, 실제 공간에 상응하는 3차원 공간 정보 및 검출된 목표물의 3D 가상 공간상 좌표 중에서 적어도 하나를 저장하는 저장부(미도시)를 포함할 수 있다. The
이때, 저장부는 목표물의 3D 가상 공간상 좌표 및 이동 경로를 디지털화하여 저장함으로써, 목표물 추적 시 필요로 하는 데이터의 양을 획기적으로 감소시킬 수 있다. At this time, the storage unit digitally stores coordinates and movement path of the 3D virtual space of the target, thereby dramatically reducing the amount of data required for tracking the target.
또한, 3차원 공간 정보를 이용한 목표물 추적 장치(100)는 저장부를 포함하지 않는 경우, 외부의 저장 장치에 복수의 촬영 장치들의 정보, 실제 공간에 상응하는 3차원 공간 정보 및 검출된 목표물의 3D 가상 공간상 좌표 중에서 적어도 하나를 저장할 수 있다. In addition, when the
이하에서는 도 2 내지 도 9를 통하여 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치에 의해 수행되는 목표물 추적 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a target tracking method performed by the target tracking apparatus using three-dimensional spatial information according to an embodiment of the present invention will be described in detail with reference to FIG. 2 through FIG.
도 2는 본 발명의 실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 방법을 나타낸 순서도이다. 2 is a flowchart illustrating a method of tracking a target using three-dimensional spatial information according to an embodiment of the present invention.
먼저, 목표물 추적 장치(100)는 촬영 장치와 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산한다(S210). First, the
목표물 추적 장치(100)는 CCTV 등과 같은 촬영 장치와 촬영 장치가 촬영하는 실제 공간의 3차원 공간 정보를 맵핑하기 위한 사전 작업을 수행한다. 여기서, 사전 작업은 영상 정보에 포착된 목표물들이 BIM을 활용한 3차원 가상 공간 상에 어느 위치에 있는지를 파악하기 위하여 수행하는 작업을 의미한다. The
그리고 목표물 추적 장치(100)는 영상 정보와 3D 가상 공간상의 변환 행렬을 연산하기 위하여 사전 작업을 수행한다. 이때, 영상 정보와 3차원 공간 정보는 종래의 맵핑 기술을 이용하여 맵핑 될 수 있다. The
도 3은 본 발명의 실시예에 따른 실제 공간의 3차원 공간 정보를 나타낸 도면이다.3 is a view showing three-dimensional spatial information of an actual space according to an embodiment of the present invention.
도 3과 같은 3차원 공간 정보는 건물의 벽과 바닥에 관한 정보를 포함하며, 목표물 추적 장치(100)는 촬영 장치가 설치된 실제 공간의 BIM을 통하여 3차원 공간 정보를 획득하거나, CAD 도면으로부터 3차원 공간 정보를 획득할 수 있다. 그리고 목표물 추적 장치(100)는 3차원 공간 정보를 디지털화하여 저장할 수 있다. The three-dimensional space information as shown in FIG. 3 includes information about the walls and the floor of the building. The
도 4는 본 발명의 실시예에 따른 실제 건물의 바닥에 부착된 마커를 나타낸 도면이다. 4 is a view showing a marker attached to a floor of an actual building according to an embodiment of the present invention.
도 4에 도시한 바와 같이, 바닥 위치의 정확도를 향상시키기 위하여, 실제 건물의 바닥에 마커(400)를 부착하여 보정(calibration)하고, 이를 통하여 촬영 장치와 가상 3차원 공간상의 변환 행렬(transfer matrix)을 연산한다. As shown in FIG. 4, in order to improve the accuracy of the floor position, a
도 5는 본 발명의 실시예에 따른 마커의 위치를 파악하는 촬영 장치를 설명하기 위한 도면이다. 5 is a view for explaining a photographing apparatus for locating a marker according to an embodiment of the present invention.
도 5와 같이, 촬영 장치(500)는 실제 바닥에 부착된 마커(400)가 포함된 공간을 촬영한다. 목표물 추적 장치(100)는 촬영 장치(500)가 촬영한 영상 정보 상에서 마커(400)가 어느 곳에 위치하는지를 확인한다. 5, the photographing
그리고 목표물 추적 장치(100)는 마커(400)를 기반으로 3차원 공간 정보와 영상 정보를 맵핑하기 위하여, 선분 카메라 쌍(CLC, Coupled Line Camera) 기법을 이용하여, 촬영 장치(500) 화면 상의 사각형을 3차원 디지털 공간에 복원하고, 변환 행렬을 연산한다. The
수학식 1은 변환 행렬을 나타낸 것이다. Equation (1) shows a transformation matrix.
여기서, T는 변환 행렬을 의미하고, P는 영상 정보의 픽셀 좌표를 의미하며, M은 3차원 공간에서의 좌표를 의미한다. Here, T denotes a transformation matrix, P denotes pixel coordinates of image information, and M denotes coordinates in a three-dimensional space.
즉, 변환 행렬(T)는 영상 정보의 픽셀 좌표(Px, Py)를 3차원 공간에 맵핑(id, x, t, f, t)하기 위한 행렬을 의미한다. 이때, id는 목표물의 식별자를 의미하고, x는 3차원 공간상의 x좌표를 의미하며, y는 3차원 공간상의 y좌표를 의미하고, f는 3차원 공간상의 건물 층 수를 의미하며, t는 촬영 장치가 해당 영상을 촬영한 시간을 의미한다. That is, the transformation matrix T means a matrix for mapping the pixel coordinates (Px, Py) of the image information to the three-dimensional space (id, x, t, f, t). In this case, id denotes an identifier of the target, x denotes an x coordinate in a three-dimensional space, y denotes a y coordinate in a three-dimensional space, f denotes a number of building layers in a three- And means a time when the photographing apparatus photographed the corresponding image.
도 6은 본 발명의 실시예에 따른 3차원 공간 정보에서 마커와 촬영 장치의 위치를 설명하기 위한 도면이다.6 is a view for explaining the positions of the marker and the photographing apparatus in the three-dimensional spatial information according to the embodiment of the present invention.
도 6에 도시한 바와 같이, 목표물 추적 장치(100)가 선분 카메라 쌍(CLC, Coupled Line Camera) 기법을 이용하여, 촬영 장치(500) 및 마커(400)를 3차원 공간상에 복원한다. 6, the
설명의 편의상, 목표물 추적 장치(100)가 하나의 촬영 장치와 3차원 공간 정보를 맵핑하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 복수 개의 촬영 장치와 연결될 수 있으며, 복수 개의 촬영 장치와 3차원 공간 정보를 맵핑하는 과정을 수행할 수 있다. For convenience of explanation, the
다음으로, 목표물 추적 장치(100)는 영상 정보에 포함된 목표물을 검출한다(S220). Next, the
여기서 영상 정보는 S210 단계에서 3차원 공간 정보와 맵핑된 촬영 장치가 촬영한 영상을 의미한다. 목표물 추적 장치(100)는 사전 작업 완료 후 실제 가동시에, 역학조사를 실시할 해당 촬영 장치의 영상 정보를 확보한다. 그리고 영상 정보 속에 포함된 목표물을 추출 및 추적하여, 3D 가상 공간상 좌표를 구한다. 이때, 목표물 추적 장치(100)는 가상 공간상의 좌표를 연산하고 저장하는 작업을 자동화하여 처리할 수 있다. Here, the image information means an image captured by the photographing device mapped with the three-dimensional spatial information in step S210. The
도 7은 본 발명의 실시예에 따른 목표물의 바닥 좌표 픽셀을 나타낸 도면이다.7 is a view showing bottom coordinate pixels of a target according to an embodiment of the present invention.
도 7과 도시한 바와 같이, 목표물 추적 장치(100)는 영상 정보에 포함된 목표물(700)을 태깅(Tagging)하고, 목표물(700)의 바닥 좌표 픽셀(Px, Py)을 구한다. 7, the
이때, 목표물 추적 장치(100)는 사용자로부터 수동으로 목표물(700)의 태깅을 입력받거나, 목표물 추적 장치(100)가 자동으로 사람 또는 사물의 데이터베이스를 학습하여, 영상 정보에 포함된 사람 또는 사물을 목표물(700)로 검출할 수 있다. At this time, the
또한, 목표물 추적 장치(100)는 이전 프레임인 t-1 프레임과 현재 프레임인 t 프레임을 비교하여, 두 프레임 사이에 차이가 발생한 것을 목표물(700)로 검출(태깅)할 수 있다. In addition, the
그리고 목표물 추적 장치(100)는 태깅한 목표물의 특징 정보를 추출한다(S230).Then, the
목표물 추적 장치(100)는 목표물이 사람인 경우, 목표물의 키, 옷 색깔, 옷의 종류 등을 포함하는 옷차림 정보를 특징 정보로 추출하여 저장할 수 있다. When the target is a person, the
또한, 목표물 추적 장치(100)는 변환 행렬을 이용하여, 검출된 목표물의 3D 가상 공간상 좌표를 추출한다(S240). In addition, the
도 8은 본 발명의 실시예에 따른 가상 공간에서 목표물의 3D 가상 공간상 좌표를 나타낸 도면이다.FIG. 8 is a view showing 3D virtual space coordinates of a target in a virtual space according to an embodiment of the present invention.
도 8에 도시한 바와 같이, 목표물 추적 장치(100)는 태깅한 목표물(800)의 3D 가상 공간상 좌표(ID1, Vx, Vy, Vf, t)를 계산하여 저장한다. 이때, 목표물(800)의 3D 가상 공간상 좌표는 목표물의 식별자(ID1), 3차원 공간상의 x좌표(Vx), 3차원 공간상의 y좌표(Vy), 3차원 공간상의 건물 층 수(Vf) 및 촬영 장치가 해당 영상을 촬영한 시간(t)을 포함할 수 있다. As shown in FIG. 8, the
마지막으로, 목표물 추적 장치(100)는 목표물의 이동 경로를 추적하고, 추적된 이동 경로를 2차원 지도상에 표시한다(S250). Finally, the
도 9는 본 발명의 실시예에 따른 목표물의 이동 경로를 표시한 2차원 지도를 나타낸 도면이다.FIG. 9 is a diagram showing a two-dimensional map showing a moving path of a target according to an embodiment of the present invention.
도 9에 도시된 바와 같이, 목표물 추적 장치(100)는 추적한 목표물의 이동 경로(900)를 3차원 공간 지도의 바닥면인 3차원 지도상에 표시한다. As shown in Fig. 9, the
이때, 목표물 추적 장치(100)는 태깅시 목표물의 바닥 좌표 픽셀을 중심으로 t-1프레임과 t프레임을 비교하여, 목표물의 이동 경로(900)를 추적하고, 2차원 지도상에 표시할 수 있다. At this time, the
이하에서는 도 10 내지 도 13을 통하여, 본 발명의 일실시예에 따른 3차원 공간 정보를 이용한 목표물 추적 장치가 추적 누락 구간에서 목표물을 추적하는 방법에 대하여 더욱 상세하게 설명한다. Hereinafter, a method for tracking a target in a tracking missing interval according to an embodiment of the present invention using a three-dimensional spatial information according to an embodiment of the present invention will be described in detail with reference to FIGS. 10 to 13. FIG.
도 10은 본 발명의 실시예에 따른 추적 누락 구간에서의 예상 행동 반경 탐색 과정을 설명하기 위한 도면이다. FIG. 10 is a diagram for explaining a process of searching for an expected behavior radius in a tracking missing interval according to an embodiment of the present invention.
도 10에 도시한 바와 같이, 목표물 추적 장치(100)는 추적 중인 목표물(800)에 가림(occlusion)이 발생하여, 추적 누락 구간(1000)이 발생한 경우, 소셜 패스 플래닝(SPP, Social path planning) 기술 및 확장 칼만 필터(EKF, Extended Kalman Filter) 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물(800)의 예상 행동 반경을 탐색한다. 10, the
여기서, 소셜 패스 플래닝(SPP, Social path planning) 기술은 인간 행동 모사 경로 계획 기술을 의미한다. 즉, 소셜 패스 플래닝(SPP)은 2차원 지도 상에서 사람이 이동할 수 있는 곳으로의 경로를 계획하는 기술이다. Here, the social path planning (SPP) technology means a human action simulation path planning technology. In other words, the social path planning (SPP) is a technique for planning a route to a place where a person can move on a two-dimensional map.
소셜 패스 플래닝(SPP) 기술은 인간은 일반적으로 최단거리로 이동하고자 하며, 장애물과는 일정 거리를 두고, 방향 전환이 적은 길을 선호한다는 인간의 특성을 가정한다. 그리고 이러한 인간의 특성을 이용하여 경로를 계획한다. The social path planning (SPP) technique assumes human characteristics that humans generally want to travel to the shortest distance and prefer a less directional path with a certain distance from the obstacle. And we use these human characteristics to plan the route.
그리고 확장 칼만 필터(EKF)는 계획된 경로 하에서, 인간의 이동 속도를 고려하여 시간에 따라 이동할 수 있는 영역을 예측한다. And the extended Kalman filter (EKF) predicts the area that can move with time considering the human moving speed under the planned path.
설명의 편의상, 목표물 추적 장치(100)는 소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 목표물의 예상 행동 반경 및 목표물의 예상 이동 경로 중 적어도 어느 하나를 예측하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 파티클 필터(Partical filter), 베이지안 필터(Bayesian filter) 및 마르코프 연쇄 몬테 카를로(Markov chain Monte Carlo) 등과 같이 통상적으로 사용되는 예측 알고리즘을 이용하여 목표물의 예상 행동 반경 및 예상 이동 경로 중 적어도 어느 하나를 예측할 수 있다. For convenience of explanation, the
다음으로, 목표물 추적 장치(100)는 목표물의 키, 옷 색상 등을 포함하는 특징 정보를 이용하여, 예상 행동 반경 내에서 목표물을 재검출한다. 그리고 재검출된 목표물을 가림(occlusion)이 발생되기 이전의 목표물과 맵핑한다. Next, the
추적중인 목표물의 추적을 놓치고, 새로운 목표물이 영상 정보에 감지되었을 경우, 목표물 추적 장치(100)는 새로운 목표물을 태깅(Tagging)하여 추적할 수 있다. If the tracking of the track being tracked is missed and the new target is detected in the image information, the
도 11은 본 발명의 실시예에 따른 영상 정보에서 포착된 목표물을 나타낸 도면이다. 11 is a view showing a target captured in image information according to an embodiment of the present invention.
도 11과 같이, 목표물 추적 장치(100)는 영상 정보에 움직이는 사람 또는 사물을 목표물(700)로 검출하고, 검출된 목표물(700)을 태깅할 수 있다. As shown in FIG. 11, the
이때, 목표물 추적 장치(100)는 추후 관리자가 새로운 목표물의 태깅을 확인할 수 있도록, 새로운 목표물을 기존의 목표물과 다르게 표시할 수 있다. At this time, the
도 12는 본 발명의 실시예에 따른 3차원 공간 지도 상에 표시된 목표물을 나타낸 도면이다. 12 is a diagram showing a target displayed on a three-dimensional space map according to an embodiment of the present invention.
도 12에 도시된 바와 같이, 목표물 추적 장치(100)는 태깅된 목표물(800)의 3D 가상 공간상 좌표(ID1, Vx, Vy, Vf, t)를 계산하여 3차원 공간 지도상에 표시할 수 있다. 12, the
도 13은 본 발명의 실시예에 따라 목표물의 이동 경로를 저장하는 과정을 설명하기 위한 도면이다. 13 is a diagram for explaining a process of storing a moving route of a target according to an embodiment of the present invention.
목표물 추적 장치(100)는 기 설정된 시간 단위 또는 사용자로부터 입력받은 시간 단위별로 목표물(800)을 추적하거나, 실시간으로 목표물(800)을 추적하여 이동 경로를 생성할 수 있다. 그리고 목표물 추적 장치(100)는 생성된 이동 경로를 3차원 공간 지도 상에 표시할 수 있다. The
또한, 목표물 추적 장치(100)는 복수의 촬영 장치로부터 영상 정보를 입력받는 경우, 복수의 영상 정보에 포함된 목표물들의 특징 정보를 비교하여, 하나의 목표물로 인식할 수 있다. In addition, when the
그리고, 목표물 추적 장치(100)는 3차원 공간 상에 태깅된 목표물의 이동 경로를 이용하여, 복수의 촬영 장치로부터 입력된 영상들에 포함된 목표물을 하나의 목표물로 인식할 수 있다. The
즉, 목표물 추적 장치(100)는 목표물의 이동 경로, 목표물의 특징 정보를 이용하여 복수의 촬영 장치에 상응하는 영상 정보에 포함된 목표물들이 동일한 목표물인지 여부를 판단할 수 있다. That is, the
또한, 그리고 목표물 추적 장치(100)는 제1 촬영 장치로부터 촬영된 제1 영상에서 태깅된 목표물을 제2 촬영 장치로 핸드오버(handover) 할 수 있다. 목표물 추적 장치(100)는 태깅된 목표물을 핸드오버할 때, 화면간 전환이 부정확한 경우, 확장 칼만 필터를 활용하여 목표물의 예상 경로를 예측할 수 있다. Further, the
설명의 편의상, 목표물 추적 장치(100)가 하나의 목표물을 추적하는 것으로 설명하였으나 이에 한정하지 않고, 목표물 추적 장치(100)는 복수의 목표물들을 각각 태깅하여 추적하고, 각각의 목표물에 상응하는 이동 경로를 추적할 수 있다. For convenience of explanation, the
이와 같이, 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 방법은 CCTV와 같은 촬영 장치를 이용한 목표물 추적을 자동화할 수 있고, 목표물 추적에 관한 정보를 디지털 데이터로 전환하여, 언제든지 재현하거나 조회할 수 있다. 그리고 영상 정보를 이용한 역학 조사를 자동화하여, 조사관의 영상 정보 확인 시간을 단축시킬 수 있다. As described above, the target tracking apparatus and method using three-dimensional spatial information according to the present invention can automate target tracking using a photographing device such as CCTV, convert information about target tracking into digital data, can do. It is also possible to automate the epidemiological investigation using the image information, thereby shortening the time for confirming the image information of the investigator.
또한, 종래에는 한 사람이 복수의 영상 정보를 일일이 확인하는데 많은 시간이 소요되었다. 반면, 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 방법은 복수의 영상 정보를 동시에 처리할 수 있으므로, 조사 시간을 단축시킬 수 있다. In addition, in the past, it took a long time for a person to check a plurality of pieces of video information one by one. On the other hand, the apparatus and method for tracking a target using three-dimensional spatial information according to the present invention can simultaneously process a plurality of image information, thereby shortening the irradiation time.
그리고 복수의 촬영 장치로부터 입력된 영상 정보를 통합하여, 사용자에게 하나의 정보로 제공할 수 있으므로, 가독성이 좋아지고, 사용자가 3차원 지도를 기반으로 시야각을 회전하여, 사용자가 원하는 각도에 상응하는 영상 정보를 볼 수 있도록 할 수 있다. Since the image information input from the plurality of photographing apparatuses can be integrated and provided as one information to the user, the readability is improved, the user rotates the viewing angle based on the three-dimensional map, So that the user can view the image information.
이상에서와 같이 본 발명에 따른 3차원 공간 정보를 이용한 목표물 추적 장치 및 그 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다. As described above, the configuration and method of the embodiments described above can be applied to a target tracking apparatus and method using three-dimensional spatial information according to the present invention. All or some of the embodiments may be selectively combined.
100: 3차원 공간 정보를 이용한 목표물 추적 장치
110: 변환 행렬 연산부
120: 목표물 검출부
130: 3D 좌표 추출부
140: 경로 추적부
150: 예측부
400: 마커
500: 촬영 장치
700: 영상 정보에 포함된 목표물
800: 3D 가상 공간상의 목표물
900: 이동 경로
1000: 추적 누락 구간100: Target tracking system using 3D spatial information
110: conversion matrix operation unit
120: target detection unit
130: 3D coordinate extracting unit
140: Path trace section
150:
400: Marker
500: photographing apparatus
700: target included in image information
800: Target in 3D virtual space
900: Travel route
1000: Missing trace section
Claims (20)
상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하고, 검출된 상기 목표물의 특징 정보를 추출하는 목표물 검출부,
상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 3D 좌표 추출부, 그리고
상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 경로 추적부를 포함하는 3차원 공간 정보를 이용한 목표물 추적 장치. A conversion matrix operation unit for mapping a plurality of photographing apparatuses and three-dimensional spatial information corresponding to an actual space photographed by the photographing apparatuses to calculate a conversion matrix,
A target detecting unit that detects a target included in the image information captured by at least one of the plurality of photographing apparatuses and extracts the detected feature information of the target,
A 3D coordinate extracting unit for extracting coordinates of the 3D virtual space of the target detected using the transformation matrix,
And a path tracing unit for comparing a previous frame of the image information with a current frame to track the moving path of the target.
상기 변환 행렬 연산부는,
상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.The method according to claim 1,
Wherein the conversion matrix calculator comprises:
And mapping the image information captured by the photographing apparatus and the three-dimensional spatial information using a marker attached to the actual space.
상기 변환 행렬 연산부는,
선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치. 3. The method of claim 2,
Wherein the conversion matrix calculator comprises:
Dimensional space information by using a three-dimensional space information, and restoring the image information into three-dimensional space information by using a line camera pair technique (Coupled Line Camera) Tracking device.
상기 3D 좌표 추출부는,
상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치.The method according to claim 1,
The 3D coordinate extracting unit may extract,
The 3D virtual space coordinate including at least one of ID information of the target, 3D virtual space coordinate information, 3D virtual space layer number information, and time information of the image information is extracted. Target Tracking System Using 3D Spatial Information.
상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 예측부를 더 포함하며,
상기 목표물 검출부는,
상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출하는 3차원 공간 정보를 이용한 목표물 추적 장치.The method according to claim 1,
Further comprising a predictor for searching for an expected behavior radius of the target when the tracking of the target is missed,
Wherein the target detection unit comprises:
Dimensional space information for re-detecting the target using the feature information of the target.
상기 예측부는,
소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치. 6. The method of claim 5,
The predicting unit,
Wherein the predicted action radius of the target is searched using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.
상기 예측부는,
상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 장치. The method according to claim 6,
The predicting unit,
Wherein the predicted movement path of the target is predicted using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.
상기 목표물 검출부는,
제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단하는 3차원 공간 정보를 이용한 목표물 추적 장치. The method according to claim 1,
Wherein the target detection unit comprises:
The feature information of the first target included in the first image information is compared with the feature information of the second target included in the second image information to determine whether the first target and the second target are the same target Target Tracking System Using 3D Spatial Information.
상기 목표물 검출부는,
상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버하는 3차원 공간 정보를 이용한 목표물 추적 장치.9. The method of claim 8,
Wherein the target detection unit comprises:
And when the first target and the second target are determined to be the same target, the first target is handed over to the second video device that has captured the second video information.
상기 경로 추적부는,
추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시하는 3차원 공간 정보를 이용한 목표물 추적 장치. The method according to claim 1,
The path-
And displaying the traced movement path of the target on a two-dimensional map.
복수의 촬영 장치들과 상기 촬영 장치들이 촬영한 실제 공간에 상응하는 3차원 공간 정보를 맵핑하여, 변환 행렬을 연산하는 단계,
상기 복수의 촬영 장치들 중에서 적어도 하나의 상기 촬영 장치가 촬영한 영상 정보에 포함된 목표물을 검출하는 단계,
검출된 상기 목표물의 특징 정보를 추출하는 단계,
상기 변환 행렬을 이용하여 검출된 상기 목표물의 3D 가상 공간상 좌표를 추출하는 단계, 그리고
상기 영상 정보의 이전 프레임과 현재 프레임을 비교하여, 상기 목표물의 이동 경로를 추적하는 단계를 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법. A target tracking method performed by a target tracking apparatus using three-dimensional spatial information,
Mapping the three-dimensional spatial information corresponding to the actual space photographed by the plurality of photographing apparatuses and the photographing apparatuses to calculate a transformation matrix,
Detecting a target included in image information photographed by at least one photographing apparatus among the plurality of photographing apparatuses,
Extracting feature information of the detected target;
Extracting 3D virtual space coordinates of the target detected using the transformation matrix, and
And comparing the current frame with a previous frame of the image information to track the movement path of the target.
상기 변환 행렬을 연산하는 단계는,
상기 실제 공간에 부착된 마커를 이용하여 상기 촬영 장치가 촬영한 상기 영상 정보와 상기 3차원 공간 정보를 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.12. The method of claim 11,
Wherein the step of computing the transformation matrix further comprises:
And mapping the image information photographed by the photographing device and the three-dimensional spatial information using a marker attached to the actual space.
상기 변환 행렬을 연산하는 단계는,
선분 카메라 쌍(Coupled Line Camera) 기법을 이용하여, 상기 영상 정보를 3차원 입체 정보로 복원하고, 상기 3차원 입체 정보를 상기 3차원 공간 정보와 맵핑하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법. 13. The method of claim 12,
Wherein the step of computing the transformation matrix further comprises:
Dimensional space information by using a three-dimensional space information, and restoring the image information into three-dimensional space information by using a line camera pair technique (Coupled Line Camera) Tracking method.
상기 3D 가상 공간상 좌표를 추출하는 단계는,
상기 목표물의 ID 정보, 상기 3D 가상 공간상 좌표 정보, 상기 3D 가상 공간상 층 수 정보 및 상기 영상 정보가 촬영된 시간 정보 중에서 적어도 하나를 포함하는 상기 3D 가상 공간상 좌표를 추출하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법.12. The method of claim 11,
Wherein the step of extracting the 3D virtual space coordinate comprises:
The 3D virtual space coordinate including at least one of ID information of the target, 3D virtual space coordinate information, 3D virtual space layer number information, and time information of the image information is extracted. Target Tracking Method Using 3D Spatial Information.
상기 목표물의 추적을 놓친 경우, 상기 목표물의 예상 행동 반경을 탐색하는 단계, 그리고
상기 목표물의 특징 정보를 이용하여 상기 목표물을 재검출하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.12. The method of claim 11,
If the tracking of the target is missed, searching for an expected behavior radius of the target, and
Further comprising the step of re-detecting the target using the feature information of the target.
상기 목표물의 예상 행동 반경을 탐색하는 단계는,
소셜 패스 플래닝 및 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 행동 반경을 탐색하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법. 16. The method of claim 15,
Wherein the step of searching for an expected behavior radius of the target comprises:
Wherein the predicted action radius of the target is searched using a prediction algorithm including at least one of a social path planning and an extended Kalman filter.
상기 목표물의 예상 행동 반경을 탐색하는 단계는,
상기 소셜 패스 플래닝 및 상기 확장 칼만 필터 중 어느 하나 이상을 포함하는 예측 알고리즘을 이용하여, 상기 목표물의 예상 이동 경로를 예측하는 것을 특징으로 하는 3차원 공간 정보를 이용한 목표물 추적 방법. 17. The method of claim 16,
Wherein the step of searching for an expected behavior radius of the target comprises:
Wherein the predicted movement path of the target is predicted using a prediction algorithm including at least one of the social path planning and the extended Kalman filter.
제1 영상 정보에 포함된 제1 목표물의 상기 특징 정보와 제2 영상 정보에 포함된 제2 목표물의 상기 특징 정보를 비교하여, 상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인지 여부를 판단하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법. 12. The method of claim 11,
The feature information of the first target included in the first image information is compared with the feature information of the second target included in the second image information to determine whether the first target and the second target are the same target Wherein the method further comprises the steps of:
상기 제1 목표물과 상기 제2 목표물이 동일한 목표물인 것으로 판단된 경우, 상기 제1 목표물을 상기 제2 영상 정보를 촬영한 제2 영상 장치로 핸드오버하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법.19. The method of claim 18,
Further comprising the step of, when it is determined that the first target and the second target are the same target, handing over the first target to a second video apparatus that has captured the second video information, Target tracking method.
추적된 상기 목표물의 이동 경로를 2차원 지도 상에 표시하는 단계를 더 포함하는 3차원 공간 정보를 이용한 목표물 추적 방법. 12. The method of claim 11,
And displaying the traced movement path of the target on a two-dimensional map.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160022461A KR20170100204A (en) | 2016-02-25 | 2016-02-25 | Apparatus and method for target tracking using 3d bim |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160022461A KR20170100204A (en) | 2016-02-25 | 2016-02-25 | Apparatus and method for target tracking using 3d bim |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20170100204A true KR20170100204A (en) | 2017-09-04 |
Family
ID=59924122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160022461A KR20170100204A (en) | 2016-02-25 | 2016-02-25 | Apparatus and method for target tracking using 3d bim |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20170100204A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019231119A1 (en) * | 2018-05-31 | 2019-12-05 | 삼성에스디에스 주식회사 | Apparatus and method for congestion visualization |
KR102106858B1 (en) * | 2018-11-27 | 2020-05-06 | 노성우 | Logistic Robot Location Estimation Method of Hybrid Type |
KR102152318B1 (en) * | 2019-11-13 | 2020-09-04 | 주식회사 벡터시스 | Tracking system that can trace object's movement path |
RU2742582C1 (en) * | 2020-06-25 | 2021-02-08 | Общество с ограниченной ответственностью "Ай Ти Ви групп" | System and method for displaying moving objects on local map |
CN113836337A (en) * | 2021-09-27 | 2021-12-24 | 福建汇川物联网技术科技股份有限公司 | BIM display method, device, equipment and storage medium |
CN114281096A (en) * | 2021-11-09 | 2022-04-05 | 中时讯通信建设有限公司 | Unmanned aerial vehicle tracking control method, device and medium based on target detection algorithm |
-
2016
- 2016-02-25 KR KR1020160022461A patent/KR20170100204A/en not_active Application Discontinuation
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019231119A1 (en) * | 2018-05-31 | 2019-12-05 | 삼성에스디에스 주식회사 | Apparatus and method for congestion visualization |
KR20190136517A (en) * | 2018-05-31 | 2019-12-10 | 삼성에스디에스 주식회사 | Apparatus and method for visualizing congestion degree |
CN111164612A (en) * | 2018-05-31 | 2020-05-15 | 三星Sds株式会社 | Congestion degree visualization device and method |
US11393214B2 (en) | 2018-05-31 | 2022-07-19 | Samsung Sds Co., Ltd. | Apparatus and method for congestion visualization |
KR102106858B1 (en) * | 2018-11-27 | 2020-05-06 | 노성우 | Logistic Robot Location Estimation Method of Hybrid Type |
KR102152318B1 (en) * | 2019-11-13 | 2020-09-04 | 주식회사 벡터시스 | Tracking system that can trace object's movement path |
WO2021095916A1 (en) * | 2019-11-13 | 2021-05-20 | 주식회사 벡터시스 | Tracking system capable of tracking movement path of object |
RU2742582C1 (en) * | 2020-06-25 | 2021-02-08 | Общество с ограниченной ответственностью "Ай Ти Ви групп" | System and method for displaying moving objects on local map |
CN113836337A (en) * | 2021-09-27 | 2021-12-24 | 福建汇川物联网技术科技股份有限公司 | BIM display method, device, equipment and storage medium |
CN113836337B (en) * | 2021-09-27 | 2023-10-13 | 福建汇川物联网技术科技股份有限公司 | BIM display method, device, equipment and storage medium |
CN114281096A (en) * | 2021-11-09 | 2022-04-05 | 中时讯通信建设有限公司 | Unmanned aerial vehicle tracking control method, device and medium based on target detection algorithm |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170100204A (en) | Apparatus and method for target tracking using 3d bim | |
Soltani et al. | Framework for location data fusion and pose estimation of excavators using stereo vision | |
Koller et al. | Robust multiple car tracking with occlusion reasoning | |
JP2020191646A (en) | Information processing system, information processing method and program | |
US7321386B2 (en) | Robust stereo-driven video-based surveillance | |
JP6510247B2 (en) | Survey data processing apparatus, survey data processing method and program | |
Black et al. | Multi-camera image measurement and correspondence | |
JP2010504711A (en) | Video surveillance system and method for tracking moving objects in a geospatial model | |
JP2015181042A (en) | detection and tracking of moving objects | |
US20100208941A1 (en) | Active coordinated tracking for multi-camera systems | |
US9934585B2 (en) | Apparatus and method for registering images | |
KR101645959B1 (en) | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map | |
EP2476999B1 (en) | Method for measuring displacement, device for measuring displacement, and program for measuring displacement | |
CN107094234B (en) | Shooting area shielding method and device applied to mobile camera terminal | |
JPH07262375A (en) | Mobile object detector | |
CN106504274A (en) | A kind of visual tracking method and system based under infrared camera | |
US20200234452A1 (en) | Imaging object tracking system and imaging object tracking method | |
Halfawy et al. | Optical flow techniques for estimation of camera motion parameters in sewer closed circuit television inspection videos | |
Park et al. | Small and overlapping worker detection at construction sites | |
Xu et al. | Real-time detection via homography mapping of foreground polygons from multiple cameras | |
KR100994722B1 (en) | Method for tracking moving object on multiple cameras using probabilistic camera hand-off | |
Se et al. | Stereo vision-based obstacle detection for partially sighted people | |
CN110930437B (en) | Target tracking method and device | |
RU2679200C1 (en) | Data from the video camera displaying method and system | |
Czyzewski et al. | Examining Kalman filters applied to tracking objects in motion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |