KR102058628B1 - Map information displayed monitoring system using Augmented Reality - Google Patents

Map information displayed monitoring system using Augmented Reality Download PDF

Info

Publication number
KR102058628B1
KR102058628B1 KR1020190062061A KR20190062061A KR102058628B1 KR 102058628 B1 KR102058628 B1 KR 102058628B1 KR 1020190062061 A KR1020190062061 A KR 1020190062061A KR 20190062061 A KR20190062061 A KR 20190062061A KR 102058628 B1 KR102058628 B1 KR 102058628B1
Authority
KR
South Korea
Prior art keywords
data
image
information
map data
map
Prior art date
Application number
KR1020190062061A
Other languages
Korean (ko)
Inventor
심재민
이효진
서호석
전경미
김동민
안형준
Original Assignee
주식회사 지오멕스소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지오멕스소프트 filed Critical 주식회사 지오멕스소프트
Priority to KR1020190062061A priority Critical patent/KR102058628B1/en
Application granted granted Critical
Publication of KR102058628B1 publication Critical patent/KR102058628B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • H04N5/2259

Abstract

Disclosed are a method of operating an imaging system and a control system. According to the present disclosure, the imaging system may comprise: a photographing device for generating image data of a specific place by photographing the specific place; an augmented reality engine for receiving two-dimensional map data and generating three-dimensional spatial data by performing three-dimensional transformation on at least one object included in the map data based on location information of the photographing device; and a display unit for generating merging data by merging the spatial data with the image data, and displaying a display image corresponding to the generated merged data to a user.

Description

증강 현실을 이용한 지도 정보 표출 관제 시스템 {Map information displayed monitoring system using Augmented Reality}Map information display monitoring system using Augmented Reality {Map information displayed monitoring system using Augmented Reality}

본 개시의 기술적 사상은 증강 현실을 이용하여 실시간으로 송출되는 폐쇄회로 영상에 추가적인 정보를 표시할 수 있는 관제 시스템에 관한 것이다.The technical idea of the present disclosure relates to a control system capable of displaying additional information in a closed circuit image transmitted in real time using augmented reality.

증강 현실(Augmented Reality: AR) 기술은 사용자가 눈으로 보는 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 합쳐 하나의 영상으로 보여주는 기술이다. 예컨대, 휴대용 단말기로 위치 및 방향 정보를 이용하여 대략 적인 위치를 파악하고, 주변의 건물 정보와 같은 객체 정보와 카메라의 움직임에 따라 입력되는 실사 영상 정보 간의 비교를 통해 사용자가 원하는 서비스를 파악하여 관련 정보를 제공하는 기술이다.Augmented Reality (AR) technology is a technology that combines the virtual world with additional information in real time into the real world that the user sees as a single image. For example, the portable terminal can determine the approximate location using location and direction information, and identify the desired service by comparing the object information such as surrounding building information with the live image information input according to the movement of the camera. Information technology.

이러한 증강 현실 기술은 가상 현실(Virtual Reality: VR) 기술의 한 분야로서, 실제 환경에 가상 사물(객체)을 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 이용한다. 그러나, 증강 현실 기술은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실 기술과 달리 현실 세계의 기반에 가상 객체를 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 장점이 있다. 그리고, 이러한 증강 현실 기술은 현재 휴대용 단말기인 스마트폰 등의 보급으로 인하여 더욱 다양한 분야에 활용되어 사용되고 있다.This augmented reality technology is a field of virtual reality (VR) technology, and uses a computer graphics technique that synthesizes virtual objects (objects) in a real environment and looks like objects existing in the original environment. However, augmented reality technology has a merit that it can reinforce and provide additional information which is difficult to obtain only by real world by synthesizing virtual objects on the basis of real world, unlike existing virtual reality technology that targets virtual space and objects only. . In addition, such augmented reality technology is currently being used in a variety of fields due to the spread of smart phones, such as a portable terminal.

한편, 관제 시스템은 교통 관제 센터가 주요 도로면에 설치한 CCTV 등으로부터 영상 데이터를 수집한다. 그리고, 교통 관제 센터는 수집한 데이터를 기초로교통상황에 따라 교차로의 교통 신호등 제어기를 조정하는 등 각종 대응을 취할 수 있다. 그러나, CCTV 등이 수집한 영상 데이터 만으로는 CCTV가 촬영하는 지역이 어딘지 관측자에게 직관적으로 파악되지 않는 불편함이 있을 수 있고, 이러한 현상은 현재 CCTV로써 널리 사용되는 초 고배율 확대가 가능한 PTZ(Pan-Tilt-Zoom) 카메라, 180도 또는 360도 회전이 가능한 전방위 카메라 등을 사용하는 경우 더 심각하게 나타날 수 있다. On the other hand, the control system collects video data from CCTV and the like installed on the main road surface by the traffic control center. The traffic control center can take various measures such as adjusting the traffic light controller at the intersection according to the traffic situation based on the collected data. However, video data collected by CCTVs alone may not be intuitive to the observer where the area of CCTV is photographed, and this phenomenon may be caused by PTZ (Pan-Tilt), which is capable of ultra-high magnification, which is widely used as a current CCTV. This may be more severe when using zoom cameras, omnidirectional cameras that can be rotated 180 or 360 degrees.

본 개시의 기술적 사상이 해결하고자 하는 일 과제는 증강 현실을 이용하여 지도 데이터를 3차원의 촬영 영상에 병합하는 관제 시스템 및 이의 운용 방법을 제공하는 데 있다.One problem to be solved by the technical idea of the present disclosure is to provide a control system for merging map data into a 3D photographed image using augmented reality and a method of operating the same.

본 개시의 기술적 사상이 해결하고자 하는 과제는 2차원으로 관리되는 지도데이터를 3차원으로 변환하여 CCTV 영상에 병합하는 증강현실 기술을 적용함으로써, CCTV 관제 시스템의 직관성 향상, 추가 부가정보(속성 및 공간정보)의 취득 및 CCTV 영상기반의 지리적 실좌표 추출을 통한 다양한 운용 방법을 제공하는 데 있다.The problem to be solved by the technical idea of the present disclosure is to improve the intuition of the CCTV control system, additional information (property and space) by applying augmented reality technology that converts map data managed in two dimensions into three dimensions and merges them into CCTV images. It is to provide various operation methods through the acquisition of information) and the extraction of geographical real coordinates based on CCTV images.

상기와 같은 목적을 달성하기 위하여, 본 개시의 기술적 사상의 일측면에 따른 영상 시스템은 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 촬영 장치, 2차원의 지도 데이터를 수신하고, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대해 상기 촬영 장치의 위치 정보를 기초로 3차원 변환을 수행함으로써 3차원의 공간 데이터를 생성하는 증강 현실 엔진 및 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 대응하는 표출 영상을 사용자에게 디스플레이하는 디스플레이부를 포함할 수 있다. In order to achieve the above object, an imaging system according to an aspect of the present disclosure provides a photographing apparatus for generating image data of a specific place by photographing a specific place, receiving two-dimensional map data, and Merged data by merging the spatial data with the augmented reality engine and the image data to generate three-dimensional spatial data by performing three-dimensional transformation on at least one object included in the map data based on the location information of the photographing apparatus. The display unit may include a display unit configured to generate a and display the displayed image corresponding to the generated merged data to the user.

본 개시의 예시적 실시예에 따라, 상기 표출 영상은 상기 영상 데이터에 대응하는 제1 레이어 및 상기 공간 데이터에 대응하는 제2 레이어를 포함하는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the expressed image may include a first layer corresponding to the image data and a second layer corresponding to the spatial data.

본 개시의 예시적 실시예에 따라, 상기 증강 현실 엔진은 공공 기관의 지도 데이터 베이스로부터 상기 지도 데이터를 수신하는 것을 특징으로 할 수 있다. According to an exemplary embodiment of the present disclosure, the augmented reality engine may be characterized in that receiving the map data from a map database of a public institution.

본 개시의 예시적 실시예에 따라, 상기 디스플레이부는 상기 촬영 장치의 위치 정보에 포함되는 좌표값을 수신하고, 상기 좌표 값을 공공 기관의 지도 데이터 베이스에 출력함으로써 상기 지도 데이터를 획득하는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the display unit obtains the map data by receiving a coordinate value included in the location information of the photographing apparatus and outputting the coordinate value to a map database of a public institution. can do.

본 개시의 예시적 실시예에 따라, 상기 촬영 장치는 도로를 촬영하는 CCTV(Closed Circuit Television)로서 역할을 수행하고, 상기 영상 데이터는 상기 도로에 대한 영상을 나타내는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the photographing apparatus may serve as a closed circuit television (CCTV) for photographing a road, and the image data may represent an image of the road.

본 개시의 예시적 실시예에 따라, 상기 촬영 장치는 팬 틸트 줌 기능 카메라(Pan-Tilt-Zoom Camera; PTZ Camera), 전방위 카메라 및 열적외선 카메라 중 어느 하나인 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the photographing apparatus may be any one of a pan-tilt-zoom camera (PTZ camera), an omnidirectional camera, and a thermal infrared camera.

본 개시의 예시적 실시예에 따라, 상기 증강 현실 엔진은 상기 지도 데이터로부터 건물 또는 도로의 명칭에 관한 명칭 정보 및 지리적 표시에 관한 표시 정보를 추출하고, 추출한 명칭 정보 및 표시 정보의 좌표를 상기 영상 데이터에 맞게 변환 시킴으로써 상기 공간 데이터에 포함시키는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the augmented reality engine extracts name information about a name of a building or a road and display information about a geographical indication from the map data, and extracts coordinates of the extracted name information and display information from the map data. By converting the data to be included in the spatial data.

본 개시의 예시적 실시예에 따라, 사용자가 표출 영상에 포함되는 객체를 선택하는 경우, 상기 디스플레이부는 선택된 객체의 좌표를 상기 지도 데이터에 대응하는 좌표로 변환하고, 상기 좌표를 이용하여 상기 객체의 속성 정보를 디스플레이하는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, when the user selects an object included in the displayed image, the display unit converts the coordinates of the selected object into coordinates corresponding to the map data, and uses the coordinates of the object. It may be characterized by displaying the attribute information.

본 개시의 예시적 실시예에 따라, 상기 디스플레이부는 무선 네트워크를 통해 상기 촬영 기기로부터 상기 영상 데이터를 수신하는 것을 특징으로 할 수 있다.According to an exemplary embodiment of the present disclosure, the display unit may receive the image data from the photographing device through a wireless network.

본 개시의 기술적 사상의 또 다른 측면에 따른 관제 시스템 운용 방법은 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 단계, 2차원의 지도 데이터를 수신하는 단계, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대한 좌표를 3차원 좌표로 변경하는 3차원 변환을 통해 3차원의 공간 데이터를 생성하는 단계, 상기 촬영 장치의 위치 정보에 기초하여 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하는 단계 및 상기 병합 데이터에 대응하는 표출 영상을 디스플레이하는 단계를 포함할 수 있다.According to another aspect of the present disclosure, a method of operating a control system may include generating image data of a specific place by photographing a specific place, receiving two-dimensional map data, and at least included in the map data. Generating three-dimensional spatial data through three-dimensional transformation of changing coordinates of one object into three-dimensional coordinates; merging data by merging the spatial data with the image data based on the location information of the photographing apparatus; And generating the displayed image corresponding to the merged data.

본 개시의 예시적 실시예에 따라, 상기 표출 영상에 포함되는 객체에 대한 선택 신호를 수신하는 단계, 상기 객체의 상기 표출 영상 상의 3차원 좌표를 상기 지도 데이터에 대응되는 2차원 좌표로 변환하는 단계, 상기 2차원 좌표에 기초하여 상기 객체의 속성 정보를 수신하는 단계 및 수신한 상기 속성 정보를 디스플레이 하는 단계를 더 포함할 수 있다. According to an exemplary embodiment of the present disclosure, receiving a selection signal for an object included in the displayed image, converting three-dimensional coordinates on the displayed image of the object to two-dimensional coordinates corresponding to the map data The method may further include receiving property information of the object based on the two-dimensional coordinates and displaying the received property information.

본 개시의 일 실시예에 따른 관제 시스템은 데이터 베이스에 저장된 2차원의 지도 데이터를 3차원으로 변환하고, 3차원의 영상 데이터에 병합함으로써 사용자에게 가공된 지도 데이터와 영상 데이터를 한번에 디스플레이 할 수 있다. 이에 따라서, 실세계의 위치 좌표를 영상 데이터(예를 들면, 폐쇄 회로 화면)에 표출함으로써 사용자로 하여금 직관적으로 파악하게 할 수 있다.The control system according to an exemplary embodiment of the present disclosure may display processed map data and image data at once by converting two-dimensional map data stored in a database into three dimensions and merging them into three-dimensional image data. . Accordingly, the user can intuitively grasp by displaying the position coordinates of the real world on the image data (for example, a closed circuit screen).

또한, 본 개시의 일 실시예에 따른 관제 시스템은 3차원의 사용자 선택 좌표를 2차원 좌표로 변환하고, 대응하는 속성 정보를 사용자에게 디스플레이 할 수 있다. 이에 따라서, 사용자는 디스플레이된 영상을 통해 영상이 가르키는 위치를 직관적으로 파악하고, 각종 정보를 효율적으로 확인할 수 있다. In addition, the control system according to an embodiment of the present disclosure may convert the three-dimensional user selection coordinates to two-dimensional coordinates, and display the corresponding attribute information to the user. Accordingly, the user can intuitively grasp the position indicated by the image through the displayed image and efficiently check various information.

도 1은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
도 2는 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 블록도이다.
도 3은 본 개시의 예시적 실시예에 따른 영상 시스템의 동작 방법을 나타내는 순서도이다.
도 4는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 5는 본 개시의 예시적 실시예에 따른 증강 현실 엔진의 동작을 나타내는 도면이다.
도 6은 본 개시의 예시적 실시예에 따른 디스플레이부의 동작을 나타내는 도면이다.
도 7은 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.
도 8은 본 개시의 예시적 실시예에 따른 표출 영상을 나타내는 도면이다.
도 9는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작을 나타내는 도면이다.
도 10은 본 개시의 예시적 실시예에 따른 영상 시스템의 구성 요소별 동작 방법을 나타내는 순서도이다.
도 11은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.
1 is a diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure.
2 is a block diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure.
3 is a flowchart illustrating a method of operating an imaging system according to an exemplary embodiment of the present disclosure.
4 is a flowchart illustrating a method of operating a control system according to an exemplary embodiment of the present disclosure.
5 is a diagram illustrating an operation of an augmented reality engine according to an exemplary embodiment of the present disclosure.
6 is a diagram illustrating an operation of a display unit according to an exemplary embodiment of the present disclosure.
7 is a flowchart illustrating a method of operating a control system according to an exemplary embodiment of the present disclosure.
8 is a diagram illustrating an displayed image according to an exemplary embodiment of the present disclosure.
9 is a diagram illustrating an operation of a control system according to an exemplary embodiment of the present disclosure.
10 is a flowchart illustrating a method of operating each component of an imaging system according to an exemplary embodiment of the present disclosure.
11 is a diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure.

이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다. 본 발명의 실시 예는 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용한다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나 축소하여 도시한 것이다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention. The embodiments of the present invention are provided to more completely explain the present invention to those skilled in the art. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. In describing each drawing, like reference numerals are used for like elements. In the accompanying drawings, the dimensions of the structures are shown to be enlarged or reduced than actual for clarity of the invention.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성된다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprises" or "consisting" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, one or more other It should be understood that it does not exclude in advance the possibility of the presence or addition of features or numbers, steps, operations, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings, as expressly defined herein. .

도 1은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다. 1 is a diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure.

도 1을 참조하면, 영상 시스템(10)은 관제 시스템(100), 복수의 촬영 장치들(210, 220) 및 통신망(300)을 포함할 수 있다. 복수의 촬영 장치들(210, 220) 각각은, 보안용 카메라로서 역할을 수행하는 CCTV(Closed Ciruit Television)으로 구성될 수 있다. 일 예시에서, 복수의 촬영 장치들(210, 220) 각각은 PTZ(Pan-Tilt-Zoom) 카메라, 전방위 카메라 및 열적외선 카메라 등을 포함할 수 있다. PTZ 카메라는 팬(Pan)/틸트(Tilt)/줌(Zoom) 기능을 제공하는 카메라로써 상하 좌우로 피사체를 따라가며, 확대, 축소 기능을 가진 카메라를 의미할 수 있다. PTZ 카메라는 팬/틸트/줌 기능을 통해 넓은 구역을 감시하며 줌인 기능을 통해 상세 이미지를 제공할 수 있다.Referring to FIG. 1, the imaging system 10 may include a control system 100, a plurality of photographing apparatuses 210 and 220, and a communication network 300. Each of the plurality of photographing apparatuses 210 and 220 may be configured as a closed ciruit television (CCTV) serving as a security camera. In one example, each of the plurality of photographing apparatuses 210 and 220 may include a pan-tilt-zoom (PTZ) camera, an omnidirectional camera, a thermal infrared camera, or the like. A PTZ camera is a camera that provides a pan / tilt / zoom function, and may refer to a camera having a zoom in / out function while following a subject up, down, left, and right. PTZ cameras can monitor large areas with pan / tilt / zoom and provide detailed images through zoom-in.

촬영 장치(210, 220)는 주변 지역을 실시간으로 촬영하여 해당 촬영 영상에 대응하는 영상 데이터(Data_Vd)가 관제 시스템(100)로 제공되도록 통신망(300)으로 전송할 수 있다. 촬영 장치(210, 220)는 관제 시스템(100)의 제어에 따라 동작함으로써 특정 지역(혹은 구역)으로 촬영 지역을 변경할 수 있고, 줌인 명령이 있는 경우에는 배율을 높인 촬영 영상에 대응하는 영상 데이터(Data_Vd)을 관제 장치(100)로 제공할 수 있다.The photographing apparatuses 210 and 220 may photograph the surrounding area in real time and transmit the image data Data_Vd corresponding to the photographed image to the control network 100 so as to be provided to the control system 100. The photographing apparatuses 210 and 220 may change the photographing region to a specific region (or region) by operating under the control of the control system 100, and when there is a zoom-in command, the image data corresponding to the photographed image having the increased magnification ( Data_Vd) may be provided to the control device 100.

촬영 장치(210, 220)는 미리 결정된 이벤트가 발생하는 경우, 해당 지역을 줌인하고, 줌인된 영상을 촬영할 수 있다. 일 예시에서, 해당 지역에 사건, 사고가 발생하거나 사람이 많이 모인 것으로 판단되는 경우, 촬영 장치(210, 220)는 해당 지역을 자동으로 줌인 촬영할 수 있다. 일 실시예에서, 미리 결정된 이벤트는 관제 시스템(100)에 의해 미리 결정될 수 있다. 일 예시에서, 미리 결정된 이벤트는 화염, 사람들의 군집, 자동차의 충돌 등을 포함할 수 있다. When a predetermined event occurs, the photographing apparatuses 210 and 220 may zoom in the corresponding region and photograph the zoomed-in image. In one example, when it is determined that an incident, an accident or a lot of people gather in the region, the photographing apparatuses 210 and 220 may automatically zoom in and photograph the region. In one embodiment, the predetermined event may be predetermined by the control system 100. In one example, the predetermined event may include a flame, a crowd of people, a collision of a car, and the like.

이벤트 발생에 따른 촬영은 관제 시스템(100)에서 영상 분석을 통해 이벤트의 발생을 감지하고 감지 결과에 따라 관제 시스템(100)로부터 지시를 받아 촬영 장치(210, 220)가 동작하거나, 촬영 장치(210, 220) 자체적으로도 이벤트의 발생을 감지함으로써 동작할 수 있다. 일 예시에서, 통신망(300)의 트래픽이 증가하는 경우에는 데이터 전송이 수월하지 않을 수 있기 때문에 촬영 장치(210, 220) 자체적으로 위의 동작을 수행할 수 있다. 또는 트래픽의 상태에 따라 촬영 장치(210, 220)가 줌인 동작을 수행할지를 판단하고, 판단 결과에 따라 관제 시스템(100)가 영상을 분석하여 분석 결과에 따라 촬영 장치(210, 220)는 줌인 동작을 자동으로 수행할 수 있다.Shooting according to the event is generated by the control system 100 to detect the occurrence of the event through the image analysis and receiving instructions from the control system 100 in accordance with the detection result the photographing device (210, 220) or the photographing device 210 220 may also operate by detecting the occurrence of the event itself. In one example, when the traffic of the communication network 300 increases, since the data transmission may not be easy, the photographing apparatuses 210 and 220 may perform the above operation by themselves. Alternatively, it is determined whether the photographing apparatuses 210 and 220 perform the zoom-in operation according to the traffic state, and according to the determination result, the control system 100 analyzes the image and the photographing apparatuses 210 and 220 perform the zoom-in operation according to the analysis result. Can be done automatically.

촬영 장치(210, 220)는 영상 데이터(Data_Vd)와 함께 해당 촬영 영상이 촬영 장치(210, 220)의 어떠한 자세 또는 어떠한 위치에서 촬영된 영상인지 관제 시스템(100)가 판단할 수 있도록 좌표값을 관제 시스템(100)에 제공해 줄 수 있다. 관제 시스템(100)는 수신된 좌표값을 근거로 데이터 베이스(DB)로부터 지도 데이터(Data_Mp)를 수신하고, 지도 데이터(Data_Mp)를 기초로 증강 현실을 구현할 수 있다. 이에 관해서는 이후 상세하게 후술한다. The photographing apparatuses 210 and 220 together with the image data Data_Vd may adjust coordinate values so that the control system 100 may determine whether the photographed image is an image photographed at a certain posture or any position of the photographing apparatuses 210 and 220. It can be provided to the control system (100). The control system 100 may receive map data Data_Mp from the database DB based on the received coordinate values, and implement augmented reality based on the map data Data_Mp. This will be described later in detail.

통신망(300)은 유무선 통신망을 모두 포함할 수 있다. 통신망(300)으로서 유무선 인터넷망이 이용되거나 연동될 수 있다. 여기서 유선망은 케이블망이나 공중 전화망(PSTN)과 같은 인터넷망을 포함하고, 무선 통신망은 CDMA, WCDMA, GSM, EPC(Evolved Packet Core), LTE(Long Term Evolution), 와이브로(Wibro) 망, 5G(5th Generation) 등을 포함할 수 있다. 통신망(300)은 이에 한정되는 것이 아니며, 향후 구현될 차세대 이동 통신 시스템의 접속망으로서 가령 클라우드 컴퓨팅 환경하의 클라우드 컴퓨팅망 등을 포함할 수 있다. The communication network 300 may include both wired and wireless communication networks. As the communication network 300, a wired or wireless Internet network may be used or interworked. The wired network includes an Internet network such as a cable network or a public telephone network (PSTN), and the wireless communication network includes CDMA, WCDMA, GSM, Evolved Packet Core (EPC), Long Term Evolution (LTE), Wibro network, and 5G ( 5 th Generation) and the like. The communication network 300 is not limited thereto, and may include, for example, a cloud computing network under a cloud computing environment as an access network of a next generation mobile communication system to be implemented.

통신망(300)이 유선 통신망인 경우, 통신망(300) 내의 엑세스 포인트는 전화국의 교환국 등에 접속할 수 있고, 무선 통신망인 경우에는 통신사에서 운용하는 SGSN 또는 GGSN(Gateway GPRS Support Node)에 접속하여 데이터를 처리하거나, BTS(Base Station Transmission), NodeB, e-NodeB 등의 다양한 중계기에 접속하여 데이터를 처리할 수 있다.When the communication network 300 is a wired communication network, an access point in the communication network 300 may be connected to an exchange or the like of a telephone company, and in the case of a wireless communication network, the access point may be connected to an SGSN or a Gateway GPRS Support Node (GGSN) operated by a communication company to process data. Or, it can be connected to various repeaters such as BTS (Base Station Transmission), NodeB, e-NodeB and process data.

관제 시스템(혹은 촬영 장치와 연계해서 증강현실 데이터를 영상 데이터와 연동시키는 시스템)(100)은 관제 센터에 구비될 수 있다. 관제 시스템(100)은 서버 및 상기 서버에 연결되는 있는 컴퓨터를 포함할 수 있다. 데이터 베이스(DB)는 촬영 장치(210, 220)의 촬영 범위 내에 있는 특정 지역에 대한 2차원의 지도 데이터(Data_Mp)를 저장할 수 있고, 관제 시스템(100)은 데이터 베이스(DB)를 통해 지도 데이터(Data_Mp)를 제공받을 수 있다. 일 예시에서, 데이터 베이스(DB)는 지도 데이터(Data_Mp)를 제공하는 행정 기관의 서버를 통하거나, CD와 같은 기록 매체를 통해서 지도 데이터(Data_Mp)를 획득하고, 획득한 지도 데이터(Data_Mp)를 저장할 수 있다. 또 다른 예시에서, 데이터 베이스(DB)는 지도 데이터(Data_Mp)가 저장된 행정 기관의 데이터 베이스 자체를 의미할 수 있다. 또한, 지도 데이터(Data_Mp)는 특정 지역의 건물 정보, 도로 정보 등 지도에 표시되는 각종 객체 정보를 포함할 수 있고, 객체 정보는 2차원의 좌표에 대응될 수 있다. The control system (or a system for interlocking the augmented reality data with the image data in association with the imaging device) 100 may be provided in the control center. The control system 100 may include a server and a computer connected to the server. The database DB may store two-dimensional map data Data_Mp for a specific area within the photographing range of the photographing apparatuses 210 and 220, and the control system 100 maps the map data through the database DB. (Data_Mp) may be provided. In one example, the database DB obtains the map data Data_Mp through a server of an administrative institution that provides the map data Data_Mp or through a recording medium such as a CD, and obtains the acquired map data Data_Mp. Can be stored. In another example, the database DB may refer to a database of an administrative institution in which map data Data_Mp is stored. In addition, the map data Data_Mp may include various object information displayed on a map such as building information and road information of a specific region, and the object information may correspond to two-dimensional coordinates.

관제 시스템(100)은 지도 데이터(Data_Mp)를 수신하고, 촬영 장치(210, 220)로부터 3차원의 영상 데이터(Data_Vd)에 맞게 변환할 수 있다. 일 실시예에서, 관제 시스템(100)은 지도 데이터(Data_Mp)의 좌표에 대응되는 객체 정보를 좌표에 대응되도록 변환함으로써 공간 데이터를 생성하고, 공간 데이터를 영상 데이터와 병합함으로써 병합 데이터를 생성할 수 있다. 관제 시스템(100)은 병합 데이터를 기초로 사용자에게 촬영 영상과 이에 대응하는 객체 정보를 동시에 디스플레이할 수 있다. The control system 100 may receive the map data Data_Mp and convert the map data Data_Mp to match the three-dimensional image data Data_Vd from the photographing apparatuses 210 and 220. In an embodiment, the control system 100 may generate spatial data by converting object information corresponding to the coordinates of the map data Data_Mp to correspond to the coordinates, and generate merged data by merging the spatial data with the image data. have. The control system 100 may simultaneously display the captured image and the object information corresponding thereto to the user based on the merged data.

본 개시의 기술적 사상에 따르면, 관제 시스템(100)은 지도 데이터(Data_Mp)를 기초로 3차원의 촬영 영상에 대응되도록 변환하고, 변환된 각종 객체 정보를 촬영 영상에 병합하는 증강 현실(Augmented Reality) 작업을 수행할 수 있고, 이에 따라서, 관제 요원 등의 사용자들은 자신이 현재 바라보고 있는 위치 및 지형지물을 빠르게 인지할 수 있고, 만약 특정 지역에 이벤트가 발생하게 되면 이벤트 발생 위치를 신속히 확인하여 빠른 대응조치를 할 수 있다.According to the technical idea of the present disclosure, the control system 100 converts a corresponding 3D photographing image based on the map data Data_Mp, and augments reality to merge the converted various object information into the photographing image. In this way, users such as control personnel can quickly recognize the location and feature that they are currently looking at. If an event occurs in a specific area, the user can quickly check the event occurrence location and Countermeasures can be taken.

도 1에서는 두 개의 촬영 장치(210, 220), 통신망(300), 관제 시스템(100)모두가 영상 시스템(10)에 포함되도록 도시되어 있으나 이는 일 예시일 뿐이고, 두 개보다 많거나 적은 촬영 장치가 영상 시스템(10)에 포함될 수 있고, 통신망(300)과 같은 일부 구성요소가 생략되어 영상 시스템(10)이 구성됨으로써 촬영 장치(210, 220)와 관제 시스템(100)가 다이렉트 통신을 수행하거나, 관제 시스템(100)과 같은 일부 구성요소가 통신망(300)과 같은 다른 구성요소에 통합되어 통신망(300) 내의 하나의 장치가 될 수도 있다.In FIG. 1, all of the two imaging apparatuses 210 and 220, the communication network 300, and the control system 100 are illustrated to be included in the imaging system 10, but this is only an example and more or less than two imaging apparatuses are provided. May be included in the imaging system 10, and some components such as the communication network 300 are omitted to configure the imaging system 10 so that the photographing apparatuses 210 and 220 and the control system 100 perform direct communication. Some components, such as control system 100, may be integrated into other components, such as communication network 300, to be a device within communication network 300.

도 2는 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 블록도이다. 도 1과 중복되는 내용은 생략한다.2 is a block diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure. The content overlapping with FIG. 1 is omitted.

도 2를 참조하면, 영상 시스템(10)은 관제 시스템(100) 및 촬영 장치(200)를 포함할 수 있고, 관제 시스템(100)은 디스플레이부(110) 및 증강 현실 엔진(120)을 포함할 수 있다. 촬영 장치(200)는 특정 장소를 촬영한 결과 생성한 영상 데이터(Data_Vd)를 통신망(도 1, 300)을 통해 디스플레이부(110)에 출력할 수 있다. 촬영 장치(200)는 촬영 장치(200)가 어떠한 자세 또는 어떠한 위치에서 촬영하였는지에 관한 촬영 장치(200)의 위치 정보(Info_p)를 디스플레이부(110)에 영상 데이터(Data_Vd)와 함께 전송할 수 있다. 일 실시예에서, 위치 정보(Info_p)는 촬영 장치(200)의 지도상의 좌표 값을 포함할 수 있다. Referring to FIG. 2, the imaging system 10 may include a control system 100 and a photographing apparatus 200, and the control system 100 may include a display 110 and an augmented reality engine 120. Can be. The photographing apparatus 200 may output the image data Data_Vd generated as a result of photographing a specific place to the display 110 through the communication network (FIGS. 1 and 300). The image capturing apparatus 200 may transmit the position information Info_p of the image capturing apparatus 200 related to the image capturing apparatus 200 to which the image capturing apparatus 200 is photographed at which posture or at what position, together with the image data Data_Vd. In an embodiment, the location information Info_p may include coordinate values on a map of the photographing apparatus 200.

디스플레이부(110)는 위치 정보(Info_p)를 데이터 베이스(DB)에 출력할 수 있고, 데이터 베이스(DB)는 위치 정보(Info_p)에 기초하여 지도 데이터(Data_Mp)를 증강 현실 엔진(120)에 출력할 수 있다. 일 예시에서, 디스플레이부(110)는 위치 정보(Info_p)로써 촬영 장치(200)의 지도상의 좌표 값을 데이터 베이스(DB)에 출력할 수 있고, 데이터 베이스(DB)는 촬영 장치(200)의 지도상의 좌표 값에 대응되는 객체 정보를 포함하는 지도 데이터(Data_Mp)를 증강 현실 엔진(120)에 출력할 수 있다.The display 110 may output the location information Info_p to the database DB, and the database DB may transmit the map data Data_Mp to the augmented reality engine 120 based on the location information Info_p. You can print In an example, the display unit 110 may output coordinate values on the map of the photographing apparatus 200 to the database DB as the location information Info_p, and the database DB may be configured as the location information Info_p. Map data Data_Mp including object information corresponding to coordinate values on the map may be output to the augmented reality engine 120.

증강 현실 엔진(120)은 지도 데이터(Data_Mp)을 3차원으로 가공함으로써 공간 데이터(Data_Sp)를 생성할 수 있고, 생성된 공간 데이터(Data_Sp)를 디스플레이부(110)에 출력할 수 있다. 일 예시에서, 지도 데이터(Data_Mp)는 2차원 좌표에 각각 대응되는 복수의 객체 정보를 포함할 수 있고, 증강 현실 엔진(120)는 복수의 객체 정보에 대응되는 좌표를 위치 정보(Info_p)에 기초하여 촬영 장치(200)의 시점에 대한 좌표로 변경함으로써 공간 데이터를 생성할 수 있다. 이를 위해, 일 실시예에서, 증강 현실 엔진(120)은 디스플레이부(110)로부터 위치 정보(Info_P)를 더 수신할 수 있다. 증강 현실 엔진(120)의 상세한 동작에 관해서는 도 5에서 상세하게 후술한다. The augmented reality engine 120 may generate the spatial data Data_Sp by processing the map data Data_Mp in three dimensions, and may output the generated spatial data Data_Sp to the display 110. In one example, the map data Data_Mp may include a plurality of object information respectively corresponding to the two-dimensional coordinates, and the augmented reality engine 120 based on the position information Info_p based on the coordinates corresponding to the plurality of object information. The spatial data can be generated by changing the coordinates with respect to the viewpoint of the photographing apparatus 200. To this end, in one embodiment, the augmented reality engine 120 may further receive location information Info_P from the display 110. Detailed operations of the augmented reality engine 120 will be described later in detail with reference to FIG. 5.

디스플레이부(110)는 촬영 장치(200)로부터 수신한 영상 데이터(Data_Vd)와 증강 현실 엔진(120)으로부터 수신한 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 기초하여 표출 영상(DV)을 사용자에게 송출할 수 있다. 일 실시예에서, 표출 영상(DV)은 영상 데이터(Data_Vd)에 기초한 제1 레이어와 공간 데이터(Data_Sp)에 기초한 제2 레이어를 포함할 수 있고, 제1 레이어에는 실제 촬영된 특정 장소의 모습이 사용자에게 송출되고, 제2 레이어에는 특정 장소에 대응되는 객체 정보가 사용자에게 송출될 수 있다.The display 110 merges the image data Data_Vd received from the photographing apparatus 200 and the spatial data Data_Sp received from the augmented reality engine 120 to generate merged data, and based on the generated merged data. The display image DV may be transmitted to the user. In one embodiment, the displayed image DV may include a first layer based on the image data Data_Vd and a second layer based on the spatial data Data_Sp, and the first layer may have a shape of an actual photographed place. The object information corresponding to a specific place may be transmitted to the user, and may be transmitted to the user in the second layer.

본 개시의 기술적 사상에 따르면, 관제 시스템(100)이 데이터 베이스(DB)로부터 수신한 지도 데이터(Data_Mp)를 기초로 3차원의 공간 데이터(Data_Sp)를 생성하고, 공간 데이터(Data_Sp)와 영상 데이터(Data_Vd)를 병합하여 사용자에게 표출 영상(DV)를 송출함으로써, 관제 시스템(100)은 추가적인 프리미티브 생성 작업 없이 사용자에게 촬영 영상에 객체 정보를 추가적으로 송출할 수 있고, 이에 따라서, 사용자는 표출 영상(DV)에 대한 정보를 직관적으로 파악할 수 있다. According to the technical idea of the present disclosure, the control system 100 generates three-dimensional spatial data Data_Sp based on the map data Data_Mp received from the database DB, and generates spatial data Data_Sp and image data. By merging (Data_Vd) and transmitting the display image DV to the user, the control system 100 may additionally transmit object information to the captured image to the user without additional primitive generation, and thus, the user may display the display image (DV). Intuitively understand information about DV).

도 3은 본 개시의 예시적 실시예에 따른 영상 시스템의 동작 방법을 나타내는 순서도이다.3 is a flowchart illustrating a method of operating an imaging system according to an exemplary embodiment of the present disclosure.

도 2 및 도 3을 참조하면, 촬영 장치(200)는 특정 장소를 촬영함으로써 영상 데이터(Data_Vd)을 생성하고(S10), 관제 시스템(100)은 촬영 장치(200)의 위치 정보(Info_P)에 기초하여 2차원 좌표에 기초한 지도 데이터(Data_Mp)를 획득할 수 있다(S20). 관제 시스템(100)은 위치 정보(Info_P)를 기초로 지도 데이터(Data_Mp)에 대한 변환을 수행함으로써 공간 데이터(Data_Sp)를 생성할 수 있다(S30). 관제 시스템(100)은 영상 데이터(Data_Vd)에 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고(S40), 생성된 병합 데이터에 대응하는 표출 영상(DV)을 사용자에게 디스플레이할 수 있다(S50).Referring to FIGS. 2 and 3, the photographing apparatus 200 generates image data Data_Vd by photographing a specific place (S10), and the control system 100 records the location information Info_P of the photographing apparatus 200. On the basis of the map data (Data_Mp) based on the two-dimensional coordinates can be obtained (S20). The control system 100 may generate spatial data Data_Sp by performing a transformation on the map data Data_Mp based on the location information Info_P (S30). The control system 100 may generate merged data by merging the spatial data Data_Sp with the image data Data_Vd (S40), and display the display image DV corresponding to the generated merged data to the user (S50). ).

도 4는 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.4 is a flowchart illustrating a method of operating a control system according to an exemplary embodiment of the present disclosure.

도 2 및 도 4를 참조하면, 관제 시스템(100)은 촬영 장치(200)로부터 영상 데이터(Data_Vd)를 수신하고(S110), 영상 데이터(Data_Vd)로부터 촬영 장치(200)의 위치 정보(Info_P)를 파싱할 수 있다(S120). 또 다른 실시예에서, 관제 시스템(100)은 촬영 장치(200)로부터 촬영 장치의 위치 정보(Info_P)를 더 수신할 수 있다. 2 and 4, the control system 100 receives the image data Data_Vd from the photographing apparatus 200 (S110), and the positional information Info_P of the photographing apparatus 200 from the image data Data_Vd. Can be parsed (S120). In another embodiment, the control system 100 may further receive location information Info_P of the photographing apparatus from the photographing apparatus 200.

관제 시스템(100)은 파싱한 위치 정보(Info_P)를 이용하여 데이터 베이스(DB)로부터 2차원 좌표의 객체 정보를 포함하는 지도 데이터(Data_Mp)를 획득할 수 있다(S130). 관제 시스템(100)은 지도 데이터(Data_Mp) 중 적어도 일부의 객체 정보를 파싱할 수 있다(S140). 적어도 일부의 객체 정보에는 건물에 대한 정보, 도로에 대한 정보 등을 포함할 수 있다. 관제 시스템(100)은 파싱한 객체 정보를 기초로 3차원 변환을 통해 3차원의 공간 데이터(Data_Sp)를 생성할 수 있다(S150). 일 실시예에서, 관제 시스템(100)은 객체 정보에 대응되는 2차원 좌표를 촬영 장치(200)의 위치 정보(Info_P)를 기초로 3차원 좌표로 변환시킴으로써 공간 데이터(Data_Sp)를 생성할 수 있다. The control system 100 may obtain map data Data_Mp including object information of two-dimensional coordinates from the database DB by using the parsed location information Info_P (S130). The control system 100 may parse object information of at least some of the map data Data_Mp (S140). At least some object information may include information about a building, information about a road, and the like. The control system 100 may generate three-dimensional spatial data Data_Sp through three-dimensional transformation based on the parsed object information (S150). In an embodiment, the control system 100 may generate spatial data Data_Sp by converting two-dimensional coordinates corresponding to the object information into three-dimensional coordinates based on the location information Info_P of the photographing apparatus 200. .

관제 시스템(100)은 영상 데이터(Data_Vd)에 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터를 생성하고(S160), 병합 데이터에 대응되는 표출 영상(VD)을 사용자에게 디스플레이할 수 있다(S170). 일 예시에서, 표출 영상(VD)은 영상 데이터(Data_Vd)에 대응하는 제1 레이어와 공간 데이터(Data_Sp)에 대응하는 제2 레이어를 포함할 수 있다. The control system 100 may generate merged data by merging the spatial data Data_Sp with the image data Data_Vd (S160), and display the expressed image VD corresponding to the merged data to the user (S170). In one example, the displayed image VD may include a first layer corresponding to the image data Data_Vd and a second layer corresponding to the spatial data Data_Sp.

도 5는 본 개시의 예시적 실시예에 따른 증강 현실 엔진의 동작을 나타내는 도면이다.5 is a diagram illustrating an operation of an augmented reality engine according to an exemplary embodiment of the present disclosure.

도 5를 참조하면, 증강 현실 엔진은 데이터 베이스로부터 복수의 객체 정보들을 포함하는 지도 데이터(Data_Mp)를 수신할 수 있다. 일 예시에서, 복수의 객체 정보는 A 교차로, B 건물, C 백화점 및 D 카페와 같은 명칭 정보, 버스 전용 차선 표시, 횡단 보도 표시 및 도로 경계 표시와 같은 표시 정보를 포함할 수 있다. Referring to FIG. 5, the augmented reality engine may receive map data Data_Mp including a plurality of object information from a database. In one example, the plurality of object information may include name information such as an A intersection, a B building, a C department store, and a D cafe, display information such as a bus-only lane mark, a crosswalk mark, and a road boundary mark.

증강 현실 엔진은 지도 데이터(Data_Mp)로부터 복수의 객체 정보를 추출할 수 있다. 일 예시에서, 증강 현실 엔진은 지도 데이터(Data_Mp)로부터 명칭 정보 및 표시 정보를 복수의 객체 정보로써 파싱할 수 있다. 증강 현실 엔진은 추출한 복수의 객체 정보들을 각각의 2차원 좌표 및 촬영 장치의 위치 정보를 기초로 3차원 변환을 수행할 수 있다. 즉, 증강 현실 엔진은 복수의 객체 정보에 대응하는 좌표가 촬영 장치의 시선에서 어디에 위치할지 계산하고, 계산된 좌표에 복수의 객체 정보들 각각을 대응시킬 수 있고, 이에 따라서 3차원 좌표에 대응된 복수의 객체 정보들을 포함하는 공간 데이터(Data_Sp)를 생성할 수 있다.The augmented reality engine may extract a plurality of object information from the map data Data_Mp. In one example, the augmented reality engine may parse name information and display information from the map data Data_Mp as a plurality of object information. The augmented reality engine may perform three-dimensional transformation on the extracted plurality of object information based on the respective two-dimensional coordinates and the location information of the photographing apparatus. That is, the augmented reality engine may calculate where the coordinates corresponding to the plurality of object information are located in the line of sight of the photographing apparatus, and correspond to each of the plurality of object information to the calculated coordinates, and thus correspond to the three-dimensional coordinates. Spatial data Data_Sp including a plurality of object information may be generated.

도 5의 예시에서, 지도 데이터(Data_Mp)에서, A 교차로에 해당하는 좌표는 촬영 장치의 시선에서 공간 데이터(Data_Sp)의 특정 좌표에 위치할 수 있고, 특정 좌표에 대응된 A 교차로가 공간 데이터(Data_Sp)로써 구축될 수 있다. B 건물, C 백화점 및 D 카페와 같은 명칭 정보도 같은 방식으로 공간 데이터(Data_Sp)로써 구축될 수 있다. 또한, 버스 전용 차선 표시, 도로 경계 표시 및 횡단 도로 표시와 같은 표시 정보 역시 유사한 방식으로 공간 데이터(Data_Sp)로써 구축될 수 있다. In the example of FIG. 5, in the map data Data_Mp, the coordinate corresponding to the intersection of A may be located at a specific coordinate of the spatial data Data_Sp in the line of sight of the photographing apparatus, and the intersection of A corresponding to the specific coordinate is the spatial data ( Data_Sp). Name information such as B building, C department store, and D cafe can also be constructed as spatial data Data_Sp in the same manner. In addition, display information such as bus-only lane markings, road boundary markings, and crossing road markings may also be constructed as spatial data Data_Sp in a similar manner.

본 개시의 기술적 사상에 따르면, 별도의 추가적인 프리미티브 생성 작업 없이 생성된 지도 데이터(Data_Mp)에 대한 3차원 변환 작업 만을 통해 공간 데이터(Data_Sp)가 생성될 수 있으므로, 증강 현실이 효율적으로 구현될 수 있고 시스템의 과부하가 감소할 수 있다. According to the technical idea of the present disclosure, since the spatial data Data_Sp may be generated only through the three-dimensional transformation operation on the generated map data Data_Mp without any additional primitive generation operation, augmented reality may be efficiently implemented. The overload of the system can be reduced.

도 6은 본 개시의 예시적 실시예에 따른 디스플레이부의 동작을 나타내는 도면이다.6 is a diagram illustrating an operation of a display unit according to an exemplary embodiment of the present disclosure.

도 6을 참조하면, 디스플레이부는 촬영 장치로부터 영상 데이터(Data_Vd)를 수신하고, 증강 현실 엔진으로부터 공간 데이터(Data_Sp)를 수신할 수 있다. 디스플레이부는 영상 데이터(Data_Vd)와 공간 데이터(Data_Sp)를 병합함으로써 병합 데이터(Data_Mg)를 생성할 수 있다. 일 실시예에서, 디스플레이부는 제1 레이어에 영상 데이터(Data_Vd)에 대응하는 영상을 출력하고, 제2 레이어에 공간 데이터(Data_Sp)에 대응하는 영상을 출력함으로써 영상 데이터(Data_Vd)와 공간 데이터(Data_Sp)를 병합할 수 있다. 디스플레이부는 병합 데이터(Data_Mg)에 대응되는 표출 영상을 사용자에게 디스플레이할 수 있다.Referring to FIG. 6, the display unit may receive image data Data_Vd from a photographing apparatus and receive spatial data Data_Sp from an augmented reality engine. The display unit may generate the merged data Data_Mg by merging the image data Data_Vd and the spatial data Data_Sp. In an embodiment, the display unit outputs an image corresponding to the image data Data_Vd to the first layer and an image corresponding to the spatial data Data_Sp to the second layer, thereby displaying the image data Data_Vd and the spatial data Data_Sp. ) Can be merged. The display unit may display the displayed image corresponding to the merged data Data_Mg to the user.

본 개시의 기술적 사상에 따른 관제 시스템은 병합 데이터(Data_Mg)에 대응되는 표출 영상을 사용자에게 디스플레이함으로써 사용자는 영상 데이터(Data_Vd)에 대응하는 특정 장소의 실제 촬영 영상에 추가적으로 공간 데이터(Data_Sp)의 객체 정보를 함께 인지할 수 있고, 이에 따라서, 사용자의 촬영 영상에 대한 이해도가 높아질 수 있다. According to an embodiment of the present disclosure, the control system displays an expressed image corresponding to the merged data Data_Mg to the user so that the user may add an object of the spatial data Data_Sp to the actual captured image of the specific place corresponding to the image data Data_Vd. Information can be recognized together, and accordingly, the user's understanding of the captured image can be improved.

도 7은 본 개시의 예시적 실시예에 따른 관제 시스템의 동작 방법을 나타내는 순서도이다.7 is a flowchart illustrating a method of operating a control system according to an exemplary embodiment of the present disclosure.

도 7을 참조하면, 사용자는 표출 영상에 포함되는 객체를 선택할 수 있다(S210). 일 실시예에서, 객체는 공간 데이터에 의해 표출되는 복수의 객체 정보 중 어느 하나에 대응할 수 있다. 관제 시스템은 선택된 객체의 3차원 좌표를 2차원 좌표로 변환할 수 있다(S220). 관제 시스템은 객체의 속성 정보를 수신할 수 있다(S230). 일 실시예에서, 관제 시스템은 객체의 속성 정보에 대응하는 좌표를 기초로 데이터 베이스에 객체의 속성 정보를 요청하고, 데이터 베이스로부터 객체의 속성 정보를 수신할 수 있다. 관제 시스템은 생성한 속성 정보를 사용자에게 디스플레이할 수 있다(S240).Referring to FIG. 7, the user may select an object included in the displayed image (S210). In one embodiment, the object may correspond to any one of the plurality of object information expressed by the spatial data. The control system may convert the 3D coordinates of the selected object into 2D coordinates (S220). The control system may receive attribute information of the object (S230). In one embodiment, the control system may request the object's attribute information from the database based on the coordinates corresponding to the attribute information of the object, and receive the attribute information of the object from the database. The control system may display the generated attribute information to the user (S240).

본 개시의 기술적 사상에 따르면, 사용자가 선택한 객체의 3차원의 좌표를 2차원의 좌표로 변환 후 이를 기초로 속성 정보를 수신함으로써 별도의 3차원 좌표에 대응하는 속성 정보를 생성할 필요 없이 기생성된 속성 정보를 이용하여 사용자에게 필요한 정보를 표출할 수 있다. 이에 따라서, 관제 시스템의 오버 헤드가 감소하고, 효율적인 모니터링이 가능할 수 있다.According to the technical idea of the present disclosure, by converting the three-dimensional coordinates of the object selected by the user to the two-dimensional coordinates and then receive the attribute information based on the parasiticity without having to generate the attribute information corresponding to the separate three-dimensional coordinates The information required by the user can be expressed using the provided attribute information. Accordingly, the overhead of the control system is reduced, and efficient monitoring can be possible.

도 8은 본 개시의 예시적 실시예에 따른 표출 영상을 나타내는 도면이다. 상세하게는 도 8은 사용자가 객체를 선택함으로써 속성 정보를 디스플레이하는 실시예를 나타낸다8 is a diagram illustrating an displayed image according to an exemplary embodiment of the present disclosure. In detail, FIG. 8 illustrates an embodiment in which attribute information is displayed by a user selecting an object.

도 8을 참조하면, 사용자가 제1 객체(Ob_1)를 선택하면, 관제 시스템은 표출 영상 상의 좌표를 지도 데이터에 대응하는 좌표로 변환할 수 있다. 관제 시스템은 지도 데이터에 대응하는 좌표를 기초로 속성 정보를 획득할 수 있고, 획득한 속성 정보를 사용자에게 디스플레이할 수 있다. 도 8의 예시에서, 제1 객체(Ob_1)에 대응하는 속성 정보는 제1 항목(C1) 내지 제4 항목(C4)을 포함하고, 사용자가 제1 객체(Ob_1)를 선택하면, 관제 시스템은 제1 항목(C1)으로써 제1 값(Val1)을 디스플레이하고, 제2 항목(C2)으로써 제2 값(Val2)을 디스플레이할 수 있다. 또한, 관제 시스템은 제3 항목(C3)으로써 제3 값(Val3)을 디스플레이하고, 제4 항목(C4)으로써 제4 값(Val4)을 디스플레이할 수 있다.Referring to FIG. 8, when the user selects the first object Ob_1, the control system may convert the coordinates on the displayed image into coordinates corresponding to the map data. The control system may acquire the attribute information based on the coordinates corresponding to the map data, and display the acquired attribute information to the user. In the example of FIG. 8, when the attribute information corresponding to the first object Ob_1 includes the first item C1 to the fourth item C4, and the user selects the first object Ob_1, the control system The first value Val1 may be displayed as the first item C1, and the second value Val2 may be displayed as the second item C2. In addition, the control system may display the third value Val3 as the third item C3 and display the fourth value Val4 as the fourth item C4.

도 9는 지도 정보의 3차원 좌표를 관제 시스템의 CCTV 화면과 평면으로(2차원적으로) 투영하는 변환 방법을 나타낸다9 shows a conversion method of projecting three-dimensional coordinates of map information onto a plane (two-dimensionally) with a CCTV screen of a control system.

도 9를 참조하면, 촬영 장치는 (xs, ys, zs)의 3차원 좌표에 위치할 수 있고, 지도 데이터는 촬영 장치와 최단 거리인 초점 거리(f)에 위치하는 주점(P)을 가질 수 있다. 촬영 장치와 주점(P)까지의 직선 방정식 L(x, y, z)는 아래 수학식 1과 같이 표현될 수 있다.Referring to FIG. 9, the photographing apparatus may be located at three-dimensional coordinates of (xs, ys, zs), and the map data may have a main point P located at a focal length f that is the shortest distance from the photographing apparatus. have. The linear equations L (x, y, z) to the imaging device and the main point P may be expressed by Equation 1 below.

Figure 112019054229613-pat00001
Figure 112019054229613-pat00001

또한, 주점(P)은 아래 수학식 2과 같은 좌표를 가질 수 있다.In addition, the main point P may have coordinates as shown in Equation 2 below.

Figure 112019054229613-pat00002
Figure 112019054229613-pat00002

주점(P)의 좌표 및 초점 거리(f)에 기초하여, 지도 데이터의 평면 방정식 F(x, y, z)는 아래 수학식 3와 같이 표현될 수 있다. Based on the coordinates of the main point P and the focal length f, the planar equations F (x, y, z) of the map data may be expressed as in Equation 3 below.

Figure 112019054229613-pat00003
Figure 112019054229613-pat00003

사용자가 표출 화면 상의 A(xi, yi, zi)를 선택하면, 관제 시스템은 촬영 장치와 A까지의 직선 방정식 Li(x, y, z)를 아래 수학식 4와 같이 계산할 수 있다.When the user selects A (xi, yi, zi) on the display screen, the control system may calculate the linear equation Li (x, y, z) up to the photographing apparatus and A as shown in Equation 4 below.

Figure 112019054229613-pat00004
Figure 112019054229613-pat00004

관제 시스템은 계산한 직선 방정식 Li(x, y, z)와 상술한 지도 데이터의 평면 방정식 F(x, y, z)을 이용하여 지도 데이터와 촬영 장치에서 A 지점 연장선의 교점 O(xo, yo, zo)을 계산할 수 있다. 교점 O는 지도 데이터의 기준에서 2차원 좌표로 구성될 수 있으므로, 관제 시스템은 교점 O를 지도 데이터에 2차원 좌표로써 출력할 수 있다. The control system uses the calculated linear equations Li (x, y, z) and the plane equations F (x, y, z) of the map data described above, and the intersection point O (xo, yo , zo) can be calculated. Since the intersection point O may be composed of two-dimensional coordinates in the basis of the map data, the control system may output the intersection point O as two-dimensional coordinates in the map data.

도 10은 본 개시의 예시적 실시예에 따른 영상 시스템의 구성 요소별 동작 방법을 나타내는 순서도이다.10 is a flowchart illustrating a method of operating components of an imaging system according to an exemplary embodiment of the present disclosure.

도 10을 참조하면, 영상 시스템은 촬영 장치(200), 디스플레이부(110) 및 증강 현실 엔진(120)을 포함할 수 있다. 촬영 장치(200)는 특정 장소를 촬영한 영상 데이터 및 촬영 장치(200)의 위치 정보를 디스플레이부(110)에 출력할 수 있다(T110). 디스플레이부(110)는 위치 정보를 기초로 화면 영역에 대한 공간 정보를 데이터 베이스(DB)에 출력할 수 있다(T120). 공간 정보에는 촬영 장치의 2차원 좌표가 포함될 수 있다. 데이터 베이스(DB)는 공간 정보 및 객체 정보를 포함하는 지도 데이터를 증강 현실 엔진(120)에 출력할 수 있다(T130). 일 예시에서, 공간 정보는 실제로 지도에 표시되는 지리적 외형을 나타낼 수 있고, 객체 정보는 공간 정보를 설명하는 정보를 나타낼 수 있다. Referring to FIG. 10, the imaging system may include a photographing apparatus 200, a display 110, and an augmented reality engine 120. The photographing apparatus 200 may output image data of photographing a specific place and location information of the photographing apparatus 200 to the display 110 (T110). The display 110 may output spatial information about the screen area to the database DB based on the location information (T120). The spatial information may include two-dimensional coordinates of the photographing apparatus. The database DB may output map data including spatial information and object information to the augmented reality engine 120 (T130). In one example, the spatial information may represent a geographic appearance that is actually displayed on the map, and the object information may represent information describing the spatial information.

증강 현실 엔진(120)은 2차원의 공간 정보 및 객체 정보를 분류하고, 스타일에 적용함으로써 3차원의 공간 데이터를 생성할 수 있다(T140). 증강 현실 엔진(120)은 생성한 공간 데이터를 디스플레이(110)에 출력할 수 있다(T150). 디스플레이부(110)는 영상 데이터 및 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 병합 데이터에 대응하는 표출 영상을 디스플레이할 수 있다(T160). The augmented reality engine 120 may generate three-dimensional spatial data by classifying two-dimensional spatial information and object information and applying the same to a style (T140). The augmented reality engine 120 may output the generated spatial data to the display 110 (T150). The display 110 may generate merged data by merging the image data and the spatial data, and display the expressed image corresponding to the merged data (T160).

표출 영상을 디스플레이하는 중에 사용자가 표출 영상에 포함되는 객체를 선택하는 이벤트가 발생하면(T210), 디스플레이부(110)는 선택된 객체의 좌표를 증강 현실 엔진(120)에 출력할 수 있다(T220). 증강 현실 엔진(120)은 선택된 객체의 좌표를 지도 데이터에 대응하는 좌표로 변환하고, 지도 데이터에 대응하는 좌표에 대응하는 객체의 속성 정보를 생성할 수 있다(T230). 일 실시예에서, 증강 현실 엔진(120)은 지도 데이터로부터 객체의 속성 정보를 추출할 수 있다. 증강 현실 엔진(120)은 선택된 객체의 속성 정보를 디스플레이부(110)에 출력할 수 있고(T240), 디스플레이부(110)는 선택된 객체의 속성 정보를 디스플레이할 수 있다(T250). If an event occurs in which the user selects an object included in the displayed image while displaying the displayed image (T210), the display 110 may output the coordinates of the selected object to the augmented reality engine 120 (T220). . The augmented reality engine 120 may convert the coordinates of the selected object into coordinates corresponding to the map data and generate attribute information of the object corresponding to the coordinates corresponding to the map data (T230). In one embodiment, the augmented reality engine 120 may extract the attribute information of the object from the map data. The augmented reality engine 120 may output attribute information of the selected object to the display 110 (T240), and the display 110 may display attribute information of the selected object (T250).

도 11은 본 개시의 예시적 실시예에 따른 영상 시스템을 나타내는 도면이다.11 is a diagram illustrating an imaging system according to an exemplary embodiment of the present disclosure.

도 11을 참조하면, 영상 시스템(1000)은 관제 시스템(1100), CCTV(1120) 및 방화벽(1300)을 포함할 수 있다. 관제 시스템(110)은 CCTV-AR 통합 플랫폼(1110), VMS(Video Management System)(1120), 스토리지(1130), 관제 메인 서버(1140), GIS/AR 서버(1150), 지능형 모듈 서버(1160) 및 버스(1170)를 포함할 수 있다. Referring to FIG. 11, the imaging system 1000 may include a control system 1100, a CCTV 1120, and a firewall 1300. The control system 110 is a CCTV-AR integrated platform 1110, VMS (Video Management System) 1120, storage 1130, control main server 1140, GIS / AR server 1150, intelligent module server 1160 ) And bus 1170.

CCTV-AR 통합 플랫폼(1110)은 상술한 디스플레이부 및 증강 현실 엔진의 역할을 수행할 수 있다. 즉, CCTV-AR 통합 플랫폼(1110)은 CCTV(1200)로부터 버스(1170)를 통해 영상 데이터를 수신하고, GIS/AR 서버(1150) 로부터 버스(1170)를 통해 지도 데이터를 수신할 수 있다. CCTV-AR 통합 플랫폼(1110)은 지도 데이터에 대한 3차원 변환을 수행함으로써 공간 데이터를 생성하고, 공간 데이터와 영상 데이터를 병합하고 디스플레이할 수 있다. The CCTV-AR integration platform 1110 may serve as the display unit and the augmented reality engine described above. That is, the CCTV-AR integration platform 1110 may receive image data from the CCTV 1200 through the bus 1170 and receive map data from the GIS / AR server 1150 through the bus 1170. The CCTV-AR integration platform 1110 may generate spatial data, merge and display the spatial data and the image data by performing 3D transformation on the map data.

VMS(1120)는 CCTV 영상을 수집하고, 저장하고, 분배할 수 있다. VMS(1120)는 스토리지(1130)와 연결될 수 있고, CCTV(1200)로부터 수신한 영상 데이터를 스토리지(1130)에 저장할 수 있다. The VMS 1120 may collect, store, and distribute CCTV images. The VMS 1120 may be connected to the storage 1130 and store image data received from the CCTV 1200 in the storage 1130.

관제 메인 서버(1140)는 CCTV 모니터링을 위한 각종 데이터를 수신하기 위산 서버를 나타낼 수 있고, GIS/AR 서버(1150)는 본 개시의 기술적 사상에 따른 2차원의 지도 데이터를 수신하기 위한 서버를 나타낼 수 있다. 지능형 모듈 서버(1160)는 다양한 지능형 어플리케이션과의 연동을 수행하는 서버를 나타낼 수 있다. CCTV-AR 통합 플랫폼(1110), VMS(1120), 관제 메인 서버(1140), GIS/AR 서버(1150) 및 지능형 모듈 서버(1160)는 버스(1170)를 통해 서로 연결될 수 있다.The control main server 1140 may represent a gastric server for receiving various data for CCTV monitoring, and the GIS / AR server 1150 may indicate a server for receiving two-dimensional map data according to the technical spirit of the present disclosure. Can be. The intelligent module server 1160 may represent a server that performs interworking with various intelligent applications. The CCTV-AR integration platform 1110, the VMS 1120, the control main server 1140, the GIS / AR server 1150, and the intelligent module server 1160 may be connected to each other through the bus 1170.

CCTV(1200)는 특정 장소를 촬영할 수 있는 촬영 장치로써, 일 예시에서, PTZ 카메라, 전방위 카메라, 고정 IP(Internet Protocol) 카메라, 열적외선 카메라 중 어느 하나로 구성될 수 있다. CCTV(1200)는 특정 장소를 촬영한 결과 영상 데이터를 생성하고, 방화벽(1300)을 거쳐 관제 시스템(1100)에 출력할 수 있다. 방화벽(1300)은 외부에 영상 데이터로 유출되는 것을 막기 위한 것으로써 방화벽(1300)에 의해 보안이 증대될 수 있다.The CCTV 1200 is a photographing apparatus capable of photographing a specific place. In one example, the CCTV 1200 may be configured as one of a PTZ camera, an omnidirectional camera, a fixed IP (Internet Protocol) camera, and a thermal infrared camera. The CCTV 1200 may generate image data as a result of photographing a specific place and output the image data to the control system 1100 via the firewall 1300. The firewall 1300 is to prevent leakage of the image data to the outside, the security may be increased by the firewall 1300.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. As described above, exemplary embodiments have been disclosed in the drawings and the specification. Although embodiments have been described using specific terms in this specification, they are used only for the purpose of describing the technical spirit of the present disclosure and are not used to limit the scope of the present disclosure as defined in the meaning or claims. . Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present disclosure will be defined by the technical spirit of the appended claims.

Claims (11)

특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 촬영 장치;
지도 데이터를 수신하고, 상기 지도 데이터에 포함되는 적어도 하나의 객체에 대해 상기 촬영 장치의 위치 정보를 기초로 변환을 수행함으로써 3차원의 공간 데이터를 생성하는 증강 현실 엔진;및
상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하고, 생성된 병합 데이터에 대응하는 표출 영상을 사용자에게 디스플레이하는 디스플레이부;를 포함하고,
사용자가 상기 표출 영상에 포함되는 객체를 선택하는 경우, 상기 디스플레이부는 선택된 객체의 3차원 좌표를 미리 결정된 공식을 이용하여 상기 지도 데이터에 대응하는 2차원의 좌표로 변환하고, 상기 2차원의 좌표를 이용하여 상기 지도 데이터로부터 획득한 상기 객체의 속성 정보를 디스플레이하는 것을 특징으로 하는 영상 시스템.
A photographing apparatus for generating image data of the specific place by photographing a specific place;
An augmented reality engine configured to receive map data and generate three-dimensional spatial data by performing transformation on at least one object included in the map data based on location information of the photographing apparatus; and
And a display unit configured to generate merged data by merging the spatial data with the image data and to display a display image corresponding to the generated merged data to a user.
When the user selects an object included in the displayed image, the display unit converts the three-dimensional coordinates of the selected object into two-dimensional coordinates corresponding to the map data by using a predetermined formula, and converts the two-dimensional coordinates. And displaying the property information of the object obtained from the map data.
제1항에 있어서,
상기 표출 영상은 상기 영상 데이터에 대응하는 제1 레이어 및 상기 공간 데이터에 대응하는 제2 레이어를 포함하는 것을 특징으로 하는 영상 시스템.
The method of claim 1,
The displayed image includes a first layer corresponding to the image data and a second layer corresponding to the spatial data.
제1항에 있어서,
상기 증강 현실 엔진은 공공 기관의 지도 데이터 베이스로부터 상기 지도 데이터를 수신하는 것을 특징으로 하는 영상 시스템.
The method of claim 1,
And said augmented reality engine receives said map data from a map database of a public institution.
제3항에 있어서,
상기 디스플레이부는 상기 촬영 장치의 위치 정보에 포함되는 좌표값을 수신하고, 상기 좌표 값을 공공 기관의 지도 데이터 베이스에 출력함으로써 상기 지도 데이터를 획득하는 것을 특징으로 하는 영상 시스템.
The method of claim 3,
And the display unit obtains the map data by receiving a coordinate value included in the location information of the photographing apparatus and outputting the coordinate value to a map database of a public institution.
제1항에 있어서,
상기 촬영 장치는 도로를 촬영하는 CCTV(Closed Circuit Television)로서 역할을 수행하고, 상기 영상 데이터는 상기 도로에 대한 영상을 나타내는 것을 특징으로 하는 영상 시스템.
The method of claim 1,
The photographing apparatus serves as a closed circuit television (CCTV) for photographing a road, and the image data represents an image of the road.
제5항에 있어서,
상기 촬영 장치는 팬 틸트 줌 기능 카메라(Pan-Tilt-Zoom Camera; PTZ Camera), 전방위 카메라 및 열적외선 카메라 중 어느 하나인 것을 특징으로 하는 영상 시스템.
The method of claim 5,
The photographing apparatus is any one of a pan-tilt-zoom camera (PTZ), an omnidirectional camera and a thermal infrared camera.
제5항에 있어서,
상기 증강 현실 엔진은 상기 지도 데이터로부터 건물 또는 도로의 명칭에 관한 명칭 정보 및 지리적 표시 중 적어도 하나에 관한 표시 정보를 추출하고, 추출한 명칭 정보 및 표시 정보의 좌표를 상기 영상 데이터에 맞게 변환 시킴으로써 상기 공간 데이터에 포함시키는 것을 특징으로 하는 영상 시스템.
The method of claim 5,
The augmented reality engine extracts display information regarding at least one of name information and geographical indication of a name of a building or a road from the map data, and converts coordinates of the extracted name information and display information according to the image data. Imaging system, characterized in that included in the data.
삭제delete 제1항에 있어서,
상기 디스플레이부는 유무선 네트워크를 통해 상기 촬영 장치로부터 상기 영상 데이터를 수신하는 것을 특징으로 하는 영상 시스템.
The method of claim 1,
And the display unit receives the image data from the photographing apparatus through a wired or wireless network.
촬영 장치를 이용하여 특정 장소를 촬영함으로써 상기 특정 장소에 대한 영상 데이터를 생성하는 단계;
지도 데이터를 수신하는 단계;
상기 지도 데이터에 포함되는 적어도 하나의 객체에 대한 좌표를 변환함으로써공간 데이터를 생성하는 단계;
상기 촬영 장치의 위치 정보에 기초하여 상기 영상 데이터에 상기 공간 데이터를 병합함으로써 병합 데이터를 생성하는 단계;
상기 병합 데이터에 대응하는 표출 영상을 디스플레이하는 단계;
상기 표출 영상에 포함되는 객체에 대한 선택 신호를 수신하는 단계;
미리 결정된 공식을 이용하여 상기 객체의 상기 표출 영상 상의 3차원 좌표를 상기 지도 데이터에 대응되는 2차원 좌표로 변환하는 단계;
상기 2차원 좌표에 기초하여 상기 지도 데이터로부터 상기 객체의 속성 정보를 수신하는 단계;및
수신한 상기 속성 정보를 디스플레이 하는 단계;를 더 포함하는 관제 시스템 운용 방법.
Generating image data of the specific place by photographing the specific place using a photographing device;
Receiving map data;
Generating spatial data by transforming coordinates of at least one object included in the map data;
Generating merged data by merging the spatial data with the image data based on the location information of the photographing apparatus;
Displaying the displayed image corresponding to the merged data;
Receiving a selection signal for an object included in the displayed image;
Converting three-dimensional coordinates on the displayed image of the object into two-dimensional coordinates corresponding to the map data by using a predetermined formula;
Receiving attribute information of the object from the map data based on the two-dimensional coordinates; and
And displaying the received attribute information.
삭제delete
KR1020190062061A 2019-05-27 2019-05-27 Map information displayed monitoring system using Augmented Reality KR102058628B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190062061A KR102058628B1 (en) 2019-05-27 2019-05-27 Map information displayed monitoring system using Augmented Reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190062061A KR102058628B1 (en) 2019-05-27 2019-05-27 Map information displayed monitoring system using Augmented Reality

Publications (1)

Publication Number Publication Date
KR102058628B1 true KR102058628B1 (en) 2019-12-23

Family

ID=69051903

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190062061A KR102058628B1 (en) 2019-05-27 2019-05-27 Map information displayed monitoring system using Augmented Reality

Country Status (1)

Country Link
KR (1) KR102058628B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101937096B1 (en) * 2018-06-05 2019-01-09 서울시립대학교 산학협력단 3D monitoring server using 3D BIM object model and 3D monitoring system comprising it

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101937096B1 (en) * 2018-06-05 2019-01-09 서울시립대학교 산학협력단 3D monitoring server using 3D BIM object model and 3D monitoring system comprising it

Similar Documents

Publication Publication Date Title
US8750559B2 (en) Terminal and method for providing augmented reality
CN103901884A (en) Information processing method and information processing device
US8811717B2 (en) Image generating apparatus and computer program
CN107018386A (en) A kind of video flowing multiresolution observation system
CN109636763B (en) Intelligent compound eye monitoring system
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
KR20210036212A (en) Server, device and method for providing augmented reality
GB2557141A (en) Image generation system and image generation method
KR20140054650A (en) Method and apparatus for searching object of interest by selection of object
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
KR102095454B1 (en) Cloud server for connected-car and method for simulating situation
KR101758786B1 (en) Apparatus for determining location of special point in image and method thereof
KR102058628B1 (en) Map information displayed monitoring system using Augmented Reality
CN112217813A (en) Front-end equipment control method and device
KR102008672B1 (en) System for Performing Linkage Operation of Augmented Reality and Event in Association with Camera and Driving Method Thereof
KR20200101792A (en) The CCTV integrated control system using black box
KR102468685B1 (en) Workplace Safety Management Apparatus Based on Virtual Reality and Driving Method Thereof
EP4075789A1 (en) Imaging device, imaging method, and program
KR101559739B1 (en) System for merging virtual modeling and image data of cameras
CN111738906B (en) Indoor road network generation method and device, storage medium and electronic equipment
CN104041015A (en) A method for video surveillance, a related system, a related surveillance server, and a related surveillance camera
KR101583598B1 (en) Camera, service server, system and method for processing high-resolution image
KR20120137607A (en) Web service system and method using spherical image, web map, gis database
KR20210055381A (en) Apparatus, method and computer program for providing augmented reality contentes through smart display
JP6483326B2 (en) Monitoring system and terminal device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant